JP2014224861A - Display device and imaging device - Google Patents

Display device and imaging device Download PDF

Info

Publication number
JP2014224861A
JP2014224861A JP2013103343A JP2013103343A JP2014224861A JP 2014224861 A JP2014224861 A JP 2014224861A JP 2013103343 A JP2013103343 A JP 2013103343A JP 2013103343 A JP2013103343 A JP 2013103343A JP 2014224861 A JP2014224861 A JP 2014224861A
Authority
JP
Japan
Prior art keywords
unit
display
image
light
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013103343A
Other languages
Japanese (ja)
Inventor
森 一幸
Kazuyuki Mori
一幸 森
達之 上村
Tatsuyuki Kamimura
達之 上村
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013103343A priority Critical patent/JP2014224861A/en
Priority to CN201410160264.3A priority patent/CN104125379B/en
Priority to US14/257,586 priority patent/US9596390B2/en
Publication of JP2014224861A publication Critical patent/JP2014224861A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device and imaging device capable of focusing on a desired subject during tele-photographing.SOLUTION: A display device includes a built-in display unit 215a that can display information on a lens unit 3, and an optical element 215b that transmits light from a subject area of an imaging device 1 and creates a virtual image of the information on the lens unit 3 displayed by the built-in display unit 215a in the subject area of the imaging device 1.

Description

本発明は、画像データを表示可能な表示装置および被写体を撮像して該被写体の画像データを生成する撮像装置に関する。   The present invention relates to a display device that can display image data and an imaging device that images a subject and generates image data of the subject.

従来、カメラ機能を備えた携帯電話において、カメラの撮像範囲を確認するための光学照準部を設け、撮影者が自分撮りを行う際に、光学照準部から射出される光束に応じて、撮影者にカメラの撮像範囲を把握させる技術が知られている(特許文献1参照)。   Conventionally, in a mobile phone equipped with a camera function, an optical sighting unit for confirming the imaging range of the camera has been provided, and when a photographer takes a self-portrait, depending on the light beam emitted from the optical sighting unit, the photographer A technique for making the camera grasp the imaging range of the camera is known (see Patent Document 1).

特開2001−136499号公報JP 2001-136499 A

しかしながら、上述した特許文献1では、光学照準部が撮影者の自分撮り用のため、望遠撮影時に所望の被写体に対して照準することが難しかった。   However, in Patent Document 1 described above, since the optical sighting unit is for a photographer's self-portrait, it is difficult to aim at a desired subject during telephoto shooting.

本発明は、上記に鑑みてなされたものであって、望遠撮影時に所望の被写体に対して容易に照準することができる表示装置および撮像装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a display device and an imaging device that can easily aim at a desired subject during telephoto shooting.

上述した課題を解決し、目的を達成するために、本発明にかかる表示装置は、被写体と対向する前面側に設けられた撮像光学系を備えた表示装置であって、前記撮像光学系に関する情報を表示可能な表示部と、前記撮像光学系が集光する視野領域からの光を透過するとともに、前記視野領域からの光を透過する領域に前記情報の虚像を生じさせる光学素子と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a display device according to the present invention is a display device including an imaging optical system provided on a front side facing a subject, and information relating to the imaging optical system And an optical element that transmits light from a field of view collected by the imaging optical system and generates a virtual image of the information in a region that transmits light from the field of view. It is characterized by that.

また、本発明にかかる表示装置は、上記発明において、前記撮像光学系は、画角を変更可能なズーム光学系を有し、前記情報は、少なくとも前記撮像光学系の画角に関する画角情報を含むことを特徴とする。   In the display device according to the present invention as set forth in the invention described above, the imaging optical system includes a zoom optical system capable of changing a field angle, and the information includes at least field angle information related to a field angle of the imaging optical system. It is characterized by including.

また、本発明にかかる撮像装置は、上記の表示装置と、前記撮像光学系が前記視野領域から集光した光を受光して光電変換を行うことによって画像データを生成する撮像部と、
前記撮像部が生成した前記画像データに対応する画像を前記表示部に表示させる表示制御部と、を備えたことを特徴とする。
An imaging device according to the present invention includes the display device, an imaging unit that generates image data by receiving light collected from the visual field by the imaging optical system and performing photoelectric conversion,
A display control unit that causes the display unit to display an image corresponding to the image data generated by the imaging unit.

また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記画像を縮小して前記表示部に表示させることを特徴とする。   In the imaging device according to the present invention as set forth in the invention described above, the display control unit reduces the image and causes the display unit to display the image.

また、本発明にかかる撮像装置は、上記発明において、前記光学素子の前面側に設けられ、前記視野領域からの光の一部を遮光する遮光部をさらに備え、前記表示制御部は、前記遮光部が設けられた領域に対応する前記表示部の表示領域に前記画像を縮小して表示させることを特徴とする。   The imaging apparatus according to the present invention further includes a light-shielding unit that is provided on the front side of the optical element and shields part of the light from the visual field region, and the display control unit includes the light-shielding unit. The image is reduced and displayed in a display area of the display section corresponding to the area where the section is provided.

また、本発明にかかる撮像装置は、上記発明において、前記光学素子の前面側に設けられ、前記視野領域からの光を遮光する遮光状態と透過する透過状態とを切り替え可能な遮光部と、前記遮光部を駆動する遮光駆動部と、前記視野領域からの光を遮光する指示信号の入力を受け付ける入力部と、前記入力部から前記指示信号が入力された場合、前記遮光駆動部を駆動させて前記遮光部に前記視野領域からの光を遮光させる遮光制御部と、を備え、前記表示制御部は、前記遮光部が前記視野領域からの光を遮光する場合、前記画像を前記表示部に全画面表示させることを特徴とする。   Further, the imaging apparatus according to the present invention, in the above invention, is provided on the front surface side of the optical element, and is capable of switching between a light shielding state for shielding light from the visual field region and a transmission state for transmitting, A light-shielding drive unit that drives the light-shielding unit; an input unit that receives an input of an instruction signal that shields light from the visual field region; and when the instruction signal is input from the input unit, the light-shielding drive unit is driven A light-blocking control unit configured to block light from the visual field area in the light-shielding unit, and the display control unit, when the light-shielding unit shields light from the visual field area, displays the image on the display unit. It is characterized by being displayed on the screen.

また、本発明にかかる撮像装置は、上記発明において、前記撮像光学系の画角を算出する画角算出部をさらに備え、前記表示制御部は、前記画角算出部が算出した前記画角に対応する大きさで前記情報を前記表示部に表示させることを特徴とする。   The imaging apparatus according to the present invention further includes an angle-of-view calculating unit that calculates an angle of view of the imaging optical system in the above-described invention, and the display control unit is configured to display the angle of view calculated by the angle-of-view calculating unit. The information is displayed on the display unit in a corresponding size.

また、本発明にかかる撮像装置は、上記発明において、複数のランドマークそれぞれの名称、位置情報および方位情報を含むランドマーク情報を記録するランドマーク情報記録部と、当該撮像装置の位置情報を検出する位置情報検出部と、前記撮像光学系の光軸が略水平になる場合において、前記撮像光学系の光軸が前記視野領域を向いた方向を基準方位としたときの当該撮像装置の方位情報を検出する方位検出部と、前記位置情報検出部が検出した前記位置情報と前記方位検出部が検出した前記方位情報とに基づいて、前記視野領域内のランドマークを前記ランドマーク情報記録部から検索するランドマーク検索部と、を備え、前記表示制御部は、前記ランドマーク検索部が検出したランドマークに関するランドマーク情報を前記表示部に表示させることを特徴とする。   In the image pickup apparatus according to the present invention, in the above invention, a landmark information recording unit that records landmark information including name, position information, and orientation information of each of the plurality of landmarks, and detects position information of the image pickup apparatus. Orientation information of the imaging apparatus when the optical axis of the imaging optical system faces the visual field region as a reference orientation in the case where the optical axis of the imaging information optical system is substantially horizontal A landmark in the visual field region from the landmark information recording unit based on the azimuth detecting unit for detecting the position information, the position information detected by the position information detecting unit, and the azimuth information detected by the azimuth detecting unit. A landmark search unit for searching, and the display control unit displays landmark information related to the landmark detected by the landmark search unit on the display unit. And characterized in that shown.

また、本発明にかかる装置は、上記発明において、前記撮像部が生成した前記画像データに対応する画像を表示する背面表示部と、当該撮像装置に対する撮影者の近接を検出する検出部と、をさらに備え、前記表示制御部は、前記検出部が前記撮影者の近接を検出した場合、前記表示部に前記画像を表示させる一方、前記検出部が前記撮影者の近接を検出しない場合、前記背面表示部に前記画像を表示させることを特徴とする。   The apparatus according to the present invention, in the above invention, includes a rear display unit that displays an image corresponding to the image data generated by the imaging unit, and a detection unit that detects the proximity of the photographer to the imaging device. In addition, the display control unit displays the image on the display unit when the detection unit detects the proximity of the photographer, and displays the image on the back surface when the detection unit does not detect the proximity of the photographer. The image is displayed on a display unit.

本発明によれば、望遠撮影時に所望の被写体に照準することができるという効果を奏する。   According to the present invention, it is possible to aim at a desired subject during telephoto shooting.

図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a side facing a subject of the imaging apparatus according to the first embodiment of the present invention. 図2は、本発明の実施の形態1にかかる撮像装置のユーザに面する側の構成を示す図である。FIG. 2 is a diagram illustrating a configuration on the side facing the user of the imaging apparatus according to the first embodiment of the present invention. 図3は、本発明の実施の形態1にかかる撮像装置の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus according to the first embodiment of the present invention. 図4は、本発明の実施の形態1にかかる撮像装置が実行する処理の概要を示すフローチャートである。FIG. 4 is a flowchart illustrating an outline of processing executed by the imaging apparatus according to the first embodiment of the present invention. 図5Aは、本発明の実施の形態1にかかる撮像装置の背面表示部が表示するライブビュー画像を見ながら被写体のフレーミングを行う際の状況を模式的に示す図である。FIG. 5A is a diagram schematically illustrating a situation when framing a subject while viewing a live view image displayed on the rear display unit of the imaging apparatus according to the first embodiment of the present invention. 図5Bは、本発明の実施の形態1にかかる撮像装置の背面表示部が表示するライブビュー画像を見ながら広角で被写体のフレーミングを行う際の状況を模式的に示すである。FIG. 5B schematically shows a situation when framing a subject at a wide angle while viewing a live view image displayed on the rear display unit of the imaging apparatus according to the first embodiment of the present invention. 図5Cは、本発明の実施の形態1にかかる撮像装置の背面表示部が表示するライブビュー画像を見ながら被写体を撮影した際の状況を模式的に示す図である。FIG. 5C is a diagram schematically illustrating a situation when the subject is photographed while viewing the live view image displayed by the rear display unit of the imaging apparatus according to the first embodiment of the present invention. 図6は、本発明の実施の形態1にかかる撮像装置の接眼表示部で被写体のフレーミングを確認しながら撮影を行う際の状況を模式的に示す図である。FIG. 6 is a diagram schematically illustrating a situation when shooting is performed while confirming the framing of the subject on the eyepiece display unit of the imaging apparatus according to the first embodiment of the present invention. 図7は、本発明の実施の形態1にかかる撮像装置の内蔵表示部が表示する画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of an image displayed by the built-in display unit of the imaging apparatus according to the first embodiment of the present invention. 図8は、撮影者が接眼表示部を介して視認する画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of an image visually recognized by the photographer via the eyepiece display unit. 図9は、本発明の実施の形態2にかかる撮像装置の機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of the imaging apparatus according to the second embodiment of the present invention. 図10は、本発明の実施の形態2にかかる撮像装置が実行する処理の概要を示すフローチャートである。FIG. 10 is a flowchart illustrating an outline of processing executed by the imaging apparatus according to the second embodiment of the present invention. 図11は、本発明の実施の形態2にかかる撮像装置の接眼表示部で被写体のフレーミングを確認しながら撮影を行う際の状況を模式的に示す図である。FIG. 11 is a diagram schematically illustrating a situation when shooting is performed while confirming framing of a subject on the eyepiece display unit of the imaging apparatus according to the second embodiment of the present invention. 図12は、図11に示す状況下において撮影者が接眼表示部を介して視認する画像の一例を示す図である。FIG. 12 is a diagram illustrating an example of an image visually recognized by the photographer via the eyepiece display unit under the situation illustrated in FIG. 11. 図13は、本発明の実施の形態2にかかる撮像装置の接眼表示部で被写体のフレーミングを確認しながら撮影を行う際の状況を模式的に示す図である。FIG. 13 is a diagram schematically illustrating a situation when shooting is performed while confirming framing of a subject on the eyepiece display unit of the imaging apparatus according to the second embodiment of the present invention. 図14は、図13に示す状況下において撮影者が接眼表示部を介して視認する画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image visually recognized by the photographer via the eyepiece display unit under the situation illustrated in FIG. 13. 図15は、本発明の実施の形態3にかかる撮像装置の機能構成を示すブロック図である。FIG. 15 is a block diagram illustrating a functional configuration of the imaging apparatus according to the third embodiment of the present invention. 図16は、本発明の実施の形態3にかかる撮像装置が実行する処理の概要を示すフローチャートである。FIG. 16 is a flowchart illustrating an outline of processing executed by the imaging apparatus according to the third embodiment of the present invention. 図17は、撮影者が接眼表示部を介して視認する画像の一例を示す図である。FIG. 17 is a diagram illustrating an example of an image visually recognized by the photographer via the eyepiece display unit.

以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下の実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. Note that the present invention is not limited to the following embodiments. In the description of the drawings, the same portions are denoted by the same reference numerals for description.

(実施の形態1)
図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側(前面側)の構成を示す図である。図2は、本発明の実施の形態1にかかる撮像装置のユーザに面する側(背面側)の構成を示す図である。図3は、本発明の実施の形態1にかかる撮像装置の機能構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a configuration of a side facing the subject (front side) of the imaging apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating a configuration on the side (back side) facing the user of the imaging apparatus according to the first embodiment of the present invention. FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus according to the first embodiment of the present invention.

図1〜図3に示す撮像装置1は、本体部2と、本体部2に着脱自在であり、所定の視野領域から光を集光するとともに、光学ズームが可能なレンズ部3と、を備える。なお、本実施の形態1では、レンズ部3が撮像光学系として機能する。   The imaging apparatus 1 shown in FIGS. 1 to 3 includes a main body unit 2 and a lens unit 3 that can be attached to and detached from the main body unit 2 and collects light from a predetermined visual field region and is capable of optical zooming. . In the first embodiment, the lens unit 3 functions as an imaging optical system.

まず、本体部2について説明する。本体部2は、シャッタ201と、シャッタ駆動部202と、撮像素子203と、撮像素子駆動部204と、信号処理部205と、A/D変換部206と、画像処理部207と、AE処理部208と、AF処理部209と、画像圧縮展開部210と、入力部211と、位置情報検出部212と、方位検出部213と、モーション検出部214と、接眼表示部215と、アイセンサ216と、背面表示部217と、時計218と、記録媒体219と、メモリI/F220と、SDRAM(Synchronous Dynamic Random Access Memory)221と、Flashメモリ222と、本体通信部223と、バス224と、本体制御部225と、を備える。   First, the main body 2 will be described. The main body 2 includes a shutter 201, a shutter driving unit 202, an image sensor 203, an image sensor driving unit 204, a signal processing unit 205, an A / D conversion unit 206, an image processing unit 207, and an AE processing unit. 208, an AF processing unit 209, an image compression / decompression unit 210, an input unit 211, a position information detection unit 212, an orientation detection unit 213, a motion detection unit 214, an eyepiece display unit 215, an eye sensor 216, Rear display unit 217, clock 218, recording medium 219, memory I / F 220, SDRAM (Synchronous Dynamic Random Access Memory) 221, Flash memory 222, main unit communication unit 223, bus 224, main unit control unit 225.

シャッタ201は、撮像素子203の状態を露光状態または遮光状態に設定する。シャッタ201は、レンズシャッタまたはフォーカルプレーンシャッタを用いて構成される。   The shutter 201 sets the state of the image sensor 203 to an exposure state or a light shielding state. The shutter 201 is configured using a lens shutter or a focal plane shutter.

シャッタ駆動部202は、本体制御部225から入力される指示信号に応じてシャッタ201を駆動する。シャッタ駆動部202は、ステッピングモータやDCモータ等を用いて構成される。   The shutter driving unit 202 drives the shutter 201 in accordance with an instruction signal input from the main body control unit 225. The shutter drive unit 202 is configured using a stepping motor, a DC motor, or the like.

撮像素子203は、レンズ部3が集光した光を受光して光電変換を行うことによって電子的な画像データを生成する。具体的には、撮像素子203は、レンズ部3が集光した光を受光して電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成され、被写体の画像データを生成する。撮像素子駆動部204は、所定のタイミングで撮像素子203から画像データ(アナログ信号)を信号処理部205へ出力させる。この意味で、撮像素子駆動部204は、電子シャッタとして機能する。また、撮像素子駆動部204は、本体制御部225の制御のもと、撮像素子203に所定のフレームレート(たとえば30fpsまたは60fps)で画像データを出力させる。さらに、撮像素子駆動部204は、本体制御部225の制御のもと、撮像素子203の所定のライン、たとえば偶数ラインや奇数ラインを間引くことで、撮像素子203に高速フレームレート(たとえば120fps)で画像データを信号処理部205に出力させる。   The image sensor 203 receives the light collected by the lens unit 3 and performs photoelectric conversion to generate electronic image data. Specifically, the image sensor 203 is configured using a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that receives the light collected by the lens unit 3 and converts it into an electrical signal, and the like. Generate image data. The image sensor driving unit 204 outputs image data (analog signal) from the image sensor 203 to the signal processing unit 205 at a predetermined timing. In this sense, the image sensor driving unit 204 functions as an electronic shutter. Further, the image sensor driving unit 204 causes the image sensor 203 to output image data at a predetermined frame rate (for example, 30 fps or 60 fps) under the control of the main body control unit 225. Further, the image sensor driving unit 204 thins out a predetermined line of the image sensor 203, for example, an even line or an odd line, under the control of the main body control unit 225, so that the image sensor 203 has a high frame rate (for example, 120 fps). The image processing unit 205 outputs the image data.

信号処理部205は、撮像素子203から入力される画像データに対して、リセットノイズ低減処理、波形整形処理およびゲインアップ処理等のアナログ処理を施してA/D変換部206へ出力する。   The signal processing unit 205 performs analog processing such as reset noise reduction processing, waveform shaping processing, and gain increase processing on the image data input from the image sensor 203 and outputs the processed image data to the A / D conversion unit 206.

A/D変換部206は、信号処理部205から入力されるアナログの画像データに対してA/D変換を行うことによってデジタルの画像データ(RAWデータ)を生成し、バス224を介してSDRAM221へ出力する。   The A / D conversion unit 206 generates digital image data (RAW data) by performing A / D conversion on the analog image data input from the signal processing unit 205, and sends the digital image data (RAW data) to the SDRAM 221 via the bus 224. Output.

画像処理部207は、バス224を介してSDRAM221から画像データ(RAWデータ)を取得し、取得した画像データに対して各種の画像処理を施してSDRAM221へ出力する。ここで、画像処理としては、オプティカルブラック低減処理、ホワイトバランス調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理、エッジ強調処理、複数の画像データを合成する合成処理および撮像素子203がベイヤー配列の場合には画像データの同時化処理等である。   The image processing unit 207 acquires image data (RAW data) from the SDRAM 221 via the bus 224, performs various image processing on the acquired image data, and outputs the image data to the SDRAM 221. Here, as image processing, optical black reduction processing, white balance adjustment processing, color matrix calculation processing, gamma correction processing, color reproduction processing, edge enhancement processing, composition processing for combining a plurality of image data, and image sensor 203 are Bayer. In the case of an array, the image data is synchronized.

AE処理部208は、バス224を介してSDRAM221に記録された画像データを取得し、取得した画像データに基づいて、撮像装置1が静止画撮影または動画撮影を行う際の露出条件を設定する。具体的には、AE処理部208は、画像データから輝度を算出し、算出した輝度に基づいて、たとえば絞り値、シャッタ速度、ISO感度等を決定することで撮像装置1の自動露出を行う。   The AE processing unit 208 acquires image data recorded in the SDRAM 221 via the bus 224, and sets an exposure condition when the imaging device 1 performs still image shooting or moving image shooting based on the acquired image data. Specifically, the AE processing unit 208 calculates the luminance from the image data, and performs automatic exposure of the imaging device 1 by determining, for example, an aperture value, a shutter speed, ISO sensitivity, and the like based on the calculated luminance.

AF処理部209は、バス224を介してSDRAM221に記録された画像データを取得し、取得した画像データに基づいて、自動的に撮像装置1の焦点の調整を行う。たとえば、AF処理部209は、画像データから高周波成分の信号を取り出し、高周波成分の信号に対してAF(Auto Focus)演算処理を行うことによって、撮像装置1の合焦評価を決定することで撮像装置1の焦点の調整を自動で行う。なお、AF処理部209は、瞳分割位相差法を用いて撮像装置1の焦点の調整を自動で行ってもよい。   The AF processing unit 209 acquires image data recorded in the SDRAM 221 via the bus 224, and automatically adjusts the focus of the imaging device 1 based on the acquired image data. For example, the AF processing unit 209 extracts a high-frequency component signal from the image data, performs AF (Auto Focus) calculation processing on the high-frequency component signal, and determines the focus evaluation of the imaging apparatus 1 to perform imaging. The focus of the apparatus 1 is automatically adjusted. Note that the AF processing unit 209 may automatically adjust the focus of the imaging apparatus 1 using the pupil division phase difference method.

画像圧縮展開部210は、バス224を介してSDRAM221から画像データを取得し、取得した画像データに対して所定の形式に従って圧縮し、この圧縮した画像データをメモリI/F220を介して記録媒体219へ出力する。ここで、所定の形式としては、JPEG(Joint Photographic Experts Group)方式、MotionJPEG方式およびMP4(H.264)方式等である。また、画像圧縮展開部210は、バス224およびメモリI/F220を介して記録媒体219に記録された画像データ(圧縮画像データ)を取得し、取得した画像データを展開(伸長)してSDRAM221へ出力する。   The image compression / decompression unit 210 acquires image data from the SDRAM 221 via the bus 224, compresses the acquired image data according to a predetermined format, and compresses the compressed image data via the memory I / F 220. Output to. Here, the predetermined format includes a JPEG (Joint Photographic Experts Group) system, a Motion JPEG system, and an MP4 (H.264) system. In addition, the image compression / decompression unit 210 acquires image data (compressed image data) recorded on the recording medium 219 via the bus 224 and the memory I / F 220, expands (decompresses) the acquired image data, and transfers it to the SDRAM 221. Output.

入力部211は、撮像装置1の電源状態をオン状態またはオフ状態に切り替える電源スイッチ211aと、静止画撮影の指示を与える静止画レリーズ信号の入力を受け付けるレリーズスイッチ211bと、撮像装置1の各種設定を切り替えるモードスイッチ211cと、撮像装置1の各種設定を背面表示部217に表示させるメニュースイッチ211dと、動画撮影の指示を与える動画レリーズ信号の入力を受け付ける動画スイッチ211eと、記録媒体219に記録された画像データを再生する指示信号の入力を受け付ける再生スイッチ211fと、背面表示部217の表示画面に重畳して設けられ、外部からの接触位置に応じた位置信号の入力を受け付けるタッチパネル211gと、を有する。レリーズスイッチ211bは、外部からの押圧により進退可能であり、半押しされた場合に撮影準備動作を指示する指示信号のファーストレリーズ信号の入力を受け付ける一方、全押しされた場合に静止画撮影を指示するセカンドレリーズ信号の入力を受け付ける。   The input unit 211 includes a power switch 211 a that switches the power state of the imaging device 1 to an on state or an off state, a release switch 211 b that receives an input of a still image release signal that gives a still image shooting instruction, and various settings of the imaging device 1 Recorded on the recording medium 219, a mode switch 211 c for switching between, a menu switch 211 d for displaying various settings of the imaging device 1 on the rear display unit 217, a moving image switch 211 e for receiving an input of a moving image release signal for giving a moving image shooting instruction. A reproduction switch 211f that receives an input of an instruction signal for reproducing the image data, and a touch panel 211g that is provided so as to be superimposed on the display screen of the rear display unit 217 and that receives an input of a position signal according to a contact position from the outside. Have. The release switch 211b can be moved back and forth by an external press. When the release switch 211b is pressed halfway, it accepts an input of a first release signal as an instruction signal for instructing a shooting preparation operation. The second release signal input is accepted.

位置情報検出部212は、地上の物体の位置を測位する測定手段であるGPS(Global Positioning System)を構成する複数のGPS衛星から送信されてくる衛星の軌道情報を受信し、この受信した軌道情報に基づいて、撮像装置1の位置情報を検出する。この位置情報は、経度、緯度および時刻情報である。   The position information detection unit 212 receives satellite orbit information transmitted from a plurality of GPS satellites constituting a GPS (Global Positioning System) that is a measuring means for measuring the position of an object on the ground, and the received orbit information. The position information of the imaging device 1 is detected based on the above. This position information is longitude, latitude, and time information.

方位検出部213は、レンズ部3の光軸O1が略水平になる場合において、レンズ部3の光軸O1が視野領域を向いた方向を基準方位としたときの撮像装置1の方位を方位情報として検出する。具体的には、方位検出部213は、地磁気の垂直方向と水平方向の成分を検出し、北を基準とする基準方位と撮像装置1の光軸O1とがなす角度を方位角として検出することによって、撮像装置1の方位を検出する。方位検出部213は、磁気方位センサ等によって構成される。   The azimuth detection unit 213 uses the azimuth information of the imaging device 1 when the optical axis O1 of the lens unit 3 is substantially horizontal and the direction in which the optical axis O1 of the lens unit 3 faces the field of view is set as a reference azimuth. Detect as. Specifically, the azimuth detection unit 213 detects vertical and horizontal components of geomagnetism, and detects an angle formed by the reference azimuth with respect to the north and the optical axis O1 of the imaging device 1 as an azimuth angle. Thus, the orientation of the imaging device 1 is detected. The direction detection unit 213 is configured by a magnetic direction sensor or the like.

モーション検出部214は、撮像装置1に生じる加速度を検出することによって、水平面に対する撮像装置1の傾斜角度を検出し、この検出結果を本体制御部225へ出力する。具体的には、モーション検出部214は、ユーザが撮像装置1に対してチルト操作(あおり操作)を行った場合、水平面に対する撮像装置1の極座標を傾斜角度として検出する。モーション検出部214は、各軸方向の加速度成分をそれぞれ検出する3軸の加速度センサおよびジャイロセンサ等を用いて構成される。   The motion detection unit 214 detects the inclination angle of the imaging device 1 with respect to the horizontal plane by detecting the acceleration generated in the imaging device 1, and outputs the detection result to the main body control unit 225. Specifically, when the user performs a tilt operation (tilting operation) on the imaging device 1, the motion detection unit 214 detects the polar coordinates of the imaging device 1 with respect to the horizontal plane as an inclination angle. The motion detection unit 214 is configured using a triaxial acceleration sensor and a gyro sensor that detect acceleration components in the respective axial directions.

接眼表示部215は、本体制御部225の制御のもと、バス224を介してSDRAM221に記録された画像データに対応する画像を表示するとともに、撮像装置1の視野領域からの光を透過する。なお、本発明の形態1では、接眼表示部215が表示装置として機能する。   The eyepiece display unit 215 displays an image corresponding to the image data recorded in the SDRAM 221 via the bus 224 under the control of the main body control unit 225 and transmits light from the visual field region of the imaging device 1. In Embodiment 1 of the present invention, the eyepiece display unit 215 functions as a display device.

ここで、接眼表示部215の詳細な構成について説明する。接眼表示部215は、内蔵表示部215aと、光学素子215bと、接眼部215cと、遮光部215dと、を有する。   Here, a detailed configuration of the eyepiece display unit 215 will be described. The eyepiece display unit 215 includes a built-in display unit 215a, an optical element 215b, an eyepiece unit 215c, and a light shielding unit 215d.

内蔵表示部215aは、本体制御部225の制御のもと、バス224を介してSDRAM221に記録された画像データに対応する画像、または撮像素子203が連続的に生成する画像データに対応するライブビュー画像を表示する。また、内蔵表示部215aは、レンズ部3に関する情報を表示する。具体的には、内蔵表示部215aは、レンズ部3の画角に関する画角情報および/またはレンズ部3の画角の中心を含む中心情報を表示する。たとえば、内蔵表示部215aは、レンズ部3の画角に対応する画像情報を枠で表示する。内蔵表示部215aは、液晶または有機EL(Electro Luminescence)からなる表示パネルおよび駆動ドライバ等を用いて構成される。なお、本実施の形態1では、内蔵表示部215aが表示部として機能する。   The built-in display unit 215a controls the live view corresponding to the image corresponding to the image data recorded in the SDRAM 221 via the bus 224 or the image data continuously generated by the image sensor 203 under the control of the main body control unit 225. Display an image. The built-in display unit 215a displays information related to the lens unit 3. Specifically, the built-in display unit 215a displays field angle information regarding the field angle of the lens unit 3 and / or center information including the center of the field angle of the lens unit 3. For example, the built-in display unit 215a displays image information corresponding to the angle of view of the lens unit 3 with a frame. The built-in display unit 215a is configured using a display panel made of liquid crystal or organic EL (Electro Luminescence), a drive driver, and the like. In the first embodiment, the built-in display unit 215a functions as a display unit.

光学素子215bは、レンズ部3が集光する視野領域からの光を透過するとともに、この視野領域を透過する領域に内蔵表示部215aが表示する情報の虚像を生じさせる。具体的には、光学素子215bは、撮像装置1の視野領域からの光を透過するとともに、内蔵表示部215aが表示する画像を接眼部215cに向けて反射することによって撮像装置1の視野領域内に内蔵表示部215aが表示する画像の虚像を生じさせる。また、光学素子215bは、内蔵表示部215aが表示するレンズ部3の画角に対応する枠および/またはレンズ部3の画角の中心を示す光束の虚像を撮像装置1の視野領域または視野領域付近に生じさせる。光学素子215bは、背面側に向けて湾曲して形成されたハーフミラーまたは特定の波長の光を反射する誘電多層膜が設けられたミラーによって構成される。   The optical element 215b transmits light from the field of view condensed by the lens unit 3 and generates a virtual image of information displayed by the built-in display unit 215a in the region that passes through the field of view. Specifically, the optical element 215b transmits light from the visual field region of the imaging device 1, and reflects the image displayed by the built-in display unit 215a toward the eyepiece unit 215c, thereby allowing the visual field region of the imaging device 1 to be reflected. A virtual image of the image displayed by the built-in display unit 215a is generated inside. The optical element 215b also displays a virtual image of a light beam indicating a frame corresponding to the angle of view of the lens unit 3 and / or the center of the angle of view of the lens unit 3 displayed by the built-in display unit 215a. Generate in the vicinity. The optical element 215b is configured by a half mirror that is curved toward the back side or a mirror provided with a dielectric multilayer film that reflects light of a specific wavelength.

接眼部215cは、光学素子215bからの光を透過させる。具体的には、接眼部215cは、平行レンズ、ガラスおよびプラスチック等を用いて構成される。   The eyepiece 215c transmits light from the optical element 215b. Specifically, the eyepiece 215c is configured using a parallel lens, glass, plastic, and the like.

遮光部215dは、光学素子215bの前面側に設けられ、撮像装置1の視野領域からの光の一部を遮光する。遮光部215dは、遮光部材を用いて構成される。   The light shielding unit 215d is provided on the front side of the optical element 215b, and shields part of the light from the visual field region of the imaging device 1. The light shielding unit 215d is configured using a light shielding member.

このように構成された接眼表示部215は、電子ビューファインダ(EVF)として機能するとともに、照準器としても機能する。   The eyepiece display unit 215 configured as described above functions as an electronic viewfinder (EVF) and also as an aiming device.

アイセンサ216は、接眼表示部215に対するユーザの近接を検出し、この検出結果を本体制御部225へ出力する。アイセンサ216は、接触センサや赤外線センサ等を用いて構成される。なお、本実施の形態1では、アイセンサ216が検出部として機能する。   The eye sensor 216 detects the proximity of the user to the eyepiece display unit 215 and outputs the detection result to the main body control unit 225. The eye sensor 216 is configured using a contact sensor, an infrared sensor, or the like. In the first embodiment, the eye sensor 216 functions as a detection unit.

背面表示部217は、本体制御部225の制御のもと、画像データに対応する画像を表示する。背面表示部217は、液晶または有機EL等からなる表示パネルおよび表示駆動ドライバ等を用いて構成される。ここで、画像の表示には、撮影直後の画像データを所定時間(たとえば3秒)だけ表示する確認表示、記録媒体219に記録された画像データを再生する再生表示、および撮像素子203が時間的に連続して生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー表示等が含まれる。また、背面表示部217は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。   The rear display unit 217 displays an image corresponding to the image data under the control of the main body control unit 225. The rear display unit 217 is configured using a display panel made of liquid crystal or organic EL, a display drive driver, and the like. Here, for image display, confirmation display for displaying image data immediately after shooting for a predetermined time (for example, 3 seconds), reproduction display for reproducing image data recorded on the recording medium 219, and the image sensor 203 in terms of time. Includes live view display that sequentially displays live view images corresponding to image data generated successively in time series. Further, the rear display unit 217 appropriately displays operation information of the imaging device 1 and information related to shooting.

時計218は、計時機能および撮影日時の判定機能を有する。時計218は、撮像素子203によって撮像された画像データに日時データを付加するため、日時データを本体制御部225へ出力する。   The clock 218 has a clocking function and a shooting date / time determination function. The clock 218 outputs the date / time data to the main body control unit 225 in order to add the date / time data to the image data captured by the image sensor 203.

記録媒体219は、撮像装置1の外部から装着されるメモリカード等を用いて構成される。記録媒体219は、メモリI/F220を介して撮像装置1に着脱自在に装着される。記録媒体219には、RAWデータ、および画像処理部207または画像圧縮展開部210が処理を施した画像データが書き込まれる。また、記録媒体219は、本体制御部225によって記録された画像データが読み出される。   The recording medium 219 is configured using a memory card or the like mounted from the outside of the imaging device 1. The recording medium 219 is detachably attached to the imaging device 1 via the memory I / F 220. In the recording medium 219, RAW data and image data processed by the image processing unit 207 or the image compression / decompression unit 210 are written. The recording medium 219 reads image data recorded by the main body control unit 225.

SDRAM221は、バス224を介してA/D変換部206から入力される画像データ、画像処理部207から入力される画像データおよび撮像装置1の処理中の情報を一時的に記録する。たとえば、SDRAM221は、信号処理部205、A/D変換部206およびバス224を介して撮像素子203が1フレーム毎に順次出力する画像データを一時的に記録する。   The SDRAM 221 temporarily records image data input from the A / D conversion unit 206 via the bus 224, image data input from the image processing unit 207, and information being processed by the imaging apparatus 1. For example, the SDRAM 221 temporarily records image data that the image sensor 203 sequentially outputs for each frame via the signal processing unit 205, the A / D conversion unit 206, and the bus 224.

Flashメモリ222は、プログラム記録部222aを有する。プログラム記録部222aは、撮像装置1を動作させるための各種プログラムおよびプログラムの実行中に使用される各種データおよび画像処理部207による画像処理の動作に必要な各画像処理のパラメータ等を記録する。   The flash memory 222 includes a program recording unit 222a. The program recording unit 222a records various programs for operating the imaging apparatus 1, various data used during the execution of the programs, parameters of each image processing necessary for the image processing operation by the image processing unit 207, and the like.

本体通信部223は、本体部2に装着されるレンズ部3との通信を行うための通信インターフェースである。本体通信部223には、レンズ部3との電気的な接点も含まれる。   The main body communication unit 223 is a communication interface for performing communication with the lens unit 3 attached to the main body unit 2. The main body communication unit 223 includes an electrical contact with the lens unit 3.

バス224は、撮像装置1の各構成部位を接続する伝送路等を用いて構成される。バス224は、撮像装置1の内部で発生した各種データを撮像装置1の各構成部に転送する。   The bus 224 is configured using a transmission path or the like that connects each component of the imaging device 1. The bus 224 transfers various data generated inside the imaging apparatus 1 to each component of the imaging apparatus 1.

本体制御部225は、入力部211からの指示信号に応じて撮像装置1を構成する各部に対する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。本体制御部225は、CPU(Central Processing Unit)等を用いて構成される。   The main body control unit 225 performs overall control of the operation of the imaging apparatus 1 by giving instructions and data transfer to the respective units constituting the imaging apparatus 1 in accordance with an instruction signal from the input unit 211. The main body control unit 225 is configured using a CPU (Central Processing Unit) or the like.

ここで、本体制御部225の詳細な構成について説明する。本体制御部225は、画角算出部225aと、撮像制御部225bと、表示制御部225cと、を有する。   Here, a detailed configuration of the main body control unit 225 will be described. The main body control unit 225 includes an angle of view calculation unit 225a, an imaging control unit 225b, and a display control unit 225c.

画角算出部225aは、本体通信部223およびバス224を介して本体部2に接続されたレンズ部3のレンズ情報に基づいて、撮像装置1の画角を算出する。具体的には、画角算出部225aは、レンズ部3のレンズ情報に含まれる現在の焦点距離情報に基づいて、レンズ部3の現在の画角を算出する。   The angle-of-view calculation unit 225 a calculates the angle of view of the imaging device 1 based on lens information of the lens unit 3 connected to the main body unit 2 via the main body communication unit 223 and the bus 224. Specifically, the field angle calculation unit 225a calculates the current field angle of the lens unit 3 based on the current focal length information included in the lens information of the lens unit 3.

撮像制御部225bは、レリーズスイッチ211bからセカンドレリーズ信号が入力された場合、撮像装置1における静止画撮影動作を開始する制御を行う。ここで、撮像装置1における静止画撮影動作とは、シャッタ駆動部202および撮像素子駆動部204の駆動によって撮像素子203が出力した画像データに対し、信号処理部205、A/D変換部206および画像処理部207が所定の処理を施す動作をいう。このように処理が施された画像データは、撮像制御部225bの制御のもと、画像圧縮展開部210で所定の形式に従って圧縮され、バス224およびメモリI/F220を介して記録媒体219に記録される。また、撮像制御部225bは、動画スイッチ211eから動画撮影レリーズ信号が入力された場合、撮像装置1における動作撮影動作を開始する制御を行う。   When the second release signal is input from the release switch 211b, the imaging control unit 225b performs control to start a still image shooting operation in the imaging device 1. Here, the still image shooting operation in the image pickup apparatus 1 is a signal processing unit 205, an A / D conversion unit 206, and an image data output from the image pickup device 203 by driving the shutter drive unit 202 and the image pickup device drive unit 204. An operation in which the image processing unit 207 performs predetermined processing. The image data thus processed is compressed in accordance with a predetermined format by the image compression / decompression unit 210 under the control of the imaging control unit 225b, and recorded on the recording medium 219 via the bus 224 and the memory I / F 220. Is done. Further, the imaging control unit 225b performs control to start the operation shooting operation in the imaging device 1 when a moving image shooting release signal is input from the moving image switch 211e.

表示制御部225cは、内蔵表示部215aおよび背面表示部217の表示態様を制御する。具体的には、表示制御部225cは、撮像素子203が生成した画像データに対応する画像を内蔵表示部215aまたは背面表示部217に表示させる。   The display control unit 225c controls the display mode of the built-in display unit 215a and the rear display unit 217. Specifically, the display control unit 225c causes the built-in display unit 215a or the rear display unit 217 to display an image corresponding to the image data generated by the image sensor 203.

以上の構成を有する本体部2に対して、音声入出力機能、フラッシュ機能および外部と双方向に通信可能な通信機能等を具備させてもよい。   The main body unit 2 having the above configuration may be provided with a voice input / output function, a flash function, a communication function capable of bidirectional communication with the outside, and the like.

つぎに、レンズ部3について説明する。レンズ部3は、ズーム光学系301と、ズーム駆動部302と、ズーム位置検出部303と、絞り304と、絞り駆動部305と、絞り値検出部306と、フォーカス光学系307と、フォーカス駆動部308と、フォーカス位置検出部309と、レンズ操作部310と、レンズFlashメモリ311と、レンズ通信部312と、レンズ制御部313と、を備える。なお、本実施の形態1では、レンズ部3が撮像光学系として機能する。   Next, the lens unit 3 will be described. The lens unit 3 includes a zoom optical system 301, a zoom drive unit 302, a zoom position detection unit 303, a diaphragm 304, a diaphragm drive unit 305, an aperture value detection unit 306, a focus optical system 307, and a focus drive unit. 308, a focus position detection unit 309, a lens operation unit 310, a lens flash memory 311, a lens communication unit 312, and a lens control unit 313. In the first embodiment, the lens unit 3 functions as an imaging optical system.

ズーム光学系301は、一または複数のレンズを用いて構成され、レンズ部3の光軸O1上に沿って移動することにより、レンズ部3の光学ズームの倍率(画角)を変更する。たとえば、ズーム光学系301は、焦点距離を12mm〜600mmの間で変更することができる。   The zoom optical system 301 is configured by using one or a plurality of lenses, and changes the magnification (view angle) of the optical zoom of the lens unit 3 by moving along the optical axis O1 of the lens unit 3. For example, the zoom optical system 301 can change the focal length between 12 mm and 600 mm.

ズーム駆動部302は、レンズ制御部313の制御のもと、ズーム光学系301を光軸O1上に沿って移動させることにより、撮像装置1の光学ズームの変更を行う。ズーム駆動部302は、DCモータまたはステッピングモータ等を用いて構成される。   The zoom driving unit 302 changes the optical zoom of the imaging apparatus 1 by moving the zoom optical system 301 along the optical axis O1 under the control of the lens control unit 313. The zoom drive unit 302 is configured using a DC motor or a stepping motor.

ズーム位置検出部303は、光軸O1上におけるズーム光学系301の位置を検出し、この検出結果をレンズ制御部313へ出力する。ズーム位置検出部303は、フォトインタラプタ等を用いて構成される。   The zoom position detection unit 303 detects the position of the zoom optical system 301 on the optical axis O1, and outputs the detection result to the lens control unit 313. The zoom position detection unit 303 is configured using a photo interrupter or the like.

絞り304は、ズーム光学系301が集光した光の入射量を制限することにより露出の調整を行う。   The diaphragm 304 adjusts exposure by limiting the amount of incident light collected by the zoom optical system 301.

絞り駆動部305は、レンズ制御部313の制御のもと、絞り304を駆動することにより、撮像装置1の絞り値(f値)を変更する。絞り駆動部305は、ステッピングモータ等を用いて構成される。   The aperture driving unit 305 changes the aperture value (f value) of the imaging apparatus 1 by driving the aperture 304 under the control of the lens control unit 313. The aperture driving unit 305 is configured using a stepping motor or the like.

絞り値検出部306は、絞り304の現在の状態から絞り値を検出し、この検出結果をレンズ制御部313へ出力する。絞り値検出部306は、フォトインタラプタやエンコーダ等を用いて構成される。   The aperture value detection unit 306 detects the aperture value from the current state of the aperture 304 and outputs the detection result to the lens control unit 313. The aperture value detection unit 306 is configured using a photo interrupter, an encoder, or the like.

フォーカス光学系307は、一または複数のレンズを用いて構成され、レンズ部3の光軸O1上に沿って移動することにより、レンズ部3のピント位置を変更する。   The focus optical system 307 is configured using one or a plurality of lenses, and changes the focus position of the lens unit 3 by moving along the optical axis O1 of the lens unit 3.

フォーカス駆動部308は、レンズ制御部313の制御のもと、フォーカス光学系307を光軸O1に沿って移動させることにより、レンズ部3のピント位置を調整する。フォーカス駆動部308は、DCモータやステッピングモータ等を用いて構成される。   The focus driving unit 308 adjusts the focus position of the lens unit 3 by moving the focus optical system 307 along the optical axis O1 under the control of the lens control unit 313. The focus driving unit 308 is configured using a DC motor, a stepping motor, or the like.

フォーカス位置検出部309は、光軸O1上におけるフォーカス光学系307の位置を検出し、この検出結果をレンズ制御部313へ出力する。フォーカス位置検出部309は、フォトインタラプタ等を用いて構成される。   The focus position detection unit 309 detects the position of the focus optical system 307 on the optical axis O1 and outputs the detection result to the lens control unit 313. The focus position detection unit 309 is configured using a photo interrupter or the like.

レンズ操作部310は、レンズ部3のレンズ鏡筒の周囲に設けられる操作リングであり、レンズ部3における光学ズームの変更を指示する指示信号の入力またはレンズ部3におけるピント位置の調整を指示する指示信号の入力を受け付ける。なお、レンズ操作部310は、プッシュ式のスイッチやレバー式のスイッチ等であってもよい。   The lens operation unit 310 is an operation ring provided around the lens barrel of the lens unit 3, and instructs the input of an instruction signal for instructing the optical zoom change in the lens unit 3 or the adjustment of the focus position in the lens unit 3. An input of an instruction signal is accepted. The lens operation unit 310 may be a push type switch, a lever type switch, or the like.

レンズFlashメモリ311は、ズーム光学系301、絞り304およびフォーカス光学系307の位置および動きをそれぞれ決定するための制御プログラム、レンズ部3のレンズ特性および各種パラメータを記録する。ここで、レンズ特性とは、レンズ部3の色収差、明るさ情報(f値)および焦点距離情報(たとえば12mm〜600mm)である。   The lens flash memory 311 records a control program for determining the positions and movements of the zoom optical system 301, the stop 304, and the focus optical system 307, the lens characteristics of the lens unit 3, and various parameters. Here, the lens characteristics are chromatic aberration, brightness information (f value) and focal length information (for example, 12 mm to 600 mm) of the lens unit 3.

レンズ通信部312は、レンズ部3が本体部2に装着された際に、本体部2の本体通信部223と通信を行うための通信インターフェースである。レンズ通信部312には、本体部2との電気的な接点も含まれる。   The lens communication unit 312 is a communication interface for communicating with the main body communication unit 223 of the main body unit 2 when the lens unit 3 is attached to the main body unit 2. The lens communication unit 312 includes an electrical contact with the main body unit 2.

レンズ制御部313は、CPU等を用いて構成される。レンズ制御部313は、レンズ操作部310からの指示信号または本体部2からの指示信号に応じてレンズ部3の動作を制御する。具体的には、レンズ制御部313は、レンズ操作部310からの指示信号に応じて、フォーカス駆動部308を駆動させてフォーカス光学系307によるピント調整やズーム駆動部302を駆動させてズーム光学系301の光学ズームのズーム倍率の変更を行う。なお、レンズ制御部313は、レンズ部3が本体部2に装着された際に、レンズ部3のレンズ特性およびレンズ部3を識別する識別情報を周期的に本体部2に送信してもよい。さらに、レンズ制御部313は、撮像素子203が画像データを生成するフレームレートに同期してレンズ情報を本体部2に送信してもよい。   The lens control unit 313 is configured using a CPU or the like. The lens control unit 313 controls the operation of the lens unit 3 in accordance with an instruction signal from the lens operation unit 310 or an instruction signal from the main body unit 2. Specifically, the lens control unit 313 drives the focus driving unit 308 in accordance with an instruction signal from the lens operation unit 310 to drive the focus adjustment by the focus optical system 307 and the zoom driving unit 302 to drive the zoom optical system. The zoom magnification of the optical zoom 301 is changed. The lens control unit 313 may periodically transmit the lens characteristics of the lens unit 3 and identification information for identifying the lens unit 3 to the main unit 2 when the lens unit 3 is attached to the main unit 2. . Further, the lens control unit 313 may transmit lens information to the main body unit 2 in synchronization with a frame rate at which the image sensor 203 generates image data.

以上の構成を有する撮像装置1が実行する処理について説明する。図4は、撮像装置1が実行する処理の概要を示すフローチャートである。   Processing executed by the imaging apparatus 1 having the above configuration will be described. FIG. 4 is a flowchart illustrating an outline of processing executed by the imaging apparatus 1.

図4に示すように、撮像装置1が撮影モードに設定されている場合(ステップS101:Yes)、本体制御部225は、バス224、本体通信部223、レンズ通信部312およびレンズ制御部313を介してレンズ部3のレンズ情報を取得する(ステップS102)。ここで、レンズ情報には、少なくともレンズ部3の現在の焦点距離情報が含まれる。   As illustrated in FIG. 4, when the imaging apparatus 1 is set to the shooting mode (step S <b> 101: Yes), the main body control unit 225 includes the bus 224, the main body communication unit 223, the lens communication unit 312, and the lens control unit 313. The lens information of the lens unit 3 is acquired via the step (step S102). Here, the lens information includes at least the current focal length information of the lens unit 3.

続いて、撮像制御部225bは、撮像素子駆動部204を駆動させて撮像素子203に撮像させる(ステップS103)。   Subsequently, the imaging control unit 225b drives the imaging element driving unit 204 to cause the imaging element 203 to capture an image (step S103).

その後、アイセンサ216が撮影者を検出した場合(ステップS104:Yes)、撮像装置1は、後述するステップS111へ移行する。これに対して、アイセンサ216が撮影者を検出していない場合(ステップS104:No)、撮像装置1は、後述するステップS105へ移行する。   Thereafter, when the eye sensor 216 detects the photographer (step S104: Yes), the imaging device 1 proceeds to step S111 described later. On the other hand, when the eye sensor 216 has not detected the photographer (step S104: No), the imaging device 1 proceeds to step S105 described later.

ステップS105において、表示制御部225cは、背面表示部217に撮像素子203が生成した画像データに対応するライブビュー画像を表示させる。   In step S105, the display control unit 225c causes the rear display unit 217 to display a live view image corresponding to the image data generated by the image sensor 203.

図5Aは、撮像装置1の背面表示部217が表示するライブビュー画像を見ながら被写体のフレーミングを行う際の状況を模式的に示す図である。図5Bは、撮像装置1の背面表示部217が表示するライブビュー画像を見ながらレンズ部3の広角側で被写体のフレーミングを行う際の状況を模式的に示す図である。図5Cは、撮像装置1の背面表示部217が表示するライブビュー画像を見ながら被写体を撮影した際の状況を模式的に示す図である。なお、図5Aにおいて、領域Z1がレンズ部3による撮影可能な最大画角を示し、領域Z2がレンズ部3の現在の画角を示す。   FIG. 5A is a diagram schematically illustrating a situation when framing a subject while viewing a live view image displayed on the rear display unit 217 of the imaging apparatus 1. FIG. 5B is a diagram schematically illustrating a situation when framing a subject on the wide-angle side of the lens unit 3 while viewing a live view image displayed on the rear display unit 217 of the imaging device 1. FIG. 5C is a diagram schematically illustrating a situation when the subject is photographed while viewing the live view image displayed by the rear display unit 217 of the imaging device 1. In FIG. 5A, a region Z1 indicates the maximum field angle that can be captured by the lens unit 3, and a region Z2 indicates the current field angle of the lens unit 3.

図5Aに示すように、撮影者が撮像装置1で鳥等の被写体A1を画像W1のような構図で撮影しようとする際、図5Bに示すように、撮影者は、まず、レンズ操作部310を操作してレンズ部3の画角を広角側にし、レンズ部3の画角内に被写体A1が入るようにライブビュー画像W2を見ながら撮像装置1の撮像方向を移動させるとともに、徐々にレンズ部3の画角を望遠側に絞り込みながら被写体A1の構図を決めて撮影を行う。この場合、撮影者は、被写体A1の飛翔コースまたは移動速度に合わせてレンズ部3の画角や撮像装置1の撮像方向を合わせながら撮影を試みるが、被写体A1の飛翔コースがランダムで被写体A1の移動速度が速い場合には、レンズ部3の画角を被写体に合わせることが難しいため、被写体A1をレンズ部3の画角外に逃がしてしまい、図5Cに示す画像W3のような撮影しかできなかったり、最悪の場合、被写体A1を見失ったりした。これは、背面表示部217に表示されるライブビュー画像がレンズ部3の現在の画角(撮像画角)で表示されること、撮像素子203が画像データを生成してから背面表示部217で表示されるまでのタイムラグまたは撮影者の操作から撮像装置1に反映されるまでのタイムラグである。   As shown in FIG. 5A, when the photographer intends to photograph a subject A1 such as a bird with a composition such as an image W1 with the imaging device 1, the photographer first starts the lens operation unit 310 as shown in FIG. 5B. To move the imaging direction of the imaging apparatus 1 while viewing the live view image W2 so that the subject A1 falls within the angle of view of the lens unit 3 and gradually moves the lens. The composition of the subject A1 is determined while the angle of view of the section 3 is narrowed down to the telephoto side, and shooting is performed. In this case, the photographer tries to shoot while adjusting the angle of view of the lens unit 3 and the imaging direction of the imaging device 1 in accordance with the flight course or moving speed of the subject A1, but the flight course of the subject A1 is random and the subject A1 When the moving speed is fast, it is difficult to adjust the angle of view of the lens unit 3 to the subject, so the subject A1 escapes outside the angle of view of the lens unit 3, and only the image W3 shown in FIG. 5C can be taken. In the worst case, the subject A1 was lost. This is because the live view image displayed on the rear display unit 217 is displayed at the current angle of view (imaging angle of view) of the lens unit 3, and the rear display unit 217 generates image data after the image sensor 203 generates image data. This is a time lag until the image is displayed or a time lag from the operation of the photographer until the image is reflected on the imaging apparatus 1.

ステップS106において、表示制御部225cは、内蔵表示部215aの表示を停止させる。これにより、撮影者が背面表示部217によって表示されるライブビュー画像を見ながら被写体のフレーミングを行う際に、内蔵表示部215aによる消費電力を抑えることができる。   In step S106, the display control unit 225c stops the display of the built-in display unit 215a. Accordingly, when the photographer performs framing of the subject while viewing the live view image displayed by the rear display unit 217, power consumption by the built-in display unit 215a can be suppressed.

その後、タッチパネル211gを介して背面表示部217の画面内がタッチされた場合(ステップS107:Yes)、撮像制御部225bは、撮像装置1に静止画撮影を実行させる(ステップS108)。この際、撮像制御部225bは、位置情報検出部212が検出した位置情報、方位検出部213が検出した方位情報および時計218から入力される日時情報を画像データに対応付けて記録媒体219に記録する。   Thereafter, when the inside of the screen of the rear display unit 217 is touched via the touch panel 211g (step S107: Yes), the imaging control unit 225b causes the imaging device 1 to perform still image shooting (step S108). At this time, the imaging control unit 225b records the position information detected by the position information detection unit 212, the direction information detected by the direction detection unit 213, and the date / time information input from the clock 218 on the recording medium 219 in association with the image data. To do.

続いて、電源スイッチ211aが操作され、撮像装置1の電源がオフになった場合(ステップS109:Yes)、撮像装置1は、本処理を終了する。これに対して、電源スイッチ211aが操作されず、撮像装置1の電源がオフになっていない場合(ステップS109:No)、撮像装置1は、ステップS101へ戻る。   Subsequently, when the power switch 211a is operated and the power supply of the imaging apparatus 1 is turned off (step S109: Yes), the imaging apparatus 1 ends this process. On the other hand, when the power switch 211a is not operated and the power of the imaging device 1 is not turned off (step S109: No), the imaging device 1 returns to step S101.

ステップS107において、タッチパネル211gを介して背面表示部217の画面内がタッチされていない場合(ステップS107:No)において、レリーズスイッチ211bからレリーズ信号が入力されたとき(ステップS110:Yes)、撮像装置1は、ステップS108へ移行する。   In step S107, when the inside of the screen of the rear display unit 217 is not touched via the touch panel 211g (step S107: No), when the release signal is input from the release switch 211b (step S110: Yes), the imaging device 1 moves to step S108.

ステップS107において、タッチパネル211gを介して背面表示部217の画面内がタッチされていない場合(ステップS107:No)において、レリーズスイッチ211bからレリーズ信号が入力されていないとき(ステップS110:No)、撮像装置1は、ステップS109へ移行する。   In step S107, when the inside of the screen of the rear display unit 217 is not touched via the touch panel 211g (step S107: No), when the release signal is not input from the release switch 211b (step S110: No), imaging is performed. The apparatus 1 moves to step S109.

ステップS111において、表示制御部225cは、背面表示部217を停止させる。これにより、撮影者が接眼表示部215を介して被写体のフレーミングを行う際に、背面表示部217による消費電力を抑えることができる。   In step S111, the display control unit 225c stops the rear display unit 217. Accordingly, when the photographer performs framing of the subject via the eyepiece display unit 215, power consumption by the rear display unit 217 can be suppressed.

続いて、画角算出部225aは、レンズ部3のレンズ情報に基づいて、レンズ部3の現在の画角を算出する(ステップS112)。   Subsequently, the view angle calculation unit 225a calculates the current view angle of the lens unit 3 based on the lens information of the lens unit 3 (step S112).

その後、表示制御部225cは、内蔵表示部215aに撮像素子203が生成した画像データに対応するライブビュー画像を表示させ(ステップS113)、画角算出部225aによって算出された画角に対応する枠をライブビュー画像上に重畳して内蔵表示部215aに表示させる(ステップS114)。図4のステップS114の後、撮像装置1は、ステップS110へ移行する。   Thereafter, the display control unit 225c displays a live view image corresponding to the image data generated by the image sensor 203 on the built-in display unit 215a (step S113), and a frame corresponding to the view angle calculated by the view angle calculation unit 225a. Is superimposed on the live view image and displayed on the built-in display unit 215a (step S114). After step S114 in FIG. 4, the imaging device 1 proceeds to step S110.

図6は、撮像装置1の接眼表示部215で被写体のフレーミングを確認しながら撮影を行う際の状況を模式的に示す図である。図7は、内蔵表示部215aが表示する画像の一例を示す図である。図8は、撮影者が接眼表示部215を介して視認する画像の一例を示す図である。   FIG. 6 is a diagram schematically illustrating a situation when shooting is performed while confirming the framing of the subject on the eyepiece display unit 215 of the imaging apparatus 1. FIG. 7 is a diagram illustrating an example of an image displayed by the built-in display unit 215a. FIG. 8 is a diagram illustrating an example of an image visually recognized by the photographer via the eyepiece display unit 215.

図6に示すように、撮影者は、接眼部215cおよび光学素子215bを介して撮像装置1の視野領域を視認することができる。この場合、図7に示すように、表示制御部225cは、撮像素子203が生成した画像データに対応するライブビュー画像を縮小した縮小画像M11を遮光部215dに対応する内蔵表示部215aの表示領域に表示させるとともに、画角算出部225aが算出した画角に対応する枠T1を内蔵表示部215aに表示させる。このとき、光学素子215bには、内蔵表示部215aの表示画像が投影されることで、内蔵表示部215aで表示される表示画像が撮像装置1の視野領域または視野領域付近に枠T1の虚像を生じさせることができる。これにより、枠T1を所望の被写体A1に照準することで、図8に示す被写体A1に対して所望のフレーミングを行うことができる。さらに、図8に示すように、撮影者は、接眼部215cおよび光学素子215bを介して視野領域の広い視野で確認しつつ、枠T1で被写体A1を照準しながら実際に撮影できる画像M11の構図も確認することができる。これにより、撮像装置1が望遠撮影であっても、所望の被写体A1に照準しながら、被写体A1に対するフレーミングを行うことができる。   As shown in FIG. 6, the photographer can visually recognize the visual field region of the imaging device 1 through the eyepiece 215c and the optical element 215b. In this case, as shown in FIG. 7, the display control unit 225c displays the reduced image M11 obtained by reducing the live view image corresponding to the image data generated by the image sensor 203 in the display area of the built-in display unit 215a corresponding to the light shielding unit 215d. And the frame T1 corresponding to the angle of view calculated by the angle of view calculation unit 225a is displayed on the built-in display unit 215a. At this time, the display image displayed on the built-in display unit 215a is projected onto the optical element 215b so that the display image displayed on the built-in display unit 215a forms a virtual image of the frame T1 in the field of view of the imaging device 1 or in the vicinity of the field of view. Can be generated. Thus, by aiming the frame T1 at the desired subject A1, desired framing can be performed on the subject A1 shown in FIG. Further, as shown in FIG. 8, the photographer confirms a wide field of view through the eyepiece unit 215c and the optical element 215b, and the image M11 that can be actually photographed while aiming the subject A1 with the frame T1. You can also check the composition. Thereby, even when the imaging apparatus 1 performs telephoto shooting, it is possible to perform framing on the subject A1 while aiming at the desired subject A1.

ステップS101において、撮像装置1が撮影モードに設定されていない場合(ステップS101:No)において、撮像装置1が再生モードに設定されているとき(ステップS115:Yes)、撮像装置1は、記録媒体219に記録された画像データを再生する再生表示処理を実行する(ステップS116)。ステップS116の後、撮像装置1は、ステップS109へ移行する。   In step S101, when the imaging device 1 is not set to the shooting mode (step S101: No), when the imaging device 1 is set to the reproduction mode (step S115: Yes), the imaging device 1 is a recording medium. A reproduction display process for reproducing the image data recorded in 219 is executed (step S116). After step S116, the imaging apparatus 1 proceeds to step S109.

ステップS101において、撮像装置1が撮影モードに設定されていない場合(ステップS101:No)において、撮像装置1が再生モードに設定されていないとき(ステップS115:No)、撮像装置1は、ステップS109へ移行する。   In step S101, when the imaging device 1 is not set to the shooting mode (step S101: No), when the imaging device 1 is not set to the reproduction mode (step S115: No), the imaging device 1 performs step S109. Migrate to

以上説明した本発明の実施の形態1によれば、光学素子215bが撮像装置1の視野領域からの光を透過するとともに、内蔵表示部215aが表示する情報を撮像装置1の前面と相反する背面側に向けて反射することによって撮像装置1の視野領域内に内蔵表示部215aが表示する情報の虚像を生じさせるので、望遠撮影時に所望の被写体に照準することができる。   According to the first embodiment of the present invention described above, the optical element 215b transmits light from the visual field region of the imaging device 1, and the back surface of the information displayed on the built-in display unit 215a is opposite to the front surface of the imaging device 1. By reflecting toward the side, a virtual image of the information displayed by the built-in display unit 215a is generated in the field of view of the imaging apparatus 1, so that it is possible to aim at a desired subject during telephoto shooting.

また、本発明の実施の形態1によれば、表示制御部225cがレンズ部3の画角に応じた枠を内蔵表示部215aに表示させるので、接眼表示部215で被写体のフレーミングを確認しながら撮影することができる。   Further, according to Embodiment 1 of the present invention, the display control unit 225c displays a frame corresponding to the angle of view of the lens unit 3 on the built-in display unit 215a, so that the eyepiece display unit 215 confirms the framing of the subject. You can shoot.

また、本発明の実施の形態1によれば、表示制御部225cが撮像素子203によって生成された画像データに対応するライブビュー画像を内蔵表示部215aに表示させるので、被写体に対するフレーミングを直感的に把握することができる。   Further, according to Embodiment 1 of the present invention, the display control unit 225c displays the live view image corresponding to the image data generated by the image sensor 203 on the built-in display unit 215a, so that the framing of the subject can be intuitively performed. I can grasp it.

また、本発明の実施の形態1によれば、表示制御部225cが光学素子215bの一部を遮光する遮光部215dの領域に対応する内蔵表示部215aの表示領域に縮小したライブビュー画像を表示させるので、望遠時であっても、光学素子215bを介して実際に撮影される被写体の構図を確認しながら所望の被写体の撮影を行うことができる。   Further, according to the first embodiment of the present invention, the display control unit 225c displays the reduced live view image in the display area of the built-in display unit 215a corresponding to the area of the light shielding unit 215d that shields a part of the optical element 215b. Therefore, even during telephoto, a desired subject can be photographed while confirming the composition of the subject actually photographed via the optical element 215b.

なお、本発明の実施の形態1では、表示制御部225cが光学素子215bの曲面に基づいて、内蔵表示部215aに表示させる画像の形状を補正して表示させてもよい。この場合、表示制御部225cは、内蔵表示部215aに表示させる画像に対して、台形補正処理を施して内蔵表示部215aに表示させればよい。さらに、表示制御部225cは、レンズ部3の光軸O1と接眼表示部の光軸O2との視差に基づいて、内蔵表示部215aに表示させる画像に対して、収差を補正する収差補正を施して内蔵表示部215aに表示させてもよい。   In the first embodiment of the present invention, the display control unit 225c may correct and display the shape of the image displayed on the built-in display unit 215a based on the curved surface of the optical element 215b. In this case, the display control unit 225c may perform trapezoidal correction processing on the image displayed on the built-in display unit 215a and display the image on the built-in display unit 215a. Further, the display control unit 225c performs aberration correction for correcting aberration on the image displayed on the built-in display unit 215a based on the parallax between the optical axis O1 of the lens unit 3 and the optical axis O2 of the eyepiece display unit. May be displayed on the built-in display unit 215a.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。本実施の形態2にかかる撮像装置は、上述した実施の形態1にかかる撮像装置の接眼表示部の構成および撮像装置が実行する処理が異なる。このため、以下においては、本実施の形態2にかかる撮像装置の接眼表示部の構成を説明後、本実施の形態2にかかる撮像装置が実行する処理について説明する。なお、上述した実施の形態1にかかる撮像装置1と同一の構成には同一の符号を付して説明を省略する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The imaging apparatus according to the second embodiment is different in the configuration of the eyepiece display unit of the imaging apparatus according to the first embodiment and the process executed by the imaging apparatus. For this reason, in the following, after describing the configuration of the eyepiece display unit of the imaging apparatus according to the second embodiment, processing executed by the imaging apparatus according to the second embodiment will be described. In addition, the same code | symbol is attached | subjected to the structure same as the imaging device 1 concerning Embodiment 1 mentioned above, and description is abbreviate | omitted.

図9は、本発明の実施の形態2にかかる撮像装置の機能構成を示すブロックである。図9に示す撮像装置100は、本体部101と、レンズ部3と、を備える。   FIG. 9 is a block diagram illustrating a functional configuration of the imaging apparatus according to the second embodiment of the present invention. An imaging apparatus 100 illustrated in FIG. 9 includes a main body unit 101 and a lens unit 3.

本体部101は、シャッタ201と、シャッタ駆動部202と、撮像素子203と、撮像素子駆動部204と、信号処理部205と、A/D変換部206と、画像処理部207と、AE処理部208と、AF処理部209と、画像圧縮展開部210と、入力部211と、位置情報検出部212と、方位検出部213と、モーション検出部214と、アイセンサ216と、背面表示部217と、時計218と、記録媒体219と、メモリI/F220と、SDRAM221と、Flashメモリ222と、本体通信部223と、バス224と、接眼表示部400と、本体制御部401と、を備える。   The main body 101 includes a shutter 201, a shutter driving unit 202, an image sensor 203, an image sensor driving unit 204, a signal processing unit 205, an A / D conversion unit 206, an image processing unit 207, and an AE processing unit. 208, AF processing unit 209, image compression / decompression unit 210, input unit 211, position information detection unit 212, orientation detection unit 213, motion detection unit 214, eye sensor 216, rear display unit 217, A clock 218, a recording medium 219, a memory I / F 220, an SDRAM 221, a flash memory 222, a main body communication unit 223, a bus 224, an eyepiece display unit 400, and a main body control unit 401 are provided.

接眼表示部400は、内蔵表示部215aと、光学素子215bと、接眼部215cと、遮光部400aと、遮光駆動部400bと、を備える。   The eyepiece display unit 400 includes a built-in display unit 215a, an optical element 215b, an eyepiece unit 215c, a light shielding unit 400a, and a light shielding driving unit 400b.

遮光部400aは、接眼表示部400の光軸O2上であって、光学素子215bの前面に設けられる。遮光部400aは、光軸O2上に進退可能に設けられ、光学素子215bを遮光状態または撮像装置100の視野領域からの光を透過可能に切り換える。遮光部400aは、メカシャッタまたは液晶シャッタ等を用いて構成される。   The light shielding unit 400a is provided on the optical axis O2 of the eyepiece display unit 400 and in front of the optical element 215b. The light shielding unit 400a is provided so as to be able to advance and retreat on the optical axis O2, and switches the optical element 215b so that light from the light shielding state or the field of view of the imaging device 100 can be transmitted. The light shielding unit 400a is configured using a mechanical shutter, a liquid crystal shutter, or the like.

遮光駆動部400bは、本体制御部401の制御のもと、遮光部400aを接眼表示部400の光軸O2上に移動させる。遮光駆動部400bは、ステッピングモータやDCモータ等を用いて構成される。   The light shielding drive unit 400 b moves the light shielding unit 400 a on the optical axis O <b> 2 of the eyepiece display unit 400 under the control of the main body control unit 401. The light shielding drive unit 400b is configured using a stepping motor, a DC motor, or the like.

本体制御部401は、撮像装置100を構成する各部に対する指示やデータの転送等を行って撮像装置100の動作を統括的に制御する。本体制御部401は、CPU等を用いて構成される。本体制御部401は、画角算出部225aと、撮像制御部225bと、表示制御部225cと、遮光制御部401aと、を有する。   The main body control unit 401 performs overall control of the operation of the imaging device 100 by giving instructions to each unit constituting the imaging device 100, transferring data, and the like. The main body control unit 401 is configured using a CPU or the like. The main body control unit 401 includes an angle of view calculation unit 225a, an imaging control unit 225b, a display control unit 225c, and a light shielding control unit 401a.

遮光制御部401aは、入力部211から撮像装置100の視野領域からの光を遮光する指示信号が入力された場合、遮光駆動部400bを駆動させて遮光部400aに撮像装置100の視野領域からの光を遮光させる。   When an instruction signal for shielding light from the visual field area of the imaging device 100 is input from the input unit 211, the light shielding control unit 401a drives the light shielding driving unit 400b to cause the light shielding unit 400a to emit light from the visual field region of the imaging device 100. Block light.

以上の構成を有する撮像装置100が実行する処理について説明する。図10は、撮像装置100が実行する処理の概要を示すフローチャートである。   Processing executed by the imaging apparatus 100 having the above configuration will be described. FIG. 10 is a flowchart illustrating an outline of processing executed by the imaging apparatus 100.

図10に示すように、ステップS201〜ステップS211は、図4のステップS101〜ステップS111にそれぞれ対応する。   As shown in FIG. 10, steps S201 to S211 respectively correspond to steps S101 to S111 of FIG.

ステップS212において、本体制御部401は、撮像装置100に構図確認モードが設定されているか否かを判断する。具体的には、本体制御部401は、アイセンサ216が撮影者を検出している場合において、レンズ操作部310から指示信号が入力されたか、またはタッチパネル211gを介して背面表示部217が表示するアイコンを選択する選択指示信号が入力されたか否かを判断する。本体制御部401が撮像装置100に構図確認モードが設定されていると判断した場合(ステップS212:Yes)、撮像装置100は、後述するステップS213へ移行する。これに対して、本体制御部401が撮像装置100に構図確認モードが設定されていないと判断した場合(ステップS212:No)、撮像装置1は、後述するステップS215へ移行する。   In step S <b> 212, the main body control unit 401 determines whether or not the composition confirmation mode is set in the imaging apparatus 100. Specifically, when the eye sensor 216 detects the photographer, the main body control unit 401 displays an instruction signal input from the lens operation unit 310 or an icon displayed on the rear display unit 217 via the touch panel 211g. It is determined whether or not a selection instruction signal for selecting is input. When the main body control unit 401 determines that the composition confirmation mode is set in the imaging apparatus 100 (step S212: Yes), the imaging apparatus 100 proceeds to step S213 described later. On the other hand, when the main body control unit 401 determines that the composition confirmation mode is not set in the imaging apparatus 100 (step S212: No), the imaging apparatus 1 proceeds to step S215 described later.

ステップS213において、遮光制御部401aは、遮光駆動部400bを駆動することによって、遮光部400aを閉じさせる(図11を参照)。これにより、撮影者は、光学素子215bを介して撮像装置1の視野領域を視認できなくなる。   In step S213, the light shielding control unit 401a closes the light shielding unit 400a by driving the light shielding driving unit 400b (see FIG. 11). Thereby, the photographer cannot visually recognize the visual field area of the imaging device 1 through the optical element 215b.

続いて、表示制御部225cは、撮像素子203が生成した画像データに対応するライブビュー画像を内蔵表示部215aに全画面表示させる(ステップS214)。具体的には、図12に示すように、表示制御部225cは、撮像素子203が生成した画像データに対応するライブビュー画像W20を内蔵表示部215aに表示させる。これにより、撮影者は、接眼表示部400を介して被写体A1に対する構図を確認することができる。ステップS214の後、撮像装置100は、ステップS210へ移行する。   Subsequently, the display control unit 225c displays a live view image corresponding to the image data generated by the image sensor 203 on the built-in display unit 215a on a full screen (step S214). Specifically, as shown in FIG. 12, the display control unit 225c causes the built-in display unit 215a to display a live view image W20 corresponding to the image data generated by the image sensor 203. Thus, the photographer can confirm the composition for the subject A1 via the eyepiece display unit 400. After step S214, the imaging apparatus 100 proceeds to step S210.

ステップS215において、遮光制御部401aは、遮光駆動部400bを駆動することによって、遮光部400aを開けさせる(図13を参照)。これにより、図14に示すように、撮影者は、光学素子215bを介して撮像装置100の視野領域における所望の被写体A1を確認しながら、レンズ部3の画角に対応する枠T1を用いて被写体A1に照準することができる。   In step S215, the light shielding control unit 401a opens the light shielding unit 400a by driving the light shielding driving unit 400b (see FIG. 13). Accordingly, as shown in FIG. 14, the photographer uses the frame T1 corresponding to the angle of view of the lens unit 3 while confirming the desired subject A1 in the field of view of the imaging apparatus 100 via the optical element 215b. It can be aimed at the subject A1.

ステップS216〜ステップS220は、図4のステップS112〜ステップS116にそれぞれ対応する。   Steps S216 to S220 correspond to steps S112 to S116 in FIG. 4, respectively.

以上説明した本発明の実施の形態2によれば、表示制御部225cがレンズ部3の画角に応じた枠を内蔵表示部215aに表示させるので、接眼表示部400で被写体のフレーミングを確認しながら撮影することができる。   According to the second embodiment of the present invention described above, the display control unit 225c displays a frame corresponding to the angle of view of the lens unit 3 on the built-in display unit 215a, so that the eyepiece display unit 400 checks the framing of the subject. You can shoot while.

(実施の形態3)
つぎに、本発明の実施の形態3について説明する。本実施の形態3にかかる撮像装置は、上述した実施の形態2にかかる撮像装置100のFlashメモリおよび本体制御部の構成および撮像装置が実行する処理が異なる。このため、以下においては、本実施の形態3にかかる撮像装置のFlashメモリおよび本体制御部の構成を説明後、本実施の形態3にかかる撮像装置が実行する処理について説明する。なお、上述した実施の形態2にかかる撮像装置100と同一の構成には同一の符号を付して説明を省略する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The imaging apparatus according to the third embodiment is different in the configuration of the flash memory and the main body control unit of the imaging apparatus 100 according to the second embodiment described above and the processing executed by the imaging apparatus. Therefore, in the following, after describing the configuration of the flash memory and the main body control unit of the imaging apparatus according to the third embodiment, the processing executed by the imaging apparatus according to the third embodiment will be described. In addition, the same code | symbol is attached | subjected to the structure same as the imaging device 100 concerning Embodiment 2 mentioned above, and description is abbreviate | omitted.

図15は、本発明の実施の形態3にかかる撮像装置の機能構成を示すブロック図である。図15に示す撮像装置110は、本体部111と、レンズ部3と、を備える。   FIG. 15 is a block diagram illustrating a functional configuration of the imaging apparatus according to the third embodiment of the present invention. An imaging apparatus 110 illustrated in FIG. 15 includes a main body 111 and a lens unit 3.

本体部111は、シャッタ201と、シャッタ駆動部202と、撮像素子203と、撮像素子駆動部204と、信号処理部205と、A/D変換部206と、画像処理部207と、AE処理部208と、AF処理部209と、画像圧縮展開部210と、入力部211と、位置情報検出部212と、方位検出部213と、モーション検出部214と、アイセンサ216と、背面表示部217と、時計218と、記録媒体219と、メモリI/F220と、SDRAM221と、本体通信部223と、バス224と、接眼表示部400と、Flashメモリ501と、本体制御部502と、を備える。   The main body 111 includes a shutter 201, a shutter driving unit 202, an image sensor 203, an image sensor driving unit 204, a signal processing unit 205, an A / D conversion unit 206, an image processing unit 207, and an AE processing unit. 208, AF processing unit 209, image compression / decompression unit 210, input unit 211, position information detection unit 212, orientation detection unit 213, motion detection unit 214, eye sensor 216, rear display unit 217, A clock 218, a recording medium 219, a memory I / F 220, an SDRAM 221, a main body communication unit 223, a bus 224, an eyepiece display unit 400, a flash memory 501, and a main body control unit 502 are provided.

Flashメモリ501は、プログラム記録部222aと、ランドマーク情報記録部501aと、を有する。ランドマーク情報記録部501aは、複数のランドマーク(Landmark)の位置情報、方位情報、名称および標高等を含むランドマーク情報と各ランドマーク画像データとを対応付けて記録する。ここで、ランドマーク画像データは、ランドマークを撮影した画像データ、サムネイル画像データ、デフォルメした画像、文字および写真のいずれかである。また、方位情報は、所定の撮影位置から見たランドマークの方位、たとえば北や南等である。また、位置情報は、ランドマークの経度および緯度である。   The flash memory 501 includes a program recording unit 222a and a landmark information recording unit 501a. The landmark information recording unit 501a records landmark information including position information, azimuth information, name, altitude, and the like of a plurality of landmarks in association with each landmark image data. Here, the landmark image data is any of image data, thumbnail image data, deformed images, characters, and photographs taken of the landmarks. Further, the direction information is the direction of the landmark as viewed from a predetermined shooting position, for example, north or south. The position information is the longitude and latitude of the landmark.

本体制御部502は、撮像装置110を構成する各部に対する指示やデータの転送等を行って撮像装置110の動作を統括的に制御する。本体制御部502は、CPU等を用いて構成される。本体制御部502は、画角算出部225aと、遮光制御部401aと、撮像制御部225bと、表示制御部225cと、ランドマーク検索部502aと、を有する。   The main body control unit 502 performs overall control of the operation of the imaging device 110 by giving instructions to each unit constituting the imaging device 110, transferring data, and the like. The main body control unit 502 is configured using a CPU or the like. The main body control unit 502 includes an angle of view calculation unit 225a, a light shielding control unit 401a, an imaging control unit 225b, a display control unit 225c, and a landmark search unit 502a.

ランドマーク検索部502aは、位置情報検出部212が取得した位置情報および方位検出部213が検出した方位情報に基づいて、撮像素子203が生成する画像データに対応する画像内に写るランドマークのランドマーク情報を検出する。   The landmark search unit 502a, based on the position information acquired by the position information detection unit 212 and the azimuth information detected by the azimuth detection unit 213, is a landmark land that appears in the image corresponding to the image data generated by the image sensor 203. Detect mark information.

以上の構成を有する撮像装置110が実行する処理について説明する。図16は、撮像装置110が実行する処理の概要を示すフローチャートである。   Processing executed by the imaging apparatus 110 having the above configuration will be described. FIG. 16 is a flowchart illustrating an outline of processing executed by the imaging apparatus 110.

図16に示すように、ステップS301〜315は、図10のステップS201〜ステップS215にそれぞれ対応する。   As shown in FIG. 16, steps S301 to S315 correspond to steps S201 to S215 of FIG. 10, respectively.

ステップS316において、ランドマーク検索部502aは、位置情報検出部212が検出した位置情報、方位検出部213が検出した方位情報およびモーション検出部214が検出した仰角をそれぞれ取得する。   In step S316, the landmark search unit 502a acquires the position information detected by the position information detection unit 212, the direction information detected by the direction detection unit 213, and the elevation angle detected by the motion detection unit 214.

続いて、画角算出部225aは、レンズ部3から取得したレンズ情報に基づいて、現在のレンズ部3の画角を算出する(ステップS317)。   Subsequently, the view angle calculation unit 225a calculates the current view angle of the lens unit 3 based on the lens information acquired from the lens unit 3 (step S317).

その後、ランドマーク検索部502aは、レンズ部3の最大画角内(ワイド端)におけるランドマークを判定し(ステップS318)、ランドマーク情報記録部501aから判定したランドマーク情報を取得する(ステップS319)。   Thereafter, the landmark search unit 502a determines a landmark within the maximum field angle (wide end) of the lens unit 3 (step S318), and acquires the determined landmark information from the landmark information recording unit 501a (step S319). ).

続いて、表示制御部225cは、ランドマーク検索部502aがランドマーク情報記録部501aから取得したランドマーク情報を内蔵表示部215aに表示し(ステップS320)、画角算出部225aが算出したレンズ部3の現在の画角に対応する枠を内蔵表示部215aに表示させる(ステップS321)。   Subsequently, the display control unit 225c displays the landmark information acquired by the landmark search unit 502a from the landmark information recording unit 501a on the built-in display unit 215a (step S320), and the lens unit calculated by the angle-of-view calculation unit 225a. The frame corresponding to the current angle of view 3 is displayed on the built-in display unit 215a (step S321).

図17は、撮影者が接眼表示部400を介して視認する画像の一例を示す図である。図17(a)に示すように、表示制御部225cは、ランドマーク検索部502aが取得したランドマーク情報M20およびレンズ部3の画角に対応する枠T1を内蔵表示部215aに表示させる。この場合、表示制御部225cは、位置情報検出部212が検出した位置情報、方位検出部213が検出した方位情報およびモーション検出部214が検出した仰角に基づいて、ランドマーク情報M20をランドマークとしての被写体A2付近の内蔵表示部215aの表示領域に表示させる。これにより、撮影者は、接眼表示部400を介して撮像装置110の視野領域内におけるランドマークを直感的に把握することができる。   FIG. 17 is a diagram illustrating an example of an image visually recognized by the photographer via the eyepiece display unit 400. As shown in FIG. 17A, the display control unit 225c causes the built-in display unit 215a to display the landmark information M20 acquired by the landmark search unit 502a and the frame T1 corresponding to the angle of view of the lens unit 3. In this case, the display control unit 225c uses the landmark information M20 as a landmark based on the position information detected by the position information detection unit 212, the azimuth information detected by the azimuth detection unit 213, and the elevation angle detected by the motion detection unit 214. Is displayed in the display area of the built-in display unit 215a near the subject A2. Thereby, the photographer can intuitively grasp the landmark in the visual field area of the imaging device 110 via the eyepiece display unit 400.

さらに、撮影者は、撮像装置110の撮像方向を移動させて、枠T1を被写体A2に合わせ、レンズ操作部310を操作してレンズ部3の画角を変更することで(図17(a)→図17(b)→図17(c))、被写体A2に対して所望のフレーミングを行った撮影を行うことができる(画像W31→画像W32→画像W33)。この場合、表示制御部225cは、入力部211から入力された指示信号に応じたランドマーク情報のみを内蔵表示部215aに表示させてもよい。   Further, the photographer moves the imaging direction of the imaging device 110, aligns the frame T1 with the subject A2, and operates the lens operation unit 310 to change the angle of view of the lens unit 3 (FIG. 17A). (FIG. 17 (b) → FIG. 17 (c)), the subject A2 can be shot with desired framing (image W31 → image W32 → image W33). In this case, the display control unit 225c may display only the landmark information according to the instruction signal input from the input unit 211 on the built-in display unit 215a.

さらにまた、表示制御部225cは、ランドマークの種別およびランドマークと撮像装置110との距離に基づいて、撮像装置110の視野領域内におけるランドマークを選択して内蔵表示部215aにランドマーク情報を表示させてもよい。たとえば、表示制御部225cは、3000m級の山なら100km先まで選択して内蔵表示部215aに表示させるとともに、1000m級の山なら50km先まで選択して内蔵表示部215aに表示させてもよい。ステップS321の後、撮像装置110は、ステップS310へ移行する。   Furthermore, the display control unit 225c selects a landmark in the field of view of the imaging device 110 based on the type of landmark and the distance between the landmark and the imaging device 110, and displays the landmark information on the built-in display unit 215a. It may be displayed. For example, the display control unit 225c may select up to 100 km ahead if it is a 3000 m-class mountain and display it on the built-in display unit 215a, and may select up to 50 km ahead if it is a 1000-m mountain and display it on the built-in display unit 215a. After step S321, the imaging device 110 proceeds to step S310.

ステップS323およびステップS324は、図10のステップS219およびステップS220にそれぞれ対応する。   Step S323 and step S324 correspond to step S219 and step S220 in FIG. 10, respectively.

以上説明した本発明の実施の形態3によれば、表示制御部225cがレンズ部3の画角に応じた枠を内蔵表示部215aに表示させるので、接眼表示部400で被写体のフレーミングを確認しながら撮影することができる。   According to the third embodiment of the present invention described above, the display control unit 225c displays the frame corresponding to the angle of view of the lens unit 3 on the built-in display unit 215a, so that the eyepiece display unit 400 checks the framing of the subject. You can shoot while.

また、本発明の実施の形態3によれば、表示制御部225cがランドマーク検索部502aによってランドマーク情報記録部501aから検索されたランドマーク情報を内蔵表示部215aに表示させるので、接眼表示部400で被写体のフレーミングを確認しながらレンズ部3の画角内に写るランドマークを直感的に把握することができる。   Further, according to the third embodiment of the present invention, the display control unit 225c displays the landmark information retrieved from the landmark information recording unit 501a by the landmark retrieval unit 502a on the built-in display unit 215a. While confirming the framing of the subject at 400, it is possible to intuitively grasp the landmark that appears within the angle of view of the lens unit 3.

(その他の実施の形態)
なお、本発明では、表示制御部225cが視野領域の明るさに基づいて、内蔵表示部215aの明るさや枠の大きさを調整してもよい。これにより、撮像装置1の環境に最適な明るさで被写体を照準することができる。
(Other embodiments)
In the present invention, the display control unit 225c may adjust the brightness of the built-in display unit 215a and the size of the frame based on the brightness of the visual field area. As a result, the subject can be aimed at the optimal brightness for the environment of the imaging apparatus 1.

また、本発明では、表示制御部225cがレンズ部3の画角に対応する枠の位置を入力部211から入力される指示信号に応じて変更してもよい。これにより、レンズ部3の光軸O1と接眼表示部215の光軸との視差を補正することができる。   In the present invention, the display control unit 225c may change the position of the frame corresponding to the angle of view of the lens unit 3 according to the instruction signal input from the input unit 211. Thereby, the parallax between the optical axis O1 of the lens unit 3 and the optical axis of the eyepiece display unit 215 can be corrected.

また、本発明では、表示制御部225cが被写体の種別、たとえば顔や動物毎に画角に対応する枠の色や形状等を変更して内蔵表示部215aに表示させてもよい。   In the present invention, the display control unit 225c may change the type of the subject, for example, the color or shape of the frame corresponding to the angle of view for each face or animal, and display the frame on the built-in display unit 215a.

また、本発明では、表示制御部225cが撮像装置のAF領域にレンズ部3の画角に応じた光束を内蔵表示部215aに表示させてもよい。   In the present invention, the display control unit 225c may cause the built-in display unit 215a to display a light beam corresponding to the angle of view of the lens unit 3 in the AF area of the imaging apparatus.

また、本発明では、光学素子215bとしてハーフミラーを用いていたが、たとえば誘電多層膜を設けたホログラフィック素子で構成された導光板と、プリズム等を組み合わせて構成してもよい。   In the present invention, a half mirror is used as the optical element 215b. However, for example, a light guide plate composed of a holographic element provided with a dielectric multilayer film may be combined with a prism.

また、本発明にかかる撮像装置は、レンズを着脱自在なデジタル一眼レフカメラ以外にも、レンズ一体型のデジタルカメラ、デジタルビデオカメラおよび撮像機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。   The image pickup apparatus according to the present invention can be applied to an electronic device such as a lens-integrated digital camera, a digital video camera, and a mobile phone or a tablet-type mobile device having an image pickup function, in addition to a digital single lens reflex camera with a detachable lens. Can also be applied.

また、本発明にかかる撮像装置は、表示部が本体部に一体型のデジタルカメラ以外にも、表示部が本体部の背面に対して回動可能なデジタルカメラ、デジタル一眼レフカメラおよびデジタルビデオカメラ等に適用することができる。   The image pickup apparatus according to the present invention includes a digital camera, a digital single-lens reflex camera, and a digital video camera in which the display unit is rotatable with respect to the back surface of the main body, in addition to the digital camera in which the display is integrated with the main body Etc. can be applied.

また、本発明にかかる撮像装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The program executed by the imaging apparatus according to the present invention is file data in an installable format or executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk), USB medium. And recorded on a computer-readable recording medium such as a flash memory.

また、本発明にかかる撮像装置に実行させるプログラムは、ネットワーク経由でダウンロードしてFlashメモリや記録媒体等に記録させてもよい。さらに、本発明にかかる撮像装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   The program executed by the imaging apparatus according to the present invention may be downloaded via a network and recorded in a flash memory, a recording medium, or the like. Furthermore, the program to be executed by the imaging apparatus according to the present invention may be provided or distributed via a network such as the Internet.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。   In the description of the flowchart in the present specification, the context of the processing between steps is clearly indicated using expressions such as “first”, “after”, “follow”, etc., in order to implement the present invention. The order of processing required is not uniquely determined by their representation. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.

1,100,110 撮像装置
2,101,111 本体部
3 レンズ部
201 シャッタ
202 シャッタ駆動部
203 撮像素子
204 撮像素子駆動部
205 信号処理部
206 A/D変換部
207 画像処理部
208 AE処理部
209 AF処理部
210 画像圧縮展開部
211 入力部
211a 電源スイッチ
211b レリーズスイッチ
211c モードスイッチ
211d メニュースイッチ
211e 動画スイッチ
211f 再生スイッチ
211g タッチパネル
212 位置情報検出部
213 方位検出部
214 モーション検出部
215,400 接眼表示部
215a 内蔵表示部
215b 光学素子
215c 接眼部
215d,400a 遮光部
216 アイセンサ
217 背面表示部
218 時計
219 記録媒体
220 メモリI/F
221 SDRAM
222,501 Flashメモリ
222a プログラム記録部
223 本体通信部
224 バス
225,401,502 本体制御部
225a 画角算出部
225b 撮像制御部
225c 表示制御部
400b 遮光駆動部
401a 遮光制御部
501a ランドマーク情報記録部
502a ランドマーク検索部
DESCRIPTION OF SYMBOLS 1,100,110 Image pick-up device 2,101,111 Main body part 3 Lens part 201 Shutter 202 Shutter drive part 203 Image pick-up element 204 Image pick-up element drive part 205 Signal processing part 206 A / D conversion part 207 Image processing part 208 AE process part 209 AF processing unit 210 Image compression / decompression unit 211 Input unit 211a Power switch 211b Release switch 211c Mode switch 211d Menu switch 211e Movie switch 211f Playback switch 211g Touch panel 212 Position information detection unit 213 Orientation detection unit 214 Motion detection unit 215, 400 Eyepiece display unit 215a Built-in display unit 215b Optical element 215c Eyepiece unit 215d, 400a Light shielding unit 216 Eye sensor 217 Rear display unit 218 Clock 219 Recording medium 220 Memory I / F
221 SDRAM
222, 501 Flash memory 222a Program recording unit 223 Main unit communication unit 224 Bus 225, 401, 502 Main unit control unit 225a Angle of view calculation unit 225b Imaging control unit 225c Display control unit 400b Light shielding drive unit 401a Light shielding control unit 501a Landmark information recording unit 502a Landmark search section

Claims (9)

被写体と対向する前面側に設けられた撮像光学系を備えた表示装置であって、
前記撮像光学系に関する情報を表示可能な表示部と、
前記撮像光学系が集光する視野領域からの光を透過するとともに、前記視野領域からの光を透過する領域に前記情報の虚像を生じさせる光学素子と、
を備えたことを特徴とする表示装置。
A display device including an imaging optical system provided on the front side facing a subject,
A display unit capable of displaying information on the imaging optical system;
An optical element that transmits light from a field region where the imaging optical system collects light and generates a virtual image of the information in a region that transmits light from the field region;
A display device comprising:
前記撮像光学系は、画角を変更可能なズーム光学系を有し、
前記情報は、少なくとも前記撮像光学系の画角に関する画角情報を含むことを特徴とする請求項1に記載の表示装置。
The imaging optical system has a zoom optical system capable of changing the angle of view,
The display device according to claim 1, wherein the information includes at least angle-of-view information related to an angle of view of the imaging optical system.
請求項1または2に記載の表示装置と、
前記撮像光学系が前記視野領域から集光した光を受光して光電変換を行うことによって画像データを生成する撮像部と、
前記撮像部が生成した前記画像データに対応する画像を前記表示部に表示させる表示制御部と、
を備えたことを特徴とする撮像装置。
A display device according to claim 1 or 2,
An imaging unit that generates image data by receiving light collected from the visual field by the imaging optical system and performing photoelectric conversion;
A display control unit that causes the display unit to display an image corresponding to the image data generated by the imaging unit;
An imaging apparatus comprising:
前記表示制御部は、前記画像を縮小して前記表示部に表示させることを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the display control unit reduces the image and causes the display unit to display the image. 前記光学素子の前面側に設けられ、前記視野領域からの光の一部を遮光する遮光部をさらに備え、
前記表示制御部は、前記遮光部が設けられた領域に対応する前記表示部の表示領域に前記画像を縮小して表示させることを特徴とする請求項3または4に記載の撮像装置。
A light-shielding portion that is provided on the front side of the optical element and shields part of the light from the visual field region;
The imaging apparatus according to claim 3, wherein the display control unit displays the image in a reduced size in a display region of the display unit corresponding to the region where the light shielding unit is provided.
前記光学素子の前面側に設けられ、前記視野領域からの光を遮光する遮光状態と透過する透過状態とを切り替え可能な遮光部と、
前記遮光部を駆動する遮光駆動部と、
前記視野領域からの光を遮光する指示信号の入力を受け付ける入力部と、
前記入力部から前記指示信号が入力された場合、前記遮光駆動部を駆動させて前記遮光部に前記視野領域からの光を遮光させる遮光制御部と、
を備え、
前記表示制御部は、前記遮光部が前記視野領域からの光を遮光する場合、前記画像を前記表示部に全画面表示させることを特徴とする請求項3または4に記載の撮像装置。
A light-shielding portion that is provided on the front side of the optical element and is capable of switching between a light-shielding state that shields light from the visual field region and a transmission state that transmits light;
A light shielding drive unit for driving the light shielding unit;
An input unit for receiving an input of an instruction signal for shielding light from the visual field region;
When the instruction signal is input from the input unit, a light-shielding control unit that drives the light-shielding driving unit to cause the light-shielding unit to shield light from the visual field region;
With
5. The imaging apparatus according to claim 3, wherein the display control unit causes the display unit to display the image on a full screen when the light blocking unit blocks light from the visual field region.
前記撮像光学系の画角を算出する画角算出部をさらに備え、
前記表示制御部は、前記画角算出部が算出した前記画角に対応する大きさで前記情報を前記表示部に表示させることを特徴とする請求項3〜6のいずれか一つに記載の撮像装置。
An angle of view calculation unit for calculating an angle of view of the imaging optical system;
The said display control part displays the said information on the said display part by the magnitude | size corresponding to the said angle of view calculated by the said angle of view calculation part, The Claim 3 characterized by the above-mentioned. Imaging device.
複数のランドマークそれぞれの名称、位置情報および方位情報を含むランドマーク情報を記録するランドマーク情報記録部と、
当該撮像装置の位置情報を検出する位置情報検出部と、
前記撮像光学系の光軸が略水平になる場合において、前記撮像光学系の光軸が前記視野領域を向いた方向を基準方位としたときの当該撮像装置の方位情報を検出する方位検出部と、
前記位置情報検出部が検出した前記位置情報と前記方位検出部が検出した前記方位情報とに基づいて、前記視野領域内のランドマークを前記ランドマーク情報記録部から検索するランドマーク検索部と、
を備え、
前記表示制御部は、前記ランドマーク検索部が検出したランドマークに関するランドマーク情報を前記表示部に表示させることを特徴とする請求項3〜7のいずれか一つに記載の撮像装置。
A landmark information recording unit that records landmark information including name, position information, and orientation information of each of the plurality of landmarks;
A position information detector that detects position information of the imaging device;
When the optical axis of the imaging optical system is substantially horizontal, an orientation detection unit that detects orientation information of the imaging apparatus when the optical axis of the imaging optical system faces the visual field region as a reference orientation; ,
A landmark search unit that searches the landmark information recording unit for landmarks in the field of view based on the position information detected by the position information detection unit and the direction information detected by the direction detection unit;
With
The imaging apparatus according to claim 3, wherein the display control unit causes the display unit to display landmark information related to the landmark detected by the landmark search unit.
前記撮像部が生成した前記画像データに対応する画像を表示する背面表示部と、
当該撮像装置に対する撮影者の近接を検出する検出部と、
をさらに備え、
前記表示制御部は、前記検出部が前記撮影者の近接を検出した場合、前記表示部に前記画像を表示させる一方、前記検出部が前記撮影者の近接を検出しない場合、前記背面表示部に前記画像を表示させることを特徴とする請求項3〜8のいずれか一つに記載の撮像装置。
A rear display unit that displays an image corresponding to the image data generated by the imaging unit;
A detection unit for detecting the proximity of the photographer to the imaging device;
Further comprising
The display control unit displays the image on the display unit when the detection unit detects the proximity of the photographer, and displays the image on the rear display unit when the detection unit does not detect the proximity of the photographer. The image pickup apparatus according to claim 3, wherein the image is displayed.
JP2013103343A 2013-04-23 2013-05-15 Display device and imaging device Pending JP2014224861A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013103343A JP2014224861A (en) 2013-05-15 2013-05-15 Display device and imaging device
CN201410160264.3A CN104125379B (en) 2013-04-23 2014-04-21 Camera device
US14/257,586 US9596390B2 (en) 2013-04-23 2014-04-21 Imaging apparatus, imaging method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013103343A JP2014224861A (en) 2013-05-15 2013-05-15 Display device and imaging device

Publications (1)

Publication Number Publication Date
JP2014224861A true JP2014224861A (en) 2014-12-04

Family

ID=52123586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013103343A Pending JP2014224861A (en) 2013-04-23 2013-05-15 Display device and imaging device

Country Status (1)

Country Link
JP (1) JP2014224861A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157406A1 (en) * 2015-03-31 2016-10-06 日立マクセル株式会社 Image acquisition device, image file generation method, and image file generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157406A1 (en) * 2015-03-31 2016-10-06 日立マクセル株式会社 Image acquisition device, image file generation method, and image file generation program

Similar Documents

Publication Publication Date Title
US7876373B2 (en) Camera with viewfinder
TWI412269B (en) Camera provided with camera-shake compensation functionality
JP6071436B2 (en) Imaging apparatus, imaging method, and program
CN106998413B (en) Image processing apparatus, image capturing apparatus, image processing method, and medium
CN108603997B (en) Control device, control method, and control program
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
US10326941B2 (en) Image generating apparatus, imaging observing apparatus, imaging apparatus, and storage medium storing image processing program
JP6006024B2 (en) Imaging apparatus, imaging method, and program
JP2009042621A (en) Imaging apparatus and method
US20140293111A1 (en) Optical viewfinder
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP6398250B2 (en) Focus detection device
JP6597233B2 (en) TRACKING DEVICE AND IMAGING DEVICE
JP2014224861A (en) Display device and imaging device
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
US20080084493A1 (en) Camera, camera unit and camera system
JP5590850B2 (en) Imaging device and focus control method of imaging device
JP6222170B2 (en) Imaging device
JP2015037219A (en) Imaging apparatus, imaging method, and program
JP5764907B2 (en) Imaging device
JP2004221785A (en) Camera control device
JP2007060010A (en) Camera system
JP2015213338A5 (en)
JP2016142777A (en) Imaging apparatus
JP2012093775A (en) Focus detector and imaging apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423