JP6210699B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6210699B2
JP6210699B2 JP2013062859A JP2013062859A JP6210699B2 JP 6210699 B2 JP6210699 B2 JP 6210699B2 JP 2013062859 A JP2013062859 A JP 2013062859A JP 2013062859 A JP2013062859 A JP 2013062859A JP 6210699 B2 JP6210699 B2 JP 6210699B2
Authority
JP
Japan
Prior art keywords
image
change
imaging apparatus
shooting
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013062859A
Other languages
Japanese (ja)
Other versions
JP2014187657A5 (en
JP2014187657A (en
Inventor
智恵 菊地
智恵 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013062859A priority Critical patent/JP6210699B2/en
Publication of JP2014187657A publication Critical patent/JP2014187657A/en
Publication of JP2014187657A5 publication Critical patent/JP2014187657A5/ja
Application granted granted Critical
Publication of JP6210699B2 publication Critical patent/JP6210699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影技術教育を支援するのに好適な、撮像装置およびその制御方法に関するものである。   The present invention relates to an imaging apparatus and a control method thereof that are suitable for supporting imaging technology education.

写真を撮影する際には、ファインダ内あるいは、背面液晶に表示された画像をチェックして、ズームや露出、絞りなどを設定して、撮影パラメータを決定する。このような撮影パラメータによって写真の仕上がりが大きく異なってくるため、撮影パラメータの設定方法について学ぶユーザが多い。   When taking a picture, an image displayed in the viewfinder or on the rear liquid crystal is checked, and zoom, exposure, aperture, etc. are set, and shooting parameters are determined. Since the photo finish varies greatly depending on such shooting parameters, many users learn how to set shooting parameters.

撮影パラメータの一般的な設定方法を学ぶための学習方法としては、実際の撮影画像のメタデータから撮影パラメータを読み取ったり、それらの方法が書かれた書籍などを入手して独学で学んだりするのが一般的である。あるいは講師が撮影技術を教えてくれる教室(カメラ教室)などを受講したりするユーザも多い。   As a learning method to learn the general method of setting shooting parameters, you can read shooting parameters from the metadata of actual shot images, or obtain books on which these methods are written, and learn by yourself. Is common. There are also many users who attend a classroom (camera classroom) where a lecturer teaches photographing techniques.

しかし、このような学習方法では、人物・風景・花などの主要な被写体に対しての一般的な設定方法しか分からない。実際の撮影時には、主要被写体と、主要ではない被写体や背景などとの関係がそれぞれ異なるため、より良いパラメータ設定値はそれらの関係によって異なってくる。つまり、撮影時には、主要被写体だけでなく、それ以外の要素も撮影パラメータに影響してくるのである。たとえば、背景に不要な物体が入ってしまうのを防ぐために、ズームを変更して画角を変えたり、背景のぼけ具合を調整するために絞りを変えたり、あるいは、主要ではない被写体の状態も考慮して露出を決定したりすることになる。   However, in such a learning method, only a general setting method for main subjects such as people, landscapes, and flowers can be known. At the time of actual photographing, the relationship between the main subject and the non-main subject, the background, and the like are different, so that a better parameter setting value varies depending on the relationship. That is, at the time of shooting, not only the main subject but also other factors affect the shooting parameters. For example, to prevent unwanted objects from entering the background, change the zoom to change the angle of view, change the aperture to adjust the blur of the background, or the status of minor subjects The exposure is determined in consideration of this.

そこで、撮影中のパラメータ決定の過程において、ファインダ内の何に注目して、どの撮影パラメータをどのように変更したのかを知ることが有益である。このようなパラメータ決定方法を伝えるために、上述のカメラ教室などで講師が撮影しながら実際にパラメータの設定値の決定方法を解説する場合がある。このような方法で、パラメータの変更過程を知ることは、一般的な設定値を学ぶ学習よりも応用範囲が広い学習となる。   Therefore, in the process of determining parameters during shooting, it is useful to know what is in the finder and what shooting parameters are changed and how. In order to convey such a parameter determination method, there is a case where a lecturer actually explains a method for determining a parameter setting value while photographing in the above-described camera classroom or the like. Knowing the parameter changing process in this way is a learning with a wider application range than learning to learn a general set value.

一方、撮影者が撮影画像の中の何を重要だと判断したかを自動で判別する技術が従来技術として知られており、特許文献1では、撮影画像に対する重要領域を決定する方法が開示されている。特許文献1によれば、撮影に至るまでの「視線情報」、コンテクスト情報と呼ぶズーム設定値などの「撮影パラメータの設定情報」および背面液晶への表示用に利用されるような「低解像度画像」の3つの情報が取得される。そして、これら3つの情報から撮影画像内における重要領域が決定される。   On the other hand, a technique for automatically discriminating what is important in a photographed image by a photographer is known as a prior art, and Patent Document 1 discloses a method for determining an important region for a photographed image. ing. According to Patent Document 1, “line-of-sight information” up to shooting, “shooting parameter setting information” such as a zoom setting value called context information, and “low-resolution image” used for display on the rear liquid crystal "Is acquired. Then, an important area in the captured image is determined from these three pieces of information.

特許第4511821号公報Japanese Patent No. 4511821

しかしながら、上述の従来技術では、撮影画像の主要被写体は判別できるが、撮影パラメータ決定時に何に注目して、どの撮影パラメータを変更したのかという情報は得られないという課題があった。   However, in the above-described conventional technology, the main subject of the captured image can be determined, but there is a problem in that it is not possible to obtain information on what to focus on when determining the imaging parameter and which imaging parameter has been changed.

そこで本発明では、撮影パラメータの変更時に何に注目したのかを第三者に容易に伝えることを可能にすることを目的とする。   Therefore, an object of the present invention is to make it possible to easily tell a third party what has been noticed when a shooting parameter is changed.

上記の目的を達成するための本発明の一態様による撮像装置は、
撮像素子からの画像信号に基づいて画像を取得する取得手段と、
ユーザの動作を検出することにより前記画像における注目位置を特定する特定手段と、
前記撮像装置における撮影パラメータの変更を検出する検出手段と、
前記検出手段により前記撮影パラメータの変更が検出された場合に、前記取得手段により取得された画像と、前記特定手段により特定された注目位置と、撮影パラメータとを関連付けたデータ集合であって、前記変更の検出時とそれより前の、複数のデータ集合を保持する保持手段と、を備える。
In order to achieve the above object, an imaging apparatus according to an aspect of the present invention provides:
Obtaining means for obtaining an image based on an image signal from the image sensor;
Identifying means for identifying a position of interest in the image by detecting a user's action;
Detecting means for detecting a change in imaging parameters in the imaging apparatus;
When the change of the shooting parameter is detected by the detection unit , a data set in which the image acquired by the acquisition unit, the attention position specified by the specifying unit, and the shooting parameter are associated with each other, And holding means for holding a plurality of data sets at the time of detection of the change and before that.

本発明は、撮影に至る過程で撮影パラメータの変更と、その時に着目した領域に関する情報を容易に共有でき、撮影パラメータの変更時に何に注目したのかを第三者に容易に伝えることが可能になる。   The present invention makes it possible to easily share information regarding the change of the shooting parameter and the area focused on at that time in the process of shooting, and to easily tell the third party what was focused on when changing the shooting parameter. Become.

デジタルカメラの背面からの概観を示す斜視図。The perspective view which shows the external appearance from the back of a digital camera. 図1のデジタルカメラの垂直断面図。FIG. 2 is a vertical sectional view of the digital camera of FIG. 1. デジタルカメラの前面からの概観を示す図。The figure which shows the general view from the front of a digital camera. デジタルカメラの回路構成例を示すブロック図。The block diagram which shows the circuit structural example of a digital camera. ベイヤ配列を示す図。The figure which shows a Bayer arrangement | sequence. パラメータ変更履歴用バッファのデータ構成例を示す図。The figure which shows the data structural example of the buffer for parameter change histories. 視線検出装置を示す図。The figure which shows a gaze detection apparatus. パラメータ変更履歴の保存処理を示すフローチャート。The flowchart which shows the preservation | save process of parameter change log | history. 変更履歴の出力処理を示すフローチャート。The flowchart which shows the output process of a change log | history. 画像の領域分割の一例を示す図。The figure which shows an example of the area | region division of an image. 撮影パラメータ変更履歴のデータセットの一例を示す図。The figure which shows an example of the data set of imaging | photography parameter change log | history. パラメータ変更履歴の送信処理を示すフローチャート。The flowchart which shows the transmission process of a parameter change log | history. 注目タグの付与処理を示すフローチャート。The flowchart which shows the provision process of an attention tag. パラメータ変更履歴の表示処理を示すフローチャート。The flowchart which shows the display process of a parameter change log | history. パラメータ変更履歴の表示の例を示す図。The figure which shows the example of a display of a parameter change log | history.

以下、添付の図面を参照して本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

〔第一実施形態〕
図1において、カメラ本体100の上部には、ファインダ観察用の接眼窓111、AE(自動露出)ロックボタン112、AFの測距点選択ボタン113、撮影操作をするためのレリーズボタン114が設けられている。更に、カメラ本体100には、電子ダイヤル411、撮影モード選択ダイヤル117、および外部表示器409が設けられている。電子ダイヤル411は、他の操作ボタンと併用してカメラに数値を入力したり、撮影モードを切り換えたりするための多機能信号入力装置である。また、外部表示器409は、液晶表示装置から構成され、シャッタースピード、絞り、撮影モードなどの撮影条件や、他の情報を表示する。
[First embodiment]
In FIG. 1, an eyepiece window 111 for finder observation, an AE (automatic exposure) lock button 112, an AF distance measuring point selection button 113, and a release button 114 for performing a shooting operation are provided on the upper part of the camera body 100. ing. Further, the camera body 100 is provided with an electronic dial 411, a shooting mode selection dial 117, and an external display 409. The electronic dial 411 is a multi-function signal input device that is used in combination with other operation buttons to input numerical values to the camera and to switch the shooting mode. The external display 409 is composed of a liquid crystal display device, and displays shooting conditions such as shutter speed, aperture, shooting mode, and other information.

また、カメラ本体100の背面には、撮影された画像や各種設定画面などを表示するLCDモニタ417、LCDモニタ417をオン/オフするためのモニタスイッチ121、十字配置スイッチ116、およびメニューボタン124が設けられている。   Also, on the back of the camera body 100, there are an LCD monitor 417 for displaying captured images and various setting screens, a monitor switch 121 for turning on / off the LCD monitor 417, a cross switch 116, and a menu button 124. Is provided.

十字配置スイッチ116は、上下左右に配された4つのボタンと、中央に配されたSETボタンを有し、ユーザがLCDモニタ417に表示されるメニュー項目などの選択や実行をカメラに指示するために用いられる。   The cross placement switch 116 has four buttons arranged vertically and horizontally, and a SET button arranged in the center. The user instructs the camera to select and execute a menu item displayed on the LCD monitor 417. Used for.

メニューボタン124は、LCDモニタ417にカメラの各種設定を行うためのメニュー画面を表示させるためのボタンである。例えば、撮影モードを選択、設定する時は、このメニューボタン124を押した後、十字配置スイッチ116の上下左右のボタンを操作して希望のモードを選択し、希望のモードが選択された状態でSETボタンを押すことにより設定が完了する。   The menu button 124 is a button for displaying a menu screen for performing various camera settings on the LCD monitor 417. For example, when selecting and setting the shooting mode, after pressing the menu button 124, the user operates the up / down / left / right buttons of the cross switch 116 to select the desired mode, and the desired mode is selected. Setting is completed by pressing the SET button.

本実施形態のLCDモニタ417は透過型であるため、LCDモニタ417の駆動だけでは画像を視認することはできず、その裏面には図2に示すようにバックライト照明装置416が必要である。このようにLCDモニタ417とバックライト照明装置416は画像表示装置を構成している。   Since the LCD monitor 417 of the present embodiment is a transmissive type, an image cannot be visually recognized only by driving the LCD monitor 417, and a backlight illumination device 416 is required on the back surface thereof as shown in FIG. As described above, the LCD monitor 417 and the backlight illumination device 416 constitute an image display device.

図2に示すように、撮像光学系の撮影レンズ200はカメラ本体100に対してレンズマウント202を介して着脱可能である。撮影レンズ200とカメラ本体100は、レンズマウント202の接点を介して、通信可能となっている。図2において201は撮影光軸、203はクイックリターンミラーである。クイックリターンミラー203は撮影光路中に配置され、撮影レンズ200からの被写体光をファインダ光学系に導く位置(図2に示す位置、斜設位置と呼ぶ)と撮影光路外に退避する位置(退避位置と呼ぶ)との間で移動可能である。なお、本実施形態では、クイックリターンミラー203はハーフミラーであり、被写体光をファインダ光学系に導くと共に、撮像デバイス418に結像させる。撮像デバイスに結像された画像を縮小して作成した画像をライブビュー画像として表示することが可能であるが、本実施形態ではこの画像を撮影パラメータ決定時の情報としての記録にも用いる。また、光学ファインダの代わりに、小型液晶表示器を用いた電子部ビューファインダを採用してもよい。   As shown in FIG. 2, the photographing lens 200 of the imaging optical system can be attached to and detached from the camera body 100 via a lens mount 202. The taking lens 200 and the camera body 100 can communicate with each other via a contact point of the lens mount 202. In FIG. 2, 201 is a photographing optical axis, and 203 is a quick return mirror. The quick return mirror 203 is disposed in the photographing optical path, and a position for guiding the subject light from the photographing lens 200 to the finder optical system (referred to as a position shown in FIG. 2, an oblique position) and a position for retracting outside the photographing optical path (retraction position). Is called). In this embodiment, the quick return mirror 203 is a half mirror that guides subject light to the viewfinder optical system and forms an image on the imaging device 418. An image created by reducing an image formed on the imaging device can be displayed as a live view image, but in the present embodiment, this image is also used for recording as information when determining imaging parameters. Further, instead of the optical viewfinder, an electronic viewfinder using a small liquid crystal display may be adopted.

図2において、ピント板204上にはクイックリターンミラー203からファインダ光学系に導かれる被写体光が結像される。205はファインダの視認性を向上させるためのコンデンサレンズ、206はペンタゴナルダハプリズムであり、ピント板204およびコンデンサレンズ205を通った被写体光をファインダ観察用の接眼レンズ208および測光センサ207に導く。ペンタゴナルダハプリズム206と接眼レンズ208の間には、視線検出用の機構が位置している(詳細は図6の参照により後述する)。   In FIG. 2, the subject light guided from the quick return mirror 203 to the finder optical system is imaged on the focus plate 204. Reference numeral 205 denotes a condenser lens for improving the visibility of the finder, and 206 denotes a pentagonal roof prism, which guides the subject light that has passed through the focus plate 204 and the condenser lens 205 to an eyepiece lens 208 and a photometric sensor 207 for finder observation. A line-of-sight detection mechanism is located between the pentagonal roof prism 206 and the eyepiece 208 (details will be described later with reference to FIG. 6).

209、210はそれぞれシャッターを構成する後幕と先幕で、これら後幕209、先幕210の開放によって後方に配置されている固体撮像素子である撮像素子431が必要時間だけ露光される。撮像素子431はプリント基板211に保持されている。このプリント基板211の後方には、もう一枚のプリント基板である表示基板215が配置されている。この表示基板215の反対側の面にLCDモニタ417およびバックライト照明装置416が配置されている。419は画像データを記録する記録装置、217は電池(携帯用電源)である。これらの記録装置419および電池217は、カメラ本体に対して着脱可能である。   Reference numerals 209 and 210 respectively denote a rear curtain and a front curtain that constitute a shutter, and an image sensor 431 that is a solid-state image sensor disposed rearward by opening the rear curtain 209 and the front curtain 210 is exposed for a necessary time. The image sensor 431 is held on the printed board 211. Behind this printed board 211, a display board 215, which is another printed board, is arranged. An LCD monitor 417 and a backlight illumination device 416 are disposed on the opposite surface of the display substrate 215. Reference numeral 419 denotes a recording device for recording image data, and 217 denotes a battery (portable power supply). These recording device 419 and battery 217 are detachable from the camera body.

図3の303はカメラ本体100から撮影レンズ200を取り外すためのレンズ取り外しボタンである。304は絞込みボタンで、その時設定されている絞り数値までレンズの絞りを絞込み、図1のLCDモニタ417で被写界深度を確認することができる。絞込みボタン304が押されていない通常時には、絞りが開放の状態になった画像がLCDモニタ417に表示される。   3 is a lens removal button for removing the photographing lens 200 from the camera body 100. Reference numeral 304 denotes a narrowing button, which narrows the lens aperture to the aperture value set at that time, and can confirm the depth of field on the LCD monitor 417 in FIG. At normal times when the narrowing button 304 is not pressed, an image in which the aperture is open is displayed on the LCD monitor 417.

図4は、本実施形態によるカメラ本体100と撮影レンズ200の回路構成例を示すブロック図である。撮影レンズ200とカメラ本体100は、レンズ側の通信接点425と、カメラ側の通信接点434を介して通信可能である。操作スイッチ421は、カメラに設けられた電子ダイヤルを含む多数のスイッチ類の信号をレンズCPU426に伝え、マニュアル操作によるズーミング、フォーカシングおよび絞り値の設定や、オートフォーカス及びマニュアルフォーカスの切り換え等を行う。レンズ制御回路422は、撮影レンズ200内にある不図示のレンズ群との通信およびAF(オートフォーカス)時のレンズの駆動制御や絞り羽根の駆動制御を行う。レンズCPU426は、撮影レンズ200内の動作を制御する。   FIG. 4 is a block diagram illustrating a circuit configuration example of the camera body 100 and the photographing lens 200 according to the present embodiment. The photographing lens 200 and the camera body 100 can communicate with each other via a lens-side communication contact 425 and a camera-side communication contact 434. The operation switch 421 transmits signals of a large number of switches including an electronic dial provided in the camera to the lens CPU 426, and performs zooming, focusing and aperture value setting by manual operation, switching between auto focus and manual focus, and the like. The lens control circuit 422 performs communication with a lens group (not shown) in the taking lens 200, lens drive control during AF (autofocus), and aperture blade drive control. The lens CPU 426 controls the operation within the photographing lens 200.

不図示のレンズ群および絞りから構成される撮影光学系Lを通過した被写体光は、撮像素子431の撮像面(受光面)に結像する。撮像素子431は、CCDやCMOSなどの光電変換素子で構成されており、光学像を光電変換によって電気信号に変換する。本実施形態では撮像素子431は単板式のCCDで、カラーフィルタの配列は典型例なベイヤ配列であるとする(図5A)。画像縮小回路432は、撮像素子から得られた画像信号を現像処理した結果から、背面液晶(LCDモニタ417)用の確認画像を生成する。外部記憶装置433は例えばカメラ本体100に着脱可能なハードディスクドライブや半導体メモリカード等である。   The subject light that has passed through the photographing optical system L composed of a lens group (not shown) and a diaphragm forms an image on the imaging surface (light receiving surface) of the imaging element 431. The imaging element 431 is configured by a photoelectric conversion element such as a CCD or a CMOS, and converts an optical image into an electrical signal by photoelectric conversion. In this embodiment, the image sensor 431 is a single-plate CCD, and the color filter array is a typical Bayer array (FIG. 5A). The image reduction circuit 432 generates a confirmation image for the rear liquid crystal (LCD monitor 417) from the result of developing the image signal obtained from the image sensor. The external storage device 433 is, for example, a hard disk drive or a semiconductor memory card that can be attached to and detached from the camera body 100.

レリーズスイッチ435は、2段スイッチで構成されており、1段目のスイッチはレリーズボタン114(図1参照)の半押し状態でオンし、デジタルカメラは撮影準備状態になる。さらに、レリーズボタン114が最後まで押された状態(全押し状態)になると、レリーズスイッチ435の2段目のスイッチがオンし、撮像素子431への露光が開始される。本実施形態では、レリーズボタン114の半押し状態から全押し状態に至るまでの間を、撮影パラメータ調整期間と定義し、この期間の情報を解析・共有するものとする。   The release switch 435 is composed of a two-stage switch. The first-stage switch is turned on when the release button 114 (see FIG. 1) is half-pressed, and the digital camera is in a shooting preparation state. Further, when the release button 114 is fully pressed (fully pressed), the second switch of the release switch 435 is turned on, and exposure to the image sensor 431 is started. In the present embodiment, the period from the half-pressed state of the release button 114 to the fully-pressed state is defined as a shooting parameter adjustment period, and information on this period is analyzed and shared.

表示ユニット439は、カメラCPU436の制御下で、被写体をリアルタイムで表示したライブビュー画像や、撮像素子431を用いて撮影された動画像や静止画像をLCDモニタ417に表示する。設定スイッチ440は、撮影モードや各種設定等を行うために操作される。視線検出回路441とパラメータ変更履歴用バッファ438は、上記撮影パラメータ調整期間の間に、撮影パラメータおよびその変更履歴、視線情報、撮像素子431から得られた画像を保存する。カメラCPU436は、表示ユニット439、設定スイッチ440の駆動制御や電源437における残り容量のチェックや電力の分担等といった種々の制御を行っている。図4に図示した以外にも、測距(AF)回路、測光(AE)回路、バックライト照明、ゴミ位置メモリ、ストロボ発光調光制御回路など様々な構成要素が考えられるが、ここでは、説明を簡単にするために、省略する。   Under the control of the camera CPU 436, the display unit 439 displays on the LCD monitor 417 a live view image in which the subject is displayed in real time, and a moving image or a still image captured using the image sensor 431. The setting switch 440 is operated to perform a shooting mode and various settings. The line-of-sight detection circuit 441 and the parameter change history buffer 438 store the imaging parameter, its change history, line-of-sight information, and the image obtained from the image sensor 431 during the imaging parameter adjustment period. The camera CPU 436 performs various controls such as drive control of the display unit 439 and setting switch 440, checking of remaining capacity in the power source 437, and sharing of power. In addition to those shown in FIG. 4, various components such as a distance measuring (AF) circuit, a photometric (AE) circuit, a backlight illumination, a dust position memory, and a strobe light emission dimming control circuit can be considered. Omitted for simplicity.

図6は、視線検出装置を説明する図である。発光ダイオード604は撮影者の眼球605に対して不感の赤外光線を放射する。ダイクロイックミラー603は可視光を透過して赤外光を反射する特性を持つ光学部材であり、ペンタゴナルダハプリズム206と接眼レンズ208の間に挟まれる光路中に配置される。発光ダイオード604によって撮影者の眼球605を照射すると、眼球での反射光は、ダイクロイックミラー603により反射されて受光レンズ602に入射する。受光レンズ602は眼球の角膜像をイメージセンサ601に結像させる。イメージセンサ601で検出された撮影者の眼球の角膜像を、図4に示す視線検出回路441が解析することにより、ファインダ内におけるユーザの視線の位置が検出される。   FIG. 6 is a diagram illustrating a line-of-sight detection device. The light emitting diode 604 emits insensitive infrared rays to the photographer's eyeball 605. The dichroic mirror 603 is an optical member having a characteristic of transmitting visible light and reflecting infrared light, and is disposed in an optical path sandwiched between the pentagonal roof prism 206 and the eyepiece lens 208. When the photographer's eyeball 605 is irradiated by the light emitting diode 604, the reflected light from the eyeball is reflected by the dichroic mirror 603 and enters the light receiving lens 602. The light receiving lens 602 forms a cornea image of the eyeball on the image sensor 601. The sight line detection circuit 441 shown in FIG. 4 analyzes the cornea image of the photographer's eye detected by the image sensor 601, thereby detecting the position of the user's line of sight within the viewfinder.

次に、視線検出情報を使ってパラメータ変更履歴を保存する処理について説明する。カメラCPU436が撮影パラメータ調整期間を検出し、その間のパラメータ変更履歴を保存するまでの動作を、図7のフローチャートを使って説明する。なお、上述したように撮影パラメータ調整期間は、レリーズボタン114が半押し状態になると開始され、全押し状態になった時点で終了する。そして、この撮影パラメータ調整期間における撮影パラメータの変更、ファインダ内における視線位置および、その時に撮像素子431に結像されていた画像が保存され、解析されることになる。   Next, a process for storing a parameter change history using line-of-sight detection information will be described. The operation until the camera CPU 436 detects the shooting parameter adjustment period and stores the parameter change history during that period will be described with reference to the flowchart of FIG. As described above, the shooting parameter adjustment period starts when the release button 114 is half-pressed and ends when the release button 114 is fully pressed. Then, the change of the shooting parameters during the shooting parameter adjustment period, the line-of-sight position in the finder, and the image formed on the image sensor 431 at that time are stored and analyzed.

ステップS701において、カメラCPU436は、撮影パラメータ変更履歴を保存するファイル(パラメータ変更履歴保存用ファイル)を作成する。図10は、以下に説明される処理により作成されるファイルのデータ構成例を示す図である。ここで、カメラCPU436は、ファイルのヘッダ情報1001として、このファイルの識別子および、画像の分割サイズなどの基本データを出力し、データの書き込みが可能な状態で処理をステップS702へ進める。なお、画像の分割サイズについては、後に図9を用いて説明する。   In step S701, the camera CPU 436 creates a file (parameter change history storage file) for storing the shooting parameter change history. FIG. 10 is a diagram illustrating a data configuration example of a file created by the processing described below. Here, the camera CPU 436 outputs the file identifier and basic data such as the image division size as the file header information 1001, and advances the processing to step S702 in a state where the data can be written. The image division size will be described later with reference to FIG.

ステップS702において、カメラCPU436は、レリーズボタン114が半押し状態になった時点での、撮影パラメータ、およびファインダ内の視線位置、撮像素子431に結像された画像から作成される背面液晶用の縮小画像を取得する。そして、カメラCPU436は、それら取得した情報をパラメータ変更履歴用バッファ438(図5B参照、但し、「注目タグ」は第二実施形態で用いられる)に一時的に保存する。本実施形態では、撮影パラメータとして絞り値、露出設定値、ズーム位置、シャッタースピードを関連付けたデータ集合を記録する。また、視線位置としてはファインダ内の画像の中に視線が位置している場合のみ、縮小画像にマッピングした時の座標を、画像の左上を原点として記録するものとする。したがって、パラメータの視線入力などのために画像の外に視線位置が移動した場合は、視線位置は記録されない。画像の中に視線があるのか、その外側のパラメータ情報が書かれている場所に視線があるのかの判断は、たとえば、撮影パラメータの視線入力や視線位置に対するAF機能などの従来技術で行われているものである。   In step S702, the camera CPU 436 reduces the rear liquid crystal created from the imaging parameters, the line-of-sight position in the finder, and the image formed on the image sensor 431 when the release button 114 is half-pressed. Get an image. Then, the camera CPU 436 temporarily stores the acquired information in a parameter change history buffer 438 (see FIG. 5B, where “notable tag” is used in the second embodiment). In this embodiment, a data set in which an aperture value, an exposure setting value, a zoom position, and a shutter speed are associated as recording parameters is recorded. Also, as the line-of-sight position, only when the line-of-sight is located in the image in the finder, the coordinates when mapped to the reduced image are recorded with the upper left of the image as the origin. Therefore, when the line-of-sight position is moved outside the image due to the line-of-sight input of parameters, the line-of-sight position is not recorded. Judgment as to whether there is a line of sight in the image or where the parameter information on the outside is written is performed by a conventional technique such as a line-of-sight input of an imaging parameter or an AF function for the line-of-sight position, for example. It is what.

ステップS703では、パラメータ変更履歴用バッファ438の使用カウンタ(cnt)に1が代入される。次に、ステップS704において、カメラCPU436は、データ記録タイミングかどうかを判別する。データ記録タイミングは所定の時間間隔を有し、たとえば、カメラ本体100がライブビュー撮影用に背面液晶用の縮小画像を作成する時と同じタイミングでも良いし、その整数倍長いタイミングでも良い。本実施形態では、背面液晶用の縮小画像は、一秒間に60回作成されるものとし、データの記録タイミングはその2倍の長さのタイミング、つまり一秒間に30回とする。   In step S703, 1 is assigned to the usage counter (cnt) of the parameter change history buffer 438. Next, in step S704, the camera CPU 436 determines whether it is a data recording timing. The data recording timing has a predetermined time interval. For example, the data recording timing may be the same timing when the camera body 100 creates a reduced image for the rear liquid crystal for live view shooting, or may be a timing that is an integral multiple of that. In this embodiment, the reduced image for the rear liquid crystal is created 60 times per second, and the data recording timing is twice as long as that, that is, 30 times per second.

ステップS704でデータの記録タイミングであると判定された場合には、処理はステップS705へ進む。ここで、カメラCPU436は、パラメータ変更履歴用バッファ438のcnt番目(buffer[cnt])に、その時点での撮影パラメータ、ファインダ内における視線の検出位置(視線位置)および、縮小画像を保存する。そして、ステップS706において、カメラCPU436はパラメータ変更履歴用バッファ438の使用カウンタcntに1を加算する。ステップS707において、カメラCPU436は、今回のタイミングでbuffer[cnt-1]に保存した撮影パラメータと、その直前のタイミングでbuffer[cnt-2]に保存した撮影パラメータとを比較する。両者が同じ値であれば、ステップS709へ進み、異なる値であれば、ステップS708へ進む。   If it is determined in step S704 that the data recording timing is reached, the process advances to step S705. Here, the camera CPU 436 stores the shooting parameters at that time, the line-of-sight detection position (line-of-sight position), and the reduced image in the cnt-th (buffer [cnt]) of the parameter change history buffer 438. In step S706, the camera CPU 436 adds 1 to the usage counter cnt of the parameter change history buffer 438. In step S707, the camera CPU 436 compares the shooting parameter stored in buffer [cnt-1] at the current timing with the shooting parameter stored in buffer [cnt-2] at the immediately preceding timing. If both values are the same, the process proceeds to step S709, and if they are different, the process proceeds to step S708.

ステップS708において、カメラCPU436は、変更履歴の解析を行いその結果をステップS701で作成したファイルに出力し、buffer[0]からbuffer[cnt-2]までのデータを削除し、最新のデータであるbuffer[cnt-1]をbuffer[0]にコピーする。この変更履歴の出力については、後に図8を用いて詳しく説明する。ステップS709において、カメラCPU436は、あらかじめ用意されたパラメータ変更履歴用バッファ438にまだ空きがあるかどうかを調べる。本実施形態では、150セットの撮影パラメータ、視線位置、縮小画像を保存できるだけのバッファ容量が用意されているものとする。したがって、cntが150未満であればバッファにまだ空き領域があり、cntが150以上であればすべてのバッファ容量が使用されていると判断できる。パラメータ変更履歴用バッファ438に空き領域がなければ処理はステップS710へ進み、まだ空き容量があれば処理はステップS711に進む。なお、データ記録タイミングにおいて、直前のデータ記録タイミングと撮影パラメータが異なる場合には、ステップS708で変更履歴用バッファに空き領域が出る。そのため、ステップS710へ進んだ場合には、変更履歴用バッファの全てにおいて、同一の撮影パラメータ(視線位置のみ異なる)が保存されている。   In step S708, the camera CPU 436 analyzes the change history, outputs the result to the file created in step S701, deletes data from buffer [0] to buffer [cnt-2], and is the latest data. Copy buffer [cnt-1] to buffer [0]. The output of the change history will be described in detail later with reference to FIG. In step S <b> 709, the camera CPU 436 checks whether there is still a space in the parameter change history buffer 438 prepared in advance. In this embodiment, it is assumed that a buffer capacity sufficient to store 150 sets of imaging parameters, line-of-sight positions, and reduced images is prepared. Therefore, if cnt is less than 150, it can be determined that there is still an empty area in the buffer, and if cnt is 150 or more, all the buffer capacity is used. If there is no free area in parameter change history buffer 438, the process proceeds to step S710, and if there is still free capacity, the process proceeds to step S711. If the shooting parameter is different from the previous data recording timing at the data recording timing, an empty area appears in the change history buffer in step S708. Therefore, when the process proceeds to step S710, the same shooting parameter (only the line-of-sight position is different) is stored in all the change history buffers.

ステップS710において、カメラCPU436は、パラメータ変更履歴用バッファ438内で最も古いデータ(本実施形態ではbuffer[0]のデータ)を削除し、残りのデータについたバッファの番号を一つずつ若い番号に付け替える。さらに、カウンタcntの値から1を引く。つまり、本例ではcntの値を149とする。ステップS711では、レリーズボタン114が全押しされた状態になったかどうかを検出する。カメラCPU436は、レリーズボタン114がまだ半押し状態になっていれば、引き続き撮影パラメータ調整期間内にあるものと判断し、ステップS704へ処理を戻す。他方、カメラCPU436は、レリーズボタン114が全押し状態になっていれば、撮影パラメータ調整期間が終了したと判断し、処理をステップS712に進める。ステップS712では、ステップS701で作成したファイルをクローズし、このフローを終了する。   In step S710, the camera CPU 436 deletes the oldest data (data of buffer [0] in this embodiment) from the parameter change history buffer 438, and sets the buffer numbers for the remaining data one by one. Replace. Further, 1 is subtracted from the value of the counter cnt. That is, in this example, the value of cnt is 149. In step S711, it is detected whether or not the release button 114 has been fully pressed. If the release button 114 is still half-pressed, the camera CPU 436 determines that it is still within the shooting parameter adjustment period, and returns the process to step S704. On the other hand, if the release button 114 is fully pressed, the camera CPU 436 determines that the shooting parameter adjustment period has ended, and advances the process to step S712. In step S712, the file created in step S701 is closed, and this flow ends.

次に、図8を参照して、撮影パラメータが変更された場合の変更履歴の書き込みフローを説明する。   Next, with reference to FIG. 8, the flow of writing the change history when the shooting parameter is changed will be described.

ステップS801においてカメラCPU436は、変更前後の撮影パラメータをステップS701で作成したファイルにそれぞれ撮影パラメータ1002、撮影パラメータ1003として書き込む。より具体的には、buffer[0]からbuffer[cnt-2]までは同一の撮影パラメータになっているため、パラメータ変更履歴用バッファ438内で最も古いデータが格納されているbuffer[0]と、一番新しいデータが格納されているbuffer[cnt-1]を、撮影パラメータ1002,1003として書き込むことになる。次に、ステップS802において、カメラCPU436は、ステップS801で書き込まれたパラメータの変更前後の縮小画像として、今回ファイルに書き込む縮小画像の枚数をファイルに書き込む。具体的には、buffer[0]からbuffer[cnt-1]のcnt枚の画像がファイルに書き込まれることになるので、値cntが画像の枚数1004として書き込まれる。   In step S801, the camera CPU 436 writes the shooting parameters before and after the change as the shooting parameter 1002 and the shooting parameter 1003, respectively, in the file created in step S701. More specifically, since the same shooting parameters are used from buffer [0] to buffer [cnt-2], the oldest data in the parameter change history buffer 438 is stored in buffer [0]. The buffer [cnt-1] storing the newest data is written as the shooting parameters 1002 and 1003. Next, in step S802, the camera CPU 436 writes the number of reduced images to be written in the current file as a reduced image before and after the parameter change written in step S801. Specifically, since cnt images from buffer [0] to buffer [cnt-1] are written in the file, the value cnt is written as the number of images 1004.

ステップS803において、カメラCPU436は、画像用カウンタIを用意し、これにゼロを代入して初期化する。ステップS804では、buffer[I]の視線位置からユーザの注目位置としての視線集中領域番号を算出する。本実施形態では、ファイルに書き込むデータとしては、図9に示すように、画像領域を8×6の48分割し、左上から順にラスター順に領域番号を振る。そして、buffer[I]に格納されている視線位置の座標から領域番号を算出する。たとえば、縮小画像のサイズが640×480画素で、検出された視線位置の座標が(520,40)であるとすると、視線集中領域番号は6番と算出される。   In step S803, the camera CPU 436 prepares an image counter I, and initializes it by substituting zero therein. In step S804, a line-of-sight concentration area number as a user's attention position is calculated from the line-of-sight position of buffer [I]. In the present embodiment, as data to be written in the file, as shown in FIG. 9, the image area is divided into 48 × 8 × 6, and area numbers are assigned in order of raster from the upper left. Then, the region number is calculated from the coordinates of the line-of-sight position stored in buffer [I]. For example, if the size of the reduced image is 640 × 480 pixels and the coordinates of the detected line-of-sight position are (520, 40), the line-of-sight concentration area number is calculated as 6.

ステップS805において、カメラCPU436は、buffer[I]の縮小画像をJPEGで圧縮する。ステップS806において、カメラCPU436は、ステップS804で算出した視線集中領域番号とステップS805で作成された圧縮データを、ファイルに出力する。これにより、視線集中領域番号(AI)と縮小画像1006(PI)がファイルに書き込まれる。画像用カウンタIが0である場合、視線集中領域番号1005(A0)と縮小画像1006(P0)がファイルに書き込まれる。   In step S805, the camera CPU 436 compresses the reduced image in buffer [I] with JPEG. In step S806, the camera CPU 436 outputs the line-of-sight concentration area number calculated in step S804 and the compressed data created in step S805 to a file. As a result, the line-of-sight concentration area number (AI) and the reduced image 1006 (PI) are written to the file. When the image counter I is 0, the line-of-sight concentration area number 1005 (A0) and the reduced image 1006 (P0) are written in the file.

ステップS807において、カメラCPU436は、画像用カウンタIをインクリメントする。ステップS808において、カメラCPU436は、画像用カウンタIと、書き込むべき縮小画像の枚数cntとを比較することで、今回の撮影パラメータ変更に伴う書き込みが終了したかどうかを判断する。画像用カウンタIと、縮小画像の枚数cntとが等しければ、書き込みが終了したものと判断され、処理はステップS809へ進む。他方、画像用カウンタIと、縮小画像の枚数cntとが等しくなければ、処理はステップS804に戻る。ステップS809において、カメラCPU436は、一番新しいデータが格納されているbuffer[cnt-1]のデータをbuffer[0]にコピーし、buffer[1]〜buffer[cnt-1]までのデータは削除して、このフローを終了する。また、ステップS809においてカウンタcntの値が1にリセットされる。   In step S807, the camera CPU 436 increments the image counter I. In step S808, the camera CPU 436 compares the image counter I with the number cnt of reduced images to be written to determine whether or not the writing associated with the current shooting parameter change is complete. If the image counter I is equal to the number cnt of reduced images, it is determined that writing has been completed, and the process advances to step S809. On the other hand, if the image counter I is not equal to the number cnt of reduced images, the process returns to step S804. In step S809, the camera CPU 436 copies the data of buffer [cnt-1] storing the newest data to buffer [0], and deletes the data from buffer [1] to buffer [cnt-1]. Then, this flow is finished. In step S809, the value of the counter cnt is reset to 1.

以上のような処理により、図10に示すようなファイルが生成される。すなわち、
・変更前後の撮影パラメータ(撮影パラメータ1002、1003)と、
・その変更過程において注目していた領域を表す縮小画像と視線集中領域番号の組み合わせ(視線集中領域番号1005と縮小画像1006〜視線集中領域番号1007と縮小画像1008)が、
撮影パラメータ変更履歴のデータセットとしてパラメータ変更の度にファイルに保存されることになる。したがって、このファイルを第三者に提供することで、撮影パラメータ決定時に何に注目して、どのパラメータを変更したのかという情報を容易に第三者に開示できる。
Through the processing as described above, a file as shown in FIG. 10 is generated. That is,
Shooting parameters before and after the change (shooting parameters 1002, 1003),
A combination of a reduced image and a line-of-sight concentration area number representing an area of interest in the change process (line-of-sight concentration area number 1005, reduced image 1006 to line-of-sight concentration area number 1007, and reduced image 1008)
Each time the parameter is changed, it is saved in a file as a data set of shooting parameter change history. Therefore, by providing this file to a third party, it is possible to easily disclose to the third party information about what parameters were noticed and which parameters were changed when determining the shooting parameters.

また、撮影パラメータ変更履歴のデータセットとして保存する縮小画像は、圧縮して保存されるため、パラメータ変更履歴保存用ファイルサイズを小さく抑えることが可能である。また、視線集中領域番号とその時の縮小画像を一緒に保存することで、撮影に至る過程でカメラを向ける位置や構図、画角が変わることにより、最終的に撮影された画像内には含まれなかった物体であっても、撮影パラメータ決定の際に注目されたことを知ることが可能になる。この効果については第三実施形態で詳しく述べる。   In addition, since the reduced image saved as the shooting parameter change history data set is compressed and saved, the parameter change history saving file size can be kept small. In addition, by storing together the line-of-sight concentration area number and the reduced image at that time, the position, composition, and angle of view of the camera will change in the process until shooting, so that it will be included in the finally shot image. Even if there is no object, it is possible to know that the object has been noticed when determining the shooting parameters. This effect will be described in detail in the third embodiment.

〔第二実施形態〕
第二実施形態では、撮影パラメータ調整期間中の撮影パラメータ変更履歴をファイルに保存せずに、外部装置に送信する。第二実施形態による撮像装置の構成は第一実施形態と同様である。以下、第二実施形態による撮像装置の動作について、図11のフローチャートを用いて説明する。なお、図11において、図7と同じ処理のステップには、図7と同じ参照番号が付与されている。また、第二実施形態では、第一実施形態と同様に、パラメータ調整期間の撮影パラメータの変更、ファインダ内における視線位置、その時に撮像素子431に結像されていた画像をモニタする。そして、あらかじめ登録された、表示デバイスを持つ外部装置(デジタルカメラ、PC、タブレットPCなど)に、撮影パラメータ、縮小画像、視線位置などを送信する。
[Second Embodiment]
In the second embodiment, the shooting parameter change history during the shooting parameter adjustment period is transmitted to an external device without being saved in a file. The configuration of the imaging apparatus according to the second embodiment is the same as that of the first embodiment. Hereinafter, the operation of the imaging apparatus according to the second embodiment will be described with reference to the flowchart of FIG. In FIG. 11, the same reference numerals as those in FIG. 7 are assigned to the same processing steps as those in FIG. In the second embodiment, as in the first embodiment, the imaging parameter change during the parameter adjustment period, the line-of-sight position in the finder, and the image formed on the image sensor 431 at that time are monitored. Then, the imaging parameter, reduced image, line-of-sight position, etc. are transmitted to an external device (digital camera, PC, tablet PC, etc.) having a display device registered in advance.

また、第二実施形態のパラメータ変更履歴用バッファ438には、第一実施形態で保存した撮影パラメータ、縮小画像、視線位置の他に、それらのデータが撮影パラメータ変更直前のデータであるかどうかを示す注目タグを保存する領域が設けられている(図5B参照)。撮影パラメータ変更直前のデータである場合には、注目タグに視線集中領域番号が保存され、そうでない場合には、負の値が保存されているものとする。   In addition to the shooting parameters, reduced images, and line-of-sight positions saved in the first embodiment, the parameter change history buffer 438 of the second embodiment displays whether or not these data are data immediately before the shooting parameter change. An area for storing the attention tag shown is provided (see FIG. 5B). It is assumed that the line-of-sight concentration area number is stored in the target tag if the data is immediately before the imaging parameter change, and a negative value is stored if not.

ステップS1102では、第一実施形態同様に、buffer[0]に撮影パラメータ、縮小画像、視線位置を保存し、さらに注目タグにマイナス1を入れて初期化する。ステップS703、ステップS704は第一実施形態と同様の動作をする。ステップS1102では、ステップS1101と同様に、buffer[cnt]に撮影パラメータ、縮小画像、視線位置を保存し、注目タグをマイナス1で初期化する。ステップS706、ステップS707は第一実施形態と同様の動作をする。ステップS707で、buffer[cnt-2]とbuffer[cnt-1]の撮影パラメータが同じ場合には、ステップS709へ進み、第一実施形態と同様の処理が行われる。   In step S1102, as in the first embodiment, the shooting parameters, reduced image, and line-of-sight position are stored in buffer [0], and further, minus 1 is entered in the attention tag and initialization is performed. Steps S703 and S704 perform the same operation as in the first embodiment. In step S1102, as in step S1101, the shooting parameters, the reduced image, and the line-of-sight position are stored in buffer [cnt], and the attention tag is initialized with minus one. Steps S706 and S707 operate in the same manner as in the first embodiment. If the shooting parameters of buffer [cnt-2] and buffer [cnt-1] are the same in step S707, the process proceeds to step S709, and the same processing as in the first embodiment is performed.

他方、ステップS707において両者の撮影パラメータが異なる場合、処理はステップS1103に進む。ステップS1103において、カメラCPU436は、buffer[cnt-1]に注目タグを付与し、ステップS709へ進む。注目タグの付与方法については、図12のフローチャートの参照により後述する。ステップS709では、第一実施形態同様にパラメータ変更履歴用バッファ438に空きがあるかどうかを判断する。空きがあればステップS711に進む。   On the other hand, if the shooting parameters are different in step S707, the process proceeds to step S1103. In step S1103, the camera CPU 436 assigns an attention tag to buffer [cnt-1], and proceeds to step S709. A method of assigning the attention tag will be described later with reference to the flowchart of FIG. In step S709, it is determined whether or not there is a space in the parameter change history buffer 438 as in the first embodiment. If there is a vacancy, the process proceeds to step S711.

パラメータ変更履歴用バッファ438に空きがなければ、処理はステップS1104へ進む。ステップS1104においてカメラCPU436は、buffer[0]のデータのうち、撮影パラメータ、縮小画像、注目タグの値を、あらかじめ登録されている外部装置に送信する。ステップS1105においてカメラCPU436は、buffer[k+1](k=0〜n-1)のデータをbuffer[k]にコピーし、バッファ使用カウンタcntの数を1減らし、処理をステップS711へ進める。ステップS711では、第一実施形態と同様に、カメラCPU436がレリーズボタン114の全押し状態の検出を判断する。レリーズボタン114の全押し状態が検出されなかったら、カメラCPU436は処理をステップS704へ処理を戻し、検出したら処理をステップS1106へ進める。ステップS1106では、バッファ内に残っているすべてのデータセット、すなわち、撮影パラメータ、縮小画像、および注目タグを送信し、このフローを終了する。   If there is no empty space in parameter change history buffer 438, the process proceeds to step S1104. In step S <b> 1104, the camera CPU 436 transmits the shooting parameter, the reduced image, and the value of the attention tag among the data of buffer [0] to the external device registered in advance. In step S1105, the camera CPU 436 copies the data in buffer [k + 1] (k = 0 to n−1) to buffer [k], decreases the number of buffer usage counters cnt by 1, and advances the process to step S711. In step S711, as in the first embodiment, the camera CPU 436 determines whether the release button 114 is fully pressed. If the fully depressed state of the release button 114 is not detected, the camera CPU 436 returns the process to step S704, and if detected, advances the process to step S1106. In step S1106, all data sets remaining in the buffer, that is, shooting parameters, reduced images, and attention tags are transmitted, and this flow ends.

次に、ステップS1103の注目タグの付与処理について、図12を用いて説明する。なお、図12において、第一実施形態で説明した図8の処理と同様の動作をするステップには、図8と同じ番号を付与してある。   Next, the attention tag assignment processing in step S1103 will be described with reference to FIG. In FIG. 12, steps having the same operations as those in the process of FIG. 8 described in the first embodiment are assigned the same numbers as in FIG.

ステップS803で、カメラCPU436は、画像用カウンタIにゼロを代入し、初期化する。ステップS1201においてカメラCPU436は、パラメータ変更履歴用バッファ438内の画像の中で、注目タグが付与されていない先頭の画像を探すために、buffer[I]のデータセットに注目タグが付与されているかどうかを判断する。本実施形態の場合、注目タグがマイナス1であれば、まだ注目タグが付与されていないと判断でき、その場合、処理はステップS804へ進む。この時点で注目タグが設定されている画像は、前回の撮影パラメータ変更時の注目領域であると判断され、処理はステップS1202へ進む。ステップS1202において、画像用カウンタIに1を加算する。   In step S803, the camera CPU 436 assigns zero to the image counter I and initializes it. In step S <b> 1201, the camera CPU 436 determines whether the attention tag is assigned to the data set of buffer [I] in order to search for the first image to which the attention tag is not attached among the images in the parameter change history buffer 438. Judge whether. In the case of this embodiment, if the attention tag is minus 1, it can be determined that the attention tag has not been given yet, and in this case, the process proceeds to step S804. At this time, the image for which the attention tag is set is determined to be the attention area at the time of the previous shooting parameter change, and the process proceeds to step S1202. In step S1202, 1 is added to the image counter I.

ステップS804においてカメラCPU436は、ユーザの注目位置としての視線集中領域番号を算出する。視線集中領域番号の算出処理は、第一実施形態で説明したとおりである。ステップS1203においてカメラCPU436は、注目タグにステップS804で算出された視線集中領域番号を代入する。ステップS807、S808は第一実施形態と同様である。   In step S804, the camera CPU 436 calculates a line-of-sight concentration area number as a user's attention position. The calculation process of the line-of-sight concentration area number is as described in the first embodiment. In step S1203, the camera CPU 436 substitutes the line-of-sight concentration area number calculated in step S804 for the target tag. Steps S807 and S808 are the same as in the first embodiment.

第二実施形態の場合、あらかじめ登録されていた外部装置は、ほぼリアルタイムで撮影パラメータ変更の過程をデジタルカメラと共有することができる。したがって、外部装置において、図10に示したようなパラメータ変更履歴保存用ファイルを保持することができる。また、本実施形態では、送信する画像データ(縮小画像)は圧縮されていないが、JPEGなどにより画像データを圧縮してから送信するようにしてもよい。また、情報処理装置は、撮像装置からステップS1104とS1106で送信されたデータの全てをファイルに保持してもよいし、注目タグが付与されているデータをファイルに保持するようにしてもよい。注目タグが付与されているデータをファイルに保持するようにすれば、情報処理装置において第一実施形態で説明したファイル(図10)と同等のファイルが生成されることになる。   In the case of the second embodiment, the external device registered in advance can share the process of changing the shooting parameter with the digital camera in almost real time. Therefore, the parameter change history storage file as shown in FIG. 10 can be held in the external device. In this embodiment, the image data (reduced image) to be transmitted is not compressed. However, the image data may be transmitted after being compressed by JPEG or the like. In addition, the information processing apparatus may hold all the data transmitted from the imaging apparatus in steps S1104 and S1106 in a file, or may hold data to which an attention tag is assigned in a file. If the data to which the attention tag is attached is held in the file, a file equivalent to the file (FIG. 10) described in the first embodiment is generated in the information processing apparatus.

〔第三実施形態〕
第三実施形態では、第一実施形態で作成されたファイルを表示する方法について、図13のフローチャートを用いて説明する。以下では、デジタルカメラのカメラCPU436が、外部記憶装置433に格納されたパラメータ変更履歴保存用ファイルを読み出して表示する場合を説明する。なお、第二実施形態で説明したように、外部装置にパラメータ変更履歴保存用ファイルが保持され、外部装置がこれを読み出して表示する場合も同様であることは当業者には明らかである。
[Third embodiment]
In the third embodiment, a method for displaying the file created in the first embodiment will be described with reference to the flowchart of FIG. Hereinafter, a case where the camera CPU 436 of the digital camera reads and displays the parameter change history storage file stored in the external storage device 433 will be described. As described in the second embodiment, it is obvious to those skilled in the art that the parameter change history storage file is stored in the external device, and the external device reads and displays the file.

ステップS1301においてカメラCPU436は、パラメータ変更履歴が保存されたパラメータ変更履歴保存用ファイルを取得し、読出し用にオープンする。ステップS1302においてカメラCPU436は、ファイルのヘッダ情報1001を読み、画像の領域分割のサイズを取得する。本実施形態の場合、画像は縦横80画素の正方形で分割されていることが分かる(縮小画像のサイズが640×480画素であり、8×6に分割されるため)。ステップS1303においてカメラCPU436は、変更前の撮影パラメータPbeforeとして、撮影パラメータ1002を読み出す。また、ステップS1304においてカメラCPU436は、変更後の撮影パラメータPafterとして、撮影パラメータ1003を読み出す。   In step S1301, the camera CPU 436 acquires a parameter change history storage file in which the parameter change history is stored, and opens the file for reading. In step S <b> 1302, the camera CPU 436 reads the file header information 1001 and acquires the size of the region division of the image. In the case of this embodiment, it can be seen that the image is divided into squares of 80 pixels vertically and horizontally (since the size of the reduced image is 640 × 480 pixels and is divided into 8 × 6). In step S1303, the camera CPU 436 reads the shooting parameter 1002 as the shooting parameter Pbefore before the change. In step S1304, the camera CPU 436 reads out the shooting parameter 1003 as the changed shooting parameter Pafter.

ステップS1305においてカメラCPU436は、ステップS1303で取得したPbeforeとステップS1304で取得したPafterを比較する。そして、撮影パラメータとして記録されている、絞り値、露出設定値、ズーム位置、シャッタースピードなどの撮影パラメータのうち、変更された撮影パラメータ(以下、変更パラメータ)とその値を取得する。本実施形態では、ズームの値が50mmから70mmに変更されていたものとする。ここで、差分dを求めることにより、d≠0となったパラメータが変更パラメータであり、後述する図14の表示領域1402で表示される変更パラメータが特定される。   In step S1305, the camera CPU 436 compares Pbefore acquired in step S1303 with Pafter acquired in step S1304. Then, among the shooting parameters such as aperture value, exposure setting value, zoom position, and shutter speed recorded as shooting parameters, the changed shooting parameters (hereinafter referred to as change parameters) and their values are acquired. In the present embodiment, it is assumed that the zoom value has been changed from 50 mm to 70 mm. Here, by obtaining the difference d, the parameter for which d ≠ 0 is the change parameter, and the change parameter displayed in the display area 1402 of FIG. 14 described later is specified.

ステップS1306においてカメラCPU436は、この変更パラメータに関連して記録された画像の枚数1004(N)をファイルから読み出す。ステップS1307においてカメラCPU436は、画像のカウンタhにゼロを代入して初期化する。ステップS1308においてカメラCPU436は、h番目の視線集中領域番号(h=0の場合は視線集中領域番号1005)と縮小画像(h=0の場合は縮小画像1006)を読み出す。そして、カメラCPU436は、ステップS1305において取得した変更パラメータおよびその値と共に、線集中領域番号と縮小画像を表示する。   In step S1306, the camera CPU 436 reads the number of images 1004 (N) recorded in association with the change parameter from the file. In step S1307, the camera CPU 436 initializes the image by assigning zero to the image counter h. In step S1308, the camera CPU 436 reads the h-th line-of-sight concentration area number (line-of-sight concentration area number 1005 when h = 0) and the reduced image (reduced image 1006 when h = 0). Then, the camera CPU 436 displays the line concentration area number and the reduced image together with the change parameter and the value acquired in step S1305.

ステップS1309においてカメラCPU436は、カウンタhに1を足してインクリメントする。ステップS1310においてカメラCPU436は、カウンタhとステップS1306で取得した画像の枚数Nを比較する。カウンタhが画像の枚数Nと同じであれば、現在の変更パラメータに関連する画像の表示が終了したと判断され、処理はステップS1311へ進む。他方、カウンタhと画像の枚数Nが異なる場合には、まだ表示していない画像があると判断され、処理はステップS1308へ戻る。ステップS1311においてカメラCPU436は、処理がファイルの終端(最後の変更履歴のデータセット)まで終了したかどうかを判断する。まだファイルの終端に到達していなければ、他にも撮影パラメータ変更履歴が保存されているものと判断され、処理はステップS1303に戻る。ファイルの終端であれば、すべてのパラメータ変更履歴の表示が終わったものと判断され、このフローを終了する。   In step S1309, the camera CPU 436 increments the counter h by adding 1. In step S1310, the camera CPU 436 compares the counter h with the number N of images acquired in step S1306. If the counter h is the same as the number N of images, it is determined that the display of the image related to the current change parameter is completed, and the process proceeds to step S1311. On the other hand, if the counter h and the number N of images are different, it is determined that there is an image that has not been displayed yet, and the process returns to step S1308. In step S1311, the camera CPU 436 determines whether the processing has been completed up to the end of the file (the last change history data set). If the end of the file has not been reached yet, it is determined that another shooting parameter change history is stored, and the process returns to step S1303. If it is the end of the file, it is determined that all the parameter change histories have been displayed, and this flow ends.

第三実施形態で表示されるパラメータ変更履歴の一例を図14に示す。図14(a)はズームを変更する前の様子を表しており、図14(c)はズームの変更が確定された後の様子を示し、図14(b)はその途中経過を示している。1401は、撮影パラメータの全ての設定値を示す表示領域であり、1402は撮影パラメータの中で変更のあったパラメータを表示する表示領域である。1403は、画像中の視線集中領域を示している。このように、表示される各画像において視線集中領域1403、すなわちユーザの注目位置が識別可能に表示されるので、パラメータ変更時にユーザが画像のどの部分に注目していたかを直ちに把握することができる。   An example of the parameter change history displayed in the third embodiment is shown in FIG. FIG. 14A shows the state before the zoom is changed, FIG. 14C shows the state after the change of the zoom is confirmed, and FIG. 14B shows the progress of the process. . Reference numeral 1401 denotes a display area showing all the setting values of the shooting parameters, and reference numeral 1402 denotes a display area that displays the changed parameters among the shooting parameters. Reference numeral 1403 denotes a line-of-sight concentration region in the image. In this manner, the line-of-sight concentration area 1403, that is, the user's attention position is displayed in an identifiable manner in each displayed image, so that it is possible to immediately grasp which part of the image the user has been paying attention to when changing parameters. .

また、図14は、主要な被写体を中心に据えつつ、不要な物体を撮影領域から外すために、撮影パラメータを変更した例を示している。つまり、ズーム50mmで主要被写体を中心に持ってくると、領域1403に不要な物体が含まれてしまう。そこで、ズーム位置を70mmに変更して、主要被写体が中心で、かつ不要な物体が写りこまない、という構図を決めている。このように、本実施形態では、撮影に至るまでの撮影パラメータと一緒に、その時の縮小画像を保持しているため、撮影画像からはずれした物体と、そのための撮影パラメータの変更過程をも知ることができる。   FIG. 14 shows an example in which shooting parameters are changed in order to remove unnecessary objects from the shooting area while placing the main subject at the center. That is, if the main subject is brought to the center with a zoom of 50 mm, an unnecessary object is included in the area 1403. Therefore, the zoom position is changed to 70 mm, and the composition is determined such that the main subject is the center and unnecessary objects are not captured. As described above, in this embodiment, since the reduced image at that time is held together with the shooting parameters up to shooting, it is possible to know the object deviated from the shot image and the process of changing the shooting parameter for that purpose. Can do.

ズームのように連続的に変化するパラメータの場合、変更開始から変更後パラメータが決定されるまでに、図10に示すような撮影パラメータ1002から縮小画像1008までの一連のデータのデータセットが複数組ファイル内に生成される。変更前後の撮影パラメータを表示領域1402に表示する際、変更後の撮影パラメータ1003が、次の一連のデータの先頭にある変更前のパラメータと同一であれば、その連続性を考慮して、変更後のパラメータとして表示領域1402に示す値を決定する方が良い。たとえば、ズームが50mm→60mmのデータセットに続いてズームが60mm→70mmのデータセットが有る場合には、ズーム変更の連続性を考慮して、図示のように50mm→70mmというように変更前後のパラメータを表示領域1402に表示することが好ましい。   In the case of a continuously changing parameter such as zoom, a plurality of data sets of a series of data from the imaging parameter 1002 to the reduced image 1008 as shown in FIG. Generated in the file. When the shooting parameters before and after the change are displayed in the display area 1402, if the changed shooting parameter 1003 is the same as the parameter before the change at the beginning of the next series of data, the change is taken into consideration. It is better to determine the value shown in the display area 1402 as a later parameter. For example, when there is a data set of zoom from 60 mm to 70 mm following a data set of zoom from 50 mm to 60 mm, considering the continuity of zoom change, as shown in the figure, before and after the change, such as 50 mm → 70 mm. It is preferable to display the parameter in the display area 1402.

〔その他の実施形態〕
第一実施形態、第二実施形態では、注目領域の算出にファインダ内の視線位置情報を使用したがこれに限られるものではない。たとえば、撮像装置にファインダがなく、視線位置情報を取得できない場合、たとえばタッチパネルディスプレイに表示された画像に対して指による指示を視線集中領域として使用するようにしてもよい。たとえば、LCDモニタ417としてタッチパネルディスプレイを使ったカメラの場合、ズームの中心点を2本の指で指示し、そのまま指を開くことでズームの倍率を指定するようなUIを持っている。この場合、たとえば、上述した撮影パラメータ調整期間において画像を表示中のタッチパネルディスプレイに入力された、2本の指で指示した中心点を視線位置情報として用いることができる。
[Other Embodiments]
In the first embodiment and the second embodiment, the line-of-sight position information in the finder is used for calculating the attention area, but the present invention is not limited to this. For example, when the imaging apparatus does not have a finder and the line-of-sight position information cannot be acquired, for example, an instruction with a finger may be used as the line-of-sight concentration area for an image displayed on the touch panel display. For example, a camera using a touch panel display as the LCD monitor 417 has a UI that designates the zoom center point with two fingers and specifies the zoom magnification by opening the finger as it is. In this case, for example, the center point designated with two fingers that is input to the touch panel display that is displaying an image during the above-described imaging parameter adjustment period can be used as the line-of-sight position information.

また、上記各実施形態では、画像をあらかじめ分割し、ユーザの注目位置として注目領域番号を共有していたが、視線位置の座標を注目位置として共有するようにしてもよい。また、その場合、注目位置としてその座標位置を点で示してもよいし、視線位置の座標を中心に円を描き、その円を注目位置(視線集中領域)として表示してもよい。あるいは、画像を解析し、視線位置の座標を含むオブジェクトを切り出して、そのオブジェクトを提示するようにしてもよい。   In each of the above embodiments, the image is divided in advance and the attention area number is shared as the user's attention position, but the line-of-sight position coordinates may be shared as the attention position. In this case, the coordinate position may be indicated by a point as the attention position, or a circle may be drawn around the coordinates of the line-of-sight position, and the circle may be displayed as the attention position (line-of-sight concentration region). Alternatively, the image may be analyzed, an object including the coordinates of the line-of-sight position may be cut out, and the object may be presented.

また、上記各実施形態では、撮影パラメータ変更履歴のデータセットとして保存される画像を、JPEG圧縮する方法を説明したが、たとえばJPEG2000やPNGなどの別の圧縮方法でも構わないことは言うまでもない。JPEG2000で圧縮する場合には、視線集中領域はJPEG2000のROI(関心領域)を使って示すこともできる。その場合、撮影パラメータ変更履歴のデータセットとして視線集中領域番号をあえて入れる必要はない。   In each of the above embodiments, the method of JPEG compression of an image stored as a data set of shooting parameter change history has been described, but it goes without saying that another compression method such as JPEG2000 or PNG may be used. In the case of compressing with JPEG2000, the line-of-sight concentration area can also be indicated using a JPEG2000 ROI (region of interest). In that case, it is not necessary to dare to enter the line-of-sight concentration area number as a data set of the imaging parameter change history.

さらに、視線集中領域として提示したい画像領域は圧縮率を低くし、それ以外の領域は圧縮率を高くして保存するようにしてもよい。これは、JPEG圧縮を使う場合には、視線集中領域の画像はQファクタの値を大きくして、それ以外の領域はQファクタの値を小さくすることで容易に実現できる。この場合も、撮影パラメータ変更履歴のデータセットの中に、あえて視線集中領域番号を入れる必要はない。   Further, the image area to be presented as the line-of-sight concentration area may be stored with a low compression ratio, and the other areas may be stored with a high compression ratio. When JPEG compression is used, this can be easily realized by increasing the value of the Q factor for the image of the line-of-sight concentration region and decreasing the Q factor value for the other regions. Also in this case, it is not necessary to dare put the line-of-sight concentration area number in the imaging parameter change history data set.

あるいは、一連の画像を動画とみなして、MPEGやH264などの動画用の圧縮方式で保存することも可能である。その場合、各フレームに対する視線集中領域番号を、その動画データの先頭にまとめて保存、あるいは送信すれば良い。   Alternatively, a series of images can be regarded as a moving image, and can be stored in a moving image compression method such as MPEG or H264. In this case, the line-of-sight concentration area number for each frame may be stored or transmitted together at the beginning of the moving image data.

また、上記各実施形態で保存・送信する画像は背面液晶用に縮小された画像を使用したが、撮影画像サイズが小さい場合には、あえて縮小せず、撮影画像サイズと同じ大きさの画像を使用してもよい。その場合、縮小処理がない分、カメラ本体の処理負荷が軽減する。   In the above embodiments, images to be stored / transmitted are images reduced for the rear liquid crystal. However, when the captured image size is small, an image having the same size as the captured image size is not intentionally reduced. May be used. In that case, the processing load on the camera body is reduced by the amount of reduction processing.

また、上記各実施形態では、撮影パラメータ調整期間の検出にレリーズボタンを使用し、レリーズボタンが半押し状態から全押し状態に至るまでの間とした。しかし、明示的に撮影中を示すモードを新たに設けて、そのモードに切り替えることで撮影パラメータ調整期間を検出してもよい。   In each of the above embodiments, the release button is used to detect the shooting parameter adjustment period, and the release button is in the half-pressed state to the fully-pressed state. However, a shooting parameter adjustment period may be detected by explicitly providing a new mode indicating shooting and switching to that mode.

さらに、上記第一実施形態では、ステップS708の変更履歴の出力において、撮影パラメータの変更検出時からパラメータ変更履歴用バッファ438に保持されている最古のものまでをファイルに出力している(図8)がこれに限られるものではない。たとえば、撮影パラメータの変更検出時およびそこから過去の所定枚数をファイルに出力するようにしてもよい。   Further, in the first embodiment, in the output of the change history in step S708, the oldest one held in the parameter change history buffer 438 from the time when the change of the imaging parameter is detected is output to the file (FIG. 8) is not limited to this. For example, a predetermined number of past records may be output to a file at the time of detecting a change in shooting parameters.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

撮像装置であって、
撮像素子からの画像信号に基づいて画像を取得する取得手段と、
ユーザの動作を検出することにより前記画像における注目位置を特定する特定手段と、
前記撮像装置における撮影パラメータの変更を検出する検出手段と、
前記検出手段により前記撮影パラメータの変更が検出された場合に、前記取得手段により取得された画像と、前記特定手段により特定された注目位置と、撮影パラメータとを関連付けたデータ集合であって、前記変更の検出時とそれより前の、複数のデータ集合を保持する保持手段と、
を備えることを特徴とする撮像装置。
An imaging device,
Obtaining means for obtaining an image based on an image signal from the image sensor;
Identifying means for identifying a position of interest in the image by detecting a user's action;
Detecting means for detecting a change in imaging parameters in the imaging apparatus;
When the change of the shooting parameter is detected by the detection unit , a data set in which the image acquired by the acquisition unit, the attention position specified by the specifying unit, and the shooting parameter are associated with each other, Holding means for holding a plurality of data sets at the time of detection of the change and before ,
An imaging apparatus comprising:
前記保持手段は、前記検出手段により前記撮影パラメータの変更が検出された場合に、前記取得手段により取得された画像と、前記特定手段により特定された注目位置と、変更後の撮影パラメータとを関連付けて保持する、
ことを特徴とする請求項1記載の撮像装置。
The holding unit associates the image acquired by the acquiring unit, the attention position specified by the specifying unit, and the changed shooting parameter when the change of the shooting parameter is detected by the detecting unit. Hold
The imaging apparatus according to claim 1.
前記保持手段は、前記変更後の撮影パラメータと関連付けるべき画像と注目位置保持する
ことを特徴とする請求項1または2に記載の撮像装置。
It said retaining means, the imaging apparatus according to claim 1 or 2, characterized in that for holding the image and the target position to be associated with the imaging parameters of the changed.
前記保持手段は、前記複数のデータ集合から得られる変更の前後の撮影パラメータ、複数の画像とそれぞれの注目位置をファイルとして保存する
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
Said retaining means, before and after the shooting parameters changes resulting from the previous SL multiple datasets, in any one of claims 1 to 3, characterized in that storing a plurality of images and each of the target position as a file The imaging device described.
記データ集合を外部装置に送信する送信手段
を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
Before SL imaging apparatus according to any one of claims 1 to 4, further comprising a transmitting means for transmitting the data set to the external device.
前記保持手段により保存された前記ファイルから、前記変更の前後の撮影パラメータを読み出して表示し、前記複数の画像から選択された画像を読み出して表示し、表示された画像に関連付けられた注目位置を読み出して前記画像に識別可能に表示する表示手段
を更に備えることを特徴とする請求項に記載の撮像装置。
The shooting parameters before and after the change are read out and displayed from the file stored by the holding unit, the image selected from the plurality of images is read out and displayed, and the attention position associated with the displayed image is displayed. The imaging apparatus according to claim 4 , further comprising display means for reading and displaying the image in an identifiable manner.
撮像装置であって、  An imaging device,
撮像素子からの画像信号に基づいて画像を取得する取得手段と、  Obtaining means for obtaining an image based on an image signal from the image sensor;
ユーザの動作を検出することにより前記画像における注目位置を特定する特定手段と、  Identifying means for identifying a position of interest in the image by detecting a user's action;
前記撮像装置における撮影パラメータの変更を検出する検出手段と、  Detecting means for detecting a change in imaging parameters in the imaging apparatus;
前記検出手段により前記撮影パラメータの変更が検出された場合に、前記取得手段により取得された画像と、前記特定手段により特定された注目位置とを関連付けて保持する保持手段と、を備え、  A holding unit that holds the image acquired by the acquiring unit and the attention position specified by the specifying unit in association with each other when a change in the shooting parameter is detected by the detecting unit;
前記特定手段は、ファインダ内におけるユーザの視線の検出位置に基づいて前記注目位置を特定する  The specifying unit specifies the position of interest based on a detection position of a user's line of sight in the finder.
ことを特徴とする撮像装置。  An imaging apparatus characterized by that.
前記撮影パラメータとは、ズーム、露出、絞り、シャッタースピードのいずれかを含む
ことを特徴とする請求項1乃至の何れか1項に記載の撮像装置。
The imaging apparatus according to any one of claims 1 to 7 , wherein the shooting parameter includes any one of zoom, exposure, aperture, and shutter speed.
前記撮像素子から得られた画像を表示するタッチパネルディスプレイを備え、
前記特定手段は、画像の表示中に前記タッチパネルディスプレイで指示された位置に基づいて前記注目位置を特定する
ことを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
A touch panel display for displaying an image obtained from the image sensor;
The specifying means, the imaging apparatus according to any one of claims 1 to 8, characterized in that identifying said target position based on the position indicated by the touch panel display in the display of the image.
撮像装置における制御方法であって、
撮像素子からの画像信号に基づいて画像を取得する取得工程と、
ユーザの動作を検出することにより前記画像における注目位置を特定する特定工程と、
前記撮像装置における撮影パラメータの変更を検出する検出工程と、
前記検出工程で前記撮影パラメータの変更が検出された場合に、前記取得工程で取得された画像と、前記特定工程で特定された注目位置と、撮影パラメータとを関連付けたデータ集合であって、前記変更の検出値とそれより前の、複数のデータ集合を保持する保持工程と
を有することを特徴とする撮像装置の制御方法。
A control method in an imaging apparatus,
An acquisition step of acquiring an image based on an image signal from the image sensor;
A specific step of identifying a position of interest in the image by detecting a user action;
A detection step of detecting a change in imaging parameters in the imaging device;
When a change in the shooting parameter is detected in the detection step, a data set in which the image acquired in the acquisition step, the attention position specified in the specifying step, and the shooting parameter are associated with each other, A control method for an imaging apparatus, comprising: a change detection value and a holding step for holding a plurality of data sets before the change detection value .
撮像装置における制御方法であって、  A control method in an imaging apparatus,
撮像素子からの画像信号に基づいて画像を取得する取得工程と、  An acquisition step of acquiring an image based on an image signal from the image sensor;
ユーザの動作を検出することにより前記画像における注目位置を特定する特定工程と、  A specific step of identifying a position of interest in the image by detecting a user action;
前記撮像装置における撮影パラメータの変更を検出する検出工程と、  A detection step of detecting a change in imaging parameters in the imaging device;
前記検出工程で前記撮影パラメータの変更が検出された場合に、前記取得工程で取得された画像と、前記特定工程で特定された注目位置とを関連付けて保持する保持工程と、を有し、  A holding step of holding the image acquired in the acquisition step and the attention position specified in the specific step in association with each other when a change in the shooting parameter is detected in the detection step;
前記特定工程では、ファインダ内におけるユーザの視線の検出位置に基づいて前記注目位置を特定する  In the specifying step, the attention position is specified based on a detection position of the user's line of sight in the finder.
ことを特徴とする撮像装置の制御方法。  And a method of controlling the imaging apparatus.
請求項1乃至9のいずれか1項に記載の撮像装置の各手段としてコンピュータを機能させることを特徴とするプログラム。 Program for causing a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 9.
JP2013062859A 2013-03-25 2013-03-25 Imaging apparatus and control method thereof Active JP6210699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013062859A JP6210699B2 (en) 2013-03-25 2013-03-25 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013062859A JP6210699B2 (en) 2013-03-25 2013-03-25 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2014187657A JP2014187657A (en) 2014-10-02
JP2014187657A5 JP2014187657A5 (en) 2016-04-28
JP6210699B2 true JP6210699B2 (en) 2017-10-11

Family

ID=51834730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013062859A Active JP6210699B2 (en) 2013-03-25 2013-03-25 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6210699B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP4964992B2 (en) * 2011-01-19 2012-07-04 富士フイルム株式会社 Image capturing apparatus and image recording method thereof

Also Published As

Publication number Publication date
JP2014187657A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
TW527828B (en) Image-capturing apparatus
US9888182B2 (en) Display apparatus
US9280223B2 (en) Imaging apparatus and continuous shooting imaging methods using a continuous touch user input
KR101058011B1 (en) How to Operate Digital Camera Using Touch Screen
JP5074204B2 (en) Camera system, camera body, interchangeable lens unit, and imaging method
JP2018113551A (en) Imaging apparatus, control method therefor, program, and recording medium
KR101930460B1 (en) Photographing apparatusand method for controlling thereof
JP4241460B2 (en) Electronic imaging device
KR20120119794A (en) Method and apparatus for photographing using special effect
JP2017011579A (en) Imaging device, control method for the same, program and storage medium
JP2013117650A (en) Digital camera
US9374525B2 (en) Shooting apparatus and shooting method
JP4871231B2 (en) Imaging apparatus and imaging method
KR20150080343A (en) Method of displaying a photographing mode using lens characteristics, Computer readable storage medium of recording the method and a digital photographing apparatus.
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2008263478A (en) Imaging apparatus
JP2012191570A (en) Photographing device, control method of the same and program
JP6210699B2 (en) Imaging apparatus and control method thereof
JP2016167767A (en) Imaging apparatus, synthetic imaging method and synthetic imaging program
JP4935559B2 (en) Imaging device
JP2013242408A (en) Imaging device and control method of the same
JP2012175170A (en) Camera
JP2007158878A (en) Imaging apparatus
JP5573311B2 (en) camera
JP5938269B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170912

R151 Written notification of patent or utility model registration

Ref document number: 6210699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151