JP2018033056A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2018033056A
JP2018033056A JP2016165213A JP2016165213A JP2018033056A JP 2018033056 A JP2018033056 A JP 2018033056A JP 2016165213 A JP2016165213 A JP 2016165213A JP 2016165213 A JP2016165213 A JP 2016165213A JP 2018033056 A JP2018033056 A JP 2018033056A
Authority
JP
Japan
Prior art keywords
information
subject
control
timing
start button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016165213A
Other languages
Japanese (ja)
Inventor
智也 山下
Tomoya Yamashita
智也 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016165213A priority Critical patent/JP2018033056A/en
Publication of JP2018033056A publication Critical patent/JP2018033056A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that obtains information from a wearable apparatus at necessary timing, makes use of the information, and thereby can implement high-speed and accurate AE and AF control according to the intention of a user.SOLUTION: An imaging device executes: a timing determination process operable to determine whether it is prescribed timing in camera operation; an information acquisition process operable to communicate with a wearable terminal; a subject information selection process operable to select information on a main subject on the basis of information obtained from the wearable terminal by the information acquisition process; an AF control information setting process operable to reflect information in AF control on the basis of information obtained by the subject information select process; and an AE control information setting process operable to reflect information in AE control on the basis of the information obtained by the subject information select process.SELECTED DRAWING: Figure 2

Description

本発明は撮像装置、特にウェアラブル機器と連携してユーザーの意思に沿ったAE・AF制御を高速かつ正確に行う事が出来る撮像装置に関するものである。   The present invention relates to an imaging apparatus, and more particularly, to an imaging apparatus capable of performing AE / AF control in accordance with a user's intention at high speed and accurately in cooperation with a wearable device.

従来より、カメラはカメラ単体だけではなく、他カメラを含む他機器と連携を行い、またそれらから得られる情報を有効活用する事で、より高速に、またはより正確に精密に撮影制御を行うように工夫されてきている。   Conventionally, the camera is linked not only to the camera itself, but also to other devices including other cameras, and by effectively utilizing the information obtained from them, it is possible to control shooting more quickly or accurately. Has been devised.

例えば、特許文献1では相互に通信可能な複数台の撮像装置のうち少なくとも1つの撮像装置が合焦点までの距離情報、または合焦点を含む撮影画像を、前記複数台の撮像装置のうちの他の撮像装置に送信し、前記各撮像装置が、前記合焦点までの距離情報、または前記合焦点を含む撮影画像を用いて、各々の被写界深度を決定する事を特徴とする発明が開示されている。   For example, in Patent Literature 1, at least one of a plurality of imaging devices that can communicate with each other captures distance information up to a focal point or a captured image that includes a focal point. An invention is disclosed in which each imaging device determines each depth of field using distance information to the in-focus point or a captured image including the in-focus point. Has been.

特開2014−44540号公報JP 2014-44540 A

しかしながら、上述の特許文献に開示された従来技術では、相互に通信可能な複数台の撮像装置はあくまで同一の被写体を撮影する撮影システムであるという前提の元に成り立っている為、少しでもタイミングが狂った場合にユーザーの意図しない結果になりうる事が容易に想像されるという事と、同一被写体を撮影する割には、被写界深度のみを決定する事にしか他撮像装置からの情報を有効利用していない為、ユーザー視点で考えた場合に、ましてや今後普及していくと思われるウェアラブル端末との連携を考慮すると、複数台の撮像装置をわざわざ用意する事のメリットが非常に薄いと感じられてしまいかねない。   However, in the prior art disclosed in the above-mentioned patent document, since a plurality of imaging devices that can communicate with each other are based on the premise that they are imaging systems that capture the same subject, the timing may be a little. The information from other imaging devices can only be determined by determining only the depth of field for shooting the same subject when it is easily imagined that the result may be unintended by the user if it goes crazy. Since it is not used effectively, considering the cooperation with wearable devices that are expected to become more popular in the future, the benefits of preparing multiple imaging devices are very thin. It can be felt.

上記目的を達成するために、本発明は、
カメラ動作において所定タイミングか否かを判断することが可能なタイミング判定手段)、
ウェアラブル端末との通信する事が可能な通信手段、
前記通信手段によりウェアラブル端末から得られた情報を元に、
主被写体に関する情報を選定する事が可能な被写体情報選定手段、
前記被写体情報選定手段により得られた情報を元に、
AF制御へ反映させる事が可能なAF制御情報設定手段
前記被写体情報選定手段により得られた情報を元に、
AE制御へ反映させる事が可能なAE制御情報設定手段
を備えた撮像装置を提供する。
In order to achieve the above object, the present invention provides:
Timing determination means capable of determining whether or not a predetermined timing in camera operation),
A communication means capable of communicating with the wearable terminal;
Based on the information obtained from the wearable terminal by the communication means,
Subject information selection means capable of selecting information on the main subject,
Based on the information obtained by the subject information selection means,
AF control information setting means that can be reflected in AF control Based on the information obtained by the subject information selection means,
An imaging apparatus including an AE control information setting unit that can be reflected in AE control is provided.

また、前記において、所定タイミングは、
カメラを構えた時・AE開始釦On・LiveView開始釦On・動画記録開始釦Onである事を特徴とする前記記載の撮像装置を提供する。
In the above, the predetermined timing is:
When the camera is held, an AE start button On, a LiveView start button On, and a moving image recording start button On are provided.

また、前記において、主被写体に関する情報は、
距離情報・被写体位置(範囲)・被写体認識結果・Bv値・被写体位置(範囲)・シーン認識結果・フリッカ情報であることを特徴とする前記記載の撮像装置を提供する。
In the above, the information on the main subject is
There is provided an imaging apparatus as described above, characterized by distance information, subject position (range), subject recognition result, Bv value, subject position (range), scene recognition result, and flicker information.

本発明によれば、ユーザーの視点や意思を反映できる、特にメガネ型のウェアラブル機器からの情報を必要なタイミングで取得し、それらを有効活用する事で、高速かつユーザーの意思に沿った正確なAE・AF制御を実現する事が可能となる。   According to the present invention, it is possible to reflect the user's viewpoint and intention, in particular, by acquiring information from a glasses-type wearable device at a necessary timing, and effectively using them, so that it can be performed at high speed and accurately in accordance with the user's intention. AE / AF control can be realized.

本発明の実施例に係る撮像装置のブロック図及びウェアラブル機器の構成図1 is a block diagram of an imaging apparatus and a configuration diagram of a wearable device according to an embodiment of the present invention. 上記実施例に係る全体制御のフローチャートFlow chart of overall control according to the above embodiment 上記実施例に係るタイミング判定処理のフローチャートFlow chart of timing determination processing according to the above embodiment 上記実施例に係る被写体情報選定処理のフローチャートFlowchart of subject information selection processing according to the above embodiment 上記実施例に係るAF情報設定処理のフローチャートFlowchart of AF information setting process according to the above embodiment 上記実施例に係るAE情報設定処理のフローチャートFlowchart of AE information setting process according to the above embodiment 上記実施例に係るウェアラブル機器処理のフローチャートFlow chart of wearable device processing according to the above embodiment

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわる撮像装置とウェアラブル機器の構成図である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a configuration diagram of an imaging device and a wearable device according to an embodiment of the present invention.

100は撮影レンズである。撮影レンズの種類としては、単焦点レンズやズームレンズが存在する。101は撮像素子である。撮像素子101にはCCDやCMOSセンサなどが用いられ、撮影レンズ100によって結像された被写体像を電気信号に変換する。102はA/D変換器である。A/D変換器102は撮像素子101のアナログ出力信号をデジタル信号に変換する。103はマイクロコンピュータである。マイクロコンピュータ103は各構成要素の制御やデータ処理など撮像装置全体を制御する。   Reference numeral 100 denotes a photographing lens. As types of photographing lenses, there are single focus lenses and zoom lenses. Reference numeral 101 denotes an image sensor. A CCD, CMOS sensor, or the like is used as the image sensor 101, and the subject image formed by the photographing lens 100 is converted into an electrical signal. Reference numeral 102 denotes an A / D converter. The A / D converter 102 converts the analog output signal of the image sensor 101 into a digital signal. Reference numeral 103 denotes a microcomputer. The microcomputer 103 controls the entire imaging apparatus such as control of each component and data processing.

本実施例で説明する、ウェアラブル機器の表示制御のタイミング、接眼検知センサとの通信等のすべての処理をマイクロコンピュータ103で行う。104は揮発性メモリである。揮発性メモリ104にはA/D変換器でデジタル信号に変換された画像データを一時的に保持する。105は不揮発性メモリである。不揮発性メモリ105にはマイクロコンピュータ103で処理する撮像装置の実行プログラムがある。106は光学ファインダーである。光学ファインダーを覗きながらユーザが撮影することを想定する。107は画像処理部である。   The microcomputer 103 performs all processing such as display control timing of the wearable device and communication with the eyepiece detection sensor described in the present embodiment. Reference numeral 104 denotes a volatile memory. The volatile memory 104 temporarily holds image data converted into a digital signal by the A / D converter. Reference numeral 105 denotes a nonvolatile memory. The nonvolatile memory 105 has an execution program for the imaging apparatus that is processed by the microcomputer 103. Reference numeral 106 denotes an optical viewfinder. It is assumed that the user takes a picture while looking through the optical viewfinder. Reference numeral 107 denotes an image processing unit.

画像処理部107では、撮影された画像に対する画像処理を行う。また、撮影後の画像に対し、例えば再生メニューからのRAW現像機能や、フィルタ効果機能を提供する。108は通信部材である。ウェアラブル機器との通信制御をおこなう。例えば、Bluetooth(登録商標) 、ZigBee、Wifi、などの無線LAN技術を想定する。但し、通信技術に関しては、特に本実施例では特に限定しない。109は接眼検知センサである。光学ファインダー106付近に位置させておき、光学ファインダーが覗かれたかどうか、眼検知センサ109を用いて検知する。   The image processing unit 107 performs image processing on the captured image. In addition, for example, a RAW development function from a playback menu and a filter effect function are provided for the captured image. Reference numeral 108 denotes a communication member. Control communication with wearable devices. For example, wireless LAN technologies such as Bluetooth (registered trademark), ZigBee, and WiFi are assumed. However, the communication technology is not particularly limited in the present embodiment. Reference numeral 109 denotes an eyepiece detection sensor. The eye detection sensor 109 is used to detect whether or not the optical viewfinder has been looked into.

検知した結果に関してはマイクロコンピュータ103で処理することを想定している。110は表示部材である。液晶モニターなどを想定している。撮影して得られた画像の再生や、メニューの表示、再生画像のRAW現像UI表示、フィルタ処理のUI表示を行う。また、本実施例では、主表示部材110にタッチパネルの機能を有する表示装置を想定している。タッチパネルの操作に応じて、マイクロコンピュータ103によって、操作部材113同等の制御が行えるものとする。操作部材113にはスイッチ、ボタンなどがあり、表示部材110で表示されたものに対する操作を行う。   It is assumed that the detected result is processed by the microcomputer 103. Reference numeral 110 denotes a display member. A liquid crystal monitor is assumed. Reproduction of an image obtained by shooting, menu display, RAW development UI display of the reproduced image, and UI display of filter processing are performed. Further, in this embodiment, a display device having a touch panel function is assumed for the main display member 110. It is assumed that control equivalent to the operation member 113 can be performed by the microcomputer 103 in accordance with the operation of the touch panel. The operation member 113 includes switches, buttons, and the like, and performs operations on those displayed on the display member 110.

また、本実施例では、副表示部材111に表示パネルを想定している。撮影に関する設定値を表示する。音検知部材112は、外部環境の音を検知または記録する操作を行う。   In this embodiment, a display panel is assumed for the sub display member 111. Displays settings related to shooting. The sound detection member 112 performs an operation of detecting or recording the sound of the external environment.

ウェアラブル機器の構成を説明する。120は表示部材である。表示部材120には、通信部材を通して、撮像装置で撮像した画像や、再生画像、メニューなどの表示を行うことが可能である。114はウェアラブル機器での撮像で使用するレンズである。115は通信部材である。撮像装置の通信部材108と通信する処理を制御する。撮像装置の通信部材108同様、例えば、Bluetooth(登録商標) 、ZigBee、Wifi、などの無線LAN技術を想定する。通信技術に関しては、特に本実施例では限定しない。116はキャプチャ部材である。   The configuration of the wearable device will be described. Reference numeral 120 denotes a display member. The display member 120 can display an image captured by the imaging device, a reproduced image, a menu, and the like through the communication member. Reference numeral 114 denotes a lens used for imaging with a wearable device. Reference numeral 115 denotes a communication member. A process of communicating with the communication member 108 of the imaging apparatus is controlled. As with the communication member 108 of the imaging apparatus, for example, wireless LAN technologies such as Bluetooth (registered trademark), ZigBee, and WiFi are assumed. The communication technology is not particularly limited in this embodiment. Reference numeral 116 denotes a capture member.

117は音を検知する部材である。118はメガネレンズである。119はメガネレンズに装着する視線検知センサである。この視線検知センサから人間の目がウェアラブル機器を通し、どこを見ているかを検知することができる。   Reference numeral 117 denotes a member that detects sound. Reference numeral 118 denotes a spectacle lens. Reference numeral 119 denotes a line-of-sight detection sensor attached to the eyeglass lens. From this line-of-sight detection sensor, it is possible to detect where the human eye is looking through the wearable device.

[実施例1]
以下、図2〜図7を参照して、本発明の第1の実施例について説明する。まず、全体のフローを示す図2について説明する。
[Example 1]
The first embodiment of the present invention will be described below with reference to FIGS. First, FIG. 2 showing the overall flow will be described.

最初に撮像装置は、タイミング判定処理を用いて所望のタイミングが来たか否かを判定する(S201)。前記タイミング判定処理により所望のタイミングが来たと判断したら、次にウェアラブル機器と通信を行い、ウェアラブル側で蓄積していた全ての蓄積情報を取得する(S202)。前記蓄積情報の取得か完了すると、次にその取得した全蓄積情報の中から主被写体に関する蓄積情報だけを選び出す、被写体情報選定処理を行う(S203)。   First, the imaging apparatus determines whether or not a desired timing has come using a timing determination process (S201). If it is determined by the timing determination process that the desired timing has come, then communication with the wearable device is performed, and all accumulated information accumulated on the wearable side is acquired (S202). When the acquisition of the stored information is completed, a subject information selection process is performed in which only the stored information relating to the main subject is selected from all the acquired stored information (S203).

次にその得られた主被写体に関する蓄積情報をAF制御に適用する、AF制御情報設定処理を行う(S204)。更に前記取得された主被写体に関する蓄積情報をAE制御に適用する、AE制御情報設定処理を行い(S205)、全体のフローとしては終了となる。   Next, an AF control information setting process for applying the obtained accumulated information relating to the main subject to AF control is performed (S204). Further, an AE control information setting process for applying the acquired accumulated information on the main subject to AE control is performed (S205), and the entire flow is completed.

次に、タイミング判定処理を行う図3について説明する。
タイミング判定処理とは、つまり撮影準備開始操作がされたかどうかを判断する処理となる。タイミング判定処理は、まずウェアラブル機器からの撮影画像を取得する(S301)。 本実施例においてウェアラブル機器はメガネ型を想定しており、つまりそこからの撮影画像は、ユーザーの視点とほぼ同等のものを意味するという事を意味している。前記取得された撮影画像から、まずカメラを構えたか否かを判断する(S302)。前記判断手段によりカメラを構えたと判断されれば、所望のタイミングが来たとして終了となる。
Next, FIG. 3 in which the timing determination process is performed will be described.
The timing determination process is a process for determining whether or not a shooting preparation start operation has been performed. In the timing determination process, first, a captured image from the wearable device is acquired (S301). In the present embodiment, the wearable device is assumed to be a glasses type, that is, the photographed image from there means that it is almost equivalent to the viewpoint of the user. It is first determined whether or not the camera is held from the acquired photographed image (S302). If it is determined by the determination means that the camera is held, the process ends when a desired timing has come.

前記判断手段によりカメラを構えていないと判断されれば、次にAE開始釦がOnされているか否かを判断する(S303)。前記判断手段によりAE開始釦がOnされたと判断されれば、所望のタイミングが来たとして終了となる。前記判断手段によりAE開始釦がOnされていないと判断されれば、次にLiveView開始釦がOnされているか否かを判断する(S304)。前記判断手段によりLiveView開始釦がOnされたと判断されれば、所望のタイミングが来たとして終了となる。   If it is determined by the determination means that the camera is not held, it is then determined whether or not the AE start button is turned on (S303). If it is determined by the determination means that the AE start button has been turned on, the process ends when a desired timing has come. If the determination means determines that the AE start button is not turned on, it is next determined whether or not the LiveView start button is turned on (S304). If it is determined by the determination means that the LiveView start button has been turned on, the process ends when a desired timing has come.

前記判断手段によりLiveView開始釦がOnされていないと判断されれば、次に動画記録開始釦がOnされているか否かを判断する(S305)。前記判断手段により動画記録開始釦がOnされたと判断されれば、所望のタイミングが来たとして終了となり、前記判断手段により動画記録開始釦がOnされたと判断されていないと判断されれば、ウェアラブル機器からの撮影画像を取得する(S301)最初のフローに戻る。   If it is determined by the determination means that the LiveView start button is not turned on, it is then determined whether or not the moving image recording start button is turned on (S305). If it is determined by the determining means that the moving image recording start button has been turned on, the process ends when a desired timing has come. If the determining means determines that the moving image recording start button has not been turned on, wearables are made. A photographed image is acquired from the device (S301), and the process returns to the first flow.

次に、被写体情報選定処理を行う図4について説明する。被写体情報選定処理とは、所望のタイミングが来るまでウェアラブル側で蓄積しておいた、この後のカメラ動作で使う為の必要な情報の中から、主被写体に対応した情報だけを抜き出す処理を意味している。
まず最初に取得した蓄積情報を時間軸を基準にソートする(S401)。次に時間の新しい方からカウントして、所定時間以上同一被写体が継続しているか否かを判定する(S402)。前記判定手段により、同一被写体が継続している場合は、その被写体を凝視していたとみなし、その同一被写体を主被写体に設定する(S403)。そうでない場合は、現在カメラ側で見ている被写体と一致する被写体をサーチし(S404)、それを主被写体とする。そうして得られた主被写体に対応する蓄積情報を取得して(S405)、終了となる。
Next, FIG. 4 in which subject information selection processing is performed will be described. Subject information selection processing means processing to extract only the information corresponding to the main subject from the information necessary for use in the subsequent camera operation accumulated on the wearable side until the desired timing arrives doing.
First, the acquired storage information is sorted with reference to the time axis (S401). Next, counting from the newest time, it is determined whether or not the same subject continues for a predetermined time or more (S402). If the same subject continues by the determination means, it is considered that the subject is staring, and the same subject is set as the main subject (S403). Otherwise, a subject that matches the subject currently viewed on the camera side is searched (S404), and is set as the main subject. The accumulated information corresponding to the main subject thus obtained is acquired (S405), and the process ends.

次に、AF情報設定処理について、図5を用いて説明する。まず、前記被写体情報選定処理により選定された蓄積情報から、距離情報・被写体位置(範囲)・被写体認識結果・Bv値を取得する(S501)。次に前記距離情報をレンズのAF開始位置に設定する(S502)。その次に前記被写体位置(範囲)をサーチ開始範囲に設定する(S503)。その次に前記被写体認識結果を主被写体に設定する(S504)。その次に前記Bv値をAF補助光要否判断に設定(S505)。最後にAF制御を開始(S506)して終了となる。   Next, the AF information setting process will be described with reference to FIG. First, distance information, a subject position (range), a subject recognition result, and a Bv value are acquired from the accumulated information selected by the subject information selection process (S501). Next, the distance information is set to the AF start position of the lens (S502). Next, the subject position (range) is set as a search start range (S503). Next, the subject recognition result is set as the main subject (S504). Next, the Bv value is set to determine whether AF auxiliary light is necessary (S505). Finally, AF control is started (S506) and is ended.

つまり、これらの情報をAF制御開始時から設定する事で、本来ある程度AEやAFを動作させてからしか分からなかった情報が既に得られている為、通常AF動作と比較して高速かつ正確に動作させる事が可能となる。   In other words, by setting these pieces of information from the beginning of AF control, information that was originally known only after operating AE or AF to some extent has already been obtained, so it is faster and more accurate than normal AF operations. It can be operated.

次に、AE情報設定処理について、図6を用いて説明する。まず、前記被写体情報選定処理により選定された蓄積情報から、被写体位置(範囲)・シーン認識結果・フリッカ情報を取得する(S601)。その次に被写体位置(範囲)をAE演算の中心位置に設定する(S602)。その次にシーン認識結果をプログラム線図情報に設定(S603)。その次にフリッカ情報を設定(S604)。   Next, the AE information setting process will be described with reference to FIG. First, subject position (range), scene recognition result, and flicker information are acquired from the accumulated information selected by the subject information selection process (S601). Next, the subject position (range) is set to the center position of the AE calculation (S602). Next, the scene recognition result is set in the program diagram information (S603). Next, flicker information is set (S604).

最後にAE制御を開始(S605)して終了となる。つまり、これもAF制御同様、これらの情報をAE制御開始時から設定する事で、本来ある程度AEやAFを動作させてからしか分からなかった情報が既に得られている為、通常AE動作と比較して高速かつ正確に動作させる事が可能となる。   Finally, AE control is started (S605) and is ended. In other words, as with AF control, since these pieces of information are set from the beginning of AE control, information that was originally only known after AE or AF was operated to some extent has already been obtained. Compared with normal AE operation. Thus, it can be operated at high speed and accurately.

次に、カメラと通信を行う事で必要な情報を取得する事が可能な、ウェアラブル機器処理について、図7を用いて説明する。最初に撮像を行い(S701)、次にそれを現像する(S702)事で、撮影された画像データを生成する。次にそれをカメラ側へ送信する(S703)。   Next, wearable device processing capable of acquiring necessary information by communicating with the camera will be described with reference to FIG. First, imaging is performed (S701), and then development is performed (S702), thereby generating captured image data. Next, it is transmitted to the camera side (S703).

次にその画像データから、距離情報・被写体位置(範囲)・被写体認識結果・Bv値・シーン認識結果・フリッカ情報を演算する(S704)。それを時間情報とセットにし、蓄積情報として保存する(S705)。次にカメラがその蓄積情報の送信要求を出しているかを判断する(S706)。カメラが送信要求を出している場合は、それまで蓄積し続けてきた全蓄積情報を送信し(S707)、送信完了した時点で全蓄積データをクリアする(S708)。そうでない場合は、最初のフローに戻る。   Next, distance information, subject position (range), subject recognition result, Bv value, scene recognition result, and flicker information are calculated from the image data (S704). It is set as time information and stored as accumulated information (S705). Next, it is determined whether the camera has issued a transmission request for the stored information (S706). If the camera has issued a transmission request, all accumulated information that has been accumulated until then is transmitted (S707), and all accumulated data is cleared when transmission is completed (S708). If not, return to the first flow.

本実施例において、ウェアラブル端末を通して撮影される画像やそこから得られる情報は、ユーザーの視点や意思を反映した重要なデータの1つであると考えている。その上で、これまで説明してきたような実施形態に沿って制御する事で、そのユーザーの視点や意思を解読しカメラが有効に活用する事が出来、高速かつユーザーの意思に沿った正確なAEやAF制御を行う事が可能になる。   In this embodiment, an image photographed through a wearable terminal and information obtained therefrom are considered to be one of important data reflecting the user's viewpoint and intention. On top of that, by controlling according to the embodiment described so far, the user's viewpoint and intention can be deciphered and the camera can be used effectively, and it is fast and accurate according to the user's intention. AE and AF control can be performed.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100:レンズ
101:撮像素子
102:A/D変換器
103:マイクロコンピュータ
104:揮発性メモリ
105:不揮発性メモリ
106:光学ファインダー
107:画像処理部
108:撮像装置の通信部材
109:接眼検知センサ
110:主表示部材
111:副表示部材
112:撮像装置の音検知部材
113:操作部材
114:ウェアラブル機器のレンズ
115:ウェアラブル機器の通信部材
116:ウェアラブル機器のキャプチャ部材
117:ウェアラブル機器の音検知部材
118:メガネレンズ
119:ウェアラブル機器の視線検知センサ
120:ウェアラブル機器の表示部
DESCRIPTION OF SYMBOLS 100: Lens 101: Image pick-up element 102: A / D converter 103: Microcomputer 104: Volatile memory 105: Non-volatile memory 106: Optical finder 107: Image processing part 108: Communication member 109 of an imaging device: Eyepiece detection sensor 110 : Main display member 111: Sub display member 112: Sound detection member 113 of the imaging apparatus: Operation member 114: Lens 115 of the wearable device: Communication member 116 of the wearable device 117: Capture member of the wearable device 117: Sound detection member 118 of the wearable device : Eyeglass lens 119: Line-of-sight detection sensor 120 of wearable device: Display unit of wearable device

Claims (3)

カメラ動作において所定タイミングか否かを判断することが可能なタイミング判定手段、
ウェアラブル端末との通信する事が可能な通信手段(108)、
前記通信手段によりウェアラブル端末から得られた情報を元に、
主被写体に関する情報を選定する事が可能な被写体情報選定手段、
前記被写体情報選定手段により得られた情報を元に、
AF制御へ反映させる事が可能なAF制御情報設定手段
前記被写体情報選定手段により得られた情報を元に、
AE制御へ反映させる事が可能なAE制御情報設定手段
を備えた撮像装置。
Timing determination means capable of determining whether or not a predetermined timing in camera operation;
A communication means (108) capable of communicating with the wearable terminal;
Based on the information obtained from the wearable terminal by the communication means,
Subject information selection means capable of selecting information on the main subject,
Based on the information obtained by the subject information selection means,
AF control information setting means that can be reflected in AF control Based on the information obtained by the subject information selection means,
An imaging apparatus provided with AE control information setting means that can be reflected in AE control.
前記において、所定タイミングは、
カメラを構えた時・AE開始釦On・LiveView開始釦On・動画記録開始釦Onである事を特徴とする請求項1に記載の撮像装置。
In the above, the predetermined timing is
2. The image pickup apparatus according to claim 1, wherein when the camera is held, an AE start button On, a LiveView start button On, and a moving image recording start button On.
前記において、主被写体に関する情報は、
距離情報・被写体位置(範囲)・被写体認識結果・Bv値・被写体位置(範囲)・シーン認識結果・フリッカ情報であることを特徴とする請求項1に記載の撮像装置。
In the above, the information about the main subject is
The imaging apparatus according to claim 1, wherein the imaging apparatus includes distance information, subject position (range), subject recognition result, Bv value, subject position (range), scene recognition result, and flicker information.
JP2016165213A 2016-08-26 2016-08-26 Imaging device Pending JP2018033056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016165213A JP2018033056A (en) 2016-08-26 2016-08-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016165213A JP2018033056A (en) 2016-08-26 2016-08-26 Imaging device

Publications (1)

Publication Number Publication Date
JP2018033056A true JP2018033056A (en) 2018-03-01

Family

ID=61303782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016165213A Pending JP2018033056A (en) 2016-08-26 2016-08-26 Imaging device

Country Status (1)

Country Link
JP (1) JP2018033056A (en)

Similar Documents

Publication Publication Date Title
CN109076156B (en) Electronic device and control method thereof
US20140267869A1 (en) Display apparatus
US20130194215A1 (en) Imaging apparatus and continuous shooting imaging methods using a continuous touch user input
JP2009251557A (en) Imaging apparatus
US10588008B2 (en) Control apparatus, control system, and method for controlling control apparatus
US11849100B2 (en) Information processing apparatus, control method, and non-transitory computer readable medium
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP6431429B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7446913B2 (en) Electronic devices, control methods for electronic devices, and programs
JP2013225844A (en) Image pickup device and control method and program thereof and recording medium
KR102345767B1 (en) Image capturing control apparatus, control method, and storage medium
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP5486662B2 (en) Imaging device and camera body
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP2018033056A (en) Imaging device
JP2013242408A (en) Imaging device and control method of the same
KR20120068696A (en) Image capturing device and image capturing method
JP2014164028A (en) Imaging apparatus and switching method of imaging parameter and program
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP5934844B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP7292033B2 (en) Information processing device, information processing method, imaging device, and program
US20230300453A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP7134730B2 (en) Imaging device and its control method
JP7171252B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE