JP2015233261A - Imaging apparatus and verification system - Google Patents

Imaging apparatus and verification system Download PDF

Info

Publication number
JP2015233261A
JP2015233261A JP2014120087A JP2014120087A JP2015233261A JP 2015233261 A JP2015233261 A JP 2015233261A JP 2014120087 A JP2014120087 A JP 2014120087A JP 2014120087 A JP2014120087 A JP 2014120087A JP 2015233261 A JP2015233261 A JP 2015233261A
Authority
JP
Japan
Prior art keywords
image
information
focus
pixels
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014120087A
Other languages
Japanese (ja)
Inventor
吉隆 橋本
Yoshitaka Hashimoto
吉隆 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014120087A priority Critical patent/JP2015233261A/en
Publication of JP2015233261A publication Critical patent/JP2015233261A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of suppressing degradation in retrieval accuracy after an image with a shallow depth is photographed.SOLUTION: The image apparatus includes: an imaging device with a phase difference detection function; communication means for transmitting data required to restore a photographed image to a verifiable state to an external system; and reception means for receiving a collation result obtained by the external system.

Description

本発明は、撮像装置及び照合システムに関する。   The present invention relates to an imaging apparatus and a collation system.

従来、使用者が撮影した画像に映る被写体の種類や名称を判別しようとしたときには、使用者自身が図鑑などのデータベースと画像とを照合する作業が必要であった。   Conventionally, when trying to determine the type and name of a subject shown in an image taken by a user, the user himself has to collate a database such as a picture book with the image.

このような問題を解決するために、データベースを備えたサーバーに撮影した画像を送信し、主要被写体を検索する方法が提案されている(特許文献1参照)。特許文献1では、主要被写体の検索精度を向上するために、1枚の画像データを構成する所定の単位ごとに被写体距離を算出し、特定の距離の範囲内にある部分を主要被写体と判断してこれを切り出す。そしてその主要被写体のみを切り出した画像を、データベースを備えたサーバーに出力し、主要被写体の検索を行う。   In order to solve such a problem, a method has been proposed in which a photographed image is transmitted to a server having a database and a main subject is searched (see Patent Document 1). In Patent Literature 1, in order to improve the search accuracy of the main subject, the subject distance is calculated for each predetermined unit constituting one piece of image data, and a portion within a specific distance range is determined as the main subject. Cut this out. Then, an image obtained by cutting out only the main subject is output to a server having a database to search for the main subject.

特開2009−260800号公報JP 2009-260800 A

しかし、特許文献1では、特定の距離の範囲内を切り出すという手段をとっており、花などをマクロレンズで撮影する場合のような深度の浅い画像を撮影したときには、主要被写体を正確に切り出すことができない、あるいは、検索には不適切なボケた状態で照合するため、検索精度が低下するという問題がある。   However, Patent Document 1 uses a means of cutting out within a specific distance range, and when shooting an image with a shallow depth, such as when shooting a flower or the like with a macro lens, the main subject is accurately cut out. There is a problem that the search accuracy is lowered because collation is performed in a state that is not suitable for search or in a state that is not suitable for search.

そこで、本発明は、深度の浅い画像を撮影しても検索精度の低下を低減することが可能な撮像装置を提供することを目的としている。   Accordingly, an object of the present invention is to provide an imaging apparatus that can reduce a decrease in search accuracy even when an image having a shallow depth is captured.

上記の課題を解決するために、本発明の撮像装置は、位相差検出機能を有する撮像素子と、撮影した画像を照合可能な状態まで復元するために必要なデータを外部システムに送信する送信手段と、外部システムで得られた照合結果を受信する受信手段とを有することを特徴としている。   In order to solve the above-described problem, an imaging device according to the present invention includes an imaging device having a phase difference detection function and a transmission unit that transmits data necessary for restoring a captured image to a state where the captured image can be collated And receiving means for receiving the collation result obtained by the external system.

発明によれば、深度の浅い画像を撮影しても検索精度の低下を低減することが可能な撮像装置を提供できる。   According to the present invention, it is possible to provide an imaging apparatus capable of reducing a decrease in search accuracy even when an image having a shallow depth is captured.

本発明の好適な実施形態に係るカメラの構成図1 is a configuration diagram of a camera according to a preferred embodiment of the present invention. 本発明の撮像素子の回路図Circuit diagram of imaging device of the present invention 本発明の撮像素子の画素部断面図Cross-sectional view of the pixel portion of the image sensor of the present invention 本発明の撮像素子の撮像用画素の平面図と断面図The top view and sectional drawing of the pixel for imaging of the image pick-up element of this invention 本発明の撮像素子の焦点検出用画素の平面図と断面図The top view and sectional drawing of a focus detection pixel of an image sensor of the present invention 本発明の撮像素子の他の焦点検出用画素の平面図と断面図The top view and sectional drawing of the other pixel for focus detection of the image sensor of the present invention 本発明の第1の実施形態のシステムのメインフロー図The main flow figure of the system of a 1st embodiment of the present invention. 本発明の第1の実施形態の外部演算装置131による外部処理サブルーチンのフロー図The flowchart of the external processing subroutine by the external arithmetic unit 131 of the 1st Embodiment of this invention 結果の表示例を示す図Figure showing a display example of the results 本発明の第1の実施形態のシステムのメインフロー図The main flow figure of the system of a 1st embodiment of the present invention. 本発明の第1の実施形態の外部演算装置131による外部処理サブルーチンのフロー図The flowchart of the external processing subroutine by the external arithmetic unit 131 of the 1st Embodiment of this invention

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の好適な実施形態に係るカメラの構成図で、撮像手段としての撮像素子を有したカメラ本体と撮影光学系が一体となった撮像装置100を示している。同図において、101は撮影光学系(結像光学系)の先端に配置された第1レンズ群で、光軸方向に進退可能に保持される。102は絞り兼用シャッタで、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしての機能も備える。103は第2レンズ群である。そして前記絞り兼用シャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、前記第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。104は第3レンズ群で、光軸方向の進退により、焦点調節を行なう。   FIG. 1 is a configuration diagram of a camera according to a preferred embodiment of the present invention, and shows an image pickup apparatus 100 in which a camera body having an image pickup device as an image pickup means and a photographing optical system are integrated. In the figure, reference numeral 101 denotes a first lens group disposed at the tip of a photographing optical system (imaging optical system), which is held so as to be movable back and forth in the optical axis direction. Reference numeral 102 denotes an aperture / shutter, which adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also has a function as an exposure time adjustment shutter at the time of still image shooting. Reference numeral 103 denotes a second lens group. The diaphragm / shutter 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and perform a zooming function (zoom function) in conjunction with the forward and backward movement of the first lens group 101. Reference numeral 104 denotes a third lens group that performs focus adjustment by advancing and retreating in the optical axis direction.

105は光学的ローパスフィルタで、撮影画像の偽色やモアレを軽減するための光学素子である。106はC−MOSセンサとその周辺回路で構成された撮像素子である。該撮像素子は、横方向m画素、縦方向n画素の受光ピクセル上に、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。   Reference numeral 105 denotes an optical low-pass filter, which is an optical element for reducing false colors and moire in a captured image. Reference numeral 106 denotes an image pickup device composed of a C-MOS sensor and its peripheral circuits. The image sensor is a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction.

111はズームアクチュエータで、不図示のカム筒を回動することで、第1レンズ群101〜第3レンズ群103を光軸方向に進退駆動し、変倍操作を行なう。112は絞りシャッタアクチュエータで、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行なう。113はフォーカスアクチュエータで、第3レンズ群104を光軸方向に進退駆動して焦点調節を行なう。   Reference numeral 111 denotes a zoom actuator, which rotates a cam cylinder (not shown) to drive the first lens group 101 to the third lens group 103 forward and backward in the optical axis direction, thereby performing a zooming operation. Reference numeral 112 denotes an aperture shutter actuator that controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. Reference numeral 113 denotes a focus actuator that performs focus adjustment by driving the third lens group 104 forward and backward in the optical axis direction.

121は、カメラ本体の種々の制御を司るカメラ内CPUで、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。CPU121はまた、ROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動し、AF、撮影、画像処理と記録等の一連の動作を実行する。   Reference numeral 121 denotes an in-camera CPU that controls various controls of the camera body, and includes a calculation unit, ROM, RAM, A / D converter, D / A converter, communication interface circuit, and the like. The CPU 121 also drives various circuits included in the camera based on a predetermined program stored in the ROM, and executes a series of operations such as AF, photographing, image processing, and recording.

122は撮像素子駆動回路で、撮像素子106の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。123は画像処理回路で、撮像素子106が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行なう。   Reference numeral 122 denotes an image sensor driving circuit that controls the imaging operation of the image sensor 106 and A / D-converts the acquired image signal and transmits it to the CPU 121. An image processing circuit 123 performs processing such as γ conversion, color interpolation, and JPEG compression of the image acquired by the image sensor 106.

124はフォーカス駆動回路で、焦点検出結果に基づいてフォーカスアクチュエータ113を駆動制御し、第3レンズ群104を光軸方向に進退駆動して焦点調節を行なう。125は絞りシャッタ駆動回路で、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。126はズーム駆動回路で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   A focus driving circuit 124 controls the focus actuator 113 based on the focus detection result, and adjusts the focus by driving the third lens group 104 back and forth in the optical axis direction. An aperture shutter drive circuit 125 controls the aperture shutter actuator 112 and controls the aperture of the aperture / shutter 102. A zoom driving circuit 126 drives the zoom actuator 111 according to the zoom operation of the photographer.

127はLCD等の表示器で、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。128は操作スイッチ群で、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。129は着脱可能なフラッシュメモリで、撮影済み画像を記録する。130は通信手段で、後述する外部演算装置131(不図示)にデータの送受信を行う。通信手段130は請求項の送信手段と受信手段の機能を担う。   Reference numeral 127 denotes a display device such as an LCD, which displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. A group of operation switches 128 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 129 denotes a detachable flash memory that records a photographed image. A communication unit 130 transmits / receives data to / from an external arithmetic unit 131 (not shown) described later. The communication unit 130 functions as a transmission unit and a reception unit in the claims.

図2は本発明の撮像素子の概略的回路構成図を示したもので、本出願人による特開平09−046596号報等に開示された技術が好適である。同図は2次元C−MOSエリアセンサの2列×4行画素の範囲を示したものであるが、撮像素子として利用する場合は、当図に示した画素を多数配置し、高解像度画像の取得を可能としている。本実施形態においては、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmの撮像素子として説明を行なう。   FIG. 2 is a schematic circuit diagram of the image pickup device of the present invention, and the technique disclosed in Japanese Patent Application Laid-Open No. 09-046596 by the applicant of the present application is suitable. The figure shows a range of 2 columns × 4 rows of pixels of a two-dimensional C-MOS area sensor. However, when used as an image sensor, a large number of pixels shown in FIG. Acquisition is possible. In the present embodiment, the description will be made on the assumption that the pixel pitch is 2 μm, the number of effective pixels is 3000 horizontal pixels × 2000 vertical rows = 6 million pixels, and the imaging screen size is 6 mm horizontal × 4 mm vertical.

図2において、1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子の光電変換部、2はフォトゲート、3は転送スイッチMOSトランジスタ、4はリセット用MOSトランジスタ、5はソースフォロワアンプMOSトランジスタ、6は水平選択スイッチMOSトランジスタ、7はソースフォロワの負荷MOSトランジスタ、8は暗出力転送MOSトランジスタ、9は明出力転送MOSトランジスタ、10は暗出力蓄積容量CTN、11は明出力蓄積容量CTS、12は水平転送MOSトランジスタ、13は水平出力線リセットMOSトランジスタ、14は差動出力アンプ、15は水平走査回路、16は垂直走査回路である。   In FIG. 2, 1 is a photoelectric conversion portion of a photoelectric conversion element comprising a MOS transistor gate and a depletion layer under the gate, 2 is a photogate, 3 is a transfer switch MOS transistor, 4 is a reset MOS transistor, and 5 is a source follower amplifier MOS. Transistor, 6 is a horizontal selection switch MOS transistor, 7 is a source follower load MOS transistor, 8 is a dark output transfer MOS transistor, 9 is a light output transfer MOS transistor, 10 is a dark output storage capacitor CTN, and 11 is a light output storage capacitor CTS , 12 are horizontal transfer MOS transistors, 13 is a horizontal output line reset MOS transistor, 14 is a differential output amplifier, 15 is a horizontal scanning circuit, and 16 is a vertical scanning circuit.

図3に画素部の断面図を示す。同図において、17はP型ウェル、18はゲート酸化膜、19は一層目ポリSi、20は二層目ポリSi、21はn+フローティングディフュージョン部(FD)である。21のFDは別の転送MOSトランジスタを介して別の光電変換部と接続される。同図において、2つの転送MOSトランジスタ3のドレインとFD部21を共通化して微細化とFD部21の容量低減による感度向上を図っているが、Al配線でFD部21を接続しても良い。   FIG. 3 shows a cross-sectional view of the pixel portion. In this figure, 17 is a P-type well, 18 is a gate oxide film, 19 is a first-layer poly-Si, 20 is a second-layer poly-Si, and 21 is an n + floating diffusion portion (FD). The FD 21 is connected to another photoelectric conversion unit via another transfer MOS transistor. In the figure, the drains of the two transfer MOS transistors 3 and the FD portion 21 are made common to improve the sensitivity by miniaturization and the capacity reduction of the FD portion 21, but the FD portion 21 may be connected by Al wiring. .

図4ないし図5は、撮像用画素と焦点検出用画素の構造を説明する図である。本実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、該ベイヤー配列の間に、焦点検出用画素が所定の規則にて分散配置される。   4 to 5 are diagrams illustrating the structures of the imaging pixels and the focus detection pixels. In the present embodiment, out of 4 pixels of 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel each having a spectral sensitivity of 1 is arranged is employed. The focus detection pixels are distributed and arranged in a predetermined rule between the Bayer arrays.

図4に撮像用画素の配置と構造を示す。同図(a)は2行×2列の撮像用画素の平面図である。周知のごとく、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そして該2行×2列の構造が繰り返し配置される。   FIG. 4 shows the arrangement and structure of the imaging pixels. FIG. 2A is a plan view of 2 × 2 imaging pixels. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. The structure of 2 rows × 2 columns is repeatedly arranged.

同図(a)の断面A−Aを同図(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(Red)のカラーフィルタ、CFGはG(Green)のカラーフィルタである。PDは図3で説明したC−MOSセンサの光電変換部を模式的に示したもの、CLはC−MOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。   A cross section AA of FIG. 4A is shown in FIG. ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (Red) color filter, and CFG is a G (Green) color filter. PD is a schematic diagram of the photoelectric conversion unit of the C-MOS sensor described with reference to FIG. 3, and CL is a wiring layer for forming signal lines for transmitting various signals in the C-MOS sensor. TL schematically shows the photographing optical system.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換部PDは、撮影光学系MLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EPと光電変換部PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換部の有効面積は大面積に設計される。また、同図(b)ではR画素の入射光束について説明したが、G画素及びB(Blue)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion unit PD of the imaging pixel are configured to capture the light beam that has passed through the photographing optical system ML as effectively as possible. In other words, the exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are conjugated with each other by the microlens ML, and the effective area of the photoelectric conversion unit is designed to be large. Further, in FIG. 5B, the incident light beam of the R pixel has been described, but the G pixel and the B (Blue) pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.

図5は、撮影レンズの水平方向(横方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す。同図(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。撮像信号を得る場合、G画素は輝度情報の主成分をなす。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。一方でRもしくはB画素は、色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化に気づきにくい。そこで本実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、RとBの画素を焦点検出用画素としている。これを同図(a)においてSHA及びSHBで示す。   FIG. 5 shows the arrangement and structure of focus detection pixels for performing pupil division in the horizontal direction (lateral direction) of the photographic lens. FIG. 5A is a plan view of 2 × 2 pixels including focus detection pixels. When obtaining an imaging signal, the G pixel is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be recognized if G pixels are lost. On the other hand, the R or B pixel is a pixel that acquires color information. However, since humans are insensitive to color information, pixels that acquire color information are less likely to notice deterioration in image quality even if some loss occurs. Therefore, in the present embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R and B pixels are used as focus detection pixels. This is indicated by SHA and SHB in FIG.

同図(a)の断面A−Aを同図(b)に示す。マイクロレンズMLと、光電変換部PDは図5(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。また、撮像素子で瞳分割を行なうため、配線層CLの開口部はマイクロレンズMLの中心線に対して一方向に偏倚している。具体的には、画素SHA及の開口部OPHAは右側に偏倚しているため、撮影レンズTLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは左側に偏倚しているため、撮影レンズTLの右側の射出瞳EPHBを通過した光束を受光する。よって、画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。また、画素SHBも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、撮影レンズ137のピントずれ量(デフォーカス値)が検出できる。   A cross section AA of FIG. 4A is shown in FIG. The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In the present embodiment, since the signal of the focus detection pixel is not used for image creation, a transparent film CFW (White) is arranged instead of the color separation color filter. Moreover, since pupil division is performed by the image sensor, the opening of the wiring layer CL is biased in one direction with respect to the center line of the microlens ML. Specifically, since the opening SHA and the pixel SHA are biased to the right side, the light beam that has passed through the left exit pupil EPHA of the photographic lens TL is received. Similarly, since the opening OPHB of the pixel SHB is biased to the left side, the light beam that has passed through the right exit pupil EPHB of the photographic lens TL is received. Therefore, the pixels SHA are regularly arranged in the horizontal direction, and the subject image acquired by these pixel groups is defined as an A image. In addition, the pixels SHB are also regularly arranged in the horizontal direction, and the subject image acquired by these pixel groups is a B image. By detecting the relative position of the A image and the B image, the amount of defocus of the photographing lens 137 is detected. (Defocus value) can be detected.

ここで、マイクロレンズMLは、撮影レンズTLの左側の射出瞳EPHAを透過した光束からなるA像と、撮影レンズTLの右側の射出瞳EPHBを透過した光束からなるB像の、一対の光学像を生成するレンズ要素の機能を果たしている。   Here, the microlens ML is a pair of optical images of an A image composed of a light beam transmitted through the left exit pupil EPHA of the photographing lens TL and a B image composed of a light beam transmitted through the right exit pupil EPHAB of the photographing lens TL. Plays the function of a lens element that generates

なお、上記画素SHA及びSHBでは、撮影画面の横方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そこで本実施形態では、後者についても焦点検出できるよう、撮影画面の垂直方向(縦方向)にも瞳分割を行なう画素も備えている。   In the pixels SHA and SHB, focus detection is possible for an object having a luminance distribution in the horizontal direction of the photographing screen, for example, a vertical line, but focus detection is not possible for a horizontal line having a luminance distribution in the vertical direction. Therefore, in the present embodiment, pixels that perform pupil division are also provided in the vertical direction (longitudinal direction) of the shooting screen so that the focus can be detected in the latter case.

図6は、撮影画面の垂直方向に瞳分割を行なうための焦点検出用画素の配置と構造を示す。同図(a)は、焦点検出用画素を含む2行×2列の画素の平面図で、図6(a)と同様に、G画素は撮像用画素として残し、RとBの画素を焦点検出用画素としている。これを同図(a)においてSVC及びSVDで示す。   FIG. 6 shows the arrangement and structure of focus detection pixels for performing pupil division in the vertical direction of the imaging screen. FIG. 6A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. As in FIG. 6A, the G pixel is left as an imaging pixel, and the R and B pixels are focused. Detection pixels are used. This is indicated by SVC and SVD in FIG.

同図(a)の断面A−Aを同図(b)に示すが、図5(b)の画素が横方向に瞳分離する構造であるのに対して、図6(b)の画素は瞳分離方向が縦方向になっているだけで、画素の構造としては変わらない。すなわち、画素SVCの開口部OPVCは下側に偏倚しているため、撮影レンズTLの上側の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは上側に偏倚しているため、撮影レンズTLの下側の射出瞳EPVDを通過した光束を受光する。よって、画素SVCを垂直方向規則的に配列し、これらの画素群で取得した被写体像をC像とする。また、画素SVDも垂直方向規則的に配列し、これらの画素群で取得した被写体像をD像とすると、C像とD像の相対位置を検出することで、垂直方向に輝度分布を有する被写体像のピントずれ量(デフォーカス値)が検出できる。   FIG. 6B shows a cross section A-A in FIG. 6A. The pixel in FIG. 5B has a structure in which the pupil is separated in the horizontal direction, whereas the pixel in FIG. The pupil separation direction is just the vertical direction, and the pixel structure does not change. That is, since the opening OPVC of the pixel SVC is biased downward, the light beam that has passed through the exit pupil EPVC on the upper side of the photographing lens TL is received. Similarly, since the opening OPVD of the pixel SVD is biased upward, the light beam that has passed through the lower exit pupil EPVD of the photographing lens TL is received. Therefore, the pixels SVC are regularly arranged in the vertical direction, and the subject image acquired by these pixel groups is defined as a C image. The pixels SVD are also regularly arranged in the vertical direction, and if the subject image acquired by these pixel groups is a D image, the subject having a luminance distribution in the vertical direction is detected by detecting the relative position of the C image and the D image. The amount of defocus (defocus value) of the image can be detected.

図7及び図8は本発明の第1の実施形態のシステムを表すフロー図である。図7は本発明の第1の実施形態のシステムのメインフロー図である。   7 and 8 are flowcharts showing the system according to the first embodiment of this invention. FIG. 7 is a main flow diagram of the system according to the first embodiment of this invention.

ステップS001ではレリーズスイッチが押下されるかどうかが判定される。使用者はレリーズスイッチを押下するまで、構図や撮影条件(シャッタ速度や絞り値など)の設定を行う。このとき、後の処理で行う照合処理に適した条件(つまり、深度が十分深い)かどうかを考慮する必要はない。レリーズスイッチが押下されるとステップS002へと進む。   In step S001, it is determined whether or not the release switch is pressed. The user sets the composition and shooting conditions (such as shutter speed and aperture value) until the release switch is pressed. At this time, it is not necessary to consider whether or not the condition is suitable for the collation process performed in the subsequent process (that is, the depth is sufficiently deep). When the release switch is pressed, the process proceeds to step S002.

ステップS002では撮像素子106により画像が取得される。取得された画像信号は撮像素子駆動回路122でA/D変換されたのちCPU121に送信される。CPU121に送信された画像信号は生データで一時的に記録される一方、撮影した画像を静止画として保存するために、画像処理回路123により所定の処理がされた画像をフラッシュメモリ129へと送る。その後、ステップS003へと進む。   In step S002, an image is acquired by the image sensor 106. The acquired image signal is A / D converted by the image sensor driving circuit 122 and then transmitted to the CPU 121. The image signal transmitted to the CPU 121 is temporarily recorded as raw data, while the image processed by the image processing circuit 123 is sent to the flash memory 129 in order to save the captured image as a still image. . Thereafter, the process proceeds to step S003.

ステップS003では、撮影モードが照合モードであるかどうかが確認される。撮影モードが照合モードである場合にはステップS004へと進み、撮影モードが照合モードではない場合にはステップS010へと進み、本フローを終了する。   In step S003, it is confirmed whether or not the shooting mode is the collation mode. If the shooting mode is the collation mode, the process proceeds to step S004. If the shooting mode is not the collation mode, the process proceeds to step S010, and this flow ends.

ステップS004では、通信手段130により外部演算装置131にデータが送信される。外部演算装置131は請求項の外部システムに相当する。送信されるデータはステップS003で一時的に記録された生データと、外部演算装置131で処理するデフォーカス値算出処理とボケ修復処理とデータベース照合処理に必要なデータ、例えば撮影光学系の機種情報や、ズーム情報、フォーカス情報、絞り値などである。データの送信が完了すると、ステップS005へと進む。   In step S 004, data is transmitted to the external arithmetic device 131 by the communication unit 130. The external computing device 131 corresponds to the external system in the claims. The data to be transmitted includes raw data temporarily recorded in step S003, data necessary for defocus value calculation processing, blur repair processing, and database collation processing processed by the external arithmetic unit 131, such as model information of the photographing optical system. And zoom information, focus information, aperture value, and the like. When the data transmission is completed, the process proceeds to step S005.

ステップS005では、外部演算装置131により外部処理サブルーチンが実行される。外部処理サブルーチンが完了すると、ステップS006へと進む。   In step S005, the external processing device 131 executes an external processing subroutine. When the external processing subroutine is completed, the process proceeds to step S006.

ステップS006では、通信手段130が外部演算装置131から送信された結果を受信する。結果の受信が完了すると、ステップS007へと進む。   In step S006, the communication unit 130 receives the result transmitted from the external computing device 131. When the reception of the result is completed, the process proceeds to step S007.

ステップS007では、通信手段130が受信した結果をもとに、表示器127に結果が表示される。図9は結果の表示例である。結果が表示されると、ステップS010へと進み、本フローは完了する。   In step S 007, the result is displayed on the display device 127 based on the result received by the communication unit 130. FIG. 9 is a display example of the result. If a result is displayed, it will progress to Step S010 and this flow will be completed.

図8は本発明の第1の実施形態の外部演算装置131による外部処理サブルーチンのフロー図である。   FIG. 8 is a flowchart of an external processing subroutine by the external arithmetic unit 131 according to the first embodiment of this invention.

ステップS101では、撮像装置100の通信手段130から送信されたデータを受信する。データの受信が完了すると、ステップS102へと進む。   In step S101, data transmitted from the communication unit 130 of the imaging apparatus 100 is received. When the reception of data is completed, the process proceeds to step S102.

ステップS102では、各分割領域でのデフォーカス値の算出が行われる。算出が完了すると、ステップS103へと進む。   In step S102, the defocus value in each divided area is calculated. When the calculation is completed, the process proceeds to step S103.

ステップS103では、外部演算装置131によりボケ修復処理が行われる。一般的にボケ修復は点拡がり関数を画像信号にデコンボリューションすることで行われる。点広がり関数は撮影光学系の機種に応じ、ズーム情報、フォーカス情報、絞り値、デフォーカス値、像高などによって導出される。よって、ボケ修復はステップS101で受信した撮影光学系の機種情報、ズーム情報、フォーカス情報、絞り値を用いて、画像の各領域の像高と、デフォーカス値に応じて導出される点広がり関数をステップS101で受信した画像にデコンボリューションすることによりなされる。主被写体を次のステップ104で行うデータベース照合処理が可能な程度までボケを修復すると、ステップS104へと進む。   In step S <b> 103, blur correction processing is performed by the external arithmetic device 131. In general, blur restoration is performed by deconvolution of a point spread function into an image signal. The point spread function is derived from zoom information, focus information, aperture value, defocus value, image height, and the like, depending on the model of the photographing optical system. Therefore, the blur restoration is a point spread function derived according to the image height and the defocus value of each area of the image using the model information, zoom information, focus information, and aperture value of the photographing optical system received in step S101. Is deconvolved into the image received in step S101. When the blur is repaired to such an extent that the database collation processing performed on the main subject in the next step 104 is possible, the process proceeds to step S104.

ステップS104では、外部演算装置131により照合処理が行われる。照合処理は公知の技術(例えば、特開2000−113097号公報)で行われ、外部演算装置131は不図示のデータベースを記憶した装置と接続し、ステップS103で作成したボケ修復画像信号との照合処理が行われる。データベースと画像信号とが一致したものが検出されると、ステップS105へと進む。   In step S104, collation processing is performed by the external arithmetic device 131. The collation process is performed by a known technique (for example, Japanese Patent Laid-Open No. 2000-113097), and the external arithmetic device 131 is connected to a device that stores a database (not shown) and collates with the blurred repair image signal created in step S103. Processing is performed. If a match between the database and the image signal is detected, the process proceeds to step S105.

ステップS105では、外部演算装置131から本発明の撮像装置100の通信手段130にステップS104で検出された結果が送信される。結果の送信が完了すると、ステップS106へと進み、本サブルーチンは終了する。   In step S105, the result detected in step S104 is transmitted from the external arithmetic unit 131 to the communication unit 130 of the imaging apparatus 100 of the present invention. When the transmission of the result is completed, the process proceeds to step S106, and this subroutine ends.

また、本実施例では、撮影した静止画の画像情報から照合処理を行ったが、ライブビュー撮影の場合においても、ライブビュー中に撮像素子106から得られる画像情報を用いて、同様の処理を行い、ライブビュー中に結果を表示することが可能となる。   Further, in this embodiment, the collation process is performed from the image information of the captured still image. However, in the case of live view shooting, the same process is performed using the image information obtained from the image sensor 106 during the live view. And the results can be displayed during live view.

なお、本実施例では、ボケ修復処理として撮影光学系の機種情報と、ズーム情報、フォーカス情報、絞り値、デフォーカス値、像高から導出した点広がり関数を利用した例を示したが、ボケ修復処理はこの方法によらない。例えば、あらかじめ設定しておいた基本関数にズーム情報、フォーカス情報、絞り値、デフォーカス値、像高のうちのいくつかのパラメータを用いて導出した関数を用いてボケ修復しても良い。   In the present embodiment, an example in which the model information of the photographing optical system and the point spread function derived from the zoom information, the focus information, the aperture value, the defocus value, and the image height are used as the blur restoration process is shown. The repair process does not depend on this method. For example, blur correction may be performed by using a function derived by using some parameters of zoom information, focus information, aperture value, defocus value, and image height for a preset basic function.

以上のように、本発明の構成によれば、深度の浅い画像を撮影しても検索精度の低下を低減することが可能な撮像装置を提供することが可能となる。   As described above, according to the configuration of the present invention, it is possible to provide an imaging apparatus capable of reducing a decrease in search accuracy even when an image having a shallow depth is captured.

実施例1では、外部演算装置131でデフォーカス値の算出を行わせたが、CPU121の性能が十分高い場合には撮像装置100内で行ってもよい。図10及び図11を用いて第2の実施形態について説明する。撮像装置100の構成は実施例1と同じであるため説明は省略し、システムのフローのみを説明する。   In the first embodiment, the defocus value is calculated by the external arithmetic device 131. However, when the performance of the CPU 121 is sufficiently high, the defocus value may be calculated in the imaging device 100. The second embodiment will be described with reference to FIGS. 10 and 11. Since the configuration of the imaging apparatus 100 is the same as that of the first embodiment, description thereof is omitted, and only the system flow is described.

図10及び図11は本発明の第2の実施形態のシステムを表すフロー図である。図10は本発明の第2の実施形態のシステムのメインフロー図である。   10 and 11 are flowcharts showing the system according to the second embodiment of this invention. FIG. 10 is a main flow diagram of a system according to the second embodiment of this invention.

ステップS201ではレリーズスイッチが押下されるかどうかが判定される。使用者はレリーズスイッチを押下するまで、構図や撮影条件(シャッタ速度や絞り値など)の設定を行う。このとき、後の処理で行う照合処理に適した条件(つまり、深度が十分深い)かどうかを考慮する必要はない。レリーズスイッチが押下されるとステップS202へと進む。   In step S201, it is determined whether or not the release switch is pressed. The user sets the composition and shooting conditions (such as shutter speed and aperture value) until the release switch is pressed. At this time, it is not necessary to consider whether or not the condition is suitable for the collation process performed in the subsequent process (that is, the depth is sufficiently deep). When the release switch is pressed, the process proceeds to step S202.

ステップS202では撮像素子106により画像が取得される。取得された画像信号は撮像素子駆動回路122でA/D変換されたのちCPU121に送信される。CPU121に送信された画像信号は生データで一時的に記録される一方、撮影した画像を静止画として保存するために、画像処理回路123により所定の処理がされた画像をフラッシュメモリ129へと送る。その後、ステップS203へと進む。   In step S202, an image is acquired by the image sensor 106. The acquired image signal is A / D converted by the image sensor driving circuit 122 and then transmitted to the CPU 121. The image signal transmitted to the CPU 121 is temporarily recorded as raw data, while the image processed by the image processing circuit 123 is sent to the flash memory 129 in order to save the captured image as a still image. . Thereafter, the process proceeds to step S203.

ステップS203では、撮影モードが照合モードであるかどうかが確認される。撮影モードが照合モードである場合にはステップS204へと進み、撮影モードが照合モードではない場合にはステップS209へと進み、本フローを終了する。   In step S203, it is confirmed whether or not the shooting mode is the collation mode. If the shooting mode is the collation mode, the process proceeds to step S204. If the shooting mode is not the collation mode, the process proceeds to step S209, and this flow ends.

ステップS204では、CPU121により各分割領域でのデフォーカス値の算出が行われる。算出が完了すると、ステップS205へと進む。   In step S204, the CPU 121 calculates a defocus value in each divided area. When the calculation is completed, the process proceeds to step S205.

ステップS205では、通信手段130により外部演算装置131にデータが送信される。外部演算装置131は請求項の外部システムに相当する。送信されるデータはステップS203で一時的に記録された生データと、ステップS204で算出されたデフォーカス値、さらに、外部演算装置131で処理するボケ修復処理とデータベース照合処理に必要なデータ、例えばズーム情報やフォーカス情報、絞り値などである。データの送信が完了すると、ステップS206へと進む。   In step S <b> 205, data is transmitted to the external arithmetic device 131 by the communication unit 130. The external computing device 131 corresponds to the external system in the claims. The data to be transmitted includes the raw data temporarily recorded in step S203, the defocus value calculated in step S204, and data necessary for blur repair processing and database collation processing processed by the external arithmetic device 131, for example, Zoom information, focus information, aperture value, and the like. When the data transmission is completed, the process proceeds to step S206.

ステップS206では、外部演算装置131により外部処理サブルーチンが実行される。外部処理サブルーチンが完了すると、ステップS207へと進む。   In step S206, an external processing subroutine is executed by the external arithmetic unit 131. When the external processing subroutine is completed, the process proceeds to step S207.

ステップS207では、通信手段130が外部演算装置131から送信された結果を受信する。結果の受信が完了すると、ステップS208へと進む。   In step S207, the communication unit 130 receives the result transmitted from the external computing device 131. When the reception of the result is completed, the process proceeds to step S208.

ステップS208では、通信手段130が受信した結果をもとに、表示器127に結果が表示される。結果が表示されると、ステップS209へと進み、本フローは完了する。   In step S208, the result is displayed on the display 127 based on the result received by the communication means 130. If a result is displayed, it will progress to Step S209 and this flow will be completed.

図11は本発明の第2の実施形態における外部演算装置131による外部処理サブルーチンのフロー図である。   FIG. 11 is a flowchart of an external processing subroutine by the external arithmetic unit 131 according to the second embodiment of the present invention.

ステップS301では、撮像装置100の通信手段130から送信されたデータを受信する。データの受信が完了すると、ステップS302へと進む。   In step S301, data transmitted from the communication unit 130 of the imaging apparatus 100 is received. When the reception of data is completed, the process proceeds to step S302.

ステップS302では、外部演算装置131によりボケ修復処理が行われる。一般的にボケ修復は点拡がり関数を画像信号にデコンボリューションすることで行われる。点広がり関数は撮影光学系の機種に応じ、ズーム情報、フォーカス情報、絞り値、デフォーカス値、像高などによって導出される。よって、ボケ修復はステップS301で受信した撮影光学系の機種情報、ズーム情報、フォーカス情報、絞り値を用いて、画像の各領域の像高と、デフォーカス値に応じて導出される点広がり関数をステップS301で受信した画像にデコンボリューションすることによりなされる。主被写体を次のステップ303で行うデータベース照合処理が可能な程度までボケを修復すると、ステップS303へと進む。   In step S <b> 302, blur correction processing is performed by the external arithmetic device 131. In general, blur restoration is performed by deconvolution of a point spread function into an image signal. The point spread function is derived from zoom information, focus information, aperture value, defocus value, image height, and the like, depending on the model of the photographing optical system. Therefore, the blur restoration is a point spread function derived in accordance with the image height and defocus value of each region of the image using the model information, zoom information, focus information, and aperture value of the photographing optical system received in step S301. Is deconvolved into the image received in step S301. When the blur of the main subject is repaired to the extent that the database collation process performed in the next step 303 is possible, the process proceeds to step S303.

ステップS303では、外部演算装置131により照合処理が行われる。照合処理は公知の技術(例えば、特開2000−113097号公報)で行われ、外部演算装置131は不図示のデータベースを記憶した装置と接続し、ステップS103で作成したボケ修復画像信号との照合処理が行われる。データベースと画像信号とが一致したものが検出されると、ステップS304へと進む。   In step S303, collation processing is performed by the external arithmetic device 131. The collation process is performed by a known technique (for example, Japanese Patent Laid-Open No. 2000-113097), and the external arithmetic device 131 is connected to a device that stores a database (not shown) and collates with the blurred repair image signal created in step S103. Processing is performed. If a match between the database and the image signal is detected, the process proceeds to step S304.

ステップS304では、外部演算装置131から本発明の撮像装置100の通信手段130にステップS303で検出された結果が送信される。結果の送信が完了すると、ステップS305へと進み、本サブルーチンは終了する。   In step S304, the result detected in step S303 is transmitted from the external arithmetic unit 131 to the communication unit 130 of the imaging apparatus 100 of the present invention. When the transmission of the result is completed, the process proceeds to step S305, and this subroutine ends.

また、本実施例では、撮影した静止画の画像情報から照合処理を行ったが、ライブビュー撮影の場合においても、ライブビュー中に撮像素子106から得られる画像情報を用いて、同様の処理を行い、ライブビュー中に結果を表示することが可能となる。   Further, in this embodiment, the collation process is performed from the image information of the captured still image. However, in the case of live view shooting, the same process is performed using the image information obtained from the image sensor 106 during the live view. And the results can be displayed during live view.

なお、本実施例では、ボケ修復処理として撮影光学系の機種情報と、ズーム情報、フォーカス情報、絞り値、デフォーカス値、像高から導出した点広がり関数を利用した例を示したが、ボケ修復処理はこの方法によらない。例えば、あらかじめ設定しておいた基本関数にズーム情報、フォーカス情報、絞り値、デフォーカス値、像高のうちのいくつかのパラメータを用いて導出した関数を用いてボケ修復しても良い。   In the present embodiment, an example in which the model information of the photographing optical system and the point spread function derived from the zoom information, the focus information, the aperture value, the defocus value, and the image height are used as the blur restoration process is shown. The repair process does not depend on this method. For example, blur correction may be performed by using a function derived by using some parameters of zoom information, focus information, aperture value, defocus value, and image height for a preset basic function.

以上のように、本発明の構成によれば、深度の浅い画像を撮影しても検索精度の低下を低減することが可能な撮像装置を提供することが可能となる。   As described above, according to the configuration of the present invention, it is possible to provide an imaging apparatus capable of reducing a decrease in search accuracy even when an image having a shallow depth is captured.

100 撮像装置、106 撮像素子、130 通信手段、
131 外部演算装置
100 imaging device, 106 imaging device, 130 communication means,
131 External arithmetic unit

Claims (6)

位相差検出機能を有する撮像素子と、
撮影した画像の主要被写体の種類や名称を判別するために必要なデータを外部システムに送信する送信手段と、
外部システムで得られた照合結果を受信する受信手段と
を有することを特徴とする撮像装置。
An image sensor having a phase difference detection function;
Transmission means for transmitting data necessary to determine the type and name of the main subject of the captured image to an external system;
An image pickup apparatus comprising: a receiving unit that receives a collation result obtained by an external system.
ズーム機能と、フォーカス機能と、絞り機能とを有する光学系とを備え、
前記データは前記光学系の機種情報とズーム情報とフォーカス情報と絞り情報のうちの少なくともいずれかと、前記撮像素子で得られた画像情報とであることを特徴とする請求項1に記載の撮像装置。
An optical system having a zoom function, a focus function, and an aperture function,
2. The imaging apparatus according to claim 1, wherein the data includes at least one of model information, zoom information, focus information, and aperture information of the optical system, and image information obtained by the imaging element. .
請求項1又は請求項2に記載の撮像装置を備え、前記外部システムは、デフォーカス値演算と、ボケ画像修復処理と、画像とデータベースとの照合処理のうち少なくともいずれかを行うことを特徴とする照合システム。 The imaging apparatus according to claim 1 or 2, wherein the external system performs at least one of a defocus value calculation, a blurred image restoration process, and a collation process between an image and a database. Matching system. 前記撮像素子で得られた信号に基づき各領域ごとのデフォーカス値を算出する手段を有することを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, further comprising means for calculating a defocus value for each area based on a signal obtained by the imaging element. ズーム機能と、フォーカス機能と、絞り機能とを有する光学系とを備え、前記データは前記光学系の機種情報、ズーム情報とフォーカス情報と絞り情報のうちの少なくともいずれかと、前記撮像素子で得られた画像情報と、前記デフォーカス値とであることを特徴とする請求項4に記載の撮像装置。 An optical system having a zoom function, a focus function, and an aperture function, and the data is obtained by the image sensor and at least one of model information of the optical system, zoom information, focus information, and aperture information. The image pickup apparatus according to claim 4, wherein the image information is the defocus value. 請求項4又は請求項5に記載の撮像装置を備え、前記外部システムは、ボケ画像修復処理と、画像とデータベースとの照合処理のうち少なくともいずれかを行うことを特徴とする照合システム。 6. A collation system comprising the imaging apparatus according to claim 4 or 5, wherein the external system performs at least one of a blurred image restoration process and a collation process between an image and a database.
JP2014120087A 2014-06-11 2014-06-11 Imaging apparatus and verification system Pending JP2015233261A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014120087A JP2015233261A (en) 2014-06-11 2014-06-11 Imaging apparatus and verification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014120087A JP2015233261A (en) 2014-06-11 2014-06-11 Imaging apparatus and verification system

Publications (1)

Publication Number Publication Date
JP2015233261A true JP2015233261A (en) 2015-12-24

Family

ID=54934476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014120087A Pending JP2015233261A (en) 2014-06-11 2014-06-11 Imaging apparatus and verification system

Country Status (1)

Country Link
JP (1) JP2015233261A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201826A1 (en) * 2021-03-26 2022-09-29 ソニーグループ株式会社 Information processing system, information processing method, and information processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201826A1 (en) * 2021-03-26 2022-09-29 ソニーグループ株式会社 Information processing system, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
JP6848941B2 (en) Image sensor and image sensor
JP5173954B2 (en) Image processing apparatus and image processing method
US8804027B2 (en) Imaging apparatus
JP5478935B2 (en) Imaging device
JP5276374B2 (en) Focus detection device
CN102318335A (en) Image capturing apparatus
JP2014178603A (en) Imaging device
WO2017170716A1 (en) Image pickup device, image processing device, and electronic apparatus
WO2017057492A1 (en) Imaging device and image processing device
JP6118058B2 (en) Solid-state imaging device, imaging apparatus, and control method
JP2012220790A (en) Imaging apparatus
JP2015138994A (en) Electronic apparatus
JP2014130231A (en) Imaging apparatus, method for controlling the same, and control program
JP6482247B2 (en) FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE CONTROL METHOD, AND PROGRAM
JP2011227388A (en) Imaging device
JP5735784B2 (en) Imaging device and control method thereof, lens device and control method thereof
JP2015233261A (en) Imaging apparatus and verification system
JPWO2017170717A1 (en) IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE, AND ELECTRONIC DEVICE
JP5793210B2 (en) Imaging device
JP2016018034A (en) Imaging device, control method of the same, program and recording medium
JP5352003B2 (en) Image processing apparatus and image processing method
WO2017057494A1 (en) Imaging device and image processing device
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium
JP5968026B2 (en) Imaging apparatus and control method thereof
JP6576155B2 (en) Image processing apparatus, imaging apparatus, and image display system