JP2016206281A - Imaging system, imaging device, imaging method, program and storage medium - Google Patents

Imaging system, imaging device, imaging method, program and storage medium Download PDF

Info

Publication number
JP2016206281A
JP2016206281A JP2015084690A JP2015084690A JP2016206281A JP 2016206281 A JP2016206281 A JP 2016206281A JP 2015084690 A JP2015084690 A JP 2015084690A JP 2015084690 A JP2015084690 A JP 2015084690A JP 2016206281 A JP2016206281 A JP 2016206281A
Authority
JP
Japan
Prior art keywords
focus
focus position
average image
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015084690A
Other languages
Japanese (ja)
Inventor
山下 哲生
Tetsuo Yamashita
哲生 山下
太田 雄介
Yusuke Ota
雄介 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015084690A priority Critical patent/JP2016206281A/en
Publication of JP2016206281A publication Critical patent/JP2016206281A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it to take pictures at a focus position where deterioration due to deformation or blurring becomes minimum.SOLUTION: Images are taken by changing a focus position to acquire a plurality of taken images. An average image of the plurality of taken images is calculated. When a difference value between the average image of the taken images up to a current frame and the average image of the taken images is equal to and less than a threshold, it is determined that the average images up to the current frame are converged. A set of a focus position and a contrast value of the average image converged at each focus position is plurally collected, and then, as shown in a figure, an upward convex approximation curve can be plotted. The focus position where the contrast value becomes maximum is estimated to be an optimum focus position.SELECTED DRAWING: Figure 8

Description

本発明は、撮影システム、撮影装置、撮像方法、プログラムおよび記憶媒体に関する。   The present invention relates to an imaging system, an imaging apparatus, an imaging method, a program, and a storage medium.

カメラを用いて被写体を撮影した際に、陽炎などの外乱によって撮影画像に歪みやボケなどの画質劣化が発生することがある。陽炎は、温度の異なる空気が混ざり合い、局所的に空気の密度の差が生じ、その境界で光が屈折して物体が揺らいで見える現象である。陽炎が発生している環境で撮影を行うと、撮影画像に複数の異なる大きさや向きを持つ揺らぎが発生するため、画質が劣化する。すなわち、例えば建物等が撮影された撮影画像には、直線で構成される部分(窓枠等)が波を打った形状となる。   When a subject is photographed using a camera, image quality deterioration such as distortion or blur may occur in a photographed image due to disturbance such as a heat wave. The hot flame is a phenomenon in which air of different temperatures mixes, a difference in the density of the air locally occurs, light is refracted at the boundary, and the object appears to shake. When shooting is performed in an environment where a hot flame is generated, image quality deteriorates because fluctuations with a plurality of different sizes and orientations occur in the shot image. That is, for example, in a photographed image obtained by photographing a building or the like, a portion (window frame or the like) constituted by a straight line has a waved shape.

この問題に対処するため、陽炎により劣化した画質を改善(復元)し、被写体を良好に知覚できるようにした画像処理技術がある。すなわち、例えば特許文献1には、撮影画像の指数移動平均などから動きのない参照画像を推定し、この参照画像と撮影画像とに基づいて局所的な揺らぎ成分(動きベクトル)を算出し、この揺らぎ成分を相殺するように撮影画像の部分画像を移動することにより、撮影画像に存在する陽炎の揺らぎを取り除いた補正画像を生成する画像処理装置が記載されている。   In order to deal with this problem, there is an image processing technique that improves (restores) the image quality deteriorated by the heat so that the subject can be perceived well. That is, for example, in Patent Document 1, a reference image having no motion is estimated from an exponential moving average of a captured image, and a local fluctuation component (motion vector) is calculated based on the reference image and the captured image. There is described an image processing apparatus that generates a corrected image that removes fluctuations of a hot flame existing in a photographed image by moving a partial image of the photographed image so as to cancel the fluctuation component.

しかしながら、特許文献1に記載された画像処理装置では、被写体からの光学像が陽炎などの外乱により時間的に歪みやぼけを変化させながらカメラに入射するため、ピントの合う位置にフォーカス位置を合わせることができない。このため、撮影画像の外乱による劣化を画像処理装置で復元してもピントの合っていないぼけた画像にしかならないという問題がある。   However, in the image processing apparatus described in Patent Document 1, since the optical image from the subject is incident on the camera while temporally changing distortion and blur due to disturbance such as a hot flame, the focus position is adjusted to the in-focus position. I can't. For this reason, there is a problem that even if the deterioration due to the disturbance of the photographed image is restored by the image processing device, the image is only out of focus.

本発明は、このような問題を解決するためになされたものであり、その目的は、変形やぼけによる劣化が最小となるフォーカス位置で撮影できるようにすることである。   The present invention has been made to solve such problems, and an object of the present invention is to enable photographing at a focus position at which deterioration due to deformation or blur is minimized.

本発明に係る撮影システムは、撮影対象物に対するフォーカス位置を変更可能な撮影手段と、前記撮影手段により複数のフォーカス位置でそれぞれ取得された撮影画像から、前記複数のフォーカス位置それぞれにおけるフォーカスの度合を示すフォーカス情報を算出するフォーカス情報算出手段と、前記フォーカス情報算出手段により算出された複数のフォーカス位置それぞれにおけるフォーカス情報に基づいて、前記撮影対象物に対するフォーカス位置を決定するフォーカス位置決定手段と、を有する撮影システムである。   An imaging system according to the present invention includes an imaging unit capable of changing a focus position with respect to an imaging object, and a degree of focus at each of the plurality of focus positions from a captured image respectively acquired at the plurality of focus positions by the imaging unit. Focus information calculating means for calculating focus information to be indicated, and focus position determining means for determining a focus position for the object to be photographed based on focus information at each of a plurality of focus positions calculated by the focus information calculating means. It is a photographing system.

本発明によれば、変形やぼけによる劣化が最小となるフォーカス位置で撮影することができる。   According to the present invention, it is possible to take an image at a focus position at which deterioration due to deformation or blur is minimized.

本発明の実施形態に係る撮影システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a photographing system according to an embodiment of the present invention. 図1におけるカメラ本体を構成するレンズ部およびカメラ部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the lens part and camera part which comprise the camera main body in FIG. 図1における情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus in FIG. フォーカスが合っているときの撮影画像およびその時間平均画像を示す図である。It is a figure which shows the picked-up image when it is in focus, and its time average image. フォーカスが合っていないときの撮影画像およびその時間平均画像を示す図である。It is a figure which shows the picked-up image when it is out of focus, and its time average image. 図1における最適フォーカス位置推定部の機能構成、その各機能ブロック、およびカメラ部の動作を示すブロック図である。It is a block diagram which shows the function structure of the optimal focus position estimation part in FIG. 1, each function block, and operation | movement of a camera part. 図6に示す最適フォーカス位置推定部の各機能ブロックおよびカメラ部の処理の流れを示すフローチャートである。7 is a flowchart showing a flow of processing of each functional block and camera unit of the optimum focus position estimation unit shown in FIG. 6. 図6におけるフォーカス位置推定部が最適なフォーカス位置を推定する方法について説明するための図である。It is a figure for demonstrating the method by which the focus position estimation part in FIG. 6 estimates an optimal focus position.

以下、本発明の実施形態について図面を参照して詳細に説明する。
〈撮影システムの概略構成〉
図1は、本発明の実施形態に係る撮影システムの概略構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<Schematic configuration of the shooting system>
FIG. 1 is a block diagram showing a schematic configuration of a photographing system according to an embodiment of the present invention.

この撮影システムは、撮影手段としてのカメラ本体1と、情報処理装置2とからなる。カメラ本体1は、レンズ部11と、カメラ部12からなり、情報処理装置2は、撮影画像ストレージ21と、最適フォーカス位置推定部22からなる。   This imaging system includes a camera body 1 as an imaging unit and an information processing device 2. The camera body 1 includes a lens unit 11 and a camera unit 12, and the information processing apparatus 2 includes a captured image storage 21 and an optimum focus position estimation unit 22.

カメラ本体1は、フォーカス位置を変更可能であり被写体を適切な大きさで撮影し、撮影画像、すなわち被写体の光学像に対応する電気信号である画像データを生成する。なお、レンズ部11およびカメラ部12の内部構成については後述する。   The camera body 1 can change the focus position, captures the subject with an appropriate size, and generates image data that is an electrical signal corresponding to the captured image, that is, the optical image of the subject. The internal configurations of the lens unit 11 and the camera unit 12 will be described later.

情報処理装置2は、例えばパーソナルコンピュータ(以下、PC)により構成されている。撮影画像ストレージ21は、カメラ本体1で生成された撮影画像を保存する。フォーカス位置決定手段としての最適フォーカス位置推定部22は、撮影画像に基づいてカメラ部12の最適なフォーカス位置を推定し、カメラ部12に通知する。カメラ部12は、通知された最適なフォーカス位置にレンズ部11を設定する。ここで、最適なフォーカス位置の推定とは、歪みやぼけによる劣化が最小な撮影画像を取得するためのフォーカス位置を決定することである。   The information processing apparatus 2 is configured by, for example, a personal computer (hereinafter, PC). The captured image storage 21 stores a captured image generated by the camera body 1. The optimum focus position estimation unit 22 as a focus position determination unit estimates the optimum focus position of the camera unit 12 based on the captured image and notifies the camera unit 12 of the estimated focus position. The camera unit 12 sets the lens unit 11 at the notified optimal focus position. Here, the estimation of the optimum focus position is to determine a focus position for acquiring a captured image with minimal deterioration due to distortion or blur.

〈カメラ本体のハードウェア構成〉
図2は、図1におけるカメラ本体1を構成するレンズ部11およびカメラ部12のハードウェア構成を示すブロック図である。
<Hardware configuration of camera body>
FIG. 2 is a block diagram showing a hardware configuration of the lens unit 11 and the camera unit 12 constituting the camera body 1 in FIG.

レンズ部11は、レンズ31と、レンズ駆動部32を備えている。また、カメラ部12は、イメージセンサ33、カメラ信号処理部34、I/F(インタフェース)部35、制御部36、表示部37および操作部38を備えている。   The lens unit 11 includes a lens 31 and a lens driving unit 32. The camera unit 12 includes an image sensor 33, a camera signal processing unit 34, an I / F (interface) unit 35, a control unit 36, a display unit 37, and an operation unit 38.

レンズ31は、被写体の光学像をイメージセンサ33に結像させる。レンズ駆動部32は、制御部36からのフォーカス位置制御信号に基づいて、レンズ31を光軸方向に変位させることで、レンズ31を所望のフォーカス位置に合わせる。   The lens 31 forms an optical image of the subject on the image sensor 33. The lens drive unit 32 adjusts the lens 31 to a desired focus position by displacing the lens 31 in the optical axis direction based on the focus position control signal from the control unit 36.

イメージセンサ33は、CCD(Charge Coupled Device)やMOS(Metal Oxide Semiconductor)などの撮像素子で構成されており、制御部36からの駆動制御信号に基づいて動作して、光学像をアナログの電気信号(アナログ画像信号)に変換する。   The image sensor 33 is composed of an image sensor such as a CCD (Charge Coupled Device) or a MOS (Metal Oxide Semiconductor), and operates based on a drive control signal from the control unit 36 to convert an optical image into an analog electrical signal. (Analog image signal).

カメラ信号処理部34は、イメージセンサ33からのアナログ画像信号に対して、ノイズ除去、デジタル化、ゲイン調整などの所定のカメラ信号処理を施す。I/F部35は、カメラ信号処理部34から出力される画像データを情報処理装置2へ送出する。また、制御部36と情報処理装置2との間でやりとりされる各種信号(後に詳述)の送受信を行う。   The camera signal processing unit 34 performs predetermined camera signal processing such as noise removal, digitization, and gain adjustment on the analog image signal from the image sensor 33. The I / F unit 35 sends the image data output from the camera signal processing unit 34 to the information processing apparatus 2. In addition, various signals (described later in detail) exchanged between the control unit 36 and the information processing apparatus 2 are transmitted and received.

制御部36は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を内蔵しており、カメラ本体1の全体を制御する。本実施形態では、レンズ部11のフォーカス位置制御およびズーム制御、イメージセンサ33の駆動制御、カメラ信号処理部34の処理パラメータの設定、I/F部35を介する情報処理装置2との各種信号のやりとりを行う。   The control unit 36 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and controls the entire camera body 1. In the present embodiment, focus position control and zoom control of the lens unit 11, drive control of the image sensor 33, setting of processing parameters of the camera signal processing unit 34, and various signals with the information processing apparatus 2 via the I / F unit 35. Communicate.

表示部37は、液晶表示デバイスなどからなり、ユーザがカメラ本体1の状態や撮影画像などを確認するためのユーザインタフェースである。操作部47は、各種ボタンや表示部37上に形成されたタッチパネルからなり、ユーザがカメラ本体1を操作するためのユーザインタフェースである。   The display unit 37 includes a liquid crystal display device and the like, and is a user interface for the user to check the state of the camera body 1 and a captured image. The operation unit 47 includes various buttons and a touch panel formed on the display unit 37 and is a user interface for the user to operate the camera body 1.

〈情報処理装置のハードウェア構成〉
図3は、図1における情報処理装置2のハードウェア構成を示すブロック図である。
図示のように、情報処理装置2は汎用のPCにより実現することができる。すなわち、CPU41、ROM42、RAM43、HDD(Hard Disk Drive)44、およびI/F15がバス40を介して接続された構成を有し、I/F45には表示部46および操作部47が接続されている。
<Hardware configuration of information processing device>
FIG. 3 is a block diagram showing a hardware configuration of the information processing apparatus 2 in FIG.
As illustrated, the information processing apparatus 2 can be realized by a general-purpose PC. That is, the CPU 41, the ROM 42, the RAM 43, the HDD (Hard Disk Drive) 44, and the I / F 15 are connected via the bus 40, and the display unit 46 and the operation unit 47 are connected to the I / F 45. Yes.

CPU41は演算手段であり、情報処理装置2全体の動作を制御する。ROM42は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。RAM43は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU41が情報を処理する際の作業領域として用いられる。   The CPU 41 is a calculation unit and controls the operation of the information processing apparatus 2 as a whole. The ROM 42 is a read-only nonvolatile storage medium, and stores programs such as firmware. The RAM 43 is a volatile storage medium capable of reading and writing information at high speed, and is used as a work area when the CPU 41 processes information.

HDD44は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーションプログラム等が格納されている。これらのプログラムは、CD−ROM、DVD−ROM、フラッシュメモリなどの可搬性を有するコンピュータ読み取り可能な記憶媒体から、それぞれの読取装置により入力される。また、HDD44は、図1における撮影画像ストレージ21として機能する。   The HDD 44 is a nonvolatile storage medium capable of reading and writing information, and stores an OS (Operating System), various control programs, application programs, and the like. These programs are input by each reading device from a portable computer-readable storage medium such as a CD-ROM, a DVD-ROM, or a flash memory. The HDD 44 functions as the captured image storage 21 in FIG.

I/F45は、バス40と各種のハードウェアやネットワーク等を接続し制御する。カメラ本体1との通信もI/F45を介して行われる。なお、カメラ本体1との間の通信は有線通信でもよいし、無線通信でもよい。   The I / F 45 connects and controls the bus 40 and various hardware and networks. Communication with the camera body 1 is also performed via the I / F 45. Note that communication with the camera body 1 may be wired communication or wireless communication.

表示部46は、液晶表示デバイスなどからなり、ユーザが情報処理装置2の状態を確認するためのユーザインタフェースである。操作部47は、キーボードやマウス等、ユーザが情報処理装置2に情報を入力するためのユーザインタフェースである。   The display unit 46 includes a liquid crystal display device and the like, and is a user interface for the user to check the state of the information processing apparatus 2. The operation unit 47 is a user interface such as a keyboard and a mouse for the user to input information to the information processing apparatus 2.

図1における最適フォーカス位置推定部22は、CPU41が、前述した各種プログラムに基づき、RAM43を作業領域として所定の処理を実行することにより実現される機能ブロックである。   The optimum focus position estimation unit 22 in FIG. 1 is a functional block realized by the CPU 41 executing predetermined processing using the RAM 43 as a work area based on the various programs described above.

〈撮影画像およびその時間平均画像〉
図4は、フォーカスが合っているときの撮影画像およびその時間平均画像を示す図であり、図5は、フォーカスが合っていないときの撮影画像およびその時間平均画像を示す図である。
<Photographed image and its time average image>
FIG. 4 is a diagram showing a captured image and its time average image when the focus is in focus, and FIG. 5 is a diagram showing a captured image and its time average image when it is out of focus.

大気の外乱などによって時間的に変化した静止している物体の光学像から生成された撮影画像が歪みやぼけによって劣化した場合に、フレーム間の平均画像は徐々に正しい形状の画像に近づいていくことが一般に知られている。しかし、平均画像は変形、ぼけを積算していくため、正しい形状の画像に比べ、ぼけてコントラストの低い画像に収束していく。   When a captured image generated from an optical image of a stationary object that has changed over time due to atmospheric disturbance or the like is deteriorated due to distortion or blurring, the average image between frames gradually approaches an image of the correct shape. It is generally known. However, since the average image accumulates deformation and blur, the average image converges to an image having a low contrast as compared with an image having a correct shape.

このとき、撮影対象にフォーカスが合っている場合と合っていない場合では、劣化前の画像のぼけ量が違うことにより、収束した平均画像のぼけ量が異なる。すなわち、フォーカスが合っている場合(図4)の方が、フォーカスが合っていない場合(図5)よりもぼけの少ない比較的鮮明な平均画像に収束していく。   At this time, when the subject is in focus and when it is not in focus, the blur amount of the converged average image differs depending on the blur amount of the image before deterioration. That is, the focused image (FIG. 4) converges to a relatively clear average image with less blur than the unfocused image (FIG. 5).

本実施形態に係る撮影システムでは、コントラスト値をフォーカスの度合を示すフォーカス情報として、最適なフォーカス位置を推定する。より詳しくは、フォーカス位置を変化させて撮影した平均画像のコントラスト値を比べていき、コントラスト値が最大になるフォーカス位置を検出することにより、時間的に変形やぼけが変動する場合においても、正しいフォーカス位置を推定することができるようにした。   In the imaging system according to the present embodiment, the optimum focus position is estimated using the contrast value as focus information indicating the degree of focus. More specifically, by comparing the contrast values of the average images taken by changing the focus position and detecting the focus position where the contrast value is maximized, it is correct even when the deformation or blur changes over time. The focus position can be estimated.

〈最適フォーカス位置推定部の機能構成〉
図6は、図1における最適フォーカス位置推定部22の機能構成、その各機能ブロック、およびカメラ部12の動作を示すブロック図である。
<Functional configuration of optimal focus position estimation unit>
FIG. 6 is a block diagram illustrating a functional configuration of the optimum focus position estimation unit 22 in FIG. 1, each functional block thereof, and an operation of the camera unit 12.

最適フォーカス位置推定部22は、撮影画像保存部51、平均画像演算部52、平均画像保存部53、平均画像収束判定部54、コントラスト演算部55、コントラスト値・フォーカス位置保存部56、フォーカス位置推定部57、およびフォーカス位置指定部58を備えている。   The optimum focus position estimation unit 22 includes a captured image storage unit 51, an average image calculation unit 52, an average image storage unit 53, an average image convergence determination unit 54, a contrast calculation unit 55, a contrast value / focus position storage unit 56, and a focus position estimation. A unit 57 and a focus position designation unit 58 are provided.

最適フォーカス位置推定部22を構成する各部について説明する前にカメラ部12と最適フォーカス位置推定部22の概略動作について説明する。
カメラ部12は、最適フォーカス位置推定部22がフォーカス位置を推定する際に、最適フォーカス位置推定部22から取得終了信号を受信するまで撮影を連続して行い、撮像画像を最適フォーカス位置推定部22へ送信する。取得終了信号の受信に応じて撮影を一時停止し、現在のフォーカス位置を表すフォーカス位置情報を最適フォーカス位置推定部22へ送信する。
Before describing each part of the optimum focus position estimation unit 22, the general operation of the camera unit 12 and the optimum focus position estimation unit 22 will be described.
When the optimum focus position estimation unit 22 estimates the focus position, the camera unit 12 continuously performs photographing until an acquisition end signal is received from the optimum focus position estimation unit 22, and the captured image is displayed as the optimum focus position estimation unit 22. Send to. In response to reception of the acquisition end signal, shooting is temporarily stopped, and focus position information indicating the current focus position is transmitted to the optimum focus position estimation unit 22.

その後、最適フォーカス位置推定部22からフォーカス位置情報を受信し、その位置にフォーカス位置を合わせる。同時に取得再開信号を受信している場合、すなわち最適なフォーカス位置の推定が終了していない(受信したフォーカス位置情報が最適なフォーカス位置を表すものではない)場合には、最適なフォーカス位置の推定のための撮影を再度実行する。   Thereafter, the focus position information is received from the optimum focus position estimation unit 22, and the focus position is adjusted to that position. When the acquisition restart signal is received at the same time, that is, when the estimation of the optimum focus position is not completed (the received focus position information does not represent the optimum focus position), the optimum focus position is estimated. Take a picture for again.

フォーカス位置と同時に取得再開信号を受信していない場合、すなわち最適なフォーカス位置の推定が終了した(受信したフォーカス位置情報が最適なフォーカス位置を表している)場合は、その位置にフォーカス位置を合せて撮影を行い、撮影画像を撮影画像ストレージ21に蓄積する。   When the acquisition restart signal is not received at the same time as the focus position, that is, when the optimum focus position has been estimated (the received focus position information indicates the optimum focus position), the focus position is adjusted to that position. Then, the captured image is stored in the captured image storage 21.

次に最適フォーカス位置推定部22を構成する各部について説明する。
撮影画像保存部51は、カメラ部12から順次に出力された複数フレームの撮影画像を保存する。平均画像演算手段としての平均画像演算部52は、撮影画像保存部51に保存されている撮影画像群の平均画像を算出する。平均画像保存部53は、平均画像演算部52により算出された平均画像を保存する。
Next, each part which comprises the optimal focus position estimation part 22 is demonstrated.
The captured image storage unit 51 stores captured images of a plurality of frames sequentially output from the camera unit 12. An average image calculation unit 52 serving as an average image calculation unit calculates an average image of the captured image group stored in the captured image storage unit 51. The average image storage unit 53 stores the average image calculated by the average image calculation unit 52.

平均画像収束検出手段としての平均画像収束判定部54は、平均画像が現在演算した平均画像(現平均画像)と、平均画像保存部53に保存された前回の平均画像(前平均画像)との差異の度合を表す比較値を算出し、比較値が所定の閾値以下であるか否かに基づいて、平均画像が収束しているか否かを判定する。そして、比較値が所定値以下である、すなわち現平均画像が収束していると判定したとき、カメラ部12に取得終了信号を、コントラスト演算部55に演算開始信号をそれぞれ送信する。なお、比較値の具体例については後述する。   An average image convergence determination unit 54 serving as an average image convergence detection unit calculates an average image (current average image) currently calculated by the average image and a previous average image (previous average image) stored in the average image storage unit 53. A comparison value representing the degree of difference is calculated, and it is determined whether or not the average image has converged based on whether or not the comparison value is a predetermined threshold value or less. When it is determined that the comparison value is equal to or smaller than the predetermined value, that is, the current average image has converged, an acquisition end signal is transmitted to the camera unit 12 and a calculation start signal is transmitted to the contrast calculation unit 55. A specific example of the comparison value will be described later.

フォーカス情報算出手段としてのコントラスト演算部55は、平均画像収束判定部54からの演算開始信号を受信して現平均画像のコントラスト値を算出する。コントラスト値は、例えば隣接画素間の輝度差の絶対値和を演算することで算出する。画像のコントラストが高い程、コントラスト値は大きくなる。   A contrast calculation unit 55 as a focus information calculation unit receives the calculation start signal from the average image convergence determination unit 54 and calculates the contrast value of the current average image. The contrast value is calculated, for example, by calculating the sum of absolute values of luminance differences between adjacent pixels. The higher the contrast of the image, the greater the contrast value.

コントラスト値・フォーカス位置保存部56は、コントラスト演算部55で演算された現平均画像のコントラスト値、およびカメラ部12から出力された現撮影画像のフォーカス位置を対応付け、セットとして保存する。   The contrast value / focus position storage unit 56 associates the contrast value of the current average image calculated by the contrast calculation unit 55 with the focus position of the current photographed image output from the camera unit 12 and stores them as a set.

フォーカス位置推定部57は、コントラスト値・フォーカス位置保存部56に所定数のコントラスト値とフォーカス位置のセットが保存されるまでは、次のフォーカス位置を指定するためのフォーカス位置情報をフォーカス位置指定部58へ送出する。   The focus position estimation unit 57 displays the focus position information for specifying the next focus position until the predetermined number of contrast values and focus position sets are stored in the contrast value / focus position storage unit 56. 58.

そして、所定数のコントラスト値とフォーカス位置のセットが保存されたら、コントラスト値が最大のフォーカス位置を最適なフォーカス位置の推定値に決定したことを表す最適フォーカス決定信号、および最適なフォーカス位置を表すフォーカス位置情報をフォーカス位置指定部58へ送出する。   Then, when a set of a predetermined number of contrast values and focus positions is stored, an optimum focus determination signal indicating that the focus position having the maximum contrast value has been determined as the estimated value of the optimum focus position, and the optimum focus position are represented. The focus position information is sent to the focus position designation unit 58.

フォーカス位置指定部58は、フォーカス位置情報を受信したとき、フォーカス位置情報および取得再開信号をカメラ部12へ送信する。また、フォーカス位置情報および最適フォーカス決定信号を受信したときは、フォーカス位置情報をカメラ部12へ送信する。   When the focus position specifying unit 58 receives the focus position information, the focus position specifying unit 58 transmits the focus position information and the acquisition restart signal to the camera unit 12. When the focus position information and the optimum focus determination signal are received, the focus position information is transmitted to the camera unit 12.

〈最適位置推定部の動作〉
図7は、図6に示す最適フォーカス位置推定部22の各機能ブロックおよびカメラ部12の処理の流れを示すフローチャートである。
<Operation of optimal position estimation unit>
FIG. 7 is a flowchart showing a process flow of the functional blocks of the optimum focus position estimation unit 22 and the camera unit 12 shown in FIG.

まずカメラ部12では、撮影対象に合わせてズームを行う(ステップS1)。すなわち、ユーザが表示部37に表示されている撮影対象の画像を見ながら操作部38からズーム操作のための入力を行うと、制御部36はレンズ駆動部32を制御してレンズ31を駆動させ、ズームを行う。次にカメラ部12では、レンズ駆動部32を制御してレンズ31を駆動させ、適当なフォーカス位置に合わせる(ステップS2)。   First, the camera unit 12 performs zooming according to the object to be photographed (step S1). That is, when the user performs an input for a zoom operation from the operation unit 38 while viewing the image to be photographed displayed on the display unit 37, the control unit 36 controls the lens driving unit 32 to drive the lens 31. , Zoom. Next, in the camera unit 12, the lens drive unit 32 is controlled to drive the lens 31, and to adjust to an appropriate focus position (step S2).

次にカメラ部12では、画像を撮影する(ステップS3)。撮影画像は最適フォーカス位置推定部22へ送信され、撮影画像保存部51により保存される。次いで、平均画像演算部52が、これまで保存された撮影画像を使用して、平均画像を算出する(ステップS4)。算出された平均画像は平均画像保存部53により保存される。   Next, the camera unit 12 takes an image (step S3). The captured image is transmitted to the optimum focus position estimation unit 22 and stored by the captured image storage unit 51. Next, the average image calculation unit 52 calculates an average image using the captured images stored so far (step S4). The calculated average image is stored by the average image storage unit 53.

次に平均画像収束判定部54が、今回算出された現在の平均画像と、平均画像保存部53に保存された前回の平均画像とを比較し、比較値を算出する(ステップS5)。ここでは、比較値は今回と平均画像と前回の平均画像の各画素の画素値(輝度値等)の差分値の総和(累積値)を用いる。次いで平均画像収束判定部54は、比較値が所定の閾値以下であるか否かに基づいて、平均画像の収束判定(平均画像が収束しているか否かの判定)を行う(ステップS6)。   Next, the average image convergence determination unit 54 compares the current average image calculated this time with the previous average image stored in the average image storage unit 53, and calculates a comparison value (step S5). Here, as the comparison value, the total sum (cumulative value) of the difference values of the pixel values (luminance values, etc.) of each pixel of the current average image and the previous average image is used. Next, the average image convergence determination unit 54 performs average image convergence determination (determination as to whether the average image has converged) based on whether the comparison value is equal to or less than a predetermined threshold (step S6).

判定の結果、比較値が閾値より大きければ(ステップS6:No)、現平均画像は収束していないと判定し、ステップS3に戻る。また判定の結果、比較値が閾値以下であれば(ステップS6:Yes)、現平均画像は収束していると判定し、取得終了信号をカメラ部12へ送信し、演算開始信号をコントラスト演算部55へ送信して、ステップS7に進む。   As a result of the determination, if the comparison value is larger than the threshold value (step S6: No), it is determined that the current average image has not converged, and the process returns to step S3. As a result of the determination, if the comparison value is equal to or smaller than the threshold value (step S6: Yes), it is determined that the current average image has converged, an acquisition end signal is transmitted to the camera unit 12, and a calculation start signal is used as the contrast calculation unit. Then, the process proceeds to step S7.

ステップS7では、コントラスト演算部55が現平均画像のコントラスト値を算出する。次にコントラスト値・フォーカス位置保存部56が、コントラスト演算部55により算出された現平均画像のコントラスト値と、カメラ部12から送信されたフォーカス位置を対応付け、セットとして保存する(ステップS8)。   In step S7, the contrast calculator 55 calculates the contrast value of the current average image. Next, the contrast value / focus position storage unit 56 associates the contrast value of the current average image calculated by the contrast calculation unit 55 with the focus position transmitted from the camera unit 12 and stores it as a set (step S8).

次にフォーカス位置推定部57は、コントラスト値・フォーカス位置保存部56に保存されている複数のコントラスト値とフォーカス位置のセットから、最適なフォーカス位置を推定するためのセットのサンプルを十分採集できたか否かを判定する(ステップS9、フォーカスサンプルの充足判定)。ここで、十分採集できたか否かは、セット数が所定値以上か否かに基づいて判定する。   Next, has the focus position estimation unit 57 been able to sufficiently collect a set of samples for estimating the optimum focus position from a plurality of contrast values and focus position sets stored in the contrast value / focus position storage unit 56? It is determined whether or not (step S9, satisfaction determination of focus sample). Here, whether or not sufficient collection has been performed is determined based on whether or not the number of sets is equal to or greater than a predetermined value.

判定の結果、サンプル数が足りなければ(ステップS9:No)、フォーカス位置を少しずらし(ステップS10)、ステップS3に戻る。一方、サンプル数が足りていれば(ステップS9:Yes)、ステップS11に進む   If the number of samples is insufficient as a result of the determination (step S9: No), the focus position is slightly shifted (step S10), and the process returns to step S3. On the other hand, if the number of samples is sufficient (step S9: Yes), the process proceeds to step S11.

ステップS11では、最適なフォーカス位置を推定する。すなわち、フォーカス位置推定部57は、コントラスト値・フォーカス位置保存部56に保存されている複数のコントラスト値とフォーカス位置のセットを用いてコントラスト値が最大となるフォーカス位置を最適なフォーカス位置と推定し(推定方法については後述する)。   In step S11, an optimum focus position is estimated. That is, the focus position estimation unit 57 estimates the focus position at which the contrast value is maximum as the optimum focus position using a set of a plurality of contrast values and focus positions stored in the contrast value / focus position storage unit 56. (The estimation method will be described later).

次にカメラ部12を最適なフォーカス位置に合わせる(ステップS12)。すなわち、ステップS11で推定されたフォーカス位置を表すフォーカス位置情報をフォーカス位置指定部58がカメラ部12に通知し、カメラ部12が通知されたフォーカス位置に合わせる。   Next, the camera unit 12 is adjusted to the optimum focus position (step S12). That is, the focus position designation unit 58 notifies the camera unit 12 of the focus position information representing the focus position estimated in step S11, and the camera unit 12 matches the notified focus position.

以上の処理フローを行うことにより、時間的に変動する歪みやぼけにより撮影画像が劣化してしまう場合においても、正しいフォーカス位置に合わせることができる。   By performing the above processing flow, even when the captured image is deteriorated due to temporally varying distortion or blur, it is possible to adjust to the correct focus position.

〈平均画像の収束判定法〉
平均画像の収束判定については、単純に現平均画像と前平均画像の各画素の画素値の差分値を累積し、それを閾値と比較する方法という方法を挙げたが、これ以外にも下記のような二つの方法がある。
<Method of judging convergence of average image>
Regarding the convergence determination of the average image, the method of simply accumulating the difference value of the pixel values of each pixel of the current average image and the previous average image and comparing it with the threshold value was mentioned. There are two methods.

一つ目は、陽炎のような時間的に変動する画像変形の変形量は正規分布に近づくという性質を利用し、画像内のある特徴点の変形量を測定・記録し、その変形量の群と正規分布との類似度を閾値と比較する方法である。類似度が所定の閾値を超えたとき、収束したと判定する。ここで、特徴点としては、被写体の外縁(例えば図4および図5に示す画像の場合、車両のルーフなど)上の一つ以上の点を採用することができる。また、変形量は、最初のフレームの撮影画像内の特徴点の位置に対する変形量を採用することができる。また、正規分布との類似度については、尖度(分布のとがり具合)および歪度(分布の左右の歪)に基づいて、例えば以下のように判定する。すなわち、変形量の標本の尖度と正規分布の尖度(=3)と差が閾値内、かつ変形量の標本の歪度と正規分布の歪度との差が閾値(例えば0.2〜0.4程度)内であれば、正規分布に類似していると判定する。   The first is to measure and record the amount of deformation of a certain feature point in the image, using the property that the amount of deformation of the image deformation that varies with time, such as a heat wave, approaches a normal distribution. And the normal distribution are compared with a threshold value. When the degree of similarity exceeds a predetermined threshold, it is determined that the convergence has occurred. Here, as the feature point, one or more points on the outer edge of the subject (for example, the roof of the vehicle in the case of the images shown in FIGS. 4 and 5) can be adopted. As the deformation amount, the deformation amount with respect to the position of the feature point in the captured image of the first frame can be adopted. Also, the similarity with the normal distribution is determined as follows, for example, based on the kurtosis (the sharpness of the distribution) and the skewness (the left and right distortion of the distribution). That is, the difference between the kurtosis of the deformation sample and the kurtosis (= 3) of the normal distribution is within the threshold value, and the difference between the skewness of the deformation sample and the normal distribution is the threshold value (for example, 0.2 to If it is within about 0.4), it is determined that the distribution is similar to the normal distribution.

二つ目は、現平均画像と前平均画像の一部の領域(例えば図4および図5に示す画像の場合、被写体である車両の画像の一部)の各画素の差分値を累積し、それを閾値と比較する方法である。この方法は、精度が落ちる可能性はあるものの、前記の各画素値の差分を計算する方法、および測定した変形量が正規分布に近づいたか否かで判定する方法と比べると演算が軽いという利点がある。   The second is to accumulate the difference value of each pixel in a partial area of the current average image and the previous average image (for example, in the case of the images shown in FIGS. 4 and 5, a part of the image of the vehicle that is the subject), It is a method of comparing it with a threshold value. Although this method may reduce the accuracy, it is advantageous in that the calculation is lighter than the method of calculating the difference between the pixel values and the method of determining whether the measured deformation amount is close to the normal distribution. There is.

〈フォーカス位置推定部における推定方法〉
図8は、図6におけるフォーカス位置推定部57が最適なフォーカス位置を推定する方法について説明するための図である。この図において、横軸はフォーカス位置、縦軸は収束した平均画像のコントラスト値である。
<Estimation method in the focus position estimation unit>
FIG. 8 is a diagram for explaining a method in which the focus position estimation unit 57 in FIG. 6 estimates an optimum focus position. In this figure, the horizontal axis represents the focus position, and the vertical axis represents the contrast value of the converged average image.

フォーカス位置と各フォーカス位置での収束した平均画像のコントラスト値のセットを複数回採集すると、図示のように、(横軸,縦軸)=(サンプル済の各フォーカス位置,各フォーカス位置での収束した平均画像のコントラスト)を通る上に凸な近似曲線が描ける。この近似曲線において、コントラスト値が最大となるフォーカス位置を求め、最適なフォーカス位置として推定することができる。   When a set of the contrast value of the average image converged at the focus position and each focus position is collected a plurality of times, as shown in the figure, (horizontal axis, vertical axis) = (converged at each sampled focus position, each focus position) A convex approximate curve that passes through the contrast of the average image) can be drawn. In this approximate curve, the focus position where the contrast value is maximized can be obtained and estimated as the optimum focus position.

このように、本発明の実施形態に係る撮影システムによれば、ピントの合う最適なフォーカス位置の探索時に、任意の複数のフォーカス位置で十分な枚数の撮影を行い、その全ての撮影画像から平均画像のコントラスト値を算出し、他のフォーカス位置での同様の算出結果と比較して、ピントが合っているといえる、最も平均画像のコントラスト値の高い、最適なフォーカス位置に合わせるので、変形やぼけが時間的に変動する対象物を最適なフォーカス位置で撮影することができる。   As described above, according to the imaging system according to the embodiment of the present invention, when searching for an optimum focus position in focus, a sufficient number of images are captured at any of a plurality of focus positions, and an average is obtained from all the captured images. The contrast value of the image is calculated, and compared with the same calculation result at other focus positions, the focus value can be said to be in focus. An object whose blur varies with time can be photographed at an optimum focus position.

なお、以上説明した本発明の実施形態に係る撮影システムでは、カメラ本体1と別体の情報処理装置2が撮影画像ストレージ21および最適フォーカス位置推定部22を有する構成としたが、下記(1)〜(3)のように構成することもできる。
(1)カメラ本体が撮影画像蓄積部を有し、情報処理装置が最適フォーカス位置調整部を有する構成。
(2)カメラ本体が撮影画像蓄積部および最適フォーカス位置調整部を有する構成。この構成では、撮影装置としてのカメラ本体が情報処理装置の機能を備えているので、情報処理装置は不要となる。
(3)最適フォーカス位置推定部の少なくとも一部をハードウェアとする構成。
In the imaging system according to the embodiment of the present invention described above, the information processing device 2 separate from the camera body 1 has the captured image storage 21 and the optimum focus position estimation unit 22, but the following (1) It can also be configured as in (3).
(1) A configuration in which the camera body has a captured image storage unit and the information processing apparatus has an optimum focus position adjustment unit.
(2) A configuration in which the camera body includes a captured image storage unit and an optimum focus position adjustment unit. In this configuration, since the camera body as the photographing apparatus has the function of the information processing apparatus, the information processing apparatus becomes unnecessary.
(3) A configuration in which at least a part of the optimum focus position estimation unit is hardware.

1…カメラ本体、2…情報処理装置、12…カメラ部、22…最適フォーカス位置推定部、52…平均画像演算部、54…平均画像収束判定部、55…コントラスト演算部、56…コントラスト値・フォーカス位置保存部、57…フォーカス位置推定部、58…フォーカス位置指定部。   DESCRIPTION OF SYMBOLS 1 ... Camera body, 2 ... Information processing apparatus, 12 ... Camera part, 22 ... Optimum focus position estimation part, 52 ... Average image calculation part, 54 ... Average image convergence determination part, 55 ... Contrast calculation part, 56 ... Contrast value Focus position storage unit 57... Focus position estimation unit 58.

特開2012−104018号公報JP2012-104018A

Claims (10)

撮影対象物に対するフォーカス位置を変更可能な撮影手段と、
前記撮影手段により複数のフォーカス位置でそれぞれ取得された撮影画像から、前記複数のフォーカス位置それぞれにおけるフォーカスの度合を示すフォーカス情報を算出するフォーカス情報算出手段と、
前記フォーカス情報算出手段により算出された複数のフォーカス位置それぞれにおけるフォーカス情報に基づいて、前記撮影対象物に対するフォーカス位置を決定するフォーカス位置決定手段と、
を有する撮影システム。
Photographing means capable of changing a focus position with respect to a photographing object;
Focus information calculating means for calculating focus information indicating the degree of focus at each of the plurality of focus positions from the captured images respectively acquired at the plurality of focus positions by the imaging means;
A focus position determination unit that determines a focus position for the object to be photographed based on focus information at each of a plurality of focus positions calculated by the focus information calculation unit;
A shooting system.
請求項1に記載された撮影システムにおいて、
前記それぞれ取得された撮影画像の平均画像を算出する平均画像演算手段を有し、前記フォーカス情報算出手段は、前記平均画像から前記フォーカス情報を算出する撮影システム。
In the imaging system according to claim 1,
The imaging system includes an average image calculation unit that calculates an average image of the acquired captured images, and the focus information calculation unit calculates the focus information from the average image.
請求項2に記載された撮影システムにおいて、
前記平均画像の収束を検出する平均画像収束検出手段を有し、前記フォーカス情報算出手段は、前記平均画像収束検出手段により収束が検出された平均画像から前記フォーカス情報を算出する撮影システム。
In the imaging system according to claim 2,
An imaging system comprising: average image convergence detection means for detecting convergence of the average image, wherein the focus information calculation means calculates the focus information from the average image whose convergence has been detected by the average image convergence detection means.
請求項3に記載された撮影システムにおいて、
前記平均画像収束検出手段は、現在のフレームまでの撮影画像の平均画像と前のフレームまでの撮影画像の平均画像との差異の度合に基づいて、現在のフレームまでの平均画像の収束を検出する撮影システム。
In the imaging system according to claim 3,
The average image convergence detection means detects the convergence of the average image up to the current frame based on the degree of difference between the average image of the captured image up to the current frame and the average image of the captured image up to the previous frame. Shooting system.
請求項4に記載された撮影システムにおいて、
前記平均画像収束検出手段は、現在のフレームまでの撮影画像の平均画像の少なくとも一部の画素と前のフレームまでの撮影画像の平均画像の少なくとも一部の画素との差分値を前記差異の度合とする撮影システム。
The imaging system according to claim 4,
The average image convergence detection means calculates a difference value between a difference value between at least some pixels of the average image of the photographed image up to the current frame and at least some pixels of the average image of the photographed image up to the previous frame. Shooting system.
請求項3に記載された撮影システムにおいて、
前記平均画像収束検出手段は、前記複数ずつ取得された撮影画像内の特徴点の変形量の分布と正規分布との類似度に基づいて、平均画像の収束を検出する撮影システム。
In the imaging system according to claim 3,
The average image convergence detection means is a photographing system that detects convergence of an average image based on a similarity between a distribution of deformation amounts of feature points in the photographed images acquired by the plurality and a normal distribution.
撮影対象物に対するフォーカス位置を変更可能な撮影手段と、
前記撮影手段により複数のフォーカス位置でそれぞれ取得された撮影画像から、前記複数のフォーカス位置それぞれにおけるフォーカスの度合を示すフォーカス情報を算出するフォーカス情報算出手段と、
前記フォーカス情報算出手段により算出された複数のフォーカス位置それぞれにおけるフォーカス情報に基づいて、前記撮影対象物に対するフォーカス位置を決定するフォーカス位置決定手段と、
を有する撮影装置。
Photographing means capable of changing a focus position with respect to a photographing object;
Focus information calculating means for calculating focus information indicating the degree of focus at each of the plurality of focus positions from the captured images respectively acquired at the plurality of focus positions by the imaging means;
A focus position determination unit that determines a focus position for the object to be photographed based on focus information at each of a plurality of focus positions calculated by the focus information calculation unit;
A photographing apparatus having
撮影対象物に対するフォーカス位置を変更可能な撮影手段により実行される撮影方法であって、
複数の異なるフォーカス位置で前記撮影対象物の撮影を行い、それぞれ撮影画像を取得するステップと、
前記それぞれ取得された撮影画像から、前記複数のフォーカス位置それぞれにおけるフォーカスの度合を示すフォーカス情報を算出するステップと、
前記複数のフォーカス位置それぞれにおけるフォーカス情報に基づいて、前記撮影対象物に対するフォーカス位置を決定するステップと、
を有する撮影方法。
An imaging method executed by an imaging means capable of changing a focus position with respect to an imaging object,
Taking a picture of the object to be photographed at a plurality of different focus positions and obtaining a photographed image respectively;
Calculating focus information indicating the degree of focus at each of the plurality of focus positions from the acquired captured images;
Determining a focus position for the object to be photographed based on focus information at each of the plurality of focus positions;
A photographing method comprising:
コンピュータを請求項1に記載された撮影システムにおけるフォーカス情報算出手段およびフォーカス位置決定手段として機能させるためのプログラム。   A program for causing a computer to function as focus information calculation means and focus position determination means in the photographing system according to claim 1. 請求項9に記載されたプログラムが記憶されたコンピュータ読み取り可能な記憶媒体。
A computer-readable storage medium storing the program according to claim 9.
JP2015084690A 2015-04-17 2015-04-17 Imaging system, imaging device, imaging method, program and storage medium Pending JP2016206281A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015084690A JP2016206281A (en) 2015-04-17 2015-04-17 Imaging system, imaging device, imaging method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015084690A JP2016206281A (en) 2015-04-17 2015-04-17 Imaging system, imaging device, imaging method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2016206281A true JP2016206281A (en) 2016-12-08

Family

ID=57489817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015084690A Pending JP2016206281A (en) 2015-04-17 2015-04-17 Imaging system, imaging device, imaging method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2016206281A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159336A1 (en) * 2016-03-18 2017-09-21 富士フイルム株式会社 Focal position detection device and focal position detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159336A1 (en) * 2016-03-18 2017-09-21 富士フイルム株式会社 Focal position detection device and focal position detection method
JPWO2017159336A1 (en) * 2016-03-18 2018-09-13 富士フイルム株式会社 Focus position detection apparatus and focus position detection method
US10771673B2 (en) 2016-03-18 2020-09-08 Fujifilm Corporation Focusing position detecting device and focusing position detecting method

Similar Documents

Publication Publication Date Title
JP6271990B2 (en) Image processing apparatus and image processing method
US8615111B2 (en) Method and apparatus for image detection with undesired object removal
CN107223330B (en) Depth information acquisition method and device and image acquisition equipment
CN110536057B (en) Image processing method and device, electronic equipment and computer readable storage medium
TWI425828B (en) Image capturing apparatus, method for determing image area ,and computer-readable recording medium
WO2016112704A1 (en) Method and device for adjusting focal length of projector, and computer storage medium
CN111726521B (en) Photographing method and photographing device of terminal and terminal
JP2011244046A (en) Imaging apparatus, image processing method, and program storage medium
US8965105B2 (en) Image processing device and method
US8436906B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2015012480A (en) Image processing apparatus and image processing method
US20190230269A1 (en) Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium
US20160150158A1 (en) Photographing apparatus and method for controlling thereof
JP6504036B2 (en) Movement detection apparatus, movement detection method, and program
JP6582926B2 (en) Movement information acquisition apparatus, movement information acquisition method, and program
JP6391304B2 (en) Imaging apparatus, control method, and program
JP2016206281A (en) Imaging system, imaging device, imaging method, program and storage medium
JP6486453B2 (en) Image processing apparatus, image processing method, and program
CN106454066B (en) Image processing apparatus and control method thereof
KR20100115574A (en) Digital camera and controlling method thereof
JP4969349B2 (en) Imaging apparatus and imaging method
JP6210214B2 (en) Main subject estimation apparatus, program, and information processing apparatus
JP6381212B2 (en) Imaging apparatus and control method thereof
JP6565991B2 (en) Electronic device, subject detection method and program.
US20220272274A1 (en) Imaging device, storage medium, and method of controlling imaging device