JP2011164428A - Imaging apparatus and control method for the imaging apparatus - Google Patents

Imaging apparatus and control method for the imaging apparatus Download PDF

Info

Publication number
JP2011164428A
JP2011164428A JP2010028208A JP2010028208A JP2011164428A JP 2011164428 A JP2011164428 A JP 2011164428A JP 2010028208 A JP2010028208 A JP 2010028208A JP 2010028208 A JP2010028208 A JP 2010028208A JP 2011164428 A JP2011164428 A JP 2011164428A
Authority
JP
Japan
Prior art keywords
image
focal length
specified
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010028208A
Other languages
Japanese (ja)
Inventor
Kimitaka Arai
公崇 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010028208A priority Critical patent/JP2011164428A/en
Publication of JP2011164428A publication Critical patent/JP2011164428A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for bringing a subject into focus by appropriately performing focus feeding, even when the focal length to the subject is changed, before and after focus feeding. <P>SOLUTION: A blurred image is generated by applying a blurring filter to an image of the subject (S502). An area most matching with the blurred image in an input image is specified, and a matching degree indicating the degree of matching is obtained (S503 to S508). The blurred image in which the maximum matching degree is calculated, among the formed blurred images, is specified; the blurring filter used for forming the specified blurred image is specified; and then the focal length set with the specified blurring filter is specified (S509). A location in an area that matches most with the specified blurred image in the input image is brought into focus by using the specified focal length. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、フォーカス制御技術に関するものである。   The present invention relates to a focus control technique.

動画像の撮影において、手前の被写体から奥の被写体へあるいはその逆に意図的にピントを送るフォーカス送りと呼ばれる撮影手法がある。このような撮像を行うために、フィルム映画やデジタルシネマの撮影では、あらかじめフォーカスマンと呼ばれるスタッフがタイミングを計りながらフォーカスリングをマニュアルで行うことでフォーカス送りを行っている。これらの作業を簡便化するため、例えば、特許文献1のように、あらかじめフォーカス位置をマニュアルでプリセットし、オペレータのボタン押下操作でプリセットしてあるフォーカス位置にフォーカシングするレンズが提案されている。また、別の方法として、特許文献2のように手動で2点を設置し、タイムラインに合わせてフォーカス送りを行うカメラが提案されている。   In moving image shooting, there is a shooting technique called focus feed that intentionally moves the focus from the front subject to the back subject or vice versa. In order to perform such imaging, in film movie and digital cinema shooting, a staff member called a focusman performs focus feed manually by manually performing a focus ring while measuring timing. In order to simplify these operations, for example, as in Patent Document 1, a lens is proposed in which the focus position is manually preset in advance and focused to the focus position preset by the operator's button press operation. As another method, there has been proposed a camera that manually installs two points as in Patent Document 2 and performs focus feed in accordance with a timeline.

特開平11-248667号公報Japanese Patent Laid-Open No. 11-248667 特開2002-139665号公報JP 2002-139665 A

しかし、上記の従来技術はいずれも、構図内の2次元的な空間位置に対してフォーカス位置をプリセットするため、被写体に対する焦点距離がフォーカスを送る前後で変わる場合には、フォーカスを合わせることができない。また、プリセット時のフォーカス距離を維持する必要があり、そのためにはアングルを固定する必要があり、その為にカメラ以外に固定用の機材(三脚等)が必須であり、パンチルトでは自動雲台での駆動制御が必要となる。   However, since all of the above prior arts preset the focus position with respect to the two-dimensional spatial position in the composition, the focus cannot be adjusted when the focal length with respect to the subject changes before and after the focus is sent. . In addition, it is necessary to maintain the focus distance at the time of presetting. For this purpose, it is necessary to fix the angle. For this reason, fixing equipment (such as a tripod) is essential in addition to the camera. Drive control is required.

本発明は以上の問題に鑑みてなされたものであり、被写体に対する焦点距離がフォーカス送りの前後で変わってしまっても、適正にフォーカス送りを行い、この被写体に対してピントを合わせる為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique for properly performing focus feed and focusing on this subject even if the focal length of the subject changes before and after focus feed. The purpose is to provide.

本発明の目的を達成するために、例えば、本発明の撮像装置は次の構成を備える。即ち、撮像装置であって、焦点距離と、該焦点距離に対して予め設定された暈けフィルタと、のセットを、異なる焦点距離毎に保持する保持手段と、被写体の画像を保持する画像保持手段と、前記保持手段が保持するそれぞれのセットについて、該セット中の暈けフィルタを前記被写体の画像に適用した暈け画像を生成する生成手段と、前記撮像装置の撮像センサを介して連続的に入力される入力画像を取得する取得手段と、前記入力画像において前記暈け画像と最も一致する領域を特定し、該一致の度合いを示す一致度を求める計算手段と、前記生成手段が生成したそれぞれの暈け画像のうち前記計算手段が最大の一致度を計算した暈け画像を特定し、該特定した暈け画像を生成するために前記生成手段が用いた暈けフィルタを特定し、該特定した暈けフィルタとセットになっている焦点距離を特定する特定手段と、前記入力画像内で前記特定手段が特定した暈け画像と最も一致する領域の位置に対して、前記特定手段が特定した焦点距離を用いてピントを合わせる制御手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, an imaging apparatus of the present invention comprises the following arrangement. That is, in the imaging apparatus, holding means for holding a set of a focal length and a blur filter preset for the focal length for each different focal length, and image holding for holding an image of a subject And means for generating a blurred image by applying a blur filter in the set to the image of the subject for each set held by the holding means, and an imaging sensor of the imaging device. Generated by the generation unit, an acquisition unit that acquires an input image input to the input unit, a calculation unit that identifies a region that most closely matches the blurred image in the input image, and obtains a degree of matching that indicates the degree of matching Identifying a blur image for which the calculation means has calculated the maximum degree of coincidence among the respective blur images, identifying a blur filter used by the generation means to generate the identified blur image, and The specifying means for specifying the focal length set with the specified blur filter, and the specifying means for the position of the area in the input image that most closely matches the blur image specified by the specifying means And a control means for focusing using the focal length.

本発明の構成により、被写体に対する焦点距離がフォーカス送りの前後で変わってしまっても、適正にフォーカス送りを行い、この被写体に対してピントを合わせることができる。   According to the configuration of the present invention, even if the focal length with respect to the subject changes before and after the focus feed, the focus feed can be performed appropriately and the subject can be focused.

撮像装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating a functional configuration example of an imaging apparatus. GUIの構成例を示す図。The figure which shows the structural example of GUI. 状態遷移図。State transition diagram. 被写体位置更新部116の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of a subject position update unit. 被写体位置更新部116が行う処理のフローチャート。10 is a flowchart of processing performed by the subject position update unit.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

先ず、本実施形態に係る撮像装置について図1を用いて説明する。被写体199を含む外界からの光(点線)は、レンズ、シャッター、撮像センサ等から成る撮像部101によりアナログ信号に変換される。A/D変換部102はこのアナログ信号をディジタル信号(画像のデータ)に変換する。   First, the imaging apparatus according to the present embodiment will be described with reference to FIG. Light (dotted line) from the outside including the subject 199 is converted into an analog signal by the imaging unit 101 including a lens, a shutter, an imaging sensor, and the like. The A / D converter 102 converts this analog signal into a digital signal (image data).

信号処理部103は、このディジタル信号に対して各種の処理を行う。信号処理部103は、AF、AE、AWB制御部115、被写体位置更新部116、色変換マトリクス部117、ガンマ変換部118を有する。   The signal processing unit 103 performs various processes on the digital signal. The signal processing unit 103 includes an AF, AE, AWB control unit 115, a subject position update unit 116, a color conversion matrix unit 117, and a gamma conversion unit 118.

AF、AE、AWB制御部115はこのディジタル信号が示す画像を解析し、撮像系制御部110がAF(オートフォーカス)、AE(自動露出)、AWB(オートホワイトバランス)を行う為に必要な情報を収集する。   The AF, AE, and AWB control unit 115 analyzes the image indicated by the digital signal, and information necessary for the imaging system control unit 110 to perform AF (auto focus), AE (automatic exposure), and AWB (auto white balance). To collect.

被写体位置更新部116は、ディジタル信号が示す画像内で次にフォーカスを合わせる位置、及びこの位置に対する焦点距離を求める。被写体位置更新部116の動作についての詳細は後述する。   The subject position update unit 116 obtains the position to be focused next in the image indicated by the digital signal, and the focal length with respect to this position. Details of the operation of the subject position update unit 116 will be described later.

色変換マトリクス部117は、ディジタル信号が示す画像に対して色変換マトリクスを用いて色変換を行う。ガンマ変換部118は、ディジタル信号が示す画像に対してガンマ変換を行う。   The color conversion matrix unit 117 performs color conversion on the image indicated by the digital signal using the color conversion matrix. The gamma conversion unit 118 performs gamma conversion on the image indicated by the digital signal.

D/A変換部104は、このディジタル信号をアナログ信号に変換する。表示部114は、このアナログ信号に基づく画像表示を行う。これにより、撮像装置の撮像センサを介して連続的に入力される入力画像を動画像として表示部114に表示することができる。なお、この表示部114には、キャラクタジェネレーション部112から送出された文字やウィンドウなども表示することができる。   The D / A converter 104 converts this digital signal into an analog signal. The display unit 114 performs image display based on the analog signal. Thereby, the input image continuously input via the imaging sensor of the imaging device can be displayed on the display unit 114 as a moving image. The display unit 114 can also display characters and windows sent from the character generation unit 112.

エンコーダ部105は、信号処理部103による処理済みの画像のデータを符号化し、その符号化結果をRAM109やメディアI/F(インターフェース)106に接続されたメディア等に送出する。   The encoder unit 105 encodes the image data processed by the signal processing unit 103 and sends the encoded result to a medium connected to the RAM 109 or the media I / F (interface) 106.

CPU107は、撮像装置を構成する各部の動作制御を行う。ROM108には、予め作成された情報や、撮像装置の動作制御をCPU107に実行させるためのコンピュータプログラムなどが格納されている。RAM109は、CPU107が各種の処理を実行する際に用いるワークエリアや、様々な情報を一時的に記憶する為のエリア等を有する。   The CPU 107 controls the operation of each unit constituting the imaging apparatus. The ROM 108 stores information created in advance, a computer program for causing the CPU 107 to perform operation control of the imaging apparatus, and the like. The RAM 109 has a work area used when the CPU 107 executes various processes, an area for temporarily storing various information, and the like.

撮像系制御部110は、撮像部101の動作制御を行う。操作部111は、ボタン群などのユーザインターフェースにより構成されており、ユーザはこのこの操作部111を用いて各種の入力指示を行う。なお、表示部114がタッチパネル式の画面である場合には、操作部111が有するボタンやスライダの一部を画像としてこの表示部114に表示させても良い。この場合、ユーザは、この表示された画像としてのボタンやスライダを指で操作することになる。タイマ113は計時動作を行う。   The imaging system control unit 110 performs operation control of the imaging unit 101. The operation unit 111 includes a user interface such as a button group, and the user uses the operation unit 111 to give various input instructions. In the case where the display unit 114 is a touch panel screen, a part of the buttons and sliders included in the operation unit 111 may be displayed on the display unit 114 as an image. In this case, the user operates the button or slider as the displayed image with a finger. The timer 113 performs a timing operation.

本実施形態では、このような撮像装置を用いて先ず、フォーカスを(ピントを)合わせる位置の設定及びフォーカスを合わせるタイミングの設定を行う。そして、この設定が終わると、動画像の撮像を行うことができる。そして、この動画像の撮像の際、設定した位置に対して、設定したタイミングでフォーカスを合わせる。   In the present embodiment, using such an imaging apparatus, first, a position for focusing (focusing) and a timing for focusing are set. When this setting is completed, a moving image can be captured. When the moving image is captured, the set position is focused at the set timing.

次に、フォーカスを合わせる位置の設定及びフォーカスを合わせるタイミングの設定について、図2、図3を用いて説明する。撮像装置の現状態301においてユーザが操作部111を用いて「フォーカスを合わせる位置の設定及びフォーカスを合わせるタイミングの設定」を行う旨の指示を入力すると、CPU107は、撮像装置の状態を状態302に遷移させる。状態302では、CPU107は、図2に示すGUI(グラフィカルユーザインターフェース)200を表示部114に表示させる。GUI200において領域201内には、D/A変換部104から順次送出されるアナログ信号に基づく画像が表示される。これにより領域201内には、撮像装置の撮像センサを介して連続的に入力される入力画像が動画像として表示されることになる。更にこの動画像上の任意の位置にはウィンドウ206,207を重畳表示させる。ボタン202,203,204、スライダ205、ウィンドウ206,207はキャラクタジェネレーション部112から送出されたものを用いている。   Next, setting of a focus adjustment position and focus adjustment timing will be described with reference to FIGS. When the user inputs an instruction to perform “setting of focus position and focus timing setting” using the operation unit 111 in the current state 301 of the imaging apparatus, the CPU 107 changes the state of the imaging apparatus to the state 302. Transition. In the state 302, the CPU 107 causes the display unit 114 to display a GUI (graphical user interface) 200 shown in FIG. In the GUI 200, an image based on analog signals sequentially transmitted from the D / A conversion unit 104 is displayed in the area 201. As a result, in the area 201, an input image continuously input via the imaging sensor of the imaging device is displayed as a moving image. Further, windows 206 and 207 are superimposed and displayed at arbitrary positions on the moving image. The buttons 202, 203, 204, slider 205, and windows 206, 207 are those sent from the character generation unit 112.

ユーザは、ウィンドウ206,207の位置を、操作部111を用いて、若しくは画面上で直接変更(指定)することができる。このウィンドウ206,207は、フォーカスを合わせる被写体が映っている領域を包含するためのものであるので、ユーザはフォーカスを合わせたい被写体が映っている領域を包含するようにウィンドウ206,207を移動させる。CPU107は、この移動操作を検知すると、撮像装置の状態を状態304に遷移させる。状態304では、現在のウィンドウ206、207の位置として保持している状態値を、この操作により更新された状態値に更新する。もちろん、更新されていない場合にはこの更新は行わない。そして撮像装置の状態は再び状態303に戻る。   The user can change (specify) the positions of the windows 206 and 207 using the operation unit 111 or directly on the screen. Since the windows 206 and 207 are intended to include an area in which the subject to be focused is shown, the user moves the windows 206 and 207 so as to include an area in which the subject to be focused is shown. . When the CPU 107 detects this movement operation, the CPU 107 changes the state of the imaging apparatus to the state 304. In the state 304, the state value held as the position of the current window 206, 207 is updated to the state value updated by this operation. Of course, this update is not performed if it has not been updated. Then, the state of the imaging device returns to the state 303 again.

また、ユーザは、ウィンドウ206内の被写体にフォーカスが合った時点から、ウィンドウ207内の被写体(若しくはその逆)にフォーカスを合わせる動作を開始するまでの間の時間を、スライダ205を用いて設定することができる。具体的には、スライダ205の調整部290を、操作部111を用いて、若しくは画面上で直接左右に移動させることで、この時間を増減させることができる。CPU107は、この操作を検知すると、撮像装置の状態を状態306に遷移させる。状態306では、現在の設定時間として保持している状態値を、この操作により更新された状態値に更新する。そして撮像装置の状態は再び状態303に戻る。   Further, the user uses the slider 205 to set the time from when the subject in the window 206 is focused to when the operation for focusing on the subject in the window 207 (or vice versa) is started. be able to. Specifically, this time can be increased or decreased by moving the adjustment unit 290 of the slider 205 to the left or right using the operation unit 111 or directly on the screen. Upon detecting this operation, the CPU 107 changes the state of the imaging device to the state 306. In the state 306, the state value held as the current set time is updated to the state value updated by this operation. Then, the state of the imaging device returns to the state 303 again.

そしてユーザは、ウィンドウ206,207の操作及び時間の設定操作が完了すると、ボタン202を操作部111若しくは画面上で直接指示する。この指示を行うと、CPU107は撮像装置の状態を状態305に遷移させる。   When the operation of the windows 206 and 207 and the time setting operation are completed, the user directly instructs the button 202 on the operation unit 111 or the screen. When this instruction is given, the CPU 107 changes the state of the imaging apparatus to the state 305.

状態305ではCPU107は、設定されたウィンドウ206,207の位置、ウィンドウ206,207内(領域内)の画像(被写体画像)、スライダ205を用いて設定された時間、を、設定情報としてRAM109等のメモリに格納する(画像保持)。なお、このメモリには、ハードディスクなど、撮像装置の電源を切っても情報を保存しておくタイプのメモリを用いることが好ましい。   In the state 305, the CPU 107 uses the position of the set windows 206 and 207, the image (subject image) in the windows 206 and 207 (in the area), and the time set using the slider 205 as setting information in the RAM 109 or the like. Store in memory (image retention). Note that it is preferable to use a memory of a type that stores information even when the power of the imaging apparatus is turned off, such as a hard disk.

また、状態303においてユーザがボタン203を操作部111を用いて、若しくは画面上で直接指示すると、撮像装置の状態は状態307に遷移し、現在行っている操作をキャンセルしてから状態303に戻る。   In addition, when the user instructs the button 203 directly in the state 303 using the operation unit 111 or on the screen, the state of the imaging apparatus transitions to the state 307, cancels the currently performed operation, and returns to the state 303. .

また、状態303においてユーザがボタン204を操作部111を用いて、若しくは画面上で直接指示すると、撮像装置の状態は状態308に遷移し、図2のGUIを用いた設定操作は完了する。これにより表示部114には図2のGUIではなく、領域201内に表示されていた動画像が表示されることになる。   In the state 303, when the user directly instructs the button 204 using the operation unit 111 or on the screen, the state of the imaging apparatus is changed to the state 308, and the setting operation using the GUI of FIG. 2 is completed. Accordingly, the moving image displayed in the area 201 is displayed on the display unit 114 instead of the GUI shown in FIG.

次に、被写体位置更新部116の動作について、図4及び図5を用いて説明する。なお、以降の説明では、撮像装置は現在、ウィンドウ206内の被写体に対してフォーカスを合わせているものとする。   Next, the operation of the subject position update unit 116 will be described with reference to FIGS. In the following description, it is assumed that the imaging apparatus is currently focused on the subject in the window 206.

先ず、ステップS501では、距離画像生成部401は、A/D変換部102から受けた画像を入力画像として取得する。更に距離画像生成部401は、図2のGUIを用いて設定したウィンドウ207の位置、ウィンドウ207内の被写体画像、設定時間、を設定情報として取得する。   First, in step S501, the distance image generation unit 401 acquires an image received from the A / D conversion unit 102 as an input image. Further, the distance image generation unit 401 acquires, as setting information, the position of the window 207, the subject image in the window 207, and the setting time set using the GUI of FIG.

ここで、ROM108には、焦点距離と、「撮像部101の光学系に起因してこの焦点距離で暈ける度合い」を再現するための暈けフィルタと、のセットが、異なる焦点距離毎(例えば1m〜10mの間で1m毎)に格納されている。ここで、ROM108にはN個のセットが格納されているものとし、セットi(1≦i≦N)中(セット中)の焦点距離を焦点距離i、セットi中の暈けフィルタを暈けフィルタiとする。このような情報はPSF情報として知られている。   Here, the ROM 108 has a set of focal lengths and blur filters for reproducing “the degree of blurring at this focal length due to the optical system of the imaging unit 101” for different focal lengths (for example, Between 1 m and 10 m every 1 m). Here, it is assumed that N sets are stored in the ROM 108, the focal length in the set i (1 ≦ i ≦ N) (during the set) is the focal length i, and the blur filter in the set i is installed. Let it be filter i. Such information is known as PSF information.

ステップS502では距離画像生成部401は、ステップS501で取得したウィンドウ207内の被写体画像に対して暈けフィルタiを適用した暈け画像iを生成する処理を、i=1〜Nについて行う。これにより、i=1〜Nについて、焦点距離iに対応する暈け画像iが生成されることになる。   In step S502, the distance image generation unit 401 performs processing for generating a blurred image i obtained by applying the blur filter i to the subject image in the window 207 acquired in step S501 for i = 1 to N. As a result, for i = 1 to N, a blurred image i corresponding to the focal length i is generated.

ステップS503では、距離画像検出部402は、変数iの値を1に初期化する。そして距離画像検出部402は、ステップS504〜S506の処理により、ステップS501で取得した入力画像内で、暈け画像iと最も一致する領域(一致領域i)を特定し、入力画像内での一致領域iの位置、及びこの一致の度合いを示す一致度を求める。   In step S503, the distance image detection unit 402 initializes the value of the variable i to 1. Then, the distance image detection unit 402 identifies the region (matching region i) that most closely matches the blurred image i in the input image acquired in step S501 by the processing of steps S504 to S506, and matches the input image. The degree of coincidence indicating the position of the region i and the degree of coincidence is obtained.

ここで、暈け画像iのx方向のサイズをS、y方向のサイズをT、暈け画像i内の画素位置(α、β)の画素値をQi(α、β)、入力画像のx方向のサイズをX、y方向のサイズをY、入力画像内の画素位置(α、β)の画素値をP(α、β)とする。この場合、入力画像上の座標位置(x、y)に暈け画像iの左上隅を重ねて配置した場合に、暈け画像iと重なる入力画像上の領域とこの暈け画像iとの一致度Sp(x、y)は、以下の式に従って求める。   Here, the size of the blurred image i in the x direction is S, the size in the y direction is T, the pixel value of the pixel position (α, β) in the blurred image i is Qi (α, β), and the x of the input image The size in the direction is X, the size in the y direction is Y, and the pixel value at the pixel position (α, β) in the input image is P (α, β). In this case, when the upper left corner of the blurred image i is placed at the coordinate position (x, y) on the input image, the area on the input image that overlaps the blurred image i matches the blurred image i. The degree Sp (x, y) is obtained according to the following equation.

Figure 2011164428
Figure 2011164428

然るにステップS504では距離画像検出部402はこの式を計算してSp(x、y)を求める。Sp(x、y)は、入力画像上の座標位置(x、y)に暈け画像iの左上隅を重ねて配置した場合に、暈け画像iと重なる入力画像上の領域とこの暈け画像iとで対応する画素毎の差異の合計値を示している。もちろん、一致度を求めるための式はこれに限定するものではない。   However, in step S504, the distance image detection unit 402 calculates this formula to obtain Sp (x, y). Sp (x, y) is an area on the input image that overlaps with the blurred image i and this blur when the upper left corner of the blurred image i is placed at the coordinate position (x, y) on the input image. A total value of differences for each pixel corresponding to the image i is shown. Of course, the formula for obtaining the degree of coincidence is not limited to this.

次に、ステップS505では、距離画像検出部402は、暈け画像iについて現在保持している最大一致度Siと一致度Sp(x、y)との大小比較を行う。この大小比較の結果、Si<Sp(x、y)の場合には処理はステップS506に進み、Si≧Sp(x、y)の場合には処理はステップS507に進む。   Next, in step S505, the distance image detection unit 402 performs a size comparison between the maximum matching score Si currently held for the blurred image i and the matching score Sp (x, y). As a result of the size comparison, if Si <Sp (x, y), the process proceeds to step S506, and if Si ≧ Sp (x, y), the process proceeds to step S507.

ステップS506では、距離画像検出部402は、SiにSp(x、y)を代入してSiを更新すると共に、xm、ymにそれぞれx、yを代入してxm、ymを更新する。 In step S506, the distance image detecting unit 402, Si in Sp (x, y) with by substituting updates Si, xm i, x respectively ym i, by substituting y xm i, update ym i To do.

ステップS507では、距離画像検出部402は、全てのx、yについてステップS504〜S506の処理を行ったか否かを判断する。この判断の結果、全てのx、yについてステップS504〜S506の処理を行った場合には処理はステップS508に進み、行っていない場合には未だ行っていないx、yについてステップS504以降の処理を行う。   In step S507, the distance image detection unit 402 determines whether or not the processing in steps S504 to S506 has been performed for all x and y. As a result of the determination, if the processes of steps S504 to S506 have been performed for all x and y, the process proceeds to step S508. If not, the processes after step S504 are performed for x and y that have not been performed. Do.

ステップS508に進んだ時点で、Siには、入力画像中の画素毎に求めた一致度のうち最大の値を有する一致度が格納されていることになる。そしてxm、ymには、入力画像上における一致領域iの左上隅の座標位置が格納されていることになる。 When the process proceeds to step S508, the coincidence having the maximum value among the coincidence obtained for each pixel in the input image is stored in Si. The xm i, the ym i, so that the upper left corner of the coordinate position of the matching region i in the input image is stored.

ステップS508では、距離画像検出部402は、全てのiについてステップS504〜S507の処理を行ったか否かを判断する。この判断の結果、全てのiについてステップS504〜S507の処理を行った場合には、処理はステップS509に進む。一方、全てのiについてステップS504〜S507の処理を行っていない場合には、未だ行っていないiについてステップS504以降の処理を行う。   In step S508, the distance image detection unit 402 determines whether the processes in steps S504 to S507 have been performed for all i. As a result of this determination, if the processing of steps S504 to S507 has been performed for all i, the processing proceeds to step S509. On the other hand, if the processing of steps S504 to S507 has not been performed for all i, the processing after step S504 is performed for i that has not yet been performed.

ステップS509では被写体位置更新処理部403は、S1〜SNのうち最大値(最も一致していることを示す値)を特定する。ここではSj(jは1〜Nの何れか1つ)が最大値であるとする。この場合、被写体位置更新部116は、入力画像上における一致領域j(左上隅の座標位置をxm、ymとする、ウィンドウ207と同サイズの領域)の位置を、次にフォーカスを合わせる位置として特定する。もちろん、一致領域j内であれば、如何なる位置をフォーカスを合わせる位置として特定しても良い。 In step S509, the subject position update processing unit 403 specifies the maximum value (a value indicating the best match) among S1 to SN. Here, Sj (j is any one of 1 to N) is the maximum value. In this case, the subject position update unit 116 sets the position of the matching area j (an area of the same size as the window 207 where the coordinate position of the upper left corner is xm j , ym j ) on the input image to the next focus position. As specified. Of course, any position within the matching region j may be specified as the position to be focused.

更にステップS509では被写体位置更新処理部403は、焦点距離jを、フォーカスを合わせる位置に対する焦点距離として特定する。即ち、「生成したそれぞれの暈け画像のうち最大の一致度を計算した暈け画像」を生成するために用いた暈けフィルタとセットになっている焦点距離を特定する。   In step S509, the subject position update processing unit 403 specifies the focal length j as the focal length for the position to be focused. That is, the focal length set with the blur filter used to generate the “blurred image for which the maximum degree of coincidence is calculated among the generated blur images” is specified.

従って、図5のフローチャートに従った処理の後、ウィンドウ206内にピントが合ってから図2のGUIで設定した時間だけ経過すると、CPU107は撮像制御部110を制御し、一致領域jの位置に対して、焦点距離jを用いてピントを合わせる。この時間の計時はタイマ113が行う。   Therefore, after the processing according to the flowchart of FIG. 5, when the time set in the GUI of FIG. 2 elapses after focusing in the window 206, the CPU 107 controls the imaging control unit 110 to move to the position of the matching region j. On the other hand, the focal length j is used to focus. This time is counted by the timer 113.

以上の説明により、本実施形態によれば、フォーカス位置にはない被写体を検出することができ、これにより、動的に位置が変化する被写体に対しても、フォーカスを合わせることができる。   As described above, according to the present embodiment, it is possible to detect a subject that is not in the focus position, and thus it is possible to focus on a subject whose position dynamically changes.

なお、本実施形態では、フォーカスを合わせる被写体の数を2としているが、2に限定するものではなく、1でも良いし、3以上の数であっても良い。また、図2に示したGUIは一例であり、同様の目的を達成することができるのであれば、GUIの構成はこれに限定するものではない。   In the present embodiment, the number of subjects to be focused on is 2. However, the number of subjects to be focused is not limited to 2, and may be 1 or 3 or more. The GUI shown in FIG. 2 is an example, and the configuration of the GUI is not limited to this as long as the same purpose can be achieved.

Claims (4)

撮像装置であって、
焦点距離と、該焦点距離に対して予め設定された暈けフィルタと、のセットを、異なる焦点距離毎に保持する保持手段と、
被写体の画像を保持する画像保持手段と、
前記保持手段が保持するそれぞれのセットについて、該セット中の暈けフィルタを前記被写体の画像に適用した暈け画像を生成する生成手段と、
前記撮像装置の撮像センサを介して連続的に入力される入力画像を取得する取得手段と、
前記入力画像において前記暈け画像と最も一致する領域を特定し、該一致の度合いを示す一致度を求める計算手段と、
前記生成手段が生成したそれぞれの暈け画像のうち前記計算手段が最大の一致度を計算した暈け画像を特定し、該特定した暈け画像を生成するために前記生成手段が用いた暈けフィルタを特定し、該特定した暈けフィルタとセットになっている焦点距離を特定する特定手段と、
前記入力画像内で前記特定手段が特定した暈け画像と最も一致する領域の位置に対して、前記特定手段が特定した焦点距離を用いてピントを合わせる制御手段と
を備えることを特徴とする撮像装置。
An imaging device,
Holding means for holding a set of a focal length and a blur filter preset for the focal length for each different focal length;
Image holding means for holding an image of a subject;
For each set held by the holding means, generating means for generating a blur image by applying a blur filter in the set to the image of the subject;
Acquisition means for acquiring an input image continuously input via an imaging sensor of the imaging device;
A calculation means for identifying a region that most closely matches the blurred image in the input image, and calculating a matching degree indicating the degree of matching;
Among the profit images generated by the generating means, the profit image for which the calculating means has calculated the maximum degree of coincidence is specified, and the profit used by the generating means to generate the specified profit image. Identifying means for identifying a filter and identifying a focal length set with the identified blur filter;
Control means for focusing on the position of the region that most closely matches the blurred image specified by the specifying means in the input image using the focal length specified by the specifying means. apparatus.
更に、
前記制御手段が動作するタイミングを設定する手段を備え、
前記制御手段は前記設定されたタイミングで動作することを特徴とする請求項1に記載の撮像装置。
Furthermore,
Means for setting a timing at which the control means operates;
The imaging apparatus according to claim 1, wherein the control unit operates at the set timing.
前記画像保持手段は、前記生成手段、前記計算手段、前記特定手段、前記制御手段が動作する前に前記取得手段が取得した入力画像上でユーザが指定した領域内に映っている被写体の画像を保持していることを特徴とする請求項1または2に記載の撮像装置。   The image holding unit is configured to display an image of a subject appearing in an area designated by a user on an input image acquired by the acquiring unit before the generating unit, the calculating unit, the specifying unit, and the control unit operate. The imaging apparatus according to claim 1, wherein the imaging apparatus is held. 焦点距離と、該焦点距離に対して予め設定された暈けフィルタと、のセットを、異なる焦点距離毎に保持する保持手段と、
被写体の画像を保持する画像保持手段と
を備える撮像装置の制御方法であって、
前記保持手段が保持するそれぞれのセットについて、該セット中の暈けフィルタを前記被写体の画像に適用した暈け画像を生成する生成工程と、
前記撮像装置の撮像センサを介して連続的に入力される入力画像を取得する取得工程と、
前記入力画像において前記暈け画像と最も一致する領域を特定し、該一致の度合いを示す一致度を求める計算工程と、
前記生成工程で生成したそれぞれの暈け画像のうち前記計算工程で最大の一致度を計算した暈け画像を特定し、該特定した暈け画像を生成するために前記生成工程で用いた暈けフィルタを特定し、該特定した暈けフィルタとセットになっている焦点距離を特定する特定工程と、
前記入力画像内で前記特定工程で特定した暈け画像と最も一致する領域の位置に対して、前記特定工程で特定した焦点距離を用いてピントを合わせる制御工程と
を備えることを特徴とする撮像装置の制御方法。
Holding means for holding a set of a focal length and a blur filter preset for the focal length for each different focal length;
An image pickup apparatus control method comprising: an image holding unit that holds an image of a subject,
For each set held by the holding means, a generation step of generating a blur image by applying a blur filter in the set to the image of the subject;
An acquisition step of acquiring an input image continuously input via an imaging sensor of the imaging device;
A step of identifying a region most matching the blurred image in the input image, and calculating a matching degree indicating the degree of matching;
The profit image used in the generation process to identify the profit image for which the maximum degree of coincidence was calculated in the calculation process from among the profit images generated in the generation process, and to generate the identified profit image A specifying step of specifying a filter and specifying a focal length set with the specified blur filter;
A control step of focusing on the position of the region that most closely matches the blurred image specified in the specifying step in the input image using the focal length specified in the specifying step. Control method of the device.
JP2010028208A 2010-02-10 2010-02-10 Imaging apparatus and control method for the imaging apparatus Pending JP2011164428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010028208A JP2011164428A (en) 2010-02-10 2010-02-10 Imaging apparatus and control method for the imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010028208A JP2011164428A (en) 2010-02-10 2010-02-10 Imaging apparatus and control method for the imaging apparatus

Publications (1)

Publication Number Publication Date
JP2011164428A true JP2011164428A (en) 2011-08-25

Family

ID=44595158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010028208A Pending JP2011164428A (en) 2010-02-10 2010-02-10 Imaging apparatus and control method for the imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011164428A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008785A (en) * 2018-07-11 2020-01-16 パナソニックIpマネジメント株式会社 Imaging apparatus
CN113784119A (en) * 2021-09-26 2021-12-10 联想(北京)有限公司 Focusing detection method and device and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139665A (en) * 2000-11-02 2002-05-17 Sony Corp Method and device for imaging
JP2007181184A (en) * 2005-12-02 2007-07-12 Sony Corp Imaging apparatus and method, and method for designing imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139665A (en) * 2000-11-02 2002-05-17 Sony Corp Method and device for imaging
JP2007181184A (en) * 2005-12-02 2007-07-12 Sony Corp Imaging apparatus and method, and method for designing imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008785A (en) * 2018-07-11 2020-01-16 パナソニックIpマネジメント株式会社 Imaging apparatus
JP7002050B2 (en) 2018-07-11 2022-02-10 パナソニックIpマネジメント株式会社 Imaging device
CN113784119A (en) * 2021-09-26 2021-12-10 联想(北京)有限公司 Focusing detection method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
JP6512810B2 (en) Image pickup apparatus, control method and program
JP5895270B2 (en) Imaging device
JP5029137B2 (en) Imaging apparatus and program
JP4843002B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4730478B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5187035B2 (en) Imaging apparatus, image processing apparatus, and image processing program
JP2016012872A (en) Photographing device and photographing method
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP7418104B2 (en) Image processing device and method of controlling the image processing device
JP6357646B2 (en) Imaging device
JP6326631B2 (en) Imaging device
US8462259B2 (en) Focusing image display device and method for displaying same
JP2011164428A (en) Imaging apparatus and control method for the imaging apparatus
JP2011182341A (en) Imaging device and method of controlling imaging device
JP6089232B2 (en) Imaging device
JP2019216398A (en) Imaging apparatus and control method therefor, and program
JP2020043544A (en) Imaging device, control method therefor, program, and storage medium
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP2012027302A (en) Imaging apparatus with projection function
US10681274B2 (en) Imaging apparatus and control method thereof
JP5826309B2 (en) Image processing apparatus and image processing apparatus control method
JP2021002769A (en) Imaging device, control method, and program
JP2019220889A (en) Imaging apparatus, control method for imaging apparatus, and program
JP2018056650A (en) Optical apparatus, imaging apparatus, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140602