JP2010008620A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2010008620A
JP2010008620A JP2008166706A JP2008166706A JP2010008620A JP 2010008620 A JP2010008620 A JP 2010008620A JP 2008166706 A JP2008166706 A JP 2008166706A JP 2008166706 A JP2008166706 A JP 2008166706A JP 2010008620 A JP2010008620 A JP 2010008620A
Authority
JP
Japan
Prior art keywords
area
focus
imaging apparatus
divided
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008166706A
Other languages
Japanese (ja)
Inventor
Ken Kisanuki
健 木佐貫
Yuichi Nonaka
雄一 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008166706A priority Critical patent/JP2010008620A/en
Publication of JP2010008620A publication Critical patent/JP2010008620A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To focus on an object aimed by a user regardless of composition. <P>SOLUTION: A photographed image divided into a plurality of areas is displayed, an area including the object aimed by the user is designated by the user, and a focus lens is moved so as to focus on the basis of focusing information of the detected designated area, so that the user focuses on the aimed object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は,フォーカス機能を有する撮像機器に関するものである。   The present invention relates to an imaging device having a focus function.

デジタルスチルカメラやビデオカメラなどの撮像機器において,焦点を制御するための機能としてオートフォーカス機能がある。オートフォーカス機能は,焦点検出情報を基にフォーカスレンズを移動させることによって被写体に焦点を合わせる。   In an imaging device such as a digital still camera or a video camera, there is an autofocus function as a function for controlling the focus. The autofocus function focuses on a subject by moving a focus lens based on focus detection information.

従来のオートフォーカス機能の制御方式には,赤外線や音波を利用して被写体までの距離を算出するアクティブ方式や,レンズを通った光から合焦しているかを判断する位相差検出方式やコントラスト検出方式などがある。特にコントラスト検出方式は撮像用のセンサを使用して合焦できるので,他の方式に比べて開発コストが優れている。そのため,コントラスト検出方式は撮像機器のオートフォーカス制御方式として,一般的に使用されている。
コントラスト検出方式では,フォーカスレンズを動かしながら撮影画像の高周波成分を検出し,高周波成分が最大となる位置にフォーカスレンズを移動することで焦点を合わせる。
しかしながら,撮影位置から少なくとも2種類以上の距離に存在する複数の被写体を同時撮影する場合,レンズの被写界深度には限界が存在する。そのため,すべての被写体について合焦することはできない。
例えば,近距離被写体と遠距離被写体の2種類の被写体を同時撮影する場合,いずれか片方の被写体のみ合焦状態となり,もう片方の被写体は非合焦状態となる。
このような場合に目的とする被写体に焦点を合わせるためには,構図を変更する,ズーム倍率を変更する,もしくはマニュアルでフォーカスを合わせる,またはそれらの組合せ等の操作を行う必要がある。
よって,従来のオートフォーカス機能においては,ユーザの意図する被写体に焦点を合わせるために非常に手間がかかる場合があるという課題があった。
Conventional autofocus control methods include an active method that calculates the distance to the subject using infrared rays and sound waves, a phase difference detection method that determines whether the light is in focus through the lens, and contrast detection. There are methods. In particular, the contrast detection method can be focused by using an imaging sensor, so that the development cost is superior to other methods. Therefore, the contrast detection method is generally used as an autofocus control method for imaging devices.
In the contrast detection method, a high-frequency component of a captured image is detected while moving the focus lens, and the focus lens is moved to a position where the high-frequency component is maximized.
However, there is a limit to the depth of field of the lens when simultaneously photographing a plurality of subjects existing at least two types of distances from the photographing position. Therefore, it is impossible to focus on all subjects.
For example, when two types of subjects, a short-distance subject and a long-distance subject, are photographed simultaneously, only one of the subjects is in focus, and the other subject is out of focus.
In order to focus on the target subject in such a case, it is necessary to change the composition, change the zoom magnification, manually adjust the focus, or perform a combination thereof.
Therefore, the conventional autofocus function has a problem that it may take much time to focus on the subject intended by the user.

本発明では,目的とする被写体に焦点を合わせるため,領域分割手段により複数領域に分割された撮影画像を表示手段により表示し,分割領域指定手段により目的とする被写体を含む領域を指定させ,領域別合焦検出手段により検出した指定領域の合焦情報を基に焦点を合わせるようレンズ駆動手段によりフォーカスレンズを移動する.   In the present invention, in order to focus on the target subject, the captured image divided into a plurality of regions by the region dividing unit is displayed by the display unit, and the region including the target subject is designated by the divided region designating unit. The focus lens is moved by the lens driving means so as to focus based on the focus information of the designated area detected by the separate focus detection means.

本発明の撮像装置は,特定の分割領域の情報を反映して焦点を合わせられるため,領域を指定することで,目的とする被写体に簡単に焦点を合わせることできる。   Since the imaging apparatus of the present invention can be focused by reflecting information on a specific divided area, it is possible to easily focus on a target subject by designating the area.

本発明を実施するための最良の形態は以下の実施例に示す。   The best mode for carrying out the invention is shown in the following examples.

図1は,本発明における実施例1の基本構成を示す図であり,図2は基本処理フローを示す図である。詳細を以下に述べる。   FIG. 1 is a diagram showing a basic configuration of the first embodiment of the present invention, and FIG. 2 is a diagram showing a basic processing flow. Details are described below.

本発明における撮像装置の基本構成は図1に示すように,焦点を合わせるためのフォーカスレンズ101とフォーカスレンズの位置を移動させるためのレンズ駆動手段103と,レンズを通ってきた光を電気信号に変換し撮影画像として出力するための撮像素子102と,撮像素子から出力された信号を撮影画像に変換する信号処理回路109と,撮影画像を記録する記録部110と,撮影画像や分割パターンや指定領域情報等を表示するための表示手段104と,分割領域毎に合焦度を検出するために撮影画像を分割パターンに従って分割する領域分割手段106と,ユーザの意図に従って分割領域を選択するための分割領域指定手段105と,撮影画像から分割領域毎の合焦評価値を検出するための領域別合焦検出手段107と,合焦評価値に基づいて焦点を合わせるためにレンズ駆動手段を制御するための合焦手段と,から構成されている。
実施例1は,このような構成の撮像装置を使用し,図2に示すような処理フローに従って処理を行う。詳細な処理内容は以下に述べる。
As shown in FIG. 1, the basic configuration of an image pickup apparatus according to the present invention is a focus lens 101 for focusing, a lens driving means 103 for moving the position of the focus lens, and light passing through the lens as an electrical signal. An image sensor 102 for converting and outputting as a captured image, a signal processing circuit 109 for converting a signal output from the image sensor into a captured image, a recording unit 110 for recording the captured image, a captured image, a division pattern, and designation Display means 104 for displaying area information and the like, area dividing means 106 for dividing a photographed image according to a division pattern in order to detect the degree of focus for each divided area, and selecting a divided area according to the user's intention A divided area designating unit 105, a focus detection unit 107 for each area for detecting a focus evaluation value for each divided area from the photographed image, and a focus evaluation A focusing means for controlling the lens driving means for focusing based on the values, and a.
In the first embodiment, the imaging apparatus having such a configuration is used, and processing is performed according to a processing flow as shown in FIG. Detailed processing contents will be described below.

はじめに撮影したい構図と目的とする被写体を決める。
撮影したい構図の中に距離の違う2つ以上の被写体が存在する場合,目的とする被写体の方に焦点を合わせる必要がある。ところで,図5は構図の中に近距離被写体(A),中距離被写体(B),遠距離被写体(C)の3つの被写体が存在する場合のレンズの位置と高周波成分検出量のグラフの一例を示している。破線は撮影画像全体から検出した高周波成分を表しており,3つの実線はそれぞれの被写体に対する高周波成分を表している。これより,被写体との距離が違う場合,被写体から検出される高周波成分がピーク値になるレンズ位置は異なる。そのため,通常のオートフォーカス機能のように撮影画像全体から高周波成分を検出し,合焦評価値を求める場合,レンズ位置が(c)の近辺から合焦判定を開始すると被写体(C)の高周波成分を多く検出するレンズ位置(c)または被写体(B)の高周波成分を多く検出するレンズ位置(b)で合焦したと判断され,被写体(A)に対して合焦できない。従って,一番焦点を合わせたい被写体が被写体(A)であった場合,通常のオートフォーカス機能ではうまく合焦できない場合があった。
First, decide the composition you want to shoot and the target subject.
When there are two or more subjects with different distances in the composition to be photographed, it is necessary to focus on the target subject. FIG. 5 shows an example of a graph of the lens position and the high-frequency component detection amount when there are three subjects, a short-distance subject (A), a medium-distance subject (B), and a long-distance subject (C). Is shown. Broken lines represent high-frequency components detected from the entire captured image, and three solid lines represent high-frequency components for each subject. Thus, when the distance from the subject is different, the lens position at which the high-frequency component detected from the subject reaches a peak value is different. Therefore, when a high frequency component is detected from the entire captured image and a focus evaluation value is obtained as in a normal autofocus function, when the focus determination is started from the vicinity of the lens position (c), the high frequency component of the subject (C) is detected. Is determined to be in focus at the lens position (c) for detecting a large amount of light or the lens position (b) for detecting a high frequency component of the subject (B), and the subject (A) cannot be focused. Therefore, when the subject to be focused on most is the subject (A), the normal autofocus function may not be able to focus well.

そこで,撮影画像全体から合焦評価値を求めるのではなく,撮影画像をいくつかの領域に分割して目的とする被写体を含む領域から合焦評価値を求めることで,目的とする被写体に焦点を合わせる手法をとる。   Therefore, rather than obtaining the focus evaluation value from the entire captured image, the focus evaluation value is obtained by dividing the captured image into several regions and obtaining the focus evaluation value from the region including the target subject. The method to match is taken.

分割した領域をユーザに示すために,領域分割手段106は領域分割パターンの情報を表示手段104に送り(201),表示手段104は該領域分割パターンの情報を基に撮影画像を分割して表示する(202)。   In order to show the divided area to the user, the area dividing means 106 sends information on the area dividing pattern to the display means 104 (201), and the display means 104 divides and displays the captured image based on the information on the area dividing pattern. (202).

ユーザは表示された分割領域の中から目的とする被写体を含んでいる分割領域を分割領域指定手段105で入力する。   The user inputs a divided area including the target subject from the displayed divided areas using the divided area specifying means 105.

分割領域指定手段105は,指定された分割領域の情報である指定領域情報を領域別合焦検出手段107に送る(203)。   The divided area designating unit 105 sends designated area information, which is information about the designated divided area, to the focus detection means 107 for each area (203).

指定領域情報で指定された領域において,領域別合焦検出手段107は検波回路802で高周波成分を検出し(204),評価値演算部803で合焦評価値を演算し,合焦手段108に送る(205)。   In the region designated by the designated region information, the region-specific focus detection means 107 detects a high-frequency component by the detection circuit 802 (204), calculates the focus evaluation value by the evaluation value calculation unit 803, and sends it to the focus means 108. Send (205).

合焦手段108は,合焦評価値から現在の状態が合焦状態かを判定し(206),合焦状態でない場合は,合焦評価値に応じたレンズ移動量を決定し(207),レンズ駆動手段を制御してフォーカスレンズ101を移動する(208)。   The focusing unit 108 determines whether the current state is the in-focus state from the focus evaluation value (206). If the in-focus state is not the in-focus state, the lens moving amount is determined according to the focus evaluation value (207). The focus lens 101 is moved by controlling the lens driving means (208).

合焦評価値がピーク値になり合焦状態と判定されるまで(204)〜(208)の処理を繰り返す。   The processing of (204) to (208) is repeated until the focus evaluation value reaches the peak value and is determined to be in focus.

以上の手順により,ユーザの意図する画像領域に対して焦点を合わせることが可能となる。   With the above procedure, it is possible to focus on the image area intended by the user.

図3(301),(302),(303)は,本発明における実施例2の領域分割手段106が設定可能な領域分割パターンの種類を示す図であり,実施例1に記載した撮像装置の構成要素の中で,表示手段104と分割領域指定手段105と領域別合焦検出手段107と合焦手段108とを同一の構成とし,領域分割手段106は異なる構成とする。詳細を以下に述べる。   3 (301), (302), and (303) are diagrams showing types of area division patterns that can be set by the area division means 106 according to the second embodiment of the present invention. Among the constituent elements, the display means 104, the divided area specifying means 105, the area-specific focus detection means 107, and the focus means 108 have the same configuration, and the area division means 106 has a different configuration. Details are described below.

目的とする被写体に柔軟に焦点を合わせるために,領域分割パターンを複数種類用意し,撮影前に領域分割手段106に予め設定する事ができる。   In order to flexibly focus on the target subject, a plurality of types of area division patterns can be prepared and set in advance in the area division means 106 before photographing.

該領域分割パターンとして,図3(301)に示す様な3×3の矩形型などの分割領域が固定された領域分割パターンを使用することでユーザにわかりやすく分割領域を示すことができる。   As the area division pattern, by using an area division pattern having a fixed division area such as a 3 × 3 rectangular shape as shown in FIG. 3 (301), the division area can be easily shown to the user.

また図3(302)に示す様な画像内における分割領域の位置が変更可能な領域分割パターンを使用することで,目的とする被写体に対して正確な位置に領域を指定することが出来る。   Further, by using an area division pattern in which the position of the divided area in the image can be changed as shown in FIG. 3 (302), the area can be designated at an accurate position with respect to the target subject.

また図3(303)に示す様な指定領域の大きさを変更可能な領域分割パターンを使用することで,目的とする被写体に対して正確な大きさに領域を指定することが出来る。   Further, by using an area division pattern in which the size of the designated area as shown in FIG. 3 (303) can be changed, the area can be designated in an accurate size for the target subject.

以上により,目的とする被写体を含む領域を柔軟に選択させることが可能となる。   As described above, it is possible to flexibly select a region including a target subject.

図4は,本発明における実施例3の表示手段104における合焦評価値の表示例を示す図であり,実施例1に記載した撮像装置の構成要素の中で,領域分割手段106と分割領域指定手段105と領域別合焦検出手段107と合焦手段108とを同一の構成とし,表示手段104は異なる構成とする。詳細を以下に述べる。   FIG. 4 is a diagram illustrating a display example of the focus evaluation value on the display unit 104 according to the third embodiment of the present invention. Among the components of the imaging apparatus described in the first embodiment, the region dividing unit 106 and the divided regions are illustrated. The designation unit 105, the area-specific focus detection unit 107, and the focus unit 108 have the same configuration, and the display unit 104 has a different configuration. Details are described below.

ユーザが分割領域から目的とする被写体を含む領域を選択するときに,該領域別合焦検出手段107を使用して分割領域の合焦評価値を検出して,表示された撮影画像に分割領域毎の合焦度を表示することで,ユーザは現在の構図における合焦状態を参考にしながら分割領域を選択することができる。   When the user selects an area including the target subject from the divided areas, the focus evaluation value of the divided areas is detected using the focus detection means 107 for each area, and the divided areas are displayed on the displayed captured image. By displaying the degree of focus for each, the user can select a divided region while referring to the focus state in the current composition.

また,合焦状態を参考にしながら焦点を合わせる際に,合焦手段108はマニュアルフォーカスによる操作も可能とする。
該表示手段104は図4(401)に示す様に,各領域の合焦評価値を数値で表示することで,現在の合焦状態をユーザに詳しく示すことができる。
Further, when focusing with reference to the focused state, the focusing means 108 can also be operated by manual focus.
As shown in FIG. 4 (401), the display means 104 can display the current focus state in detail to the user by displaying the focus evaluation value of each area as a numerical value.

または図4(402)に示す様に,各領域の合焦評価値をヒストグラムなどで表示することで,現在の合焦状態をユーザに詳しく示すことができる。ヒストグラムの例としては,横軸を周波数とし,縦軸を各周波数成分検出量とし,各領域に含まれる周波数別成分検出量を示すことが可能となる。この場合,示したい周波数別にバンドパスフィルタを用意し,各分割領域において1つもしくはそれ以上のバンドパスフィルタから周波数成分を検出し,バンドパスフィルタから検出可能な周波数別に周波数成分の検出量を表示する。また横軸を座標とし,縦軸を高周波成分検出量とし,各領域に含まれる座標毎の高周波成分検出量を示すことが可能となる。この場合,撮影画像を分割領域よりも小さく高周波成分検出に必要な領域に分割し,各分割領域に含まれる1つもしくはそれ以上の小領域から高周波成分を検出し,小領域の座標に応じた高周波成分を表示する。   Alternatively, as shown in FIG. 4 (402), the focus evaluation value of each area is displayed in a histogram or the like, so that the current focus state can be shown to the user in detail. As an example of the histogram, the horizontal axis is the frequency, and the vertical axis is each frequency component detection amount, so that it is possible to indicate the frequency-specific component detection amount included in each region. In this case, a bandpass filter is prepared for each frequency to be shown, frequency components are detected from one or more bandpass filters in each divided region, and the detection amount of the frequency component is displayed for each frequency detectable from the bandpass filter. To do. Further, it is possible to indicate the high-frequency component detection amount for each coordinate included in each region by using the horizontal axis as coordinates and the vertical axis as high-frequency component detection amount. In this case, the captured image is divided into regions that are smaller than the divided regions and are necessary for high-frequency component detection, high-frequency components are detected from one or more small regions included in each divided region, and according to the coordinates of the small regions Displays high frequency components.

また図4(403)に示す様に,合焦評価値に閾値を設定して2つあるいはそれ以上の複数段階に分けてパターン画像を表示することで,現在の合焦状態をユーザにわかりやすく示すことができる。該パターン画像とは,例えば画像に対して色を付ける,あるいはマークを表示するものである。   Also, as shown in FIG. 4 (403), by setting a threshold value for the focus evaluation value and displaying the pattern image in two or more stages, the current focus state can be easily understood by the user. Can show. The pattern image is, for example, a color or a mark displayed on the image.

以上により,ユーザの分割領域選択を補助することが可能となる。   As described above, it is possible to assist the user in selecting a divided region.

図6は,本発明における実施例4のタッチパネル602を利用した分割領域指定手段105を示す図であり,実施例1に記載した撮像装置の構成要素の中で,領域分割手段106と領域別合焦検出手段107と合焦手段108とを同一の構成とし,実施例1とは異なる構成の分割領域指定手段105と表示手段104に入力手段としてタッチパネル602と位置座標比較器603を加えた構成とする。詳細を以下に述べる。   FIG. 6 is a diagram showing the divided area designating unit 105 using the touch panel 602 according to the fourth embodiment of the present invention. Among the components of the imaging apparatus described in the first embodiment, the area dividing unit 106 and the area classification are shown. The focus detection unit 107 and the focusing unit 108 have the same configuration, and a configuration in which a touch panel 602 and a position coordinate comparator 603 are added as input units to the divided region designating unit 105 and the display unit 104 having configurations different from those in the first embodiment. To do. Details are described below.

分割領域指定手段105において入力手段601として画面上の表示に触れるだけで入力操作が可能なタッチパネル602を使用して該表示手段104と組み合わせることで,被写体を含んでいる領域を指定する際にユーザがわかりやすく指定できる。タッチパネルとは画面の表示を遮らない形でマトリクススイッチなどを配置し,使用者が触れた画面の位置を検出する装置である。ユーザが触れたタッチパネル602上の位置情報を位置座標比較器603によって該表示手段104上の座標位置と比較することで,分割領域指定手段105は分割パターン情報を参照してユーザが指定したい分割領域を特定することができる。   When the divided area designating unit 105 is combined with the display unit 104 using the touch panel 602 capable of performing an input operation simply by touching the display on the screen as the input unit 601, the user can designate the region including the subject. Can be specified easily. A touch panel is a device that detects the position of the screen touched by the user by arranging matrix switches and the like so as not to obstruct the screen display. By comparing the position information on the touch panel 602 touched by the user with the coordinate position on the display means 104 by the position coordinate comparator 603, the divided area specifying means 105 refers to the divided pattern information and the divided area that the user wants to specify. Can be specified.

以上により,ユーザが意図する領域を指定できる。   As described above, an area intended by the user can be designated.

図7は本発明における実施例4の音声認識技術を利用した分割領域指定手段105を示す図であり,実施例1に記載した撮像装置の構成要素の中で,領域分割手段106と領域別合焦検出手段107と合焦手段108とを同一の構成とし,実施例1とは異なる構成の分割領域指定手段105に入力手段としてマイク701と音声認識手段702を加えた構成とする。詳細を以下に述べる。   FIG. 7 is a diagram showing the divided area designating unit 105 using the speech recognition technology according to the fourth embodiment of the present invention. Among the components of the image pickup apparatus described in the first embodiment, the area dividing means 106 and the area classification are shown. The focus detection unit 107 and the focusing unit 108 have the same configuration, and a configuration in which a microphone 701 and a voice recognition unit 702 are added as input units to the divided region designation unit 105 having a configuration different from that of the first embodiment. Details are described below.

該入力手段601として音声による入力可能なマイク701を使用し,音声認識技術を利用することで,入力された音声が示す領域を指定することができる。音声認識技術とは,入力された音声信号と音声特徴モデル704とを比較し最も確からしい言語系統を認識結果として出力する技術である。例えば,ユーザによって入力された「右」「下」等の表示画面に対する方向を示す単語に対し,それぞれの方向に応じた分割領域を分割領域指定手段105によって指定させる。音声の特徴モデルは「右」「下」等の分割領域選択時に頻繁に使用される単語に比重を置くことで認識率を上げ,正確な領域指定をすることが可能となる。   By using a microphone 701 capable of inputting by voice as the input means 601 and using a voice recognition technology, an area indicated by the input voice can be designated. The speech recognition technology is a technology that compares the input speech signal with the speech feature model 704 and outputs the most probable language system as a recognition result. For example, for a word indicating a direction with respect to the display screen such as “right” and “down” input by the user, the divided area designating unit 105 designates a divided area corresponding to each direction. In the feature model of speech, the recognition rate is increased by placing specific gravity on words that are frequently used when selecting divided regions such as “right” and “bottom”, thereby enabling accurate region designation.

以上により,ユーザが意図する領域を指定できる。   As described above, an area intended by the user can be designated.

図8は,本発明における実施例6の領域別合焦検出手段107の構成の一例を示す図であり,実施例1に記載した撮像装置の構成要素の中で,表示手段104と分割領域指定手段105と領域分割手段106と合焦手段108とを同一の構成とし,領域別合焦検出手段107は異なる構成とする。詳細を以下に述べる。   FIG. 8 is a diagram showing an example of the configuration of the region-by-region focus detection unit 107 according to the sixth embodiment of the present invention. Among the components of the imaging apparatus described in the first embodiment, the display unit 104 and the divided region designation are shown. The means 105, the area dividing means 106, and the focusing means 108 have the same configuration, and the area-specific focusing detection means 107 have different configurations. Details are described below.

領域別合焦検出手段107は,ユーザによって指定された領域から検出された高周波成分だけから合焦評価値を作成するのではなく,周辺領域から検出された高周波成分も考慮して合焦評価値を作成することができる。   The focus detection unit 107 for each region does not create a focus evaluation value only from the high-frequency component detected from the region specified by the user, but considers the high-frequency component detected from the surrounding region and focuses evaluation value. Can be created.

領域選択部801で分割パターン情報と指定領域情報から指定領域の周辺領域も選択し,検波回路802で高周波成分を検出し,評価値演算部803において係数による重み付け等を施し,指定領域との比重を変えることで合焦評価値を作成する。図8に示す構成の様に検波回路は領域別の合焦度を並列処理可能な構成にすることで分割領域毎の高周波成分を検出した時刻に差を少なくすることが可能となる。また 領域別の合焦度を並列処理可能でない検波回路においても,検出するための撮影画像を一時的に保存しておき,1つずつ検出することで,分割領域毎の高周波成分を検出した時刻に差を少なくすることが可能となる。   The area selection unit 801 also selects the peripheral area of the specified area from the division pattern information and the specified area information, the high frequency component is detected by the detection circuit 802, the evaluation value calculation unit 803 performs weighting with a coefficient, and the like. The focus evaluation value is created by changing. As in the configuration shown in FIG. 8, the detection circuit can reduce the difference in the time at which the high frequency component is detected for each divided region by adopting a configuration in which the focusing degree for each region can be processed in parallel. In addition, even in a detection circuit that cannot process the in-focus level for each region in parallel, the captured images for detection are temporarily stored and detected one by one, so that the time at which the high-frequency component for each divided region is detected is detected. The difference can be reduced.

また指定領域が複数の場合も同様に合焦評価値を作成することが可能となる。   In addition, in the case where there are a plurality of designated areas, a focus evaluation value can be similarly created.

以上により,指定領域だけに極端に焦点が合うのを防ぐことが可能となる。   As described above, it is possible to prevent the focus on only the designated area.

図9は,本発明における実施例7の基本構成を示す図であり,実施例1に記載した撮像装置の構成要素の中で,表示手段104と分割領域指定手段105と領域別合焦検出手段107と合焦手段108とを同一の構成とし,実施例1に記載した構成とは異なる領域分割手段106にオブジェクト認識手段901を加えた構成とする。詳細を以下に述べる。   FIG. 9 is a diagram showing the basic configuration of the seventh embodiment of the present invention. Among the components of the image pickup apparatus described in the first embodiment, the display means 104, the divided area designation means 105, and the focus detection means for each area. 107 and the focusing unit 108 have the same configuration, and a configuration in which an object recognition unit 901 is added to an area dividing unit 106 different from the configuration described in the first embodiment. Details are described below.

領域分割手段106にオブジェクト認識技術を用いるためにオブジェクト認識手段901を使用し,被写体の認識情報から領域分割パターンを作成することで,被写体に近い範囲の領域分割ができる。オブジェクト認識技術とは,用意されたオブジェクトの輪郭などのモデルと参照画像とのパターンマッチングを行い,相関関係が強い部分を抽出する技術である。オブジェクトのモデルとして,車や標識といった交通関連のモデルや,人の顔や体のモデルなどが使用されている。   By using the object recognition unit 901 to use the object recognition technique for the region dividing unit 106 and creating a region dividing pattern from the recognition information of the subject, it is possible to divide the region in a range close to the subject. The object recognition technology is a technology for extracting a portion having a strong correlation by performing pattern matching between a model such as a contour of a prepared object and a reference image. Traffic models such as cars and signs, and human face and body models are used as object models.

例えば,人の顔のモデルを用いた「顔認識技術」を利用することで,画像内から抽出した人の顔を分割領域として設定可能となる。   For example, by using “face recognition technology” using a human face model, it is possible to set a human face extracted from the image as a divided region.

これにより画像内に複数の人物の顔が存在した場合に,目的の人物の顔を認識している分割領域を指定することができる。   As a result, when a plurality of human faces are present in the image, it is possible to designate a divided area in which the target human face is recognized.

オブジェクト抽出器903は,撮影画像と被写体の輪郭等の情報を持つオブジェクトモデル902を用いてパターンマッチングを行い,撮影画像内に存在する被写体を抽出して認識情報を作成する。   The object extractor 903 performs pattern matching using an object model 902 having information such as the captured image and the contour of the subject, extracts a subject existing in the captured image, and creates recognition information.

被写体の認識情報を基に領域分割手段106は被写体になるべく近い範囲で分割領域を設定する。   Based on the recognition information of the subject, the region dividing means 106 sets a divided region in a range as close as possible to the subject.

以上により,撮影画像内の被写体を認識した分割領域の設定が可能となる。   As described above, it is possible to set a divided area in which a subject in a captured image is recognized.

図3(304)は本発明における実施例8の領域分割パターンを示す図であり,実施例7に記載した撮像装置の構成要素の中で,表示手段104と分割領域指定手段105と領域別合焦検出手段107と合焦手段108とを同一の構成とし,領域分割手段106とオブジェクト認識手段901は異なる構成とする。詳細を以下に述べる。   FIG. 3 (304) is a diagram showing an area division pattern according to the eighth embodiment of the present invention. Among the components of the image pickup apparatus described in the seventh embodiment, the display means 104, the divided area designation means 105, and the area classification are shown. The focus detection unit 107 and the focusing unit 108 have the same configuration, and the area division unit 106 and the object recognition unit 901 have different configurations. Details are described below.

領域分割手段106において,図3(304)に示す様なオブジェクトを含む最適な範囲の分割領域を実現するために,まず認識情報から被写体を含む領域の座標の中で上下左右それぞれ一番端の座標を算出する。算出した上端の座標と左端の座標から左上の座標を決定し,これを基準点とする。次に図3(302)に示す様な領域の位置が変更可能な分割パターンを使用して,基準点に分割領域の左上の位置を合わせる。そして図3(303)に示す様な領域の大きさを変更可能な分割パターンを使用し,右端と下端を含む様に分割領域の大きさを調節する。また被写体の形によっては,1つの被写体に使用する分割領域を複数個組み合わせることでより正確な領域に分割領域を設定できる。また基準点は左上に限定するものではなく,例えば被写体と比較するオブジェクトモデル902から被写体の中心点を算出し,基準点として用いてもよい。   In the area dividing means 106, in order to realize an optimum divided area including an object as shown in FIG. 3 (304), first, the top, bottom, left, and right of the coordinates of the area including the object are recognized from the recognition information. Calculate the coordinates. The upper left coordinate is determined from the calculated upper end coordinate and left end coordinate, and this is used as the reference point. Next, the upper left position of the divided area is aligned with the reference point using a divided pattern in which the position of the area can be changed as shown in FIG. 3 (302). Then, using a division pattern that can change the size of the region as shown in FIG. 3 (303), the size of the divided region is adjusted so as to include the right end and the lower end. Further, depending on the shape of the subject, it is possible to set the divided region in a more accurate region by combining a plurality of divided regions used for one subject. The reference point is not limited to the upper left, and for example, the center point of the subject may be calculated from the object model 902 to be compared with the subject and used as the reference point.

以上により,撮影画像内の被写体毎に正確な位置と大きさの分割領域を設定することが可能となる。   As described above, it is possible to set an accurate position and size divided region for each subject in the captured image.

本発明における実施例9の構成は実施例7に記載する撮像装置の構成要素の中で分割領域指定手段105と領域別合焦検出手段107と合焦手段108を同一の構成とし,表示手段104と領域分割手段106とオブジェクト認識手段901は異なる構成とする。   In the configuration of the ninth embodiment of the present invention, the divided area designation means 105, the area-specific focus detection means 107, and the focus means 108 are the same among the components of the image pickup apparatus described in the seventh embodiment. The area dividing unit 106 and the object recognizing unit 901 have different configurations.

被写体を認識した分割領域を設定する場合,オブジェクト認識手段901において撮影画像内の被写体を認識し,領域分割手段106において撮影中に被写体を認識した分割領域を検出し,表示手段104において分割領域を表示するという一連の処理が必要となる。   When setting the divided area where the subject is recognized, the object recognition means 901 recognizes the subject in the captured image, the area dividing means 106 detects the divided area where the subject is recognized during shooting, and the display means 104 sets the divided area. A series of processing to display is required.

この一連の処理を一定期間毎に繰り返し行うことで,被写体または撮像装置が移動する等の理由で撮影中に構図が変化した場合も,被写体を追従した分割領域を設定可能となる。   By repeating this series of processing at regular intervals, even if the composition changes during shooting due to movement of the subject or the imaging device, it is possible to set a divided region that follows the subject.

ユーザによる被写体の指定前は,一連の処理にかかる時間を最短更新期間とし,消費電力や撮像装置の性能等から更新期間の設定を行う。   Before the user specifies a subject, the time required for a series of processes is set as the shortest update period, and the update period is set based on the power consumption and the performance of the imaging apparatus.

ユーザによる被写体の指定後に静止画を撮影する場合は,通常のオートフォーカス機能にあるようなシャッターボタンの半押し等による撮影直前のタイミングで更新を行うことで目的とする被写体に正確な範囲の分割領域による合焦評価値の検出が可能となる。   When shooting a still image after specifying the subject by the user, the range is accurately divided into the target subject by updating at the timing just before shooting by half-pressing the shutter button as in the normal autofocus function. The focus evaluation value can be detected by the area.

ユーザによる被写体の指定後に動画を撮影する場合も,一連の処理に掛かる時間が最短更新期間となるが,撮影前の更新期間とは別に撮像素子102から撮影画像のデータを取り込むタイミングに合わせた撮影中の更新期間を設定することで,被写体に正確な範囲で滑らかに追従する分割領域による合焦評価値の検出が可能となる。   Even when a moving image is shot after the user specifies a subject, the time required for a series of processing is the shortest update period. However, the shooting is performed in accordance with the timing of taking captured image data from the image sensor 102 separately from the update period before shooting. By setting the middle update period, it is possible to detect the focus evaluation value by the divided area that smoothly follows the subject within an accurate range.

以上により,被写体を追従する分割領域による合焦評価値の検出が可能となる。   As described above, it is possible to detect the focus evaluation value by the divided area following the subject.

本発明の基本構成図Basic configuration diagram of the present invention 本発明の基本処理フローBasic processing flow of the present invention 領域分割手段による領域分割例Example of area division by area dividing means 表示手段による合焦評価値の表示例Display example of focus evaluation value by display means 被写体が複数ある場合の合焦度検出例Example of focus level detection when there are multiple subjects 分割領域指定手段にタッチパネルを使用した構成例Configuration example using a touch panel as the division area designation means 分割領域指定手段に音声認識技術を利用した構成例Configuration example using speech recognition technology as a segmentation area designation means 領域別合焦検出手段の構成例Configuration example of focus detection means by area オブジェクト認識技術を用いた構成例Configuration example using object recognition technology

Claims (16)

撮像面上に光を結像させるフォーカスレンズと,該フォーカスレンズを駆動するレンズ駆動手段と,撮像面上の光を電気信号へ変換する撮像素子と,撮像素子から出力された該電気信号を撮影画像に変換する信号処理回路と,
撮影画像上における複数の任意の領域を指定する情報を発生させる領域分割手段と,
該領域分割手段により発生される情報で指定された領域毎に被写体の合焦度合いを検出する領域別合焦検出手段と,
該領域別合焦検出手段により検出された合焦度合いを示す情報を表示する表示手段と,
該領域分割手段が示す複数領域の中から任意の領域を選択するための分割領域指定手段と,
該分割領域指定手段にて選択された領域に焦点を合わせるよう該レンズ駆動手段を制御する合焦手段と,
を有する撮像装置であって,
該選択された領域に対して撮影画像の焦点を合わせるように制御される撮像装置。
A focus lens that focuses light on the imaging surface, lens driving means for driving the focus lens, an imaging device that converts light on the imaging surface into an electrical signal, and the electrical signal output from the imaging device A signal processing circuit for converting to an image;
Area dividing means for generating information specifying a plurality of arbitrary areas on the captured image;
A focus detection means for each area for detecting the degree of focus of the subject for each area specified by the information generated by the area dividing means;
Display means for displaying information indicating the degree of focus detected by the focus detection means for each region;
A divided area designating means for selecting an arbitrary area from a plurality of areas indicated by the area dividing means;
Focusing means for controlling the lens driving means to focus on the area selected by the divided area designating means;
An imaging device comprising:
An imaging device controlled to focus a captured image on the selected region.
前記請求項1に記載の撮像装置であって,該領域分割手段は撮影開始前に撮影画像上における複数の領域情報の中から幾つかの領域をのみを選択することが可能な領域分割手段であること,
を特徴とする撮像装置。
2. The imaging apparatus according to claim 1, wherein the area dividing means is an area dividing means capable of selecting only some areas from a plurality of area information on a photographed image before starting photographing. There is,
An imaging apparatus characterized by the above.
前記請求項1に記載の撮像装置であって,該領域分割手段は撮影画像を矩形型の領域に分割可能であることを特徴とする撮像装置。   2. The imaging apparatus according to claim 1, wherein the area dividing unit can divide a captured image into rectangular areas. 前記請求項1に記載の撮像装置であって,該領域分割手段が発生する領域情報が示す位置は任意に変更されることを特徴とする撮像装置。   2. The imaging apparatus according to claim 1, wherein the position indicated by the area information generated by the area dividing unit is arbitrarily changed. 前記請求項1に記載の撮像装置であって,該領域分割手段が発生する領域情報が示す領域の大きさは任意の大きさに変更されることを特徴とする撮像装置。   2. The imaging apparatus according to claim 1, wherein the size of the area indicated by the area information generated by the area dividing unit is changed to an arbitrary size. 前記請求項1に記載の表示手段は,
分割した各領域の撮影画像と併せて,合焦度合いを示す数値表示が可能であること,
を特徴とする撮像装置。
The display means according to claim 1 comprises:
A numerical display that indicates the degree of focus is possible along with the captured images of each divided area.
An imaging apparatus characterized by the above.
前記請求項1に記載の表示手段は,
分割した各領域の撮影画像と併せて合焦度合いを示すヒストグラム表示が可能であること,
を特徴とする撮像装置。
The display means according to claim 1 comprises:
It is possible to display a histogram showing the degree of focus along with the captured images of each divided area,
An imaging apparatus characterized by the above.
前記請求項1に記載の表示手段において,
分割した各領域の撮影画像と併せて,合焦度合いを示すパターン画像の表示が可能であること,
を特徴とする撮像装置。
The display means according to claim 1,
A pattern image showing the degree of focus can be displayed along with the captured images of each divided area.
An imaging apparatus characterized by the above.
前記請求項1に記載の撮像装置であって,
画面上の表示を触れることで表示内容のどの部分が選択されたかを感知するタッチパネルを,分割領域指定手段のコマンド入力インターフェースとして用いることを特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein
An image pickup apparatus, wherein a touch panel that senses which part of display content is selected by touching a display on a screen is used as a command input interface of a divided area designation unit.
前記請求項1に記載の撮像装置において,
音声入力用のマイクロフォンと
入力された音声信号の特徴パラメータを抽出したのち,抽出結果を用いて音声特徴モデルとのパターン照合処理を行い,領域を選択するコマンドを発生させる音声比較器と,
該音声比較器で行われるパターン照合処理に用いる音声特徴モデルとを付加した撮像装置であって,
音声入力により分割領域指定手段が示す領域を選択することを特徴とする撮像装置。
The imaging apparatus according to claim 1,
A voice comparator that extracts a feature parameter of a voice input microphone and a voice signal that has been input, performs pattern matching processing with the voice feature model using the extraction result, and generates a command for selecting a region;
An imaging apparatus to which a voice feature model used for pattern matching processing performed by the voice comparator is added,
An imaging apparatus, wherein an area indicated by a divided area designating unit is selected by voice input.
前記請求項1に記載の撮像装置であって,
領域別合焦検出手段は,
分割領域指定手段が示す指定領域から検出された第1の高周波成分と,その周辺領域から検出された第2の高周波成分のそれぞれに重み付けして加算するように合焦評価値を演算する評価値演算部を有し,
該合焦評価値は合焦手段でレンズを焦点位置に合わせるための評価基準として使用されたり,表示手段でユーザに指定領域の合焦度合いを示すために使用することを特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein
The focus detection means for each area is
Evaluation value for calculating a focus evaluation value so that the first high-frequency component detected from the designated area indicated by the divided area designating means and the second high-frequency component detected from the surrounding area are weighted and added. Has an arithmetic unit,
An imaging apparatus characterized in that the focus evaluation value is used as an evaluation reference for focusing a lens on a focal position by a focusing means, or used for indicating a degree of focusing of a designated area to a user by a display means.
前記請求項1に記載の撮像装置であって,
領域別合焦検出手段と表示手段は,
領域別合焦検出手段において一定期間内に複数の周波数成分を検出することで,表示手段において複数の分割領域の合焦度合いを表示すること
を特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein
The focus detection means and display means for each area are as follows:
An imaging apparatus characterized in that a focus level of a plurality of divided areas is displayed on a display unit by detecting a plurality of frequency components within a predetermined period in a focus detection unit for each region.
前記請求項1に記載の撮像装置であって,
領域別合焦検出手段は,
合焦度を検出する領域の範囲を任意に設定可能とする領域別合焦検出手段であること,
を特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein
The focus detection means for each area is
A focus detection means for each region that can arbitrarily set the range of the region for detecting the focus degree;
An imaging apparatus characterized by the above.
前記請求項1に記載の撮像装置において,
撮影画像内の被写体を認識するオブジェクト認識手段と
該オブジェクト認識手段によって認識された被写体の情報を基に分割領域を設定する領域分割手段と
を有することを特徴とした撮像装置。
The imaging apparatus according to claim 1,
An imaging apparatus comprising: an object recognizing unit for recognizing a subject in a captured image; and an area dividing unit for setting a divided region based on information on the subject recognized by the object recognizing unit.
前記請求項14に記載のオブジェクト認識手段は,
該領域分割手段において分割領域を設定するための被写体の認識情報として被写体の輪郭情報,または中心位置座標を検出可能とするオブジェクト認識手段であること,
を特徴とする撮像装置。
The object recognition means according to claim 14,
Object recognition means capable of detecting subject contour information or center position coordinates as subject recognition information for setting a divided region in the region dividing means;
An imaging apparatus characterized by the above.
前記請求項14に記載のオブジェクト認識手段と領域分割手段と表示手段は,
オブジェクト認識手段による被写体の認識と,認識情報を基にした分割領域の設定と,表示手段による分割領域の表示という一連の3つの処理を一定期間内に自動的に繰り返すこと
を可能とするオブジェクト認識手段と領域分割手段と表示手段であること,
を特徴とする撮像装置。
The object recognition means, area dividing means and display means according to claim 14,
Object recognition that can automatically repeat a series of three processes: object recognition by object recognition means, setting of divided areas based on recognition information, and display of divided areas by display means within a certain period of time Means, area dividing means and display means,
An imaging apparatus characterized by the above.
JP2008166706A 2008-06-26 2008-06-26 Imaging apparatus Pending JP2010008620A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008166706A JP2010008620A (en) 2008-06-26 2008-06-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008166706A JP2010008620A (en) 2008-06-26 2008-06-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2010008620A true JP2010008620A (en) 2010-01-14

Family

ID=41589226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008166706A Pending JP2010008620A (en) 2008-06-26 2008-06-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2010008620A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053303A (en) * 2010-09-01 2012-03-15 Sharp Corp Stereoscopic camera device and electronic information device
WO2012093663A1 (en) * 2011-01-06 2012-07-12 株式会社ニコン Image processing device, image capturing device, and image processing program
JP2014095593A (en) * 2012-11-08 2014-05-22 Shimadzu Corp Appearance inspection device and appearance inspection method
US9544494B2 (en) 2014-02-05 2017-01-10 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
WO2017168949A1 (en) * 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, imaging device, image reproduction device, method and program
JP2018513992A (en) * 2015-03-10 2018-05-31 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for continuous autofocus
JP2020154055A (en) * 2019-03-19 2020-09-24 株式会社昭和テック Image capturing device
US11917293B2 (en) 2021-07-08 2024-02-27 Panasonic Intellectual Property Management Co., Ltd. Imaging device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053303A (en) * 2010-09-01 2012-03-15 Sharp Corp Stereoscopic camera device and electronic information device
WO2012093663A1 (en) * 2011-01-06 2012-07-12 株式会社ニコン Image processing device, image capturing device, and image processing program
JPWO2012093663A1 (en) * 2011-01-06 2014-06-09 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP5949559B2 (en) * 2011-01-06 2016-07-06 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2014095593A (en) * 2012-11-08 2014-05-22 Shimadzu Corp Appearance inspection device and appearance inspection method
US9544494B2 (en) 2014-02-05 2017-01-10 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JP2018513992A (en) * 2015-03-10 2018-05-31 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for continuous autofocus
WO2017168949A1 (en) * 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, imaging device, image reproduction device, method and program
JPWO2017168949A1 (en) * 2016-03-29 2019-02-07 ソニー株式会社 Information processing apparatus, imaging apparatus, image reproducing apparatus, method and program
US10878545B2 (en) 2016-03-29 2020-12-29 Sony Corporation Information processing device, imaging apparatus, image reproduction apparatus, and method and program
JP7056554B2 (en) 2016-03-29 2022-04-19 ソニーグループ株式会社 Information processing equipment, image pickup equipment, image reproduction equipment, and methods and programs
JP2020154055A (en) * 2019-03-19 2020-09-24 株式会社昭和テック Image capturing device
US11917293B2 (en) 2021-07-08 2024-02-27 Panasonic Intellectual Property Management Co., Ltd. Imaging device

Similar Documents

Publication Publication Date Title
EP2574041B1 (en) Image capturing apparatus and control method thereof
US8831282B2 (en) Imaging device including a face detector
JP2010008620A (en) Imaging apparatus
JP4735742B2 (en) Imaging apparatus, strobe image generation method, and program
KR101679290B1 (en) Image processing method and apparatus
KR101455018B1 (en) Image capturing apparatus, image capturing method, and computer-readable recording medium
US8724981B2 (en) Imaging apparatus, focus position detecting method, and computer program product
JP6184189B2 (en) SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
JP2008276214A (en) Digital camera
US20130235086A1 (en) Electronic zoom device, electronic zoom method, and program
US20150201124A1 (en) Camera system and method for remotely controlling compositions of self-portrait pictures using hand gestures
JP2010068128A (en) Image capturing apparatus, existence or nonexistence decision method of image area, and program
US8648960B2 (en) Digital photographing apparatus and control method thereof
EP2373002A1 (en) Image capture device
CN104641275B (en) The control method that imaging control apparatus, imaging device and imaging control apparatus perform
US20110007191A1 (en) Apparatus and method for processing digital image
JP2008176152A (en) Imaging apparatus
JP2008109344A (en) Method of detecting specific object image and digital camera
KR20100055938A (en) Method and apparatus for displaying scene information, and digital photographing apparatus thereof
US20140086551A1 (en) Information processing apparatus and information processing method
KR20120005040A (en) Method of selecting an optimal viewing angle position for a camera
KR20130024007A (en) Image photographing device and control method thereof
JP2019121860A (en) Image processing apparatus and control method therefor
JP2011023898A (en) Display device, display method, and integrated circuit
JP6495451B2 (en) Direction recognition autofocus