JP5832078B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5832078B2
JP5832078B2 JP2010218744A JP2010218744A JP5832078B2 JP 5832078 B2 JP5832078 B2 JP 5832078B2 JP 2010218744 A JP2010218744 A JP 2010218744A JP 2010218744 A JP2010218744 A JP 2010218744A JP 5832078 B2 JP5832078 B2 JP 5832078B2
Authority
JP
Japan
Prior art keywords
display
image
waveform
video
edge component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010218744A
Other languages
Japanese (ja)
Other versions
JP2012073466A (en
Inventor
三浦 裕也
裕也 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010218744A priority Critical patent/JP5832078B2/en
Publication of JP2012073466A publication Critical patent/JP2012073466A/en
Application granted granted Critical
Publication of JP5832078B2 publication Critical patent/JP5832078B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像装置及びその制御方法に関し、特に撮像装置における合焦度合いを表示するための技術に関する。   The present invention relates to an imaging apparatus and a control method thereof, and more particularly to a technique for displaying a degree of focus in the imaging apparatus.

自動焦点検出(オートフォーカス:以下「AF」と記す)技術の進歩に伴い、スチルカメラやビデオカメラのような撮像装置での焦点検出には、主にAFが用いられるようになってきている。しかし、マクロ撮影のようにフォーカスを厳密に合わせる必要がある場合や意図的にぼけた映像を撮影する場合等のように、AFでは合焦が難しい条件下で撮像を行う必要のある場合がある。その際には、手動による焦点調節(マニュアルフォーカス:以下「MF」と記す)での撮影が行われることが多い。   With the advance of automatic focus detection (autofocus: hereinafter referred to as “AF”) technology, AF is mainly used for focus detection in an imaging apparatus such as a still camera or a video camera. However, there are cases where it is necessary to perform imaging under conditions where focusing is difficult with AF, such as when it is necessary to focus precisely as in macro shooting, or when shooting an intentionally blurred image, etc. . In that case, photographing is often performed by manual focus adjustment (manual focus: hereinafter referred to as “MF”).

MF操作を行う場合、操作性や合焦精度は特に、光学ファインダの見えや電子ビューファインダ(以下「EVF」と記す)の解像度に大きく左右される。しかし、光学ファインダやEVFの大型化、高解像度化は、撮像装置の大型化や高価格化につながる。   When performing the MF operation, the operability and the focusing accuracy are greatly affected by the appearance of the optical viewfinder and the resolution of the electronic viewfinder (hereinafter referred to as “EVF”). However, the increase in size and resolution of the optical viewfinder and EVF leads to an increase in size and price of the image pickup apparatus.

そこで、光学ファインダやEVFを大型化させたり、高解像度化させたりする代わりに、撮影者に合焦度合い(合焦状態)を把握し易くさせる様々な補助表示技術が提案されている。例えば、撮像映像のうち、合焦しているエッジ部分の強調表示(ピーキング表示)や、合焦度合い確認のための部分拡大表示等が挙げられる。また、合焦度合いを示す「評価値」として、画像の輝度信号の高周波数成分の積分値を求め、その大きさの変化をバーグラフでEVF画像に合成表示する構成が提案されている(特許文献1参照)。また、合焦度合いを示す「評価値」として、撮像信号の高周波成分の振幅のヒストグラムを生成し、EVF画像に合成表示する技術が提案されている(特許文献2参照)。   Accordingly, various auxiliary display technologies have been proposed that make it easier for the photographer to grasp the degree of focus (focused state) instead of increasing the size of the optical viewfinder or EVF or increasing the resolution. For example, highlighting (peaking display) of an in-focus edge portion in the captured image, partial enlarged display for checking the degree of focus, and the like can be given. In addition, a configuration has been proposed in which an integral value of a high frequency component of an image luminance signal is obtained as an “evaluation value” indicating the degree of focus, and a change in the size is synthesized and displayed on an EVF image using a bar graph (patent) Reference 1). In addition, a technique has been proposed in which a histogram of the amplitude of a high-frequency component of an imaging signal is generated as an “evaluation value” indicating the degree of focus, and is synthesized and displayed on an EVF image (see Patent Document 2).

特開平6−113184号公報JP-A-6-113184 特許第4089675号公報Japanese Patent No. 4089675

しかしながら、ピーキング表示では、合焦しているエッジ部分の大きさや場所によって、強調表示を識別し難い場合がある。ピーキング表示の際に、EVF画像のうち合焦しているエッジ部分のみを着色し、他の部分を白黒表示する技術も提案されているが、この場合、エッジ部分を除いた画面全体が白黒表示に変わることで、EVFによる撮影被写体の視認性が低下してしまう。   However, in the peaking display, it may be difficult to identify the highlighted display depending on the size and location of the focused edge portion. In the peaking display, a technique has been proposed in which only the focused edge portion of the EVF image is colored and the other portion is displayed in black and white. In this case, the entire screen excluding the edge portion is displayed in black and white. By changing to, the visibility of the photographic subject by EVF is lowered.

また、特許文献1,2に記載された技術では、合焦度合いを示す「評価値」が、撮影画角の中のどの部分についての合焦度合いを示しているかを把握することが、撮影者にとって容易ではない。更に、評価値の大きさの変化をバーグラフの高さやヒストグラムの広がり方の変化で表現しているため、評価値の最大点の把握が容易でない。個別の被写体に対する合焦度合いを何らかの方法で被写体画像と同じ画面に表示した場合、被写体同士の位置関係やカメラの撮影画角の違い(例えば、縦撮り/横撮りの違い)等により、個別の被写体に対する合焦度合い表示が分かり難くなるおそれがある。   Further, in the techniques described in Patent Documents 1 and 2, it is possible for the photographer to grasp which portion of the shooting angle of view the “evaluation value” indicating the degree of focusing indicates the degree of focusing. Not easy for. Furthermore, since the change in the magnitude of the evaluation value is expressed by the change in the height of the bar graph and the spread of the histogram, it is not easy to grasp the maximum point of the evaluation value. When the degree of focus for an individual subject is displayed on the same screen as the subject image by some method, the individual subject may have a different focus due to the positional relationship between subjects or the difference in the angle of view of the camera (for example, vertical / horizontal). There is a possibility that the display of the degree of focus on the subject may be difficult to understand.

本発明は、かかる事情に鑑みてなされたものであり、合焦に関する操作性や視認性を向上させた撮像装置及びその制御方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging apparatus and a control method thereof that improve operability and visibility related to focusing.

本発明に係る撮像装置は、撮像素子に被写体像を結像させるレンズの焦点調節を行う機能を有する撮像装置であって、前記撮像素子で撮像される映像のエッジ成分を抽出する抽出手段と、前記抽出手段が抽出したエッジ成分の所定方向における位置と大きさとの関係を表す波形画像を生成する生成手段と、前記撮像素子で撮像される映像と前記波形画像とを表示装置に表示する表示手段と、前記表示手段に表示される映像に対して複数の領域を指定する指定手段と、前記指定手段により指定された前記複数の領域の特定の方向における重複を判定する判定手段と、を有し、前記生成手段は、前記判定手段により前記特定の方向において前記複数の領域に重複があると判定された場合、前記特定の方向以外の方向を前記所定方向として前記波形画像を生成することを特徴とする。 An image pickup apparatus according to the present invention is an image pickup apparatus having a function of performing focus adjustment of a lens that forms a subject image on an image pickup element, and an extraction unit that extracts an edge component of an image picked up by the image pickup element; Generating means for generating a waveform image representing a relationship between a position and a size of the edge component extracted by the extracting means in a predetermined direction; display means for displaying the video imaged by the imaging device and the waveform image on a display device; And designation means for designating a plurality of areas for the video displayed on the display means, and determination means for determining overlap in a specific direction of the plurality of areas designated by the designation means. the generating means when said overlap in said plurality of regions in said particular direction Ri I is determined in the determination unit, the waveform direction other than the specific direction as the predetermined direction And generating an image.

本発明に係る撮像装置及びその制御方法によれば、合焦に関する操作性や視認性を向上させることができる。   According to the imaging device and the control method thereof according to the present invention, it is possible to improve the operability and visibility related to focusing.

本発明の実施形態に係るデジタルビデオカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital video camera according to an embodiment of the present invention. 本発明の実施形態に係るデジタルビデオカメラが有するビデオ制御部における、エッジ成分の波形表示処理を実行する構成例を示すブロック図である。It is a block diagram which shows the structural example which performs the waveform display process of an edge component in the video control part which the digital video camera concerning embodiment of this invention has. 本発明の実施形態に係るデジタルビデオカメラが有するエッジ抽出回路の概略構成を示す図である。It is a figure which shows schematic structure of the edge extraction circuit which the digital video camera concerning embodiment of this invention has. 図3のエッジ抽出回路の周波数特性の例を示す図である。It is a figure which shows the example of the frequency characteristic of the edge extraction circuit of FIG. 本発明の実施形態に係るデジタルビデオカメラが有する第1表示部及び/又は第2表示部に、撮像映像と共に指定領域と撮像映像のエッジ成分のレベルを表示した状態を模式的に示す図である。It is a figure which shows typically the state which displayed the designation | designated area | region and the level of the edge component of captured image with the captured image on the 1st display part and / or 2nd display part which the digital video camera concerning embodiment of this invention has. . 本発明の実施形態に係るデジタルビデオカメラにおける、マニュアルフォーカス操作時のエッジ成分の基本的な波形表示処理のフローチャートである。4 is a flowchart of basic waveform display processing of an edge component during a manual focus operation in the digital video camera according to the embodiment of the present invention. 本発明の実施形態に係るデジタルビデオカメラにおける、2つの指定領域の位置判定手法を模式的に示す図である。It is a figure which shows typically the position determination method of two designated area | regions in the digital video camera which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルビデオカメラにおける、マニュアルフォーカス操作時のエッジ成分の波形表示処理のフローチャートである。5 is a flowchart of edge component waveform display processing during a manual focus operation in the digital video camera according to the embodiment of the present invention. 本発明の実施形態に係るデジタルビデオカメラを回転させた際に、第1表示部及び/又は第2表示部に、撮像映像と共に指定領域と撮像映像のエッジ成分のレベルを表示した状態を模式的に示す図である。When the digital video camera according to the embodiment of the present invention is rotated, the state where the designated area and the level of the edge component of the captured image are displayed together with the captured image on the first display unit and / or the second display unit is schematically illustrated. FIG. 本発明の実施形態に係るデジタルビデオカメラを回転させた際の、2つの指定領域の位置判定手法を模式的に示す図である。It is a figure which shows typically the position determination method of two designated area | regions when rotating the digital video camera which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルビデオカメラのマニュアルフォーカス操作時の、デジタルビデオカメラの回転に連動する波形表示処理のフローチャートである。It is a flowchart of the waveform display process interlock | cooperated with rotation of a digital video camera at the time of the manual focus operation of the digital video camera concerning embodiment of this invention. 本発明の実施形態に係るデジタルビデオカメラにおける、3つ以上の指定領域の位置判定手法を模式的に示す図である。It is a figure which shows typically the position determination method of three or more designation | designated area | regions in the digital video camera which concerns on embodiment of this invention.

以下、本発明の実施形態について添付図面を参照して詳細に説明する。本実施形態では、撮像装置の例として、MF操作機能を備えたデジタルビデオカメラを取り上げる。但し、本発明に係る撮像装置はこれに限定されるものではなく、焦点調節機能(AF,MFを問わない)と、撮像映像や撮影画像を表示する表示装置とを有する撮像装置に適用可能である。すなわち、本発明に係る撮像装置には、例えば、デジタル(スチル)カメラ、カメラ付き携帯情報端末、カメラ付き携帯電話等も含まれる。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present embodiment, a digital video camera having an MF operation function is taken as an example of an imaging apparatus. However, the imaging apparatus according to the present invention is not limited to this, and can be applied to an imaging apparatus having a focus adjustment function (regardless of AF or MF) and a display device that displays a captured image or a captured image. is there. That is, the imaging apparatus according to the present invention includes, for example, a digital (still) camera, a portable information terminal with a camera, a mobile phone with a camera, and the like.

《第1実施形態》
<デジタルビデオカメラの概略構成>
図1は、本発明の実施形態に係るデジタルビデオカメラの概略構成を示すブロック図である。図1に示されるレンズ部101は、被写体像を撮像素子102の撮像面上に結像する光学系を構成し、ズーム機能、焦点調節機能及び絞り調節機能を備える。撮像素子102は、多数の光電変換素子が2次元的に配列された構成を有し、レンズ部101によって結像された被写体光学像を画素単位の映像信号に変換する。撮像素子102は、例えば、CMOSイメージセンサやCCDイメージセンサである。なお、撮像素子102は、光電変換素子による電荷蓄積時間を調整することによる電子シャッター機能を備える。
<< First Embodiment >>
<Schematic configuration of digital video camera>
FIG. 1 is a block diagram showing a schematic configuration of a digital video camera according to an embodiment of the present invention. A lens unit 101 shown in FIG. 1 constitutes an optical system that forms a subject image on the imaging surface of the image sensor 102, and has a zoom function, a focus adjustment function, and an aperture adjustment function. The image sensor 102 has a configuration in which a large number of photoelectric conversion elements are two-dimensionally arranged, and converts the subject optical image formed by the lens unit 101 into a video signal in units of pixels. The image sensor 102 is, for example, a CMOS image sensor or a CCD image sensor. Note that the image sensor 102 has an electronic shutter function by adjusting the charge accumulation time of the photoelectric conversion element.

撮像素子駆動部103は、カメラ信号処理部106の制御タイミングに従って撮像素子102を駆動制御する。CDS/AGC部104は、撮像素子102から出力されるアナログ映像信号を相関二重サンプリング(CDS)してノイズを削減し、システム制御部111の制御に従って信号レベルのゲイン制御(AGC)を行う。A/D変換器105は、CDS/AGC部104から出力されるアナログ映像信号をデジタル映像信号に変換し、カメラ信号処理部106に供給する。   The image sensor driving unit 103 drives and controls the image sensor 102 according to the control timing of the camera signal processing unit 106. The CDS / AGC unit 104 performs correlated double sampling (CDS) on the analog video signal output from the image sensor 102 to reduce noise, and performs signal level gain control (AGC) according to the control of the system control unit 111. The A / D converter 105 converts the analog video signal output from the CDS / AGC unit 104 into a digital video signal and supplies the digital video signal to the camera signal processing unit 106.

カメラ信号処理部106は、システム制御部111と連携して、タイミング信号の生成、自動露出(AE)制御、ガンマ調整、AF制御等のカメラ撮像系の制御を行う。カメラ信号処理部106は、例えば、AF制御時に合焦度合いの判断基準となる「AF評価値」を算出し、また、撮像映像内の顔検出処理を実行する。なお、撮像映像内の顔検出処理(顔の特徴検出処理)により、個々の被写体の顔の位置とその領域を算出し、顔の位置を示す中心座標と領域サイズをシステム制御部111に提示することが可能になる。顔検出方法は特に限定されるものではなく、既知の手法を用いることができる。   The camera signal processing unit 106 controls the camera imaging system such as timing signal generation, automatic exposure (AE) control, gamma adjustment, and AF control in cooperation with the system control unit 111. For example, the camera signal processing unit 106 calculates an “AF evaluation value” that serves as a criterion for determining the degree of focus during AF control, and performs face detection processing in the captured video. It should be noted that the face position and its area of each subject are calculated by face detection processing (face feature detection process) in the captured image, and the central coordinates and area size indicating the face position are presented to the system control unit 111. It becomes possible. The face detection method is not particularly limited, and a known method can be used.

デジタルビデオカメラは、用途に応じた第1記憶部107、第2記憶部116、第3記憶部112及び第4記憶部119を有している。本実施形態では、便宜上、第1記憶部107はカメラ信号処理用、第2記憶部116はビデオ制御用、第3記憶部112はシステム制御用、第4記憶部119はコーデック(CODEC)用としてそれぞれ、個別に設けられているものとする。物理的にはこれらの記憶部を同じ記憶装置で実現してもよい。これらの記憶部はそれぞれ、典型的には、読み書き可能な半導体メモリによって構成されるが、これに限定されるものではなく、1又は複数の記憶部を別種の記憶装置[例えば、ハードディスクドライブ(HDD)等]で構成してもよい。   The digital video camera includes a first storage unit 107, a second storage unit 116, a third storage unit 112, and a fourth storage unit 119 according to usage. In this embodiment, for convenience, the first storage unit 107 is for camera signal processing, the second storage unit 116 is for video control, the third storage unit 112 is for system control, and the fourth storage unit 119 is for codec (CODEC). Each is provided individually. Physically, these storage units may be realized by the same storage device. Each of these storage units is typically configured by a readable / writable semiconductor memory, but is not limited thereto, and one or a plurality of storage units may be replaced with another type of storage device [for example, a hard disk drive (HDD). ) Etc.].

第1記憶部107は、撮像映像を信号処理する際のフレームメモリ等としてカメラ信号処理部106が使用する。レンズ駆動部108は、システム制御部111の制御に従ってレンズ部101が有する不図示のモータやアクチュエータ等を駆動し、ズーム倍率の調整やAF制御、AE制御を行う。レンズ駆動部108の制御は、システム制御部111がカメラ信号処理部106での信号処理結果に基づいて行う。例えば、AF制御時には、カメラ信号処理部106が求めたAF評価値に基づいてシステム制御部111がレンズ駆動部108を制御し、レンズ部101のフォーカス調整用レンズを駆動制御することで、レンズ部101を被写体に合焦させる。   The first storage unit 107 is used by the camera signal processing unit 106 as a frame memory or the like when the captured video is signal-processed. The lens driving unit 108 drives a motor, an actuator (not shown) included in the lens unit 101 according to the control of the system control unit 111, and performs zoom magnification adjustment, AF control, and AE control. The lens driving unit 108 is controlled by the system control unit 111 based on the signal processing result in the camera signal processing unit 106. For example, at the time of AF control, the system control unit 111 controls the lens driving unit 108 based on the AF evaluation value obtained by the camera signal processing unit 106, and drives and controls the focus adjustment lens of the lens unit 101. 101 is focused on the subject.

なお、手動でレンズ部101の焦点調節を行うMFモードが設定されている場合、システム制御部111は、撮影者による焦点調節操作を検出する。具体的には、システム制御部111は、入力操作部113に含まれる、焦点距離の調整用スイッチやレバー、レンズ部101の鏡筒外周に設けられたフォーカスリングの操作を検出する。そして、システム制御部111は、検出した操作に応じた焦点の移動方向と移動量に基づいて、レンズ駆動部108を制御し、レンズ部101の焦点距離を変更させる。但し、撮影者が操作するスイッチやレバー等によって機械的にレンズ部101の焦点距離が変更可能な構成となっている場合、システム制御部111やレンズ駆動部108の介在は必要ない。   When the MF mode for manually adjusting the focus of the lens unit 101 is set, the system control unit 111 detects a focus adjustment operation by the photographer. Specifically, the system control unit 111 detects an operation of a focus ring adjustment switch and lever included in the input operation unit 113 and a focus ring provided on the outer periphery of the lens barrel of the lens unit 101. Then, the system control unit 111 controls the lens driving unit 108 based on the moving direction and moving amount of the focal point corresponding to the detected operation, and changes the focal length of the lens unit 101. However, when the focal length of the lens unit 101 can be mechanically changed by a switch or lever operated by the photographer, the system control unit 111 and the lens driving unit 108 are not necessary.

ストロボ109は、必要に応じて或いは撮影者の設定に応じて、静止画撮影時の補助光源として用いられる。マイク110は、周囲の音を記録(録音)する際に用いられ、マイク110からの音声信号はカメラ信号処理部106に供給される。例えば、撮像映像に併せて音声を記録する場合、カメラ信号処理部106は、撮像素子102とマイク110のそれぞれの時間軸を整合させ、映像信号と音声信号をビデオ制御部115に供給する。   The strobe 109 is used as an auxiliary light source at the time of still image shooting as required or according to the settings of the photographer. The microphone 110 is used when recording (recording) ambient sounds, and an audio signal from the microphone 110 is supplied to the camera signal processing unit 106. For example, when recording audio together with the captured video, the camera signal processing unit 106 matches the time axes of the imaging element 102 and the microphone 110 and supplies the video signal and the audio signal to the video control unit 115.

システム制御部111は、例えば、CPUであり、第3記憶部112に記憶されているプログラムを実行することにより、後述するMF操作時の補助表示処理を含む、デジタルビデオカメラの動作全般を制御する。第3記憶部112は、ROMやRAMを含んでおり、システム制御部111が実行するプログラムや各種設定に係るパラメータや初期値等を記憶している。なお、第3記憶部112は、システム制御部111のワークエリアとしても用いられる。   The system control unit 111 is, for example, a CPU, and controls the overall operation of the digital video camera including an auxiliary display process during MF operation described later by executing a program stored in the third storage unit 112. . The third storage unit 112 includes a ROM and a RAM, and stores programs executed by the system control unit 111, parameters related to various settings, initial values, and the like. The third storage unit 112 is also used as a work area for the system control unit 111.

入力操作部113は、撮影者がデジタルビデオカメラに指示を与えるためのユーザインタフェースであり、キーやボタン、タッチパネル等の入力デバイスを備えている。本実施形態では、入力操作部113は、具体的には、拡大表示のオン/オフ、ゼブラパターン表示やピーキング表示のオン/オフ、MF操作時の補助表示のオン/オフ等の各種機能の選択ボタンや決定ボタンを有している。また、入力操作部113は、静止画撮影用のシャッタボタンやMFリング、ズームスイッチ、絞り調整ダイヤル等を有しているものとする。入力操作部113には更に、横撮り/縦撮り等のデジタルビデオカメラの撮像姿勢を示す天地情報を検出するための重力センサやジャイロセンサが含まれる。   The input operation unit 113 is a user interface for a photographer to give an instruction to the digital video camera, and includes input devices such as keys, buttons, and a touch panel. In the present embodiment, the input operation unit 113 specifically selects various functions such as on / off of enlarged display, on / off of zebra pattern display and peaking display, and on / off of auxiliary display during MF operation. It has a button and a decision button. The input operation unit 113 includes a shutter button for shooting a still image, an MF ring, a zoom switch, an aperture adjustment dial, and the like. The input operation unit 113 further includes a gravity sensor and a gyro sensor for detecting top-and-bottom information indicating an imaging posture of the digital video camera such as horizontal shooting / vertical shooting.

計時部114は、リアルタイムクロック(RTC)とバックアップ電池を備えており、システム制御部111からの要求に応じて日時情報を返信する。ビデオ制御部115は、第1表示部122及び第2表示部123に対する色相や彩度、明度の調整を含む表示制御を行い、また、アナログライン出力部124の出力制御、デジタルデータI/F部125への出力制御及び記録/再生部120の制御等を行う。ビデオ制御部115はまた、第1表示部122及び第2表示部123を含む各映像出力系に対する映像信号の解像度変換、ゼブラパターンやピーキング信号の生成と重畳、撮像映像からのエッジ成分の抽出や波形生成等も行う。ビデオ制御部115はさらに、撮影情報やユーザ設定メニュー等のOSD(On Screen Display)表示制御を行う。なお、エッジ成分は、合焦度合いを表す因子の1種である。   The time measuring unit 114 includes a real time clock (RTC) and a backup battery, and returns date information in response to a request from the system control unit 111. The video control unit 115 performs display control including adjustment of hue, saturation, and lightness for the first display unit 122 and the second display unit 123, and also performs output control of the analog line output unit 124 and a digital data I / F unit. Control of output to 125, control of the recording / reproducing unit 120, and the like are performed. The video control unit 115 also converts the resolution of video signals for each video output system including the first display unit 122 and the second display unit 123, generates and superimposes zebra patterns and peaking signals, extracts edge components from the captured video, Also performs waveform generation. The video control unit 115 further performs OSD (On Screen Display) display control such as shooting information and a user setting menu. The edge component is one type of factor that represents the degree of focus.

第2記憶部116は、ビデオ制御用の記憶部であり、ビデオ制御部115がビデオベースバンド信号に関する信号処理を行う際のフレームメモリ、ワークメモリ等として使用される。H.264コーデック部117は、動画像の符号化/復号化処理を行う動画像コーデックの一例である。符号化/復号化の形式として、例えば、MPEG−2方式が用いられるが、他の形式であってよい。同様に、JPEGコーデック部118は、静止画像の符号化/復号化処理を行う静止画コーデックの一例である。符号化/復号化の形式としては、例えば、JPEG2000が用いられるが、PNG等の他の形式であってもよい。なお、本実施形態では、H.264コーデック部117と回路を共用するため及び再生動画からの静止画撮影機能(キャプチャ機能)を実現するために、JPEGコーデック部118はビデオ制御部115に接続されているが、JPEGコーデック部118はカメラ信号処理部106に直接に接続されてもよい。   The second storage unit 116 is a storage unit for video control, and is used as a frame memory, a work memory, or the like when the video control unit 115 performs signal processing related to the video baseband signal. H. The H.264 codec unit 117 is an example of a moving image codec that performs moving image encoding / decoding processing. As an encoding / decoding format, for example, the MPEG-2 system is used, but other formats may be used. Similarly, the JPEG codec unit 118 is an example of a still image codec that performs encoding / decoding processing of a still image. For example, JPEG2000 is used as the encoding / decoding format, but other formats such as PNG may be used. In the present embodiment, H.264. The JPEG codec unit 118 is connected to the video control unit 115 in order to share a circuit with the H.264 codec unit 117 and to realize a still image shooting function (capture function) from a reproduced moving image. The camera signal processing unit 106 may be directly connected.

第4記憶部119は、コーデック用として、H.264コーデック部117及びJPEGコーデック部118が映像信号の符号化/復号化を行う際に用いられる。記録/再生部120は、ビデオ制御部115とH.264コーデック部117又はJPEGコーデック部118によって符号化処理され、記録フォーマットとして処理された記録データを、記録媒体121に対して記録したり、読み出したりする。記録媒体121としては、メモリカードやDVD等の光ディスク、HDD等を用いることができ、各媒体に応じた記録/再生システムを構成すればよい。   The fourth storage unit 119 is a codec for H.264. The H.264 codec unit 117 and the JPEG codec unit 118 are used when the video signal is encoded / decoded. The recording / playback unit 120 includes a video control unit 115 and an H.264 recording medium. Recording data encoded by the H.264 codec unit 117 or the JPEG codec unit 118 and processed as a recording format is recorded on or read from the recording medium 121. As the recording medium 121, an optical disk such as a memory card or DVD, an HDD, or the like can be used, and a recording / reproducing system corresponding to each medium may be configured.

第1表示部122及び第2表示部123は、表示装置であり、いずれも同様の情報を表示することができる。本実施形態では、第2表示部123は、第1表示部122よりも小型であって、ファインダ内に設けられているものとする。一方、第1表示部122は、例えば、デジタルビデオカメラの筐体の側面等に開閉可能に設けられる比較的大型の表示装置である。   The first display unit 122 and the second display unit 123 are display devices, and both can display the same information. In the present embodiment, the second display unit 123 is smaller than the first display unit 122 and is provided in the viewfinder. On the other hand, the first display unit 122 is a relatively large display device that can be opened and closed on, for example, a side surface of a casing of a digital video camera.

撮像モード時に、第1表示部122及び第2表示部123には、撮像素子102からの入力映像や拡大映像に加え、フォーカス枠等の補助表示が表示される。また、第1表示部122及び第2表示部123に撮像素子102からの入力映像を順次表示させることで、電子ビューファインダ(EVF)機能が実現される。補助表示には、ゼブラパターン表示やピーキング表示だけでなく、撮像映像のエッジ成分の波形表示等のMF操作時の補助表示も含まれる。   In the imaging mode, auxiliary display such as a focus frame is displayed on the first display unit 122 and the second display unit 123 in addition to the input video and the enlarged video from the imaging device 102. Further, an electronic viewfinder (EVF) function is realized by sequentially displaying the input video from the image sensor 102 on the first display unit 122 and the second display unit 123. The auxiliary display includes not only zebra pattern display and peaking display, but also auxiliary display at the time of MF operation such as waveform display of the edge component of the captured image.

再生モード時に、第1表示部122及び第2表示部123には、記録媒体121に記録されている動画像や静止画像が表示される。また、入力操作部113からの撮影者による入力操作情報や記録媒体121内の任意の画像情報(撮像情報)等を表示することもできる。   In the playback mode, moving images and still images recorded on the recording medium 121 are displayed on the first display unit 122 and the second display unit 123. Further, input operation information by the photographer from the input operation unit 113, arbitrary image information (imaging information) in the recording medium 121, and the like can be displayed.

アナログライン出力部124は、アナログコンポーネント映像の出力やS端子出力、コンポジット映像出力等のインタフェース群である。アナログライン出力部124を外部モニタ等に接続することで、デジタルビデオカメラからの映像出力を外部モニタ等に表示することができる。デジタルデータI/F部125は、例えば、USBインタフェースやIEEE1394インタフェース、HDMI等のデジタルインタフェースを、1つ以上有している。   The analog line output unit 124 is an interface group for analog component video output, S terminal output, composite video output, and the like. By connecting the analog line output unit 124 to an external monitor or the like, the video output from the digital video camera can be displayed on the external monitor or the like. The digital data I / F unit 125 has one or more digital interfaces such as a USB interface, an IEEE 1394 interface, and an HDMI, for example.

<ビデオ制御部による撮像映像のエッジ成分の波形表示処理>
ビデオ制御部115は、上述した通り、撮像映像のエッジ成分の波形表示処理、すなわち、撮像映像(映像信号)からのエッジ成分の抽出と波形生成を行う。図2は、ビデオ制御部115における、撮像映像のエッジ成分の波形表示処理を実行するための構成例を示すブロック図である。
<Waveform display processing of edge component of captured image by video controller>
As described above, the video control unit 115 performs waveform display processing of the edge component of the captured video, that is, extraction of the edge component from the captured video (video signal) and waveform generation. FIG. 2 is a block diagram illustrating a configuration example for executing the waveform display processing of the edge component of the captured video in the video control unit 115.

図2に示される前処理部201は、領域指定回路202と、エッジ抽出回路203と、第1メモリコントローラ204と、波形制御部205とを有している。領域指定回路202は、撮像映像のうち、システム制御部111を通じて指定された領域(指定領域)の情報を、領域指定信号として第1メモリコントローラ204に通知する機能を有している。   The preprocessing unit 201 illustrated in FIG. 2 includes a region designation circuit 202, an edge extraction circuit 203, a first memory controller 204, and a waveform control unit 205. The area designation circuit 202 has a function of notifying the first memory controller 204 of information on an area (designated area) designated through the system control unit 111 in the captured video as an area designation signal.

システム制御部111が領域指定回路202に指定することができる指定領域の情報には、領域の大きさ(形状)や数、位置等があるが、これらに限定されるものではない。本実施形態では、後述する図5(a)に示されるように、カメラ信号処理部106からの顔検出処理の結果として得られる中心座標及び領域サイズに基づいて、システム制御部111により複数の指定領域(2つの矩形の指定領域502,503)が設定される。   Information on the designated area that can be designated by the system control unit 111 in the area designating circuit 202 includes the size (shape), number, and position of the area, but is not limited thereto. In this embodiment, as shown in FIG. 5A to be described later, a plurality of designations are made by the system control unit 111 based on the center coordinates and the area size obtained as a result of the face detection processing from the camera signal processing unit 106. An area (two rectangular designated areas 502 and 503) is set.

なお、顔検出機能に連動させず、撮影者に指定領域の設定を許す構成としてもよい。この場合、画像中の矩形領域を指定する際に用いられる手法のように、大きさ及び位置が可変な矩形枠の大きさや位置を方向キー等によって調節し、決定ボタン等の押下により設定する構成を採用することができる。   In addition, it is good also as a structure which permits a photographer to set a designated area without being linked to the face detection function. In this case, as in the method used when specifying a rectangular area in an image, the size and position of a rectangular frame whose size and position are variable are adjusted with direction keys and set by pressing a decision button or the like Can be adopted.

指定領域を設定するためのGUIや設定されている指定領域を表す枠等の表示は、撮像映像のエッジ成分の波形表示画像と同様に、必要に応じて、後述する映像合成回路210において撮像映像と合成して、重畳表示することができる。これらの表示に関わるデータは、システム制御部111から映像合成回路210に供給される。   The GUI for setting the designated area, the frame representing the set designated area, and the like are displayed in the video composition circuit 210 (to be described later) as necessary in the same way as the waveform display image of the edge component of the captured video. And can be superimposed and displayed. Data relating to these displays is supplied from the system control unit 111 to the video composition circuit 210.

エッジ抽出回路203は、撮像映像のエッジ成分を抽出する。本実施形態では、エッジ抽出回路203は、FIR(Finite Impulse Response)型のバンドパスフィルタを用いてエッジ成分を抽出するが、その詳細は後述することとする。   The edge extraction circuit 203 extracts edge components of the captured video. In the present embodiment, the edge extraction circuit 203 extracts edge components using a FIR (Finite Impulse Response) type band pass filter, and details thereof will be described later.

第1メモリコントローラ204は、映像信号のフィールド(又はフレーム)毎に、バンクメモリ部206内の第1波形保存メモリ(Bank1)207と第2波形保存メモリ(Bank2)208とのバンク切り替え制御と、メモリアクセス制御を行う。第1波形保存メモリ207と第2波形保存メモリ208の詳細については後述する。第1メモリコントローラ204は、映像信号の現座標情報とエッジ抽出回路203で抽出された撮像映像のエッジ成分のレベル(振幅)をそれぞれ直交座標系における情報として考え、メモリアクセスのためのアドレスを生成する。   The first memory controller 204 performs bank switching control between the first waveform storage memory (Bank1) 207 and the second waveform storage memory (Bank2) 208 in the bank memory unit 206 for each field (or frame) of the video signal. Perform memory access control. Details of the first waveform storage memory 207 and the second waveform storage memory 208 will be described later. The first memory controller 204 considers the current coordinate information of the video signal and the level (amplitude) of the edge component of the captured video extracted by the edge extraction circuit 203 as information in the orthogonal coordinate system, and generates an address for memory access To do.

例えば、後述する図5(a)に示されるように、撮像映像のエッジ成分を波形として水平表示する際には、メモリのアドレス空間を、映像信号の水平座標を横軸とし、エッジ成分のレベルを縦軸とした2次元空間と見なして、アクセス制御が行われる。一方、後述する図5(b)に示されるように、撮像映像のエッジ成分を波形として垂直表示する際には、メモリのアドレス空間を、映像信号の垂直座標を縦軸に、エッジ成分のレベルを横軸とした2次元空間と見なして、アクセス制御を行えばよい。ここでのアクセス制御による処理は、初めに該当アドレスのデータを読み出し、後述する波形制御部205において処理されたデータを再び第1メモリコントローラ204を通じて、同一アドレスに書き戻す処理である。   For example, as shown in FIG. 5A, which will be described later, when the edge component of the captured image is horizontally displayed as a waveform, the address space of the memory is the horizontal coordinate of the video signal, and the level of the edge component. Access control is performed with a vertical axis as a two-dimensional space. On the other hand, as shown in FIG. 5B, which will be described later, when the edge component of the captured image is vertically displayed as a waveform, the memory address space is represented by the vertical coordinate of the video signal as the vertical axis and the level of the edge component. Access control may be performed by regarding the two-dimensional space with the horizontal axis. The process by the access control here is a process of first reading the data at the corresponding address and writing the data processed in the waveform control unit 205 described later back to the same address through the first memory controller 204 again.

波形制御部205は、第1メモリコントローラ204が第1波形保存メモリ207から読み出したデータに対して、エッジ抽出回路203で抽出した撮像映像のエッジ成分のデータに任意のゲインを乗じたものを加算して、再び第1メモリコントローラ204に返す。波形制御部205がエッジ成分のデータに乗じるゲインをシステム制御部111から制御することにより、頻度によるデータの増加割合を制御することができ、視認性を制御することが可能となる。   The waveform control unit 205 adds the data read from the first waveform storage memory 207 by the first memory controller 204 to the edge component data of the captured video extracted by the edge extraction circuit 203 and multiplied by an arbitrary gain. Then, it returns to the first memory controller 204 again. By controlling the gain by which the waveform control unit 205 multiplies the edge component data from the system control unit 111, it is possible to control the increase rate of the data according to the frequency and to control the visibility.

これらの処理及び後述する映像合成回路210での合成処理により、アクセス頻度が高いアドレスのデータ値(すなわち、撮像映像からの同一レベルのエッジ成分の抽出回数)が大きい場合に、表示輝度が大きく(明るく)なるように制御することができる。このとき、エッジ成分の抽出方向(本実施形態では水平方向又は垂直方向)における同一座標で異なるレベルのエッジ成分が異なる頻度で抽出された場合、その位置に対応した表示輝度は一定でなく、検出されたレベルに対応する位置で変化する。これにより、撮影者は、エッジ成分を視覚的に容易に把握することができる。   When the data value of an address with a high access frequency (that is, the number of extractions of edge components of the same level from the captured video) is large by these processes and the synthesis process in the video synthesis circuit 210 described later, the display brightness is large ( Can be controlled to be brighter). At this time, when edge components of different levels are extracted at different frequencies in the same coordinates in the edge component extraction direction (horizontal direction or vertical direction in the present embodiment), the display luminance corresponding to the position is not constant and is detected. It changes at the position corresponding to the specified level. Thus, the photographer can easily grasp the edge component visually.

なお、各アドレスの初期値は、例えば、最低輝度に対応する値であり、最初にアクセスされた際に所定値が書き込まれ、2度目のアクセスからは、上述した読み出し及び書き戻しが行われる。また、アクセス頻度を用いる制御を行うことにより、エッジ成分ではない単発的なノイズがエッジ成分であるかのように表示され、撮影者に認識されること等を防止するという効果が得られる。   Note that the initial value of each address is, for example, a value corresponding to the lowest luminance, and a predetermined value is written when accessed for the first time, and the above-described reading and writing back are performed from the second access. Further, by performing control using the access frequency, it is possible to obtain an effect of preventing a single noise that is not an edge component from being displayed as if it was an edge component and being recognized by a photographer.

第1メモリコントローラ204は、領域指定回路202からの領域指定信号によって指定された撮像映像内の指定領域について抽出されたエッジ成分にフラグ情報を付加して、第1波形保存メモリ207又は第2波形保存メモリ208に書き込む。そして、第2メモリコントローラ211が、第1波形保存メモリ207又は第2波形保存メモリ208に書き込まれたエッジ成分のデータを、フラグ情報を含めて読み出す。   The first memory controller 204 adds flag information to the edge component extracted for the designated area in the captured image designated by the area designation signal from the area designation circuit 202, and the first waveform storage memory 207 or the second waveform Write to the storage memory 208. Then, the second memory controller 211 reads the edge component data written in the first waveform storage memory 207 or the second waveform storage memory 208 including the flag information.

映像合成回路210は、第2メモリコントローラ211が読み出したフラグ情報に基づいて、指定領域に対するエッジ成分の表示方法(例えば、表示色)を指定領域外に対するエッジ成分の表示方法と異ならせる制御を行う。これにより、撮像映像内のどの指定領域に対応したエッジ成分であるのか(つまり、どのような合焦度合いとなっているのか)を、視覚的に容易に把握することができる。映像合成回路210は、1フィールド(又は1フレーム)での処理が終了した後、第2メモリコントローラ211から各アドレスのデータ及びフラグ情報を読み出して波形表示画像を生成する。   Based on the flag information read by the second memory controller 211, the video composition circuit 210 performs control to make the edge component display method (for example, display color) for the designated area different from the edge component display method for the outside of the designated area. . As a result, it is possible to easily visually grasp which designated region in the captured image corresponds to the edge component (that is, what degree of focus is achieved). After completing the processing in one field (or one frame), the video composition circuit 210 reads out data and flag information at each address from the second memory controller 211 to generate a waveform display image.

バンクメモリ部206は、第1波形保存メモリ(Bank1)207と第2波形保存メモリ(Bank2)208とを含んでいる。第2波形保存メモリ208は、第1波形保存メモリと等価であり、バンク制御に使用される。   The bank memory unit 206 includes a first waveform storage memory (Bank 1) 207 and a second waveform storage memory (Bank 2) 208. The second waveform storage memory 208 is equivalent to the first waveform storage memory and is used for bank control.

第1波形保存メモリ207と第2波形保存メモリ208はそれぞれ、映像信号のフィールド(又はフレーム)毎に、第1メモリコントローラ204と第2メモリコントローラ211のいずれかからアクセスされるように切り替えられる。本実施形態では、第1波形保存メモリ207が第1メモリコントローラ204からアクセスされている時には、第2波形保存メモリ208は第2メモリコントローラ211からアクセスされるように制御されるものとする。また、次の映像信号のフィールド(又はフレーム)では、メモリコントローラと波形保存メモリとのアクセス関係が入れ替わるものとする。   The first waveform storage memory 207 and the second waveform storage memory 208 are switched so as to be accessed from either the first memory controller 204 or the second memory controller 211 for each field (or frame) of the video signal. In the present embodiment, when the first waveform storage memory 207 is accessed from the first memory controller 204, the second waveform storage memory 208 is controlled to be accessed from the second memory controller 211. In the next video signal field (or frame), the access relationship between the memory controller and the waveform storage memory is switched.

後処理部209は、映像合成回路210と、第2メモリコントローラ211とを有している。   The post-processing unit 209 includes a video composition circuit 210 and a second memory controller 211.

映像合成回路210は、システム制御部111の指示により、撮像映像と第2メモリコントローラ211がバンクメモリ部206から読み出した撮像映像のエッジ成分のデータに基づく波形表示画像とを合成する。合成された画像は、第1表示部122及び/又は第2表示部123に表示される。なお、上述した通り、読み出されたエッジ成分のデータにフラグ情報が付加されている場合、映像合成回路210は、フラグ情報を有するエッジ成分を、フラグ情報を有さないエッジ成分に対して視覚的に識別できるように表示を行う。   The video synthesis circuit 210 synthesizes the captured video and the waveform display image based on the edge component data of the captured video read from the bank memory unit 206 by the second memory controller 211 in accordance with an instruction from the system control unit 111. The synthesized image is displayed on the first display unit 122 and / or the second display unit 123. As described above, when flag information is added to the read edge component data, the video composition circuit 210 visually recognizes the edge component having the flag information with respect to the edge component having no flag information. Display so that it can be identified.

例えば、図5(a)では、撮像映像を全画面表示し、画面下方に撮像映像のエッジ成分の波形表示画像を重畳表示した様子を表している。ここでは、図5(a)は白黒図面であるが、指定領域502,503内で抽出されたエッジ成分の波形表示504,505は、指定領域外で抽出されたエッジ成分の波形表示506とは異なる色で表示されている。図5(a)はその様子(色の違い)を白黒の濃淡により模式的に表している。   For example, FIG. 5A shows a state where the captured image is displayed on the full screen and the waveform display image of the edge component of the captured image is superimposed and displayed below the screen. Although FIG. 5A is a black and white drawing, the edge component waveform displays 504 and 505 extracted in the designated areas 502 and 503 are the edge component waveform displays 506 extracted outside the designated area. It is displayed in a different color. FIG. 5A schematically shows the state (color difference) with black and white shading.

なお、指定領域502,503におけるエッジ成分の波形表示504,505の色は、システム制御部111から指定可能な構成としてもよい。本実施形態では、指定領域と指定領域外とに跨がるエッジ成分に対応する波形表示は、水平方向において同位置(同じ座標)に表示される。これに限られず、エッジ成分のレベルが異なる部分については視認可能で、レベルが同一な部分についてはシステム制御部111からの制御に従った優先順位で映像合成回路210において合成し、表示する構成とすることができる。   The colors of the edge component waveform displays 504 and 505 in the designated areas 502 and 503 may be configured to be designated by the system control unit 111. In the present embodiment, the waveform display corresponding to the edge component straddling the designated area and the outside of the designated area is displayed at the same position (same coordinates) in the horizontal direction. However, the present invention is not limited to this, and it is possible to visually recognize parts with different edge component levels, and to compose and display the parts with the same level in the video composition circuit 210 in the priority order according to the control from the system control unit 111. can do.

図5(a)では特に示していないが、撮像映像のエッジ成分の波形表示画像を見易くするために、波形表示画像の背景にバックグラウンドカラー(半透過の黒等)を表示する等してもよい。その場合、撮像画像にバックグラウンドカラーを重畳し、次いで、そのバックグラウンドカラーの上に波形表示画像を重畳するようにすると、波形表示画像の視認性を向上させることができる。   Although not particularly shown in FIG. 5A, a background color (semi-transparent black or the like) may be displayed on the background of the waveform display image in order to make the waveform display image of the edge component of the captured image easy to see. Good. In that case, the visibility of the waveform display image can be improved by superimposing the background color on the captured image and then superimposing the waveform display image on the background color.

第2メモリコントローラ211は、第1メモリコントローラ204によって第1波形保存メモリ207又は第2波形保存メモリ208に書き込まれたエッジ成分のデータをフラグ情報と共に読み出し、映像合成回路210に供給する。映像合成回路210は、上述したように、エッジ成分のデータとフラグ情報とから、エッジ成分のレベルと抽出された位置とを表す波形表示画像を生成し、撮像映像と位置合わせして合成し、第1表示部122及び/又は第2表示部123に表示する。   The second memory controller 211 reads the edge component data written in the first waveform storage memory 207 or the second waveform storage memory 208 by the first memory controller 204 together with the flag information, and supplies it to the video composition circuit 210. As described above, the video synthesis circuit 210 generates a waveform display image representing the level of the edge component and the extracted position from the edge component data and the flag information, and combines and synthesizes it with the captured video. The information is displayed on the first display unit 122 and / or the second display unit 123.

システム制御部111は、詳細な接続配線は図示を省略しているが、ビデオ制御部115内の各種制御を統括する。例えば、システム制御部111は、領域指定回路202への顔検出結果による領域指定や、エッジ抽出回路203で撮像映像から抽出するエッジ成分の中心周波数の制御やゲイン制御、波形制御部205でのゲイン制御等を行う。システム制御部111はまた、映像合成回路210でのエッジ成分の波形表示画像の合成有無や映像信号に対する合成位置制御、指定領域とそれ以外の領域に対応する波形表示方法の制御等も行う。   The system control unit 111 supervises various controls in the video control unit 115 although detailed connection wiring is not shown. For example, the system control unit 111 performs region designation based on the face detection result to the region designation circuit 202, control of the center frequency of the edge component extracted from the captured image by the edge extraction circuit 203, gain control, and gain in the waveform control unit 205. Control and so on. The system control unit 111 also performs the presence / absence of synthesis of the waveform display image of the edge component in the video synthesis circuit 210, the synthesis position control for the video signal, and the control of the waveform display method corresponding to the designated area and other areas.

<エッジ抽出回路の概略構成と処理内容>
エッジ抽出回路203には、映像の所定方向(ここでは水平方向とする)の輝度成分に対して、周波数特性と通過ゲインを調整可能な構造のFIR型バンドパスフィルタが適用されており、撮像映像からエッジ成分を抽出する。なお、他の方法でエッジ成分を抽出してもよい。
<Schematic configuration and processing contents of edge extraction circuit>
The edge extraction circuit 203 is applied with a FIR type bandpass filter having a structure capable of adjusting the frequency characteristics and the pass gain for the luminance component in a predetermined direction (here, the horizontal direction) of the image. Extract edge components from. Note that the edge component may be extracted by other methods.

図3は、エッジ抽出回路203の概略構成を示す図である。入力映像信号301は、D−FF(Delay type Flip Flop)302に入力される。D−FF302は映像信号のピクセルクロックで入力映像信号301をラッチし、次段のD−FF303へ渡す。D−FF303〜309はそれぞれD−FF302と同様の構成を有し、前段からのデータを映像信号のピクセルクロックによりラッチして、1ピクセルクロック分だけ遅延させて後段に出力する。ここで、ピクセルクロックは、第1表示部122の表示クロックであり、第1表示部122に用いられる液晶表示パネル等の仕様(表示解像度)に依存する。本実施形態では、ピクセルクロックは、大凡、13.5〜33.75MHzの範囲で設定される。   FIG. 3 is a diagram showing a schematic configuration of the edge extraction circuit 203. An input video signal 301 is input to a D-FF (Delay type Flip Flop) 302. The D-FF 302 latches the input video signal 301 with the pixel clock of the video signal and passes it to the D-FF 303 at the next stage. Each of the D-FFs 303 to 309 has the same configuration as that of the D-FF 302, latches data from the previous stage with the pixel clock of the video signal, delays it by one pixel clock, and outputs it to the subsequent stage. Here, the pixel clock is a display clock of the first display unit 122 and depends on specifications (display resolution) of a liquid crystal display panel or the like used for the first display unit 122. In the present embodiment, the pixel clock is set in a range of approximately 13.5 to 33.75 MHz.

本実施形態では、FIR型水平フィルタのY(−4)からY(4)の9タップのうち、撮像映像から抽出するエッジ成分の周波数に応じて3つのタップを組み合わせる。具体的には、センタータップY(0)は共通で、前後のタップの組み合わせを変えて、
[Y(−1)、Y(0)、Y(1)]、
[Y(−2)、Y(0)、Y(2)]、
[Y(−3)、Y(0)、Y(3)]、
[Y(−4)、Y(0)、Y(4)]、という組み合わせを考える。各組み合わせにおいて、選択されていないタップは、選択されているがタップ係数が零に設定されているものと考えることができる。このようにタップの組み合わせを制御することで、エッジとして抽出する周波数帯域を可変としている。
In the present embodiment, three taps are combined in accordance with the frequency of the edge component extracted from the captured video among the nine taps Y (-4) to Y (4) of the FIR type horizontal filter. Specifically, the center tap Y (0) is the same, changing the combination of the front and rear taps,
[Y (-1), Y (0), Y (1)],
[Y (-2), Y (0), Y (2)],
[Y (-3), Y (0), Y (3)],
Consider a combination of [Y (−4), Y (0), Y (4)]. In each combination, an unselected tap can be considered to be selected but the tap coefficient is set to zero. By controlling the combination of taps in this way, the frequency band extracted as an edge can be made variable.

組み合わせる3つのタップのタップ係数及びDCゲインは以下の通りに、
センタータップのタップ係数:2α、
前後のタップのタップ係数:−α、
DCゲイン:2α−α−α=0、とする。
The tap coefficient and DC gain of the three taps to be combined are as follows:
Center tap tap coefficient: 2α,
Tap coefficient of front and rear taps: -α,
DC gain: 2α−α−α = 0.

ゲイン調整信号310はシステム制御部111から供給され、エッジ抽出回路203のFIR型水平フィルタの強調周波数帯域のレベルを制御する。ここでは、ゲイン調整信号310は4ビットの信号で、強調するゲインレベルを16段階に切り替えられる構成とする。具体的には、α=15(ゲイン最大)〜α=0(ゲイン最小(OFF))とする。α=0の場合、映像信号をFIR型水平フィルタで処理しない(スルーする)ものとする。   The gain adjustment signal 310 is supplied from the system control unit 111 and controls the level of the emphasis frequency band of the FIR horizontal filter of the edge extraction circuit 203. Here, the gain adjustment signal 310 is a 4-bit signal, and the gain level to be emphasized can be switched to 16 levels. Specifically, α = 15 (maximum gain) to α = 0 (minimum gain (OFF)). When α = 0, the video signal is not processed (through) by the FIR horizontal filter.

図3に示される周波数調整信号311は、システム制御部111から供給され、これにより、エッジ抽出回路203で撮像映像から抽出するエッジ成分の中心周波数が制御される。周波数調整信号311は、2ビットの信号とし、抽出するエッジ成分の中心周波数を4通りに切り替え可能とする。   The frequency adjustment signal 311 shown in FIG. 3 is supplied from the system control unit 111, and thereby, the center frequency of the edge component extracted from the captured video by the edge extraction circuit 203 is controlled. The frequency adjustment signal 311 is a 2-bit signal, and the center frequency of the extracted edge component can be switched in four ways.

信号セレクタ312は、周波数調整信号311によって制御され、周波数調整信号311に応じた1つの入力を選択して出力することにより、エッジ抽出回路203が抽出する中心周波数を切り替える。2ビットの周波数調整信号311と、エッジ抽出回路203から出力される中心周波数(強調中心周波数)fcとの関係は、具体的には、以下の通りである。   The signal selector 312 is controlled by the frequency adjustment signal 311 and switches the center frequency extracted by the edge extraction circuit 203 by selecting and outputting one input corresponding to the frequency adjustment signal 311. The relationship between the 2-bit frequency adjustment signal 311 and the center frequency (emphasis center frequency) fc output from the edge extraction circuit 203 is specifically as follows.

サンプリング周波数:f(MHz)のとき、
周波数調整信号311:強調中心周波数(fc)
00:fc=f/2(MHz)
(センタータップ及びセンタータップと隣り合う前後のタップ使用)
01:fc=f/4(MHz)
(センタータップ及びセンタータップから前後に1つ飛ばしたタップ使用)
10:fc=f/6(MHz)
(センタータップ及びセンタータップから前後に2つ飛ばしたタップ使用)
11:fc=f/8(MHz)
(センタータップ及びセンタータップから前後に3つ飛ばしたタップ使用)
信号セレクタ312により選択された信号は、出力信号313として第1メモリコントローラ204へ出力される。
Sampling frequency: f (MHz)
Frequency adjustment signal 311: Emphasized center frequency (fc)
00: fc = f / 2 (MHz)
(Use of center tap and front and rear taps adjacent to the center tap)
01: fc = f / 4 (MHz)
(Use the center tap and the tap that has been skipped forward and backward from the center tap)
10: fc = f / 6 (MHz)
(Using the center tap and two taps skipped forward and backward from the center tap)
11: fc = f / 8 (MHz)
(Use of the center tap and three taps skipped back and forth from the center tap)
The signal selected by the signal selector 312 is output to the first memory controller 204 as an output signal 313.

図4は、サンプリング周波数fを13.5MHzとしたときのエッジ抽出回路203の周波数特性の例を示す図である。図4(a),(b),(c),(d)は、それぞれ周波数調整信号311が00,01,10,11である場合に対応し、中心周波数fc(MHz)はf/2,f/4,f/6,f/8及びその高調周波数となる。   FIG. 4 is a diagram illustrating an example of frequency characteristics of the edge extraction circuit 203 when the sampling frequency f is 13.5 MHz. 4A, 4B, 4C, and 4D correspond to the cases where the frequency adjustment signal 311 is 00, 01, 10, and 11, respectively, and the center frequency fc (MHz) is f / 2. f / 4, f / 6, f / 8 and their harmonic frequencies.

撮像映像の信号が1水平ライン毎にエッジ抽出回路203に入力され、水平方向におけるエッジ成分の抽出が行われる。第1メモリコントローラ204及び波形制御部205は、エッジ抽出回路203で抽出されたエッジ成分のレベルに応じた、上述のメモリアクセス制御を行う。この動作が1ライン毎に繰り返されることで、1フィールド(又は1フレーム)分の映像信号について、水平方向における各ラインのエッジ成分のレベルを反映した値が第1波形保存メモリ207又は第2波形保存メモリ208に書き込まれる。   A captured image signal is input to the edge extraction circuit 203 for each horizontal line, and edge components are extracted in the horizontal direction. The first memory controller 204 and the waveform control unit 205 perform the above-described memory access control according to the level of the edge component extracted by the edge extraction circuit 203. By repeating this operation for each line, a value reflecting the level of the edge component of each line in the horizontal direction for the video signal for one field (or one frame) is the first waveform storage memory 207 or the second waveform. It is written in the storage memory 208.

例えば、撮像映像中に垂直方向の縦線が存在する場合、その縦線が長いほど同じ水平位置に同じレベルのエッジ成分が抽出される頻度が高くなる。同一位置且つ同一レベルでエッジ成分が複数回抽出された場合、抽出回数が多いほど波形保存メモリの同一アドレスにアクセスされる頻度が高くなり、上述のアクセス制御によってそのアドレスのデータ値は大きくなる。その結果、対応する指標は高輝度で表示されることになる。一方、エッジ成分のレベル(振幅)の大きさを示す指標の長さは、頻度には依存しない。検出される垂直表示を行う場合には、垂直ライン毎に同様の動作が行われる。   For example, when a vertical line in the vertical direction exists in the captured image, the longer the vertical line, the higher the frequency with which edge components of the same level are extracted at the same horizontal position. When edge components are extracted a plurality of times at the same position and at the same level, the frequency of access to the same address of the waveform storage memory increases as the number of extractions increases, and the data value at that address increases by the above-described access control. As a result, the corresponding index is displayed with high luminance. On the other hand, the length of the index indicating the level (amplitude) of the edge component does not depend on the frequency. When the detected vertical display is performed, the same operation is performed for each vertical line.

<第1表示部及び/又は第2表示部における表示形態>
図5は、第1表示部122及び/又は第2表示部123に、撮像映像と共に、顔検出結果による指定領域と撮像映像のエッジ成分のレベルを表示した状態を模式的に示す図である。本実施形態では、例えば、入力操作部113を通じて撮影モードがMFモードに設定されている場合に、合焦度合いの補助表示として、エッジ成分の波形表示画像を撮像映像に重畳表示する。
<Display Form in the First Display Unit and / or the Second Display Unit>
FIG. 5 is a diagram schematically illustrating a state in which the first display unit 122 and / or the second display unit 123 display the specified region and the level of the edge component of the captured image along with the captured image along with the captured image. In the present embodiment, for example, when the shooting mode is set to the MF mode through the input operation unit 113, the waveform display image of the edge component is superimposed and displayed on the captured video as an auxiliary display of the degree of focus.

ここで、図5について詳述する前に、MF操作時のエッジ成分の波形表示処理について、図6を参照して説明する。図6は、MF操作時の基本的なエッジ成分の波形表示処理のフローチャートである。   Here, before describing FIG. 5 in detail, the waveform display processing of the edge component during the MF operation will be described with reference to FIG. FIG. 6 is a flowchart of basic edge component waveform display processing during MF operation.

システム制御部111は、入力操作部113による焦点距離の調整操作に応じた焦点の移動方向と移動量に基づいて、レンズ駆動部108を制御し、レンズ部101の焦点距離を変更させる。第1表示部122及び/又は第2表示部123には、スルー画像(EVF画像)が逐次表示され、第1表示部122及び/又は第2表示部123はEVFとして機能しているものとする。また、第1表示部122及び/又は第2表示部123に表示される撮像映像内に少なくとも1つの指定領域が設定されているものとする。   The system control unit 111 controls the lens driving unit 108 to change the focal length of the lens unit 101 based on the moving direction and moving amount of the focal point according to the focal length adjustment operation by the input operation unit 113. Through images (EVF images) are sequentially displayed on the first display unit 122 and / or the second display unit 123, and the first display unit 122 and / or the second display unit 123 function as an EVF. . In addition, it is assumed that at least one designated area is set in the captured image displayed on the first display unit 122 and / or the second display unit 123.

システム制御部111は、ビデオ制御部115に対してMF操作の補助表示処理を開始するように指示し、その際に、設定されている指定領域の情報を領域指定回路202に通知する。エッジ抽出回路203は、システム制御部111からの補助表示処理の開始指示に応答して、撮像映像からのエッジ成分の抽出を開始する(ステップS601)。   The system control unit 111 instructs the video control unit 115 to start the auxiliary display processing of the MF operation, and at this time, notifies the region designation circuit 202 of information on the designated designated region. In response to the auxiliary display processing start instruction from the system control unit 111, the edge extraction circuit 203 starts extracting edge components from the captured video (step S601).

第1メモリコントローラ204及び波形制御部205は、バンクメモリ部206内の波形保存メモリ(ここでは第2波形保存メモリ208とする)における、エッジ抽出回路203の抽出結果に応じたアドレスへアクセスし、波形生成を行う(ステップS602)。その際、第1メモリコントローラ204は、領域指定回路202から領域指定信号で通知された指定領域で抽出されたエッジ成分に対応するアドレスのデータには、フラグ情報を付加する。   The first memory controller 204 and the waveform control unit 205 access an address corresponding to the extraction result of the edge extraction circuit 203 in the waveform storage memory (here, the second waveform storage memory 208) in the bank memory unit 206, Waveform generation is performed (step S602). At that time, the first memory controller 204 adds flag information to the data of the address corresponding to the edge component extracted in the designated area notified by the area designation signal from the area designation circuit 202.

続いて、撮像映像の1フィールド(又は1フレーム)からのエッジ成分の抽出(ステップS601)及び波形生成(ステップS602)が終了したか否かが判定される(ステップS603)。波形生成が終了した場合(S603で“YES”)、処理はステップS604に進められる。波形生成が終了していない場合(S603で“NO”)、処理はステップS601に戻される。   Subsequently, it is determined whether or not the extraction of the edge component (step S601) and the waveform generation (step S602) from one field (or one frame) of the captured video is completed (step S603). If waveform generation is completed (“YES” in S603), the process proceeds to step S604. If waveform generation has not ended ("NO" in S603), the process returns to step S601.

ステップS604では、第2メモリコントローラ211が、第2波形保存メモリ208からエッジ成分のデータを読み出し、映像合成回路210へ供給する。映像合成回路210は、波形表示画像を生成し、生成した波形表示画像をEVF画像に重畳して、第1表示部122及び/又は第2表示部123に表示する。その際、映像合成回路210は、フラグ情報が付加されているエッジ成分のデータを、フラグ情報のないエッジ成分のデータから視覚的に識別できるような波形表示画像を生成する。なお、フラグ情報と表示方法との対応は予め定めておくことができる。   In step S <b> 604, the second memory controller 211 reads edge component data from the second waveform storage memory 208 and supplies it to the video composition circuit 210. The video synthesis circuit 210 generates a waveform display image, superimposes the generated waveform display image on the EVF image, and displays the waveform display image on the first display unit 122 and / or the second display unit 123. At that time, the video composition circuit 210 generates a waveform display image that can visually identify the edge component data to which the flag information is added from the edge component data without the flag information. The correspondence between the flag information and the display method can be determined in advance.

ステップS604の後、第1メモリコントローラ204は、次のフィールド(又はフレーム)に対して用いる波形保存メモリのバンク切り替え処理(ここでは第2波形保存メモリ208から第1波形保存メモリ207への切り替え)を行う(ステップS605)。   After step S604, the first memory controller 204 switches the bank of the waveform storage memory used for the next field (or frame) (here, switching from the second waveform storage memory 208 to the first waveform storage memory 207). Is performed (step S605).

ステップS605の処理は、第2メモリコントローラ211によるエッジ成分のデータの読み出し、波形表示画像の生成及び表示という一連の処理を含む。ステップS605の処理はまた、第1メモリコントローラ204によるバンク切り替え及び次フィールド(又はフレーム)についてのエッジ成分の抽出処理をも含む。   The process in step S605 includes a series of processes of reading edge component data, generating and displaying a waveform display image by the second memory controller 211. The processing in step S605 also includes bank switching by the first memory controller 204 and edge component extraction processing for the next field (or frame).

このように、EVF画像にその時点における合焦度合いを表すエッジ成分の波形表示画像を重畳させて表示することで、撮影者はEVFを見ながらMFによる合焦を容易に行うことができる。また、波形表示画像のうち、指定領域中のエッジ成分を反映した部分を他の部分と視覚的に識別可能に表示するので、指定領域での合焦度合いを容易に確認することができる。   Thus, by displaying the waveform display image of the edge component representing the degree of focus at that time on the EVF image and displaying it, the photographer can easily focus on the MF while viewing the EVF. Moreover, since the part reflecting the edge component in the designated area in the waveform display image is displayed so as to be visually distinguishable from other parts, the degree of focusing in the designated area can be easily confirmed.

なお、撮像映像のエッジ成分を示す波形表示画像は、撮像映像上に重畳表示する必要はなく、撮像映像が全画面表示でなければ、撮像映像の周囲に表示するようにしてもよい。また、指定領域で抽出されたエッジ成分のみに基づく波形表示を行うようにしても、指定領域における合焦度合いを容易に識別することができる。表示形態をどのように設定するかを撮影者が任意に、且つ、動的に切り替えることができるように、入力操作部113等に機能を割り当てても構わない。   Note that the waveform display image indicating the edge component of the captured video does not need to be superimposed on the captured video, and may be displayed around the captured video if the captured video is not a full screen display. Further, the focus level in the designated area can be easily identified even if the waveform display is performed based only on the edge component extracted in the designated area. A function may be assigned to the input operation unit 113 or the like so that the photographer can arbitrarily and dynamically switch how the display form is set.

次に、改めて図5に示した第1表示部122及び/又は第2表示部123における表示形態について詳細に説明する。ここでは、第1表示部122と第2表示部123は共に、アスペクト比が16対9の横長形状の表示画面501を有しているものとする。また、図5では、顔検出機能により検出された指定領域502,503で合焦させるものとする。   Next, the display form in the first display unit 122 and / or the second display unit 123 shown in FIG. 5 will be described in detail. Here, it is assumed that both the first display unit 122 and the second display unit 123 have a horizontally long display screen 501 having an aspect ratio of 16: 9. Further, in FIG. 5, it is assumed that the designated areas 502 and 503 detected by the face detection function are focused.

図5(a)の水平表示では、撮像映像の水平方向のエッジ成分のレベルを示す指標(つまり、波形)が画面下端部に表示されている。なお、指標の表示は、画面上端部に行ってもよい。撮影者がMF操作を行う場合、フォーカスが合ってくると、被写体のエッジ部分が合焦してくるので、その位置で抽出されるエッジ成分のレベルが大きくなる。そのため、画面下端部に波形表示される指標が高く(波形が大きく)表示されるようになる。よって、撮影者は、EVFを見ながら、波形表示画像のうち所望の被写体に対応した指標が最も高く表示される状態となるようにMF操作を行うことで、所望の被写体に容易に合焦させることができる。   In the horizontal display of FIG. 5A, an index (that is, a waveform) indicating the level of the edge component in the horizontal direction of the captured image is displayed at the lower end of the screen. The indicator may be displayed on the upper end portion of the screen. When the photographer performs the MF operation, when the subject comes into focus, the edge portion of the subject is brought into focus, so that the level of the edge component extracted at that position increases. Therefore, the index displayed in the waveform at the lower end of the screen is displayed high (the waveform is large). Therefore, the photographer easily focuses on the desired subject by performing the MF operation so that the index corresponding to the desired subject in the waveform display image is displayed highest while viewing the EVF. be able to.

図5(a)の水平表示では、撮像映像のエッジ成分の波形表示画像を撮像映像に対して水平位置を合わせて重畳表示するので、撮像映像に含まれる個々の被写体について、波形表示画像と撮像映像とを垂直方向に見ながら合焦度合いを確認することができる。なお、本実施形態では、撮像映像の垂直方向において、同一のエッジ成分のレベルが大きいほど波形表示画像の輝度が大きくなるように表示制御され、これにより、更に合焦度合いの確認が容易となっている。   In the horizontal display of FIG. 5A, the waveform display image of the edge component of the captured video is superimposed and displayed on the captured video in the horizontal position, so that the waveform display image and the captured image are captured for each subject included in the captured video. The degree of focus can be confirmed while viewing the video in the vertical direction. In the present embodiment, display control is performed so that the luminance of the waveform display image increases as the level of the same edge component increases in the vertical direction of the captured image, thereby further facilitating confirmation of the degree of focus. ing.

図5(b)の垂直表示は、撮像映像の垂直方向のエッジ成分のレベルを示す波形表示画像を、画面右端部に表示したものである。なお、波形の表示は、画面左端部に行ってもよい。図5(a)の水平表示の場合と同様に、撮影者は、波形表示画像のうち、所望の被写体に対応した指標が最も高く表示される状態となるようにMF操作を行うことで、所望の被写体に容易に合焦させることができる。図5(b)の垂直表示では、撮像映像のエッジ成分の波形表示画像を撮像映像に対して垂直位置を合わせて重畳表示するので、撮像映像に含まれる個々の被写体について、波形表示画像と撮像映像とを水平方向に見ながら合焦度合いを確認することができる。   The vertical display in FIG. 5B is a display of a waveform display image indicating the level of the edge component in the vertical direction of the captured image at the right end of the screen. The waveform display may be performed at the left end of the screen. As in the case of the horizontal display in FIG. 5A, the photographer performs the MF operation so that the index corresponding to the desired subject is displayed highest in the waveform display image. The subject can be easily focused on. In the vertical display of FIG. 5B, since the waveform display image of the edge component of the captured video is superimposed and displayed with the vertical position aligned with the captured video, the waveform display image and the captured image are captured for each subject included in the captured video. The degree of focus can be confirmed while viewing the image in the horizontal direction.

図5(a)の波形表示では、指定領域502のエッジ成分に対応する指標504と指定領域503のエッジ成分に対応する指標505は、指定領域外で抽出されたエッジ成分の指標506とは異なる表示が行われている。つまり、図5(a)では色の違いが表現できないため、指標504,505を線の集合体で表しているが、実際には表示色を異ならせたり、点滅させたり、輝度を変える等、視覚的に識別可能な任意の表示方法を採用することができる。   In the waveform display of FIG. 5A, the index 504 corresponding to the edge component of the designated area 502 and the index 505 corresponding to the edge component of the designated area 503 are different from the index 506 of the edge component extracted outside the designated area. The display is done. That is, in FIG. 5A, since the color difference cannot be expressed, the indicators 504 and 505 are represented by a collection of lines. However, in actuality, the display color is changed, the display is blinked, the luminance is changed, etc. Any display method that can be visually identified can be employed.

例えば、指定領域502,503でそれぞれ抽出されたエッジ成分を反映する指標504及び505を「赤」、指定領域外で抽出されたエッジ成分を反映した指標506を「緑」で表示することができる。これにより、撮像映像全体の合焦度合い確認しつつ、注目する指定領域502,503の合焦度合い容易に確認することができる。また、指定領域502,503の矩形枠は、表示しないこともできる。しかし、顔検出機能により検出した顔の中心座標と領域サイズを元にして、映像合成回路210部によりOSDによる矩形枠を撮像映像上に表示することで、フォーカスを合わせる場所の目印として撮影者に提示することで、MF操作性を向上させることができる。これらの特徴は、図5(b)の場合のように、指定領域502のエッジ成分に対応する指標510と指定領域503のエッジ成分に対応する指標511についても同様である。   For example, the indices 504 and 505 reflecting the edge components extracted in the designated areas 502 and 503 can be displayed in “red”, and the index 506 reflecting the edge components extracted outside the designated area can be displayed in “green”. . Thereby, it is possible to easily confirm the degree of focus of the designated areas 502 and 503 to be noted while confirming the degree of focus of the entire captured image. Further, the rectangular frames of the designated areas 502 and 503 can be not displayed. However, based on the center coordinates and area size of the face detected by the face detection function, the image composition circuit 210 unit displays a rectangular frame by the OSD on the captured image, so that the photographer can use it as a mark of where to focus. By presenting, the MF operability can be improved. These characteristics are the same for the index 510 corresponding to the edge component of the designated area 502 and the index 511 corresponding to the edge component of the designated area 503 as in the case of FIG.

図5(a)の場合、顔検出機能による指定領域502,503が水平方向で離れている場合、画面下端部に水平表示された、指定領域502,503の各エッジ成分を示す指標504,505は互いに重ならない。よって、指定領域502,503のそれぞれの合焦度合いを、明瞭に把握することができる。   In the case of FIG. 5A, when the designated areas 502 and 503 by the face detection function are separated in the horizontal direction, the indicators 504 and 505 indicating the edge components of the designated areas 502 and 503 displayed horizontally at the lower end of the screen. Do not overlap each other. Therefore, the degree of focus of each of the designated areas 502 and 503 can be clearly grasped.

これに対して、図5(c)に示されるように、指定領域502,503同士が、少なくとも一部において水平方向で重複する場合がある。この場合に、指定領域502,503の各エッジ成分を示す指標507,508を画面下端部に水平表示すると、指標507,508同士に重なり部分509が生じ、指定領域502,503のそれぞれの合焦度合いの把握が困難になるおそれがある。この問題を解決した表示形態が、図5(b)に示した表示形態である。すなわち、本実施形態に係るデジタルビデオカメラでは、指定領域502,503の位置関係を識別することにより、図5(c)の水平表示から図5(b)の垂直表示に切り替える。つまり、撮像映像のエッジ成分の抽出方向を水平方向からこれと直交する垂直方向に切り替えて、指標507,508の表示から指標510,511の表示に切り替える。これにより、指標507,508が重なって重なり部分509が生じることを回避して、重複しない指標510,511を表示させることができ、指定領域502,503のそれぞれの合焦度合いを明瞭に把握することができるようになる。   On the other hand, as shown in FIG. 5C, the designated areas 502 and 503 may overlap at least partially in the horizontal direction. In this case, when the indices 507 and 508 indicating the edge components of the designated areas 502 and 503 are horizontally displayed at the lower end of the screen, an overlapping portion 509 is generated between the indices 507 and 508, and each of the designated areas 502 and 503 is focused. It may be difficult to grasp the degree. The display form that solves this problem is the display form shown in FIG. That is, the digital video camera according to the present embodiment switches from the horizontal display in FIG. 5C to the vertical display in FIG. 5B by identifying the positional relationship between the designated areas 502 and 503. In other words, the edge component extraction direction of the captured video is switched from the horizontal direction to the vertical direction orthogonal thereto, and the display of the indices 507 and 508 is switched to the display of the indices 510 and 511. Accordingly, it is possible to avoid the overlapping of the indexes 507 and 508 and to generate the overlapping portion 509, display the indexes 510 and 511 that do not overlap, and clearly grasp the degree of focus of the designated areas 502 and 503. Will be able to.

このような図5(c)から図5(b)への表示形態の切り替え制御について、図7及び図8を参照して、以下に説明する。図7は、2つの指定領域502,503の位置判定手法を模式的に示す図である。また、図8は、MF操作時の撮像映像のエッジ成分の波形表示処理のフローチャートである。   Such display mode switching control from FIG. 5C to FIG. 5B will be described below with reference to FIGS. FIG. 7 is a diagram schematically showing a method for determining the positions of the two designated areas 502 and 503. FIG. 8 is a flowchart of the waveform display processing of the edge component of the captured image during the MF operation.

図7では、指定領域502,503に注目し、指定領域502の中心を原点とした2次元のX−Y座標を考える。図7(a)では、指定領域503は指定領域502のX方向に位置しているため、指定領域503は第1象現と第4象現とに跨がって位置する。これに対して、図7(b)では、指定領域503は第1象現内にあり、図7(c)では、指定領域503は第1象現と第2象現とに跨がって位置している。   In FIG. 7, paying attention to the designated areas 502 and 503, two-dimensional XY coordinates with the center of the designated area 502 as the origin are considered. In FIG. 7A, since the designated area 503 is located in the X direction of the designated area 502, the designated area 503 is located across the first quadrant and the fourth quadrant. In contrast, in FIG. 7B, the designated area 503 is in the first quadrant, and in FIG. 7C, the designated area 503 extends across the first and second quadrants. positioned.

ここで、図7(a)の指定領域503が新たな象現にかかる前を、切り替わり不感帯701とし、撮像映像のエッジ成分の波形表示を図5(a)の水平表示から図5(b)の垂直表示へと切り替えない。図7(a)から図7(b)を経て図7(c)の様に領域503の位置が変化し、別象現(第2象現)にかかった時に、エッジ成分の波形表示を図5(a)から図5(b)に切り替える。逆に、図7(c)から図7(b)の状態になっても、図5(b)から図5(a)へと切り替えず、図7(d)の様に、指定領域503の位置が変化して、別象現(第4象現)にかかった時に、図5(b)から図5(a)へ切り替える。これにより、エッジ成分の波形表示が、水平表示と垂直表示との間で目まぐるしく切り替わってしまうことを防止しながら、指定領域502,503の位置関係に依存して指標504,505,510,511が識別し難くなることを回避することができる。   Here, before the designated area 503 in FIG. 7A starts a new image, a switching dead zone 701 is set, and the waveform display of the edge component of the captured image is changed from the horizontal display in FIG. 5A to the one in FIG. Do not switch to vertical display. When the position of the region 503 is changed as shown in FIG. 7C through FIG. 7A to FIG. 7B and the second quadrant is applied, the waveform display of the edge component is shown. Switching from 5 (a) to FIG. 5 (b). Conversely, even if the state of FIG. 7C is changed to that of FIG. 7B, the switching from FIG. 5B to FIG. 5A is not performed, and the designated area 503 is changed as shown in FIG. When the position is changed and another quadrant (fourth quadrant) is reached, the mode is switched from FIG. 5 (b) to FIG. 5 (a). Thereby, the indicators 504, 505, 510, and 511 are changed depending on the positional relationship between the designated areas 502 and 503, while preventing the waveform display of the edge component from being rapidly switched between the horizontal display and the vertical display. It can be avoided that identification becomes difficult.

図8のフローチャートに示す様に、図7を参照して説明した表示の切り替え制御では、先ず、撮像映像からの顔検出処理が行われる(ステップS801)。ここでは、顔検出処理において、2つの顔の中心座標と領域サイズが算出され、指定領域502,503が設定される。続いて、指定領域502を基準となる領域に設定して、指定領域502の中心を原点とする2次元のX−Y座標が設定され(ステップS802)、さらに、注目する領域である指定領域503の位置する象現(領域)が検出される(ステップS803)。そして、指定領域503が切り替わり不感帯701内に位置するか否かが判定される(ステップS804)。   As shown in the flowchart of FIG. 8, in the display switching control described with reference to FIG. 7, first, face detection processing from a captured image is performed (step S801). Here, in the face detection process, center coordinates and area sizes of two faces are calculated, and designated areas 502 and 503 are set. Subsequently, the designated area 502 is set as a reference area, a two-dimensional XY coordinate with the center of the designated area 502 as the origin is set (step S802), and the designated area 503, which is the area of interest. Is detected (step S803). Then, it is determined whether or not the designated area 503 is switched and positioned within the dead zone 701 (step S804).

切り替わり不感帯701内にある場合(S804で“YES”)、波形表示画像の表示位置を切り替えないため、処理はステップS801へ戻される。切り替わり不感帯701内にない場合(S804で“YES”)、別の象現に跨がっていることになるので、波形表示画像の表示位置を変更させる処理(図5(a)と図5(b)との間の表示形態の切り替え)が実行される(ステップSS805)。これにより、指定領域502,503の合焦度合いを示す指標504,505,510,511が、指定領域502,503の位置に合わせて、適切に表示されるようになる。   If it is within the switching dead zone 701 (“YES” in S804), the process returns to step S801 because the display position of the waveform display image is not switched. If it is not within the switching dead zone 701 (“YES” in S804), it means that it is straddling another quadrant, and therefore processing for changing the display position of the waveform display image (FIGS. 5A and 5B). ) Is switched (step SS805). As a result, the indicators 504, 505, 510, and 511 indicating the degree of focus of the designated areas 502 and 503 are appropriately displayed according to the positions of the designated areas 502 and 503.

以上に説明したように、本実施形態によれば、MF操作時の合焦を支援するための補助表示として、撮像映像の表示画面において、撮像映像から抽出したエッジ成分のレベルを撮像映像中の被写体位置と対応させて波形表示する。これにより、波形表示されるレベルが最も高くなるように焦点調整を行うことで、MF操作での合焦を容易に行うことができる。その際、エッジ成分のレベルを被写体位置と対応した位置に表示し、波形表示画像のうち指定領域中のエッジ成分を反映した部分を、他の部分と視覚的に識別可能に表示する。これにより、撮像映像中のどの位置(指定領域)で抽出されたエッジ成分であるのかを容易に認識して、指定領域での合焦度合いを容易に確認することができるので、所望の被写体に対する合焦を容易に行うことができる。これと同時に、撮像映像における指定領域のエッジ成分の波形表示画像を、指定領域同士の位置関係に応じて水平方向と垂直方向との間で切り替えて表示することで、合焦度合いを示す指標の識別を確保している。これにより、MF操作時の合焦操作が一層容易になっている。   As described above, according to the present embodiment, as an auxiliary display for supporting focusing during MF operation, the level of the edge component extracted from the captured image is displayed on the captured image display screen. Waveforms are displayed in correspondence with the subject position. Thereby, focusing by MF operation can be easily performed by performing focus adjustment so that the level at which the waveform is displayed becomes the highest. At this time, the level of the edge component is displayed at a position corresponding to the subject position, and the portion of the waveform display image that reflects the edge component in the designated region is displayed so as to be visually distinguishable from other portions. As a result, it is possible to easily recognize at which position (designated area) in the captured image the edge component is extracted, and to easily check the degree of focus in the designated area. Focusing can be performed easily. At the same time, the waveform display image of the edge component of the designated area in the captured image is displayed by switching between the horizontal direction and the vertical direction according to the positional relationship between the designated areas, thereby displaying the index indicating the degree of focus. Identification is secured. Thereby, the focusing operation at the time of MF operation is further facilitated.

《第2実施形態》
第2実施形態は、第1実施形態と比較すると、指定領域のエッジ成分の波形表示方法のみが相違し、それ以外の点については第1実施形態と同様であるため、同内容の事項についての説明を省略し、相違点について詳細に説明する。
<< Second Embodiment >>
Compared with the first embodiment, the second embodiment is different from the first embodiment only in the waveform display method of the edge component of the designated region, and the other points are the same as the first embodiment. The description will be omitted, and the differences will be described in detail.

本実施形態は、デジタルビデオカメラ本体を回転させて横撮り撮影と縦撮り撮影とを変更したときの、指定領域のエッジ成分の波形表示方法に特徴を有する。すなわち、本実施形態は、撮影画角内で指定領域の位置関係が、表示されている波形表示に対して変化したときに、その変化に対応することを特徴とする。   This embodiment has a feature in the waveform display method of the edge component of the designated region when the horizontal video shooting and the vertical video shooting are changed by rotating the digital video camera body. In other words, the present embodiment is characterized in that when the positional relationship of the designated area within the shooting angle of view changes with respect to the displayed waveform display, the change corresponds to the change.

図9は、デジタルビデオカメラを回転させた際に、第1表示部122及び/又は第2表示部123に、撮像映像と共に、指定領域と撮像映像のエッジ成分の波形表示画像とが表示された状態を模式的に示す図である。図9(a)は、本発明の実施形態には属さない表示形態であって、図5(a)の状態からデジタルビデオカメラ本体を回転させた、そのままの状態が示されている。つまり、撮像映像のエッジ成分を示す波形表示画像は、表示画面901の長辺に沿って表示されている。図9(a)では、表示画面901内の指定領域502,503のそれぞれに対応する指標が、指標902のように重なってしまい、その結果、それぞれの指標を明瞭に識別することが困難となってしまっている。   In FIG. 9, when the digital video camera is rotated, the designated area and the waveform display image of the edge component of the captured video are displayed on the first display unit 122 and / or the second display unit 123 together with the captured video. It is a figure which shows a state typically. FIG. 9A is a display form that does not belong to the embodiment of the present invention, and shows a state in which the digital video camera body is rotated from the state of FIG. That is, the waveform display image indicating the edge component of the captured video is displayed along the long side of the display screen 901. In FIG. 9A, the indices corresponding to the designated areas 502 and 503 in the display screen 901 overlap each other like the index 902. As a result, it is difficult to clearly identify each index. It has been.

この問題を解決するために、本実施形態では、図9(b)に示されるように、デジタルビデオカメラ本体の回転に連動してX−Y座標を回転させ、指定領域502,503のそれぞれの指標904,905を重ならないように表示させる。図10は、デジタルビデオカメラを回転させた際の、指定領域502,503の位置判定手法を模式的に示す図である。なお、デジタルビデオカメラ本体の回転の検出には、入力操作部113に含まれる天地方向を判定する重力センサ(不図示)等からの情報が用いられる。   In order to solve this problem, in this embodiment, as shown in FIG. 9B, the XY coordinates are rotated in conjunction with the rotation of the digital video camera body, and the designated areas 502 and 503 are respectively The indicators 904 and 905 are displayed so as not to overlap. FIG. 10 is a diagram schematically showing a method for determining the positions of the designated areas 502 and 503 when the digital video camera is rotated. Note that information from a gravity sensor (not shown) or the like that determines the top-to-bottom direction included in the input operation unit 113 is used to detect rotation of the digital video camera body.

図10(a)のX−Y座標状態は、図5(a)、図7(a)及び図9(a)のX−Y座標状態と同じであり、水平方向とX方向とし、鉛直方向をY方向としている。そのため、基準となる指定領域502の位置は変わらず、指定領域503の位置する象現は「第1象現+第4象現」のままであるので、撮像映像のエッジ成分の波形表示画像の表示位置の切り替えは行われず、図9(a)の表示状態となってしまう。   The XY coordinate state of FIG. 10A is the same as the XY coordinate state of FIG. 5A, FIG. 7A, and FIG. Is the Y direction. For this reason, the position of the designated area 502 serving as a reference is not changed, and the quadrant in which the designated area 503 is located remains “first quadrant + fourth quadrant”. The display position is not switched and the display state shown in FIG.

これに対し、図10(b)は図9(b)のX−Y座標状態を示しており、水平方向がY方向となり、鉛直方向がX方向となっている。すなわち、デジタルビデオカメラ本体の回転に連動させて座標系を回転させることにより、図10(a)のX−Y座標状態から図10(b)のX−Y座標状態への変換を行っている。このような座標系の回転を行うと、基準となる指定領域502の位置は変わらず、指定領域503の位置する象現が、図10(a)の「第1象現+第4象現」から、図10(b)の「第4象現+第3象現」へと変わる。こうして、指定領域503が新たな象現である第3象現に跨がるため、エッジ成分の波形表示画像の表示位置が切り替わり、指定領域502,503のそれぞれに対する指標903,904を重ならずに表示される図9(b)の表示状態とすることが可能になる。   On the other hand, FIG. 10B shows the XY coordinate state of FIG. 9B, where the horizontal direction is the Y direction and the vertical direction is the X direction. That is, the coordinate system is rotated in conjunction with the rotation of the digital video camera body, thereby converting the XY coordinate state of FIG. 10A to the XY coordinate state of FIG. 10B. . When such a rotation of the coordinate system is performed, the position of the designated area 502 serving as a reference does not change, and the quadrant in which the designated area 503 is located is “first quadrant + fourth quadrant” in FIG. Is changed to “fourth quadrant + third quadrant” in FIG. Thus, since the designated area 503 extends over the third quadrant, which is a new quadrant, the display position of the waveform display image of the edge component is switched, and the indicators 903 and 904 for the designated areas 502 and 503 are not overlapped. The display state shown in FIG. 9B can be obtained.

図11は、MF操作時の、デジタルビデオカメラ本体の回転に連動する波形表示処理のフローチャートである。ステップS1101,S1102の各処理は、図8に示したステップS801,S802の各処理と同じであるので、ここでの説明を省略する。ステップS1102の後、デジタルビデオカメラ本体が回転したか(横撮り撮影と縦撮り撮影の変更がなされたか)否かが判定される(ステップS1103)。   FIG. 11 is a flowchart of a waveform display process that is linked to the rotation of the digital video camera body during MF operation. Since the processes in steps S1101 and S1102 are the same as the processes in steps S801 and S802 shown in FIG. 8, a description thereof is omitted here. After step S1102, it is determined whether or not the digital video camera body has been rotated (changed between horizontal shooting and vertical shooting) (step S1103).

回転したと判定された場合(S1103で“YES”)、基準の指定領域(指定領域502)を中心として、X−Y座標を回転させ(ステップS1107)、その後、処理はステップS1104に進められる。また、回転していないと判定された場合(S1103で“NO”)、処理はステップS1104に進められる。ステップS1104〜S1106の各処理は、図8に示したステップS803〜S805の各処理と同じであるので、ここでの説明を省略する。   If it is determined that it has been rotated (“YES” in S1103), the XY coordinates are rotated around the reference designated area (designated area 502) (step S1107), and then the process proceeds to step S1104. On the other hand, if it is determined that it is not rotating (“NO” in S1103), the process proceeds to step S1104. Since each process of step S1104 to S1106 is the same as each process of step S803 to S805 shown in FIG. 8, description here is abbreviate | omitted.

以上説明したように、本実施形態によれば、デジタルビデオカメラを回転させて、横撮り撮影と縦撮り撮影とを変更した場合に、合焦度合いを示す指標である波形表示画像を適切な位置に表示させることができる。これにより、被写体の位置やデジタルビデオカメラの構え方等を意識することなく、撮影画角内の被写体位置に対応する個々の領域に対する合焦度合いの視認性を向上させることができる。   As described above, according to the present embodiment, when the digital video camera is rotated to change the horizontal shooting and the vertical shooting, the waveform display image that is an index indicating the degree of focus is displayed at an appropriate position. Can be displayed. This makes it possible to improve the visibility of the degree of focus on each region corresponding to the subject position within the shooting angle of view without being aware of the subject position, how to hold the digital video camera, or the like.

《その他の実施形態》
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
<< Other Embodiments >>
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

例えば、上記実施形態では、撮像素子102に被写体像を結像するレンズ(レンズ部101)を備える撮像装置についてのみ説明したが、本発明においてレンズは必須ではなく、本発明は、例えば、レンズ交換式デジタルカメラに対しても適用可能である。   For example, in the above-described embodiment, only an image pickup apparatus including a lens (lens unit 101) that forms a subject image on the image pickup element 102 has been described. However, in the present invention, the lens is not essential, and the present invention is not limited to lens replacement. It can also be applied to a digital camera.

また、上記実施形態では、指定領域502,503のエッジ成分の波形表示画像を、撮像映像における指定領域の位置と対応させて(一致させて)表示したが、両者の位置関係が把握可能であれば、必ずしも位置を完全に一致させる必要はない。例えば、水平方向での撮像映像のエッジ成分の波形表示画像を撮像映像の横幅よりも短い範囲に縮小表示しても、撮像映像と波形表示画像との対応関係を把握することができ、同等の効果を得ることができる。   Further, in the above embodiment, the waveform display images of the edge components of the designated areas 502 and 503 are displayed in correspondence with (matched with) the position of the designated area in the captured image, but it is possible to grasp the positional relationship between the two. For example, it is not always necessary to match the positions completely. For example, even if the waveform display image of the edge component of the captured image in the horizontal direction is reduced and displayed in a range shorter than the horizontal width of the captured image, the correspondence between the captured image and the waveform display image can be grasped. An effect can be obtained.

さらに、上記実施形態では、指定領域502,503のエッジ成分の波形表示画像をMF操作時に補助表示する場合についてのみ説明したが、AF操作時にも、撮影者の設定や指示に応じて或いは常時、撮像映像のエッジ成分の波形表示が行われるようにしてもよい。これにより、AF操作時の合焦度合いや合焦位置の確認が一層容易となる。   Furthermore, in the above embodiment, only the case where the waveform display images of the edge components of the designated areas 502 and 503 are auxiliary displayed at the time of the MF operation has been described. However, even at the time of the AF operation, according to the settings and instructions of the photographer or always The waveform display of the edge component of the captured image may be performed. This makes it easier to check the degree of focus and the focus position during AF operation.

加えて、複数の領域が2つではなく、3つ以上の場合には、次の通りに処理することができる。図12は、3つ以上の指定領域の位置判定手法を模式的に示す図であり、図12(a)は指定領域が3つの場合を、図12(b)は、指定領域が3つより多い例として、指定領域が5つの場合をそれぞれ示している。   In addition, when the plurality of regions are not two but three or more, the following processing can be performed. 12 is a diagram schematically showing a method for determining the position of three or more designated areas. FIG. 12A shows a case where there are three designated areas, and FIG. 12B shows a case where three designated areas are used. As many examples, there are shown cases where there are five designated areas.

図12(a)の場合、X方向とY方向のそれぞれの方向から見たときの領域が占める割合を比較する。すなわち、図12(a)に示されるように、
(A+B)≧(C+D) ‥‥‥(1)
なのか、
(A+B)<(C+D) ‥‥‥(2)
なのかを判断する。その結果、エッジ成分の波形表示画像の表示位置を、上記(1)の関係が成立する場合にはX軸に並行に、上記(2)の関係が成立する場合にはY軸に並行に切り替える。また、図12(b)の場合は、指定領域の大きさの上位から数えて閾値を持たせ、閾値以下の領域内の表示色制御等を止める等することで、エッジ成分の波形表示画像の重なりを軽減し、視認性を向上させる。
In the case of FIG. 12A, the ratios occupied by the regions when viewed from the X and Y directions are compared. That is, as shown in FIG.
(A + B) ≧ (C + D) (1)
Is it?
(A + B) <(C + D) (2)
Judge whether it is. As a result, the display position of the waveform display image of the edge component is switched in parallel to the X axis when the relationship (1) is satisfied, and parallel to the Y axis when the relationship (2) is satisfied. . In the case of FIG. 12B, a threshold value is counted from the top of the size of the designated area, and the display color control in the area below the threshold value is stopped. Reduce overlap and improve visibility.

本発明は以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

111 システム制御部
115 ビデオ制御部
122 第1表示部
201 前処理部
202 領域指定回路
203 エッジ抽出回路
204 第1メモリコントローラ
205 波形制御部
206 バンクメモリ部
207 第1波形保存メモリ(Bank1)
208 第2波形保存メモリ(Bank2)
209 後処理部
210 映像合成回路
211 第2メモリコントローラ
212 領域判定回路
DESCRIPTION OF SYMBOLS 111 System control part 115 Video control part 122 1st display part 201 Preprocessing part 202 Area designation circuit 203 Edge extraction circuit 204 1st memory controller 205 Waveform control part 206 Bank memory part 207 1st waveform preservation | save memory (Bank1)
208 Second waveform storage memory (Bank2)
209 Post-processing unit 210 Video composition circuit 211 Second memory controller 212 Area determination circuit

Claims (12)

撮像素子に被写体像を結像させるレンズの焦点調節を行う機能を有する撮像装置であって、
前記撮像素子で撮像される映像のエッジ成分を抽出する抽出手段と、
前記抽出手段が抽出したエッジ成分の所定方向における位置と大きさとの関係を表す波形画像を生成する生成手段と、
前記撮像素子で撮像される映像と前記波形画像とを表示装置に表示する表示手段と、
前記表示手段に表示される映像に対して複数の領域を指定する指定手段と、
前記指定手段により指定された前記複数の領域の特定の方向における重複を判定する判定手段と、を有し、
前記生成手段は、前記判定手段により前記特定の方向において前記複数の領域に重複があると判定された場合、前記特定の方向以外の方向を前記所定方向として前記波形画像を生成することを特徴とする撮像装置。
An imaging apparatus having a function of adjusting the focus of a lens that forms a subject image on an imaging element,
Extracting means for extracting an edge component of a video imaged by the imaging device;
Generating means for generating a waveform image representing a relationship between a position and a size in a predetermined direction of the edge component extracted by the extracting means;
Display means for displaying the video imaged by the image sensor and the waveform image on a display device;
Designating means for designating a plurality of areas for video displayed on the display means;
Determining means for determining overlap in a specific direction of the plurality of areas designated by the designation means,
It said generating means, if the overlap of the plurality of regions in said particular direction Ri I is determined to be the determination means, to generate the waveform image direction other than the specific direction as the predetermined direction An imaging device that is characterized.
前記判定手段は、前記複数の領域間の相対的な位置関係を判定し、前記特定の方向について基準となる領域の中心座標と他の領域とに重複があると判定される場合に、前記複数の領域に重複があると判定することを特徴とする請求項1に記載の撮像装置。 The determination unit determines a relative positional relationship between the plurality of regions, and when it is determined that there is an overlap between a central coordinate of a region serving as a reference and another region in the specific direction, the plurality of regions The imaging apparatus according to claim 1, wherein it is determined that there is an overlap in the area. 前記撮像素子の天地方向を検出する検出手段を有し、
前記生成手段は、前記検出手段により検出される方向に応じて前記所定方向を決定し、前記波形画像を生成することを特徴とする請求項1又は2に記載の撮像装置。
Having detection means for detecting the vertical direction of the image sensor;
Said generating means, said predetermined direction determined according to the direction detected by the detecting means, the image pickup apparatus according to claim 1 or 2, characterized in that generating the waveform images.
前記表示手段は、前記撮像素子で撮像される映像と前記波形画像とを前記表示装置に逐次表示することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 3 , wherein the display unit sequentially displays the video imaged by the imaging device and the waveform image on the display device. 前記表示手段は、前記撮像素子で撮像された映像と前記波形画像とを、前記所定方向における位置が一致するように重畳表示することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The display means, wherein the said waveform image and captured image by the imaging device, in any one of claims 1 to 4, characterized in that the position in the predetermined direction is superimposed to coincide Imaging device. 前記表示手段は、前記複数の領域をそれ以外の領域に対して視覚的に識別できるように表示することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The display means, the image pickup apparatus according to any one of claims 1 to 5, characterized in that display to visually identify the plurality of regions relative to other regions. 前記抽出手段は、前記映像の前記所定方向の複数のラインでエッジ成分の抽出を行い、
前記生成手段は、前記所定方向における各位置で抽出される前記エッジ成分の各信号を信号レベルの高さごとに計数し、当該計数に応じた前記波形画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
The extraction means extracts edge components at a plurality of lines in the predetermined direction of the video,
The said generation means counts each signal of the said edge component extracted in each position in the said predetermined direction for every height of a signal level, The said waveform image according to the said count is produced | generated. The imaging device according to any one of 1 to 6 .
前記生成手段は、前記計数が多いほど高い輝度で表示されるように前記波形画像を生成することを特徴とする請求項に記載の撮像装置。 The imaging device according to claim 7 , wherein the generation unit generates the waveform image so that the waveform image is displayed with higher luminance as the count increases. 前記生成手段は、メモリのアクセス制御を行うメモリ制御手段を有し、
前記メモリ制御手段は、前記撮像素子からの映像信号が入力されると、前記メモリの、当該映像信号の前記所定方向における位置と信号レベルの大きさに対応するアドレスに記憶されたデータを読み出し、当該データに所定値を加算したものを同一アドレスに書き戻し、
前記生成手段は、前記メモリのアドレスと、当該アドレスに記憶されたデータに基づいて前記波形画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
The generating means has memory control means for controlling access to the memory,
When the video signal from the image sensor is input, the memory control unit reads data stored in an address corresponding to the position of the video signal in the predetermined direction and the magnitude of the signal level of the memory, Write back the data plus a specified value to the same address,
Said generating means includes an address of the memory, the image pickup apparatus according to any one of claims 1 to 8 based on the data stored in the address and generates the waveform image.
前記撮像素子で撮像される映像から特定の被写体を検出する被写体検出手段を有し、
前記指定手段は、前記被写体検出手段による検出結果に基づいて前記複数の領域を指定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
Subject detection means for detecting a specific subject from the video imaged by the imaging device;
It said specifying means, the imaging apparatus according to any one of claims 1 to 9, characterized in that designating a plurality of regions based on a result of detection by the object detection unit.
前記複数の領域を指定するためのユーザ操作を受け付ける操作手段を有し、
前記指定手段は、前記操作手段による操作結果に基づいて前記複数の領域を指定することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。
An operation means for accepting a user operation for designating the plurality of areas;
It said specifying means, the imaging apparatus according to any one of claims 1 to 10, characterized in that designating a plurality of regions based on the operation result by the operation means.
撮像素子に被写体像を結像させるレンズの焦点調節を行う機能を有する撮像装置で実行される制御方法であって、
前記撮像素子で撮像される映像のエッジ成分を抽出する抽出ステップと、
前記抽出ステップで抽出したエッジ成分の所定方向における位置と大きさとの関係を表す波形画像を生成する生成ステップと、
前記撮像素子で撮像される映像と前記波形画像とを表示装置に表示する表示ステップと、
前記表示ステップで表示される映像に対して複数の領域を指定する指定ステップと、
前記指定ステップにより指定された前記複数の領域の特定の方向における重複を判定する判定ステップと、を有し、
前記生成ステップでは、前記判定ステップにより前記特定の方向において前記複数の領域に重複があると判定された場合、前記特定の方向以外の方向を前記所定方向として前記波形画像を生成することを特徴とする撮像装置の制御方法。
A control method executed by an imaging apparatus having a function of performing focus adjustment of a lens that forms a subject image on an imaging element,
An extraction step of extracting an edge component of a video imaged by the imaging device;
A generation step for generating a waveform image representing a relationship between a position and a size in a predetermined direction of the edge component extracted in the extraction step;
A display step of displaying the video imaged by the imaging device and the waveform image on a display device;
A designation step for designating a plurality of areas for the video displayed in the display step;
A determination step of determining overlap in a specific direction of the plurality of areas specified by the specifying step,
In the generating step, the determination if the duplicate to the plurality of regions in said particular direction Ri I is determined in step, to generate the waveform image direction other than the specific direction as the predetermined direction A control method for an imaging apparatus.
JP2010218744A 2010-09-29 2010-09-29 Imaging apparatus and control method thereof Expired - Fee Related JP5832078B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010218744A JP5832078B2 (en) 2010-09-29 2010-09-29 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010218744A JP5832078B2 (en) 2010-09-29 2010-09-29 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2012073466A JP2012073466A (en) 2012-04-12
JP5832078B2 true JP5832078B2 (en) 2015-12-16

Family

ID=46169683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010218744A Expired - Fee Related JP5832078B2 (en) 2010-09-29 2010-09-29 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5832078B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148732A (en) * 2015-02-10 2016-08-18 キヤノン株式会社 Imaging device and image display method, program, and program storage medium
JP6548435B2 (en) * 2015-04-03 2019-07-24 キヤノン株式会社 Display control apparatus, control method therefor, and imaging apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4535114B2 (en) * 2007-10-26 2010-09-01 ソニー株式会社 Imaging apparatus and imaging method, display control apparatus and display control method, and program
JP2009164985A (en) * 2008-01-09 2009-07-23 Sony Corp Imaging apparatus and imaging method, display control device and display control method, program, and recording medium

Also Published As

Publication number Publication date
JP2012073466A (en) 2012-04-12

Similar Documents

Publication Publication Date Title
JP5025532B2 (en) Imaging apparatus, imaging apparatus control method, and imaging apparatus control program
US8619173B2 (en) Image capturing apparatus and control method therefor
JP4654887B2 (en) Imaging device
JP4655135B2 (en) Imaging apparatus, imaging area display method, and imaging area display program
US20120044400A1 (en) Image pickup apparatus
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP2009077227A (en) Imaging apparatus and its control method
JP2009077228A (en) Image sensing device and its control method
JP2010054730A (en) Focusing position detecting device, imaging apparatus, and focusing position detecting method
JP2012178820A (en) Electronic apparatus
JP5849389B2 (en) Imaging apparatus and imaging method
JP2006303961A (en) Imaging apparatus
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
US20090080874A1 (en) Photographic apparatus, method of controlling the same, program for controlling the same, and recording medium storing the program
JP4792929B2 (en) Digital camera
JP5950755B2 (en) Image processing apparatus, control method, program, and storage medium
JP5832078B2 (en) Imaging apparatus and control method thereof
US9277120B2 (en) Image capturing apparatus provided with a peaking function, control method therefor, and storage medium
JP2010263270A (en) Image pickup device
JP2001028699A (en) Electronic camera
US20170034495A1 (en) Image processing apparatus, image processing method and image capture apparatus
JP2009290318A (en) Image capturing apparatus and zooming adjustment method
JP5340042B2 (en) Imaging apparatus and control method thereof
JP6865395B2 (en) Imaging device
JP5390913B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151027

R151 Written notification of patent or utility model registration

Ref document number: 5832078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees