JP2009021929A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2009021929A
JP2009021929A JP2007184310A JP2007184310A JP2009021929A JP 2009021929 A JP2009021929 A JP 2009021929A JP 2007184310 A JP2007184310 A JP 2007184310A JP 2007184310 A JP2007184310 A JP 2007184310A JP 2009021929 A JP2009021929 A JP 2009021929A
Authority
JP
Japan
Prior art keywords
horizontal
vertical
evaluation value
motion
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007184310A
Other languages
Japanese (ja)
Other versions
JP4969349B2 (en
Inventor
Sukeki Akakabe
祐基 明壁
Kanichi Furuyama
貫一 古山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007184310A priority Critical patent/JP4969349B2/en
Publication of JP2009021929A publication Critical patent/JP2009021929A/en
Application granted granted Critical
Publication of JP4969349B2 publication Critical patent/JP4969349B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and imaging method in which focusing is performed utilizing contrast of an image and accurate focusing can be performed even when a subject or the imaging apparatus moves. <P>SOLUTION: An imaging apparatus according to the present invention comprises a motion detection unit 41 which includes a horizontal contrast component detecting section 421 and a vertical contrast component detecting section 422 for detecting contrast components in horizontal and vertical directions and which detects a motion that is generated in a subject or in the imaging apparatus, from a video signal; a weight coefficient control section 424 for setting a weight coefficient to be integrated to the contrast components in the horizontal direction and the vertical direction on the basis of a detection result of the motion detection unit 41; and a focusing evaluation value calculating section 423 for obtaining a region evaluation value by summing up the contrast components to which the weight coefficient is integrated, and for obtaining a focusing evaluation value by summing up or averaging the region evaluation value. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、映像信号に基づいて撮像が制御される撮像装置や、その撮像方法に関する。   The present invention relates to an imaging device whose imaging is controlled based on a video signal, and an imaging method thereof.

静止画のデータを作成することができるデジタルスチルカメラや、音声データを含んだ動画のデータや静止画のデータを作成することができるデジタルビデオカメラに代表される撮像装置においては、撮像素子上に結像されてできる画像のコントラストを検出してレンズの焦点距離を調節することで合焦を行なうTTL(Through The Lends)方式の合焦制御方法が用いられることがある。   In an imaging device typified by a digital still camera capable of creating still image data and a digital video camera capable of creating moving image data and still image data including audio data, an image sensor is used. There is a case where a TTL (Through The Lends) focusing control method is used in which focusing is performed by detecting the contrast of an image formed and adjusting the focal length of the lens.

この合焦制御方法では、画像フレームの一部の領域を合焦評価領域として設定し、この合焦評価領域内における高周波数成分を抽出するとともに、抽出した高周波数成分の積算値を合焦評価値として算出する。また、合焦評価値は合焦評価領域内のコントラストに概ね比例するため、コントラストが最大となり画像が最も明瞭となったとき、即ち、合焦評価値が最大となったときに、最適な焦点距離が選択されたものとしている。   In this focus control method, a partial region of the image frame is set as a focus evaluation region, a high frequency component in the focus evaluation region is extracted, and an integrated value of the extracted high frequency component is focused evaluation. Calculate as a value. Further, since the focus evaluation value is approximately proportional to the contrast in the focus evaluation area, the optimum focus is obtained when the contrast becomes maximum and the image becomes the most clear, that is, when the focus evaluation value becomes maximum. The distance is assumed to be selected.

しかしながら、被写体または撮像装置は常に静止しているとは限らず、移動している場合もある。そして、被写体または撮像装置が移動すると、撮像される画像は移動方向に沿って伸びたものとなり、合焦評価値が不正確になる場合がある。例えば、被写体または撮像装置が水平方向に移動している場合、得られる画像は水平方向が伸びてぼけたものとなるため、合焦評価領域の水平方向のコントラストが不良となり、被写体または撮像装置が静止している場合と比較して正確な合焦ができなくなってしまう。   However, the subject or the imaging device is not always stationary and may be moving. When the subject or the imaging apparatus moves, the captured image extends along the moving direction, and the focus evaluation value may be inaccurate. For example, when the subject or the imaging device is moving in the horizontal direction, the obtained image is blurred in the horizontal direction, so that the contrast in the horizontal direction of the focus evaluation area becomes poor, and the subject or the imaging device is Compared with the case where it is stationary, accurate focusing cannot be performed.

特に、従来の撮像装置は水平方向のコントラストのみ使用して合焦評価値を求めるものであったために、被写体または撮像装置が水平方向に移動する場合において、正確に合焦することが困難となっていた。そこで、この問題について、被写体の水平方向及び垂直方向のそれぞれの移動量を測定するセンサを設けるとともに、センサから得られた信号に基づいて被写体の動きを予測して合焦する撮像装置が提案されている(特許文献1参照)。
特開平11−295587号公報
In particular, since the conventional imaging device uses only the contrast in the horizontal direction to obtain the focus evaluation value, it is difficult to focus accurately when the subject or the imaging device moves in the horizontal direction. It was. In view of this problem, an image pickup apparatus that provides a sensor for measuring the amount of movement of the subject in the horizontal direction and the vertical direction and predicts the movement of the subject based on a signal obtained from the sensor and focuses the subject is proposed. (See Patent Document 1).
Japanese Patent Laid-Open No. 11-295587

しかしながら、上述の特許文献1における方法では、移動量を検出するためのセンサを二つ設置する必要があり、撮像装置が大型化してしまう問題がある。また、実際に撮像素子上に結像される画像のコントラストに基づいた合焦評価値を用いて合焦することができないため、不確かな予測による合焦が行なわれてしまう。   However, in the method in the above-mentioned Patent Document 1, it is necessary to install two sensors for detecting the amount of movement, and there is a problem that the imaging apparatus becomes large. In addition, since focusing cannot be performed using a focus evaluation value based on the contrast of an image actually formed on the image sensor, focusing based on uncertain prediction is performed.

このような問題を鑑みて、本発明は、画像のコントラストを利用して合焦を行なうとともに、被写体または撮像装置が移動する場合にも正確に合焦することを可能とする撮像装置及び撮像方法を提供することを目的とする。   In view of such a problem, the present invention performs focusing using the contrast of an image, and enables accurate focusing even when the subject or the imaging apparatus moves. The purpose is to provide.

上記目的を達成するために、本発明における撮像装置は、撮像を行ない映像信号を出力する撮像部と、当該撮像部から出力される映像信号から、被写体または撮像装置に生じた動きを検出して動き信号を出力する動き検出部と、前記映像信号の水平高周波成分と、垂直高周波成分と、を検出する高周波成分検出部と、前記水平高周波成分及び前記垂直高周波成分に、前記動き検出部から出力される前記動き信号に基づいた水平重み係数及び垂直重み係数を積算するとともに合算して、合焦評価値を算出する合焦評価値算出部と、前記合焦評価値に基づいて、前記撮像装置の合焦制御を行なう合焦制御部と、を備えることを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention detects an image of a subject or an imaging apparatus from an imaging unit that performs imaging and outputs a video signal, and a video signal output from the imaging unit. A motion detection unit that outputs a motion signal, a high-frequency component detection unit that detects a horizontal high-frequency component and a vertical high-frequency component of the video signal, and outputs the horizontal high-frequency component and the vertical high-frequency component from the motion detection unit A focus evaluation value calculation unit that calculates a focus evaluation value by adding and summing horizontal weighting factors and vertical weighting factors based on the motion signal, and the imaging device based on the focus evaluation value And a focusing control unit that performs focusing control.

また、上記構成の撮像装置において、前記動き信号の水平成分と垂直成分との大小関係と、前記水平重み係数と垂直重み係数との大小関係と、が逆の関係になることとしても構わない。さらに、前記動き信号の水平成分に対する垂直成分の比が、垂直重み係数に対する水平重み係数の比と等しくなることとしても構わない。   In the imaging apparatus having the above-described configuration, the magnitude relationship between the horizontal component and the vertical component of the motion signal and the magnitude relationship between the horizontal weighting factor and the vertical weighting factor may be reversed. Furthermore, the ratio of the vertical component to the horizontal component of the motion signal may be equal to the ratio of the horizontal weighting factor to the vertical weighting factor.

また、上記構成の撮像装置において、前記高周波成分検出部が、前記映像信号の所定の複数の領域について前記水平高周波成分及び前記垂直高周波成分をそれぞれ検出し、前記合焦評価値算出部が、前記領域のそれぞれから得られる前記水平高周波成分及び前記垂直高周波成分に前記水平重み係数と垂直重み係数とを積算するとともに合算して、それぞれの前記領域に対応する領域評価値を得るとともに、当該領域評価値を合算または平均化して前記合焦評価値を得ることとしても構わない。   In the imaging apparatus having the above-described configuration, the high-frequency component detection unit detects the horizontal high-frequency component and the vertical high-frequency component for each of a plurality of predetermined regions of the video signal, and the focusing evaluation value calculation unit The horizontal weighting factor and the vertical weighting factor are added to the horizontal high-frequency component and the vertical high-frequency component obtained from each of the regions and added to obtain a region evaluation value corresponding to each of the regions, and the region evaluation The focus evaluation value may be obtained by adding or averaging the values.

また、上記構成の撮像装置において、前記合焦評価値算出部が、前記領域毎に前記水平重み係数と垂直重み係数とを設定して、前記領域の前記水平高周波成分及び前記垂直高周波成分のそれぞれに積算するとともに合算して前記領域評価値を得ることとしても構わないし、全ての前記領域に対して等しい前記水平重み係数及び垂直重み係数を設定して、前記領域の前記水平高周波成分及び前記垂直高周波成分にそれぞれ積算するとともに合算して前記領域評価値を得ることとしても構わない。   In the imaging apparatus having the above-described configuration, the focus evaluation value calculation unit sets the horizontal weighting factor and the vertical weighting factor for each region, and each of the horizontal high-frequency component and the vertical high-frequency component of the region is set. The region evaluation value may be obtained by summing and summing to the same, and the horizontal weighting factor and the vertical weighting factor that are equal for all the regions are set, and the horizontal high-frequency component and the vertical of the region are set. The region evaluation value may be obtained by adding up and summing up each of the high frequency components.

また、上記構成の撮像装置において、前記撮像装置が備えるレンズを、前記合焦評価値が極大となる位置に移動させることとしても構わない。   In the imaging apparatus having the above-described configuration, the lens included in the imaging apparatus may be moved to a position where the focus evaluation value is maximized.

また、上記構成の撮像装置において、前記動き検出部が、前記被写体または前記撮像装置における動きが所定の期間同じ方向であったことを検出したときに、前記動き信号を出力することとしても構わない。   In the imaging device having the above-described configuration, the motion detection unit may output the motion signal when the motion detection unit detects that the motion of the subject or the imaging device is in the same direction for a predetermined period. .

また、上記構成の撮像装置において、前記動き検出部から前記動き信号が出力されない場合は、前記合焦評価値算出部が前記水平高周波成分にのみ基づいた前記合焦評価値を得ることとしても構わないし、前記水平高周波成分に前記水平重み係数を積算して前記合焦評価値を得ることとしても構わない。   In the imaging apparatus having the above configuration, when the motion signal is not output from the motion detection unit, the focus evaluation value calculation unit may obtain the focus evaluation value based only on the horizontal high-frequency component. Alternatively, the in-focus evaluation value may be obtained by adding the horizontal weighting coefficient to the horizontal high-frequency component.

また、本発明における撮像方法は、撮像を行い映像信号を出力する第一ステップと、当該第一ステップにおいて出力される映像信号から、被写体または撮像装置に生じた動きを検出して動き信号を作成する第二ステップと、前記映像信号の水平高周波成分と、垂直高周波成分と、を検出する第三ステップと、当該第三ステップにおいて得られる前記水平高周波成分及び前記垂直方向の高周波成分のそれぞれに、前記第二ステップによって作成される動き信号に基づいた水平重み係数及び垂直重み係数を積算するとともに合算して、合焦評価値を算出する第四ステップと、前記合焦評価値に基づいて、前記撮像装置の合焦制御を行なう第五ステップと、を備えることを特徴とする。   The imaging method according to the present invention includes a first step of imaging and outputting a video signal, and a motion signal is generated by detecting a motion generated in the subject or the imaging device from the video signal output in the first step. A second step, a third step of detecting a horizontal high-frequency component and a vertical high-frequency component of the video signal, and each of the horizontal high-frequency component and the vertical high-frequency component obtained in the third step, A fourth step of calculating a focus evaluation value by adding and summing a horizontal weighting factor and a vertical weighting factor based on the motion signal created by the second step, and based on the focus evaluation value, And a fifth step of performing focusing control of the image pickup apparatus.

本発明によると、合焦制御を行なう際に、水平高周波成分及び垂直高周波成分に、それぞれ水平重み係数及び垂直重み係数を積算し、合算することとしているために、例えば、水平方向に被写体または撮像装置が動いて水平方向の高周波成分が不良となるような場合においても、良好な垂直方向の高周波成分に基づいて合焦評価値を定めて合焦制御を行なうことができる。したがって、被写体や撮像装置がどの方向に動いたとしても、精度よく合焦制御を行なうことができる。   According to the present invention, when performing focus control, the horizontal weighting factor and the vertical weighting factor are added to the horizontal high-frequency component and the vertical high-frequency component, respectively. Even when the apparatus moves and the high-frequency component in the horizontal direction becomes defective, the focus control value can be determined by determining the focus evaluation value based on the high-frequency component in the vertical direction. Therefore, the focus control can be performed with high precision regardless of the direction of the subject or the image pickup apparatus.

<撮像装置の構成>
まず、本発明の実施形態における撮像装置の構成の概略について、その一例を図1を参照して説明する。図1は、撮像装置の構成を示すブロック図である。なお、ここでは撮像装置として、動画のデータと静止画のデータとを作成することができるデジタルビデオカメラについて説明するが、デジタルスチルカメラのような静止画のデータのみを作成するものであっても構わない。
<Configuration of imaging device>
First, an example of an outline of a configuration of an imaging apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus. Here, a digital video camera capable of creating moving image data and still image data will be described as an imaging apparatus. However, only a still image data such as a digital still camera may be created. I do not care.

図1に示す撮像装置1は、撮像を行いアナログの映像信号を出力する撮像部2と、撮像部2により得られるアナログの映像信号を増幅するとともにデジタル化するAFE(Analog Front End)部3と、AFE部3から出力されるデジタルの映像信号にぼかし処理や階調処理など各種処理を施すとともに輝度情報と色差情報とを含む映像信号として出力する映像信号処理部4と、入力される音声をアナログの音声信号として出力する音声入力部5と、音声入力部5から出力されるアナログの音声信号をデジタル化する音声信号処理部6と、映像信号処理部4から出力される映像信号及び音声信号処理部6から出力される音声信号を圧縮処理する圧縮処理部7と、圧縮された映像信号及び音声信号を伸張する伸張処理部8と、伸張処理された映像信号を液晶ディスプレイなどの表示装置(不図示)などに出力するために例えばアナログ化などの処理を行なう映像信号出力部9と、伸張処理された音声信号をスピーカ(不図示)などに出力するために例えばアナログ化などの処理を行なう音声信号出力部10と、を備える。   An imaging apparatus 1 shown in FIG. 1 includes an imaging unit 2 that performs imaging and outputs an analog video signal, an AFE (Analog Front End) unit 3 that amplifies and digitizes an analog video signal obtained by the imaging unit 2, and The video signal processing unit 4 that performs various processes such as blurring and gradation processing on the digital video signal output from the AFE unit 3 and outputs it as a video signal including luminance information and color difference information; An audio input unit 5 that outputs an analog audio signal, an audio signal processing unit 6 that digitizes an analog audio signal output from the audio input unit 5, and a video signal and an audio signal output from the video signal processing unit 4 A compression processing unit 7 that compresses the audio signal output from the processing unit 6, a decompression processing unit 8 that decompresses the compressed video signal and audio signal, and a decompressed video signal. In order to output to a display device (not shown) such as a liquid crystal display, for example, a video signal output unit 9 that performs processing such as analogization, and to output a decompressed audio signal to a speaker (not shown), for example. And an audio signal output unit 10 that performs processing such as analogization.

さらに、撮像装置1は、動画録画の開始及び停止や静止画の撮影などのユーザの指示が入力される操作部11と、操作部11に入力されるユーザの指示に従って撮像装置1全体を動作させるなど撮像装置1の全体的な動作を制御するCPU12と、映像信号及び音声信号を一時的に保持するSDRAMと13、圧縮された映像信号及び音声信号を保存するメモリカード14と、撮像装置1各部(例えば、撮像部2、映像信号処理部4、音声信号処理部6、圧縮処理部7、伸張処理部8、CPU12)における各動作のタイミングを制御するためのタイミング制御信号を出力するタイミング制御信号出力部15(以下、TG部とする)を備える。また、撮像装置1各部を制御するための信号や映像信号及び音声信号が通過するバス16、17と、を備える。   Furthermore, the imaging apparatus 1 operates the entire imaging apparatus 1 according to a user instruction input to the operation unit 11 and an operation unit 11 to which a user instruction such as start and stop of moving image recording and still image shooting is input. The CPU 12 that controls the overall operation of the imaging apparatus 1, the SDRAM and 13 that temporarily holds the video signal and the audio signal, the memory card 14 that stores the compressed video signal and the audio signal, and each part of the imaging apparatus 1 (For example, a timing control signal that outputs a timing control signal for controlling the timing of each operation in the imaging unit 2, the video signal processing unit 4, the audio signal processing unit 6, the compression processing unit 7, the expansion processing unit 8, and the CPU 12) An output unit 15 (hereinafter referred to as a TG unit) is provided. Also provided are buses 16 and 17 through which signals for controlling each part of the imaging apparatus 1 and video and audio signals pass.

また、映像信号処理部4は、入力される映像信号から被写体または撮像装置1の動きを検出する動き検出部41と、合焦制御を行なうための合焦評価値を算出する合焦評価部42と、を備える。   The video signal processing unit 4 also includes a motion detection unit 41 that detects the movement of the subject or the imaging apparatus 1 from the input video signal, and a focus evaluation unit 42 that calculates a focus evaluation value for performing focus control. And comprising.

なお、メモリカード14は映像信号や音声信号を保存することができればどのようなものでも構わない。例えば、半導体メモリ、光ディスク、磁気ディスクなどをこのメモリカード14として使用することができる。   The memory card 14 may be anything as long as it can store video signals and audio signals. For example, a semiconductor memory, an optical disk, a magnetic disk, or the like can be used as the memory card 14.

また、図2を用いて、図1に示した撮像部2の構成について説明する。図2は、撮像部の構成を示したブロック図である。図2に示すように、撮像部2は、ズームレンズ22a、フォーカスレンズ22b及び補正レンズ22cを含む光学系22と、撮像素子24と、撮像素子24に入射する光量を調整する絞り23と、ズームレンズ22a、フォーカスレンズ22b及び補正レンズを駆動させるとともに絞り23の開度を調整するドライバ21と、を備える。なお、図中では光学系22の光軸を一点鎖線で表している。   Further, the configuration of the imaging unit 2 shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the imaging unit. As shown in FIG. 2, the imaging unit 2 includes an optical system 22 including a zoom lens 22a, a focus lens 22b, and a correction lens 22c, an imaging element 24, a diaphragm 23 that adjusts the amount of light incident on the imaging element 24, and a zoom. And a driver 21 that drives the lens 22a, the focus lens 22b, and the correction lens and adjusts the opening of the diaphragm 23. In the drawing, the optical axis of the optical system 22 is indicated by a one-dot chain line.

また、撮像素子24は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等から成り、露光時間中に撮像素子24に入射した光の信号を電気信号に変換して保持し、TG部15から入力されるタイミング制御信号に同期して後段のAFE部3に順次出力する。   The image sensor 24 is composed of, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like, and converts a signal of light incident on the image sensor 24 during an exposure time into an electric signal and holds it. And sequentially output to the subsequent AFE unit 3 in synchronization with the timing control signal input from the TG unit 15.

<撮像装置の動作>
次に、撮像装置の動作、特に、動画の録画動作について図1及び図2を用いて説明する。録画動作は、図1の操作部11にユーザから録画開始の指示が入力されることによって開始し、CPU12が撮像装置1を制御して映像及び音声の記録を行なう。
<Operation of imaging device>
Next, the operation of the imaging apparatus, in particular, the moving image recording operation will be described with reference to FIGS. The recording operation is started when a recording start instruction is input from the user to the operation unit 11 in FIG. 1, and the CPU 12 controls the imaging apparatus 1 to record video and audio.

この時、図2に示す撮像部2が動作し、光学系22に入射され各種レンズ22a〜22cと絞り23とを通過し撮像素子24上に結像された画像について、電気信号として保持する。また、ドライバ21は、ズームレンズ22a及びフォーカスレンズ22bを光軸上で移動させ、所望の倍率の画像について合焦し、撮像素子24上に結像する。   At this time, the imaging unit 2 shown in FIG. 2 operates, and an image formed on the imaging element 24 that is incident on the optical system 22 and passes through the various lenses 22a to 22c and the diaphragm 23 is held as an electrical signal. The driver 21 moves the zoom lens 22 a and the focus lens 22 b on the optical axis, focuses an image with a desired magnification, and forms an image on the image sensor 24.

さらに、ドライバ21は、補正レンズ22cを撮像装置1に発生したぶれを打ち消す方向に駆動させることで、撮像素子24上に良好な画像を結像する。また、撮像素子24上に結像される画像の光量が適正であるようにするために絞り23を制御する。なお、ぶれの方向及び大きさや光量については、図1に示した映像信号処理部4の動き検出部42などによって映像信号を処理する際に検出することとしても構わないし、ぶれを検出するセンサ等を用いてぶれの検出を行なうこととしても構わない。   Furthermore, the driver 21 forms a good image on the image sensor 24 by driving the correction lens 22c in a direction that cancels the shake generated in the image pickup apparatus 1. Further, the diaphragm 23 is controlled so that the amount of light of the image formed on the image sensor 24 is appropriate. Note that the direction, size, and amount of blur may be detected when the video signal is processed by the motion detection unit 42 of the video signal processing unit 4 shown in FIG. It is also possible to detect blur using

また、TG部15から入力されるタイミング制御信号に同期して、所定のフレーム周期(例えば、1/60秒)で撮像素子24に保持された電気信号がアナログの映像信号として順次AFE部3に出力される。そして、AFE部3では入力される電気信号を変換し、デジタルの映像信号を作成する。そして、図1に示すようにAFE部3から出力される映像信号が映像信号処理部4に入力され、各種処理が施される。この時、入力される映像信号から、動き検出部41が撮像装置1または被写体の動きを検出したり、合焦評価部42が合焦を行なうための合焦評価値を算出したりする。さらに、SDRAM13はフレームメモリとして動作し、映像信号処理部4が処理を行なう際に映像信号を一時的に保持する。なお、映像信号処理部4の合焦評価部42の構成や動作についての詳細は後述する。   In addition, in synchronization with the timing control signal input from the TG unit 15, the electrical signal held in the image sensor 24 at a predetermined frame period (for example, 1/60 second) is sequentially supplied to the AFE unit 3 as an analog video signal. Is output. Then, the AFE unit 3 converts the input electric signal to create a digital video signal. Then, as shown in FIG. 1, the video signal output from the AFE unit 3 is input to the video signal processing unit 4 and subjected to various processes. At this time, from the input video signal, the motion detection unit 41 detects the movement of the imaging device 1 or the subject, or the focus evaluation unit 42 calculates a focus evaluation value for focusing. Further, the SDRAM 13 operates as a frame memory and temporarily holds a video signal when the video signal processing unit 4 performs processing. Details of the configuration and operation of the focus evaluation unit 42 of the video signal processing unit 4 will be described later.

また、上述した映像信号と同様に、音声入力部5において電気信号に変換された音声信号は音声信号処理部6に入力されてデジタル化される。そして、映像信号処理部4から出力される映像信号と、音声信号処理部6から出力される音声信号と、はともに圧縮処理部7に入力され、圧縮処理部7において所定の圧縮方式で圧縮される。このとき、映像信号と音声信号とは時間的に関連付けられており、再生時に映像と音とがずれないように構成される。そして、圧縮された映像信号及び音声信号はメモリカード14に出力され、記録される。   Similarly to the video signal described above, the audio signal converted into an electrical signal in the audio input unit 5 is input to the audio signal processing unit 6 and digitized. The video signal output from the video signal processing unit 4 and the audio signal output from the audio signal processing unit 6 are both input to the compression processing unit 7 and compressed by the compression processing unit 7 using a predetermined compression method. The At this time, the video signal and the audio signal are temporally associated with each other, and are configured so that the video and the sound are not shifted during reproduction. The compressed video signal and audio signal are output to the memory card 14 and recorded.

メモリカード14に記録された圧縮後の映像及び音声信号は、ユーザが操作部11に所定の指示を入力することで伸張処理部8に読み出される。伸張処理部8では、圧縮された映像信号及び音声信号を伸張し、映像信号を映像信号出力部9、音声信号を音声信号出力部10にそれぞれ出力し、表示装置やスピーカにおいて再生される形式に変換されて出力される。   The compressed video and audio signals recorded on the memory card 14 are read by the expansion processing unit 8 when the user inputs a predetermined instruction to the operation unit 11. The decompression processing unit 8 decompresses the compressed video signal and audio signal, and outputs the video signal to the video signal output unit 9 and the audio signal to the audio signal output unit 10, respectively, so that it can be reproduced on the display device or the speaker. It is converted and output.

なお、表示装置やスピーカは、撮像装置1と一体となっているものでも構わないし、別体となっており、撮像装置1とコード等を用いて接続されるようなものでも構わない。   The display device and the speaker may be integrated with the imaging device 1 or may be separate and connected to the imaging device 1 using a cord or the like.

また、圧縮処理部7において圧縮処理するのと同時に、映像信号処理部4から映像信号が出力され、バス16を介して映像信号出力部9に出力される。このように、映像信号出力部9に映像信号を出力することで、記録している映像がどのようなものかをユーザに確認させる所謂プレビューを行なうこととしても構わない。さらに、音声信号についても同様であり、音声信号処理部6からバス16を介して音声信号出力部10に音声信号が入力されることとしても構わない。   Simultaneously with the compression processing in the compression processing unit 7, a video signal is output from the video signal processing unit 4 and output to the video signal output unit 9 via the bus 16. In this way, by outputting a video signal to the video signal output unit 9, a so-called preview may be performed in which the user can confirm what the recorded video is. The same applies to the audio signal, and the audio signal may be input from the audio signal processing unit 6 to the audio signal output unit 10 via the bus 16.

また、上述した動作例では、動画のデータを作成するための録画動作について示したが、静止画のデータを作成する場合でも同様の動作が行なわれる。このとき、被写体または撮像装置1の動き検出や合焦制御を行なうために、自動的あるいはユーザの指示によって、静止画のデータの作成指示がでる前に数フレーム分撮像することとしても構わない。   In the above-described operation example, the recording operation for creating moving image data has been described. However, the same operation is performed even when creating still image data. At this time, in order to perform motion detection and focus control of the subject or the imaging apparatus 1, it is possible to capture several frames before an instruction to create still image data is issued automatically or by a user instruction.

<合焦評価部の構成>
次に、図3を用いて、図1に示した映像信号処理部4が備える合焦評価部42の構成について説明する。図3は、合焦評価部の構成を示したブロック図である。図3に示すように、合焦評価部42は、入力された映像信号の水平方向における高周波成分である水平コントラスト成分CH[i,j]を算出する水平コントラスト成分検出部421と、垂直方向における高周波成分である垂直コントラスト成分CV[i,j]を検出する垂直コントラスト成分検出部422と、水平コントラスト成分CH[i,j]及び垂直コントラスト成分CV[i,j]に水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を積算するとともに合算して合焦評価値を算出する合焦評価値算出部423と、水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を動き検出部41の検出結果に基づいて決定する重み係数制御部424と、を備える。
<Configuration of focus evaluation unit>
Next, the configuration of the focus evaluation unit 42 included in the video signal processing unit 4 illustrated in FIG. 1 will be described with reference to FIG. FIG. 3 is a block diagram illustrating the configuration of the focus evaluation unit. As shown in FIG. 3, the focus evaluation unit 42 includes a horizontal contrast component detection unit 421 that calculates a horizontal contrast component C H [i, j] that is a high-frequency component in the horizontal direction of the input video signal, and a vertical direction. Vertical contrast component detector 422 that detects a vertical contrast component C V [i, j], which is a high-frequency component, and a horizontal weight for the horizontal contrast component C H [i, j] and the vertical contrast component C V [i, j]. A focus evaluation value calculation unit 423 that calculates and calculates a focus evaluation value by adding and summing the coefficient K H [i, j] and the vertical weight coefficient K V [i, j], and a horizontal weight coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] based on the detection result of the motion detection unit 41, and a weighting coefficient control unit 424.

さらに、図4を用いて、図3に示した水平コントラスト成分検出部421及び垂直コントラスト成分検出部422の構成について説明する。図4は、図3に示した水平方向、垂直方向の2つのコントラスト成分検出部のそれぞれの構成について示したブロック図である。   Furthermore, the configuration of the horizontal contrast component detection unit 421 and the vertical contrast component detection unit 422 shown in FIG. 3 will be described with reference to FIG. FIG. 4 is a block diagram showing a configuration of each of the two contrast component detection units in the horizontal direction and the vertical direction shown in FIG.

図4に示すように、水平コントラスト成分検出部421は、測定領域の映像信号から輝度情報を抽出する抽出部421aと、抽出部421aから出力される輝度情報に対して所定の周波数以上の高周波成分を通過させるHPF(High Pass Filter)421bと、HPFを通過した高周波成分を積算または平均化することで、水平コントラスト成分CH[i,j]を算出する積算部421cと、を備える。また、垂直コントラスト成分検出部422も同様であり、抽出部422aと、HPF422bと、積算部422cと、を備える。 As shown in FIG. 4, the horizontal contrast component detection unit 421 includes an extraction unit 421a that extracts luminance information from the video signal in the measurement region, and a high-frequency component that is equal to or higher than a predetermined frequency with respect to the luminance information output from the extraction unit 421a. HPF (High Pass Filter) 421b that passes through the HPF, and an integration unit 421c that calculates the horizontal contrast component C H [i, j] by integrating or averaging high-frequency components that have passed through the HPF. Similarly, the vertical contrast component detection unit 422 includes an extraction unit 422a, an HPF 422b, and an integration unit 422c.

<合焦評価部の動作>
また、上述した図3及び図4に加え、図5を用いて合焦評価部42の動作について説明する。図5は、1フレーム分の映像信号を示した模式図である。
<Operation of focus evaluation unit>
In addition to FIG. 3 and FIG. 4 described above, the operation of the focus evaluation unit 42 will be described with reference to FIG. FIG. 5 is a schematic diagram showing a video signal for one frame.

まず、図3に示すように、入力された映像信号は動き検出部41と合焦評価部42に入力されて、それぞれ処理される。このとき、動き検出部41及び合焦評価部42に入力される1フレーム分の映像信号は処理の便宜上領域毎に分割されており、種々の処理が領域毎に行なわれる。   First, as shown in FIG. 3, the input video signal is input to the motion detection unit 41 and the focus evaluation unit 42 and processed. At this time, the video signal for one frame input to the motion detection unit 41 and the focus evaluation unit 42 is divided for each region for convenience of processing, and various processes are performed for each region.

この合焦評価部42に入力される1フレーム分の映像信号について、図5を用いて説明する。図5(a)に示すように、1フレーム分の映像信号100は各領域AR[1,1]〜AR[M,N]に分割されており、合焦評価値の算出はこの領域単位で行なわれる。特に、水平コントラスト成分検出部421及び垂直コントラスト成分検出部422では、図5(b)に示すような画面の中央部に位置する中領域101(例えば、図5(b)のような8×8=64領域程度の大きさ)に対して、水平コントラスト成分及び垂直コントラスト成分の抽出を行なう。なお、画素の走査自体は全画素に対して領域に関係なく行い、水平方向に沿った走査及び垂直方向に沿った走査を同時に行なうこととしても構わない。   The video signal for one frame input to the focus evaluation unit 42 will be described with reference to FIG. As shown in FIG. 5A, the video signal 100 for one frame is divided into areas AR [1, 1] to AR [M, N], and the focus evaluation value is calculated in units of the areas. Done. In particular, in the horizontal contrast component detection unit 421 and the vertical contrast component detection unit 422, the middle region 101 (for example, 8 × 8 as shown in FIG. 5B) located at the center of the screen as shown in FIG. 5B. For example, the horizontal contrast component and the vertical contrast component are extracted. Note that pixel scanning itself may be performed on all pixels regardless of the region, and scanning along the horizontal direction and scanning along the vertical direction may be performed simultaneously.

まず、水平コントラスト成分検出部421及び垂直コントラスト成分検出部422のそれぞれにおいて、図5(b)に示す中領域101における各領域の輝度情報を図4の抽出部421a、421bにおいて抽出する。例えば、図5(b)のAR[s,t]領域の水平コントラスト成分CH[s,t]を求める場合においては、まず、AR[s,t]領域における水平方向の輝度変化を抽出部421aから得た後に、HPF421bに通すことで高周波成分を取り出す。そして、抽出した高周波成分を積算部421cにおいて積算または平均化することで、AR[s,t]領域の水平コントラスト成分CH[s,t]が得られる。 First, in each of the horizontal contrast component detection unit 421 and the vertical contrast component detection unit 422, the luminance information of each region in the middle region 101 shown in FIG. 5B is extracted by the extraction units 421a and 421b in FIG. For example, when obtaining the horizontal contrast component C H [s, t] in the AR [s, t] region in FIG. 5B, first, the horizontal luminance change in the AR [s, t] region is extracted. After being obtained from 421a, high-frequency components are extracted by passing through HPF 421b. Then, the horizontal frequency component C H [s, t] in the AR [s, t] region is obtained by integrating or averaging the extracted high-frequency components in the integration unit 421c.

また、垂直方向についても同様の方法で計算され、垂直コントラスト成分CV[s,t]も同様の方法で求められる。そして、図3の合焦評価値算出部423において、以下の式(I)のように、水平重み係数KH[s,t]を水平コントラスト成分CH[s,t]に積算するとともに、垂直重み係数KV[s,t]を垂直コントラスト成分CV[s,t]に積算して合算することで、領域AR[s,t]における領域評価値α[s,t]が求められる。なお、水平重み係数KH[s,t]及び垂直重み係数KV[s,t]の値は、動き検出部41の出力結果によって変化するが、この水平重み係数KH[s,t]及び垂直重み係数KV[s,t]の算出方法については後述する。 The vertical direction is also calculated in the same way, and the vertical contrast component C V [s, t] is also obtained in the same way. 3, the horizontal weighting coefficient K H [s, t] is added to the horizontal contrast component C H [s, t] as shown in the following equation (I), The area evaluation value α [s, t] in the area AR [s, t] is obtained by adding the vertical weighting coefficient K V [s, t] to the vertical contrast component C V [s, t] and adding up. . Note that the values of the horizontal weighting coefficient K H [s, t] and the vertical weighting coefficient K V [s, t] vary depending on the output result of the motion detection unit 41, but the horizontal weighting coefficient K H [s, t]. The calculation method of the vertical weighting coefficient K V [s, t] will be described later.

α[s,t]=KH[s,t]×CH[s,t]+KV[s,t]×CV[s,t] ・・・(I) α [s, t] = K H [s, t] × C H [s, t] + K V [s, t] × C V [s, t] (I)

そして、中領域101内におけるそれぞれの領域の領域評価値が得られると、合焦評価値算出部423において、これらの領域評価値α[s,t]〜α[s+7,t+7]を全て合算または平均化して、合焦評価値を得る。そして、この合焦評価値を用いて、後述するような合焦制御を行なう。   When the area evaluation values of the respective areas in the middle area 101 are obtained, the in-focus evaluation value calculation unit 423 adds all these area evaluation values α [s, t] to α [s + 7, t + 7] or Averaging is performed to obtain a focus evaluation value. Then, using the focus evaluation value, focus control as described later is performed.

<動き検出部の動作>
動き検出部41は、入力される映像信号から被写体または撮像装置に動きが生じたか否かを検出し、動きを検出した場合には、上述した水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を変化させる。この動きを検出する方法について、撮像装置が動いて画像が伸びた場合を例に挙げるとともに図6を用いて説明する。
<Operation of motion detector>
The motion detection unit 41 detects whether or not a motion has occurred in the subject or the imaging device from the input video signal. When the motion is detected, the horizontal weight coefficient K H [i, j] and the vertical weight described above are detected. The coefficient K V [i, j] is changed. A method for detecting this movement will be described with reference to FIG. 6 while taking as an example the case where the image pickup apparatus moves and the image is stretched.

図6は、動き検出部に入力される映像信号と、映像信号の連続するフレームの差分から求められる動きベクトルを表した模式図である。なお、図6では模式的に4×4の16個の領域としているが、これは一例であり、選択する領域の位置、数はどのようなものでも構わないが、合焦評価値を算出した領域と同じ領域を使用することとしても構わない。また、図6は水平方向に撮像装置が移動した場合を示しており、画像が水平方向に伸びている場合を示している。   FIG. 6 is a schematic diagram illustrating a motion vector obtained from a difference between a video signal input to the motion detection unit and successive frames of the video signal. In FIG. 6, 16 regions of 4 × 4 are schematically illustrated. However, this is an example, and any position and number of regions may be selected, but the focus evaluation value was calculated. The same area as the area may be used. FIG. 6 shows a case where the imaging device moves in the horizontal direction, and shows a case where the image extends in the horizontal direction.

図6(a)は、1フレーム目の映像信号を示しており、(b)は2フレーム目、(c)は3フレーム目、(d)は4フレーム目の映像信号をそれぞれ表している。(e)は、それぞれ1フレーム目と2フレーム目との差分から求められる動きベクトルを示しており、(f)は2フレーム目と3フレーム目との差分、(g)は3フレーム目と4フレーム目との差分より求められる動きベクトルをそれぞれ示している。なお、(e)〜(g)における差分は、それぞれの領域毎に求めており、ブロックマッチング法や代表点マッチング法などの種々のマッチング方法を利用することができる。   FIG. 6A shows the video signal of the first frame, (b) shows the video signal of the second frame, (c) shows the video signal of the third frame, and (d) shows the video signal of the fourth frame. (E) shows the motion vector obtained from the difference between the first and second frames, (f) shows the difference between the second and third frames, and (g) shows the third and fourth frames. The motion vectors obtained from the difference from the frame are shown. Note that the differences in (e) to (g) are obtained for each region, and various matching methods such as a block matching method and a representative point matching method can be used.

また、図6(e)〜(g)において、白抜きの矢印で示している場合が、信頼度が所定の値を超えなかったものであり、黒抜きの矢印が、信頼度が所定の値を超えたものを示している。信頼度が所定の値を超えたか否かの判断は上述のマッチングの過程において行われ、比較するための特徴点が乏しかったりほとんど動かなかったりする場合など、動きベクトルを検出し難い場合は信頼度が低くなる。   Also, in FIGS. 6E to 6G, the case indicated by the white arrow indicates that the reliability does not exceed a predetermined value, and the black arrow indicates that the reliability is a predetermined value. The thing beyond is shown. Judgment as to whether or not the reliability exceeds a predetermined value is made in the above matching process, and if it is difficult to detect a motion vector, such as when feature points for comparison are scarce or hardly move, reliability is determined. Becomes lower.

また、手ぶれなどの小さい動きと区別するために、複数フレーム(例えば、4フレーム)にわたった総合的な判断を行なう。例えば、この複数フレーム間の全てにおいて、全体的に略等しい方向の動きベクトルが検出された場合に撮像装置が動いたものと判断しても構わない。さらに、信頼度が所定の値より大きい動きベクトルを平均化した場合に、平均化した動きベクトルが所定の値より大きくならないと動いたと判断しないという条件、や、平均化した動きベクトルに対して所定の範囲内の大きさにある動きベクトルを検出した領域が所定の割合以上であるという条件、や、各領域の動きベクトルが半分以上略等しい向きであるという条件、など、様々な条件によって動きがあったか否かを判断しても構わない。以上のような条件によって動きを検出することとすると、撮像装置が動いて画像全体が一定方向に伸びるような場合において、より正確に動きがあったことを検出することが可能となる。   Further, in order to distinguish from small movements such as camera shake, a comprehensive determination over a plurality of frames (for example, 4 frames) is performed. For example, it may be determined that the imaging apparatus has moved when motion vectors in substantially the same direction are detected in all of the plurality of frames. Furthermore, when motion vectors with reliability greater than a predetermined value are averaged, a condition that the average motion vector does not determine that the motion has not been determined to be greater than a predetermined value, or a predetermined motion vector is determined. The motion may vary depending on various conditions, such as the condition that the area where the motion vector in the size of the range is detected is a predetermined ratio or more, and the condition that the motion vector of each area is almost equal to half or more. It may be determined whether or not there has been. If the motion is detected under the above conditions, it is possible to more accurately detect the motion when the imaging apparatus moves and the entire image extends in a certain direction.

また、被写体が動くような場合や、被写体の動きに撮像装置を追随させる場合など、画像全体が一様に伸びずに一部が伸びる場合においても、動きの有無を判断する領域内において上記のような動きベクトルが検出されれば、動きがあったことを認識することができる。   Even in the case where the subject moves or the imaging device follows the movement of the subject, even when the entire image does not stretch uniformly but partially stretches, the above-mentioned area is determined within the region where the presence or absence of movement is determined. If such a motion vector is detected, it can be recognized that there is motion.

さらに、複数フレーム間の全てにおいて、信頼度が大きく複数の隣接する領域の動きベクトルが略等しい一群があることが検出される場合において、画像の一部が動いていると推定して動きがあったことを検出することとしても構わない。また、このときの複数フレームを少ないものとしても構わない。   Further, in all cases between a plurality of frames, when it is detected that there is a group with high reliability and motion vectors of a plurality of adjacent regions that are substantially equal, it is estimated that a part of the image is moving and there is motion. It is also possible to detect this. Also, the number of frames at this time may be small.

また、静止物撮像モードや移動物撮像モードのような撮像モードによって、上述したそれぞれの動きの検出方法が切り替えられることとしても構わない。また、これらの動きの検出方法を同時に行い、いずれか一つの検出方法によって動きが検出されたときに、動きがあったことを検出することとしても構わない。   Further, the respective motion detection methods described above may be switched according to an imaging mode such as a stationary object imaging mode or a moving object imaging mode. Alternatively, these motion detection methods may be performed simultaneously, and when motion is detected by any one of the detection methods, it may be detected that there has been motion.

また、動きが検出された場合における、水平重み係数KH[i,j]及び垂直重み係数KV[i,j]の算出方法と、それによって得られる合焦評価値について、図7を用いて説明する。図7(a)は、動きベクトルの一例を示すグラフであり、図7(b)〜(d)は図6に示すように被写体または撮像装置が動いた場合におけるフォーカスレンズの位置と合焦評価値との関係について示したグラフである。なお、図7(b)は水平コントラスト成分のみを合算または平均化したグラフであり、図7(c)は垂直コントラスト成分のみを合算または平均化したグラフ、図7(d)は水平コントラスト成分及び垂直コントラスト成分に水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を積算して合算したグラフである。 Also, FIG. 7 is used to explain the calculation method of the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] and the focus evaluation value obtained by this when motion is detected. I will explain. FIG. 7A is a graph showing an example of a motion vector, and FIGS. 7B to 7D are positions of the focus lens and focus evaluation when the subject or the imaging apparatus moves as shown in FIG. It is the graph shown about the relationship with a value. 7B is a graph obtained by adding or averaging only the horizontal contrast components, FIG. 7C is a graph obtained by adding or averaging only the vertical contrast components, and FIG. is a graph obtained by summing and integrating the horizontal weighting factor K H [i, j] and the vertical weighting factor K V [i, j] in the vertical contrast component.

図7(a)に示すように、動きベクトルは2つの成分(水平成分bH、垂直成分bV)で表すことができる。特に、図6(e)〜(g)に示した例では、主に水平成分bHが大きいために、画像が水平方向に伸びて所謂横縞のような画像となっている。そのため、水平方向のコントラストは画像が伸びてしまうために悪くなり、水平コントラスト成分のみを合算または平均化する(式(I)の垂直重み係数KV[s,t]=0として領域評価値を算出し、領域評価値α[s,t]〜α[s+7,t+7]を合算または平均化する)と、図7(b)に示すような、全体的に平坦でありピーク位置を確認しにくいグラフとなる。 As shown in FIG. 7A, the motion vector can be represented by two components (horizontal component b H and vertical component b V ). In particular, in the example shown in FIGS. 6E to 6G, since the horizontal component b H is mainly large, the image extends in the horizontal direction to form an image like a so-called horizontal stripe. Therefore, the contrast in the horizontal direction is deteriorated because the image is stretched, and only the horizontal contrast components are summed or averaged (the vertical weighting coefficient K V [s, t] = 0 in the equation (I) is set as the region evaluation value). And the region evaluation values α [s, t] to α [s + 7, t + 7] are summed or averaged), and as shown in FIG. It becomes a graph.

一方、垂直方向においては、像が水平方向に伸びたとしてもコントラストへの影響は水平方向に比してはるかに少ない。そのため、垂直コントラスト成分のみを合算または平均化する(式(I)の水平重み係数KH[s,t]=0として領域評価値を算出し、領域評価値α[s,t]〜α[s+7,t+7]を合算または平均化する)と、この場合、図7(c)に示すようなピークが明瞭に確認できるグラフとなる。 On the other hand, in the vertical direction, even if the image extends in the horizontal direction, the influence on the contrast is much less than in the horizontal direction. Therefore, only the vertical contrast components are summed or averaged (the region evaluation value is calculated with the horizontal weighting coefficient K H [s, t] = 0 in equation (I), and the region evaluation values α [s, t] to α [ s + 7, t + 7] are added or averaged), and in this case, a graph as shown in FIG. 7C can be clearly confirmed.

以上より、検出された動きベクトルと略平行な方向(図7における水平方向)は画像が伸びるためにコントラストが不良となるが、動きベクトルと略垂直な方向(図7における垂直方向)では動きの影響を大きくは受けないためにコントラストが良好なものとなる。したがって、検出される動きベクトルの水平成分bH及び垂直成分bVの逆比となるように、水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を設定すると、図7(d)に示すように、コントラストが良好な方向の水平コントラスト成分CH[i,j]または垂直コントラスト成分CV[i,j]に重みをかけて合焦制御をすることができる。なお、動きベクトルの成分bH、bVと、重み係数KH[i,j]、KV[i,j]との関係を式にすると、例えば、以下の式(II)に示すようになる。 From the above, although the direction is substantially parallel to the detected motion vector (horizontal direction in FIG. 7), the image is elongated, resulting in poor contrast, but in the direction substantially perpendicular to the motion vector (vertical direction in FIG. 7) The contrast is good because it is not greatly affected. Therefore, when the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] are set so as to be an inverse ratio of the horizontal component b H and the vertical component b V of the detected motion vector, As shown in FIG. 7D, the focus control can be performed by applying a weight to the horizontal contrast component C H [i, j] or the vertical contrast component C V [i, j] in a direction with good contrast. . If the relationship between the motion vector components b H and b V and the weighting coefficients K H [i, j] and K V [i, j] are expressed as equations, for example, as shown in the following equation (II): Become.

H:bV=KV[i,j]:KH[i,j] ・・・(II) b H : b V = K V [i, j]: K H [i, j] (II)

以上のように合焦評価値を算出することで、水平方向、垂直方向のどちらかに被写体または撮像装置が動いた場合にも、その動きに基づいて、コントラストがよりはっきり確認される方向のコントラスト成分CH[i,j]、CV[i,j]に重みをかけて合焦評価値を求めることができるため、正確な合焦を行なうことが可能となる。さらに、新たにセンサなどの装置を撮像装置に設置する必要がないため、撮像装置の小型化、簡素化及び軽量化を図ることができる。 By calculating the focus evaluation value as described above, even when the subject or the imaging device moves in either the horizontal direction or the vertical direction, the contrast in the direction in which the contrast is more clearly confirmed based on the movement. Since the focus evaluation value can be obtained by applying a weight to the components C H [i, j] and C V [i, j], accurate focusing can be performed. Furthermore, since it is not necessary to newly install a device such as a sensor in the imaging apparatus, the imaging apparatus can be reduced in size, simplified, and reduced in weight.

なお、必ずしも上式(II)に示すような関係式とする必要はなく、水平方向及び垂直方向における動きベクトルbH、bVの大小関係と、重み係数KH[i,j]、KV[i,j]における大小関係と、が逆の関係となればどのような関係式であっても構わない。 It is not always necessary to use the relational expression as shown in the above formula (II), the magnitude relationship between the motion vectors b H and b V in the horizontal direction and the vertical direction, and the weighting coefficients K H [i, j], K V Any relational expression may be used as long as the magnitude relation in [i, j] is reversed.

また、動きベクトルの成分bH、bVの一方が所定の値よりも小さい場合、または、動きベクトルの成分bH、bVを比較したときに一方が非常に小さい場合、動きベクトルの小さい方の成分と略垂直な方向のコントラスト成分CH[i,j]、CV[i,j]を無視して、他方の成分のみを利用して合焦評価値を算出することとしても構わない。 When one of the motion vector components b H and b V is smaller than a predetermined value, or when one of the motion vector components b H and b V is very small, the smaller one of the motion vectors The focus evaluation value may be calculated by ignoring the contrast components C H [i, j] and C V [i, j] in a direction substantially perpendicular to the other component and using only the other component. .

また、動き検出部41が、被写体または撮像装置の動きを検出しなかった場合は、水平コントラスト成分CH[i,j]のみを用いて合焦を行なうこととしても構わない。即ち、動き検出部41が動きを検出して重み係数制御部424に通知しない限り、全ての領域における垂直重み係数KV[i,j]を0にするとともにすべての領域における水平重み係数KH[i,j]を所定の値にして演算するか、垂直方向に関する合焦評価値の演算自体を行なわないこととしても構わない。 If the motion detection unit 41 does not detect the motion of the subject or the imaging device, focusing may be performed using only the horizontal contrast component C H [i, j]. That is, unless the motion detection unit 41 detects a motion and notifies the weighting factor control unit 424, the vertical weighting factor K V [i, j] in all regions is set to 0 and the horizontal weighting factor K H in all regions is set. The calculation may be performed with [i, j] set to a predetermined value, or the calculation of the focus evaluation value in the vertical direction may not be performed.

また、上述した方法では水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を領域毎の値としているが、全ての領域において等しい値を取るようにしても構わない。即ち、上式(I)に示した場合において、KH[s,t]=KH[s+1,t]=…=KH[s+7,t+7]、KV[s,t]=KV[s+1,t]=…=KV[s+7,t+7]としても構わない。さらに、このとき信頼度の高い領域の動きベクトルの平均値に基づいて、水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を決定しても構わない。この方法を用いることで、特に、撮像装置が移動して画像全体が一様に伸びるような場合に、精度よく合焦を行うことができる。 In the above-described method, the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] are values for each region. However, the same value may be used for all regions. . That is, in the case shown in the above formula (I), K H [s, t] = K H [s + 1, t] =... = K H [s + 7, t + 7], K V [s, t] = K V [ s + 1, t] =... = K V [s + 7, t + 7]. Further, at this time, the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] may be determined based on the average value of the motion vectors in the highly reliable region. By using this method, focusing can be performed with high accuracy, particularly when the image pickup apparatus moves and the entire image extends uniformly.

また、検出した動きベクトルの信頼度が高い領域についてはその領域の水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を使用し、信頼度が低い領域については動きを検出しない場合の水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を使用することとしても構わない。この方法を用いると、画像の一部の領域が伸びるような場合において、伸びた領域についてはその伸びに基づいた水平重み係数KH[i,j]及び垂直重み係数KV[i,j]が算出されることとなる。そして、それ以外の領域については、画像の一部の伸びが反映されないこととなる。そのため、特に、被写体が動く場合や被写体の動きに撮像装置を追随させて動かす場合のように画像の一部が伸びるような場合において、精度よく合焦を行うことができる。 Further, the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] of the detected motion vector are used for the high reliability area, and the motion is applied to the low reliability area. The horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] may be used in the case where the signal is not detected. When this method is used, when a partial area of the image is stretched, the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j] based on the stretching of the stretched area are used. Will be calculated. For other regions, the growth of a part of the image is not reflected. Therefore, focusing can be performed with high precision, particularly when a part of the image is stretched, such as when the subject moves or when the imaging apparatus is moved following the movement of the subject.

また、これらの重み係数KH[i,j]、KV[i,j]の設定方法を、撮像モードによって切り替えることとしても構わない。また、動きを検出した際の動きベクトルの状態が、例えば領域全体に一様な動きベクトルが検出されているか否かによって、重み係数KH[i,j]、KV[i,j]の設定方法を決定することとしても構わない。 Further, the setting method of these weighting factors K H [i, j] and K V [i, j] may be switched depending on the imaging mode. Further, the state of the motion vector when detecting the motion is, for example, a weight coefficient K H [i, j], K V [i, j] depending on whether a uniform motion vector is detected in the entire region. The setting method may be determined.

<合焦制御方法の一例>
次に、図8及び図9を用いて、合焦制御方法の一例について説明する。図8は、合焦制御方法の一例を示すフローチャートであり、図9は、図7と同様のフォーカスレンズの位置と合焦評価値との関係を示したグラフであり、図7(d)に示したグラフと同様のものである。
<Example of focus control method>
Next, an example of the focus control method will be described with reference to FIGS. FIG. 8 is a flowchart showing an example of the focus control method, and FIG. 9 is a graph showing the relationship between the focus lens position and the focus evaluation value similar to FIG. 7, and FIG. It is the same as the graph shown.

図8に示すように、合焦制御動作が開始されると、まず、上述したように各領域における水平コントラスト成分CH[i,j]、垂直コントラスト成分CV[i,j]が求められる(STEP1)。そして、次に図3に示した動き検出部41が被写体または撮像装置の動きを検出したか否かを確認する(STEP2)。このSTEP2における動き検出部41の動作は上述した通りであり、複数フレームにわたって各領域の動きベクトルを確認し、それらを総合して動きが生じたか否かを判断することとする。 As shown in FIG. 8, when the focus control operation is started, first, as described above, the horizontal contrast component C H [i, j] and the vertical contrast component C V [i, j] in each region are obtained. (STEP 1). Next, it is confirmed whether or not the motion detection unit 41 shown in FIG. 3 has detected the motion of the subject or the imaging device (STEP 2). The operation of the motion detection unit 41 in STEP 2 is as described above, and the motion vectors of the respective regions are confirmed over a plurality of frames, and these are combined to determine whether motion has occurred.

STEP2において、動き検出部41が被写体または撮像装置の動きを検出したときは(STEP2、YES)、上式(I)のように、水平コントラスト成分CH[i,j]及び垂直コントラスト成分CV[i,j]に、水平重み係数KH[i,j]及び垂直KV[i,j]を積算するとともに合算して領域評価値α[i,j]を算出する。そして、各領域の領域評価値α[i,j]を合算または平均化して合焦評価値を得る(STEP4)。ここで、水平重み係数KH[i,j]及び垂直重み係数KV[i,j]の決定方法として、上式(II)に示した方法を使用することができる。 In STEP2, when the motion detection unit 41 detects the motion of the subject or the imaging device (STEP2, YES), the horizontal contrast component C H [i, j] and the vertical contrast component C V are expressed as in the above equation (I). The area evaluation value α [i, j] is calculated by adding and adding the horizontal weighting coefficient K H [i, j] and the vertical K V [i, j] to [i, j]. Then, the area evaluation values α [i, j] of the respective areas are added or averaged to obtain a focus evaluation value (STEP 4). Here, as a method for determining the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V [i, j], the method shown in the above equation (II) can be used.

一方、STEP2において、動き検出部41が被写体または撮像装置の動きを検出しなかった場合(STEP2、NO)、被写体または撮像装置に大きな動きが発生しなかったため合焦制御を行なうための十分なコントラストが得られるものと推定し、水平コントラスト成分CH[i,j]のみに基づいて合焦評価値を算出する(STEP5)。 On the other hand, when the motion detection unit 41 does not detect the motion of the subject or the imaging device in STEP 2 (STEP 2, NO), a large contrast does not occur in the subject or the imaging device, and thus sufficient contrast for performing focus control. And the focus evaluation value is calculated based only on the horizontal contrast component C H [i, j] (STEP 5).

STEP4またはSTEP5によって合焦評価値が得られると、次に、得られた合焦評価値を用いて合焦制御を行なう。まず、合焦動作が一回目であるか否か、即ち、この合焦制御動作中に、一度でもフォーカスレンズの移動をしたか否か、が判断される(STEP6)、ここで、合焦動作が一回目であれば、フォーカスレンズを所定の方向に移動させる(STEP8)。この所定の方向は予め設定されている方向であり、一回目であれば、フォーカスレンズは結果の如何を問わずにその方向に動くものとする。   When the focus evaluation value is obtained in STEP 4 or STEP 5, next, focus control is performed using the obtained focus evaluation value. First, it is determined whether or not the focus operation is the first time, that is, whether or not the focus lens has been moved even once during the focus control operation (STEP 6). Here, the focus operation is performed. If is the first time, the focus lens is moved in a predetermined direction (STEP 8). This predetermined direction is a preset direction. In the first time, the focus lens is assumed to move in that direction regardless of the result.

そして、STEP7においてフォーカスレンズを移動させた後、移動後の状態での合焦評価値を得るために、次フレームをとりこむ(STEP9)。そして、STEP1に戻り、再度コントラスト成分の抽出、動きの検出、合焦評価値の算出を行なう(STEP1〜5)。   Then, after moving the focus lens in STEP 7, the next frame is captured in order to obtain a focus evaluation value in the state after the movement (STEP 9). Then, returning to STEP 1, the contrast component is extracted, the motion is detected, and the focus evaluation value is calculated again (STEP 1 to 5).

また、STEP6において合焦動作を既に一度行なっているか否かが判断されるが、今回は一度合焦動作を行なっているために、STEP6のNOに進む。そして、二回目に得られた合焦評価値が、一回目と比較して減少したか否かの判断を行なう(STEP7)。   In STEP 6, it is determined whether or not the focusing operation has already been performed once, but since the focusing operation has been performed once this time, the process proceeds to NO in STEP 6. Then, it is determined whether or not the focus evaluation value obtained for the second time has decreased compared to the first time (STEP 7).

この時、合焦評価値が一回目と比較して減少していた場合(STEP7、YES)、合焦動作が二回目であるか否かが判断される(STEP10)。そして、合焦動作が2回目である場合は(STEP10、YES)、合焦動作一回目においてSTEP7で移動させたフォーカスレンズの方向が合焦評価値を下げる方向であったことを示しているため、フォーカスレンズを開始位置に移動させる(STEP11)。   At this time, if the focus evaluation value has decreased compared to the first time (STEP 7, YES), it is determined whether or not the focus operation is the second time (STEP 10). If the focus operation is the second time (STEP 10, YES), it indicates that the direction of the focus lens moved in STEP 7 in the first focus operation is a direction to lower the focus evaluation value. The focus lens is moved to the start position (STEP 11).

このSTEP11における開始位置に移動させる動作について、図9を用いて具体的に説明する。ここで、STEP11の動作を行なうためには、一回目の合焦動作において開始位置であるL1から合焦評価値が下がるL2にフォーカスレンズを移動させたことが前提となる。そして、STEP7及びSTEP10において、一回目のL1からL2への移動が合焦評価値を下げるものであったことが確認されることにより、STEP11においてL2から開始位置であるL1にフォーカスレンズの位置が移動される。   The operation of moving to the start position in STEP 11 will be specifically described with reference to FIG. Here, in order to perform the operation of STEP11, it is premised that the focus lens is moved from L1 which is the start position in the first focusing operation to L2 where the focus evaluation value decreases. Then, in STEP7 and STEP10, it is confirmed that the first movement from L1 to L2 lowers the focus evaluation value, so in STEP11 the position of the focus lens is shifted from L2 to L1, which is the start position. Moved.

一方、二回目の合焦動作において合焦評価値が増加した場合は(STEP7、NO)、まだ移動によって合焦評価値が上がる余地があるため、前回(1回目)移動させた方向と同じ方向にフォーカスレンズを移動させるように制御を行なう。図9においては、1回目のSTEP8においてL1からL3にフォーカスレンズを移動していた場合がこれに相当する。   On the other hand, if the focus evaluation value has increased in the second focusing operation (STEP 7, NO), there is still room for the focus evaluation value to increase due to movement, so the same direction as the direction moved last time (first time) Control to move the focus lens. In FIG. 9, this corresponds to the case where the focus lens is moved from L1 to L3 in the first STEP8.

ただし、STEP7において合焦評価値の増加を確認したあとに、フォーカスレンズの可動域が限界であり移動が不可能であることが確認される場合は(STEP12、NO)、そのフォーカスレンズの位置を合焦位置として合焦制御を終了する。一方、移動可能である場合は(STEP12、YES)、前回(1回目)と同じ方向にフォーカスレンズを移動させて(STEP13)、次フレームをとりこむ(STEP9)。図9においては、二回目にL3からL4へと移動する場合がこれに相当する。   However, after confirming the increase in focus evaluation value in STEP 7, if it is confirmed that the movable range of the focus lens is limited and cannot be moved (STEP 12, NO), the position of the focus lens is changed. Focus control is terminated as the focus position. On the other hand, if it is movable (STEP 12, YES), the focus lens is moved in the same direction as the previous time (first time) (STEP 13), and the next frame is captured (STEP 9). In FIG. 9, this corresponds to the case of moving from L3 to L4 for the second time.

そして、STEP9で次フレームをとりこんだ後にSTEP1へと戻り、再度コントラスト成分の抽出、動きの検出、合焦評価値の算出を行なう(STEP1〜5)。また、三回目以降の動作は二回目と同様であり、STEP7において合焦評価値が増加したことが確認されれば、二回目と同様にSTEP12及び13が行われる。図9においては、三回目にL4からL5へと移動する場合がこれに相当する。   Then, after fetching the next frame in STEP9, the process returns to STEP1, and again extraction of contrast components, detection of motion, and calculation of focus evaluation values are performed (STEPs 1 to 5). The operation after the third time is the same as the second time. If it is confirmed in STEP 7 that the focus evaluation value has increased, STEPs 12 and 13 are performed as in the second time. In FIG. 9, this corresponds to the case of moving from L4 to L5 for the third time.

なお、一回目にSTEP8によって図9のL1からL2に進んだために合焦評価値が減少し、二回目のSTEP11によってL2からL1の位置に戻った場合については、三回目の移動がL1からL3への移動となる。   Note that the focus evaluation value decreases because the process proceeds from L1 to L2 in FIG. 9 in the first time and returns to the position of L1 from L2 in the second STEP11, the third movement is from L1. Move to L3.

そして、フォーカスレンズを移動させて(STEP13)、次フレームをとりこんだ後は(STEP9)、これまでと同様にSTEP1に戻り、再度コントラスト成分の抽出、動きの検出、合焦評価値の算出を行なう(STEP1〜5)。そして、合焦評価値が増加し(STEP7、NO)、フォーカスレンズが可動域を超えない限りは(STEP12、YES)、上述した動作(STEP12及び13)を三回、四回、五回、…、と繰り返す。   After the focus lens is moved (STEP 13) and the next frame is captured (STEP 9), the process returns to STEP 1 as before, and contrast components are extracted, motion is detected, and a focus evaluation value is calculated again. (STEP 1-5). As long as the focus evaluation value increases (STEP 7, NO) and the focus lens does not exceed the movable range (STEP 12, YES), the above-described operation (STEPs 12 and 13) is performed three times, four times, five times,. And repeat.

これに対して、合焦評価値が減少するとともに(STEP7、YES)、合焦動作が三回目以降である場合(STEP10、NO)について以下に説明する。   On the other hand, the case where the focusing evaluation value decreases (STEP 7, YES) and the focusing operation is the third time or later (STEP 10, NO) will be described below.

この場合は、前回の合焦動作において合焦評価値が減少する方向に移動を行なったことが前提となる。例えば、前回の移動が、図9のL5からL6へと移動したものであった場合がこれに相当する。このとき、前々回にL4からL5へと移動させたときは合焦評価値が増大し、前回L5からL6へと移動させたときは合焦評価値が下がっているため、L5の位置における合焦評価値が極大値であるとの推定を行なうことができる。   In this case, it is assumed that the focus evaluation value has been moved in the direction of decreasing in the previous focusing operation. For example, this corresponds to the case where the previous movement was a movement from L5 to L6 in FIG. At this time, the focus evaluation value increases when moved from L4 to L5 two times before, and the focus evaluation value decreases when moved from L5 to L6 last time. It can be estimated that the evaluation value is a maximum value.

したがって、合焦評価値が減少して(STEP7、NO)、三回目以降である場合(STEP10、NO)は、極大値である前回の移動前の位置(図9におけるL5の位置)にフォーカスレンズを移動させて(STEP14)、そのフォーカスレンズの位置を合焦位置として合焦制御を終了する。図9においては、L6からL5に移動させる場合がこれに相当する。   Therefore, when the focus evaluation value decreases (STEP 7, NO) and the third and subsequent times (STEP 10, NO), the focus lens is moved to the position before the previous movement (the position of L5 in FIG. 9) which is the maximum value. Is moved (STEP 14), and the focus control is terminated with the position of the focus lens as the focus position. In FIG. 9, the case of moving from L6 to L5 corresponds to this.

以上のように合焦制御を行なうことによって、合焦評価値に基づいて容易に合焦を行うことが可能となる。さらに、上述したような、水平コントラスト成分CH[i,j]及び垂直コントラスト成分CV[i,j]に動きベクトルに基づいた水平重み係数KH[i,j]及び垂直重み係数KV[i,j]を積算して合算または平均化した合焦評価値を利用することができるため、被写体または撮像装置の動きによって一方のコントラスト成分が不良となっても、他方の良好なコントラスト成分を重視して合焦を行なうことができる。そのため、被写体または撮像装置が動くような場合においても、正確に合焦することが可能となる。 By performing the focusing control as described above, focusing can be easily performed based on the focusing evaluation value. Further, as described above, the horizontal weighting coefficient K H [i, j] and the vertical weighting coefficient K V based on the motion vector in the horizontal contrast component C H [i, j] and the vertical contrast component C V [i, j]. Since a focus evaluation value obtained by adding and averaging [i, j] can be used, even if one of the contrast components becomes defective due to the movement of the subject or the imaging device, the other good contrast component Focus can be performed with emphasis on. Therefore, it is possible to focus accurately even when the subject or the imaging apparatus moves.

本発明は、撮像した映像信号に基づいて制御される撮像装置や、その撮像方法に関する。特に、自動で合焦制御を行う撮像装置やその合焦制御方法を備えた撮像方法に関する。   The present invention relates to an imaging device controlled based on a captured video signal and an imaging method thereof. In particular, the present invention relates to an imaging apparatus that automatically performs focusing control and an imaging method that includes the focusing control method.

は、本発明における撮像装置の構成を示すブロック図である。These are block diagrams which show the structure of the imaging device in this invention. は、本発明における撮像装置の撮像部の構成を示すブロック図である。These are block diagrams which show the structure of the imaging part of the imaging device in this invention. は、本発明における撮像装置の合焦評価部の構成を示すブロック図である。These are block diagrams which show the structure of the focus evaluation part of the imaging device in this invention. は、本発明における撮像装置の水平コントラスト成分検出部及び垂直コントラスト成分検出部の構成を示すブロック図である。These are block diagrams which show the structure of the horizontal contrast component detection part and the vertical contrast component detection part of the imaging device in this invention. は、1フレーム分の映像信号を示す模式図である。FIG. 4 is a schematic diagram showing a video signal for one frame. は、動き検出部に入力される映像信号及び映像信号から求められる動きベクトルの模式図である。These are the schematics of the motion vector calculated | required from the video signal input into a motion detection part, and a video signal. は、動きベクトルの一例と、フォーカスレンズの位置と合焦評価値との関係について示したグラフである。These are graphs showing an example of a motion vector and the relationship between the position of the focus lens and the focus evaluation value. は、本発明における合焦制御方法の一例について示したフローチャートである。These are the flowcharts shown about an example of the focusing control method in this invention. は、フォーカスレンズの位置と合焦評価値との関係について示したグラフである。These are graphs showing the relationship between the position of the focus lens and the focus evaluation value.

符号の説明Explanation of symbols

1 撮像装置
2 撮像部
3 AFE部
4 映像信号処理部
5 音声入力部
6 音声信号処理部
7 圧縮処理部
8 伸張処理部
9 映像信号出力部
10 音声信号出力部
11 操作部
12 CPU
13 SDRAM
14 メモリカード
15 タイミング制御信号出力部
16 バス
17 バス
41 動き検出部
42 合焦評価部
421 水平コントラスト成分検出部
422 垂直コントラスト成分検出部
423 合焦評価値算出部
424 重み係数制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 3 AFE part 4 Video signal processing part 5 Audio input part 6 Audio signal processing part 7 Compression processing part 8 Decompression processing part 9 Video signal output part 10 Audio signal output part 11 Operation part 12 CPU
13 SDRAM
DESCRIPTION OF SYMBOLS 14 Memory card 15 Timing control signal output part 16 Bus 17 Bus 41 Motion detection part 42 Focus evaluation part 421 Horizontal contrast component detection part 422 Vertical contrast component detection part 423 Focus evaluation value calculation part 424 Weight coefficient control part

Claims (5)

撮像を行ない映像信号を出力する撮像部と、
当該撮像部から出力される映像信号から、被写体または撮像装置に生じた動きを検出して動き信号を出力する動き検出部と、
前記映像信号の水平高周波成分と、垂直高周波成分と、を検出する高周波成分検出部と、
前記水平高周波成分及び前記垂直高周波成分に、前記動き検出部から出力される前記動き信号に基づいた水平重み係数及び垂直重み係数を積算するとともに合算して、合焦評価値を算出する合焦評価値算出部と、
前記合焦評価値に基づいて、前記撮像装置の合焦制御を行なう合焦制御部と、
を備えることを特徴とする撮像装置。
An imaging unit that performs imaging and outputs a video signal;
A motion detection unit that detects a motion generated in the subject or the imaging device from the video signal output from the imaging unit and outputs a motion signal;
A high-frequency component detector that detects a horizontal high-frequency component and a vertical high-frequency component of the video signal;
Focus evaluation for calculating a focus evaluation value by adding a horizontal weighting factor and a vertical weighting factor based on the motion signal output from the motion detection unit to the horizontal high-frequency component and the vertical high-frequency component and adding them together. A value calculator,
A focus control unit that performs focus control of the imaging device based on the focus evaluation value;
An imaging apparatus comprising:
前記動き信号の水平成分と垂直成分との大小関係と、前記水平重み係数と垂直重み係数との大小関係と、が逆の関係になることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein a magnitude relationship between a horizontal component and a vertical component of the motion signal is opposite to a magnitude relationship between the horizontal weighting factor and a vertical weighting factor. 前記高周波成分検出部が、前記映像信号の所定の複数の領域について前記水平高周波成分及び前記垂直高周波成分をそれぞれ検出し、
前記合焦評価値算出部が、前記領域のそれぞれから得られる前記水平高周波成分及び前記垂直高周波成分に前記水平重み係数と垂直重み係数とを積算するとともに合算して、それぞれの前記領域に対応する領域評価値を得るとともに、当該領域評価値を合算または平均化して前記合焦評価値を得ることを特徴とする請求項1または請求項2に記載の撮像装置。
The high-frequency component detection unit detects the horizontal high-frequency component and the vertical high-frequency component for each of a plurality of predetermined regions of the video signal;
The focus evaluation value calculation unit adds the horizontal weighting factor and the vertical weighting factor to the horizontal high-frequency component and the vertical high-frequency component obtained from each of the regions, and adds the horizontal weighting factor and the vertical weighting factor to correspond to each region. The imaging apparatus according to claim 1, wherein an area evaluation value is obtained, and the area evaluation values are added or averaged to obtain the focus evaluation value.
前記動き検出部が、前記被写体または前記撮像装置における動きが所定の期間同じ方向であったことを検出したときに、前記動き信号を出力することを特徴とする請求項1〜請求項3のいずれかに記載の撮像装置。   The motion signal is output when the motion detection unit detects that the motion of the subject or the imaging device is in the same direction for a predetermined period. An imaging apparatus according to claim 1. 撮像を行い映像信号を出力する第一ステップと、
当該第一ステップにおいて出力される映像信号から、被写体または撮像装置に生じた動きを検出して動き信号を作成する第二ステップと、
前記映像信号の水平高周波成分と、垂直高周波成分と、を検出する第三ステップと、
当該第三ステップにおいて得られる前記水平高周波成分及び前記垂直方向の高周波成分のそれぞれに、前記第二ステップによって作成される動き信号に基づいた水平重み係数及び垂直重み係数を積算するとともに合算して、合焦評価値を算出する第四ステップと、
前記合焦評価値に基づいて、前記撮像装置の合焦制御を行なう第五ステップと、
を備えることを特徴とする撮像方法。
A first step of imaging and outputting a video signal;
A second step of detecting a motion generated in the subject or the imaging device from the video signal output in the first step and creating a motion signal;
A third step of detecting a horizontal high-frequency component and a vertical high-frequency component of the video signal;
A horizontal weighting factor and a vertical weighting factor based on the motion signal created by the second step are integrated and added to each of the horizontal high frequency component and the vertical high frequency component obtained in the third step, A fourth step of calculating a focus evaluation value;
A fifth step of performing focusing control of the imaging device based on the focusing evaluation value;
An imaging method comprising:
JP2007184310A 2007-07-13 2007-07-13 Imaging apparatus and imaging method Expired - Fee Related JP4969349B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007184310A JP4969349B2 (en) 2007-07-13 2007-07-13 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007184310A JP4969349B2 (en) 2007-07-13 2007-07-13 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2009021929A true JP2009021929A (en) 2009-01-29
JP4969349B2 JP4969349B2 (en) 2012-07-04

Family

ID=40361136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007184310A Expired - Fee Related JP4969349B2 (en) 2007-07-13 2007-07-13 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4969349B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063469A1 (en) * 2010-11-11 2012-05-18 パナソニック株式会社 Image processing device, image processing method and program
CN102890329A (en) * 2011-07-21 2013-01-23 奥林巴斯映像株式会社 Focus controller
JP2017098884A (en) * 2015-11-27 2017-06-01 カシオ計算機株式会社 Movement detection device, movement detection method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007057763A (en) * 2005-08-24 2007-03-08 Canon Inc Focusing device and focusing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007057763A (en) * 2005-08-24 2007-03-08 Canon Inc Focusing device and focusing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063469A1 (en) * 2010-11-11 2012-05-18 パナソニック株式会社 Image processing device, image processing method and program
JP5694300B2 (en) * 2010-11-11 2015-04-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, image processing method, and program
US9001222B2 (en) 2010-11-11 2015-04-07 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and program for image processing for correcting displacement between pictures obtained by temporally-continuous capturing
CN102890329A (en) * 2011-07-21 2013-01-23 奥林巴斯映像株式会社 Focus controller
US8994871B2 (en) 2011-07-21 2015-03-31 Olympus Imaging Corp. Focus controller
JP2017098884A (en) * 2015-11-27 2017-06-01 カシオ計算機株式会社 Movement detection device, movement detection method, and program
US10027890B2 (en) 2015-11-27 2018-07-17 Casio Computer Co., Ltd. Motion detecting device, motion detecting method, and non-transitory recording medium

Also Published As

Publication number Publication date
JP4969349B2 (en) 2012-07-04

Similar Documents

Publication Publication Date Title
US9800772B2 (en) Focus adjustment device and focus adjustment method that detects spatial frequency of a captured image
JP6157242B2 (en) Image processing apparatus and image processing method
JP6124538B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
US9723208B2 (en) Image processing apparatus, method for controlling the same, and storage medium
JP4824586B2 (en) Imaging device
JP2008129554A (en) Imaging device and automatic focusing control method
TW201119365A (en) Image selection device and method for selecting image
JP2008109336A (en) Image processor and imaging apparatus
WO2015190156A1 (en) Image processing device, imaging device equipped with same, image processing method, and image processing program
JP6045254B2 (en) Image processing apparatus, control method thereof, and control program
KR20090071471A (en) Imaging device and its shutter drive mode selection method
JP2010062952A (en) Imaging device, image processing device, method for processing image, program, and recording medium
JP2010160311A (en) Imaging apparatus
JP2008139683A (en) Imaging apparatus and autofocus control method
US8854503B2 (en) Image enhancements through multi-image processing
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP5868061B2 (en) Imaging device
JP2007324856A (en) Imaging apparatus and imaging control method
JP2010166512A (en) Imaging apparatus
JP4125331B2 (en) Imaging apparatus and control method thereof
KR101721226B1 (en) digital image signal processing apparatus and method for controlling the same
JP4969349B2 (en) Imaging apparatus and imaging method
US10129449B2 (en) Flash band, determination device for detecting flash band, method of controlling the same, storage medium, and image pickup apparatus
KR101747304B1 (en) A digital photographing apparatus, a method for auto-focusing, and a computer-readable storage medium for executing the method
JP2011066827A (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees