JP2012242759A - Imaging apparatus, control method therefor, and program - Google Patents
Imaging apparatus, control method therefor, and program Download PDFInfo
- Publication number
- JP2012242759A JP2012242759A JP2011115121A JP2011115121A JP2012242759A JP 2012242759 A JP2012242759 A JP 2012242759A JP 2011115121 A JP2011115121 A JP 2011115121A JP 2011115121 A JP2011115121 A JP 2011115121A JP 2012242759 A JP2012242759 A JP 2012242759A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- imaging
- evaluation
- camera microcomputer
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims description 105
- 230000033001 locomotion Effects 0.000 claims abstract description 158
- 239000013598 vector Substances 0.000 claims abstract description 150
- 238000011156 evaluation Methods 0.000 claims abstract description 104
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 230000003287 optical effect Effects 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims description 83
- 238000012545 processing Methods 0.000 claims description 39
- 238000005375 photometry Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000009194 climbing Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ビデオカメラやデジタルカメラ等の撮像装置、その制御方法及びプログラムに関し、車両や移動体に搭載した車載撮影におけるオートフォーカスや自動露出制御等に適用される。 The present invention relates to an imaging apparatus such as a video camera and a digital camera, and a control method and program thereof, and is applied to autofocus, automatic exposure control, and the like in in-vehicle shooting mounted on a vehicle or a moving body.
車両の運転席近傍に取り付けられる車載用ビデオカメラは、ドライブ中、その運転席から見える範囲の映像を常時撮影して記録媒体に記録し、事故が発生した時には、所定の短い時間経過後まで記録した後、その記録を停止するよう構成されている。これにより、事故直前から直後の撮影映像を再生して、その事故が如何なる原因で生じたかを検証することができる。 An in-vehicle video camera installed in the vicinity of the driver's seat of a vehicle always captures and records on the recording medium the image that can be seen from the driver's seat during driving, and records it until a predetermined short time has elapsed when an accident occurs. After that, the recording is stopped. Thereby, it is possible to reproduce the captured video immediately before and immediately after the accident and to verify the cause of the accident.
このようなドライブ状態を撮影できる機能を備えたビデオカメラは、業務用車両のみならず、全ての個人の乗用車にも搭載されることが望ましい。しかしながら、このようなビデオカメラは実際には一部のタクシー等の業務用車両にしか搭載されていない。この種のビデオカメラは専用装置であるが故に高価なものであり、個人の乗用車等には搭載し難い。 It is desirable that a video camera having a function capable of photographing such a drive state is mounted not only on a commercial vehicle but also on all private passenger cars. However, such a video camera is actually mounted only on some commercial vehicles such as taxis. Since this type of video camera is a dedicated device, it is expensive and difficult to install in personal passenger cars.
一方で、コンシューマ用ビデオカメラは年々安価になり、主に家庭用として大多数の家庭に普及している。特許文献1には、普及型の手振れ検出センサーを備えたビデオカメラを用いて、車両のドライブ中、その車両の前方の広範囲にわたる情景を容易に撮影、記録できるようにしたビデオステーション、ビデオカメラ、車載用ビデオカメラ装置及び車両が開示されている。
On the other hand, consumer video cameras are becoming cheaper year by year, and are widely used in most homes mainly for home use.
従来より、ビデオカメラは、撮影対象物すなわち被写体にピントがあった最適合焦状態で確実に撮影を行うためにオートフォーカスが広く採用されている。オートフォーカスでは、画面の中央部分の測距領域に撮影対象物を位置させることで、上記撮影対象物に対する合焦状態を検出して、撮像光学系の合焦機構を自動調整する。被写体に対する合焦状態を検出する手法としては、合焦位置における撮像出力に含まれる先鋭度情報が最大になることを利用して合焦状態を検出する方式が知られている。 2. Description of the Related Art Conventionally, video cameras have widely employed autofocus in order to reliably perform shooting in an optimally focused state where a shooting target, that is, a subject is in focus. In auto-focusing, the imaging object is positioned in the distance measuring area at the center of the screen, thereby detecting the in-focus state with respect to the imaging object and automatically adjusting the focusing mechanism of the imaging optical system. As a method for detecting the in-focus state with respect to the subject, a method for detecting the in-focus state using the fact that the sharpness information included in the imaging output at the in-focus position is maximized is known.
また、近年では、画像の手振れ補正等のために、画像信号から動きベクトルを検出する検討が盛んに行われている。この動きベクトルを用いて、被写体の動きを検出し、被写体を追尾して自動合焦を行う被写体追尾方式の自動合焦機能の開発も盛んになりつつある。 In recent years, studies for detecting a motion vector from an image signal have been actively conducted for image shake correction and the like. Development of an automatic focusing function of a subject tracking method that detects the movement of a subject using this motion vector and tracks the subject for automatic focusing is also becoming popular.
しかしながら、上記従来例で説明したビデオカメラでは、車載撮影等に特化した機能は無く、車載撮影には不都合が生じる場合がある。例えば、走行中の撮影の場合、通常の撮影とは異なり、撮影者が常に被写体を狙って撮影しているわけではなく、車体の一部に固定されていることが考えられる。車体に固定されている場合、進行方向に対するカメラの角度や、道路のカーブによっては、主被写体が常に画面の中央部分に存在するとは限らない。このような撮影において、画面の中央部分に測距領域を設定して焦点調節を行った場合、ユーザの意図とは違う被写体にピントが合ってしまい主被写体にボケが生じる可能性がある。 However, the video camera described in the above conventional example does not have a function specialized for in-vehicle shooting or the like, and may cause inconvenience in in-vehicle shooting. For example, in the case of shooting while traveling, unlike the normal shooting, the photographer does not always aim at the subject but may be fixed to a part of the vehicle body. When fixed to the vehicle body, the main subject is not always present at the center of the screen depending on the angle of the camera with respect to the traveling direction and the curve of the road. In such shooting, when focus adjustment is performed by setting a distance measurement area in the center portion of the screen, a subject different from the user's intention may be focused and the main subject may be blurred.
また、走行中の撮影の場合、走行方向や速度に応じて、画面内の映像に流れが発生する。測距領域内の映像が流れた場合、測距値の変動が激しく変化して、正しい測距値が得られず、オートフォーカスが安定せず、映像にフワつきが発生してしまう可能性がある。 In the case of shooting while traveling, a flow occurs in the image on the screen in accordance with the traveling direction and speed. When the image in the distance measurement area flows, the fluctuation of the distance measurement value changes drastically, the correct distance measurement value cannot be obtained, the autofocus is not stable, and the image may be fluffed. is there.
さらに、車載撮影の場合、画面内に車体の一部、又は車内の一部が写り込む状態が発生しやすい。しかしながら、車内と車外の明るさに大きな変化があるため、露出を調整する評価枠の設定を誤ると適正露出にならずに、露出がアンダー又はオーバーな映像が記録されてしまう可能性がある。 Furthermore, in the case of in-vehicle shooting, a state in which a part of the vehicle body or a part of the vehicle is reflected in the screen is likely to occur. However, since there is a large change in the brightness of the inside and outside of the vehicle, if the evaluation frame for adjusting the exposure is set incorrectly, there is a possibility that an underexposed or overexposed video is recorded without proper exposure.
本発明は上記問題点に鑑みてなされたものであり、車載撮影において、自動的にオートフォーカスや露出制御用の評価領域を設定し、常に安定したピント、安定した露出での撮影を可能にすることを目的とする。 The present invention has been made in view of the above-described problems, and in on-vehicle shooting, an evaluation area for autofocus and exposure control is automatically set to always enable shooting with stable focus and stable exposure. For the purpose.
本発明の撮像装置は、撮像光学系により結像された光学像を映像信号に変換する撮像手段と、前記撮像手段で得られる映像信号から動きベクトルを検出する動きベクトル検出手段と、前記動きベクトルの検出結果に応じて、所定の評価値を得るための当該映像上の評価領域を設定する評価領域設定手段とを備えたことを特徴とする。 An imaging apparatus according to the present invention includes an imaging unit that converts an optical image formed by an imaging optical system into a video signal, a motion vector detection unit that detects a motion vector from the video signal obtained by the imaging unit, and the motion vector And an evaluation area setting means for setting an evaluation area on the video for obtaining a predetermined evaluation value according to the detection result.
本発明によれば、車載撮影において、自動的にオートフォーカスや露出制御用の評価領域を設定し、常に安定したピント、安定した露出での撮影が可能になる。例えばコンシューマ用ビデオカメラを車載撮影のために車体に固定し撮影した場合においても、映像信号から検出される動きベクトルを用いることにより、映像の流れが少ない領域に評価領域を設定することができ、安定した評価値を取得することが可能になる。 According to the present invention, an evaluation area for autofocus and exposure control is automatically set in in-vehicle shooting, and shooting with always stable focus and stable exposure becomes possible. For example, even when a consumer video camera is fixed to the vehicle body for in-vehicle shooting, by using a motion vector detected from the video signal, the evaluation area can be set in an area where the image flow is small, It becomes possible to acquire a stable evaluation value.
以下、添付図面を参照して、本発明の好適な実施形態について説明する。
<第1の実施形態>
図1は、第1の実施形態に係るビデオカメラの構成を示す図である。なお、本実施形態ではビデオカメラについて説明するが、本発明はデジタルスチルカメラ等、他の撮像装置への適用も可能である。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration of a video camera according to the first embodiment. Although the present embodiment describes a video camera, the present invention can be applied to other imaging devices such as a digital still camera.
図1において、101は第1固定レンズである。102は光軸方向に移動して変倍を行う変倍レンズである。103は絞りである。104は第2固定レンズである。105は変倍に伴う焦点面の移動を補正する機能とフォーカシングの機能とを兼ね備えたフォーカスコンペンセータレンズ(以下、フォーカスレンズという)である。これら第1固定レンズ101、変倍レンズ102、絞り103、第2固定レンズ104及びフォーカスレンズ105により撮像光学系が構成される。
In FIG. 1,
106は撮像光学系により結像される光学像を映像信号に変換する光電変換素子としての撮像素子であり、CCDセンサやCMOSセンサにより構成される。107はCDS/AGC/ADコンバータであり、撮像素子106の出力をサンプリング、ゲイン調整、デジタル化する。108はカメラ信号処理回路であり、CDS/AGC/ADコンバータ107からの出力信号に対して各種の画像処理を施す。109は表示装置であり、カメラ信号処理回路108からの映像信号を表示する。110は記録装置であり、カメラ信号処理回路108からの映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。
111はAFゲートであり、CDS/AGC/ADコンバータ107からの全画素の出力信号のうち焦点検出に用いられる領域の信号のみを通す。112は焦点信号処理回路であり、AFゲート111を通過した信号から高周波成分や該高周波信号から生成した輝度差成分(AFゲート111を通過した信号の輝度レベルの最大値と最小値の差分)等を抽出して焦点信号を生成する。ここで、焦点信号は、撮像素子106からの出力信号に基づいて生成される映像の鮮鋭度(コントラスト状態)を表すものであるが、鮮鋭度は撮像光学系の焦点状態によって変化するので、結果的に撮像光学系の焦点状態を表す信号となる。
113は動きベクトル検出回路であり、映像信号に対して公知の動きベクトル検出処理を施し、映像上の複数の領域に対して動きベクトルを検出処理する。画像の符号化装置や画像触れ補正装置に必要な動きベクトル検出方法としては、特許文献2や特許文献3等に記載の時空間勾配法、或いは相関演算に基づく相関法やブロックマッチング法(テンプレートマッチング法)がある。時空間勾配法については、非特許文献1で詳しく論じられている。また、ブロックマッチング法については、非特許文献2で詳しく論じられている。時空間勾配法は、フレーム(或いはフィールド)間の輝度差dと画面内の画素間の輝度差Δから、画像の動き量をd/Δで表す方法である。これは、カメラから得られる信号がフィールド周期の時間平均であり、画像の動き量が大きいほどエッジが鈍り、画素間の輝度差Δが小さくなる性質を利用し、フレーム(或いはフィールド)間の輝度差dを信号Δで正規化したものである。一方、ブロックマッチング法は、入力画像信号を適当な大きさのブロック(例えば8画素×8ライン)に分割し、ブロック単位に前のフレーム(或いはフィールド)の一定範囲の画素との差を計算する。そして、この差の絶対値の和が最小となる前のフレーム(或いはフィールド)のブロックを探査する。当該ブロックの相対的なずれがそのブロックの動きベクトルを表している。
A motion
114は交点領域検出回路であり、動きベクトル検出回路113の検出結果に基づいて動きベクトルの交点領域を算出し、その算出結果をカメラ/AFマイコン115に送信する。交点領域検出回路114の処理については後述する。115はカメラ/AFマイコン(以下、カメラマイコンという)である。カメラマイコン115は、動きベクトル検出回路113の検出結果に基づいて、交点領域に焦点検出に用いられる評価枠(評価領域)であるオートフォーカス枠(以下、AF枠と称する)を設定するようにAFゲート111へ情報を送信する。また、カメラマイコン115は、焦点信号処理回路112の出力信号に基づいて、後述するフォーカスレンズ駆動源116を制御してフォーカスレンズ105を駆動するとともに、記録装置110へ画像記録命令を出力する。
An intersection
117は変倍レンズ駆動源であり、変倍レンズ102を移動させるためのアクチュエータ及びそのドライバを含む。116はフォーカスレンズ駆動源であり、フォーカスレンズ105を移動させるためのアクチュエータ及びそのドライバを含む。変倍レンズ駆動源117及びフォーカスレンズ駆動源116は、ステッピングモータ、DCモータ、振動型モータ及びボイスコイルモータ等のアクチュエータにより構成される。
次に、カメラマイコン115が実行する焦点調節制御の概要について説明する。図2は、本実施形態における焦点調節制御を示すフローチャートである。まずステップS201で、カメラマイコン115は、TV−AF制御の基本となる焦点信号を取得するためのAF枠の位置及び大きさを設定する。交点領域検出回路114で交点領域が検出された場合は該交点領域にAF枠を設定し、交点領域が抽出されなかった場合は固定のAF枠(初期位置)を設定する。この処理の詳細は図8〜図16を参照して後述する。
Next, an outline of the focus adjustment control executed by the
次にステップS202で、カメラマイコン115の制御下で焦点信号処理回路112より、指定されたAF枠の焦点信号を取得する。このとき、焦点信号処理回路112内のフィルタ係数を設定し、抽出特性の異なる複数のバンドパスフィルタを構築する。抽出特性とはバンドパスフィルタの周波数特性であり、ここでの設定とは焦点信号処理回路112内のバンドパスフィルタの設定値を変更することを意味する。
In step S202, the focus signal of the designated AF frame is acquired from the focus
次にステップS203で、カメラマイコン115は、TV−AF制御により焦点調節を行う。この処理の詳細は図3を参照して後述する。その後、ステップS201へ戻る。
In step S203, the
図3は、図2のステップS203で実行されるTV−AF制御の詳細を示すフローチャートである。まずステップS301で、カメラマイコン115は、微小駆動モードであるかどうかを判別し、微小駆動モードである場合はステップS302へ遷移し、微小駆動モードでない場合はステップS308へ遷移する。ステップS302で、カメラマイコン115は微小駆動動作を行い、フォーカスレンズ105を所定の振幅で駆動し、合焦しているか、或いはどちらの方向に合焦点が存在するかを判別する。この処理の詳細は図4及び図5を参照して後述する。ステップS303で、カメラマイコン115は、ステップS302の微小駆動動作によって合焦判別が成功したかどうかを判別し、成功した場合はステップS306へ遷移し、成功しない場合はステップS304へ遷移する。ステップS304で、カメラマイコン115は、ステップS302の微小駆動動作によって方向判別が成功したかどうかを判別する。方向判別が成功した場合はステップS305へ遷移して山登り駆動モードへ移行し、成功しない場合はステップS301へ戻り、微小駆動モードを継続する。ステップS306で、カメラマイコン115は、合焦時の焦点信号レベルをカメラマイコン115内のメモリに格納した後、ステップS307へ遷移して再起動判定モードへ移行する。
FIG. 3 is a flowchart showing details of the TV-AF control executed in step S203 of FIG. First, in step S301, the
一方、ステップS308で、カメラマイコン115は、山登り駆動モードであるかどうかを判別し、山登り駆動モードである場合はステップS309へ遷移し、山登り駆動モードでない場合はステップS313へ遷移する。ステップS309で、カメラマイコン115は山登り駆動動作を行い、焦点信号が大きくなる方向へ所定の速度でフォーカスレンズ105を山登り駆動する。この処理の詳細は図6及び図7を参照して後述する。ステップS310で、カメラマイコン115は、ステップS309の山登り駆動動作によって焦点信号のピーク位置が発見されたかどうかを判別する。発見された場合はステップS311へ遷移し、発見されない場合はステップS301へ戻り、山登り駆動モードを継続する。ステップS311で、カメラマイコン115は、焦点信号がピークとなったフォーカスレンズ105の位置を目標位置に設定した後、ステップS312へ遷移し、停止モードへ移行する。
On the other hand, in step S308, the
一方、ステップS313で、カメラマイコン115は、停止モードであるかどうかを判別し、停止モードである場合はステップS314へ遷移し、停止モードでない場合はステップS316へ遷移する。ステップS314で、カメラマイコン115は、フォーカスレンズ105が焦点信号のピークとなる位置に戻ったかどうかを判別する。ピークとなる位置に戻った場合はステップS315へ遷移し、微小駆動(合焦判別)モードへの移行し、ピークとなる位置に戻っていない場合はステップS301へ戻り、停止モードを継続する。
On the other hand, in step S313, the
一方、ステップS316で、カメラマイコン115は、現在の焦点信号レベルとステップS306で保持した焦点信号レベルとを比較し、その変動量が所定値より大きいかどうかを判別する。変動量が大きい場合はステップS317へ遷移し、微小駆動(方向判別)モードへの移行を行い、変動量が大きくない場合はステップS301へ戻り、再起動判定モードを継続する。
On the other hand, in step S316, the
図3のステップS302で実行される微小駆動モードの詳細な処理について、図4及び図5を参照して説明する。図4は、図3のステップS302で実行される微小駆動モードの詳細な処理を示すフローチャートである。ステップS401で、カメラマイコン115は、微小駆動の動作状態を示すカウンタが現在0であるかどうかを判別し、0である場合はステップS402へ遷移し、0でない場合はステップS403へ遷移する。ステップS402で、カメラマイコン115は、フォーカスレンズ105が至近側にある場合の処理として、現在のAF評価値レベルを保持する。ここでのAF評価値は、後述のステップS410でフォーカスレンズ105が無限側にあるときに撮像素子106に蓄積された電荷から生成された画像信号によるものである。
Detailed processing in the minute drive mode executed in step S302 of FIG. 3 will be described with reference to FIGS. FIG. 4 is a flowchart showing detailed processing of the minute driving mode executed in step S302 of FIG. In step S401, the
ステップS403で、カメラマイコン115は、現在のカウンタが1であるかどうかを判別し、1である場合はステップS404へ遷移し、1でない場合はステップS409へ遷移する。ステップS404で、カメラマイコン115は、後述のステップS408でフォーカスレンズ105を駆動するための振動振幅、中心移動振幅を演算する。通常、これらの振幅は焦点深度内に設定されるのが一般的である。ステップS405で、カメラマイコン115は、ステップS402で保持した無限側のAF評価値レベルと後述のステップS410で保持した至近側のAF評価値レベルを比較する。その結果、前者が大きい場合はステップS406へ遷移し、後者が大きい場合はステップS407へ遷移する。ステップS406で、カメラマイコン115は、振動振幅と中心移動振幅を加算し、駆動振幅とする。一方、ステップS407で、カメラマイコン115は、振動振幅を駆動振幅とする。ステップS408で、カメラマイコン115は、ステップS406又はステップS407で求めた駆動振幅に基づき、無限方向へ駆動する。
In step S403, the
ステップS409で、カメラマイコン115は、現在のカウンタが2であるかどうかを判別し、2である場合はステップS410へ遷移し、2でない場合はステップS411へ遷移する。ステップS410で、カメラマイコン115は、フォーカスレンズ105が無限側にある場合の処理として、現在のAF評価値レベルを保持する。ここでのAF評価値は、ステップS402でフォーカスレンズ105が至近側にあるときに撮像素子106に蓄積された電荷から生成された画像信号によるものである。ステップS411で、カメラマイコン115は、後述のステップS415でフォーカスレンズ105を駆動するための振動振幅、中心移動振幅を演算する。通常、これらの振幅は焦点深度内に設定されるのが一般的である。ステップS412で、カメラマイコン115は、ステップS410で保持した至近側のAF評価値レベルとステップS402で保持した無限側のAF評価値レベルを比較する。その結果、前者が大きい場合はステップS413へ遷移し、後者が大きい場合はステップS414へ遷移する。ステップS413で、カメラマイコン115は、振動振幅と中心移動振幅を加算し、駆動振幅とする。一方、ステップS414で、カメラマイコン115は、振動振幅を駆動振幅とする。ステップS415で、カメラマイコン115は、ステップS413又はステップS414で求めた駆動振幅に基づき、至近方向へ駆動する。
In step S409, the
ステップS416で、カメラマイコン115は、現在方向判別モードであるかどうかを判別し、方向判別モードである場合はステップS417へ遷移し、方向判別モードでない場合はステップS419へ遷移する。ステップS417で、カメラマイコン115は、所定回数連続して同一方向に合焦点が存在しているかどうかを判別し、そうである場合はステップS418へ遷移し、そうでない場合はステップS421へ遷移する。ステップS418で、カメラマイコン115は向判別ができたものと判断する。一方、ステップS419で、カメラマイコン115は、フォーカスレンズが所定回数同一エリアで往復しているかどうかを判別し、そうである場合はステップS420へ遷移し、そうでない場合はステップS421へ遷移する。ステップS420で、カメラマイコン115は合焦判別できたものと判断する。ステップS421で、カメラマイコン115は、微小駆動の動作状態を示すカウンタが3であれば0に戻し、その他の値であればカウンタを加算する。
In step S416, the
図5は、微小駆動モードでのフォーカスレンズ105の動作を示す特性図である。上の図は画像信号の垂直同期信号を示し、下の図は横軸が時間、縦軸がフォーカスレンズ105の位置を表している。ラベルAの時刻に撮像素子106に蓄積された電荷に対するAF評価値EVAは、時刻TAでカメラマイコン115に取り込まれる。また、ラベルBの時刻に撮像素子106に蓄積された電荷に対するAF評価値EVBは、時刻TBでカメラマイコン115に取り込まれる。時刻TCではAF評価値EVAとEVBとを比較し、EVBが大きい場合のみ振動中心を移動する。なお、ここでのフォーカスレンズ105の移動は焦点深度を基準とし、画面で認識できない移動量に設定する。
FIG. 5 is a characteristic diagram showing the operation of the
図3のステップS308で実行される山登り駆動モードの詳細な処理について、図6及び図7を参照して説明する。図6は、図3のステップS308で実行される山登り駆動モードの詳細な処理を示すフローチャートである。ステップS601で、カメラマイコン115はフォーカスレンズ105の駆動速度を設定する。ステップS602で、カメラマイコン115は、現在のAF評価値レベルが前回より増加しているかどうかを判別し、増加している場合はステップS603へ遷移し、増加していない場合はステップS604へ遷移する。ステップS603で、カメラマイコン115は、ステップS601で設定した速度に基づき、フォーカスレンズ105を前回と同じ方向に山登り駆動する。
Detailed processing in the hill-climbing drive mode executed in step S308 in FIG. 3 will be described with reference to FIGS. FIG. 6 is a flowchart showing detailed processing of the hill-climbing drive mode executed in step S308 of FIG. In step S601, the
ステップS604で、カメラマイコン115は、AF評価値レベルがピーク位置を越えたかどうかを判別し、ピーク位置を超えた場合はステップS605へ遷移し、ピーク位置を超えていない場合はステップS606へ遷移する。ステップS605で、カメラマイコン115はピーク位置を発見したものと判断する。ステップS606で、カメラマイコン115は、ステップS601で設定した速度に基づき、フォーカスレンズ105を前回と逆の方向に山登り駆動する。なお、山登り駆動モードでこのステップS606を繰り返している場合、被写体のAF評価値の変化量が十分に得られないためにフォーカスレンズ105がハンチング状態にあることを意味する。
In step S604, the
図7は、山登り駆動モードでのフォーカスレンズ105の動作を示す特性図である。横軸がフォーカスレンズ105の位置、縦軸が焦点信号を表している。フォーカスレンズ105が範囲Aで駆動している場合はAF評価値が増加しているため、同じ方向への山登り駆動を継続する。ここで、フォーカスレンズ105を範囲Bで駆動するとAF評価値はピーク位置を越えて減少する。このとき、合焦点が存在するとして山登り駆動動作を終了し、フォーカスレンズ105をピーク位置まで戻した後、微小駆動動作に移行する。一方、範囲Cのようにピーク位置を越えずにAF評価値が減少した場合は駆動すべき方向を間違えたものとして反転し、山登り駆動動作を継続する。
FIG. 7 is a characteristic diagram showing the operation of the
このように、TV−AF方式による焦点調節制御では、再起動判定→微小駆動→山登り駆動→停止→微小駆動→再起動判定を繰り返しながらフォーカスレンズ105を移動させることで、AF評価値が常に最大となるように合焦状態を維持する。
As described above, in the focus adjustment control by the TV-AF method, the AF evaluation value is always maximized by moving the
以下、図8〜図16を参照して、動きベクトルの検出結果に応じたAF枠の設定方法について説明する。これは、図2のステップS201におけるAF枠の領域情報の決定処理の詳細な説明である。図8(a)は入力画像であり、x方向及びy方向に[7*5]のブロックに分割されている。進行方向は画像奥方向である。図8(b)は各ブロックで動きベクトルを検出した結果を示す。このような動きベクトルの分布図を一般にオプティカルフロー図と呼ぶ。画面奥方向に進行しているため、動きベクトルは進行方向を中心に放射状になる。図8(c)は動きベクトルの値を(x成分、y成分)に変換して表示したものである。この各々の成分に変換した値を用いて、評価枠を決定する。図8(d)は評価枠の設定方法を簡易的に示したものである。各々の動きベクトルは放射状に出ているため、動きベクトルの交点領域は領域Sであることが分かる。この動きベクトルの交点領域を評価枠とすることにより、安定したAF評価値の取得ができ、適切なオートフォーカスを行うことが可能になる。以下、その評価枠の設定方法について説明を行う。 The AF frame setting method according to the motion vector detection result will be described below with reference to FIGS. This is a detailed description of the AF frame region information determination process in step S201 of FIG. FIG. 8A shows an input image, which is divided into [7 * 5] blocks in the x and y directions. The traveling direction is the back direction of the image. FIG. 8B shows the result of detecting a motion vector in each block. Such a motion vector distribution diagram is generally called an optical flow diagram. Since the motion vector is traveling in the depth direction of the screen, the motion vectors are radiating around the traveling direction. FIG. 8C shows the motion vector value converted into (x component, y component) and displayed. An evaluation frame is determined using the values converted into the respective components. FIG. 8D shows a simplified method for setting the evaluation frame. Since each motion vector appears radially, it can be seen that the intersection region of the motion vectors is a region S. By using the intersection area of the motion vectors as an evaluation frame, a stable AF evaluation value can be acquired and appropriate autofocus can be performed. The evaluation frame setting method will be described below.
まず、動きベクトルに応じた評価枠の移動は常時行う必要はなく、車載カメラとして車体の一部に固定された状態で、且つ車体が移動している場合のみ行う処理である。図9、図10を参照して、評価枠の設定において、初期位置の評価枠を用いるか、動きベクトルに応じた評価枠を用いるかの切り替えを行う処理を説明する。 First, it is not necessary to always move the evaluation frame according to the motion vector, and is a process performed only when the vehicle body is moving while being fixed to a part of the vehicle body as an in-vehicle camera. With reference to FIGS. 9 and 10, processing for switching between using an evaluation frame at an initial position or using an evaluation frame according to a motion vector in setting an evaluation frame will be described.
図9は、初期位置の評価枠を用いるか、動きベクトルに応じた評価枠を用いるかの切り替えの判断を簡易的に示した図である。図8(a)が入力画像である場合に、図9(a)は車体が画像奥方向に駆動した初期状態を模した図である。画面の中央部分は画像の流れが少ないため、動きベクトルの発生は少ない。画面の端部分は画像の変化が大きいため、動きベクトルの発生がある。図9(b)は車体が加速した状態を模した図である。車体の移動量が増えたため、画面の内側部分の動きベクトルが発生する。画面の端部分は移動量が増えたことにより、動きベクトルの強度が増える傾向にある。図9(c)はさらに車体が加速した状態を模した図である。画面中央を除き、動きベクトルが発生する。このように、車体が停止から駆動状態に移行する際、動きベクトルは車体の移動量に伴い増加する。これを利用して、同じ領域内の動きベクトルの増加を監視し、動きベクトルの所定時間の増加が確認できた場合は、車体が駆動していると判断し、動きベクトルに応じた評価枠の設定を行う処理に移行する。図9(d)は、画面内のある領域の動きベクトルの変化を示した図である。本実施形態では、動きベクトルのサンプル間隔において、K回連続して増加した場合を、車体の移動が開始したと判断することとしている。 FIG. 9 is a diagram simply showing the determination of switching between using the initial position evaluation frame or using the evaluation frame corresponding to the motion vector. When FIG. 8A is an input image, FIG. 9A is a diagram simulating an initial state in which the vehicle body is driven in the depth direction of the image. Since there is little image flow in the center of the screen, there are few motion vectors. Since the edge of the screen has a large image change, motion vectors are generated. FIG. 9B is a diagram simulating the state in which the vehicle body is accelerated. Since the amount of movement of the vehicle body has increased, a motion vector for the inner part of the screen is generated. The edge of the screen tends to increase the intensity of the motion vector due to the increased amount of movement. FIG. 9C is a diagram simulating a state where the vehicle body is further accelerated. A motion vector is generated except for the center of the screen. Thus, when the vehicle body shifts from the stop state to the driving state, the motion vector increases with the amount of movement of the vehicle body. Using this, the increase in the motion vector in the same area is monitored, and if the increase in the motion vector for a predetermined time is confirmed, it is determined that the vehicle body is driven, and the evaluation frame corresponding to the motion vector Move on to the process of setting. FIG. 9D is a diagram showing changes in motion vectors in a certain area in the screen. In the present embodiment, it is determined that the movement of the vehicle body has started when the motion vector sampling interval has increased continuously K times.
図10は、動きベクトルを用いた評価枠の設定判定のフローチャートである。ステップS1002で、カメラマイコン115は、映像から動きベクトルが検出できたかどうかを判断する。動きベクトルが検出された場合はステップS1003へ遷移し、動きベクトルが検出されなかった場合はステップS1012へ遷移する。
FIG. 10 is a flowchart of setting determination of an evaluation frame using a motion vector. In step S1002, the
ステップS1003で、カメラマイコン115は、検出された動きベクトルを3次元配列Vector_x[n][h][i]、Vector_y[n][h][i]に格納する。hはx軸方向の動きベクトルの検出領域数、iはy軸方向の動きベクトルの検出領域数を示し、nは記憶した配列の番号を示している。格納する方法は、動きベクトルをx成分、y成分に分割し、それぞれを格納する。格納後、ステップS1004に遷移する。ステップS1004で、カメラマイコン115は配列の番号を示すnをインクリメントし、n+1とする。ステップS1005で、カメラマイコン115はnが1を超えているかどうかを判断する。nが1を超えている、すなわち1を超える数の動きベクトルがすでに格納されている場合はステップS1006へ遷移し、そうでない場合はステップS1012へ遷移する。
In step S1003, the
ステップS1006で、カメラマイコン115は、n−1(1つ前)に格納した各々の動きベクトル検出領域のベクトル成分を比較し、ベクトルの成分が増加しているかどうかを判断する。ベクトルの比較は、各々の差分を抽出し、減少・増加の判断を行う。比較後、ステップS1007へ遷移する。
In step S1006, the
ステップS1007で、カメラマイコン115は、動きベクトル検出領域の何%が増加しているかの確認を行う。本実施形態では、全検出領域の約60%以上が増加である場合を閾値Th1と設定することとするが、閾値Th1の値は十分な測定を行い、任意の値に設定することが可能である。全体の領域数Vsum=h*iに対して、増加している領域をカウントし、その領域数をVnumとする。増加割合[%]=Vnum÷Vsum×100で算出し、増加割合>Th1以上であれば、全体の動きベクトルの増加が確認されたとし、ステップS1008へ遷移する。そうでない場合はステップS1009へ遷移する。ステップS1009では、カメラマイコン115は、ベクトルの増加回数をカウントするVCountを0に初期化する処理を行い、ステップS1012へ遷移する。
In step S1007, the
ステップS1008で、カメラマイコン115は、ベクトルの増加回数をカウントするVCountをインクリメントし、ステップS1010へ遷移する。ステップS1010で、カメラマイコン115は、ベクトルの増加カウントVCountがK回連続で増加したかどうかを判断する。本実施形態では、閾値Kの値を30回(実時間0.5秒に相当)に設定するが、閾値Kの値は十分な測定を行った上で任意の値に設定することが可能である。つまり、動きベクトルが増加傾向にある場合、具体的には動きベクトルの増加が連続して0.5秒間以上発生した場合は、車体がいずれかの方向に駆動中であると判断し、ステップS1011へ遷移する。そうでない場合はステップS1012へ遷移する。ステップS1011で、カメラマイコン115は、評価枠を動きベクトルに応じて変更する処理を行う。この処理の詳細は図11を参照して後述する。
In step S1008, the
ステップS1012では、動きベクトルの増加が連続して0.5秒間以上発生していない、又は、動きベクトルが発生していない等の、動きベクトルに応じて評価枠を移動できない状態であるため、初期位置にある評価枠を設定することとする。 In step S1012, the evaluation frame cannot be moved according to the motion vector, such as no increase in the motion vector continuously occurring for 0.5 seconds or more, or no motion vector is generated. The evaluation frame at the position is set.
図11は、動きベクトルに応じて評価枠を設定する領域である動きベクトルの交点領域の算出方法を示す図である。図11(a)は入力画像である。図11(b)は動きベクトルを図示したオプティカルフロー図である。図11(c)は動きベクトルを各成分に分割したものである。L1は画像内のx成分のみを抽出し、その成分の値をグラフ化したものである。座標x=1から7に向けてx成分は大きくなり、座標x=4でゼロクロス点があることを確認できる。これは、座標x=4を中心として、放射状に動きベクトルが発生しているためである。よって、x成分のグラフのゼロクロス点を求めることにより、動きベクトルのx方向の交点領域が特定できる。同様に、L2は画像内のy成分のみを抽出し、その成分の値をグラフ化したものである。座標y=1から5に向けてy成分は大きくなり、座標y=3でゼロクロス点があることを確認できる。これは、座標y=3を中心として、放射状に動きベクトルが発生しているためである。よって、y成分のグラフのゼロクロス点を求めることにより、動きベクトルのy方向の交点領域が特定できる。以上のように、図11(a)の入力画像は、座標(4,3)の位置に、動きベクトルの交点領域があると推測でき、その領域はもっとも動きベクトルが少なくなる。この座標(4,3)に評価枠を設定することにより、安定した評価値が得られ、適切なオートフォーカスが可能になる。このような処理を行うことにより、入力画像から、動きベクトルの交点領域を特定することが可能になる。 FIG. 11 is a diagram illustrating a method for calculating a motion vector intersection region, which is a region in which an evaluation frame is set according to a motion vector. FIG. 11A shows an input image. FIG. 11B is an optical flow diagram illustrating motion vectors. FIG. 11C shows a motion vector divided into components. L1 extracts only the x component in the image and graphs the value of the component. The x component increases from the coordinate x = 1 to 7 and it can be confirmed that there is a zero cross point at the coordinate x = 4. This is because motion vectors are generated radially around the coordinate x = 4. Therefore, by obtaining the zero cross point of the x component graph, the intersection region in the x direction of the motion vector can be specified. Similarly, L2 is obtained by extracting only the y component in the image and graphing the value of the component. The y component increases from the coordinate y = 1 to 5, and it can be confirmed that there is a zero cross point at the coordinate y = 3. This is because motion vectors are generated radially around the coordinate y = 3. Therefore, by obtaining the zero cross point of the y component graph, the intersection region in the y direction of the motion vector can be specified. As described above, in the input image of FIG. 11A, it can be estimated that there is a motion vector intersection region at the position of coordinates (4, 3), and that region has the smallest motion vector. By setting an evaluation frame at the coordinates (4, 3), a stable evaluation value can be obtained and appropriate autofocus can be performed. By performing such processing, it is possible to specify the intersection area of motion vectors from the input image.
図11では動きベクトルの交点領域が画像の中心にある例を示したが、続いて、交点領域が画像の中心以外にある例を示す。図12(a)は入力画像である。この画像は、進行方向の先にカーブがある場合や、カメラが進行方向に対してある程度の角度を持って設置されていた場合に起こりうる画像である。図12(b)は動きベクトルを図示したオプティカルフロー図である。図12(c)は動きベクトルを各成分に分割したものである。L3は画像内のx成分のみを抽出し、その成分の値をグラフ化したものである。座標x=1から7に向けてx成分は大きくなり、座標x=6でゼロクロス点があることを確認できる。これは、座標x=6を中心として、放射状に動きベクトルが発生しているためである。よって、x成分のグラフのゼロクロス点を求めることにより、動きベクトルのx方向の交点領域が特定できる。同様に、L4〜L6は、画像内のy成分のみを抽出し、その成分の値をグラフ化したものである。座標y=1から5に向けてy成分は大きくなり、座標y=3でゼロクロス点があることを確認できる。これは、座標y=3を中心として、放射状に動きベクトルが発生しているためである。よって、y成分のグラフのゼロクロス点を求めることにより、動きベクトルのy方向の交点領域が特定できる。ただし、交点から遠くなるほど、動きベクトルは平行になる性質があるため、X座標1行目の値をグラフ化したL6は、X座標3〜7行目の値をグラフ化したL4に比べてy成分の変化が小さくなる。仮に、y成分の変化が小さくなり、ゼロクロス点を持たない場合は、その行の値を無視し、他の行のゼロクロス点を参考にし、交点を求めることとする。以上のように、図12(a)の入力画像は、座標(6,3)の位置に、動きベクトルの交点領域があると推測できる。 FIG. 11 shows an example in which the intersection area of the motion vector is at the center of the image. Subsequently, an example in which the intersection area is outside the center of the image is shown. FIG. 12A shows an input image. This image is an image that may occur when there is a curve ahead of the traveling direction or when the camera is installed at a certain angle with respect to the traveling direction. FIG. 12B is an optical flow diagram illustrating motion vectors. FIG. 12C shows a motion vector divided into components. L3 is a graph in which only the x component in the image is extracted and the value of the component is graphed. The x component increases from the coordinate x = 1 to 7 and it can be confirmed that there is a zero cross point at the coordinate x = 6. This is because motion vectors are generated radially around the coordinate x = 6. Therefore, by obtaining the zero cross point of the x component graph, the intersection region in the x direction of the motion vector can be specified. Similarly, L4 to L6 are obtained by extracting only the y component in the image and graphing the value of the component. The y component increases from the coordinate y = 1 to 5, and it can be confirmed that there is a zero cross point at the coordinate y = 3. This is because motion vectors are generated radially around the coordinate y = 3. Therefore, by obtaining the zero cross point of the y component graph, the intersection region in the y direction of the motion vector can be specified. However, since the motion vector becomes parallel as the distance from the intersection increases, L6 that graphs the value of the first row of the X coordinate is y compared to L4 that graphs the value of the X coordinate of the third to seventh rows. The change of the component becomes small. If the change in the y component is small and there is no zero cross point, the value of that line is ignored, and the intersection point is obtained with reference to the zero cross points of other lines. As described above, it can be estimated that the input image of FIG. 12A has an intersection region of motion vectors at the coordinates (6, 3).
続いて、画面内にボンネットや室内等の写りこみがある例を示す。図13(a)は入力画像であり、物体Pは常時写りこんでいる被写体である。図13(b)は動きベクトルを図示したオプティカルフロー図である。物体Pは動きを持たないので、動きベクトルは発生していないことが確認できる。図13(c)は動きベクトルを各成分に分割したものである。L7はy座標2〜5列目のy成分のみを抽出し、その成分の値をグラフ化したものである。座標x=1から7に向けてx成分は大きくなり、座標x=4でゼロクロス点があることを確認できる。これは、座標x=4を中心として、放射状に動きベクトルが発生しているためである。L8はy座標1列目のx成分をグラフ化したものである。1列目は、物体Pにより、動きベクトルを持たないため、グラフにゼロクロス点が存在しない。よって、ゼロクロス点が存在しないグラフは無視し、y座標2〜5列目のゼロクロス点からベクトルの交点を求めることとする。よって、x成分のグラフのゼロクロス点はx=4となる。同様に、図13のL9はx座標6〜7列目のy成分のみを抽出し、その成分の値をグラフ化したものである。座標y=1から5に向けてy成分は大きくなり、座標y=3でゼロクロス点があることを確認できる。これは、座標y=3を中心として、放射状に動きベクトルが発生しているためである。L10はx座標1〜5列目のy成分のみを抽出し、その成分の値をグラフ化したものである。これも同様に、座標y=3にてゼロクロス点を持つ。以上のように、図13(a)の入力画像は、座標(4,3)の位置に、動きベクトルの交点領域があると推測できる。
Next, an example in which there is a reflection of a hood, a room, etc. in the screen will be shown. FIG. 13A shows an input image, and the object P is a subject that is always captured. FIG. 13B is an optical flow diagram illustrating motion vectors. Since the object P has no motion, it can be confirmed that no motion vector is generated. FIG. 13C shows a motion vector divided into components. L7 is a graph in which only y components in the 2nd to 5th columns of the y coordinate are extracted and the values of the components are graphed. The x component increases from the coordinate x = 1 to 7 and it can be confirmed that there is a zero cross point at the coordinate x = 4. This is because motion vectors are generated radially around the coordinate x = 4. L8 is a graph of the x component in the first column of the y coordinate. Since the first column does not have a motion vector due to the object P, there is no zero cross point in the graph. Therefore, the graph where the zero cross point does not exist is ignored, and the intersection of the vectors is obtained from the zero cross point in the 2nd to 5th columns of the y coordinate. Therefore, the zero cross point of the x component graph is x = 4. Similarly, L9 in FIG. 13 is obtained by extracting only the y component in the
図14(a)は入力画像である。図14(b)は動きベクトルを図示したオプティカルフロー図である。図14(c)は動きベクトルを各成分に分割したものである。L11は、画像のx成分のみを抽出し、その成分の値をグラフ化したものである。x成分の変化はなく、ゼロクロス点も持たないことが分かる。また、L12はy成分をグラフ化したものである。同様にy成分の変化はなく、ゼロクロス点も持たないことが分かる。以上のように、図14(a)の入力画像は、ゼロクロス点を持たないため、動きベクトルの交点領域は存在しない。その場合は、画面全体に流れが発生していると判断し、初期位置にある評価枠の大きさを動きベクトルに応じて変更する。 FIG. 14A shows an input image. FIG. 14B is an optical flow diagram illustrating motion vectors. FIG. 14C shows a motion vector divided into components. L11 is obtained by extracting only the x component of the image and graphing the value of the component. It can be seen that there is no change in the x component and no zero cross point. L12 is a graph of the y component. Similarly, it can be seen that there is no change in the y component and no zero cross point. As described above, since the input image of FIG. 14A does not have a zero cross point, there is no intersection region of motion vectors. In this case, it is determined that a flow has occurred on the entire screen, and the size of the evaluation frame at the initial position is changed according to the motion vector.
図15は、動きベクトルに応じた評価枠の大きさ変更を示す図である。図15(a)、図15(b)に示すように、動きベクトルが所定量Th2を越えた場合に、初期の評価枠Qから、評価枠Rのように大きさを動きベクトルに応じて変更する。これにより、画像の流れが発生した場合でも、評価枠を大きくすることにより、評価値の変動を少なくすることが可能になり、安定したオートフォーカスが可能になる。また、図15(c)に示すように動きベクトルが所定量Th3を越えた場合は、画像の流れが大きく、評価枠を大きく設定しても、評価値が安定しない。よって、評価枠の設定を行わず、前のピント状態を維持し、ピントのフワつきを防ぐ。なお、上記説明した処理の流れは図16のフローチャートを用いて説明する。 FIG. 15 is a diagram illustrating a change in the size of the evaluation frame according to the motion vector. As shown in FIGS. 15A and 15B, when the motion vector exceeds a predetermined amount Th2, the size is changed from the initial evaluation frame Q to the evaluation frame R according to the motion vector. To do. As a result, even when an image flow occurs, it is possible to reduce the fluctuation of the evaluation value by increasing the evaluation frame, and stable autofocus is possible. As shown in FIG. 15C, when the motion vector exceeds the predetermined amount Th3, the flow of the image is large, and the evaluation value is not stable even if the evaluation frame is set large. Therefore, the evaluation frame is not set, the previous focus state is maintained, and the fluff of the focus is prevented. The process flow described above will be described with reference to the flowchart of FIG.
図16は、動きベクトルに応じた評価枠の設定するための処理である。ステップS1602で、カメラマイコン115は、座標xのj行目のx軸方向の動きベクトルの成分の抽出を行う。成分の個数はシステムによって異なるが、本実施形態では、7*5の検出領域を用いているため、成分の個数は7個ということになる。抽出が終了後、ステップS1603へ遷移する。ステップS1603で、カメラマイコン115は、抽出された成分の描く曲線のゼロクロス点となる領域の算出を行う。算出方法の一例は、座標x=1から7の方向に向かい、値が増加又は減少していることを確認し、値が0を超える、或いは、符号が切り替わる点をゼロクロス点として特定する。ゼロクロス点が特定できない場合、x=0とする。ゼロクロス点の算出後、ステップS1604へ遷移する。ステップS1604で、カメラマイコン115はj行目の値を1つインクリメントする。
FIG. 16 is a process for setting an evaluation frame according to a motion vector. In step S1602, the
ステップS1605で、カメラマイコン115は、画像内のすべての行において、算出が終了したかどうかの確認を行う。jが検出枠数よりも大きい場合は、すべての列の算出が終了したとして、ステップS1606へ遷移する。そうでない場合はステップS1602へ遷移して、同様の処理を繰り返す。
In step S <b> 1605, the
ステップS1606で、カメラマイコン115は、上記の処理によって算出されたx成分の交点領域の座標の決定を行う。図11の例では、j行すべてが同じ成分であったため、交点領域は1つに求まったが、図13に示すような入力画像の場合は、交点領域候補が2点以上特定できる場合がある。その場合は、j行中で過半数を占めるゼロクロス点を採用し、その他の点は無視することとする。特定された点をXcrossとし、ステップS1607へ遷移する。
In step S1606, the
ステップS1607で、カメラマイコン115は、座標yのk列目のy軸方向の動きベクトルの成分の抽出を行う。成分の個数はシステムによって異なるが、本実施形態では、7*5の検出領域を用いているため、成分の個数は5個ということになる。抽出が終了後、ステップS1608へ遷移する。ステップS1608で、カメラマイコン115は、抽出された成分の描く曲線のゼロクロス点となる領域の算出を行う。算出方法の一例は、座標y=1から5の方向に向かい、値が増加又は減少していることを確認し、値が0を超える、或いは、符号が切り替わる点をゼロクロス点として特定する。ゼロクロス点が特定できない場合、y=0とする。ゼロクロス点の算出後、ステップS1609へ遷移する。ステップS1609で、カメラマイコン115はk行目の値を1つインクリメントする。
In step S1607, the
ステップS1610で、カメラマイコン115は、画像内のすべての列において、算出が終了したかどうかの確認を行う。kが検出枠数よりも大きい場合は、すべての列の算出が終了したとして、ステップS1611へ遷移する。そうでない場合はステップS1607へ遷移して、同様の処理を繰り返す。
In step S <b> 1610, the
ステップS1611で、カメラマイコン115は、上記の処理によって算出されたy成分の交点領域の座標の決定を行う。図11の例では、k列すべてが同じ成分であったため、交点領域は1つに求まったが、図13に示すような入力画像の場合は、交点領域候補が2点以上特定できる場合がある。その場合は、k列中で過半数を占めるゼロクロス点を採用し、その他の点は無視することとする。特定された点をYcrossとし、ステップS1612へ遷移する。
In step S1611, the
ステップS1612で、カメラマイコン115は、上記で特定されたベクトルの交点領域の確認を行う。上記の処理において、交点領域(Xcross,Ycross)が算出された場合はステップS1616へ遷移する。上記の処理において、交点が特定できなかった場合、つまり、交点領域(0,0)であった場合はステップS1613へ遷移する。ステップS1616で、カメラマイコン115は、交点領域が求まっているため、評価枠を交点領域(Xcross,Ycross)に設定し、処理を終了する。一方、交点領域が特定できなかった場合は、カメラが進行方向に向かって固定されていない、もしくは右折や左折等により映像がすべて流れている等が考えられる。この場合、動きベクトルの量に応じて、評価枠を変更する処理を行う。変更方法は、図15を用いて既に説明済みであるため省略する。
In step S1612, the
ステップS1613で、カメラマイコン115は、交点領域が特定できなかった場合、画面内の動きベクトルの方向を確認する。画面内の動きベクトルが同一方向に向いている場合はステップS1614へ遷移する。そうでない場合はステップS1617へ遷移する。ステップS1614では、動きベクトルの大きさがTh2以上であるかどうかを確認する。Th2以上である場合は、画面内の映像の流れが大きく、評価値が安定できないと判断し、ステップS1615へ遷移する。そうでない場合はステップS1617へ遷移する。ステップS1617で、カメラマイコン115は、交点領域が特定できない、又は、動きベクトルが小さいという状況であるため、評価枠は初期位置のままで評価値の取得を行う。よって、評価枠を初期位置に設定し、処理を終了する。
In step S <b> 1613, the
ステップS1615で、カメラマイコン115は、動きベクトルの大きさがTh3以上であるかのどうかを確認する。Th3以上である場合は、画面内の映像からは、適切な評価値は算出できないと判断し、ステップS1619へ遷移する。そうでない場合はステップS1618へ遷移する。ステップS1618で、カメラマイコン115は、動きベクトルが所定量Th2以上Th3以下あるため、評価枠を大きくして安定した評価値の取得を処理である。評価枠の大きさは図15(a)のグラフに基づき設定することとする。評価枠の設定後、処理を終了する。ステップS1619で、カメラマイコン115は、動きベクトルが所定量Th3以上あるため、画像から適切な評価値は取得できないので、評価枠を設定しない。さらに、画像のボケ・フワつきを抑えるためにオートフォーカスの制御は行わず前の状態でフォーカスをロックする。
In step S1615, the
以上のように、車載撮影において、自動的にAF枠を設定し、常に安定したピントでの撮影が可能になる。例えばコンシューマ用ビデオカメラを車載撮影のために車体に固定し撮影した場合においても、映像から求まる動きベクトルを用いることにより、映像の流れが少ない領域にAF枠を設定することができ、安定した評価値を取得することが可能になる。 As described above, in in-vehicle shooting, an AF frame is automatically set, and shooting with stable focus is always possible. For example, even when a consumer video camera is fixed to the vehicle body for in-vehicle shooting, an AF frame can be set in an area where the flow of the image is small by using a motion vector obtained from the image, and stable evaluation is performed. It becomes possible to get the value.
カメラが進行方向に対して斜めに固定されている場合や、進行方向にカーブがある場合は、画像の中心画像は流れてしまうが、動きベクトルから交点領域を特定することにより、撮影の主被写体になるであろう進行方向の画像の流れが少ない領域に評価枠を設定することができる。これにより、カメラを固定した状態でも、適切な撮影を行うことが可能になる。 If the camera is fixed at an angle with respect to the direction of travel, or if there is a curve in the direction of travel, the center image of the image will flow, but by specifying the intersection area from the motion vector, the main subject of shooting An evaluation frame can be set in an area where there is little flow of the image in the traveling direction that will become. This makes it possible to perform appropriate shooting even when the camera is fixed.
また、画像から求まる動きベクトルから交点領域を特定することにより、車体の移動による画像の流れが発生している領域を避け、画像の流れが少ない領域に評価枠を設定することができる。 Further, by specifying the intersection area from the motion vector obtained from the image, it is possible to avoid the area where the image flow is caused by the movement of the vehicle body and set the evaluation frame in the area where the image flow is small.
さらに、画像の一部に車体、もしくは車内の一部が写りこんでいるような状態であっても、動きベクトルから交点領域を特定することにより、車外の画像の流れが少ない領域に評価枠を設定することができ、安定したピント、安定した露出での撮影が可能になる。 Furthermore, even if the car body or part of the interior of the vehicle is reflected in a part of the image, by specifying the intersection area from the motion vector, an evaluation frame is added to the area where the flow of the image outside the vehicle is small. It can be set, and shooting with stable focus and stable exposure becomes possible.
<第2の実施形態>
図17は、第2の実施形態に係るビデオカメラの構成を示す図である。なお、本実施形態ではビデオカメラについて説明するが、本発明はデジタルスチルカメラ等、他の撮像装置への適用も可能である。以下では、第1の実施形態との相違点を中心に説明し、第1の実施形態に係るビデオカメラと同様の構成要素には同一の符号を付し、その詳細な説明は省略する。
<Second Embodiment>
FIG. 17 is a diagram illustrating a configuration of a video camera according to the second embodiment. Although the present embodiment describes a video camera, the present invention can be applied to other imaging devices such as a digital still camera. In the following, differences from the first embodiment will be mainly described, the same components as those of the video camera according to the first embodiment will be denoted by the same reference numerals, and detailed description thereof will be omitted.
118は絞り部材駆動源であり、絞り103を駆動させるためのアクチュエータ及びそのドライバを含む。119はレンズから入射する光を減衰させるためのNDフィルタである。120はND部材駆動源であり、NDフィルタ119を駆動させるためのアクチュエータ及びそのドライバを含む。
121は測光枠設定回路であり、CDS/AGC/ADコンバータ107からの全画素の出力信号のうち測光値検出に用いられる領域の信号のみを通す。122は輝度情報検波・演算回路であり、デジタルの画像データに基づいて輝度値を検波し、検波した輝度値を演算処理する。123は撮像素子駆動回路である。
第1の実施形態と同様に、交点領域検出回路114は、動きベクトル検出回路113の検出結果に基づいて動きベクトルの交点領域を算出し、その算出結果をカメラマイコン115に送信する。カメラマイコン115は、交点領域に測光値検出に用いられる評価枠(評価領域)である測光枠を設定するように測光枠設定回路121へ情報を送信する。その後、画面内の測光枠の輝度値を取得するため、輝度情報検波・演算回路122により測光値を取得し、測光した測光値を演算により正規化する。このとき、同時に画面全体の測光値も輝度情報検波・演算回路122により演算を行う。そして、カメラマイコン115で測光値と適正な露出が得られるように設定された目標値との差分を算出する。その後、算出した差分からカメラマイコン115により絞りの補正駆動量を算出し、絞り部材駆動源118、ND部材駆動源120の駆動を制御する。
Similar to the first embodiment, the intersection
次に、カメラマイコン115が実行する露出調節制御の概要について説明する。図20は、本実施形態における露出調節制御を示すフローチャートである。まずステップS2001で、カメラマイコン115の制御下で輝度情報検波・演算回路122より、露出制御の基本となる輝度信号を取得するための測光枠の位置と大きさを設定する。測光枠の大きさは、交点領域検出回路114において、交点領域が検出された場合は、該交点領域を測光枠位置と設定する。交点領域が抽出されなかった場合は、固定の測光枠(初期位置:中央重点測光)を評価枠と設定する。なお、この交点領域の特定方法の詳細は第1の実施形態にて説明済みであるため省略する。
Next, an outline of exposure adjustment control executed by the
ステップS2002で、カメラマイコン115は、指定された測光枠の輝度信号を取得する。この処理の詳細は図21を参照して後述する。
In step S2002, the
ステップS2003で、カメラマイコン115は、露出制御により輝度調整を行う。この処理の詳細は図18を参照して後述する。その後、ステップS2001へ戻り、この処理を繰り返す。
In step S2003, the
ステップS2002における測光枠の輝度情報の取得について、図21を参照して説明する。図21(a)は、図11(a)の入力画像に動きベクトルを図示したオプティカルフロー図である。領域Sは、ステップS2001において複数の動きベクトルから特定されるベクトルの交点領域を示したものである。図21(b)は、カメラマイコンに記録されているAEの重み付け、AEウエイティングを示したものである。AEウエイティングについては後述することとする。ステップS2001によって特定された交点領域を中心に、領域S´のAEの重み付けを1とし、その周辺の重み付けを半分の0.5にしている。こうすることにより、交点領域を中心とした、画像に流れの少ない部分の測光値が取得でき、安定した露出制御が可能になる。なお、この設定は一例であり、十分な測定を行いその結果に基づいて、適切な露出が得られる値に設定を変更することも可能である。同様に、図21(c)は、図12(a)の入力画像に動きベクトルを図示したオプティカルフロー図である。図21(d)も上述の通り、領域Sを中心に重み付けを行っている。重み付けは図のとおりであるため、その説明を省略する。 Acquisition of luminance information of the photometric frame in step S2002 will be described with reference to FIG. FIG. 21A is an optical flow diagram illustrating motion vectors in the input image of FIG. A region S indicates an intersection region of vectors identified from a plurality of motion vectors in step S2001. FIG. 21B shows AE weighting and AE weighting recorded in the camera microcomputer. The AE weighting will be described later. Centering on the intersection area specified in step S2001, the weight of the AE of the area S ′ is set to 1, and the weight of the surrounding area is set to half of 0.5. By doing this, it is possible to acquire a photometric value of a portion of the image with little flow centered on the intersection area, and to enable stable exposure control. Note that this setting is an example, and it is possible to change the setting to a value that provides appropriate exposure based on the result of sufficient measurement. Similarly, FIG. 21C is an optical flow diagram illustrating motion vectors in the input image of FIG. In FIG. 21D as well, weighting is performed around the region S as described above. Since the weighting is as shown in the figure, the description thereof is omitted.
次に、ステップS2003における露出制御について説明する。撮影レンズからの光学像が絞り103を介して、撮像素子106にて光電変換され、CDS/AGC/ADコンバータ107を経て映像子音号となり、カメラ信号処理回路108に送られる。露出制御するための信号は、AGC回路より出力された輝度信号を測光枠設定回路121を通り、輝度情報検波・演算回路122を経て、カメラマイコン115に取り込まれる。カメラマイコン115は、そのレベルが所定の範囲内に入るように、絞り部材駆動源118を制御し、絞り103へと出力する。駆動電流を制御して、絞り103の開口量を可変する絞り制御により露出制御が行われる。
Next, exposure control in step S2003 will be described. An optical image from the photographing lens is photoelectrically converted by the
CDS/AGC/ADコンバータ107による露出制御系は、絞り103による露出制御系同様、前記カメラマイコン115に取り込まれた輝度情報検波・演算回路122の出力レベルが所定の範囲内に入るように、CDS/AGC/ADコンバータ107のゲインのレベルを、カメラマイコン115にて制御することによる閉ループにより露出制御系が構成されている。
The exposure control system by the CDS / AGC /
シャッタ速度による露出制御系は、絞り103による露出制御系同様、カメラマイコン115に取り込まれたレベルが所定の範囲内に入るように、撮像素子駆動回路123をカメラマイコン115にて制御することによる閉ループにより露出制御系が構成されている。まず図18のプログラム線図を用いて、シャッタ速度と、絞りと、AGC回路による3種類の露出制御手段が照度に応じてどのように制御されているか説明する。このプログラム線図はカメラマイコンに記憶されており、そのデータテーブルについては図19において後述する。
The exposure control system based on the shutter speed is a closed loop by controlling the image
図18において、横軸は被写体照度、縦軸はアイリス、シャッタ速度、ゲインの各露出制御手段の設定値である。同図から明らかなように、各露出制御手段は被写体照度に応じてA,B,Cと3つの領域に分割されている。すなわち、被写体照度に応じて3種類の露出制御手段を組合わせることにより、露出の動作制御を行っている。領域Aにおいては、前記シャッタ速度は1/60(秒)に固定(PALは1/50(秒))され、且つ前記AGC回路のゲインも0dBで固定されており、前記絞りの開口量のみで露出が制御される。領域Bにおいては、前記絞り部材が開放で固定され、且つAGC回路のゲイン0dBで固定され、前記シャッタ速度は1/60(秒)に固定(PALは1/50(秒))されている。NDの挿入により0〜1/8までの間で照度に応じて連続的にND濃度を変化させることができ、NDにより露出が制御される。領域Cにおいては、前記絞り部材が開放で固定され、且つAGC回路のゲイン0dBで固定され、NDは1/8で固定されている。撮像素子の読み出しを制御して蓄積電荷量を制御することにより、前記シャッタ速度1/60(秒)から1/8(秒)までの間で照度に応じて連続的にシャッタ速度を変化させることができ、シャッタにより露出が制御される。領域Dにおいては、前記絞りが開放で固定され、且つ前記シャッタ速度が1/8(秒)で固定されており、前記AGC回路のみ露出が制御される。
In FIG. 18, the horizontal axis represents subject illuminance, and the vertical axis represents the setting values of the exposure control means for iris, shutter speed, and gain. As is apparent from the figure, each exposure control means is divided into three areas A, B, and C according to subject illuminance. That is, exposure operation control is performed by combining three types of exposure control means in accordance with subject illumination. In the area A, the shutter speed is fixed at 1/60 (second) (PAL is 1/50 (second)), and the gain of the AGC circuit is fixed at 0 dB. Exposure is controlled. In the region B, the aperture member is fixed open and fixed at a
この露出制御モードを実行する撮影モードのデータテーブルは図19に示すようになっており、アイリス(絞り)、シャッタ、AGCゲインそれぞれにおけるプログラム線図の特性がパラメータごとに属性(関数か固定値か)、データ形式(しきい値か、マップ形式か、数値による定義か、コードによる定義か等)、実際のデータがそれぞれ記憶されており、これをカメラマイコン115に読み込むことによって図18におけるプログラム線図が設定される。また、情報テーブルには他の設定情報も記憶されており、同図のAEウエイティングは撮像画面を複数の測光領域に分割した際の各測光領域の重み付けのデータをマップ形式で記憶したものであり、同図に示すように、画面を16分割し、その中央部の重み付けを1とし、その周辺の重み付けを半分の0.5にしたものであり、所謂中央重点測光となっている。 The shooting mode data table for executing this exposure control mode is as shown in FIG. 19, and the characteristics of the program diagram for each of the iris (aperture), shutter, and AGC gain are attribute (function or fixed value) for each parameter. ), Data format (threshold, map format, numerical value definition, code definition, etc.) and actual data are stored, and the program line in FIG. The figure is set. In addition, other setting information is also stored in the information table, and the AE weighting in the figure stores weighting data of each photometric area in a map format when the imaging screen is divided into a plurality of photometric areas. Yes, as shown in the figure, the screen is divided into 16 parts, the weight of the central part is set to 1, and the weight of the periphery thereof is halved to 0.5, which is so-called center-weighted photometry.
また、AE基準値は撮像信号のレベルが一定になるように露出制御する際の目標基準値を表している。またその他にもガンマ特性を撮影状態に応じて可変したり、フェード効果を施したりする等の画質調整、画像効果処理の有無についても設定されている。本実施形態では、"NORMAL"となっており、特別な画質、画像効果の処理は行われていないことを示している。 The AE reference value represents a target reference value when exposure control is performed so that the level of the imaging signal is constant. In addition, it is also set whether or not image quality adjustment and image effect processing are performed, such as changing the gamma characteristic according to the shooting state and applying a fade effect. In the present embodiment, “NORMAL” indicates that special image quality and image effect processing is not performed.
なお、上記の4種類の露出制御系を制御するにあたり、本実施形態では被写体照度の明るい順に、絞り→ND→スローシャッタ→AGC回路の順で露出を制御したが、順序をアイリス→AGC→ND→スローシャッタのように変えることもできる。 In controlling the above four types of exposure control systems, in this embodiment, the exposure is controlled in the order of the aperture, ND, slow shutter, AGC circuit in order of increasing object illuminance, but the order is iris → AGC → ND. → It can be changed like a slow shutter.
以上のように、車載撮影において、自動的に測光枠を移動し、常に安定した露出での撮影が可能になる。例えばコンシューマ用ビデオカメラを車載撮影のために車体に固定し撮影した場合においても、映像から求まる動きベクトルを用いることにより、映像の流れが少ない領域に測光枠を設定することができ、安定した評価値を取得することが可能になる。 As described above, in in-vehicle shooting, the photometry frame is automatically moved, and shooting with stable exposure is always possible. For example, even when a consumer video camera is fixed to the body for in-vehicle shooting, a photometric frame can be set in an area where there is little flow of video by using a motion vector obtained from the video, and stable evaluation It becomes possible to get the value.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
101:第1固定レンズ、102:変倍レンズ、103:絞り、104:第2固定レンズ、105:フォーカスコンペンセータレンズ、106:撮像素子、107:CDS/AGC/ADコンバータ、108:カメラ信号処理回路、109:表示装置、110:記録装置、111:AFゲート、112:焦点信号処理回路、113:動きベクトル検出回路、114:交点領域検出回路、115:カメラ/AFマイコン、116:フォーカスレンズ駆動源、117:変倍レンズ駆動源、118:絞り部材駆動源、119:NDフィルタ、120:ND部材駆動源、121:測光枠設定回路、122:輝度情報検波・演算回路、123:撮像素子駆動回路 101: first fixed lens, 102: variable power lens, 103: aperture, 104: second fixed lens, 105: focus compensator lens, 106: image sensor, 107: CDS / AGC / AD converter, 108: camera signal processing circuit 109: display device, 110: recording device, 111: AF gate, 112: focus signal processing circuit, 113: motion vector detection circuit, 114: intersection area detection circuit, 115: camera / AF microcomputer, 116: focus lens drive source 117: Magnification lens drive source, 118: Diaphragm member drive source, 119: ND filter, 120: ND member drive source, 121: Photometric frame setting circuit, 122: Luminance information detection / calculation circuit, 123: Image sensor drive circuit
Claims (10)
前記撮像手段で得られる映像信号から動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトルの検出結果に応じて、所定の評価値を得るための当該映像上の評価領域を設定する評価領域設定手段とを備えたことを特徴とする撮像装置。 Imaging means for converting an optical image formed by the imaging optical system into a video signal;
Motion vector detection means for detecting a motion vector from the video signal obtained by the imaging means;
An imaging apparatus comprising: an evaluation area setting unit that sets an evaluation area on the video for obtaining a predetermined evaluation value according to the detection result of the motion vector.
前記撮像手段で得られる映像信号から動きベクトルを検出するステップと、
前記動きベクトルの検出結果に応じて、所定の評価値を得るための当該映像上の評価領域を設定するステップとを有することを特徴とする撮像装置の制御方法。 An image pickup apparatus control method comprising an image pickup means for converting an optical image formed by an image pickup optical system into a video signal,
Detecting a motion vector from a video signal obtained by the imaging means;
And a step of setting an evaluation area on the video for obtaining a predetermined evaluation value in accordance with the detection result of the motion vector.
前記撮像手段で得られる映像信号から動きベクトルを検出する処理と、
前記動きベクトルの検出結果に応じて、所定の評価値を得るための当該映像上の評価領域を設定する処理とをコンピュータに実行させるためのプログラム。 A program for setting an evaluation region in an imaging apparatus including an imaging unit that converts an optical image formed by an imaging optical system into a video signal,
Processing for detecting a motion vector from a video signal obtained by the imaging means;
A program for causing a computer to execute a process of setting an evaluation area on the video for obtaining a predetermined evaluation value in accordance with a detection result of the motion vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011115121A JP6071173B2 (en) | 2011-05-23 | 2011-05-23 | Imaging apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011115121A JP6071173B2 (en) | 2011-05-23 | 2011-05-23 | Imaging apparatus, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012242759A true JP2012242759A (en) | 2012-12-10 |
JP6071173B2 JP6071173B2 (en) | 2017-02-01 |
Family
ID=47464505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011115121A Active JP6071173B2 (en) | 2011-05-23 | 2011-05-23 | Imaging apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6071173B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104410831A (en) * | 2014-12-01 | 2015-03-11 | 厦门雅迅网络股份有限公司 | Method for monitoring whether taxi driver runs meter or not when carrying passenger |
JP2018025611A (en) * | 2016-08-08 | 2018-02-15 | キヤノン株式会社 | Image blur correcting device and control method therefor, program, and storage medium |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08251473A (en) * | 1995-03-13 | 1996-09-27 | Canon Inc | Image pickup device |
JP2006129375A (en) * | 2004-11-01 | 2006-05-18 | Fujitsu Ltd | Moving image data generator and moving image data generation method |
JP2007129310A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging apparatus |
JP2007318292A (en) * | 2006-05-24 | 2007-12-06 | Casio Comput Co Ltd | Motion vector detector and its program |
JP2008109336A (en) * | 2006-10-25 | 2008-05-08 | Matsushita Electric Ind Co Ltd | Image processor and imaging apparatus |
JP2008172310A (en) * | 2007-01-09 | 2008-07-24 | Fujifilm Corp | Electronic hand blurring correction method, device and program, and imaging apparatus |
JP2009284462A (en) * | 2008-04-21 | 2009-12-03 | Sony Corp | Imaging device and method of controlling ranging area |
JP2010074584A (en) * | 2008-09-19 | 2010-04-02 | Sony Corp | Imaging apparatus and imaging method |
JP2010171815A (en) * | 2009-01-23 | 2010-08-05 | Casio Computer Co Ltd | Imaging apparatus, subject tracking method, and program |
JP2011055342A (en) * | 2009-09-03 | 2011-03-17 | Honda Motor Co Ltd | Imaging apparatus for vehicle |
-
2011
- 2011-05-23 JP JP2011115121A patent/JP6071173B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08251473A (en) * | 1995-03-13 | 1996-09-27 | Canon Inc | Image pickup device |
JP2006129375A (en) * | 2004-11-01 | 2006-05-18 | Fujitsu Ltd | Moving image data generator and moving image data generation method |
JP2007129310A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging apparatus |
JP2007318292A (en) * | 2006-05-24 | 2007-12-06 | Casio Comput Co Ltd | Motion vector detector and its program |
JP2008109336A (en) * | 2006-10-25 | 2008-05-08 | Matsushita Electric Ind Co Ltd | Image processor and imaging apparatus |
JP2008172310A (en) * | 2007-01-09 | 2008-07-24 | Fujifilm Corp | Electronic hand blurring correction method, device and program, and imaging apparatus |
JP2009284462A (en) * | 2008-04-21 | 2009-12-03 | Sony Corp | Imaging device and method of controlling ranging area |
JP2010074584A (en) * | 2008-09-19 | 2010-04-02 | Sony Corp | Imaging apparatus and imaging method |
JP2010171815A (en) * | 2009-01-23 | 2010-08-05 | Casio Computer Co Ltd | Imaging apparatus, subject tracking method, and program |
JP2011055342A (en) * | 2009-09-03 | 2011-03-17 | Honda Motor Co Ltd | Imaging apparatus for vehicle |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104410831A (en) * | 2014-12-01 | 2015-03-11 | 厦门雅迅网络股份有限公司 | Method for monitoring whether taxi driver runs meter or not when carrying passenger |
JP2018025611A (en) * | 2016-08-08 | 2018-02-15 | キヤノン株式会社 | Image blur correcting device and control method therefor, program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6071173B2 (en) | 2017-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6184189B2 (en) | SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM | |
JP5676988B2 (en) | Focus adjustment device | |
JP6202910B2 (en) | Video processing apparatus, control method therefor, and program | |
JP2011205282A (en) | Imaging apparatus and image processing method | |
JP2014119715A (en) | Imaging apparatus, imaging method and program | |
US8004597B2 (en) | Focusing control apparatus and method | |
JP3732665B2 (en) | Automatic focus control device and focusing operation determination method thereof | |
JP2014126710A (en) | Automatic focus detection device, control method therefor, and image capturing device | |
WO2021134179A1 (en) | Focusing method and apparatus, photographing device, movable platform and storage medium | |
JP6581333B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP5075110B2 (en) | Focus adjustment apparatus and method | |
JP2013210572A (en) | Imaging device and control program of the same | |
JP6071173B2 (en) | Imaging apparatus, control method thereof, and program | |
US8582016B2 (en) | Photographing apparatus and focus detecting method using the same | |
JP2018017876A (en) | Imaging apparatus and control method of the same, and image processing apparatus and method | |
US11627245B2 (en) | Focus adjustment device and focus adjustment method | |
JP6971694B2 (en) | Image pickup device and its control method | |
JP2020181147A (en) | Focusing apparatus, image pickup apparatus, focusing method, and program | |
CN104902179A (en) | Method and device for previewing camera image | |
JP5607458B2 (en) | Imaging apparatus and control method thereof | |
JP2016208530A (en) | Image generating apparatus, image generation method, and program | |
JP5683135B2 (en) | Imaging apparatus and control method thereof | |
JP6329400B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP6202982B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP7522571B2 (en) | Imaging device, control method thereof, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6071173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |