JP7301542B2 - Imaging device and its control method - Google Patents
Imaging device and its control method Download PDFInfo
- Publication number
- JP7301542B2 JP7301542B2 JP2019007781A JP2019007781A JP7301542B2 JP 7301542 B2 JP7301542 B2 JP 7301542B2 JP 2019007781 A JP2019007781 A JP 2019007781A JP 2019007781 A JP2019007781 A JP 2019007781A JP 7301542 B2 JP7301542 B2 JP 7301542B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- correction
- point
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Adjustment Of Camera Lenses (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像装置およびその制御方法に関する。 The present invention relates to an imaging device and its control method.
バスや電車や船舶等の公共交通機関等に設置される撮像装置として、ネットワークカメラが提案されている。ネットワークカメラは、公共交通機関等に設置されることで、光学防振や電子防振では除去できない大きな振幅を持つ振れが生じることがある。したがって、被写体を撮影する撮像部に加わる振れに応じて、撮像部を水平方向または垂直方向に回転駆動させることで、撮像画像に係る像ブレを補正する像ブレ補正(以下、「パン・チルト防振」と記述)が必要となる。 2. Description of the Related Art Network cameras have been proposed as imaging devices installed in public transportation such as buses, trains, and ships. When network cameras are installed in public transportation facilities, etc., shakes with large amplitudes that cannot be eliminated by optical image stabilization or electronic image stabilization may occur. Therefore, image blur correction (hereinafter referred to as “pan/tilt prevention”) corrects image blurring in a captured image by rotating the image capturing unit in the horizontal or vertical direction according to the shake applied to the image capturing unit that captures the subject. described as “vibration”) is required.
撮像部の振れは、シフト方向の揺れも伴うので、パン・チルト防振によって撮影点と被写体の位置とに応じた撮影角度が変化する。したがって、撮像部の基準となる撮影位置(振れの中心)を示す基準撮影点以外の撮影点から被写体を撮影すると、基準撮影点で撮影した被写体に比べて、被写体のあおり(形状変化)が生じてしまう。また、大きな振れにより生じる像ブレをパン・チルト防振で補正する場合は、撮影点と被写体との距離(撮影距離)が変化する。したがって、基準撮影点以外の撮影点からの撮影では、基準撮影点からの撮影に比べて、被写体の大きさの変化(倍率変化)の変化を生じてしまう。その結果、被写体の形状変化や倍率変化の影響により、プライバシーマスクに係る所定の領域や、圧縮伸張率を任意に設定するための所定の指定領域がズレる。また、顔検出や人物検出、動体検知、通過検知、混雑検知、軌跡検知、置き去り/持ち去り検知等の、所定の画像解析の精度が劣化する。 Since the shake of the imaging unit is accompanied by the shake in the shift direction, the pan/tilt image stabilization changes the shooting angle according to the shooting point and the position of the subject. Therefore, if the subject is shot from a shooting point other than the reference shooting point that indicates the shooting position (the center of the shake) that serves as the reference for the imaging unit, the subject will tilt (change in shape) compared to the subject shot at the reference shooting point. end up Further, in the case of correcting image blur caused by large shake by pan/tilt image stabilization, the distance (shooting distance) between the shooting point and the subject changes. Therefore, photographing from a photographing point other than the reference photographing point causes a change in the size of the subject (magnification change) as compared with photographing from the reference photographing point. As a result, the predetermined area related to the privacy mask and the predetermined designated area for arbitrarily setting the compression/expansion rate are shifted due to the influence of the subject's shape change and magnification change. In addition, the accuracy of predetermined image analysis such as face detection, person detection, moving object detection, passage detection, congestion detection, trajectory detection, abandoned/taken away detection, etc., deteriorates.
特許文献1は、焦点距離に応じて、回転方向およびあおり方向の像ブレの補正を制限し、並進方向の像ブレ補正量を大きくする撮像装置を開示している。また、特許文献2は、幾何変形画像と幾何変形処理を受けていない画像との間での動きベクトルに基づいて算出される防振パラメータを用いて画像の変形処理を行う撮像装置を開示している。
Japanese Patent Application Laid-Open No. 2002-200301 discloses an imaging device that limits the correction of image blur in the rotation direction and the tilt direction according to the focal length, and increases the amount of image blur correction in the translation direction. Further,
パン・チルト防振においては、通常の手ぶれ補正等に比べて、撮影点の移動(変位)が大きいので、撮影点と被写体の角度、および撮影点と被写体の距離は大きく変化する。したがって、被写体の形状または大きさが大きく変化する場合がある。このため、撮像画像内の注視領域によって、被写体のあおり(形状変化)や大きさの変化(倍率変化)を補正する量も異なる。注視領域は、所定の指定領域または所定の画像解析に係る検出領域である。特許文献1、特許文献2が開示するいずれの撮像装置によっても、パン・チルト防振により生じる、注視領域に応じた被写体のあおり(形状変化)や大きさの変化(倍率変化)を効果的に補正することはできない。本発明は、パン・チルト防振により生じる、注視領域に応じた被写体の形状変化や倍率変化を効果的に補正する撮像装置の提供を目的とする。
In pan/tilt image stabilization, the movement (displacement) of the shooting point is greater than in normal image stabilization or the like, so the angle between the shooting point and the subject and the distance between the shooting point and the subject change greatly. Therefore, the shape or size of the subject may change significantly. Therefore, the amount of correction for tilt (change in shape) and change in size (change in magnification) of the subject also differs depending on the region of interest in the captured image. The region of interest is a predetermined designated region or a detection region related to predetermined image analysis. Both of the imaging apparatuses disclosed in
本発明の一実施形態の撮像装置は、被写体を撮影して撮像画像を出力する撮像手段と、前記撮像手段を駆動して、撮像方向を変更する駆動手段と、前記駆動手段を制御して、前記撮像手段に加わる振れにより生じる前記撮像画像に係る像ブレを補正する補正制御手段と、前記撮像画像における複数の注視領域と、各々の前記注視領域に対する画像補正処理の基準となる補正点を決定する決定手段と、複数の前記補正点に対して重み付けを行い、前記補正点の重心を求め、求めた前記重心を補正点とし、撮影点と求めた前記重心である補正点とに応じて決まり、現在の撮影点からの撮影における撮影角度と、撮影点と求めた前記重心である補正点とに応じて決まり、基準撮影点からの撮影における撮影角度との差と、基準撮影点からの撮影と現在の撮影点からの撮影との間の倍率比とを撮像情報として算出する算出手段と、前記算出された撮像情報に基づいて、前記注視領域に対して画像補正処理を行う画像補正手段と、を備える。 An imaging apparatus according to an embodiment of the present invention comprises imaging means for capturing an image of a subject and outputting a captured image, driving means for driving the imaging means to change the imaging direction, and controlling the driving means, Correction control means for correcting image blur associated with the captured image caused by vibration applied to the imaging means, a plurality of attention areas in the captured image, and determination of correction points serving as a reference for image correction processing for each of the attention areas determining means for weighting a plurality of the correction points, determining the center of gravity of the correction points, setting the determined center of gravity as the correction point, and determining according to the shooting point and the correction point that is the determined center of gravity , is determined according to the shooting angle in shooting from the current shooting point, the shooting point and the correction point that is the center of gravity obtained above, and the difference between the shooting angle in shooting from the reference shooting point and the shooting from the reference shooting point Calculation means for calculating, as imaging information, a magnification ratio between the current imaging point and the imaging from the current imaging point; and image correction means for performing image correction processing on the region of interest based on the calculated imaging information. , provided.
本発明の撮像装置によれば、パン・チルト防振により生じる、注視領域に応じた被写体の形状変化や倍率変化を効果的に補正することができる。 According to the image pickup apparatus of the present invention, it is possible to effectively correct changes in the shape and magnification of the subject according to the region of interest caused by pan/tilt image stabilization.
(実施例1)
図1は、本実施形態の撮像装置の構成例を示す図である。
図1に示す撮像装置100は、公共交通機関等に設置されるネットワークカメラである。本発明は、ネットワークカメラ以外の、動画像を撮像する機能を備えた様々な機器に適用することができる。本発明は、例えば、ビデオカメラやスチルカメラ、撮像機能を備えた携帯電話、携帯情報端末等に適用可能である。
(Example 1)
FIG. 1 is a diagram showing a configuration example of an imaging apparatus according to this embodiment.
An
撮像装置100は、CPU101乃至圧縮伸長部120を備える。CPU(Central Processing Unit)101は、中央演算処理装置であって、撮像装置100全体を制御する。CPU101は、振動情報解析部101-1、注視領域算出部101-2、撮像情報算出部101-3、パン・チルト防振制御部101-4、画像補正制御部101-5、制御部101-6を備える。
The
制御部101-6は、CPU101全体を制御する。振動情報解析部101-1は、ジャイロセンサ113から取得された撮像部102の振動情報(角速度情報)を解析して、撮像部102の振動波形を求める。パン・チルト防振制御部101-4は、振動情報解析部101-1によって求められた撮像部102の振動波形に基づき、アクチュエータ111を介して雲台110を制御する。
The control unit 101-6 controls the
注視領域算出部101-2は、注視領域を算出(決定)する。注視領域は、プライバーマスク等の処理や圧縮データの生成処理に係る所定の指定領域、または顔検出、人物検出、動体検知、通過検知、混雑検知、軌跡検知、置き去り/持ち去り検知等の画像解析に係る検出領域のうちから決定される。撮像情報算出部101-3は、注視領域に対する画像補正処理の基準となる位置を示す補正点に基づいて、所定の撮像情報(例えば、後述する撮影角度の差)を算出する。画像補正制御部101-5は、撮像情報算出部101-3によって算出された撮像情報に基づいて、注視領域に対する画像補正処理に必要な情報(例えば、後述する画像の切り出し領域と幾何変換係数)を算出する。画像補正制御部101-5は、算出した情報を画像補正部118に通知する。
The gaze area calculation unit 101-2 calculates (determines) the gaze area. The gaze area is a predetermined designated area related to privacy mask processing and compressed data generation processing, or image analysis such as face detection, person detection, moving body detection, passage detection, congestion detection, trajectory detection, abandoned/removed detection, etc. is determined from among the detection areas associated with The imaging information calculation unit 101-3 calculates predetermined imaging information (for example, a difference in imaging angles to be described later) based on a correction point indicating a reference position for image correction processing with respect to the region of interest. The image correction control unit 101-5 provides information necessary for image correction processing for the region of interest (for example, an image clipping region and geometric conversion coefficients, which will be described later), based on the imaging information calculated by the imaging information calculation unit 101-3. Calculate The image correction control unit 101-5 notifies the
撮像部102は、被写体を撮影して撮像画像を出力する。撮像部102は、ズームレンズ102-1、フォーカスレンズ102-2、絞り102―3、およびイメージセンサ等を有する撮像素子102-4を備える。ズームレンズ102-1は、レンズ制御部108により、光軸に沿って駆動する。フォーカスレンズ102-2は、レンズ制御部108により、光軸に沿って駆動する。絞り102-3は、レンズ制御部108により駆動されて動作する。また、レンズ制御部108は、制御部101-6によって制御される。
The
雲台110は、パン駆動部とチルト駆動部とを有する。パン駆動部は、ボトムケースとターンテーブルとを有し、ターンテーブルが水平方向に回転することで、撮像部102を水平方向に回転駆動(パンニング)する。パン駆動部は、水平方向に-175度から+175度まで回転することができる。チルト駆動部は、ターンテーブルの上に備えられた支柱と撮像部102とを有し、撮像部102を垂直方向に回転駆動(チルティング)する。チルト駆動部は、水平方向0度から真上方向90度まで回転することができる。アクチュエータ111は、バス106を介したCPU101の制御にしたがって、雲台110を制御する。アクチュエータ111の制御にしたがって、雲台110が有するパン駆動部とチルト駆動部が、撮像部102を水平方向または垂直方向に回転駆動する。これにより、撮像部102が、撮像方向を変更して撮影することができる。また、前述したパン・チルト防振制御部101-4は、撮像部102に加わる振れに応じた雲台110の制御により、撮像部102を水平方向または垂直方向に回転駆動して、撮像画像に係る像ブレを補正(パン・チルト防振)する補正制御手段として機能する。
The
ジャイロセンサ113は、撮像部102のパンニング方向(水平方向)およびチルティング方向(垂直方向)の角速度を検出する。検出した角速度情報は、撮像部102に加わる振れに対応する。角速度情報は、バス106を介してCPU101によって取得され、パン・チルト防振に用いられる。撮像素子102-4は、ズームレンズ102-1、フォーカスレンズ102-2、および絞り102-3を通過した被写体光を光電変換して、撮像画像に係るアナログ画像信号を生成する。生成されたアナログ画像信号は、相関二重サンプリング等のサンプリング処理による増幅処理が施された後、A/D変換部103に出力される。増幅処理に用いられるパラメータは、CPU101によって制御される。
The
A/D変換部103は、増幅されたアナログ画像信号をデジタル画像信号に変換する。A/D変換部103は、変換によって得られたデジタル画像信号を画像入力コントローラ104に出力する。画像入力コントローラ104は、A/D変換部103から出力されたデジタル画像信号を取り込み、画像信号処理部105に出力する。画像信号処理部105は、画像入力コントローラ104から入力されたデジタル画像信号に対して、撮像素子102-4から出力される撮像時の感度情報に基づいて、各種デジタル画像処理を施す。感度情報は、例えば、AGC(自動利得制御)ゲインまたはISO(国際標準化機構)感度である。デジタル画像処理が施された画像は、バス106を介してRAM(Random Access Memory)107に格納される。デジタル画像処理は、例えばオフセット処理、ガンマ補正処理、ゲイン処理、RGB補間処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等である。また、画像信号処理部105は、画像の所定の指定領域にマスク処理を施すプライバーマスク等の処理を実行する。
The A/
RAM107は、SRAMやDRAM等の揮発性メモリである。ROM(Read Only Memory)109は、EEPROMやフラッシュメモリ等の不揮発性メモリである。記憶装置112はHDD(Hard Disk Drive)やSSD(Solid State Drive)、eMMC(組み込み用のマルチメディアカード)等の記憶装置である。撮像装置100の機能を実現するためのプログラムや、当該プログラムが実行される際に用いられるデータは、ROM109または記憶装置112に予め格納される。これらのプログラムやデータは、CPU101による制御のもと、バス106を介して適宜RAM107に取り込まれ、CPU101によって実行される。
A
I/F114は入出力に係る各種インタフェースである。I/F114は、リレーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、タッチパネル、キーボードやポインティングデバイス(例えばマウス)等の入力装置115と接続し、指示情報を受信する。そして、I/F114は、受信した指示情報を、バス106を介して、CPU101に通知する。また、I/F114は、LCD(Liquid Crysta Display)等の表示装置116と接続し、RAM107に一時的に記録された画像や操作メニュー等の情報を表示する。I/F114は、LAN(Local Area Network)を介してネットワーク121と接続する。
The I/
画像補正部118は、画像補正制御部101-5から通知された情報に基づいて、注視領域に対して画像補正処理を行う。これにより、パン・チルト防振によって生じる被写体のあおり(形状変化)や大きさの変化(倍率変化)が補正される。具体的には、画像補正部118は、画像の幾何変形処理を行う。
The
画像解析部119は、所定の検出領域を対象に、顔検出、人物検出、動体検知、通過検知、混雑検知、軌跡検知、置き去り/持ち去り検知等の画像解析を行う。画像解析結果は、バス106を介してCPU101に通知される。圧縮伸長部120は、CPU101の制御にしたがい、画像に圧縮処理を施して圧縮データを生成する。圧縮伸長部120は、所定の指定領域の圧縮率を変えて、圧縮データを生成する機能を有する。圧縮データは、I/F114を介して、表示装置116やネットワーク121に出力される。また、圧縮伸長部120は、記憶装置112に格納された圧縮データに所定形式の伸張処理を施して非圧縮データを生成する。圧縮伸長部120は、静止画像に対しては、JPEG規格に準拠した圧縮方式を、動画像に対しては、MOTIOIN-JPEGやMPEG2、AVC/H.264、AVC/H.265の規格に準拠した圧縮伸長を行う。
The
図2は、実施例1の撮像装置が実行する画像補正処理を説明するフローチャートである。
実施例1の撮像装置100は、パン・チルト防振を施したことによって発生する被写体のあおり(形状変化)や大きさの変化(倍率変化)を、注視領域に対する画像補正処理によって補正する。撮像装置100は、注視領域に対応する補正点を決定し、決定した補正点と撮像部102の撮影点とに応じた撮像情報を算出し、撮像情報に応じて決まる画像の切り出し領域と幾何変形係数とに基づいて、切り出し領域の画像の幾何変形処理を実行する。撮影点は、撮像部102の撮影位置を示す。本実施形態では、撮像装置100は、補正点を注視領域に係る幾何変換中心点に決定する。図2に示すSは、ステップ番号を示す。
FIG. 2 is a flowchart for explaining image correction processing executed by the imaging apparatus according to the first embodiment.
The
S201において、撮影情報算出部101-3が、制御部101-6およびバス106を介して、撮像情報を取得する。具体的には、撮影情報算出部101-3は、ROM109または記憶装置112に格納されている焦点距離等のレンズに係る情報(レンズ情報)および撮影画角(FOV)の情報を取得する。撮像装置100が、交換式のレンズユニットを有する場合は、撮影情報算出部101-3は、制御部101-6およびバス106を介して、レンズ制御部108からレンズ情報を取得する。撮影情報算出部101-3が、レンズ制御部108からレンズ識別子を取得し、取得したレンズ識別子に応じて、ROM109または記憶装置112に予め格納されているレンズ情報を取得してもよい。撮影情報算出部101-3が、制御部101-6、バス106、I/F114、およびネットワーク121を介して、レンズ識別子に応じたレンズ情報を、所定のサーバから取得してもよい。本実施例は、レンズ情報の取得方法を制限するものではない。
In S201, the imaging information calculation unit 101-3 acquires imaging information via the control unit 101-6 and the bus . Specifically, the shooting information calculation unit 101-3 acquires lens information (lens information) such as focal length and shooting angle of view (FOV) information stored in the
次に、S202において、振動情報解析部101-1が、制御部101-6およびバス106を介して、ジャイロセンサ113から現在の撮像部102の振動情報(角速度情報)を取得する。続いて、S203において、振動情報解析部101-1が、S202において取得した現在の撮像部102の振動情報(角速度情報)と、過去に取得した撮像部102の振動情報とに基づいて、撮像部102の振動波形を算出する。振動情報解析部101-1は、算出した撮像部102の振動波形に応じてパン・チルト防振する際の波形(パン・チルト防振波形)を算出する。S204において、パン・チルト防振制御部101-4が、S203において算出されたパン・チルト防振波形に基づき、制御部101-6、バス106およびアクチュエータ111を介して雲台110を制御する。これにより、パン・チルト防振制御部101-4は、現在の撮像部102の変位に応じたパン・チルト防振を実行する。
Next, in S202, the vibration information analysis unit 101-1 acquires current vibration information (angular velocity information) of the
次に、S205において、注視領域算出部101-2が、注視領域を決定する。具体的には、注視領域算出部101-2は、バス106を介して、画像処理部105が用いるプライバシーマスクに係る所定の指定領域や、圧縮伸長部120が用いる圧縮率を任意に指定するための所定の指定領域等を取得する。また、注視領域算出部101-2は、バス106を介して、画像解析部119が実行する顔検出、人物検出、動体検知、通過検知、混雑検知、軌跡検知、置き去り/持ち去り検知等の所定の画像解析に係る検出領域を取得する。注視領域算出部101-2は、取得した領域から注視領域を決定する。実施例1では、注視領域算出部101-2は、取得した領域から一つの注視領域を決定する。注視領域算出部101-2は、決定した注視領域内に対応する補正点を決定する。具体的には、注視領域算出部101-2は、注視領域内の所定の位置を画像上の補正点に決定する。注視領域算出部101-2は、決定した注視領域と補正点の情報を撮像情報算出部101-3に通知する。
Next, in S205, the gaze area calculation unit 101-2 determines the gaze area. Specifically, the region-of-interest calculation unit 101-2 arbitrarily designates a predetermined designated region related to the privacy mask used by the
図5は、注視領域と補正点の一例を説明する図である。
図5(A)に示す画像500は、撮像装置100が撮像部102によって基準撮影点から撮影した際に得られる撮像画像である。基準撮影点は、撮像部102の基準となる撮影位置を示す。注視領域500-1は、所定の指定領域または所定の画像解析に係る検出領域である。補正点500-1は、注視領域500-1に対応する補正点である。図5(B)に示す画像501は、パン・チルト防振を施している際の撮像画像である。すなわち、画像501は、撮像装置100が基準撮影点とは異なる撮影点から撮影した際の撮像画像である。注視領域501-1は、画像501から決定された注視領域である。補正点501-2は、注視領域501-1に対応する補正点である。図5に示す注視領域は、所定の指定領域または所定の画像解析に係る検出領域を制限するものではない。
FIG. 5 is a diagram illustrating an example of a gaze area and correction points.
An
図2の説明に戻る。S206において、撮像情報算出部101-3が、S201で取得されたレンズ情報と撮影画角(FOV)の情報に基づき、S205で決定した画像上の補正点に対応する実空間上の補正点を算出する。そして、撮像情報算出部101-3は、算出した実空間上の補正点と、S204においてパン・チルト防振が施されている現在の撮影点との距離を算出する。また、撮像情報算出部101-3は、実空間上の補正点と基準撮影点との距離を算出する。そして、撮像情報算出部101-3は、現在の撮影点からの撮影と基準撮影点からの撮影との間での倍率差を撮像情報として算出する。 Returning to the description of FIG. In S206, the imaging information calculation unit 101-3 calculates a correction point in real space corresponding to the correction point on the image determined in S205 based on the lens information and the information on the shooting angle of view (FOV) acquired in S201. calculate. Then, the image pickup information calculation unit 101-3 calculates the distance between the calculated correction point in the real space and the current image pickup point where the pan/tilt image stabilization is performed in S204. Also, the imaging information calculation unit 101-3 calculates the distance between the correction point in the real space and the reference imaging point. Then, the imaging information calculation unit 101-3 calculates, as imaging information, the magnification difference between the imaging from the current imaging point and the imaging from the reference imaging point.
図6は、図2のS206の処理を説明する図である。
撮影点600は、基準撮影点を示す。撮影点601は、パン・チルト防振を施している場合の、基準撮影点とは異なる現在の撮影点を示す。補正点602は、画像上の補正点が座標変換された、実空間での補正点を示す。撮像情報算出部101-3は、撮影点600と補正点602の距離である撮影距離600-2を算出する。また、撮像情報算出部101-3は、撮影点601と補正点602の距離である撮影距離601-2を算出する。そして、撮像情報算出部101-3は、撮影距離600-2と撮影距離601-2との差分から、基準撮影点からの撮影と現在の撮影点からの撮影との間の倍率比fdiffを算出する。倍率比fdiffは、撮影距離600-2をfbase、撮影距離601-2をfnとして、以下の式(1)により求めることができる。
fdiff=fbase/fn・・・式(1)
FIG. 6 is a diagram for explaining the processing of S206 in FIG.
A
fdiff=fbase/fn Expression (1)
図2の説明に戻る。S207において、撮像情報算出部101-3が、S205で決定した画像上の補正点に対応する実空間上の補正点と、S204においてパン・チルト防振が施されている現在の実空間上の撮影点とに応じて決まる撮影角度θbaseを算出する。また、撮像情報算出部101-3は、実空間上の補正点と基準撮影点とに応じて決まる撮影角度θnを算出する。そして、撮像情報算出部101-3は、以下の式(2)に基づいて、現在の撮影点からの撮影と基準撮影点からの撮影との間での、撮影点と補正点とに応じて決まる撮影角度の差θdiffを撮像情報として算出する。
θdiff=θn-θbase・・・式(2)
Returning to the description of FIG. In S207, the imaging information calculation unit 101-3 calculates the correction points on the real space corresponding to the correction points on the image determined in S205, and the current real space image where the pan/tilt image stabilization is applied in S204. A photographing angle θbase determined according to the photographing point is calculated. Further, the imaging information calculation unit 101-3 calculates the imaging angle θn determined according to the correction point on the real space and the reference imaging point. Then, based on the following formula (2), the imaging information calculation unit 101-3 calculates the following according to the imaging point and the correction point between the imaging from the current imaging point and the imaging from the reference imaging point. The determined imaging angle difference θdiff is calculated as imaging information.
θdiff=θn−θbase Expression (2)
図6中の撮影角度600-1は、撮影点600から補正点602を撮影する際の撮影角度θbaseを示す。撮影角度601-1は、撮影点601から補正点602を撮影する際の撮影角度θnを示す。
A photographing angle 600-1 in FIG. 6 indicates the photographing angle θbase when photographing the
次に、図2のS208において、画像補正制御部101-5が、画像補正処理を行うか否かを判断する。前述したfdiffまたはθdiffのうちの一つ以上が所定の閾値を超えている場合、画像補正制御部101-5が、画像補正処理を行うと判断して、処理がS209に進む。fdiffまたはθdiffのうちの一つ以上が所定の閾値を超えていない場合、画像補正制御部101-5が、画像補正処理を行わないと判断して、処理がS211に進む。 Next, in S208 of FIG. 2, the image correction control unit 101-5 determines whether or not to perform image correction processing. If one or more of fdiff or θdiff described above exceeds the predetermined threshold, the image correction control unit 101-5 determines to perform image correction processing, and the process proceeds to S209. If one or more of fdiff and θdiff do not exceed the predetermined threshold, the image correction control unit 101-5 determines not to perform image correction processing, and the process proceeds to S211.
S209において、画像補正制御部101-5が、S206で算出した倍率比fdiffとS207で算出した角度差θdiffに基づいて、画像の切り出し領域と、幾何変換係数を算出する。切り出し領域Aは、ステップS206で算出した倍率比fdiffおよびステップS201で取得した撮影画角(FOV)を用いて、式(3)のように表現できる。
A=fdiff*FOV・・・式(3)
In S209, the image correction control unit 101-5 calculates an image clipping region and a geometric conversion coefficient based on the magnification ratio fdiff calculated in S206 and the angle difference θdiff calculated in S207. The clipping area A can be expressed as in Equation (3) using the magnification ratio fdiff calculated in step S206 and the imaging angle of view (FOV) obtained in step S201.
A=fdiff*FOV Expression (3)
図7は、画像の切り出し領域を説明する図である。
画像補正制御部101-5は、図7(A)に示すように、倍率比fdiffと撮影画角(FOV)とに基づいて、補正点を基準とした画像の切り出し領域を算出する。算出した切り出し領域は、注視領域に対応している。
FIG. 7 is a diagram for explaining an image cut-out region.
As shown in FIG. 7A, the image correction control unit 101-5 calculates an image clipping area with reference to the correction point based on the magnification ratio fdiff and the shooting angle of view (FOV). The calculated clipping area corresponds to the gaze area.
次に、幾何変換係数の算出について説明する。撮像装置100は、画像補正処理として、透視変換による画像の幾何変換処理を実行する。透視変換に係る手法は、公知であるので省略する。また、撮像装置100は、アフィン変換や射影変換等の任意の幾何変換を用いてもよい。補正角度は、図2のS207で算出した角度差θdiffと同等であり、補正角度から幾何変換係数を算出することができる。補正角度から幾何変換係数を算出する手段は、幾何変換手法に依存し、公知であるので、省略する。また、本実施例は、幾何変換の手法を制限するものではない。
Next, calculation of geometric transformation coefficients will be described. The
図2のS210において、画像補正部118が、S209で算出された画像の切り出し領域と幾何変換係数とに基づいて、画像の幾何変換を実行する。画像補正部118は、例えば、図7(A)に示す切り出し領域の画像に対して幾何変換処理を実行する。これにより、図7(B)に示すように、被写体のあおり(形状変化)や大きさの変化(倍率変化)が補正された補正画像が得られる。
In S210 of FIG. 2, the
S211において、CPU101が、像ブレ補正処理(防振処理)が継続されるかを判断する。防振機能が無効に設定された場合、CPU101は、防振処理が継続されないと判断する。そして、処理が終了する。防振機能が無効に設定されておらず、有効である場合、CPU101は、防振処理が継続されると判断する。そして、処理がS202に戻る。防振機能の有効または無効は、入力装置115もしくはネットワーク121を介して任意に設定することができる。本実施例の撮像装置100によれば、パン・チルト防振によって発生する被写体のあおり(形状変化)や大きさの変化(倍率変化)を、注視領域に応じて効果的に補正することができる。
In S211, the
(実施例2)
図3は、実施例2の撮像装置が実行する画像補正処理を説明するフローチャートである。
実施例2の撮像装置は、複数の注視領域の各々に対応する補正点の重心を、画像補正処理の基準とする補正点として、fdiffとθdiffの算出に用いる。図2に示すSは、ステップ番号を示す。
(Example 2)
FIG. 3 is a flowchart for explaining image correction processing executed by the imaging apparatus according to the second embodiment.
The imaging apparatus according to the second embodiment uses the center of gravity of the correction points corresponding to each of the plurality of gaze areas as a correction point used as a reference for image correction processing to calculate fdiff and θdiff. S shown in FIG. 2 indicates a step number.
S301乃至S304は、図2のS201乃至S204と同様である。S305において、注視領域算出部101-2が、複数の注視領域と、各々の注視領域に対応する補正点を決定する。これにより、複数の補正点が決定される。S306において、撮像情報算出部101-3が、S305で決定された複数の補正点に対して重み付けを行う。撮像情報算出部101-3は、例えば、補正点と、重み付けに用いられる係数とが対応付けられたテーブルである重み付けテーブルを参照して、複数の補正点に対して重み付けを行う。重み付けテーブルは、例えば、ROM109または記憶装置112に記憶される。
S301 to S304 are the same as S201 to S204 in FIG. In S305, the gaze area calculation unit 101-2 determines a plurality of gaze areas and correction points corresponding to each gaze area. Thereby, a plurality of correction points are determined. In S306, the imaging information calculation unit 101-3 weights the plurality of correction points determined in S305. The imaging information calculation unit 101-3, for example, refers to a weighting table, which is a table in which correction points are associated with coefficients used for weighting, and weights a plurality of correction points. The weighting table is stored in
図8は、重み付けテーブルの一例を示す図である。
図8に示す重み付けテーブル700には、領域1乃至5のそれぞれが示す注視領域の補正点ごとに、関連機能、機能優先係数701、検出利用頻度係数702、優先度設定係数703、重み付け係数704が設定される。
関連機能は、各々の注視領域の機能を示す。例えば、領域2に対応する関連機能は、人物検出であるので、領域2は、画像解析部119による人物検出という機能に用いられることがわかる。
FIG. 8 is a diagram showing an example of a weighting table.
In the weighting table 700 shown in FIG. 8, related functions,
Associated functions indicate the function of each gaze area. For example, since the related function corresponding to
機能優先係数701は、注視領域の機能に応じて決まる優先度を示す係数である。検出利用頻度係数702は、画像解析部119による注視領域の画像解析結果の利用頻度に応じた係数である。画像解析結果の利用方法としては、通知イベントと紐付けて、表示装置116へ画像解析結果を表示する方法、ネットワーク121を介してメール等で通知する方法等がある。また、画像解析結果に応じて、所定のアクションイベントを発生させてもよい。例えば、画像解析結果に応じて、雲台110を駆動してパン・チルトするようにしてもよい。画像解析結果の利用方法は、公知であるので、詳細な説明を省略する。
A
優先度設定係数703は、入力装置115もしくはネットワーク121を介して任意に設定される優先度である。重み付け係数704は、重み付けの際に各注視領域の補正点に対して付与される係数である。撮像情報算出部101-3は、機能優先度係数701乃至優先度設定係数703に基づいて、重み付け係数704を算出する。撮像情報算出部101-3は、算出した重み付け係数に基づき、それぞれの補正点に対して重み付けを実行した後、全ての補正点の重心を、補正点として決定する。当該決定された補正点が、画像補正処理の基準となり、fdiffとθdiffの算出に用いられる。本実施例は、重み付けの係数の演算方法を制限するものではない。図3のS307乃至S312は、図2のS208乃至S211と同様の処理である。実施例2の撮像装置100によれば、パン・チルト防振によって発生する被写体のあおり(形状変化)や大きさの変化(倍率変化)を、複数の注視領域に応じて効果的に補正することができる。
A
(実施例3)
図4は、実施例3の撮像装置が実行する画像補正処理を説明するフローチャートである。
実施例3の撮像装置100は、前述した注視領域に対する画像補正処理を、処理の負荷に応じて制限する。具体的には、撮像装置100は、幾何変換係数の大きさに応じて、画像の幾何変換処理を制限する。図3に示すSは、ステップ番号を示す。
(Example 3)
FIG. 4 is a flowchart for explaining image correction processing executed by the imaging apparatus according to the third embodiment.
The
S401乃至S409は、図2のS201乃至S209と同様である。S410において、撮像情報算出部101-3が、幾何変形処理を実行するかを判断する。S409で算出された幾何変換係数が、所定の閾値を超えていない場合は、幾何変形処理に関する撮像装置100の負荷は低い。したがって、この場合は、画像補正制御部101-5は、幾何変形処理を実行すると判断する。閾値は、CPU101の稼働状況や同画像のフレームレートなどから算出される。幾何変換係数が、所定の閾値を超えている場合は、幾何変形処理に関する撮像装置100の負荷は高い。したがって、この場合は、画像補正制御部101-5は、幾何変形処理を実行しない(制限する)と判断して、処理がS411に進む。S411は、図2のS210と同様である。なお、図4に示す例では、幾何変換係数の大きさに応じて、画像の幾何変換処理を制限しているが、画像の幾何変換処理を制限する条件は、幾何変換係数の大きさに限定されない。
S401 to S409 are the same as S201 to S209 in FIG. In S410, the imaging information calculation unit 101-3 determines whether to execute geometric transformation processing. If the geometric transformation coefficients calculated in S409 do not exceed the predetermined threshold, the load on the
次に、S412において、画像補正制御部101-5が、画像補正部118による画像補正処理(幾何変換処理)に関する情報である幾何変換補正情報を生成する。S408またはS410で、幾何変換による画像補正処理を実行しないと判断された場合は、S412において、画像補正制御部101-5は、未補正に係る幾何変換補正情報を生成する。また、S408、S410で、幾何変換による画像補正処理を実行すると判断された場合は、画像補正制御部101-5は、補正点と幾何変換補正係数等を含む幾何変換補正情報を生成する。
Next, in S412, the image correction control unit 101-5 generates geometric transformation correction information, which is information regarding image correction processing (geometric transformation processing) by the
画像補正制御部101-5は、幾何変換補正情報を、画像補正処理の後に処理を実行する所定の処理部に通知する。例えば、画像補正制御部101-5は、幾何変換補正情報を画像解析部119、圧縮伸張部120に通知する。例えば、圧縮伸張部120は、画像の圧縮処理の実行と共に、幾何変換補正情報をメタデータとして統合し、圧縮データを生成する。また、CPU101が、バス106およびI/F114、ネットワーク121を介して、画像解析装置等の外部装置に圧縮データを通知してもよい。当該通知を受けた画像解析装置は、幾何変換補正情報に基づく解析処理を実行することができる。S413は、図2のS211と同様である。
The image correction control unit 101-5 notifies geometric transformation correction information to a predetermined processing unit that executes processing after image correction processing. For example, the image correction control unit 101-5 notifies the
実施例3の撮像装置100によれば、パン・チルト防振によって発生する被写体のあおり(形状変化)や大きさの変化(倍率変化)を、注視領域に対して効果的に補正することができるとともに、処理の負荷に応じて画像補正処理を制限することができる。上述した実施例1乃至3を任意に組み合わせてもよい。例えば、実施例3の変形例として、実施例2と同様に、複数の注視領域の各々の補正点の重心を画像補正処理の基準として、fdiffおよびθdiffを算出するようにしてもよい。
According to the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
100 撮像装置
101 CPU
102 撮像部
100
102 imaging unit
Claims (9)
前記撮像手段を駆動して、撮像方向を変更する駆動手段と、
前記駆動手段を制御して、前記撮像手段に加わる振れにより生じる前記撮像画像に係る像ブレを補正する補正制御手段と、
前記撮像画像における複数の注視領域と、各々の前記注視領域に対する画像補正処理の基準となる補正点を決定する決定手段と、
複数の前記補正点に対して重み付けを行い、前記補正点の重心を求め、求めた前記重心を補正点とし、前記撮像手段の撮影位置を示す撮影点と求めた前記重心である補正点とに応じて決まり、現在の撮影点からの撮影における撮影角度と、前記撮像手段の撮影位置を示す撮影点と求めた前記重心である補正点とに応じて決まり、基準撮影点からの撮影における撮影角度との差と、基準撮影点からの撮影と現在の撮影点からの撮影との間の倍率比とを撮像情報として算出する算出手段と、
前記算出された撮像情報に基づいて、前記注視領域に対して画像補正処理を行う画像補正手段と、を備える
ことを特徴とする撮像装置。 imaging means for capturing an image of a subject and outputting a captured image;
driving means for driving the imaging means to change the imaging direction;
correction control means for controlling the driving means to correct image blurring of the captured image caused by vibration applied to the imaging means;
determining means for determining a plurality of gaze areas in the captured image and a correction point that serves as a reference for image correction processing for each of the gaze areas;
A plurality of correction points are weighted, the center of gravity of the correction points is obtained, the obtained gravity is used as a correction point, and the photographing point indicating the photographing position of the imaging means and the correction point that is the obtained gravity center is determined according to the photographing angle in photographing from the current photographing point, the photographing point indicating the photographing position of the image pickup means, and the obtained correction point which is the center of gravity, and the photographing angle in photographing from the reference photographing point and a calculation means for calculating, as image pickup information, the difference between the image pickup point and the magnification ratio between the image pickup from the reference image pickup point and the image pickup from the current image pickup point;
and image correction means for performing image correction processing on the region of interest based on the calculated imaging information.
ことを特徴とする請求項1に記載の撮像装置。 The calculation means calculates, for the plurality of correction points , a function priority coefficient, which is a coefficient indicating a priority determined according to the function of the attention area, and an image analysis unit that performs image analysis on a predetermined detection area. using at least one of a detection usage frequency coefficient, which is a coefficient according to the frequency of usage of the image analysis result of the region of interest, and a priority setting coefficient, which is a priority arbitrarily set via an input device or a network; weighted by
2. The imaging device according to claim 1, wherein:
ことを特徴とする請求項1又は2に記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein the image correcting means does not execute the image correcting process when the magnification ratio or the imaging angle difference does not exceed a threshold value.
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 4. The imaging apparatus according to any one of claims 1 to 3, wherein the determination unit sets a predetermined designated area or a detection area related to predetermined image analysis as the gaze area.
ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The image correcting means calculates an image clipping region and a geometric deformation coefficient based on the imaging information, and geometrically transforms the image in the clipping region based on the calculated image clipping region and the geometric deformation coefficient. 5. The imaging apparatus according to claim 1, wherein processing is performed.
ことを特徴とする請求項5に記載の撮像装置。 6. The imaging apparatus according to claim 5, wherein said image correction means restricts said image correction processing when said geometric deformation coefficient exceeds a predetermined threshold.
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 7. The imaging apparatus according to any one of claims 1 to 6, further comprising notifying means for notifying an external device of information regarding the image correction processing.
ことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 7, wherein the driving means rotates the imaging means in a horizontal direction or a vertical direction.
前記駆動手段を制御して、前記撮像手段に加わる振れにより生じる前記撮像画像に係る像ブレを補正する工程と、
前記撮像画像における複数の注視領域と、各々の前記注視領域に対する画像補正処理の基準となる補正点を決定する工程と、
複数の前記補正点に対して重み付けを行い、前記補正点の重心を求め、求めた前記重心を補正点とし、撮影点と求めた前記重心である補正点とに応じて決まり、現在の撮影点からの撮影における撮影角度と、撮影点と求めた前記重心である補正点とに応じて決まり、基準撮影点からの撮影における撮影角度との差と、基準撮影点からの撮影と現在の撮影点からの撮影との間の倍率比とを撮像情報として算出する工程と、
前記算出された撮像情報に基づいて、前記画像補正処理を行う工程と、を有する
ことを特徴とする制御方法。 A control method for an imaging device comprising imaging means for imaging a subject and outputting a captured image, and driving means for driving the imaging means to change an imaging direction,
a step of controlling the driving means to correct image blur associated with the captured image caused by vibration applied to the imaging means;
a step of determining a plurality of gaze areas in the captured image and a correction point serving as a reference for image correction processing for each of the gaze areas;
A plurality of correction points are weighted, the centroids of the correction points are obtained, the obtained centroids are used as the correction points, and the current photographing point is determined according to the photographing point and the correction point which is the obtained centroid. is determined according to the shooting angle in shooting from, the shooting point and the correction point that is the center of gravity obtained, the difference between the shooting angle in shooting from the reference shooting point, the shooting from the reference shooting point and the current shooting point a step of calculating as imaging information a magnification ratio between imaging from
and performing the image correction process based on the calculated imaging information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019007781A JP7301542B2 (en) | 2019-01-21 | 2019-01-21 | Imaging device and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019007781A JP7301542B2 (en) | 2019-01-21 | 2019-01-21 | Imaging device and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020118758A JP2020118758A (en) | 2020-08-06 |
JP7301542B2 true JP7301542B2 (en) | 2023-07-03 |
Family
ID=71890626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019007781A Active JP7301542B2 (en) | 2019-01-21 | 2019-01-21 | Imaging device and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7301542B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237251A (en) | 2009-03-30 | 2010-10-21 | Canon Inc | Imaging apparatus and control method of the same |
JP2013192270A (en) | 2013-06-17 | 2013-09-26 | Canon Inc | Imaging apparatus, control method for the same, and program |
JP2015022027A (en) | 2013-07-16 | 2015-02-02 | キヤノン株式会社 | Image pickup device and method for controlling the same |
JP2018189730A (en) | 2017-04-28 | 2018-11-29 | キヤノン株式会社 | Image tremor correction device and control method for the same, program therefor, and storage medium |
JP2020046498A (en) | 2018-09-18 | 2020-03-26 | 株式会社日立国際電気 | Imaging device and tremor-damping method |
-
2019
- 2019-01-21 JP JP2019007781A patent/JP7301542B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237251A (en) | 2009-03-30 | 2010-10-21 | Canon Inc | Imaging apparatus and control method of the same |
JP2013192270A (en) | 2013-06-17 | 2013-09-26 | Canon Inc | Imaging apparatus, control method for the same, and program |
JP2015022027A (en) | 2013-07-16 | 2015-02-02 | キヤノン株式会社 | Image pickup device and method for controlling the same |
JP2018189730A (en) | 2017-04-28 | 2018-11-29 | キヤノン株式会社 | Image tremor correction device and control method for the same, program therefor, and storage medium |
JP2020046498A (en) | 2018-09-18 | 2020-03-26 | 株式会社日立国際電気 | Imaging device and tremor-damping method |
Also Published As
Publication number | Publication date |
---|---|
JP2020118758A (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9019387B2 (en) | Imaging device and method of obtaining image | |
JP4926920B2 (en) | Anti-shake image processing apparatus and anti-shake image processing method | |
JP6209002B2 (en) | Imaging apparatus and control method thereof | |
WO2013005316A1 (en) | Image processing device, image processing method, and image processing program | |
JP2005252626A (en) | Image pickup device and image processing method | |
EP3644598A1 (en) | Control apparatus, imaging apparatus, control method, and program | |
KR102529479B1 (en) | Control apparatus, control method, and storage medium | |
JP6128109B2 (en) | Image capturing apparatus, image capturing direction control method, and program | |
JP2017175364A (en) | Image processing device, imaging device, and control method of image processing device | |
JP2007243335A (en) | Camera shake correction method, camera shake correction apparatus, and imaging apparatus | |
JP6223161B2 (en) | Image processing apparatus, imaging apparatus including the same, and image processing method | |
JP6282133B2 (en) | Imaging device, control method thereof, and control program | |
JP6152991B2 (en) | Image generation apparatus, camera apparatus, image display apparatus, and image generation method | |
JP2014050039A (en) | Image processor, image processing method and computer program | |
JP7301542B2 (en) | Imaging device and its control method | |
JP2020129019A (en) | Imaging device and control method therefor | |
JP5341655B2 (en) | Imaging apparatus and control method thereof | |
JP2015095670A (en) | Imaging apparatus, control method thereof and control program | |
JP6316030B2 (en) | Imaging apparatus and control method thereof | |
JP2008244670A (en) | Imaging apparatus | |
JP6381212B2 (en) | Imaging apparatus and control method thereof | |
JP6188369B2 (en) | Imaging device | |
JP2010118822A (en) | Camera shake correcting device and camera shake correcting method | |
JP2024074622A (en) | Imaging device, its control means, and program | |
JP2007235806A (en) | Image processor, photographic device, image processing method, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7301542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |