JP2016103682A - Level of optical equipment - Google Patents

Level of optical equipment Download PDF

Info

Publication number
JP2016103682A
JP2016103682A JP2014239871A JP2014239871A JP2016103682A JP 2016103682 A JP2016103682 A JP 2016103682A JP 2014239871 A JP2014239871 A JP 2014239871A JP 2014239871 A JP2014239871 A JP 2014239871A JP 2016103682 A JP2016103682 A JP 2016103682A
Authority
JP
Japan
Prior art keywords
angle
background
camera
movement vector
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014239871A
Other languages
Japanese (ja)
Inventor
卓弥 泉
Takuya Izumi
卓弥 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014239871A priority Critical patent/JP2016103682A/en
Publication of JP2016103682A publication Critical patent/JP2016103682A/en
Pending legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display method for a level of optical equipment having mis-display preventing function for panning photography time.SOLUTION: An imaging device has a singular point extraction part which extracts a background singular point from two or more different successively picked-up images before primary photography, a moving vector calculation part which detects a moving vector at the background singular point, an angle calculation part which calculates an angle of inclination of the moving vector, and an angle result display part which displays an angle inclination of a camera.SELECTED DRAWING: Figure 1

Description

本発明は、パンニング撮影時における誤表示防止機能を有した光学機器の水準器の表示に関する。   The present invention relates to a display of a level of an optical apparatus having a function of preventing erroneous display during panning photography.

近年のデジタル一眼レフカメラは、加速度センサの検知結果を基にカメラの傾き角度を検出し、水準器に表示している。具体的には、カメラ内の加速度センサにより重力加速度を検知しており、その重力加速度方向を地球の中心方向と仮定し、さらに、重力加速度方向の法線方向を地上に対する水平方向として、その地上に対する水平方向とカメラの水平方向がなす角度をカメラの傾き角度として表示している。   In recent digital single-lens reflex cameras, the tilt angle of the camera is detected based on the detection result of the acceleration sensor and displayed on a level. Specifically, the gravitational acceleration is detected by the acceleration sensor in the camera, the gravitational acceleration direction is assumed to be the center direction of the earth, and the normal direction of the gravitational acceleration direction is set to the horizontal direction with respect to the ground. The angle formed by the horizontal direction of the camera and the horizontal direction of the camera is displayed as the camera tilt angle.

カメラに内蔵された水準器の検出精度向上の技術として、特許文献1では、カメラの保持・固定状態次第で、水準器の分解能が高いものと低いものの2種類から、自動で分解能が切り替わるものが提案されている。   As a technique for improving detection accuracy of a level built in a camera, in Patent Document 1, depending on whether the camera is held or fixed, the resolution is automatically switched from two types, a high level and a low level. Proposed.

特開2009−89345号公報JP 2009-89345 A

しかしながら、従来の重力加速度を検知する方式の水準器ではカメラに重力以外の加速度が加わると、重力加速度と加わった加速度の分離が出来ず、正しい水平がわからなくなってしまう。カメラを手持ちで使用している時には加速度がかかる状況は多く、特にパンニング撮影では、パンニング時に発生するカメラ移動方向の加速度は、水準器が誤表示する原因になる故、撮影者は、水準器を頼りに水平度を保つといったことが困難になっている。上記の特許文献1に開示された技術ではカメラを保持してパンニング撮影する際、重力加速度以外の加速度がカメラに加わってしまい、加速度の分離が出来ず水準器が誤表示するという課題がある。   However, in the conventional level that detects gravitational acceleration, when acceleration other than gravity is applied to the camera, the acceleration cannot be separated from the applied acceleration and the correct level cannot be determined. When using the camera in hand, there are many situations where acceleration is applied. Especially in panning shooting, the acceleration in the direction of camera movement that occurs during panning can cause the level to display incorrectly. It has become difficult to maintain levelness. In the technique disclosed in Patent Document 1 described above, when panning is performed while holding the camera, acceleration other than gravitational acceleration is applied to the camera, and there is a problem in that acceleration cannot be separated and the level is erroneously displayed.

そこで、本発明の目的は、パンニング撮影時における誤表示を防止することを可能にした光学機器の水準器を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an optical instrument level that can prevent erroneous display during panning photography.

上記の目的を達成するために、本発明は、パンニング撮影時における水準器の誤表示を防止するために、本撮影前の少なくとも2枚以上の異なる連続撮像画において、背景特異点を抽出する特異点抽出部と、前記背景特異点の移動ベクトルを検出する移動ベクトル算出部と、前記移動ベクトルの傾き角度を算出する角度算出部と、カメラの傾き角度を表示する角度結果表示部を有することを特徴とする。   In order to achieve the above object, the present invention is designed to extract a background singularity in at least two different continuous images before the main photographing in order to prevent erroneous display of the level during panning photographing. A point extraction unit; a movement vector calculation unit that detects a movement vector of the background singular point; an angle calculation unit that calculates an inclination angle of the movement vector; and an angle result display unit that displays an inclination angle of the camera. Features.

本発明によれば、パンニング撮影時における誤表示を防止することを可能にした光学機器の水準器の提供を実現できる。   According to the present invention, it is possible to provide a level of an optical apparatus that can prevent erroneous display during panning photography.

カメラの構成図Configuration diagram of the camera カメラの電気ブロック図Camera electrical block diagram 撮像シーケンスのフローチャートImaging sequence flowchart パンニング撮影のフローチャートPanning shooting flowchart パンニング撮影時の速度と加速度の一例Example of speed and acceleration during panning shooting 重力加速度以外の加速度を有さないときにおける、水準器表示の説明図Explanatory drawing of level display when there is no acceleration other than gravitational acceleration 重力をカメラ水平方向(X方向)と鉛直方向(Y方向)に分解した説明図Explanatory drawing which decomposed gravity into camera horizontal direction (X direction) and vertical direction (Y direction) 重力加速度以外の加速度を有するときにおける、水準器誤表示の説明図1Explanatory drawing of level indication error when having acceleration other than gravitational acceleration 1 重力と慣性力の合成ベクトルの説明図1Illustration of the combined vector of gravity and inertia 重力加速度以外の加速度を有するときにおける、水準器誤表示の説明図2Explanatory drawing of level indication error when having acceleration other than gravitational acceleration 2 重力と慣性力の合成ベクトルの説明図2Illustration of the combined vector of gravity and inertia 背景特異点の移動ベクトル説明図(パンニング開始位置)Illustration of movement vector of background singularity (panning start position) 背景特異点の移動ベクトル説明図(パンニング終了位置)Illustration of movement vector of background singularity (panning end position) 撮像素子における座標系の説明図Illustration of the coordinate system in the image sensor

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[実施例]
以下、本発明の実施形態について図1から図7に基づいて詳細に説明する。なお、図1から図7において同一の要素部品には同じ番号が付してある。
[Example]
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 7. In FIG. 1 to FIG. 7, the same number is assigned to the same component part.

図1は本発明を適用したデジタル式一眼レフカメラの概略構成を示す図である。同図において、101はCPU(中央演算処理装置)であり、本カメラの動作はこのCPU101により制御される。105は撮影レンズ(対物レンズ)であり、レンズ駆動部131によって駆動され、被写体像を撮像素子であるCMOSセンサ106上に結像させている。なお、同図に書かれた撮影レンズ105は、便宜的に1枚のレンズ105aで表現しているが、実際には複数のレンズから成り立っている。   FIG. 1 is a diagram showing a schematic configuration of a digital single-lens reflex camera to which the present invention is applied. In the figure, reference numeral 101 denotes a CPU (central processing unit), and the operation of the camera is controlled by the CPU 101. Reference numeral 105 denotes a photographing lens (objective lens) which is driven by a lens driving unit 131 to form a subject image on a CMOS sensor 106 which is an image sensor. The photographing lens 105 shown in the figure is expressed by a single lens 105a for convenience, but actually includes a plurality of lenses.

120は、撮影レンズ105のCMOSセンサ106結像面と等価の結像面(一次結像面)に置かれた焦点検出板(以降ピント板と称する)であり、被写体像は主ミラー123で反射され、ピント板120上に一次結像する。撮影者はこの被写体像をペンタプリズム124、さらには、接眼レンズ群121を通じて見ることができる、いわゆるTTL方式の光学ファインダ構成となっている。また、ピント板120とペンタプリズム124の間に配置されるPNLCD300は、高分子分散液晶を用いた液晶表示素子により構成されており、ピント板120上に形成された被写体像にファインダ内情報を重畳して表示する。ファインダ内情報としては、ファインダ視野内に複数設けられる焦点検出領域や測光領域を示すマークや、文字や記号等、様々なものを指す。   Reference numeral 120 denotes a focus detection plate (hereinafter referred to as a focus plate) placed on an image formation surface (primary image formation surface) equivalent to the image formation surface of the CMOS sensor 106 of the photographing lens 105, and the subject image is reflected by the main mirror 123. The primary image is formed on the focus plate 120. The photographer has a so-called TTL type optical viewfinder configuration in which the subject image can be seen through the pentaprism 124 and further through the eyepiece lens group 121. The PNLCD 300 disposed between the focus plate 120 and the pentaprism 124 is composed of a liquid crystal display element using polymer dispersed liquid crystal, and superimposes information in the viewfinder on the subject image formed on the focus plate 120. And display. The information in the finder indicates various information such as a mark indicating a focus detection area and a photometry area provided in the finder field, characters, symbols, and the like.

一方、主ミラー123は半透過ミラーとなっており、該主ミラー123を透過した一部の光束はサブミラー170を通じて焦点検出手段である焦点検出ユニット119に導かれ、周知の位相差検出方式の焦点検出動作を行う。焦点検出ユニット119は撮影画面の複数の領域について焦点検出が可能となっている。   On the other hand, the main mirror 123 is a semi-transmission mirror, and a part of the light beam transmitted through the main mirror 123 is guided to the focus detection unit 119 which is a focus detection means through the sub mirror 170, and the focus of the well-known phase difference detection method. Perform detection operation. The focus detection unit 119 can detect the focus for a plurality of areas on the shooting screen.

125は複数の受光部からなる測光センサであり、測光レンズ126によってピント板120に結像した被写体像を複数の領域に分けた各々の輝度・色情報を検出することが可能となっている。また、測光センサ125の出力結果を用いることで、顔認識、および色認識、焦点検出ユニット119と連動することにより被写体追尾といったことも行うことが可能であるので、この測光センサ125も撮像手段と言うことができる。   A photometric sensor 125 includes a plurality of light receiving units, and can detect luminance / color information obtained by dividing the subject image formed on the focusing plate 120 by the photometric lens 126 into a plurality of regions. Further, by using the output result of the photometric sensor 125, it is possible to perform subject recognition by interlocking with the face recognition, color recognition, and focus detection unit 119. Therefore, the photometric sensor 125 is also an imaging unit. I can say that.

撮影者がレリーズ釦114(不図示)を押すと、主ミラー123は撮影レンズ105の光路外に退避する。一方、撮影レンズ105によって集光された被写体光はフォーカルプレーンシャッタ133にてその光量制御がなされ、CMOSセンサ(撮像素子)106によって被写体像として光電変換処理表示された後、撮影済み画像として記録メディアに記録されるとともに、外部表示部113に撮影画像の表示がなされる。フォーカルプレーンシャッタ133による光量制御は、測光センサ125の出力に基づく物体輝度情報を基に、適正絞り値、シャッタ秒時および撮像素子感度をCPU101が求める。これが通常の静止画撮影であるが、本カメラはそれ以外にもライブビュー撮影、動画撮影が可能となっている。以上が、本発明におけるデジタル一眼レフカメラの構成である。   When the photographer presses a release button 114 (not shown), the main mirror 123 is retracted out of the optical path of the photographing lens 105. On the other hand, the light of the subject focused by the photographing lens 105 is controlled by a focal plane shutter 133 and is displayed as a subject image by a CMOS sensor (imaging device) 106, and then displayed as a photographed image as a recording medium. And the captured image is displayed on the external display unit 113. In the light amount control by the focal plane shutter 133, the CPU 101 obtains an appropriate aperture value, shutter speed, and image sensor sensitivity based on object luminance information based on the output of the photometric sensor 125. This is normal still image shooting, but this camera can also perform live view shooting and movie shooting. The above is the configuration of the digital single-lens reflex camera of the present invention.

図2は本発明の実施例によるデジタルカメラの概略構成を示す電気ブロック図である。同図において、101は前述のCPU(中央演算処理装置)であり、その内部には不揮発性メモリであるEEPROM101aが構成されている。   FIG. 2 is an electric block diagram showing a schematic configuration of the digital camera according to the embodiment of the present invention. In the figure, reference numeral 101 denotes the CPU (central processing unit) described above, and an EEPROM 101a which is a nonvolatile memory is configured therein.

またCPU101には、制御プログラムを記憶しているROM(リードオンリーメモリ)102、RAM(ランダムアクセスメモリ)103、データ格納手段104、画像処理部108、画像表示制御部111、カメラの姿勢を検知する姿勢検知部115、角度結果表示部122、レンズ駆動部131、焦点検出制御部119、情報表示制御部133、測光制御部132、シャッタ制御部134、スイッチ入力部142、電源を供給するためのDC/DCコンバータ117がそれぞれ接続され、画像処理部108にはCMOSセンサ制御部107、さらにCMOSセンサ106が接続されている。CMOSセンサ106は有効画素数約1000万画素(3888×2592画素)を有している。   Further, the CPU 101 detects a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a data storage means 104, an image processing unit 108, an image display control unit 111, and a camera posture which store control programs. Attitude detection unit 115, angle result display unit 122, lens drive unit 131, focus detection control unit 119, information display control unit 133, photometry control unit 132, shutter control unit 134, switch input unit 142, DC for supplying power / DC converter 117 is connected, and CMOS sensor control unit 107 and further CMOS sensor 106 are connected to image processing unit 108. The CMOS sensor 106 has about 10 million effective pixels (3888 × 2592 pixels).

レンズ駆動部131は、既知の電磁モータ、超音波モータ等の駆動源、これらの駆動源を制御するドライバ回路、レンズの位置を検出するエンコーダ装置等から構成されている。ズーム制御およびピント制御では、撮影レンズ105の光軸方向の位置がレンズ駆動部131により制御される。また、防振制御では、撮影レンズ105の光軸と直交する方向の位置がレンズ駆動部131により制御される。カメラ外装背面部に設けられた外部表示部113はCMOSセンサ106にて撮像された画像を表示することのできるTFT方式カラー液晶である。画像表示制御部111は、CMOSセンサ106にて撮像された静止画像、動画像の外部表示部113への表示の駆動を行っている。また、DC/DCコンバータ117には電池116から電源が供給されている。   The lens driving unit 131 includes a driving source such as a known electromagnetic motor and ultrasonic motor, a driver circuit that controls these driving sources, an encoder device that detects the position of the lens, and the like. In zoom control and focus control, the lens driving unit 131 controls the position of the photographing lens 105 in the optical axis direction. In the image stabilization control, the lens driving unit 131 controls the position of the photographing lens 105 in the direction orthogonal to the optical axis. The external display unit 113 provided on the camera exterior back surface is a TFT color liquid crystal capable of displaying an image captured by the CMOS sensor 106. The image display control unit 111 drives display of still images and moving images captured by the CMOS sensor 106 on the external display unit 113. Further, the DC / DC converter 117 is supplied with power from the battery 116.

CPU101はROM102内の制御プログラムに基づいて各種制御を行う。これらの制御の中には、画像処理部108から出力された撮影画像信号を読み込み、RAM103へ転送を行う処理、同様にRAM103より画像表示制御部111へデータを転送する処理、また画像データをJPEG圧縮し、ファイル形式でデータ格納手段104へ格納する処理がある。動画データの場合も同様な処理を経て、MOV形式のファイルに圧縮され、データ格納手段104へ格納される。さらにCPU101は、CMOSセンサ106、CMOSセンサ制御部107、画像処理部108、画像表示制御部111などに対してデータ取り込み画素数やデジタル画像処理の変更指示を行う。   The CPU 101 performs various controls based on a control program in the ROM 102. Among these controls, the captured image signal output from the image processing unit 108 is read and transferred to the RAM 103, the data is similarly transferred from the RAM 103 to the image display control unit 111, and the image data is converted to JPEG. There is a process of compressing and storing the data in the data storage means 104 in a file format. In the case of moving image data, the same processing is performed to compress it into a MOV format file and store it in the data storage means 104. Further, the CPU 101 instructs the CMOS sensor 106, the CMOS sensor control unit 107, the image processing unit 108, the image display control unit 111, and the like to change the number of data fetching pixels and digital image processing.

焦点検出制御部119はCMOSセンサ106の出力をもとに、撮影レンズ105を動かしながら明暗差(コントラスト)が大きなところを探して焦点調整を行う。CMOSセンサ106は、ラインセンサを含んだ焦点検出制御部119であり、ラインセンサから得た電圧をA/D変換し、CPU101に送る。またCPU101の指示のもとに、ラインセンサの蓄積時間とAGC(オートゲインコントロール)の制御も行う。また、レリーズ釦114(不図示)の操作に伴う撮影動作の指示、各素子への電源供給をコントロールするための制御信号をDC/DCコンバータ117に対して出力する等の様々な処理もCPU101の制御の基に行われている。   Based on the output of the CMOS sensor 106, the focus detection control unit 119 searches the place where the contrast (contrast) is large while moving the photographing lens 105 and performs focus adjustment. The CMOS sensor 106 is a focus detection control unit 119 including a line sensor, A / D-converts the voltage obtained from the line sensor, and sends it to the CPU 101. Under the instruction of the CPU 101, the line sensor accumulation time and AGC (auto gain control) are also controlled. Further, the CPU 101 also performs various processes such as an instruction for a photographing operation associated with an operation of a release button 114 (not shown) and a control signal for controlling power supply to each element to the DC / DC converter 117. It is based on control.

RAM103は画像展開エリア103a、ワークエリア103b、VRAM103c、一時退避エリア103dを備えている。画像展開エリア103aは、画像処理部108より送られてきた撮像画像(YUVデジタル信号)やデータ格納手段104から読み出されたJPEG圧縮画像データを一時的に格納するためのテンポラリバッファとして、または画像圧縮処理、解凍処理のための画像専用ワークエリアとして使用される。ワークエリア103bは各種プログラムのためのワークエリアである。VRAM103cは外部表示部113へ表示する表示データを格納するVRAMとして使用される。   The RAM 103 includes an image development area 103a, a work area 103b, a VRAM 103c, and a temporary save area 103d. The image development area 103a is a temporary buffer for temporarily storing a captured image (YUV digital signal) sent from the image processing unit 108 or JPEG compressed image data read from the data storage unit 104, or an image Used as an image-dedicated work area for compression processing and decompression processing. The work area 103b is a work area for various programs. The VRAM 103 c is used as a VRAM that stores display data to be displayed on the external display unit 113.

また、一時退避エリア103dは各種データを一時退避させるためのエリアである。データ格納手段104は、CPU101によりJPEG圧縮された撮像画像データ、あるいはMOV形式動画像データをファイル形式で格納しておくためのフラッシュメモリである。CMOSセンサ106は、CPU101からの解像度変換指示に従って、水平方向および垂直方向の間引き画素データの出力が可能である。   The temporary save area 103d is an area for temporarily saving various data. The data storage means 104 is a flash memory for storing captured image data or MOV format moving image data compressed by JPEG by the CPU 101 in a file format. The CMOS sensor 106 can output thinned pixel data in the horizontal direction and the vertical direction in accordance with a resolution conversion instruction from the CPU 101.

CMOSセンサ制御部107は、CMOSセンサ106に転送クロック信号やシャッタ信号を供給するためのタイミングジェネレータ、CMOSセンサ出力信号のノイズ除去、ゲイン処理を行うための回路、さらに、アナログ信号を10ビットデジタル信号に変換するためのA/D変換回路を有しており、さらには外部表示部113にライブビュー表示、および動画撮影を行うために、CPU101からの解像度変換指示に従って、画素間引き処理を行うための回路等を含んでいる。   The CMOS sensor control unit 107 is a timing generator for supplying a transfer clock signal and a shutter signal to the CMOS sensor 106, a circuit for performing noise removal and gain processing of the CMOS sensor output signal, and an analog signal as a 10-bit digital signal. An A / D conversion circuit for converting the image into a pixel, and further, for performing live view display and moving image shooting on the external display unit 113, in order to perform pixel thinning processing in accordance with a resolution conversion instruction from the CPU 101 Includes circuits and so on.

また画像処理部108は、CMOSセンサ制御部107より出力された10ビットデジタル信号をガンマ変換、色空間変換、また、ホワイトバランス、露出調整、フラッシュ補正等の画像処理を行い、YUV(4:2:2)フォーマットの8ビットデジタル信号出力を行うものである。これら撮影レンズ105、CMOSセンサ106、CMOSセンサ制御部107、画像処理部108から撮像手段が構成されている。画像表示制御部111は、画像処理部108から転送されたYUVデジタル画像データ、あるいはデータ格納手段104の画像ファイルに対してJPEGの解凍を行ったYUVデジタル画像データを受け取り、RGBデジタル信号へ変換した後、外部表示部113へ出力する処理を行う。   The image processing unit 108 performs gamma conversion, color space conversion, white balance, exposure adjustment, flash correction, and other image processing on the 10-bit digital signal output from the CMOS sensor control unit 107, and YUV (4: 2). : 2) Outputs 8-bit digital signal in the format. The photographing lens 105, the CMOS sensor 106, the CMOS sensor control unit 107, and the image processing unit 108 constitute an imaging unit. The image display control unit 111 receives the YUV digital image data transferred from the image processing unit 108 or the YUV digital image data obtained by performing JPEG decompression on the image file in the data storage unit 104, and converts it into an RGB digital signal. Thereafter, a process of outputting to the external display unit 113 is performed.

情報表示制御部133は、カメラに設定された撮影モードにおけるカメラのシャッタ秒時(TV値)、撮影レンズ105の絞り制御値(AV値)等の表示不図示のファインダ画面外(下部)に表示する液晶パネルからなる内部表示部301の制御を行う。ここで、CPU101は、求めた絞り値でレンズ絞りの開口を調整させる。また、CPU101は、求めたシャッタ秒時でシャッタ制御部134を介してシャッタ100を駆動させる。   The information display control unit 133 displays the camera shutter time (TV value) in the shooting mode set for the camera, such as the aperture control value (AV value) of the shooting lens 105, outside the viewfinder screen (not shown) (not shown). The internal display unit 301 composed of a liquid crystal panel is controlled. Here, the CPU 101 adjusts the aperture of the lens aperture with the obtained aperture value. Further, the CPU 101 drives the shutter 100 via the shutter control unit 134 at the obtained shutter time.

一方、PNLCD300はファインダ視野内に複数設けられる焦点検出領域や測光領域を示すマークや、文字や記号等をピント板120上に形成された被写体像に重畳表示する。レリーズ釦114は、撮影動作の開始を指示するためのものである。このレリーズ釦114は不図示のカメラ操作部材である。   On the other hand, the PNLCD 300 superimposes and displays marks, characters, symbols, and the like indicating focus detection areas and photometry areas provided in the viewfinder field on the subject image formed on the focus plate 120. The release button 114 is for instructing the start of the photographing operation. The release button 114 is a camera operation member (not shown).

これは、レリーズ釦114の押下圧によって2段階のスイッチポジションを有しており、1段目のポジション(第1のレリーズスイッチ ON)の検出で、ホワイトバランス、測光等のカメラ設定のロック動作が行われ、2段目のポジション(第2のレリーズスイッチ ON)の検出で、被写体画像信号の取り込み動作が行われる。測光制御部132は、CPU101の指示に従って、撮像素子からなる測光センサ125を駆動制御し、被写体輝度信号を取り込み、CPU101にデータを送る。CPU101は、これらの情報に基づいてカメラの最適露出演算を行い、カメラのシャッタスピード、撮影レンズ105の絞りを最適に制御することでカメラは最適な露光を得ることができる。   This has a two-stage switch position depending on the pressing pressure of the release button 114, and the camera setting lock operation such as white balance and photometry can be performed by detecting the first-stage position (first release switch ON). When the second stage position (second release switch ON) is detected, the subject image signal capturing operation is performed. The photometry control unit 132 controls driving of the photometry sensor 125 including an image sensor in accordance with an instruction from the CPU 101, takes in a subject luminance signal, and sends data to the CPU 101. The CPU 101 performs an optimum exposure calculation of the camera based on these pieces of information, and the camera can obtain an optimum exposure by optimally controlling the shutter speed of the camera and the aperture of the photographing lens 105.

また116はリチャージャブルの2次電池あるいは乾電池であり、DC/DCコンバータ117は、電池116からの電源供給を受け、昇圧、レギュレーションを行うことにより複数の電源を作り出し、CPU101を初めとする各素子に必要な電圧の電源を供給している。このDC/DCコンバータ117は、CPU101からの制御信号により、各々の電圧供給の開始、停止を制御できるようになっている。   Reference numeral 116 denotes a rechargeable secondary battery or a dry battery. A DC / DC converter 117 receives a power supply from the battery 116 and generates a plurality of power supplies by boosting and regulating the power supply to each element including the CPU 101. The power supply of the necessary voltage is supplied. The DC / DC converter 117 can control the start and stop of each voltage supply by a control signal from the CPU 101.

姿勢検知部115は、マイクロメカニクス技術を用いた小型なセンサとして加速度センサを用いている。これは、静電容量変化を用いて加速度を検知する方法である。姿勢検知部115の構成は、シリコン基板の上に電極とカンチレバーがマイクロファブリケーションにより形成されている。カンチレバーは酸化膜から成り、上面に金属電極が形成され、先端に設けた錘りにより加速度に対する感度が高められるようになっている。
移動ベクトル算出部150はCPU101で後述する背景特異点の移動ベクトルを算出する。
The posture detection unit 115 uses an acceleration sensor as a small sensor using micromechanics technology. This is a method of detecting acceleration using a change in capacitance. In the configuration of the posture detection unit 115, an electrode and a cantilever are formed on a silicon substrate by microfabrication. The cantilever is made of an oxide film, and a metal electrode is formed on the upper surface. The sensitivity to acceleration is enhanced by a weight provided at the tip.
The movement vector calculation unit 150 calculates a movement vector of a background singular point described later by the CPU 101.

角度算出部110はCPU101で後述する背景特異点の移動ベクトルとカメラ水平方向がなす角度を算出する。この結果は、観察者が光学ビューファインダ(以降、OVFと称する)を用いているときにはPNLCD300上に角度結果表示部122として表示し、ライブビュー撮影あるいは動画撮影のときは外部表示部113上に表示する。背景特異点を抽出する特異点抽出部106、125はCMOSセンサ106あるいは測光センサ125のどちらか一方であり、主ミラー123が退避しているときはCMOSセンサ106で行い、主ミラー123がダウンしているときは測光センサ125で行う。以上が一眼レフカメラにおける、電気ブロック図による動作説明である。   The angle calculation unit 110 calculates an angle formed by a movement vector of a background singular point, which will be described later, and the camera horizontal direction by the CPU 101. This result is displayed on the PNLCD 300 as the angle result display unit 122 when the observer uses an optical viewfinder (hereinafter referred to as OVF), and is displayed on the external display unit 113 during live view shooting or moving image shooting. To do. The singular point extraction units 106 and 125 for extracting the background singular point are either the CMOS sensor 106 or the photometric sensor 125. When the main mirror 123 is retracted, the detection is performed by the CMOS sensor 106, and the main mirror 123 is lowered. If so, the photometric sensor 125 is used. The above is the description of the operation of the single-lens reflex camera using the electric block diagram.

次に、上記構成を有するデジタル一眼レフカメラにおける本撮影前の撮像シーケンスを図3のフローチャートを用いて説明する。撮影時にレリーズ釦114が半押し状態になると、カメラの振れ検出が行われる(S1)。検出された振れ量が所定の閾値:aより小さいときは、無視が可能な振れ量であるとCPU101が判断して補正処理なしで撮影を行う(S2)。検出された振れ量が閾値:aより大きい場合には、更に閾値:aより大きい閾値:bを越える振れ量であるか否かが判定される(S3)。振れ量が閾値:bより小さいときには、無視できない手振れであるとCPU101は判定し、手振れ補正を行う(S4)。   Next, an imaging sequence before actual photographing in the digital single-lens reflex camera having the above configuration will be described with reference to a flowchart of FIG. When the release button 114 is half-pressed during shooting, camera shake is detected (S1). When the detected shake amount is smaller than the predetermined threshold value a, the CPU 101 determines that the shake amount is negligible and performs shooting without correction processing (S2). If the detected shake amount is greater than the threshold value: a, it is further determined whether or not the shake amount is greater than the threshold value: a threshold value: b (S3). When the shake amount is smaller than the threshold value b, the CPU 101 determines that the shake cannot be ignored, and performs shake correction (S4).

一方で、振れ量が閾値:bを越えるときは、パンニング撮影であるとCPU101が判定し、図4で後述するパンニング補正を行い(S5)、撮影を行う(S6)。即ち、閾値:aは、手振れ補正が必要な振れ量の下限であり、閾値:bは、手振れ補正が必要な振れ状態の上限である。そして、振れ量が閾値:bを越えるときは、撮影者はパンニング撮影を実行していると判断する。   On the other hand, when the shake amount exceeds the threshold value b, the CPU 101 determines that panning shooting is performed, performs panning correction described later in FIG. 4 (S5), and performs shooting (S6). That is, the threshold value “a” is the lower limit of the shake amount that needs to be corrected, and the threshold value “b” is the upper limit of the shake state that needs to be corrected. When the shake amount exceeds the threshold value b, the photographer determines that panning shooting is being performed.

次に、図4のパンニング補正に関するフローチャートを説明する。図3のS5でパンニング補正が必要であると判定されると、重力加速度以外の加速度を有しているのか、つまり、パンニング方向の加速度を有しているのかを姿勢検知部115で判別する(S7)。
ここで、重力加速度以外の加速度を有している例を、図5を用いて説明する。
Next, the flowchart regarding the panning correction of FIG. 4 will be described. If it is determined in S5 of FIG. 3 that panning correction is necessary, the posture detection unit 115 determines whether the vehicle has acceleration other than gravitational acceleration, that is, whether it has acceleration in the panning direction ( S7).
Here, an example having acceleration other than gravitational acceleration will be described with reference to FIG.

例えば、カメラを手持ちでパンニング撮影しようとしている撮影者がいる。撮影者は静止した状態から、身体の向きだけを動かすことで、等速運動している被写体をパンニング撮影した場合を想定する。動き始めたAB区間では加速度を有している一方で、被写体の速度に追いついたBC区間では加速度を有さない。さらに時間が進み、撮影者がパンニング撮影を終えようとするCD区間になると、加速度は、AB区間とは逆方向に発生する。   For example, there is a photographer who is trying to perform panning shooting with a camera in hand. It is assumed that the photographer pans the subject moving at a constant speed by moving only the body direction from a stationary state. The AB section that has started to move has acceleration, while the BC section that has caught up with the speed of the subject has no acceleration. When the time further advances and the CD section in which the photographer is about to finish panning shooting is reached, acceleration occurs in the opposite direction to the AB section.

図4の説明に戻る。重力加速度以外の加速度をカメラが有していないと判別された場合、つまりBC区間では、パンニング撮影を行っても姿勢検知部115が誤検知しないので、姿勢検知部115の結果を角度結果表示部122に表示する(S8)。角度結果表示部122に表示されるのは、図6に示すように一点破線がカメラ水平方向の線を示し、ドット表示の点線は重力に対する法線を示す。角度結果表示部122は、OVF撮影の場合PNLCD300の一領域であり、ライブビューファインダー撮影や動画撮影の場合は外部表示部113の表示の一部である。このときのカメラに作用している力の成分は、図7に示す通り、重力のみである。また、カメラが傾いている角度は図6の一点破線とドット表示の点線がなす角度である。   Returning to the description of FIG. When it is determined that the camera has no acceleration other than the gravitational acceleration, that is, in the BC section, the posture detection unit 115 does not detect erroneously even if panning shooting is performed, so the result of the posture detection unit 115 is displayed as an angle result display unit. It is displayed on 122 (S8). As shown in FIG. 6, the one-dot broken line indicates a horizontal line in the camera, and the dotted dotted line indicates a normal line with respect to gravity. The angle result display unit 122 is an area of the PNLCD 300 in the case of OVF shooting, and is a part of the display of the external display unit 113 in the case of live viewfinder shooting or moving image shooting. The force component acting on the camera at this time is only gravity as shown in FIG. The angle at which the camera is tilted is the angle formed by the one-dot broken line in FIG. 6 and the dotted dotted line.

一方で、重力加速度以外の加速度を有していない場合、つまりAB、CD区間では、姿勢検知部115が誤検知するので姿勢検知部115の結果は、角度結果表示部122に表示せずにS9に進み、移動ベクトル算出部150で背景特異点の移動ベクトルを算出する(背景特異点の移動ベクトル算出方法については後述する)。ここで仮に、姿勢検知部115におけるAB区間(図5)の結果を角度結果表示部122に表示すると、図8に示すようになってしまう。ここで図8は、一点破線がカメラに水平な線を示し、ドット表示の点線は重力と慣性力の合成ベクトルに対する法線を示している。図9は、図8で用いた重力と慣性力の合成ベクトルをわかりやすくした説明図であり、慣性力は加速度と反対方向に発生している。   On the other hand, when there is no acceleration other than gravitational acceleration, that is, in the AB and CD sections, the posture detection unit 115 makes a false detection, so the result of the posture detection unit 115 is not displayed on the angle result display unit 122 but S9. Then, the movement vector calculation unit 150 calculates the movement vector of the background singularity (a method for calculating the movement vector of the background singularity will be described later). Here, if the result of the AB section (FIG. 5) in the posture detection unit 115 is displayed on the angle result display unit 122, the result is as shown in FIG. Here, in FIG. 8, the one-dot broken line indicates a line horizontal to the camera, and the dotted dotted line indicates a normal line with respect to the combined vector of gravity and inertial force. FIG. 9 is an explanatory diagram in which the combined vector of gravity and inertial force used in FIG. 8 is easy to understand, and the inertial force is generated in the direction opposite to the acceleration.

また、同様に図10は加速度が図5のCD区間における姿勢検知部115の結果である。一点破線がカメラに水平な線を示し、ドット表示の点線は重力と慣性力の合成ベクトルの法線を示している。図10は、図9で用いた重力と慣性力の合成ベクトルをわかりやすくした説明図であり、慣性力は加速度と反対方向に発生している。   Similarly, FIG. 10 shows the result of the posture detection unit 115 in which the acceleration is in the CD section of FIG. A one-dot broken line indicates a line horizontal to the camera, and a dotted dotted line indicates a normal line of a combined vector of gravity and inertial force. FIG. 10 is an explanatory diagram in which the combined vector of gravity and inertial force used in FIG. 9 is easy to understand, and the inertial force is generated in the direction opposite to the acceleration.

尚、図8と図10の一点破線とドット表示の点線がなす角度はカメラの傾きを示さない水準器の誤表示にあたる。角度算出部110は、背景特異点の移動ベクトルと測光センサ125の座標値からカメラの傾き角度を算出する(S10)。この角度算出部110の結果を、角度結果表示部122に表示することで、撮影者にカメラが傾いている角度を報知する(S11)。以上が、パンニング補正に関するフローチャートである。   The angle formed by the one-dot broken line in FIG. 8 and FIG. 10 and the dotted line of dot display corresponds to an erroneous display of a level that does not indicate the tilt of the camera. The angle calculation unit 110 calculates the tilt angle of the camera from the movement vector of the background singular point and the coordinate value of the photometric sensor 125 (S10). By displaying the result of the angle calculation unit 110 on the angle result display unit 122, the photographer is notified of the angle at which the camera is tilted (S11). The above is a flowchart regarding panning correction.

次に、背景特異点の抽出条件や追尾方法について説明する。撮像素子は、1つの撮像画から少なくとも2つ以上の背景特異点を見つける。更には、撮像画が更新されるごとに常に背景特異点も更新される。この理由は、仮に背景特異点が1つであると、背景特異点が撮像領域から切れたときに背景特異点の移動ベクトルを連続して更新できないからである。主被写体と背景とを分離して背景特異点を抽出する方法は、例えば、特開2000−23036に示されたように、各フレームを任意の大きさの領域に分割し、各領域内の画素データ毎に、画素データが目的とする被写体が含まれている確率を示す分布情報を作成し、分布情報に基づいて、画像中の各被写体を段階的に判別すればよい。   Next, background singularity extraction conditions and tracking methods will be described. The imaging element finds at least two or more background singularities from one captured image. Furthermore, the background singularity is always updated whenever the captured image is updated. This is because if the number of background singularities is one, the movement vector of the background singularities cannot be continuously updated when the background singularities are cut off from the imaging region. A method for extracting a background singularity by separating a main subject and a background is, for example, as shown in Japanese Patent Laid-Open No. 2000-23036, in which each frame is divided into regions of an arbitrary size and pixels in each region are extracted. For each piece of data, distribution information indicating the probability that the target object is included in the pixel data may be created, and each subject in the image may be determined step by step based on the distribution information.

次に、背景特異点の移動ベクトル算出方法を、図12、図13を用いて説明する。図12は右方向に進んでいる被写体Xを撮像する際のパンニング開始位置であり、図13はそのパンニング終了位置である。パンニング撮影故、画面中央に必ず主被写体Xがいる図になっている。   Next, a method for calculating the movement vector of the background singularity will be described with reference to FIGS. FIG. 12 shows the panning start position when imaging the subject X traveling rightward, and FIG. 13 shows the panning end position. Because of panning shooting, the main subject X is always in the center of the screen.

図12における背景特異点aとbは、それぞれ図13の背景特異点a’とb’の位置に移動している。そのときの背景特異点aとbの座標をCPU101に記憶し、それぞれを追尾した後、背景特異点a’とb’の座標も記憶する。ここでの背景特異点はそれぞれドットで示したエッジ端部とする。その後、移動ベクトル算出部150で移動ベクトル   Background singular points a and b in FIG. 12 have moved to the positions of background singular points a ′ and b ′ in FIG. 13, respectively. The coordinates of the background singular points a and b at that time are stored in the CPU 101, and after tracking each, the coordinates of the background singular points a 'and b' are also stored. The background singularities here are edge ends indicated by dots, respectively. Thereafter, the movement vector calculation unit 150 moves the movement vector.

を算出し、同様に移動ベクトル As well as the movement vector

も算出する。ここで、 Is also calculated. here,

When

の平均ベクトルが背景特異点の移動ベクトルであるので、以下の式が成り立つ。 Since the average vector is a movement vector of the background singularity, the following equation is established.

以上は背景特異点が2つのときに該当するが、図12における、aあるいはbのみでも移動ベクトルの算出は可能である。その際には、図13ではa’あるいはb’のみとなる。しかし、背景特異点の数は多い方が移動ベクトルの精度は向上する。また、背景特異点がn個あるときは、前述の式は The above applies to the case where there are two background singularities, but the movement vector can be calculated using only a or b in FIG. In that case, only a 'or b' is shown in FIG. However, as the number of background singularities is larger, the accuracy of the movement vector is improved. When there are n background singularities, the above equation is

になる。次に、カメラの傾き角度算出方法について説明する。 become. Next, a camera tilt angle calculation method will be described.

図14は撮像素子受光部の外形を座標系で示した図である。図14に示すように撮像素子の座標(0,0)と(x,0)を結んだ線、乃至は、(0,y)と(x,y)を結んだ線のようにカメラ水平方向の線、あるいはカメラ鉛直方向の線を基準線とする。この基準線と移動ベクトルのなす角度を、角度算出部110が算出する。ここで、撮影者がパンニング撮影する際、横方向へのパンニングあるいは縦方向へのパンニングが最も使用頻度が多いと考えられる。なぜなら、電車や自動車など動く被写体をパンニングするのは正面向かってすることが多く、撮影者から見ると電車や自動車は水平方向に移動しているからである。   FIG. 14 is a diagram showing the outer shape of the image sensor light receiving unit in a coordinate system. As shown in FIG. 14, the horizontal direction of the camera is a line connecting the coordinates (0,0) and (x, 0) of the image sensor or a line connecting (0, y) and (x, y). Or the vertical line of the camera is used as the reference line. The angle calculation unit 110 calculates an angle formed by the reference line and the movement vector. Here, when the photographer performs panning photographing, it is considered that horizontal panning or vertical panning is most frequently used. This is because panning a moving subject such as a train or a car is often directed toward the front, and when viewed from the photographer, the train or car is moving in the horizontal direction.

よって、移動ベクトル算出部150によって算出される移動ベクトルは、横方向へのパンニングあるいは縦方向へのパンニングとすれば、一般的な被写体は対応できる。そうすることで、地上の水平線あるいは水平線の法線と移動ベクトルが同じ方向になり、角度算出部によってカメラの傾いている角度を算出することができる。その後、基準線と移動ベクトルのなす角度を角度算出部110が算出し、その結果を角度結果表示部122に表示する。   Therefore, if the movement vector calculated by the movement vector calculation unit 150 is panning in the horizontal direction or panning in the vertical direction, a general subject can be handled. By doing so, the horizontal line on the ground or the normal line of the horizontal line and the movement vector are in the same direction, and the angle at which the camera is tilted can be calculated by the angle calculation unit. Thereafter, the angle calculation unit 110 calculates an angle formed by the reference line and the movement vector, and displays the result on the angle result display unit 122.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

106 CMOSセンサ、110 角度算出部、113 外部表示部、
115 姿勢検知部、122 角度結果表示部、125 測光センサ、
150 移動ベクトル算出部、300 PNLCD
106 CMOS sensor, 110 angle calculation unit, 113 external display unit,
115 posture detection unit, 122 angle result display unit, 125 photometric sensor,
150 Movement vector calculation unit, 300 PNLCD

Claims (5)

本撮影前の少なくとも2枚以上の異なる連続撮像画において、背景特異点を抽出する特異点抽出部(106)、(125)と、前記背景特異点の移動ベクトルを検出する移動ベクトル算出部(150)と、前記移動ベクトルの傾き角度を算出する角度算出部(110)と、カメラの傾き角度を表示する角度結果表示部(122)を有することを特徴とする撮像装置。   Singular point extraction units (106) and (125) for extracting background singularities and a movement vector calculation unit (150) for detecting a movement vector of the background singular points in at least two different continuous captured images before the main photographing. ), An angle calculation unit (110) for calculating the tilt angle of the movement vector, and an angle result display unit (122) for displaying the tilt angle of the camera. 前記角度結果表示部(122)は、重力加速度以外の加速度を有するときは、角度算出部(110)の結果を表示し、重力加速度以外の加速度を有さないときは、姿勢検知部(115)の結果を表示することを特徴とする請求項1に記載の撮像装置。   The angle result display unit (122) displays the result of the angle calculation unit (110) when it has an acceleration other than gravitational acceleration, and the posture detection unit (115) when it has no acceleration other than gravitational acceleration. The image pickup apparatus according to claim 1, wherein the result is displayed. 前記特異点抽出部(106)、(125)は、被写体におけるエッジ部のコントラスト値がある閾値以上のとき、背景特異点とすることを特徴とする請求項1又は請求項2に記載の撮像装置。   The imaging device according to claim 1 or 2, wherein the singular point extraction units (106) and (125) use a background singular point when the contrast value of the edge portion of the subject is equal to or greater than a certain threshold value. . 前記特異点抽出部(106)、(125)は、背景特異点のコントラスト値を含めた色情報を基に、焦点検出制御部(119)と連動して背景特異点を追尾しており、前記移動ベクトル算出部(150)は、追尾前後における背景特異点の座標値から算出することを特徴とする請求項1又は請求項2に記載の撮像装置。   The singular point extraction units (106) and (125) track a background singular point in conjunction with the focus detection control unit (119) based on color information including the contrast value of the background singular point, The imaging apparatus according to claim 1 or 2, wherein the movement vector calculation unit (150) calculates the coordinate values of background singularities before and after tracking. 前記角度算出部(110)は、前記移動ベクトルとカメラ水平方向あるいは鉛直方向とがなす角度を算出することを特徴とする請求項1又は請求項2に記載の撮像装置。   The imaging apparatus according to claim 1 or 2, wherein the angle calculation unit (110) calculates an angle formed by the movement vector and a camera horizontal direction or a vertical direction.
JP2014239871A 2014-11-27 2014-11-27 Level of optical equipment Pending JP2016103682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014239871A JP2016103682A (en) 2014-11-27 2014-11-27 Level of optical equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014239871A JP2016103682A (en) 2014-11-27 2014-11-27 Level of optical equipment

Publications (1)

Publication Number Publication Date
JP2016103682A true JP2016103682A (en) 2016-06-02

Family

ID=56089368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014239871A Pending JP2016103682A (en) 2014-11-27 2014-11-27 Level of optical equipment

Country Status (1)

Country Link
JP (1) JP2016103682A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081124A (en) * 2016-11-14 2018-05-24 キヤノン株式会社 Image processor, imaging apparatus, and control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081124A (en) * 2016-11-14 2018-05-24 キヤノン株式会社 Image processor, imaging apparatus, and control method
JP7118585B2 (en) 2016-11-14 2022-08-16 キヤノン株式会社 Image processing device, imaging device and control method

Similar Documents

Publication Publication Date Title
US10827127B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
US8692888B2 (en) Image pickup apparatus
US9019387B2 (en) Imaging device and method of obtaining image
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
US10205878B2 (en) Image processing apparatus, image-capturing apparatus, image processing method, and non-transitory computer-readable storage medium
US20160191810A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP5720275B2 (en) Imaging apparatus and imaging method
US10148889B2 (en) Image processing apparatus and control method thereof, image capturing apparatus and storage medium
JP2006211139A (en) Imaging apparatus
JP6518452B2 (en) Imaging apparatus and imaging method
JP5210843B2 (en) Imaging device
US10827124B2 (en) Shake correction device, imaging apparatus, and shake correction method
JP2008090059A (en) Imaging apparatus and autofocus control method therefor
JP6172973B2 (en) Image processing device
US11704818B2 (en) Motion vector calculation device, imaging device, and motion vector calculation method
JP2016103682A (en) Level of optical equipment
JP2011048265A (en) Focus detection device and focus detection method
CN105991910B (en) Image pickup apparatus and control method thereof
JP2007028163A (en) Display device of electronic camera
JP5251600B2 (en) Electronic camera
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
US20230162707A1 (en) Imaging apparatus, method of controlling imaging apparatus, and program
JP2010122358A (en) Autofocus device, autofocus method, and imaging apparatus
JP2016178610A (en) Imaging device, control method and program therefor
JP2019193176A (en) Imaging apparatus