JP2012253451A - Imaging device and program - Google Patents

Imaging device and program Download PDF

Info

Publication number
JP2012253451A
JP2012253451A JP2011122666A JP2011122666A JP2012253451A JP 2012253451 A JP2012253451 A JP 2012253451A JP 2011122666 A JP2011122666 A JP 2011122666A JP 2011122666 A JP2011122666 A JP 2011122666A JP 2012253451 A JP2012253451 A JP 2012253451A
Authority
JP
Japan
Prior art keywords
imaging
posture
calculated
motion vector
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011122666A
Other languages
Japanese (ja)
Inventor
Fumio Nihei
文雄 仁平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011122666A priority Critical patent/JP2012253451A/en
Publication of JP2012253451A publication Critical patent/JP2012253451A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device and a program that switches and uses either an output result from a triaxial gyro sensor or a calculation result of a motion vector according to a focal length, and display a guide image for allowing a user to reset a modified imaging posture to an original imaging posture.SOLUTION: An imaging posture information calculation unit 102 calculates the amount of displacement of an imaging posture of an imaging device 1 as imaging posture information on the basis of angular velocities detected by sensor units 401, 402, and 403 that detect angular velocities of rotations in triaxial orientations if a focal length is less than a predetermined value, or on the basis of a motion vector calculated by a motion vector calculation unit 101 if the focal length is the predetermined value or more. A guide information calculation unit 103 calculates guide information that allows a user to reset the imaging posture of the imaging device 1, and a display unit 305 displays a guide image generated on the basis of the guide information.

Description

本発明は撮像装置及びプログラムに関し、より詳細には、ユーザが撮像装置の撮像姿勢を変更して変更前と異なる被写体を撮像した場合に、撮像の焦点距離に応じて3軸のセンサ部の出力結果又は動きベクトルの算出結果の何れかを切り換えて使用して、変更前の元の撮像姿勢に戻すためのガイド画像を生成する撮像装置及びプログラムに関する。   The present invention relates to an imaging device and a program, and more specifically, when a user changes the imaging posture of the imaging device and images a subject different from that before the change, the output of the triaxial sensor unit according to the focal length of the imaging The present invention relates to an imaging apparatus and a program for generating a guide image for switching back to the original imaging posture before change by using either a result or a motion vector calculation result.

デジタルビデオカメラ等の撮像装置による撮像において、ユーザがその撮像装置の向きを変更して変更前とは異なる被写体を撮像した後、その撮像装置の備えるモニタに表示される画像だけを頼りに、その撮像装置の向きを元に戻して、向きを変更する前に撮像していた被写体の撮像を再開することは一般的に難しいことが多い。   In imaging by an imaging device such as a digital video camera, after the user changes the orientation of the imaging device and images a subject different from the one before the change, only relying on the image displayed on the monitor included in the imaging device, In many cases, it is generally difficult to restore the orientation of the imaging device to the original state and resume imaging of the subject that was imaged before the orientation was changed.

各種レンズを介して取得され、モニタに表示される撮像画像の視野は、ユーザの肉眼の視野よりもはるかに狭い画角の範囲内に限られるためである。この限られた視野の中で、ユーザが撮像装置の向きを戻すには、元の被写体の周辺に存在する被写体や風景、又は撮像装置の向きを変更する過程で撮像された被写体とそれらの位置関係をユーザ自身が記憶しておき、モニタに順次表示されていく各種被写体画像を注意深く観察しながら、元の被写体画像が表示されるまでパンやチルトを行わなければならない。   This is because the field of view of the captured image acquired through various lenses and displayed on the monitor is limited to a range of an angle of view that is much narrower than that of the user's naked eye. In this limited field of view, in order for the user to return the orientation of the imaging device, the subject or landscape existing around the original subject, or the subject imaged in the process of changing the orientation of the imaging device and their positions The user himself / herself remembers the relationship, and while carefully observing various subject images sequentially displayed on the monitor, panning and tilting must be performed until the original subject image is displayed.

具体的な例として、運動会でユーザが我が子を撮像している場合であって、撮像の最中に一旦別の被写体、例えばユーザの知り合いの子供の方に撮像装置を向けてその知り合いの子供を撮像した後、再び撮像装置を我が子の方に向けて、我が子の撮像を再開する場合を説明する。この場合、ユーザが撮像装置の向きを戻すには、我が子の周辺で撮像されていた別の子供や旗等の風景とそれらの我が子との位置関係を記憶しておき、モニタ上に順次表示されていくそれらの画像等を注意深く確認しながら撮像装置パン又はチルトしていくことになる。   As a specific example, when a user is taking an image of a child at an athletic meet, the imaging device is pointed toward another subject, for example, a child of an acquaintance of the user, and the acquaintance of the acquaintance A case will be described in which after imaging a child, the imaging apparatus is directed toward the child again and imaging of the child is resumed. In this case, in order for the user to return the orientation of the imaging device, the positional relationship between another child or a landscape such as a flag that has been imaged around my child and their child is stored on the monitor. Then, the image pickup apparatus pans or tilts while carefully checking the images displayed sequentially.

ここで、我が子と周囲の子供が同じ体操服を着ている等、元の被写体とその被写体の周辺で撮像されていた被写体の区別がしづらい場合は、撮像装置の向きを戻す作業はさらに難しいものとなる。また、我が子を遠くから撮像しており、高いズーム倍率で撮像していた場合は、取得される画像の視野はさらに限られたものとなり、ますます撮像装置の向きを戻す作業はさらに難しいものとなる。   Here, when it is difficult to distinguish between the original subject and the subject imaged around the subject, such as when my child and the surrounding child are wearing the same gym clothes, the work to return the orientation of the imaging device is not Even more difficult. Also, if you are taking pictures of your child from a distance and taking images at a high zoom magnification, the field of view of the acquired image will be more limited, and the task of returning the orientation of the imaging device will be even more difficult It will be a thing.

従って、撮像装置の向きを戻すためのパンやチルトの動きがぎこちなくなり、撮像装置を向ける方向が我が子の方を行き過ぎてしまったり、モニタの確認に手間取りパンやチルトが間に合わず我が子の重要なシーンを撮り逃してしまったりすることもある。   Therefore, the pan and tilt movements for returning the orientation of the image pickup device become awkward, the direction in which the image pickup device is directed goes too far over my child, and the troublesome pan and tilt are not in time for checking the monitor. Sometimes I missed some important scenes.

上記のような問題を解決するために、例えば特許文献1には、振動ジャイロ素子から出力される水平方向及び垂直方向の角速度信号が積分回路にて積分され、その間の移動角情報が角変位量管理回路で符号反転されて初期のカメラアングルに戻すための移動指示ベクトル情報として管理され、その移動指示ベクトル情報がLCDの画面上にガイド情報として表示されることで、ユーザが元のカメラアングルに容易に戻すことができる撮影装置に関する技術が開示されている。   In order to solve the above problems, for example, in Patent Document 1, the angular velocity signals in the horizontal direction and the vertical direction output from the vibration gyro element are integrated by an integration circuit, and the movement angle information therebetween is the amount of angular displacement. It is managed as movement instruction vector information for which the sign is inverted by the management circuit and returned to the initial camera angle, and the movement instruction vector information is displayed as guide information on the LCD screen so that the user can restore the original camera angle. A technique relating to an imaging apparatus that can be easily returned is disclosed.

特開2006−5417号公報JP 2006-5417 A

しかし、上記特許文献1に記載の撮影装置では、水平方向及び垂直方向の2軸の角速度信号に基づきガイド情報を生成していることから、直交する2軸の動きに対してしか正確なガイド情報を生成できず、3軸回りで動きが生じる場合には正確なガイド情報が生成できないという問題の発生が推察される。   However, in the photographing apparatus described in Patent Document 1, guide information is generated based on the two-axis angular velocity signals in the horizontal direction and the vertical direction, and therefore accurate guide information is accurate only with respect to two orthogonal axes of movement. If the movement cannot be generated and movement occurs around the three axes, it is assumed that accurate guide information cannot be generated.

すなわち、例えばユーザがその撮影装置を三脚の雲台に固定して撮像を行う等の場合には正確なガイド情報を生成することができるが、ユーザがその撮影装置を手持ちして撮像を行う場合などには正確なガイド情報を生成できず、却ってユーザを混乱させてしまう可能性がある。また、ズーム倍率を大きくして長い焦点距離で撮像を行った場合には、振動ジャイロ素子の分解能が不足することで、正確なガイド情報を生成することができない可能性がある。   That is, for example, when the user captures an image with the imaging device fixed on a tripod head, accurate guide information can be generated. However, when the user performs imaging while holding the imaging device. For example, accurate guide information cannot be generated, and the user may be confused. Further, when imaging is performed at a long focal length with a large zoom magnification, there is a possibility that accurate guide information cannot be generated due to insufficient resolution of the vibrating gyro element.

さらには、一般に、角速度に基づく移動角情報における累積誤差が少なく、かつ分解能の高い振動ジャイロ素子は高額であり、かつサイズも大きいことから、上記特許文献1に記載の技術に基づき正確なガイド情報を生成するには、撮影装置が高額かつ大型化するという問題が生じることも併せて推察される。   Furthermore, in general, a vibration gyro element having a small cumulative error in moving angle information based on angular velocity and having a high resolution is expensive and has a large size. Therefore, accurate guide information based on the technique described in Patent Document 1 is used. It is also speculated that there is a problem that the photographing apparatus is expensive and large in size.

本発明はこのような問題に鑑みてなされたものであり、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のジャイロセンサの出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、手持ち撮像を行う場合等の3軸方向の動きが生じる場合であっても、ユーザが容易かつ正確に撮像姿勢を戻すことができる撮像装置及びプログラムを提供することを目的とする。   The present invention has been made in view of such problems. When a user generates a guide image to be displayed in order to return the imaging apparatus to the original imaging posture before the change, 3 is selected according to the focal length of the imaging. By switching between the output result of the axis gyro sensor or the calculation result of the motion vector, the user can easily and accurately move even in the case of movement in the three-axis direction, such as when performing hand-held imaging. An object of the present invention is to provide an imaging apparatus and program capable of returning the imaging posture.

また、本発明は、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のジャイロセンサの出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、分解能の低い低コストで小型なジャイロセンサでも、ユーザが容易かつ正確に撮像姿勢を戻すことができる撮像装置及びプログラムを提供することを目的とする。   Further, according to the present invention, when generating a guide image to be displayed for the user to return the imaging apparatus to the original imaging posture before the change, the output result or motion vector of the three-axis gyro sensor according to the focal length of the imaging It is an object of the present invention to provide an imaging device and a program that allow a user to easily and accurately return an imaging posture even if a small gyro sensor with low resolution and low cost is used by switching any of the calculation results of To do.

本発明は、上述した課題を解決するため、被写体を撮像し撮像画像を取得する撮像部(110)及び焦点距離を調整して前記撮像部(110)による撮像の倍率を調整する撮像倍率調整部(119)を備えた撮像装置(1)であって、前記撮像装置(1)の水平方向、垂直方向、及び傾き方向の回転の角速度を検出するセンサ部(401、402、403)と、前記撮像部(110)が取得した撮像画像の動きベクトルを算出する動きベクトル算出部(101)と、前記センサ部(401、402、403)が検出した前記角速度及び前記動きベクトル算出部(101)が算出した動きベクトルのそれぞれから、前記撮像装置(1)の第一の撮像姿勢と第二の撮像姿勢との間の変位量を撮像姿勢情報として算出する撮像姿勢情報算出部(102)と、前記撮像姿勢情報算出部(102)が算出した前記撮像姿勢情報から、ユーザが前記撮像装置(1)を前記第二の撮像姿勢から前記第一の撮像姿勢に戻すためのガイド情報を算出するガイド情報算出部(103)と、前記ガイド情報算出部(103)が算出したガイド情報から生成されたガイド画像を表示する表示部(305)とを備え、前記撮像姿勢情報算出部(102)は、前記第一の撮像姿勢から前記第二の撮像姿勢に変位する際に前記撮像倍率調整部(119)によって調整された前記焦点距離が、所定の値未満のときは前記センサ部(401、402、403)が検出した前記角速度から前記撮像姿勢情報を算出し、前記所定の値以上のときは前記動きベクトル算出部(101)が算出した動きベクトルから前記撮像姿勢情報を算出することを特徴とする撮像装置(1)を提供する。   In order to solve the above-described problems, the present invention provides an imaging unit (110) that images a subject and acquires a captured image, and an imaging magnification adjustment unit that adjusts a focal length to adjust an imaging magnification of the imaging unit (110). An imaging device (1) comprising (119), the sensor unit (401, 402, 403) for detecting angular velocities of rotation in the horizontal direction, the vertical direction, and the tilt direction of the imaging device (1); A motion vector calculation unit (101) that calculates a motion vector of a captured image acquired by the imaging unit (110), and the angular velocity and motion vector calculation unit (101) detected by the sensor unit (401, 402, 403). From each of the calculated motion vectors, an imaging posture information calculation unit (10) that calculates a displacement amount between the first imaging posture and the second imaging posture of the imaging device (1) as imaging posture information. ) And the imaging posture information calculated by the imaging posture information calculation unit (102), guide information for the user to return the imaging device (1) from the second imaging posture to the first imaging posture. A guide information calculation unit (103) for calculating, and a display unit (305) for displaying a guide image generated from the guide information calculated by the guide information calculation unit (103). ) Is the sensor unit (401) when the focal length adjusted by the imaging magnification adjustment unit (119) when moving from the first imaging posture to the second imaging posture is less than a predetermined value. , 402, 403) calculates the imaging posture information from the angular velocities detected. When the imaging posture information is equal to or greater than the predetermined value, the imaging posture is calculated from the motion vector calculated by the motion vector calculation unit (101). Provided is an imaging device (1), characterized in that to calculate the distribution.

上記撮像装置(1)において、前記ガイド情報算出部(103)が算出する前記ガイド情報は、前記第一の撮像姿勢と前記第二の撮像姿勢との間の方位角及び角距離を含むようにしてもよい。   In the imaging apparatus (1), the guide information calculated by the guide information calculation unit (103) includes an azimuth angle and an angular distance between the first imaging attitude and the second imaging attitude. Good.

また本発明は、上記課題を解決するため、撮像装置(1)の備えるセンサ部(401、402、403)にその撮像装置の水平方向、垂直方向、及び傾き方向の回転の角速度を検出させ、前記撮像装置(1)が撮像した撮像画像の動きベクトルを算出させ、前記センサ部(401、402、403)に検出させた前記角速度及び前記動きベクトルのそれぞれから、前記撮像装置(1)の第一の撮像姿勢と第二の撮像姿勢との間の変位量を撮像姿勢情報として算出させ、前記撮像姿勢情報からユーザが前記撮像装置(1)を前記第二の撮像姿勢から前記第一の撮像姿勢に戻すためのガイド情報を算出させ、前記ガイド情報に基づいてガイド画像を生成し前記撮像装置(1)の備える表示部(305)に表示させる処理をコンピュータに実行させるプログラムであって、前記第一の撮像姿勢から前記第二の撮像姿勢に変位する際の前記撮像装置(1)の撮像の焦点距離が所定の値未満のときは前記センサ部に検出させた前記角速度から前記撮像姿勢情報を算出させ、前記所定の値以上のときは前記動きベクトルから前記撮像姿勢情報を算出させることを特徴とするプログラムを提供する。   In order to solve the above problems, the present invention causes the sensor unit (401, 402, 403) included in the imaging device (1) to detect the angular velocities of rotation in the horizontal direction, vertical direction, and tilt direction of the imaging device, The motion vector of the captured image captured by the imaging device (1) is calculated, and the first velocity of the imaging device (1) is calculated from each of the angular velocity and the motion vector detected by the sensor unit (401, 402, 403). The amount of displacement between one imaging posture and the second imaging posture is calculated as imaging posture information, and the user takes the imaging device (1) from the second imaging posture based on the imaging posture information. Guide information for returning to a posture is calculated, a guide image is generated on the basis of the guide information, and a process for causing the computer to display on the display unit (305) of the imaging device (1) is executed. When the focal length of the imaging of the imaging apparatus (1) when the program is displaced from the first imaging posture to the second imaging posture is less than a predetermined value, the program is detected by the sensor unit. There is provided a program characterized in that the imaging posture information is calculated from an angular velocity and the imaging posture information is calculated from the motion vector when the value is equal to or greater than the predetermined value.

本発明に係る撮像装置及びプログラムによれば、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のセンサ部の出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、手持ち撮像を行う場合等の3軸方向の動きが生じる場合であっても、ユーザが容易かつ正確に撮像姿勢を戻すことができる。   According to the imaging device and the program according to the present invention, when the user generates a guide image to be displayed in order to return the imaging device to the original imaging posture before the change, the three-axis sensor unit according to the focal length of the imaging By switching and using either the output result or the motion vector calculation result, the user can easily and accurately return the imaging posture even when the movement in the three-axis direction occurs such as when performing hand-held imaging. be able to.

また、本発明に係る撮像装置及びプログラムによれば、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のセンサ部の出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、分解能の低い低コストで小型なセンサ部を用いても、ユーザが容易かつ正確に撮像姿勢を戻すことができる。   Further, according to the imaging device and the program according to the present invention, when the user generates a guide image to be displayed in order to return the imaging device to the original imaging posture before the change, the three-axis is selected according to the focal length of the imaging. By switching and using either the output result of the sensor unit or the motion vector calculation result, the user can easily and accurately return the imaging posture even when using a small sensor unit with low resolution and low cost. .

本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成の例を示すブロック図である。1 is a block diagram illustrating an example of an internal configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. ジャイロセンサが検出する3軸方向の角速度について説明するための撮像装置1の模式図である。It is a schematic diagram of the imaging device 1 for demonstrating the angular velocity of the triaxial direction which a gyro sensor detects. メインメモリ201に一時記憶された撮像データを複数の領域に分割し、各領域から基準画素ブロックを特定する処理を説明するための概念図である。It is a conceptual diagram for demonstrating the process which divides the imaging data temporarily stored in the main memory 201 into a some area | region, and specifies a reference | standard pixel block from each area | region. フレーム間ん基準画素ブロックと対応画素ブロックとの間の動きベクトルの算出について説明するための概念図である。It is a conceptual diagram for demonstrating calculation of the motion vector between an inter-frame reference | standard pixel block and a corresponding | compatible pixel block. 撮像データ自体の動きベクトルの角速度への換算について説明するための概念図である。It is a conceptual diagram for demonstrating conversion to the angular velocity of the motion vector of imaging data itself. 撮像装置1が、ユーザが撮像姿勢を元に戻すためのガイド情報を生成し表示する処理のフローチャートである。5 is a flowchart of processing in which the imaging apparatus 1 generates and displays guide information for the user to return the imaging posture to the original state. 撮像装置1による撮像の様子を模式的に表した図である。2 is a diagram schematically illustrating how an image is picked up by the image pickup apparatus 1. FIG. 撮像装置1による撮像の際の液晶モニタ305の表示の模式図である。3 is a schematic diagram of a display on a liquid crystal monitor 305 at the time of imaging by the imaging apparatus 1. FIG. 撮像装置1の撮像姿勢が変更された際の液晶モニタ305の表示の模式図である。6 is a schematic diagram of a display on the liquid crystal monitor 305 when the imaging posture of the imaging device 1 is changed. FIG. ガイド画像について説明するための概念図である。It is a conceptual diagram for demonstrating a guide image. ガイド画像を撮像画像に重畳して表示する態様を説明するための図である。It is a figure for demonstrating the aspect which superimposes and displays a guide image on a captured image.

以下に図面を参照しながら、本発明に係る撮像装置及びプログラムの好適な実施形態を説明する。かかる実施形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   DESCRIPTION OF EMBODIMENTS Preferred embodiments of an imaging device and a program according to the present invention will be described below with reference to the drawings. Specific numerical values and the like shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

図1は、本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成の例を示すブロック図である。撮像装置1は動画像及び静止画像を撮像することができる。   FIG. 1 is a block diagram illustrating an example of an internal configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. The imaging device 1 can capture a moving image and a still image.

なお、本発明は、動画像又は静止画像を撮像できるものであれば、いわゆるコンパクトデジタルカメラ等のデジタルスチルカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、その他の電子機器においても採用することができる。   The present invention is not limited to digital still cameras such as so-called compact digital cameras, mobile phones, PHS (Personal Handyphone System), PDA (Personal Digital Assistant), etc., as long as they can capture moving images or still images. It can also be used in other electronic devices.

中央制御部100はCPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成され、撮像、各種画像の表示、記録、及び後述するガイド情報の生成等、撮像装置1全体の処理を統括的に制御する。   The central control unit 100 is configured by a semiconductor integrated circuit including a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) as a work area, and the like. The overall processing of the imaging apparatus 1 such as display, recording, and generation of guide information described later is comprehensively controlled.

撮像装置1は、ズームレンズ111、絞り112、フォーカスレンズ113、及び撮像素子114で構成される撮像部110を有する。ズームレンズ111はズームアクチュエータ119によって光軸LAに沿って移動する。フォーカスレンズ113は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り112は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で構成される。   The imaging apparatus 1 includes an imaging unit 110 that includes a zoom lens 111, a diaphragm 112, a focus lens 113, and an imaging element 114. The zoom lens 111 is moved along the optical axis LA by the zoom actuator 119. The focus lens 113 is moved along the optical axis LA by a focus actuator (not shown). The diaphragm 112 operates by being driven by a diaphragm actuator (not shown). The imaging element 104 is configured by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

撮像装置1を用いた撮像は以下の手順で行われる。先ず撮像素子114がズームレンズ111、絞り112、及びフォーカスレンズ113を通過した光を光電変換して、被写体のアナログ画像信号を生成する。   Imaging using the imaging apparatus 1 is performed according to the following procedure. First, the image sensor 114 photoelectrically converts light that has passed through the zoom lens 111, the diaphragm 112, and the focus lens 113 to generate an analog image signal of the subject.

アナログ画像信号処理部115が、このアナログ画像信号を増幅した後、A/D変換部116が、その増幅された信号をデジタル画像データに変換する。画像入力コントローラ117は、A/D変換部116から出力されたデジタル画像データを撮像データとして取り込んで、バス200を介してメインメモリ201に格納する。   After the analog image signal processing unit 115 amplifies the analog image signal, the A / D conversion unit 116 converts the amplified signal into digital image data. The image input controller 117 takes in the digital image data output from the A / D conversion unit 116 as imaging data and stores it in the main memory 201 via the bus 200.

デジタル信号処理部118は、バス200を介して中央制御部100からの指令に基づき、メインメモリ201に格納された撮像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなるデータを生成する。デジタル信号処理部118はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。   The digital signal processing unit 118 takes in the imaging data stored in the main memory 201 based on a command from the central control unit 100 via the bus 200, performs predetermined signal processing, and data including a luminance signal and a color difference signal. Is generated. The digital signal processing unit 118 also performs various digital corrections such as offset processing, white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing.

メインメモリ201は、撮像データや輝度信号と色差信号とからなるデータ等の各種データを一時記憶する。メインメモリ201は、例えばEPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable PROM)、不揮発性RAM、フラッシュメモリ、又はHDD(Hard Disk Drive)等の記憶媒体で構成される。   The main memory 201 temporarily stores various data such as imaging data and data including luminance signals and color difference signals. The main memory 201 is configured by a storage medium such as an EEPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable PROM), a nonvolatile RAM, a flash memory, or an HDD (Hard Disk Drive).

また、メインメモリ201は後述するガイド情報の生成処理において、ユーザが操作部307の図示しない操作ボタンを押下すると、撮像装置1の戻すべき撮像姿勢を初期撮像姿勢として記録する。ユーザが撮像装置1をパンやチルトして撮像姿勢を変更すると、この初期撮像姿勢を基準として、撮像姿勢の変位量が算出されることになる。   Further, in the guide information generation process described later, when the user presses an operation button (not shown) of the operation unit 307, the main memory 201 records an imaging posture to be returned by the imaging device 1 as an initial imaging posture. When the user changes the imaging posture by panning or tilting the imaging device 1, the amount of displacement of the imaging posture is calculated based on this initial imaging posture.

フラッシュROM202は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。   The flash ROM 202 stores various setting information related to the operation of the imaging apparatus 1, such as user setting information.

画像処理部203は、バス200を介して中央制御部100の指示に従い、メインメモリ201から読み出した各種データに所定の画像処理を施す。例えばメニュー画像やOSD画像等、各種処理のための画像データを生成し、その画像データをメインメモリ201から読み出されたオリジナルの撮像データに重畳させる等して液晶モニタ305に出力する。この出力によって、液晶モニタ305に表示される画像は各種画像データが合成されたものとなる。   The image processing unit 203 performs predetermined image processing on various data read from the main memory 201 in accordance with instructions from the central control unit 100 via the bus 200. For example, image data for various processing such as a menu image and an OSD image is generated, and the image data is output to the liquid crystal monitor 305 by being superimposed on the original image data read from the main memory 201. With this output, the image displayed on the liquid crystal monitor 305 is a combination of various image data.

画像処理部203はまた、後述するガイド情報の生成処理により生成されたガイド情報に基づき、ガイド画像を生成してオリジナルの撮像データに重畳させて液晶モニタ305に出力する。   The image processing unit 203 also generates a guide image based on guide information generated by a guide information generation process described later, and outputs the guide image to the liquid crystal monitor 305 by superimposing it on the original imaging data.

VRAM204は、液晶モニタ305の表示用の画像データの一時記憶領域として使用される。   The VRAM 204 is used as a temporary storage area for image data for display on the liquid crystal monitor 305.

圧縮・伸長処理部205は、バス200を介して中央制御部100からの指示に従い、メインメモリ201に格納された各種データに所定の圧縮処理を施し、圧縮データを生成する。また、中央制御部100からの指令に従い、カード型記録媒体304等に格納された圧縮データに所定形式の伸張処理を施し、非圧縮データを生成する。   The compression / decompression processing unit 205 performs predetermined compression processing on various data stored in the main memory 201 in accordance with an instruction from the central control unit 100 via the bus 200 to generate compressed data. Further, in accordance with a command from the central control unit 100, the compressed data stored in the card-type recording medium 304 or the like is subjected to decompression processing in a predetermined format to generate uncompressed data.

なお、本実施の形態の撮像装置1では、静止画像に対してはJPEG規格に準拠した圧縮方式が、動画像に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式が採用される。   Note that in the imaging apparatus 1 according to the present embodiment, a compression method conforming to the JPEG standard is used for still images, and MPEG2 standard or AVC / H. A compression method conforming to the H.264 standard is adopted.

メディア制御部301は、中央制御部100の指令に従い、カードI/F302を通じてカード型記録媒体303へのデータの書き込みやカード型記録媒体303からのデータの読み出しを制御する。   The media control unit 301 controls the writing of data to the card type recording medium 303 and the reading of data from the card type recording medium 303 through the card I / F 302 in accordance with instructions from the central control unit 100.

カード型記録媒体303としては、撮像装置1に着脱可能なSD(Secure Digital)メモリカード等が使用される。但し、これはあくまで例示であり、カード型記録媒体303の替りに、DVD、BD(Blu-ray Disc)、若しくはフラッシュメモリ等の他の記録媒体を使用する、又は撮像装置1に内蔵されたHDD(Hard Disc Drive)等で構成することができることはいうまでもない。   As the card-type recording medium 303, an SD (Secure Digital) memory card that can be attached to and detached from the imaging apparatus 1 is used. However, this is merely an example, and instead of the card-type recording medium 303, another recording medium such as a DVD, a BD (Blu-ray Disc), or a flash memory is used, or an HDD built in the imaging apparatus 1 It goes without saying that it can be configured with (Hard Disc Drive) or the like.

液晶モニタ305、スピーカ306、操作部307及び入出力端子308は入出力I/F304に接続されている。液晶モニタ305は、例えばVRAM204やメインメモリ201に一時記録された撮像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。   The liquid crystal monitor 305, the speaker 306, the operation unit 307, and the input / output terminal 308 are connected to the input / output I / F 304. The liquid crystal monitor 305 displays images generated from various image data such as imaging data and various menu image data temporarily recorded in the VRAM 204 or the main memory 201, for example.

スピーカ305は、例えば後述するガイド情報の生成処理によって生成されたガイド情報に基づきユーザをガイドするための音声を出力することができる。   The speaker 305 can output sound for guiding the user based on guide information generated by, for example, guide information generation processing described later.

操作部307は、図示しないリレーズ・スイッチや電源スイッチを含む操作ボタン、十字キー、ジョイスティック、又は液晶モニタ305上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。   The operation unit 307 includes an operation button including a relay switch and a power switch (not shown), a cross key, a joystick, a touch panel superimposed on the liquid crystal monitor 305, and the like. Accept.

後述するガイド情報の生成処理において、ユーザがこの操作部307の図示しない操作ボタンを押下すると、撮像装置1の戻すべき撮像姿勢を初期撮像姿勢として記録する。また、ユーザは同じく図示しない操作ボタンを押下して、ガイド画像の表示を液晶モニタ305に表示する旨の要求を行う。   In a guide information generation process described later, when the user presses an operation button (not shown) of the operation unit 307, the imaging posture to be returned by the imaging device 1 is recorded as the initial imaging posture. The user also presses an operation button (not shown) to make a request for displaying a guide image on the liquid crystal monitor 305.

入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続され、各種データの入出力を行う。入出力端子307は、例えばHDMI(High-Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子、IEEE 1394規格に準拠した各種入力端子等で構成される。   The input / output terminal 307 is connected to a television monitor, a PC (Personal Computer) or the like (not shown), and inputs / outputs various data. The input / output terminal 307 includes, for example, an HDMI (High-Definition Multimedia Interface) terminal, a USB (Universal Serial Bus) terminal, various input terminals conforming to the IEEE 1394 standard, and the like.

撮像装置1は、撮像装置1の水平方向の回転の角速度を検出するX軸ジャイロセンサ401、垂直方向の回転の角速度を検出するY軸ジャイロセンサ402、及び傾き方向の回転の角速度を検出するZ軸ジャイロセンサ403を備える。   The imaging apparatus 1 includes an X-axis gyro sensor 401 that detects an angular speed of rotation in the horizontal direction of the imaging apparatus 1, a Y-axis gyro sensor 402 that detects an angular speed of rotation in the vertical direction, and a Z that detects angular speed of rotation in the tilt direction. An axis gyro sensor 403 is provided.

図2は、上記各ジャイロセンサが検出する各角速度について説明するための撮像装置1の模式図である。X軸ジャイロセンサ401は撮像装置1の水平方向(図2ではX軸方向)の角速度ωxを検出する。Y軸ジャイロセンサ402は撮像装置1の垂直方向方向(図2ではY軸方向)の角速度ωyを検出する。そして、Z軸ジャイロセンサ403は撮像装置1の傾き方向(図2ではZ軸方向)の角速度ωzを検出する。   FIG. 2 is a schematic diagram of the imaging apparatus 1 for explaining each angular velocity detected by each gyro sensor. The X-axis gyro sensor 401 detects an angular velocity ωx in the horizontal direction (X-axis direction in FIG. 2) of the imaging device 1. The Y-axis gyro sensor 402 detects an angular velocity ωy in the vertical direction (Y-axis direction in FIG. 2) of the imaging device 1. Then, the Z-axis gyro sensor 403 detects an angular velocity ωz in the tilt direction (Z-axis direction in FIG. 2) of the imaging device 1.

上記の検出された各角速度は、中央制御部100に引き渡され、以下に説明するユーザが撮像装置1の撮像姿勢を元の位置に戻すためのガイド情報の生成処理において使用される。   Each of the detected angular velocities is transferred to the central control unit 100 and used in a guide information generation process for returning the imaging posture of the imaging device 1 to the original position by the user described below.

図1の説明に戻り、中央制御部はまた、ユーザが撮像装置1の撮像姿勢を元の位置に戻すためのガイド情報の生成処理において、動きベクトル算出部101、撮像姿勢情報算出部102、ガイド情報算出部103、及び判定部104として機能する。   Returning to the description of FIG. 1, the central control unit also performs a motion vector calculation unit 101, an imaging posture information calculation unit 102, a guide in the guide information generation process for the user to return the imaging posture of the imaging device 1 to the original position. It functions as the information calculation unit 103 and the determination unit 104.

動きベクトル算出部101は、メインメモリ201に一時記憶された撮像データのフレーム間における被写体画像データの変位量から、その被写体画像の動きベクトルを算出する。この動きベクトルの算出は既知の様々な方法を採用することができる。   The motion vector calculation unit 101 calculates a motion vector of the subject image from the amount of displacement of the subject image data between frames of the imaging data temporarily stored in the main memory 201. Various known methods can be employed for calculating the motion vector.

ここで、この動きベクトル算出部101は、フレーム内の各被写体画像データの動きベクトルから、算出された動きベクトルが、撮像の対象となった被写体自体が動いたことによって生じたものなのか、ユーザが撮像装置1をパンやチルトして撮像姿勢を変更したことで生じたものなのかを併せて判断する。   Here, the motion vector calculation unit 101 determines whether the motion vector calculated from the motion vector of each subject image data in the frame is caused by the movement of the subject itself to be imaged. It is also determined whether or not this is caused by panning or tilting the imaging device 1 to change the imaging posture.

以下に図3及び図4を参照して、この判断について説明する。図3に示したようにメインメモリ201に一時記憶された撮像データのフレームMH01が複数の領域に分けられる。図3では、フレームMH01は水平方向に8分割、垂直方向に5分割した、計40の領域に分けられている。   Hereinafter, this determination will be described with reference to FIGS. As shown in FIG. 3, the frame MH01 of the imaging data temporarily stored in the main memory 201 is divided into a plurality of areas. In FIG. 3, the frame MH01 is divided into a total of 40 areas divided into 8 in the horizontal direction and 5 in the vertical direction.

そして、分けられた各領域のそれぞれについて、基準となる画素ブロックが特定される。例えば、図3の領域DA01(ハッチングで示した領域)では、基準画素ブロックB01が特定される。他の39の領域についても基準となる画素ブロックが特定される。   A reference pixel block is specified for each of the divided areas. For example, in the area DA01 (area shown by hatching) in FIG. 3, the reference pixel block B01 is specified. A reference pixel block is also specified for the other 39 regions.

次に、図4に示したフレームMH01から所定の時間後のフレームMH02から、フレームMH01の領域DA01に対応する領域DA02(ハッチングで示した領域)を特定し、基準画素ブロックB01に対応する対応画素ブロックB02を特定する。そして、基準画素ブロックB01と対応画素ブロックB02との間のベクトルV01を動きベクトルとして算出する。   Next, an area DA02 (area indicated by hatching) corresponding to the area DA01 of the frame MH01 is specified from the frame MH02 after a predetermined time from the frame MH01 shown in FIG. 4, and the corresponding pixels corresponding to the reference pixel block B01 are identified. The block B02 is specified. Then, a vector V01 between the reference pixel block B01 and the corresponding pixel block B02 is calculated as a motion vector.

上記の動きベクトルの算出を全領域について行い、所定数以上の領域について算出された動きベクトルが所定の範囲内で類似していれば、それらの算出された動きベクトルはユーザが撮像装置1をパンやチルトして撮像姿勢を変更することで生じたものとして判断される。一方で、所定数未満の領域について算出された動きベクトルのみが類似している場合には、それらの算出された動きベクトルは撮像の対象となった被写体自体が動いたことによって生じたものとして判断される。   When the above motion vectors are calculated for all regions, and the motion vectors calculated for a predetermined number of regions or more are similar within a predetermined range, the user can pan the imaging device 1 with the calculated motion vectors. It is determined that it is caused by tilting or changing the imaging posture. On the other hand, when only the motion vectors calculated for a region less than the predetermined number are similar, it is determined that the calculated motion vectors are caused by the movement of the subject that is the subject of imaging. Is done.

そして、動きベクトル算出部101は、上述の撮像装置1のパンやチルトして撮像姿勢を変更することで生じたとの判断に用いられた複数の領域の動きベクトルの平均から、撮像データ自体の動きベクトルを算出する。   Then, the motion vector calculation unit 101 determines the motion of the imaging data itself from the average of the motion vectors of a plurality of regions used for determining that the imaging posture is changed by panning or tilting the imaging device 1 described above. Calculate the vector.

図1の中央制御部100の説明に戻り、撮像姿勢情報算出部102は、X軸ジャイロセンサ401、Y軸ジャイロセンサ402、及びZ軸ジャイロセンサ403の3つのジャイロセンサが検出した角速度、又は動きベクトル算出部101が算出した撮像データ自体の動きベクトルから、ユーザが行ったパンやチルトによる撮像装置1の戻すべき撮像姿勢である初期撮像姿勢からの変位量を撮像姿勢情報として算出する。   Returning to the description of the central control unit 100 in FIG. 1, the imaging posture information calculation unit 102 detects the angular velocity or motion detected by the three gyro sensors of the X-axis gyro sensor 401, the Y-axis gyro sensor 402, and the Z-axis gyro sensor 403. From the motion vector of the imaging data itself calculated by the vector calculation unit 101, the amount of displacement from the initial imaging orientation that is the imaging orientation to be returned by the imaging device 1 due to panning or tilting performed by the user is calculated as imaging orientation information.

上記3つのジャイロセンサが検出した角速度が使用される場合は、そのまま各出力結果が使用されるが、動きベクトル算出部101が算出した撮像データ自体の動きベクトルが使用される場合は、その動きベクトルが水平方向、垂直方向、及び傾き方向の3つの回転の角速度に変換される。   When the angular velocities detected by the three gyro sensors are used, the output results are used as they are. When the motion vector of the imaging data itself calculated by the motion vector calculation unit 101 is used, the motion vector is used. Are converted into three rotational angular velocities: a horizontal direction, a vertical direction, and a tilt direction.

図5を参照して、この角速度への変換について説明する。図5は、撮像装置1が撮像姿勢が変更される前の初期撮像姿勢から撮像姿勢が変更された後の撮像姿勢をとるまでの間に算出された、撮像データMG01自体の動きベクトルAVを概念的に表す概念図である。   With reference to FIG. 5, the conversion into the angular velocity will be described. FIG. 5 conceptually shows the motion vector AV of the imaging data MG01 itself calculated from the initial imaging posture before the imaging posture is changed to the imaging posture after the imaging posture is changed. FIG.

撮像姿勢情報算出部102は、動きベクトルAVの水平成分ベクトルVh及び垂直成分ベクトルVvを算出する。さらに、撮像姿勢情報算出部102はズームレンズ111のズーミングによる焦点距離fを特定し、以下の式(1)及び式(2)から、撮像装置1の水平方向の角速度ωx及び垂直方向の角速度ωyを算出する。   The imaging posture information calculation unit 102 calculates a horizontal component vector Vh and a vertical component vector Vv of the motion vector AV. Further, the imaging posture information calculation unit 102 specifies the focal length f due to zooming of the zoom lens 111, and from the following equations (1) and (2), the horizontal angular velocity ωx and the vertical angular velocity ωy of the imaging device 1 are obtained. Is calculated.

ωx=60atan(Vh/f) ・・・(1) ωx = 60 atan (Vh / f) (1)

ωy=60atan(Vv/f) ・・・(2) ωy = 60 atan (Vv / f) (2)

そして、撮像部110の光軸ALと一致する撮像データMG01内の点CPを中心にとした動きベクトルの両端の間の角度の変化ΔθZから、傾き方向の角速度ωzを算出する。   Then, the angular velocity ωz in the tilt direction is calculated from the change in angle ΔθZ between both ends of the motion vector around the point CP in the imaging data MG01 that coincides with the optical axis AL of the imaging unit 110.

そして、撮像姿勢情報算出部102は、各ジャイロセンサから出力された、又は撮像データ自体の動きベクトルから上記のようにして算出された水平方向の角速度ωx、垂直方向の角速度ωy、及び傾き方向の角速度ωzから、水平方向の回転角θx、垂直方向の回転角θy、及び傾き方向の回転角θzを撮像姿勢情報としてそれぞれ、以下の式(3)、式(4)、及び式(5)から算出する。   Then, the imaging posture information calculation unit 102 outputs the angular velocity ωx in the horizontal direction, the angular velocity ωy in the vertical direction, and the angular velocity ωy in the vertical direction calculated as described above from the motion vector of the imaging data itself output from each gyro sensor. From the angular velocity ωz, the horizontal rotation angle θx, the vertical rotation angle θy, and the rotation angle θz in the tilt direction are used as imaging posture information, respectively, from the following equations (3), (4), and (5). calculate.

θx=∫ωx・sinθzdt ・・・(3) θx = ∫ωx · sin θzdt (3)

θy=∫ωy・cosθzdt ・・・(4) θy = ∫ωy · cos θzdt (4)

θz=∫ωzdt ・・・(5) θz = ∫ωzdt (5)

図1の中央制御部100の説明に戻り、ガイド情報算出部103は、撮像姿勢情報算出部102が算出した撮像姿勢情報に基づき、ユーザが撮像装置1を変更前の撮像姿勢に戻すための方位角θと角距離dとをガイド情報として算出する。   Returning to the description of the central control unit 100 in FIG. 1, the guide information calculation unit 103 is based on the imaging posture information calculated by the imaging posture information calculation unit 102 and the orientation for the user to return the imaging device 1 to the imaging posture before the change. The angle θ and the angular distance d are calculated as guide information.

撮像装置1を変更前の撮像姿勢に戻すための方位角θは、初期撮像姿勢の方位角をθ1とし、変更後の撮像姿勢の方位角をθ2とし、それぞれの方位角の水平方向の成分をθx1及びθx2、垂直方向の成分をθy1及びθy2、並びに傾き方向の成分をθz1及びθz2とすると、以下の式(6)、式(7)、式(8)、又は式(9)により算出される。 The azimuth angle θ for returning the imaging device 1 to the imaging posture before change is set to θ 1 as the azimuth angle of the initial imaging posture, θ 2 as the azimuth angle of the imaging posture after change, and the horizontal direction of each azimuth angle. Assuming that the components are θx 1 and θx 2 , the vertical components are θy 1 and θy 2 , and the components in the tilt direction are θz 1 and θz 2 , the following equations (6), (7), (8), Or it calculates by Formula (9).

θy2−θy1=0°であり、かつθx2−θx1=0°のときは、以下の式(6)により算出される。 When θy 2 −θy 1 = 0 ° and θx 2 −θx 1 = 0 °, it is calculated by the following equation (6).

θ=θz ・・・式(6) θ = θz (6)

θy2−θy1=0であり、0°<θx2−θx1<180°のときは、以下の式(7)により算出される。 When θy 2 −θy 1 = 0 and 0 ° <θx 2 −θx 1 <180 °, it is calculated by the following equation (7).

θ=θz+90° ・・・式(7) θ = θz + 90 ° (7)

θy2−θy1=0であり、0°>θx2−θx1>−180°のときは、以下の式(8)により算出される。 When θy 2 −θy 1 = 0 and 0 °> θx 2 −θx 1 > −180 °, it is calculated by the following equation (8).

θ=θz−90° ・・・式(8) θ = θz−90 ° (8)

そして、上記以外のときは、以下の式(9)により算出される。   In other cases, it is calculated by the following equation (9).

θ=atan(sin(θx2−θx1)/tan(θy2−θy1))+θz
・・・(9)
θ = atan (sin (θx 2 −θx 1 ) / tan (θy 2 −θy 1 )) + θz
... (9)

なお、上記方位角θの絶対値が180を超える場合は、その絶対値が180以下となるまで360を減産するものとする。   When the absolute value of the azimuth angle θ exceeds 180, the production of 360 is reduced until the absolute value becomes 180 or less.

そして、λをcosθycosθx、μをsinθycosθx、かつνをsinθyとすると、角距離dは、以下の式(10)により算出される。   Then, when λ is cos θy cos θx, μ is sin θy cos θx, and ν is sin θy, the angular distance d is calculated by the following equation (10).

d=cos-1(λ1λ2+μ1μ2+ν1ν2) ・・・(10) d = cos −1 (λ1λ2 + μ1μ2 + ν1ν2) (10)

図1の中央制御部100の説明に戻り、上述のようにしてガイド情報算出部103がガイド情報を算出すると、画像処理部203は液晶モニタ305に表示する、ユーザが撮像装置1の撮像姿勢を元の撮像姿勢に戻すためのガイド画像を生成し、撮像データに重畳して表示する。   Returning to the description of the central control unit 100 in FIG. 1, when the guide information calculation unit 103 calculates guide information as described above, the image processing unit 203 displays on the liquid crystal monitor 305, and the user changes the imaging posture of the imaging device 1. A guide image for returning to the original imaging posture is generated and displayed superimposed on the imaging data.

方位角θ及び角距離dからなるガイド情報が液晶モニタ305に表示されることで、ユーザは視野の狭い液晶モニタ305に表示された画像を視認しながらでも、そのガイド画像を参照することで容易に撮像装置1を元の撮像姿勢に戻す方向と、そのためのパンやチルトの大きさを把握することができる。   Since the guide information including the azimuth angle θ and the angular distance d is displayed on the liquid crystal monitor 305, the user can easily view the image displayed on the liquid crystal monitor 305 with a narrow visual field by referring to the guide image. In addition, it is possible to grasp the direction in which the imaging device 1 is returned to the original imaging posture and the size of the pan and tilt for that.

判定部104は、ズームレンズ111のズーミングによる焦点距離に基づき、ガイド情報算出部103が算出するガイド情報を、各ジャイロセンサが出力した角速度による撮像姿勢情報から算出するか、動きベクトル算出部101が算出した撮像データ自体の動きベクトルから算出した角速度による撮像姿勢情報から算出するかの判定を行う。   The determination unit 104 calculates the guide information calculated by the guide information calculation unit 103 based on the focal length by zooming of the zoom lens 111 from the imaging posture information based on the angular velocity output from each gyro sensor, or the motion vector calculation unit 101 calculates the guide information. It is determined whether to calculate from the imaging posture information based on the angular velocity calculated from the calculated motion vector of the imaging data itself.

撮像の際の焦点距離が長い場合には振動ジャイロ素子の分解能が不足することで、正しいガイド情報を生成することができない場合がある。したがって、撮像姿勢の変更時の焦点距離の判定に応じて、各ジャイロセンサが出力した角速度による撮像姿勢情報から算出されたガイド情報と、動きベクトル算出部101が算出した撮像データ自体の動きベクトルから算出した角速度による撮像姿勢情報から算出されたガイド情報とを切り換えることで、ユーザは容易かつ正確に撮像姿勢を戻すことができる。   When the focal length at the time of imaging is long, the correct guide information may not be generated due to insufficient resolution of the vibrating gyro element. Therefore, according to the determination of the focal length when the imaging posture is changed, the guide information calculated from the imaging posture information based on the angular velocity output by each gyro sensor and the motion vector of the imaging data itself calculated by the motion vector calculation unit 101 are used. By switching between the guide information calculated from the imaging posture information based on the calculated angular velocity, the user can easily and accurately return the imaging posture.

以上のように、撮像装置1によれば、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のジャイロセンサの出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、手持ち撮像を行う場合等の3軸方向の動きが生じる場合であっても、ユーザが容易かつ正確に撮像姿勢を戻すことができる。   As described above, according to the imaging apparatus 1, when the user generates a guide image to be displayed in order to return the imaging apparatus to the original imaging posture before the change, the three-axis gyro sensor according to the focal length of imaging. By switching and using either the output result or the motion vector calculation result, the user can easily and accurately return the imaging posture even when the movement in the three-axis direction occurs such as when performing hand-held imaging. be able to.

また、撮像装置1によれば、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のジャイロセンサの出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、分解能の低い低コストで小型なジャイロセンサでも、ユーザが容易かつ正確に撮像姿勢を戻すことができる。   Further, according to the imaging device 1, when the user generates a guide image to be displayed in order to return the imaging device to the original imaging posture before the change, the output result of the triaxial gyro sensor according to the focal length of the imaging Alternatively, by switching and using either of the motion vector calculation results, the user can easily and accurately return the imaging posture even with a low-cost and small-sized gyro sensor with low resolution.

次に図6を参照して、撮像装置1が、ユーザが撮像姿勢を元に戻すためのガイド情報を生成し表示する処理(方法)について以下に説明する。図6は、撮像装置1が、ユーザが撮像姿勢を元に戻すためのガイド情報を生成し表示する処理のフローチャートである。   Next, a process (method) in which the imaging apparatus 1 generates and displays guide information for the user to return the imaging posture to the original will be described with reference to FIG. FIG. 6 is a flowchart of processing in which the imaging apparatus 1 generates and displays guide information for the user to return the imaging posture to the original state.

ユーザが操作部307の図示しない録画ボタンを押下すると、撮像装置1は被写体の撮像を開始する(ステップS101)。図7は撮像装置1による撮像の様子を模式的に表した図である。図7では、ユーザが被写体70のほうに撮像装置1を向けて、被写体70を撮像している。   When the user presses a recording button (not shown) on the operation unit 307, the imaging apparatus 1 starts imaging a subject (step S101). FIG. 7 is a diagram schematically showing the state of imaging by the imaging apparatus 1. In FIG. 7, the user points the imaging device 1 toward the subject 70 and images the subject 70.

図8にこのときの液晶モニタ305の模式図を示す。撮像装置1は被写体70の方に向けられているため、撮像画像を表示する液晶モニタ305には被写体70の被写体画像OG70が表示されている。   FIG. 8 shows a schematic diagram of the liquid crystal monitor 305 at this time. Since the imaging apparatus 1 is directed toward the subject 70, the subject image OG70 of the subject 70 is displayed on the liquid crystal monitor 305 that displays the captured image.

そして、ユーザが操作部307の図示しない操作ボタンを押下すると、そのときの撮像装置1の撮像姿勢が戻すべき初期撮像姿勢としてメインメモリ201に記憶される(ステップS102)。   Then, when the user presses an operation button (not shown) of the operation unit 307, the imaging posture of the imaging device 1 at that time is stored in the main memory 201 as the initial imaging posture to be returned (step S102).

そして、ユーザがパンやチルトにより撮像装置1の撮像姿勢を変更すると(ステップS103でYES)、撮像部110を介してステップS101とは別の被写体が撮像される(ステップS104)。図9にこのときのこのときの液晶モニタ305の模式図を示す。撮像装置1の撮像姿勢が変更され、液晶モニタ305には被写体70とは別の被写体の被写体画像が表示されることになる。   When the user changes the imaging posture of the imaging device 1 by panning or tilting (YES in step S103), a subject different from step S101 is imaged via the imaging unit 110 (step S104). FIG. 9 shows a schematic diagram of the liquid crystal monitor 305 at this time. The imaging posture of the imaging apparatus 1 is changed, and a subject image of a subject different from the subject 70 is displayed on the liquid crystal monitor 305.

ステップS104で別の被写体が撮像され、ユーザが操作部307の図示しない操作ボタンを押下し、撮像装置1の撮像姿勢をステップS102で記憶した初期撮像姿勢に戻すためのガイド画像を要求すると(ステップS105でYES)、判定部104がステップS103における撮像姿勢変更時のズームレンズ111のズーミングによる焦点距離が所定の閾値以上か否かを判定する(ステップS106)。   In step S104, another subject is imaged, and the user presses an operation button (not shown) of the operation unit 307 and requests a guide image for returning the imaging posture of the imaging device 1 to the initial imaging posture stored in step S102 (step S102). In S105, the determination unit 104 determines whether or not the focal length due to zooming of the zoom lens 111 when the imaging posture is changed in Step S103 is greater than or equal to a predetermined threshold (Step S106).

判定部104がズームレンズ111のズーミングによる焦点距離が所定の閾値以上である旨の判定をすると(ステップS106でYES)、撮像姿勢情報算出部102は、動きベクトル算出部101が算出した撮像データ自体の動きベクトルから、ユーザが行ったパンやチルトによる撮像装置1の撮像姿勢の変位量を撮像姿勢情報として算出する(ステップS107)。   When the determination unit 104 determines that the focal length due to zooming of the zoom lens 111 is equal to or greater than a predetermined threshold (YES in step S106), the imaging posture information calculation unit 102 calculates the imaging data itself calculated by the motion vector calculation unit 101. The displacement amount of the imaging posture of the imaging device 1 due to panning and tilting performed by the user is calculated as imaging posture information from the motion vector (step S107).

この撮像データ自体の動きベクトルに基づく、撮像姿勢情報の算出は、上述の通り行われる。すなわち、式(1)及び式(2)、並びに撮像部110の光軸ALと一致する撮像データ内の点を中心にとした動きベクトルの両端の間の角度の変化から、動きベクトル算出部101が算出した撮像データ自体の動きベクトルが水平方向の角速度ωx、垂直方向の角速度ωy、及び傾き方向の角速度ωzの3つの回転の角速度に換算される。   The calculation of the imaging posture information based on the motion vector of the imaging data itself is performed as described above. In other words, the motion vector calculation unit 101 is obtained from the equations (1) and (2) and the change in angle between both ends of the motion vector centered on a point in the imaging data that coincides with the optical axis AL of the imaging unit 110. Is converted into an angular velocity of three rotations of an angular velocity ωx in the horizontal direction, an angular velocity ωy in the vertical direction, and an angular velocity ωz in the tilt direction.

そして、上述の式(3)、式(4)、及び式(5)により、水平方向の角速度ωx、垂直方向の角速度ωy、及び傾き方向の角速度ωzから、水平方向の回転角θx、垂直方向の回転角θy、及び傾き方向の回転角θzが撮像姿勢情報としてそれぞれ算出される。   Then, the horizontal rotation angle θx and the vertical direction are calculated from the horizontal angular velocity ωx, the vertical angular velocity ωy, and the angular velocity ωz in the tilt direction by the above formulas (3), (4), and (5). Rotation angle θy and tilt rotation angle θz are respectively calculated as imaging posture information.

判定部104がズームレンズ111のズーミングによる焦点距離が所定の閾値未満である旨の判定をすると(ステップS106でNO)、撮像姿勢情報算出部102は、X軸ジャイロセンサ401、Y軸ジャイロセンサ402、及びZ軸ジャイロセンサ403の3つのジャイロセンサが検出した角速度から、ユーザが行ったパンやチルトによる撮像装置1の撮像姿勢の変位を撮像姿勢情報として算出する(ステップS108)。   When the determination unit 104 determines that the focal length due to zooming of the zoom lens 111 is less than a predetermined threshold (NO in step S106), the imaging posture information calculation unit 102 includes an X-axis gyro sensor 401 and a Y-axis gyro sensor 402. Then, from the angular velocities detected by the three gyro sensors of the Z-axis gyro sensor 403, the displacement of the imaging posture of the imaging device 1 due to the pan and tilt performed by the user is calculated as imaging posture information (step S108).

ここで、各ジャイロセンサから出力された水平方向の角速度ωx、垂直方向の角速度ωy、及び傾き方向の角速度ωzから、水平方向の回転角θx、垂直方向の回転角θy、及び傾き方向の回転角θzが、上述の式(3)、式(4)、及び式(5)に基づき、撮像姿勢情報としてそれぞれ算出される。   Here, from the angular velocity ωx in the horizontal direction, the angular velocity ωy in the vertical direction, and the angular velocity ωz in the tilt direction output from each gyro sensor, the rotation angle θx in the horizontal direction, the rotation angle θy in the vertical direction, and the rotation angle in the tilt direction. θz is calculated as the imaging posture information based on the above-described equations (3), (4), and (5).

ステップS107で撮像データ自体の動きベクトルから、又はステップS108で各ジャイロセンサが検出した角速度から撮像姿勢情報が算出されると、ガイド情報算出部103は、液晶モニタ305に表示するガイド画像を生成するための、ユーザが撮像装置1を変更前の撮像姿勢に戻すための方位角θと角距離dとからなるガイド情報を算出する。   When the imaging posture information is calculated from the motion vector of the imaging data itself in step S107 or the angular velocity detected by each gyro sensor in step S108, the guide information calculation unit 103 generates a guide image to be displayed on the liquid crystal monitor 305. Therefore, the guide information including the azimuth angle θ and the angular distance d for the user to return the imaging apparatus 1 to the imaging posture before the change is calculated.

このガイド情報は上述した式(6)、式(7)、式(8)、又は式(9)により算出される。   This guide information is calculated by the above formula (6), formula (7), formula (8), or formula (9).

ステップS109でガイド情報が算出されると、画像処理部203がそのガイド情報に基づきガイド画像を生成し、オリジナルの撮像画像に重畳して液晶モニタ305に表示する。このガイド画像の表示について図10及び図11を参照して説明する。   When the guide information is calculated in step S109, the image processing unit 203 generates a guide image based on the guide information, and superimposes the original captured image on the liquid crystal monitor 305. The display of this guide image will be described with reference to FIGS.

図11は、液晶モニタ305に表示するガイド画像の表示の例について説明するための図である。撮像装置の水平方向(図11では線分L01で示す)から方位角θの角度を有し、戻すべき方向を矢印で示した、各距離dに比例する長さを有するガイド画像が画像処理部203に生成され、液晶モニタ305に表示されている。   FIG. 11 is a diagram for explaining an example of display of a guide image displayed on the liquid crystal monitor 305. A guide image having a length proportional to each distance d and having an azimuth angle θ from the horizontal direction of the imaging device (indicated by a line segment L01 in FIG. 11) and a direction to be returned is indicated by an image processing unit. 203 and displayed on the liquid crystal monitor 305.

そして、図12に示すように、このガイド画像GG01が、ステップS105でユーザがガイド情報を要求した、撮像装置1の撮像姿勢を戻す前のオリジナルの撮像データに重畳されて表示される。   Then, as shown in FIG. 12, this guide image GG01 is superimposed and displayed on the original imaging data before returning the imaging posture of the imaging device 1 requested by the user in step S105.

そして、ステップS103でユーザが撮像装置1の撮像姿勢を変更しなかった場合(ステップS103でNO)、ステップS105でユーザがガイド情報を要求しなかった場合(ステップS105でNO)、又はステップS110でガイド画像が生成され表示されると、本処理は終了する。   Then, when the user does not change the imaging posture of the imaging device 1 at step S103 (NO at step S103), when the user does not request guide information at step S105 (NO at step S105), or at step S110. When the guide image is generated and displayed, this process ends.

以上のように、撮像装置1のユーザが撮像姿勢を元に戻すためのガイド情報を生成し表示する処理によれば、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のジャイロセンサの出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、手持ち撮像を行う場合等の3軸方向の動きが生じる場合であっても、ユーザが容易かつ正確に撮像姿勢を戻すことができる。   As described above, according to the process of generating and displaying guide information for the user of the imaging apparatus 1 to return the imaging posture to the original, the guide that the user displays to return the imaging device to the original imaging posture before the change. When generating an image, by switching and using either the output result of the three-axis gyro sensor or the calculation result of the motion vector according to the focal length of the image pickup, the image in the three-axis direction for hand-held image pickup is used. Even when movement occurs, the user can easily and accurately return the imaging posture.

また、撮像装置1のユーザが撮像姿勢を元に戻すためのガイド情報を生成し表示する処理によれば、ユーザが撮像装置を変更前の元の撮像姿勢に戻すために表示するガイド画像を生成する際に、撮像の焦点距離に応じて3軸のジャイロセンサの出力結果又は動きベクトルの算出結果の何れかを切り換えて使用することで、分解能の低い低コストで小型なジャイロセンサでも、ユーザが容易かつ正確に撮像姿勢を戻すことができる。   Further, according to the process of generating and displaying guide information for the user of the imaging device 1 to return the imaging posture to the original, a guide image to be displayed for the user to return the imaging device to the original imaging posture before the change is generated. When switching between the output result of the three-axis gyro sensor or the calculation result of the motion vector according to the focal length of the imaging, the user can use the low-resolution, low-cost and small-sized gyro sensor. The imaging posture can be easily and accurately returned.

100 中央制御部
101 動きベクトル算出部
102 撮像姿勢情報算出部
103 ガイド情報算出部
104 判定部
110 撮像部
111 ズームレンズ
112 絞り
113 フォーカスレンズ
114 撮像素子
201 メインメモリ
203 画像処理部
204 VRAM
304 入出力I/F
305 液晶モニタ
306 スピーカ
307 操作部
308 入出力端子
DESCRIPTION OF SYMBOLS 100 Central control part 101 Motion vector calculation part 102 Imaging orientation information calculation part 103 Guide information calculation part 104 Judgment part 110 Imaging part 111 Zoom lens 112 Aperture 113 Focus lens 114 Imaging element 201 Main memory 203 Image processing part 204 VRAM
304 I / O I / F
305 LCD monitor 306 Speaker 307 Operation unit 308 Input / output terminal

Claims (3)

被写体を撮像し撮像画像を取得する撮像部及び焦点距離を調整して前記撮像部による撮像の倍率を調整する撮像倍率調整部を備えた撮像装置であって、
前記撮像装置の水平方向、垂直方向、及び傾き方向の回転の角速度を検出するセンサ部と、
前記撮像部が取得した撮像画像の動きベクトルを算出する動きベクトル算出部と、
前記センサ部が検出した前記角速度又は前記動きベクトル算出部が算出した動きベクトルから、前記撮像装置の第一の撮像姿勢と第二の撮像姿勢との間の変位量を撮像姿勢情報として算出する撮像姿勢情報算出部と、
前記撮像姿勢情報算出部が算出した前記撮像姿勢情報から、ユーザが前記撮像装置を前記第二の撮像姿勢から前記第一の撮像姿勢に戻すためのガイド情報を算出するガイド情報算出部と、
前記ガイド情報算出部が算出したガイド情報から生成されたガイド画像を表示する表示部とを備え、
前記撮像姿勢情報算出部は、前記第一の撮像姿勢から前記第二の撮像姿勢に変位する際に前記撮像倍率調整部によって調整された前記焦点距離が、所定の値未満のときは前記センサ部が検出した前記角速度から前記撮像姿勢情報を算出し、前記所定の値以上のときはベクトル算出部が算出した動きベクトルから前記撮像姿勢情報を算出することを特徴とする撮像装置。
An imaging apparatus including an imaging unit that images a subject and acquires a captured image, and an imaging magnification adjustment unit that adjusts a focal length and adjusts a magnification of imaging by the imaging unit,
A sensor unit for detecting an angular velocity of rotation in a horizontal direction, a vertical direction, and a tilt direction of the imaging device;
A motion vector calculation unit that calculates a motion vector of a captured image acquired by the imaging unit;
Imaging that calculates a displacement amount between the first imaging posture and the second imaging posture of the imaging device as imaging posture information from the angular velocity detected by the sensor unit or the motion vector calculated by the motion vector calculation unit An attitude information calculation unit;
A guide information calculation unit that calculates guide information for the user to return the imaging device from the second imaging posture to the first imaging posture from the imaging posture information calculated by the imaging posture information calculation unit;
A display unit for displaying a guide image generated from the guide information calculated by the guide information calculation unit,
When the focal length adjusted by the imaging magnification adjustment unit when the imaging posture information calculation unit is displaced from the first imaging posture to the second imaging posture is less than a predetermined value, the sensor unit The imaging posture information is calculated from the angular velocity detected by the camera, and the imaging posture information is calculated from a motion vector calculated by a vector calculation unit when the angular velocity is equal to or greater than the predetermined value.
前記ガイド情報算出部が算出する前記ガイド情報は、前記第一の撮像姿勢と前記第二の撮像姿勢との間の方位角及び角距離を含むことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the guide information calculated by the guide information calculation unit includes an azimuth angle and an angular distance between the first imaging attitude and the second imaging attitude. . 撮像装置の備えるセンサ部にその撮像装置の水平方向、垂直方向、及び傾き方向の回転の角速度を検出させ、
前記撮像装置が撮像した撮像画像の動きベクトルを算出させ、
前記センサ部に検出させた前記角速度及び前記動きベクトルのそれぞれから、前記撮像装置の第一の撮像姿勢と第二の撮像姿勢との間の変位量を撮像姿勢情報として算出させ、
前記撮像姿勢情報からユーザが前記撮像装置を前記第二の撮像姿勢から前記第一の撮像姿勢に戻すためのガイド情報を算出させ、
前記ガイド情報に基づいてガイド画像を生成し前記撮像装置の備える表示部に表示させる処理をコンピュータに実行させるプログラムであって、
前記第一の撮像姿勢から前記第二の撮像姿勢に変位する際の前記撮像装置の撮像の焦点距離が所定の値未満のときは前記センサ部に検出させた前記角速度から前記撮像姿勢情報を算出させ、前記所定の値以上のときは前記動きベクトルから前記撮像姿勢情報を算出させることを特徴とするプログラム。
Let the sensor unit of the imaging device detect the angular velocity of rotation in the horizontal direction, vertical direction, and tilt direction of the imaging device,
Calculating a motion vector of a captured image captured by the imaging device;
From each of the angular velocity and the motion vector detected by the sensor unit, a displacement amount between the first imaging posture and the second imaging posture of the imaging device is calculated as imaging posture information,
From the imaging posture information, the user calculates guide information for returning the imaging device from the second imaging posture to the first imaging posture,
A program for causing a computer to execute a process of generating a guide image based on the guide information and displaying the guide image on a display unit included in the imaging device,
The imaging posture information is calculated from the angular velocity detected by the sensor unit when the focal length of imaging of the imaging device when the first imaging posture is displaced to the second imaging posture is less than a predetermined value. And causing the imaging posture information to be calculated from the motion vector when the value is equal to or greater than the predetermined value.
JP2011122666A 2011-05-31 2011-05-31 Imaging device and program Withdrawn JP2012253451A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011122666A JP2012253451A (en) 2011-05-31 2011-05-31 Imaging device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011122666A JP2012253451A (en) 2011-05-31 2011-05-31 Imaging device and program

Publications (1)

Publication Number Publication Date
JP2012253451A true JP2012253451A (en) 2012-12-20

Family

ID=47525885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011122666A Withdrawn JP2012253451A (en) 2011-05-31 2011-05-31 Imaging device and program

Country Status (1)

Country Link
JP (1) JP2012253451A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015102745A (en) * 2013-11-26 2015-06-04 株式会社ニコン Shake correction device, lens barrel, and camera
JP2018060228A (en) * 2017-12-28 2018-04-12 株式会社ニコン Interchangeable lens and optical instrument
JP2021002803A (en) * 2019-06-24 2021-01-07 キヤノン株式会社 Image processing apparatus, control method therefor, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015102745A (en) * 2013-11-26 2015-06-04 株式会社ニコン Shake correction device, lens barrel, and camera
JP2018060228A (en) * 2017-12-28 2018-04-12 株式会社ニコン Interchangeable lens and optical instrument
JP2021002803A (en) * 2019-06-24 2021-01-07 キヤノン株式会社 Image processing apparatus, control method therefor, and program
JP7353821B2 (en) 2019-06-24 2023-10-02 キヤノン株式会社 Image processing device, its control method, program

Similar Documents

Publication Publication Date Title
US9019387B2 (en) Imaging device and method of obtaining image
JP4717748B2 (en) Camera body and camera system having the same
US9025039B2 (en) Image pickup apparatus and image blur correcting method for performing image blur correction based on at least one of shutter speed and amount of image blur when taking image
US8089549B2 (en) Imaging apparatus capable of detecting and displaying information with respect to an incline thereof
KR101856947B1 (en) Photographing apparatus, motion estimation apparatus, method for image compensation, method for motion estimation, computer-readable recording medium
KR101795603B1 (en) Digital photographing apparatus and controlling method thereof
KR101339193B1 (en) Camera platform system
JP6135848B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2017199042A5 (en)
US20140063279A1 (en) Image capture device and image processor
US9210323B2 (en) Image capture device and image processor
JP6128458B2 (en) Imaging apparatus and image processing method
JP2011082719A (en) Image pickup device
JP2012253451A (en) Imaging device and program
JP5724057B2 (en) Imaging device
US8817127B2 (en) Image correction device for image capture device and integrated circuit for image correction device
JP2011166497A (en) Imaging device
KR100664811B1 (en) Method and apparatus for controlling privacy mask display
US10484613B2 (en) Image capturing control apparatus capable to perform notification for change of capturing range associated with indicating inclusion of mikire, method of controlling, and storage medium
JP2000069353A (en) Camera-shake detector and camera-shake correction device
JP2008067081A (en) Portable imaging display device
TWI639338B (en) Image capturing apparatus and image smooth zooming method thereof
JP2017204666A (en) Imaging device
JP2011234310A (en) Imaging apparatus
JP2011259341A (en) Imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805