JP6395156B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP6395156B2
JP6395156B2 JP2015006979A JP2015006979A JP6395156B2 JP 6395156 B2 JP6395156 B2 JP 6395156B2 JP 2015006979 A JP2015006979 A JP 2015006979A JP 2015006979 A JP2015006979 A JP 2015006979A JP 6395156 B2 JP6395156 B2 JP 6395156B2
Authority
JP
Japan
Prior art keywords
image data
area
coordinates
angle
light receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015006979A
Other languages
Japanese (ja)
Other versions
JP2016134687A (en
Inventor
光隆 木村
光隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015006979A priority Critical patent/JP6395156B2/en
Priority to CN201610019561.5A priority patent/CN105812653B/en
Priority to US14/997,497 priority patent/US9774782B2/en
Publication of JP2016134687A publication Critical patent/JP2016134687A/en
Application granted granted Critical
Publication of JP6395156B2 publication Critical patent/JP6395156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像素子から得られた1次画像データに変形処理を施す撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method for performing deformation processing on primary image data obtained from an imaging element.

デジタルカメラ等の撮像装置を用いて例えば被写体である建築物を見上げる姿勢で撮像する場合、画像中において建築物は上すぼまりに台形状に歪む。例えば、特開2007−43545号公報には、被写体を撮像するときの撮像装置の姿勢を加速度センサによって検出し、被写体の台形状の歪みを自動的に補正する台形補正処理を行う技術が開示されている。   For example, when an image is taken with an imaging device such as a digital camera looking up at a building that is a subject, the building is distorted into a trapezoidal shape in the upper part of the image. For example, Japanese Patent Application Laid-Open No. 2007-43545 discloses a technique for detecting a posture of an imaging device when an object is imaged by an acceleration sensor and performing a trapezoid correction process for automatically correcting a trapezoidal distortion of the object. ing.

また、オートフォーカス動作が可能な撮像装置において、オートフォーカスを行う領域であるAF領域の位置を、使用者の指示に基づいて移動させる技術が知られている。   In addition, in an imaging apparatus capable of performing an autofocus operation, a technique is known in which the position of an AF area that is an autofocus area is moved based on a user instruction.

特開2007−43545号公報JP 2007-43545 A

特開2007−43545号公報に開示の技術のように、撮像した画像に台形補正処理を施す場合、撮影前に使用者によって指定されたAF領域の位置が、台形補正処理の実行によって使用者の意図しない位置に移動してしまう場合がある。例えば、撮像した画像に台形補正処理を施す場合には、台形補正処理後の画像における撮像装置の視野の外形が台形等の矩形状ではない形状となるため、台形補正処理後の画像の視野内の一部領域を矩形状に切り出して画像表示装置に表示することが考えられる。この場合において、AF領域の位置が視野の外縁部近傍に指定されていれば、台形補正処理の変形によってAF領域が切り出した画像の外に位置してしまう。   As in the technique disclosed in Japanese Patent Application Laid-Open No. 2007-43545, when a trapezoidal correction process is performed on a captured image, the position of the AF area designated by the user before shooting is changed by the execution of the keystone correction process. It may move to an unintended position. For example, when the trapezoidal correction process is performed on the captured image, the outer shape of the field of view of the imaging device in the image after the keystone correction process is not a rectangular shape such as a trapezoid. It is conceivable to cut out a partial area of the image into a rectangular shape and display it on the image display device. In this case, if the position of the AF area is specified in the vicinity of the outer edge of the field of view, the AF area is positioned outside the image cut out due to the deformation of the trapezoidal correction process.

本発明は、前述した点に鑑みてなされたものであって、使用者の意図通りに台形補正処理を施した画像を撮像できる撮像装置及び撮像方法を提供することを目的とする。   The present invention has been made in view of the above-described points, and an object thereof is to provide an imaging apparatus and an imaging method capable of imaging an image that has been subjected to trapezoidal correction processing as intended by the user.

本発明の一態様の撮像装置は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備え、前記入力装置は、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付け、前記画像処理部は、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記AF領域の座標を前記切り出し領域内の座標に変更する。 An imaging device according to one embodiment of the present invention is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens, and an imaging element that acquires primary image data every predetermined frame period, in synchronization with the frame period From a focal length detection unit that acquires a focal length of the imaging lens, a first angle that is an angle in the pitch direction with respect to the light receiving surface, and a second angle that is an angle in the yaw direction with respect to the light receiving surface An input device that accepts an input of a correction angle including two values, and using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is transmitted to the light receiving surface. An image processing unit that generates secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction and forms the second angle in the yaw direction with respect to the light receiving surface; In sync with the cycle , Comprising an image display device that displays an image of a rectangular cut-out region in said second image data, and a AF control unit that performs control for changing the focal distance of the imaging lens, wherein the input device, the An input designating the position of the AF area in the primary image data to be displayed on the image display device is received, and the image processing unit converts the coordinates of the AF area in the primary image data into the secondary image data. If the coordinates of the AF area in the secondary image data are outside the cutout area, the coordinates of the AF area are changed to the coordinates in the cutout area. To do.

また、本発明の別の態様の撮像装置は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備え、前記入力装置は、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付け、前記画像処理部は、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記2次画像データの全体及び当該2次画像データ中における前記AF領域の位置を示すAF領域アイコンを前記画像表示装置に表示する。 According to another aspect of the present invention, there is provided an imaging device that is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens and that acquires primary image data every predetermined frame period; A focal length detection unit that acquires the focal length of the imaging lens in synchronization, a first angle that is an angle in the pitch direction with respect to the light receiving surface, and an angle that is in the yaw direction with respect to the light receiving surface. An input device that accepts an input of a correction angle including two values of two angles, and the primary image data is received by using the focal length value and the correction angle value in synchronization with the frame period. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction with respect to the surface and forms the second angle in the yaw direction with respect to the light receiving surface; , The frame period An image display device that synchronously displays an image in a rectangular cut-out region in the secondary image data; and an AF control unit that performs control to change a focusing distance of the imaging lens, and the input device receives an input for specifying a position of the AF area in the in the primary image data to be displayed on the image display device, the image processing section, the coordinates of the AF area in the in the primary image data, the secondary performs the conversion process to be projected to the coordinate in the image data, the coordinates of the AF area in the in the secondary image data, wherein when it is outside the clipping region, as a whole and the second pre-Symbol secondary image data An AF area icon indicating the position of the AF area in the next image data is displayed on the image display device.

本発明の一態様の撮像装置は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備える撮像装置の撮像方法であって、前記入力装置により、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、前記画像処理部により、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記AF領域の座標を前記切り出し領域内の座標に変更するステップと、を含む。 An imaging device according to one embodiment of the present invention is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens, and an imaging element that acquires primary image data every predetermined frame period, in synchronization with the frame period From a focal length detection unit that acquires a focal length of the imaging lens, a first angle that is an angle in the pitch direction with respect to the light receiving surface, and a second angle that is an angle in the yaw direction with respect to the light receiving surface An input device that accepts an input of a correction angle including two values, and using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is transmitted to the light receiving surface. An image processing unit that generates secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction and forms the second angle in the yaw direction with respect to the light receiving surface; In sync with the cycle An imaging method of an imaging apparatus comprising: an image display device that displays an image in a rectangular cut-out region in the secondary image data; and an AF control unit that performs control to change a focusing distance of the imaging lens. Te, by the input device, and a step of accepting an input for specifying the position of the AF area in the in the primary image data to be displayed on the image display device, by the image processing unit, the AF area in the primary image in the data When the coordinates of the AF area in the secondary image data are outside the cut-out area, a conversion process is performed for projecting the coordinates of the AF area to the coordinates in the secondary image data. Changing coordinates to coordinates in the cutout region.

また、本発明の別の態様の撮像方法は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備える撮像装置の撮像方法であって、前記入力装置により、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、前記画像処理部により、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記2次画像データの全体及び当該2次画像データ中における前記AF領域の位置を示すAF領域アイコンを前記画像表示装置に表示するステップと、を含む。 According to another aspect of the present invention, there is provided an imaging method in which a light receiving surface is arranged to be orthogonal to an optical axis of an imaging lens, and an image sensor that acquires primary image data every predetermined frame period; A focal length detection unit that acquires the focal length of the imaging lens in synchronization, a first angle that is an angle in the pitch direction with respect to the light receiving surface, and an angle that is in the yaw direction with respect to the light receiving surface. An input device that accepts an input of a correction angle including two values of two angles, and the primary image data is received by using the focal length value and the correction angle value in synchronization with the frame period. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction with respect to the surface and forms the second angle in the yaw direction with respect to the light receiving surface; , The frame period Imaging of an imaging apparatus including an image display apparatus that displays an image in a rectangular cut-out area in the secondary image data in synchronization and an AF control unit that performs control to change a focusing distance of the imaging lens a method, by the input device, and a step of accepting an input for specifying the position of the AF area in the in the primary image data to be displayed on the image display device, by the image processing unit, in the primary image in the data A conversion process for projecting the coordinates of the AF area to the coordinates in the secondary image data is executed, and when the coordinates of the AF area in the secondary image data are outside the cut-out area, including a step of displaying a whole and AF area icon indicating a position of the AF area in the said secondary image data of the serial secondary image data to the image display device, the .

本発明によれば、使用者の意図通りに台形補正処理を施した画像を撮像できる撮像装置及び撮像方法を実現できる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device and imaging method which can image the image which performed the trapezoid correction process as a user intends are realizable.

第1の実施形態の撮像装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the imaging device of 1st Embodiment. 第1の実施形態の撮像装置の背面側の斜視図である。It is a perspective view of the back side of the imaging device of a 1st embodiment. 第1の実施形態の撮像装置の撮像動作のフローチャートである。3 is a flowchart of an imaging operation of the imaging apparatus according to the first embodiment. 台形補正処理のフローチャートである。It is a flowchart of a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 第1の実施形態のAF領域表示処理のフローチャートである。It is a flowchart of AF area display processing of the first embodiment. 第1の実施形態のAF領域表示処理を説明するための図である。It is a figure for demonstrating the AF area | region display process of 1st Embodiment. 第1の実施形態のAF領域表示処理を説明するための図である。It is a figure for demonstrating the AF area | region display process of 1st Embodiment. 第1の実施形態のAF領域表示処理を説明するための図である。It is a figure for demonstrating the AF area | region display process of 1st Embodiment. 第2の実施形態の撮像装置の撮像動作のフローチャートである。It is a flowchart of the imaging operation of the imaging device of 2nd Embodiment. 第2の実施形態の撮像装置の画像表示及びAF領域表示処理のフローチャートである。10 is a flowchart of image display and AF area display processing of the imaging apparatus according to the second embodiment. 第2の実施形態の画像表示及びAF領域表示処理を説明するための図である。It is a figure for demonstrating the image display and AF area | region display process of 2nd Embodiment. 第3の実施形態の撮像装置の撮像動作のフローチャートである。It is a flowchart of the imaging operation of the imaging device of 3rd Embodiment. 第3の実施形態の撮像装置の画像表示及びAF領域表示処理のフローチャートである。10 is a flowchart of image display and AF area display processing of the imaging apparatus according to the third embodiment. 第3の実施形態の撮像装置の合焦表示処理のフローチャートである。12 is a flowchart of focus display processing of the imaging apparatus according to the third embodiment.

以下に、本発明の好ましい形態について図面を参照して説明する。なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the drawings used for the following description, the scale of each component is made different in order to make each component recognizable on the drawing. It is not limited only to the quantity of the component described in (1), the shape of the component, the ratio of the size of the component, and the relative positional relationship of each component.

(第1の実施形態)
図1及び図2に示すように、撮像装置1は、CCDやCMOSイメージセンサ等の撮像素子3、画像表示装置6、入力装置7及び制御部10を備える。本実施形態では一例として、撮像装置1は、撮像素子3及び制御部10を収容する本体部2と、当該本体部2に固定される撮像レンズ4とを具備し、撮像レンズ4によって結像された光学像を電子データとして記憶する、いわゆるデジタルカメラの形態を有する。なお、撮像装置1は、撮像レンズ4を本体部2から取り外し可能な、いわゆるレンズ交換式のデジタルカメラであってもよいし、撮像レンズ4を本体部2から取り外すことのできないレンズ一体式のデジタルカメラであってもよい。
(First embodiment)
As shown in FIGS. 1 and 2, the imaging device 1 includes an imaging device 3 such as a CCD or a CMOS image sensor, an image display device 6, an input device 7, and a control unit 10. In the present embodiment, as an example, the imaging apparatus 1 includes a main body 2 that houses the imaging element 3 and the control unit 10, and an imaging lens 4 that is fixed to the main body 2, and is imaged by the imaging lens 4. It has the form of a so-called digital camera that stores optical images as electronic data. The imaging device 1 may be a so-called interchangeable lens digital camera in which the imaging lens 4 can be removed from the main body 2, or a lens-integrated digital camera in which the imaging lens 4 cannot be removed from the main body 2. It may be a camera.

以下では、撮像装置1の姿勢方向の定義として、撮像レンズ4の光軸方向をZ軸と定義する。また、撮像装置1を正立状態とした場合に、光軸と直交しかつ水平となる方向をX軸とし、光軸と直交しかつ垂直となる方向をY軸とする。また、撮像装置1の姿勢変化の方向を表すために、撮像装置1のX軸周りの回転方向をピッチ方向と称し、Y軸周りの回転方向をヨー方向と称し、Z軸周りの回転方向をロール方向と称する。   Hereinafter, as the definition of the orientation direction of the imaging apparatus 1, the optical axis direction of the imaging lens 4 is defined as the Z axis. When the imaging apparatus 1 is in an upright state, the direction orthogonal to the optical axis and horizontal is the X axis, and the direction orthogonal to and perpendicular to the optical axis is the Y axis. Further, in order to represent the direction of change in the posture of the imaging device 1, the rotation direction around the X axis of the imaging device 1 is referred to as the pitch direction, the rotation direction around the Y axis is referred to as the yaw direction, and the rotation direction around the Z axis is referred to as the rotation direction. Called the roll direction.

撮像素子3は、矩形の受光面を有する。撮像素子3の受光面は、撮像レンズ4の光軸に直交するように配設されている。撮像レンズ4は、オートフォーカス動作が可能であり、合焦距離を変化させるために一部又は全部のレンズを移動させるAF機構部4aを備える。また、本実施形態では一例として、撮像レンズ4は、焦点距離を変更可能な、いわゆるズームレンズである。撮像レンズ4のズーム動作は、使用者から入力される力によって行われる手動ズームの形態であってもよいし、撮像レンズ4内に組み込まれた電動モータが発生する力によって行われる電動ズームの形態であってもよい。   The image sensor 3 has a rectangular light receiving surface. The light receiving surface of the image sensor 3 is disposed so as to be orthogonal to the optical axis of the image pickup lens 4. The imaging lens 4 can perform an autofocus operation, and includes an AF mechanism unit 4a that moves some or all of the lenses to change the focusing distance. In the present embodiment, as an example, the imaging lens 4 is a so-called zoom lens that can change the focal length. The zoom operation of the imaging lens 4 may be in the form of manual zoom performed by the force input from the user, or the form of electric zoom performed by the force generated by the electric motor incorporated in the imaging lens 4. It may be.

本実施形態の撮像レンズ4は、撮像レンズ4の現在の焦点距離の情報を制御部10に出力する焦点距離検出部4bを備える。焦点距離検出部4bの構成は、ロータリーエンコーダを用いて焦点距離を検出する形態や、ズーム動作用のステッピングモータを動作させるパルス数をカウントする形態等、公知の技術である。なお、例えば撮像装置1がレンズ一体式である場合には、焦点距離検出部4bは、制御部10に含まれる形態であってもよい。   The imaging lens 4 of the present embodiment includes a focal length detection unit 4 b that outputs information on the current focal length of the imaging lens 4 to the control unit 10. The configuration of the focal length detection unit 4b is a known technique such as a configuration in which a focal length is detected using a rotary encoder, or a number of pulses for operating a stepping motor for zoom operation is counted. For example, when the imaging device 1 is a lens-integrated type, the focal length detection unit 4b may be included in the control unit 10.

撮像装置1は、レンズシャッタ機構又はフォーカルプレーンシャッタ機構を備えていてもよい。また、撮像装置1は、撮像レンズ4に、絞り機構を備えていてもよい。   The imaging device 1 may include a lens shutter mechanism or a focal plane shutter mechanism. The imaging device 1 may include an aperture mechanism in the imaging lens 4.

画像表示装置6は、例えば液晶表示装置又は有機EL表示装置等からなり、画像を表示する。本実施形態の画像表示装置6の表示面の外形は矩形である。画像表示装置6は、撮像装置1のグラフィカル・ユーザー・インターフェース(GUI)の表示、撮像動作中にファインダーとして機能するライブビューの表示、及び記録された画像データの表示等を行う。   The image display device 6 includes, for example, a liquid crystal display device or an organic EL display device, and displays an image. The outer shape of the display surface of the image display device 6 of this embodiment is a rectangle. The image display device 6 displays a graphical user interface (GUI) of the imaging device 1, displays a live view that functions as a finder during an imaging operation, displays recorded image data, and the like.

本実施形態では一例として、画像表示装置6は、本体部2に配設されている。なお、画像表示装置6は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。   In the present embodiment, as an example, the image display device 6 is disposed in the main body 2. The image display device 6 may be separated from the main body 2 and may be disposed in another electronic device that is connected to the main body 2 by wired communication or wireless communication.

入力装置7は、例えばレバースイッチ、ダイヤルスイッチ、ボタンスイッチ、タッチセンサ等の、使用者が撮像装置1の動作指示を入力するための一つ又は複数の操作部材からなる。   The input device 7 includes one or a plurality of operation members such as a lever switch, a dial switch, a button switch, and a touch sensor, for the user to input an operation instruction of the imaging device 1.

本実施形態では一例として、入力装置7は、電源操作スイッチ7a、レリーズスイッチ7b、4方向スイッチ7c、ダイヤルスイッチ7d、タッチパネル7e及び2方向スイッチ7fを備える。タッチパネル7eは、画像表示装置15の表示面上に配設されている。なお、図示する本実施形態では、一例として入力装置7を構成する全ての部材が撮像装置1に設けられている。しかし、入力装置7の構成は本実施形態に限られるものではなく、例えば入力装置7の一部又は全部は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。   In the present embodiment, as an example, the input device 7 includes a power operation switch 7a, a release switch 7b, a four-way switch 7c, a dial switch 7d, a touch panel 7e, and a two-way switch 7f. The touch panel 7 e is disposed on the display surface of the image display device 15. In the illustrated embodiment, all members constituting the input device 7 are provided in the imaging device 1 as an example. However, the configuration of the input device 7 is not limited to this embodiment. For example, part or all of the input device 7 is separated from the main body 2 and is connected to the main body 2 by wired communication or wireless communication. It may be arranged in another electronic device.

レリーズスイッチ7bは、異なる押し込み量又は異なる押し込み力によって動作する第1レリーズスイッチ及び第2レリーズスイッチを備えた、いわゆる2段の押しボタンスイッチである。本実施形態では、レリーズスイッチ7bに加える押し込み力を増大させていった場合、先に第1レリーズスイッチがON状態となり、次に第2レリーズスイッチがON状態となる。第1レリーズスイッチのみがON状態である状態は、いわゆる半押しの状態であり、第2レリーズスイッチがON状態である状態は、いわゆる全押しの状態である。   The release switch 7b is a so-called two-stage push button switch including a first release switch and a second release switch that operate with different push amounts or different push forces. In the present embodiment, when the pushing force applied to the release switch 7b is increased, the first release switch is turned on first, and then the second release switch is turned on. The state where only the first release switch is in the ON state is a so-called half-pressed state, and the state where the second release switch is in the ON state is a so-called fully-pressed state.

制御部10は、CPU(演算装置)11、RAM(記憶装置)12、フラッシュメモリ(補助記憶装置)13、画像処理部16、入出力装置及び電力制御装置等を具備して構成されており、撮像装置1の後述する動作を、所定のプログラムに基づいて制御する構成を有している。本実施形態では、撮像装置1の制御プログラムは、不揮発性の記憶媒体であるフラッシュメモリ13等に記憶されている。   The control unit 10 includes a CPU (arithmetic device) 11, a RAM (storage device) 12, a flash memory (auxiliary storage device) 13, an image processing unit 16, an input / output device, a power control device, and the like. It has the structure which controls the operation | movement mentioned later of the imaging device 1 based on a predetermined program. In the present embodiment, the control program for the imaging apparatus 1 is stored in the flash memory 13 or the like that is a nonvolatile storage medium.

制御部10は、撮像素子駆動部8に電気的に接続されている。撮像素子駆動部8は、制御部10の制御にしたがって撮像素子3を駆動する。また、撮像素子駆動部8は、撮像素子3から出力された2次元の画像信号をデジタル信号である1次画像データに変換する。ここで、1次画像データに基づいて生成される画像の外形は、矩形状である。以下では、1次画像に基づいて生成される画像のことを、単に1次画像データと称する。1次画像データ中の座標について、撮像装置1を正立状態に保持した場合において視野中の鉛直方向に沿う軸をy軸とし、視野中の水平方向に沿う軸をx軸とする。なお、本実施形態では一例として、撮像素子3と撮像素子駆動部8とを別体として示しているが、撮像素子駆動部8は撮像素子3内に一体に含まれる形態であってもよい。   The control unit 10 is electrically connected to the image sensor driving unit 8. The image sensor driving unit 8 drives the image sensor 3 under the control of the control unit 10. The image sensor driving unit 8 converts the two-dimensional image signal output from the image sensor 3 into primary image data that is a digital signal. Here, the outer shape of the image generated based on the primary image data is rectangular. Hereinafter, an image generated based on the primary image is simply referred to as primary image data. Regarding the coordinates in the primary image data, when the imaging device 1 is held in an upright state, the axis along the vertical direction in the visual field is the y axis, and the axis along the horizontal direction in the visual field is the x axis. In the present embodiment, as an example, the image sensor 3 and the image sensor drive unit 8 are shown as separate bodies, but the image sensor drive unit 8 may be integrally included in the image sensor 3.

RAM12には、制御プログラム12a、画像データバッファ12b及びログ情報バッファ12cの複数の記憶エリアを有する。制御プログラム12aは、撮像装置1の電源投入時に、フラッシュメモリ13から読み出した制御プログラムを記憶する記憶エリアである。   The RAM 12 has a plurality of storage areas for a control program 12a, an image data buffer 12b, and a log information buffer 12c. The control program 12a is a storage area for storing a control program read from the flash memory 13 when the imaging apparatus 1 is powered on.

画像データバッファ12bは、撮像素子駆動部8から出力された1次画像データや、後述する画像処理部16によって生成された2次画像データを記憶する記憶エリアである。以下では、画像データバッファ12bに記憶されているデータについて、1次画像データ及び2次画像データの区別が不要である場合には、単に画像データと称する。   The image data buffer 12b is a storage area for storing primary image data output from the image sensor driving unit 8 and secondary image data generated by the image processing unit 16 described later. Hereinafter, the data stored in the image data buffer 12b is simply referred to as image data when it is not necessary to distinguish between primary image data and secondary image data.

なお、画像データバッファ12bは、画像処理部16が扱う画像データ専用のビデオメモリに設けられる記憶エリアであってもよい。また、ログ情報バッファ12cは、後述する台形歪補正処理の実行に用いる変数を記憶する記憶エリアである。   The image data buffer 12b may be a storage area provided in a video memory dedicated to image data handled by the image processing unit 16. The log information buffer 12c is a storage area for storing variables used for execution of trapezoidal distortion correction processing described later.

AF制御部14は、撮像素子3の受光面の所定の領域内での撮像レンズ4の結像状態を検出し、撮像装置1によるオートフォーカス動作を制御する。より詳しくは、AF制御部14は、1次画像データ中の所定の領域であるAF領域内のコントラストを検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。すなわち、本実施形態の撮像装置1は、一般にコントラスト検出方式と称されるオートフォーカス動作が可能である。なお、撮像装置1のオートフォーカス動作の形態は、前述したコントラスト検出方式に限られるものではない。例えば、撮像装置1は、撮像面に被写体像の位相差を検出する測距センサが配置された撮像素子3を備え、測距センサによって検出された位相差情報(デフォーカス量)に基づいて撮像レンズ4を駆動し合焦状態とする、一般に位相差検出方式と称されるオートフォーカス動作が可能であってもよい。   The AF control unit 14 detects the imaging state of the imaging lens 4 within a predetermined region of the light receiving surface of the imaging device 3 and controls the autofocus operation by the imaging device 1. More specifically, the AF control unit 14 controls the AF mechanism unit 4a to change the in-focus distance while detecting the contrast in the AF region which is a predetermined region in the primary image data. Set to the focused state. That is, the imaging apparatus 1 of the present embodiment can perform an autofocus operation generally called a contrast detection method. Note that the form of the autofocus operation of the imaging apparatus 1 is not limited to the above-described contrast detection method. For example, the imaging apparatus 1 includes an imaging element 3 in which a distance measuring sensor that detects a phase difference of a subject image is disposed on an imaging surface, and performs imaging based on phase difference information (defocus amount) detected by the distance measuring sensor. An autofocus operation generally called a phase difference detection method that drives the lens 4 to bring it into focus may be possible.

1次画像データ中におけるAF領域の座標及び大きさは、固定されていてもよいし、使用者による入力装置7の操作に応じて変更可能であってもよい。また、1次画像データ中におけるAF領域の座標及び大きさは、これらを制御部10が所定のプログラムに基づいて自動的に変更する形態であってもよい。   The coordinates and size of the AF area in the primary image data may be fixed or may be changed according to the operation of the input device 7 by the user. Further, the coordinates and size of the AF area in the primary image data may be changed automatically by the control unit 10 based on a predetermined program.

本実施形態では一例として、1次画像データ中のAF領域の座標を示すAF位置指定座標は変更することが可能であり、このAF領域の座標の決定は、使用者がタッチパネル7eや4方向スイッチ7c等の入力装置7を操作することによって行われる。AF位置指定座標は、RAM12のログ情報バッファ12cに記憶される。使用者によるAF位置指定座標の変更指示が入力装置7を介して入力された場合には、ログ情報バッファ12c内のAF位置指定座標の値が書き換えられる。   In this embodiment, as an example, the AF position designation coordinates indicating the coordinates of the AF area in the primary image data can be changed. The user can determine the coordinates of the AF area by touching the touch panel 7e or the four-way switch. This is done by operating the input device 7 such as 7c. The AF position designation coordinates are stored in the log information buffer 12c of the RAM 12. When an instruction to change the AF position designation coordinates by the user is input via the input device 7, the value of the AF position designation coordinates in the log information buffer 12c is rewritten.

AE制御部15は、撮像素子3から取得される1次画像データに対する、露出量の制御を行う。AE制御部15は、1次画像データから得られる被写体輝度に基づいて、露出値を算出する。   The AE control unit 15 controls the exposure amount for the primary image data acquired from the image sensor 3. The AE control unit 15 calculates an exposure value based on the subject brightness obtained from the primary image data.

画像処理部16は、画像データバッファ12bに記憶されている画像データに所定の画像処理を施す。以下では、画像処理部16によって画像処理を施された後の画像データを、2次画像データと称する。本実施形態の画像処理部16は、画像データに対して後述する台形補正を施すための、台形歪補正係数算出部16a及び補正処理部16bを含む。   The image processing unit 16 performs predetermined image processing on the image data stored in the image data buffer 12b. Hereinafter, the image data that has been subjected to image processing by the image processing unit 16 is referred to as secondary image data. The image processing unit 16 of the present embodiment includes a trapezoidal distortion correction coefficient calculation unit 16a and a correction processing unit 16b for performing trapezoidal correction described later on the image data.

台形補正係数算出部16aは、焦点距離検出部4bから得られる撮像レンズ4の焦点距離の値と、入力装置7を介して入力された後述する補正角度の値、を用いて、台形補正の演算処理の実行に必要な補正係数を算出する。補正処理部16bは、台形補正係数算出部16aによって算出された補正係数に基づいて、1次画像データに対して座標変換を伴う画像補間処理を行う。前記画像補間処理は、バイキュービック補間やバイリニア補間等の画像補間処理を実施するものである。   The trapezoidal correction coefficient calculation unit 16a uses the value of the focal length of the imaging lens 4 obtained from the focal length detection unit 4b and the value of the correction angle (described later) input via the input device 7 to calculate the keystone correction. A correction coefficient necessary for executing the process is calculated. The correction processing unit 16b performs image interpolation processing with coordinate conversion on the primary image data based on the correction coefficient calculated by the trapezoidal correction coefficient calculation unit 16a. The image interpolation processing performs image interpolation processing such as bicubic interpolation and bilinear interpolation.

なお、本実施形態では一例として、前述のAF制御部14、AE制御部15及び画像処理部16の機能構成は、制御部10に含まれている。なお、AF制御部14、AE制御部15及び画像処理部16の機能構成は、例えばそれぞれの機能を実行する専用のプロセッサ回路等の専用のハードウェアを用いる形態であってもよい。   In the present embodiment, as an example, the functional configurations of the AF control unit 14, the AE control unit 15, and the image processing unit 16 described above are included in the control unit 10. Note that the functional configurations of the AF control unit 14, the AE control unit 15, and the image processing unit 16 may be, for example, a form using dedicated hardware such as a dedicated processor circuit that executes each function.

また、本実施形態の撮像装置1は、商用電源、ACアダプタ又は電池等の電源20に接続される電源接続部21及び、フラッシュメモリカード等の記憶媒体22に接続される記憶媒体接続部23を備える。本実施形態では一例として、電源20は電池であって、本体部2内に着脱可能に収容される。また、本実施形態では一例として、記憶媒体22はフラッシュメモリカードであって、本体部2内に着脱可能に収容される。なお、電源20となる電池及び記憶媒体22は、本体部2内に固定される形態であってもよい。また、記憶媒体22は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。   In addition, the imaging apparatus 1 of the present embodiment includes a power connection unit 21 connected to a commercial power source, a power source 20 such as an AC adapter or a battery, and a storage medium connection unit 23 connected to a storage medium 22 such as a flash memory card. Prepare. In the present embodiment, as an example, the power source 20 is a battery and is detachably accommodated in the main body 2. In the present embodiment, as an example, the storage medium 22 is a flash memory card and is detachably accommodated in the main body 2. Note that the battery and the storage medium 22 serving as the power source 20 may be fixed in the main body 2. The storage medium 22 may be arranged in another electronic device that is separated from the main body 2 and connected to the main body 2 by wired communication or wireless communication.

次に、画像処理部16において実行される台形補正処理について、図4に示すフローチャートを参照して説明する。台形補正処理とは、概略的には、被写体に正対していない位置において撮像された1次画像データに対して台形歪みを補正する幾何学的な変形処理を施すことによって、被写体に正対する仮想的な視点から撮像したような2次画像データを生成する処理である。   Next, the trapezoid correction process executed in the image processing unit 16 will be described with reference to the flowchart shown in FIG. The trapezoidal correction process is generally a virtual that directly faces a subject by performing geometric deformation processing for correcting trapezoidal distortion on primary image data captured at a position not facing the subject. This is a process of generating secondary image data as if it were captured from a specific viewpoint.

以下では台形歪みを補正する幾何学的な変形処理について、説明を簡単なものとするために、被写体に正対する位置に対して、撮像装置1の姿勢がピッチ方向(上下方向にあおり傾斜角が生じる方向)に所定の角度をなす位置に配置された場合について説明する。   In the following, in order to simplify the description of the geometric deformation process for correcting the trapezoidal distortion, the orientation of the imaging device 1 is in the pitch direction (in the vertical direction and the inclination angle is relative to the position facing the subject. The case where it arrange | positions in the position which makes | forms a predetermined angle in the direction which arises is demonstrated.

例えば、図5及び図6に示すように、建築物40の矩形である前面40aを、地面に近い実視点Pから見上げるように撮像装置1によって撮像する場合、図7に示すように、1次画像データ50上では、前面40aは上すぼまりに台形に歪んだ形状となる。このとき、実視点Pからの撮像では、撮像装置1は、撮像レンズ4の光軸を水平からピッチ方向に第1角度αyだけ上方に向けた姿勢となる。1次画像データ50上において前面40aが歪むのは、撮像装置1から前面40aへの距離が下から上に向かうほど遠くなることによって、上下方向で撮影倍率が変化するためである。   For example, as shown in FIG. 5 and FIG. 6, when the front surface 40 a that is a rectangle of the building 40 is imaged by the imaging device 1 so as to look up from the actual viewpoint P close to the ground, as shown in FIG. On the image data 50, the front surface 40a has a trapezoidally distorted shape. At this time, in imaging from the actual viewpoint P, the imaging apparatus 1 is in a posture in which the optical axis of the imaging lens 4 is directed upward by a first angle αy from the horizontal to the pitch direction. The reason why the front surface 40a is distorted on the primary image data 50 is that the photographing magnification changes in the vertical direction as the distance from the imaging device 1 to the front surface 40a increases as the distance increases from bottom to top.

一方、撮像装置1を建築物40の前面40aに正対する仮想視点P’に配置して撮像する場合には、図8に示すように、1次画像データ50上において前面40aは矩形状となる。   On the other hand, when the imaging apparatus 1 is arranged and imaged at a virtual viewpoint P ′ facing the front surface 40a of the building 40, the front surface 40a has a rectangular shape on the primary image data 50 as shown in FIG. .

台形補正処理では、実視点Pから撮像した1次画像データ50中の被写体像が、図9に示すように仮想的な視点である仮想視点P’から撮影した被写体像に近似した形状となるように1次画像データ50を変形して、これを2次画像データ50’とする。言い換えれば、撮像素子3の受光面に平行な平面A上の1次画像データ50を、平面Aに対してピッチ方向に第1角度αyだけ傾いた平面Bに投影したものが、台形補正処理が施された2次画像データ50’である。   In the trapezoidal correction process, the subject image in the primary image data 50 taken from the real viewpoint P has a shape that approximates the subject image taken from the virtual viewpoint P ′, which is a virtual viewpoint, as shown in FIG. The primary image data 50 is transformed into secondary image data 50 ′. In other words, the primary image data 50 on the plane A parallel to the light receiving surface of the image sensor 3 is projected onto the plane B inclined by the first angle αy in the pitch direction with respect to the plane A. The applied secondary image data 50 '.

具体的には、台形補正処理では、まずステップS31において、焦点距離検出部4bから、撮像レンズ4の焦点距離fの値を取得し、RAM12のログ情報バッファ12cに記憶する。   Specifically, in the trapezoidal correction process, first, in step S31, the value of the focal length f of the imaging lens 4 is acquired from the focal length detection unit 4b and stored in the log information buffer 12c of the RAM 12.

次に、ステップS32において、補正角度を取得し、RAM12のログ情報バッファ12cに記憶する。ここで、補正角度とは、前述のように、撮像素子3の受光面に対してピッチ方向になす角度である第1角度αyと、撮像素子3の受光面に対してヨー方向になす角度である第2角度αxとの2つの角度の値を含む。   Next, in step S32, the correction angle is acquired and stored in the log information buffer 12c of the RAM 12. Here, as described above, the correction angle is a first angle αy that is an angle formed in the pitch direction with respect to the light receiving surface of the image sensor 3 and an angle that is formed in the yaw direction with respect to the light receiving surface of the image sensor 3. It includes two angle values with a certain second angle αx.

補正角度の値は、使用者が入力装置7を操作することによって定められる。例えば、使用者が4方向スイッチ7cを上下方向に操作することによって第1角度αyの値が増減し、使用者が4方向スイッチ7cを左右方向に操作することによって第2角度αxの値が増減する。また例えば、使用者がタッチパネル7e上をなぞるドラッグ操作の方向に応じて、第1角度αy及び第2角度αxの値が増減する形態であってもよい。補正角度の値は、連続的に変化する形態であってもよいし、ステップ状に変化する形態であってもよい。   The value of the correction angle is determined by the user operating the input device 7. For example, the value of the first angle αy increases or decreases when the user operates the four-way switch 7c in the vertical direction, and the value of the second angle αx increases or decreases when the user operates the four-way switch 7c in the horizontal direction. To do. Further, for example, the values of the first angle αy and the second angle αx may be increased or decreased according to the direction of the drag operation that the user traces on the touch panel 7e. The value of the correction angle may be continuously changed or may be changed stepwise.

次に、ステップS33において、ログ情報バッファ12cに記憶されている焦点距離fの値及び補正角度の値を用いて、1次画像データ50に台形補正処理を施し、2次画像データ50’を生成する。   Next, in step S33, the primary image data 50 is subjected to trapezoidal correction processing using the focal length f value and the correction angle value stored in the log information buffer 12c to generate secondary image data 50 ′. To do.

下記数式(1)は、平面Aの1次画像データ50の座標(x,y)と、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’、y’)との関係を表す式である。   The following mathematical formula (1) is expressed by the coordinates (x, y) of the primary image data 50 of the plane A and the coordinates (x of the secondary image data 50 ′ of the plane B inclined by the angle α with respect to the plane A in the pitch direction. ', Y').

[数1]
y={H・k1・y’}/{H−k2・y’}
x={H・x’}/{H−k2・y’}
ここで、k1及びk2は変換係数であり、
k1=cosα−sinα・tanβ
k2=H−2sinα・tanβ
である。
[Equation 1]
y = {H · k1 · y ′} / {H−k2 · y ′}
x = {H · x ′} / {H−k2 · y ′}
Here, k1 and k2 are conversion coefficients,
k1 = cos α−sin α · tan β
k2 = H-2sin α · tan β
It is.

Hは、使用者によって入力装置7を介して入力された補正角度に対応した撮像素子3の有効画素領域の所定の辺の画素数である。例えば、図7に示すように、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の上下方向の台形歪みの補正を行う場合には、Hは撮像素子3の有効画素領域の短辺方向の画素数である。具体的には、Hに対応する画素数は、撮像素子3の有効画素領域の短辺方向となる長さに対して、撮像素子3にある1画素あたりの長さ(画素ピッチ)を割り算した結果となる。   H is the number of pixels on a predetermined side of the effective pixel region of the image sensor 3 corresponding to the correction angle input by the user via the input device 7. For example, as shown in FIG. 7, when photographing with the long side of the effective pixel region of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the vertical direction of the visual field, H is the effective pixel region of the image sensor 3. The number of pixels in the short side direction. Specifically, the number of pixels corresponding to H is obtained by dividing the length (pixel pitch) per pixel in the image sensor 3 with respect to the length in the short side direction of the effective pixel region of the image sensor 3. Result.

また、図示しないが、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の左右方向の台形歪みの補正を行う場合には、Hは撮像素子3の有効画素領域の長辺方向の画素数である。この場合、Hに対応する画素数は、撮像素子3の有効画素領域の長辺方向となる長さに対して、撮像素子3にある1画素あたりの長さ(画素ピッチ)を割り算した結果となる。   Although not shown, when the image is taken with the long side of the effective pixel area of the image sensor 3 horizontal, and when correcting the trapezoidal distortion in the horizontal direction of the visual field, H is the long side of the effective pixel area of the image sensor 3 The number of pixels in the direction. In this case, the number of pixels corresponding to H is obtained by dividing the length (pixel pitch) per pixel in the image sensor 3 with respect to the length in the long side direction of the effective pixel region of the image sensor 3. Become.

また、角度βは、下記数式(2)によって算出される。   Further, the angle β is calculated by the following mathematical formula (2).

[数2]
β=arctan{L/(2・f)}
Lは、使用者によって入力装置7を介して入力された補正角度に対応した撮像素子3の有効画素領域の所定の辺の長さである(単位はmmで示す)。例えば、図7に示すように、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の上下方向の台形歪みの補正を行う場合には、Lは撮像素子3の有効画素領域の短辺方向の長さである。また、図示しないが、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の左右方向の台形歪みの補正を行う場合には、Lは撮像素子3の有効画素領域の長辺方向の長さである。fは撮像レンズ4の焦点距離である(単位はmmで示す)。すなわち、角度βは、撮像装置1の台形歪みを行う方向の画角の半分の値である。
[Equation 2]
β = arctan {L / (2 · f)}
L is the length of a predetermined side of the effective pixel area of the image sensor 3 corresponding to the correction angle input by the user via the input device 7 (unit is indicated in mm). For example, as shown in FIG. 7, when photographing with the long side of the effective pixel area of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the vertical direction of the field of view, L is the effective pixel area of the image sensor 3. Is the length in the short side direction. Although not shown, when taking a picture with the long side of the effective pixel area of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the horizontal direction of the visual field, L is the long side of the effective pixel area of the image sensor 3 The length of the direction. f is a focal length of the imaging lens 4 (unit is shown in mm). That is, the angle β is a half value of the angle of view in the direction in which the trapezoidal distortion of the imaging apparatus 1 is performed.

なお、焦点距離fの値は、使用者によって入力装置7を介して入力される値であってもよい。例えば、撮像装置1がレンズ交換式であり、焦点距離情報を取得できない撮像レンズ4が装着されている場合には、焦点距離fの値を使用者が入力することによって、使用者が所望する台形補正を実施することができる。また、焦点距離fの値を使用者が入力可能とすることによって、使用者の意図に応じた遠近感を生じさせる台形補正を行うことができる。なお、焦点距離fの値を使用者が入力可能である場合には、撮像レンズ4から取得される値と、使用者によって入力される値のどちらを用いて台形補正を実行するかを選択する手段が設けられてもよい。   The value of the focal length f may be a value input via the input device 7 by the user. For example, when the imaging device 1 is of the interchangeable lens type and the imaging lens 4 that cannot acquire focal length information is attached, the user inputs the value of the focal length f, so that the trapezoid desired by the user is obtained. Correction can be performed. In addition, by enabling the user to input the value of the focal length f, it is possible to perform keystone correction that produces a sense of perspective according to the user's intention. When the user can input the value of the focal length f, the user selects whether to perform the keystone correction using the value acquired from the imaging lens 4 or the value input by the user. Means may be provided.

ステップS33では、上記数式(1)及び(2)を用いることによって、1次画像データ50に、短辺方向の台形補正処理を実施し、2次画像データ50’を生成する。台形補正後となる2次画像データの座標(x’,y’)は、上記数式(1)が示す1次画像データ50の座標(x,y)との関係式を逆算することによって算出される。より具体的には、ステップS33では、上記数式(1)及び(2)を用い、台形補正後となる2次画像データの座標(x’,y’)に対する1次画像データ50の座標(x,y)の関係式を定義する。次にこの定義した数式(1)に基づく関係式を逆算して、入力される1次画像データ50の座標(x,y)から2次画像データ50’の座標(x’,y’)を求めることによって、図7に一例として示すような1次画像データ50に、ピッチ方向の補正角度入力に応じて、一次画像データ50の短辺方向(図7の例ではy方向)の台形補正処理を実施し、図9に示す様な2次画像データ50’を生成する。   In step S33, trapezoidal correction processing in the short side direction is performed on the primary image data 50 by using the above formulas (1) and (2) to generate secondary image data 50 '. The coordinates (x ′, y ′) of the secondary image data after the keystone correction are calculated by back calculating the relational expression with the coordinates (x, y) of the primary image data 50 indicated by the above formula (1). The More specifically, in step S33, using the above equations (1) and (2), the coordinates (x ', y') of the primary image data 50 with respect to the coordinates (x ', y') after the keystone correction are performed. , Y) is defined. Next, the relational expression based on the defined mathematical formula (1) is reversely calculated, and the coordinates (x ′, y ′) of the secondary image data 50 ′ are calculated from the coordinates (x, y) of the input primary image data 50. By obtaining the trapezoidal correction process in the short side direction (y direction in the example of FIG. 7) of the primary image data 50 according to the correction angle input in the pitch direction, the primary image data 50 shown as an example in FIG. To generate secondary image data 50 'as shown in FIG.

以上の例示では、台形補正処理は視野中の鉛直方向(ピッチ方向)について行われる作用を説明した。なお、台形補正処理は視野中の水平方向(ヨー方向)についても同様に行われる。この場合の台形補正処理は、例えば建築物40の前面40aと撮像レンズ4の光軸との水平方向になす角度が直角でない実視点Pから撮影された1次画像データを、建築物40の表面40aに正対する仮想視点P’から撮影された画像に近似させる台形補正を実行するものである。このような撮影条件では、建築物40の矩形状の前面40aは、1次画像データ中において左右方向に非対称となる。この場合の台形補正処理は、1次画像データ50又はピッチ方向の台形補正処理が施された2次画像データ50’を、平面Aに対してヨー方向に第2角度αxだけ傾いた平面Bに投影する変形処理を施したものを2次画像データ50’とする。具体的には、平面Aに対してヨー方向に第2角度αxだけ傾いた平面Bの2次画像データ50’の座標(x’、y’)は、前記数式(1)に対して、1次画像に係る座標の変数(x、y)を(y、x)に置き換えて、さらに2次画像に係る座標の変数(x’、y’)を(y’、x’)に置き換えた関係式となる。また、前記数式(2)に対して、βの値に係る、L[mm]は、撮像素子3の有効画素領域の長辺方向の長さになる。   In the above illustration, the trapezoidal correction process has been described for the action performed in the vertical direction (pitch direction) in the field of view. Note that the trapezoidal correction process is similarly performed in the horizontal direction (yaw direction) in the field of view. In this case, the trapezoidal correction processing is performed, for example, by using the primary image data captured from the actual viewpoint P where the angle between the front surface 40a of the building 40 and the optical axis of the imaging lens 4 in the horizontal direction is not a right angle as the surface of the building 40. A trapezoidal correction is performed to approximate an image taken from a virtual viewpoint P ′ directly facing 40a. Under such shooting conditions, the rectangular front surface 40a of the building 40 is asymmetric in the left-right direction in the primary image data. In this case, the trapezoidal correction process is performed by converting the primary image data 50 or the secondary image data 50 ′ subjected to the trapezoidal correction process in the pitch direction to the plane B inclined by the second angle αx with respect to the plane A in the yaw direction. The image subjected to the deformation process to be projected is defined as secondary image data 50 ′. Specifically, the coordinates (x ′, y ′) of the secondary image data 50 ′ of the plane B inclined by the second angle αx in the yaw direction with respect to the plane A are 1 Relationship in which the variable (x, y) of the coordinate related to the next image is replaced with (y, x), and the variable (x ′, y ′) of the coordinate related to the secondary image is replaced with (y ′, x ′). It becomes an expression. In addition, with respect to Equation (2), L [mm] related to the value of β is the length of the effective pixel region of the image sensor 3 in the long side direction.

以上のように、本実施形態の画像処理部16は、1次画像データ50を、撮像素子3の受光面と平行な平面Aに対してピッチ方向に第1角度αyをなし、受光面に対してヨー方向に第2角度αxをなす平面B上に投影する変形処理を施した2次画像データを生成する。   As described above, the image processing unit 16 according to the present embodiment forms the primary image data 50 in the pitch direction with respect to the plane A parallel to the light receiving surface of the image sensor 3, with respect to the light receiving surface. Then, the secondary image data subjected to the deformation process for projecting onto the plane B forming the second angle αx in the yaw direction is generated.

なお、以上に述べた台形補正処理の生成に必要な画像処理の詳細については、公知の技術であるため詳細な説明は省略するものとする。   Note that the details of the image processing necessary for generating the trapezoid correction processing described above are well-known techniques, and thus detailed description thereof will be omitted.

次に、以上に説明した構成を有する撮像装置1の動作について説明する。図3に示すフローチャートは、撮像装置1の電源がオン状態であり、かつ撮像動作モードである場合の動作を示している。撮像動作モードでは、初期状態として、所定のフレーム周期毎に撮像素子3から1次画像データを取得し、画像処理部16にて画像処理された後の2次画像データを画像表示装置6に逐次表示出力させるライブビュー表示動作をしている。また、撮像動作モードでは、撮像装置1は、レリーズスイッチ7bへの操作入力に応じて、撮像装置1が被写体像を電子データとして記憶媒体22に記憶する動作を実行する。なお、撮像装置1は、記憶媒体22に記憶されている画像の電子データを、画像表示装置6に再生表示する再生モードを実行可能であってもよい。   Next, the operation of the image pickup apparatus 1 having the configuration described above will be described. The flowchart shown in FIG. 3 shows an operation when the power supply of the imaging apparatus 1 is on and in the imaging operation mode. In the imaging operation mode, as an initial state, primary image data is acquired from the imaging device 3 every predetermined frame period, and secondary image data after image processing by the image processing unit 16 is sequentially performed on the image display device 6. Live view display operation for display output. In the imaging operation mode, the imaging device 1 executes an operation in which the imaging device 1 stores the subject image as electronic data in the storage medium 22 in response to an operation input to the release switch 7b. Note that the imaging apparatus 1 may be capable of executing a reproduction mode in which electronic image data stored in the storage medium 22 is reproduced and displayed on the image display apparatus 6.

撮像動作モードは、例えば使用者によって電源操作スイッチ7aが操作されて撮像装置1を休止状態とする入力が行われた場合、他の動作モードに切り替える操作が入力された場合、又は制御部10が休止状態に移行する判断をした場合、に終了する。この撮像動作モードを終了する判定処理は、図3のフローチャートでは省略している。   The imaging operation mode is, for example, when the user operates the power operation switch 7a to input the imaging apparatus 1 to be in a dormant state, when an operation to switch to another operation mode is input, or when the control unit 10 If it is determined to enter the hibernation state, the process ends. The determination process for ending the imaging operation mode is omitted in the flowchart of FIG.

撮像動作モードでは、撮像素子3及び撮像素子駆動部8に電力が供給されている。また、ライブビュー表示動作を行うために、撮像素子3からの1次画像データ50の取得は、所定のフレーム周期毎に行われる。撮像動作モードでは、まず、ステップS11において、撮像素子駆動部8から出力された1次画像データ50を、RAM12の画像データバッファ12bに記憶する。   In the imaging operation mode, power is supplied to the imaging device 3 and the imaging device driving unit 8. Further, in order to perform the live view display operation, the acquisition of the primary image data 50 from the image sensor 3 is performed every predetermined frame period. In the imaging operation mode, first, in step S11, the primary image data 50 output from the imaging element driving unit 8 is stored in the image data buffer 12b of the RAM 12.

次に、ステップS12において、RAM12のログ情報バッファ12cから、1次画像データ中におけるAF領域の座標を示す情報であるAF位置指定座標を取得する。   Next, in step S12, AF position designation coordinates, which are information indicating the coordinates of the AF area in the primary image data, are acquired from the log information buffer 12c of the RAM 12.

次にステップS13において、台形補正モードが使用者によって選択されているか否かを判定する。台形補正モードとは、撮像装置1が、1次画像データ50に対して、画像処理部16を用いて前述した台形補正処理を施す動作モードである。台形補正モードの選択の有無は、例えば画像表示装置6に表示されるGUIにおいて、使用者が4方向スイッチ7c又はタッチパネル7eを操作することによって切り替えられる。   Next, in step S13, it is determined whether or not the keystone correction mode is selected by the user. The trapezoidal correction mode is an operation mode in which the imaging apparatus 1 performs the above-described trapezoidal correction process on the primary image data 50 using the image processing unit 16. Whether or not the trapezoid correction mode is selected can be switched by the user operating the four-way switch 7c or the touch panel 7e on the GUI displayed on the image display device 6, for example.

ステップS13において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS28に移行し、RAM12の画像データバッファ12bに記憶されている1次画像データ50に基づく画像を、画像表示装置6に表示する。すなわち、台形補正処理が施されていない画像を画像表示装置6に表示する。   If it is determined in step S13 that the keystone correction mode has not been selected by the user, the process proceeds to step S28, and an image based on the primary image data 50 stored in the image data buffer 12b of the RAM 12 is displayed as an image. Displayed on the display device 6. That is, an image that has not been subjected to the trapezoidal correction process is displayed on the image display device 6.

次に、ステップS29に移行し、画像表示装置6に表示されている1次画像データ50に基づく表示に、1次画像データ50中におけるAF位置指定座標を示すAF領域表示アイコンを重畳して表示する。ステップS29の実行後は、ステップS17に移行する。   Next, the process proceeds to step S29, and an AF area display icon indicating the AF position designation coordinates in the primary image data 50 is superimposed and displayed on the display based on the primary image data 50 displayed on the image display device 6. To do. After executing step S29, the process proceeds to step S17.

一方、ステップS13において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS14において図4に示す台形補正処理を実行する。ステップS14が実行されることによって、1次画像データ50に対して台形補正処理を施したものである2次画像データ50’が、画像データバッファ12bに記憶される。   On the other hand, when it is determined in step S13 that the trapezoid correction mode is selected by the user, the keystone correction process shown in FIG. 4 is executed in step S14. By executing step S14, secondary image data 50 'obtained by performing keystone correction processing on the primary image data 50 is stored in the image data buffer 12b.

次にステップS15において、画像データバッファ12bに記憶されている2次画像データ50’に基づく画像を、画像表示装置6に表示する。すなわち、台形補正処理が施された画像を画像表示装置6に表示する。   In step S15, an image based on the secondary image data 50 'stored in the image data buffer 12b is displayed on the image display device 6. That is, the image on which the keystone correction process has been performed is displayed on the image display device 6.

ここで、台形補正処理が施された2次画像データ50’では、図9に示すように、撮像装置1の視野は矩形では無くなる。そこでステップS15では、2次画像データ50’中の撮像装置1の視野のうちの一部の領域である切り出し領域51’の画像を、画像表示装置6に表示する。具体的には、切り出し領域51’は、図9に2点鎖線で示すように、2次画像データ50’中の撮像装置1の視野のうちの、所定の縦横比の矩形の領域で切り出した領域とされる。ステップS15の実行後は、ステップS16に移行する。   Here, in the secondary image data 50 ′ subjected to the trapezoidal correction process, as shown in FIG. 9, the field of view of the imaging device 1 is not rectangular. Therefore, in step S15, the image of the cutout region 51 ', which is a partial region of the visual field of the imaging device 1 in the secondary image data 50', is displayed on the image display device 6. Specifically, as shown by a two-dot chain line in FIG. 9, the cutout area 51 ′ is cut out by a rectangular area having a predetermined aspect ratio in the field of view of the imaging device 1 in the secondary image data 50 ′. It is considered as an area. After execution of step S15, the process proceeds to step S16.

ステップS16においては、図10のフローチャートに示すAF領域表示処理を実行する。AF領域表示処理では、まずステップS71において、1次画像データ50中におけるAF位置指定座標60を、2次画像データ50’に投影する変換処理を実行する。説明のために、ステップS71において2次画像データ50’に投影されたAF位置指定座標には60’の符号を付す。ステップS71における変換処理は、前述した台形補正処理の数式(1)を変形した式を用いることによって行われる。   In step S16, the AF area display process shown in the flowchart of FIG. 10 is executed. In the AF area display processing, first, in step S71, conversion processing for projecting the AF position designation coordinates 60 in the primary image data 50 onto the secondary image data 50 'is executed. For the sake of explanation, the reference numeral 60 'is assigned to the AF position designation coordinates projected onto the secondary image data 50' in step S71. The conversion process in step S71 is performed by using a formula obtained by modifying Formula (1) of the trapezoid correction process described above.

次に、ステップS72において、先のステップS71において算出した2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まるか否かを判定する。ここで、切り出し領域51’とは、前述のように、台形補正処理が施された2次画像データのうちの、画像表示装置6に表示する領域である。   Next, in step S72, it is determined whether or not the AF position designation coordinate 60 'in the secondary image data 50' calculated in the previous step S71 falls within the cutout area 51 '. Here, the cutout area 51 ′ is an area to be displayed on the image display device 6 in the secondary image data that has been subjected to the trapezoidal correction process as described above.

例えば、図11に示すように、1次画像データ50中におけるAF位置指定座標60が1次画像データ50の外縁部近傍に位置する場合には、2次画像データ50’中に投影されたAF位置指定座標60’は切り出し領域51’の領域外に位置する可能性がある。   For example, as shown in FIG. 11, when the AF position designation coordinate 60 in the primary image data 50 is located near the outer edge of the primary image data 50, the AF projected in the secondary image data 50 ′. The position designation coordinates 60 ′ may be located outside the cutout area 51 ′.

図12に例示するように、ステップS72において、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まらないと判定した場合には、ステップS73に移行する。   As illustrated in FIG. 12, when it is determined in step S72 that the AF position designation coordinate 60 'in the secondary image data 50' does not fall within the cutout area 51 ', the process proceeds to step S73.

ステップS73では、図13に示すように、2次画像データ50’中におけるAF位置指定座標60’を、切り出し領域51’内の新たな座標である2次AF位置指定座標61に移動する。このステップS73におけるAF位置指定座標60’から2次AF位置指定座標61への移動は、AF領域全体が切り出し領域51’内に収まり、かつAF位置指定座標60’と2次AF位置指定座標61’との間の距離が最短となる条件で行われる。ここで、2次AF位置指定座標61’への移動は上記構成に限ることなく、例えば切り出し領域51’内の中央に移動させる,所定条件の下で2次AF位置指定座標61’を自動で再選択する構成も可能である。   In step S73, as shown in FIG. 13, the AF position designation coordinate 60 'in the secondary image data 50' is moved to the secondary AF position designation coordinate 61 which is a new coordinate in the cutout area 51 '. The movement from the AF position designation coordinate 60 ′ to the secondary AF position designation coordinate 61 in step S 73 is such that the entire AF area is within the cutout area 51 ′, and the AF position designation coordinate 60 ′ and the secondary AF position designation coordinate 61. It is performed under the condition that the distance between 'is the shortest. Here, the movement to the secondary AF position designation coordinate 61 ′ is not limited to the above configuration, and the secondary AF position designation coordinate 61 ′ is automatically moved under a predetermined condition, for example, moved to the center in the cutout area 51 ′. A configuration for reselection is also possible.

次にステップS74において、ステップS73で算出した2次画像データ中における2次AF位置指定座標61を、1次画像データ50に投影する変換処理を実行する。1次画像データ50に投影後の座標を1次AF位置指定座標61とする。ステップS75における変換処理は、前述した台形補正処理の数式(1)を用いることによって行われる。   In step S74, a conversion process for projecting the secondary AF position designation coordinates 61 in the secondary image data calculated in step S73 onto the primary image data 50 is executed. The coordinates after projection onto the primary image data 50 are set as primary AF position designation coordinates 61. The conversion process in step S75 is performed by using Equation (1) of the trapezoid correction process described above.

そして、ステップS75において、RAM12のログ情報バッファ12cに記憶されているAF位置指定座標60を、ステップS74で算出した1次画像データ50中における1次AF位置指定座標61によって書き換える。   In step S75, the AF position designation coordinates 60 stored in the log information buffer 12c of the RAM 12 are rewritten with the primary AF position designation coordinates 61 in the primary image data 50 calculated in step S74.

次にステップS76において、図13に示すように、画像表示装置6に表示された2次画像データ50’に基づく画像上の、RAM12のログ情報バッファ12cに記憶されている2次AF位置指定座標61’に基づく座標にAF領域アイコン62を重畳して表示する。ステップS76の実行後は、図3のステップS17に移行する。   Next, in step S76, as shown in FIG. 13, the secondary AF position designation coordinates stored in the log information buffer 12c of the RAM 12 on the image based on the secondary image data 50 ′ displayed on the image display device 6 are displayed. The AF area icon 62 is superimposed and displayed on the coordinates based on 61 '. After execution of step S76, the process proceeds to step S17 in FIG.

なお、ステップS76では、AF領域アイコン62の位置が、使用者が入力したAF位置指定座標60とは異なることを、使用者に知らせる警告をAF領域アイコン62とともに画像表示装置6に表示してもよい。   In step S76, a warning that informs the user that the position of the AF area icon 62 is different from the AF position designation coordinates 60 input by the user is displayed on the image display device 6 together with the AF area icon 62. Good.

このように、本実施形態では、使用者によって指定された1次画像データ50中におけるAF位置指定座標60が、台形補正処理によって切り出し領域51’内から外れてしまう場合に、自動的にAF位置指定座標を切り出し領域51’内に移動させる。   Thus, in the present embodiment, when the AF position designation coordinate 60 in the primary image data 50 designated by the user deviates from the cutout area 51 ′ by the trapezoid correction process, the AF position is automatically set. The designated coordinates are moved into the cutout area 51 ′.

一方、ステップS72において、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まると判定した場合には、ステップS79に移行する。ステップS79では、画像表示装置6に表示された2次画像データ50’に基づく画像上の、S71において算出した2次画像データ50’中におけるAF位置指定座標60’に基づく座標にAF領域アイコン62を重畳して表示する。ステップS79の実行後は、図3のステップS17に移行する。   On the other hand, if it is determined in step S72 that the AF position designation coordinate 60 'in the secondary image data 50' falls within the cutout area 51 ', the process proceeds to step S79. In step S79, the AF area icon 62 is set to the coordinates based on the AF position designation coordinates 60 ′ in the secondary image data 50 ′ calculated in S71 on the image based on the secondary image data 50 ′ displayed on the image display device 6. Is superimposed and displayed. After execution of step S79, the process proceeds to step S17 in FIG.

次に、ステップS17では、入力装置7を介してAF領域の移動を指示する入力がなされたか否かを判定する。前述のように、本実施形態におけるAF領域の移動を指示する入力は、使用者がタッチパネル7eや4方向スイッチ7c等の入力装置7を操作することによって行われる。例えば、制御部10は、画像表示装置6に表示している画像データの領域内が使用者によってタップされた場合に、AF領域の移動を指示する入力がなされたものと判定する。そして、制御部10は、使用者によってタップされた位置に対応する画像データ中の座標を、AF位置指定座標として認識する。   Next, in step S <b> 17, it is determined whether or not an input for instructing movement of the AF area is made via the input device 7. As described above, the input for instructing the movement of the AF area in the present embodiment is performed by the user operating the input device 7 such as the touch panel 7e or the four-way switch 7c. For example, the control unit 10 determines that an input for instructing movement of the AF area has been made when the user taps the area of the image data displayed on the image display device 6. Then, the control unit 10 recognizes coordinates in the image data corresponding to the position tapped by the user as AF position designation coordinates.

ステップS17において、AF領域の移動を指示する入力がなされたと判定した場合には、ステップS11に戻り、上述した動作を繰り返す。   If it is determined in step S17 that an input for instructing movement of the AF area has been made, the process returns to step S11 and the above-described operation is repeated.

一方、ステップS17において、AF領域の移動を指示する入力はなされていないと判定した場合には、ステップS18に移行する。   On the other hand, if it is determined in step S17 that there is no input instructing movement of the AF area, the process proceeds to step S18.

ステップS18では、レリーズスイッチ7bの第1レリーズスイッチがON状態であるか否かを判定する。すなわち、レリーズスイッチ7bが半押し状態であるか否かを判定する。   In step S18, it is determined whether or not the first release switch of the release switch 7b is in an ON state. That is, it is determined whether or not the release switch 7b is half pressed.

ステップS18において、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であると判定した場合には、ステップS11に戻る。すなわち、レリーズスイッチ7bが操作されるまでは、ステップS11からステップS17までの動作は、所定のフレーム周期に同期して繰り返し実行される。ステップS11からステップS17までの動作を、所定のフレーム周期に同期して繰り返すことによって、画像表示装置6に表示される1次画像データ50又は2次画像データ50’が、常に更新されるライブビュー動作が行われる。また、ステップS11からステップS17までの動作を、所定のフレーム周期に同期して繰り返すことによって、使用者の入力装置7への操作入力に応じてAF位置指定座標が変更され、AF位置指定座標の変化に応じてライブビュー表示におけるAF領域アイコン62の位置が変化する。   If it is determined in step S18 that the first release switch of the release switch 7b is in the OFF state, the process returns to step S11. That is, until the release switch 7b is operated, the operations from step S11 to step S17 are repeatedly executed in synchronization with a predetermined frame period. A live view in which the primary image data 50 or the secondary image data 50 ′ displayed on the image display device 6 is constantly updated by repeating the operations from step S11 to step S17 in synchronization with a predetermined frame period. Operation is performed. Further, by repeating the operations from step S11 to step S17 in synchronization with a predetermined frame period, the AF position designation coordinate is changed according to the operation input to the input device 7 by the user, and the AF position designation coordinate is changed. The position of the AF area icon 62 in the live view display changes according to the change.

一方、ステップS18において、レリーズスイッチ7bの第1レリーズスイッチがON状態であると判定した場合には、ステップS19へ移行する。ステップS19では、AF処理を実行する。   On the other hand, if it is determined in step S18 that the first release switch of the release switch 7b is in the ON state, the process proceeds to step S19. In step S19, AF processing is executed.

ステップS19のAF処理では、RAMのログ情報バッファ12cに記憶されている1次画像データ50中のAF位置指定座標を読み出し、1次画像データ50中のAF位置指定座標を中心としたAF領域内の、例えばコントラスト値又は位相差情報を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。   In the AF process in step S19, the AF position designation coordinates in the primary image data 50 stored in the log information buffer 12c of the RAM are read, and the AF area designation coordinates in the primary image data 50 are within the AF area. For example, while detecting the contrast value or phase difference information, the AF mechanism unit 4a is controlled to change the focusing distance to bring the imaging lens 4 into a focused state.

ここで、1次画像データ50中のAF位置指定座標の値は、使用者によって指定されたAF位置指定座標60のままである場合もあるし、前述したAF領域表示処理のステップS73で自動的に算出された1次AF位置指定座標61である場合もある。   Here, the value of the AF position designation coordinate in the primary image data 50 may remain the AF position designation coordinate 60 designated by the user, or automatically in step S73 of the AF area display process described above. In some cases, the primary AF position designation coordinates 61 calculated by

ステップS19のAF処理が終了したら、ステップS20において、例えば画像表示装置6に表示されているAF領域アイコン62の色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。   When the AF process in step S19 ends, in step S20, for example, the color of the AF area icon 62 displayed on the image display device 6 is changed, thereby displaying that the imaging lens 4 is in focus.

次に、ステップS21では、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であるか否かを判定する。ステップS21において、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であると判定した場合には、使用者がフレーミング操作を止めたと判断して、再度ステップS11に戻る。   Next, in step S21, it is determined whether or not the first release switch of the release switch 7b is in an OFF state. If it is determined in step S21 that the first release switch of the release switch 7b is in the OFF state, it is determined that the user has stopped the framing operation, and the process returns to step S11 again.

一方、ステップS21において、レリーズスイッチ7bの第1レリーズスイッチがON状態であると判定した場合には、ステップS22に移行する。ステップS22では、レリーズスイッチ7bの第2レリーズスイッチがON状態であるか否かを判定する。   On the other hand, if it is determined in step S21 that the first release switch of the release switch 7b is in the ON state, the process proceeds to step S22. In step S22, it is determined whether or not the second release switch of the release switch 7b is in the ON state.

ステップS22において、レリーズスイッチ7bの第2レリーズスイッチがOFF状態であると判定した場合には、ステップS11に戻る。   If it is determined in step S22 that the second release switch of the release switch 7b is in the OFF state, the process returns to step S11.

一方、ステップS22において、レリーズスイッチ7bの第2レリーズスイッチがON状態であると判定した場合には、ステップS23に移行して撮像動作を実行する。撮像動作では、AE制御部15によって算出した露出値を用いた撮像が行われるように、撮像素子3を駆動し、得られた画像データを撮像用画像データとして画像データバッファ12bに記憶する。   On the other hand, if it is determined in step S22 that the second release switch of the release switch 7b is in the ON state, the process proceeds to step S23 to execute the imaging operation. In the imaging operation, the imaging device 3 is driven so that imaging using the exposure value calculated by the AE control unit 15 is performed, and the obtained image data is stored in the image data buffer 12b as imaging image data.

次にステップS24において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS24において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS25に移行して撮像用画像データに対して前述した台形補正処理を実行する。そしてステップS26において、台形補正処理が施された撮像用画像データを、所定の形式の電子ファイルとして記憶媒体22に記憶する。   Next, in step S24, it is determined whether or not the keystone correction mode is selected by the user. If it is determined in step S24 that the trapezoid correction mode is selected by the user, the process proceeds to step S25, and the above-described trapezoid correction process is executed on the image data for imaging. In step S26, the imaging image data that has been subjected to the trapezoidal correction process is stored in the storage medium 22 as an electronic file of a predetermined format.

一方、ステップS24において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS25をスキップしてステップS26に移行し、撮像用画像データを、所定の形式の電子ファイルとして記憶媒体22に記憶する。   On the other hand, if it is determined in step S24 that the keystone correction mode has not been selected by the user, step S25 is skipped and the process proceeds to step S26, where the image data for imaging is stored as an electronic file in a predetermined format. Store in the medium 22.

以上に説明したように、本実施形態の撮像装置1は、所定のフレーム周期毎に1次画像データ50を取得する撮像素子3と、フレーム周期に同期して撮像レンズ4の焦点距離を取得する焦点距離検出部4bと、撮像素子3の受光面に対してピッチ方向になす角度である第1角度αy及び受光面に対してヨー方向になす角度である第2角度αxからなる2つの値を含む補正角度を入力する入力装置7と、フレーム周期に同期して、焦点距離の値及び補正角度の値を用いて、1次画像データ50を、受光面に対してピッチ方向に第1角度αyをなし、受光面に対してヨー方向に第2角度αxをなす平面上に投影する変形処理を施した2次画像データ50’を生成する画像処理部16と、フレーム周期に同期して2次画像データ50’中の矩形の切り出し領域51’内の画像を表示する画像表示装置6と、を備える。   As described above, the imaging device 1 of the present embodiment acquires the focal length of the imaging lens 4 in synchronization with the imaging element 3 that acquires the primary image data 50 every predetermined frame period and the frame period. Two values consisting of a focal length detection unit 4b, a first angle αy that is an angle formed in the pitch direction with respect to the light receiving surface of the image sensor 3, and a second angle αx that is an angle formed in the yaw direction with respect to the light receiving surface. The primary image data 50 in the pitch direction with respect to the light receiving surface is input to the first angle αy using the input device 7 for inputting the correction angle and the focal length value and the correction angle value in synchronization with the frame period. And the image processing unit 16 that generates the secondary image data 50 ′ subjected to the deformation process for projecting onto the plane that forms the second angle αx in the yaw direction with respect to the light receiving surface, and the secondary in synchronization with the frame period. Cutting a rectangle in the image data 50 ' It includes the image display device 6 for displaying an image in the area 51 ', a.

このような構成を有する本実施形態の撮像装置1によれば、撮像装置1のピッチ方向及びヨー方向の2つの方向について、被写体の台形歪みを補正する台形補正処理を実行可能であり、使用者は、この台形補正処理の度合い(補正角度)を入力装置7を操作することによって自由に変更することができる。また、本実施形態では、台形補正処理が施された結果である2次画像データ50’に基づく画像がライブビューとして画像表示装置6に表示され、かつ補正角度を変更した結果が即時にライブビューの表示に反映される。このため、本実施形態の撮像装置1を用いれば、使用者は、意図通りに画像に台形補正処理を行うことが可能である。   According to the imaging apparatus 1 of the present embodiment having such a configuration, trapezoidal correction processing for correcting the trapezoidal distortion of the subject can be executed in two directions of the pitch direction and the yaw direction of the imaging apparatus 1. The degree of the trapezoid correction process (correction angle) can be freely changed by operating the input device 7. In the present embodiment, an image based on the secondary image data 50 ′ that is the result of the trapezoidal correction process is displayed on the image display device 6 as a live view, and the result of changing the correction angle is immediately displayed in the live view. Is reflected in the display. For this reason, if the imaging device 1 of this embodiment is used, the user can perform the trapezoid correction process on the image as intended.

また、本実施形態の撮像装置1は、さらに撮像レンズ4の合焦距離を変化させる制御を行うAF制御部14を備え、入力装置7によって、1次画像データ50中におけるAF領域の位置を指定するAF位置指定座標60の入力を受け付け、画像処理部16によって、1次画像データ50中におけるAF位置指定座標60を、2次画像データ50’中における座標に投影する変換処理を実行し、この2次画像データ50’中におけるAF位置指定座標60’が切り出し領域51’の外に位置する場合には、AF位置指定座標を切り出し領域51’内に位置する新たな2次AF位置指定座標61’に変更する。   In addition, the imaging apparatus 1 of the present embodiment further includes an AF control unit 14 that performs control to change the focusing distance of the imaging lens 4, and designates the position of the AF area in the primary image data 50 by the input device 7. The input of the AF position designation coordinates 60 to be received is received, and the image processing unit 16 executes a conversion process for projecting the AF position designation coordinates 60 in the primary image data 50 onto the coordinates in the secondary image data 50 ′. When the AF position designation coordinates 60 ′ in the secondary image data 50 ′ are located outside the cutout area 51 ′, the new secondary AF position designation coordinates 61 located within the cutout area 51 ′ are used. Change to '.

このような本実施形態の撮像装置1によれば、台形補正処理によって1次画像データ50が変形された場合であっても、AF動作を実行する領域であるAF領域は、常に画像表示装置6にライブビュー表示される画像中に位置する。このため、AF動作によって、撮像レンズ4がライブビュー表示される画像の外に位置する被写体に合焦することを防止でき、使用者の意図通りに台形補正処理を施した画像を撮像できる。   According to the imaging apparatus 1 of the present embodiment as described above, even when the primary image data 50 is deformed by the trapezoidal correction process, the AF area that is the area for performing the AF operation is always the image display apparatus 6. Located in the image displayed in live view. For this reason, it is possible to prevent the imaging lens 4 from focusing on a subject located outside the image displayed in the live view by the AF operation, and it is possible to capture an image subjected to the trapezoidal correction process as intended by the user.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。以下では第1の実施形態との相違点のみを説明するものとし、第1の実施形態と同様の構成要素については同一の符号を付し、その説明を適宜に省略するものとする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. Hereinafter, only differences from the first embodiment will be described, and the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図14は、本実施形態の撮像装置1の撮像動作モードのフローチャートである。本実施形態では、ステップS15及びS16における、台形補正モード中の画像表示装置6へのライブビュー用の画像表示及びAF領域表示の処理が、第1の実施形態と異なる。   FIG. 14 is a flowchart of the imaging operation mode of the imaging apparatus 1 of the present embodiment. In the present embodiment, the processing of live view image display and AF area display on the image display device 6 in the trapezoidal correction mode in steps S15 and S16 is different from that of the first embodiment.

図15は、本実施形態の撮像装置1の画像表示及びAF領域表示処理のフローチャートである。   FIG. 15 is a flowchart of image display and AF area display processing of the imaging apparatus 1 of the present embodiment.

本実施形態の画像表示及びAF領域表示処理では、まずステップS81において、1次画像データ50中におけるAF位置指定座標60を、2次画像データ50’に投影する変換処理を実行する。第1の実施形態と同様に、ステップS81において2次画像データ50’に投影されたAF位置指定座標には60’の符号を付す。ステップS81における変換処理は、前述した台形補正処理の数式(1)を変形した変換式を用いることによって行われる。   In the image display and AF area display processing of the present embodiment, first, in step S81, conversion processing for projecting the AF position designation coordinates 60 in the primary image data 50 onto the secondary image data 50 'is executed. As in the first embodiment, the AF position designation coordinates projected onto the secondary image data 50 ′ in step S <b> 81 are given a reference numeral 60 ′. The conversion process in step S81 is performed by using a conversion expression obtained by modifying the above-described trapezoidal correction process expression (1).

次に、ステップS82において、先のステップS81において算出した2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まるか否かを判定する。ここで、切り出し領域51’とは、前述のように、台形補正処理が施された2次画像データのうちの、画像表示装置6に表示する領域である。   Next, in step S82, it is determined whether or not the AF position designation coordinate 60 'in the secondary image data 50' calculated in the previous step S81 is within the cutout area 51 '. Here, the cutout area 51 ′ is an area to be displayed on the image display device 6 in the secondary image data that has been subjected to the trapezoidal correction process as described above.

ステップS82において、図12に例示するように、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まらないと判定した場合には、ステップS83に移行する。   In step S82, as illustrated in FIG. 12, when it is determined that the AF position designation coordinates 60 'in the secondary image data 50' does not fit within the cutout area 51 ', the process proceeds to step S83.

ステップS83では、RAM12の画像データバッファ12bに記憶されている2次画像データ50’の全体に基づく画像を、画像表示装置6に表示する。この時2次画像データ50’の全体に基づく画像は、1次画像に基づく画像50よりも表示面積が広くなるため、画像表示装置6が表示可能な画像サイズとなるように縮小して表示される。そして、ステップS84において、画像表示装置6に表示された2次画像データ50’の全体に基づく画像上の、S81において算出した2次画像データ50’中におけるAF位置指定座標60’に基づく座標にAF領域アイコン62を重畳して表示する。この時AF領域アイコン62は、ステップS83による2次画像データ50’の全体に基づく画像を縮小表示することに対応して、縮小して表示される。   In step S83, an image based on the entire secondary image data 50 'stored in the image data buffer 12b of the RAM 12 is displayed on the image display device 6. At this time, the image based on the entire secondary image data 50 ′ has a display area larger than that of the image 50 based on the primary image, and is therefore reduced and displayed so that the image size can be displayed by the image display device 6. The In step S84, the coordinates based on the AF position designation coordinates 60 ′ in the secondary image data 50 ′ calculated in S81 on the image based on the entire secondary image data 50 ′ displayed on the image display device 6 are set. The AF area icon 62 is superimposed and displayed. At this time, the AF area icon 62 is displayed in a reduced size corresponding to the reduction display of the image based on the entire secondary image data 50 'in step S83.

図16は、ステップS83及びステップS84の実行後の画像表示装置6の表示の例を示している。ステップS84の実行後は、図14のステップS17に移行する。   FIG. 16 shows an example of display on the image display device 6 after execution of steps S83 and S84. After execution of step S84, the process proceeds to step S17 in FIG.

一方、ステップS82において、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まると判定した場合には、ステップS88に移行する。   On the other hand, if it is determined in step S82 that the AF position designation coordinate 60 'in the secondary image data 50' falls within the cutout area 51 ', the process proceeds to step S88.

ステップS88では、2次画像データ50’の切り出し領域51’内の画像に基づく画像を、画像表示装置6に表示する。そして、ステップS89において、画像表示装置6に表示された切り出し領域51’に基づく画像上の、S81において算出した2次画像データ50’中におけるAF位置指定座標60’に基づく座標にAF領域アイコン62を重畳して表示する。ステップS89の実行後は、図14のステップS17に移行する。   In step S88, an image based on the image in the cutout area 51 'of the secondary image data 50' is displayed on the image display device 6. In step S89, the AF area icon 62 is set to the coordinates based on the AF position designation coordinates 60 'in the secondary image data 50' calculated in S81 on the image based on the cutout area 51 'displayed on the image display device 6. Is superimposed and displayed. After execution of step S89, the process proceeds to step S17 in FIG.

以上に説明したように、本実施形態では、使用者によって指定された1次画像データ50中におけるAF位置指定座標60が、台形補正処理によって切り出し領域51’内から外れてしまう場合に、ライブビュー表示の画像を2次画像データ50’全体の画像に切り替える。   As described above, in the present embodiment, the live view is displayed when the AF position designation coordinates 60 in the primary image data 50 designated by the user are out of the cutout area 51 ′ by the trapezoid correction process. The displayed image is switched to the entire image of the secondary image data 50 ′.

したがって、本実施形態においても、第1の実施形態と同様に、台形補正処理によって1次画像データ50が変形された場合であっても、AF動作を実行する領域であるAF領域は、常に画像表示装置6にライブビュー表示される画像中に位置する。このため、AF動作をする際に、使用者が意図する合焦領域がライブビュー表示される画像から欠落することなく、合焦領域を指示させることが可能になる。これによって、撮像レンズ4が使用者の意図した位置の被写体に合焦することができ、使用者の意図通りに台形補正処理を施した画像を撮像できる。   Accordingly, in this embodiment as well, as in the first embodiment, even when the primary image data 50 is deformed by the trapezoid correction process, the AF area that is the area where the AF operation is performed is always an image. It is located in the image displayed on the display device 6 in live view. For this reason, when performing the AF operation, the in-focus area intended by the user can be instructed without being lost from the image displayed in live view. As a result, the imaging lens 4 can focus on the subject at the position intended by the user, and an image that has been subjected to the trapezoidal correction process as intended by the user can be captured.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。以下では第2の実施形態との相違点のみを説明するものとし、第2の実施形態と同様の構成要素については同一の符号を付し、その説明を適宜に省略するものとする。
(Third embodiment)
Next, a third embodiment of the present invention will be described. Hereinafter, only differences from the second embodiment will be described, and the same components as those of the second embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

前述の第2の実施形態では、使用者によって指定された1次画像データ50中におけるAF位置指定座標60が、台形補正処理によって切り出し領域51’内から外れてしまう場合には、常にライブビュー表示において第2画像データ50’の全体を表示しているが、本実施形態は、第2画像データ50’の全体を表示する時期が異なる。   In the second embodiment described above, the live view display is always performed when the AF position designation coordinates 60 in the primary image data 50 designated by the user deviate from the cutout area 51 ′ by the trapezoid correction process. The entire second image data 50 ′ is displayed in FIG. 5, but the timing of displaying the entire second image data 50 ′ is different in this embodiment.

図17は、本実施形態の撮像装置1の撮像動作モードのフローチャートである。図18は、本実施形態の撮像装置1の画像表示及びAF領域表示処理のフローチャートである。図19は、本実施形態の撮像装置1の合焦表示処理のフローチャートである。   FIG. 17 is a flowchart of the imaging operation mode of the imaging apparatus 1 according to the present embodiment. FIG. 18 is a flowchart of image display and AF area display processing of the imaging apparatus 1 of the present embodiment. FIG. 19 is a flowchart of the focus display process of the imaging apparatus 1 of the present embodiment.

図18に示すように、本実施形態の撮像装置1の画像表示及びAF領域表示処理では、まず、ステップS81において、1次画像データ50中におけるAF位置指定座標60を、2次画像データ50’に投影する変換処理を実行する。第2の実施形態と同様に、ステップS81において2次画像データ50’に投影されたAF位置指定座標には60’の符号を付す。ステップS81における変換処理は、前述した台形補正処理の数式(1)を変形した式を用いることによって行われる。   As shown in FIG. 18, in the image display and AF area display processing of the imaging apparatus 1 of the present embodiment, first, in step S81, the AF position designation coordinates 60 in the primary image data 50 are changed to the secondary image data 50 ′. A conversion process for projecting onto the screen is executed. As in the second embodiment, the AF position designation coordinates projected onto the secondary image data 50 ′ in step S <b> 81 are given a reference numeral 60 ′. The conversion process in step S81 is performed by using an expression obtained by modifying Expression (1) of the trapezoid correction process described above.

次に、ステップS82において、先のステップS81において算出した2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まるか否かを判定する。ここで、切り出し領域51’とは、前述のように、台形補正処理が施された2次画像データのうちの、画像表示装置6に表示する領域である。   Next, in step S82, it is determined whether or not the AF position designation coordinate 60 'in the secondary image data 50' calculated in the previous step S81 is within the cutout area 51 '. Here, the cutout area 51 ′ is an area to be displayed on the image display device 6 in the secondary image data that has been subjected to the trapezoidal correction process as described above.

ステップS82において、図12に例示するように、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まらないと判定した場合には、ステップS87に移行する。   If it is determined in step S82 that the AF position designation coordinate 60 'in the secondary image data 50' does not fall within the cutout area 51 'as illustrated in FIG. 12, the process proceeds to step S87.

ステップS87では、2次画像データ50’の切り出し領域51’内の画像に基づく画像を、画像表示装置6に表示する。そして、AF領域アイコン62を表示する処理は実行せずに、図17のステップS17に移行する。   In step S87, an image based on the image in the cutout area 51 'of the secondary image data 50' is displayed on the image display device 6. And the process which displays AF area | region icon 62 is not performed but it transfers to step S17 of FIG.

一方、ステップS82において、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まると判定した場合には、ステップS88に移行する。   On the other hand, if it is determined in step S82 that the AF position designation coordinate 60 'in the secondary image data 50' falls within the cutout area 51 ', the process proceeds to step S88.

ステップS88では、第2の実施形態と同様に、2次画像データ50’の切り出し領域51’内の画像に基づく画像を、画像表示装置6に表示する。そして、ステップS89において、画像表示装置6に表示された切り出し領域51’に基づく画像上の、S81において算出した2次画像データ50’中におけるAF位置指定座標60’に基づく座標にAF領域アイコン62を重畳して表示する。ステップS89の実行後は、図17のステップS17に移行する。   In step S88, as in the second embodiment, an image based on the image in the cutout area 51 'of the secondary image data 50' is displayed on the image display device 6. In step S89, the AF area icon 62 is set to the coordinates based on the AF position designation coordinates 60 'in the secondary image data 50' calculated in S81 on the image based on the cutout area 51 'displayed on the image display device 6. Is superimposed and displayed. After execution of step S89, the process proceeds to step S17 in FIG.

そして、本実施形態の撮像装置1のオートフォーカス動作完了後に実行するステップS20の合焦表示処理では、まず図19のステップS91に示すように、先のステップS81において算出した2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まるか否かを判定する。   In the focus display process in step S20 executed after the autofocus operation of the imaging apparatus 1 according to the present embodiment is completed, first, as shown in step S91 in FIG. 19, the secondary image data 50 ′ calculated in the previous step S81. It is determined whether or not the AF position designation coordinate 60 'in the center falls within the cutout area 51'.

ステップS91において、図12に例示するように、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まらないと判定した場合には、ステップS92に移行する。   In step S91, as illustrated in FIG. 12, when it is determined that the AF position designation coordinates 60 'in the secondary image data 50' do not fit within the cutout area 51 ', the process proceeds to step S92.

ステップS92では、RAM12の画像データバッファ12bに記憶されている2次画像データ50’の全体に基づく画像を、画像表示装置6に表示する。そして、ステップS93において、例えば図12に示すように、画像表示装置6に表示された2次画像データ50’の全体に基づく画像上の、S81において算出した2次画像データ50’中におけるAF位置指定座標60’に基づく座標にAF領域アイコン62を重畳して表示する。そして、例えばAF領域アイコン62の色を所定の色とすることにより、撮像レンズ4が合焦状態にあることを表示する。ステップS93の実行後は、図17のステップS21に移行する。   In step S92, an image based on the entire secondary image data 50 'stored in the image data buffer 12b of the RAM 12 is displayed on the image display device 6. In step S93, for example, as shown in FIG. 12, the AF position in the secondary image data 50 ′ calculated in S81 on the image based on the entire secondary image data 50 ′ displayed on the image display device 6 is displayed. The AF area icon 62 is superimposed and displayed on the coordinates based on the designated coordinates 60 ′. Then, for example, by setting the color of the AF area icon 62 to a predetermined color, it is displayed that the imaging lens 4 is in focus. After execution of step S93, the process proceeds to step S21 in FIG.

一方、ステップS91において、2次画像データ50’中におけるAF位置指定座標60’が、切り出し領域51’内に収まると判定した場合には、ステップS98に移行する。   On the other hand, if it is determined in step S91 that the AF position designation coordinate 60 'in the secondary image data 50' falls within the cutout area 51 ', the process proceeds to step S98.

ステップS98では、2次画像データ50’の切り出し領域51’内の画像に基づく画像を、画像表示装置6に表示する。そして、ステップS99において、画像表示装置6に表示された切り出し領域51’に基づく画像上の、S81において算出した2次画像データ50’中におけるAF位置指定座標60’に基づく座標にAF領域アイコン62を重畳して表示する。ステップS99の実行後は、図17のステップS21に移行する。   In step S98, an image based on the image in the cutout area 51 'of the secondary image data 50' is displayed on the image display device 6. In step S99, the AF area icon 62 is set to the coordinates based on the AF position designation coordinates 60 ′ in the secondary image data 50 ′ calculated in S81 on the image based on the cutout area 51 ′ displayed on the image display device 6. Is superimposed and displayed. After execution of step S99, the process proceeds to step S21 in FIG.

以上に説明したように、本実施形態では、使用者によって指定された1次画像データ50中におけるAF位置指定座標60が、台形補正処理によって切り出し領域51’内から外れてしまう場合には、オートフォーカス動作完了後の合焦表示の際にのみ、2次画像データ50’の全体及びAF領域アイコン62を画像表示装置6に表示する。   As described above, in the present embodiment, when the AF position designation coordinate 60 in the primary image data 50 designated by the user deviates from the cutout area 51 ′ due to the trapezoid correction process, the auto- Only in the focus display after the completion of the focus operation, the entire secondary image data 50 ′ and the AF area icon 62 are displayed on the image display device 6.

このような本実施形態では、台形補正処理によって1次画像データ50が変形された場合であっても、使用者は、AF領域の位置を確認することができる。このため、AF動作をする際に、使用者が意図して指示する合焦領域が、ライブビュー表示される画像から欠落することなく、指示された合焦領域を知ることが可能になる。これによって、撮像レンズ4が使用者の意図した位置の被写体に合焦することができ、使用者の意図通りに台形補正処理を施した画像を撮像できる。   In this embodiment, even when the primary image data 50 is deformed by the trapezoidal correction process, the user can confirm the position of the AF area. For this reason, when performing the AF operation, it is possible to know the in-focus area that is instructed by the user without missing the in-focus area from the image displayed in the live view. As a result, the imaging lens 4 can focus on the subject at the position intended by the user, and an image that has been subjected to the trapezoidal correction process as intended by the user can be captured.

なお、本発明は、前述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う撮像装置及び撮像方法もまた本発明の技術的範囲に含まれるものである。   Note that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. An apparatus and an imaging method are also included in the technical scope of the present invention.

また、本発明に係る撮像装置は、前述の実施形態で説明したような、デジタルカメラの形態に限らず、例えば撮像機能を備えた電子機器の形態であってもよい。撮像機能を備えた電子機器としては、例えば携帯通信端末、ゲーム機、デジタルメディアプレーヤー、腕時計、ボイスレコーダー、双眼鏡等が考えられる。   In addition, the imaging apparatus according to the present invention is not limited to the form of a digital camera as described in the above-described embodiment, and may be in the form of an electronic device having an imaging function, for example. Examples of electronic devices having an imaging function include portable communication terminals, game machines, digital media players, watches, voice recorders, binoculars, and the like.

1 撮像装置、
2 本体部、
3 撮像素子、
4 撮像レンズ、
4a AF機構部、
4b 焦点距離検出部、
6 画像表示装置、
7 入力装置、
7a 電源操作スイッチ、
7b レリーズスイッチ、
7c 4方向スイッチ、
7d ダイヤルスイッチ、
7e タッチパネル、
7f 2方向スイッチ、
8 撮像素子駆動部、
10 制御部、
11 CPU、
12 RAM、
12a 制御プログラム、
12b 画像データバッファ、
12c ログ情報バッファ、
13 フラッシュメモリ、
14 AF制御部、
15 AE制御部、
16 画像処理部、
16a 台形補正係数算出部、
16b 補正処理部、
20 電源、
21 電源接続部、
22 記憶媒体、
23 記憶媒体接続部。
1 imaging device,
2 body part,
3 image sensor,
4 Imaging lens,
4a AF mechanism,
4b focal length detector,
6 image display device,
7 Input device,
7a Power operation switch,
7b Release switch,
7c 4-way switch,
7d dial switch,
7e touch panel,
7f 2-way switch,
8 image sensor drive unit,
10 control unit,
11 CPU,
12 RAM,
12a control program,
12b image data buffer,
12c log information buffer,
13 Flash memory,
14 AF control unit,
15 AE control unit,
16 image processing unit,
16a Keystone correction coefficient calculation unit,
16b correction processing unit,
20 power supply,
21 power connection,
22 storage media,
23 Storage medium connection unit.

Claims (6)

撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備え、
前記入力装置は、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付け、
前記画像処理部は、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記AF領域の座標を前記切り出し領域内の座標に変更する
ことを特徴とする撮像装置。
An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image in a rectangular cutout region in the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
With
Wherein the input device receives an input for designating the position of the AF area in the in the primary image data to be displayed on the image display device,
The image processing unit performs a conversion process of projecting the coordinates of the AF area in the primary image data onto the coordinates in the secondary image data, and the coordinates of the AF area in the secondary image data are An imaging apparatus characterized by changing coordinates of the AF area to coordinates within the cutout area when outside the cutout area.
前記画像処理部は、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記AF領域の座標を前記切り出し領域内の座標であり、かつ前記2次画像データ中における前記AF領域の座標との間の距離が最短となる領域に変更することを特徴とする請求項1に記載の撮像装置。   The image processing unit performs a conversion process of projecting the coordinates of the AF area in the primary image data onto the coordinates in the secondary image data, and the coordinates of the AF area in the secondary image data are If the area is outside the cutout area, the area where the coordinates of the AF area are the coordinates in the cutout area and the distance between the coordinates of the AF area in the secondary image data is the shortest The imaging apparatus according to claim 1, wherein the imaging apparatus is changed to: 前記画像処理部は、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記AF領域の座標を前記切り出し領域内の中央位置となる座標領域に変更することを特徴とする請求項1に記載の撮像装置。   The image processing unit performs a conversion process of projecting the coordinates of the AF area in the primary image data onto the coordinates in the secondary image data, and the coordinates of the AF area in the secondary image data are 2. The imaging apparatus according to claim 1, wherein the coordinates of the AF area are changed to a coordinate area that is a central position in the cutout area when the area is outside the cutout area. 撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備え、
前記入力装置は、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付け、
前記画像処理部は、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記2次画像データの全体及び当該2次画像データ中における前記AF領域の位置を示すAF領域アイコンを前記画像表示装置に表示する
ことを特徴とする撮像装置。
An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image in a rectangular cutout region in the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
With
Wherein the input device receives an input for designating the position of the AF area in the in the primary image data to be displayed on the image display device,
The image processing unit performs a conversion process of projecting the coordinates of the AF area in the primary image data onto the coordinates in the secondary image data, and the coordinates of the AF area in the secondary image data are , if it is outside of the clipping region, and the display means displays total and AF area icon indicating a position of the AF area in the said secondary image data before Symbol secondary image data to the image display device An imaging device.
撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備える撮像装置の撮像方法であって、
前記入力装置により、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、
前記画像処理部により、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記AF領域の座標を前記切り出し領域内の座標に変更するステップと、
を含むことを特徴とする撮像方法。
An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image in a rectangular cutout region in the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
An imaging method for an imaging apparatus comprising:
A step of accepting an input for specifying the position of the AF area in the primary image in the data to be displayed by the input device, to the image display device,
The image processing unit executes a conversion process for projecting the coordinates of the AF area in the primary image data onto the coordinates in the secondary image data, and the coordinates of the AF area in the secondary image data are , If outside the cutout area, changing the coordinates of the AF area to the coordinates in the cutout area;
An imaging method comprising:
撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データ中の矩形の切り出し領域内の画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備える撮像装置の撮像方法であって、
前記入力装置により、前記画像表示装置に表示する前記1次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、
前記画像処理部により、前記1次画像データ中における前記AF領域の座標を、前記2次画像データ中における座標に投影する変換処理を実行し、前記2次画像データ中における前記AF領域の座標が、前記切り出し領域の外である場合には、前記2次画像データの全体及び当該2次画像データ中における前記AF領域の位置を示すAF領域アイコンを前記画像表示装置に表示するステップと、
を含むことを特徴とする撮像方法。
An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto the plane having the second angle in the yaw direction
An image display device that displays an image in a rectangular cutout region in the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
An imaging method for an imaging apparatus comprising:
A step of accepting an input for specifying the position of the AF area in the primary image in the data to be displayed by the input device, to the image display device,
The image processing unit executes a conversion process for projecting the coordinates of the AF area in the primary image data onto the coordinates in the secondary image data, and the coordinates of the AF area in the secondary image data are , if it is outside the cut-out area, and displaying a whole and AF area icon indicating a position of the AF area in the said secondary image data before Symbol secondary image data to the image display device,
An imaging method comprising:
JP2015006979A 2015-01-16 2015-01-16 Imaging apparatus and imaging method Active JP6395156B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015006979A JP6395156B2 (en) 2015-01-16 2015-01-16 Imaging apparatus and imaging method
CN201610019561.5A CN105812653B (en) 2015-01-16 2016-01-13 Photographic device and image capture method
US14/997,497 US9774782B2 (en) 2015-01-16 2016-01-16 Image pickup apparatus and image pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015006979A JP6395156B2 (en) 2015-01-16 2015-01-16 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2016134687A JP2016134687A (en) 2016-07-25
JP6395156B2 true JP6395156B2 (en) 2018-09-26

Family

ID=56434648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015006979A Active JP6395156B2 (en) 2015-01-16 2015-01-16 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6395156B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113452920B (en) * 2021-07-26 2022-10-21 北京字节跳动网络技术有限公司 Focus point determining method, device, equipment and medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001208961A (en) * 2000-01-26 2001-08-03 Nikon Corp Camera
JP2005038021A (en) * 2003-07-15 2005-02-10 Ricoh Co Ltd Image processing apparatus, image input device, image processing method and program for executing the method by computer
JP5020894B2 (en) * 2008-06-10 2012-09-05 キヤノン株式会社 Image processing apparatus, control method, and program
JP5999746B2 (en) * 2010-03-31 2016-09-28 カシオ計算機株式会社 Imaging apparatus, AF evaluation value calculation method, and program
JP5762587B2 (en) * 2013-04-15 2015-08-12 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2016134687A (en) 2016-07-25

Similar Documents

Publication Publication Date Title
US9774782B2 (en) Image pickup apparatus and image pickup method
JP6518409B2 (en) Imaging apparatus and imaging method
JP5709816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
JP7293025B2 (en) Imaging device and its control method
JP2011049973A (en) Imaging apparatus, imaging method and program
JP7163057B2 (en) IMAGING DEVICE, IMAGING METHOD, PROGRAM AND RECORDING MEDIUM
JP2019092121A (en) Imaging control apparatus and control method of the same
JP6395156B2 (en) Imaging apparatus and imaging method
JP2011211531A (en) Imaging device
JP2019008706A (en) Image processing device, imaging device, and method and program for controlling image processing device
JP5529568B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2016134686A (en) Imaging apparatus and imaging method
JP6506440B2 (en) Imaging device, imaging method, and program
JP6061715B2 (en) Imaging apparatus, control method thereof, and program
JP6376753B2 (en) Imaging apparatus, display control apparatus control method, and recording apparatus control method
JP2017011657A (en) Imaging device
JP2009290402A (en) Imaging device and method for controlling imaging device
WO2016113997A1 (en) Imaging apparatus and display method of imaging apparatus
JP6320251B2 (en) Imaging apparatus, imaging method, and program
JP2020034759A (en) Imaging apparatus and control method thereof, as well as program
JP6456093B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2008289078A (en) Projection type image display apparatus
JP2012060552A (en) Camera and electronic apparatus
JP2017055268A (en) Imaging device, control method and program for imaging device
JP2014165517A (en) Image pickup device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180821

R151 Written notification of patent or utility model registration

Ref document number: 6395156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250