JP2016134686A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2016134686A
JP2016134686A JP2015006978A JP2015006978A JP2016134686A JP 2016134686 A JP2016134686 A JP 2016134686A JP 2015006978 A JP2015006978 A JP 2015006978A JP 2015006978 A JP2015006978 A JP 2015006978A JP 2016134686 A JP2016134686 A JP 2016134686A
Authority
JP
Japan
Prior art keywords
image data
imaging
angle
area
light receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015006978A
Other languages
Japanese (ja)
Inventor
光隆 木村
Mitsutaka Kimura
光隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015006978A priority Critical patent/JP2016134686A/en
Priority to CN201610019561.5A priority patent/CN105812653B/en
Priority to US14/997,497 priority patent/US9774782B2/en
Publication of JP2016134686A publication Critical patent/JP2016134686A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method capable of imaging an image having been subjected to trapezoidal correction processing as intended by a user.SOLUTION: An imaging apparatus comprises: an input device; an image processing unit generating secondary image data having been subjected to deformation processing of projecting primary image data obtained from an imaging element on a plane having predetermined angles to a light reception surface of the imaging element; an image display device displaying an image based upon the secondary image data in synchronism with a frame period; and an AF control unit controlling a focusing operation of an imaging lens. The input device receives an input identifying a position of an AF region in the secondary image data displayed on the image display device. The image processing unit performs conversion processing of projecting the position of the AF region in the secondary image data on the light reception surface. The AF control unit puts the imaging lens in a focusing operation in the AF region projected on the light reception surface.SELECTED DRAWING: Figure 1

Description

本発明は、撮像素子から得られた1次画像データに変形処理を施す撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method for performing deformation processing on primary image data obtained from an imaging element.

デジタルカメラ等の撮像装置を用いて例えば被写体である建築物を見上げる姿勢で撮像する場合、画像中において建築物は上すぼまりに台形状に歪む。例えば、特開2007−43545号公報には、被写体を撮像するときの撮像装置の姿勢を加速度センサによって検出し、被写体の台形状の歪みを自動的に補正する台形補正処理を行う技術が開示されている。   For example, when an image is taken with an imaging device such as a digital camera looking up at a building that is a subject, the building is distorted into a trapezoidal shape in the upper part of the image. For example, Japanese Patent Application Laid-Open No. 2007-43545 discloses a technique for detecting a posture of an imaging device when an object is imaged by an acceleration sensor and performing a trapezoid correction process for automatically correcting a trapezoidal distortion of the object. ing.

また、オートフォーカス動作が可能な撮像装置において、オートフォーカスを行う領域であるAF領域の位置を、使用者の指示に基づいて移動させる技術が知られている。   In addition, in an imaging apparatus capable of performing an autofocus operation, a technique is known in which the position of an AF area that is an autofocus area is moved based on a user instruction.

特開2007−43545号公報JP 2007-43545 A

特開2007−43545号公報に開示の技術のように、撮像した画像に台形補正処理を施す場合、撮影前に使用者によって指定されたAF領域の位置が、台形補正処理の実行によって使用者の意図しない位置に移動してしまう場合がある。   As in the technique disclosed in Japanese Patent Application Laid-Open No. 2007-43545, when a trapezoidal correction process is performed on a captured image, the position of the AF area designated by the user before shooting is changed by the execution of the keystone correction process. It may move to an unintended position.

本発明は、前述した点に鑑みてなされたものであって、使用者の意図通りに台形補正処理を施した画像を撮像できる撮像装置及び撮像方法を提供することを目的とする。   The present invention has been made in view of the above-described points, and an object thereof is to provide an imaging apparatus and an imaging method capable of imaging an image that has been subjected to trapezoidal correction processing as intended by the user.

本発明の一態様の撮像装置は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備え、前記入力装置は、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付け、前記画像処理部は、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行し、前記AF制御部は、前記受光面上の、前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させる。   An imaging device according to one embodiment of the present invention is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens, and an imaging element that acquires primary image data every predetermined frame period, in synchronization with the frame period From a focal length detection unit that acquires a focal length of the imaging lens, a first angle that is an angle in the pitch direction with respect to the light receiving surface, and a second angle that is an angle in the yaw direction with respect to the light receiving surface An input device that accepts an input of a correction angle including two values, and using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is transmitted to the light receiving surface. An image processing unit that generates secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction and forms the second angle in the yaw direction with respect to the light receiving surface; In sync with the cycle An image display device that displays an image based on the secondary image data; and an AF control unit that performs control to change a focusing distance of the imaging lens, and the input device displays the image on the image display device. Accepting an input designating the position of the AF area in the secondary image data, the image processing unit converts the position of the AF area in the secondary image data onto a plane including the primary image data The AF control unit executes processing so that the imaging lens is in a focused state at a position corresponding to the AF area projected on the plane including the primary image data on the light receiving surface. The focusing distance of the imaging lens is changed.

また、本発明の一態様の撮像方法は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備える撮像装置の撮像方法であって、前記入力装置により、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、前記画像処理部により、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行するステップと、前記AF制御部により、前記受光面上の、前記前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させるステップと、を含む。   In addition, an imaging method according to one embodiment of the present invention is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens, and an imaging element that acquires primary image data every predetermined frame period, and is synchronized with the frame period. A focal length detection unit that acquires a focal length of the imaging lens, a first angle that is an angle formed in a pitch direction with respect to the light receiving surface, and a second angle that is formed in a yaw direction with respect to the light receiving surface. An input device that accepts an input of a correction angle including two values consisting of an angle; and the focal length value and the correction angle value in synchronization with the frame period; An image processing unit that generates secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction and projects the second angle in the yaw direction with respect to the light receiving surface; In the frame period An imaging method for an imaging apparatus comprising: an image display device that displays an image based on the secondary image data; and an AF control unit that performs control to change a focusing distance of the imaging lens. Receiving an input for designating the position of the AF area in the secondary image data displayed on the image display device by the apparatus; and the position of the AF area in the secondary image data by the image processing unit, A step of executing a conversion process for projecting onto a plane including primary image data, and the AF control unit corresponding to the AF area projected onto the plane including the primary image data on the light receiving surface. Changing the focusing distance of the imaging lens so that the imaging lens is in a focused state at a position to be focused.

本発明によれば、使用者の意図通りに台形補正処理を施した画像を撮像できる撮像装置及び撮像方法を実現できる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device and imaging method which can image the image which performed the trapezoid correction process as a user intends are realizable.

第1の実施形態の撮像装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the imaging device of 1st Embodiment. 第1の実施形態の撮像装置の背面側の斜視図である。It is a perspective view of the back side of the imaging device of a 1st embodiment. 第1の実施形態の撮像装置の撮像動作のフローチャートである。3 is a flowchart of an imaging operation of the imaging apparatus according to the first embodiment. 台形補正処理のフローチャートである。It is a flowchart of a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 台形補正処理について説明するための図である。It is a figure for demonstrating a trapezoid correction process. 第1の実施形態のAF領域移動処理のフローチャートである。6 is a flowchart of AF area movement processing according to the first embodiment. 第1の実施形態のAF領域表示アイコンの表示例を示す図である。It is a figure which shows the example of a display of the AF area | region display icon of 1st Embodiment. 第1の実施形態のAF領域表示アイコンの表示例を示す図である。It is a figure which shows the example of a display of the AF area | region display icon of 1st Embodiment. 第1の実施形態のAF処理のフローチャートである。It is a flowchart of AF processing of a 1st embodiment. 第1の実施形態における、1次画像データ中でのAF領域の形状の例を示す図である。It is a figure which shows the example of the shape of AF area | region in the primary image data in 1st Embodiment. 第2の実施形態のAF領域移動処理のフローチャートである。It is a flowchart of AF area movement processing of the second embodiment. 第2の実施形態における、1次画像データ中でのAF領域の形状の例を示す図である。It is a figure which shows the example of the shape of AF area | region in the primary image data in 2nd Embodiment. 第2の実施形態における、2次画像データ中でのAF領域の形状の例を示す図である。It is a figure which shows the example of the shape of AF area | region in secondary image data in 2nd Embodiment. 第2の実施形態のAF領域表示アイコンの表示例を示す図である。It is a figure which shows the example of a display of the AF area | region display icon of 2nd Embodiment. 第2の実施形態のAF処理のフローチャートである。It is a flowchart of AF processing of a 2nd embodiment.

以下に、本発明の好ましい形態について図面を参照して説明する。なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the drawings used for the following description, the scale of each component is made different in order to make each component recognizable on the drawing. It is not limited only to the quantity of the component described in (1), the shape of the component, the ratio of the size of the component, and the relative positional relationship of each component.

(第1の実施形態)
図1及び図2に示すように、撮像装置1は、CCDやCMOSイメージセンサ等の撮像素子3、画像表示装置6、入力装置7及び制御部10を備える。本実施形態では一例として、撮像装置1は、撮像素子3及び制御部10を収容する本体部2と、当該本体部2に固定される撮像レンズ4とを具備し、撮像レンズ4によって結像された光学像を電子データとして記憶する、いわゆるデジタルカメラの形態を有する。なお、撮像装置1は、撮像レンズ4を本体部2から取り外し可能な、いわゆるレンズ交換式のデジタルカメラであってもよいし、撮像レンズ4を本体部2から取り外すことのできないレンズ一体式のデジタルカメラであってもよい。
(First embodiment)
As shown in FIGS. 1 and 2, the imaging device 1 includes an imaging device 3 such as a CCD or a CMOS image sensor, an image display device 6, an input device 7, and a control unit 10. In the present embodiment, as an example, the imaging apparatus 1 includes a main body 2 that houses the imaging element 3 and the control unit 10, and an imaging lens 4 that is fixed to the main body 2, and is imaged by the imaging lens 4. It has the form of a so-called digital camera that stores the optical image as electronic data. The imaging device 1 may be a so-called interchangeable lens digital camera in which the imaging lens 4 can be removed from the main body 2, or a lens-integrated digital camera in which the imaging lens 4 cannot be removed from the main body 2. It may be a camera.

以下では、撮像装置1の姿勢方向の定義として、撮像レンズ4の光軸方向をZ軸と定義する。また、撮像装置1を正立状態とした場合に、光軸と直交しかつ水平となる方向をX軸とし、光軸と直交しかつ垂直となる方向をY軸とする。また、撮像装置1の姿勢変化の方向を表すために、撮像装置1のX軸周りの回転方向をピッチ方向と称し、Y軸周りの回転方向をヨー方向と称し、Z軸周りの回転方向をロール方向と称する。   Hereinafter, as the definition of the orientation direction of the imaging apparatus 1, the optical axis direction of the imaging lens 4 is defined as the Z axis. When the imaging apparatus 1 is in an upright state, the direction orthogonal to the optical axis and horizontal is the X axis, and the direction orthogonal to and perpendicular to the optical axis is the Y axis. Further, in order to represent the direction of change in the posture of the imaging device 1, the rotation direction around the X axis of the imaging device 1 is referred to as the pitch direction, the rotation direction around the Y axis is referred to as the yaw direction, and the rotation direction around the Z axis is referred to as the rotation direction. Called the roll direction.

撮像素子3は、矩形の受光面を有する。撮像素子3の受光面は、撮像レンズ4の光軸に直交するように配設されている。撮像レンズ4は、オートフォーカス動作が可能であり、合焦距離を変化させるために一部又は全部のレンズを移動させるAF機構部4aを備える。また、本実施形態では一例として、撮像レンズ4は、焦点距離を変更可能な、いわゆるズームレンズである。撮像レンズ4のズーム動作は、使用者から入力される力によって行われる手動ズームの形態であってもよいし、撮像レンズ4内に組み込まれた電動モータが発生する力によって行われる電動ズームの形態であってもよい。   The image sensor 3 has a rectangular light receiving surface. The light receiving surface of the image sensor 3 is disposed so as to be orthogonal to the optical axis of the image pickup lens 4. The imaging lens 4 can perform an autofocus operation, and includes an AF mechanism unit 4a that moves some or all of the lenses to change the focusing distance. In the present embodiment, as an example, the imaging lens 4 is a so-called zoom lens that can change the focal length. The zoom operation of the imaging lens 4 may be in the form of manual zoom performed by the force input from the user, or the form of electric zoom performed by the force generated by the electric motor incorporated in the imaging lens 4. It may be.

本実施形態の撮像レンズ4は、撮像レンズ4の現在の焦点距離の情報を制御部10に出力する焦点距離検出部4bを備える。焦点距離検出部4bの構成は、ロータリーエンコーダを用いて焦点距離を検出する形態や、ズーム動作用のステッピングモータを動作させるパルス数をカウントする形態等、公知の技術である。なお、例えば撮像装置1がレンズ一体式である場合には、焦点距離検出部4bは、制御部10に含まれる形態であってもよい。   The imaging lens 4 of the present embodiment includes a focal length detection unit 4 b that outputs information on the current focal length of the imaging lens 4 to the control unit 10. The configuration of the focal length detection unit 4b is a known technique such as a configuration in which a focal length is detected using a rotary encoder, or a number of pulses for operating a stepping motor for zoom operation is counted. For example, when the imaging device 1 is a lens-integrated type, the focal length detection unit 4b may be included in the control unit 10.

撮像装置1は、レンズシャッタ機構又はフォーカルプレーンシャッタ機構を備えていてもよい。また、撮像装置1は、撮像レンズ4に、絞り機構を備えていてもよい。   The imaging device 1 may include a lens shutter mechanism or a focal plane shutter mechanism. The imaging device 1 may include an aperture mechanism in the imaging lens 4.

画像表示装置6は、例えば液晶表示装置又は有機EL表示装置等からなり、画像を表示する。本実施形態の画像表示装置6の表示面の外形は矩形である。画像表示装置6は、撮像装置1のグラフィカル・ユーザー・インターフェース(GUI)の表示、撮像動作中にファインダーとして機能するライブビューの表示、及び記録された画像データの表示等を行う。   The image display device 6 includes, for example, a liquid crystal display device or an organic EL display device, and displays an image. The outer shape of the display surface of the image display device 6 of this embodiment is a rectangle. The image display device 6 displays a graphical user interface (GUI) of the imaging device 1, displays a live view that functions as a finder during an imaging operation, displays recorded image data, and the like.

本実施形態では一例として、画像表示装置6は、本体部2に配設されている。なお、画像表示装置6は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。   In the present embodiment, as an example, the image display device 6 is disposed in the main body 2. The image display device 6 may be separated from the main body 2 and may be disposed in another electronic device that is connected to the main body 2 by wired communication or wireless communication.

入力装置7は、例えばレバースイッチ、ダイヤルスイッチ、ボタンスイッチ、タッチセンサ等の、使用者が撮像装置1の動作指示を入力するための一つ又は複数の操作部材からなる。   The input device 7 includes one or a plurality of operation members such as a lever switch, a dial switch, a button switch, and a touch sensor, for the user to input an operation instruction of the imaging device 1.

本実施形態では一例として、入力装置7は、電源操作スイッチ7a、レリーズスイッチ7b、4方向スイッチ7c、ダイヤルスイッチ7d、タッチパネル7e及び2方向スイッチ7fを備える。タッチパネル7eは、画像表示装置15の表示面上に配設されている。なお、入力装置7の一部又は全部は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。   In the present embodiment, as an example, the input device 7 includes a power operation switch 7a, a release switch 7b, a four-way switch 7c, a dial switch 7d, a touch panel 7e, and a two-way switch 7f. The touch panel 7 e is disposed on the display surface of the image display device 15. Note that a part or all of the input device 7 may be separated from the main body 2 and disposed in another electronic device connected to the main body 2 by wired communication or wireless communication. .

レリーズスイッチ7bは、異なる押し込み量又は異なる押し込み力によって動作する第1レリーズスイッチ及び第2レリーズスイッチを備えた、いわゆる2段の押しボタンスイッチである。本実施形態では、レリーズスイッチ7bに加える押し込み力を増大させていった場合、先に第1レリーズスイッチがON状態となり、次に第2レリーズスイッチがON状態となる。第1レリーズスイッチのみがON状態である状態は、いわゆる半押しの状態であり、第2レリーズスイッチがON状態である状態は、いわゆる全押しの状態である。   The release switch 7b is a so-called two-stage push button switch including a first release switch and a second release switch that operate with different push amounts or different push forces. In the present embodiment, when the pushing force applied to the release switch 7b is increased, the first release switch is turned on first, and then the second release switch is turned on. The state where only the first release switch is in the ON state is a so-called half-pressed state, and the state where the second release switch is in the ON state is a so-called fully-pressed state.

制御部10は、CPU(演算装置)11、RAM(記憶装置)12、フラッシュメモリ(補助記憶装置)13、画像処理部16、入出力装置及び電力制御装置等を具備して構成されており、撮像装置1の後述する動作を、所定のプログラムに基づいて制御する構成を有している。本実施形態では、撮像装置1の制御プログラムは、不揮発性の記憶媒体であるフラッシュメモリ13等に記憶されている。   The control unit 10 includes a CPU (arithmetic device) 11, a RAM (storage device) 12, a flash memory (auxiliary storage device) 13, an image processing unit 16, an input / output device, a power control device, and the like. It has the structure which controls the operation | movement mentioned later of the imaging device 1 based on a predetermined program. In the present embodiment, the control program for the imaging apparatus 1 is stored in the flash memory 13 or the like that is a nonvolatile storage medium.

制御部10は、撮像素子駆動部8に電気的に接続されている。撮像素子駆動部8は、制御部10の制御にしたがって撮像素子3を駆動する。また、撮像素子駆動部8は、撮像素子3から出力された2次元の画像信号をデジタル信号である1次画像データに変換する。1次画像データに基づいて生成される画像の外形は、矩形状である。以下では、1次画像に基づいて生成される画像のことを、単に1次画像データと称する。1次画像データ中の座標について、撮像装置1を正立状態に保持した場合において視野中の鉛直方向に沿う軸をy軸とし、視野中の水平方向に沿う軸をx軸とする。なお、本実施形態では一例として、撮像素子3と撮像素子駆動部8とを別体として示しているが、撮像素子駆動部8は撮像素子3内に一体に含まれる形態であってもよい。   The control unit 10 is electrically connected to the image sensor driving unit 8. The image sensor driving unit 8 drives the image sensor 3 under the control of the control unit 10. The image sensor driving unit 8 converts the two-dimensional image signal output from the image sensor 3 into primary image data that is a digital signal. The outer shape of the image generated based on the primary image data is rectangular. Hereinafter, an image generated based on the primary image is simply referred to as primary image data. Regarding the coordinates in the primary image data, when the imaging device 1 is held in an upright state, the axis along the vertical direction in the visual field is the y axis, and the axis along the horizontal direction in the visual field is the x axis. In the present embodiment, as an example, the image sensor 3 and the image sensor drive unit 8 are shown as separate bodies, but the image sensor drive unit 8 may be integrally included in the image sensor 3.

RAM12には、制御プログラム12a、画像データバッファ12b及びログ情報バッファ12cの複数の記憶エリアを有する。制御プログラム12aは、撮像装置1の電源投入時に、フラッシュメモリ13から読み出した制御プログラムを記憶する記憶エリアである。   The RAM 12 has a plurality of storage areas for a control program 12a, an image data buffer 12b, and a log information buffer 12c. The control program 12a is a storage area for storing a control program read from the flash memory 13 when the imaging apparatus 1 is powered on.

画像データバッファ12bは、撮像素子駆動部8から出力された1次画像データや、後述する画像処理部16によって生成された2次画像データを記憶する記憶エリアである。以下では、画像データバッファ12bに記憶されているデータについて、1次画像データ及び2次画像データの区別が不要である場合には、単に画像データと称する。   The image data buffer 12b is a storage area for storing primary image data output from the image sensor driving unit 8 and secondary image data generated by the image processing unit 16 described later. Hereinafter, the data stored in the image data buffer 12b is simply referred to as image data when it is not necessary to distinguish between primary image data and secondary image data.

なお、画像データバッファ12bは、画像処理部16が扱う画像データ専用のビデオメモリに設けられる記憶エリアであってもよい。また、ログ情報バッファ12cは、後述する台形歪補正処理の実行に用いる変数及びAF位置指定座標等を記憶する記憶エリアである。   The image data buffer 12b may be a storage area provided in a video memory dedicated to image data handled by the image processing unit 16. The log information buffer 12c is a storage area for storing variables used for execution of trapezoidal distortion correction processing to be described later, AF position designation coordinates, and the like.

AF制御部14は、撮像素子3の受光面の所定の領域内での撮像レンズ4の結像状態を検出し、撮像装置1によるオートフォーカス動作を制御する。より詳しくは、AF制御部14は、1次画像データ中の所定の領域であるAF領域内のコントラストを検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。すなわち、本実施形態の撮像装置1は、一般にコントラスト検出方式と称されるオートフォーカス動作が可能である。なお、撮像装置1のオートフォーカス動作の形態は、前述したコントラスト検出方式に限られるものではない。例えば、撮像装置1は、撮像面に被写体像の位相差を検出する測距センサが配置された撮像素子3を備え、測距センサによって検出された位相差情報(デフォーカス量)に基づいて撮像レンズ4を駆動し合焦状態とする、一般に位相差検出方式と称されるオートフォーカス動作が可能であってもよい。   The AF control unit 14 detects the imaging state of the imaging lens 4 within a predetermined region of the light receiving surface of the imaging device 3 and controls the autofocus operation by the imaging device 1. More specifically, the AF control unit 14 controls the AF mechanism unit 4a to change the in-focus distance while detecting the contrast in the AF region which is a predetermined region in the primary image data. Set to the in-focus state. That is, the imaging apparatus 1 of the present embodiment can perform an autofocus operation generally called a contrast detection method. Note that the form of the autofocus operation of the imaging apparatus 1 is not limited to the above-described contrast detection method. For example, the imaging apparatus 1 includes an imaging element 3 in which a distance measuring sensor that detects a phase difference of a subject image is disposed on an imaging surface, and performs imaging based on phase difference information (defocus amount) detected by the distance measuring sensor. An autofocus operation generally called a phase difference detection method that drives the lens 4 to bring it into focus may be possible.

本実施形態では、1次画像データ中におけるAF領域の座標は、使用者による入力装置7の操作に応じて変更可能である。本実施形態では一例として、1次画像データ中のAF領域の座標の変更は、使用者がタッチパネル7eや4方向スイッチ7c等の入力装置7を操作することによって行われる。   In this embodiment, the coordinates of the AF area in the primary image data can be changed according to the operation of the input device 7 by the user. In this embodiment, as an example, the change of the coordinates of the AF area in the primary image data is performed by the user operating the input device 7 such as the touch panel 7e or the four-way switch 7c.

なお、1次画像データ中におけるAF領域の座標及び大きさは、制御部10が所定のプログラムに基づいて自動的に変更する形態であってもよい。   The coordinates and size of the AF area in the primary image data may be changed automatically by the control unit 10 based on a predetermined program.

AE制御部15は、撮像素子3から取得される1次画像データに対する、露出量の制御を行う。AE制御部15は、1次画像データから得られる被写体輝度に基づいて、露出値を算出する。   The AE control unit 15 controls the exposure amount for the primary image data acquired from the image sensor 3. The AE control unit 15 calculates an exposure value based on the subject brightness obtained from the primary image data.

画像処理部16は、画像データバッファ12bに記憶されている画像データに所定の画像処理を施す。以下では、画像処理部16によって画像処理を施された後の画像データを、2次画像データと称する。本実施形態の画像処理部16は、画像データに対して後述する台形補正を施すための、台形歪補正係数算出部16a及び補正処理部16bを含む。   The image processing unit 16 performs predetermined image processing on the image data stored in the image data buffer 12b. Hereinafter, the image data that has been subjected to image processing by the image processing unit 16 is referred to as secondary image data. The image processing unit 16 of the present embodiment includes a trapezoidal distortion correction coefficient calculation unit 16a and a correction processing unit 16b for performing trapezoidal correction described later on the image data.

台形補正係数算出部16aは、焦点距離検出部4bから得られる撮像レンズ4の焦点距離の値と、入力装置7を介して入力された後述する補正角度の値、を用いて、台形補正の演算処理の実行に必要な補正係数を算出する。補正処理部16bは、台形補正係数算出部16aによって算出された補正係数に基づいて、1次画像データに対して座標変換を伴う画像補間処理を行う。前記画像補間処理は、バイキュービック補間やバイリニア補間等の画像補間処理を実施するものである。   The trapezoidal correction coefficient calculation unit 16a uses the value of the focal length of the imaging lens 4 obtained from the focal length detection unit 4b and the value of the correction angle (described later) input via the input device 7 to calculate the keystone correction. A correction coefficient necessary for executing the process is calculated. The correction processing unit 16b performs image interpolation processing with coordinate conversion on the primary image data based on the correction coefficient calculated by the trapezoidal correction coefficient calculation unit 16a. The image interpolation processing performs image interpolation processing such as bicubic interpolation and bilinear interpolation.

なお、本実施形態では一例として、前述のAF制御部14、AE制御部15及び画像処理部16の機能構成は、制御部10に含まれている。なお、AF制御部14、AE制御部15及び画像処理部16の機能構成は、例えばそれぞれの機能を実行する専用のプロセッサ回路等の専用のハードウェアを用いる形態であってもよい。   In the present embodiment, as an example, the functional configurations of the AF control unit 14, the AE control unit 15, and the image processing unit 16 described above are included in the control unit 10. Note that the functional configurations of the AF control unit 14, the AE control unit 15, and the image processing unit 16 may be, for example, a form using dedicated hardware such as a dedicated processor circuit that executes each function.

また、本実施形態の撮像装置1は、商用電源、ACアダプタ又は電池等の電源20に接続される電源接続部21及び、フラッシュメモリカード等の記憶媒体22に接続される記憶媒体接続部23を備える。本実施形態では一例として、電源20は電池であって、本体部2内に着脱可能に収容される。また、本実施形態では一例として、記憶媒体22はフラッシュメモリカードであって、本体部2内に着脱可能に収容される。なお、電源20となる電池及び記憶媒体22は、本体部2内に固定される形態であってもよい。また、記憶媒体22は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。   In addition, the imaging apparatus 1 of the present embodiment includes a power connection unit 21 connected to a commercial power source, a power source 20 such as an AC adapter or a battery, and a storage medium connection unit 23 connected to a storage medium 22 such as a flash memory card. Prepare. In the present embodiment, as an example, the power source 20 is a battery and is detachably accommodated in the main body 2. In the present embodiment, as an example, the storage medium 22 is a flash memory card and is detachably accommodated in the main body 2. Note that the battery and the storage medium 22 serving as the power source 20 may be fixed in the main body 2. The storage medium 22 may be arranged in another electronic device that is separated from the main body 2 and connected to the main body 2 by wired communication or wireless communication.

次に、画像処理部16において実行される台形補正処理について、図4に示すフローチャートを参照して説明する。台形補正処理とは、概略的には、被写体に正対していない位置において撮像された1次画像データに対して台形歪みを補正する幾何学的な変形処理を施すことによって、被写体に正対する仮想的な視点から撮像したような2次画像データを生成する処理である。   Next, the trapezoid correction process executed in the image processing unit 16 will be described with reference to the flowchart shown in FIG. The trapezoidal correction process is generally a virtual that directly faces a subject by performing geometric deformation processing for correcting trapezoidal distortion on primary image data captured at a position not facing the subject. This is a process of generating secondary image data as if it were captured from a specific viewpoint.

以下では台形歪みを補正する幾何学的な変形処理について、説明を簡単なものとするために、被写体に正対する位置に対して、撮像装置1の姿勢がピッチ方向(上下方向にあおり傾斜角が生じる方向)に所定の角度をなす位置に配置された場合について説明する。   In the following, in order to simplify the description of the geometric deformation process for correcting the trapezoidal distortion, the orientation of the imaging device 1 is in the pitch direction (in the vertical direction and the inclination angle is relative to the position facing the subject. The case where it arrange | positions in the position which makes | forms a predetermined angle in the direction which arises is demonstrated.

例えば、図5及び図6に示すように、建築物40の矩形である前面40aを、地面に近い実視点Pから見上げるように撮像装置1によって撮像する場合、図7に示すように、1次画像データ50上では、前面40aは上すぼまりに台形に歪んだ形状となる。このとき、実視点Pからの撮像では、撮像装置1は、撮像レンズ4の光軸を水平からピッチ方向に第1角度αyだけ上方に向けた姿勢となる。1次画像データ50上において前面40aが歪むのは、撮像装置1から前面40aへの距離が下から上に向かうほど遠くなることによって、上下方向で撮影倍率が変化するためである。   For example, as shown in FIG. 5 and FIG. 6, when the front surface 40 a that is a rectangle of the building 40 is imaged by the imaging device 1 so as to look up from the actual viewpoint P close to the ground, as shown in FIG. On the image data 50, the front surface 40a has a trapezoidally distorted shape. At this time, in imaging from the actual viewpoint P, the imaging apparatus 1 is in a posture in which the optical axis of the imaging lens 4 is directed upward by a first angle αy from the horizontal to the pitch direction. The reason why the front surface 40a is distorted on the primary image data 50 is that the photographing magnification changes in the vertical direction as the distance from the imaging device 1 to the front surface 40a increases as the distance increases from bottom to top.

一方、撮像装置1を建築物40の前面40aに正対する仮想視点P’に配置して撮像する場合には、図8に示すように、1次画像データ50上において前面40aは矩形状となる。   On the other hand, when the imaging apparatus 1 is arranged and imaged at a virtual viewpoint P ′ facing the front surface 40a of the building 40, the front surface 40a has a rectangular shape on the primary image data 50 as shown in FIG. .

台形補正処理では、実視点Pから撮像した1次画像データ50中の被写体像が、図9に示すように仮想的な視点である仮想視点P’から撮影した被写体像に近似した形状となるように1次画像データ50を変形して、これを2次画像データ50’とする。言い換えれば、撮像素子3の受光面に平行な平面A上の1次画像データ50を、平面Aに対してピッチ方向に第1角度αyだけ傾いた平面Bに投影したものが、台形補正処理が施された2次画像データ50’である。   In the trapezoidal correction process, the subject image in the primary image data 50 taken from the real viewpoint P has a shape that approximates the subject image taken from the virtual viewpoint P ′, which is a virtual viewpoint, as shown in FIG. The primary image data 50 is transformed into secondary image data 50 ′. In other words, the primary image data 50 on the plane A parallel to the light receiving surface of the image sensor 3 is projected onto the plane B inclined by the first angle αy in the pitch direction with respect to the plane A. The applied secondary image data 50 '.

具体的には、台形補正処理では、まずステップS31において、焦点距離検出部4bから、撮像レンズ4の焦点距離fの値を取得し、RAM12のログ情報バッファ12cに記憶する。   Specifically, in the trapezoidal correction process, first, in step S31, the value of the focal length f of the imaging lens 4 is acquired from the focal length detection unit 4b and stored in the log information buffer 12c of the RAM 12.

次に、ステップS32において、補正角度を取得し、RAM12のログ情報バッファ12cに記憶する。ここで、補正角度とは、前述のように、撮像素子3の受光面に対してピッチ方向になす角度である第1角度αyと、撮像素子3の受光面に対してヨー方向になす角度である第2角度αxとの2つの角度の値を含む。   Next, in step S32, the correction angle is acquired and stored in the log information buffer 12c of the RAM 12. Here, as described above, the correction angle is a first angle αy that is an angle formed in the pitch direction with respect to the light receiving surface of the image sensor 3 and an angle that is formed in the yaw direction with respect to the light receiving surface of the image sensor 3. It includes two angle values with a certain second angle αx.

補正角度の値は、使用者が入力装置7を操作することによって定められる。例えば、使用者が4方向スイッチ7cを上下方向に操作することによって第1角度αyの値が増減し、使用者が4方向スイッチ7cを左右方向に操作することによって第2角度αxの値が増減する。また例えば、使用者がタッチパネル7e上をなぞるドラッグ操作の方向に応じて、第1角度αy及び第2角度αxの値が増減する形態であってもよい。補正角度の値は、連続的に変化する形態であってもよいし、ステップ状に変化する形態であってもよい。   The value of the correction angle is determined by the user operating the input device 7. For example, the value of the first angle αy increases or decreases when the user operates the four-way switch 7c in the vertical direction, and the value of the second angle αx increases or decreases when the user operates the four-way switch 7c in the horizontal direction. To do. Further, for example, the values of the first angle αy and the second angle αx may be increased or decreased according to the direction of the drag operation that the user traces on the touch panel 7e. The value of the correction angle may be continuously changed or may be changed stepwise.

次に、ステップS33において、ログ情報バッファ12cに記憶されている焦点距離fの値及び補正角度の値を用いて、1次画像データ50に台形補正処理を施し、2次画像データ50’を生成する。   Next, in step S33, the primary image data 50 is subjected to trapezoidal correction processing using the focal length f value and the correction angle value stored in the log information buffer 12c to generate secondary image data 50 ′. To do.

下記数式(1)は、平面Aの1次画像データ50の座標(x,y)と、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’、y’)との関係を表す式である。   The following mathematical formula (1) is expressed by the coordinates (x, y) of the primary image data 50 of the plane A and the coordinates (x of the secondary image data 50 ′ of the plane B inclined by the angle α with respect to the plane A in the pitch direction ', Y').

[数1]
y={H・k1・y’}/{H−k2・y’}
x={H・x’}/{H−k2・y’}
ここで、k1及びk2は変換係数であり、
k1=cosα−sinα・tanβ
k2=H−2sinα・tanβ
である。
[Equation 1]
y = {H · k1 · y ′} / {H−k2 · y ′}
x = {H · x ′} / {H−k2 · y ′}
Here, k1 and k2 are conversion coefficients,
k1 = cos α−sin α · tan β
k2 = H-2sin α · tan β
It is.

Hは、使用者によって入力装置7を介して入力された補正角度に対応した撮像素子3の有効画素領域の所定の辺の画素数である。例えば、図7に示すように、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の上下方向の台形歪みの補正を行う場合には、Hは撮像素子3の有効画素領域の短辺方向の画素数である。具体的には、Hに対応する画素数は、撮像素子3の有効画素領域の短辺方向となる長さに対して、撮像素子3にある1画素あたりの長さ(画素ピッチ)を割り算した結果となる。また、図示しないが、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の左右方向の台形歪みの補正を行う場合には、Hは撮像素子3の有効画素領域の長辺方向の画素数である。この場合、Hに対応する画素数は、撮像素子3の有効画素領域の長辺方向となる長さに対して、撮像素子3にある1画素あたりの長さ(画素ピッチ)を割り算した結果となる。   H is the number of pixels on a predetermined side of the effective pixel region of the image sensor 3 corresponding to the correction angle input by the user via the input device 7. For example, as shown in FIG. 7, when photographing with the long side of the effective pixel region of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the vertical direction of the visual field, H is the effective pixel region of the image sensor 3. The number of pixels in the short side direction. Specifically, the number of pixels corresponding to H is obtained by dividing the length (pixel pitch) per pixel in the image sensor 3 with respect to the length in the short side direction of the effective pixel region of the image sensor 3. Result. Although not shown, when the image is taken with the long side of the effective pixel area of the image sensor 3 horizontal, and when correcting the trapezoidal distortion in the horizontal direction of the visual field, H is the long side of the effective pixel area of the image sensor 3 The number of pixels in the direction. In this case, the number of pixels corresponding to H is obtained by dividing the length (pixel pitch) per pixel in the image sensor 3 with respect to the length in the long side direction of the effective pixel region of the image sensor 3. Become.

また、角度βは、下記数式(2)によって算出される。   Further, the angle β is calculated by the following mathematical formula (2).

[数2]
β=arctan{L/(2・f)}
Lは、使用者によって入力装置7を介して入力された補正角度に対応した撮像素子3の有効画素領域の所定の辺の長さである(単位はmmで示す)。例えば、図7に示すように、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の上下方向の台形歪みの補正を行う場合には、Lは撮像素子3の有効画素領域の短辺方向の長さである。また、図示しないが、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の左右方向の台形歪みの補正を行う場合には、Lは撮像素子3の有効画素領域の長辺方向の長さである。fは撮像レンズ4の焦点距離である(単位はmmで示す)。すなわち、角度βは、撮像装置1の台形歪みを行う方向の画角の半分の値である。
[Equation 2]
β = arctan {L / (2 · f)}
L is the length of a predetermined side of the effective pixel area of the image sensor 3 corresponding to the correction angle input by the user via the input device 7 (unit is indicated in mm). For example, as shown in FIG. 7, when photographing with the long side of the effective pixel area of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the vertical direction of the field of view, L is the effective pixel area of the image sensor 3. Is the length in the short side direction. Although not shown, when taking a picture with the long side of the effective pixel area of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the horizontal direction of the visual field, L is the long side of the effective pixel area of the image sensor 3 The length of the direction. f is a focal length of the imaging lens 4 (unit is shown in mm). That is, the angle β is a half value of the angle of view in the direction in which the trapezoidal distortion of the imaging apparatus 1 is performed.

なお、焦点距離fの値は、使用者によって入力装置7を介して入力される値であってもよい。例えば、撮像装置1がレンズ交換式であり、焦点距離情報を取得できない撮像レンズ4が装着されている場合には、焦点距離fの値を使用者が入力することによって、使用者が所望する台形補正を実施することができる。また、焦点距離fの値を使用者が入力可能とすることによって、使用者の意図に応じた遠近感を生じさせる台形補正を行うことができる。なお、焦点距離fの値を使用者が入力可能である場合には、撮像レンズ4から取得される値と、使用者によって入力される値のどちらを用いて台形補正を実行するかを選択する手段が設けられてもよい。   The value of the focal length f may be a value input via the input device 7 by the user. For example, when the imaging device 1 is of the interchangeable lens type and the imaging lens 4 that cannot acquire focal length information is attached, the user inputs the value of the focal length f, so that the trapezoid desired by the user is obtained. Correction can be performed. In addition, by enabling the user to input the value of the focal length f, it is possible to perform keystone correction that produces a sense of perspective according to the user's intention. When the user can input the value of the focal length f, the user selects whether to perform the keystone correction using the value acquired from the imaging lens 4 or the value input by the user. Means may be provided.

ステップS33では、上記数式(1)及び(2)を用いることによって、1次画像データ50に、短辺方向の台形補正処理を実施し、2次画像データ50’を生成する。台形補正後となる2次画像データの座標(x’,y’)は、上記数式(1)が示す1次画像データ50の座標(x,y)との関係式を逆算することによって算出される。より具体的には、ステップS33では、上記数式(1)及び(2)を用い、台形補正後となる2次画像データの座標(x’,y’)に対する1次画像データ50の座標(x,y)の関係式を定義する。次にこの定義した数式(1)に基づく関係式を逆算して、入力される1次画像データ50の座標(x,y)から2次画像データ50’の座標(x’,y’)を求めることによって、図7に一例として示すような1次画像データ50に、ピッチ方向の補正角度入力に応じて、一次画像データ50の短辺方向(図7の例ではy方向)の台形補正処理を実施し、図9に示す様な2次画像データ50’を生成する。   In step S33, trapezoidal correction processing in the short side direction is performed on the primary image data 50 by using the above formulas (1) and (2) to generate secondary image data 50 '. The coordinates (x ′, y ′) of the secondary image data after the keystone correction are calculated by back calculating the relational expression with the coordinates (x, y) of the primary image data 50 indicated by the above formula (1). The More specifically, in step S33, using the above equations (1) and (2), the coordinates (x ', y') of the primary image data 50 with respect to the coordinates (x ', y') after the keystone correction are performed. , Y) is defined. Next, the relational expression based on the defined mathematical formula (1) is reversely calculated, and the coordinates (x ′, y ′) of the secondary image data 50 ′ are calculated from the coordinates (x, y) of the input primary image data 50. By obtaining the trapezoidal correction process in the short side direction (y direction in the example of FIG. 7) of the primary image data 50 according to the correction angle input in the pitch direction, the primary image data 50 shown as an example in FIG. To generate secondary image data 50 'as shown in FIG.

以上の例示では、台形補正処理は視野中の鉛直方向(ピッチ方向)について行われる作用を説明した。なお、台形補正処理は視野中の水平方向(ヨー方向)についても同様に行われる。この場合の台形補正処理は、例えば建築物40の前面40aと撮像レンズ4の光軸との水平方向になす角度が直角でない実視点Pから撮影された1次画像データを、建築物40の表面40aに正対する仮想視点P’から撮影された画像に近似させる台形補正を実行するものである。このような撮影条件では、建築物40の矩形状の前面40aは、1次画像データ中において左右方向に非対称となる。この場合の台形補正処理は、1次画像データ50又はピッチ方向の台形補正処理が施された2次画像データ50’を、平面Aに対してヨー方向に第2角度αxだけ傾いた平面Bに投影する変形処理を施したものを2次画像データ50’とする。具体的には、平面Aに対してヨー方向に第2角度αxだけ傾いた平面Bの2次画像データ50’の座標(x’、y’)は、前記数式(1)に対して、1次画像に係る座標の変数(x、y)を(y、x)に置き換えて、さらに2次画像に係る座標の変数(x’、y’)を(y’、x’)に置き換えた関係式となる。また、前記数式(2)に対して、βの値に係る、L[mm]は、撮像素子3の有効画素領域の長辺方向の長さになる。   In the above illustration, the trapezoidal correction process has been described for the action performed in the vertical direction (pitch direction) in the field of view. Note that the trapezoidal correction process is similarly performed in the horizontal direction (yaw direction) in the field of view. In this case, the trapezoidal correction processing is performed, for example, by using the primary image data captured from the actual viewpoint P where the angle between the front surface 40a of the building 40 and the optical axis of the imaging lens 4 in the horizontal direction is not a right angle as the surface of the building 40. A trapezoidal correction is performed to approximate an image taken from a virtual viewpoint P ′ directly facing 40a. Under such shooting conditions, the rectangular front surface 40a of the building 40 is asymmetric in the left-right direction in the primary image data. In this case, the trapezoidal correction process is performed by converting the primary image data 50 or the secondary image data 50 ′ subjected to the trapezoidal correction process in the pitch direction to the plane B inclined by the second angle αx with respect to the plane A in the yaw direction. The image subjected to the deformation process to be projected is defined as secondary image data 50 ′. Specifically, the coordinates (x ′, y ′) of the secondary image data 50 ′ of the plane B inclined by the second angle αx in the yaw direction with respect to the plane A are 1 Relationship in which the variable (x, y) of the coordinate related to the next image is replaced with (y, x), and the variable (x ′, y ′) of the coordinate related to the secondary image is replaced with (y ′, x ′). It becomes an expression. In addition, with respect to Equation (2), L [mm] related to the value of β is the length of the effective pixel region of the image sensor 3 in the long side direction.

以上のように、本実施形態の画像処理部16は、1次画像データ50を、撮像素子3の受光面と平行な平面Aに対してピッチ方向に第1角度αyをなし、受光面に対してヨー方向に第2角度αxをなす平面B上に投影する変形処理を施した2次画像データを生成する。   As described above, the image processing unit 16 according to the present embodiment forms the primary image data 50 in the pitch direction with respect to the plane A parallel to the light receiving surface of the image sensor 3, with respect to the light receiving surface. Then, the secondary image data subjected to the deformation process for projecting onto the plane B forming the second angle αx in the yaw direction is generated.

なお、以上に述べた台形補正処理の生成に必要な画像処理の詳細については、公知の技術であるため詳細な説明は省略するものとする。   Note that the details of the image processing necessary for generating the trapezoid correction processing described above are well-known techniques, and thus detailed description thereof will be omitted.

次に、以上に説明した構成を有する撮像装置1の動作について説明する。図3に示すフローチャートは、撮像装置1の電源がオン状態であり、かつ撮像動作モードである場合の動作を示している。撮像動作モードでは、初期状態として、所定のフレーム周期毎に撮像素子3から1次画像データを取得し、画像処理部16にて画像処理された後の2次画像データを画像表示装置6に逐次表示出力させるライブビュー表示動作をしている。また、撮像動作モードでは、撮像装置1は、レリーズスイッチ7bへの操作入力に応じて、撮像装置1が被写体像を電子データとして記憶媒体22に記憶する動作を実行する。なお、撮像装置1は、記憶媒体22に記憶されている画像の電子データを、画像表示装置6に再生表示する再生モードを実行可能であってもよい。   Next, the operation of the image pickup apparatus 1 having the configuration described above will be described. The flowchart shown in FIG. 3 shows an operation when the power supply of the imaging apparatus 1 is on and in the imaging operation mode. In the imaging operation mode, as an initial state, primary image data is acquired from the imaging device 3 every predetermined frame period, and secondary image data after image processing by the image processing unit 16 is sequentially performed on the image display device 6. Live view display operation for display output. In the imaging operation mode, the imaging device 1 executes an operation in which the imaging device 1 stores the subject image as electronic data in the storage medium 22 in response to an operation input to the release switch 7b. Note that the imaging apparatus 1 may be capable of executing a reproduction mode in which electronic image data stored in the storage medium 22 is reproduced and displayed on the image display apparatus 6.

撮像動作モードは、例えば使用者によって電源操作スイッチ7aが操作されて撮像装置1を休止状態とする入力が行われた場合、他の動作モードに切り替える操作が入力された場合、又は制御部10が休止状態に移行する判断をした場合、に終了する。この撮像動作モードを終了する判定処理は、図3のフローチャートでは省略している。   The imaging operation mode is, for example, when the user operates the power operation switch 7a to input the imaging apparatus 1 to be in a dormant state, when an operation to switch to another operation mode is input, or when the control unit 10 If it is determined to enter the hibernation state, the process ends. The determination process for ending the imaging operation mode is omitted in the flowchart of FIG.

撮像動作モードでは、撮像素子3及び撮像素子駆動部8に電力が供給されている。また、ライブビュー表示動作を行うために、撮像素子3からの1次画像データ50の取得は、所定のフレーム周期毎に行われる。撮像動作モードでは、まず、ステップS11において、撮像素子駆動部8から出力された1次画像データ50を、RAM12の画像データバッファ12bに記憶する。   In the imaging operation mode, power is supplied to the imaging device 3 and the imaging device driving unit 8. Further, in order to perform the live view display operation, the acquisition of the primary image data 50 from the image sensor 3 is performed every predetermined frame period. In the imaging operation mode, first, in step S11, the primary image data 50 output from the imaging element driving unit 8 is stored in the image data buffer 12b of the RAM 12.

次にステップS12において、台形補正モードが使用者によって選択されているか否かを判定する。台形補正モードとは、撮像装置1が、1次画像データ50に対して、画像処理部16を用いて前述した台形補正処理を施す動作モードである。台形補正モードの選択の有無は、例えば画像表示装置6に表示されるGUIにおいて、使用者が4方向スイッチ7c又はタッチパネル7eを操作することによって切り替えられる。   Next, in step S12, it is determined whether or not the keystone correction mode is selected by the user. The trapezoidal correction mode is an operation mode in which the imaging apparatus 1 performs the above-described trapezoidal correction process on the primary image data 50 using the image processing unit 16. Whether or not the trapezoid correction mode is selected can be switched by the user operating the four-way switch 7c or the touch panel 7e on the GUI displayed on the image display device 6, for example.

ステップS12において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS13において図4に示す台形補正処理を実行した後にステップS14に移行する。ステップS13が実行されることによって、1次画像データ50に対して台形補正処理を施したものである2次画像データ50’が、画像データバッファ12bに記憶される。   If it is determined in step S12 that the keystone correction mode has been selected by the user, the process proceeds to step S14 after the keystone correction process shown in FIG. 4 is executed in step S13. By executing step S13, secondary image data 50 'obtained by performing keystone correction processing on the primary image data 50 is stored in the image data buffer 12b.

一方、ステップS12において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS13をスキップしてステップS14に移行する。   On the other hand, if it is determined in step S12 that the keystone correction mode is not selected by the user, step S13 is skipped and the process proceeds to step S14.

ステップS14では、RAM12の画像データバッファ12bに記憶されている画像データを、画像表示装置6に表示する。ここで、ステップS13がスキップされている場合には、ステップS14では、台形補正処理が施されていない1次画像データ50が画像表示装置6に表示される。一方、ステップS13が実行されている場合には、台形補正処理が施された2次画像データ50’が画像表示装置6に表示される。   In step S <b> 14, the image data stored in the image data buffer 12 b of the RAM 12 is displayed on the image display device 6. If step S13 is skipped, the primary image data 50 that has not been subjected to the trapezoidal correction process is displayed on the image display device 6 in step S14. On the other hand, when step S13 is executed, the secondary image data 50 'subjected to the trapezoidal correction process is displayed on the image display device 6.

台形補正処理が施された2次画像データ50’中では、図9に示すように、撮像装置1の視野は矩形では無くなる。ステップS14では、2次画像データ50’の全体を画像表示装置6に表示してもよいし、2次画像データ50’を図9に2点鎖線で示すように矩形の領域にトリミングした一部の領域を画像表示装置6に表示してもよい。   In the secondary image data 50 ′ subjected to the trapezoidal correction process, the field of view of the imaging device 1 is not rectangular as shown in FIG. 9. In step S14, the entire secondary image data 50 'may be displayed on the image display device 6, or a part of the secondary image data 50' trimmed into a rectangular area as shown by a two-dot chain line in FIG. These areas may be displayed on the image display device 6.

次に、ステップS15では、入力装置7を介してAF領域の移動を指示する入力がなされたか否かを判定する。前述のように、本実施形態におけるAF領域の移動を指示する入力は、使用者がタッチパネル7eや4方向スイッチ7c等の入力装置7を操作することによって行われる。本実施形態では一例として、制御部10は、画像表示装置6に表示している画像データの領域内が使用者によってタップされた場合に、AF領域の移動を指示する入力がなされたものと判定する。そして本実施形態では、制御部10は、使用者によってタップされた位置に対応する画像データ中の座標を、AF位置指定座標として認識する。   Next, in step S15, it is determined whether or not an input for instructing movement of the AF area is made via the input device 7. As described above, the input for instructing the movement of the AF area in the present embodiment is performed by the user operating the input device 7 such as the touch panel 7e or the four-way switch 7c. In the present embodiment, as an example, the control unit 10 determines that an input for instructing movement of the AF area is made when the user taps the area of the image data displayed on the image display device 6. To do. In this embodiment, the control unit 10 recognizes the coordinates in the image data corresponding to the position tapped by the user as the AF position designation coordinates.

また、本実施形態では一例として、図11に示すように、画像表示装置6に表示される画像中におけるAF領域アイコン60の形状は、ステップS14において画像表示装置6に表示される画像データが、台形補正処理を施されたものであるか否かに関わらず、画像表示装置6の矩形である表示面の外形の4辺と平行な4辺によって囲まれた正方形又は矩形である。   In the present embodiment, as an example, as shown in FIG. 11, the shape of the AF area icon 60 in the image displayed on the image display device 6 is the image data displayed on the image display device 6 in step S <b> 14. Regardless of whether or not the trapezoidal correction process has been performed, the image display device 6 is a rectangle or rectangle surrounded by four sides parallel to the four sides of the outer shape of the display surface.

ステップS15において、AF領域の移動を指示する入力がなされたと判定した場合には、ステップS40に移行する。ステップ40では、図10のフローチャートに示すAF領域移動処理を実行する。   If it is determined in step S15 that an input for instructing movement of the AF area has been made, the process proceeds to step S40. In step 40, the AF area movement process shown in the flowchart of FIG. 10 is executed.

AF領域移動処理では、まず、ステップS41において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS41において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS42に移行する。   In the AF area movement process, first, in step S41, it is determined whether or not the trapezoid correction mode has been selected by the user. If it is determined in step S41 that the keystone correction mode has not been selected by the user, the process proceeds to step S42.

ステップS42では、使用者によって入力装置7を介して入力されたAF位置指定座標を取得する。ここで、台形補正モードが実行されていないことから、画像表示装置6には、台形補正処理が施されていない1次画像データ50が画像表示装置6に表示されている。したがって、ステップS42におけるAF位置指定座標は、平面Aの1次画像データ50の座標(x,y)で表される。   In step S42, AF position designation coordinates input by the user via the input device 7 are acquired. Here, since the keystone correction mode is not executed, the primary image data 50 that has not been subjected to the keystone correction process is displayed on the image display device 6 on the image display device 6. Therefore, the AF position designation coordinates in step S42 are represented by the coordinates (x, y) of the primary image data 50 on the plane A.

次に、ステップS43において、AF位置指定座標をRAM12のログ情報バッファ12cに記憶する。そして、ステップS44において、図11に示すように、画像表示装置6に表示されている1次画像データ50中のAF位置指定座標に、AF領域の位置を示すAF領域アイコン60を重畳して表示する。ステップS44の実行後に、図3のステップS11に戻る。   Next, in step S43, the AF position designation coordinates are stored in the log information buffer 12c of the RAM 12. In step S44, as shown in FIG. 11, an AF area icon 60 indicating the position of the AF area is superimposed and displayed on the AF position designation coordinates in the primary image data 50 displayed on the image display device 6. To do. After execution of step S44, the process returns to step S11 of FIG.

一方、AF領域移動処理のステップS41において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS45に移行する。   On the other hand, if it is determined in step S41 of the AF area movement process that the keystone correction mode is selected by the user, the process proceeds to step S45.

ステップS45では、使用者によって入力装置7を介して入力されたAF位置指定座標を取得する。ここで、台形補正モードが実行されていることから、画像表示装置6には、台形補正処理が施された2次画像データ50’が画像表示装置6に表示されている。したがって、ステップS45におけるAF位置指定座標とは、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’,y’)で表される。   In step S45, the AF position designation coordinates input by the user via the input device 7 are acquired. Here, since the keystone correction mode is executed, the secondary image data 50 ′ subjected to the keystone correction processing is displayed on the image display device 6 on the image display device 6. Therefore, the AF position designation coordinates in step S45 are represented by the coordinates (x ′, y ′) of the secondary image data 50 ′ of the plane B inclined by the angle α in the pitch direction with respect to the plane A.

次に、ステップS46において、AF位置指定座標をRAM12のログ情報バッファ12cに記憶する。そして、ステップS47において、図12に示すように、画像表示装置6に表示されている2次画像データ50’中のAF位置指定座標に、AF領域の位置を示すAF領域アイコン60を重畳して表示する。ステップS47の実行後に、図3のステップS11に戻る。   Next, in step S46, the AF position designation coordinates are stored in the log information buffer 12c of the RAM 12. Then, in step S47, as shown in FIG. 12, an AF area icon 60 indicating the position of the AF area is superimposed on the AF position designation coordinates in the secondary image data 50 ′ displayed on the image display device 6. indicate. After execution of step S47, the process returns to step S11 in FIG.

一方、ステップS15において、AF領域の移動を指示する入力はなされていないと判定した場合には、ステップS16に移行する。   On the other hand, if it is determined in step S15 that there is no input instructing movement of the AF area, the process proceeds to step S16.

ステップS16では、レリーズスイッチ7bの第1レリーズスイッチがON状態であるか否かを判定する。すなわち、レリーズスイッチ7bが半押し状態であるか否かを判定する。   In step S16, it is determined whether or not the first release switch of the release switch 7b is in an ON state. That is, it is determined whether or not the release switch 7b is half pressed.

ステップS16において、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であると判定した場合には、ステップS11に戻る。すなわち、レリーズスイッチ7bが操作されるまでは、ステップS11からステップS15までの動作は、所定のフレーム周期に同期して繰り返し実行される。ステップS11からステップS15までの動作は、所定のフレーム周期に同期して繰り返すことによって、画像表示装置6に表示される1次画像データ50又は2次画像データ50’が、常に更新されるライブビュー動作が行われる。また、ステップS11からステップS15までの動作は、所定のフレーム周期に同期して繰り返すことによって、使用者の入力装置7への操作入力に応じてAF位置指定座標が変更され、AF位置指定座標の変化に応じてライブビュー表示におけるAF領域アイコン60の位置が変化する。   If it is determined in step S16 that the first release switch of the release switch 7b is in the OFF state, the process returns to step S11. That is, until the release switch 7b is operated, the operations from step S11 to step S15 are repeatedly executed in synchronization with a predetermined frame period. The live view in which the primary image data 50 or the secondary image data 50 ′ displayed on the image display device 6 is constantly updated by repeating the operations from step S11 to step S15 in synchronization with a predetermined frame period. Operation is performed. Further, the operations from step S11 to step S15 are repeated in synchronization with a predetermined frame period, whereby the AF position designation coordinates are changed according to the operation input to the input device 7 by the user, and the AF position designation coordinates are changed. The position of the AF area icon 60 in the live view display changes according to the change.

一方、ステップS16において、レリーズスイッチ7bの第1レリーズスイッチがON状態であると判定した場合には、ステップS17へ移行する。ステップS17では、図13に示すフローチャートのAF処理を実行する。   On the other hand, if it is determined in step S16 that the first release switch of the release switch 7b is in the ON state, the process proceeds to step S17. In step S17, the AF process of the flowchart shown in FIG. 13 is executed.

AF処理では、まずステップS61に示すように、台形補正モードが使用者によって選択されているか否かを判定する。   In the AF process, first, as shown in step S61, it is determined whether or not the keystone correction mode is selected by the user.

ステップS61において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS62に移行する。   If it is determined in step S61 that the keystone correction mode has not been selected by the user, the process proceeds to step S62.

ステップS62では、RAMのログ情報バッファ12cに記憶されている1次画像データ50中のAF位置指定座標を読み込む。そして、ステップS63において、AF制御部16により、1次画像データ50中のAF位置指定座標を中心としたAF領域内のコントラスト値を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。なお、前述のように、撮像装置1が位相差検出方式のオートフォーカス動作が可能である場合には、オートフォーカス動作は、AF位置指定座標を中心としたAF領域内の測距センサによって検出された位相差情報を用いて行われる。そして、ステップS64において、例えば画像表示装置6に表示されているAF領域アイコン60の色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。   In step S62, the AF position designation coordinates in the primary image data 50 stored in the log information buffer 12c of the RAM are read. In step S63, the AF control unit 16 detects the contrast value in the AF area with the AF position designation coordinate in the primary image data 50 as the center, and controls the AF mechanism unit 4a to set the in-focus distance. The imaging lens 4 is brought into a focused state by changing. As described above, when the imaging apparatus 1 is capable of the phase difference detection type autofocus operation, the autofocus operation is detected by the distance measuring sensor in the AF area centered on the AF position designation coordinates. This is done using the phase difference information. In step S64, for example, by changing the color of the AF area icon 60 displayed on the image display device 6, it is displayed that the imaging lens 4 is in focus.

一方、ステップS61において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS65に移行する。   On the other hand, if it is determined in step S61 that the trapezoidal correction mode is selected by the user, the process proceeds to step S65.

ステップS65では、RAMのログ情報バッファ12cに記憶されている2次画像データ50’中のAF位置指定座標を読み込む。次に、ステップS66において、2次画像データ50’中のAF位置指定座標及び2次画像データ50’中において正方形又は矩形であるAF領域を、1次画像データ50に投影する変換処理を実行する。この変換処理は、前述した台形補正処理の数式(1)を用いることによって行われる。   In step S65, the AF position designation coordinates in the secondary image data 50 'stored in the log information buffer 12c of the RAM are read. Next, in step S66, conversion processing for projecting AF position designation coordinates in the secondary image data 50 ′ and AF areas that are square or rectangular in the secondary image data 50 ′ onto the primary image data 50 is executed. . This conversion process is performed by using the above-described equation (1) of the trapezoid correction process.

例えば、画像表示装置6によって図12に示すように正方形のAF領域アイコン60’によって表示されているAF領域は、ステップS66の実行によって、1次画像データ50中では図14に示すように正方形とは異なる形状となる。   For example, the AF area displayed by the square AF area icon 60 ′ as shown in FIG. 12 by the image display device 6 becomes a square in the primary image data 50 as shown in FIG. Have different shapes.

そして、ステップS67において、AF制御部16により、ステップS66で算出した1次画像データ50中のAF領域内のコントラスト値又は位相差情報を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。そして、ステップS68において、例えば画像表示装置6に表示されているAF領域アイコン60’の色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。   In step S67, the AF control unit 16 controls the AF mechanism unit 4a while detecting the contrast value or phase difference information in the AF area in the primary image data 50 calculated in step S66, and the in-focus distance. Is changed to bring the imaging lens 4 into a focused state. In step S68, for example, by changing the color of the AF area icon 60 'displayed on the image display device 6, it is displayed that the imaging lens 4 is in focus.

AF処理の実行後は、ステップS18に移行する。ステップS18では、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であるか否かを判定する。ステップS18において、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であると判定した場合には、使用者がフレーミング操作を止めたと判断して、再度ステップS11に戻る。   After the AF process is executed, the process proceeds to step S18. In step S18, it is determined whether or not the first release switch of the release switch 7b is in an OFF state. If it is determined in step S18 that the first release switch of the release switch 7b is in the OFF state, it is determined that the user has stopped the framing operation, and the process returns to step S11 again.

一方、ステップS18において、レリーズスイッチ7bの第1レリーズスイッチがON状態であると判定した場合には、ステップS19に移行する。ステップS19では、レリーズスイッチ7bの第2レリーズスイッチがON状態であるか否かを判定する。   On the other hand, when it is determined in step S18 that the first release switch of the release switch 7b is in the ON state, the process proceeds to step S19. In step S19, it is determined whether or not the second release switch of the release switch 7b is in the ON state.

ステップS19において、レリーズスイッチ7bの第2レリーズスイッチがOFF状態であると判定した場合には、ステップS11に戻る。   If it is determined in step S19 that the second release switch of the release switch 7b is in the OFF state, the process returns to step S11.

一方、ステップS19において、レリーズスイッチ7bの第2レリーズスイッチがON状態であると判定した場合には、ステップS20に移行して撮像動作を実行する。撮像動作では、AE制御部15によって算出した露出値を用いた撮像が行われるように、撮像素子3を駆動し、得られた画像データを撮像用画像データとして画像データバッファ12bに記憶する。   On the other hand, if it is determined in step S19 that the second release switch of the release switch 7b is in the ON state, the process proceeds to step S20 to execute the imaging operation. In the imaging operation, the imaging device 3 is driven so that imaging using the exposure value calculated by the AE control unit 15 is performed, and the obtained image data is stored in the image data buffer 12b as imaging image data.

次にステップS21において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS21において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS22に移行して撮像用画像データに対して前述した台形補正処理を実行する。そしてステップS23において、台形補正処理が施された撮像用画像データを、所定の形式の電子ファイルとして記憶媒体22に記憶する。   Next, in step S21, it is determined whether or not the keystone correction mode is selected by the user. If it is determined in step S21 that the trapezoid correction mode is selected by the user, the process proceeds to step S22, and the above-described trapezoid correction process is performed on the image data for imaging. In step S23, the image data for imaging subjected to the trapezoidal correction process is stored in the storage medium 22 as an electronic file in a predetermined format.

一方、ステップS21において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS22をスキップしてステップS23に移行し、撮像用画像データを、所定の形式の電子ファイルとして記憶媒体22に記憶する。   On the other hand, if it is determined in step S21 that the keystone correction mode has not been selected by the user, step S22 is skipped and the process proceeds to step S23 to store the image data for imaging as an electronic file in a predetermined format. Store in the medium 22.

以上に説明したように、本実施形態の撮像装置1は、所定のフレーム周期毎に1次画像データを取得する撮像素子3と、フレーム周期に同期して撮像レンズ4の焦点距離を取得する焦点距離検出部4bと、撮像素子3の受光面に対してピッチ方向になす角度である第1角度αy及び受光面に対してヨー方向になす角度である第2角度αxからなる2つの値を含む補正角度を入力する入力装置7と、フレーム周期に同期して、焦点距離の値及び補正角度の値を用いて、1次画像データを、受光面に対してピッチ方向に第1角度αyをなし、受光面に対してヨー方向に第2角度αxをなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部16と、フレーム周期に同期して2次画像データに基づく画像を表示する画像表示装置6と、を備える。   As described above, the imaging apparatus 1 according to the present embodiment includes the imaging element 3 that acquires primary image data every predetermined frame period, and the focal point that acquires the focal length of the imaging lens 4 in synchronization with the frame period. The distance detection unit 4b includes two values including a first angle αy that is an angle formed in the pitch direction with respect to the light receiving surface of the image sensor 3 and a second angle αx that is an angle formed in the yaw direction with respect to the light receiving surface. Using the input device 7 for inputting the correction angle and the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed in the pitch direction with respect to the light receiving surface. An image processing unit 16 for generating secondary image data subjected to a deformation process for projecting onto a plane having a second angle αx in the yaw direction with respect to the light receiving surface, and based on the secondary image data in synchronization with the frame period. Image display device for displaying images And, equipped with a.

このような構成を有する本実施形態の撮像装置1によれば、撮像装置1のピッチ方向及びヨー方向の2つの方向について、被写体の台形歪みを補正する台形補正処理を実行可能であり、使用者は、この台形補正処理の度合い(補正角度)を入力装置7を操作することによって自由に変更することができる。また、本実施形態では、台形補正処理が施された結果である2次画像データ50’がライブビューとして画像表示装置6に表示され、かつ補正角度を変更した結果が即時にライブビューの表示に反映される。このため、本実施形態の撮像装置1を用いれば、使用者は、意図通りに画像に台形補正処理を行うことが可能である。   According to the imaging apparatus 1 of the present embodiment having such a configuration, trapezoidal correction processing for correcting the trapezoidal distortion of the subject can be executed in two directions of the pitch direction and the yaw direction of the imaging apparatus 1. The degree of the trapezoid correction process (correction angle) can be freely changed by operating the input device 7. In the present embodiment, the secondary image data 50 ′, which is the result of the keystone correction process, is displayed on the image display device 6 as a live view, and the result of changing the correction angle is immediately displayed in the live view. Reflected. For this reason, if the imaging device 1 of this embodiment is used, the user can perform the trapezoid correction process on the image as intended.

また、本実施形態の撮像装置1は、さらに撮像レンズ4の合焦距離を変化させる制御を行うAF制御部14を備え、入力装置7によって、画像表示装置6に表示する2次画像データ中におけるAF領域の位置を指定する入力を受け付け、画像処理部16によって、2次画像データ中におけるAF領域の位置を、1次画像データを含む平面上に投影する変換処理を実行し、AF制御部14によって、撮像素子3の受光面上の、1次画像データを含む平面上に投影されたAF領域に対応する位置において撮像レンズ4が合焦状態となるように撮像レンズ4の合焦距離を変化させる。   Further, the imaging apparatus 1 of the present embodiment further includes an AF control unit 14 that performs control to change the focal distance of the imaging lens 4, and in the secondary image data displayed on the image display apparatus 6 by the input device 7. An input designating the position of the AF area is received, and the image processing unit 16 executes a conversion process for projecting the position of the AF area in the secondary image data onto the plane including the primary image data, and the AF control unit 14 The focusing distance of the imaging lens 4 is changed so that the imaging lens 4 is in a focused state at a position corresponding to the AF area projected onto the plane including the primary image data on the light receiving surface of the imaging device 3. Let

このような本実施形態の撮像装置1によれば、使用者は、画像表示装置6に表示される台形補正処理が施された2次画像データ50’をライブビューとして確認しながら、入力装置7を操作することによって、オートフォーカスを行う領域であるAF領域の位置を移動させることができる。そして、この使用者によって入力されたAF領域の位置は、台形補正処理が施される前の1次画像データ50中の座標に変換され、この座標をもとにオートフォーカス動作が実行される。このため、本実施形態によれば、使用者が被写体中の位置を指定したAF領域が、台形補正処理によって被写体に対する位置がずれてしまうことがなく、使用者の意図通りに台形補正処理を施した画像を撮像できる。   According to such an imaging apparatus 1 of the present embodiment, the user confirms the secondary image data 50 ′ subjected to the trapezoidal correction process displayed on the image display apparatus 6 as a live view while confirming the input apparatus 7. By operating the, the position of the AF area, which is the area for autofocusing, can be moved. The position of the AF area input by the user is converted into coordinates in the primary image data 50 before the keystone correction process is performed, and an autofocus operation is executed based on these coordinates. For this reason, according to the present embodiment, the AF area in which the user designates the position in the subject is not shifted in position with respect to the subject due to the trapezoidal correction process, and the keystone correction process is performed as intended by the user. Images can be taken.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。以下では第1の実施形態との相違点のみを説明するものとし、第1の実施形態と同様の構成要素については同一の符号を付し、その説明を適宜に省略するものとする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. Hereinafter, only differences from the first embodiment will be described, and the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

前述した第1の実施形態では、AF領域は、画像表示装置6に表示されるライブビュー表示中において、画像表示装置6の矩形である表示面の外形の4辺と平行な4辺によって囲まれた正方形又は矩形である。   In the first embodiment described above, the AF area is surrounded by four sides parallel to the four sides of the outer shape of the rectangular display surface of the image display device 6 during live view display displayed on the image display device 6. Square or rectangular.

一方、本実施形態では、AF領域は、1次画像データ中において、矩形である1次画像データの外形の4辺と平行な4辺によって囲まれた正方形又は矩形である。すなわち、AF領域は、撮像素子3の受光面上において、受光面の外形の4辺と平行な4辺によって囲まれた領域に相当する。   On the other hand, in the present embodiment, the AF area is a square or rectangle surrounded by four sides parallel to the four sides of the outer shape of the primary image data which is a rectangle in the primary image data. That is, the AF area corresponds to an area surrounded by four sides parallel to the four sides of the outer shape of the light receiving surface on the light receiving surface of the image sensor 3.

したがって、本実施形態は、第1の実施形態に比して、ステップS40のAF領域移動処理と、ステップS17のAF処理の内容が異なる。   Therefore, the present embodiment differs from the first embodiment in the contents of the AF area movement process in step S40 and the AF process in step S17.

図15は、本実施形態の撮像装置1によるAF領域移動処理のフローチャートである。本実施形態のAF領域移動処理では、まずステップS41において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS41において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS42に移行する。   FIG. 15 is a flowchart of AF area movement processing by the imaging apparatus 1 of the present embodiment. In the AF area movement processing of the present embodiment, first, in step S41, it is determined whether or not the trapezoid correction mode has been selected by the user. If it is determined in step S41 that the keystone correction mode has not been selected by the user, the process proceeds to step S42.

台形補正モードが使用者によって選択されていない場合に行われるステップS42からステップS44の動作は、第1の実施形態と同様である。ステップS44の実行後に、図3のステップS11に戻る。   The operations from step S42 to step S44 performed when the keystone correction mode is not selected by the user are the same as those in the first embodiment. After execution of step S44, the process returns to step S11 of FIG.

一方、ステップS42において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS45に移行する。   On the other hand, if it is determined in step S42 that the keystone correction mode has been selected by the user, the process proceeds to step S45.

ステップS45では、使用者によって入力装置7を介して入力されたAF位置指定座標を取得する。ここで、台形補正モードが実行されていることから、画像表示装置6には、台形補正処理が施された2次画像データ50’が画像表示装置6に表示されている。したがって、ステップS45におけるAF位置指定座標とは、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’,y’)で表される。   In step S45, the AF position designation coordinates input by the user via the input device 7 are acquired. Here, since the keystone correction mode is executed, the secondary image data 50 ′ subjected to the keystone correction processing is displayed on the image display device 6 on the image display device 6. Therefore, the AF position designation coordinates in step S45 are represented by the coordinates (x ′, y ′) of the secondary image data 50 ′ of the plane B inclined by the angle α in the pitch direction with respect to the plane A.

次に、ステップS50において、2次画像データ50’中のAF位置指定座標を、1次画像データ50に投影する変換処理を実行する。この変換処理は、前述した台形補正処理の数式(1)を用いることによって行われる。ステップS50の実行により、AF位置指定座標は、平面Aの1次画像データ50の座標(x,y)で表される。そして、ステップS51において、1次画像データ50中におけるAF位置指定座標を、RAMのログ情報バッファ12cに記憶する。   Next, in step S50, a conversion process for projecting the AF position designation coordinates in the secondary image data 50 'onto the primary image data 50 is executed. This conversion process is performed by using the above-described equation (1) of the trapezoid correction process. By executing step S50, the AF position designation coordinates are expressed by the coordinates (x, y) of the primary image data 50 of the plane A. In step S51, the AF position designation coordinates in the primary image data 50 are stored in the log information buffer 12c of the RAM.

次に、ステップS52において、図16に示すように、1次画像50中において、ステップS50で算出したAF位置指定座標を中心とした所定の大きさの正方形又は矩形の1次AF領域61を生成する。次に、ステップS53において、1次画像60中の1次AF領域61を、2次画像データ50’に投影した2次AF領域61’を生成する変換処理を実行する。この変換処理は、前述した台形補正処理の数式(1)を、1次画像データの座標(x,y)から2次画像データの座標(x’,y’)を得るように変形した式を用いることによって行われる。図17に示すように、2次画像データ50’中における2次AF領域61’は、台形補正処理の結果に応じて、1次AF領域61とは異なる形状となる
そして、ステップS54において、図18に示すように、画像表示装置6に表示されている2次画像データ50’中のAF位置指定座標に、2次AF領域61’を示すAF領域アイコン62’を重畳して表示する。ステップS54の実行後に、図3のステップS11に戻る。
Next, in step S52, as shown in FIG. 16, in the primary image 50, a square or rectangular primary AF area 61 having a predetermined size centered on the AF position designation coordinates calculated in step S50 is generated. To do. Next, in step S53, a conversion process for generating a secondary AF area 61 ′ obtained by projecting the primary AF area 61 in the primary image 60 onto the secondary image data 50 ′ is executed. In this conversion process, the formula (1) of the trapezoid correction process described above is transformed to obtain the coordinates (x ′, y ′) of the secondary image data from the coordinates (x, y) of the primary image data. It is done by using. As shown in FIG. 17, the secondary AF area 61 ′ in the secondary image data 50 ′ has a different shape from the primary AF area 61 according to the result of the trapezoidal correction process. As shown in FIG. 18, an AF area icon 62 ′ indicating the secondary AF area 61 ′ is superimposed and displayed on the AF position designation coordinates in the secondary image data 50 ′ displayed on the image display device 6. After execution of step S54, the process returns to step S11 of FIG.

図19は、本実施形態の撮像装置1によるAF処理のフローチャートである。本実施形態のAF処理では、まずステップS71において、RAMのログ情報バッファ12cに記憶されている1次画像データ50中のAF位置指定座標を読み込む。   FIG. 19 is a flowchart of AF processing by the imaging apparatus 1 of the present embodiment. In the AF processing of this embodiment, first, in step S71, the AF position designation coordinates in the primary image data 50 stored in the log information buffer 12c of the RAM are read.

そして、ステップS72において、AF制御部16により、1次画像データ50中のAF位置指定座標を中心としたAF領域内のコントラスト値を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。そして、ステップS73において、例えば画像表示装置6に表示されているAF領域アイコンの色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。AF処理の実行後は、図3に示すステップS18に移行する。   In step S72, the AF control unit 16 controls the AF mechanism unit 4a to detect the focus distance while detecting the contrast value in the AF area centered on the AF position designation coordinate in the primary image data 50. The imaging lens 4 is brought into a focused state by changing. In step S73, for example, by changing the color of the AF area icon displayed on the image display device 6, it is displayed that the imaging lens 4 is in focus. After the AF process is executed, the process proceeds to step S18 shown in FIG.

以上に説明したように、本実施形態においても、第1の実施形態と同様に、使用者は、画像表示装置6に表示される台形補正処理が施された2次画像データ50’をライブビューとして確認しながら、入力装置7を操作することによって、オートフォーカスを行う領域であるAF領域の位置を移動させることができる。そして、この使用者によって入力されたAF領域の位置は、台形補正処理が施される前の1次画像データ50中の座標に変換され、この座標をもとにオートフォーカス動作が実行される。このため、本実施形態によれば、使用者が被写体中の位置を指定したAF領域が、台形補正処理によって被写体に対する位置がずれてしまうことがなく、使用者の意図通りに台形補正処理を施した画像を撮像できる。   As described above, in this embodiment as well, in the same way as in the first embodiment, the user performs live view on the secondary image data 50 ′ subjected to the trapezoid correction process displayed on the image display device 6. By operating the input device 7 while confirming, it is possible to move the position of the AF area, which is the area for autofocusing. The position of the AF area input by the user is converted into coordinates in the primary image data 50 before the keystone correction process is performed, and an autofocus operation is executed based on these coordinates. For this reason, according to the present embodiment, the AF area in which the user designates the position in the subject is not shifted in position with respect to the subject due to the trapezoidal correction process, and the keystone correction process is performed as intended by the user. Images can be taken.

なお、本発明は、前述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う撮像装置及び撮像方法もまた本発明の技術的範囲に含まれるものである。   Note that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. An apparatus and an imaging method are also included in the technical scope of the present invention.

また、本発明に係る撮像装置は、前述の実施形態で説明したような、デジタルカメラの形態に限らず、例えば撮像機能を備えた電子機器の形態であってもよい。撮像機能を備えた電子機器としては、例えば携帯通信端末、ゲーム機、デジタルメディアプレーヤー、腕時計、ボイスレコーダー、双眼鏡等が考えられる。   In addition, the imaging apparatus according to the present invention is not limited to the form of a digital camera as described in the above-described embodiment, and may be in the form of an electronic device having an imaging function, for example. Examples of electronic devices having an imaging function include portable communication terminals, game machines, digital media players, watches, voice recorders, binoculars, and the like.

1 撮像装置、
2 本体部、
3 撮像素子、
4 撮像レンズ、
4a AF機構部、
4b 焦点距離検出部、
6 画像表示装置、
7 入力装置、
7a 電源操作スイッチ、
7b レリーズスイッチ、
7c 4方向スイッチ、
7d ダイヤルスイッチ、
7e タッチパネル、
7f 2方向スイッチ、
8 撮像素子駆動部、
10 制御部、
11 CPU、
12 RAM、
12a 制御プログラム、
12b 画像データバッファ、
12c ログ情報バッファ、
13 フラッシュメモリ、
14 AF制御部、
15 AE制御部、
16 画像処理部、
16a 台形補正係数算出部、
16b 補正処理部、
20 電源、
21 電源接続部、
22 記憶媒体、
23 記憶媒体接続部。
1 imaging device,
2 body part,
3 image sensor,
4 Imaging lens,
4a AF mechanism,
4b focal length detector,
6 image display device,
7 Input device,
7a Power operation switch,
7b Release switch,
7c 4-way switch,
7d dial switch,
7e touch panel,
7f 2-way switch,
8 image sensor drive unit,
10 control unit,
11 CPU,
12 RAM,
12a control program,
12b image data buffer,
12c log information buffer,
13 Flash memory,
14 AF control unit,
15 AE control unit,
16 image processing unit,
16a Keystone correction coefficient calculation unit,
16b correction processing unit,
20 power supply,
21 power connection,
22 storage media,
23 Storage medium connection unit.

Claims (4)

撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備え、
前記入力装置は、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付け、
前記画像処理部は、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行し、
前記AF制御部は、前記受光面上の、前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させる
ことを特徴とする撮像装置。
An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image based on the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
With
The input device accepts an input for designating a position of an AF area in the secondary image data displayed on the image display device;
The image processing unit executes a conversion process of projecting the position of the AF area in the secondary image data onto a plane including the primary image data;
The AF control unit focuses the imaging lens so that the imaging lens is in a focused state at a position corresponding to the AF area projected on the plane including the primary image data on the light receiving surface. An imaging apparatus characterized by changing a distance.
前記2次画像データ中における前記AF領域の外形は矩形状であって、
前記画像処理部は、前記2次画像データ中における前記AF領域の位置及び形状を、前記1次画像データを含む平面上に投影する変換処理を実行し、
前記AF制御部は、前記受光面上の、前記前記1次画像データを含む平面上に投影された前記AF領域内に対応する画像のコントラスト値又は位相差情報に基づいて、前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させる
ことを特徴とする請求項1に記載の撮像装置。
The outer shape of the AF area in the secondary image data is rectangular,
The image processing unit executes a conversion process of projecting the position and shape of the AF area in the secondary image data onto a plane including the primary image data;
The AF control unit adjusts the imaging lens based on a contrast value or phase difference information of an image corresponding to the AF area projected on a plane including the primary image data on the light receiving surface. The imaging apparatus according to claim 1, wherein a focusing distance of the imaging lens is changed so as to be in a focused state.
前記受光面上における前記AF領域の外形は矩形状であって、
前記画像処理部は、前記受光面上における前記AF領域の外形を、前記2次画像データを含む平面に投影する変形処理を施し、
前記画像表示装置は、前記2次画像データを含む平面に投影された前記AF領域の形状を前記2次画像データに基づく画像に重畳して表示する
ことを特徴とする請求項1に記載の撮像装置。
The outer shape of the AF area on the light receiving surface is rectangular,
The image processing unit performs a deformation process of projecting the outer shape of the AF area on the light receiving surface onto a plane including the secondary image data,
2. The imaging according to claim 1, wherein the image display device superimposes and displays the shape of the AF area projected on a plane including the secondary image data on an image based on the secondary image data. apparatus.
撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備える撮像装置の撮像方法であって、
前記入力装置により、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、
前記画像処理部により、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行するステップと、
前記AF制御部により、前記受光面上の、前記前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させるステップと、
を含むことを特徴とする撮像方法。
An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image based on the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
An imaging method for an imaging apparatus comprising:
Receiving an input for designating a position of an AF area in the secondary image data displayed on the image display device by the input device;
Executing a conversion process of projecting the position of the AF area in the secondary image data onto a plane including the primary image data by the image processing unit;
The AF control unit adjusts the imaging lens so that the imaging lens is in focus at a position corresponding to the AF area projected on the plane including the primary image data on the light receiving surface. Changing the focal distance;
An imaging method comprising:
JP2015006978A 2015-01-16 2015-01-16 Imaging apparatus and imaging method Pending JP2016134686A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015006978A JP2016134686A (en) 2015-01-16 2015-01-16 Imaging apparatus and imaging method
CN201610019561.5A CN105812653B (en) 2015-01-16 2016-01-13 Photographic device and image capture method
US14/997,497 US9774782B2 (en) 2015-01-16 2016-01-16 Image pickup apparatus and image pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015006978A JP2016134686A (en) 2015-01-16 2015-01-16 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2016134686A true JP2016134686A (en) 2016-07-25

Family

ID=56434646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015006978A Pending JP2016134686A (en) 2015-01-16 2015-01-16 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2016134686A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088708A (en) * 2018-11-29 2020-06-04 キヤノン株式会社 Control device, imaging apparatus, and program
CN114449233A (en) * 2020-10-30 2022-05-06 扬智科技股份有限公司 Projection device and trapezoidal correction method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038021A (en) * 2003-07-15 2005-02-10 Ricoh Co Ltd Image processing apparatus, image input device, image processing method and program for executing the method by computer
JP2008118387A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging device
JP2009302657A (en) * 2008-06-10 2009-12-24 Canon Inc Image processor, control method, and program
JP2011215258A (en) * 2010-03-31 2011-10-27 Casio Computer Co Ltd Imaging apparatus, af evaluation value calculating method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038021A (en) * 2003-07-15 2005-02-10 Ricoh Co Ltd Image processing apparatus, image input device, image processing method and program for executing the method by computer
JP2008118387A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging device
JP2009302657A (en) * 2008-06-10 2009-12-24 Canon Inc Image processor, control method, and program
JP2011215258A (en) * 2010-03-31 2011-10-27 Casio Computer Co Ltd Imaging apparatus, af evaluation value calculating method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088708A (en) * 2018-11-29 2020-06-04 キヤノン株式会社 Control device, imaging apparatus, and program
JP7204449B2 (en) 2018-11-29 2023-01-16 キヤノン株式会社 Control device, imaging device, control method and program
CN114449233A (en) * 2020-10-30 2022-05-06 扬智科技股份有限公司 Projection device and trapezoidal correction method thereof
CN114449233B (en) * 2020-10-30 2023-12-01 扬智科技股份有限公司 Projection device and trapezoid correction method thereof
US12028657B2 (en) 2020-10-30 2024-07-02 Ali Corporation Projection device and keystone correction method thereof

Similar Documents

Publication Publication Date Title
US9774782B2 (en) Image pickup apparatus and image pickup method
CN108432230B (en) Imaging device and method for displaying an image of a scene
JP6833746B2 (en) Imaging equipment, imaging methods, programs and recording media
JP6518409B2 (en) Imaging apparatus and imaging method
JP6598589B2 (en) Imaging apparatus and control method thereof
JP5709816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
JP2012222495A (en) Image processor, image processing method, and program
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP6312460B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US11252347B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP2021021857A (en) Imaging apparatus and control method thereof
JP6326631B2 (en) Imaging device
TW202002606A (en) Image-capturing device and method for operating the same
JP2019087923A (en) Imaging apparatus, imaging method, and program
JP2016134686A (en) Imaging apparatus and imaging method
JP2019008706A (en) Image processing device, imaging device, and method and program for controlling image processing device
JP6590894B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6395156B2 (en) Imaging apparatus and imaging method
JP5892211B2 (en) Imaging apparatus and program
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP2017011657A (en) Imaging device
WO2016113997A1 (en) Imaging apparatus and display method of imaging apparatus
JP2012060552A (en) Camera and electronic apparatus
JP2014155173A (en) Imaging apparatus, control method and program for the same
JP2017055268A (en) Imaging device, control method and program for imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190108