JP2016134686A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2016134686A JP2016134686A JP2015006978A JP2015006978A JP2016134686A JP 2016134686 A JP2016134686 A JP 2016134686A JP 2015006978 A JP2015006978 A JP 2015006978A JP 2015006978 A JP2015006978 A JP 2015006978A JP 2016134686 A JP2016134686 A JP 2016134686A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- imaging
- angle
- area
- light receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像素子から得られた1次画像データに変形処理を施す撮像装置及び撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method for performing deformation processing on primary image data obtained from an imaging element.
デジタルカメラ等の撮像装置を用いて例えば被写体である建築物を見上げる姿勢で撮像する場合、画像中において建築物は上すぼまりに台形状に歪む。例えば、特開2007−43545号公報には、被写体を撮像するときの撮像装置の姿勢を加速度センサによって検出し、被写体の台形状の歪みを自動的に補正する台形補正処理を行う技術が開示されている。 For example, when an image is taken with an imaging device such as a digital camera looking up at a building that is a subject, the building is distorted into a trapezoidal shape in the upper part of the image. For example, Japanese Patent Application Laid-Open No. 2007-43545 discloses a technique for detecting a posture of an imaging device when an object is imaged by an acceleration sensor and performing a trapezoid correction process for automatically correcting a trapezoidal distortion of the object. ing.
また、オートフォーカス動作が可能な撮像装置において、オートフォーカスを行う領域であるAF領域の位置を、使用者の指示に基づいて移動させる技術が知られている。 In addition, in an imaging apparatus capable of performing an autofocus operation, a technique is known in which the position of an AF area that is an autofocus area is moved based on a user instruction.
特開2007−43545号公報に開示の技術のように、撮像した画像に台形補正処理を施す場合、撮影前に使用者によって指定されたAF領域の位置が、台形補正処理の実行によって使用者の意図しない位置に移動してしまう場合がある。 As in the technique disclosed in Japanese Patent Application Laid-Open No. 2007-43545, when a trapezoidal correction process is performed on a captured image, the position of the AF area designated by the user before shooting is changed by the execution of the keystone correction process. It may move to an unintended position.
本発明は、前述した点に鑑みてなされたものであって、使用者の意図通りに台形補正処理を施した画像を撮像できる撮像装置及び撮像方法を提供することを目的とする。 The present invention has been made in view of the above-described points, and an object thereof is to provide an imaging apparatus and an imaging method capable of imaging an image that has been subjected to trapezoidal correction processing as intended by the user.
本発明の一態様の撮像装置は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備え、前記入力装置は、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付け、前記画像処理部は、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行し、前記AF制御部は、前記受光面上の、前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させる。 An imaging device according to one embodiment of the present invention is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens, and an imaging element that acquires primary image data every predetermined frame period, in synchronization with the frame period From a focal length detection unit that acquires a focal length of the imaging lens, a first angle that is an angle in the pitch direction with respect to the light receiving surface, and a second angle that is an angle in the yaw direction with respect to the light receiving surface An input device that accepts an input of a correction angle including two values, and using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is transmitted to the light receiving surface. An image processing unit that generates secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction and forms the second angle in the yaw direction with respect to the light receiving surface; In sync with the cycle An image display device that displays an image based on the secondary image data; and an AF control unit that performs control to change a focusing distance of the imaging lens, and the input device displays the image on the image display device. Accepting an input designating the position of the AF area in the secondary image data, the image processing unit converts the position of the AF area in the secondary image data onto a plane including the primary image data The AF control unit executes processing so that the imaging lens is in a focused state at a position corresponding to the AF area projected on the plane including the primary image data on the light receiving surface. The focusing distance of the imaging lens is changed.
また、本発明の一態様の撮像方法は、撮像レンズの光軸に受光面が直交するように配置され、所定のフレーム周期毎に1次画像データを取得する撮像素子と、前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、を備える撮像装置の撮像方法であって、前記入力装置により、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、前記画像処理部により、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行するステップと、前記AF制御部により、前記受光面上の、前記前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させるステップと、を含む。 In addition, an imaging method according to one embodiment of the present invention is arranged so that a light receiving surface is orthogonal to an optical axis of an imaging lens, and an imaging element that acquires primary image data every predetermined frame period, and is synchronized with the frame period. A focal length detection unit that acquires a focal length of the imaging lens, a first angle that is an angle formed in a pitch direction with respect to the light receiving surface, and a second angle that is formed in a yaw direction with respect to the light receiving surface. An input device that accepts an input of a correction angle including two values consisting of an angle; and the focal length value and the correction angle value in synchronization with the frame period; An image processing unit that generates secondary image data subjected to a deformation process for projecting onto a plane that forms the first angle in the pitch direction and projects the second angle in the yaw direction with respect to the light receiving surface; In the frame period An imaging method for an imaging apparatus comprising: an image display device that displays an image based on the secondary image data; and an AF control unit that performs control to change a focusing distance of the imaging lens. Receiving an input for designating the position of the AF area in the secondary image data displayed on the image display device by the apparatus; and the position of the AF area in the secondary image data by the image processing unit, A step of executing a conversion process for projecting onto a plane including primary image data, and the AF control unit corresponding to the AF area projected onto the plane including the primary image data on the light receiving surface. Changing the focusing distance of the imaging lens so that the imaging lens is in a focused state at a position to be focused.
本発明によれば、使用者の意図通りに台形補正処理を施した画像を撮像できる撮像装置及び撮像方法を実現できる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device and imaging method which can image the image which performed the trapezoid correction process as a user intends are realizable.
以下に、本発明の好ましい形態について図面を参照して説明する。なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the drawings used for the following description, the scale of each component is made different in order to make each component recognizable on the drawing. It is not limited only to the quantity of the component described in (1), the shape of the component, the ratio of the size of the component, and the relative positional relationship of each component.
(第1の実施形態)
図1及び図2に示すように、撮像装置1は、CCDやCMOSイメージセンサ等の撮像素子3、画像表示装置6、入力装置7及び制御部10を備える。本実施形態では一例として、撮像装置1は、撮像素子3及び制御部10を収容する本体部2と、当該本体部2に固定される撮像レンズ4とを具備し、撮像レンズ4によって結像された光学像を電子データとして記憶する、いわゆるデジタルカメラの形態を有する。なお、撮像装置1は、撮像レンズ4を本体部2から取り外し可能な、いわゆるレンズ交換式のデジタルカメラであってもよいし、撮像レンズ4を本体部2から取り外すことのできないレンズ一体式のデジタルカメラであってもよい。
(First embodiment)
As shown in FIGS. 1 and 2, the
以下では、撮像装置1の姿勢方向の定義として、撮像レンズ4の光軸方向をZ軸と定義する。また、撮像装置1を正立状態とした場合に、光軸と直交しかつ水平となる方向をX軸とし、光軸と直交しかつ垂直となる方向をY軸とする。また、撮像装置1の姿勢変化の方向を表すために、撮像装置1のX軸周りの回転方向をピッチ方向と称し、Y軸周りの回転方向をヨー方向と称し、Z軸周りの回転方向をロール方向と称する。
Hereinafter, as the definition of the orientation direction of the
撮像素子3は、矩形の受光面を有する。撮像素子3の受光面は、撮像レンズ4の光軸に直交するように配設されている。撮像レンズ4は、オートフォーカス動作が可能であり、合焦距離を変化させるために一部又は全部のレンズを移動させるAF機構部4aを備える。また、本実施形態では一例として、撮像レンズ4は、焦点距離を変更可能な、いわゆるズームレンズである。撮像レンズ4のズーム動作は、使用者から入力される力によって行われる手動ズームの形態であってもよいし、撮像レンズ4内に組み込まれた電動モータが発生する力によって行われる電動ズームの形態であってもよい。
The image sensor 3 has a rectangular light receiving surface. The light receiving surface of the image sensor 3 is disposed so as to be orthogonal to the optical axis of the image pickup lens 4. The imaging lens 4 can perform an autofocus operation, and includes an
本実施形態の撮像レンズ4は、撮像レンズ4の現在の焦点距離の情報を制御部10に出力する焦点距離検出部4bを備える。焦点距離検出部4bの構成は、ロータリーエンコーダを用いて焦点距離を検出する形態や、ズーム動作用のステッピングモータを動作させるパルス数をカウントする形態等、公知の技術である。なお、例えば撮像装置1がレンズ一体式である場合には、焦点距離検出部4bは、制御部10に含まれる形態であってもよい。
The imaging lens 4 of the present embodiment includes a focal
撮像装置1は、レンズシャッタ機構又はフォーカルプレーンシャッタ機構を備えていてもよい。また、撮像装置1は、撮像レンズ4に、絞り機構を備えていてもよい。
The
画像表示装置6は、例えば液晶表示装置又は有機EL表示装置等からなり、画像を表示する。本実施形態の画像表示装置6の表示面の外形は矩形である。画像表示装置6は、撮像装置1のグラフィカル・ユーザー・インターフェース(GUI)の表示、撮像動作中にファインダーとして機能するライブビューの表示、及び記録された画像データの表示等を行う。
The
本実施形態では一例として、画像表示装置6は、本体部2に配設されている。なお、画像表示装置6は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。
In the present embodiment, as an example, the
入力装置7は、例えばレバースイッチ、ダイヤルスイッチ、ボタンスイッチ、タッチセンサ等の、使用者が撮像装置1の動作指示を入力するための一つ又は複数の操作部材からなる。
The
本実施形態では一例として、入力装置7は、電源操作スイッチ7a、レリーズスイッチ7b、4方向スイッチ7c、ダイヤルスイッチ7d、タッチパネル7e及び2方向スイッチ7fを備える。タッチパネル7eは、画像表示装置15の表示面上に配設されている。なお、入力装置7の一部又は全部は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。
In the present embodiment, as an example, the
レリーズスイッチ7bは、異なる押し込み量又は異なる押し込み力によって動作する第1レリーズスイッチ及び第2レリーズスイッチを備えた、いわゆる2段の押しボタンスイッチである。本実施形態では、レリーズスイッチ7bに加える押し込み力を増大させていった場合、先に第1レリーズスイッチがON状態となり、次に第2レリーズスイッチがON状態となる。第1レリーズスイッチのみがON状態である状態は、いわゆる半押しの状態であり、第2レリーズスイッチがON状態である状態は、いわゆる全押しの状態である。
The
制御部10は、CPU(演算装置)11、RAM(記憶装置)12、フラッシュメモリ(補助記憶装置)13、画像処理部16、入出力装置及び電力制御装置等を具備して構成されており、撮像装置1の後述する動作を、所定のプログラムに基づいて制御する構成を有している。本実施形態では、撮像装置1の制御プログラムは、不揮発性の記憶媒体であるフラッシュメモリ13等に記憶されている。
The
制御部10は、撮像素子駆動部8に電気的に接続されている。撮像素子駆動部8は、制御部10の制御にしたがって撮像素子3を駆動する。また、撮像素子駆動部8は、撮像素子3から出力された2次元の画像信号をデジタル信号である1次画像データに変換する。1次画像データに基づいて生成される画像の外形は、矩形状である。以下では、1次画像に基づいて生成される画像のことを、単に1次画像データと称する。1次画像データ中の座標について、撮像装置1を正立状態に保持した場合において視野中の鉛直方向に沿う軸をy軸とし、視野中の水平方向に沿う軸をx軸とする。なお、本実施形態では一例として、撮像素子3と撮像素子駆動部8とを別体として示しているが、撮像素子駆動部8は撮像素子3内に一体に含まれる形態であってもよい。
The
RAM12には、制御プログラム12a、画像データバッファ12b及びログ情報バッファ12cの複数の記憶エリアを有する。制御プログラム12aは、撮像装置1の電源投入時に、フラッシュメモリ13から読み出した制御プログラムを記憶する記憶エリアである。
The
画像データバッファ12bは、撮像素子駆動部8から出力された1次画像データや、後述する画像処理部16によって生成された2次画像データを記憶する記憶エリアである。以下では、画像データバッファ12bに記憶されているデータについて、1次画像データ及び2次画像データの区別が不要である場合には、単に画像データと称する。
The
なお、画像データバッファ12bは、画像処理部16が扱う画像データ専用のビデオメモリに設けられる記憶エリアであってもよい。また、ログ情報バッファ12cは、後述する台形歪補正処理の実行に用いる変数及びAF位置指定座標等を記憶する記憶エリアである。
The
AF制御部14は、撮像素子3の受光面の所定の領域内での撮像レンズ4の結像状態を検出し、撮像装置1によるオートフォーカス動作を制御する。より詳しくは、AF制御部14は、1次画像データ中の所定の領域であるAF領域内のコントラストを検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。すなわち、本実施形態の撮像装置1は、一般にコントラスト検出方式と称されるオートフォーカス動作が可能である。なお、撮像装置1のオートフォーカス動作の形態は、前述したコントラスト検出方式に限られるものではない。例えば、撮像装置1は、撮像面に被写体像の位相差を検出する測距センサが配置された撮像素子3を備え、測距センサによって検出された位相差情報(デフォーカス量)に基づいて撮像レンズ4を駆動し合焦状態とする、一般に位相差検出方式と称されるオートフォーカス動作が可能であってもよい。
The
本実施形態では、1次画像データ中におけるAF領域の座標は、使用者による入力装置7の操作に応じて変更可能である。本実施形態では一例として、1次画像データ中のAF領域の座標の変更は、使用者がタッチパネル7eや4方向スイッチ7c等の入力装置7を操作することによって行われる。
In this embodiment, the coordinates of the AF area in the primary image data can be changed according to the operation of the
なお、1次画像データ中におけるAF領域の座標及び大きさは、制御部10が所定のプログラムに基づいて自動的に変更する形態であってもよい。
The coordinates and size of the AF area in the primary image data may be changed automatically by the
AE制御部15は、撮像素子3から取得される1次画像データに対する、露出量の制御を行う。AE制御部15は、1次画像データから得られる被写体輝度に基づいて、露出値を算出する。
The
画像処理部16は、画像データバッファ12bに記憶されている画像データに所定の画像処理を施す。以下では、画像処理部16によって画像処理を施された後の画像データを、2次画像データと称する。本実施形態の画像処理部16は、画像データに対して後述する台形補正を施すための、台形歪補正係数算出部16a及び補正処理部16bを含む。
The
台形補正係数算出部16aは、焦点距離検出部4bから得られる撮像レンズ4の焦点距離の値と、入力装置7を介して入力された後述する補正角度の値、を用いて、台形補正の演算処理の実行に必要な補正係数を算出する。補正処理部16bは、台形補正係数算出部16aによって算出された補正係数に基づいて、1次画像データに対して座標変換を伴う画像補間処理を行う。前記画像補間処理は、バイキュービック補間やバイリニア補間等の画像補間処理を実施するものである。
The trapezoidal correction coefficient calculation unit 16a uses the value of the focal length of the imaging lens 4 obtained from the focal
なお、本実施形態では一例として、前述のAF制御部14、AE制御部15及び画像処理部16の機能構成は、制御部10に含まれている。なお、AF制御部14、AE制御部15及び画像処理部16の機能構成は、例えばそれぞれの機能を実行する専用のプロセッサ回路等の専用のハードウェアを用いる形態であってもよい。
In the present embodiment, as an example, the functional configurations of the
また、本実施形態の撮像装置1は、商用電源、ACアダプタ又は電池等の電源20に接続される電源接続部21及び、フラッシュメモリカード等の記憶媒体22に接続される記憶媒体接続部23を備える。本実施形態では一例として、電源20は電池であって、本体部2内に着脱可能に収容される。また、本実施形態では一例として、記憶媒体22はフラッシュメモリカードであって、本体部2内に着脱可能に収容される。なお、電源20となる電池及び記憶媒体22は、本体部2内に固定される形態であってもよい。また、記憶媒体22は、本体部2と分離されており、かつ本体部2と有線通信又は無線通信により接続される他の電子機器に配設される形態であってもよい。
In addition, the
次に、画像処理部16において実行される台形補正処理について、図4に示すフローチャートを参照して説明する。台形補正処理とは、概略的には、被写体に正対していない位置において撮像された1次画像データに対して台形歪みを補正する幾何学的な変形処理を施すことによって、被写体に正対する仮想的な視点から撮像したような2次画像データを生成する処理である。
Next, the trapezoid correction process executed in the
以下では台形歪みを補正する幾何学的な変形処理について、説明を簡単なものとするために、被写体に正対する位置に対して、撮像装置1の姿勢がピッチ方向(上下方向にあおり傾斜角が生じる方向)に所定の角度をなす位置に配置された場合について説明する。
In the following, in order to simplify the description of the geometric deformation process for correcting the trapezoidal distortion, the orientation of the
例えば、図5及び図6に示すように、建築物40の矩形である前面40aを、地面に近い実視点Pから見上げるように撮像装置1によって撮像する場合、図7に示すように、1次画像データ50上では、前面40aは上すぼまりに台形に歪んだ形状となる。このとき、実視点Pからの撮像では、撮像装置1は、撮像レンズ4の光軸を水平からピッチ方向に第1角度αyだけ上方に向けた姿勢となる。1次画像データ50上において前面40aが歪むのは、撮像装置1から前面40aへの距離が下から上に向かうほど遠くなることによって、上下方向で撮影倍率が変化するためである。
For example, as shown in FIG. 5 and FIG. 6, when the
一方、撮像装置1を建築物40の前面40aに正対する仮想視点P’に配置して撮像する場合には、図8に示すように、1次画像データ50上において前面40aは矩形状となる。
On the other hand, when the
台形補正処理では、実視点Pから撮像した1次画像データ50中の被写体像が、図9に示すように仮想的な視点である仮想視点P’から撮影した被写体像に近似した形状となるように1次画像データ50を変形して、これを2次画像データ50’とする。言い換えれば、撮像素子3の受光面に平行な平面A上の1次画像データ50を、平面Aに対してピッチ方向に第1角度αyだけ傾いた平面Bに投影したものが、台形補正処理が施された2次画像データ50’である。
In the trapezoidal correction process, the subject image in the
具体的には、台形補正処理では、まずステップS31において、焦点距離検出部4bから、撮像レンズ4の焦点距離fの値を取得し、RAM12のログ情報バッファ12cに記憶する。
Specifically, in the trapezoidal correction process, first, in step S31, the value of the focal length f of the imaging lens 4 is acquired from the focal
次に、ステップS32において、補正角度を取得し、RAM12のログ情報バッファ12cに記憶する。ここで、補正角度とは、前述のように、撮像素子3の受光面に対してピッチ方向になす角度である第1角度αyと、撮像素子3の受光面に対してヨー方向になす角度である第2角度αxとの2つの角度の値を含む。
Next, in step S32, the correction angle is acquired and stored in the log information buffer 12c of the
補正角度の値は、使用者が入力装置7を操作することによって定められる。例えば、使用者が4方向スイッチ7cを上下方向に操作することによって第1角度αyの値が増減し、使用者が4方向スイッチ7cを左右方向に操作することによって第2角度αxの値が増減する。また例えば、使用者がタッチパネル7e上をなぞるドラッグ操作の方向に応じて、第1角度αy及び第2角度αxの値が増減する形態であってもよい。補正角度の値は、連続的に変化する形態であってもよいし、ステップ状に変化する形態であってもよい。
The value of the correction angle is determined by the user operating the
次に、ステップS33において、ログ情報バッファ12cに記憶されている焦点距離fの値及び補正角度の値を用いて、1次画像データ50に台形補正処理を施し、2次画像データ50’を生成する。
Next, in step S33, the
下記数式(1)は、平面Aの1次画像データ50の座標(x,y)と、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’、y’)との関係を表す式である。
The following mathematical formula (1) is expressed by the coordinates (x, y) of the
[数1]
y={H・k1・y’}/{H−k2・y’}
x={H・x’}/{H−k2・y’}
ここで、k1及びk2は変換係数であり、
k1=cosα−sinα・tanβ
k2=H−2sinα・tanβ
である。
[Equation 1]
y = {H · k1 · y ′} / {H−k2 · y ′}
x = {H · x ′} / {H−k2 · y ′}
Here, k1 and k2 are conversion coefficients,
k1 = cos α−sin α · tan β
k2 = H-2sin α · tan β
It is.
Hは、使用者によって入力装置7を介して入力された補正角度に対応した撮像素子3の有効画素領域の所定の辺の画素数である。例えば、図7に示すように、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の上下方向の台形歪みの補正を行う場合には、Hは撮像素子3の有効画素領域の短辺方向の画素数である。具体的には、Hに対応する画素数は、撮像素子3の有効画素領域の短辺方向となる長さに対して、撮像素子3にある1画素あたりの長さ(画素ピッチ)を割り算した結果となる。また、図示しないが、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の左右方向の台形歪みの補正を行う場合には、Hは撮像素子3の有効画素領域の長辺方向の画素数である。この場合、Hに対応する画素数は、撮像素子3の有効画素領域の長辺方向となる長さに対して、撮像素子3にある1画素あたりの長さ(画素ピッチ)を割り算した結果となる。
H is the number of pixels on a predetermined side of the effective pixel region of the image sensor 3 corresponding to the correction angle input by the user via the
また、角度βは、下記数式(2)によって算出される。 Further, the angle β is calculated by the following mathematical formula (2).
[数2]
β=arctan{L/(2・f)}
Lは、使用者によって入力装置7を介して入力された補正角度に対応した撮像素子3の有効画素領域の所定の辺の長さである(単位はmmで示す)。例えば、図7に示すように、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の上下方向の台形歪みの補正を行う場合には、Lは撮像素子3の有効画素領域の短辺方向の長さである。また、図示しないが、撮像素子3の有効画素領域の長辺を水平にして撮影し、視野の左右方向の台形歪みの補正を行う場合には、Lは撮像素子3の有効画素領域の長辺方向の長さである。fは撮像レンズ4の焦点距離である(単位はmmで示す)。すなわち、角度βは、撮像装置1の台形歪みを行う方向の画角の半分の値である。
[Equation 2]
β = arctan {L / (2 · f)}
L is the length of a predetermined side of the effective pixel area of the image sensor 3 corresponding to the correction angle input by the user via the input device 7 (unit is indicated in mm). For example, as shown in FIG. 7, when photographing with the long side of the effective pixel area of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the vertical direction of the field of view, L is the effective pixel area of the image sensor 3. Is the length in the short side direction. Although not shown, when taking a picture with the long side of the effective pixel area of the image sensor 3 being horizontal and correcting the trapezoidal distortion in the horizontal direction of the visual field, L is the long side of the effective pixel area of the image sensor 3 The length of the direction. f is a focal length of the imaging lens 4 (unit is shown in mm). That is, the angle β is a half value of the angle of view in the direction in which the trapezoidal distortion of the
なお、焦点距離fの値は、使用者によって入力装置7を介して入力される値であってもよい。例えば、撮像装置1がレンズ交換式であり、焦点距離情報を取得できない撮像レンズ4が装着されている場合には、焦点距離fの値を使用者が入力することによって、使用者が所望する台形補正を実施することができる。また、焦点距離fの値を使用者が入力可能とすることによって、使用者の意図に応じた遠近感を生じさせる台形補正を行うことができる。なお、焦点距離fの値を使用者が入力可能である場合には、撮像レンズ4から取得される値と、使用者によって入力される値のどちらを用いて台形補正を実行するかを選択する手段が設けられてもよい。
The value of the focal length f may be a value input via the
ステップS33では、上記数式(1)及び(2)を用いることによって、1次画像データ50に、短辺方向の台形補正処理を実施し、2次画像データ50’を生成する。台形補正後となる2次画像データの座標(x’,y’)は、上記数式(1)が示す1次画像データ50の座標(x,y)との関係式を逆算することによって算出される。より具体的には、ステップS33では、上記数式(1)及び(2)を用い、台形補正後となる2次画像データの座標(x’,y’)に対する1次画像データ50の座標(x,y)の関係式を定義する。次にこの定義した数式(1)に基づく関係式を逆算して、入力される1次画像データ50の座標(x,y)から2次画像データ50’の座標(x’,y’)を求めることによって、図7に一例として示すような1次画像データ50に、ピッチ方向の補正角度入力に応じて、一次画像データ50の短辺方向(図7の例ではy方向)の台形補正処理を実施し、図9に示す様な2次画像データ50’を生成する。
In step S33, trapezoidal correction processing in the short side direction is performed on the
以上の例示では、台形補正処理は視野中の鉛直方向(ピッチ方向)について行われる作用を説明した。なお、台形補正処理は視野中の水平方向(ヨー方向)についても同様に行われる。この場合の台形補正処理は、例えば建築物40の前面40aと撮像レンズ4の光軸との水平方向になす角度が直角でない実視点Pから撮影された1次画像データを、建築物40の表面40aに正対する仮想視点P’から撮影された画像に近似させる台形補正を実行するものである。このような撮影条件では、建築物40の矩形状の前面40aは、1次画像データ中において左右方向に非対称となる。この場合の台形補正処理は、1次画像データ50又はピッチ方向の台形補正処理が施された2次画像データ50’を、平面Aに対してヨー方向に第2角度αxだけ傾いた平面Bに投影する変形処理を施したものを2次画像データ50’とする。具体的には、平面Aに対してヨー方向に第2角度αxだけ傾いた平面Bの2次画像データ50’の座標(x’、y’)は、前記数式(1)に対して、1次画像に係る座標の変数(x、y)を(y、x)に置き換えて、さらに2次画像に係る座標の変数(x’、y’)を(y’、x’)に置き換えた関係式となる。また、前記数式(2)に対して、βの値に係る、L[mm]は、撮像素子3の有効画素領域の長辺方向の長さになる。
In the above illustration, the trapezoidal correction process has been described for the action performed in the vertical direction (pitch direction) in the field of view. Note that the trapezoidal correction process is similarly performed in the horizontal direction (yaw direction) in the field of view. In this case, the trapezoidal correction processing is performed, for example, by using the primary image data captured from the actual viewpoint P where the angle between the
以上のように、本実施形態の画像処理部16は、1次画像データ50を、撮像素子3の受光面と平行な平面Aに対してピッチ方向に第1角度αyをなし、受光面に対してヨー方向に第2角度αxをなす平面B上に投影する変形処理を施した2次画像データを生成する。
As described above, the
なお、以上に述べた台形補正処理の生成に必要な画像処理の詳細については、公知の技術であるため詳細な説明は省略するものとする。 Note that the details of the image processing necessary for generating the trapezoid correction processing described above are well-known techniques, and thus detailed description thereof will be omitted.
次に、以上に説明した構成を有する撮像装置1の動作について説明する。図3に示すフローチャートは、撮像装置1の電源がオン状態であり、かつ撮像動作モードである場合の動作を示している。撮像動作モードでは、初期状態として、所定のフレーム周期毎に撮像素子3から1次画像データを取得し、画像処理部16にて画像処理された後の2次画像データを画像表示装置6に逐次表示出力させるライブビュー表示動作をしている。また、撮像動作モードでは、撮像装置1は、レリーズスイッチ7bへの操作入力に応じて、撮像装置1が被写体像を電子データとして記憶媒体22に記憶する動作を実行する。なお、撮像装置1は、記憶媒体22に記憶されている画像の電子データを、画像表示装置6に再生表示する再生モードを実行可能であってもよい。
Next, the operation of the
撮像動作モードは、例えば使用者によって電源操作スイッチ7aが操作されて撮像装置1を休止状態とする入力が行われた場合、他の動作モードに切り替える操作が入力された場合、又は制御部10が休止状態に移行する判断をした場合、に終了する。この撮像動作モードを終了する判定処理は、図3のフローチャートでは省略している。
The imaging operation mode is, for example, when the user operates the power operation switch 7a to input the
撮像動作モードでは、撮像素子3及び撮像素子駆動部8に電力が供給されている。また、ライブビュー表示動作を行うために、撮像素子3からの1次画像データ50の取得は、所定のフレーム周期毎に行われる。撮像動作モードでは、まず、ステップS11において、撮像素子駆動部8から出力された1次画像データ50を、RAM12の画像データバッファ12bに記憶する。
In the imaging operation mode, power is supplied to the imaging device 3 and the imaging device driving unit 8. Further, in order to perform the live view display operation, the acquisition of the
次にステップS12において、台形補正モードが使用者によって選択されているか否かを判定する。台形補正モードとは、撮像装置1が、1次画像データ50に対して、画像処理部16を用いて前述した台形補正処理を施す動作モードである。台形補正モードの選択の有無は、例えば画像表示装置6に表示されるGUIにおいて、使用者が4方向スイッチ7c又はタッチパネル7eを操作することによって切り替えられる。
Next, in step S12, it is determined whether or not the keystone correction mode is selected by the user. The trapezoidal correction mode is an operation mode in which the
ステップS12において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS13において図4に示す台形補正処理を実行した後にステップS14に移行する。ステップS13が実行されることによって、1次画像データ50に対して台形補正処理を施したものである2次画像データ50’が、画像データバッファ12bに記憶される。
If it is determined in step S12 that the keystone correction mode has been selected by the user, the process proceeds to step S14 after the keystone correction process shown in FIG. 4 is executed in step S13. By executing step S13, secondary image data 50 'obtained by performing keystone correction processing on the
一方、ステップS12において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS13をスキップしてステップS14に移行する。 On the other hand, if it is determined in step S12 that the keystone correction mode is not selected by the user, step S13 is skipped and the process proceeds to step S14.
ステップS14では、RAM12の画像データバッファ12bに記憶されている画像データを、画像表示装置6に表示する。ここで、ステップS13がスキップされている場合には、ステップS14では、台形補正処理が施されていない1次画像データ50が画像表示装置6に表示される。一方、ステップS13が実行されている場合には、台形補正処理が施された2次画像データ50’が画像表示装置6に表示される。
In step S <b> 14, the image data stored in the
台形補正処理が施された2次画像データ50’中では、図9に示すように、撮像装置1の視野は矩形では無くなる。ステップS14では、2次画像データ50’の全体を画像表示装置6に表示してもよいし、2次画像データ50’を図9に2点鎖線で示すように矩形の領域にトリミングした一部の領域を画像表示装置6に表示してもよい。
In the
次に、ステップS15では、入力装置7を介してAF領域の移動を指示する入力がなされたか否かを判定する。前述のように、本実施形態におけるAF領域の移動を指示する入力は、使用者がタッチパネル7eや4方向スイッチ7c等の入力装置7を操作することによって行われる。本実施形態では一例として、制御部10は、画像表示装置6に表示している画像データの領域内が使用者によってタップされた場合に、AF領域の移動を指示する入力がなされたものと判定する。そして本実施形態では、制御部10は、使用者によってタップされた位置に対応する画像データ中の座標を、AF位置指定座標として認識する。
Next, in step S15, it is determined whether or not an input for instructing movement of the AF area is made via the
また、本実施形態では一例として、図11に示すように、画像表示装置6に表示される画像中におけるAF領域アイコン60の形状は、ステップS14において画像表示装置6に表示される画像データが、台形補正処理を施されたものであるか否かに関わらず、画像表示装置6の矩形である表示面の外形の4辺と平行な4辺によって囲まれた正方形又は矩形である。
In the present embodiment, as an example, as shown in FIG. 11, the shape of the
ステップS15において、AF領域の移動を指示する入力がなされたと判定した場合には、ステップS40に移行する。ステップ40では、図10のフローチャートに示すAF領域移動処理を実行する。
If it is determined in step S15 that an input for instructing movement of the AF area has been made, the process proceeds to step S40. In
AF領域移動処理では、まず、ステップS41において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS41において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS42に移行する。 In the AF area movement process, first, in step S41, it is determined whether or not the trapezoid correction mode has been selected by the user. If it is determined in step S41 that the keystone correction mode has not been selected by the user, the process proceeds to step S42.
ステップS42では、使用者によって入力装置7を介して入力されたAF位置指定座標を取得する。ここで、台形補正モードが実行されていないことから、画像表示装置6には、台形補正処理が施されていない1次画像データ50が画像表示装置6に表示されている。したがって、ステップS42におけるAF位置指定座標は、平面Aの1次画像データ50の座標(x,y)で表される。
In step S42, AF position designation coordinates input by the user via the
次に、ステップS43において、AF位置指定座標をRAM12のログ情報バッファ12cに記憶する。そして、ステップS44において、図11に示すように、画像表示装置6に表示されている1次画像データ50中のAF位置指定座標に、AF領域の位置を示すAF領域アイコン60を重畳して表示する。ステップS44の実行後に、図3のステップS11に戻る。
Next, in step S43, the AF position designation coordinates are stored in the log information buffer 12c of the
一方、AF領域移動処理のステップS41において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS45に移行する。 On the other hand, if it is determined in step S41 of the AF area movement process that the keystone correction mode is selected by the user, the process proceeds to step S45.
ステップS45では、使用者によって入力装置7を介して入力されたAF位置指定座標を取得する。ここで、台形補正モードが実行されていることから、画像表示装置6には、台形補正処理が施された2次画像データ50’が画像表示装置6に表示されている。したがって、ステップS45におけるAF位置指定座標とは、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’,y’)で表される。
In step S45, the AF position designation coordinates input by the user via the
次に、ステップS46において、AF位置指定座標をRAM12のログ情報バッファ12cに記憶する。そして、ステップS47において、図12に示すように、画像表示装置6に表示されている2次画像データ50’中のAF位置指定座標に、AF領域の位置を示すAF領域アイコン60を重畳して表示する。ステップS47の実行後に、図3のステップS11に戻る。
Next, in step S46, the AF position designation coordinates are stored in the log information buffer 12c of the
一方、ステップS15において、AF領域の移動を指示する入力はなされていないと判定した場合には、ステップS16に移行する。 On the other hand, if it is determined in step S15 that there is no input instructing movement of the AF area, the process proceeds to step S16.
ステップS16では、レリーズスイッチ7bの第1レリーズスイッチがON状態であるか否かを判定する。すなわち、レリーズスイッチ7bが半押し状態であるか否かを判定する。
In step S16, it is determined whether or not the first release switch of the
ステップS16において、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であると判定した場合には、ステップS11に戻る。すなわち、レリーズスイッチ7bが操作されるまでは、ステップS11からステップS15までの動作は、所定のフレーム周期に同期して繰り返し実行される。ステップS11からステップS15までの動作は、所定のフレーム周期に同期して繰り返すことによって、画像表示装置6に表示される1次画像データ50又は2次画像データ50’が、常に更新されるライブビュー動作が行われる。また、ステップS11からステップS15までの動作は、所定のフレーム周期に同期して繰り返すことによって、使用者の入力装置7への操作入力に応じてAF位置指定座標が変更され、AF位置指定座標の変化に応じてライブビュー表示におけるAF領域アイコン60の位置が変化する。
If it is determined in step S16 that the first release switch of the
一方、ステップS16において、レリーズスイッチ7bの第1レリーズスイッチがON状態であると判定した場合には、ステップS17へ移行する。ステップS17では、図13に示すフローチャートのAF処理を実行する。
On the other hand, if it is determined in step S16 that the first release switch of the
AF処理では、まずステップS61に示すように、台形補正モードが使用者によって選択されているか否かを判定する。 In the AF process, first, as shown in step S61, it is determined whether or not the keystone correction mode is selected by the user.
ステップS61において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS62に移行する。 If it is determined in step S61 that the keystone correction mode has not been selected by the user, the process proceeds to step S62.
ステップS62では、RAMのログ情報バッファ12cに記憶されている1次画像データ50中のAF位置指定座標を読み込む。そして、ステップS63において、AF制御部16により、1次画像データ50中のAF位置指定座標を中心としたAF領域内のコントラスト値を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。なお、前述のように、撮像装置1が位相差検出方式のオートフォーカス動作が可能である場合には、オートフォーカス動作は、AF位置指定座標を中心としたAF領域内の測距センサによって検出された位相差情報を用いて行われる。そして、ステップS64において、例えば画像表示装置6に表示されているAF領域アイコン60の色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。
In step S62, the AF position designation coordinates in the
一方、ステップS61において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS65に移行する。 On the other hand, if it is determined in step S61 that the trapezoidal correction mode is selected by the user, the process proceeds to step S65.
ステップS65では、RAMのログ情報バッファ12cに記憶されている2次画像データ50’中のAF位置指定座標を読み込む。次に、ステップS66において、2次画像データ50’中のAF位置指定座標及び2次画像データ50’中において正方形又は矩形であるAF領域を、1次画像データ50に投影する変換処理を実行する。この変換処理は、前述した台形補正処理の数式(1)を用いることによって行われる。
In step S65, the AF position designation coordinates in the secondary image data 50 'stored in the log information buffer 12c of the RAM are read. Next, in step S66, conversion processing for projecting AF position designation coordinates in the
例えば、画像表示装置6によって図12に示すように正方形のAF領域アイコン60’によって表示されているAF領域は、ステップS66の実行によって、1次画像データ50中では図14に示すように正方形とは異なる形状となる。
For example, the AF area displayed by the square
そして、ステップS67において、AF制御部16により、ステップS66で算出した1次画像データ50中のAF領域内のコントラスト値又は位相差情報を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。そして、ステップS68において、例えば画像表示装置6に表示されているAF領域アイコン60’の色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。
In step S67, the
AF処理の実行後は、ステップS18に移行する。ステップS18では、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であるか否かを判定する。ステップS18において、レリーズスイッチ7bの第1レリーズスイッチがOFF状態であると判定した場合には、使用者がフレーミング操作を止めたと判断して、再度ステップS11に戻る。
After the AF process is executed, the process proceeds to step S18. In step S18, it is determined whether or not the first release switch of the
一方、ステップS18において、レリーズスイッチ7bの第1レリーズスイッチがON状態であると判定した場合には、ステップS19に移行する。ステップS19では、レリーズスイッチ7bの第2レリーズスイッチがON状態であるか否かを判定する。
On the other hand, when it is determined in step S18 that the first release switch of the
ステップS19において、レリーズスイッチ7bの第2レリーズスイッチがOFF状態であると判定した場合には、ステップS11に戻る。
If it is determined in step S19 that the second release switch of the
一方、ステップS19において、レリーズスイッチ7bの第2レリーズスイッチがON状態であると判定した場合には、ステップS20に移行して撮像動作を実行する。撮像動作では、AE制御部15によって算出した露出値を用いた撮像が行われるように、撮像素子3を駆動し、得られた画像データを撮像用画像データとして画像データバッファ12bに記憶する。
On the other hand, if it is determined in step S19 that the second release switch of the
次にステップS21において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS21において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS22に移行して撮像用画像データに対して前述した台形補正処理を実行する。そしてステップS23において、台形補正処理が施された撮像用画像データを、所定の形式の電子ファイルとして記憶媒体22に記憶する。
Next, in step S21, it is determined whether or not the keystone correction mode is selected by the user. If it is determined in step S21 that the trapezoid correction mode is selected by the user, the process proceeds to step S22, and the above-described trapezoid correction process is performed on the image data for imaging. In step S23, the image data for imaging subjected to the trapezoidal correction process is stored in the
一方、ステップS21において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS22をスキップしてステップS23に移行し、撮像用画像データを、所定の形式の電子ファイルとして記憶媒体22に記憶する。 On the other hand, if it is determined in step S21 that the keystone correction mode has not been selected by the user, step S22 is skipped and the process proceeds to step S23 to store the image data for imaging as an electronic file in a predetermined format. Store in the medium 22.
以上に説明したように、本実施形態の撮像装置1は、所定のフレーム周期毎に1次画像データを取得する撮像素子3と、フレーム周期に同期して撮像レンズ4の焦点距離を取得する焦点距離検出部4bと、撮像素子3の受光面に対してピッチ方向になす角度である第1角度αy及び受光面に対してヨー方向になす角度である第2角度αxからなる2つの値を含む補正角度を入力する入力装置7と、フレーム周期に同期して、焦点距離の値及び補正角度の値を用いて、1次画像データを、受光面に対してピッチ方向に第1角度αyをなし、受光面に対してヨー方向に第2角度αxをなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部16と、フレーム周期に同期して2次画像データに基づく画像を表示する画像表示装置6と、を備える。
As described above, the
このような構成を有する本実施形態の撮像装置1によれば、撮像装置1のピッチ方向及びヨー方向の2つの方向について、被写体の台形歪みを補正する台形補正処理を実行可能であり、使用者は、この台形補正処理の度合い(補正角度)を入力装置7を操作することによって自由に変更することができる。また、本実施形態では、台形補正処理が施された結果である2次画像データ50’がライブビューとして画像表示装置6に表示され、かつ補正角度を変更した結果が即時にライブビューの表示に反映される。このため、本実施形態の撮像装置1を用いれば、使用者は、意図通りに画像に台形補正処理を行うことが可能である。
According to the
また、本実施形態の撮像装置1は、さらに撮像レンズ4の合焦距離を変化させる制御を行うAF制御部14を備え、入力装置7によって、画像表示装置6に表示する2次画像データ中におけるAF領域の位置を指定する入力を受け付け、画像処理部16によって、2次画像データ中におけるAF領域の位置を、1次画像データを含む平面上に投影する変換処理を実行し、AF制御部14によって、撮像素子3の受光面上の、1次画像データを含む平面上に投影されたAF領域に対応する位置において撮像レンズ4が合焦状態となるように撮像レンズ4の合焦距離を変化させる。
Further, the
このような本実施形態の撮像装置1によれば、使用者は、画像表示装置6に表示される台形補正処理が施された2次画像データ50’をライブビューとして確認しながら、入力装置7を操作することによって、オートフォーカスを行う領域であるAF領域の位置を移動させることができる。そして、この使用者によって入力されたAF領域の位置は、台形補正処理が施される前の1次画像データ50中の座標に変換され、この座標をもとにオートフォーカス動作が実行される。このため、本実施形態によれば、使用者が被写体中の位置を指定したAF領域が、台形補正処理によって被写体に対する位置がずれてしまうことがなく、使用者の意図通りに台形補正処理を施した画像を撮像できる。
According to such an
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。以下では第1の実施形態との相違点のみを説明するものとし、第1の実施形態と同様の構成要素については同一の符号を付し、その説明を適宜に省略するものとする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. Hereinafter, only differences from the first embodiment will be described, and the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
前述した第1の実施形態では、AF領域は、画像表示装置6に表示されるライブビュー表示中において、画像表示装置6の矩形である表示面の外形の4辺と平行な4辺によって囲まれた正方形又は矩形である。
In the first embodiment described above, the AF area is surrounded by four sides parallel to the four sides of the outer shape of the rectangular display surface of the
一方、本実施形態では、AF領域は、1次画像データ中において、矩形である1次画像データの外形の4辺と平行な4辺によって囲まれた正方形又は矩形である。すなわち、AF領域は、撮像素子3の受光面上において、受光面の外形の4辺と平行な4辺によって囲まれた領域に相当する。 On the other hand, in the present embodiment, the AF area is a square or rectangle surrounded by four sides parallel to the four sides of the outer shape of the primary image data which is a rectangle in the primary image data. That is, the AF area corresponds to an area surrounded by four sides parallel to the four sides of the outer shape of the light receiving surface on the light receiving surface of the image sensor 3.
したがって、本実施形態は、第1の実施形態に比して、ステップS40のAF領域移動処理と、ステップS17のAF処理の内容が異なる。 Therefore, the present embodiment differs from the first embodiment in the contents of the AF area movement process in step S40 and the AF process in step S17.
図15は、本実施形態の撮像装置1によるAF領域移動処理のフローチャートである。本実施形態のAF領域移動処理では、まずステップS41において、台形補正モードが使用者によって選択されているか否かを判定する。ステップS41において、台形補正モードが使用者によって選択されていないと判定した場合には、ステップS42に移行する。
FIG. 15 is a flowchart of AF area movement processing by the
台形補正モードが使用者によって選択されていない場合に行われるステップS42からステップS44の動作は、第1の実施形態と同様である。ステップS44の実行後に、図3のステップS11に戻る。 The operations from step S42 to step S44 performed when the keystone correction mode is not selected by the user are the same as those in the first embodiment. After execution of step S44, the process returns to step S11 of FIG.
一方、ステップS42において、台形補正モードが使用者によって選択されていると判定した場合には、ステップS45に移行する。 On the other hand, if it is determined in step S42 that the keystone correction mode has been selected by the user, the process proceeds to step S45.
ステップS45では、使用者によって入力装置7を介して入力されたAF位置指定座標を取得する。ここで、台形補正モードが実行されていることから、画像表示装置6には、台形補正処理が施された2次画像データ50’が画像表示装置6に表示されている。したがって、ステップS45におけるAF位置指定座標とは、平面Aに対してピッチ方向に角度αだけ傾いた平面Bの2次画像データ50’の座標(x’,y’)で表される。
In step S45, the AF position designation coordinates input by the user via the
次に、ステップS50において、2次画像データ50’中のAF位置指定座標を、1次画像データ50に投影する変換処理を実行する。この変換処理は、前述した台形補正処理の数式(1)を用いることによって行われる。ステップS50の実行により、AF位置指定座標は、平面Aの1次画像データ50の座標(x,y)で表される。そして、ステップS51において、1次画像データ50中におけるAF位置指定座標を、RAMのログ情報バッファ12cに記憶する。
Next, in step S50, a conversion process for projecting the AF position designation coordinates in the secondary image data 50 'onto the
次に、ステップS52において、図16に示すように、1次画像50中において、ステップS50で算出したAF位置指定座標を中心とした所定の大きさの正方形又は矩形の1次AF領域61を生成する。次に、ステップS53において、1次画像60中の1次AF領域61を、2次画像データ50’に投影した2次AF領域61’を生成する変換処理を実行する。この変換処理は、前述した台形補正処理の数式(1)を、1次画像データの座標(x,y)から2次画像データの座標(x’,y’)を得るように変形した式を用いることによって行われる。図17に示すように、2次画像データ50’中における2次AF領域61’は、台形補正処理の結果に応じて、1次AF領域61とは異なる形状となる
そして、ステップS54において、図18に示すように、画像表示装置6に表示されている2次画像データ50’中のAF位置指定座標に、2次AF領域61’を示すAF領域アイコン62’を重畳して表示する。ステップS54の実行後に、図3のステップS11に戻る。
Next, in step S52, as shown in FIG. 16, in the
図19は、本実施形態の撮像装置1によるAF処理のフローチャートである。本実施形態のAF処理では、まずステップS71において、RAMのログ情報バッファ12cに記憶されている1次画像データ50中のAF位置指定座標を読み込む。
FIG. 19 is a flowchart of AF processing by the
そして、ステップS72において、AF制御部16により、1次画像データ50中のAF位置指定座標を中心としたAF領域内のコントラスト値を検出しつつ、AF機構部4aを制御して合焦距離を変化させて撮像レンズ4を合焦状態とする。そして、ステップS73において、例えば画像表示装置6に表示されているAF領域アイコンの色を変化させることにより、撮像レンズ4が合焦状態にあることを表示する。AF処理の実行後は、図3に示すステップS18に移行する。
In step S72, the
以上に説明したように、本実施形態においても、第1の実施形態と同様に、使用者は、画像表示装置6に表示される台形補正処理が施された2次画像データ50’をライブビューとして確認しながら、入力装置7を操作することによって、オートフォーカスを行う領域であるAF領域の位置を移動させることができる。そして、この使用者によって入力されたAF領域の位置は、台形補正処理が施される前の1次画像データ50中の座標に変換され、この座標をもとにオートフォーカス動作が実行される。このため、本実施形態によれば、使用者が被写体中の位置を指定したAF領域が、台形補正処理によって被写体に対する位置がずれてしまうことがなく、使用者の意図通りに台形補正処理を施した画像を撮像できる。
As described above, in this embodiment as well, in the same way as in the first embodiment, the user performs live view on the
なお、本発明は、前述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う撮像装置及び撮像方法もまた本発明の技術的範囲に含まれるものである。 Note that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. An apparatus and an imaging method are also included in the technical scope of the present invention.
また、本発明に係る撮像装置は、前述の実施形態で説明したような、デジタルカメラの形態に限らず、例えば撮像機能を備えた電子機器の形態であってもよい。撮像機能を備えた電子機器としては、例えば携帯通信端末、ゲーム機、デジタルメディアプレーヤー、腕時計、ボイスレコーダー、双眼鏡等が考えられる。 In addition, the imaging apparatus according to the present invention is not limited to the form of a digital camera as described in the above-described embodiment, and may be in the form of an electronic device having an imaging function, for example. Examples of electronic devices having an imaging function include portable communication terminals, game machines, digital media players, watches, voice recorders, binoculars, and the like.
1 撮像装置、
2 本体部、
3 撮像素子、
4 撮像レンズ、
4a AF機構部、
4b 焦点距離検出部、
6 画像表示装置、
7 入力装置、
7a 電源操作スイッチ、
7b レリーズスイッチ、
7c 4方向スイッチ、
7d ダイヤルスイッチ、
7e タッチパネル、
7f 2方向スイッチ、
8 撮像素子駆動部、
10 制御部、
11 CPU、
12 RAM、
12a 制御プログラム、
12b 画像データバッファ、
12c ログ情報バッファ、
13 フラッシュメモリ、
14 AF制御部、
15 AE制御部、
16 画像処理部、
16a 台形補正係数算出部、
16b 補正処理部、
20 電源、
21 電源接続部、
22 記憶媒体、
23 記憶媒体接続部。
1 imaging device,
2 body part,
3 image sensor,
4 Imaging lens,
4a AF mechanism,
4b focal length detector,
6 image display device,
7 Input device,
7a Power operation switch,
7b Release switch,
7c 4-way switch,
7d dial switch,
7e touch panel,
7f 2-way switch,
8 image sensor drive unit,
10 control unit,
11 CPU,
12 RAM,
12a control program,
12b image data buffer,
12c log information buffer,
13 Flash memory,
14 AF control unit,
15 AE control unit,
16 image processing unit,
16a Keystone correction coefficient calculation unit,
16b correction processing unit,
20 power supply,
21 power connection,
22 storage media,
23 Storage medium connection unit.
Claims (4)
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備え、
前記入力装置は、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付け、
前記画像処理部は、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行し、
前記AF制御部は、前記受光面上の、前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させる
ことを特徴とする撮像装置。 An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image based on the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
With
The input device accepts an input for designating a position of an AF area in the secondary image data displayed on the image display device;
The image processing unit executes a conversion process of projecting the position of the AF area in the secondary image data onto a plane including the primary image data;
The AF control unit focuses the imaging lens so that the imaging lens is in a focused state at a position corresponding to the AF area projected on the plane including the primary image data on the light receiving surface. An imaging apparatus characterized by changing a distance.
前記画像処理部は、前記2次画像データ中における前記AF領域の位置及び形状を、前記1次画像データを含む平面上に投影する変換処理を実行し、
前記AF制御部は、前記受光面上の、前記前記1次画像データを含む平面上に投影された前記AF領域内に対応する画像のコントラスト値又は位相差情報に基づいて、前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させる
ことを特徴とする請求項1に記載の撮像装置。 The outer shape of the AF area in the secondary image data is rectangular,
The image processing unit executes a conversion process of projecting the position and shape of the AF area in the secondary image data onto a plane including the primary image data;
The AF control unit adjusts the imaging lens based on a contrast value or phase difference information of an image corresponding to the AF area projected on a plane including the primary image data on the light receiving surface. The imaging apparatus according to claim 1, wherein a focusing distance of the imaging lens is changed so as to be in a focused state.
前記画像処理部は、前記受光面上における前記AF領域の外形を、前記2次画像データを含む平面に投影する変形処理を施し、
前記画像表示装置は、前記2次画像データを含む平面に投影された前記AF領域の形状を前記2次画像データに基づく画像に重畳して表示する
ことを特徴とする請求項1に記載の撮像装置。 The outer shape of the AF area on the light receiving surface is rectangular,
The image processing unit performs a deformation process of projecting the outer shape of the AF area on the light receiving surface onto a plane including the secondary image data,
2. The imaging according to claim 1, wherein the image display device superimposes and displays the shape of the AF area projected on a plane including the secondary image data on an image based on the secondary image data. apparatus.
前記フレーム周期に同期して前記撮像レンズの焦点距離を取得する焦点距離検出部と、
前記受光面に対してピッチ方向になす角度である第1角度、及び前記受光面に対してヨー方向になす角度である第2角度からなる2つの値を含む補正角度の入力を受け付ける入力装置と、
前記フレーム周期に同期して、前記焦点距離の値及び前記補正角度の値を用い、前記1次画像データを、前記受光面に対してピッチ方向に前記第1角度をなし、前記受光面に対してヨー方向に前記第2角度をなす平面上に投影する変形処理を施した2次画像データを生成する画像処理部と、
前記フレーム周期に同期して、前記2次画像データに基づく画像を表示する画像表示装置と、
前記撮像レンズの合焦距離を変化させる制御を行うAF制御部と、
を備える撮像装置の撮像方法であって、
前記入力装置により、画像表示装置に表示する前記2次画像データ中におけるAF領域の位置を指定する入力を受け付けるステップと、
前記画像処理部により、前記2次画像データ中における前記AF領域の位置を、前記1次画像データを含む平面上に投影する変換処理を実行するステップと、
前記AF制御部により、前記受光面上の、前記前記1次画像データを含む平面上に投影された前記AF領域に対応する位置において前記撮像レンズが合焦状態となるように前記撮像レンズの合焦距離を変化させるステップと、
を含むことを特徴とする撮像方法。 An image sensor that is arranged so that the light receiving surface is orthogonal to the optical axis of the imaging lens, and acquires primary image data for each predetermined frame period;
A focal length detection unit that acquires a focal length of the imaging lens in synchronization with the frame period;
An input device for receiving an input of a correction angle including two values including a first angle that is an angle made in the pitch direction with respect to the light receiving surface and a second angle that is an angle made in the yaw direction with respect to the light receiving surface; ,
Using the focal length value and the correction angle value in synchronization with the frame period, the primary image data is formed at the first angle in the pitch direction with respect to the light receiving surface, and with respect to the light receiving surface. An image processing unit for generating secondary image data subjected to a deformation process for projecting onto a plane forming the second angle in the yaw direction;
An image display device that displays an image based on the secondary image data in synchronization with the frame period;
An AF control unit that performs control to change the focusing distance of the imaging lens;
An imaging method for an imaging apparatus comprising:
Receiving an input for designating a position of an AF area in the secondary image data displayed on the image display device by the input device;
Executing a conversion process of projecting the position of the AF area in the secondary image data onto a plane including the primary image data by the image processing unit;
The AF control unit adjusts the imaging lens so that the imaging lens is in focus at a position corresponding to the AF area projected on the plane including the primary image data on the light receiving surface. Changing the focal distance;
An imaging method comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015006978A JP2016134686A (en) | 2015-01-16 | 2015-01-16 | Imaging apparatus and imaging method |
CN201610019561.5A CN105812653B (en) | 2015-01-16 | 2016-01-13 | Photographic device and image capture method |
US14/997,497 US9774782B2 (en) | 2015-01-16 | 2016-01-16 | Image pickup apparatus and image pickup method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015006978A JP2016134686A (en) | 2015-01-16 | 2015-01-16 | Imaging apparatus and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016134686A true JP2016134686A (en) | 2016-07-25 |
Family
ID=56434646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015006978A Pending JP2016134686A (en) | 2015-01-16 | 2015-01-16 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016134686A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020088708A (en) * | 2018-11-29 | 2020-06-04 | キヤノン株式会社 | Control device, imaging apparatus, and program |
CN114449233A (en) * | 2020-10-30 | 2022-05-06 | 扬智科技股份有限公司 | Projection device and trapezoidal correction method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005038021A (en) * | 2003-07-15 | 2005-02-10 | Ricoh Co Ltd | Image processing apparatus, image input device, image processing method and program for executing the method by computer |
JP2008118387A (en) * | 2006-11-02 | 2008-05-22 | Canon Inc | Imaging device |
JP2009302657A (en) * | 2008-06-10 | 2009-12-24 | Canon Inc | Image processor, control method, and program |
JP2011215258A (en) * | 2010-03-31 | 2011-10-27 | Casio Computer Co Ltd | Imaging apparatus, af evaluation value calculating method and program |
-
2015
- 2015-01-16 JP JP2015006978A patent/JP2016134686A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005038021A (en) * | 2003-07-15 | 2005-02-10 | Ricoh Co Ltd | Image processing apparatus, image input device, image processing method and program for executing the method by computer |
JP2008118387A (en) * | 2006-11-02 | 2008-05-22 | Canon Inc | Imaging device |
JP2009302657A (en) * | 2008-06-10 | 2009-12-24 | Canon Inc | Image processor, control method, and program |
JP2011215258A (en) * | 2010-03-31 | 2011-10-27 | Casio Computer Co Ltd | Imaging apparatus, af evaluation value calculating method and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020088708A (en) * | 2018-11-29 | 2020-06-04 | キヤノン株式会社 | Control device, imaging apparatus, and program |
JP7204449B2 (en) | 2018-11-29 | 2023-01-16 | キヤノン株式会社 | Control device, imaging device, control method and program |
CN114449233A (en) * | 2020-10-30 | 2022-05-06 | 扬智科技股份有限公司 | Projection device and trapezoidal correction method thereof |
CN114449233B (en) * | 2020-10-30 | 2023-12-01 | 扬智科技股份有限公司 | Projection device and trapezoid correction method thereof |
US12028657B2 (en) | 2020-10-30 | 2024-07-02 | Ali Corporation | Projection device and keystone correction method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9774782B2 (en) | Image pickup apparatus and image pickup method | |
CN108432230B (en) | Imaging device and method for displaying an image of a scene | |
JP6833746B2 (en) | Imaging equipment, imaging methods, programs and recording media | |
JP6518409B2 (en) | Imaging apparatus and imaging method | |
JP6598589B2 (en) | Imaging apparatus and control method thereof | |
JP5709816B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM | |
JP2012222495A (en) | Image processor, image processing method, and program | |
JP2020107956A (en) | Imaging apparatus, imaging method, and program | |
JP6312460B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
US11252347B2 (en) | Image pickup apparatus, image pickup method, and storage medium | |
JP2021021857A (en) | Imaging apparatus and control method thereof | |
JP6326631B2 (en) | Imaging device | |
TW202002606A (en) | Image-capturing device and method for operating the same | |
JP2019087923A (en) | Imaging apparatus, imaging method, and program | |
JP2016134686A (en) | Imaging apparatus and imaging method | |
JP2019008706A (en) | Image processing device, imaging device, and method and program for controlling image processing device | |
JP6590894B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6395156B2 (en) | Imaging apparatus and imaging method | |
JP5892211B2 (en) | Imaging apparatus and program | |
JP6590899B2 (en) | Imaging apparatus, imaging method, and program | |
JP2017011657A (en) | Imaging device | |
WO2016113997A1 (en) | Imaging apparatus and display method of imaging apparatus | |
JP2012060552A (en) | Camera and electronic apparatus | |
JP2014155173A (en) | Imaging apparatus, control method and program for the same | |
JP2017055268A (en) | Imaging device, control method and program for imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190108 |