JP2014003441A - Imaging device, imaging method, and imaging program - Google Patents
Imaging device, imaging method, and imaging program Download PDFInfo
- Publication number
- JP2014003441A JP2014003441A JP2012136981A JP2012136981A JP2014003441A JP 2014003441 A JP2014003441 A JP 2014003441A JP 2012136981 A JP2012136981 A JP 2012136981A JP 2012136981 A JP2012136981 A JP 2012136981A JP 2014003441 A JP2014003441 A JP 2014003441A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- image
- unit
- coordinates
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置、撮影方法、及び撮影プログラムに関する。 The present invention relates to an imaging device, a photographing method, and a photographing program.
以前に撮影したときと、同一視点、かつ同一方向で撮影を行えるように、グリッド線を表示する撮像装置がある。また、以前に撮影した撮影画像から特徴点を抽出し、その特徴点を表示して、使用者に位置合わせしやすくさせるものがある。また、撮影時に、以前撮影した時の画像と、これから撮影しようとする画像とを重複表示させて位置合わせしやすくする機能を持ったものがある。特徴点とは、画像中の直線や角(コーナー)や点など輝度値が他の値に比べ大きく差がある点である。また、特徴点として、特定の色と色または点と点を複数結んだ仮想曲線を用いることもある。
また、撮影位置と現在位置、ISO(International Organization for Standardization)感度、シャッタースピードなどの撮影条件を同条件に近づける手段を備える撮像装置の発明がある(特許文献1参照)。
There is an image pickup apparatus that displays grid lines so that shooting can be performed in the same viewpoint and in the same direction as when the previous shooting was performed. In addition, there are some which extract feature points from previously taken images and display the feature points so that the user can easily align the feature points. In addition, there is a function that makes it easy to align the image by displaying the image taken before and the image to be taken at the time of photographing. A feature point is a point where brightness values such as straight lines, corners (corners), and points in an image are greatly different from other values. In addition, a specific curve and a virtual curve connecting a plurality of points or points may be used as feature points.
In addition, there is an invention of an imaging apparatus including means for bringing photographing conditions such as a photographing position and a current position, ISO (International Organization for Standardization) sensitivity, and shutter speed close to the same conditions (see Patent Document 1).
しかしながら、特許文献1に記載の撮像装置にあっては、以前と同一視点、かつ同一方向で撮影するように位置合わせをする際に、使用者の能力や撮影環境によって、時間を要することがあるという問題があった。例えば、以前撮影してから、1ヶ月や1年など長い時間が経過していたり、使用者が異なっていたりすると、撮影場所が正確にはわからないため、位置合わせをするのに時間を要してしまう。 However, in the image pickup apparatus described in Patent Document 1, it may take time depending on the ability of the user and the shooting environment when performing positioning so that shooting is performed in the same viewpoint and in the same direction as before. There was a problem. For example, if a long time such as one month or one year has passed since the previous shooting, or if the user is different, the shooting location may not be known accurately, so it takes time to align. End up.
本発明は上記の点に鑑みてなされたものであり、以前撮影した時と同一視点、かつ同一方向での撮影を容易に行うことができる撮像装置、撮影方法、及び撮影プログラムを提供する。 The present invention has been made in view of the above points, and provides an imaging apparatus, an imaging method, and an imaging program that can easily perform imaging in the same viewpoint and in the same direction as when previously captured.
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、撮像装置であって、被写体を撮影し、撮影画像を生成する撮像部と、予め記憶装置に記憶されている記録画像または前記撮影画像を補正する補正処理部と、前記補正処理部が、補正する際に用いる補正パラメータを決定する特徴点自動調整部とを具備し、前記特徴点自動調整部は、前記補正処理部により補正された画像の視点、方向、画角が、前記記録画像および前記撮影画像のうち、前記補正処理部により補正されない画像の視点、方向、画角と、略一致するように前記補正パラメータを決定することを特徴とする。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention is an imaging device, which captures an object and generates a captured image, and a storage device in advance. A correction processing unit that corrects the recorded image or the captured image stored in the memory, and a feature point automatic adjustment unit that determines a correction parameter used when the correction processing unit corrects the feature image, and the feature point automatic adjustment The viewpoint, direction, and angle of view of the image corrected by the correction processing section substantially coincide with the viewpoint, direction, and angle of view of the recorded image and the captured image that are not corrected by the correction processing section. The correction parameter is determined as follows.
(2)また、本発明の一態様は、(1)に記載の撮像装置であって、前記補正処理部により補正される画像の第1特徴点を抽出する第1特徴点抽出部と、前記補正処理部により補正されない画像の第2特徴点を抽出する第2特徴点抽出部とを具備し、前記パラメータ決定部は、前記第2特徴点に関する情報のうち、前記補正処理部により補正された画像における前記第1特徴点に関する情報であって、該第2特徴点と対応する第1特徴点に関する情報と一致するものの数が、最大となるように前記補正パラメータを決定することを特徴とする。 (2) Moreover, one aspect of the present invention is the imaging device according to (1), in which a first feature point extraction unit that extracts a first feature point of an image to be corrected by the correction processing unit; A second feature point extracting unit that extracts a second feature point of the image that is not corrected by the correction processing unit, wherein the parameter determining unit is corrected by the correction processing unit among the information on the second feature point The correction parameter is determined so that the number of pieces of information relating to the first feature point in the image that coincide with the information relating to the first feature point corresponding to the second feature point is maximized. .
(3)また、本発明の一態様は、(2)に記載の撮像装置であって、前記一致するものの数が予め設定された閾値以上であるときに、前記撮影画像に基づく画像を記録可能とする撮像判定部を具備すること特徴とする。 (3) According to another aspect of the present invention, the image pickup apparatus according to (2) can record an image based on the photographed image when the number of the matching items is equal to or greater than a preset threshold value. An imaging determination unit is provided.
(4)また、本発明の一態様は、(2)に記載の撮像装置であって、前記一致するものの数が予め設定された閾値以上であるときに、前記撮影画像に基づく画像を記録可能とする撮像判定部を具備することを特徴とする。 (4) According to another aspect of the present invention, the image pickup apparatus according to (2) can record an image based on the photographed image when the number of the matching items is equal to or greater than a preset threshold value. An imaging determination unit is provided.
(5)また、本発明の一態様は、(1)に記載の撮像装置であって、前記補正パラメータは、画角と、回転角度と、上下左右位置であり、前記特徴点に関する情報は、該特徴点と他の特徴点との距離、該特徴点と他の特徴点とを通る直線の傾き、該特徴点の座標であって、前記第2特徴点と対応する第1特徴点との距離が一致するものの数と、前記第2特徴点と対応する第1特徴点とを通る直線の傾きが一致するものの数と、前記第2特徴点の座標と対応する第1特徴点の座標とが一致するものの数と、が最大となるように前記補正パラメータを決定することを特徴とする。 (5) Moreover, one aspect of the present invention is the imaging apparatus according to (1), in which the correction parameters are an angle of view, a rotation angle, and up / down / left / right positions. A distance between the feature point and another feature point, a slope of a straight line passing through the feature point and the other feature point, a coordinate of the feature point, and the first feature point corresponding to the second feature point The number of objects having the same distance, the number of objects having the same slope of the straight line passing through the first feature point corresponding to the second feature point, the coordinates of the first feature point corresponding to the coordinates of the second feature point, and The correction parameter is determined such that the number of the two that coincide with each other is maximized.
(6)また、本発明の一態様は、撮像方法であって、被写体を撮影し、撮影画像を生成する第1のステップと、予め記憶装置に記憶されている記録画像または前記撮影画像を補正する第2のステップと、補正する際に用いる補正パラメータを決定する第3のステップと、補正された画像の視点、方向、画角が、前記記録画像および前記撮影画像のうち、補正されない画像の視点、方向、画角と、略一致するように前記補正パラメータを決定する第4のステップとを有することを特徴とする。 (6) One embodiment of the present invention is an imaging method, the first step of capturing a subject and generating a captured image, and correcting a recorded image or the captured image stored in advance in a storage device A second step of determining a correction parameter to be used for correction, and a viewpoint, direction, and angle of view of the corrected image of the image that is not corrected among the recorded image and the captured image. And a fourth step of determining the correction parameter so as to substantially match the viewpoint, direction, and angle of view.
(7)また、本発明の一態様は、撮像プログラムであって、被写体を撮影し、撮影画像を生成する第1の手段と、予め記憶装置に記憶されている記録画像または前記撮影画像を補正する第2の手段と、補正する際に用いる補正パラメータを決定する第3の手段と、補正された画像の視点、方向、画角が、前記記録画像および前記撮影画像のうち、補正されない画像の視点、方向、画角と、略一致するように前記補正パラメータを決定する第4の手段とを実行することを特徴とする。 (7) One embodiment of the present invention is an imaging program that includes a first unit that captures a subject and generates a captured image, and corrects a recorded image or the captured image previously stored in a storage device. Second means for determining, third means for determining a correction parameter to be used for correction, and the viewpoint, direction, and angle of view of the corrected image of the recorded image and the photographed image that are not corrected. A fourth means for determining the correction parameter so as to substantially coincide with the viewpoint, direction, and angle of view is executed.
本発明によれば、以前撮影した時と同一視点、かつ同一方向での撮影を容易に行うことができる。 According to the present invention, it is possible to easily perform photographing in the same viewpoint and in the same direction as when photographing previously.
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の第1の実施形態に係る撮像装置D1の構成を示す概略ブロック図である。
撮像装置D1は、撮像部1、信号変換部2、信号処理部3、調光センサ部4、方位センサ部5、制御部C1、フラッシュ発光部6、表示装置7、DRAM8、フラッシュメモリ9、操作部10、および位置センサ部11を含んで構成される。また、撮像装置D1は、その他、撮像装置の一般的な公知の機能を備える。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic block diagram showing the configuration of the imaging device D1 according to the first embodiment of the present invention.
The imaging device D1 includes an imaging unit 1, a signal conversion unit 2, a
撮像部1は、撮影レンズ1aおよびCCD(Charge Coupled Device)、などの撮像素子、自動絞り機構などを備えており、撮影レンズ1aを介して集光された被写体の光束を撮像素子(CCD)上に結像させる。CCDの感度は、ISO感度設定値によって決定される。CCDは、撮影レンズ1aを介して結像した画像を電気信号に変換する。CCDは、変換した電気信号を信号変換部2に出力する。
The imaging unit 1 includes an imaging element such as a photographing
信号変換部2は、A/D変換器などの信号変換回路などを備える。信号変換部2は、撮像部1から入力された電気信号に基づき、該電気信号をデジタルデータに変換する。信号変換部2は、変換したデジタルデータを信号処理部3に出力する。
The signal conversion unit 2 includes a signal conversion circuit such as an A / D converter. The signal conversion unit 2 converts the electrical signal into digital data based on the electrical signal input from the imaging unit 1. The signal conversion unit 2 outputs the converted digital data to the
信号処理部3は、信号変換部2から入力されたデジタルデータをCCDの画素に対応したベイヤーデータの形でいったん保持し、該ベイヤーデータを補完してRGB(Red Green Blue)データを作成する。信号処理部3は、RGBデータから輝度、色差マルチプレクス信号(Y、Cb、Crデータ)などの信号成分を得る。信号処理部3は、そのY、Cb、Crデータ(以下、画像データ)を、制御部C1を介し、DRAM(Dynamic Random Access Memory)8に出力し、一時的に記録する。
The
調光センサ部4は、被写体周辺の光量などを測定し、撮像部1の自動絞り機構などに測定結果を反映させる。方位センサ部5は、撮影レンズ1aがどちらの方向(方位)を向いているか測定し、測定した方位を示す方位情報を制御部C1に出力する。
The light
制御部C1は、CPU、RAM(Random Access Memory)、プログラム格納用ROM(Read Only Memory)およびタイマなどの計時機構を有したマイクロプロセッサなどを備えている。
制御部C1は、信号処理部3から入力された画像データ、調光センサ部4から入力された調光測定結果、方位センサ部5から入力された方位情報、操作部10から入力された操作信号、および位置センサ部11から入力された位置情報に基づき画像データに対応付けるExif(Exchangeable Image File Format)データの生成、画像補正などの処理を行う。ここで、Exifデータとは、例えば、撮影日時、撮影機器メーカ、撮影機器モデル名、画像全体の解像度、水平垂直方向の解像度、撮影方位、シャッタースピード、絞り(F値)、ISO感度、調光モード、フラッシュの有無、露光補正ステップ値、焦点距離、色空間(カラースペース)、位置情報(経度、緯度、標高)、およびサムネイル画像などである。ここで、画像補正とは、フラッシュメモリ9に記録された画像を読み出し、読み出した記録画像から特徴点の座標を抽出し、抽出した記録画像の特徴点とライブビューの特徴点の座標との一致する特徴点の座標の数が最大となるように画角、回転角度、上下左右位置の補正処理を行うことであり、詳細は後述する。ここで、補正処理とは、例えば、特徴点関連情報生成部C109が算出した記録画像の各々の特徴点の座標距離と一致する特徴点の座標距離の数が最大となるように、ライブビューの特徴点の座標距離に基づき、ライブビューの画角を補正する処理ことである。制御部C1は、公知のデータ処理、信号処理、伸張圧縮なども行うが説明は省略する。
The control unit C1 includes a CPU, a RAM (Random Access Memory), a program storage ROM (Read Only Memory), and a microprocessor having a timing mechanism such as a timer.
The control unit C1 includes the image data input from the
フラッシュ発光部6は、制御部C1を介して、操作部10より入力された操作信号によりフラッシュ発光モードに設定されると、周囲の光量に応じた発光量のチャージを行う。フラッシュ発光部6は、操作部10から入力された記録することを指示する(シャッター)信号に基づき発光し、周辺光量を補う。表示部7は、例えば、液晶モニタ画面(LCD:Liquid Crystal Display)などの表示装置を備えており、記録画像の表示やサムネイル画像の表示、撮影モード時にライブビューの表示などを行う。表示部7は、制御部C1から入力された補正処理されたライブビューの表示を行う。
When the flash
DRAM8は、信号処理部3から制御部C1を介して入力された画像データの一時的な記録を行う。また、方位センサ部5から制御部C1へ入力された方位情報、位置センサ部11から制御部C1に入力された位置情報、調光センサ部4から入力された調光情報などを一時的に記憶する。フラッシュメモリ9は、JPEG(Joint Photographic Experts Group)圧縮された撮影画像と、それに対応付けられたExifデータの保存記録をする。
The
操作部10は、例えば、シャッターキー、撮影モード切り替えスイッチ、画像データ保存/削除スイッチ、画角調整キー、メニューキー、カーソールキー、およびフラッシュ発光設定キーなどのボタンやスイッチ(アイコン)から構成される。操作部10は、これらのキーやボタン、あるいはスイッチが操作されると状態信号や設定値を、制御部C1に出力する。
位置センサ部11は、位置情報を取得するモジュール、例えば、GPS(GlobalPositioning System)受信器を備えており、撮像装置D1の位置情報を取得する。
The
The
図2は、本実施形態に係る制御部C1の構成を示す概略ブロック図である。
制御部C1は、記録画像撮影情報処理部C101、記録画像特徴点抽出部C102、位置調整部C103、位置・方位情報判定部C104、撮像処理部C105、ライブビュー特徴点抽出部C106、基準特徴点決定部C107、ライブビュー特徴点記憶部C108、特徴点関連情報生成部C109、カウント部C110、撮像判定部C111、画像合成部C112、特徴点自動調整部A1、閾値記憶部C113、補正処理部C114、および書込み部C115を含んで構成される。これらの各部は、制御部C1のCPUがプログラム格納用ROMからプログラムを読み出して実行することにより実現される。
FIG. 2 is a schematic block diagram illustrating the configuration of the control unit C1 according to the present embodiment.
The control unit C1 includes a recorded image photographing information processing unit C101, a recorded image feature point extracting unit C102, a position adjusting unit C103, a position / orientation information determining unit C104, an imaging processing unit C105, a live view feature point extracting unit C106, a reference feature point. Determination unit C107, live view feature point storage unit C108, feature point related information generation unit C109, count unit C110, imaging determination unit C111, image composition unit C112, feature point automatic adjustment unit A1, threshold storage unit C113, correction processing unit C114 And a writing unit C115. Each of these units is realized by the CPU of the control unit C1 reading and executing the program from the program storage ROM.
記録画像撮影情報処理部C101は、フラッシュメモリ9に記録されている記録画像と、記録画像に対応付けられたExifデータと、を読み出す。記録画像撮影情報処理部C101は、フラッシュメモリ9から読み出した記録画像を記録画像特徴点抽出部C102に出力する。また、記録画像撮影情報処理部C101は、フラッシュメモリ9から読み出したExifデータを位置調整部C103に出力する。
The recorded image photographing information processing unit C101 reads a recorded image recorded in the
記録画像特徴点抽出部(第2特徴点抽出部)C102は、記録画像撮影情報処理部C101から入力された記録画像の特徴点の座標を抽出する。ここで、「特徴点の座標の抽出」は、例えば、Harris法、主曲率法などのコーナー検出やCanny法、ゼロ交差法などの線検出など公知の特徴点検出法を用いる。記録画像特徴点抽出部C102は、抽出した特徴点の座標を記録画像撮影情報処理部C101に出力する。ここで、特徴点の座標とは、輝度値(明度)が周囲に比べ大きく異なる点の座標で構成される直線、角の代表点の座標などであり、特定の色と色、または点と点を複数結んだ仮想曲線の代表点の座標であってもよい。記録画像特徴点抽出部C102は、特徴点の座標の抽出において、優先度を設け、例えば、直線で特徴点を選択する。なお、特徴点の座標の抽出における優先度は、直線よりも角を高くするなど、種別に応じて設定してもよいし、いくつかの特徴点の座標を結んだ図形の面積の広さ、点の多さに応じて設定してもよい。優先度は、特徴点の座標の検出精度の特徴に関係する。記録画像特徴点抽出部C102は、抽出した記録画像の特徴点の座標を基準特徴点決定部C107に出力する。記録画像特徴点抽出部C102は、抽出した記録画像の特徴点の座標を特徴点関連情報生成部C109に出力する。記録画像特徴点抽出部C102は、抽出した記録画像の特徴点の座標を画像合成部C112に出力する。 The recorded image feature point extracting unit (second feature point extracting unit) C102 extracts the coordinates of the feature points of the recorded image input from the recorded image photographing information processing unit C101. Here, for “extraction of feature point coordinates”, for example, a known feature point detection method such as corner detection such as Harris method or principal curvature method or line detection such as Canny method or zero crossing method is used. The recorded image feature point extraction unit C102 outputs the coordinates of the extracted feature points to the recorded image photographing information processing unit C101. Here, the coordinates of feature points are straight lines composed of coordinates of points whose luminance values (lightness) are significantly different from those of surroundings, coordinates of representative points of corners, and the like, and specific colors and colors, or points and points. May be the coordinates of the representative point of a virtual curve connecting a plurality of. The recorded image feature point extraction unit C102 provides priority in extracting the coordinates of the feature points, and selects the feature points with, for example, a straight line. In addition, the priority in extracting the coordinates of the feature points may be set according to the type, such as making the corner higher than the straight line, the area of the figure connecting the coordinates of several feature points, You may set according to the number of points. The priority is related to the feature of the feature point detection accuracy. The recorded image feature point extraction unit C102 outputs the coordinates of the extracted feature points of the recorded image to the reference feature point determination unit C107. The recorded image feature point extraction unit C102 outputs the coordinates of the extracted feature points of the recorded image to the feature point related information generation unit C109. The recorded image feature point extraction unit C102 outputs the coordinates of the extracted feature points of the recorded image to the image composition unit C112.
位置調整部C103は、位置センサ部11から入力された位置情報と、方位センサ部5から入力された方位情報と、記録画像撮影情報処理部C101から入力された記録画像Exifデータ内の位置情報と、該Exifデータ内の方位情報と、を使用者に通知する。ここで、「使用者に通知する」とは、例えば、位置情報であれば該位置情報を示す緯度、経度、標高などの数値を表示または音声などで通知することであり、表示部7に簡易地図を表示して位置情報、方位情報を通知してもよい。使用者は、通知された位置情報、方位情報に基づき、撮影位置、および撮影方位の調整を行う。位置調整部C103は、使用者が調整した位置と、方位に基づき、位置センサ部11、および方位センサ部5から取得した位置情報および方位情報と、記録画像の位置情報、方位情報とを位置・方位情報判定部C104に出力する。
The position adjustment unit C103 includes the position information input from the
位置・方位情報判定部C104は、位置調整部C103から入力されたセンサ部から取得した位置情報、方位情報と、記録画像の位置情報、方位情報と、の差が自動補正可能な範囲内か否かを判定する、すなわち、該差が閾値以下であるか否かを判定する。具体的には、撮像装置D1の位置情報と記録画像の位置情報とが、予め広角(例えば、上下左右各数10ピクセル程度広角)で取得した画像データ内で補正できるか否かを判定する。撮像装置D1の方位情報と記録画像の方位情報とが予め広角で取得した画像データ内で補正できるか否かを判定する。位置・方位情報判定部C104は、自動補正可能な範囲内の場合、判定結果をライブビュー特徴点抽出部C106に通知する。一方、自動補正可能な範囲内でないと判定した場合、位置・方位情報判定部C104は、位置調整部C103に判定結果を出力する。位置調整部C103は、位置・方位情報判定部C104から入力された判定結果に基づき、位置情報と、方位情報とを使用者に通知する。使用者は、通知された位置情報、方位情報に基づき、位置、および方位を再調整する。 The position / orientation information determination unit C104 determines whether or not the difference between the position information and orientation information acquired from the sensor unit input from the position adjustment unit C103 and the position information and orientation information of the recorded image is within a range that can be automatically corrected. That is, it is determined whether or not the difference is equal to or less than a threshold value. Specifically, it is determined whether or not the position information of the imaging device D1 and the position information of the recorded image can be corrected in image data acquired in advance at a wide angle (for example, a wide angle of about several tens of pixels in the vertical and horizontal directions). It is determined whether or not the azimuth information of the imaging device D1 and the azimuth information of the recorded image can be corrected in image data acquired in advance at a wide angle. The position / orientation information determination unit C104 notifies the determination result to the live view feature point extraction unit C106 when it is within the range in which automatic correction is possible. On the other hand, when it is determined that it is not within the range in which automatic correction is possible, the position / orientation information determination unit C104 outputs a determination result to the position adjustment unit C103. The position adjustment unit C103 notifies the user of the position information and the direction information based on the determination result input from the position / orientation information determination unit C104. The user readjusts the position and direction based on the notified position information and direction information.
撮像処理部C105は、信号処理部3から入力された画像を、ライブビューとして補正処理部C114に出力する。なお、補正処理部C114に補正パラメータが設定されていない場合、撮像処理部C105は、信号処理部3から入力された画像を、ライブビューとしてライブビュー特徴点抽出部C106に出力する。また、撮像処理部C105は、シャッターボタンが押されたことを示す信号を、撮像判定部C111から通知された場合、信号処理部3に対してホワイトバランスの調整を指示し、撮像部1に対して露出調整を指示し、自動焦点制御の実行などを指示する。撮像処理部C105は、これらの調整が反映された画像を、信号処理部3から入力されると、該画像を撮影用の画像として補正処理部C114に出力する。
The imaging processing unit C105 outputs the image input from the
ライブビュー特徴点抽出部(第1特徴点抽出部)C106は、位置・方位情報判定部C104から通知された判定結果が自動補正範囲内であることを示すときは、特徴点抽出処理を開始する。特徴点抽出処理とは、撮像処理部C105が入力したライブビュー、または補正処理部C114が入力した補正処理されたライブビューから、特徴点の座標を抽出する処理である。ライブビュー特徴点抽出部C106は、抽出した特徴点の座標をライブビューの特徴点の座標として、ライブビュー特徴点記憶部C108に記憶させる。 The live view feature point extraction unit (first feature point extraction unit) C106 starts the feature point extraction process when the determination result notified from the position / orientation information determination unit C104 indicates that it is within the automatic correction range. . The feature point extraction processing is processing for extracting the coordinates of feature points from the live view input by the imaging processing unit C105 or the corrected live view input by the correction processing unit C114. The live view feature point extraction unit C106 stores the coordinates of the extracted feature points in the live view feature point storage unit C108 as the coordinates of the feature points of the live view.
基準特徴点決定部C107は、記録画像特徴点抽出部C102から入力された記録画像の特徴点の座標と、ライブビュー特徴点記憶部C108から読み出したライブビューの特徴点の座標とを参照して、記録画像の特徴点の座標各々に対応するライブビューの特徴点の座標を探索する。基準特徴点決定部C107は、探索により対応する特徴点の座標が検出された記録画像の特徴点の座標の中から記録画像における基準となる特徴点の座標を選択する。基準特徴点決定部C107は、記録画像における基準となる特徴点の座標に対応するライブビューの特徴点の座標をライブビューにおける基準となる特徴点として選択する。基準特徴点決定部C107は、これらの基準となる特徴点の座標を特徴点関連情報生成部C109に出力する。基準特徴点決定部C107は、ライブビュー特徴点記憶部C108から読み出したライブビューの特徴点の座標と、記録画像特徴点抽出部C102から入力された記録画像の特徴点の座標と、を参照して、記録画像の特徴点の座標各々に対応するライブビューの特徴点の座標を各々基準特徴点の座標として用いる。 The reference feature point determination unit C107 refers to the coordinates of the feature points of the recorded image input from the recorded image feature point extraction unit C102 and the coordinates of the feature points of the live view read from the live view feature point storage unit C108. The coordinates of the feature points of the live view corresponding to the coordinates of the feature points of the recorded image are searched. The reference feature point determination unit C107 selects a feature point coordinate serving as a reference in the recorded image from among the feature point coordinates of the recorded image in which the corresponding feature point coordinates have been detected by the search. The reference feature point determination unit C107 selects the coordinate of the feature point of the live view corresponding to the coordinate of the feature point serving as the reference in the recorded image as the reference feature point in the live view. The reference feature point determination unit C107 outputs the coordinates of these reference feature points to the feature point related information generation unit C109. The reference feature point determination unit C107 refers to the coordinates of the feature points of the live view read from the live view feature point storage unit C108 and the coordinates of the feature points of the recorded image input from the recorded image feature point extraction unit C102. Thus, the coordinates of the feature points of the live view corresponding to the coordinates of the feature points of the recorded image are used as the coordinates of the reference feature points.
ライブビュー特徴点記憶部C108は、ライブビュー特徴点抽出部C106から入力されたライブビューの特徴点の座標を抽出された順に記憶する。
特徴点関連情報生成部C109は、記録画像特徴点抽出部C102から入力された記録画像の特徴点の座標と、ライブビュー特徴点記憶部C108から読み出したライブビューの特徴点の座標と、基準特徴点決定部C107から入力された基準となる特徴点の座標と、に基づいて、特徴点に関する情報を生成する。ここで、特徴点に関する情報とは、例えば、記録画像における基準となる特徴点の座標と各々の特徴点の座標と、ライブビューにおける基準となる特徴点の座標と各々の特徴点の座標と、の座標距離、基準となる特徴点の座標と、各々の画像の各々の特徴点の座標と、を結んだ直線の傾き、各々の特徴点の位置座標である。特徴点関連情報生成部C109は、特徴点に関する情報を特徴点自動調整部A1に出力する。
The live view feature point storage unit C108 stores the coordinates of the feature points of the live view input from the live view feature point extraction unit C106 in the order of extraction.
The feature point related information generation unit C109 includes the coordinates of the feature points of the recorded image input from the recorded image feature point extraction unit C102, the coordinates of the feature points of the live view read from the live view feature point storage unit C108, and the reference feature. Based on the coordinates of the reference feature point input from the point determination unit C107, information on the feature point is generated. Here, the information on the feature points includes, for example, the coordinates of the feature points serving as the reference in the recorded image, the coordinates of each feature point, the coordinates of the feature point serving as the reference in the live view, and the coordinates of each feature point. , The inclination of a straight line connecting the coordinates of the feature point serving as the reference and the coordinates of the feature point of each image, and the position coordinates of each feature point. The feature point related information generation unit C109 outputs information on the feature points to the feature point automatic adjustment unit A1.
カウント部C110は、インクリメントカウンタであり、特徴点自動調整部A1から入力された一致する座標距離の数、一致する直線の傾きの数、一致する位置座標の数の合計を算出する。カウント部C110は、算出した合計を撮像判定部C111に出力する。
撮像判定部C111は、記録画像と、補正処理されたライブビューとの視点、方向、画角が略一致しているか否かを判定する。具体的には、撮像判定部C111は、カウント部C110が算出した合計と、閾値記憶部C113が記憶する閾値とを比較し、合計が閾値を以上であるときは、略一致していると判定する。撮像判定部C111は、略一致していると判定したときは、操作部10のシャッターキーを操作可能とする。シャッターキーが押されたことを操作部10が検出すると、撮像判定部C111は、シャッターキーが押されたことを示す信号を、撮像処理部C105と補正処理部C114とに通知する。
The count unit C110 is an increment counter, and calculates the total number of matching coordinate distances, the number of matching line inclinations, and the number of matching position coordinates input from the feature point automatic adjustment unit A1. The count unit C110 outputs the calculated sum to the imaging determination unit C111.
The imaging determination unit C111 determines whether the viewpoint, direction, and angle of view of the recorded image and the corrected live view are substantially the same. Specifically, the imaging determination unit C111 compares the sum calculated by the count unit C110 with the threshold value stored in the threshold value storage unit C113, and determines that the sum is approximately equal when the sum exceeds the threshold value. To do. When the imaging determination unit C111 determines that they are substantially coincident, the shutter key of the
画像合成部C112は、表示部7に表示する画像を合成する。表示する画像は、例えば、記録画像とライブビューとを合成した画像、あるいは、記録画像の特徴点の座標とライブビューとを合成した画像、記録画像とライブビューの特徴点の座標を合成した画像、記録画像の特徴点の座標とライブビューの特徴点の座標とを合成した画像である。 The image composition unit C112 synthesizes an image to be displayed on the display unit 7. The image to be displayed is, for example, an image obtained by combining the recorded image and the live view, an image obtained by combining the coordinates of the feature points of the recorded image and the live view, or an image obtained by combining the coordinates of the feature points of the recorded image and the live view. This is an image in which the coordinates of the feature points of the recorded image and the coordinates of the feature points of the live view are synthesized.
補正処理部C114は、特徴点自動調整部A1において決定された補正パラメータに従い、撮像処理部C105から入力されたライブビューに対して、補正処理を行う。補正処理部C114は、特徴点自動調整部A1において決定された画角補正パラメータを補正パラメータ記憶部A18から読み出す。補正処理部C114は、読み出した画角補正パラメータαに基づき、α倍にライブビューを拡大/縮小する。 The correction processing unit C114 performs correction processing on the live view input from the imaging processing unit C105 according to the correction parameters determined by the feature point automatic adjustment unit A1. The correction processing unit C114 reads the angle-of-view correction parameter determined by the feature point automatic adjustment unit A1 from the correction parameter storage unit A18. The correction processing unit C114 enlarges / reduces the live view by α times based on the read angle-of-view correction parameter α.
補正処理部C114は、特徴点自動調整部A1において決定された回転角度補正パラメータを補正パラメータ記憶部A18から読み出す。補正処理部C114は、拡大/縮小されたライブビューを、読み出した回転角度補正パラメータβに基づき、βだけ回転させる。補正処理部C114は、特徴点自動調整部A1において決定された上下左右位置補正パラメータを補正パラメータ記憶部A18から読み出す。補正処理部C114は、回転されたライブビューの中心から上下左右位置補正パラメータγが示す移動量分ずらした位置を中心とする所定の大きさの画像を、回転されたライブビューから切り出す。補正処理部C114は、切り出した画像を補正処理されたライブビューとする。 The correction processing unit C114 reads the rotation angle correction parameter determined by the feature point automatic adjustment unit A1 from the correction parameter storage unit A18. The correction processing unit C114 rotates the enlarged / reduced live view by β based on the read rotation angle correction parameter β. The correction processing unit C114 reads the vertical / horizontal position correction parameters determined by the feature point automatic adjustment unit A1 from the correction parameter storage unit A18. The correction processing unit C114 cuts out from the rotated live view an image having a predetermined size centered at a position shifted from the center of the rotated live view by the movement amount indicated by the vertical / horizontal position correction parameter γ. The correction processing unit C114 sets the cut-out image as a corrected live view.
なお、補正処理部C114は、通常、補正処理したライブビューを、ライブビュー特徴点抽出部C106と、画像合成部C112とに出力する。ただし、シャッターボタンが押されたことを示す信号を、撮像判定部C111から通知された場合、補正処理部C114は、撮像処理部C105から入力された撮影用の画像を、撮影画像として書込み部C115に出力する。 Note that the correction processing unit C114 normally outputs the corrected live view to the live view feature point extraction unit C106 and the image composition unit C112. However, when a signal indicating that the shutter button has been pressed is notified from the imaging determination unit C111, the correction processing unit C114 writes the image for shooting input from the imaging processing unit C105 as a captured image to the writing unit C115. Output to.
書込み部C115は、補正処理部C114から入力された撮影画像を、JPEG形式などの画像形式に変換して、フラッシュメモリ9に書き込む。なお、書込み部C115は、変換した撮影画像をフラッシュメモリ9に書き込む際に、位置センサ部11から取得した位置情報と、方位センサ部5から取得した方位情報とを、該撮影画像に対応付けて書き込む。
The writing unit C115 converts the captured image input from the correction processing unit C114 into an image format such as a JPEG format and writes the converted image in the
特徴点自動調整部A1は、記録画像と、補正処理されたライブビューとについて、画角、回転角度、上下左右位置が合致しているか否かを判定する。ここで、合致とは、例えば、記録画像の特徴点に関する情報と一致するライブビューの特徴点に関する情報の数が閾値以上になることである。画角、回転角度、上下左右位置のいずれかが合致していない場合、合致していない項目に対応する補正パラメータを更新する。具体的には、特徴点自動調整部A1は、特徴点関連情報生成部C109から入力された座標距離を用いて、画角が合致しているか否かを判定する。特徴点自動調整部A1は、合致していると判定した場合、記録画像と補正処理されたライブビューとで一致している座標距離の数を、カウント部C110に出力する。 The feature point automatic adjustment unit A1 determines whether the angle of view, the rotation angle, and the vertical and horizontal positions of the recorded image and the corrected live view match. Here, the term “match” means, for example, that the number of pieces of information related to the feature points of the live view that matches the information related to the feature points of the recorded image is equal to or greater than a threshold. When any of the angle of view, the rotation angle, and the vertical and horizontal positions does not match, the correction parameter corresponding to the mismatched item is updated. Specifically, the feature point automatic adjustment unit A1 uses the coordinate distance input from the feature point related information generation unit C109 to determine whether or not the angle of view matches. When the feature point automatic adjustment unit A1 determines that they match, the feature point automatic adjustment unit A1 outputs the number of coordinate distances that match between the recorded image and the corrected live view to the count unit C110.
特徴点自動調整部A1は、特徴点関連情報生成部C109から入力された直線の傾きを用いて、回転角が合致しているか否かを判定する。特徴点自動調整部A1は、合致していると判定した場合、記録画像と補正処理されたライブビューとで一致している直線の傾きの数を、カウント部C110に出力する。また、特徴点自動調整部A1は、特徴点関連情報生成部C109から入力された位置座標を用いて、上下左右位置が合致しているか否かを判定する。特徴点自動調整部A1は、合致していると判定した場合、記録画像と補正処理されたライブビューとで一致している位置座標の数を、カウント部C110に出力する。特徴点自動調整部A1の詳細な動作については、後述する。 The feature point automatic adjustment unit A1 uses the slope of the straight line input from the feature point related information generation unit C109 to determine whether the rotation angle matches. If the feature point automatic adjustment unit A1 determines that they match, the feature point automatic adjustment unit A1 outputs the number of straight line slopes that match between the recorded image and the corrected live view to the count unit C110. Further, the feature point automatic adjustment unit A1 determines whether the vertical and horizontal positions match using the position coordinates input from the feature point related information generation unit C109. When the feature point automatic adjustment unit A1 determines that they match, the feature point automatic adjustment unit A1 outputs the number of position coordinates that match between the recorded image and the corrected live view to the count unit C110. The detailed operation of the feature point automatic adjustment unit A1 will be described later.
図3は、本実施形態に係る特徴点自動調整部A1の構成の一例を示す概略ブロック図である。
特徴点自動調整部A1は、閾値記憶部A11、画角判定部A12、画角パラメータ決定部A13、回転角度判定部A14、回転角度パラメータ決定部A15、上下左右位置判定部A16、上下左右位置パラメータ決定部A17、および補正パラメータ記憶部A18を含んで構成される。
FIG. 3 is a schematic block diagram illustrating an example of the configuration of the feature point automatic adjustment unit A1 according to the present embodiment.
The feature point automatic adjustment unit A1 includes a threshold storage unit A11, an angle of view determination unit A12, an angle of view parameter determination unit A13, a rotation angle determination unit A14, a rotation angle parameter determination unit A15, an up / down / left / right position determination unit A16, and an up / down / left / right position parameter. A determination unit A17 and a correction parameter storage unit A18 are included.
閾値記憶部A11は、画角、回転角度、上下左右位置の各々について合致していると判定するための閾値を記憶している。画角判定部A12は、閾値記憶部A11に記憶されている画角に関する閾値を読み出す。画角判定部A12は、特徴点関連情報生成部C109から入力された各々の画像の各々の特徴点の座標距離に基づいて、これらの画像の画角が合致しているか否かを判定する。具体的には、画角判定部A12は、記録画像の特徴点の座標距離と一致するライブビューの特徴点の座標距離の数が閾値以上あるか否かを判定し、閾値以上あるときは合致していると判定する。 The threshold storage unit A11 stores a threshold for determining that the angle of view, the rotation angle, and the vertical, horizontal, and horizontal positions match each other. The angle-of-view determination unit A12 reads a threshold value related to the angle of view stored in the threshold value storage unit A11. The angle-of-view determination unit A12 determines whether the angles of view of these images match based on the coordinate distance of each feature point of each image input from the feature point related information generation unit C109. Specifically, the angle-of-view determination unit A12 determines whether or not the number of coordinate distances of the feature points of the live view that matches the coordinate distances of the feature points of the recorded image is greater than or equal to a threshold value. Judge that you are doing.
合致していると判定したときは、画角判定部A12は、座標距離が一致したライブビューの特徴点の座標の各々がライブビュー特徴点記憶部C108に記憶されているか否かを判定する。画角判定部A12は、記憶していない特徴点の座標をライブビュー特徴点記憶部C108に記憶させるとともに、これらの数を、カウント部C110に出力する。一方、合致していないと判定したときは、画角判定部A12は、画角パラメータ決定部A13に、画角補正パラメータの決定を指示する。 When it is determined that they match, the angle-of-view determination unit A12 determines whether or not each of the coordinates of the feature points of the live view having the matching coordinate distance is stored in the live view feature point storage unit C108. The angle-of-view determination unit A12 stores the coordinates of feature points that are not stored in the live view feature point storage unit C108 and outputs these numbers to the count unit C110. On the other hand, when it is determined that they do not match, the view angle determination unit A12 instructs the view angle parameter determination unit A13 to determine the view angle correction parameter.
画角パラメータ決定部A13は、補正パラメータ記憶部A18に記憶されている画角補正パラメータを読み出す。画角パラメータ決定部A13は、特徴点関連情報生成部C109から入力された各々の画像の特徴点の座標距離に基づき、記録画像の特徴点の座標距離と、一致するライブビューの特徴点の座標距離の数が最大となるように、画角を調整する倍率を決定する。画角パラメータ決定部A13は、決定した画角を調整する倍率と、補正パラメータ記憶部A18から読み出した以前の画角補正パラメータとの差分を算出する。画角パラメータ決定部A13は、算出した差分を、画角補正パラメータαとする。画角パラメータ決定部A13は、画角補正パラメータを補正パラメータ記憶部A18に記憶する。 The view angle parameter determination unit A13 reads the view angle correction parameter stored in the correction parameter storage unit A18. The angle-of-view parameter determination unit A13, based on the coordinate distance of the feature point of each image input from the feature point related information generation unit C109, matches the coordinate distance of the feature point of the recorded image and the coordinate of the feature point of the matching live view. The magnification for adjusting the angle of view is determined so that the number of distances is maximized. The view angle parameter determination unit A13 calculates a difference between the magnification for adjusting the determined view angle and the previous view angle correction parameter read from the correction parameter storage unit A18. The view angle parameter determination unit A13 sets the calculated difference as the view angle correction parameter α. The view angle parameter determination unit A13 stores the view angle correction parameter in the correction parameter storage unit A18.
回転角度判定部A14は、閾値記憶部A11に記憶されている回転角度に関する閾値を読み出す。回転角度判定部A14は、特徴点関連情報生成部C109から入力された各々の画像の各々の特徴点の直線の傾きに基づいて、これらの画像の回転角度が合致しているか否かを判定する。具体的には、回転角度判定部A14は、記録画像の特徴点の直線の傾きと一致するライブビューの特徴点の直線の傾きの数が閾値以上あるか否かを判定し、閾値以上あるときは合致していると判定する。 The rotation angle determination unit A14 reads a threshold value related to the rotation angle stored in the threshold value storage unit A11. The rotation angle determination unit A14 determines whether or not the rotation angles of these images match based on the slope of the straight line of each feature point of each image input from the feature point related information generation unit C109. . Specifically, the rotation angle determination unit A14 determines whether or not the number of inclinations of the straight line of the feature point of the live view that matches the inclination of the straight line of the feature point of the recorded image is equal to or greater than the threshold value. Is determined to match.
合致していると判定したときは、回転角度判定部A14は、直線の傾きが一致したライブビューの特徴点の座標の各々がライブビュー特徴点記憶部C108に記憶されているか否かを判定する。回転角度判定部A14は、記憶していない特徴点の座標をライブビュー特徴点記憶部C108に記憶させるとともに、これらの数を、カウント部C110に出力する。一方、合致していないと判定したときは、回転角度判定部A14は、回転角度パラメータ決定部A15に、回転角度補正パラメータの決定を指示する。 When it is determined that they match, the rotation angle determination unit A14 determines whether or not each of the coordinates of the feature points of the live view having the same straight line inclination is stored in the live view feature point storage unit C108. . The rotation angle determination unit A14 stores the coordinates of the feature points that are not stored in the live view feature point storage unit C108, and outputs these numbers to the count unit C110. On the other hand, when it is determined that they do not match, the rotation angle determination unit A14 instructs the rotation angle parameter determination unit A15 to determine the rotation angle correction parameter.
回転角度パラメータ決定部A15は、補正パラメータ記憶部A18に記憶されている回転角度補正パラメータを読み出す。回転角度パラメータ決定部A15は、特徴点関連情報生成部C109から入力された各々の画像の特徴点の直線の傾きに基づき、記録画像の特徴点の直線の傾きと、一致するライブビューの特徴点の直線の傾きの数が最大となるように、回転角度を調整する角度を決定する。回転角度パラメータ決定部A15は、決定した回転角度を調整する角度と、補正パラメータ記憶部A18から読み出した以前の回転角度補正パラメータとの和を算出する。回転角度パラメータ決定部A15は、算出した該和を、回転角度補正パラメータβとする。回転角度パラメータ決定部A15は、回転角度補正パラメータを補正パラメータ記憶部A18に記憶する。 The rotation angle parameter determination unit A15 reads the rotation angle correction parameter stored in the correction parameter storage unit A18. The rotation angle parameter determination unit A15, based on the slope of the straight line of the feature point of each image input from the feature point related information generation unit C109, matches the slope of the straight line of the feature point of the recorded image. The angle at which the rotation angle is adjusted is determined so that the number of inclinations of the straight line becomes the maximum. The rotation angle parameter determination unit A15 calculates the sum of the angle for adjusting the determined rotation angle and the previous rotation angle correction parameter read from the correction parameter storage unit A18. The rotation angle parameter determination unit A15 sets the calculated sum as the rotation angle correction parameter β. The rotation angle parameter determination unit A15 stores the rotation angle correction parameter in the correction parameter storage unit A18.
上下左右位置判定部A16は、閾値記憶部A11に記憶されている上下左右位置に関する閾値を読み出す。上下左右位置判定部A16は、特徴点関連情報生成部C109から入力された各々の画像の各々の特徴点の位置座標に基づいて、これらの画像の上下左右位置が合致しているか否かを判定する。具体的には、上下左右位置判定部A16は、記録画像の特徴点の位置座標と一致するライブビューの特徴点の位置座標の数が閾値以上あるか否かを判定し、閾値以上あるときは合致していると判定する。 The up / down / left / right position determination unit A16 reads a threshold value related to the up / down / left / right position stored in the threshold value storage unit A11. The vertical / horizontal position determination unit A16 determines whether the vertical / horizontal positions of the images match based on the position coordinates of the feature points of the images input from the feature point related information generation unit C109. To do. Specifically, the up / down / left / right position determination unit A16 determines whether or not the number of position coordinates of the feature point of the live view that matches the position coordinates of the feature point of the recorded image is greater than or equal to a threshold value. It is determined that they match.
合致していると判定したときは、上下左右位置判定部A16は、位置座標が一致したライブビューの特徴点の座標の各々がライブビュー特徴点記憶部C108に記憶されているか否かを判定する。上下左右位置判定部A16は、記憶していない特徴点の座標をライブビュー特徴点記憶部C108に記憶させるとともに、これらの数を、カウント部C110に出力する。一方、合致していないと判定したときは、上下左右位置判定部A16は、上下左右位置パラメータ決定部A17に、上下左右位置補正パラメータの決定を指示する。 When it is determined that they match, the vertical / horizontal position determination unit A16 determines whether or not each of the coordinates of the feature points of the live view whose position coordinates match is stored in the live view feature point storage unit C108. . The up / down / left / right position determination unit A16 stores the coordinates of the feature points not stored in the live view feature point storage unit C108, and outputs these numbers to the count unit C110. On the other hand, when it is determined that they do not match, the vertical / horizontal position determination unit A16 instructs the vertical / horizontal position parameter determination unit A17 to determine the vertical / horizontal position correction parameter.
上下左右位置パラメータ決定部A17は、補正パラメータ記憶部A18に記憶されている上下左右位置補正パラメータを読み出す。上下左右位置パラメータ決定部A17は、特徴点関連情報生成部C109から入力された各々の画像の特徴点の直線の傾きに基づき、記録画像の特徴点の直線の傾きと、一致するライブビューの特徴点の直線の傾きの数が最大となるように、上下左右位置を調整する移動量を決定する。上下左右位置パラメータ決定部A17は、決定した上下左右位置を調整する移動量と、補正パラメータ記憶部A18から読み出した以前の上下左右位置補正パラメータとの差分を算出する。上下左右位置パラメータ決定部A17は、算出した差分を、上下左右位置補正パラメータγとする。上下左右位置パラメータ決定部A17は、決定した上下左右位置補正パラメータを補正パラメータ記憶部A18に記憶する。 The vertical / horizontal position parameter determination unit A17 reads the vertical / horizontal position correction parameter stored in the correction parameter storage unit A18. The up / down / left / right position parameter determination unit A17, based on the slope of the straight line of the feature point of each image input from the feature point related information generation unit C109, matches the slope of the straight line of the feature point of the recorded image. The amount of movement for adjusting the vertical and horizontal positions is determined so that the number of slopes of the straight line of the point is maximized. The up / down / left / right position parameter determination unit A17 calculates a difference between the determined movement amount for adjusting the up / down / left / right position and the previous vertical / horizontal position correction parameter read from the correction parameter storage unit A18. The vertical / horizontal position parameter determination unit A17 sets the calculated difference as the vertical / horizontal position correction parameter γ. The up / down / left / right position parameter determination unit A17 stores the determined up / down / left / right position correction parameter in the correction parameter storage unit A18.
図4は、本実施形態に係る撮像装置D1の広角撮影の一例を示す概念図である。
左図は、撮像装置D1によって撮影され、記録された記録画像である。それに対し右図は、数10ピクセル程度広角で撮影した時の撮影画像である。撮像装置D1は、画角、回転角度、上下左右位置の補正パラメータを決定し、該補正パラメータを用いて補正処理部C114が補正処理を行うため、広角に撮影する。
FIG. 4 is a conceptual diagram illustrating an example of wide-angle shooting of the imaging device D1 according to the present embodiment.
The figure on the left is a recorded image shot and recorded by the imaging device D1. On the other hand, the right figure is a photographed image taken at a wide angle of about several tens of pixels. The imaging device D1 determines correction parameters for the angle of view, the rotation angle, and the vertical, horizontal, and horizontal positions, and the correction processing unit C114 performs correction processing using the correction parameters.
図5は、本実施形態に係る撮影画像の補正処理の手法の一例を示す概念図である。
特徴点自動調整部A1は、各々の画像の特徴点の座標距離、直線の傾き、位置座標を用いて、画角を調整する倍率α、回転角度を調整する角度β、上下左右位置を調整する移動量γの順に補正処理を行う。ライブビューは、予め広角で取得した画像データを基に補正処理を行うため、補正処理によって画像の欠落は生じない。補正処理による画像の劣化を防ぐため、補正処理は、常に補正処理前のライブビューに対し行うものとする。例えば、ライブビューから画像から1.2倍拡大し、さらに1.4倍拡大した画像よりも、補正処理前のライブビューから1.68倍拡大した画像を作成する。
なお、本実施形態において、補正処理は、ライブビューに対して行っているが、記録画像に対して補正処理を行ってもよい。
FIG. 5 is a conceptual diagram showing an example of a method for correcting a captured image according to the present embodiment.
The feature point automatic adjustment unit A1 adjusts the angle α for adjusting the angle of view, the angle β for adjusting the rotation angle, and the vertical and horizontal positions using the coordinate distance, the inclination of the straight line, and the position coordinates of the feature points of each image. Correction processing is performed in the order of the movement amount γ. Since the live view performs correction processing based on image data acquired in advance at a wide angle, no image is lost due to the correction processing. In order to prevent image deterioration due to the correction process, the correction process is always performed on the live view before the correction process. For example, an image that is enlarged 1.2 times from the image from the live view and further enlarged 1.68 times from the live view before the correction processing is created rather than an image that is further magnified 1.4 times.
In the present embodiment, the correction process is performed on the live view, but the correction process may be performed on the recorded image.
図6は、本実施形態に係る記録画像から抽出し、特徴点の座標を表示した一例を示す概念画像である。
記録画像特徴点抽出部C102で抽出された記録画像の特徴点の座標は、例えば、いくつかの特徴点の座標を直線で結んで形成される直線とコーナーとを含んでいる。なお、特徴点の座標の表示は、直線部分と、コーナー部分とを線で表しているが、各々の特徴点を直線で結ばず、特徴点の座標を点で表してもよい。
FIG. 6 is a conceptual image showing an example in which the coordinates of feature points are extracted from the recorded image according to the present embodiment.
The coordinates of the feature points of the recorded image extracted by the recorded image feature point extraction unit C102 include, for example, straight lines and corners formed by connecting the coordinates of several feature points with straight lines. In the display of the feature point coordinates, the straight line portion and the corner portion are represented by lines. However, the feature point coordinates may be represented by points without connecting the feature points by straight lines.
図7は、本実施形態に係る記録画像から抽出された特徴点の座標を基に位置合わせを行い使用者が撮影したときの撮影画像の一例を示す概念画像である。
図7は、記録画像をもとにライブビューを画像合成部C112において重ねて表示した一例であり、記録画像と、ライブビューとの間に特徴点の座標に差異が生じている。例えば、記録画像の特徴点の座標を表示部7に透過表示し、それを基に、使用者が位置調整を行った場合、記録画像と、ライブビューとの特徴点を一致させるのは困難であり、使用者の能力に大きく依存する。また、調整には時間がかかる。
FIG. 7 is a conceptual image showing an example of a captured image when the user performs a position alignment based on the coordinates of the feature points extracted from the recorded image according to the present embodiment.
FIG. 7 shows an example in which a live view is superimposed and displayed on the image composition unit C112 based on the recorded image, and there is a difference in the coordinates of feature points between the recorded image and the live view. For example, when the coordinates of the feature points of the recorded image are transparently displayed on the display unit 7 and the user adjusts the position based on the coordinates, it is difficult to match the feature points of the recorded image and the live view. Yes, it depends heavily on the ability of the user. Also, adjustment takes time.
図8は、本実施形態に係る記録画像から抽出された特徴点の座標と、それを基に使用者が位置合わせを行い撮影した撮影画像の特徴点の座標と、を比較した一例を示す概念画像である。
図8は、記録画像特徴点抽出部C102で抽出された記録画像の特徴点の座標と、ライブビュー特徴点抽出部C106で抽出されたライブビューの特徴点の座標と、記録画像と、ライブビューとに基づき、記録画像とライブビューと各々の画像の特徴点の座標とを画像合成部C112で重複表示した画像である。強調表示された記録画像の特徴点の座標と、ライブビューの特徴点の座標との間に差異が生じている。
FIG. 8 is a concept showing an example in which the coordinates of the feature points extracted from the recorded image according to the present embodiment are compared with the coordinates of the feature points of the captured image taken by the user based on the coordinates. It is an image.
8 shows the coordinates of the feature points of the recorded image extracted by the recorded image feature point extraction unit C102, the coordinates of the feature points of the live view extracted by the live view feature point extraction unit C106, the recorded image, and the live view. Based on the above, the recorded image, the live view, and the coordinates of the feature points of each image are overlapped and displayed by the image composition unit C112. There is a difference between the coordinates of the feature points of the highlighted recorded image and the coordinates of the feature points of the live view.
図9は、本実施形態に係る撮影画像の特徴点自動調整処理における動作の一例を示すフローチャートである。
記録画像撮影情報処理部C101は、フラッシュメモリ9に記録された記録画像を読み出し、表示部7に表示する(S101)。記録画像撮影情報処理部C101は、記録画像に対応付けられたExifデータの読み出し、記録画像の位置情報を取得する(S102)。
記録画像特徴点抽出部C102は、記録画像撮影情報処理部C101で読み出した記録画像に対し、特徴点の座標の抽出を行う(S103)。
カウント部C110は、カウンタをゼロ値で初期化する(S104)。
位置調整部C103は、表示部7に表示された記録画像およびステップS102の記録画像に対応付けられた位置情報を基に、使用者に位置を合わせるよう通知する(S105)。
位置センサ部11は、現在の位置情報を取得し(S106)、ステップS105において通知した記録画像の位置情報と、現在の位置情報とを比較し、自動補正可能な範囲内であるか否かを判定する(S107)。
ステップS107が、自動補正可能な範囲内である場合(S107−YES)、記録画像撮影情報処理部C101は、表示部7に表示中の記録画像を透過表示(スルー画像)に変更し、表示する(S108)。一方、ステップS107が、自動補正可能な範囲内でない場合(S107−NO)、ステップS105からステップS107までの処理を繰り返す。
記録画像撮影情報処理部C101は、ステップS102で読み出したExifデータから方位情報を取得する(S109)。
カウント部C110は、カウンタをゼロ値でクリアする(S110)。
撮像処理部C105は、撮像部1からライブビューを取込む(S111)。
補正処理部C114は、取込まれたライブビューに対し、補正処理を行う(S112)。
画像合成部C112は、ライブビューと透過表示された記録画像とを重ねて表示部7に表示する(S113)。
位置調整部C103は、使用者に対し、ステップS113の画像を見ながら方位合わせをするよう通知する(S115)。
ステップS115で調整した方位に対し、方位センサ部5は、現在の方位情報を取得する(S116)。
記録画像の位置情報と現在の位置情報、および記録画像の方位情報と現在の方位情報が各々自動補正可能な範囲内であるか否かの判定を行う(S117)。
ステップS117が、自動補正可能な範囲内である場合(S117−YES)、ライブビュー特徴点抽出部C106は、ライブビューから抽出した特徴点の座標を抽出した順にテーブルに記録する(S118)。一方、ステップS117が自動補正可能な範囲内でない場合(S117−NO)、シャッターアイコンが点灯していれば消灯させる(S114)。
基準特徴点決定部C107は、記録画像の特徴点の座標と、ライブビューの特徴点の座標の中から互いの特徴点の座標に対応する特徴点の座標を探索し、探索した特徴点の座標の中から基準となる各々の特徴点の座標を選択する(S119)。
S119において選択された各々の画像の基準特徴点の座標に基づき、特徴点関連情報生成部C109は、基準となる各々の特徴点の座標と、各々の画像の各々の特徴点の座標との座標距離を算出する。特徴点関連情報生成部C109は、基準となる各々の特徴点の座標と、各々の画像の各々の特徴点の座標とを結んだ直線の傾きを算出する。
特徴点自動調整部A1は、記録画像の特徴点の座標とライブビューの特徴点の座標との一致する特徴点の座標の数は閾値以上か否かを判定する(S120)。
ステップS120において、一致する特徴点の座標の数が閾値以上である場合(S120−YES)、シャッターアイコンを表示する(S301)。一方、ステップS120において、一致する特徴点の座標の数が閾値未満である場合(S120−NO)、抽出したライブビューの特徴点の座標を全て比較し終えたか否かを判定する(S121)。具体的には、基準特徴点決定部C107において、記録画像の特徴点の座標に対応するライブビューの特徴点の座標を探索し、記録画像の特徴点の座標各々に対応するライブビューの特徴点各々を基準特徴点の座標と決定する。決定した基準特徴点の座標各々において、画角、回転角度、上下左右位置の調整を行い、カウント部C110に加算する。抽出したライブビューの特徴点の座標を全て判定し終えていない場合、(S121−NO)、シャッターアイコンが点灯していれば消灯する(S122)。
画角が合致しているか否かを判定する(S123)。
ステップS123が合致している場合(S123−YES)、特徴点自動調整部A1は、まだテーブルに記録していない特徴点の座標か否かを判定する(S126)。一方、ステップS123が合致していない場合、画角パラメータ決定部A13は、一致する特徴点の座標距離の数が最大となるように画角の調整を行う(S124)。具体的には、記録画像の特徴点の座標距離と、ライブビューの特徴点の座標距離とにおける、一致する特徴点の座標距離の数が最大となるようにライブビューが記録画像より小さければズームアップし、ライブビューが記録画像より大きければズームダウンし、大まかに画角を調整する(S124)。また、画角パラメータ決定部A13は、記録画像の特徴点の座標距離と、ライブビューの特徴点の座標距離とにおける、一致する特徴点の座標距離の数が最大となるようにライブビューが記録画像より小さければライブビューを拡大し、ライブビューが記録画像より大きければライブビューを縮小する(S125)。
ステップS126において、テーブルに記録してある画像データの特徴点の座標である場合(S126−NO)、回転角度判定部A14において回転角度が合致しているか否かを判定する(S201)。一方、ステップS126において、テーブルに記憶していない画像データの特徴点の座標である場合(S126−YES)、カウント部C110は、一致する特徴点の座標距離の数の合計を算出し(S127)、画像データの特徴点の座標をテーブルに記録する(S128)。
FIG. 9 is a flowchart showing an example of the operation in the feature point automatic adjustment processing of the captured image according to the present embodiment.
The recorded image photographing information processing unit C101 reads out the recorded image recorded in the
The recorded image feature point extraction unit C102 extracts feature point coordinates from the recorded image read by the recorded image photographing information processing unit C101 (S103).
The count unit C110 initializes the counter with a zero value (S104).
The position adjustment unit C103 notifies the user to adjust the position based on the recorded image displayed on the display unit 7 and the position information associated with the recorded image in step S102 (S105).
The
When step S107 is within a range in which automatic correction is possible (S107-YES), the recorded image photographing information processing unit C101 changes the recorded image being displayed on the display unit 7 to a transparent display (through image) and displays it. (S108). On the other hand, when step S107 is not within the range where automatic correction is possible (S107-NO), the processing from step S105 to step S107 is repeated.
The recorded image photographing information processing unit C101 acquires azimuth information from the Exif data read out in step S102 (S109).
Count unit C110 clears the counter with a zero value (S110).
The imaging processing unit C105 captures a live view from the imaging unit 1 (S111).
The correction processing unit C114 performs correction processing on the captured live view (S112).
The image composition unit C112 superimposes the live view and the transparently displayed recorded image on the display unit 7 (S113).
The position adjustment unit C103 notifies the user to align the orientation while viewing the image in step S113 (S115).
For the direction adjusted in step S115, the
It is determined whether the position information of the recorded image and the current position information, and the azimuth information of the recorded image and the current azimuth information are within a range that can be automatically corrected (S117).
When step S117 is within the range in which automatic correction is possible (S117-YES), the live view feature point extraction unit C106 records the coordinates of the feature points extracted from the live view in the order of extraction (S118). On the other hand, if step S117 is not within the range where automatic correction is possible (S117-NO), if the shutter icon is lit, it is turned off (S114).
The reference feature point determination unit C107 searches for the feature point coordinates corresponding to the feature point coordinates from the coordinates of the feature points of the recorded image and the feature point coordinates of the live view. The coordinates of each feature point serving as a reference are selected from (S119).
Based on the coordinates of the reference feature points of each image selected in S119, the feature point related information generation unit C109 coordinates the coordinates of each of the feature points serving as a reference and the coordinates of each feature point of each image. Calculate the distance. The feature point related information generation unit C109 calculates the inclination of a straight line connecting the coordinates of each feature point serving as a reference and the coordinates of each feature point of each image.
The feature point automatic adjustment unit A1 determines whether or not the number of feature point coordinates that match the coordinate of the feature point of the recorded image and the coordinate of the feature point of the live view is equal to or greater than a threshold (S120).
In step S120, when the number of coordinates of the matching feature points is equal to or greater than the threshold (S120-YES), a shutter icon is displayed (S301). On the other hand, in step S120, if the number of matching feature point coordinates is less than the threshold (S120-NO), it is determined whether or not all the extracted feature point coordinates of the live view have been compared (S121). Specifically, the reference feature point determination unit C107 searches for the coordinates of the feature points of the live view corresponding to the coordinates of the feature points of the recorded image, and the feature points of the live view corresponding to the coordinates of the feature points of the recorded image. Each is determined as the coordinates of the reference feature point. In each of the determined coordinates of the reference feature point, the angle of view, the rotation angle, and the vertical and horizontal positions are adjusted and added to the count unit C110. If all the coordinates of the extracted feature points of the live view have not been determined (S121—NO), the shutter icon is turned off (S122).
It is determined whether or not the angle of view matches (S123).
When step S123 matches (S123-YES), the feature point automatic adjustment unit A1 determines whether or not the coordinates of the feature points are not yet recorded in the table (S126). On the other hand, if step S123 does not match, the view angle parameter determination unit A13 adjusts the view angle so that the number of coordinate distances of the matching feature points is maximized (S124). Specifically, if the live view is smaller than the recorded image so that the number of coordinate distances of the matching feature points in the coordinate distance of the feature points of the recorded image and the coordinate distance of the feature points of the live view is maximized, the zoom is performed. If the live view is larger than the recorded image, the image is zoomed down and the angle of view is roughly adjusted (S124). Further, the angle-of-view parameter determination unit A13 records the live view so that the number of coordinate distances of the matching feature points in the coordinate distance of the feature points of the recorded image and the coordinate distance of the feature points of the live view is maximized. If it is smaller than the image, the live view is enlarged, and if the live view is larger than the recorded image, the live view is reduced (S125).
In step S126, when it is the coordinates of the feature point of the image data recorded in the table (S126-NO), the rotation angle determination unit A14 determines whether or not the rotation angle is matched (S201). On the other hand, when the coordinates of the feature points of the image data are not stored in the table in step S126 (S126-YES), the count unit C110 calculates the total number of coordinate distances of the matching feature points (S127). The coordinates of the feature points of the image data are recorded in the table (S128).
図10は、本実施形態に係る特徴点自動調整部A1の動作の一例を示すフローチャートである。
ステップS201は、具体的には、特徴点関連情報生成部C109から入力された記録画像の基準特徴点の座標と、各々の特徴点の座標と、を結んだ直線の傾き、およびライブビューの基準特徴点の座標と、各々の特徴点の座標と、を結んだ直線の傾きに基づいて、回転角度が合致しているか否かを判定する。
ステップS201が合致している場合(S201−YES)、特徴点自動調整部A1は、まだテーブルに記録していない特徴点の座標か否かを判定する(S203)。一方、ステップS201が合致していない場合、回転角度パラメータ決定部A15は、一致する特徴点の直線の傾きの数が最大となるように回転角度を調整する(S202)。具体的には、記録画像の特徴点の座標の直線の傾きと、ライブビューの特徴点の座標の直線の傾きとにおける、一致する特徴点の座標の直線の傾きの数が最大となるようにライブビューを右回り、左回りに回転し、回転角度を調整する(S202)。
ステップS203において、テーブルに記録してあるライブビューの特徴点の座標である場合(S203−NO)、上下左右位置判定部A16で上下左右位置が合致しているか否かを判定する(S206)。一方、ステップS203において、テーブルに記憶していないライブビューの特徴点の座標である場合(S203−YES)、カウント部C110は、一致する特徴点の座標の直線傾きの数の合計を算出し(S204)、ライブビューの特徴点の座標をテーブルに記録する(S205)。
ステップS206は、具体的には、特徴点関連情報生成部C109から入力された記録画像の各々の特徴点の座標と、ライブビューの各々の特徴点の座標と、に基づいて、上下左右位置が合致しているか否かを判定する。
ステップS206が合致している場合(S206−YES)、特徴点自動調整部A1は、まだテーブルに記録していない特徴点の座標か否かを判定する(S208)。一方、ステップS206が合致していない場合、上下左右位置パラメータ決定部A17は、一致する特徴点の位置座標の数が最大となるように上下左右位置を調整する(S207)。具体的には、記録画像の特徴点の位置座標と、ライブビューの特徴点の位置座標とにおける、一致する特徴点の位置座標の数が最大となるようにライブビューを右寄せ/左寄せ、上寄せ/下寄せする。
ステップS208において、テーブルに記録してあるライブビューの特徴点の座標である場合(S208−NO)、特徴点自動調整部A1で調整した各々の補正パラメータを補正処理部C114に出力し、一致する特徴点の座標の数をS120において閾値判定する。一方、ステップS208において、テーブルに記憶していないライブビューの特徴点の座標である場合(S208−YES)、カウント部C110は、一致する特徴点の位置座標の数の合計を算出し(S209)、ライブビューの特徴点の座標をテーブルに記録する(S210)。
FIG. 10 is a flowchart showing an example of the operation of the feature point automatic adjustment unit A1 according to the present embodiment.
Specifically, the step S201 includes the inclination of the straight line connecting the coordinates of the reference feature points of the recorded image input from the feature point related information generation unit C109 and the coordinates of each feature point, and the reference of the live view. Based on the inclination of the straight line connecting the coordinates of the feature points and the coordinates of each of the feature points, it is determined whether or not the rotation angles match.
If step S201 matches (S201—YES), the feature point automatic adjustment unit A1 determines whether or not the coordinates of the feature points are not yet recorded in the table (S203). On the other hand, if step S201 does not match, the rotation angle parameter determination unit A15 adjusts the rotation angle so that the number of straight line inclinations of the matching feature points is maximized (S202). Specifically, the number of straight line inclinations of the coordinate of feature points in the recorded image and the straight line inclination of the coordinate of feature points in the live view are maximized. The live view is rotated clockwise and counterclockwise, and the rotation angle is adjusted (S202).
In step S203, if the coordinates of the feature point of the live view recorded in the table (S203-NO), the vertical / horizontal position determination unit A16 determines whether the vertical / horizontal position matches (S206). On the other hand, when the coordinates of the feature points of the live view are not stored in the table in step S203 (S203—YES), the count unit C110 calculates the total number of linear inclinations of the coordinates of the matching feature points ( S204), the coordinates of the feature points of the live view are recorded in the table (S205).
Specifically, in step S206, based on the coordinates of each feature point of the recorded image input from the feature point related information generation unit C109 and the coordinates of each feature point of the live view, the vertical and horizontal positions are determined. It is determined whether or not they match.
When step S206 matches (S206—YES), the feature point automatic adjustment unit A1 determines whether the coordinates of the feature points are not yet recorded in the table (S208). On the other hand, if step S206 does not match, the up / down / left / right position parameter determination unit A17 adjusts the up / down / left / right position so that the number of position coordinates of the matching feature points is maximized (S207). Specifically, the live view is right-justified / left-justified and up-aligned so that the number of matching feature point position coordinates in the position coordinates of the feature points of the recorded image and the position coordinates of the feature points of the live view is maximized. / Lowering.
In step S208, if the coordinates of the feature points of the live view recorded in the table (S208-NO), the respective correction parameters adjusted by the feature point automatic adjustment unit A1 are output to the correction processing unit C114 to be matched. In S120, the number of feature point coordinates is determined as a threshold value. On the other hand, when the coordinates of the feature points of the live view are not stored in the table in step S208 (S208-YES), the count unit C110 calculates the total number of position coordinates of the matching feature points (S209). The coordinates of the feature points of the live view are recorded in the table (S210).
図11は、本実施形態に係る自動補正処理における撮像判定部C111の動作の一例を示すフローチャートである。
ステップS120の一致する特徴点の座標の数が閾値以上である場合、シャッターアイコンを表示する(S301)。
ステップ301に基づき、シャッターキーを押した場合(S302−YES)、撮影画像をDRAM9に取り込み(S303)、シャッターアイコンを消灯する(S304)。
ステップS303で取り込んだ撮影画像を表示部7に表示する(S305)。
ステップS305で表示部7に表示した撮影画像を記録保存する場合(S306−YES)、フラッシュメモリ9に記録する(S307)。
撮影画像に対応付けるExifデータをフラッシュメモリ9に記憶する(S308)。
FIG. 11 is a flowchart illustrating an example of the operation of the imaging determination unit C111 in the automatic correction process according to the present embodiment.
If the number of coordinates of the matching feature points in step S120 is greater than or equal to the threshold, a shutter icon is displayed (S301).
If the shutter key is pressed based on step 301 (S302-YES), the captured image is taken into the DRAM 9 (S303), and the shutter icon is turned off (S304).
The captured image captured in step S303 is displayed on the display unit 7 (S305).
When the captured image displayed on the display unit 7 in step S305 is recorded and saved (S306-YES), it is recorded in the flash memory 9 (S307).
Exif data associated with the photographed image is stored in the flash memory 9 (S308).
このように、本実施形態によれば、撮像部1は、被写体を撮影し、撮影画像を生成する。補正処理部C114は、予め記憶装置(フラッシュメモリ9)に記憶されている記録画像または前記撮影画像を補正する。特徴点自動調整部A1は、補正処理部C114が、補正する際に用いる補正パラメータを決定する。特徴点自動調整部A1は、補正処理部C114により補正された画像の視点、方向、画角が、記録画像および撮影画像のうち、補正処理部C114により補正されない画像の視点、方向、画角と、略一致するように補正パラメータを決定する。これにより、以前撮影した時と同一視点、かつ同一方向での撮影を容易に行うことができる。 Thus, according to the present embodiment, the imaging unit 1 captures a subject and generates a captured image. The correction processing unit C114 corrects the recorded image or the captured image stored in advance in the storage device (flash memory 9). The feature point automatic adjustment unit A1 determines a correction parameter used when the correction processing unit C114 performs correction. The feature point automatic adjustment unit A1 has the viewpoint, direction, and angle of view of the image corrected by the correction processing unit C114 as the viewpoint, direction, and angle of view of the recorded image and the captured image that are not corrected by the correction processing unit C114. The correction parameters are determined so as to substantially match. As a result, it is possible to easily perform photographing from the same viewpoint and in the same direction as when photographing previously.
なお、本実施形態では、記録画像の特徴点の座標と、ライブビューの特徴点の座標との一致する特徴点の座標の数が最大となるように補正パラメータを決定し、ライブビューの補正処理を行っているが、該補正パラメータを用いて、記録画像の補正処理を行ってもよい。 In the present embodiment, correction parameters are determined so that the number of feature point coordinates that match the coordinates of the feature points of the recorded image and the coordinates of the feature points of the live view is maximized, and the live view correction process is performed. However, the correction processing of the recorded image may be performed using the correction parameter.
なお、上述した実施形態における撮像装置D1の一部、または全部を、コンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。 In addition, you may make it implement | achieve part or all of the imaging device D1 in embodiment mentioned above with a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.
なお、ここでいう「コンピュータシステム」とは、撮像装置D1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 Here, the “computer system” is a computer system built in the imaging apparatus D1, and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
また、上述した実施形態における撮像装置D1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。撮像装置D1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。 In addition, a part or all of the imaging device D1 in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the imaging device D1 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
D1・・・撮像装置
1・・・撮像部
1a・・・撮影レンズ
2・・・信号変換部
3・・・信号処理部
4・・・調光センサ部
5・・・方位センサ部
6・・・フラッシュ発光部
7・・・表示部
8・・・DRAM
9・・・フラッシュメモリ
10・・・操作部
11・・・位置センサ部
C1・・・制御部
C101・・・記録画像撮影情報処理部
C102・・・記録画像特徴点抽出部
C103・・・位置調整部
C104・・・位置・方位情報判定部
C105・・・撮像処理部
C106・・・ライブビュー特徴点抽出部
C107・・・基準特徴点決定部
C108・・・ライブビュー特徴点記憶部
C109・・・特徴点関連情報生成部
C110・・・カウント部
C111・・・撮像判定部
C112・・・画像合成部
C113・・・補正閾値記憶部
C114・・・補正処理部
C115・・・書込み部
A1・・・特徴点自動調整部
A11・・・閾値記憶部
A12・・・画角判定部
A13・・・画角パラメータ決定部
A14・・・回転角度判定部
A15・・・回転角度パラメータ決定部
A16・・・上下左右位置判定部
A17・・・上下左右位置パラメータ決定部
A18・・・補正パラメータ記憶部
D1 ... Imaging device 1 ...
DESCRIPTION OF
Claims (7)
予め記憶装置に記憶されている記録画像または前記撮影画像を補正する補正処理部と、
前記補正処理部が、補正する際に用いる補正パラメータを決定する特徴点自動調整部と
を具備し、
前記特徴点自動調整部は、前記補正処理部により補正された画像の視点、方向、画角が、前記記録画像および前記撮影画像のうち、前記補正処理部により補正されない画像の視点、方向、画角と、略一致するように前記補正パラメータを決定すること
を特徴とする撮像装置。 An imaging unit that shoots a subject and generates a captured image;
A correction processing unit for correcting a recorded image or the captured image stored in advance in a storage device;
The correction processing unit comprises a feature point automatic adjustment unit that determines a correction parameter used when correcting, and
The feature point automatic adjustment unit includes a viewpoint, a direction, and an image of an image that is corrected by the correction processing unit, the viewpoint, the direction, and the angle of view of the recorded image and the captured image that are not corrected by the correction processing unit. The correction parameter is determined so as to substantially coincide with a corner.
前記補正処理部により補正されない画像の第2特徴点を抽出する第2特徴点抽出部と
を具備し、
前記特徴点自動調整部は、前記第2特徴点に関する情報のうち、前記補正処理部により補正された画像における前記第1特徴点に関する情報であって、該第2特徴点と対応する第1特徴点に関する情報と一致するものの数が、最大となるように前記補正パラメータを決定すること
を特徴とする請求項1に記載の撮像装置。 A first feature point extraction unit for extracting a first feature point of an image to be corrected by the correction processing unit;
A second feature point extraction unit that extracts a second feature point of an image that is not corrected by the correction processing unit;
The feature point automatic adjustment unit is information on the first feature point in the image corrected by the correction processing unit among the information on the second feature point, and the first feature point corresponding to the second feature point. The imaging apparatus according to claim 1, wherein the correction parameter is determined so that the number of items that coincide with the information regarding the point is maximized.
前記特徴点に関する情報は、該特徴点と他の特徴点との距離、該特徴点と他の特徴点とを通る直線の傾き、該特徴点の座標であって、前記第2特徴点と対応する第1特徴点との距離が一致するものの数と、前記第2特徴点と対応する第1特徴点とを通る直線の傾きが一致するものの数と、前記第2特徴点の座標と対応する第1特徴点の座標とが一致するものの数と、が最大となるように前記補正パラメータを決定すること
を特徴とする請求項2に記載の撮像装置。 The correction parameters are an angle of view, a rotation angle, an up / down / left / right position,
The information on the feature point includes a distance between the feature point and another feature point, a slope of a straight line passing through the feature point and the other feature point, and coordinates of the feature point, and corresponds to the second feature point. Corresponding to the first feature point, the number of matching straight lines passing through the first feature point corresponding to the second feature point, and the coordinates of the second feature point. The imaging apparatus according to claim 2, wherein the correction parameter is determined so that the number of objects that coincide with the coordinates of the first feature point is maximized.
前記合成された画像を表示する表示部と
を具備することを特徴とする請求項1に記載の撮像装置 An image synthesis unit that synthesizes the image related to the corrected image and the image related to the uncorrected image;
The imaging device according to claim 1, further comprising: a display unit that displays the synthesized image.
予め記憶装置に記憶されている記録画像または前記撮影画像を補正する第2のステップと、
補正する際に用いる補正パラメータを決定する第3のステップと、
補正された画像の視点、方向、画角が、前記記録画像および前記撮影画像のうち、補正されない画像の視点、方向、画角と、略一致するように前記補正パラメータを決定する第4のステップと
を有することを特徴とする撮像方法。 A first step of shooting a subject and generating a shot image;
A second step of correcting a recorded image or the captured image stored in advance in a storage device;
A third step of determining a correction parameter to be used for correction;
Fourth step of determining the correction parameter so that the viewpoint, direction, and angle of view of the corrected image substantially coincide with the viewpoint, direction, and angle of view of the image that is not corrected among the recorded image and the captured image. An imaging method comprising:
予め記憶装置に記憶されている記録画像または前記撮影画像を補正する第2の手段と、
補正する際に用いる補正パラメータを決定する第3の手段と、
補正された画像の視点、方向、画角が、前記記録画像および前記撮影画像のうち、補正されない画像の視点、方向、画角と、略一致するように前記補正パラメータを決定する第4の手段と
を実行することを特徴とする撮像プログラム。 A first means for photographing a subject and generating a photographed image;
A second means for correcting a recorded image or the captured image stored in advance in a storage device;
A third means for determining a correction parameter used for correction;
Fourth means for determining the correction parameter so that the viewpoint, direction, and angle of view of the corrected image substantially coincide with the viewpoint, direction, and angle of view of the uncorrected image of the recorded image and the captured image. An imaging program characterized by executing and.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012136981A JP2014003441A (en) | 2012-06-18 | 2012-06-18 | Imaging device, imaging method, and imaging program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012136981A JP2014003441A (en) | 2012-06-18 | 2012-06-18 | Imaging device, imaging method, and imaging program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014003441A true JP2014003441A (en) | 2014-01-09 |
Family
ID=50036229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012136981A Pending JP2014003441A (en) | 2012-06-18 | 2012-06-18 | Imaging device, imaging method, and imaging program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014003441A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015104994A1 (en) | 2014-01-10 | 2015-07-16 | 学校法人帝京平成大学 | Recombinant anaerobic gram-positive bacteria |
CN112629546A (en) * | 2019-10-08 | 2021-04-09 | 宁波吉利汽车研究开发有限公司 | Position adjustment parameter determining method and device, electronic equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11185018A (en) * | 1997-12-24 | 1999-07-09 | Olympus Optical Co Ltd | Image processor |
JP2009246937A (en) * | 2008-03-11 | 2009-10-22 | Ricoh Co Ltd | Imaging apparatus |
JP2011180302A (en) * | 2010-02-26 | 2011-09-15 | Nikon Corp | Shake correction device, lens barrel, and camera system |
-
2012
- 2012-06-18 JP JP2012136981A patent/JP2014003441A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11185018A (en) * | 1997-12-24 | 1999-07-09 | Olympus Optical Co Ltd | Image processor |
JP2009246937A (en) * | 2008-03-11 | 2009-10-22 | Ricoh Co Ltd | Imaging apparatus |
JP2011180302A (en) * | 2010-02-26 | 2011-09-15 | Nikon Corp | Shake correction device, lens barrel, and camera system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015104994A1 (en) | 2014-01-10 | 2015-07-16 | 学校法人帝京平成大学 | Recombinant anaerobic gram-positive bacteria |
EP3842050A1 (en) | 2014-01-10 | 2021-06-30 | Teikyo Heisei University | Recombinant obligate anaerobic gram-positive bacteria |
CN112629546A (en) * | 2019-10-08 | 2021-04-09 | 宁波吉利汽车研究开发有限公司 | Position adjustment parameter determining method and device, electronic equipment and storage medium |
CN112629546B (en) * | 2019-10-08 | 2023-09-19 | 宁波吉利汽车研究开发有限公司 | Position adjustment parameter determining method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5550989B2 (en) | Imaging apparatus, control method thereof, and program | |
US20190340737A1 (en) | Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium | |
JP2016149736A (en) | Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method, and program | |
KR20130069123A (en) | Image pickup apparatus, method for providing composition of pickup and computer-readable recording medium | |
US20110025828A1 (en) | Imaging apparatus and method for controlling the same | |
JP2020510928A (en) | Image display method and electronic device | |
US20100225787A1 (en) | Image capturing apparatus capable of extracting subject region from captured image | |
JP2015073185A (en) | Image processing device, image processing method and program | |
JP5750696B2 (en) | Display device and display program | |
CN113315956A (en) | Image processing apparatus, image capturing apparatus, image processing method, and machine-readable medium | |
EP2285095A1 (en) | Image capturing device | |
JP2009288945A (en) | Image display unit and image display method | |
US20150130963A1 (en) | Image processing apparatus, image processing method, and computer program | |
KR20140106221A (en) | Photographing method and apparatus using multiple image sensors | |
JP2010045587A (en) | Camera apparatus, image photography support device, image photography support method, and image photography support program | |
JP2014068081A (en) | Imaging apparatus and control method of the same, program and storage medium | |
JP4807582B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP2014003441A (en) | Imaging device, imaging method, and imaging program | |
US20120249840A1 (en) | Electronic camera | |
JP2015167310A (en) | Imaging apparatus and imaging method | |
JP2004088607A (en) | Imaging apparatus, imaging method and program | |
US10846822B2 (en) | Image processing apparatus, image pickup apparatus, control method of image processing apparatus, and recording apparatus | |
JP2013113877A (en) | Stereoscopic photographing device, and portable terminal device using the same | |
JP2012049709A (en) | Imaging apparatus, empty region determination method, and program | |
JP2011030104A (en) | Image capturing apparatus, and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160112 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160517 |