JP2007104246A - Apparatus and method for processing image taken by camera - Google Patents

Apparatus and method for processing image taken by camera Download PDF

Info

Publication number
JP2007104246A
JP2007104246A JP2005290870A JP2005290870A JP2007104246A JP 2007104246 A JP2007104246 A JP 2007104246A JP 2005290870 A JP2005290870 A JP 2005290870A JP 2005290870 A JP2005290870 A JP 2005290870A JP 2007104246 A JP2007104246 A JP 2007104246A
Authority
JP
Japan
Prior art keywords
information
captured image
camera
correction
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005290870A
Other languages
Japanese (ja)
Inventor
Naoki Matsuki
直紀 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005290870A priority Critical patent/JP2007104246A/en
Publication of JP2007104246A publication Critical patent/JP2007104246A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To find the relation between a photographing range and a region watchable with a finder. <P>SOLUTION: The above problem is solved by providing a regional information acquisition means for acquiring regional information, a correction information storage means for storing the regional information acquired by the regional information acquisition means in a storage making it correspond to photographing device identification information, a correction information acquisition means for acquiring the regional information from the storage on the basis of the photographing device identification information made to correspond to photographed images, and a correction means for correcting the photographed images by using the regional information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カメラ撮影画像処理装置及びカメラ撮影画像処理方法に関する。   The present invention relates to a camera shot image processing apparatus and a camera shot image processing method.

デジタルカメラを用いて写真を撮影する際、撮影者は、ファインダを見て、撮影する画像の構図を決定する。そのため、ファインダを通して観察される画像と、デジタルカメラの撮像素子で撮影される画像とは、全く同じであることが望ましい。しかし、様々な理由から、実際にそれが実現される事はほとんどない。   When taking a picture using a digital camera, the photographer looks at the viewfinder and determines the composition of the picture to be taken. For this reason, it is desirable that the image observed through the viewfinder and the image captured by the image sensor of the digital camera are exactly the same. But for a variety of reasons, it is rarely realized.

その理由として、例えば、視野率の問題が挙げられる。視野率とは、実際に撮影される画像の何パーセントをファインダで見ることができるかを示す数字である。一般に、デジタル一眼レフカメラでは、視野率は90〜100%であり、コンパクトデジタルカメラでは、それ以下になることが多い。つまり、撮影者はファインダを見て構図を決定しても、実際にはそれよりも大きな範囲で写真が撮影される。   The reason is, for example, the problem of view rate. The field of view rate is a number indicating what percentage of the actually photographed image can be viewed with the viewfinder. In general, a digital single-lens reflex camera has a field of view of 90 to 100%, and a compact digital camera often has a field of view of less than that. In other words, even if the photographer determines the composition by looking at the viewfinder, the photograph is actually taken in a larger range.

また、コンパクトデジタルカメラのように、ファインダの光学系と撮影用の光学系とが別にある場合には、原理的に視差が発生してしまう。そのため、実際に撮影される範囲と、ファインダで見ることができる範囲との関係は、被写体との距離によって変わる。   Further, when a finder optical system and a photographing optical system are separately provided as in a compact digital camera, parallax occurs in principle. For this reason, the relationship between the actually captured range and the range that can be viewed with the viewfinder varies depending on the distance to the subject.

更に、カメラ本体の落下や衝突で撮像素子が傾いてしまった場合等、撮像素子の歪みから撮影画像が歪んでしまうこともある。   Furthermore, the captured image may be distorted due to distortion of the image sensor, such as when the image sensor is tilted due to the camera body falling or colliding.

一般に、デジタルカメラには、撮影する画像を確認する機構として、ファインダの他に液晶モニタ(LCD(liquid crystal monitor))が用意されている。LCDは、撮影する画像の全範囲を表示するので、先の問題は、LCDを用いることで解決できると言える。しかし、LCDは電力を消費し、バッテリーの持ちを悪くするという欠点がある。更にデジタル一眼レフカメラの場合、その構造上、LCDを見ながら撮影する訳にはいかない。   In general, a digital camera is provided with a liquid crystal monitor (LCD (liquid crystal monitor)) in addition to a viewfinder as a mechanism for confirming an image to be taken. Since the LCD displays the entire range of the image to be taken, it can be said that the above problem can be solved by using the LCD. However, the LCD has the disadvantages that it consumes power and makes the battery worse. Furthermore, in the case of a digital single-lens reflex camera, because of its structure, it cannot be taken while looking at the LCD.

先の「実際に撮影される範囲とファインダで見ることができる範囲が異なる」という問題を、光学的、機械的に解決することは容易ではなく、製造コストも著しく増加する。そのため、ソフト的に解決する方法が考えられている。   It is not easy to optically and mechanically solve the above-mentioned problem that “the actual photographed range and the range that can be viewed with the viewfinder” are different, and the manufacturing cost is remarkably increased. Therefore, a method for solving the problem in software is considered.

例えば、特許文献1によれば、ファインダの光学系と、撮影用の光学系とを別に有するデジタルカメラにおいて、被写体距離やレンズの焦点距離等から視差補正量を取得・記録し、出力画像を補正できるようにしている。又は、保存時に、撮影画像をファインダ視野と同じ範囲になるようにトリミングしている。   For example, according to Patent Document 1, in a digital camera having a finder optical system and a shooting optical system separately, a parallax correction amount is acquired and recorded from subject distance, lens focal length, and the like, and an output image is corrected. I can do it. Or, at the time of saving, the captured image is trimmed so as to be in the same range as the viewfinder field of view.

特開平11−344746号公報Japanese Patent Laid-Open No. 11-344746

しかしながら、デジタルカメラのレンズや撮像素子の付き方には個体差がある。つまり、撮影する範囲と、ファインダで見ることのできる範囲との関係は、個々のカメラにより異なる問題があった。   However, there are individual differences in how to attach a digital camera lens or image sensor. That is, there is a problem that the relationship between the shooting range and the range that can be viewed with the viewfinder differs depending on the individual camera.

本発明は上記の問題点に鑑みなされたもので、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to notify the relationship between a captured range and a range viewed with a viewfinder regardless of individual differences between cameras.

そこで、上記問題を解決するため、本発明のカメラ撮影画像処理装置は、撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得手段と、前記領域情報取得手段が取得した前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶手段と、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得手段と、前記補正情報取得手段が取得した前記領域情報を用いて、前記撮影画像を補正する補正手段と、を有することを特徴とする。   Therefore, in order to solve the above problem, the camera-captured image processing apparatus of the present invention includes a region information acquisition unit that acquires region information related to a region observed through a finder during shooting, and the region acquired by the region information acquisition unit. Based on the correction information storage means for storing the information in the storage means in association with the imaging apparatus identification information for identifying the imaging apparatus, and the storage means based on the imaging apparatus identification information associated with the captured image, the region Correction information acquisition means for acquiring information, and correction means for correcting the captured image using the region information acquired by the correction information acquisition means.

本発明のカメラ撮影画像処理装置によれば、撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得手段と、前記領域情報取得手段が取得した前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶手段と、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得手段と、前記補正情報取得手段が取得した前記領域情報を用いて、前記撮影画像を補正する補正手段と、を有することによって、例えば、撮影画像を補正して、撮影画像上に前記領域を示す矩形を描いたファインダ画像を作成したり、撮影画像から前記領域を切り取ったファインダ画像を作成したりできるので、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることができる。   According to the camera-captured image processing device of the present invention, a region information acquisition unit that acquires region information related to a region observed through a finder at the time of shooting, and the region information acquired by the region information acquisition unit are identified as a shooting device. Correction information storage means for storing in the storage means in association with imaging apparatus identification information to be performed, and correction information acquisition for acquiring the area information from the storage means based on the imaging apparatus identification information associated with the captured image Means for correcting the captured image using the region information acquired by the correction information acquiring unit, for example, correcting the captured image to show the region on the captured image. You can create a finder image depicting a rectangle, or create a finder image by cutting out the area from the captured image, regardless of the individual difference of the camera, Can inform and shadow range, the relationship between the range seen in the viewfinder.

なお、カメラ撮影画像処理装置は、例えば、後述するコンピュータシステム、又はコンピュータシステムのプリンタ108及びデジタルカメラ110を含まない部分等に対応する。   Note that the camera-captured image processing apparatus corresponds to, for example, a computer system to be described later, or a part that does not include the printer 108 and the digital camera 110 of the computer system.

また、上記問題を解決するため、本発明は、カメラ撮影画像処理方法、カメラ撮影画像処理プログラム、及び記憶媒体としてもよい。   In order to solve the above problem, the present invention may be a camera-captured image processing method, a camera-captured image processing program, and a storage medium.

本発明によれば、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることができる。   According to the present invention, it is possible to notify the relationship between the captured range and the range viewed with the viewfinder regardless of the individual differences of the cameras.

以下、本発明の実施例について図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、コンピュータシステム(コンピュータ)の構成を示すブロック図である。図1において、101は、CPUで、コンピュータシステム全体の制御を行っている。102は、キーボードで、102aのマウスと共に、操作者が、コンピュータシステムに情報を入力するのに使用する。103は、表示装置で、CRT(Cathode Ray Tube)や液晶等で構成される。104は、ROM(Read Only Memory)である。105は、RAM(Random Access Memory)である。ROM104及びRAM105は、システムの記憶装置を構成し、コンピュータシステムが実行するプログラムやコンピュータシステムが利用するデータを記憶する。   FIG. 1 is a block diagram showing a configuration of a computer system (computer). In FIG. 1, reference numeral 101 denotes a CPU which controls the entire computer system. Reference numeral 102 denotes a keyboard, which is used by an operator to input information to the computer system together with the mouse 102a. Reference numeral 103 denotes a display device which includes a CRT (Cathode Ray Tube), a liquid crystal, or the like. Reference numeral 104 denotes a ROM (Read Only Memory). Reference numeral 105 denotes a RAM (Random Access Memory). The ROM 104 and the RAM 105 constitute a system storage device, and store programs executed by the computer system and data used by the computer system.

106は、HDD(Hard Disk Drive)である。107は、リムーバブルディスクである。HDD106及びリムーバブルディスク107は、コンピュータシステムのファイルシステムに使用される外部記憶装置を構成している。108は、プリンタである。   Reference numeral 106 denotes an HDD (Hard Disk Drive). Reference numeral 107 denotes a removable disk. The HDD 106 and the removable disk 107 constitute an external storage device used for a file system of a computer system. Reference numeral 108 denotes a printer.

109は、ネットワークI/Fで、コンピュータシステムをLAN(Local Area Network)又はWAN(Wide Area Network)に接続している。コンピュータシステムは、ネットワークI/F109を通じてコンピュータプログラムやデジタル画像等のデータファイルを他のコンピュータシステムとやりとりする。プログラムやデータは、HDD106に記憶されたり、直接RAM105に展開され、CPU101によって実行されたりする。110は、デジタルカメラ(デジタル一眼レフカメラ)である。デジタルカメラ110内に保存されている撮影画像、又はデジタルカメラ110で撮影された撮影画像は、RAM105、HDD106、リムーバブルディスク107に保存される。   Reference numeral 109 denotes a network I / F that connects the computer system to a LAN (Local Area Network) or a WAN (Wide Area Network). The computer system exchanges data files such as computer programs and digital images with other computer systems through the network I / F 109. Programs and data are stored in the HDD 106 or directly expanded in the RAM 105 and executed by the CPU 101. Reference numeral 110 denotes a digital camera (digital single-lens reflex camera). A captured image stored in the digital camera 110 or a captured image captured by the digital camera 110 is stored in the RAM 105, HDD 106, and removable disk 107.

図2は、デジタルカメラの簡略図である。図2において、201は、撮像素子上に画像を投影するカメラのレンズである。202は、撮像素子に画像を写すときに破線で示すように跳ね上げられるミラーである。203は、画像が写される撮像素子(CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)センサー)である。204は、ファインダに光を導くためのペンタプリズムである。205は、カメラのレンズ201に入射した画像をモニタするためのファインダである。206は、撮像素子に写る画像をモニタするLCDである。   FIG. 2 is a simplified diagram of a digital camera. In FIG. 2, reference numeral 201 denotes a camera lens that projects an image on an image sensor. Reference numeral 202 denotes a mirror that is flipped up as shown by a broken line when an image is captured on the image sensor. Reference numeral 203 denotes an image sensor (CCD (Charge Coupled Devices) or CMOS (Complementary Metal Oxide Semiconductor) sensor) on which an image is captured. Reference numeral 204 denotes a pentaprism for guiding light to the viewfinder. Reference numeral 205 denotes a viewfinder for monitoring an image incident on the lens 201 of the camera. Reference numeral 206 denotes an LCD that monitors an image captured on the image sensor.

図2に示すデジタルカメラを用いて画像を撮影するため、撮影者は、ファインダ205を見ながら画像の構図をモニタする。このとき、カメラレンズ201を通過した光は、ミラー202で反射されて、ペンタプリズム204に入射する。このペンタプリズム204内で反射された光は、ファインダ205から投射される。このファインダ205から投射された光を撮影者が見る事により、撮影する画像をモニタすることができる。撮影者がシャッターを押すとミラー202が跳ね上げられて、カメラレンズ201を通過した光は、ミラー202で反射される事なく、撮像素子面へ投射され、画像データとして保存される。   In order to take an image using the digital camera shown in FIG. 2, the photographer monitors the composition of the image while looking at the viewfinder 205. At this time, the light passing through the camera lens 201 is reflected by the mirror 202 and enters the pentaprism 204. The light reflected in the pentaprism 204 is projected from the viewfinder 205. When the photographer views the light projected from the finder 205, the image to be photographed can be monitored. When the photographer presses the shutter, the mirror 202 is flipped up, and the light that has passed through the camera lens 201 is projected to the image sensor surface without being reflected by the mirror 202 and stored as image data.

図3は、デジタルカメラで撮影された画像の一例を示す図である。この図において、実線枠で囲まれた領域は撮影された画像の全範囲であり、以下、撮影範囲と呼ぶ。破線枠で囲まれた領域は、撮影時に図2のファインダ205を通して見えた領域であり、以下、ファインダ領域と呼ぶ。多くの場合、ファインダ領域は撮影範囲よりも狭い。   FIG. 3 is a diagram illustrating an example of an image captured by a digital camera. In this figure, the area surrounded by the solid line frame is the entire range of the captured image, and is hereinafter referred to as the imaging range. A region surrounded by a broken line frame is a region seen through the finder 205 in FIG. 2 at the time of shooting, and is hereinafter referred to as a finder region. In many cases, the finder area is narrower than the shooting range.

なお、図3(A)は、ファインダ領域が撮影範囲に対して傾いていない一例を示す図である。また、図3(B)は、ファインダ領域が撮影範囲に対して傾いている一例を示す図である。   FIG. 3A shows an example in which the finder area is not inclined with respect to the imaging range. FIG. 3B is a diagram illustrating an example in which the finder area is inclined with respect to the imaging range.

図4は、本実施例で用いられるデータ等の一例を示す図である。図4において、401は、デジタルカメラである。402は、デジタルカメラ401を特定するカメラIDであり、カメラの機種名やボディナンバー等で表す。403は、デジタルカメラ401で撮影された画像データ(撮影画像)である。404は、デジタルカメラ401から出力されるファイルであり、カメラID402と、撮影画像403とを含む。   FIG. 4 is a diagram illustrating an example of data used in the present embodiment. In FIG. 4, 401 is a digital camera. Reference numeral 402 denotes a camera ID for identifying the digital camera 401, which is represented by a camera model name, body number, or the like. Reference numeral 403 denotes image data (captured image) captured by the digital camera 401. A file 404 output from the digital camera 401 includes a camera ID 402 and a captured image 403.

405は、撮影画像403におけるファインダ領域の位置や大きさを表す情報であり、領域情報と呼ぶ。406は、撮影画像403におけるファインダ領域の傾きを表す情報であり、傾き情報と呼ぶ。407は、領域情報405と、傾き情報406とを含む補正情報が、カメラID402と対応付けて保存されるデータベースである。補正情報データベース407は、HDD106に保存されるか、又はI/F109を通じて他のコンピュータに保存される。408は、デジタルカメラ401で撮影し、撮影画像403から、領域情報405や傾き情報406を取得するのに用いられる評価用のオブジェクト(評価オブジェクト)である。409は、撮影時にファインダを通してモニタした画像を、撮影画像403を基に再現・作成したファインダ画像である。   Reference numeral 405 denotes information representing the position and size of the finder area in the captured image 403, and is referred to as area information. Reference numeral 406 denotes information representing the inclination of the finder region in the captured image 403, and is referred to as inclination information. Reference numeral 407 denotes a database in which correction information including area information 405 and tilt information 406 is stored in association with the camera ID 402. The correction information database 407 is stored in the HDD 106 or stored in another computer through the I / F 109. Reference numeral 408 denotes an evaluation object (evaluation object) that is used to acquire the region information 405 and the tilt information 406 from the captured image 403 by shooting with the digital camera 401. Reference numeral 409 denotes a finder image obtained by reproducing and creating an image monitored through the finder at the time of photographing based on the photographed image 403.

以下、図5から図9までを参照して、図3(A)のようにファインダ領域が撮影範囲に対して傾いていない場合の、領域情報405の取得方法について説明する。   Hereinafter, with reference to FIG. 5 to FIG. 9, a method of acquiring the region information 405 when the finder region is not inclined with respect to the imaging range as illustrated in FIG. 3A will be described.

図5は、領域情報405を作成し、補正情報データベース407へ保存するコンピュータシステムを用いた処理の一例を示すフローチャートである。   FIG. 5 is a flowchart illustrating an example of processing using a computer system that creates the region information 405 and stores it in the correction information database 407.

ステップS501では、領域情報405を得るのに用いる評価オブジェクト408を作成する。作成された評価オブジェクト408の一例を、図6(A)に示す。本実施例において、ファインダ領域を評価するのに用いられる評価オブジェクト408は、長方形の白紙の中心に、単色で塗りつぶされた矩形が描かれたものであり、また白紙は撮影範囲よりも十分に大きいものとする。   In step S501, an evaluation object 408 used to obtain the area information 405 is created. An example of the created evaluation object 408 is shown in FIG. In this embodiment, the evaluation object 408 used for evaluating the finder region is a rectangle in which a solid rectangle is drawn at the center of a rectangular blank sheet, and the blank sheet is sufficiently larger than the shooting range. Shall.

図6(A)において、破線枠で囲まれた領域Vは、オブジェクトの全範囲である。単色で塗りつぶされた矩形Rは、領域Vの中心に描かれ、各辺が領域Vの対応する辺と平行になっている。更に、矩形Rのアスペクト比は、ファインダ領域のアスペクト比と同一になるようになっている。   In FIG. 6A, a region V surrounded by a broken line frame is the entire range of the object. A rectangle R filled with a single color is drawn at the center of the region V, and each side is parallel to a corresponding side of the region V. Further, the aspect ratio of the rectangle R is the same as the aspect ratio of the finder area.

ステップS502では、ステップS501で作成した評価オブジェクト408を、デジタルカメラ401で撮影する。なお、例えば撮影者は、ステップS501において作成された評価オブジェクト408を、地面に対して垂直に固定する。また、例えば撮影者は、評価オブジェクト408を撮影するデジタルカメラ401を、ファインダ面が評価オブジェクト408と平行になるように三脚等で固定する。また、例えば撮影者は、ファインダ205を通して観察される領域と、評価オブジェクト408上の矩形Rと、が一致するように、デジタルカメラ401の高さや位置、傾き、レンズ201の倍率等を調節する。但し、例えば撮影者は、傾きは、ファインダ面が評価オブジェクト408の面と平行になる範囲で調節する。   In step S502, the evaluation object 408 created in step S501 is photographed with the digital camera 401. For example, the photographer fixes the evaluation object 408 created in step S501 perpendicular to the ground. For example, the photographer fixes the digital camera 401 that captures the evaluation object 408 with a tripod or the like so that the viewfinder surface is parallel to the evaluation object 408. In addition, for example, the photographer adjusts the height, position, inclination, and magnification of the lens 201 so that the region observed through the viewfinder 205 matches the rectangle R on the evaluation object 408. However, for example, the photographer adjusts the tilt within a range in which the finder surface is parallel to the surface of the evaluation object 408.

撮影した画像(評価オブジェクト408の撮影画像403)は、デジタルカメラ401のカメラID402と共に撮影ファイルとして、デジタルカメラ110内のメモリ、RAM105、HDD106、リムーバブルディスク107の何れかに保存する。   The photographed image (the photographed image 403 of the evaluation object 408) is stored in a memory in the digital camera 110, the RAM 105, the HDD 106, or the removable disk 107 as a photograph file together with the camera ID 402 of the digital camera 401.

図6(B)は、図6(A)に示す評価オブジェクト408の撮影画像403の一例を示す図である。図6(B)において、破線枠で囲まれる領域は撮影範囲である。また、単色で塗りつぶされた矩形R'は、図6(A)における矩形Rが撮影されたものであり、ファインダ領域に相当する。矩形R'の幅と、高さとは、それぞれWfピクセルと、Hfピクセルとである。また、矩形R'の左上端の点をP1とし、P1の位置は、撮影範囲の左上を始点として、水平方向x1ピクセル、垂直方向y1ピクセル進んだ点であるとする。 FIG. 6B is a diagram illustrating an example of the captured image 403 of the evaluation object 408 illustrated in FIG. In FIG. 6B, an area surrounded by a broken line frame is an imaging range. Also, a rectangle R ′ filled with a single color is a photograph of the rectangle R in FIG. 6A and corresponds to a finder region. The width and height of the rectangle R ′ are W f pixels and H f pixels, respectively. Also, the upper left end point of the rectangle R 'and P 1, the position of P 1, as a starting point at the upper left of the imaging range, to the horizontal direction x 1-pixel, and a point advanced vertical y 1 pixel.

ステップS503では、図6(B)に示す評価オブジェクト408の撮影画像403から、領域情報405として、x1、y1、Wf、Hfの各値を取得する。図7は、図6(B)の評価オブジェクト408の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系の一例を示す図である。図7に示される座標系において、撮影範囲の幅と、高さとはそれぞれxendと、yendとであるとする。また、矩形R'の四隅点の座標は、それぞれ(x1、y1)、(x2、y1)、(x1、y2)、(x2、y2)であるとする。なお、(x1、y1)は、図6(B)の点P1の座標に相当する。各値の取得方法の詳細については後述する。 In step S503, x 1 , y 1 , W f , and H f values are acquired as region information 405 from the captured image 403 of the evaluation object 408 shown in FIG. FIG. 7 is a diagram showing an example of a coordinate system for the captured image 403 of the evaluation object 408 in FIG. 6B, where the upper left corner of the shooting range is the origin, the right direction is + x, and the downward direction is + y. . In the coordinate system shown in FIG. 7, it is assumed that the width and height of the imaging range are x end and y end , respectively. Further, the coordinates of the four corner points of the rectangle R ′ are (x 1 , y 1 ), (x 2 , y 1 ), (x 1 , y 2 ), and (x 2 , y 2 ), respectively. Note that (x 1 , y 1 ) corresponds to the coordinates of the point P 1 in FIG. Details of the method of acquiring each value will be described later.

ステップS504では、ステップS504で得られたx1、y1、Wf、Hfの値を、カメラID402と対応付けて、補正情報データベース407に保存する。x1、y1、Wf、Hfの値を、領域情報405とする。図8は、補正情報データベース407の一例を示す図(その1)である。 In step S504, the values of x 1 , y 1 , W f , and H f obtained in step S504 are stored in the correction information database 407 in association with the camera ID 402. The values of x 1 , y 1 , W f , and H f are set as region information 405. FIG. 8 is a diagram (part 1) illustrating an example of the correction information database 407.

(領域情報取得処理の説明)
図9のフローチャートに従って、x1、y1、Wf、Hfの各値を取得するコンピュータシステムを用いた処理について説明する。なお、評価オブジェクト408の撮影画像403は、画素の2次元配列としてアクセスでき、各画素の位置は、図7に示した座標系に準じるものとする。また、c(i、j)は、座標(i、j)の画素の色を表すものとする。
(Description of area information acquisition processing)
A process using a computer system that acquires values of x 1 , y 1 , W f , and H f will be described with reference to the flowchart of FIG. 9. Note that the captured image 403 of the evaluation object 408 can be accessed as a two-dimensional array of pixels, and the position of each pixel conforms to the coordinate system shown in FIG. Also, c (i, j) represents the color of the pixel at coordinates (i, j).

ステップS701では、x1に−1を代入する。ステップS702では、変数jに0を代入する。ステップS703では、変数iに0を代入する。 At step S701, the substitutes -1 x 1. In step S702, 0 is substituted for variable j. In step S703, 0 is substituted for variable i.

ステップS704では、座標(i、j)における画素の色と、座標(i−1、j)における画素の色とを比較する。コンピュータシステムは、座標(i、j)における画素の色と、座標(i−1、j)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きければステップS705へ進む。一方、座標(i、j)における画素の色と、座標(i−1、j)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きくなければステップS708へ進む。   In step S704, the color of the pixel at the coordinates (i, j) is compared with the color of the pixel at the coordinates (i-1, j). If the difference between the pixel color at the coordinates (i, j) and the pixel color at the coordinates (i−1, j) is larger than a predetermined threshold stored in the HDD 106 or the like, for example, The process proceeds to step S705. On the other hand, if the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i-1, j) is not larger than a predetermined threshold stored in the HDD 106, for example, The process proceeds to S708.

ステップS705では、x2に変数iの値を、y2に変数jの値を代入する。ステップS706では、x1が−1であるか否かの判定を行う。コンピュータシステムは、x1が−1であると判定すると、ステップS707へ進む。一方、x1が−1でないと判定すると、ステップS708へ進む。ここで、x1=−1とは、初めて矩形が現れたことを意味する。 At step S705, the value of the variable i to x 2, substitutes the value of variable j to y 2. At step S706, the it is determined whether x 1 is -1. The computer system determines that x 1 is -1, the operation proceeds to step S707. On the other hand, when x 1 is determined not -1, the process proceeds to step S 708. Here, x 1 = −1 means that a rectangle appears for the first time.

ステップS707では、x1に変数iの値を、y1に変数jの値を代入する。ステップS708では、変数iの値を1だけインクリメントする。 At step S707, the value of the variable i to x 1, substitutes the value of variable j to y 1. In step S708, the value of variable i is incremented by one.

ステップS709では、変数iの値と、xendとを比較する。コンピュータシステムは、変数iの値がxendより大きいと、ステップS710に進み、変数iの値がxendより大きくないと、ステップS704へ進む。 In step S709, the value of the variable i is compared with xend . Computer system, and the value of the variable i is greater than x end The, the process proceeds to step S710, the value of the variable i is not greater than x end The, the process proceeds to step S704.

ステップS710では、変数jの値を1だけインクリメントする。ステップS711では、jの値と、yendとを比較する。jの値がyendより大きいと、ステップS712に進み、jの値がyendより大きくないと、ステップS703へ進む。 In step S710, the value of variable j is incremented by one. In step S711, the value of j is compared with y end . If the value of j is larger than y end , the process proceeds to step S712. If the value of j is not larger than y end , the process proceeds to step S703.

ステップS712では、Wfにx2−x1の値を、Hfにy2−y1+1の値を代入し、その後、処理を完了する。 In step S712, the value x 2 −x 1 is substituted for W f and the value y 2 −y 1 +1 is substituted for H f , and then the process is completed.

次に、図10から図12までを参照して、領域情報405を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からコンピュータシステムを用いてファインダ画像409を作成する方法について説明する。   Next, referring to FIGS. 10 to 12, a method of creating a finder image 409 using a computer system from a captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) using region information 405. explain.

図10は、ファインダ画像409作成処理の一例を示すフローチャート(その1)である。ステップS1001では、撮影ファイル404を読み出し、RAM105に保存する。ステップS1002では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。   FIG. 10 is a flowchart (part 1) illustrating an example of the finder image 409 creation process. In step S <b> 1001, the shooting file 404 is read and stored in the RAM 105. In step S1002, the camera ID 402 in the shooting file 404 is acquired and stored in the RAM 105.

ステップS1003では、補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS1004へ進む。補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS1006へ進む。   In step S1003, it is confirmed whether or not there is information corresponding to the camera ID 402 in the correction information database 407. When there is information corresponding to the camera ID 402 in the correction information database 407, the process proceeds to step S1004. If there is no information corresponding to the camera ID 402 in the correction information database 407, the process proceeds to step S1006.

ステップS1004では、補正情報データベース407から、カメラID402に対応する領域情報405を取得し、RAM105に保存する。ステップS1005では、領域情報405を用いて撮影画像403(例えば、人物等を撮影した撮影画像403)から、ファインダ画像409を作成する。なお、撮影画像403(例えば、人物等を撮影した撮影画像403)から、ファインダ画像409を作成する詳細については、後述する。   In step S <b> 1004, area information 405 corresponding to the camera ID 402 is acquired from the correction information database 407 and stored in the RAM 105. In step S1005, a finder image 409 is created from the photographed image 403 (for example, the photographed image 403 obtained by photographing a person) using the region information 405. Details of creating the finder image 409 from the captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) will be described later.

ステップS1006では、ステップS1005で作成したファインダ画像409、或いはファインダ画像409及び撮影画像403(例えば、人物等を撮影した撮影画像403)を、表示部103又はプリンタ108で描画する。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。   In step S1006, the finder image 409 created in step S1005, or the finder image 409 and the photographed image 403 (for example, the photographed image 403 obtained by photographing a person or the like) is drawn by the display unit 103 or the printer. The finder image 409 may be stored in any of the RAM 105, the HDD 106, and the removable disk 107, or may be stored in another storage area connected via the network I / F 109.

(ファインダ画像作成処理の説明)
図11のフローチャートに従って、x1、y1、Wf、Hfの各値を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像を作成する処理について説明する。なお、撮影画像403(例えば、人物等を撮影した撮影画像403)は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi番目、垂直方向にj番目の画素をp(i、j)とする。また、Wfピクセル×Hfピクセルの領域を、RAM105上に確保し、前記領域を白色で塗りつぶすものとする。この白色で塗りつぶされた領域をファインダ画像とする。ファインダ画像は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi'番目、垂直方向にj'番目の画素をp'(i'、j')とする。
(Description of viewfinder image creation processing)
A process of creating a finder image from a photographed image 403 (for example, a photographed image 403 obtained by photographing a person or the like) using each value of x 1 , y 1 , W f , and H f will be described with reference to the flowchart of FIG. Note that a captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) can be accessed as a two-dimensional array of pixels, and the i-th pixel in the horizontal direction and the j-th pixel in the vertical direction starting from the upper left are p (i, j ). Further, an area of W f pixels × H f pixels is secured on the RAM 105, and the area is filled with white. The area filled with white is defined as a finder image. The viewfinder image can be accessed as a two-dimensional array of pixels, and the top left is the i'th pixel in the horizontal direction and the j'th pixel in the vertical direction is p '(i', j ').

ステップS1101では、変数jにy1を代入する。ステップS1102では、変数iにx1を代入する。ステップS1103では、変数i'にi−x1を、変数j'にj−y1を代入する。その後、ファインダ画像の画素p'(i'、j')に、撮影画像403(例えば、人物等を撮影した撮影画像403)の画素p(i、j)の値をコピーする。 In step S1101, it substitutes y 1 to the variable j. In step S1102, substitutes x 1 to variable i. In step S1103, 'the i-x 1 to the variable j' variable i is substituted for j-y 1 in. Thereafter, the value of the pixel p (i, j) of the photographed image 403 (for example, the photographed image 403 obtained by photographing a person or the like) is copied to the pixel p ′ (i ′, j ′) of the finder image.

ステップS1104では、変数iの値を1だけインクリメントする。ステップS1105では、変数iの値と、x1+Wfとを比較する。変数iの値がx1+Wfより大きいと、ステップS1106へ進み、変数iの値がx1+Wfより大きくないと、ステップS1103へ進む。 In step S1104, the value of variable i is incremented by one. In step S1105, the value of the variable i is compared with x 1 + W f . If the value of the variable i is larger than x 1 + W f , the process proceeds to step S1106. If the value of the variable i is not larger than x 1 + W f , the process proceeds to step S1103.

ステップS1106では、変数jの値を1だけインクリメントする。ステップS1107では、コンピュータシステムは、変数jの値と、y1+Hfとを比較する。変数jの値がy1+Hfより大きいと、処理を終了し、変数jの値がy1+Hfより大きくないと、ステップS1102へ進む。 In step S1106, the value of variable j is incremented by one. In step S1107, the computer system compares the value of the variable j with y 1 + H f . And the value is greater than y 1 + H f of the variable j, and the process ends, the value of the variable j is not greater than y 1 + H f, the process proceeds to step S1102.

図11に示される処理の結果、ファインダ画像として、撮影画像403(例えば、人物等を撮影した撮影画像403)をファインダ領域で切り抜いた画像が得られる。なお、撮影画像403(例えば、人物等を撮影した撮影画像403)をファインダ領域で切り抜かず、領域部分が分かるように枠で囲んだり、マスクしたりしてもよい。そして、このようにして作成された画像を、ファインダ画像としてもよい。   As a result of the processing shown in FIG. 11, an image obtained by clipping a captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) in the finder region is obtained as a finder image. Note that the photographed image 403 (for example, a photographed image 403 obtained by photographing a person or the like) may be surrounded by a frame or masked so that the region portion can be seen without being cut out in the finder region. The image created in this way may be a finder image.

図12は、図11に示した処理の概念図である。図12(A)は、撮影画像403(例えば、人物等を撮影した撮影画像403)に対するファインダ領域の位置関係を示した図である。また、図12(B)は、領域部分が分かるように枠で囲んだ画像(ファインダ画像)である。   FIG. 12 is a conceptual diagram of the processing shown in FIG. FIG. 12A is a diagram showing the positional relationship of the finder region with respect to a captured image 403 (for example, a captured image 403 obtained by capturing a person or the like). FIG. 12B shows an image (finder image) surrounded by a frame so that the region portion can be seen.

実施例1の図3(B)に示したように、ファインダ領域が撮影範囲に対して傾いている場合がある。このように、ファインダ領域が撮影範囲に対して傾いている場合の、傾き情報406や、領域情報405の取得方法、撮影画像403(例えば、人物等を撮影した撮影画像403)からコンピュータシステムを用いてファインダ画像409を作成する方法について、以下実施例2において説明する。   As shown in FIG. 3B of the first embodiment, the finder region may be inclined with respect to the shooting range. As described above, when the finder area is tilted with respect to the shooting range, the computer system is used from the tilt information 406, the acquisition method of the area information 405, and the shot image 403 (for example, the shot image 403 obtained by shooting a person or the like). A method for creating the finder image 409 will be described below in the second embodiment.

まず、図13から図21までを参照して、図3(B)のようにファインダ領域が撮影範囲に対して傾いている場合の、領域情報405、傾き情報406の取得方法について説明する。   First, with reference to FIG. 13 to FIG. 21, a method for acquiring the area information 405 and the inclination information 406 when the finder area is inclined with respect to the imaging range as shown in FIG. 3B will be described.

図13は、傾き情報406、領域情報405を取得し、補正情報データベース407へ保存する処理の一例を示すフローチャートである。   FIG. 13 is a flowchart illustrating an example of processing for acquiring the tilt information 406 and the region information 405 and storing it in the correction information database 407.

ステップS1301では、傾き情報406を得るのに用いる評価オブジェクト408を作成する。作成された評価オブジェクト408の一例を、図14(A)に示す。本実施例において、傾きを評価するのに用いられる評価オブジェクト408は、長方形の白紙に、長方形の中心を通る水平線が描かれたものであり、また白紙は撮影範囲よりも十分に大きいものとする。   In step S1301, an evaluation object 408 used to obtain the tilt information 406 is created. An example of the created evaluation object 408 is shown in FIG. In this embodiment, the evaluation object 408 used for evaluating the inclination is a rectangular blank sheet in which a horizontal line passing through the center of the rectangle is drawn, and the blank sheet is sufficiently larger than the shooting range. .

図14(A)において、破線枠で囲まれた領域Vは、オブジェクトの全範囲である。直線Lhは、領域Vの長辺に平行になるように引かれた、水平線である。 In FIG. 14A, a region V surrounded by a broken line frame is the entire range of the object. The straight line L h is a horizontal line drawn so as to be parallel to the long side of the region V.

ステップS1302では、S1301で作成した評価オブジェクト408を、デジタルカメラ401で撮影する。なお、例えば撮影者は、評価オブジェクト408を、地面に対して垂直に固定する。また、例えば撮影者は、評価オブジェクト408を撮影するデジタルカメラ401を、ファインダ面が評価オブジェクト408と平行になるように三脚等で固定する。また、例えば撮影者は、ファインダ205を通して観察される領域に直線Lhが水平に写るように、デジタルカメラ401の高さや位置、傾き、レンズの倍率等を調節する。但し、例えば撮影者は、傾きは、ファインダ面が評価オブジェクト408の面と平行になる範囲で調節する。 In step S1302, the evaluation object 408 created in S1301 is photographed with the digital camera 401. For example, the photographer fixes the evaluation object 408 perpendicular to the ground. For example, the photographer fixes the digital camera 401 that captures the evaluation object 408 with a tripod or the like so that the viewfinder surface is parallel to the evaluation object 408. Further, for example, the photographer, as the straight line L h in the area to be observed through the viewfinder 205 is caught on the horizontal, the height and position of the digital camera 401, tilt, adjusts the magnification or the like of the lens. However, for example, the photographer adjusts the tilt within a range in which the finder surface is parallel to the surface of the evaluation object 408.

撮影した画像(評価オブジェクト408の撮影画像403)を、デジタルカメラ401のカメラID402と共に撮影ファイルとして、デジタルカメラ110内のメモリ、RAM105、HDD106、リムーバブルディスク107の何れかに保存する。   The captured image (the captured image 403 of the evaluation object 408) is stored as a captured file together with the camera ID 402 of the digital camera 401 in any of the memory in the digital camera 110, the RAM 105, the HDD 106, and the removable disk 107.

図14(B)は、図14(A)に示す評価オブジェクト408の撮影画像403の一例を示す図である。図14(B)において、破線枠で囲まれる領域は撮影範囲である。また、直線Lh'は、図14(A)の直線Lhが撮影された直線であり、水平線に対してθ°傾いている。θは、図で時計回り方向を正とし、−90〜+90の範囲で、度を単位として表す。 FIG. 14B is a diagram illustrating an example of the captured image 403 of the evaluation object 408 illustrated in FIG. In FIG. 14B, an area surrounded by a broken line frame is an imaging range. A straight line L h ′ is a straight line obtained by photographing the straight line L h in FIG. 14A and is inclined by θ ° with respect to the horizontal line. θ is expressed in units of degrees in the range of −90 to +90 with the clockwise direction being positive in the figure.

ステップS1303では、図14(B)に示す評価オブジェクト408の撮影画像403から、傾き情報406として、θの値を取得する。図15は、図14(B)の評価オブジェクト408の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系の一例を示す図である。ここで、撮影範囲の幅と、高さとは、それぞれxend、yendであるとする。また、直線Lh'と、y軸との交点のy座標をyr1、Lh'と、x=xendの線との交点のy座標をyr2とする。図15(A)は、θが正の場合の座標系の一例を示す図である。また、図15(B)は、θが負の場合の座標系の一例を示す図である。θの取得方法の詳細については後述する。 In step S1303, the value of θ is acquired as the tilt information 406 from the captured image 403 of the evaluation object 408 shown in FIG. FIG. 15 is a diagram showing an example of a coordinate system for the captured image 403 of the evaluation object 408 in FIG. 14B, where the upper left corner of the shooting range is the origin, the right direction is + x, and the downward direction is + y. . Here, it is assumed that the width and height of the shooting range are x end and y end , respectively. Further, the y coordinate of the intersection of the straight line L h ′ and the y axis is y r1 , and the y coordinate of the intersection of L h ′ and the line x = x end is y r2 . FIG. 15A is a diagram illustrating an example of a coordinate system when θ is positive. FIG. 15B is a diagram illustrating an example of a coordinate system when θ is negative. Details of the method of obtaining θ will be described later.

ステップS1304及びS1305では、領域情報405を得るのに用いる評価オブジェクト408の作成及び撮影を行う。なお、ステップS1304及びS1305の処理は、図5のステップS501及びステップS502で説明した処理と同様である。作成された評価オブジェクト408の一例を、図16(A)に示す。図16(B)は、図16(A)に示す評価オブジェクト408の撮影画像403の一例を示す図である。図16(B)において、破線枠で囲まれる領域は撮影範囲である。単色で塗りつぶされた矩形R'は、図16(A)における矩形Rが撮影されたものであり、ファインダ領域に相当する。矩形R'の幅と、高さとは、それぞれWfピクセルと、Hfピクセルとである。また、矩形R'の左上端の点をP1とし、P1の位置は、撮影範囲の左上を始点として、水平方向x1ピクセル、垂直方向y1ピクセル進んだ点であるとする。更に、図16(B)では、ファインダ領域の撮影範囲に対する傾きをθで表している。 In steps S1304 and S1305, the evaluation object 408 used to obtain the region information 405 is created and photographed. Note that the processing in steps S1304 and S1305 is the same as the processing described in steps S501 and S502 in FIG. An example of the created evaluation object 408 is shown in FIG. FIG. 16B is a diagram illustrating an example of the captured image 403 of the evaluation object 408 illustrated in FIG. In FIG. 16B, an area surrounded by a broken line frame is an imaging range. A rectangle R ′ filled with a single color is obtained by photographing the rectangle R in FIG. 16A and corresponds to a finder region. The width and height of the rectangle R ′ are W f pixels and H f pixels, respectively. Also, the upper left end point of the rectangle R 'and P 1, the position of P 1, as a starting point at the upper left of the imaging range, to the horizontal direction x 1-pixel, and a point advanced vertical y 1 pixel. Further, in FIG. 16B, the inclination of the finder area with respect to the photographing range is represented by θ.

ステップS1306では、図16(B)に示す評価オブジェクト408の撮影画像403を、ステップS1303において取得した傾き情報に基づいて、ファインダ領域が水平になるように、回転させる。図17(A)、図18(A)は、図16(B)の評価オブジェクト408の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系を示す図である。図17はθが正である場合の座標系の一例を示す図である。また、図18は、θが負である場合の座標系の一例を示す図である。図17及び図18に示される座標系において、撮影範囲の幅と、高さとは、それぞれxendと、yendとであるとする。また、矩形R'の四隅点の座標は、それぞれ(x1、y1)、(x2、y1)、(x1、y2)、(x2、y2)であるとする。なお、(x1、y1)は、図16の点P1の座標に相当する。 In step S1306, the captured image 403 of the evaluation object 408 shown in FIG. 16B is rotated so that the finder region is horizontal based on the tilt information acquired in step S1303. FIGS. 17A and 18A show the photographed image 403 of the evaluation object 408 in FIG. 16B with the upper left corner of the photographing range as the origin, the right direction from the origin as + x, and the downward direction as + y. It is a figure which shows a coordinate system. FIG. 17 is a diagram illustrating an example of a coordinate system when θ is positive. FIG. 18 is a diagram illustrating an example of a coordinate system when θ is negative. In the coordinate systems shown in FIG. 17 and FIG. 18, the width and height of the imaging range are x end and y end , respectively. Further, the coordinates of the four corner points of the rectangle R ′ are (x 1 , y 1 ), (x 2 , y 1 ), (x 1 , y 2 ), and (x 2 , y 2 ), respectively. Note that (x 1 , y 1 ) corresponds to the coordinates of the point P1 in FIG.

また、図17(B)、図18(B)は、それぞれ図17(A)、図18(A)で示す座標系において、評価オブジェクト408の撮影画像403をθ度回転させた一例を示す図である。図17(B)、図18(B)において、実線枠で囲まれた領域は、回転させた撮影範囲がちょうど収まり、且つ、各辺がファインダ領域の対応する辺と平行となるように矩形を描いたものである。以下、この領域を傾き補正領域と呼ぶ。コンピュータシステムは、傾き補正領域内の、ファインダ領域以外の画素を全て白色にした画像を作成し、RAM105に保存する。以下、この画像を傾き補正画像と呼ぶ。ここで、傾き補正領域の左上端を原点とし、原点から右方向を+x'、下方向を+y'とする座標系を考える。図17(B)、図18(B)のx1'、y1'、x2'、y2'、xend'、yend'は、それぞれ図17(A)、図18(A)のxy平面におけるx1、y1、x2、y2、xend、yendに対応する、x'y'平面上の点である。撮影画像403の回転方法の詳細は、後述する。 FIGS. 17B and 18B are diagrams showing examples in which the captured image 403 of the evaluation object 408 is rotated by θ degrees in the coordinate systems shown in FIGS. 17A and 18A, respectively. It is. In FIGS. 17B and 18B, the area surrounded by the solid line frame is a rectangle so that the rotated imaging range is just within the range and each side is parallel to the corresponding side of the finder area. It is drawn. Hereinafter, this area is referred to as an inclination correction area. The computer system creates an image in which all pixels in the tilt correction area other than the viewfinder area are white, and stores the image in the RAM 105. Hereinafter, this image is referred to as an inclination corrected image. Here, consider a coordinate system in which the upper left corner of the tilt correction area is the origin, the right direction from the origin is + x ′, and the downward direction is + y ′. In FIG. 17B and FIG. 18B, x 1 ′, y 1 ′, x 2 ′, y 2 ′, x end ′, and y end ′ are the same as those in FIG. 17A and FIG. Points on the x′y ′ plane corresponding to x 1 , y 1 , x 2 , y 2 , x end , y end in the xy plane. Details of the method of rotating the captured image 403 will be described later.

ステップS1307では、ステップS1306で作成した傾き補正画像から、領域情報405として、傾き補正領域内のファインダ領域の位置、大きさを取得する。なお、コンピュータシステムは、実施例1の図9に示した処理を行い、傾き補正画像から、領域情報405として、傾き補正領域内のファインダ領域の位置、大きさを取得する。   In step S1307, the position and size of the finder area in the inclination correction area are acquired as area information 405 from the inclination correction image created in step S1306. The computer system performs the processing shown in FIG. 9 of the first embodiment, and acquires the position and size of the finder region in the tilt correction region as the region information 405 from the tilt correction image.

ステップS1308では、ステップS1303において取得した傾き情報406と、ステップS1307で取得した領域情報405とを、カメラID402と対応付けて、補正情報データベース407に保存する。図19は、補正情報データベース407の一例を示す図(その2)である。   In step S1308, the inclination information 406 acquired in step S1303 and the area information 405 acquired in step S1307 are stored in the correction information database 407 in association with the camera ID 402. FIG. 19 is a diagram (part 2) illustrating an example of the correction information database 407.

(傾き情報取得処理の説明)
図20のフローチャートに従って、θの値を取得するコンピュータシステムを用いた処理について説明する。なお、評価オブジェクト408の撮影画像403は、画素の2次元配列としてアクセスでき、各画素の位置は、図15の座標系に準じるものとする。また、c(i、j)は、座標(i、j)の画素の色を表すものとする。ステップS1501では、コンピュータシステムは、変数jに0を代入する。
(Explanation of tilt information acquisition processing)
Processing using a computer system that acquires the value of θ will be described with reference to the flowchart of FIG. Note that the captured image 403 of the evaluation object 408 can be accessed as a two-dimensional array of pixels, and the position of each pixel conforms to the coordinate system of FIG. Also, c (i, j) represents the color of the pixel at coordinates (i, j). In step S1501, the computer system substitutes 0 for a variable j.

ステップS1502では、変数iに0を代入する。ステップS1503では、座標(i、j)における画素の色と、座標(i、j−1)における画素の色とを比較する。座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きければステップS1504へ進む。一方、座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きくなければステップS1505へ進む。   In step S1502, 0 is substituted for variable i. In step S1503, the color of the pixel at the coordinates (i, j) is compared with the color of the pixel at the coordinates (i, j-1). If the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i, j−1) is larger than a predetermined threshold stored in the HDD 106, for example, the process proceeds to step S1504. . On the other hand, if the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i, j−1) is not larger than a predetermined threshold stored in the HDD 106 or the like, for example. The process proceeds to S1505.

ステップS1504では、yr1に変数jの値を代入する。このときのyr1が、図15における線Lh'と、y軸との交点のy座標である。 In step S1504, it substitutes the value of variable j to y r1. Y r1 at this time is the y coordinate of the intersection of the line L h ′ in FIG. 15 and the y axis.

ステップS1505では、変数iにxendを代入する。ステップS1506では、座標(i、j)における画素の色と、座標(i、j−1)における画素の色とを比較する。コンピュータシステムは、座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きければステップS1507へ進む。一方、座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きくなければ、ステップS1508へ進む。 In step S1505, x end is substituted for variable i. In step S1506, the color of the pixel at the coordinates (i, j) is compared with the color of the pixel at the coordinates (i, j-1). If the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i, j−1) is larger than a predetermined threshold stored in the HDD 106 or the like, for example, The process proceeds to step S1507. On the other hand, if the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i, j−1) is not greater than a predetermined threshold stored in the HDD 106, for example, The process proceeds to step S1508.

ステップS1507では、yr2に変数jの値を代入する。このときのyr2が、図15における線Lh'と、x=xendの線との交点のy座標である。 In step S1507, it substitutes the value of variable j to y r2. Y r2 at this time is the y coordinate of the intersection of the line L h ′ in FIG. 15 and the line x = x end .

ステップS1508では、変数jの値を1だけインクリメントする。ステップS1509では、変数jの値と、yendとを比較する。コンピュータシステムは、変数jの値がyendより大きいとステップS1510へ進み、変数jの値がendより大きくないとステップS1502へ進む。 In step S1508, the value of variable j is incremented by one. In step S1509, the value of variable j is compared with y end . Computer system, the value of the variable j advances to y end The larger the step S1510, the value of the variable j is advanced to step S1502 when not greater than end The.

ステップS1510では、θの値を式θ←atan(xend/|yr2−yr1|)で計算し、計算した結果をθに代入する。 In step S1510, the value of θ is calculated by the equation θ ← atan (x end / | y r2 −y r1 |), and the calculated result is substituted into θ.

ステップS1511では、yr1と、yr2との比較を行う。yr2がyr1より大きいとステップS1512へ進み、yr2がyr1より大きくないと処理を終了する。ステップS1511では、yr1と、yr2との位置関係からθの正負を確認している。 In step S1511, y r1 and y r2 are compared. If y r2 is greater than y r1 , the process proceeds to step S1512. If y r2 is not greater than y r1 , the process ends. In step S1511, the y r1, and check the polarity of θ from the positional relationship between the y r2.

ステップS1512では、θの値をマイナスにし、処理を終了する。   In step S1512, the value of θ is set to minus, and the process ends.

(評価オブジェクト408の撮影画像403の回転処理の説明)
図21のフローチャートに従って、傾き情報406(θの値)を用いて、図17(A)、図18(A)に示した評価オブジェクト408の撮影画像403を回転させるコンピュータシステムを用いた処理について説明する。なお、評価オブジェクト408の撮影画像403は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi番目、垂直方向にj番目の画素をp(i、j)とする。また、各画素の位置は、図17(A)、図18(A)の座標系に準じるものとする。
(Description of Rotation Processing of Captured Image 403 of Evaluation Object 408)
A process using a computer system that rotates the captured image 403 of the evaluation object 408 shown in FIGS. 17A and 18A using the inclination information 406 (value of θ) according to the flowchart of FIG. 21 will be described. To do. Note that the captured image 403 of the evaluation object 408 can be accessed as a two-dimensional array of pixels, and the i-th pixel in the horizontal direction and the j-th pixel in the vertical direction starting from the upper left are p (i, j). In addition, the position of each pixel conforms to the coordinate system of FIGS. 17A and 18A.

また、xend'ピクセル×yend'ピクセルの領域をRAM105上に確保し、前記領域を白色で塗りつぶすものとする。この白色で塗りつぶされた領域を傾き補正画像とする。傾き補正画像は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi'番目、垂直方向にj'番目の画素をp'(i'、j')とする。なお、各画素の位置は図17(B)、図18(B)の座標系に準じるものとする。 Further, an area of x end ′ pixels × y end ′ pixels is secured on the RAM 105, and the area is filled with white. The area filled with white is used as an inclination correction image. The tilt-corrected image can be accessed as a two-dimensional array of pixels, and the top left is the i'th pixel in the horizontal direction and the j'th pixel in the vertical direction is p '(i', j '). Note that the position of each pixel conforms to the coordinate system of FIGS. 17B and 18B.

ステップS1801では、θの値が0か否かを確認する。θの値が0であれば、処理を終了し、θの値が0でなければステップS1802に進む。   In step S1801, it is confirmed whether or not the value of θ is zero. If the value of θ is 0, the process is terminated, and if the value of θ is not 0, the process proceeds to step S1802.

ステップS1802では、変数jに0を代入する。ステップS1803では、変数iに0を代入する。ステップS1804では、θの正負を確認する。θが正であれば、ステップS1805へ進み、θが負であれば、ステップS1807へ進む。   In step S1802, 0 is substituted for variable j. In step S1803, 0 is substituted for variable i. In step S1804, the sign of θ is confirmed. If θ is positive, the process proceeds to step S1805, and if θ is negative, the process proceeds to step S1807.

ステップS1805では、式(i'=icosθ+jsinθ、j'=−isinθ+jcosθ)により、変数i'、j'に(i、j)の座標をθ度回転した値を代入する。ステップS1806では、式(i'=i'+yendsinθ、j'=j')により、変数i'、j'に(i、j)の座標を平行移動した値を代入する。 In step S1805, a value obtained by rotating the coordinates of (i, j) by θ degrees is substituted into variables i ′ and j ′ by the equation (i ′ = icos θ + jsin θ, j ′ = − isin θ + jcos θ). In step S1806, the value obtained by translating the coordinates of (i, j) is substituted into variables i ′ and j ′ by the equation (i ′ = i ′ + y end sin θ, j ′ = j ′).

一方、ステップS1807では、式(i'=icosθ−jsinθ、j'=isinθ+jcosθ)により、変数i'、j'に(i、j)の座標をθ度回転した値を代入する。ステップS1808では、式(i'=i'、j'=j'+xendsinθ)により、変数i'、j'に(i、j)の座標を平行移動した値を代入する。 On the other hand, in step S1807, a value obtained by rotating the coordinates of (i, j) by θ degrees is substituted into variables i ′ and j ′ by the equation (i ′ = icos θ−jsin θ, j ′ = isin θ + jcos θ). In step S1808, a value obtained by translating the coordinates of (i, j) is substituted into variables i ′ and j ′ by the equation (i ′ = i ′, j ′ = j ′ + x end sin θ).

ステップS1809では、傾き補正画像の画素p'(i'、j')に、評価オブジェクト408の撮影画像403の画素p(i、j)の値をコピーする。   In step S1809, the value of the pixel p (i, j) of the captured image 403 of the evaluation object 408 is copied to the pixel p ′ (i ′, j ′) of the tilt correction image.

ステップS1810では、変数iの値を1だけインクリメントする。ステップS1811では、変数iの値と、xendとの比較を行う。変数iの値がxendより大きいとステップS1812へ進み、変数iの値がxendより大きくなければステップS1804へ進む。 In step S1810, the value of variable i is incremented by one. In step S1811, carried out the value of the variable i, the comparison with the x end The. If the value of variable i is greater than x end , the process proceeds to step S1812, and if the value of variable i is not greater than x end , the process proceeds to step S1804.

ステップS1812では、変数jの値を1だけインクリメントする。ステップS1813では、変数jの値と、yendとの比較を行う。変数jの値がyendより大きいと処理を終了し、変数jの値がyendより大きくなければステップS1803へ進む。 In step S1812, the value of variable j is incremented by one. In step S1813, the value of variable j is compared with y end . The value of the variable j is finished processing a larger y end The, the value of the variable j is advanced to step S1803 to be greater than y end The.

図21に示される処理の結果、傾き補正画像が得られる。傾き補正画像をRAM105上に保存し、その後の処理に用いる。   As a result of the processing shown in FIG. 21, an inclination-corrected image is obtained. The tilt-corrected image is stored on the RAM 105 and used for subsequent processing.

次に、図22から図23までを参照して、傾き情報406及び領域情報405を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からコンピュータシステムを用いてファインダ画像409を作成する方法について説明する。   Next, referring to FIG. 22 to FIG. 23, using the tilt information 406 and the region information 405, a finder image 409 is obtained from a photographed image 403 (for example, a photographed image 403 obtained by photographing a person or the like) using a computer system. A method of creating will be described.

図22は、ファインダ画像409作成処理の一例を示すフローチャート(その2)である。ステップS2201では、撮影ファイル404を読み出し、RAM105に保存する。ステップS2202では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。   FIG. 22 is a flowchart (part 2) illustrating an example of the finder image 409 creation process. In step S2201, the shooting file 404 is read and stored in the RAM 105. In step S2202, the camera ID 402 in the shooting file 404 is acquired and stored in the RAM 105.

ステップS2203では、補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS2204へ進む。補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS2206へ進む。   In step S2203, it is confirmed whether or not there is information corresponding to the camera ID 402 in the correction information database 407. If there is information corresponding to the camera ID 402 in the correction information database 407, the process advances to step S2204. If there is no information corresponding to the camera ID 402 in the correction information database 407, the process advances to step S2206.

ステップS2204では、補正情報データベース407から、カメラID402に対応する傾き情報406を取得し、RAM105に保存する。ステップS2205では、図21に示したような処理を行い、傾き情報406を用いて評価オブジェクト408の撮影画像403から、傾き補正画像を作成する。   In step S <b> 2204, the tilt information 406 corresponding to the camera ID 402 is acquired from the correction information database 407 and stored in the RAM 105. In step S2205, processing as shown in FIG. 21 is performed, and an inclination correction image is created from the captured image 403 of the evaluation object 408 using the inclination information 406.

ステップS2206では、補正情報データベース407から、カメラID402に対応する領域情報405を取得し、RAM105に保存する。ステップS2207では、図11に示したような処理を行い、領域情報405を用いて、ステップS2205において作成した傾き補正画像から、ファインダ画像409を作成する。   In step S 2206, area information 405 corresponding to the camera ID 402 is acquired from the correction information database 407 and stored in the RAM 105. In step S2207, processing as shown in FIG. 11 is performed, and a finder image 409 is created from the tilt-corrected image created in step S2205 using the region information 405.

ステップS2208では、ステップS2207で作成したファインダ画像409を、表示部103又はプリンタ108で描画する。なお、コンピュータシステムは、ファインダ画像409と共に、ステップS2201で読み込んだ撮影画像403(例えば、人物等を撮影した撮影画像403)を、表示部103又はプリンタ108で描画するようにしてもよい。また、ファインダ画像409と共に、ステップS2205で作成した傾き補正画像を、表示部103又はプリンタ108で描画するようにしてもよい。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。   In step S2208, the finder image 409 created in step S2207 is drawn on the display unit 103 or the printer. Note that the computer system may draw the photographed image 403 read in step S2201 (for example, the photographed image 403 obtained by photographing a person) with the display unit 103 or the printer 108 together with the finder image 409. In addition to the viewfinder image 409, the tilt correction image created in step S2205 may be drawn by the display unit 103 or the printer. The finder image 409 may be stored in any of the RAM 105, the HDD 106, and the removable disk 107, or may be stored in another storage area connected via the network I / F 109.

図23は、図22に示した処理の概念図である。図23(A)は、撮影画像403(例えば、人物等を撮影した撮影画像403)に対するファインダ領域の位置関係を示した図である。また、図23(B)は、傾き補正画像を示した図である。また、図23(C)は、ファインダ画像を示した図である。   FIG. 23 is a conceptual diagram of the processing shown in FIG. FIG. 23A is a diagram illustrating a positional relationship of the finder region with respect to a captured image 403 (for example, a captured image 403 obtained by capturing a person or the like). FIG. 23B is a diagram showing an inclination correction image. FIG. 23C shows a viewfinder image.

前述した各実施例では、取得した領域情報405、傾き情報406を、補正情報データベース407へ保存するよう説明を行った。しかしながら、取得した領域情報405、傾き情報406を、補正情報データベース407に保存しなくてもよい。例えば、領域情報405、傾き情報406を領域情報405、傾き情報406は、補正情報データベース407とは別にHDD106へ保存してもよい。   In each of the above-described embodiments, the description has been made so that the acquired area information 405 and inclination information 406 are stored in the correction information database 407. However, the acquired area information 405 and inclination information 406 need not be stored in the correction information database 407. For example, the area information 405 and the inclination information 406 may be stored in the HDD 106 separately from the correction information database 407.

また、領域情報405、傾き情報406を保存するのではなく、評価オブジェクト408の撮影画像403を補正情報データベース407や、補正情報データベース407とは別にHDD106に保存するようにしてもよい。   Further, instead of storing the area information 405 and the inclination information 406, the captured image 403 of the evaluation object 408 may be stored in the HDD 106 separately from the correction information database 407 and the correction information database 407.

また、例えば操作者等からのファインダ画像409を作成する旨の指示を検出すると、評価オブジェクト408を用いて、領域情報405、傾き情報406を取得(生成)するようにしてもよい。   For example, when an instruction to create a finder image 409 from an operator or the like is detected, the area information 405 and the tilt information 406 may be acquired (generated) using the evaluation object 408.

以下、本実施例では、コンピュータシステムを用いて評価オブジェクト408の撮影画像403を、カメラID402と対応付けてHDD106へ保存する場合の処理について、図24から図26までを参照して説明する。   Hereinafter, in the present embodiment, a process when the captured image 403 of the evaluation object 408 is stored in the HDD 106 in association with the camera ID 402 using a computer system will be described with reference to FIGS. 24 to 26.

図24は、本実施例で用いられるデータ等の一例を示す図である。図24において、401から409は、図4に示した401から409と同様である。241は、傾き情報を取得するのに用いる評価オブジェクト(傾き評価オブジェクト)を撮影したファイル(傾き評価オブジェクト撮影ファイル)であり、カメラID402と、傾き評価オブジェクト撮影画像242とを含む。243は、領域情報を取得するのに用いる評価オブジェクト(領域評価オブジェクト)を撮影したファイル(領域評価オブジェクト撮影ファイル)であり、カメラID402と、領域評価オブジェクト撮影画像244とを含む。   FIG. 24 is a diagram illustrating an example of data used in the present embodiment. In FIG. 24, reference numerals 401 to 409 are the same as 401 to 409 shown in FIG. Reference numeral 241 denotes a file (tilt evaluation object shooting file) obtained by shooting an evaluation object (tilt evaluation object) used to acquire tilt information, and includes a camera ID 402 and a tilt evaluation object shot image 242. Reference numeral 243 denotes a file (region evaluation object shooting file) obtained by shooting an evaluation object (region evaluation object) used for acquiring region information, and includes a camera ID 402 and a region evaluation object shooting image 244.

図25は、領域評価オブジェクトと、傾き評価オブジェクトとを撮影し、傾き評価オブジェクト撮影画像242と、領域評価オブジェクト撮影画像244とをそれぞれカメラIDと共に保存する処理の一例を示すフローチャートである。   FIG. 25 is a flowchart illustrating an example of processing for capturing an area evaluation object and an inclination evaluation object and storing the inclination evaluation object captured image 242 and the area evaluation object captured image 244 together with the camera ID.

ステップS2501からステップS2502までにおいて、領域評価オブジェクトを作成し、領域評価オブジェクトをデジタルカメラ401で撮影し、領域評価オブジェクト撮影画像244を作成する。なお、ステップS2501からステップS2502までの処理は、図5のフローチャートのステップS501からステップS502までの処理と同様である。   In step S2501 to step S2502, a region evaluation object is created, the region evaluation object is photographed by the digital camera 401, and a region evaluation object photographed image 244 is created. Note that the processing from step S2501 to step S2502 is the same as the processing from step S501 to step S502 in the flowchart of FIG.

ステップS2503からステップS2504までにおいて、傾き評価オブジェクトを作成し、傾き評価オブジェクトをデジタルカメラ401で撮影し、傾き評価オブジェクト撮影画像242を作成する。なお、ステップS2503からステップS2504までの処理は、図13のフローチャートのステップS1301からステップS1302までの処理と同様である。   In steps S2503 to S2504, a tilt evaluation object is created, and the tilt evaluation object is photographed by the digital camera 401, and a tilt evaluation object photographed image 242 is created. Note that the processing from step S2503 to step S2504 is the same as the processing from step S1301 to step S1302 in the flowchart of FIG.

ステップS2505では、ステップS2502及びステップS2504で作成した傾き評価オブジェクト撮影画像242及び領域評価オブジェクト撮影画像244を、カメラID402と対応付けて、それぞれHDD106に保存する。なお、傾き評価オブジェクト撮影ファイル241及び領域評価オブジェクト撮影ファイル243を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよい。また、傾き評価オブジェクト撮影ファイル241及び領域評価オブジェクト撮影ファイル243を、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。   In step S2505, the tilt evaluation object captured image 242 and the area evaluation object captured image 244 created in steps S2502 and S2504 are stored in the HDD 106 in association with the camera ID 402, respectively. Note that the tilt evaluation object shooting file 241 and the area evaluation object shooting file 243 may be stored in any of the RAM 105, the HDD 106, and the removable disk 107. Further, the tilt evaluation object shooting file 241 and the area evaluation object shooting file 243 may be stored in another storage area connected via the network I / F 109.

図26は、傾き評価オブジェクト撮影ファイル241、領域評価オブジェクト撮影ファイル243を取得し、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成する処理の一例を示すフローチャートである。   FIG. 26 is a flowchart showing an example of processing for acquiring the tilt evaluation object shooting file 241 and the area evaluation object shooting file 243 and creating a finder image 409 from the shot image 403 (for example, a shot image 403 obtained by shooting a person or the like). is there.

ステップS2601では、撮影ファイル404を読み出し、RAM105に保存する。ステップS2602では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。   In step S2601, the shooting file 404 is read and stored in the RAM 105. In step S2602, the camera ID 402 in the shooting file 404 is acquired and stored in the RAM 105.

ステップS2603では、カメラID402に基づいて、HDD106から、傾き評価オブジェクト撮影ファイル241を取得し、RAM105へ保存する。   In step S 2603, the tilt evaluation object shooting file 241 is acquired from the HDD 106 based on the camera ID 402 and stored in the RAM 105.

ステップS2604では、図20に示したような処理を行い、取得した傾き評価オブジェクト撮影ファイル241に含まれる傾き評価オブジェクト撮影画像242を用いて、傾き情報406を取得する。   In step S2604, the processing shown in FIG. 20 is performed, and the tilt information 406 is acquired using the tilt evaluation object captured image 242 included in the acquired tilt evaluation object captured file 241.

ステップS2605では、カメラID402に基づいて、HDD106から、領域評価オブジェクト撮影ファイル243を取得し、RAM105へ保存する。   In step S 2605, the area evaluation object shooting file 243 is acquired from the HDD 106 based on the camera ID 402 and stored in the RAM 105.

ステップS2606では、図21に示したような処理を行い、取得した領域評価オブジェクト撮影ファイル243に含まれる領域評価オブジェクト撮影画像244を、取得した傾き情報406を用いて回転させ、傾き補正画像を作成する。   In step S2606, processing as shown in FIG. 21 is performed, and the region evaluation object captured image 244 included in the acquired region evaluation object shooting file 243 is rotated using the acquired tilt information 406 to create a tilt correction image. To do.

ステップS2607では、図9に示したような処理を行い、ステップS2606で作成した傾き補正画像を用いて、傾き補正領域内の領域情報405を取得する。   In step S2607, processing as shown in FIG. 9 is performed, and area information 405 in the inclination correction area is acquired using the inclination correction image created in step S2606.

ステップS2608からステップS2609では、傾き情報406及び領域情報405を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成、描画する。なお、ステップS2608からステップS2609までの処理は、図22のステップS2207からステップS2208までの処理と同様である。   In steps S2608 to S2609, a finder image 409 is created and drawn from the photographed image 403 (for example, the photographed image 403 obtained by photographing a person or the like) using the tilt information 406 and the region information 405. Note that the processing from step S2608 to step S2609 is the same as the processing from step S2207 to step S2208 in FIG.

領域情報405、傾き情報406は、デジタルカメラ401が使用される間に変化する可能性がある。そのため、定期的に領域情報405、傾き情報406を更新する必要があり、更に、領域情報405、傾き情報406の変化を予測できるようにすることが望ましい。以下、本実施例では、図27から図28までを参照して、コンピュータシステムを用いた領域情報405、傾き情報406の更新方法、変化の予測の方法について説明する。   The area information 405 and the tilt information 406 may change while the digital camera 401 is used. Therefore, it is necessary to periodically update the area information 405 and the inclination information 406, and it is desirable to be able to predict changes in the area information 405 and the inclination information 406. Hereinafter, in the present embodiment, a method for updating region information 405 and inclination information 406 and a method for predicting change using a computer system will be described with reference to FIGS. 27 to 28.

図27は、領域情報405及び傾き情報406を、カメラIDや、補正情報の更新日と対応付けて、補正情報データベース407に保存する一例を示す図である。図27において、C0は初期補正情報(つまり、領域情報405及び傾き情報406)であり、D0は初期補正情報C0が設定された日付である。同様に、Cnは、更新日Dnに更新された補正情報を表す。ここで、nは正の整数である。補正情報データベース407にデータ(情報)を追加するときは、必ず補正情報と、補正情報の更新日とをセットで、更新日で昇順になるように格納する。即ち、Dn-1<Dnが常に成り立つようにする。 FIG. 27 is a diagram illustrating an example of storing the area information 405 and the inclination information 406 in the correction information database 407 in association with the camera ID and the update date of the correction information. In FIG. 27, C 0 is initial correction information (that is, area information 405 and inclination information 406), and D 0 is a date when the initial correction information C 0 is set. Similarly, C n represents correction information updated on the update date D n . Here, n is a positive integer. When data (information) is added to the correction information database 407, the correction information and the update date of the correction information are always stored as a set and in ascending order of the update date. That is, D n-1 <D n is always satisfied.

図28は、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日の補正情報を予測し、予測した補正情報を基に、ファインダ画像309を得るまでの処理の一例を示すフローチャートである。   FIG. 28 shows an example of processing for predicting correction information on the date when a captured image 403 (for example, a captured image 403 obtained by capturing a person) is captured, and obtaining a finder image 309 based on the predicted correction information. It is a flowchart to show.

ステップS8501では、撮影ファイル404を読み出し、RAM105に保存する。ステップS8502では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。ステップS8503では、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS2804へ進む。一方、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS2820へ進む。   In step S8501, the shooting file 404 is read and stored in the RAM 105. In step S8502, the camera ID 402 in the shooting file 404 is acquired and stored in the RAM 105. In step S8503, it is confirmed whether or not there is information corresponding to the camera ID 402 in the correction information database 407 as shown in FIG. If there is information corresponding to the camera ID 402 in the correction information database 407 as shown in FIG. 27, the process proceeds to step S2804. On the other hand, if there is no information corresponding to the camera ID 402 in the correction information database 407 as shown in FIG. 27, the process proceeds to step S2820.

ステップS2804では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付を取得し、DmとしてRAM105に保存する。ステップS2805では、変数nに、図27に示したような補正情報データベース407に含まれる更新日及び補正情報のセット(又は更新日)の数から1を引いた値を代入する。 In step S2804, the date on which the captured image 403 (for example, the captured image 403 obtained by capturing a person) is captured is acquired and stored in the RAM 105 as Dm . In step S2805, a value obtained by subtracting 1 from the number of update dates and correction information sets (or update dates) included in the correction information database 407 as shown in FIG.

ステップS2806では、変数nの値が0か否かを確認する。変数nの値が0でない場合、ステップS2807へ進む。一方、変数nの値が0の場合、即ち、図27に示したような補正情報データベース407にC0及びD0しか格納されていない場合、ステップS2807へ進む。 In step S2806, it is confirmed whether or not the value of the variable n is 0. If the value of the variable n is not 0, the process proceeds to step S2807. On the other hand, if the value of the variable n is 0, that is, if only C 0 and D 0 are stored in the correction information database 407 as shown in FIG. 27, the process proceeds to step S2807.

ステップS2807では、変数kに0を代入する。ステップS2808では、変数kの値を1だけインクリメントする。ステップS2809では、変数kと、変数nの値とを比較する。変数kがnの値以上であれば、ステップS2811へ進む。一方、変数kがnの値以上でなければ、ステップS2810へ進む。   In step S2807, 0 is substituted for variable k. In step S2808, the value of the variable k is incremented by 1. In step S2809, the variable k is compared with the value of the variable n. If the variable k is greater than or equal to n, the process proceeds to step S2811. On the other hand, if the variable k is not greater than or equal to the value of n, the process proceeds to step S2810.

ステップS2810では、図27に示したような補正情報データベース407の、k番目に格納されている更新日Dkを取得し、取得したDkと、Dmとを比較する。Dm<Dkの場合、ステップS2814へ進み、Dm<Dkでない場合、ステップS2808へ進む。 In step S2810, the kth stored update date Dk of the correction information database 407 as shown in FIG. 27 is acquired, and the acquired Dk is compared with Dm . If D m <D k, the process proceeds to step S2814. If D m <D k is not satisfied, the process proceeds to step S2808.

ステップS2811では、図27に示したような補正情報データベース407の、n番目に格納されている更新日Dnと、補正情報Cnとを取得し、RAM105に保存する。ステップS2812では、図27に示したような補正情報データベース407の、n−1番目に格納されている更新日Dn-1と、補正情報Cn-1とを取得し、RAM105に保存する。このとき、Dn<Dmとなり、撮影画像403(例えば、人物等を撮影した撮影画像403)の撮影日(Dm)より後に追加された補正情報はない。したがって、Dn-1と、Dnとの間での補正情報の変化から、最終更新日Dn以降の補正情報の変化を予測する。 In step S2811, the nth update date D n and correction information C n stored in the correction information database 407 as shown in FIG. 27 are acquired and stored in the RAM 105. In step S2812, the update date Dn -1 stored in the (n-1) th and the correction information Cn -1 in the correction information database 407 as shown in FIG. 27 are acquired and stored in the RAM 105. At this time, D n <D m , and there is no correction information added after the shooting date (D m ) of the shot image 403 (for example, a shot image 403 obtained by shooting a person or the like). Therefore, the change of the correction information after the last update date D n is predicted from the change of the correction information between D n−1 and D n .

ステップS2813では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付Dmにおける補正情報Cmを次の式で求め、RAM105に保存する。
m=Cn+(Dm−Dn)×(Cn−Cn-1)/(Dn−Dn-1
In step S2813, correction information C m on the date D m when the captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) is captured is obtained by the following equation and stored in the RAM 105.
C m = C n + (D m -D n) × (C n -C n-1) / (D n -D n-1)

ステップS2814では、図27に示したような補正情報データベース407の、k番目に格納されている更新日Dkと、補正情報Ckとを取得し、RAM105に保存する。ステップS2815では、図27に示したような補正情報データベース407の、k−1番目に格納されている更新日Dk-1と、補正情報Ck-1とを取得し、RAM105に保存する。このとき、Dk-1<Dm<Dkとなり、Dk-1の補正情報と、Dkの補正情報とを線形補間して、撮影日Dmにおける補正情報を求める。 In step S2814, the kth stored update date D k and correction information C k of the correction information database 407 as shown in FIG. 27 are acquired and stored in the RAM 105. In step S2815, the update date D k−1 stored in the (k−1) th and the correction information C k−1 in the correction information database 407 as shown in FIG. 27 are acquired and stored in the RAM 105. At this time, D k-1 <D m <D k , and correction information on the shooting date D m is obtained by linearly interpolating the correction information on D k-1 and the correction information on D k .

ステップS2816では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付Dmにおける補正情報Cmを次の式で求め、RAM105に保存する。
m=Ck-1+(Dm−Dk-1)×(Ck−Ck-1)/(Dk−Dk-1
In step S2816, correction information C m on the date D m when the photographed image 403 (for example, a photographed image 403 obtained by photographing a person) is photographed is obtained by the following equation and stored in the RAM 105.
C m = C k-1 + (D m -D k-1) × (C k -C k-1) / (D k -D k-1)

ステップS2817では、図27に示したような補正情報データベース407の、初期補正情報C0と、日付D0とを取得し、RAM105に保存する。このとき、図27に示したような補正情報データベース407に補正情報が一つしか存在しないため、補正情報の予測を行うことができない。従って、初期補正情報C0をそのまま用いる。 In step S2817, initial correction information C 0 and date D 0 of the correction information database 407 as shown in FIG. 27 are acquired and stored in the RAM 105. At this time, since there is only one correction information in the correction information database 407 as shown in FIG. 27, the correction information cannot be predicted. Therefore, the initial correction information C 0 is used as it is.

ステップS2818では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付Dmにおける補正情報Cmを次の式で求め、RAM105に保存する。
m=C0
In step S2818, correction information C m on the date D m when the captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) is captured is obtained by the following equation and stored in the RAM 105.
C m = C 0

ステップS2819では、補正情報Cmを用いて、図11又は図18に示したように、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成する。 In step S2819, the correction information using the C m, as shown in FIG. 11 or FIG. 18, the captured image 403 (e.g., the captured image 403 obtained by photographing a person, etc.) to create a viewfinder image 409 from.

ステップS2820では、ステップS2819で作成したファインダ画像409を、表示部103、又はプリンタ108で描画する。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。   In step S2820, the finder image 409 created in step S2819 is drawn by the display unit 103 or the printer. The finder image 409 may be stored in any of the RAM 105, the HDD 106, and the removable disk 107, or may be stored in another storage area connected via the network I / F 109.

なお、本実施例では、補正情報Cmを、補正情報の線形補間により求めたが、近似式等を用いて求めてもよい。 In this embodiment, the correction information C m is obtained by linear interpolation of the correction information, but may be obtained using an approximate expression or the like.

実施例4では、補正情報Cmを、図27に示したような補正情報データベース407に格納された複数の補正情報に基づいて求める例を示した。しかしながら、より簡単に、補正情報Cmを、撮影日Dmの直前に更新された補正情報としてもよい。以下、補正情報Cmを、撮影日Dmの直前に更新された補正情報とするコンピュータシステムを用いた一例を、図29を用いて説明する。 In the fourth embodiment, the correction information C m is obtained based on a plurality of correction information stored in the correction information database 407 as shown in FIG. However, more simply, the correction information C m may be correction information updated immediately before the shooting date D m . Hereinafter, an example using a computer system in which the correction information C m is the correction information updated immediately before the shooting date D m will be described with reference to FIG.

図29は、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日の補正情報を決定し、決定した補正情報を基に、ファインダ画像309を得るまでの処理の一例を示すフローチャートである。   FIG. 29 illustrates an example of processing for determining correction information on the date when a captured image 403 (for example, a captured image 403 obtained by capturing a person or the like) is captured, and obtaining a finder image 309 based on the determined correction information. It is a flowchart to show.

ステップS2901では、撮影ファイル404を読み出し、RAM105に保存する。ステップS2902では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。ステップS2903では、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS2904へ進む。一方、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS2913へ進む。   In step S2901, the shooting file 404 is read and stored in the RAM 105. In step S2902, the camera ID 402 in the shooting file 404 is acquired and stored in the RAM 105. In step S2903, it is confirmed whether or not there is information corresponding to the camera ID 402 in the correction information database 407 as shown in FIG. If there is information corresponding to the camera ID 402 in the correction information database 407 as shown in FIG. 27, the process proceeds to step S2904. On the other hand, if there is no information corresponding to the camera ID 402 in the correction information database 407 as shown in FIG. 27, the process proceeds to step S2913.

ステップS2904では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付を取得し、DmとしてRAM105に保存する。ここで、Dmにおける補正情報を、Cmとする。ステップS2905では、変数nに、図27に示したような補正情報データベース407に含まれる更新日及び補正情報のセット(又は更新日)の数から1を引いた値を代入する。 In step S2904, the date when the photographed image 403 (for example, the photographed image 403 obtained by photographing a person) is photographed is acquired and stored in the RAM 105 as Dm . Here, the correction information for D m is C m . In step S2905, a value obtained by subtracting 1 from the number of update dates and correction information sets (or update dates) included in the correction information database 407 as shown in FIG.

ステップS2906では、変数kに0を代入する。ステップS2907では、変数kの値を1だけインクリメントする。ステップS2908では、変数kと、変数nの値とを比較する。変数kがnの値より大きければ、ステップS2910へ進む。一方、変数kがnの値より大きくなければ、ステップS2909へ進む。   In step S2906, 0 is substituted for variable k. In step S2907, the value of the variable k is incremented by 1. In step S2908, the variable k is compared with the value of the variable n. If the variable k is greater than the value of n, the process proceeds to step S2910. On the other hand, if the variable k is not greater than the value of n, the process proceeds to step S2909.

ステップS2909では、図27に示したような補正情報データベース407の、k番目に格納されている更新日Dkを取得し、取得したDkと、Dmと比較する。Dm<Dkの場合、ステップS2911へ進み、Dm<Dkでない場合、ステップS2907へ進む。 In step S2909, the kth stored update date Dk of the correction information database 407 as shown in FIG. 27 is acquired, and the acquired Dk is compared with Dm . If D m <D k, the process proceeds to step S2911. If D m <D k is not satisfied, the process proceeds to step S2907.

ステップS2910では、図27に示したような補正情報データベース407の、n番目に格納されている補正情報Cnを、補正情報Cmに代入する。また、ステップS2911では、図27に示したような補正情報データベース407の、k−1番目に格納されている補正情報Ck-1を、補正情報Cmに代入する。 In step S2910, the n-th stored correction information C n in the correction information database 407 as shown in FIG. 27 is substituted into the correction information C m . In step S2911, the correction information C k-1 stored in the (k−1) th of the correction information database 407 as shown in FIG. 27 is substituted into the correction information C m .

ステップS2912では、補正情報Cmを用いて、図11又は図18に示したように、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成する。 In step S2912, the correction information using the C m, as shown in FIG. 11 or FIG. 18, the captured image 403 (e.g., the captured image 403 obtained by photographing a person, etc.) to create a viewfinder image 409 from.

ステップS2913では、ステップS2912で作成したファインダ画像409を、表示部103、又はプリンタ108で描画する。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。   In step S2913, the finder image 409 created in step S2912 is drawn on the display unit 103 or the printer. The finder image 409 may be stored in any of the RAM 105, the HDD 106, and the removable disk 107, or may be stored in another storage area connected via the network I / F 109.

なお、本実施例では、撮影日の直前に更新された補正情報をCmとして用いたが、撮影日の直前、直後の更新日を比較して、より撮影日と近い方の補正情報をCmとして用いてもよい。 In the present embodiment, the correction information updated immediately before the shooting date is used as C m , but the update date immediately before and immediately after the shooting date is compared, and the correction information closer to the shooting date is determined as C. It may be used as m .

(他の実施例)
前述した各実施例の目的は、各実施例の機能を実現するソフトウェアのプログラムを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータが記憶媒体に格納されたプログラムを読み出し実行することによっても達成される。なお、ここで、コンピュータとは、例えば、CPU(Central Processing Unit)や、MPU(Micro Processing Unit)等のことである。この場合、記憶媒体から読み出されたプログラム自体が前述した実施例の機能を実現することになり、プログラムはもとより、そのプログラムを記憶した記憶媒体も本発明を構成する。
(Other examples)
The purpose of each embodiment described above is to supply a storage medium storing a software program for realizing the functions of each embodiment to the system or apparatus, and the computer of the system or apparatus reads the program stored in the storage medium. It is also achieved by executing. Here, the computer is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. In this case, the program itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program as well as the program constitutes the present invention.

以上、前述した各実施例によれば、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることができる。また、撮影した画像から、撮影時にファインダで見た画像を作成することができる。例えば、前述した各実施例によれば、撮影した画像から、撮影時にファインダで見た画像を切り出して、表示したり、印刷したり、保存したりすることができる。   As described above, according to each of the above-described embodiments, it is possible to notify the relationship between the captured range and the range viewed with the viewfinder, regardless of individual differences between cameras. Further, an image viewed with a viewfinder at the time of shooting can be created from the shot image. For example, according to each of the above-described embodiments, an image viewed with a viewfinder at the time of shooting can be cut out from a shot image and displayed, printed, or saved.

以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

コンピュータシステムの構成を示すブロック図である。It is a block diagram which shows the structure of a computer system. デジタルカメラの簡略図である。It is a simplified diagram of a digital camera. デジタルカメラで撮影された画像の一例を示す図である。It is a figure which shows an example of the image image | photographed with the digital camera. 本実施例で用いられるデータ等の一例を示す図である。It is a figure which shows an example of the data etc. which are used in a present Example. 領域情報を作成し、補正情報データベースへ保存する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which produces area | region information and preserve | saves it to a correction information database. 評価オブジェクト及び評価オブジェクトの撮影画像の一例を示す図(その1)である。It is FIG. (1) which shows an example of the picked-up image of an evaluation object and an evaluation object. 図6(B)の撮影画像について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系の一例を示す図である。FIG. 7B is a diagram illustrating an example of a coordinate system in which the upper left upper end of the shooting range is the origin, the right direction is + x and the lower direction is + y with respect to the shot image of FIG. 6B. 補正情報データベースの一例を示す図(その1)である。It is FIG. (1) which shows an example of a correction information database. 撮影画像から領域情報を取得する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which acquires area | region information from a picked-up image. ファインダ画像作成処理の一例を示すフローチャート(その1)である。It is a flowchart (the 1) which shows an example of a finder image creation process. 撮影画像からファインダ画像を作成する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which produces a finder image from a picked-up image. 図11に示した処理の概念図である。It is a conceptual diagram of the process shown in FIG. 傾き情報、領域情報を取得し、補正情報データベースへ保存する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which acquires inclination information and area | region information, and preserve | saves it to a correction information database. 評価オブジェクト及び評価オブジェクトの撮影画像の一例を示す図(その2)である。It is FIG. (2) which shows an example of the picked-up image of an evaluation object and an evaluation object. 図14(B)の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系の一例を示す図である。FIG. 15 is a diagram illustrating an example of a coordinate system of the captured image 403 in FIG. 14B in which the upper left end of the imaging range is the origin, the right direction from the origin is + x, and the downward direction is + y. 評価オブジェクト及び評価オブジェクトの撮影画像の一例を示す図(その2)である。It is FIG. (2) which shows an example of the picked-up image of an evaluation object and an evaluation object. θが正である場合の座標系の一例を示す図である。It is a figure which shows an example of a coordinate system in case (theta) is positive. θが負である場合の座標系の一例を示す図である。It is a figure which shows an example of a coordinate system in case (theta) is negative. 補正情報データベースの一例を示す図(その2)である。It is FIG. (2) which shows an example of a correction information database. 撮影画像から傾き情報を取得する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which acquires inclination information from a picked-up image. 傾き情報(θの値)を用いて撮影画像を回転させる処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which rotates a picked-up image using inclination information (value of (theta)). ファインダ画像作成処理の一例を示すフローチャート(その2)である。It is a flowchart (the 2) which shows an example of a finder image creation process. 図22に示した処理の概念図である。It is a conceptual diagram of the process shown in FIG. 本実施例で用いられるデータ等の一例を示す図である。It is a figure which shows an example of the data etc. which are used in a present Example. 領域評価オブジェクトと、傾き評価オブジェクトとを撮影し、傾き評価オブジェクト撮影画像と、領域評価オブジェクト撮影画像とをそれぞれカメラIDと共に保存する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which image | photographs an area | region evaluation object and an inclination evaluation object, and preserve | saves an inclination evaluation object picked-up image and an area | region evaluation object picked-up image with camera ID, respectively. 傾き評価オブジェクト撮影ファイル、領域評価オブジェクト撮影ファイルを取得し、撮影画像からファインダ画像を作成する処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing for acquiring a tilt evaluation object shooting file and a region evaluation object shooting file and creating a finder image from the shot image. 領域情報及び傾き情報を、カメラIDや、補正情報の更新日と対応付けて、補正情報データベースに保存する一例を示す図である。It is a figure which shows an example which matches area | region information and inclination information with a camera ID or the update date of correction information, and preserve | saves it in a correction information database. 撮影画像が撮影された日の補正情報を予測し、予測した補正情報を基に、ファインダ画像を得るまでの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process until the correction information of the day when the picked-up image was image | photographed, and obtaining a finder image based on the estimated correction information. 撮影画像が撮影された日の補正情報を決定し、決定した補正情報を基に、ファインダ画像を得るまでの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process until determining the correction information of the day when the picked-up image was image | photographed, and obtaining a finder image based on the determined correction information.

符号の説明Explanation of symbols

101 CPU
102 キーボード
103 表示部
104 ROM
105 RAM
106 HDD
107 リムーバブルディスク
108 プリンタ
109 ネットワークI/F
110 デジタルカメラ
201 レンズ
202 ミラー
203 撮像素子
204 ペンタプリズム
205 ファインダ
206 LCD
241 傾き評価オブジェクト撮影ファイル
242 傾き評価オブジェクト撮影画像
243 領域評価オブジェクト撮影ファイル
244 領域評価オブジェクト撮影画像
401 デジタルカメラ
402 カメラID
403 撮影画像
404 撮影ファイル
405 領域情報
406 傾き情報
407 補正情報データベース
408 評価オブジェクト
409 ファインダ画像
101 CPU
102 Keyboard 103 Display 104 ROM
105 RAM
106 HDD
107 Removable disk 108 Printer 109 Network I / F
110 Digital Camera 201 Lens 202 Mirror 203 Image Sensor 204 Penta Prism 205 Finder 206 LCD
241 Inclination evaluation object shooting file 242 Inclination evaluation object shooting image 243 Area evaluation object shooting file 244 Area evaluation object shooting image 401 Digital camera 402 Camera ID
403 Captured image 404 Captured file 405 Area information 406 Tilt information 407 Correction information database 408 Evaluation object 409 Viewfinder image

Claims (14)

撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得手段と、
前記領域情報取得手段が取得した前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶手段と、
撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得手段と、
前記補正情報取得手段が取得した前記領域情報を用いて、前記撮影画像を補正する補正手段と、
を有することを特徴とするカメラ撮影画像処理装置。
Area information acquisition means for acquiring area information relating to an area observed through a finder at the time of shooting;
Correction information storage means for storing the area information acquired by the area information acquisition means in a storage means in association with imaging apparatus identification information for identifying an imaging apparatus;
Correction information acquisition means for acquiring the region information from the storage means based on the imaging device identification information associated with the captured image;
Correction means for correcting the captured image using the region information acquired by the correction information acquisition means;
A camera-captured image processing apparatus.
前記領域情報取得手段は、前記領域情報を取得するのに用いる評価オブジェクトの撮影画像から、前記領域情報を取得することを特徴とする請求項1に記載のカメラ撮影画像処理装置。   The camera-captured image processing apparatus according to claim 1, wherein the region information acquisition unit acquires the region information from a captured image of an evaluation object used to acquire the region information. 撮影画像に対する前記領域の傾きに係る傾き情報を取得する傾き情報取得手段を更に有し、
前記補正情報記憶手段は、前記領域情報と、前記傾き情報取得手段が取得した前記傾き情報とを、前記撮影装置識別情報と対応付けて記憶手段に記憶し、
前記補正情報取得手段は、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報と、前記傾き情報とを取得し、
前記補正手段は、前記補正情報取得手段が取得した前記領域情報と、前記傾き情報とを用いて、前記撮影画像を補正することを特徴とする請求項1又は2に記載のカメラ撮影画像処理装置。
Further comprising tilt information acquisition means for acquiring tilt information related to the tilt of the region with respect to the captured image;
The correction information storage means stores the area information and the inclination information acquired by the inclination information acquisition means in association with the imaging device identification information in the storage means,
The correction information acquisition unit acquires the area information and the inclination information from the storage unit based on the imaging device identification information associated with the captured image.
3. The camera-captured image processing apparatus according to claim 1, wherein the correction unit corrects the captured image using the region information acquired by the correction information acquisition unit and the tilt information. 4. .
前記傾き情報取得手段は、前記傾き情報を取得するのに用いる評価オブジェクトの撮影画像から、前記傾き情報を取得することを特徴とする請求項3に記載のカメラ撮影画像処理装置。   The camera-captured image processing apparatus according to claim 3, wherein the tilt information acquisition unit acquires the tilt information from a captured image of an evaluation object used to acquire the tilt information. 撮影画像が撮影された日時情報に基づいて、前記撮影画像に係る前記領域情報を予測する補正情報予測手段を更に有することを特徴とする請求項1乃至4の何れか1項に記載のカメラ撮影画像処理装置。   5. The camera photographing according to claim 1, further comprising correction information predicting means for predicting the area information related to the photographed image based on the date and time information when the photographed image is photographed. Image processing device. 前記補正情報予測手段は、前記日時情報に基づいて、前記撮影画像に係る前記領域情報及び前記傾き情報を予測することを特徴とする請求項5に記載のカメラ撮影画像処理装置。   6. The camera photographed image processing apparatus according to claim 5, wherein the correction information predicting unit predicts the area information and the tilt information related to the photographed image based on the date and time information. カメラ撮影画像処理装置におけるカメラ撮影画像処理方法であって、
撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得ステップと、
前記領域情報取得ステップにおいて取得された前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶ステップと、
撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得ステップと、
前記補正情報取得ステップにおいて取得された前記領域情報を用いて、前記撮影画像を補正する補正ステップと、
を有することを特徴とするカメラ撮影画像処理方法。
A camera-captured image processing method in a camera-captured image processing apparatus,
An area information acquisition step for acquiring area information relating to an area observed through a finder at the time of shooting;
A correction information storage step for storing the area information acquired in the area information acquisition step in association with imaging apparatus identification information for identifying the imaging apparatus in a storage unit;
A correction information acquisition step for acquiring the region information from the storage unit based on the imaging device identification information associated with the captured image;
A correction step for correcting the captured image using the region information acquired in the correction information acquisition step;
A camera-captured image processing method.
前記領域情報取得ステップでは、前記領域情報を取得するのに用いる評価オブジェクトの撮影画像から、前記領域情報を取得することを特徴とする請求項7に記載のカメラ撮影画像処理方法。   The camera area image acquisition method according to claim 7, wherein in the area information acquisition step, the area information is acquired from a captured image of an evaluation object used to acquire the area information. 撮影画像に対する前記領域の傾きに係る傾き情報を取得する傾き情報取得ステップを更に有し、
前記補正情報記憶ステップでは、前記領域情報と、前記傾き情報取得ステップにおいて取得された前記傾き情報とを、前記撮影装置識別情報と対応付けて記憶手段に記憶し、
前記補正情報取得ステップでは、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報と、前記傾き情報とを取得し、
前記補正ステップでは、前記補正情報取得ステップにおいて取得された前記領域情報と、前記傾き情報とを用いて、前記撮影画像を補正することを特徴とする請求項7又は8に記載のカメラ撮影画像処理方法。
A tilt information acquisition step of acquiring tilt information related to the tilt of the region with respect to the captured image;
In the correction information storing step, the area information and the tilt information acquired in the tilt information acquiring step are stored in a storage unit in association with the imaging device identification information,
In the correction information acquisition step, the area information and the inclination information are acquired from the storage unit based on the imaging device identification information associated with the captured image.
9. The camera-captured image processing according to claim 7 or 8, wherein, in the correction step, the captured image is corrected using the region information acquired in the correction information acquisition step and the tilt information. Method.
前記傾き情報取得ステップでは、前記傾き情報を取得するのに用いる評価オブジェクトの撮影画像から、前記傾き情報を取得することを特徴とする請求項9に記載のカメラ撮影画像処理方法。   The camera-captured image processing method according to claim 9, wherein in the tilt information acquisition step, the tilt information is acquired from a captured image of an evaluation object used to acquire the tilt information. 撮影画像が撮影された日時情報に基づいて、前記撮影画像に係る前記領域情報を予測する補正情報予測ステップを更に有することを特徴とする請求項7乃至10の何れか1項に記載のカメラ撮影画像処理方法。   The camera photographing according to any one of claims 7 to 10, further comprising a correction information prediction step of predicting the area information related to the photographed image based on date and time information when the photographed image is photographed. Image processing method. 前記補正情報予測ステップでは、前記日時情報に基づいて、前記撮影画像に係る前記領域情報及び前記傾き情報を予測することを特徴とする請求項11に記載のカメラ撮影画像処理方法。   The camera-captured image processing method according to claim 11, wherein in the correction information prediction step, the region information and the tilt information related to the captured image are predicted based on the date and time information. 請求項7乃至12の何れか1項に記載のカメラ撮影画像処理方法をコンピュータに実行させることを特徴とするカメラ撮影画像処理プログラム。   A camera-captured image processing program that causes a computer to execute the camera-captured image processing method according to any one of claims 7 to 12. 請求項13に記載のカメラ撮影画像処理プログラムを記憶した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the camera-captured image processing program according to claim 13.
JP2005290870A 2005-10-04 2005-10-04 Apparatus and method for processing image taken by camera Pending JP2007104246A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005290870A JP2007104246A (en) 2005-10-04 2005-10-04 Apparatus and method for processing image taken by camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005290870A JP2007104246A (en) 2005-10-04 2005-10-04 Apparatus and method for processing image taken by camera

Publications (1)

Publication Number Publication Date
JP2007104246A true JP2007104246A (en) 2007-04-19

Family

ID=38030749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005290870A Pending JP2007104246A (en) 2005-10-04 2005-10-04 Apparatus and method for processing image taken by camera

Country Status (1)

Country Link
JP (1) JP2007104246A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259311A (en) * 2006-03-24 2007-10-04 Ricoh Co Ltd Photographing apparatus
JP2007300210A (en) * 2006-04-27 2007-11-15 Ricoh Co Ltd Photographing apparatus
JP2009296031A (en) * 2008-06-02 2009-12-17 Canon Inc Image processing apparatus, control method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259311A (en) * 2006-03-24 2007-10-04 Ricoh Co Ltd Photographing apparatus
JP4685677B2 (en) * 2006-03-24 2011-05-18 株式会社リコー Imaging device
JP2007300210A (en) * 2006-04-27 2007-11-15 Ricoh Co Ltd Photographing apparatus
JP4685699B2 (en) * 2006-04-27 2011-05-18 株式会社リコー Imaging device
JP2009296031A (en) * 2008-06-02 2009-12-17 Canon Inc Image processing apparatus, control method, and program

Similar Documents

Publication Publication Date Title
US8194993B1 (en) Method and apparatus for matching image metadata to a profile database to determine image processing parameters
US8675988B2 (en) Metadata-driven method and apparatus for constraining solution space in image processing techniques
US8724007B2 (en) Metadata-driven method and apparatus for multi-image processing
US20130121525A1 (en) Method and Apparatus for Determining Sensor Format Factors from Image Metadata
RU2415513C1 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method and programme
US8908058B2 (en) Storage and transmission of pictures including multiple frames
US7327390B2 (en) Method for determining image correction parameters
US20180213218A1 (en) Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
US8391640B1 (en) Method and apparatus for aligning and unwarping distorted images
US11042997B2 (en) Panoramic photographing method for unmanned aerial vehicle and unmanned aerial vehicle using the same
JP6257285B2 (en) Compound eye imaging device
JPH09181913A (en) Camera system
Guidi et al. Massive 3D digitization of museum contents
JP2009171268A (en) Electronic camera
WO2014187265A1 (en) Photo-capture processing method, device and computer storage medium
CN102436639A (en) Image acquiring method for removing image blurring and image acquiring system
CN103813093A (en) Imaging apparatus and imaging method thereof
KR20190086964A (en) System and Method for Removing Distortion of Fisheye Lens and Omnidirectional Image
JP2007104246A (en) Apparatus and method for processing image taken by camera
CN102447833B (en) Image processing apparatus and method for controlling same
JP6639832B2 (en) Imaging device, imaging method, imaging program
CN111536947A (en) Method and system for automatically detecting oblique photography missing and quickly performing rephotography
CN114898068A (en) Three-dimensional modeling method, device, equipment and storage medium
CN104935815A (en) Shooting method, shooting device, camera and mobile terminal
CN114222059A (en) Photographing method, photographing processing method, system, equipment and storage medium