JP2007104246A - Apparatus and method for processing image taken by camera - Google Patents
Apparatus and method for processing image taken by camera Download PDFInfo
- Publication number
- JP2007104246A JP2007104246A JP2005290870A JP2005290870A JP2007104246A JP 2007104246 A JP2007104246 A JP 2007104246A JP 2005290870 A JP2005290870 A JP 2005290870A JP 2005290870 A JP2005290870 A JP 2005290870A JP 2007104246 A JP2007104246 A JP 2007104246A
- Authority
- JP
- Japan
- Prior art keywords
- information
- captured image
- camera
- correction
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、カメラ撮影画像処理装置及びカメラ撮影画像処理方法に関する。 The present invention relates to a camera shot image processing apparatus and a camera shot image processing method.
デジタルカメラを用いて写真を撮影する際、撮影者は、ファインダを見て、撮影する画像の構図を決定する。そのため、ファインダを通して観察される画像と、デジタルカメラの撮像素子で撮影される画像とは、全く同じであることが望ましい。しかし、様々な理由から、実際にそれが実現される事はほとんどない。 When taking a picture using a digital camera, the photographer looks at the viewfinder and determines the composition of the picture to be taken. For this reason, it is desirable that the image observed through the viewfinder and the image captured by the image sensor of the digital camera are exactly the same. But for a variety of reasons, it is rarely realized.
その理由として、例えば、視野率の問題が挙げられる。視野率とは、実際に撮影される画像の何パーセントをファインダで見ることができるかを示す数字である。一般に、デジタル一眼レフカメラでは、視野率は90〜100%であり、コンパクトデジタルカメラでは、それ以下になることが多い。つまり、撮影者はファインダを見て構図を決定しても、実際にはそれよりも大きな範囲で写真が撮影される。 The reason is, for example, the problem of view rate. The field of view rate is a number indicating what percentage of the actually photographed image can be viewed with the viewfinder. In general, a digital single-lens reflex camera has a field of view of 90 to 100%, and a compact digital camera often has a field of view of less than that. In other words, even if the photographer determines the composition by looking at the viewfinder, the photograph is actually taken in a larger range.
また、コンパクトデジタルカメラのように、ファインダの光学系と撮影用の光学系とが別にある場合には、原理的に視差が発生してしまう。そのため、実際に撮影される範囲と、ファインダで見ることができる範囲との関係は、被写体との距離によって変わる。 Further, when a finder optical system and a photographing optical system are separately provided as in a compact digital camera, parallax occurs in principle. For this reason, the relationship between the actually captured range and the range that can be viewed with the viewfinder varies depending on the distance to the subject.
更に、カメラ本体の落下や衝突で撮像素子が傾いてしまった場合等、撮像素子の歪みから撮影画像が歪んでしまうこともある。 Furthermore, the captured image may be distorted due to distortion of the image sensor, such as when the image sensor is tilted due to the camera body falling or colliding.
一般に、デジタルカメラには、撮影する画像を確認する機構として、ファインダの他に液晶モニタ(LCD(liquid crystal monitor))が用意されている。LCDは、撮影する画像の全範囲を表示するので、先の問題は、LCDを用いることで解決できると言える。しかし、LCDは電力を消費し、バッテリーの持ちを悪くするという欠点がある。更にデジタル一眼レフカメラの場合、その構造上、LCDを見ながら撮影する訳にはいかない。 In general, a digital camera is provided with a liquid crystal monitor (LCD (liquid crystal monitor)) in addition to a viewfinder as a mechanism for confirming an image to be taken. Since the LCD displays the entire range of the image to be taken, it can be said that the above problem can be solved by using the LCD. However, the LCD has the disadvantages that it consumes power and makes the battery worse. Furthermore, in the case of a digital single-lens reflex camera, because of its structure, it cannot be taken while looking at the LCD.
先の「実際に撮影される範囲とファインダで見ることができる範囲が異なる」という問題を、光学的、機械的に解決することは容易ではなく、製造コストも著しく増加する。そのため、ソフト的に解決する方法が考えられている。 It is not easy to optically and mechanically solve the above-mentioned problem that “the actual photographed range and the range that can be viewed with the viewfinder” are different, and the manufacturing cost is remarkably increased. Therefore, a method for solving the problem in software is considered.
例えば、特許文献1によれば、ファインダの光学系と、撮影用の光学系とを別に有するデジタルカメラにおいて、被写体距離やレンズの焦点距離等から視差補正量を取得・記録し、出力画像を補正できるようにしている。又は、保存時に、撮影画像をファインダ視野と同じ範囲になるようにトリミングしている。
For example, according to
しかしながら、デジタルカメラのレンズや撮像素子の付き方には個体差がある。つまり、撮影する範囲と、ファインダで見ることのできる範囲との関係は、個々のカメラにより異なる問題があった。 However, there are individual differences in how to attach a digital camera lens or image sensor. That is, there is a problem that the relationship between the shooting range and the range that can be viewed with the viewfinder differs depending on the individual camera.
本発明は上記の問題点に鑑みなされたもので、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to notify the relationship between a captured range and a range viewed with a viewfinder regardless of individual differences between cameras.
そこで、上記問題を解決するため、本発明のカメラ撮影画像処理装置は、撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得手段と、前記領域情報取得手段が取得した前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶手段と、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得手段と、前記補正情報取得手段が取得した前記領域情報を用いて、前記撮影画像を補正する補正手段と、を有することを特徴とする。 Therefore, in order to solve the above problem, the camera-captured image processing apparatus of the present invention includes a region information acquisition unit that acquires region information related to a region observed through a finder during shooting, and the region acquired by the region information acquisition unit. Based on the correction information storage means for storing the information in the storage means in association with the imaging apparatus identification information for identifying the imaging apparatus, and the storage means based on the imaging apparatus identification information associated with the captured image, the region Correction information acquisition means for acquiring information, and correction means for correcting the captured image using the region information acquired by the correction information acquisition means.
本発明のカメラ撮影画像処理装置によれば、撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得手段と、前記領域情報取得手段が取得した前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶手段と、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得手段と、前記補正情報取得手段が取得した前記領域情報を用いて、前記撮影画像を補正する補正手段と、を有することによって、例えば、撮影画像を補正して、撮影画像上に前記領域を示す矩形を描いたファインダ画像を作成したり、撮影画像から前記領域を切り取ったファインダ画像を作成したりできるので、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることができる。 According to the camera-captured image processing device of the present invention, a region information acquisition unit that acquires region information related to a region observed through a finder at the time of shooting, and the region information acquired by the region information acquisition unit are identified as a shooting device. Correction information storage means for storing in the storage means in association with imaging apparatus identification information to be performed, and correction information acquisition for acquiring the area information from the storage means based on the imaging apparatus identification information associated with the captured image Means for correcting the captured image using the region information acquired by the correction information acquiring unit, for example, correcting the captured image to show the region on the captured image. You can create a finder image depicting a rectangle, or create a finder image by cutting out the area from the captured image, regardless of the individual difference of the camera, Can inform and shadow range, the relationship between the range seen in the viewfinder.
なお、カメラ撮影画像処理装置は、例えば、後述するコンピュータシステム、又はコンピュータシステムのプリンタ108及びデジタルカメラ110を含まない部分等に対応する。
Note that the camera-captured image processing apparatus corresponds to, for example, a computer system to be described later, or a part that does not include the
また、上記問題を解決するため、本発明は、カメラ撮影画像処理方法、カメラ撮影画像処理プログラム、及び記憶媒体としてもよい。 In order to solve the above problem, the present invention may be a camera-captured image processing method, a camera-captured image processing program, and a storage medium.
本発明によれば、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることができる。 According to the present invention, it is possible to notify the relationship between the captured range and the range viewed with the viewfinder regardless of the individual differences of the cameras.
以下、本発明の実施例について図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、コンピュータシステム(コンピュータ)の構成を示すブロック図である。図1において、101は、CPUで、コンピュータシステム全体の制御を行っている。102は、キーボードで、102aのマウスと共に、操作者が、コンピュータシステムに情報を入力するのに使用する。103は、表示装置で、CRT(Cathode Ray Tube)や液晶等で構成される。104は、ROM(Read Only Memory)である。105は、RAM(Random Access Memory)である。ROM104及びRAM105は、システムの記憶装置を構成し、コンピュータシステムが実行するプログラムやコンピュータシステムが利用するデータを記憶する。
FIG. 1 is a block diagram showing a configuration of a computer system (computer). In FIG. 1,
106は、HDD(Hard Disk Drive)である。107は、リムーバブルディスクである。HDD106及びリムーバブルディスク107は、コンピュータシステムのファイルシステムに使用される外部記憶装置を構成している。108は、プリンタである。
109は、ネットワークI/Fで、コンピュータシステムをLAN(Local Area Network)又はWAN(Wide Area Network)に接続している。コンピュータシステムは、ネットワークI/F109を通じてコンピュータプログラムやデジタル画像等のデータファイルを他のコンピュータシステムとやりとりする。プログラムやデータは、HDD106に記憶されたり、直接RAM105に展開され、CPU101によって実行されたりする。110は、デジタルカメラ(デジタル一眼レフカメラ)である。デジタルカメラ110内に保存されている撮影画像、又はデジタルカメラ110で撮影された撮影画像は、RAM105、HDD106、リムーバブルディスク107に保存される。
図2は、デジタルカメラの簡略図である。図2において、201は、撮像素子上に画像を投影するカメラのレンズである。202は、撮像素子に画像を写すときに破線で示すように跳ね上げられるミラーである。203は、画像が写される撮像素子(CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)センサー)である。204は、ファインダに光を導くためのペンタプリズムである。205は、カメラのレンズ201に入射した画像をモニタするためのファインダである。206は、撮像素子に写る画像をモニタするLCDである。
FIG. 2 is a simplified diagram of a digital camera. In FIG. 2, reference numeral 201 denotes a camera lens that projects an image on an image sensor. Reference numeral 202 denotes a mirror that is flipped up as shown by a broken line when an image is captured on the image sensor. Reference numeral 203 denotes an image sensor (CCD (Charge Coupled Devices) or CMOS (Complementary Metal Oxide Semiconductor) sensor) on which an image is captured. Reference numeral 204 denotes a pentaprism for guiding light to the viewfinder. Reference numeral 205 denotes a viewfinder for monitoring an image incident on the lens 201 of the camera.
図2に示すデジタルカメラを用いて画像を撮影するため、撮影者は、ファインダ205を見ながら画像の構図をモニタする。このとき、カメラレンズ201を通過した光は、ミラー202で反射されて、ペンタプリズム204に入射する。このペンタプリズム204内で反射された光は、ファインダ205から投射される。このファインダ205から投射された光を撮影者が見る事により、撮影する画像をモニタすることができる。撮影者がシャッターを押すとミラー202が跳ね上げられて、カメラレンズ201を通過した光は、ミラー202で反射される事なく、撮像素子面へ投射され、画像データとして保存される。 In order to take an image using the digital camera shown in FIG. 2, the photographer monitors the composition of the image while looking at the viewfinder 205. At this time, the light passing through the camera lens 201 is reflected by the mirror 202 and enters the pentaprism 204. The light reflected in the pentaprism 204 is projected from the viewfinder 205. When the photographer views the light projected from the finder 205, the image to be photographed can be monitored. When the photographer presses the shutter, the mirror 202 is flipped up, and the light that has passed through the camera lens 201 is projected to the image sensor surface without being reflected by the mirror 202 and stored as image data.
図3は、デジタルカメラで撮影された画像の一例を示す図である。この図において、実線枠で囲まれた領域は撮影された画像の全範囲であり、以下、撮影範囲と呼ぶ。破線枠で囲まれた領域は、撮影時に図2のファインダ205を通して見えた領域であり、以下、ファインダ領域と呼ぶ。多くの場合、ファインダ領域は撮影範囲よりも狭い。 FIG. 3 is a diagram illustrating an example of an image captured by a digital camera. In this figure, the area surrounded by the solid line frame is the entire range of the captured image, and is hereinafter referred to as the imaging range. A region surrounded by a broken line frame is a region seen through the finder 205 in FIG. 2 at the time of shooting, and is hereinafter referred to as a finder region. In many cases, the finder area is narrower than the shooting range.
なお、図3(A)は、ファインダ領域が撮影範囲に対して傾いていない一例を示す図である。また、図3(B)は、ファインダ領域が撮影範囲に対して傾いている一例を示す図である。 FIG. 3A shows an example in which the finder area is not inclined with respect to the imaging range. FIG. 3B is a diagram illustrating an example in which the finder area is inclined with respect to the imaging range.
図4は、本実施例で用いられるデータ等の一例を示す図である。図4において、401は、デジタルカメラである。402は、デジタルカメラ401を特定するカメラIDであり、カメラの機種名やボディナンバー等で表す。403は、デジタルカメラ401で撮影された画像データ(撮影画像)である。404は、デジタルカメラ401から出力されるファイルであり、カメラID402と、撮影画像403とを含む。
FIG. 4 is a diagram illustrating an example of data used in the present embodiment. In FIG. 4, 401 is a digital camera.
405は、撮影画像403におけるファインダ領域の位置や大きさを表す情報であり、領域情報と呼ぶ。406は、撮影画像403におけるファインダ領域の傾きを表す情報であり、傾き情報と呼ぶ。407は、領域情報405と、傾き情報406とを含む補正情報が、カメラID402と対応付けて保存されるデータベースである。補正情報データベース407は、HDD106に保存されるか、又はI/F109を通じて他のコンピュータに保存される。408は、デジタルカメラ401で撮影し、撮影画像403から、領域情報405や傾き情報406を取得するのに用いられる評価用のオブジェクト(評価オブジェクト)である。409は、撮影時にファインダを通してモニタした画像を、撮影画像403を基に再現・作成したファインダ画像である。
以下、図5から図9までを参照して、図3(A)のようにファインダ領域が撮影範囲に対して傾いていない場合の、領域情報405の取得方法について説明する。
Hereinafter, with reference to FIG. 5 to FIG. 9, a method of acquiring the
図5は、領域情報405を作成し、補正情報データベース407へ保存するコンピュータシステムを用いた処理の一例を示すフローチャートである。
FIG. 5 is a flowchart illustrating an example of processing using a computer system that creates the
ステップS501では、領域情報405を得るのに用いる評価オブジェクト408を作成する。作成された評価オブジェクト408の一例を、図6(A)に示す。本実施例において、ファインダ領域を評価するのに用いられる評価オブジェクト408は、長方形の白紙の中心に、単色で塗りつぶされた矩形が描かれたものであり、また白紙は撮影範囲よりも十分に大きいものとする。
In step S501, an
図6(A)において、破線枠で囲まれた領域Vは、オブジェクトの全範囲である。単色で塗りつぶされた矩形Rは、領域Vの中心に描かれ、各辺が領域Vの対応する辺と平行になっている。更に、矩形Rのアスペクト比は、ファインダ領域のアスペクト比と同一になるようになっている。 In FIG. 6A, a region V surrounded by a broken line frame is the entire range of the object. A rectangle R filled with a single color is drawn at the center of the region V, and each side is parallel to a corresponding side of the region V. Further, the aspect ratio of the rectangle R is the same as the aspect ratio of the finder area.
ステップS502では、ステップS501で作成した評価オブジェクト408を、デジタルカメラ401で撮影する。なお、例えば撮影者は、ステップS501において作成された評価オブジェクト408を、地面に対して垂直に固定する。また、例えば撮影者は、評価オブジェクト408を撮影するデジタルカメラ401を、ファインダ面が評価オブジェクト408と平行になるように三脚等で固定する。また、例えば撮影者は、ファインダ205を通して観察される領域と、評価オブジェクト408上の矩形Rと、が一致するように、デジタルカメラ401の高さや位置、傾き、レンズ201の倍率等を調節する。但し、例えば撮影者は、傾きは、ファインダ面が評価オブジェクト408の面と平行になる範囲で調節する。
In step S502, the
撮影した画像(評価オブジェクト408の撮影画像403)は、デジタルカメラ401のカメラID402と共に撮影ファイルとして、デジタルカメラ110内のメモリ、RAM105、HDD106、リムーバブルディスク107の何れかに保存する。
The photographed image (the photographed
図6(B)は、図6(A)に示す評価オブジェクト408の撮影画像403の一例を示す図である。図6(B)において、破線枠で囲まれる領域は撮影範囲である。また、単色で塗りつぶされた矩形R'は、図6(A)における矩形Rが撮影されたものであり、ファインダ領域に相当する。矩形R'の幅と、高さとは、それぞれWfピクセルと、Hfピクセルとである。また、矩形R'の左上端の点をP1とし、P1の位置は、撮影範囲の左上を始点として、水平方向x1ピクセル、垂直方向y1ピクセル進んだ点であるとする。
FIG. 6B is a diagram illustrating an example of the captured
ステップS503では、図6(B)に示す評価オブジェクト408の撮影画像403から、領域情報405として、x1、y1、Wf、Hfの各値を取得する。図7は、図6(B)の評価オブジェクト408の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系の一例を示す図である。図7に示される座標系において、撮影範囲の幅と、高さとはそれぞれxendと、yendとであるとする。また、矩形R'の四隅点の座標は、それぞれ(x1、y1)、(x2、y1)、(x1、y2)、(x2、y2)であるとする。なお、(x1、y1)は、図6(B)の点P1の座標に相当する。各値の取得方法の詳細については後述する。
In step S503, x 1 , y 1 , W f , and H f values are acquired as
ステップS504では、ステップS504で得られたx1、y1、Wf、Hfの値を、カメラID402と対応付けて、補正情報データベース407に保存する。x1、y1、Wf、Hfの値を、領域情報405とする。図8は、補正情報データベース407の一例を示す図(その1)である。
In step S504, the values of x 1 , y 1 , W f , and H f obtained in step S504 are stored in the
(領域情報取得処理の説明)
図9のフローチャートに従って、x1、y1、Wf、Hfの各値を取得するコンピュータシステムを用いた処理について説明する。なお、評価オブジェクト408の撮影画像403は、画素の2次元配列としてアクセスでき、各画素の位置は、図7に示した座標系に準じるものとする。また、c(i、j)は、座標(i、j)の画素の色を表すものとする。
(Description of area information acquisition processing)
A process using a computer system that acquires values of x 1 , y 1 , W f , and H f will be described with reference to the flowchart of FIG. 9. Note that the captured
ステップS701では、x1に−1を代入する。ステップS702では、変数jに0を代入する。ステップS703では、変数iに0を代入する。 At step S701, the substitutes -1 x 1. In step S702, 0 is substituted for variable j. In step S703, 0 is substituted for variable i.
ステップS704では、座標(i、j)における画素の色と、座標(i−1、j)における画素の色とを比較する。コンピュータシステムは、座標(i、j)における画素の色と、座標(i−1、j)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きければステップS705へ進む。一方、座標(i、j)における画素の色と、座標(i−1、j)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きくなければステップS708へ進む。
In step S704, the color of the pixel at the coordinates (i, j) is compared with the color of the pixel at the coordinates (i-1, j). If the difference between the pixel color at the coordinates (i, j) and the pixel color at the coordinates (i−1, j) is larger than a predetermined threshold stored in the
ステップS705では、x2に変数iの値を、y2に変数jの値を代入する。ステップS706では、x1が−1であるか否かの判定を行う。コンピュータシステムは、x1が−1であると判定すると、ステップS707へ進む。一方、x1が−1でないと判定すると、ステップS708へ進む。ここで、x1=−1とは、初めて矩形が現れたことを意味する。
At step S705, the value of the variable i to x 2, substitutes the value of variable j to y 2. At step S706, the it is determined whether x 1 is -1. The computer system determines that x 1 is -1, the operation proceeds to step S707. On the other hand, when x 1 is determined not -1, the process proceeds to step
ステップS707では、x1に変数iの値を、y1に変数jの値を代入する。ステップS708では、変数iの値を1だけインクリメントする。 At step S707, the value of the variable i to x 1, substitutes the value of variable j to y 1. In step S708, the value of variable i is incremented by one.
ステップS709では、変数iの値と、xendとを比較する。コンピュータシステムは、変数iの値がxendより大きいと、ステップS710に進み、変数iの値がxendより大きくないと、ステップS704へ進む。 In step S709, the value of the variable i is compared with xend . Computer system, and the value of the variable i is greater than x end The, the process proceeds to step S710, the value of the variable i is not greater than x end The, the process proceeds to step S704.
ステップS710では、変数jの値を1だけインクリメントする。ステップS711では、jの値と、yendとを比較する。jの値がyendより大きいと、ステップS712に進み、jの値がyendより大きくないと、ステップS703へ進む。 In step S710, the value of variable j is incremented by one. In step S711, the value of j is compared with y end . If the value of j is larger than y end , the process proceeds to step S712. If the value of j is not larger than y end , the process proceeds to step S703.
ステップS712では、Wfにx2−x1の値を、Hfにy2−y1+1の値を代入し、その後、処理を完了する。 In step S712, the value x 2 −x 1 is substituted for W f and the value y 2 −y 1 +1 is substituted for H f , and then the process is completed.
次に、図10から図12までを参照して、領域情報405を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からコンピュータシステムを用いてファインダ画像409を作成する方法について説明する。
Next, referring to FIGS. 10 to 12, a method of creating a
図10は、ファインダ画像409作成処理の一例を示すフローチャート(その1)である。ステップS1001では、撮影ファイル404を読み出し、RAM105に保存する。ステップS1002では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。
FIG. 10 is a flowchart (part 1) illustrating an example of the
ステップS1003では、補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS1004へ進む。補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS1006へ進む。
In step S1003, it is confirmed whether or not there is information corresponding to the
ステップS1004では、補正情報データベース407から、カメラID402に対応する領域情報405を取得し、RAM105に保存する。ステップS1005では、領域情報405を用いて撮影画像403(例えば、人物等を撮影した撮影画像403)から、ファインダ画像409を作成する。なお、撮影画像403(例えば、人物等を撮影した撮影画像403)から、ファインダ画像409を作成する詳細については、後述する。
In step S <b> 1004,
ステップS1006では、ステップS1005で作成したファインダ画像409、或いはファインダ画像409及び撮影画像403(例えば、人物等を撮影した撮影画像403)を、表示部103又はプリンタ108で描画する。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。
In step S1006, the
(ファインダ画像作成処理の説明)
図11のフローチャートに従って、x1、y1、Wf、Hfの各値を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像を作成する処理について説明する。なお、撮影画像403(例えば、人物等を撮影した撮影画像403)は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi番目、垂直方向にj番目の画素をp(i、j)とする。また、Wfピクセル×Hfピクセルの領域を、RAM105上に確保し、前記領域を白色で塗りつぶすものとする。この白色で塗りつぶされた領域をファインダ画像とする。ファインダ画像は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi'番目、垂直方向にj'番目の画素をp'(i'、j')とする。
(Description of viewfinder image creation processing)
A process of creating a finder image from a photographed image 403 (for example, a photographed
ステップS1101では、変数jにy1を代入する。ステップS1102では、変数iにx1を代入する。ステップS1103では、変数i'にi−x1を、変数j'にj−y1を代入する。その後、ファインダ画像の画素p'(i'、j')に、撮影画像403(例えば、人物等を撮影した撮影画像403)の画素p(i、j)の値をコピーする。
In step S1101, it substitutes y 1 to the variable j. In step S1102, substitutes x 1 to variable i. In step S1103, 'the i-x 1 to the variable j' variable i is substituted for j-y 1 in. Thereafter, the value of the pixel p (i, j) of the photographed image 403 (for example, the photographed
ステップS1104では、変数iの値を1だけインクリメントする。ステップS1105では、変数iの値と、x1+Wfとを比較する。変数iの値がx1+Wfより大きいと、ステップS1106へ進み、変数iの値がx1+Wfより大きくないと、ステップS1103へ進む。 In step S1104, the value of variable i is incremented by one. In step S1105, the value of the variable i is compared with x 1 + W f . If the value of the variable i is larger than x 1 + W f , the process proceeds to step S1106. If the value of the variable i is not larger than x 1 + W f , the process proceeds to step S1103.
ステップS1106では、変数jの値を1だけインクリメントする。ステップS1107では、コンピュータシステムは、変数jの値と、y1+Hfとを比較する。変数jの値がy1+Hfより大きいと、処理を終了し、変数jの値がy1+Hfより大きくないと、ステップS1102へ進む。 In step S1106, the value of variable j is incremented by one. In step S1107, the computer system compares the value of the variable j with y 1 + H f . And the value is greater than y 1 + H f of the variable j, and the process ends, the value of the variable j is not greater than y 1 + H f, the process proceeds to step S1102.
図11に示される処理の結果、ファインダ画像として、撮影画像403(例えば、人物等を撮影した撮影画像403)をファインダ領域で切り抜いた画像が得られる。なお、撮影画像403(例えば、人物等を撮影した撮影画像403)をファインダ領域で切り抜かず、領域部分が分かるように枠で囲んだり、マスクしたりしてもよい。そして、このようにして作成された画像を、ファインダ画像としてもよい。
As a result of the processing shown in FIG. 11, an image obtained by clipping a captured image 403 (for example, a captured
図12は、図11に示した処理の概念図である。図12(A)は、撮影画像403(例えば、人物等を撮影した撮影画像403)に対するファインダ領域の位置関係を示した図である。また、図12(B)は、領域部分が分かるように枠で囲んだ画像(ファインダ画像)である。
FIG. 12 is a conceptual diagram of the processing shown in FIG. FIG. 12A is a diagram showing the positional relationship of the finder region with respect to a captured image 403 (for example, a captured
実施例1の図3(B)に示したように、ファインダ領域が撮影範囲に対して傾いている場合がある。このように、ファインダ領域が撮影範囲に対して傾いている場合の、傾き情報406や、領域情報405の取得方法、撮影画像403(例えば、人物等を撮影した撮影画像403)からコンピュータシステムを用いてファインダ画像409を作成する方法について、以下実施例2において説明する。
As shown in FIG. 3B of the first embodiment, the finder region may be inclined with respect to the shooting range. As described above, when the finder area is tilted with respect to the shooting range, the computer system is used from the
まず、図13から図21までを参照して、図3(B)のようにファインダ領域が撮影範囲に対して傾いている場合の、領域情報405、傾き情報406の取得方法について説明する。
First, with reference to FIG. 13 to FIG. 21, a method for acquiring the
図13は、傾き情報406、領域情報405を取得し、補正情報データベース407へ保存する処理の一例を示すフローチャートである。
FIG. 13 is a flowchart illustrating an example of processing for acquiring the
ステップS1301では、傾き情報406を得るのに用いる評価オブジェクト408を作成する。作成された評価オブジェクト408の一例を、図14(A)に示す。本実施例において、傾きを評価するのに用いられる評価オブジェクト408は、長方形の白紙に、長方形の中心を通る水平線が描かれたものであり、また白紙は撮影範囲よりも十分に大きいものとする。
In step S1301, an
図14(A)において、破線枠で囲まれた領域Vは、オブジェクトの全範囲である。直線Lhは、領域Vの長辺に平行になるように引かれた、水平線である。 In FIG. 14A, a region V surrounded by a broken line frame is the entire range of the object. The straight line L h is a horizontal line drawn so as to be parallel to the long side of the region V.
ステップS1302では、S1301で作成した評価オブジェクト408を、デジタルカメラ401で撮影する。なお、例えば撮影者は、評価オブジェクト408を、地面に対して垂直に固定する。また、例えば撮影者は、評価オブジェクト408を撮影するデジタルカメラ401を、ファインダ面が評価オブジェクト408と平行になるように三脚等で固定する。また、例えば撮影者は、ファインダ205を通して観察される領域に直線Lhが水平に写るように、デジタルカメラ401の高さや位置、傾き、レンズの倍率等を調節する。但し、例えば撮影者は、傾きは、ファインダ面が評価オブジェクト408の面と平行になる範囲で調節する。
In step S1302, the
撮影した画像(評価オブジェクト408の撮影画像403)を、デジタルカメラ401のカメラID402と共に撮影ファイルとして、デジタルカメラ110内のメモリ、RAM105、HDD106、リムーバブルディスク107の何れかに保存する。
The captured image (the captured
図14(B)は、図14(A)に示す評価オブジェクト408の撮影画像403の一例を示す図である。図14(B)において、破線枠で囲まれる領域は撮影範囲である。また、直線Lh'は、図14(A)の直線Lhが撮影された直線であり、水平線に対してθ°傾いている。θは、図で時計回り方向を正とし、−90〜+90の範囲で、度を単位として表す。
FIG. 14B is a diagram illustrating an example of the captured
ステップS1303では、図14(B)に示す評価オブジェクト408の撮影画像403から、傾き情報406として、θの値を取得する。図15は、図14(B)の評価オブジェクト408の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系の一例を示す図である。ここで、撮影範囲の幅と、高さとは、それぞれxend、yendであるとする。また、直線Lh'と、y軸との交点のy座標をyr1、Lh'と、x=xendの線との交点のy座標をyr2とする。図15(A)は、θが正の場合の座標系の一例を示す図である。また、図15(B)は、θが負の場合の座標系の一例を示す図である。θの取得方法の詳細については後述する。
In step S1303, the value of θ is acquired as the
ステップS1304及びS1305では、領域情報405を得るのに用いる評価オブジェクト408の作成及び撮影を行う。なお、ステップS1304及びS1305の処理は、図5のステップS501及びステップS502で説明した処理と同様である。作成された評価オブジェクト408の一例を、図16(A)に示す。図16(B)は、図16(A)に示す評価オブジェクト408の撮影画像403の一例を示す図である。図16(B)において、破線枠で囲まれる領域は撮影範囲である。単色で塗りつぶされた矩形R'は、図16(A)における矩形Rが撮影されたものであり、ファインダ領域に相当する。矩形R'の幅と、高さとは、それぞれWfピクセルと、Hfピクセルとである。また、矩形R'の左上端の点をP1とし、P1の位置は、撮影範囲の左上を始点として、水平方向x1ピクセル、垂直方向y1ピクセル進んだ点であるとする。更に、図16(B)では、ファインダ領域の撮影範囲に対する傾きをθで表している。
In steps S1304 and S1305, the
ステップS1306では、図16(B)に示す評価オブジェクト408の撮影画像403を、ステップS1303において取得した傾き情報に基づいて、ファインダ領域が水平になるように、回転させる。図17(A)、図18(A)は、図16(B)の評価オブジェクト408の撮影画像403について、撮影範囲の左上端を原点とし、原点から右方向を+x、下方向を+yとした座標系を示す図である。図17はθが正である場合の座標系の一例を示す図である。また、図18は、θが負である場合の座標系の一例を示す図である。図17及び図18に示される座標系において、撮影範囲の幅と、高さとは、それぞれxendと、yendとであるとする。また、矩形R'の四隅点の座標は、それぞれ(x1、y1)、(x2、y1)、(x1、y2)、(x2、y2)であるとする。なお、(x1、y1)は、図16の点P1の座標に相当する。
In step S1306, the captured
また、図17(B)、図18(B)は、それぞれ図17(A)、図18(A)で示す座標系において、評価オブジェクト408の撮影画像403をθ度回転させた一例を示す図である。図17(B)、図18(B)において、実線枠で囲まれた領域は、回転させた撮影範囲がちょうど収まり、且つ、各辺がファインダ領域の対応する辺と平行となるように矩形を描いたものである。以下、この領域を傾き補正領域と呼ぶ。コンピュータシステムは、傾き補正領域内の、ファインダ領域以外の画素を全て白色にした画像を作成し、RAM105に保存する。以下、この画像を傾き補正画像と呼ぶ。ここで、傾き補正領域の左上端を原点とし、原点から右方向を+x'、下方向を+y'とする座標系を考える。図17(B)、図18(B)のx1'、y1'、x2'、y2'、xend'、yend'は、それぞれ図17(A)、図18(A)のxy平面におけるx1、y1、x2、y2、xend、yendに対応する、x'y'平面上の点である。撮影画像403の回転方法の詳細は、後述する。
FIGS. 17B and 18B are diagrams showing examples in which the captured
ステップS1307では、ステップS1306で作成した傾き補正画像から、領域情報405として、傾き補正領域内のファインダ領域の位置、大きさを取得する。なお、コンピュータシステムは、実施例1の図9に示した処理を行い、傾き補正画像から、領域情報405として、傾き補正領域内のファインダ領域の位置、大きさを取得する。
In step S1307, the position and size of the finder area in the inclination correction area are acquired as
ステップS1308では、ステップS1303において取得した傾き情報406と、ステップS1307で取得した領域情報405とを、カメラID402と対応付けて、補正情報データベース407に保存する。図19は、補正情報データベース407の一例を示す図(その2)である。
In step S1308, the
(傾き情報取得処理の説明)
図20のフローチャートに従って、θの値を取得するコンピュータシステムを用いた処理について説明する。なお、評価オブジェクト408の撮影画像403は、画素の2次元配列としてアクセスでき、各画素の位置は、図15の座標系に準じるものとする。また、c(i、j)は、座標(i、j)の画素の色を表すものとする。ステップS1501では、コンピュータシステムは、変数jに0を代入する。
(Explanation of tilt information acquisition processing)
Processing using a computer system that acquires the value of θ will be described with reference to the flowchart of FIG. Note that the captured
ステップS1502では、変数iに0を代入する。ステップS1503では、座標(i、j)における画素の色と、座標(i、j−1)における画素の色とを比較する。座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きければステップS1504へ進む。一方、座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きくなければステップS1505へ進む。
In step S1502, 0 is substituted for variable i. In step S1503, the color of the pixel at the coordinates (i, j) is compared with the color of the pixel at the coordinates (i, j-1). If the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i, j−1) is larger than a predetermined threshold stored in the
ステップS1504では、yr1に変数jの値を代入する。このときのyr1が、図15における線Lh'と、y軸との交点のy座標である。 In step S1504, it substitutes the value of variable j to y r1. Y r1 at this time is the y coordinate of the intersection of the line L h ′ in FIG. 15 and the y axis.
ステップS1505では、変数iにxendを代入する。ステップS1506では、座標(i、j)における画素の色と、座標(i、j−1)における画素の色とを比較する。コンピュータシステムは、座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きければステップS1507へ進む。一方、座標(i、j)における画素の色と、座標(i、j−1)における画素の色との差が、例えばHDD106等に格納されている、予め定められた閾値より大きくなければ、ステップS1508へ進む。
In step S1505, x end is substituted for variable i. In step S1506, the color of the pixel at the coordinates (i, j) is compared with the color of the pixel at the coordinates (i, j-1). If the difference between the color of the pixel at the coordinates (i, j) and the color of the pixel at the coordinates (i, j−1) is larger than a predetermined threshold stored in the
ステップS1507では、yr2に変数jの値を代入する。このときのyr2が、図15における線Lh'と、x=xendの線との交点のy座標である。 In step S1507, it substitutes the value of variable j to y r2. Y r2 at this time is the y coordinate of the intersection of the line L h ′ in FIG. 15 and the line x = x end .
ステップS1508では、変数jの値を1だけインクリメントする。ステップS1509では、変数jの値と、yendとを比較する。コンピュータシステムは、変数jの値がyendより大きいとステップS1510へ進み、変数jの値がendより大きくないとステップS1502へ進む。 In step S1508, the value of variable j is incremented by one. In step S1509, the value of variable j is compared with y end . Computer system, the value of the variable j advances to y end The larger the step S1510, the value of the variable j is advanced to step S1502 when not greater than end The.
ステップS1510では、θの値を式θ←atan(xend/|yr2−yr1|)で計算し、計算した結果をθに代入する。 In step S1510, the value of θ is calculated by the equation θ ← atan (x end / | y r2 −y r1 |), and the calculated result is substituted into θ.
ステップS1511では、yr1と、yr2との比較を行う。yr2がyr1より大きいとステップS1512へ進み、yr2がyr1より大きくないと処理を終了する。ステップS1511では、yr1と、yr2との位置関係からθの正負を確認している。 In step S1511, y r1 and y r2 are compared. If y r2 is greater than y r1 , the process proceeds to step S1512. If y r2 is not greater than y r1 , the process ends. In step S1511, the y r1, and check the polarity of θ from the positional relationship between the y r2.
ステップS1512では、θの値をマイナスにし、処理を終了する。 In step S1512, the value of θ is set to minus, and the process ends.
(評価オブジェクト408の撮影画像403の回転処理の説明)
図21のフローチャートに従って、傾き情報406(θの値)を用いて、図17(A)、図18(A)に示した評価オブジェクト408の撮影画像403を回転させるコンピュータシステムを用いた処理について説明する。なお、評価オブジェクト408の撮影画像403は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi番目、垂直方向にj番目の画素をp(i、j)とする。また、各画素の位置は、図17(A)、図18(A)の座標系に準じるものとする。
(Description of Rotation Processing of Captured
A process using a computer system that rotates the captured
また、xend'ピクセル×yend'ピクセルの領域をRAM105上に確保し、前記領域を白色で塗りつぶすものとする。この白色で塗りつぶされた領域を傾き補正画像とする。傾き補正画像は画素の2次元配列としてアクセスでき、左上を起点として水平方向にi'番目、垂直方向にj'番目の画素をp'(i'、j')とする。なお、各画素の位置は図17(B)、図18(B)の座標系に準じるものとする。
Further, an area of x end ′ pixels × y end ′ pixels is secured on the
ステップS1801では、θの値が0か否かを確認する。θの値が0であれば、処理を終了し、θの値が0でなければステップS1802に進む。 In step S1801, it is confirmed whether or not the value of θ is zero. If the value of θ is 0, the process is terminated, and if the value of θ is not 0, the process proceeds to step S1802.
ステップS1802では、変数jに0を代入する。ステップS1803では、変数iに0を代入する。ステップS1804では、θの正負を確認する。θが正であれば、ステップS1805へ進み、θが負であれば、ステップS1807へ進む。 In step S1802, 0 is substituted for variable j. In step S1803, 0 is substituted for variable i. In step S1804, the sign of θ is confirmed. If θ is positive, the process proceeds to step S1805, and if θ is negative, the process proceeds to step S1807.
ステップS1805では、式(i'=icosθ+jsinθ、j'=−isinθ+jcosθ)により、変数i'、j'に(i、j)の座標をθ度回転した値を代入する。ステップS1806では、式(i'=i'+yendsinθ、j'=j')により、変数i'、j'に(i、j)の座標を平行移動した値を代入する。 In step S1805, a value obtained by rotating the coordinates of (i, j) by θ degrees is substituted into variables i ′ and j ′ by the equation (i ′ = icos θ + jsin θ, j ′ = − isin θ + jcos θ). In step S1806, the value obtained by translating the coordinates of (i, j) is substituted into variables i ′ and j ′ by the equation (i ′ = i ′ + y end sin θ, j ′ = j ′).
一方、ステップS1807では、式(i'=icosθ−jsinθ、j'=isinθ+jcosθ)により、変数i'、j'に(i、j)の座標をθ度回転した値を代入する。ステップS1808では、式(i'=i'、j'=j'+xendsinθ)により、変数i'、j'に(i、j)の座標を平行移動した値を代入する。 On the other hand, in step S1807, a value obtained by rotating the coordinates of (i, j) by θ degrees is substituted into variables i ′ and j ′ by the equation (i ′ = icos θ−jsin θ, j ′ = isin θ + jcos θ). In step S1808, a value obtained by translating the coordinates of (i, j) is substituted into variables i ′ and j ′ by the equation (i ′ = i ′, j ′ = j ′ + x end sin θ).
ステップS1809では、傾き補正画像の画素p'(i'、j')に、評価オブジェクト408の撮影画像403の画素p(i、j)の値をコピーする。
In step S1809, the value of the pixel p (i, j) of the captured
ステップS1810では、変数iの値を1だけインクリメントする。ステップS1811では、変数iの値と、xendとの比較を行う。変数iの値がxendより大きいとステップS1812へ進み、変数iの値がxendより大きくなければステップS1804へ進む。 In step S1810, the value of variable i is incremented by one. In step S1811, carried out the value of the variable i, the comparison with the x end The. If the value of variable i is greater than x end , the process proceeds to step S1812, and if the value of variable i is not greater than x end , the process proceeds to step S1804.
ステップS1812では、変数jの値を1だけインクリメントする。ステップS1813では、変数jの値と、yendとの比較を行う。変数jの値がyendより大きいと処理を終了し、変数jの値がyendより大きくなければステップS1803へ進む。 In step S1812, the value of variable j is incremented by one. In step S1813, the value of variable j is compared with y end . The value of the variable j is finished processing a larger y end The, the value of the variable j is advanced to step S1803 to be greater than y end The.
図21に示される処理の結果、傾き補正画像が得られる。傾き補正画像をRAM105上に保存し、その後の処理に用いる。
As a result of the processing shown in FIG. 21, an inclination-corrected image is obtained. The tilt-corrected image is stored on the
次に、図22から図23までを参照して、傾き情報406及び領域情報405を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からコンピュータシステムを用いてファインダ画像409を作成する方法について説明する。
Next, referring to FIG. 22 to FIG. 23, using the
図22は、ファインダ画像409作成処理の一例を示すフローチャート(その2)である。ステップS2201では、撮影ファイル404を読み出し、RAM105に保存する。ステップS2202では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。
FIG. 22 is a flowchart (part 2) illustrating an example of the
ステップS2203では、補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS2204へ進む。補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS2206へ進む。
In step S2203, it is confirmed whether or not there is information corresponding to the
ステップS2204では、補正情報データベース407から、カメラID402に対応する傾き情報406を取得し、RAM105に保存する。ステップS2205では、図21に示したような処理を行い、傾き情報406を用いて評価オブジェクト408の撮影画像403から、傾き補正画像を作成する。
In step S <b> 2204, the
ステップS2206では、補正情報データベース407から、カメラID402に対応する領域情報405を取得し、RAM105に保存する。ステップS2207では、図11に示したような処理を行い、領域情報405を用いて、ステップS2205において作成した傾き補正画像から、ファインダ画像409を作成する。
In step S 2206,
ステップS2208では、ステップS2207で作成したファインダ画像409を、表示部103又はプリンタ108で描画する。なお、コンピュータシステムは、ファインダ画像409と共に、ステップS2201で読み込んだ撮影画像403(例えば、人物等を撮影した撮影画像403)を、表示部103又はプリンタ108で描画するようにしてもよい。また、ファインダ画像409と共に、ステップS2205で作成した傾き補正画像を、表示部103又はプリンタ108で描画するようにしてもよい。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。
In step S2208, the
図23は、図22に示した処理の概念図である。図23(A)は、撮影画像403(例えば、人物等を撮影した撮影画像403)に対するファインダ領域の位置関係を示した図である。また、図23(B)は、傾き補正画像を示した図である。また、図23(C)は、ファインダ画像を示した図である。
FIG. 23 is a conceptual diagram of the processing shown in FIG. FIG. 23A is a diagram illustrating a positional relationship of the finder region with respect to a captured image 403 (for example, a captured
前述した各実施例では、取得した領域情報405、傾き情報406を、補正情報データベース407へ保存するよう説明を行った。しかしながら、取得した領域情報405、傾き情報406を、補正情報データベース407に保存しなくてもよい。例えば、領域情報405、傾き情報406を領域情報405、傾き情報406は、補正情報データベース407とは別にHDD106へ保存してもよい。
In each of the above-described embodiments, the description has been made so that the acquired
また、領域情報405、傾き情報406を保存するのではなく、評価オブジェクト408の撮影画像403を補正情報データベース407や、補正情報データベース407とは別にHDD106に保存するようにしてもよい。
Further, instead of storing the
また、例えば操作者等からのファインダ画像409を作成する旨の指示を検出すると、評価オブジェクト408を用いて、領域情報405、傾き情報406を取得(生成)するようにしてもよい。
For example, when an instruction to create a
以下、本実施例では、コンピュータシステムを用いて評価オブジェクト408の撮影画像403を、カメラID402と対応付けてHDD106へ保存する場合の処理について、図24から図26までを参照して説明する。
Hereinafter, in the present embodiment, a process when the captured
図24は、本実施例で用いられるデータ等の一例を示す図である。図24において、401から409は、図4に示した401から409と同様である。241は、傾き情報を取得するのに用いる評価オブジェクト(傾き評価オブジェクト)を撮影したファイル(傾き評価オブジェクト撮影ファイル)であり、カメラID402と、傾き評価オブジェクト撮影画像242とを含む。243は、領域情報を取得するのに用いる評価オブジェクト(領域評価オブジェクト)を撮影したファイル(領域評価オブジェクト撮影ファイル)であり、カメラID402と、領域評価オブジェクト撮影画像244とを含む。
FIG. 24 is a diagram illustrating an example of data used in the present embodiment. In FIG. 24,
図25は、領域評価オブジェクトと、傾き評価オブジェクトとを撮影し、傾き評価オブジェクト撮影画像242と、領域評価オブジェクト撮影画像244とをそれぞれカメラIDと共に保存する処理の一例を示すフローチャートである。
FIG. 25 is a flowchart illustrating an example of processing for capturing an area evaluation object and an inclination evaluation object and storing the inclination evaluation object captured
ステップS2501からステップS2502までにおいて、領域評価オブジェクトを作成し、領域評価オブジェクトをデジタルカメラ401で撮影し、領域評価オブジェクト撮影画像244を作成する。なお、ステップS2501からステップS2502までの処理は、図5のフローチャートのステップS501からステップS502までの処理と同様である。
In step S2501 to step S2502, a region evaluation object is created, the region evaluation object is photographed by the
ステップS2503からステップS2504までにおいて、傾き評価オブジェクトを作成し、傾き評価オブジェクトをデジタルカメラ401で撮影し、傾き評価オブジェクト撮影画像242を作成する。なお、ステップS2503からステップS2504までの処理は、図13のフローチャートのステップS1301からステップS1302までの処理と同様である。
In steps S2503 to S2504, a tilt evaluation object is created, and the tilt evaluation object is photographed by the
ステップS2505では、ステップS2502及びステップS2504で作成した傾き評価オブジェクト撮影画像242及び領域評価オブジェクト撮影画像244を、カメラID402と対応付けて、それぞれHDD106に保存する。なお、傾き評価オブジェクト撮影ファイル241及び領域評価オブジェクト撮影ファイル243を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよい。また、傾き評価オブジェクト撮影ファイル241及び領域評価オブジェクト撮影ファイル243を、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。
In step S2505, the tilt evaluation object captured
図26は、傾き評価オブジェクト撮影ファイル241、領域評価オブジェクト撮影ファイル243を取得し、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成する処理の一例を示すフローチャートである。
FIG. 26 is a flowchart showing an example of processing for acquiring the tilt evaluation
ステップS2601では、撮影ファイル404を読み出し、RAM105に保存する。ステップS2602では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。
In step S2601, the
ステップS2603では、カメラID402に基づいて、HDD106から、傾き評価オブジェクト撮影ファイル241を取得し、RAM105へ保存する。
In
ステップS2604では、図20に示したような処理を行い、取得した傾き評価オブジェクト撮影ファイル241に含まれる傾き評価オブジェクト撮影画像242を用いて、傾き情報406を取得する。
In step S2604, the processing shown in FIG. 20 is performed, and the
ステップS2605では、カメラID402に基づいて、HDD106から、領域評価オブジェクト撮影ファイル243を取得し、RAM105へ保存する。
In step S 2605, the area evaluation
ステップS2606では、図21に示したような処理を行い、取得した領域評価オブジェクト撮影ファイル243に含まれる領域評価オブジェクト撮影画像244を、取得した傾き情報406を用いて回転させ、傾き補正画像を作成する。
In step S2606, processing as shown in FIG. 21 is performed, and the region evaluation object captured
ステップS2607では、図9に示したような処理を行い、ステップS2606で作成した傾き補正画像を用いて、傾き補正領域内の領域情報405を取得する。
In step S2607, processing as shown in FIG. 9 is performed, and
ステップS2608からステップS2609では、傾き情報406及び領域情報405を用いて、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成、描画する。なお、ステップS2608からステップS2609までの処理は、図22のステップS2207からステップS2208までの処理と同様である。
In steps S2608 to S2609, a
領域情報405、傾き情報406は、デジタルカメラ401が使用される間に変化する可能性がある。そのため、定期的に領域情報405、傾き情報406を更新する必要があり、更に、領域情報405、傾き情報406の変化を予測できるようにすることが望ましい。以下、本実施例では、図27から図28までを参照して、コンピュータシステムを用いた領域情報405、傾き情報406の更新方法、変化の予測の方法について説明する。
The
図27は、領域情報405及び傾き情報406を、カメラIDや、補正情報の更新日と対応付けて、補正情報データベース407に保存する一例を示す図である。図27において、C0は初期補正情報(つまり、領域情報405及び傾き情報406)であり、D0は初期補正情報C0が設定された日付である。同様に、Cnは、更新日Dnに更新された補正情報を表す。ここで、nは正の整数である。補正情報データベース407にデータ(情報)を追加するときは、必ず補正情報と、補正情報の更新日とをセットで、更新日で昇順になるように格納する。即ち、Dn-1<Dnが常に成り立つようにする。
FIG. 27 is a diagram illustrating an example of storing the
図28は、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日の補正情報を予測し、予測した補正情報を基に、ファインダ画像309を得るまでの処理の一例を示すフローチャートである。
FIG. 28 shows an example of processing for predicting correction information on the date when a captured image 403 (for example, a captured
ステップS8501では、撮影ファイル404を読み出し、RAM105に保存する。ステップS8502では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。ステップS8503では、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS2804へ進む。一方、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS2820へ進む。
In step S8501, the
ステップS2804では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付を取得し、DmとしてRAM105に保存する。ステップS2805では、変数nに、図27に示したような補正情報データベース407に含まれる更新日及び補正情報のセット(又は更新日)の数から1を引いた値を代入する。
In step S2804, the date on which the captured image 403 (for example, the captured
ステップS2806では、変数nの値が0か否かを確認する。変数nの値が0でない場合、ステップS2807へ進む。一方、変数nの値が0の場合、即ち、図27に示したような補正情報データベース407にC0及びD0しか格納されていない場合、ステップS2807へ進む。
In step S2806, it is confirmed whether or not the value of the variable n is 0. If the value of the variable n is not 0, the process proceeds to step S2807. On the other hand, if the value of the variable n is 0, that is, if only C 0 and D 0 are stored in the
ステップS2807では、変数kに0を代入する。ステップS2808では、変数kの値を1だけインクリメントする。ステップS2809では、変数kと、変数nの値とを比較する。変数kがnの値以上であれば、ステップS2811へ進む。一方、変数kがnの値以上でなければ、ステップS2810へ進む。 In step S2807, 0 is substituted for variable k. In step S2808, the value of the variable k is incremented by 1. In step S2809, the variable k is compared with the value of the variable n. If the variable k is greater than or equal to n, the process proceeds to step S2811. On the other hand, if the variable k is not greater than or equal to the value of n, the process proceeds to step S2810.
ステップS2810では、図27に示したような補正情報データベース407の、k番目に格納されている更新日Dkを取得し、取得したDkと、Dmとを比較する。Dm<Dkの場合、ステップS2814へ進み、Dm<Dkでない場合、ステップS2808へ進む。
In step S2810, the kth stored update date Dk of the
ステップS2811では、図27に示したような補正情報データベース407の、n番目に格納されている更新日Dnと、補正情報Cnとを取得し、RAM105に保存する。ステップS2812では、図27に示したような補正情報データベース407の、n−1番目に格納されている更新日Dn-1と、補正情報Cn-1とを取得し、RAM105に保存する。このとき、Dn<Dmとなり、撮影画像403(例えば、人物等を撮影した撮影画像403)の撮影日(Dm)より後に追加された補正情報はない。したがって、Dn-1と、Dnとの間での補正情報の変化から、最終更新日Dn以降の補正情報の変化を予測する。
In step S2811, the nth update date D n and correction information C n stored in the
ステップS2813では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付Dmにおける補正情報Cmを次の式で求め、RAM105に保存する。
Cm=Cn+(Dm−Dn)×(Cn−Cn-1)/(Dn−Dn-1)
In step S2813, correction information C m on the date D m when the captured image 403 (for example, a captured
C m = C n + (D m -D n) × (C n -C n-1) / (D n -D n-1)
ステップS2814では、図27に示したような補正情報データベース407の、k番目に格納されている更新日Dkと、補正情報Ckとを取得し、RAM105に保存する。ステップS2815では、図27に示したような補正情報データベース407の、k−1番目に格納されている更新日Dk-1と、補正情報Ck-1とを取得し、RAM105に保存する。このとき、Dk-1<Dm<Dkとなり、Dk-1の補正情報と、Dkの補正情報とを線形補間して、撮影日Dmにおける補正情報を求める。
In step S2814, the kth stored update date D k and correction information C k of the
ステップS2816では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付Dmにおける補正情報Cmを次の式で求め、RAM105に保存する。
Cm=Ck-1+(Dm−Dk-1)×(Ck−Ck-1)/(Dk−Dk-1)
In step S2816, correction information C m on the date D m when the photographed image 403 (for example, a photographed
C m = C k-1 + (D m -D k-1) × (C k -C k-1) / (D k -D k-1)
ステップS2817では、図27に示したような補正情報データベース407の、初期補正情報C0と、日付D0とを取得し、RAM105に保存する。このとき、図27に示したような補正情報データベース407に補正情報が一つしか存在しないため、補正情報の予測を行うことができない。従って、初期補正情報C0をそのまま用いる。
In step S2817, initial correction information C 0 and date D 0 of the
ステップS2818では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付Dmにおける補正情報Cmを次の式で求め、RAM105に保存する。
Cm=C0
In step S2818, correction information C m on the date D m when the captured image 403 (for example, a captured
C m = C 0
ステップS2819では、補正情報Cmを用いて、図11又は図18に示したように、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成する。
In step S2819, the correction information using the C m, as shown in FIG. 11 or FIG. 18, the captured image 403 (e.g., the captured
ステップS2820では、ステップS2819で作成したファインダ画像409を、表示部103、又はプリンタ108で描画する。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。
In step S2820, the
なお、本実施例では、補正情報Cmを、補正情報の線形補間により求めたが、近似式等を用いて求めてもよい。 In this embodiment, the correction information C m is obtained by linear interpolation of the correction information, but may be obtained using an approximate expression or the like.
実施例4では、補正情報Cmを、図27に示したような補正情報データベース407に格納された複数の補正情報に基づいて求める例を示した。しかしながら、より簡単に、補正情報Cmを、撮影日Dmの直前に更新された補正情報としてもよい。以下、補正情報Cmを、撮影日Dmの直前に更新された補正情報とするコンピュータシステムを用いた一例を、図29を用いて説明する。
In the fourth embodiment, the correction information C m is obtained based on a plurality of correction information stored in the
図29は、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日の補正情報を決定し、決定した補正情報を基に、ファインダ画像309を得るまでの処理の一例を示すフローチャートである。
FIG. 29 illustrates an example of processing for determining correction information on the date when a captured image 403 (for example, a captured
ステップS2901では、撮影ファイル404を読み出し、RAM105に保存する。ステップS2902では、撮影ファイル404の中のカメラID402を取得し、RAM105に保存する。ステップS2903では、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報があるか否かを確認する。図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がある場合、ステップS2904へ進む。一方、図27に示したような補正情報データベース407の中に、カメラID402に対応する情報がない場合、ステップS2913へ進む。
In step S2901, the
ステップS2904では、撮影画像403(例えば、人物等を撮影した撮影画像403)が撮影された日付を取得し、DmとしてRAM105に保存する。ここで、Dmにおける補正情報を、Cmとする。ステップS2905では、変数nに、図27に示したような補正情報データベース407に含まれる更新日及び補正情報のセット(又は更新日)の数から1を引いた値を代入する。
In step S2904, the date when the photographed image 403 (for example, the photographed
ステップS2906では、変数kに0を代入する。ステップS2907では、変数kの値を1だけインクリメントする。ステップS2908では、変数kと、変数nの値とを比較する。変数kがnの値より大きければ、ステップS2910へ進む。一方、変数kがnの値より大きくなければ、ステップS2909へ進む。 In step S2906, 0 is substituted for variable k. In step S2907, the value of the variable k is incremented by 1. In step S2908, the variable k is compared with the value of the variable n. If the variable k is greater than the value of n, the process proceeds to step S2910. On the other hand, if the variable k is not greater than the value of n, the process proceeds to step S2909.
ステップS2909では、図27に示したような補正情報データベース407の、k番目に格納されている更新日Dkを取得し、取得したDkと、Dmと比較する。Dm<Dkの場合、ステップS2911へ進み、Dm<Dkでない場合、ステップS2907へ進む。
In step S2909, the kth stored update date Dk of the
ステップS2910では、図27に示したような補正情報データベース407の、n番目に格納されている補正情報Cnを、補正情報Cmに代入する。また、ステップS2911では、図27に示したような補正情報データベース407の、k−1番目に格納されている補正情報Ck-1を、補正情報Cmに代入する。
In step S2910, the n-th stored correction information C n in the
ステップS2912では、補正情報Cmを用いて、図11又は図18に示したように、撮影画像403(例えば、人物等を撮影した撮影画像403)からファインダ画像409を作成する。
In step S2912, the correction information using the C m, as shown in FIG. 11 or FIG. 18, the captured image 403 (e.g., the captured
ステップS2913では、ステップS2912で作成したファインダ画像409を、表示部103、又はプリンタ108で描画する。なお、ファインダ画像409を、RAM105、HDD106、リムーバブルディスク107の何れかに保存してもよいし、ネットワークI/F109を介して接続された他の保存領域等に保存してもよい。
In step S2913, the
なお、本実施例では、撮影日の直前に更新された補正情報をCmとして用いたが、撮影日の直前、直後の更新日を比較して、より撮影日と近い方の補正情報をCmとして用いてもよい。 In the present embodiment, the correction information updated immediately before the shooting date is used as C m , but the update date immediately before and immediately after the shooting date is compared, and the correction information closer to the shooting date is determined as C. It may be used as m .
(他の実施例)
前述した各実施例の目的は、各実施例の機能を実現するソフトウェアのプログラムを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータが記憶媒体に格納されたプログラムを読み出し実行することによっても達成される。なお、ここで、コンピュータとは、例えば、CPU(Central Processing Unit)や、MPU(Micro Processing Unit)等のことである。この場合、記憶媒体から読み出されたプログラム自体が前述した実施例の機能を実現することになり、プログラムはもとより、そのプログラムを記憶した記憶媒体も本発明を構成する。
(Other examples)
The purpose of each embodiment described above is to supply a storage medium storing a software program for realizing the functions of each embodiment to the system or apparatus, and the computer of the system or apparatus reads the program stored in the storage medium. It is also achieved by executing. Here, the computer is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. In this case, the program itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program as well as the program constitutes the present invention.
以上、前述した各実施例によれば、カメラの個体差に係らず、撮影された範囲と、ファインダで見た範囲との関係を知らせることができる。また、撮影した画像から、撮影時にファインダで見た画像を作成することができる。例えば、前述した各実施例によれば、撮影した画像から、撮影時にファインダで見た画像を切り出して、表示したり、印刷したり、保存したりすることができる。 As described above, according to each of the above-described embodiments, it is possible to notify the relationship between the captured range and the range viewed with the viewfinder, regardless of individual differences between cameras. Further, an image viewed with a viewfinder at the time of shooting can be created from the shot image. For example, according to each of the above-described embodiments, an image viewed with a viewfinder at the time of shooting can be cut out from a shot image and displayed, printed, or saved.
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
101 CPU
102 キーボード
103 表示部
104 ROM
105 RAM
106 HDD
107 リムーバブルディスク
108 プリンタ
109 ネットワークI/F
110 デジタルカメラ
201 レンズ
202 ミラー
203 撮像素子
204 ペンタプリズム
205 ファインダ
206 LCD
241 傾き評価オブジェクト撮影ファイル
242 傾き評価オブジェクト撮影画像
243 領域評価オブジェクト撮影ファイル
244 領域評価オブジェクト撮影画像
401 デジタルカメラ
402 カメラID
403 撮影画像
404 撮影ファイル
405 領域情報
406 傾き情報
407 補正情報データベース
408 評価オブジェクト
409 ファインダ画像
101 CPU
102
105 RAM
106 HDD
107
110 Digital Camera 201 Lens 202 Mirror 203 Image Sensor 204 Penta Prism 205
241 Inclination evaluation
403 Captured
Claims (14)
前記領域情報取得手段が取得した前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶手段と、
撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得手段と、
前記補正情報取得手段が取得した前記領域情報を用いて、前記撮影画像を補正する補正手段と、
を有することを特徴とするカメラ撮影画像処理装置。 Area information acquisition means for acquiring area information relating to an area observed through a finder at the time of shooting;
Correction information storage means for storing the area information acquired by the area information acquisition means in a storage means in association with imaging apparatus identification information for identifying an imaging apparatus;
Correction information acquisition means for acquiring the region information from the storage means based on the imaging device identification information associated with the captured image;
Correction means for correcting the captured image using the region information acquired by the correction information acquisition means;
A camera-captured image processing apparatus.
前記補正情報記憶手段は、前記領域情報と、前記傾き情報取得手段が取得した前記傾き情報とを、前記撮影装置識別情報と対応付けて記憶手段に記憶し、
前記補正情報取得手段は、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報と、前記傾き情報とを取得し、
前記補正手段は、前記補正情報取得手段が取得した前記領域情報と、前記傾き情報とを用いて、前記撮影画像を補正することを特徴とする請求項1又は2に記載のカメラ撮影画像処理装置。 Further comprising tilt information acquisition means for acquiring tilt information related to the tilt of the region with respect to the captured image;
The correction information storage means stores the area information and the inclination information acquired by the inclination information acquisition means in association with the imaging device identification information in the storage means,
The correction information acquisition unit acquires the area information and the inclination information from the storage unit based on the imaging device identification information associated with the captured image.
3. The camera-captured image processing apparatus according to claim 1, wherein the correction unit corrects the captured image using the region information acquired by the correction information acquisition unit and the tilt information. 4. .
撮影時にファインダを通して観察される領域に係る領域情報を取得する領域情報取得ステップと、
前記領域情報取得ステップにおいて取得された前記領域情報を、撮影装置を識別する撮影装置識別情報と対応付けて記憶手段に記憶する補正情報記憶ステップと、
撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報を取得する補正情報取得ステップと、
前記補正情報取得ステップにおいて取得された前記領域情報を用いて、前記撮影画像を補正する補正ステップと、
を有することを特徴とするカメラ撮影画像処理方法。 A camera-captured image processing method in a camera-captured image processing apparatus,
An area information acquisition step for acquiring area information relating to an area observed through a finder at the time of shooting;
A correction information storage step for storing the area information acquired in the area information acquisition step in association with imaging apparatus identification information for identifying the imaging apparatus in a storage unit;
A correction information acquisition step for acquiring the region information from the storage unit based on the imaging device identification information associated with the captured image;
A correction step for correcting the captured image using the region information acquired in the correction information acquisition step;
A camera-captured image processing method.
前記補正情報記憶ステップでは、前記領域情報と、前記傾き情報取得ステップにおいて取得された前記傾き情報とを、前記撮影装置識別情報と対応付けて記憶手段に記憶し、
前記補正情報取得ステップでは、撮影画像に対応付けられた前記撮影装置識別情報に基づいて、前記記憶手段より、前記領域情報と、前記傾き情報とを取得し、
前記補正ステップでは、前記補正情報取得ステップにおいて取得された前記領域情報と、前記傾き情報とを用いて、前記撮影画像を補正することを特徴とする請求項7又は8に記載のカメラ撮影画像処理方法。 A tilt information acquisition step of acquiring tilt information related to the tilt of the region with respect to the captured image;
In the correction information storing step, the area information and the tilt information acquired in the tilt information acquiring step are stored in a storage unit in association with the imaging device identification information,
In the correction information acquisition step, the area information and the inclination information are acquired from the storage unit based on the imaging device identification information associated with the captured image.
9. The camera-captured image processing according to claim 7 or 8, wherein, in the correction step, the captured image is corrected using the region information acquired in the correction information acquisition step and the tilt information. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005290870A JP2007104246A (en) | 2005-10-04 | 2005-10-04 | Apparatus and method for processing image taken by camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005290870A JP2007104246A (en) | 2005-10-04 | 2005-10-04 | Apparatus and method for processing image taken by camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007104246A true JP2007104246A (en) | 2007-04-19 |
Family
ID=38030749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005290870A Pending JP2007104246A (en) | 2005-10-04 | 2005-10-04 | Apparatus and method for processing image taken by camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007104246A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007259311A (en) * | 2006-03-24 | 2007-10-04 | Ricoh Co Ltd | Photographing apparatus |
JP2007300210A (en) * | 2006-04-27 | 2007-11-15 | Ricoh Co Ltd | Photographing apparatus |
JP2009296031A (en) * | 2008-06-02 | 2009-12-17 | Canon Inc | Image processing apparatus, control method, and program |
-
2005
- 2005-10-04 JP JP2005290870A patent/JP2007104246A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007259311A (en) * | 2006-03-24 | 2007-10-04 | Ricoh Co Ltd | Photographing apparatus |
JP4685677B2 (en) * | 2006-03-24 | 2011-05-18 | 株式会社リコー | Imaging device |
JP2007300210A (en) * | 2006-04-27 | 2007-11-15 | Ricoh Co Ltd | Photographing apparatus |
JP4685699B2 (en) * | 2006-04-27 | 2011-05-18 | 株式会社リコー | Imaging device |
JP2009296031A (en) * | 2008-06-02 | 2009-12-17 | Canon Inc | Image processing apparatus, control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8194993B1 (en) | Method and apparatus for matching image metadata to a profile database to determine image processing parameters | |
US8675988B2 (en) | Metadata-driven method and apparatus for constraining solution space in image processing techniques | |
US8724007B2 (en) | Metadata-driven method and apparatus for multi-image processing | |
US20130121525A1 (en) | Method and Apparatus for Determining Sensor Format Factors from Image Metadata | |
RU2415513C1 (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method and programme | |
US8908058B2 (en) | Storage and transmission of pictures including multiple frames | |
US7327390B2 (en) | Method for determining image correction parameters | |
US20180213218A1 (en) | Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device | |
US8391640B1 (en) | Method and apparatus for aligning and unwarping distorted images | |
US11042997B2 (en) | Panoramic photographing method for unmanned aerial vehicle and unmanned aerial vehicle using the same | |
JP6257285B2 (en) | Compound eye imaging device | |
JPH09181913A (en) | Camera system | |
Guidi et al. | Massive 3D digitization of museum contents | |
JP2009171268A (en) | Electronic camera | |
WO2014187265A1 (en) | Photo-capture processing method, device and computer storage medium | |
CN102436639A (en) | Image acquiring method for removing image blurring and image acquiring system | |
CN103813093A (en) | Imaging apparatus and imaging method thereof | |
KR20190086964A (en) | System and Method for Removing Distortion of Fisheye Lens and Omnidirectional Image | |
JP2007104246A (en) | Apparatus and method for processing image taken by camera | |
CN102447833B (en) | Image processing apparatus and method for controlling same | |
JP6639832B2 (en) | Imaging device, imaging method, imaging program | |
CN111536947A (en) | Method and system for automatically detecting oblique photography missing and quickly performing rephotography | |
CN114898068A (en) | Three-dimensional modeling method, device, equipment and storage medium | |
CN104935815A (en) | Shooting method, shooting device, camera and mobile terminal | |
CN114222059A (en) | Photographing method, photographing processing method, system, equipment and storage medium |