JP2012090106A - Imaging device and control method of the same - Google Patents
Imaging device and control method of the same Download PDFInfo
- Publication number
- JP2012090106A JP2012090106A JP2010235565A JP2010235565A JP2012090106A JP 2012090106 A JP2012090106 A JP 2012090106A JP 2010235565 A JP2010235565 A JP 2010235565A JP 2010235565 A JP2010235565 A JP 2010235565A JP 2012090106 A JP2012090106 A JP 2012090106A
- Authority
- JP
- Japan
- Prior art keywords
- display
- shooting
- sample
- imaging apparatus
- rectangle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影構図をガイドする技術に関する。 The present invention relates to a technique for guiding a shooting composition.
従来から、位置情報が取得可能な撮像装置において、撮影対象に関する情報を利用者に提示するシステムが知られている。 2. Description of the Related Art Conventionally, in an imaging apparatus that can acquire position information, a system that presents information related to an imaging target to a user is known.
例えば、複数の撮像装置によって撮影された撮影対象、および、その撮影対象が撮影されたポイントに関する情報を、撮像装置がサーバと通信して取得しておく。その上で、利用者に対し、現在地付近から撮影可能な撮影対象、および、それを撮影するための好適な撮影ポイントを、文字、地図、音声などを用いて簡易に提示することが可能な技術がある(例えば、特許文献1)。 For example, the imaging device communicates with the server and acquires information about the imaging target captured by the plurality of imaging devices and the point at which the imaging target is captured. On top of that, a technology that can easily present to a user a shooting target that can be shot from the vicinity of the current location and a suitable shooting point for shooting the shot using characters, a map, voice, and the like. (For example, Patent Document 1).
また、他の例では、画像処理システムが、現在位置データを取得したタイミングデータと、撮影画像の付随データから取得した撮影日時データとを対比させ、近似するものを自動的に関連付けを行っておく。そして、システムが撮影ポイントに到達する毎に、そのポイントに関連付けられた撮影画像データを、地図データと共にディスプレイ表示領域に表示する技術がある(例えば、特許文献2)。 In another example, the image processing system compares the timing data obtained from the current position data with the photographing date / time data obtained from the accompanying data of the photographed image, and automatically associates the approximate data with each other. . Then, every time the system reaches a photographing point, there is a technique for displaying photographed image data associated with the point together with map data in a display display area (for example, Patent Document 2).
さらに、撮影対象の緯度、経度を含むGPS情報を取得し、撮影地点、および、撮影対象を含む電子地図上に、撮影対象の撮影方向を示す矢印線を表示させる技術がある(例えば、特許文献3)。 Further, there is a technique for acquiring GPS information including the latitude and longitude of a shooting target and displaying an arrow line indicating a shooting direction of the shooting target on an electronic map including the shooting point and the shooting target (for example, Patent Documents). 3).
上記の従来技術で開示される技術によれば、作例の撮影地点、および、撮像装置を構えるべき方角を電子地図上に表示することが可能である。しかしながら、実際に作例と同じ構図で写真を撮影するためには、撮影地点から撮像装置を一定の方角に向けた後に、撮像装置を構える高さや仰俯角を決定したり、ズーム倍率などの設定パラメータを決定したりする必要がある。従来技術では、こうした情報が一切提示されないため、ユーザ自身が作例の構図や設定パラメータを事前に調査した上で、適切な調整を行う必要がある。 According to the technique disclosed in the above-described conventional technique, it is possible to display on the electronic map the shooting point of the sample and the direction in which the imaging apparatus should be held. However, in order to actually take a picture with the same composition as the example, after setting the imaging device from a shooting point in a certain direction, the height and elevation angle for holding the imaging device are determined, and setting parameters such as zoom magnification are set. It is necessary to decide. In the prior art, since such information is not presented at all, it is necessary for the user himself / herself to make an appropriate adjustment after examining the composition and setting parameters of the sample in advance.
また、従来技術では、作例の撮影地点に関する情報が、2次元の電子地図上にマッピングされて提示される。このため、ユーザは現実の視界と電子地図を対比しながら、好適な撮影構図を捉える位置に移動する必要がある。こうした作業は、日常的に地図を読み慣れていないユーザには難しい作業となることがあり、探索に要する手間や精度的に改善の余地がある。 Further, in the prior art, information related to the shooting point of the sample is mapped and presented on a two-dimensional electronic map. For this reason, it is necessary for the user to move to a position for capturing a suitable shooting composition while comparing the real field of view with the electronic map. Such work may be difficult for users who are not accustomed to reading maps on a daily basis, and there is room for improvement in labor and accuracy required for searching.
本発明は、以上のような事情を鑑みてなされたものであり、作例となる写真の撮影構図や設定パラメータで容易に撮像可能となる技術を提供することを目的とする。 The present invention has been made in view of the circumstances as described above, and an object of the present invention is to provide a technique capable of easily capturing an image with a shooting composition and setting parameters as an example.
上記課題を解決するために、本発明は、ディスプレイ上に、撮影構図をガイドするオブジェクトを表示する表示制御手段と、前記ディスプレイの表示領域と前記オブジェクトが一致したかを判定する判定手段と、前記判定手段で、表示領域と前記オブジェクトが一致したと判定された場合、撮影時に利用する設定パラメータを、前記オブジェクトに関連つけられた情報に基づいて設定する設定手段を有することを特徴とする。 In order to solve the above problems, the present invention provides a display control means for displaying an object for guiding a shooting composition on a display, a determination means for determining whether the display area of the display matches the object, When it is determined by the determination means that the display area and the object match, the setting means has a setting means for setting a setting parameter used at the time of photographing based on information associated with the object.
本発明によれば、作例となる写真の撮影構図や設定パラメータで容易に撮像可能となる。 According to the present invention, it is possible to easily capture an image with a shooting composition and setting parameters of an example photograph.
[第1の実施形態]
図1(a)は、本発明のハードウェア構成の一例を示している。CPU0100は、本実施形態に係る撮像プログラムに基づいて処理を実行し、プログラムの実行に必要な情報をRAM0102などに格納する制御を行う。ROM0101には、基本I/Oプログラムなどのプログラムや各種データが格納されている。RAM0102は、CPU0100の主メモリ、ワークエリアなどとして機能する。記憶装置0103は、撮像プログラム、作例、作例に関連つけられた情報などを格納している。作例に関連つけられた情報は、図4を用いて後述する。本実施形態では、記憶装置0103は、撮像装置内にあるものとして説明するが、外部装置であってもよい。記憶装置0103が外部装置である場合は、撮像装置は、通信手段を介して、必要な情報を記憶装置0103から取得すればよい。GPS0104は、撮像装置の現在の位置情報を取得するために利用される。ディスプレイ0105は、撮像プログラムに基づいてCPU0100が出力する3次元矩形オブジェクトなどを表示する。地磁気センサ0106は、その出力値から、撮像装置の向いている方位角を計算するために利用される。加速度センサ0107は、その出力値から、撮像装置の傾きを計算するために利用される。撮像部0108は、ディスプレイ0105に表示された画像を撮像する手段である。システムバス0109は、撮像装置内のデータの流れを司る。
[First Embodiment]
FIG. 1A shows an example of the hardware configuration of the present invention. The
図1(a)は、本発明の機能ブロック図の一例を示している。取得部0110は、GPS0104の出力から本撮像装置の現在位置を、地磁気センサ0106の出力から本撮像装置が向いている方位角を、加速度センサ0107の出力から本撮像装置の仰俯角を取得する。範囲決定部0111は、矩形として表示対象となる作例の範囲(座標範囲)を決定する。探索部0112は、範囲決定部0111で決定した範囲内に存在する作例を探索する。表示制御部0113は、撮像部0108で撮像される画像や矩形を、ディスプレイ0105に表示する表示制御を行う。判定部0114は、表示領域と矩形とが一致したかを判定する。設定部0115は、表示倍率など撮像パラメータを設定する。
FIG. 1A shows an example of a functional block diagram of the present invention. The
次に、上記の如く構成された撮像装置の動作を、図2から図8までを参照しながら詳細に説明する。
本実施形態では、ユーザが一般的なスチールカメラやデジタルカメラで写真を撮影する際、作例となる写真と同じ構図で撮影するためのガイド情報を提示する例を示す。さらに、本撮像装置は、ユーザが作例と同じ構図を撮影できる位置にカメラをセットしたことを検知すると、作例の撮影情報を基に、カメラに対して適切なパラメータを設定する。
Next, the operation of the imaging apparatus configured as described above will be described in detail with reference to FIGS.
In the present embodiment, an example is shown in which when a user takes a picture with a general still camera or a digital camera, guide information for taking a picture with the same composition as that of a photograph as an example is presented. Further, when detecting that the user has set the camera at a position where the same composition as the sample can be captured, the imaging apparatus sets appropriate parameters for the camera based on the shooting information of the sample.
図2は、本撮像装置のディスプレイ0200上に提示される画面表示の一例を示す図である。ディスプレイ0200には、現在カメラが撮影することのできる画像が表示されており、ファインダの役割を担う。このとき、このディスプレイ上に表示されている画像に重畳して、作例となる写真の撮影構図を示す3次元矩形オブジェクト(以下、「矩形」と表現する)0201をガイドとして提示する。この矩形0201は、作例の撮影位置、高度、方角を表現しており、ユーザはディスプレイ0200の表示領域と矩形0201が一致するようにカメラを構えることで、作例を撮影したときと同じ位置にカメラを移動させることができる。また、3次元矩形オブジェクトだけでは、矩形の表側/裏側のどちらから撮影を行うべきなのか、ユーザが理解しにくい場合が考えられる。そのため、矩形0201と共に、方向線0202を撮影時の補助情報として表示する。
FIG. 2 is a diagram illustrating an example of a screen display presented on the
図3は、表示領域と矩形0201が一致した場合の画面表示の一例を示す図である。本撮像装置は、作例を撮影したときと同じ位置にカメラが移動されたことを検知し、中塗り色を変更した矩形0300を表示して、ユーザにそのことを通知する。その後、矩形0300を画面上から消去し、それに伴って作例を撮影したときと同じ撮影パラメータ(例えば、ズーム倍率)をカメラに対して設定する。これにより、ユーザは作例と同じ画像がディスプレイ上に表示されている状態となり、このままシャッターを切ることで、作例と同様の写真を撮影することができる。
FIG. 3 is a diagram illustrating an example of a screen display when the display area and the
なお、ここまでに示した図中には、一般的なスチールカメラを表す図形が描かれているが、本撮像装置は必ずしもこの形状に限定されない。また、本実施形態では、作例の撮影構図を示すために、3次元矩形オブジェクトをユーザに提示しているが、この形状にも限定されず、ユーザが空間的位置を認識可能なオブジェクトであればよく、例えば、2次元矩形オブジェクトであってもよい。同様に、方向線の形状も図中で示したものに限定されない。また、ユーザがカメラを構えた位置に複数の作例の撮影地点がある場合には、それに対応して、複数の矩形をディスプレイ0200上に表示しても良い。さらに、本実施形態では、ファインダの役割をディスプレイ0200が担っていたが、通常の光学ファインダ上に矩形0201を重畳表示しても良い。これらの事項は、この後の説明においても同様である。
In addition, although the figure showing a general still camera is drawn in the figure shown so far, this imaging device is not necessarily limited to this shape. In this embodiment, a three-dimensional rectangular object is presented to the user in order to show a sample shooting composition. However, the present invention is not limited to this shape, and any object that allows the user to recognize the spatial position. For example, it may be a two-dimensional rectangular object. Similarly, the shape of the direction line is not limited to that shown in the drawing. If there are a plurality of sample shooting points at the position where the user holds the camera, a plurality of rectangles may be displayed on the
次に、ここで説明した撮像装置の動作を実現する処理の一例を、データ構造図やフローチャートを用いて詳細に説明する。
図4は、記憶装置0103に記憶されている作例情報のデータ構造を示す図である。インデックス0400は、主に作例情報の探索時に利用され、ディスプレイ0200上に表示する作例の候補を記憶するためにインデックススタック上に積まれていくデータである。次に、作例が撮影された地点に関する情報を格納する領域がある。ここで、X座標0401とY座標0402は、それぞれ、撮影地点の経度と緯度に基づいた値であり、北緯/東経方向を正、南緯/西経方向を負の数で表すものとする。Z座標0403は、平均海水面からの高度に基づいた値であり、高方向を正の数で表すものとする。方位角0404は、作例の撮影時に撮像装置が向いていた向きの情報であり、北を基準として時計周りを正とした角度に基づいた値である。仰俯角0405は、作例が撮影された際に、撮像装置の傾きに基づいた値であり、水平を基準として上向きの角度を正の数、下向きの角度を負の数で表すものとする。倍率0406は、作例が撮影された際のズーム倍率である。本実施形態では、撮影パラメータとして、ズーム倍率を用いるが、ホワイトバランスや、絞り、シャッタースピードなど撮影時に用いるパラメータを用いてもよい。
Next, an example of processing for realizing the operation of the imaging apparatus described here will be described in detail using a data structure diagram and a flowchart.
FIG. 4 is a diagram illustrating a data structure of sample information stored in the
これらの作例に関する情報は、ユーザが作例情報をディスプレイ0200上に表示させる前に格納されていればよく、その手段は特に限定されない。例えば、作例の画像ファイルに付与されているメタデータ(Exifなど)から本撮像装置自身が抽出しても良いし、ネットワーク上のサーバからこれらの情報をダウンロードしてもよい。
Information regarding these examples is not particularly limited as long as the information is stored before the user displays the example information on the
図5は、本撮像装置におけるフローチャートである。はじめに、設定部0115が、撮影パラメータ(撮影時に利用する設定パラメータ)をリセットする(ステップS0500)。本実施形態では、ディスプレイの表示倍率をリセットする。次に、取得部0110が、GPS0104の出力から、本撮像装置の現在位置を計算する(ステップS0501)。GPSの出力フォーマットはいくつかの種類があるが、緯度と経度、および、平均海水面からの高度に関する情報が含まれていればよい。図4で説明した作例情報のデータと整合させるため、北緯/東経方向を正、南緯/西経方向を負の数に変換し、必要であれば正規化などの前処理を行った上で、RAM0102上に格納する。続いて、取得部0110が、地磁気センサ0106の出力から、本撮像装置が向いている方位角を計算する(ステップS0502)。具体的な計算式は使用するセンサによって異なるが、一般に、2軸の地磁気センサの場合、
FIG. 5 is a flowchart of the imaging apparatus. First, the
で求めることができる。さらに、取得部0110が、加速度センサ0107の出力から、本撮像装置の仰俯角を計算する(ステップS0503)。具体的な計算式は使用するセンサによって異なるが、一般的な3軸の加速度センサの場合、Z軸方向の出力値(加速度)に対してアークサイン関数を適用することで仰俯角を求めることができる。ここで得られた方位各、仰俯角に関しても、必要であれば正規化などの前処理を行ってからRAM0102上に格納しても良い。
Can be obtained. Further, the
範囲決定部0111が、本撮像装置の現在位置、方位角、仰俯角を基に、表示対象となる作例の範囲を決定する(ステップS0504)。次に、探索部0112が、求めた範囲内に含まれる作例を探索する(ステップS0505)。続いて、表示制御部0113が、範囲内に存在する作例について、撮影構図を表現する3次元矩形オブジェクトをディスプレイ上に表示する(ステップS0506)。ここで、ステップS0504からステップS0506の処理については、後に詳しい説明を述べる。判定部0114が、ディスプレイ上に表示したいずれの矩形とも、ディスプレイの表示領域と一致しなかった場合(ステップS0507でNO)、プログラムは再び現在位置の取得処理(ステップS0501)に戻る。尚、ファインダである場合は、ファインダを通して見える範囲が表示領域となる。また、矩形と表示領域の一致は、完全に一致しなくても、矩形と表示領域の大部分が重なれば、一致と判定してもよい。
The
いずれかの矩形と表示領域と一致した場合(ステップS0507でYES)、表示制御部0113が、その矩形の色を変更することでユーザにその旨を伝え(ステップS0508)、その後、すべての矩形を非表示とする(ステップS0509)。このとき、方向線もともに非表示とする。尚、ステップS0508は、ユーザに矩形と表示領域が一致したことを通知すればよく、矩形の色を変更することは一手段であって、他に、画面を点滅させたり、「一致した」と文字で表示しても構わない。
If one of the rectangles matches the display area (YES in step S0507), the
そして、設定部0115が、一致した矩形に対応する作例と同じ撮影パラメータ(本実施形態では、倍率)を設定して(ステップS0510)、撮像部0108が、設定された撮影パラメータを用いて、撮像し(ステップS0511)、処理を終了する。
Then, the
図6は、図5における範囲決定処理(ステップS0504)の詳細を示すフローチャートである。ここでは、本撮像装置の現在位置、方位角、仰俯角を基に、矩形として表示対象となる作例の範囲(座標範囲)を決定する。例えば、カメラの向いている方向に作例の撮影地点が存在しても、一定以上離れた位置にある場合、ユーザが容易にその地点に到達することができないため、矩形をユーザに提示すべきではない。また、表示する矩形を限定することで、本撮像装置内のリソースの節約(ROM/RAM使用量の削減など)や処理速度(パフォーマンス)の向上が期待できる。 FIG. 6 is a flowchart showing details of the range determination process (step S0504) in FIG. Here, based on the current position, azimuth angle, and elevation angle of the imaging apparatus, an example range (coordinate range) to be displayed is determined as a rectangle. For example, even if there is a shooting point of the sample in the direction that the camera is facing, if it is at a certain distance or more, the user cannot easily reach that point, so a rectangle should be presented to the user Absent. Further, by limiting the rectangles to be displayed, resource saving (reduction of ROM / RAM usage, etc.) and processing speed (performance) in the imaging apparatus can be expected.
まず、あらかじめ計算しておいた現在位置の座標、方位角、仰俯角の値をもとに、投影面の4頂点の座標を計算する(ステップS0600)。投影面とは、現在位置から、一定距離だけ撮像装置の前方方向に離れた場所に置く、仮想的なスクリーンである。本実施形態では、この投影面に透視投影した矩形0201の像をディスプレイ上に表示する。投影面の頂点の座標を計算するには、現在地点を中心として上下左右の斜め方向に一定距離だけ離れた4点を仮に求め、(ステップS0502で求めた)撮像装置の現在の方位角と(ステップS0503で求めた)仰俯角を表す回転行列を掛ける。さらに、方位角と仰俯角で決定される方向ベクトルを基にし、既定の距離だけ離れた位置に、各座標を平行移動すれば良い。ここで、投影面と現在地点の距離に応じて、スクリーンに投影される矩形0201の像の大きさが変わるため、ディスプレイ上に表示されている画像のスケールと矩形の像の大きさが一致するような距離として決定しておく。本実施形態では、ディスプレイ上に表示されている画像は倍率がリセットされているため、本撮像装置の実行前に規定値として決定しておくことができる。投影面の各頂点の座標が求められたら、それらの値を基に、X、Y、Z成分の最小・最大値を求める(ステップS0601)。次に、それぞれの頂点方向について、距離Dmだけ離れた位置の座標を計算する(ステップS0602)。このDmは表示領域の大きさを決定付ける任意の定数であるが、大きな値をとりすぎると、矩形0201を投影面に投影した際に、矩形が小さすぎてユーザが視認できないため、矩形が視認可能な大きさ以上となるようにDmの値を定める。距離Dmだけ離れた位置の座標が求められたら、それらの値を基に、X、Y、Z成分の最小・最大値を更新する(ステップS0603)。この処理を4頂点すべてについて行った後に求められている各成分の最小・最大値が、矩形表示を行う作例を限定するための座標範囲となる。
First, the coordinates of the four vertices of the projection plane are calculated based on the coordinates of the current position, the azimuth angle, and the elevation angle calculated in advance (step S0600). The projection plane is a virtual screen placed at a position away from the current position in the forward direction of the imaging device by a certain distance. In the present embodiment, an image of a
ここで示した範囲決定処理は一例であり、必ずしもこの方法で範囲を決定する必要はない。また、矩形表示を行う作例を限定しなくても良い。その場合、範囲は座標系全体として、以降の処理に進む。 The range determination process shown here is an example, and it is not always necessary to determine the range by this method. Further, the example of performing rectangular display need not be limited. In that case, the range proceeds to the subsequent processing as the entire coordinate system.
図7は、図5における作例探索処理(ステップS0505)の詳細を示すフローチャートである。ここでは、範囲決定処理(ステップS0504)で求めた範囲内に存在する作例を探索する。ここでは、インデックス0400の値が小さい順に逐次探索を行う。インデックスiの作例情報を参照し(ステップS0701)、作例のX座標0401、Y座標0402、Z座標0403を取得する。これらすべての成分が、範囲決定処理で求めた範囲内に含まれている場合(ステップS0702でYES)、当該インデックスをインデックススタックにプッシュする(つまり、インデックスを不示図の記憶部に格納する)(ステップS0703)。全作例情報を調べたかを判定し(ステップS0704)、YESであれば処理を終了する。ステップS0704でNOである場合は、次のインデックに更新し(つまり、i をi+1とする)(ステップS0704)、次のインデックスに対して、ステップS0701〜ステップS0703の処理を行う。
FIG. 7 is a flowchart showing details of the sample search process (step S0505) in FIG. Here, an example that exists within the range obtained in the range determination process (step S0504) is searched. Here, the search is sequentially performed in ascending order of the value of the
なお、作例情報が多い場合には、逐次処理で全作例の情報を調べるのは得策ではない。例えば、作例情報を、現在地点から近い順にソートし、一定数の作例のインデックスをインデックススタックにプッシュした時点で、処理を打ち切るなどの工夫を行うと良い。 If there is a lot of sample information, it is not a good idea to check the information of all the samples by sequential processing. For example, it is preferable to sort the sample information in the order from the current location and stop the processing when a certain number of sample indexes are pushed onto the index stack.
図8は、図5における矩形表示処理(ステップS0506)の詳細を示すフローチャートである。ここでは、作例探索処理(ステップS0505)でインデックススタックに積まれたインデックスを持つ作例について、実際に矩形を表示する処理を行う。まず、インデックススタックが空かどうかを判定し、空であった場合(ステップS0800でYES)は、表示すべき矩形が存在しないので、そのまま処理を終了する。インデックススタックに1つ以上のスタックが積まれている場合は(ステップS0800でNO)、トップのインデックスを取り出し(ステップS0801)、対応する作例情報を参照する(ステップS0802)。次に、表示する矩形の4頂点の座標を計算する(ステップS0803)。この頂点の座標は、作例の撮影地点の座標を中心として上下左右の斜め方向に一定距離だけ離れた4点を仮に求め、その後、方位角0404と仰俯角0405を表す回転行列を掛けることで求められる。次に、矩形の表側/裏側のどちらから撮影すべきなのかを示す方向線0202を表示するために、方向線の始点の座標を求める(ステップS0804)。この始点の座標は、方位角0404と仰俯角0405で決定される方向ベクトルを基にし、現在位置の座標から既定の距離だけ離れた点として計算すれば良い。この距離は、ユーザがディスプレイ上で確認した際に、方向線であることを確認できるだけの長さを持っている必要がある。なお、方向線の終点の座標は矩形の面の中心であり、ここでは、作例の撮影地点の座標に等しい。次に、座標系の原点から現在位置までの距離を計算する(ステップS0805)。これは、後のステップで矩形の頂点を透視投影する際のパラメータとして用いる。続いて、先ほど求めた矩形の4頂点の座標に対して透視投影を行い、実際にディスプレイ上に表示する際の座標値を求める(ステップS0806)。透視投影の座標変換式は一般に知られているが、ここでは次のように求めるものとする。矩形の頂点の座標を(x0, y0, z0)、X軸の回転角度をRx、Y軸の回転角度をRy、Z軸の回転角度をRzとする。また、現在地点から投影面までの距離をDs、現在地点から原点までの距離をDoとする。ここで、DoはステップS0805で求めた値である。このとき、透視投影後の座標(x1, y1)は、
FIG. 8 is a flowchart showing details of the rectangular display process (step S0506) in FIG. Here, a process of actually displaying a rectangle is performed for an example having an index stacked on the index stack in the example search process (step S0505). First, it is determined whether or not the index stack is empty. If the index stack is empty (YES in step S0800), there is no rectangle to be displayed, and thus the process ends. If one or more stacks are stacked on the index stack (NO in step S0800), the top index is extracted (step S0801), and the corresponding sample information is referenced (step S0802). Next, the coordinates of the four vertices of the rectangle to be displayed are calculated (step S0803). The coordinates of the vertex are obtained by temporarily obtaining four points that are separated by a fixed distance in the vertical and horizontal directions around the coordinates of the photographing point in the example, and then multiplying by a rotation matrix representing the
で求められる。この計算を、矩形の4頂点について行い、すべての頂点の透視投影が完了したら、変換後の各頂点の座標を結ぶパスをディスプレイ上に描画する(ステップS0807)。同様に、ステップS0804で求めた方向線の始点と終点も透視変換を行い(ステップS0808)、変換後の点を結ぶアローを描画することで(ステップS0809)、方向線0202をユーザに提示する。以上で、ある1つの作例について、撮影構図を示す矩形と方向線の描画が完了するので、再びステップS0800に戻り、インデックススタックの空かどうかの判定を行う。
Is required. This calculation is performed for the four vertices of the rectangle, and when the perspective projection of all the vertices is completed, a path connecting the coordinates of the converted vertices is drawn on the display (step S0807). Similarly, the start point and end point of the direction line obtained in step S0804 are also perspective-transformed (step S0808), and an arrow connecting the converted points is drawn (step S0809), thereby presenting the
撮像装置が、以上で示した一連の処理を実行することによって、作例の撮影構図を示す3次元矩形オブジェクトをディスプレイ上に表示することができる。これにより、ユーザは、表示されたいずれか1つの矩形と表示領域が一致するように撮像装置を移動させるだけで、作例と同様の構図で撮影を行うことができる。 By executing the series of processes described above, the imaging apparatus can display a three-dimensional rectangular object indicating a sample shooting composition on the display. Thus, the user can perform shooting with the same composition as in the example only by moving the imaging device so that any one of the displayed rectangles matches the display area.
上記実施形態では、矩形0201と共に、撮影に必要な補助情報として、撮影方向を示す方向線0202を表示する例を示したが、補助情報として他の情報を提示しても良い。例えば、矩形0201の近傍に、その作例の画像サムネイルを重畳表示しても良い。これにより、各矩形の地点で撮影を行うとどのような写真を撮影できるのか、ユーザが移動前に分かるようになる。これを実施するには、図4で示した作例情報のデータ構造に、新たに対応する画像サムネイルの情報を格納するフィールドを追加する。その上で、図8で示した方向線の描画処理(ステップS0812)の後、既定のオフセット位置に、対応する画像サムネイルを描画する処理を追加すれば良い。
In the above embodiment, an example in which the
また、上記実施形態では、ディスプレイ上の画像に作例の撮影構図を示す3次元矩形オブジェクトを重畳表示する例を示したが、この矩形の代わりに、作例の画像イメージを利用しても良い。これにより、ユーザは、矩形を見ることで、どのような写真がその地点で撮影されたのかを確認することができる。これを実施するためには、図8で示した透視投影処理(ステップS0806からS0809)において、頂点の座標を投影する変わりに、対応する作例の画素値を投影すれば良い。 In the above-described embodiment, an example in which a three-dimensional rectangular object indicating an example shooting composition is superimposed and displayed on an image on a display is shown. However, an image image of an example may be used instead of the rectangle. Thereby, the user can confirm what kind of photograph was image | photographed at the point by seeing a rectangle. In order to implement this, in the perspective projection process shown in FIG. 8 (steps S0806 to S0809), instead of projecting the coordinates of the vertices, the pixel values of the corresponding sample may be projected.
(その他の実施形態)
また、本発明の構成要素は、複数の機器(例えばホストコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、カメラ、複写機、ファクシミリ装置など)に適用しても良い。本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のデータ保存部、ROMなどを用いることが出来る。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行う。さらに、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるデータ保存部に書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
(Other embodiments)
The component of the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a camera, a copier, The present invention may be applied to a facsimile machine or the like. An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the system reads and executes the program codes stored in the storage medium. Is also achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile data storage unit, ROM, or the like can be used. . Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. Perform some of the actual processing. Furthermore, it is needless to say that the case where the functions of the above-described embodiments are realized by the processing is included. Further, the program code read from the storage medium is written to a data storage unit provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.
Claims (7)
前記ディスプレイの表示領域と前記オブジェクトが一致したかを判定する判定手段と、
前記判定手段で、表示領域と前記オブジェクトが一致したと判定された場合、撮影時に利用する設定パラメータを、前記オブジェクトに関連つけられた情報に基づいて設定する設定手段を有することを特徴とする撮像装置。 Display control means for displaying an object for guiding the shooting composition on the display;
Determining means for determining whether the display area of the display matches the object;
An imaging device comprising: setting means for setting a setting parameter used at the time of shooting based on information associated with the object when the determination means determines that the display area and the object match. apparatus.
表示制御手段が、ディスプレイ上に、撮影構図をガイドするオブジェクトを表示する表示制御工程と、
判定手段が、前記ディスプレイの表示領域と前記オブジェクトが一致したかを判定する判定工程と、
設定手段が、前記判定工程で、表示領域と前記オブジェクトが一致したと判定された場合、撮影時に利用する設定パラメータを、前記オブジェクトに関連つけられた情報に基づいて設定する設定工程を有することを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus,
A display control step for displaying an object for guiding the shooting composition on the display;
A determining step for determining whether the display area of the display and the object match;
A setting unit having a setting step of setting a setting parameter to be used at the time of shooting based on information associated with the object when it is determined in the determination step that the display area and the object match; A control method for an imaging apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010235565A JP2012090106A (en) | 2010-10-20 | 2010-10-20 | Imaging device and control method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010235565A JP2012090106A (en) | 2010-10-20 | 2010-10-20 | Imaging device and control method of the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012090106A true JP2012090106A (en) | 2012-05-10 |
Family
ID=46261244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010235565A Pending JP2012090106A (en) | 2010-10-20 | 2010-10-20 | Imaging device and control method of the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012090106A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012222603A (en) * | 2011-04-08 | 2012-11-12 | Olympus Corp | Image pick-up device |
JP2013165366A (en) * | 2012-02-10 | 2013-08-22 | Sony Corp | Image processing device, image processing method, and program |
JP2014017864A (en) * | 2012-06-12 | 2014-01-30 | Olympus Imaging Corp | Photographing apparatus and method for determining photographing condition |
JP2014241496A (en) * | 2013-06-11 | 2014-12-25 | ソニー株式会社 | Information processing apparatus, imaging apparatus, information processing method, and program |
JP2021082972A (en) * | 2019-11-20 | 2021-05-27 | 株式会社エクサウィザーズ | Imaging apparatus, information processing apparatus, method, and program |
-
2010
- 2010-10-20 JP JP2010235565A patent/JP2012090106A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8976267B2 (en) | 2011-04-08 | 2015-03-10 | Olympus Corporation | Image pickup device with photography positioning guidance |
JP2012222603A (en) * | 2011-04-08 | 2012-11-12 | Olympus Corp | Image pick-up device |
JP2013165366A (en) * | 2012-02-10 | 2013-08-22 | Sony Corp | Image processing device, image processing method, and program |
US9237273B2 (en) | 2012-06-12 | 2016-01-12 | Olympus Corporation | Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image |
CN104094588A (en) * | 2012-06-12 | 2014-10-08 | 奥林巴斯映像株式会社 | Imaging device |
JP2014017865A (en) * | 2012-06-12 | 2014-01-30 | Olympus Imaging Corp | Photographing apparatus and method for determining posture when photographing |
EP2787722A4 (en) * | 2012-06-12 | 2015-08-12 | Olympus Imaging Corp | Imaging device |
JP2014017864A (en) * | 2012-06-12 | 2014-01-30 | Olympus Imaging Corp | Photographing apparatus and method for determining photographing condition |
US9639940B2 (en) | 2012-06-12 | 2017-05-02 | Olympus Corporation | Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image |
CN104094588B (en) * | 2012-06-12 | 2018-03-13 | 奥林巴斯株式会社 | Camera device |
CN108322653A (en) * | 2012-06-12 | 2018-07-24 | 奥林巴斯株式会社 | Photographic device |
US10057485B2 (en) | 2012-06-12 | 2018-08-21 | Olympus Corporation | Imaging apparatus and methods for generating a guide display using imaging height posture information |
CN108322653B (en) * | 2012-06-12 | 2020-11-13 | 奥林巴斯株式会社 | Image pickup apparatus |
JP2014241496A (en) * | 2013-06-11 | 2014-12-25 | ソニー株式会社 | Information processing apparatus, imaging apparatus, information processing method, and program |
US10375305B2 (en) | 2013-06-11 | 2019-08-06 | Sony Corporation | Information processing device, imaging device, information processing method, and program |
JP2021082972A (en) * | 2019-11-20 | 2021-05-27 | 株式会社エクサウィザーズ | Imaging apparatus, information processing apparatus, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5740884B2 (en) | AR navigation for repeated shooting and system, method and program for difference extraction | |
US11164001B2 (en) | Method, apparatus, and system for automatically annotating a target object in images | |
JP5075182B2 (en) | Image processing apparatus, image processing method, and image processing program | |
Arth et al. | Real-time self-localization from panoramic images on mobile devices | |
US20180286098A1 (en) | Annotation Transfer for Panoramic Image | |
WO2015027807A1 (en) | Indoor positioning terminal, network, system and method thereof | |
CN107197153B (en) | Shooting method and shooting device for photo | |
CN103189827A (en) | Object display device and object display method | |
JP2014071850A (en) | Image processing apparatus, terminal device, image processing method, and program | |
CN110022444A (en) | The panorama photographic method of unmanned flight's machine and the unmanned flight's machine for using it | |
JP2016048455A (en) | Image processor, image processing method, and program | |
JP2012090106A (en) | Imaging device and control method of the same | |
JP2008513852A (en) | Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system | |
KR20100065918A (en) | A method for geo-tagging of pictures and apparatus thereof | |
CN112270702A (en) | Volume measurement method and device, computer readable medium and electronic equipment | |
CN111880649A (en) | Demonstration method and system of AR viewing instrument and computer readable storage medium | |
CN113167577A (en) | Surveying method for a movable platform, movable platform and storage medium | |
CN113344789B (en) | Image splicing method and device, electronic equipment and computer readable storage medium | |
CN110650284B (en) | Image shooting control method, device, equipment and storage medium | |
CN110012236A (en) | A kind of information processing method, device, equipment and computer storage medium | |
JP2010129032A (en) | Device and program for retrieving image | |
CN107343142A (en) | The image pickup method and filming apparatus of a kind of photo | |
CN113747044A (en) | Panoramic shooting method and device | |
CN111242107B (en) | Method and electronic device for setting virtual object in space | |
JP2008148220A (en) | Imaging apparatus, imaging method, and control program |