JP2012090106A - Imaging device and control method of the same - Google Patents

Imaging device and control method of the same Download PDF

Info

Publication number
JP2012090106A
JP2012090106A JP2010235565A JP2010235565A JP2012090106A JP 2012090106 A JP2012090106 A JP 2012090106A JP 2010235565 A JP2010235565 A JP 2010235565A JP 2010235565 A JP2010235565 A JP 2010235565A JP 2012090106 A JP2012090106 A JP 2012090106A
Authority
JP
Japan
Prior art keywords
display
shooting
sample
imaging apparatus
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010235565A
Other languages
Japanese (ja)
Inventor
Yusuke Chihara
裕輔 千原
Hikari Shimamura
ひかり 島村
Naruto Fukuda
成人 福田
Satoshi Takita
聡士 瀧田
Satoyuki Shigeta
智行 繁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010235565A priority Critical patent/JP2012090106A/en
Publication of JP2012090106A publication Critical patent/JP2012090106A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique which enables easy imaging using a photographic composition and a setting parameter of a photograph that is an example.SOLUTION: An object guiding the photographic composition is displayed on a display and it is determined whether a display area of the display and the object match. When it is determined that the display area of the display and the object match, a set parameter to be used in photographing is set on the basis of information associated with the object.

Description

本発明は、撮影構図をガイドする技術に関する。   The present invention relates to a technique for guiding a shooting composition.

従来から、位置情報が取得可能な撮像装置において、撮影対象に関する情報を利用者に提示するシステムが知られている。   2. Description of the Related Art Conventionally, in an imaging apparatus that can acquire position information, a system that presents information related to an imaging target to a user is known.

例えば、複数の撮像装置によって撮影された撮影対象、および、その撮影対象が撮影されたポイントに関する情報を、撮像装置がサーバと通信して取得しておく。その上で、利用者に対し、現在地付近から撮影可能な撮影対象、および、それを撮影するための好適な撮影ポイントを、文字、地図、音声などを用いて簡易に提示することが可能な技術がある(例えば、特許文献1)。   For example, the imaging device communicates with the server and acquires information about the imaging target captured by the plurality of imaging devices and the point at which the imaging target is captured. On top of that, a technology that can easily present to a user a shooting target that can be shot from the vicinity of the current location and a suitable shooting point for shooting the shot using characters, a map, voice, and the like. (For example, Patent Document 1).

また、他の例では、画像処理システムが、現在位置データを取得したタイミングデータと、撮影画像の付随データから取得した撮影日時データとを対比させ、近似するものを自動的に関連付けを行っておく。そして、システムが撮影ポイントに到達する毎に、そのポイントに関連付けられた撮影画像データを、地図データと共にディスプレイ表示領域に表示する技術がある(例えば、特許文献2)。   In another example, the image processing system compares the timing data obtained from the current position data with the photographing date / time data obtained from the accompanying data of the photographed image, and automatically associates the approximate data with each other. . Then, every time the system reaches a photographing point, there is a technique for displaying photographed image data associated with the point together with map data in a display display area (for example, Patent Document 2).

さらに、撮影対象の緯度、経度を含むGPS情報を取得し、撮影地点、および、撮影対象を含む電子地図上に、撮影対象の撮影方向を示す矢印線を表示させる技術がある(例えば、特許文献3)。   Further, there is a technique for acquiring GPS information including the latitude and longitude of a shooting target and displaying an arrow line indicating a shooting direction of the shooting target on an electronic map including the shooting point and the shooting target (for example, Patent Documents). 3).

特開2005−45398号公報JP-A-2005-45398 特開2006−178856号公報JP 2006-178856 A 特開2005−352659号公報JP 2005-352659 A

上記の従来技術で開示される技術によれば、作例の撮影地点、および、撮像装置を構えるべき方角を電子地図上に表示することが可能である。しかしながら、実際に作例と同じ構図で写真を撮影するためには、撮影地点から撮像装置を一定の方角に向けた後に、撮像装置を構える高さや仰俯角を決定したり、ズーム倍率などの設定パラメータを決定したりする必要がある。従来技術では、こうした情報が一切提示されないため、ユーザ自身が作例の構図や設定パラメータを事前に調査した上で、適切な調整を行う必要がある。   According to the technique disclosed in the above-described conventional technique, it is possible to display on the electronic map the shooting point of the sample and the direction in which the imaging apparatus should be held. However, in order to actually take a picture with the same composition as the example, after setting the imaging device from a shooting point in a certain direction, the height and elevation angle for holding the imaging device are determined, and setting parameters such as zoom magnification are set. It is necessary to decide. In the prior art, since such information is not presented at all, it is necessary for the user himself / herself to make an appropriate adjustment after examining the composition and setting parameters of the sample in advance.

また、従来技術では、作例の撮影地点に関する情報が、2次元の電子地図上にマッピングされて提示される。このため、ユーザは現実の視界と電子地図を対比しながら、好適な撮影構図を捉える位置に移動する必要がある。こうした作業は、日常的に地図を読み慣れていないユーザには難しい作業となることがあり、探索に要する手間や精度的に改善の余地がある。   Further, in the prior art, information related to the shooting point of the sample is mapped and presented on a two-dimensional electronic map. For this reason, it is necessary for the user to move to a position for capturing a suitable shooting composition while comparing the real field of view with the electronic map. Such work may be difficult for users who are not accustomed to reading maps on a daily basis, and there is room for improvement in labor and accuracy required for searching.

本発明は、以上のような事情を鑑みてなされたものであり、作例となる写真の撮影構図や設定パラメータで容易に撮像可能となる技術を提供することを目的とする。   The present invention has been made in view of the circumstances as described above, and an object of the present invention is to provide a technique capable of easily capturing an image with a shooting composition and setting parameters as an example.

上記課題を解決するために、本発明は、ディスプレイ上に、撮影構図をガイドするオブジェクトを表示する表示制御手段と、前記ディスプレイの表示領域と前記オブジェクトが一致したかを判定する判定手段と、前記判定手段で、表示領域と前記オブジェクトが一致したと判定された場合、撮影時に利用する設定パラメータを、前記オブジェクトに関連つけられた情報に基づいて設定する設定手段を有することを特徴とする。   In order to solve the above problems, the present invention provides a display control means for displaying an object for guiding a shooting composition on a display, a determination means for determining whether the display area of the display matches the object, When it is determined by the determination means that the display area and the object match, the setting means has a setting means for setting a setting parameter used at the time of photographing based on information associated with the object.

本発明によれば、作例となる写真の撮影構図や設定パラメータで容易に撮像可能となる。   According to the present invention, it is possible to easily capture an image with a shooting composition and setting parameters of an example photograph.

(a)撮像装置のハードウェア構成図、(b)撮像装置の機能ブロック図。FIG. 2A is a hardware configuration diagram of an imaging apparatus, and FIG. 2B is a functional block diagram of the imaging apparatus. ディスプレイ0200上に提示される画面表示の一例を示す図。The figure which shows an example of the screen display shown on the display 0200. FIG. 表示領域と矩形0201が一致した場合の画面表示の一例を示す図。The figure which shows an example of a screen display when a display area and the rectangle 0201 correspond. 作例情報のデータ構造を示す図。The figure which shows the data structure of example information. 撮像装置におけるフローチャート。6 is a flowchart in the imaging apparatus. 範囲決定処理(ステップS0504)の詳細を示すフローチャート。The flowchart which shows the detail of a range determination process (step S0504). 作例探索処理(ステップS0505)の詳細を示すフローチャート。The flowchart which shows the detail of an example search process (step S0505). 矩形表示処理(ステップS0506)の詳細を示すフローチャート。The flowchart which shows the detail of a rectangle display process (step S0506).

[第1の実施形態]
図1(a)は、本発明のハードウェア構成の一例を示している。CPU0100は、本実施形態に係る撮像プログラムに基づいて処理を実行し、プログラムの実行に必要な情報をRAM0102などに格納する制御を行う。ROM0101には、基本I/Oプログラムなどのプログラムや各種データが格納されている。RAM0102は、CPU0100の主メモリ、ワークエリアなどとして機能する。記憶装置0103は、撮像プログラム、作例、作例に関連つけられた情報などを格納している。作例に関連つけられた情報は、図4を用いて後述する。本実施形態では、記憶装置0103は、撮像装置内にあるものとして説明するが、外部装置であってもよい。記憶装置0103が外部装置である場合は、撮像装置は、通信手段を介して、必要な情報を記憶装置0103から取得すればよい。GPS0104は、撮像装置の現在の位置情報を取得するために利用される。ディスプレイ0105は、撮像プログラムに基づいてCPU0100が出力する3次元矩形オブジェクトなどを表示する。地磁気センサ0106は、その出力値から、撮像装置の向いている方位角を計算するために利用される。加速度センサ0107は、その出力値から、撮像装置の傾きを計算するために利用される。撮像部0108は、ディスプレイ0105に表示された画像を撮像する手段である。システムバス0109は、撮像装置内のデータの流れを司る。
[First Embodiment]
FIG. 1A shows an example of the hardware configuration of the present invention. The CPU 0100 performs processing based on the imaging program according to the present embodiment, and performs control to store information necessary for executing the program in the RAM 0102 or the like. The ROM 0101 stores programs such as a basic I / O program and various data. The RAM 0102 functions as a main memory and work area of the CPU 0100. The storage device 0103 stores an imaging program, a sample, information associated with the sample, and the like. Information associated with the sample will be described later with reference to FIG. In this embodiment, the storage device 0103 is described as being in the imaging device, but may be an external device. When the storage device 0103 is an external device, the imaging device may acquire necessary information from the storage device 0103 via a communication unit. The GPS 0104 is used to acquire current position information of the imaging device. The display 0105 displays a three-dimensional rectangular object output from the CPU 0100 based on the imaging program. The geomagnetic sensor 0106 is used to calculate the azimuth angle of the imaging device from the output value. The acceleration sensor 0107 is used to calculate the tilt of the imaging device from the output value. The imaging unit 0108 is a unit that captures an image displayed on the display 0105. A system bus 0109 manages the flow of data in the imaging apparatus.

図1(a)は、本発明の機能ブロック図の一例を示している。取得部0110は、GPS0104の出力から本撮像装置の現在位置を、地磁気センサ0106の出力から本撮像装置が向いている方位角を、加速度センサ0107の出力から本撮像装置の仰俯角を取得する。範囲決定部0111は、矩形として表示対象となる作例の範囲(座標範囲)を決定する。探索部0112は、範囲決定部0111で決定した範囲内に存在する作例を探索する。表示制御部0113は、撮像部0108で撮像される画像や矩形を、ディスプレイ0105に表示する表示制御を行う。判定部0114は、表示領域と矩形とが一致したかを判定する。設定部0115は、表示倍率など撮像パラメータを設定する。   FIG. 1A shows an example of a functional block diagram of the present invention. The acquisition unit 0110 acquires the current position of the imaging apparatus from the output of the GPS 0104, the azimuth angle toward which the imaging apparatus is directed from the output of the geomagnetic sensor 0106, and the elevation angle of the imaging apparatus from the output of the acceleration sensor 0107. The range determination unit 0111 determines the range (coordinate range) of the sample to be displayed as a rectangle. The search unit 0112 searches for examples that exist within the range determined by the range determination unit 0111. The display control unit 0113 performs display control for displaying an image or a rectangle captured by the imaging unit 0108 on the display 0105. The determination unit 0114 determines whether the display area matches the rectangle. The setting unit 0115 sets imaging parameters such as display magnification.

次に、上記の如く構成された撮像装置の動作を、図2から図8までを参照しながら詳細に説明する。
本実施形態では、ユーザが一般的なスチールカメラやデジタルカメラで写真を撮影する際、作例となる写真と同じ構図で撮影するためのガイド情報を提示する例を示す。さらに、本撮像装置は、ユーザが作例と同じ構図を撮影できる位置にカメラをセットしたことを検知すると、作例の撮影情報を基に、カメラに対して適切なパラメータを設定する。
Next, the operation of the imaging apparatus configured as described above will be described in detail with reference to FIGS.
In the present embodiment, an example is shown in which when a user takes a picture with a general still camera or a digital camera, guide information for taking a picture with the same composition as that of a photograph as an example is presented. Further, when detecting that the user has set the camera at a position where the same composition as the sample can be captured, the imaging apparatus sets appropriate parameters for the camera based on the shooting information of the sample.

図2は、本撮像装置のディスプレイ0200上に提示される画面表示の一例を示す図である。ディスプレイ0200には、現在カメラが撮影することのできる画像が表示されており、ファインダの役割を担う。このとき、このディスプレイ上に表示されている画像に重畳して、作例となる写真の撮影構図を示す3次元矩形オブジェクト(以下、「矩形」と表現する)0201をガイドとして提示する。この矩形0201は、作例の撮影位置、高度、方角を表現しており、ユーザはディスプレイ0200の表示領域と矩形0201が一致するようにカメラを構えることで、作例を撮影したときと同じ位置にカメラを移動させることができる。また、3次元矩形オブジェクトだけでは、矩形の表側/裏側のどちらから撮影を行うべきなのか、ユーザが理解しにくい場合が考えられる。そのため、矩形0201と共に、方向線0202を撮影時の補助情報として表示する。   FIG. 2 is a diagram illustrating an example of a screen display presented on the display 0200 of the imaging apparatus. The display 0200 displays an image that can be taken by the camera at present, and serves as a finder. At this time, a three-dimensional rectangular object (hereinafter referred to as “rectangular”) 0201 showing a photographing composition of a sample photograph is superimposed on the image displayed on the display and presented as a guide. This rectangle 0201 represents the shooting position, altitude, and direction of the sample, and the user holds the camera so that the display area of the display 0200 and the rectangle 0201 coincide with each other, so that the camera is positioned at the same position as when the sample was shot. Can be moved. In addition, with only a three-dimensional rectangular object, it may be difficult for the user to understand whether to shoot from the front side or the back side of the rectangle. Therefore, a direction line 0202 is displayed as auxiliary information at the time of photographing together with the rectangle 0201.

図3は、表示領域と矩形0201が一致した場合の画面表示の一例を示す図である。本撮像装置は、作例を撮影したときと同じ位置にカメラが移動されたことを検知し、中塗り色を変更した矩形0300を表示して、ユーザにそのことを通知する。その後、矩形0300を画面上から消去し、それに伴って作例を撮影したときと同じ撮影パラメータ(例えば、ズーム倍率)をカメラに対して設定する。これにより、ユーザは作例と同じ画像がディスプレイ上に表示されている状態となり、このままシャッターを切ることで、作例と同様の写真を撮影することができる。   FIG. 3 is a diagram illustrating an example of a screen display when the display area and the rectangle 0201 coincide with each other. The imaging apparatus detects that the camera has been moved to the same position as when the sample was photographed, displays a rectangle 0300 in which the intermediate coating color has been changed, and notifies the user of that fact. Thereafter, the rectangle 0300 is erased from the screen, and accordingly, the same shooting parameters (for example, zoom magnification) as when shooting the sample are set for the camera. As a result, the user is in a state where the same image as the sample is displayed on the display, and the user can take a picture similar to the sample by releasing the shutter.

なお、ここまでに示した図中には、一般的なスチールカメラを表す図形が描かれているが、本撮像装置は必ずしもこの形状に限定されない。また、本実施形態では、作例の撮影構図を示すために、3次元矩形オブジェクトをユーザに提示しているが、この形状にも限定されず、ユーザが空間的位置を認識可能なオブジェクトであればよく、例えば、2次元矩形オブジェクトであってもよい。同様に、方向線の形状も図中で示したものに限定されない。また、ユーザがカメラを構えた位置に複数の作例の撮影地点がある場合には、それに対応して、複数の矩形をディスプレイ0200上に表示しても良い。さらに、本実施形態では、ファインダの役割をディスプレイ0200が担っていたが、通常の光学ファインダ上に矩形0201を重畳表示しても良い。これらの事項は、この後の説明においても同様である。   In addition, although the figure showing a general still camera is drawn in the figure shown so far, this imaging device is not necessarily limited to this shape. In this embodiment, a three-dimensional rectangular object is presented to the user in order to show a sample shooting composition. However, the present invention is not limited to this shape, and any object that allows the user to recognize the spatial position. For example, it may be a two-dimensional rectangular object. Similarly, the shape of the direction line is not limited to that shown in the drawing. If there are a plurality of sample shooting points at the position where the user holds the camera, a plurality of rectangles may be displayed on the display 0200 correspondingly. Furthermore, in the present embodiment, the display 0200 plays the role of the finder, but the rectangle 0201 may be superimposed and displayed on a normal optical finder. These matters are the same in the following description.

次に、ここで説明した撮像装置の動作を実現する処理の一例を、データ構造図やフローチャートを用いて詳細に説明する。
図4は、記憶装置0103に記憶されている作例情報のデータ構造を示す図である。インデックス0400は、主に作例情報の探索時に利用され、ディスプレイ0200上に表示する作例の候補を記憶するためにインデックススタック上に積まれていくデータである。次に、作例が撮影された地点に関する情報を格納する領域がある。ここで、X座標0401とY座標0402は、それぞれ、撮影地点の経度と緯度に基づいた値であり、北緯/東経方向を正、南緯/西経方向を負の数で表すものとする。Z座標0403は、平均海水面からの高度に基づいた値であり、高方向を正の数で表すものとする。方位角0404は、作例の撮影時に撮像装置が向いていた向きの情報であり、北を基準として時計周りを正とした角度に基づいた値である。仰俯角0405は、作例が撮影された際に、撮像装置の傾きに基づいた値であり、水平を基準として上向きの角度を正の数、下向きの角度を負の数で表すものとする。倍率0406は、作例が撮影された際のズーム倍率である。本実施形態では、撮影パラメータとして、ズーム倍率を用いるが、ホワイトバランスや、絞り、シャッタースピードなど撮影時に用いるパラメータを用いてもよい。
Next, an example of processing for realizing the operation of the imaging apparatus described here will be described in detail using a data structure diagram and a flowchart.
FIG. 4 is a diagram illustrating a data structure of sample information stored in the storage device 0103. The index 0400 is mainly used when searching for sample information, and is data that is stacked on the index stack in order to store sample candidates to be displayed on the display 0200. Next, there is an area for storing information related to the point where the sample is taken. Here, the X coordinate 0401 and the Y coordinate 0402 are values based on the longitude and latitude of the imaging point, respectively, and the north latitude / east longitude direction is positive and the south latitude / west longitude direction is a negative number. The Z coordinate 0403 is a value based on the altitude from the average sea level, and the high direction is represented by a positive number. The azimuth angle 0404 is information on the direction in which the imaging device was facing when the sample was taken, and is a value based on an angle with the clockwise direction being positive with respect to the north. The elevation angle 0405 is a value based on the inclination of the imaging device when the sample is photographed, and the upward angle is expressed as a positive number and the downward angle is expressed as a negative number with respect to the horizontal. A magnification 0406 is a zoom magnification when the sample is taken. In the present embodiment, zoom magnification is used as a shooting parameter, but parameters used during shooting, such as white balance, aperture, and shutter speed, may be used.

これらの作例に関する情報は、ユーザが作例情報をディスプレイ0200上に表示させる前に格納されていればよく、その手段は特に限定されない。例えば、作例の画像ファイルに付与されているメタデータ(Exifなど)から本撮像装置自身が抽出しても良いし、ネットワーク上のサーバからこれらの情報をダウンロードしてもよい。   Information regarding these examples is not particularly limited as long as the information is stored before the user displays the example information on the display 0200. For example, the imaging apparatus itself may extract from metadata (Exif or the like) attached to the image file of the sample, or the information may be downloaded from a server on the network.

図5は、本撮像装置におけるフローチャートである。はじめに、設定部0115が、撮影パラメータ(撮影時に利用する設定パラメータ)をリセットする(ステップS0500)。本実施形態では、ディスプレイの表示倍率をリセットする。次に、取得部0110が、GPS0104の出力から、本撮像装置の現在位置を計算する(ステップS0501)。GPSの出力フォーマットはいくつかの種類があるが、緯度と経度、および、平均海水面からの高度に関する情報が含まれていればよい。図4で説明した作例情報のデータと整合させるため、北緯/東経方向を正、南緯/西経方向を負の数に変換し、必要であれば正規化などの前処理を行った上で、RAM0102上に格納する。続いて、取得部0110が、地磁気センサ0106の出力から、本撮像装置が向いている方位角を計算する(ステップS0502)。具体的な計算式は使用するセンサによって異なるが、一般に、2軸の地磁気センサの場合、   FIG. 5 is a flowchart of the imaging apparatus. First, the setting unit 0115 resets shooting parameters (setting parameters used during shooting) (step S0500). In this embodiment, the display magnification of the display is reset. Next, the acquisition unit 0110 calculates the current position of the imaging apparatus from the output of the GPS 0104 (step S0501). There are several types of GPS output formats, but it is sufficient that information on latitude and longitude and altitude from the average sea level is included. In order to match the sample information data described with reference to FIG. 4, the north latitude / east longitude direction is converted into a positive number and the south latitude / west longitude direction is converted into a negative number, and if necessary, preprocessing such as normalization is performed, and then the RAM 0102 Store on top. Subsequently, the acquisition unit 0110 calculates the azimuth angle that the imaging apparatus is facing from the output of the geomagnetic sensor 0106 (step S0502). The specific calculation formula varies depending on the sensor used, but in general, in the case of a biaxial geomagnetic sensor,

Figure 2012090106
Figure 2012090106

で求めることができる。さらに、取得部0110が、加速度センサ0107の出力から、本撮像装置の仰俯角を計算する(ステップS0503)。具体的な計算式は使用するセンサによって異なるが、一般的な3軸の加速度センサの場合、Z軸方向の出力値(加速度)に対してアークサイン関数を適用することで仰俯角を求めることができる。ここで得られた方位各、仰俯角に関しても、必要であれば正規化などの前処理を行ってからRAM0102上に格納しても良い。   Can be obtained. Further, the acquisition unit 0110 calculates the elevation angle of the imaging apparatus from the output of the acceleration sensor 0107 (step S0503). Although the specific calculation formula varies depending on the sensor used, in the case of a general three-axis acceleration sensor, the elevation angle can be obtained by applying an arc sine function to the output value (acceleration) in the Z-axis direction. it can. Each orientation and elevation angle obtained here may be stored on the RAM 0102 after preprocessing such as normalization if necessary.

範囲決定部0111が、本撮像装置の現在位置、方位角、仰俯角を基に、表示対象となる作例の範囲を決定する(ステップS0504)。次に、探索部0112が、求めた範囲内に含まれる作例を探索する(ステップS0505)。続いて、表示制御部0113が、範囲内に存在する作例について、撮影構図を表現する3次元矩形オブジェクトをディスプレイ上に表示する(ステップS0506)。ここで、ステップS0504からステップS0506の処理については、後に詳しい説明を述べる。判定部0114が、ディスプレイ上に表示したいずれの矩形とも、ディスプレイの表示領域と一致しなかった場合(ステップS0507でNO)、プログラムは再び現在位置の取得処理(ステップS0501)に戻る。尚、ファインダである場合は、ファインダを通して見える範囲が表示領域となる。また、矩形と表示領域の一致は、完全に一致しなくても、矩形と表示領域の大部分が重なれば、一致と判定してもよい。   The range determining unit 0111 determines the range of the sample to be displayed based on the current position, azimuth angle, and elevation angle of the imaging apparatus (step S0504). Next, the search unit 0112 searches for examples included in the obtained range (step S0505). Subsequently, the display control unit 0113 displays a three-dimensional rectangular object representing the shooting composition on the display for the sample existing within the range (step S0506). Here, the processing from step S0504 to step S0506 will be described in detail later. If any of the rectangles displayed on the display by the determination unit 0114 does not match the display area of the display (NO in step S0507), the program returns to the current position acquisition process (step S0501) again. In the case of a finder, the range that can be seen through the finder is the display area. In addition, the match between the rectangle and the display area may be determined as a match if the rectangle and the display area are mostly overlapped even if they do not completely match.

いずれかの矩形と表示領域と一致した場合(ステップS0507でYES)、表示制御部0113が、その矩形の色を変更することでユーザにその旨を伝え(ステップS0508)、その後、すべての矩形を非表示とする(ステップS0509)。このとき、方向線もともに非表示とする。尚、ステップS0508は、ユーザに矩形と表示領域が一致したことを通知すればよく、矩形の色を変更することは一手段であって、他に、画面を点滅させたり、「一致した」と文字で表示しても構わない。   If one of the rectangles matches the display area (YES in step S0507), the display control unit 0113 notifies the user by changing the color of the rectangle (step S0508), and then all the rectangles are displayed. Not displayed (step S0509). At this time, both direction lines are not displayed. Note that the step S0508 only needs to notify the user that the rectangle and the display area match, and changing the color of the rectangle is one way. Besides, the screen blinks or “matches”. It may be displayed in characters.

そして、設定部0115が、一致した矩形に対応する作例と同じ撮影パラメータ(本実施形態では、倍率)を設定して(ステップS0510)、撮像部0108が、設定された撮影パラメータを用いて、撮像し(ステップS0511)、処理を終了する。   Then, the setting unit 0115 sets the same shooting parameters (magnification in this embodiment) as the sample corresponding to the matched rectangle (step S0510), and the imaging unit 0108 uses the set shooting parameters to capture images. (Step S0511), and the process ends.

図6は、図5における範囲決定処理(ステップS0504)の詳細を示すフローチャートである。ここでは、本撮像装置の現在位置、方位角、仰俯角を基に、矩形として表示対象となる作例の範囲(座標範囲)を決定する。例えば、カメラの向いている方向に作例の撮影地点が存在しても、一定以上離れた位置にある場合、ユーザが容易にその地点に到達することができないため、矩形をユーザに提示すべきではない。また、表示する矩形を限定することで、本撮像装置内のリソースの節約(ROM/RAM使用量の削減など)や処理速度(パフォーマンス)の向上が期待できる。   FIG. 6 is a flowchart showing details of the range determination process (step S0504) in FIG. Here, based on the current position, azimuth angle, and elevation angle of the imaging apparatus, an example range (coordinate range) to be displayed is determined as a rectangle. For example, even if there is a shooting point of the sample in the direction that the camera is facing, if it is at a certain distance or more, the user cannot easily reach that point, so a rectangle should be presented to the user Absent. Further, by limiting the rectangles to be displayed, resource saving (reduction of ROM / RAM usage, etc.) and processing speed (performance) in the imaging apparatus can be expected.

まず、あらかじめ計算しておいた現在位置の座標、方位角、仰俯角の値をもとに、投影面の4頂点の座標を計算する(ステップS0600)。投影面とは、現在位置から、一定距離だけ撮像装置の前方方向に離れた場所に置く、仮想的なスクリーンである。本実施形態では、この投影面に透視投影した矩形0201の像をディスプレイ上に表示する。投影面の頂点の座標を計算するには、現在地点を中心として上下左右の斜め方向に一定距離だけ離れた4点を仮に求め、(ステップS0502で求めた)撮像装置の現在の方位角と(ステップS0503で求めた)仰俯角を表す回転行列を掛ける。さらに、方位角と仰俯角で決定される方向ベクトルを基にし、既定の距離だけ離れた位置に、各座標を平行移動すれば良い。ここで、投影面と現在地点の距離に応じて、スクリーンに投影される矩形0201の像の大きさが変わるため、ディスプレイ上に表示されている画像のスケールと矩形の像の大きさが一致するような距離として決定しておく。本実施形態では、ディスプレイ上に表示されている画像は倍率がリセットされているため、本撮像装置の実行前に規定値として決定しておくことができる。投影面の各頂点の座標が求められたら、それらの値を基に、X、Y、Z成分の最小・最大値を求める(ステップS0601)。次に、それぞれの頂点方向について、距離Dmだけ離れた位置の座標を計算する(ステップS0602)。このDmは表示領域の大きさを決定付ける任意の定数であるが、大きな値をとりすぎると、矩形0201を投影面に投影した際に、矩形が小さすぎてユーザが視認できないため、矩形が視認可能な大きさ以上となるようにDmの値を定める。距離Dmだけ離れた位置の座標が求められたら、それらの値を基に、X、Y、Z成分の最小・最大値を更新する(ステップS0603)。この処理を4頂点すべてについて行った後に求められている各成分の最小・最大値が、矩形表示を行う作例を限定するための座標範囲となる。   First, the coordinates of the four vertices of the projection plane are calculated based on the coordinates of the current position, the azimuth angle, and the elevation angle calculated in advance (step S0600). The projection plane is a virtual screen placed at a position away from the current position in the forward direction of the imaging device by a certain distance. In the present embodiment, an image of a rectangle 0201 that is perspective-projected on the projection plane is displayed on the display. In order to calculate the coordinates of the vertex of the projection plane, four points that are separated from each other by a certain distance in the up, down, left, and right oblique directions with the current point as the center are temporarily calculated, The rotation matrix representing the elevation angle (obtained in step S0503) is multiplied. Furthermore, each coordinate may be translated to a position separated by a predetermined distance based on a direction vector determined by the azimuth angle and the elevation angle. Here, since the size of the image of the rectangle 0201 projected on the screen changes according to the distance between the projection plane and the current point, the scale of the image displayed on the display matches the size of the rectangle image. It is determined as such a distance. In the present embodiment, since the magnification of the image displayed on the display is reset, it can be determined as a prescribed value before the execution of the imaging apparatus. When the coordinates of each vertex of the projection plane are obtained, the minimum and maximum values of the X, Y, and Z components are obtained based on those values (step S0601). Next, for each vertex direction, the coordinates of the position separated by the distance Dm are calculated (step S0602). This Dm is an arbitrary constant that determines the size of the display area. However, if the value is too large, the rectangle is not visible when the rectangle 0201 is projected onto the projection plane because the rectangle is too small to be visually recognized by the user. The value of Dm is determined so as to be larger than the possible size. When the coordinates of the position separated by the distance Dm are obtained, the minimum and maximum values of the X, Y, and Z components are updated based on those values (step S0603). The minimum and maximum values of each component obtained after this processing is performed for all four vertices become a coordinate range for limiting an example in which rectangular display is performed.

ここで示した範囲決定処理は一例であり、必ずしもこの方法で範囲を決定する必要はない。また、矩形表示を行う作例を限定しなくても良い。その場合、範囲は座標系全体として、以降の処理に進む。   The range determination process shown here is an example, and it is not always necessary to determine the range by this method. Further, the example of performing rectangular display need not be limited. In that case, the range proceeds to the subsequent processing as the entire coordinate system.

図7は、図5における作例探索処理(ステップS0505)の詳細を示すフローチャートである。ここでは、範囲決定処理(ステップS0504)で求めた範囲内に存在する作例を探索する。ここでは、インデックス0400の値が小さい順に逐次探索を行う。インデックスiの作例情報を参照し(ステップS0701)、作例のX座標0401、Y座標0402、Z座標0403を取得する。これらすべての成分が、範囲決定処理で求めた範囲内に含まれている場合(ステップS0702でYES)、当該インデックスをインデックススタックにプッシュする(つまり、インデックスを不示図の記憶部に格納する)(ステップS0703)。全作例情報を調べたかを判定し(ステップS0704)、YESであれば処理を終了する。ステップS0704でNOである場合は、次のインデックに更新し(つまり、i をi+1とする)(ステップS0704)、次のインデックスに対して、ステップS0701〜ステップS0703の処理を行う。   FIG. 7 is a flowchart showing details of the sample search process (step S0505) in FIG. Here, an example that exists within the range obtained in the range determination process (step S0504) is searched. Here, the search is sequentially performed in ascending order of the value of the index 0400. The sample information of the index i is referred to (step S0701), and the X coordinate 0401, Y coordinate 0402, and Z coordinate 0403 of the sample are acquired. When all these components are included in the range obtained by the range determination process (YES in step S0702), the index is pushed onto the index stack (that is, the index is stored in the storage unit (not shown)). (Step S0703). It is determined whether all sample information has been examined (step S0704). If YES, the process ends. If NO in step S0704, the index is updated to the next index (i.e., i is set to i + 1) (step S0704), and the process from step S0701 to step S0703 is performed on the next index.

なお、作例情報が多い場合には、逐次処理で全作例の情報を調べるのは得策ではない。例えば、作例情報を、現在地点から近い順にソートし、一定数の作例のインデックスをインデックススタックにプッシュした時点で、処理を打ち切るなどの工夫を行うと良い。   If there is a lot of sample information, it is not a good idea to check the information of all the samples by sequential processing. For example, it is preferable to sort the sample information in the order from the current location and stop the processing when a certain number of sample indexes are pushed onto the index stack.

図8は、図5における矩形表示処理(ステップS0506)の詳細を示すフローチャートである。ここでは、作例探索処理(ステップS0505)でインデックススタックに積まれたインデックスを持つ作例について、実際に矩形を表示する処理を行う。まず、インデックススタックが空かどうかを判定し、空であった場合(ステップS0800でYES)は、表示すべき矩形が存在しないので、そのまま処理を終了する。インデックススタックに1つ以上のスタックが積まれている場合は(ステップS0800でNO)、トップのインデックスを取り出し(ステップS0801)、対応する作例情報を参照する(ステップS0802)。次に、表示する矩形の4頂点の座標を計算する(ステップS0803)。この頂点の座標は、作例の撮影地点の座標を中心として上下左右の斜め方向に一定距離だけ離れた4点を仮に求め、その後、方位角0404と仰俯角0405を表す回転行列を掛けることで求められる。次に、矩形の表側/裏側のどちらから撮影すべきなのかを示す方向線0202を表示するために、方向線の始点の座標を求める(ステップS0804)。この始点の座標は、方位角0404と仰俯角0405で決定される方向ベクトルを基にし、現在位置の座標から既定の距離だけ離れた点として計算すれば良い。この距離は、ユーザがディスプレイ上で確認した際に、方向線であることを確認できるだけの長さを持っている必要がある。なお、方向線の終点の座標は矩形の面の中心であり、ここでは、作例の撮影地点の座標に等しい。次に、座標系の原点から現在位置までの距離を計算する(ステップS0805)。これは、後のステップで矩形の頂点を透視投影する際のパラメータとして用いる。続いて、先ほど求めた矩形の4頂点の座標に対して透視投影を行い、実際にディスプレイ上に表示する際の座標値を求める(ステップS0806)。透視投影の座標変換式は一般に知られているが、ここでは次のように求めるものとする。矩形の頂点の座標を(x0, y0, z0)、X軸の回転角度をRx、Y軸の回転角度をRy、Z軸の回転角度をRzとする。また、現在地点から投影面までの距離をDs、現在地点から原点までの距離をDoとする。ここで、DoはステップS0805で求めた値である。このとき、透視投影後の座標(x1, y1)は、   FIG. 8 is a flowchart showing details of the rectangular display process (step S0506) in FIG. Here, a process of actually displaying a rectangle is performed for an example having an index stacked on the index stack in the example search process (step S0505). First, it is determined whether or not the index stack is empty. If the index stack is empty (YES in step S0800), there is no rectangle to be displayed, and thus the process ends. If one or more stacks are stacked on the index stack (NO in step S0800), the top index is extracted (step S0801), and the corresponding sample information is referenced (step S0802). Next, the coordinates of the four vertices of the rectangle to be displayed are calculated (step S0803). The coordinates of the vertex are obtained by temporarily obtaining four points that are separated by a fixed distance in the vertical and horizontal directions around the coordinates of the photographing point in the example, and then multiplying by a rotation matrix representing the azimuth angle 0404 and the elevation angle 0405. It is done. Next, in order to display the direction line 0202 indicating whether the image should be taken from the front side or the back side of the rectangle, the coordinates of the start point of the direction line are obtained (step S0804). The coordinates of the starting point may be calculated as a point separated from the coordinates of the current position by a predetermined distance based on the direction vector determined by the azimuth angle 0404 and the elevation angle 0405. This distance needs to be long enough to confirm that it is a direction line when the user confirms it on the display. The coordinate of the end point of the direction line is the center of the rectangular surface, and here it is equal to the coordinate of the shooting point in the example. Next, the distance from the origin of the coordinate system to the current position is calculated (step S0805). This is used as a parameter for perspective projection of a rectangular vertex in a later step. Subsequently, perspective projection is performed on the coordinates of the four vertices of the rectangle obtained earlier, and coordinate values for actual display on the display are obtained (step S0806). The coordinate transformation formula for perspective projection is generally known, but here it is obtained as follows. The coordinates of the vertex of the rectangle are (x0, y0, z0), the rotation angle of the X axis is Rx, the rotation angle of the Y axis is Ry, and the rotation angle of the Z axis is Rz. The distance from the current point to the projection plane is Ds, and the distance from the current point to the origin is Do. Here, Do is the value obtained in step S0805. At this time, coordinates (x1, y1) after perspective projection are

Figure 2012090106
Figure 2012090106

Figure 2012090106
Figure 2012090106

で求められる。この計算を、矩形の4頂点について行い、すべての頂点の透視投影が完了したら、変換後の各頂点の座標を結ぶパスをディスプレイ上に描画する(ステップS0807)。同様に、ステップS0804で求めた方向線の始点と終点も透視変換を行い(ステップS0808)、変換後の点を結ぶアローを描画することで(ステップS0809)、方向線0202をユーザに提示する。以上で、ある1つの作例について、撮影構図を示す矩形と方向線の描画が完了するので、再びステップS0800に戻り、インデックススタックの空かどうかの判定を行う。   Is required. This calculation is performed for the four vertices of the rectangle, and when the perspective projection of all the vertices is completed, a path connecting the coordinates of the converted vertices is drawn on the display (step S0807). Similarly, the start point and end point of the direction line obtained in step S0804 are also perspective-transformed (step S0808), and an arrow connecting the converted points is drawn (step S0809), thereby presenting the direction line 0202 to the user. As described above, since the drawing of the rectangle and the direction line indicating the shooting composition is completed for one sample, the process returns to step S0800 again to determine whether the index stack is empty.

撮像装置が、以上で示した一連の処理を実行することによって、作例の撮影構図を示す3次元矩形オブジェクトをディスプレイ上に表示することができる。これにより、ユーザは、表示されたいずれか1つの矩形と表示領域が一致するように撮像装置を移動させるだけで、作例と同様の構図で撮影を行うことができる。   By executing the series of processes described above, the imaging apparatus can display a three-dimensional rectangular object indicating a sample shooting composition on the display. Thus, the user can perform shooting with the same composition as in the example only by moving the imaging device so that any one of the displayed rectangles matches the display area.

上記実施形態では、矩形0201と共に、撮影に必要な補助情報として、撮影方向を示す方向線0202を表示する例を示したが、補助情報として他の情報を提示しても良い。例えば、矩形0201の近傍に、その作例の画像サムネイルを重畳表示しても良い。これにより、各矩形の地点で撮影を行うとどのような写真を撮影できるのか、ユーザが移動前に分かるようになる。これを実施するには、図4で示した作例情報のデータ構造に、新たに対応する画像サムネイルの情報を格納するフィールドを追加する。その上で、図8で示した方向線の描画処理(ステップS0812)の後、既定のオフセット位置に、対応する画像サムネイルを描画する処理を追加すれば良い。   In the above embodiment, an example in which the direction line 0202 indicating the shooting direction is displayed as auxiliary information necessary for shooting together with the rectangle 0201 has been described. However, other information may be presented as auxiliary information. For example, an image thumbnail of the sample may be superimposed and displayed near the rectangle 0201. As a result, the user can know what kind of photograph can be taken when shooting at each rectangular point before moving. In order to implement this, a field for storing information of the corresponding image thumbnail is newly added to the data structure of the sample information shown in FIG. In addition, after the direction line drawing process shown in FIG. 8 (step S0812), a process for drawing the corresponding image thumbnail may be added at a predetermined offset position.

また、上記実施形態では、ディスプレイ上の画像に作例の撮影構図を示す3次元矩形オブジェクトを重畳表示する例を示したが、この矩形の代わりに、作例の画像イメージを利用しても良い。これにより、ユーザは、矩形を見ることで、どのような写真がその地点で撮影されたのかを確認することができる。これを実施するためには、図8で示した透視投影処理(ステップS0806からS0809)において、頂点の座標を投影する変わりに、対応する作例の画素値を投影すれば良い。   In the above-described embodiment, an example in which a three-dimensional rectangular object indicating an example shooting composition is superimposed and displayed on an image on a display is shown. However, an image image of an example may be used instead of the rectangle. Thereby, the user can confirm what kind of photograph was image | photographed at the point by seeing a rectangle. In order to implement this, in the perspective projection process shown in FIG. 8 (steps S0806 to S0809), instead of projecting the coordinates of the vertices, the pixel values of the corresponding sample may be projected.

(その他の実施形態)
また、本発明の構成要素は、複数の機器(例えばホストコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、カメラ、複写機、ファクシミリ装置など)に適用しても良い。本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のデータ保存部、ROMなどを用いることが出来る。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行う。さらに、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるデータ保存部に書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
(Other embodiments)
The component of the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a camera, a copier, The present invention may be applied to a facsimile machine or the like. An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the system reads and executes the program codes stored in the storage medium. Is also achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile data storage unit, ROM, or the like can be used. . Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. Perform some of the actual processing. Furthermore, it is needless to say that the case where the functions of the above-described embodiments are realized by the processing is included. Further, the program code read from the storage medium is written to a data storage unit provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.

Claims (7)

ディスプレイ上に、撮影構図をガイドするオブジェクトを表示する表示制御手段と、
前記ディスプレイの表示領域と前記オブジェクトが一致したかを判定する判定手段と、
前記判定手段で、表示領域と前記オブジェクトが一致したと判定された場合、撮影時に利用する設定パラメータを、前記オブジェクトに関連つけられた情報に基づいて設定する設定手段を有することを特徴とする撮像装置。
Display control means for displaying an object for guiding the shooting composition on the display;
Determining means for determining whether the display area of the display matches the object;
An imaging device comprising: setting means for setting a setting parameter used at the time of shooting based on information associated with the object when the determination means determines that the display area and the object match. apparatus.
前記オブジェクトは、作例ごとに異なる3次元矩形オブジェクトであることを特徴と請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the object is a three-dimensional rectangular object that is different for each example. 前記表示制御手段は、さらに、画像の撮影方向を示す情報を表示することを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the display control unit further displays information indicating a shooting direction of the image. 撮像装置の制御方法であって、
表示制御手段が、ディスプレイ上に、撮影構図をガイドするオブジェクトを表示する表示制御工程と、
判定手段が、前記ディスプレイの表示領域と前記オブジェクトが一致したかを判定する判定工程と、
設定手段が、前記判定工程で、表示領域と前記オブジェクトが一致したと判定された場合、撮影時に利用する設定パラメータを、前記オブジェクトに関連つけられた情報に基づいて設定する設定工程を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
A display control step for displaying an object for guiding the shooting composition on the display;
A determining step for determining whether the display area of the display and the object match;
A setting unit having a setting step of setting a setting parameter to be used at the time of shooting based on information associated with the object when it is determined in the determination step that the display area and the object match; A control method for an imaging apparatus.
前記オブジェクトは、作例ごとに異なる3次元矩形オブジェクトであることを特徴と請求項4に記載の撮像装置の制御方法。   The method according to claim 4, wherein the object is a three-dimensional rectangular object that is different for each example. 前記表示制御工程は、ディスプレイ上に、撮影構図をガイドするオブジェクトと、画像の撮影方向を示す情報を表示することを特徴とする請求項4又は5に記載の撮像装置の制御方法。   6. The method of controlling an imaging apparatus according to claim 4, wherein the display control step displays an object for guiding a shooting composition and information indicating a shooting direction of the image on a display. コンピュータを、請求項1から請求項3のいずれか1項に記載の撮像装置として機能させるためのプログラム。   The program for functioning a computer as an imaging device of any one of Claims 1-3.
JP2010235565A 2010-10-20 2010-10-20 Imaging device and control method of the same Pending JP2012090106A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010235565A JP2012090106A (en) 2010-10-20 2010-10-20 Imaging device and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010235565A JP2012090106A (en) 2010-10-20 2010-10-20 Imaging device and control method of the same

Publications (1)

Publication Number Publication Date
JP2012090106A true JP2012090106A (en) 2012-05-10

Family

ID=46261244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010235565A Pending JP2012090106A (en) 2010-10-20 2010-10-20 Imaging device and control method of the same

Country Status (1)

Country Link
JP (1) JP2012090106A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222603A (en) * 2011-04-08 2012-11-12 Olympus Corp Image pick-up device
JP2013165366A (en) * 2012-02-10 2013-08-22 Sony Corp Image processing device, image processing method, and program
JP2014017864A (en) * 2012-06-12 2014-01-30 Olympus Imaging Corp Photographing apparatus and method for determining photographing condition
JP2014241496A (en) * 2013-06-11 2014-12-25 ソニー株式会社 Information processing apparatus, imaging apparatus, information processing method, and program
JP2021082972A (en) * 2019-11-20 2021-05-27 株式会社エクサウィザーズ Imaging apparatus, information processing apparatus, method, and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8976267B2 (en) 2011-04-08 2015-03-10 Olympus Corporation Image pickup device with photography positioning guidance
JP2012222603A (en) * 2011-04-08 2012-11-12 Olympus Corp Image pick-up device
JP2013165366A (en) * 2012-02-10 2013-08-22 Sony Corp Image processing device, image processing method, and program
US9237273B2 (en) 2012-06-12 2016-01-12 Olympus Corporation Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
CN104094588A (en) * 2012-06-12 2014-10-08 奥林巴斯映像株式会社 Imaging device
JP2014017865A (en) * 2012-06-12 2014-01-30 Olympus Imaging Corp Photographing apparatus and method for determining posture when photographing
EP2787722A4 (en) * 2012-06-12 2015-08-12 Olympus Imaging Corp Imaging device
JP2014017864A (en) * 2012-06-12 2014-01-30 Olympus Imaging Corp Photographing apparatus and method for determining photographing condition
US9639940B2 (en) 2012-06-12 2017-05-02 Olympus Corporation Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
CN104094588B (en) * 2012-06-12 2018-03-13 奥林巴斯株式会社 Camera device
CN108322653A (en) * 2012-06-12 2018-07-24 奥林巴斯株式会社 Photographic device
US10057485B2 (en) 2012-06-12 2018-08-21 Olympus Corporation Imaging apparatus and methods for generating a guide display using imaging height posture information
CN108322653B (en) * 2012-06-12 2020-11-13 奥林巴斯株式会社 Image pickup apparatus
JP2014241496A (en) * 2013-06-11 2014-12-25 ソニー株式会社 Information processing apparatus, imaging apparatus, information processing method, and program
US10375305B2 (en) 2013-06-11 2019-08-06 Sony Corporation Information processing device, imaging device, information processing method, and program
JP2021082972A (en) * 2019-11-20 2021-05-27 株式会社エクサウィザーズ Imaging apparatus, information processing apparatus, method, and program

Similar Documents

Publication Publication Date Title
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
US11164001B2 (en) Method, apparatus, and system for automatically annotating a target object in images
JP5075182B2 (en) Image processing apparatus, image processing method, and image processing program
Arth et al. Real-time self-localization from panoramic images on mobile devices
US20180286098A1 (en) Annotation Transfer for Panoramic Image
WO2015027807A1 (en) Indoor positioning terminal, network, system and method thereof
CN107197153B (en) Shooting method and shooting device for photo
CN103189827A (en) Object display device and object display method
JP2014071850A (en) Image processing apparatus, terminal device, image processing method, and program
CN110022444A (en) The panorama photographic method of unmanned flight's machine and the unmanned flight's machine for using it
JP2016048455A (en) Image processor, image processing method, and program
JP2012090106A (en) Imaging device and control method of the same
JP2008513852A (en) Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system
KR20100065918A (en) A method for geo-tagging of pictures and apparatus thereof
CN112270702A (en) Volume measurement method and device, computer readable medium and electronic equipment
CN111880649A (en) Demonstration method and system of AR viewing instrument and computer readable storage medium
CN113167577A (en) Surveying method for a movable platform, movable platform and storage medium
CN113344789B (en) Image splicing method and device, electronic equipment and computer readable storage medium
CN110650284B (en) Image shooting control method, device, equipment and storage medium
CN110012236A (en) A kind of information processing method, device, equipment and computer storage medium
JP2010129032A (en) Device and program for retrieving image
CN107343142A (en) The image pickup method and filming apparatus of a kind of photo
CN113747044A (en) Panoramic shooting method and device
CN111242107B (en) Method and electronic device for setting virtual object in space
JP2008148220A (en) Imaging apparatus, imaging method, and control program