JP2014007619A - Photograph support device and program - Google Patents

Photograph support device and program Download PDF

Info

Publication number
JP2014007619A
JP2014007619A JP2012142648A JP2012142648A JP2014007619A JP 2014007619 A JP2014007619 A JP 2014007619A JP 2012142648 A JP2012142648 A JP 2012142648A JP 2012142648 A JP2012142648 A JP 2012142648A JP 2014007619 A JP2014007619 A JP 2014007619A
Authority
JP
Japan
Prior art keywords
subject
optical system
information
angle
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012142648A
Other languages
Japanese (ja)
Inventor
Kazuma Kawahara
和真 川原
Takashi Tateno
孝史 舘野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012142648A priority Critical patent/JP2014007619A/en
Publication of JP2014007619A publication Critical patent/JP2014007619A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To give highly versatile and objective photograph support information.SOLUTION: A photograph recommendation mark 35 is displayed at a liquid crystal display part 3 with a color different from that of a current position mark 33, so as to indicate the distance and position when a subject falls within a photograph region. The photograph recommendation mark 35 is not based on the subjective judgment of other photographer, but indicates the distance and position when a subject falls within a photograph region, which are an objective fact calculated. Consequently, highly versatile and objective photograph support information can be given, and useful photograph support can be carried out for many photographers.

Description

本発明は、撮影を支援するに関する。   The present invention relates to supporting shooting.

従来、特許文献1に開示されているように、撮影を支援するための技術が知られている。この技術は、サーバーとこれと通信可能なカメラとで構成されている。サーバーには複数の撮影者が撮影した撮影対象、及びその撮影対象が撮影されたときの撮影ポイントが記憶されている。一方、カメラは現在地情報を取得する取得手段を備え、この取得手段により取得した現在地情報をサーバーに送信する。すると、受信した現在地情報が示す現在地付近から撮影可能な撮影対象とその撮影対象を撮影するための好適な撮影ポイントとを含む撮影支援情報をカメラに送信する。これを受信したカメラは、表示部に撮影支援情報を表示し、撮影者がこれを参考にして好適な撮影ポイントとされた位置から撮影を行うことが可能となる。   Conventionally, as disclosed in Patent Document 1, a technique for supporting photographing is known. This technology includes a server and a camera that can communicate with the server. The server stores shooting objects shot by a plurality of photographers and shooting points when the shooting objects are shot. On the other hand, the camera includes an acquisition unit that acquires current location information, and transmits the current location information acquired by the acquisition unit to the server. Then, shooting support information including a shooting target that can be shot from the vicinity of the current location indicated by the received current location information and a suitable shooting point for shooting the shooting target is transmitted to the camera. The camera that has received the information displays the shooting support information on the display unit, and the photographer can take a picture from a position that is a suitable shooting point with reference to the information.

特開2005−5398号公報JP 2005-5398 A

しかしながら、従来技術において撮影支援として呈示される撮影ポイントは、これをアップロードした撮影者の主観的な判断に基づく好適な撮影地点である。したがって、当該撮影者が好適な撮影ポイントであるとしても、他の撮影者にとって好適な撮影ポイントとなるとは限らない。つまり、撮影支援情報である撮影ポイントは主観的な情報であって客観性がないことから、撮影支援情報として汎用性が低く、多数の撮影者にとって有用な撮影支援情報となるものではなかった。   However, the shooting point presented as shooting support in the prior art is a suitable shooting point based on the subjective judgment of the photographer who uploaded the shooting point. Therefore, even if the photographer is a suitable shooting point, it is not always a suitable shooting point for other photographers. That is, since the shooting point that is the shooting support information is subjective information and has no objectivity, the shooting support information has low versatility and is not useful shooting support information for many photographers.

本発明は、かかる従来の課題に鑑みてなされたものであり、客観性があり汎用性の高い撮影支援情報を付与することのできる撮影支援装置及びプログラムを提供することを目的とするものである。   The present invention has been made in view of such conventional problems, and an object of the present invention is to provide a shooting support apparatus and program capable of providing shooting support information that is objective and highly versatile. .

課題を解決するため本発明に係る撮像支援装置は、被写体の大きさに関する情報を取得する被写体情報取得手段と、前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得手段と、前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出手段とを備えることを特徴とする。   In order to solve the problem, an imaging support apparatus according to the present invention includes a subject information acquisition unit that acquires information about the size of a subject, and an angle-of-view information acquisition unit that acquires information about an angle of view of an optical system that forms an image of the subject. And calculating means for calculating a suitable position or an inappropriate position for photographing the subject imaged by the optical system based on the information obtained by the both information obtaining means.

あるいは、被写体の位置及び大きさに関する情報を取得する被写体情報取得手段と、現在の位置を取得する現在位置取得手段と、前記両情報取得手段により取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出手段と、複数種の交換可能な光学系から前記算出手段により算出された画角に基づく光学系を特定する光学系特定手段と、前記光学系特定手段により特定された光学系を示す情報を出力する出力手段とを備えることを特徴とする。   Alternatively, subject information acquisition means for acquiring information on the position and size of the subject, current position acquisition means for acquiring the current position, and information acquired by both information acquisition means, the current position An optical system for calculating an angle of view of an optical system suitable for imaging a subject and an optical system for specifying an optical system based on the angle of view calculated by the calculation means from a plurality of types of interchangeable optical systems It is characterized by comprising specifying means and output means for outputting information indicating the optical system specified by the optical system specifying means.

また、本発明に係る撮影支援プログラムは、当該装置が有するコンピュータを、被写体の大きさに関する情報を取得する被写体情報取得手段と、前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得手段と、前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出手段として機能させることを特徴とする。   In addition, the imaging support program according to the present invention uses a computer included in the apparatus to capture information about the angle of view of a subject information acquisition unit that acquires information about the size of the subject and an optical system that forms an image of the subject. An angle information acquisition unit and a calculation unit for calculating a position suitable for photographing a subject imaged by the optical system based on information acquired by the both information acquisition units. And

あるいは、当該装置が有するコンピュータを、被写体の位置及び大きさに関する情報を取得する被写体情報取得手段と、現在の位置を取得する現在位置取得手段と、   Alternatively, the computer included in the apparatus includes subject information acquisition means for acquiring information on the position and size of the subject, and current position acquisition means for acquiring the current position.

前記両情報取得手段により取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出手段と、複数種の交換可能な光学系から前記算出手段により算出された画角に基づく光学系を特定する光学系特定手段と、前記光学系特定手段により特定された光学系を示す情報を出力する出力手段として機能させることを特徴とする。   Based on information acquired by the information acquisition means, a calculation means for calculating an angle of view of an optical system suitable for imaging the subject from the current position and a plurality of types of interchangeable optical systems And an optical system specifying unit that specifies an optical system based on the angle of view calculated by the calculating unit, and an output unit that outputs information indicating the optical system specified by the optical system specifying unit. .

また、本発明に係る撮影支援方法は、被写体の大きさに関する情報を取得する被写体情報取得ステップと、前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得ステップと、前記両情報取得ステップにより取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出ステップとを含むことを特徴とする。   In addition, the imaging support method according to the present invention includes a subject information acquisition step for acquiring information about the size of a subject, an angle-of-view information acquisition step for acquiring information about an angle of view of an optical system that forms an image of the subject, And a calculation step of calculating a suitable position or an inappropriate position for photographing the subject imaged by the optical system based on the information acquired by the both information acquisition steps.

あるいは、被写体の位置及び大きさに関する情報を取得する被写体情報取得ステップと、現在の位置を取得する現在位置取得ステップと、前記両情報取得ステップにより取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出ステップと、複数種の交換可能な光学系から前記算出ステップにより算出された画角に基づく光学系を特定する光学系特定ステップと、前記光学系特定ステップにより特定された光学系を示す情報を出力する出力ステップとを含むことを特徴とする。   Alternatively, based on the information acquired by the subject information acquisition step of acquiring information on the position and size of the subject, the current position acquisition step of acquiring the current position, and the information acquisition step, the current position A calculation step for calculating an angle of view of an optical system suitable for imaging a subject and an optical system for specifying an optical system based on the angle of view calculated by the calculation step from a plurality of types of interchangeable optical systems And an output step of outputting information indicating the optical system specified by the optical system specifying step.

本発明によれば、客観性があり汎用性の高い撮影支援情報を付与することができ、多数の撮影者にとって有用な撮影支援を行うことができる。   According to the present invention, imaging support information that is objective and highly versatile can be provided, and imaging support useful for a large number of photographers can be provided.

本発明の各実施の形態に共通するデジタルカメラのハードウェア構成の概略を示すブロック図である。It is a block diagram which shows the outline of the hardware constitutions of the digital camera common to each embodiment of this invention. フラッシュメモリのメモリ構成図である。It is a memory block diagram of flash memory. 第1の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 1st Embodiment. 同実施の形態における表示例を示す図である。It is a figure which shows the example of a display in the embodiment. 撮影領域の高さH′の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of height H 'of imaging | photography area | region. 撮影領域の幅W′の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of width W 'of imaging | photography area | region. 被写体の撮影者に対する傾きβの算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of inclination (beta) with respect to the photographer of a to-be-photographed object. 撮影領域内に被写体が収まる場合の距離Lxの算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of distance Lx when a to-be-photographed object fits in an imaging | photography area | region. 撮影領域内に被写体が収まる場合の距離Lyの算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of distance Ly when a to-be-photographed object fits in an imaging | photography area | region. 第1の実施の形態の変形例における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the modification of 1st Embodiment. 撮影領域内に被写体が収まる場合のレンズ画角θx(上下方向)の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of lens view angle (theta) x (up-down direction) when a to-be-photographed object falls within an imaging | photography area | region. 撮影領域内に被写体が収まる場合のレンズ画角θyの算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of lens view angle | corner (theta) y when a to-be-photographed object fits in an imaging region. 変形例における表示例を示す図である。It is a figure which shows the example of a display in a modification. (A)は、本発明の第2の実施の形態における処理手順を示すフローチャート、(B)は撮影スポットの計算手順を示すフローチャートである。(A) is a flowchart showing a processing procedure in the second embodiment of the present invention, and (B) is a flowchart showing a procedure for calculating a photographing spot. 仮想する直方体を示す図である。It is a figure which shows the virtual rectangular parallelepiped. 水平画角の説明図である。It is explanatory drawing of a horizontal angle of view. 垂直画角を用いた計算手順を示すフローチャートである。It is a flowchart which shows the calculation procedure using a vertical angle of view. 垂直画角を用いた計算の説明図である。It is explanatory drawing of the calculation using a vertical angle of view. 直方体からの距離がL1となる領域を示す図である。It is a figure which shows the area | region where the distance from a rectangular parallelepiped becomes L1. 垂直画角を用いた撮影限界線の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the imaging | photography limit line using a vertical angle of view. 水平画角を用いた撮影限界線の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the imaging | photography limit line using a horizontal angle of view. 撮影可能限界距離L2−1を示す図である。It is a figure which shows imaging | photography possible limit distance L2-1. 撮影可能限界距離をL2−3を示す図である。It is a figure which shows L2-3 for the photography possible limit distance. 直方体からの距離がL2−1又はL2−3となる領域を示す図である。It is a figure which shows the area | region where the distance from a rectangular parallelepiped becomes L2-1 or L2-3. (A)は撮影限界線の算出手順を示すフローチャート、(B)は円D,E,F上の該当座標算出手順を示すフローチャートである。(A) is a flowchart showing a procedure for calculating a photographing limit line, and (B) is a flowchart showing a procedure for calculating corresponding coordinates on the circles D, E, and F. 総合的な撮影エリアの計算手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of a comprehensive imaging | photography area. 第2の実施の形態における表示例を示す図である。It is a figure which shows the example of a display in 2nd Embodiment. 撮影限界距離L2−2を示す図である。It is a figure which shows photographing limit distance L2-2.

以下、本発明の一実施の形態を図に従って説明する。図1は、本発明の各実施の形態に共通するデジタルカメラ1のハードウェア構成の概略を示すブロック図である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an outline of the hardware configuration of a digital camera 1 common to the embodiments of the present invention.

このデジタルカメラ1は、CPU(Central Processing Unit)10によってシステムの全体を制御される構成である。そして、フォーカスレンズやズームレンズを有し光学系を形成する交換レンズ2と、当該交換レンズ2の種別を検出するセンサ等の機構とを備えるレンズブロック11を有している。交換レンズ2としては、このデジタルカメラ1の本体に着脱自在な8mmレンズ、12−24mmレンズ、70−300mmレンズ、500mmレンズが用意され、これらレンズのいずれかが装着されている。更に、交換レンズ2が有するフォーカスレンズやズームレンズを駆動するためのモータ等のアクチュエータ12が設けられ、このアクチュエータ12を駆動するための各種のドライバにより構成されるドライバブロック13がバス24を介してCPU10に接続されている。   The digital camera 1 has a configuration in which the entire system is controlled by a CPU (Central Processing Unit) 10. The lens block 11 includes an interchangeable lens 2 that has a focus lens and a zoom lens and forms an optical system, and a mechanism such as a sensor that detects the type of the interchangeable lens 2. As the interchangeable lens 2, an 8 mm lens, a 12-24 mm lens, a 70-300 mm lens, and a 500 mm lens that are detachable from the main body of the digital camera 1 are prepared, and any of these lenses is attached. Furthermore, an actuator 12 such as a motor for driving a focus lens and a zoom lens included in the interchangeable lens 2 is provided, and a driver block 13 including various drivers for driving the actuator 12 is provided via a bus 24. It is connected to the CPU 10.

また、デジタルカメラ1は、被写体を撮像するための固体撮像素子としてCCD(Charge Coupled Device)14を有している。CCD14は、公知の電荷転送型の固体撮像素子である。ドライバ15は、TG(Timing Generator)16が生成した垂直CCD駆動タイミング信号と、水平CCD駆動タイミング信号、及び電子シャッタタイミング信号に従い、CCD駆動信号を生成し、生成したCCD駆動信号をCCD14へ供給してCCD14を駆動する。   The digital camera 1 also has a CCD (Charge Coupled Device) 14 as a solid-state imaging device for imaging a subject. The CCD 14 is a known charge transfer type solid-state imaging device. The driver 15 generates a CCD drive signal in accordance with a vertical CCD drive timing signal, a horizontal CCD drive timing signal, and an electronic shutter timing signal generated by a TG (Timing Generator) 16 and supplies the generated CCD drive signal to the CCD 14. Then, the CCD 14 is driven.

TG16は、前述の垂直CCD駆動タイミング信号と、水平CCD駆動タイミング信号、及び電子シャッタタイミング信号からなる駆動タイミング信号を、CPU10により設定された駆動モードに応じて生成する。すなわち、TG16は、CCD14の駆動モードの種類を示す設定値を記憶するレジスタを内部に有している。設定値が、CPU10により設定されることにより、TG16は、各々の駆動モードに応じた駆動タイミング信号(垂直CCD駆動タイミング信号、水平CCD駆動タイミング信号、電子シャッタタイミング信号)を生成する。   The TG 16 generates a drive timing signal including the above-described vertical CCD drive timing signal, horizontal CCD drive timing signal, and electronic shutter timing signal in accordance with the drive mode set by the CPU 10. That is, the TG 16 has a register for storing a set value indicating the type of drive mode of the CCD 14. When the set value is set by the CPU 10, the TG 16 generates a drive timing signal (vertical CCD drive timing signal, horizontal CCD drive timing signal, electronic shutter timing signal) corresponding to each drive mode.

CCD14は、ドライバ15によって駆動されることにより、レンズブロック11の光学系において結像された被写体の光学像(被写体像)を光電変換することによって、被写体像を表すアナログの撮像信号をユニット回路17に供給する。   The CCD 14 is driven by a driver 15 to photoelectrically convert an optical image (subject image) of a subject formed in the optical system of the lens block 11, thereby converting an analog imaging signal representing the subject image into a unit circuit 17. To supply.

ユニット回路17は、CDS(Correllated Double Sampling)回路とAGC(Auto Gain Control)回路、及びA/D(analogue/digital)変換部で構成されている。CDS回路は、CCD14から供給されたアナログの撮像信号に含まれるノイズを相関二重サンプリングによって除去する。AGC回路は、ノイズ除去後の撮像信号を増幅し、増幅後の撮像信号をA/D変換部に供給する。A/D変換部は、増幅後の撮像信号をデジタルの撮像信号に変換し、変換後におけるデジタルの撮像信号をDSP(Digital Signal Processor)18へ出力する。   The unit circuit 17 includes a CDS (Correllated Double Sampling) circuit, an AGC (Auto Gain Control) circuit, and an A / D (analogue / digital) converter. The CDS circuit removes noise included in the analog imaging signal supplied from the CCD 14 by correlated double sampling. The AGC circuit amplifies the image signal after noise removal, and supplies the amplified image signal to the A / D converter. The A / D converter converts the amplified image signal into a digital image signal, and outputs the converted digital image signal to a DSP (Digital Signal Processor) 18.

DSP18は、入力した撮像信号に対しペデスタルクランプ等の処理を施してRGBデータに変換し、さらにRGBデータを輝度(Y)成分及び色差(UV)成分からなる画像データに変換する。また、DSP18は、画像データにオートホワイトバランス、輪郭強調、画素補間などの画品質向上のためのデジタル信号処理を施し、順次SDRAM19に記憶させる。   The DSP 18 performs processing such as pedestal clamping on the input imaging signal to convert it into RGB data, and further converts the RGB data into image data composed of a luminance (Y) component and a color difference (UV) component. Further, the DSP 18 performs digital signal processing for improving image quality such as auto white balance, contour enhancement, pixel interpolation, and the like on the image data, and sequentially stores them in the SDRAM 19.

撮影モードでは、SDRAM19に1フレーム分(1画面分)の画像データが蓄積される毎に、画像データが液晶表示部3へ送られてライブビュー画像として表示される。また、シャッターキーが押下された撮影時には、CPU10がSDRAM19に一時記憶される画像データを圧縮し、所定のフォーマットの画像ファイルとして外部メモリ20に記録する。外部メモリ20は、図示しないカードインターフェイスを介してカメラ本体に接続された着脱自在なメモリカードである。   In the shooting mode, every time image data for one frame (one screen) is stored in the SDRAM 19, the image data is sent to the liquid crystal display unit 3 and displayed as a live view image. At the time of shooting when the shutter key is pressed, the CPU 10 compresses the image data temporarily stored in the SDRAM 19 and records it in the external memory 20 as an image file of a predetermined format. The external memory 20 is a detachable memory card connected to the camera body via a card interface (not shown).

再生モードにおいてCPU10は、外部メモリ20に記録された画像ファイルをユーザの選択操作に応じて読み出す。さらに、CPU10は、この読み出した画像ファイルを伸張し、画像データをSDRAM19に展開した後、液晶表示部3に表示させる。   In the playback mode, the CPU 10 reads the image file recorded in the external memory 20 in accordance with the user's selection operation. Further, the CPU 10 expands the read image file, expands the image data in the SDRAM 19, and displays the image data on the liquid crystal display unit 3.

さらに、CPU10にはキー入力部22が接続されているとともに、GPS(Global Positioning System)モジュール23が接続されている。キー入力部22は、シャッターキー、カーソルキー、決定キー等の各種キーやボタン、及びその他のスイッチ類を有している。CPU10は、キー入力部22におけるスイッチ類の操作状態を定常的にスキャンし、ユーザによるスイッチ操作の内容に応じた操作信号を取得する。   Further, a key input unit 22 is connected to the CPU 10, and a GPS (Global Positioning System) module 23 is connected to the CPU 10. The key input unit 22 includes various keys and buttons such as a shutter key, a cursor key, and an enter key, and other switches. The CPU 10 regularly scans the operation state of the switches in the key input unit 22 and acquires an operation signal corresponding to the content of the switch operation by the user.

GPSモジュール23は、L1帯 (1.57542GHz)のC/Aコード(Coarse/Acquisition code)を受信して復調・解読し、現在のデジタルカメラ1の位置である現在位置の緯度・経度を逐次割り出す。つまり、GPSモジュール23は、割り出した緯度・経度を示すデータである現在位置データを取得するものであり、逐次取得される現在位置データは、CPU10に取り込まれる。   The GPS module 23 receives and demodulates and decodes the L1 band (1.57542 GHz) C / A code (Coarse / Acquisition code), and sequentially calculates the latitude and longitude of the current position, which is the current position of the digital camera 1. That is, the GPS module 23 acquires current position data that is data indicating the calculated latitude and longitude, and the current position data acquired sequentially is taken into the CPU 10.

フラッシュメモリ21は、図2に示すように、CPU10に複数種のデータやカメラ全体を制御させるための複数種のプログラムが記憶されているメモリである。すなわち、フラッシュメモリ21には、地図記憶エリア211、被写体の位置・サイズ等記憶エリア212、レンズ画角情報記憶エリア213、撮影者の身長記憶エリア214、及びその他の記憶エリア215が設けられている。   As shown in FIG. 2, the flash memory 21 is a memory in which a plurality of types of programs for causing the CPU 10 to control a plurality of types of data and the entire camera are stored. That is, the flash memory 21 is provided with a map storage area 211, a subject position / size storage area 212, a lens angle-of-view information storage area 213, a photographer's height storage area 214, and other storage areas 215. .

地図記憶エリア211には、所定の標準サイズ(所定の縮尺)からなる地図を表示する地図画像データが記憶されているとともに、予め景勝地として決定された区域を示す景勝地データが地図データに対応して記憶されている。被写体の位置・サイズ等記憶エリア212には、前記景勝地毎に当該景勝地において撮影対象とすべき被写体、当該被写体の緯度・経度に対応する地図上の位置情報(位置座標xn,yn)、その厚さ(奥行き、D)、幅(W)、高さ(H)の各サイズを示すサイズ情報が記憶されている。さらに、被写体の位置・サイズ等記憶エリア212には、被写体の方向(θn)が記憶されている。この被写体の方向(θn)は、後述する図7に示すように、被写体32を横断する仮想中心線Znの南北軸線Zに対する角度(θn)で記憶されている。   In the map storage area 211, map image data for displaying a map having a predetermined standard size (predetermined scale) is stored, and scenic spot data indicating an area previously determined as a scenic spot corresponds to the map data. And remembered. In the storage area 212 such as the position / size of the subject, position information (position coordinates xn, yn) on the map corresponding to the subject to be photographed in the scenic spot, the latitude / longitude of the subject, for each scenic spot, Size information indicating each size of the thickness (depth, D), width (W), and height (H) is stored. Further, the subject position / size storage area 212 stores the subject direction (θn). The direction (θn) of the subject is stored as an angle (θn) with respect to the north-south axis Z of the virtual center line Zn crossing the subject 32, as shown in FIG.

レンズ画角情報記憶エリア213には、このデジタルカメラ1に交換レンズ2として用意されている前述の8mmレンズ、12−24mmレンズ、・・・のズーム倍率を最小にした場合、つまり最も広角にした場合の各レンズ画角(θ)が記憶されている。撮影者の身長記憶エリア214には、予めユーザにより入力されたこのデジタルカメラ1の撮影者の身長(h)が記憶されている。
なお、本実施の形態においては、レンズ画角情報記憶エリア213にズーム倍率を最小にした場合の各レンズ画角(θ)を記憶させておくようにしたが、ズーム倍率が中央値である場合、あるいはズーム倍率が最大である場合の各レンズ画角(θ)を記憶させておくようにしてもよい。
In the lens angle-of-view information storage area 213, when the zoom magnification of the aforementioned 8 mm lens, 12-24 mm lens,... Prepared as the interchangeable lens 2 in the digital camera 1 is minimized, that is, the widest angle is set. Each lens angle of view (θ) is stored. The photographer's height storage area 214 stores the photographer's height (h) of the digital camera 1 input in advance by the user.
In the present embodiment, each lens field angle (θ) when the zoom magnification is minimized is stored in the lens field angle information storage area 213, but the zoom magnification is a median value. Alternatively, each lens angle of view (θ) when the zoom magnification is maximum may be stored.

その他の記憶エリア215には、後述するフローチャートに示す本実施の形態に係るプログラムや、レンズブロック11の光学系を、公知のコントラスト検出方式によって被写体にピントが合うフォーカス位置へ自動制御するAF(auto focus)制御を行うためのAF制御プログラム、その他画像の再生時に用いるプログラム等の各種プログラムが記憶されている。   In the other storage area 215, an AF (auto (automatic control)) that automatically controls the program according to the present embodiment shown in the flowchart described later and the optical system of the lens block 11 to a focus position where the subject is focused by a known contrast detection method. Various programs such as an AF control program for performing (focus) control and other programs used for image reproduction are stored.

(第1の実施の形態)
次に、本発明の第1の実施の形態の動作について、図3のフローチャートに従って説明する。例えば「景勝地撮影モード」と称する、撮影モードにおける特定のモードが設定されると(ステップS101;YES)、CPU10は、このフローチャートに示すステップS102以降の処理を開始する。
(First embodiment)
Next, the operation of the first embodiment of the present invention will be described with reference to the flowchart of FIG. For example, when a specific mode in the shooting mode called “scenery shooting mode” is set (step S101; YES), the CPU 10 starts the processing after step S102 shown in this flowchart.

先ず、周辺景勝地データを液晶表示部3に表示させる(ステップS102)。このステップS102の処理に際しては、GPSモジュール23によりこのデジタルカメラ1の現在位置を取得し、地図記憶エリア211から、現在位置に最も近い景勝地、あるいは現在位置が属する景勝地を示す景勝地データを読み出し、この景勝地データに基づき液晶表示部3に当該景勝地(周辺景勝地)の地図を表示する。   First, peripheral scenic spot data is displayed on the liquid crystal display unit 3 (step S102). In the process of step S102, the current position of the digital camera 1 is acquired by the GPS module 23, and scenic spot data indicating the scenic spot closest to the current position or the scenic spot to which the current position belongs is obtained from the map storage area 211. Based on this scenic spot data, a map of the scenic spot (surrounding scenic spot) is displayed on the liquid crystal display unit 3.

これにより、図4に示すように、液晶表示部3には周辺景勝地の地図31が表示される。また、この液晶表示部3に表示された景勝地の地図31の中には、当該景勝地に属する撮影対象とすべき被写体32(この例では東京スカイツリー)が含まれている。なお、このとき図示のように、地図31内には、現在位置を示す現在位置マーク33やカーソル34を表示させる。   As a result, as shown in FIG. 4, a map 31 of surrounding scenic spots is displayed on the liquid crystal display unit 3. Further, the scenic spot map 31 displayed on the liquid crystal display unit 3 includes a subject 32 (Tokyo Sky Tree in this example) that belongs to the scenic spot and is to be photographed. At this time, a current position mark 33 and a cursor 34 indicating the current position are displayed in the map 31 as shown in the figure.

次に、ユーザによるキー入力部22でのカーソルキーの操作に応じて、カーソル34を移動させて囲繞することにより被写体を選択する(ステップS103)。図4の例では、カーソル34により「東京スカイツリー」が囲繞されて被写体32として選択されている。引き続き、この選択された被写体32の「位置情報(位置座標xn,yn)」「サイズ情報(厚さ、幅、高さ、方向)」を取得する(ステップS104)。   Next, the subject is selected by moving and surrounding the cursor 34 in accordance with the operation of the cursor key at the key input unit 22 by the user (step S103). In the example of FIG. 4, “Tokyo Sky Tree” is surrounded by the cursor 34 and is selected as the subject 32. Subsequently, “position information (position coordinates xn, yn)” and “size information (thickness, width, height, direction)” of the selected subject 32 are acquired (step S104).

すなわち前述のように、被写体の位置・サイズ等記憶エリア212には、景勝地毎に当該景勝地に属する撮影対象とすべき被写体の厚さ(D)、幅(W)、高さ(H)の各サイズを示すサイズ情報や被写体の方向(θn)が記憶されているので、これら厚さ、幅、高さ、方向を読み出す。また、同様に記憶されている当該被写体の緯度・経度を示す位置情報を取得する。   That is, as described above, the subject position / size storage area 212 has a thickness (D), a width (W), and a height (H) of a subject to be photographed belonging to the scenic spot for each scenic spot. Since the size information indicating each size and the direction (θn) of the subject are stored, the thickness, width, height, and direction are read out. Similarly, position information indicating the latitude and longitude of the subject stored is acquired.

引き続き、このデジタルカメラ1に現在装着されている交換レンズの種別をレンズブロック11内に設けられているセンサにより検出し、レンズ画角情報記憶エリア213から検出した交換レンズの種別に対応するレンズ画角(θ)読み出し、現在のカメラ画角として取得する(ステップS105)。さらに、撮影者の身長記憶エリア214に予め記憶されている撮影者の身長(h)を読み出すことにより取得する(ステップS106)。また、GPSモジュール23が取得した現在位置情報を地図上における撮影者(デジタルカメラ1)の現在位置座標(xm,ym)として取得する(ステップS107)。   Subsequently, the type of the interchangeable lens currently mounted on the digital camera 1 is detected by a sensor provided in the lens block 11, and the lens image corresponding to the type of the interchangeable lens detected from the lens angle-of-view information storage area 213 is detected. The angle (θ) is read out and acquired as the current camera angle of view (step S105). Furthermore, the height (h) of the photographer stored in advance in the photographer's height storage area 214 is acquired by reading (step S106). Further, the current position information acquired by the GPS module 23 is acquired as the current position coordinates (xm, ym) of the photographer (digital camera 1) on the map (step S107).

しかる後に、これら取得した撮影者の現在位置・身長、被写体の位置・サイズ、レンズ画角から、撮影領域の高さH′と撮影領域の幅W′等を算出する(ステップS108)。   Thereafter, the height H ′ of the photographing region, the width W ′ of the photographing region, and the like are calculated from the acquired current position / height of the photographer, the position / size of the subject, and the lens angle of view (step S108).

図5は、このステップS108における撮影領域の高さH′の算出方法を示す説明図である。   FIG. 5 is an explanatory diagram showing a method for calculating the height H ′ of the imaging region in step S108.

図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
H:被写体の高さ(ステップS104で取得)
L:撮影者と被写体との距離(ステップS104で取得した被写体の位置と、ステップS107で取得した現在位置情報とから算出)
h:撮影者の身長(ステップS106で取得)
θ:カメラの画角(ステップS105で取得)
H′:撮影領域の高さ
The symbols in the figure mean the following items and are values already acquired in the described steps.
H: Subject height (obtained in step S104)
L: Distance between the photographer and the subject (calculated from the position of the subject acquired in step S104 and the current position information acquired in step S107)
h: Photographer's height (obtained in step S106)
θ: angle of view of the camera (obtained in step S105)
H ': Height of the shooting area

そして、地面からカメラまでの距離をhと近似すると、図における角度αは、
α=tan−1(H/L):const ・・・(1)
となり式(1)より、
H′=h+L・tan(θ−α) ・・・(2)
被写体がカメラ画角に収まる条件は、
H<H′ ・・・(3)
である。
なお、被写体を欠損なく綺麗に収めるために、
H<H′・γ(γ<1) ・・・(4)
としてもよい(但し、γはユーザに入力された値又は予め記憶された固定値)。
When the distance from the ground to the camera is approximated with h, the angle α in the figure is
α = tan-1 (H / L): const (1)
From Equation (1)
H ′ = h + L · tan (θ−α) (2)
The conditions for the subject to fall within the camera angle of view are:
H <H '(3)
It is.
In order to keep the subject clean and clear,
H <H ′ · γ (γ <1) (4)
(Where γ is a value input by the user or a fixed value stored in advance).

図6は、前記ステップS108における撮影領域の幅W′の算出方法を示す説明図である。
図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
W:被写体の幅 (ステップS104で取得)
D:被写体の厚さ(ステップS104で取得)
L:撮影者と被写体との距離(ステップS104で取得した被写体の位置と、ステップS107で取得した現在位置情報とから算出)
θ:カメラの画角(ステップS105で取得)
β:被写体の撮影者に対する傾き(詳細については図7にて後述する)
W′:撮影領域の幅(但し、被写体は外形を長方形近似するものとする)。
FIG. 6 is an explanatory diagram showing a method for calculating the width W ′ of the imaging region in step S108.
The symbols in the figure mean the following items and are values already acquired in the described steps.
W: Width of subject (obtained in step S104)
D: Subject thickness (obtained in step S104)
L: Distance between the photographer and the subject (calculated from the position of the subject acquired in step S104 and the current position information acquired in step S107)
θ: angle of view of the camera (obtained in step S105)
β: inclination of the subject relative to the photographer (details will be described later with reference to FIG. 7)
W ′: the width of the photographing area (however, the object is assumed to approximate the outer shape of a rectangle).

図より、
W′=2L・tan(θ/2)・・・(5)
図におけるW″、つまり撮影方向から見た場合の見かけ上の幅W″は、
W″=W・cos(β)+D・sin(β)・・・(6)
となる。
被写体がカメラ画角に収まる条件は、
W″<W′ ・・・(7)、
である。
なお、被写体を欠損なく綺麗に収めるために、
W″<W′・σ(σ<1) ・・・(8)
としてもよい(但し、σはユーザに入力された値又は予め記憶された固定値)。
From the figure
W ′ = 2L · tan (θ / 2) (5)
W ″ in the figure, that is, the apparent width W ″ when viewed from the shooting direction,
W ″ = W · cos (β) + D · sin (β) (6)
It becomes.
The conditions for the subject to fall within the camera angle of view are:
W ″ <W ′ (7),
It is.
In order to keep the subject clean and clear,
W ″ <W ′ · σ (σ <1) (8)
(Where σ is a value input by the user or a fixed value stored in advance).

図7は、被写体の撮影者に対する傾きβの算出方法を示す説明図である。
図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
β:被写体の撮影者に対する傾き
Xn,Yn:被写体の位置座標(ステップS104で取得)
θn:被写体の方向(ステップS104で取得)
xm,ym:撮影者の位置座標(ステップS107で取得)
FIG. 7 is an explanatory diagram showing a method of calculating the inclination β with respect to the photographer of the subject.
The symbols in the figure mean the following items and are values already acquired in the described steps.
β: inclination Xn with respect to the photographer of the subject, Yn: position coordinates of the subject (obtained in step S104)
θn: direction of subject (obtained in step S104)
xm, ym: position coordinates of the photographer (obtained in step S107)

図7より幾何学的に、
B=θn+θm
また、
Geometrically from FIG.
B = θn + θm
Also,

ゆえに、 therefore,

次に、現地点におけるデジタルカメラ1の撮影領域内に被写体が収まるか否かを判断する(ステップS109)。具体的には、ステップS108で算出したH、H′、W′、W″を用いて、「H<H′かつW′<W″」であるか否かを判断する。   Next, it is determined whether or not the subject is within the shooting area of the digital camera 1 at the local point (step S109). Specifically, it is determined whether “H <H ′ and W ′ <W ″” using H, H ′, W ′, and W ″ calculated in step S108.

この判断の結果、「H<H′かつW′<W″」であり、現地点におけるデジタルカメラ1の撮影領域内に被写体が収まるのであれば、CPU10は、アクチュエータ12を制御して、レンズブロック11内のフォーカスレンズやズームレンズのレンズ駆動を開始する(ステップS110)。そして、最適なズーム倍率(例えば、被写体が最大の大きさで撮影領域内に収まるズーム倍率等)でレンズ駆動を停止する(ステップS111)。その後、ステップS101に戻り、前述したステップS102〜S113の処理が、「景勝地撮影モード」の設定がユーザ操作により解除されるまで繰り返し実行される。   As a result of this determination, if “H <H ′ and W ′ <W ″” and the subject is within the shooting area of the digital camera 1 at the local point, the CPU 10 controls the actuator 12 to control the lens block. 11 starts driving the focus lens and zoom lens in the lens 11 (step S110). Then, the lens drive is stopped at an optimum zoom magnification (for example, a zoom magnification that allows the subject to be within the photographing area with the maximum size) (step S111). Thereafter, the process returns to step S101, and the processes in steps S102 to S113 described above are repeatedly executed until the setting of the “scenery shooting mode” is canceled by a user operation.

したがって、この状態で撮影者がシャッターキーを押下すると、CPU10がSDRAM19に一時記憶される画像データを圧縮し、所定のフォーマットの画像ファイルとして外部メモリ20に記録する。これにより、外部メモリ20に、厚さ、幅、高さ方向において欠損なく被写体32の全体が含まれる撮影画像を記録することができる。   Accordingly, when the photographer presses the shutter key in this state, the CPU 10 compresses the image data temporarily stored in the SDRAM 19 and records it in the external memory 20 as an image file of a predetermined format. As a result, a photographed image including the entire subject 32 can be recorded in the external memory 20 without any loss in the thickness, width, and height directions.

他方、ステップS109での判断がNOであった場合には、ステップS109からステップS112に進む。そして、被写体の位置・サイズ、レンズ画角から撮影領域内に被写体が収まる場合の距離Lx,Lyを算出し、算出した後に距離が長い方を選択する処理を実行する。   On the other hand, if the determination in step S109 is no, the process proceeds from step S109 to step S112. Then, the distances Lx and Ly when the subject is within the shooting area are calculated from the position / size of the subject and the lens angle of view, and processing for selecting the longer distance after the calculation is performed.

図8は、ステップS112における撮影領域内に被写体が収まる場合の距離Lxの算出方法を示す説明図である。
図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
H:被写体の高さ(ステップS104で取得)
Lx:被写体から最適撮影地点(ステップS109の判断がYESとなる地点)までの距 離
h:撮影者の身長(ステップS106で取得)
θ:カメラの画角(ステップS105で取得)
H′:撮影領域の高さ
δ:撮影領域に対する被写体比率
αx:水平線と撮影領域の下縁とがなす角度
最適構図時の撮影領域の高さをH′とし、
H′=H×γ ・・・(9)
式(9)を満たすLxを算出する。
H′=h+Lx・tan(θ−αx) ・・・(11)
加法定理より、
tan(θ−αx)=(tanθ−tanαx)/(1+tanθtanαx) ・・・(12)
tanαx=h/Lxより、
H′=h+Lx・(tanθ−h/Lx)/(1+tanθ・h/Lx) ・・・(13)
式(11)(12)をLxについて整理すると、
tanθLx2−(h+H′)Lx−h・H′・tanθ=0 ・・・(14)
Lxを解の公式より導出すると、
FIG. 8 is an explanatory diagram illustrating a method of calculating the distance Lx when the subject is within the shooting area in step S112.
The symbols in the figure mean the following items and are values already acquired in the described steps.
H: Subject height (obtained in step S104)
Lx: Distance from the subject to the optimum shooting point (the point where the determination in step S109 is YES) h: Height of the photographer (obtained in step S106)
θ: angle of view of the camera (obtained in step S105)
H ′: the height of the shooting area δ: the subject ratio to the shooting area αx: the angle formed by the horizon and the lower edge of the shooting area The height of the shooting area at the optimal composition is H ′,
H ′ = H × γ (9)
Lx satisfying equation (9) is calculated.
H ′ = h + Lx · tan (θ−αx) (11)
From the additive theorem,
tan (θ−αx) = (tanθ−tanαx) / (1 + tanθtanαx) (12)
From tanαx = h / Lx,
H ′ = h + Lx · (tan θ−h / Lx) / (1 + tan θ · h / Lx) (13)
When formulas (11) and (12) are arranged for Lx,
tan θLx2− (h + H ′) Lx−h · H ′ · tanθ = 0 (14)
If Lx is derived from the solution formula,

すなわち、ステップS112における撮影領域内に被写体が収まる場合の距離Lxは、式(15)により算出することができる。   That is, the distance Lx when the subject is within the shooting area in step S112 can be calculated by Expression (15).

図9は、ステップS112における撮影領域内に被写体が収まる場合の距離Lyの算出方法を示す説明図である。
図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
W:被写体の幅 (ステップS104で取得)
D:被写体の厚さ(ステップS104で取得)
θ:カメラの画角(ステップS105で取得)
β:被写体の撮影者に対する傾き(ステップS104で取得した被写体の方向と、ステッ プS107で取得した撮影者の位置座標(xm,ym) から算出)
W′:撮影領域の幅(但し、被写体は外形を長方形近似するものとする)。
δ:撮影絵領域に対する被写体比率
FIG. 9 is an explanatory diagram illustrating a method of calculating the distance Ly when the subject is within the shooting area in step S112.
The symbols in the figure mean the following items and are values already acquired in the described steps.
W: Width of subject (obtained in step S104)
D: Subject thickness (obtained in step S104)
θ: angle of view of the camera (obtained in step S105)
β: Inclination of the subject relative to the photographer (calculated from the direction of the subject acquired in step S104 and the position coordinate (xm, ym) of the photographer acquired in step S107)
W ′: the width of the photographing area (however, the object is assumed to approximate the outer shape of a rectangle).
δ: Subject ratio relative to the picture area

最適構図時の撮影領域をW′とし、
W″=W′・δ ・・・(16)
上記式(16)を満たすLyを算出すると、
W′=2Ly・tan(θ/2) ・・・(17)
W″=w・cos(β)+t・sin(β) ・・・(18)
Let W 'be the shooting area for optimal composition,
W ″ = W ′ · δ (16)
When calculating Ly that satisfies the above equation (16),
W ′ = 2Ly · tan (θ / 2) (17)
W ″ = w · cos (β) + t · sin (β) (18)

以上のようにして、距離Lx、Lyを算出したならば、距離の長い方を選択する。しかる後に、撮影領域内に被写体が収まる場合の距離、位置を液晶表示部3に表示させる(ステップS113)。その後、ステップS101に戻り、前述したステップS102〜S113の処理が、「景勝地撮影モード」の設定がユーザ操作により解除されるまで繰り返し実行される。   When the distances Lx and Ly are calculated as described above, the longer distance is selected. After that, the distance and position when the subject is within the shooting area are displayed on the liquid crystal display unit 3 (step S113). Thereafter, the process returns to step S101, and the processes in steps S102 to S113 described above are repeatedly executed until the setting of the “scenery shooting mode” is canceled by a user operation.

すなわち、図4に例示したように、液晶表示部3に現在位置マーク33とは異なる色で撮影推奨位置マーク35を表示し、この撮影推奨位置マーク35により撮影領域内に被写体が収まる場合の距離、位置を示す。この撮影推奨位置マーク35は、他の撮影者の主観的な判断に基づくものではなく、前述のように算出された客観的な事実である撮影領域内に被写体が収まる場合の距離、位置を示す。よって、客観性があり汎用性の高い撮影支援情報を付与することができ、多数の撮影者にとって有用な撮影支援を行うことができる。   That is, as illustrated in FIG. 4, the shooting recommended position mark 35 is displayed on the liquid crystal display unit 3 in a color different from the current position mark 33, and the distance when the subject is within the shooting area by the shooting recommended position mark 35. Indicate the position. The recommended shooting position mark 35 is not based on the subjective judgment of another photographer, but indicates the distance and position when the subject is within the shooting area, which is the objective fact calculated as described above. . Accordingly, it is possible to provide shooting support information that is objective and highly versatile, and can provide shooting support useful for many photographers.

さらに、液晶表示部3の一部に撮影推奨距離コメント欄37を設けて、この欄37に「○○m下がって下さい。」等の具体的な指示を表示する。したがって、撮影者が撮影推奨距離コメント欄37に表示された指示に従って行動することにより、容易に被写体が全体的に収まった画像を撮影することができる。   Further, a recommended shooting distance comment field 37 is provided in a part of the liquid crystal display unit 3, and a specific instruction such as “Please lower OOm” is displayed in this field 37. Accordingly, when the photographer acts in accordance with the instruction displayed in the recommended shooting distance comment field 37, an image in which the subject is entirely contained can be easily taken.

なお、実施の形態においては、被写体の全体が一画像内に収まる位置を撮影に好適な位置としたが、これに限ることなく、被写体の一部の特徴的部分が収まる位置を撮影に好適な位置としたり、被写体の全体のみならず特徴的な背景部分も収まる位置を撮影に好適な位置とするようにしてもよい。   In the embodiment, the position where the entire subject is within one image is set as a suitable position for shooting. However, the present invention is not limited to this, and the position where a part of the characteristic part of the subject is set is preferable for shooting. A position where the characteristic background portion as well as the entire subject is included may be a position suitable for photographing.

前者の場合には、図15に示した被写体32(図示せず)を包囲する幅W、高さH、奥行きDからなる直方体321を想定する際に、幅W、高さH、奥行きDの各値を減少させて被写体より小さな直方体を形成し、前述と同様の処理を行うことにより、被写体の一部の特徴的部分が収まる位置を撮影に好適な位置として算出することができる。後者の場合には、幅W、高さH、奥行きDの各値を増加させて被写体より大きな直方体を形成し、前述と同様の処理を行うことにより、被写体の全体のみならず特徴的な背景部分も収まる位置を撮影に好適な位置として算出することができる。   In the former case, when assuming a rectangular parallelepiped 321 comprising a width W, a height H, and a depth D surrounding the subject 32 (not shown) shown in FIG. 15, the width W, the height H, and the depth D are assumed. By reducing each value to form a rectangular parallelepiped smaller than the subject, and performing the same processing as described above, a position where a part of the characteristic part of the subject falls can be calculated as a suitable position for photographing. In the latter case, each of the width W, the height H, and the depth D is increased to form a rectangular parallelepiped larger than the subject, and by performing the same processing as described above, not only the entire subject but also the characteristic background It is possible to calculate a position where the portion is also included as a position suitable for photographing.

(第1の実施の形態の変形例)
図10は、本実施の形態の変形例における処理手順を示すフローチャートである。このフローチャートにおいて、ステップS212及びS213を除くステップS201〜S211は、図3に示したフローチャートにおけるステップS201〜S211と同一の処理である。
(Modification of the first embodiment)
FIG. 10 is a flowchart showing a processing procedure in a modification of the present embodiment. In this flowchart, steps S201 to S211 excluding steps S212 and S213 are the same processes as steps S201 to S211 in the flowchart shown in FIG.

そして、ステップS209での判断の結果、撮影領域内に被写体が収まらない場合には、撮影者の現在位置、被写体の位置・サイズ、レンズ画角から撮影領域内に被写体が収まる場合のレンズ画角θx,θyを算出し、算出した後に距離が長い方を選択する(ステップS212)。   If the result of determination in step S209 is that the subject does not fit within the shooting area, the lens angle of view when the subject fits within the shooting area from the current position of the photographer, the position / size of the subject, and the lens angle of view. θx and θy are calculated, and after calculation, the longer distance is selected (step S212).

図11は、ステップS112における撮影領域内に被写体が収まる場合のレンズ画角θx(上下方向)の算出方法を示す説明図である。
図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
H:被写体の高さ(ステップS204で取得)
L:撮影者と被写体との距離(ステップS204で取得した被写体の位置と、ステップS207で取得した現在位置情報とから算出)
h:撮影者の身長(ステップS206で取得)
θx:カメラの最適画角(垂直方向)
H′:撮影領域の高さ
δ:撮影領域に対する被写体比率
FIG. 11 is an explanatory diagram illustrating a method of calculating the lens angle of view θx (vertical direction) when the subject is within the shooting region in step S112.
The symbols in the figure mean the following items and are values already acquired in the described steps.
H: Subject height (obtained in step S204)
L: Distance between the photographer and the subject (calculated from the position of the subject acquired in step S204 and the current position information acquired in step S207)
h: Photographer's height (obtained in step S206)
θx: Optimal camera angle of view (vertical direction)
H ′: height of the shooting area δ: ratio of subject to the shooting area

そして、
tanθx=(L(h+H・δ))/(L2−h・H・δ) ・・・(20)
よって、
θx=tan−1((L(h+H・δ))/(L−h・H・δ) ・・・(21)
And
tan θx = (L (h + H · δ)) / (L2−h · H · δ) (20)
Therefore,
θx = tan−1 ((L (h + H · δ)) / (Lh · H · δ) (21)

図12は、ステップS212における撮影領域内に被写体が収まる場合のレンズ画角θyの算出方法を示す説明図である。
図における符号は、下記事項を意味し、記載したステップで取得済みの値である。
W:被写体の幅 (ステップS204で取得)
D:被写体の厚さ(ステップS204で取得)
L:撮影者と被写体との距離(ステップS204で取得した被写体の位置と、ステップS207で取得した現在位置情報とから算出)
θy:カメラの最適画角(水平方向)
β:被写体の撮影者に対する傾き(ステップS204で取得した被写体の方向と、ス テップS207で取得した撮影者の位置座標(x m,ym)から算出)
W′:撮影領域の幅(但し、被写体は外形を長方形近似するものとする)。
δ:撮影領域に対する被写体比率
FIG. 12 is an explanatory diagram illustrating a method of calculating the lens angle of view θy when the subject is within the shooting area in step S212.
The symbols in the figure mean the following items and are values already acquired in the described steps.
W: Width of subject (obtained in step S204)
D: Thickness of the subject (obtained in step S204)
L: Distance between the photographer and the subject (calculated from the position of the subject acquired in step S204 and the current position information acquired in step S207)
θy: Optimum angle of view of the camera (horizontal direction)
β: Inclination of the subject relative to the photographer (calculated from the direction of the subject acquired in step S204 and the position coordinate (x m, ym) of the photographer acquired in step S207)
W ′: the width of the photographing area (however, the object is assumed to approximate the outer shape of a rectangle).
δ: Subject ratio relative to shooting area

最適構図時の撮影領域をW′とし、
W″=W′・δ ・・・(22)
上記式(22)を満たすθyを算出すると、
W′=2L・tan(θy/2) ・・・(23)
W″=w・cos(β)+t・sin(β) ・・・(24)
Let W 'be the shooting area for optimal composition,
W ″ = W ′ · δ (22)
When θy satisfying the above equation (22) is calculated,
W ′ = 2L · tan (θy / 2) (23)
W ″ = w · cos (β) + t · sin (β) (24)

以上のようにして、レンズ画角θx、θyを算出したならば、画角が大きい方を選択する。しかる後に、撮影領域内に被写体が収まる場合のレンズ、画角を液晶表示部3に表示させる(ステップS213)。   If the lens angle of view θx, θy is calculated as described above, the one with the larger angle of view is selected. Thereafter, the lens and the angle of view when the subject is within the shooting area are displayed on the liquid crystal display unit 3 (step S213).

すなわち、図13に例示するように、液晶表示部3の画面をスルー画エリア38、推奨レンズ・画角表示エリア39、レンズラインアップ表示エリア40に区分する。そして、スルー画エリア38には被写体32を含むスルー画像42を表示し続ける一方、推奨レンズ・画角表示エリア39には、前記複数種の交換レンズにおいて、ステップS212で算出されたレンズ画角θx、θyのうち大きい方のレンズ画角(以下、推奨レンズ画角という)以上のレンズ画角を有する交換レンズであり、当該推奨レンズ画角に最も近いレンズ画角の交換レンズの種別を表示させる。   That is, as illustrated in FIG. 13, the screen of the liquid crystal display unit 3 is divided into a through image area 38, a recommended lens / view angle display area 39, and a lens lineup display area 40. While the through image 42 including the subject 32 is continuously displayed in the through image area 38, the lens angle of view θx calculated in step S212 in the plurality of types of interchangeable lenses is displayed in the recommended lens / view angle display area 39. , Θy is an interchangeable lens having a lens field angle equal to or larger than the larger lens field angle (hereinafter referred to as a recommended lens field angle), and the type of the interchangeable lens having a lens field angle closest to the recommended lens field angle is displayed .

したがって、図13に示すように推奨レンズ・画角表示エリア39には、例えば8mmの交換レンズ2が表示される。これにより、撮影者はこの地点から被写体32が収まるように撮影するのであれば、8mmの交換レンズ2を使用すればよいことが分かる。よって、この表示に従ってレンズ交換して撮影を行うことにより、撮影地点を変更することなく当該地点で被写体の全体が一画像内に収まった画像を撮影することができる。   Therefore, as shown in FIG. 13, in the recommended lens / view angle display area 39, for example, the 8 mm interchangeable lens 2 is displayed. Accordingly, it is understood that the photographer only needs to use the 8 mm interchangeable lens 2 if photographing is performed so that the subject 32 is accommodated from this point. Therefore, by taking a picture by exchanging the lenses according to this display, it is possible to take an image in which the entire subject is within one image at the spot without changing the shooting spot.

なお、図3のステップS113においては、「距離・位置」を表示するようにしたが、「距離・位置」を表示すると同時に、「レンズ・画角」を表示するようにしてもよい。また、図10のステップS213においては、「レンズ・画角」を表示するようにしたが、「レンズ・画角」を表示すると同時に、「距離・位置」を表示するようにしてもよい。更に、同時表示するのではなく、先ず、レンズ交換で対応できる範囲においては「レンズ・画角」の表示のみ行い、レンズ交換で対応できなくなった時点で「距離・位置」の表示に切り替えるようにしてもよい。   In FIG. 3, “distance / position” is displayed, but “distance / position” may be displayed simultaneously with “lens / field angle”. Further, although “lens / viewing angle” is displayed in step S213 in FIG. 10, “distance / position” may be displayed simultaneously with displaying “lens / viewing angle”. In addition, instead of displaying simultaneously, only “Lens / Angle” is displayed in the range that can be handled by exchanging lenses, and when it becomes impossible to deal with exchanging lenses, the display is switched to “Distance / Position”. May be.

(第2の実施の形態)
図14以降は、本発明の第2の実施の形態を示すものであり、当該景勝地において撮影対象とすべき被写体の全体を撮影することが不可能な撮影不可能領域を表示するようにしたものである。キー入力部22でのユーザによる操作により、「撮影不可能エリア検索モード」と称する、撮影モードにおける特定のモードが設定されると、CPU10は、図14(A)に示すフローチャートに従って処理を開始する。
(Second Embodiment)
FIG. 14 and subsequent figures show a second embodiment of the present invention, in which a non-photographable area in which it is impossible to photograph the entire subject to be photographed in the scenic spot is displayed. Is. When a specific mode in the shooting mode, referred to as “non-shootable area search mode”, is set by the user's operation on the key input unit 22, the CPU 10 starts processing according to the flowchart shown in FIG. .

すなわち、撮影不可能エリア検索モードを起動し(ステップSA1)、キー入力部22でのユーザによる操作に応じて、ユーザが所望する被写体を選択する(ステップSA2)。次に、フラッシュメモリ21の被写体の位置・サイズ等記憶エリア212から、被写体のサイズ等の必要な情報を取得する(ステップSA3)。そして、この取得した被写体のサイズを用いて、被写体を包囲する最小の直方体を形成し、この直方体を被写体に置き換える(ステップSA4)。   That is, the non-photographable area search mode is activated (step SA1), and a user's desired subject is selected according to the user's operation at the key input unit 22 (step SA2). Next, necessary information such as the size of the subject is acquired from the storage area 212 such as the position and size of the subject in the flash memory 21 (step SA3). Then, using the acquired size of the subject, a minimum rectangular parallelepiped surrounding the subject is formed, and this rectangular parallelepiped is replaced with the subject (step SA4).

すなわち、図15に示すように、被写体32(図示せず)を包囲する幅W、高さH、奥行きDからなる直方体321を想定する。なお、この直方体の幅、高さ、奥行きは被写体32の幅W、高さH、奥行きDと等しいものとする。したがって、以下の説明においては、被写体32と直方体321の幅、高さ、奥行きを同一の符号、幅W、高さH、奥行きDと表記する。
また、この直方体321をx、y、z軸を有する三次元座標内に配置して、その底面の中心を原点(0)とする。
That is, as shown in FIG. 15, a rectangular parallelepiped 321 composed of a width W, a height H, and a depth D surrounding a subject 32 (not shown) is assumed. Note that the width, height, and depth of the rectangular parallelepiped are equal to the width W, height H, and depth D of the subject 32. Therefore, in the following description, the width, height, and depth of the subject 32 and the rectangular parallelepiped 321 are denoted by the same reference numeral, width W, height H, and depth D.
Further, this rectangular parallelepiped 321 is arranged in three-dimensional coordinates having x, y, and z axes, and the center of the bottom surface is set as the origin (0).

しかる後に、撮影不可能エリアの計算を行い(ステップSA5)、液晶表示部3に当該被写体を含む地図を表示するとともに、この地図上に撮影不可能エリアを表示する(ステップSA6)。   Thereafter, a non-photographable area is calculated (step SA5), a map including the subject is displayed on the liquid crystal display unit 3, and an unphotographable area is displayed on the map (step SA6).

前記撮影不可能エリアの計算は、図14(B)のフローチャートに示すように垂直画角を用いた計算(ステップSB1)、水平画角を用いた計算(ステップSB2)、及び総合的な撮影エリアの計算(ステップSB3)を実行するものである。   As shown in the flowchart of FIG. 14B, the non-shootable area is calculated using a vertical angle of view (step SB1), a calculation using a horizontal angle of view (step SB2), and a comprehensive shooting area. (Step SB3) is executed.

ここで、ステップSB1で用いる垂直画角と、ステップSB2で用いる水平画角について、図16を用いて説明する。本実施の形態に係るデジタルカメラ1では、図1に示したように、CCD14を撮像素子として用いている。そして、図16に示すように、このCCDの水平方向のサイズである水平イメージサイズを「x」とし、垂直方向のサイズである垂直イメージサイズを「y」とし、現在デジタルカメラ1に装着されている交換レンズ2の焦点距離を「f」とする。すると、垂直方向における画角である垂直画角θ1は下記式(27)により算出することができる。
垂直画角θ1の算出方法
Here, the vertical field angle used in step SB1 and the horizontal field angle used in step SB2 will be described with reference to FIG. In the digital camera 1 according to the present embodiment, as shown in FIG. 1, the CCD 14 is used as an image sensor. Then, as shown in FIG. 16, the horizontal image size, which is the horizontal size of the CCD, is “x”, and the vertical image size, which is the vertical size, is “y”. The focal length of the interchangeable lens 2 is “f”. Then, the vertical angle of view θ1, which is the angle of view in the vertical direction, can be calculated by the following equation (27).
Method for calculating vertical angle of view θ1

また、水平方向における画角である水平画角θ2は下記式(28)により算出することができる。
水平画角θ2の算出方法
Further, the horizontal angle of view θ2 that is the angle of view in the horizontal direction can be calculated by the following equation (28).
Calculation method of horizontal angle of view θ2

図17は、垂直画角を用いた計算(ステップSB1)の詳細を示すフローチャートである。このフローチャートのステップSC1では、図18に示すように、高さ0mにカメラ(デジタルカメラ1)があるときの撮影可能限界距離(被写体の全体を写すために、当該被写体から最低限離れなければならない距離)をL1とする。そして、垂直画角と被写体32の高さ(被写体32に置き換えた直方体321の高さ)から撮影限界線を算出する(ステップSC2)。   FIG. 17 is a flowchart showing details of the calculation using the vertical angle of view (step SB1). In step SC1 of this flowchart, as shown in FIG. 18, when the camera (digital camera 1) is at a height of 0 m, the photographing possible limit distance (in order to capture the entire subject, the subject must be at a minimum distance from the subject). Distance) is L1. Then, an imaging limit line is calculated from the vertical angle of view and the height of the subject 32 (the height of the rectangular parallelepiped 321 replaced with the subject 32) (step SC2).

図18は、前記ステップSC1で実行される撮影可能限界距離L1の算出方法を示す図である。この図において、垂直画角θ1は、前記式(27)により算出される。また、被写体の高さHは、ステップSA3で取得され既知である。よって、
tanθ1=H/L1 より L1=H/tanθ1
となる。
FIG. 18 is a diagram showing a method of calculating the photographic possible limit distance L1 executed in step SC1. In this figure, the vertical angle of view θ1 is calculated by the equation (27). Further, the height H of the subject is acquired and known at step SA3. Therefore,
From tan θ1 = H / L1, L1 = H / tan θ1
It becomes.

そして、被写体32を置き換えた直方体321の周り360°どこからみても、直方体321からの距離がL1となる領域を想定する。すると、図19に示すように、太線で囲まれた領域が直方体321からの距離がL1となる領域であり、この領域が被写体32の全体を垂直方向において撮影することが不可能な垂直撮影不可能領域となる。   Then, an area is assumed in which the distance from the rectangular parallelepiped 321 is L1 regardless of where the object 32 is replaced by 360 ° around the rectangular parallelepiped 321. Then, as shown in FIG. 19, a region surrounded by a thick line is a region where the distance from the rectangular parallelepiped 321 is L1, and this region is not suitable for vertical photographing that cannot photograph the entire subject 32 in the vertical direction. It becomes a possible area.

また、前記ステップSA4で被写体を置き換えた直方体321は原点対象であるので第一象限のみに注目する。すると、第一象限において、垂直撮影不可能領域は領域A,B,Cに分けることができる。そして、これら領域A,B,C毎に太線で示す撮影限界線AL,BL,CL上の座標を求めていく。   Further, since the rectangular parallelepiped 321 in which the subject is replaced in Step SA4 is the origin object, attention is paid only to the first quadrant. Then, in the first quadrant, the vertical imaging impossible area can be divided into areas A, B, and C. Then, coordinates on the photographing limit lines AL, BL, and CL indicated by bold lines are obtained for each of the areas A, B, and C.

これら、領域A,B,Cの太線AL,BL,CL上の座標は、下記のようにして求められる。
(1)領域Aの撮影限界線AL上の座標算出方法
0<x<W/2のとき、(x,((D/2)+L1))で示される座標(x,z)である。
(2)領域Bの撮影限界線BL上の座標算出方法
W/2≦x<(W/2)+L1)のとき、中心(W/2,D/2)、半径L1の円周上の座標(x,z)である。
(3)領域Cの撮影限界線CL上の座標算出方法
W/2≦x<(W/2)+L1)のとき、0<z<(D/2)+L1)の場合は、x座標を(W/2)+L1とする座標(x,z)である。
The coordinates of these areas A, B, and C on the thick lines AL, BL, and CL are obtained as follows.
(1) When the coordinate calculation method 0 <x <W / 2 on the photographing limit line AL in the area A, the coordinates (x, z) are represented by (x, ((D / 2) + L1)).
(2) When the coordinate calculation method W / 2 ≦ x <(W / 2) + L1) on the photographing limit line BL in the area B, the coordinates on the circumference of the center (W / 2, D / 2) and the radius L1 (X, z).
(3) When the coordinate calculation method W / 2 ≦ x <(W / 2) + L1) on the photographing limit line CL of the area C, and 0 <z <(D / 2) + L1), the x coordinate is ( W / 2) + L1 coordinates (x, z).

そして、前記ステップSC2での撮影限界線の算出は、上記算出方法を用いて図20に示す垂直画角を用いた撮影限界線の算出フローチャートに従って実行する。すなわち、変数xに初期値「0」をセットする(ステップSD1)。この変数xは、ステップSD8でカウントアップされるので、このカウントアップされるxの値が「x<(W/2)+L1」となったか否かを判断する(ステップSD2)。この判断がNOであるならば、以降の処理は終了していることとなるので、この垂直画角を用いた撮影限界線の算出を終了する。   Then, the calculation of the photographing limit line in step SC2 is executed according to the photographing limit line calculation flowchart using the vertical angle of view shown in FIG. That is, an initial value “0” is set to the variable x (step SD1). Since the variable x is counted up in step SD8, it is determined whether or not the value of x to be counted up is “x <(W / 2) + L1” (step SD2). If this determination is NO, the subsequent processing is complete, and the calculation of the photographing limit line using this vertical field angle is terminated.

xの値が「x<(W/2)+L1」であるならば、さらにxの値が「0<x<W/2」であるか否かを判断する(ステップSD3)。この判断がYESであるならば、前述の(1)領域Aの撮影限界線AL上の座標算出方法を適用して、x=0〜x=W/2までの撮影限界線の座標(x,z)を算出する(ステップSD4)。これにより、領域Aの撮影限界線ALの座標が算出されることとなる。   If the value of x is “x <(W / 2) + L1”, it is further determined whether or not the value of x is “0 <x <W / 2” (step SD3). If this determination is YES, the coordinate calculation method on the imaging limit line AL in the area (A) described above is applied, and the coordinates (x, x) of the imaging limit line from x = 0 to x = W / 2 are applied. z) is calculated (step SD4). As a result, the coordinates of the photographing limit line AL in the area A are calculated.

また、ステップSD3での判断の結果、xの値が「0<x<W/2」ではなく、x=(W/2)+αとなっている場合には、ステップSD3からステップSD5に進む。そして、このステップSD5では、前述のステップSD4で最後に算出したzの値、又はその後ステップSD6で算出されるzの値が「0<z<(D/2+L1)」となったか否かを判断する(ステップSD5)。「0<z<(D/2+L1)」の状態にあるならば、前述の(2)領域Bの撮影限界線BL上の座標算出方法を適用して、z=(D/2)〜z=(D/2)+L1までの撮影限界線の座標(x,z)を算出する(ステップSD6)。これにより、領域Bの撮影限界線BLの座標が算出されることとなる。   As a result of the determination in step SD3, when the value of x is not “0 <x <W / 2” but x = (W / 2) + α, the process proceeds from step SD3 to step SD5. In step SD5, it is determined whether or not the value of z calculated last in step SD4 or the value of z calculated in step SD6 is “0 <z <(D / 2 + L1)”. (Step SD5). If it is in the state of “0 <z <(D / 2 + L1)”, the coordinate calculation method on the imaging limit line BL of (2) area B described above is applied, and z = (D / 2) to z = The coordinates (x, z) of the photographing limit line up to (D / 2) + L1 are calculated (step SD6). As a result, the coordinates of the photographing limit line BL in the region B are calculated.

また、ステップSD6で撮影限界線BLの座標が全て算出されると、z=(D/2)+L1となる。よって、ステップSD5の判断がNOとなり、ステップSD5からステップSD7に進む。そして、前述の述の(3)領域Cの撮影限界線CL上の座標算出方法を適用して、z=0〜z=(D/2)まででかつx=(W/2)+L1である撮影限界線CLの座標(x,z)を算出する。これにより、領域Cの撮影限界線CLの座標が算出されることとなる。   Further, when all the coordinates of the photographing limit line BL are calculated in step SD6, z = (D / 2) + L1. Therefore, the determination in step SD5 is NO, and the process proceeds from step SD5 to step SD7. Then, by applying the above-described (3) coordinate calculation method on the imaging limit line CL of the region C, z = 0 to z = (D / 2) and x = (W / 2) + L1. The coordinates (x, z) of the photographing limit line CL are calculated. As a result, the coordinates of the photographing limit line CL of the area C are calculated.

以上の処理により、第一象限における撮影限界線AL,BL,CLを示す複数の座標(x,z)が算出されたので、他の第二、第三、第四象限に関しては、象限に応じてxとzの正負を入れ替えれば、図19に示した直方体321を包囲する撮影限界線PL1を示す一連の座標が得られる。   With the above processing, a plurality of coordinates (x, z) indicating the photographing limit lines AL, BL, and CL in the first quadrant are calculated, and the other second, third, and fourth quadrants depend on the quadrant. If the sign of x and z is switched, a series of coordinates indicating the photographing limit line PL1 surrounding the rectangular parallelepiped 321 shown in FIG. 19 is obtained.

図21は、水平画角を用いた計算(ステップSB2)の詳細を示すフローチャートである。このフローチャートのステップSE1では、図22に示すように、高さ0mにカメラ(デジタルカメラ1)があるときの幅Wに直交する方向からの撮影可能限界距離(被写体の全体を写すために、当該被写体から最低限離れなければならない距離)をL2−1とする。また、図23に示すように、高さ0mにカメラ(デジタルカメラ1)があるときの奥行きDに直交する方向からの撮影可能限界距離をL2−3とする。   FIG. 21 is a flowchart showing details of the calculation using the horizontal angle of view (step SB2). In step SE1 of this flowchart, as shown in FIG. 22, the photographing possible limit distance from the direction orthogonal to the width W when the camera (digital camera 1) is at a height of 0 m (in order to capture the entire subject, Let L2-1 be the distance that must be at least the distance from the subject. Also, as shown in FIG. 23, the limit distance that can be taken from the direction perpendicular to the depth D when the camera (digital camera 1) is at a height of 0 m is L2-3.

そして、ステップSE2では、水平画角と被写体32の幅(被写体32に置き換えた直方体321の幅W)と奥行き(被写体32に置き換えた直方体321の奥行きD)とから撮影限界線を算出する。   In step SE2, an imaging limit line is calculated from the horizontal angle of view, the width of the subject 32 (width W of the rectangular parallelepiped 321 replaced with the subject 32), and the depth (depth D of the rectangular parallelepiped 321 replaced with the subject 32).

図22は、前記ステップSC1で実行される撮影可能限界距離L2−1の算出方法を示す図である。この図において、水平画角θ2は、前記式(28)により算出される。また、被写体の幅W及び奥行きDは、ステップSA3で取得され既知である。よって、
tanθ1/2=W/L2−1 より L2−1=W/tanθ1
となる。
また、
tanθ1/2=D/L2−3 より L2−3=D/tanθ1
となる。
FIG. 22 is a diagram showing a method of calculating the shootable limit distance L2-1 executed in step SC1. In this figure, the horizontal angle of view θ2 is calculated by the equation (28). Further, the width W and the depth D of the subject are acquired at step SA3 and are known. Therefore,
From tanθ1 / 2 = W / L2-1 L2-1 = W / tanθ1
It becomes.
Also,
From tanθ1 / 2 = D / L2-3 L2-3 = D / tanθ1
It becomes.

そして、被写体32を置き換えた直方体321の周り360°どこからみても、直方体321からの距離がL2−1又はL2−3となる領域を想定する。すると、図24に示すように、太線で囲まれた領域が直方体321からの距離がL2−1又はL2−3となる領域であり、この領域が被写体32の全体を水平方向において撮影することが不可能な水平撮影不可能領域となる。   Then, an area is assumed in which the distance from the rectangular parallelepiped 321 is L2-1 or L2-3 no matter where 360 ° around the rectangular parallelepiped 321 where the subject 32 is replaced. Then, as shown in FIG. 24, a region surrounded by a thick line is a region where the distance from the rectangular parallelepiped 321 is L2-1 or L2-3, and this region can capture the entire subject 32 in the horizontal direction. It becomes an impossible horizontal shooting impossible area.

また、前記ステップSA4で被写体を置き換えた直方体321は原点対象であるので第一象限のみに注目する。すると、第一象限において、水平撮影不可能領域は領域D,E,Fに分けることができる。そして、これら領域D,E,F毎に太線で示す撮影限界線DL,EL,FL上の座標を求めていく。   Further, since the rectangular parallelepiped 321 in which the subject is replaced in Step SA4 is the origin object, attention is paid only to the first quadrant. Then, in the first quadrant, the horizontal imaging impossible area can be divided into areas D, E, and F. Then, coordinates on the photographing limit lines DL, EL, and FL indicated by bold lines are obtained for each of the regions D, E, and F.

これら、領域D,E,Fの太線DL,EL,FL上の座標は、下記のようにして求められ、特定することができる。
(1)領域Dの撮影限界線DLの座標算出方法
3点(W/2、D/2),(−W/2、D/2),(0,L2−1+D/2)を通る円Dの円周上である。
(2)領域Eの撮影限界線EL上の座標算出方法
3点(W/2、D/2),(−W/2、D/2),(円C上のx座標W/2)を通る円Eの円周上である。
(3)領域Fの撮影限界線FL上の座標算出方法
3点(W/2、D/2),(W/2、−D/2),(0,L2−3+D/2)を通る円Fの円周上である。
The coordinates of these regions D, E, and F on the thick lines DL, EL, and FL can be obtained and specified as follows.
(1) Coordinate calculation method of photographing limit line DL of region D Circle D passing through three points (W / 2, D / 2), (−W / 2, D / 2), (0, L2-1 + D / 2) On the circumference.
(2) Three points (W / 2, D / 2), (−W / 2, D / 2), and (x coordinate W / 2 on the circle C) on the imaging limit line EL of the region E It is on the circumference of the passing circle E.
(3) A circle passing through three points (W / 2, D / 2), (W / 2, −D / 2), and (0, L2−3 + D / 2) on the imaging limit line FL of the region F It is on the circumference of F.

そして、前記ステップSE2での撮影限界線の算出は、上記算出方法を用いて図25(A)に示すフローチャートに従って実行する。すなわち、前記(1)(2)(3)に示した3つの円の方程式を求める(ステップSF1)。次に、各円D,E,F上の該当座標を算出する(ステップSF2)。   Then, the calculation of the photographing limit line in step SE2 is executed according to the flowchart shown in FIG. 25A using the above calculation method. That is, the equations of the three circles shown in (1), (2) and (3) are obtained (step SF1). Next, corresponding coordinates on the circles D, E, and F are calculated (step SF2).

このステップSF2の処理は、図25(B)に示すフローチャートに従って実行される。先ず、x座標の値を特定する変数xに初期値「0」をセットする(ステップSG1)。この変数xは、ステップSG3でカウントアップされるので、このカウントアップされるxの値が当該円(各円D,E,F)の中心のx座標+半径となったか否かを判断する(ステップSG2)。そして、このステップSG2の判断がYESとなるまで、x座標の値をカウントアップさせながら、各円D,E,F上の座標(x,z)を読み取ることにより、座標の算出を完了する。   The process of step SF2 is executed according to the flowchart shown in FIG. First, an initial value “0” is set to the variable x that specifies the value of the x coordinate (step SG1). Since this variable x is counted up in step SG3, it is determined whether or not the value of x counted up is the x coordinate + radius of the center of the circle (each circle D, E, F) ( Step SG2). Then, the coordinate calculation is completed by reading the coordinates (x, z) on each of the circles D, E, and F while counting up the value of the x coordinate until the determination in step SG2 becomes YES.

したがって、この図25(B)に示すフローチャートに従った処理が、ステップSF2で円D,E,Fに対してなされると、図24において第一象限における円D,E,Fの円周上(太線部分と点線部分とを含む)の座標(x,z)が得られる。   Therefore, when the processing according to the flowchart shown in FIG. 25B is performed on the circles D, E, and F in step SF2, the circles D, E, and F in the first quadrant in FIG. The coordinates (x, z) (including the thick line part and the dotted line part) are obtained.

しかる後に、第一象限における円D,E,Fの円周上(太線部分と点線部分とを含む)の座標(x,z)において、x=0から円D,Eの交点までは、円Dの円周上の座標を取得する(ステップSF3)。円D,Eの交点から円E,Fの交点までは、円Eの円周上の座標を取得する(ステップSF4)。円E,Fの交点からz=0までは、円Fの円周上の座標を取得する(ステップSF5)。   Thereafter, in the coordinates (x, z) on the circumference of the circles D, E, and F (including the thick line portion and the dotted line portion) in the first quadrant, from x = 0 to the intersection of the circles D and E, the circle The coordinates on the circumference of D are acquired (step SF3). From the intersection of the circles D and E to the intersection of the circles E and F, the coordinates on the circumference of the circle E are acquired (step SF4). From the intersection of the circles E and F to z = 0, the coordinates on the circumference of the circle F are acquired (step SF5).

以上の処理により、第一象限における撮影限界線DL,EL,FLを示す複数の座標(x,z)が得られたので、他の第二、第三、第四象限に関しては、象限に応じてxとzの正負を入れ替えれば、図24に示した直方体321を包囲する撮影限界線PL2を示す一連の座標が得られることとなる。   With the above processing, a plurality of coordinates (x, z) indicating the photographing limit lines DL, EL, and FL in the first quadrant are obtained, and the other second, third, and fourth quadrants depend on the quadrant. If the sign of x and z is exchanged, a series of coordinates indicating the photographing limit line PL2 surrounding the rectangular parallelepiped 321 shown in FIG. 24 can be obtained.

図26は、総合的な撮影エリアの計算(ステップSB3)の手順を示すフローチャートである。図19に示した撮影限界線PL1と図24に示した撮影限界線PL2とを比較する(ステップSH1)。そして、これら撮影限界線PL1と撮影限界線PL2のうち、より外側にある線を接続させて(ステップSH2)、この接続させた環状の線により囲繞される内側の領域を抽出する(ステップSH3)。   FIG. 26 is a flowchart showing a procedure for calculating a comprehensive shooting area (step SB3). The photographing limit line PL1 shown in FIG. 19 is compared with the photographing limit line PL2 shown in FIG. 24 (step SH1). Then, the outermost line of the photographing limit line PL1 and the photographing limit line PL2 is connected (step SH2), and the inner region surrounded by the connected annular line is extracted (step SH3). .

更に、この抽出した領域を前記角度θnに応じて、回転させて着色表示する(ステップSH3)。つまり、図24に示した直方体321を包囲する撮影限界線PL2を示す一連の座標を得た際には、同図に示す幅W面や奥行D面が東西南北のどの方向を向いているかは考慮していない。しかし、図7で説明したように、被写体の位置・サイズ等記憶エリア212には、被写体の方向(θn)が記憶されている。この被写体の方向(θn)は、被写体32を横断する仮想中心線Znの南北軸線Zに対する角度(θn)で記憶されている。したがって、このθnに基づき、幅W面や奥行D面がどの方向を向いているか検出することができる。よって、最終的に液晶表示部3に表示するに際しては、このθnに基づき、前記領域を回転させて表示する。   Further, the extracted area is rotated and displayed in color according to the angle θn (step SH3). That is, when a series of coordinates indicating the imaging limit line PL2 surrounding the rectangular parallelepiped 321 shown in FIG. 24 is obtained, which direction of the east, west, south, and north the width W plane and the depth D plane shown in FIG. Not considered. However, as described with reference to FIG. 7, the subject position / size storage area 212 stores the subject direction (θn). The direction (θn) of the subject is stored as the angle (θn) of the virtual center line Zn crossing the subject 32 with respect to the north-south axis Z. Therefore, based on this θn, it is possible to detect which direction the width W plane and the depth D plane face. Therefore, when finally displaying on the liquid crystal display unit 3, the region is rotated and displayed based on the θn.

これにより、図27に示すように、被写体32を取り囲み、撮影限界線PL1と撮影限界線PL2のうち、より外側にある線及びその内側の着色された領域からなる撮影不可能領域322が液晶表示部3に表示されている地図上に重畳表示される。したがって、撮影者がこの撮影不可能領域322を除く位置に移動することにより、被写体32の全体を確実に撮影することができる。また、このとき図示のように現在位置323も表示することにより、撮影不可能領域322と現在位置323との位置関係を把握することもできる。   Thus, as shown in FIG. 27, the non-photographable area 322 that surrounds the subject 32 and includes the outermost line of the photographing limit line PL1 and the photographing limit line PL2 and the colored area inside the liquid crystal display is displayed. It is displayed superimposed on the map displayed in part 3. Accordingly, when the photographer moves to a position excluding the non-photographable area 322, the entire subject 32 can be reliably photographed. At this time, the current position 323 is also displayed as shown in the figure, so that the positional relationship between the non-photographable area 322 and the current position 323 can be grasped.

なお、以上に説明した第2の実施の形態においては、前述した三種類の撮影可能限界距離L1、L2−1、L2−3を用いるようにした。しかし、さらに図28に示した撮影限界距離L2−2を用いるようにしてもよい。同図は、撮影可能限界距離L2−2の算出方法を示す図である。   In the second embodiment described above, the above-described three types of photographing possible limit distances L1, L2-1, and L2-3 are used. However, the photographing limit distance L2-2 shown in FIG. 28 may be used. This figure is a diagram showing a method of calculating the photographic possible limit distance L2-2.

この図において、水平画角θ2は、前記式(28)により算出される。また、被写体の幅W及び奥行きDは、ステップSA3で取得され既知である。よって、対角eは、幅W及び奥行きDより、
e=√W2D2
と求まり、さらに水平画角θ2は既知であるので、
tanθ2/2=e/L2−2 より L2−2=e/tanθ2
となる。
In this figure, the horizontal angle of view θ2 is calculated by the equation (28). Further, the width W and the depth D of the subject are acquired at step SA3 and are known. Therefore, the diagonal e is from the width W and the depth D,
e = √W2D2
Since the horizontal angle of view θ2 is already known,
From tanθ2 / 2 = e / L2-2 L2-2 = e / tanθ2
It becomes.

そして、被写体32を置き換えた直方体321の周り360°どこからみても、直方体321からの距離がL2−1、L2−3及びL2−2となる領域を前述した第2の実施の形態と同様に太線で囲まれた領域で想定する。しかる後に、第一象限において、太線の座標を求め、他の第二、第三、第四象限に関しては、象限に応じてxとzの正負を入れ替えれば、図19に示した直方体321を包囲する撮影限界線PL1を示す一連の座標が得られることとなる。   Then, the area where the distance from the rectangular parallelepiped 321 is L2-1, L2-3 and L2-2 is 360 ° around the rectangular parallelepiped 321 where the subject 32 is replaced, as in the second embodiment described above. Assuming the area surrounded by Thereafter, the coordinates of the thick line are obtained in the first quadrant, and for the other second, third, and fourth quadrants, if the sign of x and z is switched according to the quadrant, the rectangular parallelepiped 321 shown in FIG. 19 is surrounded. A series of coordinates indicating the photographing limit line PL1 to be obtained is obtained.

なお、実施の形態においては、図2に示したように、フラッシュメモリ21に所定の標準サイズ(所定の縮尺)からなる地図を表示する地図画像データが記憶されているとともに、予め景勝地として決定された区域を示す景勝地データが地図データに対応して記憶されている地図記憶エリア211を設けるとともに、景勝地毎に当該景勝地において撮影対象とすべき被写体、当該被写体の緯度・経度に対応する地図上の位置情報(位置座標xn,yn)、その厚さ(奥行き、D)、幅(W)、高さ(H)の各サイズを示すサイズ情報が記憶されている被写体の位置・サイズ等記憶エリア212を設けておくようにした。しかし、これらを設けることなく、デジタルカメラ1にインターネット接続機能を持たせ、インターネット上のサーバーからこれらの情報を取得するようにしてもよい。   In the embodiment, as shown in FIG. 2, map image data for displaying a map having a predetermined standard size (predetermined scale) is stored in the flash memory 21 and determined in advance as a scenic spot. A map storage area 211 in which scenic spot data indicating the selected area is stored corresponding to the map data, and corresponds to the subject to be photographed in the scenic spot for each scenic spot, and the latitude and longitude of the subject Position information (position coordinates xn, yn), position (size) indicating the size (depth, D), width (W), and height (H) of the subject stored in the map An equal storage area 212 is provided. However, without providing these, the digital camera 1 may be provided with an Internet connection function, and such information may be acquired from a server on the Internet.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.

<請求項1>
被写体の大きさに関する情報を取得する被写体情報取得手段と、
前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得手段と、
前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出手段と
を備えることを特徴とする撮影支援装置。
<Claim 1>
Subject information acquisition means for acquiring information about the size of the subject;
Angle-of-view information acquisition means for acquiring information about the angle of view of the optical system that forms an image of the subject;
An imaging support apparatus, comprising: a calculation unit that calculates a suitable position or an inappropriate position for photographing an object imaged by the optical system based on information acquired by the both information acquisition units.

<請求項2>
前記算出手段により算出された前記被写体を撮影するに好適な位置又は不適な位置を表示させる表示制御手段を有することを特徴とする請求項1記載の撮影支援装置。
<Claim 2>
2. The photographing support apparatus according to claim 1, further comprising display control means for displaying a position suitable for photographing the subject calculated by the calculating means or an inappropriate position.

<請求項3>
前記算出手段は、前記光学系の画角内に前記被写体の全体が収まる位置を前記撮影するに好適な位置として算出することを特徴とする請求項1又は2記載の撮影支援装置。
<Claim 3>
The photographing support apparatus according to claim 1, wherein the calculation unit calculates a position where the entire subject is within an angle of view of the optical system as a position suitable for the photographing.

<請求項4>
現在の位置を取得する現在位置取得手段を更に備え、
前記表示制御手段は、前記現在位置取得手段により取得された現在の位置と、前記前記算出手段により算出された前記被写体を撮影するに好適な位置又は不適な位置とを表示させることを特徴とする請求項2記載の撮影支援装置。
<Claim 4>
It further comprises current position acquisition means for acquiring the current position,
The display control means displays a current position acquired by the current position acquisition means and a position suitable for photographing the subject calculated by the calculation means or an inappropriate position. The imaging support apparatus according to claim 2.

<請求項5>
地図を表示させる地図データを取得する地図データ取得手段を備え、
前記表示制御手段は、前記地図データ取得手段により取得された地図データに基づき地図を表示させるとともに、この地図上に前記現在の位置と、前記前記被写体を撮影するに好適な位置又は不適な位置とを表示させることを特徴とする請求項4記載の撮影支援装置。
<Claim 5>
A map data acquisition means for acquiring map data for displaying a map;
The display control means displays a map based on the map data acquired by the map data acquisition means, and the current position on the map and a position suitable for photographing the subject or an inappropriate position The photographing support apparatus according to claim 4, wherein:

<請求項6>
前記表示制御手段は、前記現在の位置から前記被写体を撮影するに好適な位置に導く案内を前記地図上に表示させることを特徴とする請求項5記載の撮影支援装置。
<Claim 6>
6. The photographing support apparatus according to claim 5, wherein the display control means displays on the map a guide that leads to a position suitable for photographing the subject from the current position.

<請求項7>
前記算出手段は、前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な領域又は不適な領域を算出することを特徴とする請求項1乃至6の何れかに記載の撮影支援装置。
<Claim 7>
2. The calculation unit according to claim 1, wherein the calculation unit calculates a region suitable for photographing a subject imaged by the optical system based on the information acquired by the information acquisition unit. 6. The photographing support apparatus according to any one of 6.

<請求項8>
前記被写体情報取得手段は、更に被写体の位置に関する情報を取得する手段を含むことを特徴とする請求項1乃至7の何れかに記載の撮影支援装置。
<Claim 8>
The photographing support apparatus according to claim 1, wherein the subject information acquisition unit further includes a unit that acquires information related to the position of the subject.

<請求項9>
前記被写体情報取得手段は、更に被写体の方向に関する情報を取得する手段を含むことを特徴とする請求項1乃至8の何れかに記載の撮影支援装置。
<Claim 9>
9. The photographing support apparatus according to claim 1, wherein the subject information acquisition unit further includes a unit that acquires information related to the direction of the subject.

<請求項10>
被写体の位置及び大きさに関する情報を取得する被写体情報取得手段と、
現在の位置を取得する現在位置取得手段と、
前記両情報取得手段により取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出手段と、
複数種の交換可能な光学系から前記算出手段により算出された画角に基づく光学系を特定する光学系特定手段と、
前記光学系特定手段により特定された光学系を示す情報を出力する出力手段と
を備えることを特徴とする撮影支援装置。
<Claim 10>
Subject information acquisition means for acquiring information on the position and size of the subject;
Current position acquisition means for acquiring the current position;
Based on the information acquired by the both information acquisition means, a calculation means for calculating an angle of view of an optical system suitable for imaging the subject from the current position;
An optical system specifying means for specifying an optical system based on the angle of view calculated by the calculating means from a plurality of types of interchangeable optical systems;
An imaging support apparatus comprising: output means for outputting information indicating the optical system specified by the optical system specifying means.

<請求項11>
前記出力手段は、前記光学系特定手段により特定された光学系を示す情報を表示させる表示制御手段を有することを特徴とする請求項10記載の撮影支援装置。
<Claim 11>
11. The photographing support apparatus according to claim 10, wherein the output means includes display control means for displaying information indicating the optical system specified by the optical system specifying means.

<請求項12>
前記算出手段は、一画像内に前記被写体の全体が収まる画角を前記撮影するに好適な光学系の画角として算出することを特徴とする請求項11又は12記載の撮影支援装置。
<Claim 12>
13. The photographing support apparatus according to claim 11 or 12, wherein the calculating means calculates an angle of view that fits the entire subject in one image as an angle of view of an optical system suitable for the photographing.

<請求項13>
当該装置が有するコンピュータを、
被写体の大きさに関する情報を取得する被写体情報取得手段と、
前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得手段と、
前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出手段と
して機能させることを特徴とする撮影支援プログラム。
<Claim 13>
A computer included in the device;
Subject information acquisition means for acquiring information about the size of the subject;
Angle-of-view information acquisition means for acquiring information about the angle of view of the optical system that forms an image of the subject;
An imaging support program that functions as a calculation unit that calculates a suitable position or an inappropriate position for imaging a subject imaged by the optical system based on information acquired by the both information acquisition units.

<請求項14>
当該装置が有するコンピュータを、
被写体の位置及び大きさに関する情報を取得する被写体情報取得手段と、
現在の位置を取得する現在位置取得手段と、
前記両情報取得手段により取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出手段と、
複数種の交換可能な光学系から前記算出手段により算出された画角に基づく光学系を特定する光学系特定手段と、
前記光学系特定手段により特定された光学系を示す情報を出力する出力手段と
して機能させることを特徴とする撮影支援プログラム。
<Claim 14>
A computer included in the device;
Subject information acquisition means for acquiring information on the position and size of the subject;
Current position acquisition means for acquiring the current position;
Based on the information acquired by the both information acquisition means, a calculation means for calculating an angle of view of an optical system suitable for imaging the subject from the current position;
An optical system specifying means for specifying an optical system based on the angle of view calculated by the calculating means from a plurality of types of interchangeable optical systems;
An imaging support program that functions as an output unit that outputs information indicating an optical system specified by the optical system specifying unit.

<請求項15>
被写体の大きさに関する情報を取得する被写体情報取得ステップと、
前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得ステップと、
前記両情報取得ステップにより取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出ステップと
を含むことを特徴とする撮影支援方法。
<Claim 15>
A subject information acquisition step for acquiring information on the size of the subject;
An angle-of-view information acquisition step of acquiring information about the angle of view of the optical system that forms an image of the subject;
And a calculation step of calculating a suitable position or an inappropriate position for photographing the subject imaged by the optical system based on the information acquired by the both information acquisition steps.

<請求項16>
被写体の位置及び大きさに関する情報を取得する被写体情報取得ステップと、
現在の位置を取得する現在位置取得ステップと、
前記両情報取得ステップにより取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出ステップと、
複数種の交換可能な光学系から前記算出ステップにより算出された画角に基づく光学系を特定する光学系特定ステップと、
前記光学系特定ステップにより特定された光学系を示す情報を出力する出力ステップと
を含むことを特徴とする撮影支援方法。
<Claim 16>
Subject information acquisition step for acquiring information on the position and size of the subject;
A current position acquisition step for acquiring the current position;
A calculation step for calculating an angle of view of an optical system suitable for imaging the subject from the current position based on the information acquired by the information acquisition step;
An optical system specifying step for specifying an optical system based on the angle of view calculated by the calculating step from a plurality of types of interchangeable optical systems;
And an output step of outputting information indicating the optical system specified by the optical system specifying step.

1 デジタルカメラ
3 液晶表示部
10 CPU
11 レンズブロック
12 アクチュエータ
13 ドライバブロック
14 CCD
15 ドライバ
17 ユニット回路
18 DSP
19 SDRAM
20 外部メモリ
21 フラッシュメモリ
22 キー入力部
23 GPSモジュール
31 地図
32 被写体
33 現在位置マーク
34 カーソル
35 撮影推奨位置マーク
36 撮影推奨方向マーク
37 撮影推奨距離コメント欄
211 地図記憶エリア
212 サイズ等記憶エリア
213 レンズ画角情報記憶エリア
214 身長記憶エリア
215 記憶エリア
321 直方体
322 撮影不可能領域
323 現在位置
AL 撮影限界線
BL 撮影限界線
DL 撮影限界線
EL 撮影限界線
FL 撮影限界線
1 Digital Camera 3 Liquid Crystal Display Unit 10 CPU
11 Lens block 12 Actuator 13 Driver block 14 CCD
15 Driver 17 Unit circuit 18 DSP
19 SDRAM
20 External memory 21 Flash memory 22 Key input unit 23 GPS module 31 Map 32 Subject 33 Current position mark 34 Cursor 35 Recommended shooting position mark 36 Recommended shooting direction mark 37 Recommended shooting distance comment field 211 Map storage area 212 Size storage area 213 Lens Angle of view information storage area 214 Height storage area 215 Storage area 321 cuboid 322 Non-shootable area 323 Current position AL Shooting limit line BL Shooting limit line DL Shooting limit line EL Shooting limit line FL Shooting limit line

Claims (16)

被写体の大きさに関する情報を取得する被写体情報取得手段と、
前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得手段と、
前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出手段と
を備えることを特徴とする撮影支援装置。
Subject information acquisition means for acquiring information about the size of the subject;
Angle-of-view information acquisition means for acquiring information about the angle of view of the optical system that forms an image of the subject;
An imaging support apparatus, comprising: a calculation unit that calculates a suitable position or an inappropriate position for photographing an object imaged by the optical system based on information acquired by the both information acquisition units.
前記算出手段により算出された前記被写体を撮影するに好適な位置又は不適な位置を表示させる表示制御手段を有することを特徴とする請求項1記載の撮影支援装置。   2. The photographing support apparatus according to claim 1, further comprising display control means for displaying a position suitable for photographing the subject calculated by the calculating means or an inappropriate position. 前記算出手段は、前記光学系の画角内に前記被写体の全体が収まる位置を前記撮影するに好適な位置として算出することを特徴とする請求項1又は2記載の撮影支援装置。   The photographing support apparatus according to claim 1, wherein the calculation unit calculates a position where the entire subject is within an angle of view of the optical system as a position suitable for the photographing. 現在の位置を取得する現在位置取得手段を更に備え、
前記表示制御手段は、前記現在位置取得手段により取得された現在の位置と、前記前記算出手段により算出された前記被写体を撮影するに好適な位置又は不適な位置とを表示させることを特徴とする請求項2記載の撮影支援装置。
It further comprises current position acquisition means for acquiring the current position,
The display control means displays a current position acquired by the current position acquisition means and a position suitable for photographing the subject calculated by the calculation means or an inappropriate position. The imaging support apparatus according to claim 2.
地図を表示させる地図データを取得する地図データ取得手段を備え、
前記表示制御手段は、前記地図データ取得手段により取得された地図データに基づき地図を表示させるとともに、この地図上に前記現在の位置と、前記前記被写体を撮影するに好適な位置又は不適な位置とを表示させることを特徴とする請求項4記載の撮影支援装置。
A map data acquisition means for acquiring map data for displaying a map;
The display control means displays a map based on the map data acquired by the map data acquisition means, and the current position on the map and a position suitable for photographing the subject or an inappropriate position The photographing support apparatus according to claim 4, wherein:
前記表示制御手段は、前記現在の位置から前記被写体を撮影するに好適な位置に導く案内を前記地図上に表示させることを特徴とする請求項5記載の撮影支援装置。   6. The photographing support apparatus according to claim 5, wherein the display control means displays on the map a guide that leads to a position suitable for photographing the subject from the current position. 前記算出手段は、前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な領域又は不適な領域を算出することを特徴とする請求項1乃至6の何れかに記載の撮影支援装置。   2. The calculation unit according to claim 1, wherein the calculation unit calculates a region suitable for photographing a subject imaged by the optical system based on the information acquired by the information acquisition unit. 6. The photographing support apparatus according to any one of 6. 前記被写体情報取得手段は、更に被写体の位置に関する情報を取得する手段を含むことを特徴とする請求項1乃至7の何れかに記載の撮影支援装置。 The photographing support apparatus according to claim 1, wherein the subject information acquisition unit further includes a unit that acquires information related to the position of the subject. 前記被写体情報取得手段は、更に被写体の方向に関する情報を取得する手段を含むことを特徴とする請求項1乃至8の何れかに記載の撮影支援装置。 9. The photographing support apparatus according to claim 1, wherein the subject information acquisition unit further includes a unit that acquires information related to the direction of the subject. 被写体の位置及び大きさに関する情報を取得する被写体情報取得手段と、
現在の位置を取得する現在位置取得手段と、
前記両情報取得手段により取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出手段と、
複数種の交換可能な光学系から前記算出手段により算出された画角に基づく光学系を特定する光学系特定手段と、
前記光学系特定手段により特定された光学系を示す情報を出力する出力手段と
を備えることを特徴とする撮影支援装置。
Subject information acquisition means for acquiring information on the position and size of the subject;
Current position acquisition means for acquiring the current position;
Based on the information acquired by the both information acquisition means, a calculation means for calculating an angle of view of an optical system suitable for imaging the subject from the current position;
An optical system specifying means for specifying an optical system based on the angle of view calculated by the calculating means from a plurality of types of interchangeable optical systems;
An imaging support apparatus comprising: output means for outputting information indicating the optical system specified by the optical system specifying means.
前記出力手段は、前記光学系特定手段により特定された光学系を示す情報を表示させる表示制御手段を有することを特徴とする請求項10記載の撮影支援装置。   11. The photographing support apparatus according to claim 10, wherein the output means includes display control means for displaying information indicating the optical system specified by the optical system specifying means. 前記算出手段は、一画像内に前記被写体の全体が収まる画角を前記撮影するに好適な光学系の画角として算出することを特徴とする請求項11又は12記載の撮影支援装置。   13. The photographing support apparatus according to claim 11 or 12, wherein the calculating means calculates an angle of view that fits the entire subject in one image as an angle of view of an optical system suitable for the photographing. 当該装置が有するコンピュータを、
被写体の大きさに関する情報を取得する被写体情報取得手段と、
前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得手段と、
前記両情報取得手段により取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出手段と
して機能させることを特徴とする撮影支援プログラム。
A computer included in the device;
Subject information acquisition means for acquiring information about the size of the subject;
Angle-of-view information acquisition means for acquiring information about the angle of view of the optical system that forms an image of the subject;
An imaging support program that functions as a calculation unit that calculates a suitable position or an inappropriate position for imaging a subject imaged by the optical system based on information acquired by the both information acquisition units.
当該装置が有するコンピュータを、
被写体の位置及び大きさに関する情報を取得する被写体情報取得手段と、
現在の位置を取得する現在位置取得手段と、
前記両情報取得手段により取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出手段と、
複数種の交換可能な光学系から前記算出手段により算出された画角に基づく光学系を特定する光学系特定手段と、
前記光学系特定手段により特定された光学系を示す情報を出力する出力手段と
して機能させることを特徴とする撮影支援プログラム。
A computer included in the device;
Subject information acquisition means for acquiring information on the position and size of the subject;
Current position acquisition means for acquiring the current position;
Based on the information acquired by the both information acquisition means, a calculation means for calculating an angle of view of an optical system suitable for imaging the subject from the current position;
An optical system specifying means for specifying an optical system based on the angle of view calculated by the calculating means from a plurality of types of interchangeable optical systems;
An imaging support program that functions as an output unit that outputs information indicating an optical system specified by the optical system specifying unit.
被写体の大きさに関する情報を取得する被写体情報取得ステップと、
前記被写体を結像する光学系の画角に関する情報を取得する画角情報取得ステップと、
前記両情報取得ステップにより取得された情報に基づき、前記光学系により結像される被写体を撮影するに好適な位置又は不適な位置を算出する算出ステップと
を含むことを特徴とする撮影支援方法。
A subject information acquisition step for acquiring information on the size of the subject;
An angle-of-view information acquisition step of acquiring information about the angle of view of the optical system that forms an image of the subject;
And a calculation step of calculating a suitable position or an inappropriate position for photographing the subject imaged by the optical system based on the information acquired by the both information acquisition steps.
被写体の位置及び大きさに関する情報を取得する被写体情報取得ステップと、
現在の位置を取得する現在位置取得ステップと、
前記両情報取得ステップにより取得された情報に基づき、前記現在の位置から前記被写体を結像させて撮影するに好適な光学系の画角を算出する算出ステップと、
複数種の交換可能な光学系から前記算出ステップにより算出された画角に基づく光学系を特定する光学系特定ステップと、
前記光学系特定ステップにより特定された光学系を示す情報を出力する出力ステップと
を含むことを特徴とする撮影支援方法。
Subject information acquisition step for acquiring information on the position and size of the subject;
A current position acquisition step for acquiring the current position;
A calculation step for calculating an angle of view of an optical system suitable for imaging the subject from the current position based on the information acquired by the information acquisition step;
An optical system specifying step for specifying an optical system based on the angle of view calculated by the calculating step from a plurality of types of interchangeable optical systems;
And an output step of outputting information indicating the optical system specified by the optical system specifying step.
JP2012142648A 2012-06-26 2012-06-26 Photograph support device and program Pending JP2014007619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012142648A JP2014007619A (en) 2012-06-26 2012-06-26 Photograph support device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012142648A JP2014007619A (en) 2012-06-26 2012-06-26 Photograph support device and program

Publications (1)

Publication Number Publication Date
JP2014007619A true JP2014007619A (en) 2014-01-16

Family

ID=50104978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012142648A Pending JP2014007619A (en) 2012-06-26 2012-06-26 Photograph support device and program

Country Status (1)

Country Link
JP (1) JP2014007619A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016092727A (en) * 2014-11-10 2016-05-23 オリンパス株式会社 Advice display device
JP7258117B1 (en) 2021-12-24 2023-04-14 楽天グループ株式会社 Image processing device, image processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016092727A (en) * 2014-11-10 2016-05-23 オリンパス株式会社 Advice display device
JP7258117B1 (en) 2021-12-24 2023-04-14 楽天グループ株式会社 Image processing device, image processing method and program
JP2023095609A (en) * 2021-12-24 2023-07-06 楽天グループ株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP6468307B2 (en) Imaging apparatus, image processing apparatus and method
EP2154648B1 (en) Image processing device, image processing method, and image processing program
US9106837B2 (en) Image capturing device and image capturing method
US8223214B2 (en) Camera system with masking processor
US10469741B2 (en) Image processing apparatus and image processing method
JP2011114496A (en) Imaging apparatus
WO2016002355A1 (en) Image capturing device and image capturing method
JP5750696B2 (en) Display device and display program
JP2008104069A (en) Digital camera and program of digital camera
JP2017135538A (en) Electronic apparatus, control method for electronic apparatus, control program and control device
JP2008060827A (en) Image processing method, imaging device, image processing device and program
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP4468794B2 (en) Display control apparatus, camera, and display control method
JP2014007619A (en) Photograph support device and program
JP2015033077A (en) Imaging apparatus, imaging method and program
JP2011124896A (en) Analyzer, image pickup device, server, and analyzing system
JP5341655B2 (en) Imaging apparatus and control method thereof
JP2009232278A (en) Panorama photographing apparatus
JP5742301B2 (en) Image projection apparatus, digital camera and optical apparatus
JP2012227717A (en) Display device, display program, and display method
JP2004117195A (en) Digital camera with speed measuring function
JP5737961B2 (en) Imaging device
JP5387717B2 (en) Image processing apparatus and program
JP6057142B2 (en) Imaging apparatus, control method thereof, and program
JP2013165478A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702