JP2008017223A - Imaging apparatus, guide display method of imaging apparatus, and program - Google Patents

Imaging apparatus, guide display method of imaging apparatus, and program Download PDF

Info

Publication number
JP2008017223A
JP2008017223A JP2006187103A JP2006187103A JP2008017223A JP 2008017223 A JP2008017223 A JP 2008017223A JP 2006187103 A JP2006187103 A JP 2006187103A JP 2006187103 A JP2006187103 A JP 2006187103A JP 2008017223 A JP2008017223 A JP 2008017223A
Authority
JP
Japan
Prior art keywords
image
subject
time
angle
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006187103A
Other languages
Japanese (ja)
Other versions
JP5034343B2 (en
JP2008017223A5 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006187103A priority Critical patent/JP5034343B2/en
Publication of JP2008017223A publication Critical patent/JP2008017223A/en
Publication of JP2008017223A5 publication Critical patent/JP2008017223A5/ja
Application granted granted Critical
Publication of JP5034343B2 publication Critical patent/JP5034343B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately capture a prescribed object of which the positional relationship or the like under a surrounding environment can be specified and to readily photograph the object in photographing the prescribed object. <P>SOLUTION: The imaging apparatus includes: an imaging system including a photographing lens 11 for photographing an image of the object, and an imaging element 31; an electronic finder 22 for displaying the image obtained by the imaging system on a monitor; a data memory 59 stored with a prescribed rule denoting an arranged state of the object changed with an elapsed time; an azimuth/three-dimensional tilt angle sensor 13 for designating an installation position, an installation posture of the apparatus and a time; a posture detection section 49; a GPS receiving antenna 18; a GPS receiver 50; and a main control circuit 37 that references the rule on the basis of the designated installation position, the installation posture of the apparatus and the time, generates a guide image denoting the arranged state of the object and displays the generated guide image in addition to the monitor image of the electronic finder 22. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば天体写真等、条件によってある程度の被写体の位置関係等を特定することができる所定の被写体を撮影するのに好適な撮像装置、撮像装置のガイド表示方法及びプログラムに関する。   The present invention relates to an imaging apparatus suitable for capturing a predetermined subject that can specify a certain positional relationship of the subject depending on conditions, such as an astronomical photograph, a guide display method for the imaging apparatus, and a program.

旧来より使用されている星座早見盤に代えて、星座や天体の位置や方向などを電子的に計算して表示できるようにしたものがある。例えば、GPS次式を備え、観測したい星の軌道データ、観測位置情報、観測年月日及び観測時刻情報をパラメータとして当該星の位置を計算し出力する電子星座早見盤とも言える装置が考えられている。(例えば、特許文献1)
特開平7−129083号公報
In place of the traditional constellation quick-view board, there is one that can electronically calculate and display the position and direction of constellations and celestial bodies. For example, there is a device that can be said to be an electronic constellation quick-view board that has the following GPS equation and calculates and outputs the position of the star using the orbit data, observation position information, observation date and observation time information of the star to be observed as parameters. Yes. (For example, Patent Document 1)
Japanese Patent Laid-Open No. 7-129083

しかしながら、上記のような装置を使用して星座の観察等を行なう場合でも、当該装置の表示部と実際の星空とを交互に比較参照することで実際の星座の位置をようやく確認することができる。   However, even when observing a constellation using the above-described device, the actual constellation position can be finally confirmed by alternately comparing and referring to the display unit of the device and the actual starry sky. .

加えて、カメラで星座等を撮影する場合には、所望する星座のある領域を正しく撮影するために、上記装置と実際の星空、及びカメラのファインダの3者を交互に見なければならず、そのための作業が著しく煩雑なものとなる。   In addition, when photographing a constellation or the like with a camera, in order to correctly photograph an area with a desired constellation, the above device, the actual starry sky, and the camera finder must be viewed alternately. The work for that is remarkably complicated.

一方で、高機能の天体望遠鏡では、所望の天体の赤道座標を入力すれば、その星の現在の視位置に自動的に望遠鏡を向け続ける、コンピュータ制御のモータ駆動による赤道儀に据え付けられた製品もある。この種の製品の接眼レンズ部分にカメラを取付ければ、星の周回移動に合わせて追尾撮影を行なうことができるが、非常に高価であり、装置自体が一般的なものではない。   On the other hand, a highly functional astronomical telescope is a product installed on a computer-controlled motor-driven equator that automatically keeps the telescope pointing to the current visual position of the star when the equatorial coordinates of the desired celestial object are entered. There is also. If a camera is attached to the eyepiece portion of this type of product, tracking shooting can be performed in accordance with the circular movement of the star, but it is very expensive and the apparatus itself is not general.

ところで、GPS(全地球測位システム)受信機を内蔵した自動車用のカーナビゲーション装置では、現在位置や地名、周辺の地図等を表示することができ、表示内容、具体的には道路や各種施設、背景等を時刻に合わせて変化させる(晴天下と夜間等)ものが製品化されている。   By the way, in a car navigation device for automobiles with a built-in GPS (Global Positioning System) receiver, it is possible to display the current position, place name, surrounding map, etc., and display contents, specifically roads and various facilities, Products that change the background etc. according to the time (under the clear sky and at night, etc.) have been commercialized.

しかしながら、カメラで撮影しようとする地形や目標物を確認するにあたって、上記カーナビゲーション装置を撮影のために携帯するのは、たとえ同装置がポータブルタイプのものであっても面倒である。加えて、カーナビゲーション装置の画面とカメラのモニタ画面とを見比べて対応付けるのもユーザの負担となる。   However, it is troublesome to carry the car navigation device for photographing when confirming the terrain or target to be photographed with a camera even if the device is a portable type. In addition, it is a burden on the user to compare and associate the car navigation device screen with the camera monitor screen.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、周囲環境下での位置関係等を特定可能な所定の被写体を撮影する場合に、正確に被写体をとらえて気軽に撮影を行なうことが可能な撮像装置、撮像装置の表示制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and the purpose of the present invention is to accurately capture a subject when photographing a predetermined subject that can specify the positional relationship in the surrounding environment. An object of the present invention is to provide an image pickup apparatus capable of easily taking an image, a display control method for the image pickup apparatus, and a program.

請求項1記載の発明は、被写体の画像を撮影する撮像手段と、この撮像手段で得られる画像をモニタ表示する表示手段と、時間経過に伴って変化する被写体の配置状況または撮影状況を示す所定の規則を記憶した記憶手段と、装置の設置位置及び設置姿勢を指定する第1の指定手段と、時刻を指定する第2の指定手段と、上記第1の指定手段で指定する設置位置及び設置姿勢と上記第2の指定手段で指定する時刻とにより上記記憶手段で記憶した規則を参照し、被写体の配置状況または撮影状況を示すガイド画像を作成する作成手段と、この作成手段で作成したガイド画像を上記表示手段でのモニタ画像に加えて表示させる表示制御手段とを具備したことを特徴とする。   According to the first aspect of the present invention, there is provided an imaging unit that captures an image of a subject, a display unit that displays on the monitor an image obtained by the imaging unit, and a predetermined state that indicates an arrangement state or a photographing state of the subject that changes over time. Storage means storing the rules, first specifying means for specifying the installation position and installation posture of the apparatus, second specifying means for specifying the time, and installation position and installation specified by the first specifying means A creation means for creating a guide image indicating a subject placement situation or a shooting situation with reference to the rules stored in the storage means by the posture and the time designated by the second designation means, and a guide created by the creation means And display control means for displaying an image in addition to the monitor image on the display means.

請求項1記載の発明によれば、例えば天体などのように、時刻と合わせて方位等の周囲環境を指定することで位置関係を特定することが可能な被写体を撮影する場合に、ガイド画像に従えばきわめて容易、且つ正確に被写体をとらえて撮影を行なうことが可能となる。   According to the first aspect of the present invention, when shooting a subject such as a celestial body whose positional relationship can be specified by specifying the surrounding environment such as the azimuth along with the time, the guide image is displayed. Accordingly, it is possible to capture the subject very easily and accurately.

(第1の実施の形態)
以下本発明をデジタルカメラに適用した場合の第1の実施の形態について図面を参照して説明する。
(First embodiment)
A first embodiment when the present invention is applied to a digital camera will be described below with reference to the drawings.

図1はその外観構成を示すもので、図1(A)が主にこのデジタルカメラ10の左斜め上方から見た前方側、図1(B)がデジタルカメラ10の右斜め上方から見た背面側の各斜視図である。   FIG. 1 shows the external configuration, FIG. 1 (A) is mainly the front side of the digital camera 10 viewed from the upper left side, and FIG. 1 (B) is the rear side of the digital camera 10 viewed from the upper right side. It is each perspective view of a side.

デジタルカメラ10の前面側にズーム機構を有する撮影レンズ11が取付けられ、右端のグリップ部上端面にレリーズキー12が配設されると共に、同グリップ部内には方位・3次元傾斜角センサ13が内在される。   A photographing lens 11 having a zoom mechanism is attached to the front side of the digital camera 10, a release key 12 is disposed on the upper end surface of the grip portion at the right end, and an azimuth / three-dimensional tilt angle sensor 13 is included in the grip portion. Is done.

また、デジタルカメラ10の上面には、右端側よりモード切替ダイヤル14、液晶表示部15、ペンタプリズム部のポップアップ式内蔵フラッシュ16及び外付けフラッシュ用ホット端子17、GPS受信アンテナ18等が配設される。   Also, on the upper surface of the digital camera 10, a mode switching dial 14, a liquid crystal display unit 15, a pop-up built-in flash 16 of the pentaprism unit, an external flash hot terminal 17, a GPS receiving antenna 18 and the like are arranged from the right end side. The

GPS受信アンテナ18は、後述する如く図示しない複数のGPS衛星からの到来電波を受信してこのデジタルカメラ10の現在位置を3次元座標(緯度/経度/高度)で正確な現在時刻の情報と共に検出するべく設けられる。   The GPS receiving antenna 18 receives incoming radio waves from a plurality of GPS satellites (not shown) as will be described later, and detects the current position of the digital camera 10 together with accurate current time information in three-dimensional coordinates (latitude / longitude / altitude). It is provided to do.

さらにデジタルカメラ10の背面側には、光学ファインダ19、カーソルキー20、数値入力キー21、及びモニタ表示部とタッチパネル機能を兼ねた電子ファインダ22が設けられる。   Further, on the back side of the digital camera 10, an optical finder 19, a cursor key 20, a numerical value input key 21, and an electronic finder 22 that functions as a monitor display unit and a touch panel function are provided.

電子ファインダ22は、バックライト付きのカラー液晶パネルと透明タッチパネルとが一体にして構成され、その基部が2軸ヒンジ機構とされることで表示面/タッチ面を所定の範囲内で任意に可動させることができる。   The electronic viewfinder 22 is formed by integrating a color liquid crystal panel with a backlight and a transparent touch panel, and the base portion is a biaxial hinge mechanism, so that the display surface / touch surface can be arbitrarily moved within a predetermined range. be able to.

加えて、デジタルカメラ10のグリップ部を形成する背面右端乃至右側面の外面は、このデジタルカメラ10の電源となる電池及び記録媒体となるメモリカードを収納する収納部のカバー23を兼ねている。   In addition, the outer surface of the rear right side to the right side forming the grip portion of the digital camera 10 also serves as a cover 23 for a storage portion for storing a battery serving as a power source for the digital camera 10 and a memory card serving as a recording medium.

次に図2によりこのデジタルカメラ10の電子回路の構成について説明する。   Next, the configuration of the electronic circuit of the digital camera 10 will be described with reference to FIG.

上記撮影レンズ11は、複数の光学レンズ群の光軸中に絞り機構11aとシャッタ機構11bとが挿入されるもので、これらを介して得られた撮影光は例えばCCDで構成される撮像素子31で結像される。   The photographing lens 11 has a diaphragm mechanism 11a and a shutter mechanism 11b inserted in the optical axes of a plurality of optical lens groups. The photographing light obtained through these mechanisms is, for example, an image sensor 31 composed of a CCD. Is imaged.

この撮像素子31は、ドライバ32により走査駆動されて光像に対応した画素毎の電荷を出力するもので、これがゲイン調整、サンプルホールドされた後にA/D変換器33でデジタル化されて画像データが形成され、映像信号処理34に送られる。   This image sensor 31 is scanned and driven by a driver 32 and outputs a charge for each pixel corresponding to an optical image. After this is gain-adjusted and sample-held, it is digitized by an A / D converter 33 and image data. Is formed and sent to the video signal processing 34.

映像信号処理34は、原色系のカラー画像データを輝度色差系の同データに変換し、γ補正等のプロセス処理を施した上で処理後の画像データをバッファメモリとなる画像メモリ35に保持させる。   The video signal processing 34 converts primary color image data to the same luminance / chrominance data, performs process processing such as γ correction, and holds the processed image data in an image memory 35 serving as a buffer memory. .

この画像メモリ35に保持された画像データを撮影制御回路36が読出し、CPUで構成される主制御回路37へ送出する。   The image data stored in the image memory 35 is read out by the photographing control circuit 36 and sent to a main control circuit 37 constituted by a CPU.

撮影制御回路36はまた、上記撮影レンズ11中の特にフォーカスレンズ及びズームレンズの位置を検出するレンズ位置検出部38からの検出信号を受け、レンズ駆動部39に駆動信号を送出して上記各レンズの位置を制御する他、シャッタ・絞り駆動部40に制御信号を送出して上記撮影レンズ11中の絞り機構11a及びシャッタ機構11bの動作を制御する。   The imaging control circuit 36 also receives a detection signal from a lens position detection unit 38 that detects the positions of the focus lens and zoom lens in the imaging lens 11 in particular, and sends a driving signal to a lens driving unit 39 to send each of the lenses. In addition to controlling the position, the control signal is sent to the shutter / aperture driving unit 40 to control the operation of the aperture mechanism 11a and the shutter mechanism 11b in the photographing lens 11.

また、上記撮影レンズ11の一部を介して測光・測距センサ41に光が入射され、その検出信号が色温度検出部42、測光部43、及び測距部44へ出力される。   Light is incident on the photometry / ranging sensor 41 through a part of the photographing lens 11, and the detection signal is output to the color temperature detection unit 42, the photometry unit 43, and the distance measurement unit 44.

これら色温度検出部42、測光部43、測距部44は、測光・測距センサ41の検出信号から光像の色温度、光量、及び被写体までの距離をそれぞれ検出、測定し、その結果を共に上記撮影制御回路36へ出力する。   The color temperature detection unit 42, the photometry unit 43, and the distance measurement unit 44 detect and measure the color temperature of the light image, the light amount, and the distance to the subject from the detection signal of the photometry / ranging sensor 41, respectively, and the result is obtained. Both are output to the imaging control circuit 36.

さらに撮影制御回路36は、上記内蔵フラッシュ16を発光駆動する、大容量コンデンサを含んだフラッシュ駆動部45、及び該内蔵フラッシュ16での発光照射角度を可変するべく、内蔵フラッシュ16を構成するキセノン放電管とそのリフレクタとの間隔を可変する照射角駆動部46に対しても制御信号を送出する。   Further, the photographing control circuit 36 drives the built-in flash 16 to emit light, a flash drive unit 45 including a large-capacitance capacitor, and a xenon discharge constituting the built-in flash 16 so as to vary the light emission irradiation angle of the built-in flash 16. A control signal is also sent to the irradiation angle drive unit 46 that varies the distance between the tube and its reflector.

主制御回路37は、上記撮影制御回路36の他に、音声復号化部47、音声符号化部48、姿勢検出部49、GPSレシーバ50、入力回路51、座標入力回路52、表示メモリ53、表示駆動部54、画像処理部55、圧縮符号化/伸長復号化部56、画像データメモリ57、プログラムメモリ58、データメモリ59、外部メモリインタフェース60、入出力インタフェース61、及び電源制御部62とも接続される。   In addition to the shooting control circuit 36, the main control circuit 37 includes a voice decoding unit 47, a voice encoding unit 48, an attitude detection unit 49, a GPS receiver 50, an input circuit 51, a coordinate input circuit 52, a display memory 53, a display The drive unit 54, the image processing unit 55, the compression encoding / decompression decoding unit 56, the image data memory 57, the program memory 58, the data memory 59, the external memory interface 60, the input / output interface 61, and the power supply control unit 62 are also connected. The

音声復号化部47は、与えられた音声データを復号化してデジタル値の音声信号を得、これをD/A変換器63を介してアナログ化した上でデジタルカメラ10の背面側に配設されたスピーカ64により拡声放音させる。   The audio decoding unit 47 decodes the given audio data to obtain a digital audio signal, which is converted into an analog signal via the D / A converter 63 and disposed on the back side of the digital camera 10. The loudspeaker 64 emits sound.

一方、デジタルカメラ10の前面側に配設されたマイクロホン65より入力された音声は、A/D変換器66でサンプリングされてデジタル化された後に、音声符号化部48で所定の変調方式による符号化が実行され、主制御回路37へ出力される。   On the other hand, the voice input from the microphone 65 disposed on the front side of the digital camera 10 is sampled by the A / D converter 66 and digitized, and then encoded by the voice encoding unit 48 using a predetermined modulation method. Is output to the main control circuit 37.

姿勢検出部49は、上記方位・3次元傾斜角センサ13より得られるθyaw、θpitch、θrollの各信号によりデジタルカメラ10のその時点でデジタルカメラ10の正面が向いている方位と姿勢とを検出し、その検出結果を主制御回路37へ出力する。   The orientation detection unit 49 detects the orientation and orientation of the digital camera 10 that the front of the digital camera 10 is facing at that time based on the signals θyaw, θpitch, and θroll obtained from the orientation / three-dimensional tilt angle sensor 13. The detection result is output to the main control circuit 37.

GPSレシーバ50は、上記GPS受信アンテナ18で受信された複数のGPS衛星からの到来電波により、原子時計に基づく正確な現在時刻と現在位置の3次元座標(緯度/経度/高度)とを算出して主制御回路37へ出力する。   The GPS receiver 50 calculates the accurate current time based on the atomic clock and the three-dimensional coordinates (latitude / longitude / altitude) of the current position based on the incoming radio waves from the plurality of GPS satellites received by the GPS receiving antenna 18. To the main control circuit 37.

入力回路51は、上記レリーズキー12、モード切替ダイヤル14、カーソルキー20、数値入力キー21を含む各種キーの操作を受付けてその操作信号を主制御回路37へ出力する。   The input circuit 51 receives the operation of various keys including the release key 12, the mode switching dial 14, the cursor key 20, and the numerical value input key 21, and outputs the operation signal to the main control circuit 37.

座標入力回路52は、上記電子ファインダ22の一部を構成するタッチパネル22aでのタッチに基づく2次元座標データを生成して主制御回路37へ出力する。   The coordinate input circuit 52 generates two-dimensional coordinate data based on the touch on the touch panel 22 a that constitutes a part of the electronic viewfinder 22 and outputs the two-dimensional coordinate data to the main control circuit 37.

表示メモリ53は、主制御回路37から与えられる画像データを保持して表示駆動部54に読出すことで、表示駆動部54が電子ファインダ22を構成するカラー液晶パネルでなる表示部22bを駆動表示する。   The display memory 53 holds the image data given from the main control circuit 37 and reads it out to the display drive unit 54, so that the display drive unit 54 drives and displays the display unit 22 b formed of a color liquid crystal panel constituting the electronic viewfinder 22. To do.

画像処理部55は、画像データに対するホワイトバランス、コントラスト、シャープネス等の変換や輝度補正、モノクロ/セピア処理等の各種画像処理を主制御回路37からの制御に基づいて実行する。   The image processing unit 55 executes various image processing such as white balance, contrast, sharpness conversion, luminance correction, monochrome / sepia processing, and the like on the image data based on control from the main control circuit 37.

圧縮符号化/伸長復号化部56は、画像記録時の例えばJPEG(Joint Photograph coding Experts Group)規格に基づくDCT(離散コサイン変換)やエントロピー符号化としてのハフマン符号化等により原画像データを圧縮する一方で、画像再生時には上記データ圧縮とは逆の手順で圧縮されているデータを伸長する。   The compression encoding / decompression decoding unit 56 compresses original image data by DCT (Discrete Cosine Transform) based on, for example, JPEG (Joint Photographic Coding Experts Group) standard at the time of image recording, Huffman encoding as entropy encoding, or the like. On the other hand, at the time of image reproduction, the compressed data is decompressed by a procedure reverse to the above data compression.

画像データメモリ57は、上記圧縮符号化/伸長復号化部56でのデータ圧縮/伸長時の画像データを一時的に保持する。   The image data memory 57 temporarily holds image data at the time of data compression / decompression in the compression encoding / decompression decoding unit 56.

プログラムメモリ58は、後述する動作時に主制御回路37が実行する動作プログラムや同プログラムで使用する定数などのデータ等を固定的に記憶する。   The program memory 58 fixedly stores an operation program executed by the main control circuit 37 during an operation described later, data such as constants used in the program, and the like.

データメモリ59は、主制御回路37のワークエリアとして使用される他、天体の位置座標データ、天体の視位置計算データ、建物等の位置座標データ、建物等の視位置計算データ、‥‥等、後述する動作時に使用する各種データを記憶する。   The data memory 59 is used as a work area of the main control circuit 37, as well as astronomical position coordinate data, astronomical visual position calculation data, building coordinate position data, building visual position calculation data, etc. Various data used in the operation described later is stored.

外部メモリインタフェース60は、このデジタルカメラ10に記録媒体として装着されるメモリカード67と主制御回路37との間で画像データの送受を行なう。   The external memory interface 60 transmits and receives image data between the memory card 67 mounted as a recording medium in the digital camera 10 and the main control circuit 37.

入出力インタフェース61は、このデジタルカメラ10に設けられる、例えばUSB端子でなる入出力端子68と主制御回路37との間に通信部69と共に配置され、画像データを含む各種データの送受を行なう。   The input / output interface 61 is disposed with the communication unit 69 between the input / output terminal 68 provided with the digital camera 10, for example, a USB terminal, and the main control circuit 37, and transmits and receives various data including image data.

電源制御部62は、このデジタルカメラ10の電源となる電池70からの供給電圧を受け、これを安定化して上記主制御回路37へ与える一方で、電池70のモニタ管理等を行なう。   The power supply control unit 62 receives the supply voltage from the battery 70 which is the power supply of the digital camera 10, stabilizes it and supplies it to the main control circuit 37, while performing monitor management of the battery 70 and the like.

次いで上記実施の形態の動作について説明する。
図3及び図4は、このデジタルカメラ10での撮影制御の処理内容を示すものであり、この制御動作は主として主制御回路37がプログラムメモリ58に記憶されている動作プログラムや定数等の固定データに基づいて実行する。
Next, the operation of the above embodiment will be described.
3 and 4 show the processing contents of the photographing control in the digital camera 10, and this control operation is mainly performed by the main control circuit 37 in the operation memory stored in the program memory 58 and fixed data such as constants. Run based on.

その当初に撮影モードや撮影条件等をユーザが任意に設定する(ステップA01)。   At the beginning, the user arbitrarily sets the shooting mode, shooting conditions, and the like (step A01).

この設定に基づき、天体撮影モードが設定されたか否かを判断する(ステップA02)。ここで天体撮影モードが設定されたと判断した場合にのみ、このデジタルカメラ10の現在位置を入力するか、あるいは自動的な測位処理を行なう(ステップA03)。   Based on this setting, it is determined whether or not the astrophotography mode has been set (step A02). Only when it is determined that the astrophotography mode has been set, the current position of the digital camera 10 is input or automatic positioning processing is performed (step A03).

図5は、GPSを用いた自動的な測位処理の内容を示すサブルーチンであり、その当初には、GPSレシーバ50がすでに起動されて動作中であるか否かを判断する(ステップB01)。   FIG. 5 is a subroutine showing the contents of automatic positioning processing using GPS. At the beginning, it is determined whether or not the GPS receiver 50 is already activated and operating (step B01).

ここで、まだ起動されておらず動作中ではないと判断した場合にのみ、あらためてGPSレシーバ50での動作を起動させ(ステップB02)、その後起動が完了して測位が可能となるのを待機する(ステップB03)。   Here, only when it is determined that the GPS receiver 50 has not been started yet and is not operating, the operation of the GPS receiver 50 is started again (step B02), and then the system waits for completion of the start and positioning. (Step B03).

このステップB03で起動が完了したと判断した場合、もしくは上記ステップB01ですでに起動されていると判断した場合に、次いでGPS受信アンテナ18を用いて複数のGPS衛星からの到来電波を受信し、まず測位信号中の疑似乱数列PRN(Pseudo−Ramdom Noise)によるコードを受信復調して疑似距離を計測する(ステップB04)。   If it is determined in step B03 that activation has been completed, or if it is determined in step B01 that it has already been activated, then the incoming radio waves from a plurality of GPS satellites are received using the GPS receiving antenna 18, First, a pseudo distance is measured by receiving and demodulating a code based on a pseudo random number sequence PRN (Pseudo-Random Noise) in the positioning signal (step B04).

次いで、各GPS衛星の天体歴情報、及び起動データを取得し(ステップB05)、各GPS衛星の位置及び現在位置からの距離を算出する(ステップB06)。   Next, astronomical history information and activation data of each GPS satellite are acquired (step B05), and the position of each GPS satellite and the distance from the current position are calculated (step B06).

そして、この算出結果から、現在デジタルカメラ10が位置している正確な3次元座標、すなわち経度λ、緯度φ、及び高度hを現在時刻と共に算出する(ステップB07)。   Then, from this calculation result, accurate three-dimensional coordinates where the digital camera 10 is currently located, that is, longitude λ, latitude φ, and altitude h are calculated together with the current time (step B07).

これら各座標値に基づき、測地系座標への変換処理を行ない(ステップB08)、結果としてこのデジタルカメラ10の位置する現在位置を取得して、主制御回路37へ出力し(ステップB09)、以上でこのサブルーチンを終了する。   Based on these coordinate values, conversion processing to geodetic system coordinates is performed (step B08). As a result, the current position where the digital camera 10 is located is acquired and output to the main control circuit 37 (step B09). Then, this subroutine is finished.

図3のメインルーチンでは、ステップA03での測位処理に続き、今度は方位・3次元傾斜角センサ13、姿勢検出部49を用いてこのデジタルカメラ10の向き(方位、仰俯角、傾斜角など)を検出する(ステップA04)。   In the main routine of FIG. 3, following the positioning process in step A03, the orientation (azimuth, elevation angle, inclination angle, etc.) of the digital camera 10 is now measured using the azimuth / three-dimensional inclination angle sensor 13 and the posture detection unit 49. Is detected (step A04).

次いで、デジタルカメラ10の現在位置と、検出したカメラの向き、及びその時点での撮影レンズ11のズーム倍率から電子ファインダ22で本来見えるはずの概略の天体探索範囲を設定する(ステップA05)。   Next, an approximate astronomical search range that should be originally visible on the electronic viewfinder 22 is set based on the current position of the digital camera 10, the detected camera orientation, and the zoom magnification of the photographing lens 11 at that time (step A05).

この設定した天体探索範囲に基づき、探索する天体の赤道座標(赤経αと赤緯δ)を設定し(ステップA06)、現在の日時と現在位置に基づいて探索する天体の視位置を算出して(ステップA07)、算出した天体の視位置すなわち方位角Az、高度角ψを順次データメモリ59に記憶する(ステップA08)。   Based on the set celestial object search range, equatorial coordinates (red longitude α and declination δ) of the celestial object to be searched are set (step A06), and the visual position of the celestial object to be searched is calculated based on the current date and current position. (Step A07), the calculated visual position of the celestial body, that is, the azimuth angle Az and the altitude angle ψ are sequentially stored in the data memory 59 (Step A08).

そして、探索する天体の視位置をすべて算出したか否かを判断し(ステップA09)、まだ算出を終えていないと判断すると上記ステップA06からの処理に戻り、以後探索する天体の視位置をすべて算出すると判断するまでステップA06〜A09の処理を繰返し実行する。   Then, it is determined whether or not all the visual positions of the celestial bodies to be searched have been calculated (step A09). If it is determined that the calculation has not yet been completed, the process returns to the processing from step A06. Steps A06 to A09 are repeatedly executed until it is determined to be calculated.

図6は、天体の視位置シミュレーション画像の画面表示に関する処理の流れを示すものである。まず、天体の位置座標データ(図6(A))に対し、現在日時データ及び現在位置データを入力することで、天体の視位置を計算する(図6(B))。   FIG. 6 shows the flow of processing relating to the screen display of the celestial body visual position simulation image. First, the visual position of the celestial body is calculated by inputting the current date and time data and the current position data to the position coordinate data of the celestial body (FIG. 6A) (FIG. 6B).

計算結果を2次元画像として投影描画することで(図6(C))、シミュレーション視野画像を生成する(図6(D))。   By projecting and drawing the calculation result as a two-dimensional image (FIG. 6C), a simulation visual field image is generated (FIG. 6D).

図7は、天体の視位置の上記計算処理の概念を説明するものである。同図で、緯度φ、経度λに位置するカメラの観測点と、天体の位置を示す点の赤道座標(赤経α,赤緯δ)、及び天体の視位置である時角(Hour Angle)HA、方位角(Azimus)Az、高度角(仰角:Latitude)ψの関係を示す。すなわち、
cosψsinAz=cosδsinHA、
cosψcosAz=-cosφsinδ+sinφcosδcosHA、
sinψ=sinφsinδ+cosφcosδcosHA、
(但し、方位角Azは南〜西回り。)
図8は、天体を構成するシリウス、カノープス等、主要な恒星の位置座標データ(赤経α,赤緯δ)であり、これらのデータは上記データメモリ59に予め天体の位置座標データとして記憶しておくものとする。
FIG. 7 explains the concept of the above calculation processing of the visual position of the celestial body. In the same figure, the observation point of the camera located at latitude φ and longitude λ, the equatorial coordinates (red longitude α, declination δ) of the point indicating the position of the celestial body, and the hour angle which is the visual position of the celestial body (Hour Angle) The relationship among HA, azimuth angle (Azimus) Az, and altitude angle (elevation angle: Latitude) ψ is shown. That is,
cosψsinAz = cosδsinHA,
cosψcosAz = -cosφsinδ + sinφcosδcosHA,
sinψ = sinφsinδ + cosφcosδcosHA,
(However, the azimuth Az is from south to west.)
FIG. 8 shows the position coordinate data (red longitude α, declination δ) of major stars such as Sirius and Canopus constituting the celestial body. These data are stored in the data memory 59 in advance as the position coordinate data of the celestial body. Shall be kept.

図9及び図10は、恒星や星座など、天体(星)の視位置の計算処理の具体的なサブルーチンを示すものである。まず、デジタルカメラ10の現在位置(緯度φ、経度λ、高度h)を測位した結果を入力する(ステップC01)。ここで、角度の単位が°[deg]、高度の単位が[m]で入力された場合には、それぞれ図示する計算式により[rad][km]に変換する。   FIG. 9 and FIG. 10 show specific subroutines for the calculation processing of the visual position of a celestial body (star) such as a star or a constellation. First, the result of positioning the current position (latitude φ, longitude λ, altitude h) of the digital camera 10 is input (step C01). Here, when an angle unit is input in degrees [deg] and an altitude unit is input in [m], it is converted into [rad] [km] by the calculation formulas shown respectively.

また、惑星位置などを詳細に求める場合には、緯度φを地心緯度φ′に変換しておく。ここで、地心緯度φ′は、次式
φ′=tan-1(0.9983055+0.000011h[km])tan(φ)
で与えられる。
In addition, when obtaining the planet position in detail, the latitude φ is converted into the geocentric latitude φ ′. Here, the geocentric latitude φ ′
φ '= tan -1 (0.9983055 + 0.000011 * h [km]) * tan (φ)
Given in.

次いで、計算日時(YY/MM/DD、hh/mm/ss)及びグリニッジ標準時刻GMTとの時差TDを入力する(ステップC02)。   Next, the calculation date and time (YY / MM / DD, hh / mm / ss) and the time difference TD from the Greenwich Mean Time GMT are input (step C02).

合わせて、探索する天体の赤道座標(赤経α,赤緯δ)を図示する式により設定する(ステップC03)。   At the same time, the equatorial coordinates (red longitude α, declination δ) of the celestial body to be searched are set according to the equations shown (step C03).

上記入力された計算日時と時差から、準ユリウス日(MJD1、修正ユリウス日MJD2)を次式
MJD1=INT(365.25YY)+INT(YY/40)-INT(YY/100)
+INT(30.59(MM-2))+DD+721088.5-2400000.5
MJD2=MJD1+hh/24+mm/1440+ss/86400=TD/24
(但し、MM≦2の場合は、MM=MM+12、YY=YY-1とする。)
により計算する(ステップC04)。
The quasi-Julian date (MJD1, corrected Julian date MJD2) is calculated from the above calculated date and time and time difference as follows:
MJD1 = INT (365.25 * YY) + INT (YY / 40) -INT (YY / 100)
+ INT (30.59 * (MM-2)) + DD + 721088.5-2400000.5
MJD2 = MJD1 + hh / 24 + mm / 1440 + ss / 86400 = TD / 24
(However, if MM ≦ 2, MM = MM + 12 and YY = YY-1)
(Step C04).

次いで、準ユリウス日MJD2より、グリニッジ恒星時θGを次式
ST=0.671242+1.002737909(MJD2-40000)
ST=ST-INT(ST)
(但し、INT()は整数化する関数。)
θG[hour]=24[hour]*ST
θG[rad]=2π*ST
を計算する(ステップC05)。
Next, from quasi-Julian date MJD2, the Greenwich star time θ G is
ST = 0.671242 + 1.002737909 * (MJD2-40000)
ST = ST-INT (ST)
(However, INT () is an integer function.)
θ G [hour] = 24 [hour] * ST
θ G [rad] = 2π * ST
Is calculated (step C05).

次に、当該経度での地方恒星時「θG−経度λ(西経を+、東経を−とする)」及び天体の赤経αより、当該天体の時角HAを次式
HA[hour]=θG[hour]-λ[deg]/15-[hour]
HA[rad]=HA[hour]15π/180
を用いて求める(ステップC06)。
Next, from the local stellar time at the longitude, “θ G −longitude λ (west longitude +, east longitude −)” and the celestial red longitude α, the time angle HA of the celestial body is
HA [hour] = θ G [hour] -λ [deg] / 15- [hour]
HA [rad] = HA [hour] * 15 * π / 180
(Step C06).

次いで、当該天体の方位角Az(南〜西回り)を次式
S1:cosψsinAz=cosδ*sinHA
C1:cosψcosAz=-cosLATsinδ+sinLATcosδcosHA、
Az=tan-1(S1/C1)
により計算する(ステップC07)。
Next, the azimuth angle Az (south to west) of the celestial body is
S1: cosψsinAz = cosδ * sinHA
C1: cosψcosAz = -cosLAT * sinδ + sinLAT * cosδ * cosHA,
Az = tan -1 (S1 / C1)
(Step C07).

さらに、時角HA、天体の赤緯δを用い、当該天体の高度角ψを次式
S2:sinψ=sinLATsinδ+cosLATcosδcosHA、cosδ*sinHA
C2:cosψ=√((1-(S2))2)または√((S1)2+(C1)2)
ψ=tan-1(S2/C2)
により算出する(ステップC08)。
Further, using the time angle HA and the declination δ of the celestial body, the altitude angle ψ of the celestial body is expressed by the following equation:
S2: sinψ = sinLAT * sinδ + cosLAT * cosδ * cosHA, cosδ * sinHA
C2: cosψ = √ ((1- (S2)) 2 ) or √ ((S1) 2 + (C1) 2 )
ψ = tan -1 (S2 / C2)
(Step C08).

なお、上記方位角Az、高度角ψの計算式中におけるtan-1(Sn/Cn)(n=1,2)の計算では、0°〜360°(0〜2π)の範囲に拡大できるように象限の判別を行ない、θ=tan-1(Sn/Cn)とすると
C>0、S>0の場合には、θ=tan-1(Sn/Cn)のままでよいが、
C>0、S<0の場合には、θ=2π−θの形に変換する。
同様に、C<0の場合には、θ=π−θの形に変換する。
また、C=S=0の場合には、θ=不定(または天頂)とし、
C=0、S>0の場合には、θ=π/2
C=0、S<の場合には、θ=3π/2
π−θの形に変換する。
In the calculation of tan −1 (Sn / Cn) (n = 1, 2) in the calculation formula of the azimuth angle Az and altitude angle ψ, it can be expanded to a range of 0 ° to 360 ° (0 to 2π). The quadrant is determined as follows, and θ = tan −1 (Sn / Cn)
When C> 0 and S> 0, θ = tan −1 (Sn / Cn) may be maintained.
In the case of C> 0 and S <0, conversion is made into the form θ = 2π−θ.
Similarly, in the case of C <0, it is converted into the form of θ = π−θ.
When C = S = 0, θ = undefined (or zenith)
When C = 0 and S> 0, θ = π / 2
When C = 0 and S <, θ = 3π / 2
Convert to π-θ form.

上記のように求めた当該天体の視位置、すなわち方位角Az及び高度角ψを出力する(ステップC09)。
以上の計算を、各天体に関して繰返して実行する。
The visual position of the celestial body obtained as described above, that is, the azimuth angle Az and the altitude angle ψ are output (step C09).
The above calculation is repeated for each celestial body.

また、上記図9及び図10で説明した通常の天体(星)の視位置の計算に加えて、太陽、月、惑星の視位置を計算する場合の詳細な処理内容についても図11及び図12を用いて説明する。   Further, in addition to the calculation of the visual position of the normal celestial body (star) described in FIGS. 9 and 10, detailed processing contents when calculating the visual position of the sun, the moon, and the planet are also shown in FIGS. Will be described.

図10及び図11は、太陽、月、惑星の視位置の視位置の計算処理のサブルーチンである。太陽を除く恒星のように赤道座標上でほとんど動かない天体と違い、太陽や月、及び太陽系の各惑星では、その赤道座標が日々変化するので、まずその赤道座標を求める必要がある。赤道座標(赤経α,赤緯δ)が求まると、視位置(方位角Az、高度角ψ)の計算は上記図9及び図10で説明した恒星の場合とほぼ同様に行なうことができる。   10 and 11 are subroutines for calculating the visual position of the visual position of the sun, the moon, and the planet. Unlike celestial bodies that hardly move on the equator, such as stars other than the sun, the equator coordinates of the sun, the moon, and the planets of the solar system change daily. When the equatorial coordinates (red longitude α, declination δ) are obtained, the visual position (azimuth angle Az, altitude angle ψ) can be calculated in substantially the same manner as in the case of the star described with reference to FIGS.

処理手順としては、まず、デジタルカメラ10の現在位置(緯度φ、経度λ、高度h)を測位した結果を入力する(ステップD01)。ここで、角度の単位が°[deg]、高度の単位が[m]で入力された場合には、それぞれ図示する計算式により[rad][km]に変換する。   As a processing procedure, first, the result of positioning the current position (latitude φ, longitude λ, altitude h) of the digital camera 10 is input (step D01). Here, when an angle unit is input in degrees [deg] and an altitude unit is input in [m], it is converted into [rad] [km] by the calculation formulas shown respectively.

また、惑星位置などを詳細に求める場合には、緯度φを地心緯度φ′に変換しておく。ここで、地心緯度φ′は、次式
φ′=tan-1(0.9983055+0.000011h[km])tan(φ)
で与えられる。
In addition, when obtaining the planet position in detail, the latitude φ is converted into the geocentric latitude φ ′. Here, the geocentric latitude φ ′
φ '= tan -1 (0.9983055 + 0.000011 * h [km]) * tan (φ)
Given in.

次いで、計算日時(YY/MM/DD、hh/mm/ss)及びグリニッジ標準時刻GMTとの時差TDを入力する(ステップD02)。   Next, the calculation date and time (YY / MM / DD, hh / mm / ss) and the time difference TD from the Greenwich Mean Time GMT are input (step D02).

合わせて、太陽、月の地心黄道座標を算出する(ステップD03)。太陽の赤道座標は、日々の変化は小さいので頻繁に計算する必要がない一方で、約1年で黄道12星座の中を一周するので、季節による変化は大きい。   In addition, the geocentric ecliptic coordinates of the sun and the moon are calculated (step D03). The sun's equatorial coordinates do not need to be calculated frequently because the daily changes are small. On the other hand, the equatorial coordinates of the sun go around the zodiac 12 constellations in about one year, so the change due to the season is large.

太陽の赤道座標は、まず後述の位置略算式等を用いて、地球を中心とする太陽の地心黄道座標(黄経λ、黄緯β、距離r)を求める。求めた地心の黄道座標を、次式
U=cosβ*cosλ
V=cosβ*sinλ*cose-sinβ*sine
(但し、黄道傾斜角e=23.43929。)
W=cosβ*sinλ*sine+sinβ*cose
α=tan-1(V/U)
δ=sin-1(W)
により地心の赤道座標(赤経α,赤緯δ)に変換する。
For the sun's equatorial coordinates, first, the sun's geocentric ecliptic coordinates (yellow longitude λ S , longitude latitude β S , distance r S ) with the earth as the center are obtained using a position approximate expression described later. The calculated zodiac coordinates of the geocenter
U = cosβ * cosλ
V = cosβ * sinλ * cose-sinβ * sine
(However, the ecliptic inclination angle e = 23.43929.)
W = cosβ * sinλ * sine + sinβ * cose
α = tan -1 (V / U)
δ = sin -1 (W)
To convert to the equatorial coordinates of the center (red longitude α, declination δ).

月は、地球を約1日で一周する軌道を回っているので、その赤道座標の変化が大きく、短時間毎に更新計算する必要がある。同様に、月の位置略算式を用いて、月の地心黄道座標(黄経λ、黄緯β、距離r)を求める。求めた地心の黄道座標を、上記太陽の場合と同様に月の地心赤道座標(赤経α,赤緯δ)に変換する。 Since the moon is orbiting around the earth in about one day, its equatorial coordinates change greatly, and it is necessary to perform update calculations every short time. Similarly, the geocentric zodiacal coordinates (yellow longitude λ M , longitude latitude β M , distance r M ) of the moon are obtained using the approximate lunar position formula. The determined ecliptic coordinates of the geocentric are converted into the lunar equatorial coordinates (red longitude α, declination δ) in the same manner as in the case of the sun.

太陽系を構成する水星乃至冥王星の各惑星は、各惑星の位置略算式を用いて、各惑星の太陽を中心とする日心黄道座標(黄経λ'、黄緯β'、動経r')を求める(ステップD04)。求めた日心の黄道座標を、次式
X=r'*cos(β')cos(λ')
Y=r'*cos(β')sin(λ')
Z=r'*sin(β')
を用いて日心黄道直交座標(X,Y,Z)に変換する(ステップD05)。
Each planet Mercury to Pluto constituting the solar system, using a position substantially formula for each planet, heliocentric ecliptic coordinates centered sun each planet (Kikei lambda 'P, Kinuki beta' P, Dokei r ' P ) is obtained (step D04). The calculated ecliptic coordinates of the center of the heart
X = r ′ P * cos (β ′ P ) * cos (λ ′ P )
Y = r ′ P * cos (β ′ P ) * sin (λ ′ P )
Z = r ′ P * sin (β ′ P )
Is used to convert to the centripetal coordinate (X, Y, Z) (step D05).

次に、上記太陽の地心黄道座標(黄経λ、黄緯β、距離r)を用いて、次式
A=X+r*cos(β)cos(λ)
B=Y+r*cos(β)sin(λ)
C=Z+r*sin(β)
により各惑星の日心の黄道直交座標(X,Y,Z)を、各惑星の地心の黄道直交座標(A,B,C)に変換する(ステップD06)。
Next, using the sun's geocentric ecliptic coordinates (yellow longitude λ S , longitude latitude β S , distance r S ),
A = X + r S * cos (β S ) * cos (λ S )
B = Y + r S * cos (β S ) * sin (λ S )
C = Z + r S * sin (β S )
To convert the ecliptic orthogonal coordinates (X, Y, Z) of the centroid of each planet into the ecliptic orthogonal coordinates (A, B, C) of the centroid of each planet (step D06).

さらに、各惑星の地心の黄道直交座標(A,B,C)を次式
λ=tan-1(B/A)
β=tan-1(C/√(A2+B2))
=√(A2+B2+C2)
により地心の黄道座標(黄経λ、黄緯β、距離r)に変換する(ステップD07)。
Furthermore, the ecliptic Cartesian coordinates (A, B, C) of each planet ’s center are
λ P = tan -1 (B / A)
β P = tan -1 (C / √ (A 2 + B 2 ))
r P = √ (A 2 + B 2 + C 2 )
Is converted into the ecliptic coordinates of the earth center (yellow longitude λ P , longitude latitude β P , distance r P ) (step D07).

そして、光行差、章動を補正して上記地心黄道座標(黄経λ、黄緯β、距離r)を視黄経λ、視黄緯β、視距離rに変換した上で(ステップD08)、上述の太陽や月の場合と同様に各惑星の地心赤道座標(赤経α,赤緯δ)に変換する(ステップD09)。 Then, aberrations, the geocentric ecliptic coordinates by correcting the nutation (Kikei lambda P, Kinuki beta P, the distance r P) to Miki through lambda P, Mikinuki beta P, the viewing distance r P After the conversion (step D08), it is converted into the geocentric equator coordinates (red longitude α, declination δ) of each planet (step D09), as in the case of the sun and moon described above.

以上、太陽、月、及び各惑星の地心赤道座標(赤経α,赤緯δ)と地方恒星時からそれぞれの視位置、すなわち時角HA、方位角Az、及び高度角ψを計算して出力する(ステップD10)。
なお、ここで太陽、月、惑星の位置略算式についても説明しておく。
惑星の軌道位置は、6つの軌道要素、すなわち惑星軌道の長半径a、離心率e、元期における平均近点離角M0、黄道軌道面傾斜i、昇交点黄経Ω、及び近日点引数ωにより、ケブラー方程式等を解くことで、任意時点での惑星位置を算出できる。
As described above, the geocentric equator coordinates (red longitude α, declination δ) of the sun, the moon, and each planet and the respective visual positions from the local stellar time, that is, the time angle HA, the azimuth angle Az, and the altitude angle ψ are calculated. Output (step D10).
Here, the approximate formulas for the position of the sun, the moon, and the planet will also be explained.
The orbital position of the planet is determined by six orbital elements, ie, the major radius a of the planetary orbit, the eccentricity e, the average perihelion angle M0 in the original period, the ecliptic orbital plane inclination i, the ascending intersection longitude longitude Ω, and the perihelion argument ω. By solving the Kevlar equation, etc., the planetary position at an arbitrary time can be calculated.

ところで、軌道要素に基づく位置計算は2体問題に基づくものであるのに対し、実際の惑星の運動は純粋な2体問題ではなく、軌道要素が年月に連れて変化していくため、一般には次の書籍などに記載されているような惑星の位置略算式を用いて計算することが多い。
「新こよみ便利帳−天文現象・暦計算のすべて」(歴計算研究会編、恒星社厚生閣、1991/4)
「天体の位置計算 増補版」(長沢 工 著、地人書館、1985/09)
例えば、各惑星の日心黄経、日心黄緯、動径(太陽、月の場合には地心黄経、地心黄緯、距離)の項目毎に複数項の定数を記憶しておき、ユリウスの日(JD)またはユリウス世紀(T)などの時間毎に各定数を計算式に代入して複数項の計算を繰返して総和すると、各項目の近似値が比較的簡単且つ充分な精度で計算できる。
By the way, while the position calculation based on the orbital element is based on the two-body problem, the actual planetary motion is not a pure two-body problem, and the orbital element changes over time. Is often calculated using the approximate planetary position formulas described in the following books.
"New Koyomi Convenience Book-All of Astronomical Phenomena / Calendar Calculation" (History Calculation Study Group, Hoshiseisha Koseikaku, 1999/4)
"Astronomy position calculation augmented edition" (Takumi Nagasawa, Jinshokan, 1985/09)
For example, memorize multiple constants for each item of the day's meridian, the day's meridian, and the radius (in the case of the sun and the moon, the earth's longitude, the longitude, the distance). Substituting each constant into a formula for each time, such as Julian Day (JD) or Julian Century (T), and repeating the summation of multiple terms, the approximate value of each item is relatively simple and sufficient accuracy It can be calculated with

具体的には、ユリウス日をJD(=上述の準ユリウス日(MJD)+2400000.5)、歴表時を
ET=時+分/60+秒/3600-(±時差)−(±経度差/15°)
とすると、
T=(JD-245145.0)/36525.0+ET/(24*36525.0)
で求められる時間T(元期J2000.0=2000年1月1日正午からのユリウス世紀に相当)に対して、太陽、月、各惑星それぞれの黄経、黄緯、距離(動径)の各項目毎に、それぞれにA、T'、B、C(i=1〜n)等のn組の定数(但し、T'はTまたは1のいずれか)を予め記憶しておき、次式の近似計算式Sを順次計算してその総和Σを求めることで略算できる。すなわち
S=(A*T'*cos(B*T+C))
S=Σi(i=1~n)S
例えば、太陽の地心黄経λSの略算用の各定数は以下の通りである。
A1=36000.7695、T1=T、B1= 0、 C1= 0、
A2= 280.4659、T2=1、B2= 0、 C2= 0、
A3= 1.9147、T3=1、B3=35999.05、C3=267.52、
A4= 0.02 、T4=1、B4=71988.1、 C4=265.1、
A5= -0.0048、T5=T、B5= 0、 C5=268.0、
(以下、地心黄緯δ、地心距離r用の定数も含め、煩雑になるので略)
月の地心黄道座標(視黄経λ、視黄緯β、視距離r)も、太陽と同様の略算式と、各項目毎の略算用の定数A、T'、B、C(i=1〜n)により計算できる。
例えば、月の地心視黄経λの略算用の各定数は以下の通りである。
A1=481267.8809、T1=T、B1= 0、 C1= 0、
A2= 218.3162、T2=1、B2= 0、 C2= 0、
A3= 6.2888、T3=1、B3=477198.868、C3= 44.963、
A4= 1.274 、T4=1、B4=413335.35、 C4= 10.74、
A5= 0.6583、T5=1、B5=890534.22、 C5=145.7、
(以下、地心視黄緯δ、地心視距離r用の定数も含め、煩雑になるので略)
各惑星の日心黄道座標(黄経λ'、黄緯β'、動径r')も、太陽、月の地心黄道座標と同様の略算式
S=Σi(i=1~n)(A*T'*cos(B*T+C))
と、それぞれの惑星、各項目毎の略算用の定数A、T'、B、C(i=1〜n)を記憶しておくことで、計算できる。
Specifically, the Julian date is JD (= the above-mentioned quasi-Julian date (MJD) +2400000.5),
ET = hour + minute / 60 + second / 3600- (± time difference) − (± longitude difference / 15 °)
Then,
T = (JD-245145.0) /36525.0+ET/ (24 * 36525.0)
Of the sun, the moon, and each planet's meridian, longitude, and distance (radial) with respect to the time T required for the period T (Early J2000.0 = equivalent to the Julian century from noon on January 1, 2000) For each item, n sets of constants such as A i , T i ′, B i , C i (i = 1 to n) are stored in advance (where T i ′ is either T or 1). The approximate calculation formula S i of the following equation can be sequentially calculated to obtain the sum Σ i S i . Ie
S i = (A i * T i '* cos (B i * T + C i ))
S = Σ i (i = 1 ~ n) S i
For example, each constant for approximate calculation of the sun's geocentric longitude λ S is as follows.
A 1 = 36000.7695, T 1 = T, B 1 = 0, C 1 = 0,
A 2 = 280.4659, T 2 = 1, B 2 = 0, C 2 = 0,
A 3 = 1.9147, T 3 = 1, B 3 = 35999.05, C 3 = 267.52,
A 4 = 0.02, T 4 = 1, B 4 = 71988.1, C 4 = 265.1,
A 5 = -0.0048, T 5 = T, B 5 = 0, C 5 = 268.0,
(Hereinafter, including constants for the geocentric latitude δ S and the geocentric distance r S , it will be complicated and will be omitted.)
The geocentric ecliptic coordinates of the moon (visual ecliptic longitude λ M , visual ecliptic latitude β M , viewing distance r M ) are also calculated using the same approximate formula as the sun and constants A i , T i ′ for each item. It can be calculated by B i , C i (i = 1 to n).
For example, each constant for approximate calculation of lunar geocentric meridian λ M is as follows.
A 1 = 481267.8809, T 1 = T, B 1 = 0, C 1 = 0,
A 2 = 218.3162, T 2 = 1, B 2 = 0, C 2 = 0,
A 3 = 6.2888, T 3 = 1, B 3 = 477198.868, C 3 = 44.963,
A 4 = 1.274, T 4 = 1, B 4 = 413335.35, C 4 = 10.74,
A 5 = 0.6583, T 5 = 1, B 5 = 890534.22, C 5 = 145.7,
(Hereinafter, including constants for the geocentric visual latitude δ M and the geocentric visual distance r M are omitted because they become complicated)
Each planet's dicentric zodiac coordinates (longitudinal longitude λ ' P , declination β' P , radial r ' P ) are the same approximate equations as the sun and moon geocentric zodiac coordinates
S = Σ i (i = 1 to n) (A i * T i '* cos (B i * T + C i ))
The calculation can be performed by storing constants A i , T i ′, B i , and C i (i = 1 to n) for each planet and each item.

例えば、水星(Mercury)の日心黄経λ'P(Mercury)の略算用の各定数は以下の通りである。
A1=149474.07 、T1'=T、B1= 0、 C1= 0、
A2= 252.2502、T2'=1、B2= 0、 C2= 0、
A3= 23.4405、T3'=1、B3=149472.5153、C3= 84.7947、
A4= 2.9818、T4'=1、B4=298945.031、 C4=259.589、
A5= 0.5258、T5'=1、B5=448417.55、 C5= 74.38、
(以下、日心黄緯δ'P(Mercury)、日心動径r'P(Mercury)用の定数、及び他の惑星の定数も含め、煩雑になるので略)
上記の各位置略算式では、項数nを多く計算するほど精確な位置を求めることができるが、データメモリ59内の天体の位置座標データ、視位置計算データ等の記憶容量が少ない場合や、主制御回路37での演算速度が遅い場合、及び電子ファインダ22での表示分解能が低い場合には、本例のような概算用途であれば4〜5項程度でも充分な精度での概算が得られる。
For example, the constants for the approximate calculation of Mercury 's day heart meridian λ ′ P (Mercury) are as follows.
A 1 = 149474.07, T 1 '= T, B 1 = 0, C 1 = 0,
A 2 = 252.2502, T 2 '= 1, B 2 = 0, C 2 = 0,
A 3 = 23.4405, T 3 '= 1, B 3 = 149472.5153, C 3 = 84.7947,
A 4 = 2.9818, T 4 '= 1, B 4 = 298945.031, C 4 = 259.589,
A 5 = 0.5258, T 5 '= 1, B 5 = 448417.55, C 5 = 74.38,
(Hereinafter, including the constant for the diurnal latitude δ ' P (Mercury) , the constant for the radial center r' P (Mercury) , and the constants for other planets, it is abbreviated)
In each of the above approximate position formulas, an accurate position can be obtained as the number of terms n is increased. However, when the storage capacity of the position coordinate data of the celestial body, the visual position calculation data, etc. in the data memory 59 is small, If the calculation speed in the main control circuit 37 is slow and the display resolution in the electronic viewfinder 22 is low, an approximation with sufficient accuracy can be obtained even with about 4 to 5 terms for the approximate application as in this example. It is done.

以上のように探索範囲にある天体に関してすべての視位置の計算と記憶とを終えると、メインルーチンである図3に戻り、次いで撮影レンズ11、測光・測距センサ41と色温度検出部42、測光部43を用いて被写体像の光量と色温度に伴う露出設定及びホワイトバランス設定の各処理を実行する(ステップA10)。   When the calculation and storage of all the visual positions regarding the celestial bodies in the search range are completed as described above, the process returns to the main routine of FIG. Using the photometry unit 43, each process of exposure setting and white balance setting according to the light amount and color temperature of the subject image is executed (step A10).

合わせて、撮影レンズ11中のズームレンズ及びフォーカスレンズを必要により適宜移動させるズーム処理及びAF処理を実行した後(ステップA11)、撮像素子31で撮像し、画像メモリ35に保持している被写体像を電子ファインダ22にてスルー画像Pとして表示する(ステップA12)。 In addition, after performing zoom processing and AF processing for appropriately moving the zoom lens and focus lens in the photographing lens 11 as necessary (step A11), the subject image captured by the image sensor 31 and held in the image memory 35 the displayed as a through image P 0 at an electronic viewfinder 22 (step A12).

このとき、同時に天体撮影を行なうモードが設定されているか否かを判断する(ステップA13)。   At this time, it is determined whether or not a mode for performing astronomical photography is set (step A13).

天体撮影のモードが設定されていると判断した場合した場合にのみ、その時点での撮影レンズ11の焦点距離(f)と撮像素子31のサイズ(X’)、デジタルズーム倍率(Md)により電子ファインダ22で表示すべき被写体像の画角(θ)を算出する(ステップA14)。   Only when it is determined that the astrophotography mode is set, the electronic finder is determined based on the focal length (f) of the photographing lens 11 at that time, the size (X ′) of the image sensor 31 and the digital zoom magnification (Md). The angle of view (θ) of the subject image to be displayed at 22 is calculated (step A14).

その後、このデジタルカメラ10の向きと、上記ステップA14で算出した被写体像の画角(θ)に応じて、視野に入る各天体の像位置を計算し、天体視位置と天体情報を被写体像と重畳して電子ファインダ22により表示する(ステップA15)。   Thereafter, the image position of each celestial body entering the field of view is calculated according to the orientation of the digital camera 10 and the angle of view (θ) of the subject image calculated in step A14. The image is superimposed and displayed on the electronic viewfinder 22 (step A15).

図6(G)は、撮像素子31で撮像し、A/D変換器33、映像信号処理34で画像信号処理を施すことで得られるスルー画像の内容を例示するものである。   FIG. 6G illustrates the contents of a through image obtained by capturing an image with the image sensor 31 and performing image signal processing with the A / D converter 33 and the video signal processing 34.

一方で、上記図6(D)で示したシミュレーション画像に対し、図6(E)に示すように半透明化変換と文字データ、メモリ等の画像を付加した画像を生成することで、図6(F)に示すように天体の視位置シミュレーション画像Pを生成することができる。 On the other hand, as shown in FIG. 6E, an image obtained by adding an image such as translucent conversion and character data, memory, etc. to the simulation image shown in FIG. 6D is generated. it is possible to generate a position simulation image P 3 visual celestial as shown in (F).

この天体の視位置シミュレーション画像Pとスルー画像Pとを重畳することで、電子ファインダ22では図6(H)に示すような表示が実行される。なお、この図6(H)に示した画像例は、本実施の形態の説明を紙面で容易に行なうために明暗パターンを逆にしたものであるが、実際の電子ファインダ22では、図6(I)に示す如く夜景を対象とするものであるので全体を暗色で表示し、且つ天体を構成する恒星、月等を明色で表示することで、より自然な画像表示を実現する。 The celestial viewing position simulation by superimposing the image P 3 and the through image P 0, the display as shown in the electronic viewfinder 22 FIG 6 (H) is executed. Note that the image example shown in FIG. 6H is obtained by reversing the light and dark pattern in order to easily explain the present embodiment on paper, but in the actual electronic viewfinder 22, FIG. Since the object is a night view as shown in I), the whole is displayed in a dark color, and the stars, the moon, and the like constituting the celestial body are displayed in a bright color, thereby realizing a more natural image display.

図13は、このとき電子ファインダ22で表示される画像のより詳細な例を示すものである。同図では、電子ファインダ22の画面最上端で、電池残量I01、フラッシュマーク(発光禁止)I02、ホワイトバランスモード(太陽光)I03、撮影モードI04、画像サイズI05、画質I06、残り枚数I07を並列して表示する一方で、同画面最下端で現在位置(経度及び緯度)I08と現在日時I09とを表示している。   FIG. 13 shows a more detailed example of the image displayed on the electronic viewfinder 22 at this time. In the figure, at the top of the screen of the electronic viewfinder 22, the remaining battery level I01, flash mark (flash prohibited) I02, white balance mode (sunlight) I03, shooting mode I04, image size I05, image quality I06, and remaining number I07 are shown. While displaying in parallel, the current position (longitude and latitude) I08 and the current date and time I09 are displayed at the bottom end of the screen.

しかして、電子ファインダ22の中央を含む大部分で、天体の視位置シミュレーション画像と被写体像のスルー画像とを重畳した画像I10を表示する。合わせて、同画像I10の左端側で、撮影レンズ11の焦点距離I11とズーム倍率のスケール表示I12を、同右端側でデジタルカメラ10の仰角との指針と目盛I13を表示する。   Thus, an image I10 in which the visual position simulation image of the astronomical object and the through image of the subject image are superimposed is displayed in most parts including the center of the electronic viewfinder 22. In addition, on the left end side of the image I10, the focal length I11 of the taking lens 11 and the scale display I12 of the zoom magnification are displayed, and on the right end side, the pointer and the scale I13 of the elevation angle of the digital camera 10 are displayed.

重畳画像I10においては、その中央にフォーカス枠を兼ねる照準I14を表示し、左右方向の中央位置にデジタルカメラ10の方位角の指針と目盛I15とを表示する。加えて、天体の等高度線I16及び方位線I17を配した上で、各恒星や星座、あるいは太陽、月、惑星などの視位置を表示している。同図は、2005年7月22日の19時00分の東京から方位角340°、高度角20°の場合の表示例を示し、主要な星座や恒星等の名称を併せて表示することで、より見やすいものとすることができる。   In the superimposed image I10, an aim I14 that also serves as a focus frame is displayed at the center thereof, and an azimuth pointer and a scale I15 of the digital camera 10 are displayed at the center position in the left-right direction. In addition, constellation lines I16 and azimuth lines I17 of the celestial bodies are arranged, and the visual positions of each star, constellation, the sun, the moon, the planet, etc. are displayed. The figure shows an example of the display when the azimuth angle is 340 ° and the altitude angle is 20 ° from 19:00 on July 22, 2005, and the names of major constellations and stars are also displayed. , Can be easier to see.

なお、上記ステップA13で天体撮影モードが設定されていないと判断した場合には、上記のようにステップA14,A15の処理は行なわない。   If it is determined in step A13 that the astrophotography mode has not been set, steps A14 and A15 are not performed as described above.

その後、メインルーチンでは図4に進み、レリーズキー12の操作による撮影指示があるか否かを判断する(ステップA16)。   Thereafter, the main routine proceeds to FIG. 4, and it is determined whether or not there is a photographing instruction by operating the release key 12 (step A16).

ここでレリーズキー12の操作がないと判断した場合には、その他のキー処理を実行する一方で(ステップA17)、レリーズキー12が操作されたと判断した場合には、次いで天体撮影モードが設定されており、且つ単数、短時間(例えばB(バルブ)撮影または30[秒]未満)露光の撮影であるか否かを判断する(ステップA17)。   If it is determined that the release key 12 has not been operated, other key processing is executed (step A17). If it is determined that the release key 12 has been operated, then the astronomical mode is set. In addition, it is determined whether or not the shooting is for a short time (for example, B (bulb) shooting or less than 30 [seconds] exposure) (step A17).

天体撮影モードが設定され、且つ単数、短時間露光の撮影であると判断した場合には、一旦撮影レンズ11のシャッタ機構11bをあえて全閉として被写体像が撮像素子31上に全く入射しない状態で撮影(ダークフレーム撮影)してその画像データを画像データメモリ57に保持する(ステップA18)。   When the astronomical shooting mode is set and it is determined that the shooting is single and short exposure, the shutter mechanism 11b of the shooting lens 11 is once completely closed and the subject image is not incident on the image sensor 31 at all. Photographing (dark frame photographing) is performed, and the image data is held in the image data memory 57 (step A18).

その上で、今度はシャッタ機構11bを開けて設定された撮影条件に基づく撮影処理を実行する(ステップA19)。この撮影により得た画像データから、上記画像データメモリ57に保持しているダークフレーム撮影に基づく画像データを対応する各画素単位で減算することにより、個々の撮像素子31の画素構造に起因するノイズ成分を除去する処理を実行する(ステップA20)。   Then, this time, the shutter mechanism 11b is opened and a shooting process based on the set shooting conditions is executed (step A19). By subtracting the image data based on the dark frame shooting held in the image data memory 57 from the image data obtained by the shooting for each corresponding pixel, noise caused by the pixel structure of each image pickup device 31 is obtained. Processing for removing the component is executed (step A20).

このノイズ成分を除去した後の画像データを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化し、撮影条件や撮影時の天体情報等を添付してファイル化した上でメモリカード67に記録し(ステップA21)、以上で上記図3及び図4の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   The image data from which the noise component has been removed is compressed and encoded by the compression encoding / decompression decoding unit 56, and the memory card 67 is formed by attaching the shooting conditions and astronomical information at the time of shooting to a file. (Step A21), the above-described series of processing shown in FIGS. 3 and 4 is temporarily ended, and the processing returns to the initial processing to prepare for the next shooting.

また、上記ステップA17で天体撮影モードが設定されていないか、または設定されていても単数、短時間露出の撮影ではないと判断した場合には、次いで同じく天体撮影モードが設定されており、且つ複数枚の合成による長時間露光(多重露光)撮影であるか否かを判断する(ステップA22)。   If it is determined in step A17 that the astrophotography mode has not been set, or even if it has been set, the astrophotography mode has been set, It is determined whether or not long-time exposure (multiple exposure) shooting is performed by combining a plurality of sheets (step A22).

天体撮影モードが設定され、且つ複数枚の合成による長時間露光撮影が選択されていると判断した場合には、まず1回目の露光として予め設定されているシャッタ速度に従った短時間露光で撮影を実行した上で(ステップA23)、撮影時の天体の視位置を算出し(ステップA24)、算出した視位置に応じて撮影画像を回転処理した画像データを一旦画像データメモリ57に保持する(ステップA25)。   If it is determined that the astrophotography mode is set and long exposure shooting by combining a plurality of images is selected, shooting is first performed with short exposure according to a preset shutter speed as the first exposure. (Step A23), the visual position of the celestial body at the time of photographing is calculated (step A24), and image data obtained by rotating the photographed image according to the calculated visual position is temporarily held in the image data memory 57 (step A23). Step A25).

その上で、所定枚数分の撮影を終えたか否かを判断し(ステップA26)、終えていないと判断した場合には所定のインターバル時間だけ待機処理を行なった後に(ステップA27)、再び上記ステップA23に至って、同様の処理を繰返す。   Then, it is determined whether or not a predetermined number of images have been shot (step A26). If it is determined that the shooting has not ended, a standby process is performed for a predetermined interval time (step A27), and then the above step is performed again. At A23, the same processing is repeated.

以上、ステップA23〜A27の処理を設定された露光回数分だけ繰返し実行した後、ステップA26で所定枚数分の撮影を終えたと判断すると、その時点で画像データメモリ57に保持した一連の画像データを位置合わせした多重合成処理を実行し(ステップA28)、処理後の合成された画像データを圧縮符号化/伸長復号化部56によりデータ圧縮して符号化し、撮影条件や撮影時の天体情報等を添付してファイル化した上でメモリカード67に記録し(ステップA29)、以上で上記図3及び図4の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   As described above, after repeatedly executing the processing of steps A23 to A27 for the set number of exposures, if it is determined in step A26 that a predetermined number of images have been taken, a series of image data held in the image data memory 57 at that time is stored. Aligned multiple synthesis processing is executed (step A28), and the combined image data after processing is compressed and encoded by the compression encoding / decompression decoding unit 56, and imaging conditions, astronomical information at the time of imaging, and the like are recorded. The file is attached and recorded on the memory card 67 (step A29), and the above-described series of processes shown in FIGS. 3 and 4 are temporarily terminated, and the process returns to the initial process to prepare for the next shooting. .

また、上記ステップA22で天体撮影モードでの長時間露光(多重露光)撮影でもないと判断した場合には、天体撮影モードが設定されておらず、通常の撮影モードであることとなるので、レリーズキー12の操作に応じ、設定されている各種の撮影条件に基づいて撮影を実行した上で(ステップA30)、撮影により取得した画像データを圧縮符号化/伸長復号化部56によりデータ圧縮して符号化し、撮影条件や撮影時の天体情報等を添付してファイル化した上でメモリカード67に記録し(ステップA31)、以上で上記図3及び図4の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   If it is determined in step A22 that it is not long exposure (multiple exposure) shooting in the astrophotography mode, the astrophotography mode is not set and the normal shooting mode is set. In accordance with the operation of the key 12, shooting is performed based on various set shooting conditions (step A30), and the image data acquired by shooting is compressed by the compression encoding / decompression decoding unit 56. Encode, record the shooting conditions, astronomical information at the time of shooting, etc. and record it on the memory card 67 (step A31), and the series of processes in FIGS. Returning to the process from the beginning again to prepare for the next shooting.

このように、時刻と方位、現在位置等の周囲環境を指定することで位置関係を特定することが可能な天体を被写体を撮影する場合に、当該天体のモデルをスルー画像に重畳させてガイド画像として表示させることで、天体に不慣れなユーザであってもきわめて容易、且つ正確に所望する被写体をとらえて撮影を行なうことが可能となる。   In this way, when shooting a subject with a celestial object whose positional relationship can be specified by specifying the surrounding environment such as time, direction, and current position, the guide image is superimposed on the through image of the celestial model. Thus, even a user unfamiliar with the celestial body can capture a desired subject very easily and accurately.

なお、上記図13で示した電子ファインダ22での重畳画像I10の表示に代えて、図14に示すような半天図I20または全天図を表示するものとしてもよい。例えばこの図14では、所望の星座の方向を検索し、星座を一覧表示するために電子ファインダ22で半天図I20を表示した状態を示す。   Instead of displaying the superimposed image I10 on the electronic viewfinder 22 shown in FIG. 13, a half-sky map I20 or a full-sky map as shown in FIG. 14 may be displayed. For example, FIG. 14 shows a state in which the half celestial map I20 is displayed on the electronic finder 22 in order to search the direction of a desired constellation and display a list of constellations.

同図中、画面下部で現在位置I21(地名、経度、緯度)と現在日時I22(年、月、日、時、分、時差)を表示する一方で、画面の大部分を使って、地平線I23を直径とする半円状の半天図I20を表示する。地平線I23下には方位(東西南北)を表示すると共に、半円状の円弧の中央部を天頂とし、主要な恒星の固有名、星座名、及び星座を結ぶ線を表示している。   In the figure, the current position I21 (place name, longitude, latitude) and the current date and time I22 (year, month, day, hour, minute, time difference) are displayed at the bottom of the screen, while using the majority of the screen, the horizon I23 A semi-circular half-sky map I20 with a diameter of is displayed. The azimuth (east, west, north, and south) is displayed below the horizon I23, and the central part of the semicircular arc is the zenith, and the proper name, constellation name, and line connecting the constellations are displayed.

図15及び図16は、デジタルカメラ10の向き(方位角、仰角)に応じた天体位置の変位表示を例示するものである。これらの図は、2004年12月22日の19時00分の東京を例にとって示すものである。   15 and 16 exemplify the displacement display of the celestial body position according to the direction (azimuth angle, elevation angle) of the digital camera 10. These figures show an example of Tokyo on December 22, 2004 at 19:00.

図15(a)は、デジタルカメラ10の方位角θyaw=290°、仰角θpitch=+70°の時のデジタルカメラ10を所持したユーザUと天体との位置関係を示すものであり、このときにデジタルカメラ10の電子ファインダ22で表示される内容を図15(A)に示す。   FIG. 15A shows the positional relationship between the user U holding the digital camera 10 and the celestial body when the azimuth angle θyaw = 290 ° of the digital camera 10 and the elevation angle θpitch = + 70 °. The content displayed on the electronic viewfinder 22 of the camera 10 is shown in FIG.

同様に、図15(b)は、デジタルカメラ10の方位角θyaw=290°、仰角θpitch=+40°の時のデジタルカメラ10を所持したユーザUと天体との位置関係を示すものであり、このときにデジタルカメラ10の電子ファインダ22で表示される内容を図15(B)に示す。   Similarly, FIG. 15B shows the positional relationship between the user U who has the digital camera 10 and the celestial body when the azimuth angle θyaw = 290 ° of the digital camera 10 and the elevation angle θpitch = + 40 °. The content displayed on the electronic viewfinder 22 of the digital camera 10 is shown in FIG.

さらに、図16(c)は、デジタルカメラ10の方位角θyaw=290°、仰角θpitch=+20°の時のデジタルカメラ10を所持したユーザUと天体との位置関係を示すものであり、このときにデジタルカメラ10の電子ファインダ22で表示される内容を図16(C)に示す。   Further, FIG. 16C shows the positional relationship between the user U holding the digital camera 10 and the celestial body when the azimuth angle θyaw = 290 ° of the digital camera 10 and the elevation angle θpitch = + 20 °. FIG. 16C shows the contents displayed on the electronic viewfinder 22 of the digital camera 10.

このように、上記デジタルカメラ10の向きに応じて電子ファインダ22に表示する天体の視位置の方位、高度角を自動的に変えて表示できるものとなる。   As described above, the azimuth and altitude angle of the celestial body displayed on the electronic finder 22 can be automatically changed and displayed according to the orientation of the digital camera 10.

次いで図17乃至図19により上記デジタルカメラ10の向きとデジタルカメラ10の撮影レンズ11の焦点距離から電子ファインダ22で表示する天体の視位置を算出する場合の内容について説明する。   Next, the contents when the visual position of the celestial body displayed on the electronic viewfinder 22 is calculated from the orientation of the digital camera 10 and the focal length of the photographing lens 11 of the digital camera 10 will be described with reference to FIGS.

図17(A)に示す如く、XYZ空間において天体での視位置を、方位角Az、高度角(仰角)ψで表すものとする。このとき、図17(B)に示すようにデジタルカメラ10の向きをuvw空間(w軸がカメラ光軸)でθyaw、θpitch、θrollで表す。このうち、θrollがデジタルカメラ10を左右にも傾けた状態での角度を示す。   As shown in FIG. 17A, the viewing position on the celestial body in the XYZ space is represented by an azimuth angle Az and an altitude angle (elevation angle) ψ. At this time, as shown in FIG. 17B, the orientation of the digital camera 10 is expressed by θyaw, θpitch, and θroll in the uvw space (w axis is the camera optical axis). Of these, θroll indicates an angle in a state where the digital camera 10 is also tilted left and right.

上記視位置(方位角Az、高度角ψ)をuvw空間中でのカメラ座標に変換し、カメラの向き(θyaw、θpitch、θroll)に応じた像位置を算出する場合の内容を図18に示す。   FIG. 18 shows the contents in the case where the viewing position (azimuth angle Az, altitude angle ψ) is converted into camera coordinates in the uvw space, and the image position corresponding to the camera direction (θyaw, θpitch, θroll) is calculated. .

図18(A)はその側面図であり、上記Az、ψ、θpitchを用いてx,y,z,w,wxyを算出している。さらに図18(B)はその上面図であり、これらと上記θyawを基にu,v,u’,v’を算出している。 FIG. 18A is a side view thereof, and x, y, z, w, and w xy are calculated using the above Az, ψ, and θpitch. Further, FIG. 18B is a top view thereof, and u, v, u ′, and v ′ are calculated based on these and the above θyaw.

このようにして得られた算出結果に基づき、図19に示すように、撮像素子31の結像面または電子ファインダ22での表示座標(Sx,Sy)を次式を用いて求める。すなわち、
ur=u'cos(θroll)+v'sin(θroll)
vr=-u'sin(θroll)+v'cos(θroll)
Sx=Wv/2+ur
Sy=Hv/2−vr
となる。なお、撮影レンズ11による倒立像を電子ファインダ22では正立像で表示する。
Based on the calculation result thus obtained, display coordinates (Sx, Sy) on the imaging plane of the image sensor 31 or the electronic viewfinder 22 are obtained using the following equations, as shown in FIG. That is,
u r = u'cos (θ roll ) + v'sin (θ roll )
v r = -u'sin (θ roll ) + v'cos (θ roll )
Sx = Wv / 2 + u r
Sy = Hv / 2−v r
It becomes. Note that an inverted image by the photographing lens 11 is displayed as an erect image on the electronic viewfinder 22.

次に、図20により撮影レンズ11の焦点距離fと撮影画角θとの関係を示す。図20(A)に示すように、レンズの焦点距離fあるいは光学ズームの倍率Mを変えると、上記図19での表示位置の計算でも示したように、撮影レンズ11の撮影画角が変化するために、天体の表示位置や表示範囲が変わる。撮影レンズ11の結像面のイメージサイズをX’とすると、図示する如く
X'/2f=tan(θ/2)の関係により
撮像画角θ=2tan-1(X'/2f)
被写界範囲X=X'×L/f
となる。
Next, FIG. 20 shows the relationship between the focal length f of the photographing lens 11 and the photographing field angle θ. As shown in FIG. 20A, when the focal length f of the lens or the magnification M of the optical zoom is changed, the photographing field angle of the photographing lens 11 changes as shown in the calculation of the display position in FIG. Therefore, the display position and display range of celestial bodies change. Assuming that the image size of the imaging surface of the taking lens 11 is X ′, as shown in the figure.
Due to the relationship X '/ 2f = tan (θ / 2)
Imaging angle of view θ = 2tan -1 (X '/ 2f)
Field range X = X 'x L / f
It becomes.

なお、光学ズームではなくデジタルズーム機能の実行時には、撮影レンズ11での撮像画角は変わらないが、記録画角または電子ファインダ22視野での表示画角(θ’)は変化するため、デジタルズーム倍率をMd(Md≧1)とすると、
θ'=θ/M
となり、天体の視位置の狭い範囲が、電子ファインダ22ではMd倍に拡大して表示されることとなる。
Note that when the digital zoom function is executed instead of the optical zoom, the imaging field angle at the photographing lens 11 does not change, but the recording field angle or the display field angle (θ ′) in the field of view of the electronic viewfinder 22 changes. If Md (Md ≧ 1),
θ '= θ / M
Thus, a narrow range of the visual position of the celestial object is displayed enlarged on the electronic finder 22 by Md times.

上述の天体の視位置の電子ファインダ22上での表示位置も、上記撮影レンズ11の焦点距離f(または光学ズーム倍率M)だけでなく、デジタルズーム倍率Mdに合わせて、像位置P’(u’,v’)となる天体の視位置を
P’(Md*u’,Md*v’)
に相当する位置に変換して表示する必要がある。
The display position of the above-described astronomical viewing position on the electronic viewfinder 22 is not only the focal length f (or optical zoom magnification M) of the photographing lens 11 but also the image position P ′ (u ′) in accordance with the digital zoom magnification Md. , V ')
P ′ (Md * u ′, Md * v ′)
It is necessary to convert and display the position corresponding to.

図20(B)は、撮像素子31として1/2.5インチ型のCCDを用いた場合の横方向の画角を示すもので、焦点距離f[mm]、光学ズーム倍率M、デジタルズーム倍率Md、撮影画角θ[°]及び表示・記録画角θ’[°]の関係を例示する。   FIG. 20B shows a horizontal field angle when a 1 / 2.5 inch CCD is used as the image sensor 31. The focal length f [mm], the optical zoom magnification M, and the digital zoom magnification Md. The relationship between the shooting angle of view θ [°] and the display / recording angle of view θ ′ [°] is illustrated.

次いで、図21により焦点距離f(ズーム倍率M)及び画角に応じて、天体の視位置の表示画面の範囲が可変する状態を例示するものである。   Next, FIG. 21 illustrates a state in which the range of the display screen of the visual position of the astronomical object is variable according to the focal length f (zoom magnification M) and the angle of view.

図21(a)は焦点距離が6[mm](光学ズーム倍率1倍)、図21(b)は焦点距離が18[mm](光学ズーム倍率3倍)、図21(c)は焦点距離が30[mm](光学ズーム倍率5倍)の場合の電子ファインダ22の表示視野を左側のズーム倍率用のインジケータと共に示すものであり、図21(A)〜図21(C)はそれぞれ上記各焦点距離(光学ズーム倍率)における実際の表示内容を例示するものである。   21A shows a focal length of 6 mm (optical zoom magnification of 1), FIG. 21B shows a focal length of 18 mm (optical zoom magnification of 3 times), and FIG. 21C shows a focal length. FIG. 21A to FIG. 21C show the display field of view of the electronic viewfinder 22 together with an indicator for the zoom factor on the left side in the case where is 30 [mm] (optical zoom magnification of 5 times). The actual display content at the focal length (optical zoom magnification) is illustrated.

このように、撮影レンズ11でのズーム倍率を可変する操作を行なうことにより、撮影画角が可変することで、これに連動して電子ファインダ22で表示される範囲も自動的に可変設定されることとなる。   In this way, by performing an operation of changing the zoom magnification at the photographing lens 11, the photographing angle of view is varied, and the range displayed on the electronic viewfinder 22 is automatically variably set in conjunction with this. It will be.

最後に、図22によりファインダ視野に入る天体などの範囲の設定例を示す。
上記図3のステップA07、図9及び図10の天体視位置の計算処理において、すべての天体の視位置を計算して、その中から視野範囲に入る視位置の天体を表示するものとすると、デジタルカメラ10に備えられる主制御回路37が実行しなければならない計算の時間と量が膨大なものとなってしまう。そのため、予め視野範囲に入り得る天体のみを計算することとすれば、計算の時間と量を大幅に削減できる。
Finally, FIG. 22 shows an example of setting the range of a celestial body or the like that enters the viewfinder field.
In the calculation processing of astronomical positions in Step A07 of FIG. 3, FIG. 9 and FIG. 10, the visual positions of all astronomical objects are calculated, and the astronomical objects whose visual positions fall within the visual field range are displayed. The time and amount of calculation that the main control circuit 37 provided in the digital camera 10 must execute are enormous. Therefore, if only celestial bodies that can enter the field of view are calculated in advance, the time and amount of calculation can be greatly reduced.

図22によりそのような範囲を限定した計算を行なう場合について説明する。まず、図22(A)に示すように電子ファインダ22の視野FVを定義するものとする。すなわち、電子ファインダ22の横方向のサイズをWf、縦方向のサイズをHf、横画角をθ、縦画角をθ、対角画角をθとし、ファインダの四隅の各座標を図示のように定義するものとする。 The case where the calculation which limited such a range is performed is demonstrated by FIG. First, as shown in FIG. 22A, the field of view FV of the electronic viewfinder 22 is defined. That is, the horizontal size of the electronic viewfinder 22 is Wf, the vertical size is Hf, the horizontal angle of view is θ W , the vertical angle of view is θ H , the diagonal angle of view is θ D, and the coordinates of the four corners of the viewfinder are It shall be defined as shown.

図22(B)に示す如く、視野FVに天頂Zを含まない場合には、方位角Az、高度各ψが図中にハッチングで示した扇形の範囲にある赤道座標を次式
(θyaw-θ/2)≦Az≦(θyaw+θ/2)、且つ
(θpitch-√(θ 2 2)/2)≦ψ≦(θpitch+√(θ 2 2)/2)
により逆算して、その天体範囲のみを計算すればよい。
As shown in FIG. 22B, when the zenith Z is not included in the field of view FV, the equator coordinates in which the azimuth angle Az and altitude ψ are in the fan-shaped range shown by hatching in the figure are
(θyaw-θ W / 2) ≦ Az ≦ (θyaw + θ W / 2), and
(θpitch-√ (θ W 2 + θ H 2 ) / 2) ≦ ψ ≦ (θpitch + √ (θ W 2 + θ H 2 ) / 2)
To calculate only the celestial range.

また、図22(C)に示す如く、視野FVに天頂Zを含む場合には、同様に図中にハッチングで示した円形の範囲にある赤道座標を次式
(θpitch-√(θ 2 2)/2)≦ψ≦90°
により逆算して、その天体範囲のみを計算すればよい。
Further, as shown in FIG. 22C, when the field of view FV includes the zenith Z, the equator coordinates in the circular range shown by hatching in the figure are similarly expressed by the following equation.
(θpitch-√ (θ W 2 + θ H 2 ) / 2) ≦ ψ ≦ 90 °
To calculate only the celestial range.

なお、上記図22(B),(C)の場合にあって、デジタルズーム倍率Mdが1を越えている場合には、
θ=θ/Md、且つ
θ=θ/Md
であるものとして計算する必要がある。
In the case of FIGS. 22B and 22C, when the digital zoom magnification Md exceeds 1,
θ W = θ W / Md, and
θ H = θ H / Md
Need to be calculated as

こうして視野FVに入る可能性のある範囲のみ天体の計算を行なうことで、主制御回路37の負担を大幅に軽減することができる。   Thus, by calculating the celestial object only in the range that can enter the field of view FV, the burden on the main control circuit 37 can be greatly reduced.

以上、第1の実施の形態によれば、昼夜や天気、夜間でも周囲光が絶えない都会か否かなどの周囲環境を問わず、実際に肉眼では星が見えない状態であっても、デジタルカメラ10を向けた先にある星や星座を電子ファインダ22で簡単に見ることができる。   As described above, according to the first embodiment, a digital image can be obtained even when the star is not visible to the naked eye regardless of the surrounding environment such as daytime, weather, nighttime, or the surrounding environment. The star or constellation ahead of the camera 10 can be easily viewed with the electronic viewfinder 22.

また、天体マニアや天体写真家にとっても、周囲光が明るいなどの理由で星や星座を探し難い場合に、所望する対象が本来あるべき方向を簡単に視認することができる。   Also, for celestial enthusiasts and celestial photographers, when it is difficult to search for stars and constellations due to bright ambient light, it is possible to easily visually recognize the direction in which the desired target should originally be.

さらに、撮影対象となる星や星座の位置を確実に把握した上で撮影を開始することができるため、長時間露光や多重露光等の撮影を行なう場合の失敗を極力減少させることができる。   Furthermore, since the photographing can be started after the position of the star or constellation to be photographed is reliably grasped, the failure in photographing such as long exposure or multiple exposure can be reduced as much as possible.

(第2の実施の形態)
以下本発明をデジタルカメラに適用した場合の第2の実施の形態について図面を参照して説明する。
なお、その外観構成に関しては上記図1に示したものと、電子回路の構成については上記図2に示したものとそれぞれ基本的にほぼ同様であるので、同一部分には同一符号を用いるものとして、ここではその図示と説明とを省略する。
なお、データメモリ59には、全天の恒星図データが予め記憶されているものとする。
(Second Embodiment)
A second embodiment when the present invention is applied to a digital camera will be described below with reference to the drawings.
The appearance configuration is basically the same as that shown in FIG. 1 and the configuration of the electronic circuit is substantially the same as that shown in FIG. 2, so the same reference numerals are used for the same parts. Here, illustration and description thereof are omitted.
It is assumed that the star map data of the whole sky is stored in the data memory 59 in advance.

次に上記実施の形態の動作について説明する。
図23は、このデジタルカメラ10で天体撮影を行なう天体撮影モード時の処理内容を示すものであり、その制御動作は主として主制御回路37がプログラムメモリ58に記憶されている動作プログラムや定数等の固定データに基づいて実行する。
Next, the operation of the above embodiment will be described.
FIG. 23 shows the contents of processing in the astronomical photography mode in which astronomical photography is performed with this digital camera 10, and its control operation is mainly performed by the main control circuit 37 such as an operation program and constants stored in the program memory 58. Run based on fixed data.

その当初には、デジタルカメラ10の現在位置と日時、及び撮影レンズ11が対向している方向のデータを取得する(ステップE01)。   Initially, data on the current position and date and time of the digital camera 10 and the direction in which the photographing lens 11 faces is acquired (step E01).

現在位置及び日時のデータは、GPS受信アンテナ18を介して図示しない複数のGPS衛星からの到来電波によりGPSレシーバ50が経度、緯度、高度と現在時刻の情報として得られる。   The current position and date / time data is obtained as information on longitude, latitude, altitude, and current time by the GPS receiver 50 by means of incoming radio waves from a plurality of GPS satellites (not shown) via the GPS receiving antenna 18.

一方、デジタルカメラ10の向きのデータは、方位・3次元傾斜角センサ13からの検出信号を姿勢検出部49で処理することにより、デジタルカメラ10の方位、仰俯角、傾斜角などを表す情報として取得できる。   On the other hand, the orientation data of the digital camera 10 is processed as detection information from the azimuth / three-dimensional tilt angle sensor 13 by the posture detection unit 49, and is used as information representing the azimuth, elevation angle, tilt angle, and the like of the digital camera 10. You can get it.

次いで、電子ファインダ22で表示すべき視野の方位、高度角を計算する(ステップE02)。   Next, the azimuth and altitude angle of the visual field to be displayed on the electronic finder 22 are calculated (step E02).

こうして電子ファインダ22で表示する方位と高度角とが算出できると、上記取得した現在日時と視野範囲に該当する恒星の赤経、赤緯の範囲を計算する(ステップE03)。   When the azimuth and altitude angle displayed on the electronic viewfinder 22 can be calculated in this way, the range of the longitude and declination of the star corresponding to the acquired current date and field-of-view range is calculated (step E03).

図24(A)は、データメモリ59に記憶される全天の恒星図データの一部を例示するものである。すなわちデータメモリ59には、赤経(α:0〜24h)軸と赤緯(δ:−90°〜+90°)軸との天の赤道座標に対応付けて、恒星や星座の位置を記録した全天の恒星図データを予め用意しているものとする。   FIG. 24A illustrates a part of the star map data of the whole sky stored in the data memory 59. That is, in the data memory 59, the positions of stars and constellations are recorded in association with the celestial equator coordinates of the ecliptic (α: 0 to 24h) axis and the declination (δ: −90 ° to + 90 °) axis. It is assumed that the star map data for the whole sky is prepared in advance.

しかして、現在位置と現在日時に応じてこのデジタルカメラ10の現在の地方視恒星時(θ−経度λ)を計算し、またデジタルカメラ10の向き情報から求めた電子ファインダ22の視野FVの方位角(θyaw)と高度角(θpitch)、及び左右傾斜角(θroll)により、そのときの視野FVに入る恒星の赤経、赤緯の範囲、もしくは電子ファインダ22の視野FVの四隅の赤経、赤緯を逆算して求めることで、図24(B)に示すように視野FVに入る赤経、赤緯の恒星図の範囲を切出すことができる(ステップE04)。 Accordingly, the current local vision star time (θ G -longitude λ) of the digital camera 10 is calculated according to the current position and the current date and time, and the field of view FV of the electronic viewfinder 22 obtained from the orientation information of the digital camera 10 is calculated. Depending on the azimuth angle (θyaw), altitude angle (θpitch), and right / left tilt angle (θroll), the ascension of the star entering the field of view FV, the range of declination, or the ascension of four corners of the field of view FV of the electronic viewfinder 22 By calculating the declination backward, it is possible to cut out the range of the stellar map of the longitude and declination that falls within the field of view FV as shown in FIG. 24B (step E04).

こうして切出した恒星図の範囲に対し、座標系の向きと視野FVでの向きに応じて変形、拡大縮小、及び回転処理を施すことで、電子ファインダ22での表示に適した恒星図を得ることができる(ステップE05)。   A stellar map suitable for display on the electronic viewfinder 22 is obtained by performing deformation, enlargement / reduction, and rotation processing on the range of the stellar map thus cut out according to the direction of the coordinate system and the direction in the field of view FV. (Step E05).

さらに、この恒星図に対し、視野FV上での等方位線、及び等高度線の座標目盛りなどに合わせて座標変換または歪曲補正、伸縮補正を施すことで図24(C)に示すような恒星図のガイド表示を電子ファインダ22にて表示させることができる(ステップE06)。以上で上記図3及び図4の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   Further, the star map as shown in FIG. 24C is obtained by applying coordinate conversion, distortion correction, and expansion / contraction correction to the star map according to the coordinate scale of the iso-azimuth line and iso-altitude line on the field of view FV. The guide display shown in the figure can be displayed on the electronic viewfinder 22 (step E06). Thus, the series of processes shown in FIGS. 3 and 4 are temporarily ended, and the process returns to the initial process to prepare for the next shooting.

このように本第2の実施の形態によれば、上記第1の実施の形態のように、視野に入るすべての天体の視位置を天文計算により得るようなことをせずとも、例えば視野の四隅位置の座標など、視野の範囲を規定する天体の赤道座標を逆算して求めるだけでよいので、計算量や計算時間を極力少ないものとして、多数の天体の視位置を比較的簡易に表示させることが可能となる。   As described above, according to the second embodiment, the visual positions of all the celestial bodies that enter the visual field are not obtained by astronomical calculation as in the first exemplary embodiment. It is only necessary to calculate the equatorial coordinates of the celestial body that defines the range of the field of view, such as the coordinates of the four corner positions, so that the visual position of many celestial bodies can be displayed relatively easily with the least amount of calculation and calculation time. It becomes possible.

なお、予めデータメモリ59に記憶しておく恒星図のデータは、赤経/赤緯の直交座標ずに代えて、等積図法、等距図法、等角図法などにより投影作図した天球図データとして記憶しておき、必要な範囲を切出した後の変換や変形に要する処理をより簡易化することもできる。   The star map data stored in advance in the data memory 59 is celestial map data projected and projected by means of isometric, equidistant, isometric, etc. The processing required for conversion and transformation after extracting the necessary range can be simplified.

(第3の実施の形態)
以下本発明をデジタルカメラに適用した場合の第3の実施の形態について図面を参照して説明する。
(Third embodiment)
A third embodiment when the present invention is applied to a digital camera will be described below with reference to the drawings.

なお、その外観構成に関しては上記図1に示したものと、電子回路の構成については上記図2に示したものとそれぞれ基本的にほぼ同様であるので、同一部分には同一符号を用いるものとして、ここではその図示と説明とを省略する。   The appearance configuration is basically the same as that shown in FIG. 1 and the configuration of the electronic circuit is substantially the same as that shown in FIG. 2, so the same reference numerals are used for the same parts. Here, illustration and description thereof are omitted.

次に上記実施の形態の動作について説明する。
図25及び図26は、このデジタルカメラ10で太陽または月の視位置に基づく撮影制御の処理内容を示すものであり、その制御動作は主として主制御回路37がプログラムメモリ58に記憶されている動作プログラムや定数等の固定データに基づいて実行する。
Next, the operation of the above embodiment will be described.
FIG. 25 and FIG. 26 show the processing contents of the imaging control based on the viewing position of the sun or the moon in this digital camera 10, and the control operation is mainly the operation in which the main control circuit 37 is stored in the program memory 58. Execute based on fixed data such as programs and constants.

その当初には、撮影モードや撮影条件等をユーザが任意に設定する(ステップF01)。   Initially, the user arbitrarily sets the shooting mode, shooting conditions, and the like (step F01).

この設定に基づき、屋外撮影で、且つ天体の視位置による撮影を行なう天体撮影モードが設定されたか否かを判断する(ステップF02)。ここで天体撮影モードが設定されていないと判断した場合には、その設定された内容に応じた他の撮影処理を実行するが(ステップF03)、本実施の形態の動作とは直接関係しないために、その説明は省略する。   Based on this setting, it is determined whether or not an astronomical photography mode for photographing in the outdoor photography and using the visual position of the celestial object is set (step F02). If it is determined that the astronomical shooting mode is not set, another shooting process is executed according to the set content (step F03), but is not directly related to the operation of the present embodiment. The description is omitted.

一方、上記ステップF02で天体撮影モードが設定されたと判断すると、次にこのデジタルカメラ10の現在位置を入力するか、あるいは自動的な測位処理を行なう(ステップF03)。   On the other hand, if it is determined in step F02 that the astrophotography mode has been set, the current position of the digital camera 10 is input next, or automatic positioning processing is performed (step F03).

図5は、GPSを用いた自動的な測位処理の内容を示すサブルーチンであり、その当初には、GPSレシーバ50がすでに起動されて動作中であるか否かを判断する(ステップB01)。   FIG. 5 is a subroutine showing the contents of automatic positioning processing using GPS. At the beginning, it is determined whether or not the GPS receiver 50 is already activated and operating (step B01).

ここで、まだ起動されておらず動作中ではないと判断した場合にのみ、あらためてGPSレシーバ50での動作を起動させ(ステップB02)、その後起動が完了して測位が可能となるのを待機する(ステップB03)。   Here, only when it is determined that the GPS receiver 50 has not been started yet and is not operating, the operation of the GPS receiver 50 is started again (step B02), and then the system waits for completion of the start and positioning. (Step B03).

このステップB03で起動が完了したと判断した場合、もしくは上記ステップB01ですでに起動されていると判断した場合に、次いでGPS受信アンテナ18を用いて複数のGPS衛星からの到来電波を受信し、まず測位信号中の疑似乱数列PRN(Pseudo−Ramdom Noise)によるコードを受信復調して疑似距離を計測する(ステップB04)。   If it is determined in step B03 that activation has been completed, or if it is determined in step B01 that it has already been activated, then the incoming radio waves from a plurality of GPS satellites are received using the GPS receiving antenna 18, First, a pseudo distance is measured by receiving and demodulating a code based on a pseudo random number sequence PRN (Pseudo-Random Noise) in the positioning signal (step B04).

次いで、各GPS衛星の天体歴情報、及び起動データを取得し(ステップB05)、各GPS衛星の位置及び現在位置からの距離を算出する(ステップB06)。   Next, astronomical history information and activation data of each GPS satellite are acquired (step B05), and the position of each GPS satellite and the distance from the current position are calculated (step B06).

そして、この算出結果から、現在デジタルカメラ10が位置している正確な3次元座標、すなわち経度λ、緯度φ、及び高度hを現在時刻と共に算出する(ステップB07)。   Then, from this calculation result, accurate three-dimensional coordinates where the digital camera 10 is currently located, that is, longitude λ, latitude φ, and altitude h are calculated together with the current time (step B07).

これら各座標値に基づき、測地系座標への変換処理を行ない(ステップB08)、結果としてこのデジタルカメラ10の位置する現在位置を取得して、主制御回路37へ出力し(ステップB09)、以上で図5のサブルーチンを終了する。   Based on these coordinate values, conversion processing to geodetic system coordinates is performed (step B08). As a result, the current position where the digital camera 10 is located is acquired and output to the main control circuit 37 (step B09). Then, the subroutine of FIG. 5 is finished.

図25のメインルーチンでは、ステップF03での測位処理に続き、太陽及び月を探索すべき天体として、その赤道座標(赤経α、赤緯δ)を計算または設定により取得する(ステップF05)。   In the main routine of FIG. 25, following the positioning process in step F03, the equatorial coordinates (red longitude α, declination δ) are obtained by calculation or setting as the celestial bodies to search for the sun and the moon (step F05).

太陽及び月の赤道座標の計算に関しては、上記図10及び図11でも説明したように、まず計算日時(YY/MM/DD、hh/mm/ss)及びグリニッジ標準時刻GMTとの時差TDを入力する(ステップD02)。   Regarding the calculation of the equatorial coordinates of the sun and the moon, as described in FIG. 10 and FIG. 11 above, first, the calculation date and time (YY / MM / DD, hh / mm / ss) and the time difference TD from the Greenwich Mean Time GMT are input. (Step D02).

合わせて、太陽、月の地心黄道座標を算出する。太陽の赤道座標は、日々の変化は小さいので頻繁に計算する必要がない一方で、約1年で黄道12星座の中を一周するので、季節による変化は大きい。   In addition, the geocentric ecliptic coordinates of the sun and the moon are calculated. The sun's equatorial coordinates do not need to be calculated frequently because the daily changes are small. On the other hand, the equatorial coordinates of the sun go around the zodiac 12 constellations in about one year, so the changes due to the seasons are large.

太陽の赤道座標は、まず後述の位置略算式等を用いて、地球を中心とする太陽の地心黄道座標(黄経λ、黄緯β、距離r)を求める。求めた地心の黄道座標を、次式
U=cosβ*cosλ
V=cosβ*sinλ*cose-sinβ*sine
(但し、黄道傾斜角e=23.43929。)
W=cosβ*sinλ*sine+sinβ*cose
α=tan-1(V/U)
δ=sin-1(W)
により地心の赤道座標(赤経α,赤緯δ)に変換する。
For the sun's equatorial coordinates, first, the sun's geocentric ecliptic coordinates (yellow longitude λ S , longitude latitude β S , distance r S ) with the earth as the center are obtained using a position approximate expression described later. The calculated zodiac coordinates of the geocenter
U = cosβ * cosλ
V = cosβ * sinλ * cose-sinβ * sine
(However, the ecliptic inclination angle e = 23.43929.)
W = cosβ * sinλ * sine + sinβ * cose
α = tan -1 (V / U)
δ = sin -1 (W)
To convert to the equatorial coordinates of the center (red longitude α, declination δ).

月は、地球を約1日で一周する軌道を回っているので、その赤道座標の変化が大きく、短時間毎に更新計算する必要がある。同様に、月の位置略算式を用いて、月の地心黄道座標(黄経λ、黄緯β、距離r)を求める。求めた地心の黄道座標を、上記太陽の場合と同様に月の地心赤道座標(赤経α,赤緯δ)に変換する。 Since the moon is orbiting around the earth in about one day, its equatorial coordinates change greatly, and it is necessary to perform update calculations every short time. Similarly, the geocentric zodiacal coordinates (yellow longitude λ M , longitude latitude β M , distance r M ) of the moon are obtained using the approximate lunar position formula. The determined ecliptic coordinates of the geocentric are converted into the lunar equatorial coordinates (red longitude α, declination δ) in the same manner as in the case of the sun.

こうして太陽及び月の赤道座標を取得すると、次に方位・3次元傾斜角センサ13、姿勢検出部49を用いてこのデジタルカメラ10の向き(方位、仰俯角、傾斜角など)を検出する(ステップF06)。   When the equatorial coordinates of the sun and the moon are thus obtained, the orientation (azimuth, elevation angle, inclination angle, etc.) of the digital camera 10 is then detected using the azimuth / three-dimensional inclination angle sensor 13 and the posture detection unit 49 (step) F06).

次いで、デジタルカメラ10の現在位置と、上記取得した探索天体である太陽及び月の赤道座標とにより、探索する天体の視位置すなわち方位角Az、高度角ψを算出する(ステップF07)。   Next, the visual position of the celestial body to be searched, that is, the azimuth angle Az and the altitude angle ψ is calculated from the current position of the digital camera 10 and the equatorial coordinates of the sun and the moon that are the acquired search celestial bodies (step F07).

太陽及び月地心赤道座標(赤経α,赤緯δ)からそれぞれの視位置、すなわち時角HA、方位角Az、及び高度角ψを計算する際の略算式について説明する。
惑星の軌道位置は、6つの軌道要素、すなわち惑星軌道の長半径a、離心率e、元期における平均近点離角M0、黄道軌道面傾斜i、昇交点黄経Ω、及び近日点引数ωにより、ケブラー方程式等を解くことで、任意時点での惑星位置を算出できる。
A description will be given of approximate equations for calculating the respective visual positions, that is, the time angle HA, the azimuth angle Az, and the altitude angle ψ from the sun and the lunar center equator coordinates (red longitude α, declination δ).
The orbital position of the planet is determined by six orbital elements, ie, the major radius a of the planetary orbit, the eccentricity e, the average perihelion angle M0 in the original period, the ecliptic orbital plane inclination i, the ascending intersection longitude longitude Ω, and the perihelion argument ω. By solving the Kevlar equation, etc., the planetary position at an arbitrary time can be calculated.

ところで、軌道要素に基づく位置計算は2体問題に基づくものであるのに対し、実際の惑星の運動は純粋な2体問題ではなく、軌道要素が年月に連れて変化していくため、一般には次の書籍などに記載されているような惑星の位置略算式を用いて計算することが多い。
「新こよみ便利帳−天文現象・暦計算のすべて」(歴計算研究会編、恒星社厚生閣、1991/4)
「天体の位置計算 増補版」(長沢 工 著、地人書館、1985/09)
例えば、太陽、月の地心黄経、地心黄緯、距離の項目毎に複数項の定数を記憶しておき、ユリウスの日(JD)またはユリウス世紀(T)などの時間毎に各定数を計算式に代入して複数項の計算を繰返して総和すると、各項目の近似値が比較的簡単且つ充分な精度で計算できる。
By the way, while the position calculation based on the orbital element is based on the two-body problem, the actual planetary motion is not a pure two-body problem, and the orbital element changes over time. Is often calculated using the approximate planetary position formulas described in the following books.
"New Koyomi Convenience Book-All of Astronomical Phenomena / Calendar Calculation" (History Calculation Study Group, Hoshiseisha Koseikaku, 1999/4)
"Astronomy position calculation augmented edition" (Takumi Nagasawa, Jinshokan, 1985/09)
For example, a plurality of constants are stored for each item of the sun, the lunar longitude of the sun, the lunar latitude, and the distance, and each constant for each time such as Julian Day (JD) or Julian Century (T). By substituting into the calculation formula and repeating the summation of a plurality of terms, the approximate value of each item can be calculated with relatively simple and sufficient accuracy.

具体的には、ユリウス日をJD(=上述の準ユリウス日(MJD)+2400000.5)、歴表時を
ET=時+分/60+秒/3600-(±時差)−(±経度差/15°)
とすると、
T=(JD-245145.0)/36525.0+ET/(24*36525.0)
で求められる時間T(元期J2000.0=2000年1月1日正午からのユリウス世紀に相当)に対して、太陽及び月の黄経、黄緯、距離の各項目毎に、それぞれにA、T'、B、C(i=1〜n)等のn組の定数(但し、T'はTまたは1のいずれか)を予め記憶しておき、次式の近似計算式Sを順次計算してその総和Σを求めることで略算できる。すなわち
S=(A*T'*cos(B*T+C))
S=Σi(i=1~n)S
例えば、太陽の地心黄経λSの略算用の各定数は以下の通りである。
A1=36000.7695、T1=T、B1= 0、 C1= 0、
A2= 280.4659、T2=1、B2= 0、 C2= 0、
A3= 1.9147、T3=1、B3=35999.05、C3=267.52、
A4= 0.02 、T4=1、B4=71988.1、 C4=265.1、
A5= -0.0048、T5=T、B5= 0、 C5=268.0、
(以下、地心黄緯δ、地心距離r用の定数も含め、煩雑になるので略)
月の地心黄道座標(視黄経λ、視黄緯β、視距離r)も、太陽と同様の略算式と、各項目毎の略算用の定数A、T'、B、C(i=1〜n)により計算できる。
例えば、月の地心視黄経λの略算用の各定数は以下の通りである。
A1=481267.8809、T1=T、B1= 0、 C1= 0、
A2= 218.3162、T2=1、B2= 0、 C2= 0、
A3= 6.2888、T3=1、B3=477198.868、C3= 44.963、
A4= 1.274 、T4=1、B4=413335.35、 C4= 10.74、
A5= 0.6583、T5=1、B5=890534.22、 C5=145.7、
(以下、地心視黄緯δ、地心視距離r用の定数も含め、煩雑になるので略)
上記の各位置略算式では、項数nを多く計算するほど精確な位置を求めることができるが、データメモリ59内の天体の位置座標データ、視位置計算データ等の記憶容量が少ない場合や、主制御回路37での演算速度が遅い場合、及び電子ファインダ22での表示分解能が低い場合には、本例のような概算用途であれば4〜5項程度でも充分な精度での概算が得られる。
Specifically, the Julian date is JD (= the above-mentioned quasi-Julian date (MJD) +2400000.5),
ET = hour + minute / 60 + second / 3600- (± time difference) − (± longitude difference / 15 °)
Then,
T = (JD-245145.0) /36525.0+ET/ (24 * 36525.0)
For each item of the longitude, longitude, and distance of the sun and the moon for the time T calculated in (J2000.0 = equivalent to the Julian century from 1 noon on January 1, 2000) n sets of constants (where T i ′ is either T or 1) such as i , T i ′, B i , C i (i = 1 to n) are stored in advance, and approximate calculation of the following equation This can be roughly calculated by sequentially calculating the equation S i and obtaining the sum Σ i S i thereof. Ie
S i = (A i * T i '* cos (B i * T + C i ))
S = Σ i (i = 1 ~ n) S i
For example, each constant for approximate calculation of the sun's geocentric longitude λ S is as follows.
A 1 = 36000.7695, T 1 = T, B 1 = 0, C 1 = 0,
A 2 = 280.4659, T 2 = 1, B 2 = 0, C 2 = 0,
A 3 = 1.9147, T 3 = 1, B 3 = 35999.05, C 3 = 267.52,
A 4 = 0.02, T 4 = 1, B 4 = 71988.1, C 4 = 265.1,
A 5 = -0.0048, T 5 = T, B 5 = 0, C 5 = 268.0,
(Hereinafter, including constants for the geocentric latitude δ S and the geocentric distance r S , it will be complicated and will be omitted.)
The geocentric ecliptic coordinates of the moon (visual ecliptic longitude λ M , visual ecliptic latitude β M , viewing distance r M ) are also calculated using the same approximate formula as the sun and constants A i , T i ′ for each item. It can be calculated by B i , C i (i = 1 to n).
For example, each constant for approximate calculation of lunar geocentric meridian λ M is as follows.
A 1 = 481267.8809, T 1 = T, B 1 = 0, C 1 = 0,
A 2 = 218.3162, T 2 = 1, B 2 = 0, C 2 = 0,
A 3 = 6.2888, T 3 = 1, B 3 = 477198.868, C 3 = 44.963,
A 4 = 1.274, T 4 = 1, B 4 = 413335.35, C 4 = 10.74,
A 5 = 0.6583, T 5 = 1, B 5 = 890534.22, C 5 = 145.7,
(Hereinafter, including constants for the geocentric visual latitude δ M and the geocentric visual distance r M are omitted because they become complicated)
In each of the above approximate position formulas, an accurate position can be obtained as the number of terms n is increased. However, when the storage capacity of the position coordinate data of the celestial body, the visual position calculation data, etc. in the data memory 59 is small, If the calculation speed in the main control circuit 37 is slow and the display resolution in the electronic viewfinder 22 is low, an approximation with sufficient accuracy can be obtained even with about 4 to 5 terms for the approximate application as in this example. It is done.

以上のように探索天体である太陽及び月に関して視位置の計算を終えると、メインルーチンである図25に戻り、算出した各視位置のデータをデータメモリ59に記憶する(ステップF08)。   When the calculation of the visual position regarding the sun and the moon as search objects is completed as described above, the process returns to FIG. 25 which is the main routine, and the data of each calculated visual position is stored in the data memory 59 (step F08).

次いで、撮影レンズ11中のズームレンズ及びフォーカスレンズを必要により適宜移動させるズーム処理及びAF処理を実行した後(ステップF09)、撮像素子31で撮像し、画像メモリ35に保持している被写体像を電子ファインダ22にてスルー画像として表示する(ステップF10)。   Next, after performing zoom processing and AF processing for appropriately moving the zoom lens and the focus lens in the photographing lens 11 as necessary (step F09), the subject image captured by the image sensor 31 and held in the image memory 35 is captured. The image is displayed as a through image on the electronic viewfinder 22 (step F10).

このとき、その時点での撮影レンズ11の焦点距離(f)と撮像素子31のサイズ(X’)、及びデジタルズーム倍率(Md)により電子ファインダ22で表示すべき被写体像の撮影画角(θ)を算出する(ステップF11)。
なお、当該画角θは、次式
撮影画角θ=2tan-1(X'/2f)
表示及び記録画角θ'=θ/Md
で求められる。
At this time, the photographing field angle (θ) of the subject image to be displayed on the electronic viewfinder 22 based on the focal length (f) of the photographing lens 11 at that time, the size (X ′) of the image sensor 31, and the digital zoom magnification (Md). Is calculated (step F11).
The angle of view θ is expressed by the following equation:
Shooting angle of view θ = 2tan -1 (X '/ 2f)
Display and recording angle of view θ '= θ / Md
Is required.

こうして得た結果に基づき、カメラの向きと画角に対して、探索天体(太陽の視位置が視野内か、あるいは視野の近傍にあるか否か、その程度を判別した上で(ステップF12)、視野中心から所定角度1以内にあるか否かを判断する(ステップF13)。   Based on the results thus obtained, the degree of search astronomical object (whether or not the viewing position of the sun is in the field of view or in the vicinity of the field of view) is determined with respect to the direction and angle of view of the camera (step F12). Then, it is determined whether or not the angle is within a predetermined angle 1 from the center of the visual field (step F13).

図27(A)は、探索天体である太陽と被写体、及びデジタルカメラ10の相対位置関係を示すもので、太陽の方位角Az、高度角ψが、カメラの向き(方位θyaw、仰角θpitch)と上記表示画角θ’に対して、下記所定角1が例えば「θ'/2+ε」であるものとして、第1の条件、
Az−θyaw≦所定角1、且つ
ψ−θpitch≦所定角1
が成り立つか否かにより、被写体を撮影した場合に探索天体の影響を受ける可能性があるか否かを判断する。
FIG. 27A shows the relative positional relationship between the sun, which is a search object, the subject, and the digital camera 10, and the azimuth angle Az and altitude angle ψ of the sun are the camera orientation (azimuth θ yaw, elevation angle θ pitch). Assuming that the predetermined angle 1 below is, for example, “θ ′ / 2 + ε” with respect to the display field angle θ ′, the first condition,
Az−θyaw ≦ predetermined angle 1 and
ψ−θpitch ≦ predetermined angle 1
It is determined whether or not there is a possibility of being affected by the search object when the subject is photographed.

ここで所定角度1以内にあると判断した場合にのみ、太陽、満月などの当該天体が被写体を含む視野内または視野近傍にあるものとして、例えば電子ファインダ22にて
「太陽が視野内または近くにありますので注意して下さい」
のような文字列によるガイドメッセージを表示することで、デジタルカメラ10のユーザに対して警告を行ない、肉眼や撮像素子31の損傷、撮影の失敗等を未然に防ぐものとする。
Only when it is determined that the angle is within the predetermined angle 1, the object such as the sun or the full moon is assumed to be in or near the visual field including the subject.
"Be careful because the sun is in or near the field of view"
By displaying a guide message using such a character string, a warning is given to the user of the digital camera 10 to prevent damage to the naked eye or the image sensor 31, failure of photographing, or the like.

その後、上記ステップF14の処理の実行の有無に拘わらず、映像信号処理34で実行するホワイトバランス処理のために、太陽の高度角に応じた色温度となるようホワイトバランスの設定を行なう(ステップF15)。   Thereafter, regardless of whether or not the process in step F14 is executed, the white balance is set so that the color temperature corresponds to the altitude angle of the sun for the white balance process executed in the video signal process 34 (step F15). ).

図27(B)は、一日における太陽の高度角の変化と、設定するホワイトバランスの色温度との関係を示すものである。通常の屋外、晴天下で撮影を行なう場合、太陽の高度によって太陽光源の色温度が変化し、朝夕などの高度角が低く、地平線に近い状態では、光源の色温度が2000〜3000K(ケルビン)と低くなるので、やや赤みがかって撮影されてしまう。   FIG. 27B shows the relationship between the change in the altitude angle of the sun during the day and the color temperature of the white balance to be set. When shooting outdoors or in fine weather, the color temperature of the solar light source changes depending on the altitude of the sun, and the color temperature of the light source is 2000 to 3000 K (Kelvin) when the altitude angle is low such as morning and evening and is close to the horizon. Because it becomes low, it will be taken a little reddish.

反対に、真昼など太陽高度が高く、天頂に近い場合には、高原の色温度が5000〜6700(ケルビン)と高くなるので、やや青みがかって撮影されてしまう。   On the other hand, when the solar altitude is high such as noon and close to the zenith, the color temperature of the plateau becomes as high as 5000 to 6700 (Kelvin), so the image is taken a little bluish.

したがって、太陽の高度角ψに基づいて、季節や時刻、地域により太陽の高度が変化した場合でも、太陽の高度角に対応する色温度となるようにホワイトバランスを自動的に設定し、映像信号処理34における画像信号の各原色のRGB成分、あるいは色差のCb,Cr成分の等の利得を調整することにより、容易にホワイトバランス調整を実行して、太陽高度の影響を排除した設定を行なうことができるものとなる。   Therefore, based on the sun altitude angle ψ, even if the sun altitude changes depending on the season, time, and region, the white balance is automatically set so that the color temperature corresponds to the sun altitude angle. The white balance adjustment is easily performed by adjusting the gains of the RGB components of the primary colors of the image signal or the Cb and Cr components of the color differences in the processing 34, and the setting is made to eliminate the influence of the solar altitude. Will be able to.

その後、レリーズキー12の操作による撮影指示があるか否かを判断する(ステップF16)。   Thereafter, it is determined whether or not there is a shooting instruction by operating the release key 12 (step F16).

ここでレリーズキー12の操作がないと判断した場合には、上記ステップF06からの処理に戻って、同様の処理を繰返し実行する一方で、レリーズキー12が操作されたと判断した場合には、次いで太陽、満月などの天体が視野の近く、すなわち視野中心から正逆各方向に逆光角度2の範囲内にあるか否かを第2の条件として、逆光補正が必要か否かを判断する(ステップF17)。   If it is determined that the release key 12 is not operated, the process returns to the process from step F06 and the same process is repeatedly executed. On the other hand, if it is determined that the release key 12 is operated, Whether or not a celestial body such as the sun or the full moon is near the field of view, that is, whether or not it is within the range of the backlight angle 2 in the forward and backward directions from the center of the field of view, determines whether the backlight correction is necessary (step) F17).

この第2の条件は、具体的には所定各2を例えば45°として
|Az−θyaw|≦所定角2
が成り立つか否かを演算により判断する。
Specifically, the second condition is that each predetermined 2 is 45 °, for example.
| Az−θyaw | ≦ predetermined angle 2
It is determined by calculation whether or not

逆光補正が必要であると判断した場合には、逆光用の測光及び露出条件を設定するべく、例えば自動的に撮像エリアの中央を重点的にスポット測光して露光値を計測する(ステップF18)。   When it is determined that the backlight correction is necessary, in order to set the light metering and exposure conditions for the backlight, for example, the exposure value is measured by automatically spot metering the center of the imaging area (step F18). .

次いで、逆光用の撮影条件であるものとした撮影処理を実行する(ステップF19)。   Next, a photographing process is performed assuming that the photographing condition is for backlight (step F19).

この場合には、+1〜2[EV]程度の露出補正をかける、デイライトシンクロ機能により強制的にポップアップ式内蔵フラッシュ16を閃光駆動する、等の方法のいずれかを実行するもので、これにより背景のみが適正な露出で主要な被写体が所謂「黒つぶれ」を起こしてしまうような事態を回避する。   In this case, one of the methods such as applying exposure correction of about +1 to 2 [EV], forcibly driving the pop-up built-in flash 16 by the daylight sync function, etc. is executed. This avoids a situation in which only the background is properly exposed and the main subject causes the so-called “blackout”.

しかして、撮影により得た画像データを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化し、撮影条件や撮影時の天体情報等を添付してファイル化した上でメモリカード67に記録し(ステップF20)、以上で上記図25及び図26の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   Then, the image data obtained by shooting is compressed and encoded by the compression encoding / decompression decoding unit 56, and the shooting conditions, astronomical information at the time of shooting, etc. are attached to a file and stored in the memory card 67. Recording is performed (step F20), and the series of processes shown in FIGS. 25 and 26 is temporarily ended, and the process returns to the start from the beginning to prepare for the next shooting.

また、上記ステップF17で逆光補正は必要ないと判断した場合には、そのまま通常の測光処理、例えばマルチエリア測光等により露光値を計測する(ステップF21)。   On the other hand, if it is determined in step F17 that backlight correction is not necessary, the exposure value is directly measured by normal photometry processing, for example, multi-area photometry (step F21).

次いで、予め上記ステップF01で設定された撮影条件に従った撮影処理を実行し(ステップF22)、撮影により得た画像データを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化し、撮影条件や撮影時の天体情報等を添付してファイル化した上でメモリカード67に記録し(ステップF23)、以上で上記図25及び図26の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   Next, a shooting process is performed in accordance with the shooting conditions set in advance in step F01 (step F22), and the image data obtained by shooting is compressed by the compression encoding / decompression decoding unit 56 and encoded, The shooting conditions, astronomical information at the time of shooting, etc. are attached and recorded as a file (step F23), and the series of processing of FIG. 25 and FIG. To prepare for this, the process returns to the beginning.

このように、太陽や月など特定の天体の視位置に応じて、デジタルカメラ10を被写体に向けるだけで、該特定の天体が入ってしまう場合や、ホワイトバランスの調整、逆光補正など、撮影を著しく阻害し、あるいはデジタルカメラ10やこのデジタルカメラ10を使用するユーザの健康を損ねてしまうことを確実に回避して、自動的に撮影条件の設定を行なって失敗の内撮影を行なうことができる。   In this way, depending on the viewing position of a specific celestial object such as the sun or the moon, the digital camera 10 is simply pointed at the subject and the specific celestial object enters, or white balance adjustment, backlight correction, etc. It is possible to reliably set the shooting conditions and perform shooting within the failure without failing to significantly hinder or impair the health of the digital camera 10 or the user who uses the digital camera 10. .

(第4の実施の形態)
以下本発明をデジタルカメラに適用した場合の第4の実施の形態について図面を参照して説明する。
(Fourth embodiment)
A fourth embodiment in which the present invention is applied to a digital camera will be described below with reference to the drawings.

なお、その外観構成に関しては上記図1に示したものと、電子回路の構成については上記図2に示したものとそれぞれ基本的にほぼ同様であるので、同一部分には同一符号を用いるものとして、ここではその図示と説明とを省略する。   The appearance configuration is basically the same as that shown in FIG. 1 and the configuration of the electronic circuit is substantially the same as that shown in FIG. 2, so the same reference numerals are used for the same parts. Here, illustration and description thereof are omitted.

図28及び図29に本実施の形態の動作の概要を示す。
上記第1乃至第3の実施の形態で太陽や月、恒星、惑星等の天体の撮影を行なうものとしたのに対し、本実施の形態では、被写体となりうる山や地形、建物、橋等の建造物を含む地理情報をスルー画像上に反映させる。
28 and 29 show an outline of the operation of the present embodiment.
In the first to third embodiments, celestial bodies such as the sun, moon, stars, and planets are photographed. In this embodiment, mountains, landforms, buildings, bridges, and the like that can be subjects. Geographic information including buildings is reflected on the through image.

すなわち、上記被写体となりうる各種の地理情報をデータ化して予めデータメモリ59に記憶しておき(G01)、撮影時のデジタルカメラ10の位置や向き、傾斜等のデータを入力する(G02)。   That is, various types of geographical information that can be the subject are converted into data and stored in advance in the data memory 59 (G01), and data such as the position, orientation, and tilt of the digital camera 10 at the time of shooting is input (G02).

これらを基に、カメラ視野範囲内の被写体の位置座標(経度λ、緯度φ、高度h)から被写体の視位置(方位Az、高度角ψ)を推測計算する(G03)。   Based on these, the visual position (azimuth Az, altitude angle ψ) of the subject is estimated and calculated from the position coordinates (longitude λ, latitude φ, altitude h) of the subject within the camera field of view (G03).

また、カメラの向き(方位θyaw、仰角θpitch、傾斜角θroll)と撮影画角θ(またはデジタルズームの場合には表示画角θ’=θ/Md)に応じて、視野範囲内の被写体の3次元シミュレーション画像を生成する(G04)。   In addition, depending on the camera orientation (azimuth θyaw, elevation angle θpitch, tilt angle θroll) and shooting field angle θ (or display field angle θ ′ = θ / Md in the case of digital zoom), the three-dimensional object in the field of view is displayed. A simulation image is generated (G04).

一方で、撮像素子31で得られる実際の被写体像をA/D変換及び各種プロセス処理を施して被写体のスルー画像を作成する(G05)。   On the other hand, an actual subject image obtained by the image sensor 31 is subjected to A / D conversion and various process processes to create a through image of the subject (G05).

しかして、被写体のスルー画像上に、被写体の3次元シミュレーション画像を半透過処理した上で重畳して電子ファインダ22で表示させることで(G06)、図29に示すような合成画像を得ることができる。   Thus, the three-dimensional simulation image of the subject is semi-transparently processed on the through image of the subject and superimposed and displayed on the electronic viewfinder 22 (G06), thereby obtaining a composite image as shown in FIG. it can.

図29では、シミュレーションで描画した被写体の輪郭をその名称と共に表示している例を示すもので、実際の被写体に対して多少のずれを生じているものの、充分に被写体を正確に判断することができる。同図では、電子ファインダ22上に実際の被写体とシミュレーションで得た被写体とを合成表示している他に、右端側でカメラの高度角ψとの指針仰角の目盛りを表示し、同時にカメラの方位角Azの指針と目盛りを表示している。   FIG. 29 shows an example in which the outline of the subject drawn by the simulation is displayed together with its name, and although there is a slight deviation from the actual subject, the subject can be judged sufficiently accurately. it can. In the figure, in addition to the composite display of the actual subject and the subject obtained by the simulation on the electronic viewfinder 22, a scale of the pointer elevation angle with the altitude angle ψ of the camera is displayed on the right end side, and at the same time, the orientation of the camera The pointer and scale of the angle Az are displayed.

このような表示状態にあってレリーズキー12の操作により撮影を実行した場合、撮影により得られた画像データと共に被写体の地理情報と撮影条件等の撮影情報とが符号化されて1つのデータファイルとして、記録媒体であるメモリカード67に記録されることとなる。   When shooting is performed by operating the release key 12 in such a display state, the geographic information of the subject and shooting information such as shooting conditions are encoded together with the image data obtained by shooting as one data file. It is recorded on the memory card 67 which is a recording medium.

図30及び図31は、このデジタルカメラ10で地上の風景を含む撮影モード(以下「被写体位置ファインダモード」と称する)時に実行する制御の処理内容を示すものであり、その制御動作は主として主制御回路37がプログラムメモリ58に記憶されている動作プログラムや定数等の固定データに基づいて実行する。   FIG. 30 and FIG. 31 show the processing contents of control executed in the digital camera 10 in the shooting mode including the ground scenery (hereinafter referred to as “subject position finder mode”), and the control operation is mainly the main control. The circuit 37 executes based on the operation program stored in the program memory 58 and fixed data such as constants.

その当初には、撮影モードや撮影条件等をユーザが任意に設定する(ステップH01)。   Initially, the user arbitrarily sets the shooting mode, shooting conditions, and the like (step H01).

この設定に基づき、屋外撮影で、且つ地上の風景をシミュレーション画像として合成表示する被写体位置ファインダモードが設定されたか否かを判断する(ステップH02)。   Based on this setting, it is determined whether or not the subject position finder mode for photographing outdoors and combining and displaying the ground landscape as a simulation image has been set (step H02).

ここで被写体位置ファインダモードが設定されていると判断した場合にのみ、次にこのデジタルカメラ10の現在位置を入力するか、あるいは自動的な測位処理を行なう(ステップH03)。   Only when it is determined that the subject position finder mode is set, the current position of the digital camera 10 is input next, or automatic positioning processing is performed (step H03).

図5は、GPSを用いた自動的な測位処理の内容を示すサブルーチンであり、その当初には、GPSレシーバ50がすでに起動されて動作中であるか否かを判断する(ステップB01)。   FIG. 5 is a subroutine showing the contents of automatic positioning processing using GPS. At the beginning, it is determined whether or not the GPS receiver 50 is already activated and operating (step B01).

ここで、まだ起動されておらず動作中ではないと判断した場合にのみ、あらためてGPSレシーバ50での動作を起動させ(ステップB02)、その後起動が完了して測位が可能となるのを待機する(ステップB03)。   Here, only when it is determined that the GPS receiver 50 has not been started yet and is not operating, the operation of the GPS receiver 50 is started again (step B02), and then the system waits for completion of the start and positioning. (Step B03).

このステップB03で起動が完了したと判断した場合、もしくは上記ステップB01ですでに起動されていると判断した場合に、次いでGPS受信アンテナ18を用いて複数のGPS衛星からの到来電波を受信し、まず測位信号中の疑似乱数列PRN(Pseudo−Ramdom Noise)によるコードを受信復調して疑似距離を計測する(ステップB04)。   If it is determined in step B03 that activation has been completed, or if it is determined in step B01 that it has already been activated, then the incoming radio waves from a plurality of GPS satellites are received using the GPS receiving antenna 18, First, a pseudo distance is measured by receiving and demodulating a code based on a pseudo random number sequence PRN (Pseudo-Random Noise) in the positioning signal (step B04).

次いで、各GPS衛星の天体歴情報、及び起動データを取得し(ステップB05)、各GPS衛星の位置及び現在位置からの距離を算出する(ステップB06)。   Next, astronomical history information and activation data of each GPS satellite are acquired (step B05), and the position of each GPS satellite and the distance from the current position are calculated (step B06).

そして、この算出結果から、現在デジタルカメラ10が位置している正確な3次元座標、すなわち経度λ、緯度φ、及び高度hを現在時刻と共に算出する(ステップB07)。   Then, from this calculation result, accurate three-dimensional coordinates where the digital camera 10 is currently located, that is, longitude λ, latitude φ, and altitude h are calculated together with the current time (step B07).

これら各座標値に基づき、測地系座標への変換処理を行ない(ステップB08)、結果としてこのデジタルカメラ10の位置する現在位置を取得して、主制御回路37へ出力し(ステップB09)、以上で図5のサブルーチンを終了する。   Based on these coordinate values, conversion processing to geodetic system coordinates is performed (step B08). As a result, the current position where the digital camera 10 is located is acquired and output to the main control circuit 37 (step B09). Then, the subroutine of FIG. 5 is finished.

図30のメインルーチンでは、ステップH03での測位処理により得た現在位置の座標を経度λ、緯度φ、及び高度hとして保持した後に、方位・3次元傾斜角センサ13、姿勢検出部49を用いてこのデジタルカメラ10の向き(方位、仰俯角、傾斜角など)を検出する(ステップH04)。 In the main routine of FIG. 30, after the coordinates of the current position obtained by the positioning process in step H03 are held as longitude λ 0 , latitude φ 0 , and altitude h 0 , the azimuth / three-dimensional tilt angle sensor 13 and the posture detection unit 49 is used to detect the orientation (azimuth, elevation angle, inclination angle, etc.) of the digital camera 10 (step H04).

次いで、デジタルカメラ10の現在位置と向きから、ファインダ視野に入る概略の被写体位置範囲を設定する(ステップH05)。   Next, an approximate subject position range entering the viewfinder field is set from the current position and orientation of the digital camera 10 (step H05).

この設定内容に基づき、データメモリ59に記憶している地理情報中から1つの被写体の位置座標(経度λ、緯度φ、高度h)を読出す(ステップH06)。   Based on the set contents, the position coordinates (longitude λ, latitude φ, altitude h) of one subject are read out from the geographical information stored in the data memory 59 (step H06).

読出した1つの被写体の位置座標により、カメラの現在位置に基づいて視野内での視位置を算出する(ステップH07)。   Based on the read position coordinates of one subject, the visual position in the field of view is calculated based on the current position of the camera (step H07).

図32は、このステップH07のサブルーチンの内容を示すもので、図33にその概念を示す模式図ある。まず上記ステップH03で得たデジタルカメラ10の現在位置の座標(経度λ、緯度φ、及び高度h)を入力し(ステップI01)、次に直前の上記06で得た被写体の位置座標(経度λ、緯度φ、高度h)を入力する(ステップI02)。 FIG. 32 shows the contents of the subroutine of step H07, and FIG. 33 is a schematic diagram showing the concept. First, the coordinates (longitude λ 0 , latitude φ 0 , and altitude h 0 ) of the current position of the digital camera 10 obtained in the above step H03 are input (step I01), and then the subject position coordinates obtained in the immediately preceding 06. (Longitude λ, latitude φ, altitude h) is input (step I02).

これら各位置座標により、デジタルカメラ10のある現在地と被写体の各位置座標から次式
x=(r+h)*cos(φ)*cos(λ)
y=(r+h)*cos(φ)*sin(λ)
z=(r+h)*sin(φ)*
(但し、r:当該地点の地球半径。)
に従って地心中心の直交座標XYZに変換する(ステップI03)。
From these position coordinates, from the current location where the digital camera 10 is located and the position coordinates of the subject,
x = (r + h) * cos (φ) * cos (λ)
y = (r + h) * cos (φ) * sin (λ)
z = (r + h) * sin (φ) *
(Where r is the radius of the earth at the point)
Is converted into orthogonal coordinates XYZ at the center of the center (step I03).

こうして得た直交座標XYZを、Z軸の周りに現在地の経度λだけ回転し、次式
x'=(r+h)*cos(φ)*cos(λ)
y'=(r+h)*cos(φ)*sin(λ)
z'=(r+h)*sin(φ)*
により直交座標X’Y’Z’に変換する(ステップI04)。
The orthogonal coordinates XYZ obtained in this way are rotated by the longitude λ 0 of the current location around the Z axis,
x '= (r + h) * cos (φ) * cos (λ)
y '= (r + h) * cos (φ) * sin (λ)
z '= (r + h) * sin (φ) *
Is converted into orthogonal coordinates X′Y′Z ′ (step I04).

次に、直交座標X’Y’Z’を、今度はY軸の周りに(π/2−φ)だけ回転し、次式
x"=x'*cos(π/2-φ)-z'*sin(π/2-φ)
y"=y'
z"=x'*sin(π/2-φ)+z'*cos(π/2-φ)h)
-(R+h)
により直交座標X”Y”Z”に変換する(ステップI05)。
Next, the orthogonal coordinates X′Y′Z ′ are rotated around the Y axis by (π / 2−φ 0 ), and
x "= x '* cos (π / 2-φ 0 ) -z' * sin (π / 2-φ 0 )
y "= y '
z "= x '* sin (π / 2-φ 0 ) + z' * cos (π / 2-φ 0 ) h)
-(R + h 0 )
Is converted into orthogonal coordinates X "Y" Z "(step I05).

現在地から被写体の地点までの距離R、方位角Az、及び高度角ψを次式
X=x"-x"
Y=y"-y"
Z=z"-z"
R=√(X2+Y2+Z2)
Az=tan-1(Y/X)
ψ=sin-1(Z/R)
により求め(ステップI07)、求めた距離R、方位角Az、及び高度角ψを出力して(ステップI07)、以上で図32のサブルーチンを一旦終了し、上記図30の処理に戻る。
The distance R from the current location to the point of the subject, the azimuth angle Az, and the altitude angle ψ are
X = x "-x" 0
Y = y "-y" 0
Z = z "-z" 0
R = √ (X 2 + Y 2 + Z 2 )
Az = tan -1 (Y / X)
ψ = sin -1 (Z / R)
(Step I07), and the obtained distance R, azimuth angle Az, and altitude angle ψ are output (Step I07). Thus, the subroutine of FIG. 32 is temporarily terminated, and the process returns to FIG.

図30のメインルーチンでは、求めた被写体の視位置(距離R、方位角Az、及び高度角ψ)を画像データメモリ57に記憶した後(ステップH08)、視野範囲内に位置するすべての被写体に対して視位置の計算を行なったか否か、換言すればまだ同様の計算を行なうべき被写体があるか否かを判断する(ステップH09)。   In the main routine of FIG. 30, after the obtained viewing positions (distance R, azimuth angle Az, and altitude angle ψ) of the subject are stored in the image data memory 57 (step H08), all the subjects located within the field of view range are recorded. On the other hand, it is determined whether or not the visual position has been calculated, in other words, whether or not there is a subject to be subjected to the same calculation (step H09).

まだ計算を行なっていない被写体があると判断すると、上記ステップH06からの処理に戻り、新たな被写体に対する視位置の計算を実行する。   If it is determined that there is a subject that has not yet been calculated, the process returns to the processing from step H06, and the calculation of the visual position for the new subject is executed.

こうしてステップH06〜H09の処理を繰返し実行することで、デジタルカメラ10の視野範囲内に位置するすべての被写体の視位置を算出し終えると、ステップI09でこれを判断して続くステップH10に至る。   In this way, by repeatedly executing the processes of steps H06 to H09, when the visual positions of all the subjects located within the visual field range of the digital camera 10 have been calculated, this is determined in step I09, and the subsequent step H10 is reached.

なお、上記ステップH02で撮影モードが被写体位置ファインダモードではないと判断した場合には、上記ステップH03〜H09の処理は行なわない。   If it is determined in step H02 that the shooting mode is not the subject position finder mode, the processes in steps H03 to H09 are not performed.

ステップH10では、測光・測距センサ41、色温度検出部42、及び測光部43により測光処理とホワイトバランス調整処理とを実行する。その後、撮影レンズ11中のズームレンズ及びフォーカスレンズを必要により適宜移動させるズーム処理及びAF処理を実行する(ステップH11)。   In Step H10, the photometry / ranging sensor 41, the color temperature detection unit 42, and the photometry unit 43 perform photometry processing and white balance adjustment processing. Thereafter, zoom processing and AF processing for appropriately moving the zoom lens and focus lens in the photographing lens 11 as necessary are executed (step H11).

以上で被写体像全体に対する適正な撮影状態が得られるので、その時点で撮像素子31で撮像し、画像メモリ35に保持している被写体像を電子ファインダ22にてスルー画像として表示する(ステップH12)。   As described above, an appropriate shooting state for the entire subject image is obtained. At that time, the subject image captured by the image sensor 31 and held in the image memory 35 is displayed as a through image on the electronic viewfinder 22 (step H12). .

ここで再び、撮影モードが被写体位置ファインダモードであるか否かを判断する(ステップH13)。   Here again, it is determined whether or not the shooting mode is the subject position finder mode (step H13).

被写体位置ファインダモードであると判断した場合にのみ、その時点での撮影レンズ11の焦点距離(f)と撮像素子31のサイズ(X’)、及びデジタルズーム倍率(Md)により電子ファインダ22で表示すべき被写体像の撮影画角(θ)を算出する(ステップH14)。
なお、当該画角θは、次式
撮影画角θ=2tan-1(X'/2f)
表示及び記録画角θ'=θ/Md
で求められる。
Only when it is determined that the subject position finder mode is selected, the image is displayed on the electronic finder 22 based on the focal length (f) of the photographing lens 11 at that time, the size (X ′) of the image sensor 31 and the digital zoom magnification (Md). The shooting angle of view (θ) of the power subject image is calculated (step H14).
The angle of view θ is expressed by the following equation:
Shooting angle of view θ = 2tan -1 (X '/ 2f)
Display and recording angle of view θ '= θ / Md
Is required.

こうして得た結果に基づき、カメラの向きと表示画角に対して、視野に入る被写体の像位置を計算し、視位置の被写体情報を合成(または3次元CG(Computer Graphics)描画)した後に半透明化処理し、実際に得られる被写体像上に重畳して電子ファインダ22で表示する(ステップH15)。   Based on the result thus obtained, the image position of the subject entering the field of view is calculated with respect to the camera direction and the display angle of view, and the subject information at the viewing position is synthesized (or three-dimensional CG (Computer Graphics) drawing) halfway. The transparency processing is performed, and the image is superimposed on the actually obtained subject image and displayed on the electronic viewfinder 22 (step H15).

図34は、このとき電子ファインダ22で表示するために生成する、3次元CG描画処理の処理の詳細を示し、図35にその各処理段階での描画モデルを示す。   FIG. 34 shows details of the three-dimensional CG drawing processing generated for display on the electronic finder 22 at this time, and FIG. 35 shows the drawing model at each processing stage.

その処理当初には、まず視野に入る被写体の地図情報を基に3次元のモデリング処理を施す(ステップJ01)。   At the beginning of the process, first, a three-dimensional modeling process is performed based on the map information of the subject entering the field of view (step J01).

このモデリング処理としては、図示する如く地理座標・等高線モデル、ワイヤーフレーム・モデル、サーフェス・モデル、ソリッドモデル等を施すことで(ステップJ02〜J05)、地図情報から3次元空間内の凹凸を忠実に再現したモデルを得る。図35(A)−1は地理座標・等高線モデル、図35(A)−2はワイヤーフレーム・モデルの例を示す。   As this modeling process, as shown in the figure, by applying geographical coordinates / contour model, wire frame model, surface model, solid model, etc. (steps J02 to J05), the unevenness in the three-dimensional space is faithfully reproduced from the map information. Get a reproduced model. FIG. 35A shows an example of a geographic coordinate / contour model, and FIG. 35A-2 shows an example of a wire frame model.

こうして得た3次元モデルに対してレンダリング処理を施すことで、現実に肉眼で見える視野範囲の被写体情報を描画する。
すなわち、まず投影・座標変換処理(ステップJ06)により上記3次元モデルを現在位置から見た2次元画像として透視投影処理する。
By subjecting the three-dimensional model obtained in this way to rendering processing, the subject information in the visual field range that is actually visible to the naked eye is drawn.
That is, first, a perspective projection process is performed on the three-dimensional model as a two-dimensional image viewed from the current position by a projection / coordinate conversion process (step J06).

図35(B)がこの2次元の透視投影画像を例示するもので、具体的には平行投影処理(ステップJ07)または透視投影処理(ステップJ08)を実行する。座標変換では、ローカル座標系で指定した形状をワールド座標系に配置し、視点位置、視軸方向にある支点座標系をワールド座標系で決定した上で、このワールド座標系の位置を視軸上にあるuvn座標系(視野窓の座標系)の位置に変換する。   FIG. 35B illustrates this two-dimensional perspective projection image. Specifically, parallel projection processing (step J07) or perspective projection processing (step J08) is executed. In coordinate conversion, the shape specified in the local coordinate system is placed in the world coordinate system, the fulcrum coordinate system in the visual axis direction is determined in the world coordinate system, and the position of this world coordinate system is then set on the visual axis. To the position of the uvn coordinate system (coordinate system of the visual field window).

その後、該投影処理により得た2次元画像中から、視野範囲に合わせたクリッピング処理(ステップJ09)を実行することで、図35(C)に示すように視野窓内に必要な部分のみを切出す。   After that, from the two-dimensional image obtained by the projection processing, clipping processing (step J09) according to the visual field range is performed, so that only necessary portions in the visual field window are cut as shown in FIG. put out.

さらに、図35(D)に示す如く、現在の視点位置から画面に現れる部分を決定し、視野に入らない部分、すなわち各被写体の背後の位置となる隠れ線、隠れ面の各消去処理(ステップJ10)を実行する。   Further, as shown in FIG. 35 (D), the part appearing on the screen is determined from the current viewpoint position, and the hidden line and the hidden surface that are not in the field of view, that is, the position behind each subject, are erased (step J10). ).

この消去処理としては、Zソート法(ステップJ11)、Zバッファ法(ステップJ12)、スキャンライン法(ステップJ13)、及びレイ・トレーシング法(ステップJ14)のいずれかを用いる。   As the erasing process, any one of the Z sort method (step J11), the Z buffer method (step J12), the scan line method (step J13), and the ray tracing method (step J14) is used.

次に、比較の当たり具合や反射、透過の様子を計算し、設定ライティング条件に基づいて、被写体表面の明暗や陰影付けを行なうシェーディング処理、及び地面にできる影を描画するシャドウイング処理を実行する(ステップJ15)。   Next, the state of comparison, reflection, and transmission are calculated, and based on the set lighting conditions, a shading process for shading and shading the subject surface and a shadowing process for drawing a shadow on the ground are executed. (Step J15).

これらの処理内容としては、フラット・シェーディング法(ステップJ16)、グーロー・シェーディング法(ステップJ17)、フォン・シェーディング法(ステップJ18)、レイ・トレーシング法(ステップJ19)、及びラジオシティ法(ステップJ02)のいずれかを用いる。   These processing contents include flat shading method (step J16), Gouraud shading method (step J17), von shading method (step J18), ray tracing method (step J19), and radiosity method (step J02) is used.

図35(E)は、この時点で得られる画像を例示するもので、シェーディング処理により陰影を付加した上で、被写体情報、地理情報等も重畳表示している状態を示す。   FIG. 35E illustrates an image obtained at this time, and shows a state where subject information, geographic information, and the like are superimposed and displayed after shading is added by shading processing.

さらに、被写体画像の各表面に模様や細かな凹凸等を貼り付けるマッピング処理を行なうことで(ステップJ21)、画像により現実感を与えるものとしてもよい。このマッピング手法としては、テクスチャ・マッピング法(ステップJ22)、バンプ・マッピング法(ステップJ23)、透明マッピング法(ステップJ24)、反射マッピング法(ステップJ25)、及び環境マッピング法(ステップJ26)等のいずれか少なくとも1つを用いる。   Furthermore, it is possible to give a sense of reality to the image by performing a mapping process in which a pattern, fine unevenness, or the like is applied to each surface of the subject image (step J21). This mapping method includes a texture mapping method (step J22), a bump mapping method (step J23), a transparent mapping method (step J24), a reflection mapping method (step J25), and an environment mapping method (step J26). At least one of them is used.

最後に、上記一連のデジタル処理に伴う境界線部分のギザギザなどを滑らかにするアンチ・エリアシング処理などを行ない(ステップJ27)、以上で一連の3次元CG描画処理の処理を終了する。   Finally, anti-aliasing processing for smoothing jagged edges and the like of the above-described series of digital processing is performed (step J27), and the series of three-dimensional CG rendering processing ends.

しかして、上記図31のメインルーチンでは、上記ステップH15で視位置に応じた合成画像を半透明化処理し、実際に得られる被写体像上に重畳して電子ファインダ22で表示しながら、レリーズキー12の操作による撮影指示があるか否かを判断する(ステップH16)。   In the main routine of FIG. 31, the release key is displayed in step H15 while the composite image corresponding to the viewing position is translucent and superimposed on the actually obtained subject image and displayed on the electronic viewfinder 22. It is determined whether or not there is a shooting instruction by operation 12 (step H16).

ここでレリーズキー12の操作がないと判断した場合には、レリーズキー12以外のキー操作あるいは表示に斯かる処理を実行する一方で(ステップH19)、レリーズキー12が操作されたと判断した場合には、その時点で設定されている撮影条件に従った撮影処理を実行し(ステップH17)、撮影により得た画像データを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化し、撮影条件や撮影時の被写体情報等を添付してファイル化した上でメモリカード67に記録し(ステップH18)、以上で上記図30及び図31の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。   If it is determined that the release key 12 has not been operated, a key operation or display other than the release key 12 is executed (step H19), while it is determined that the release key 12 has been operated. Performs a shooting process in accordance with the shooting conditions set at that time (step H17), and compresses and encodes the image data obtained by the shooting by compressing and encoding the data in the compression encoding / decompression decoding unit 56. The conditions and the subject information at the time of shooting are attached to form a file and recorded in the memory card 67 (step H18). Thus, the series of processes in FIGS. Return to the process from the beginning again to be prepared.

このように、夜間や距離の中、あるいは知らない土地で撮影を行なうような場合でも、デジタルカメラ10の電子ファインダ22での表示により、視野に本来見えるべき山、地形、主要な建物などの位置や方向を視認することができるので、撮影すべき被写体を間違えることなく識別できる。   In this way, even when shooting at night, in the distance, or on unknown land, the digital viewfinder 22 of the digital camera 10 displays the positions of mountains, topography, main buildings, etc. that should be visible in the field of view. And the direction can be visually recognized, so that the subject to be photographed can be identified without making a mistake.

例えば、観光地の展望台などで、景色の案内図等がないような場合でも、デジタルカメラ10を所望の方向に向けるだけで、被写体となる山や主要な建物、町などの名前や位置を識別した上で撮影を実行することができる。   For example, even if there is no scenery map or the like at a sightseeing spot or the like, just point the digital camera 10 in the desired direction and the name and position of the subject mountain, main building, town, etc. It is possible to perform photographing after identification.

また、3次元のCG描画処理機能を設け、現在位置以外の場所も入力して検索できるようにすると、被写体となる地形や建造物によるリアルな仮想的な景色や俯瞰図より、撮影場所の把握や撮影構図の選定、撮影条件の計画なども容易に行なうことができる。   In addition, if a 3D CG rendering processing function is provided so that locations other than the current position can be entered and searched, the shooting location can be ascertained from realistic virtual scenery or a bird's-eye view of the subject's topography or building. It is also possible to easily select a shooting composition and plan shooting conditions.

なお、上記のように第1乃至第4の実施の形態は、いずれも本発明をデジタルカメラに適用した場合について説明したものであるが、本発明はこれに限るものではなく、例えばカメラ機能を有する携帯電話機、カメラ機能と通信機能を有するPDA(Personal Digital Assistants:個人向け情報携帯端末)やポータブルタイプのパーソナルコンピュータなど、各種小型電子機器にも同様に適用することができる。   As described above, each of the first to fourth embodiments describes the case where the present invention is applied to a digital camera. However, the present invention is not limited to this, and for example, a camera function is provided. The present invention can be similarly applied to various small electronic devices such as a mobile phone having PDA (Personal Digital Assistants) having a camera function and a communication function and a portable personal computer.

その他、本発明は上記実施の形態に限らず、その要旨を逸脱しない範囲内で種々変形して実施することが可能であるものとする。   In addition, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention.

さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of the problem to be solved by the invention can be solved, and described in the column of the effect of the invention. In a case where at least one of the obtained effects can be obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.

本発明の第1の実施の形態に係るデジタルカメラの外観構成を示す斜視図。1 is a perspective view showing an external configuration of a digital camera according to a first embodiment of the present invention. 同実施の形態に係るデジタルカメラの電子回路の構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of an electronic circuit of the digital camera according to the embodiment. 同実施の形態に係る撮影時の制御処理内容を示すフローチャート。The flowchart which shows the control processing content at the time of imaging | photography concerning the embodiment. 同実施の形態に係る撮影時の制御処理内容を示すフローチャート。The flowchart which shows the control processing content at the time of imaging | photography concerning the embodiment. 同実施の形態に係る図3のGPSによる測位処理のより詳細な処理内容を示すサブルーチンのフローチャート。The flowchart of the subroutine which shows the more detailed process content of the positioning process by GPS of FIG. 3 which concerns on the embodiment. 同実施の形態に係る天体の視位置シミュレーション画像の画面表示を段階的に説明する図。The figure explaining stepwise the screen display of the visual position simulation image of the astronomical object according to the embodiment. 同実施の形態に係る天体の赤道座標と天体の視位置との関係を示す図。The figure which shows the relationship between the equatorial coordinate of the celestial body which concerns on the same embodiment, and the visual position of a celestial body. 同実施の形態に係る恒星の位置座標データを例示する図。The figure which illustrates the positional coordinate data of the star which concerns on the same embodiment. 同実施の形態に係る図3の天体の視位置の計算の詳細な処理内容を示すサブルーチンのフローチャート。The flowchart of the subroutine which shows the detailed processing content of calculation of the visual position of the astronomical object of FIG. 3 which concerns on the embodiment. 同実施の形態に係る図3の天体の視位置の計算の詳細な処理内容を示すサブルーチンのフローチャート。The flowchart of the subroutine which shows the detailed processing content of calculation of the visual position of the astronomical object of FIG. 3 which concerns on the embodiment. 同実施の形態に係る図3の天体(太陽、月、惑星)の視位置の計算の詳細な処理内容を示すサブルーチンのフローチャート。The flowchart of the subroutine which shows the detailed processing content of the calculation of the visual position of the celestial body (sun, moon, planet) of FIG. 3 which concerns on the embodiment. 同実施の形態に係る図3の天体(太陽、月、惑星)の視位置の計算の詳細な処理内容を示すサブルーチンのフローチャート。The flowchart of the subroutine which shows the detailed processing content of the calculation of the visual position of the celestial body (sun, moon, planet) of FIG. 3 which concerns on the embodiment. 同実施の形態に係るファインダ画角に合わせた天体視位置の非指令を示す図。The figure which shows the non-command of the astronomical view position matched with the viewfinder angle of view concerning the embodiment. 同実施の形態に係る半天図のファインダ表示例を示す図。The figure which shows the example of a finder display of the half sky map which concerns on the same embodiment. 同実施の形態に係るカメラの向きに応じた天体位置の自動表示の遷移状態を例示する図。The figure which illustrates the transition state of the automatic display of the celestial body position according to the direction of the camera which concerns on the same embodiment. 同実施の形態に係るカメラの向きに応じた天体位置の自動表示の遷移状態を例示する図。The figure which illustrates the transition state of the automatic display of the celestial body position according to the direction of the camera which concerns on the same embodiment. 同実施の形態に係る天体視位置のファインダ表示位置の計算を説明する図。The figure explaining calculation of the finder display position of the astronomical position which concerns on the same embodiment. 同実施の形態に係る天体視位置のファインダ表示位置の計算を説明する図。The figure explaining calculation of the finder display position of the astronomical position which concerns on the same embodiment. 同実施の形態に係る天体視位置のファインダ表示位置の計算を説明する図。The figure explaining calculation of the finder display position of the astronomical position which concerns on the same embodiment. 同実施の形態に係るレンズ焦点距離と画角の関係を説明するための図。The figure for demonstrating the relationship between the lens focal distance which concerns on the same embodiment, and a field angle. 同実施の形態に係る焦点距離(ズーム倍率、画角)に応じた天体位置の自動表示の遷移状態を例示する図。The figure which illustrates the transition state of the automatic display of the astronomical object position according to the focal distance (zoom magnification, angle of view) concerning the embodiment. 同実施の形態に係るファインダ視野に入る被写体の位置の探索範囲の設定例を示す図。The figure which shows the example of a setting of the search range of the position of the to-be-photographed object which enters into the finder visual field which concerns on the embodiment. 本発明の第2の実施の形態に係る天体の視位置の計算の処理内容を示すフローチャート。The flowchart which shows the processing content of the calculation of the visual position of the astronomical object which concerns on the 2nd Embodiment of this invention. 同実施の形態に係る天体の視位置の表示過程を説明する図。The figure explaining the display process of the visual position of the astronomical object which concerns on the same embodiment. 本発明の第3の実施の形態に係る撮影時の制御処理内容を示すフローチャート。The flowchart which shows the control processing content at the time of imaging | photography concerning the 3rd Embodiment of this invention. 同実施の形態に係る撮影時の制御処理内容を示すフローチャート。The flowchart which shows the control processing content at the time of imaging | photography concerning the embodiment. 同実施の形態に係る太陽の影響の判断内容を説明する図。The figure explaining the judgment content of the influence of the sun which concerns on the same embodiment. 本発明の第4の実施の形態に係る動作処理の概要を示す図。The figure which shows the outline | summary of the operation | movement process which concerns on the 4th Embodiment of this invention. 同実施の形態に係る電子ファインダでの合成表示画面を例示する図。The figure which illustrates the synthetic | combination display screen in the electronic finder which concerns on the same embodiment. 同実施の形態に係る撮影時の制御処理内容を示すフローチャート。The flowchart which shows the control processing content at the time of imaging | photography concerning the embodiment. 同実施の形態に係る撮影時の制御処理内容を示すフローチャート。The flowchart which shows the control processing content at the time of imaging | photography concerning the embodiment. 同実施の形態に係る図30の被写体の視位置の計算の詳細な処理内容を示すサブルーチンのフローチャート。FIG. 31 is a subroutine flowchart showing the detailed processing contents of the calculation of the visual position of the subject in FIG. 30 according to the embodiment; FIG. 同実施の形態に係る図32での処理概念を視覚化して示す図。The figure which visualizes and shows the process concept in FIG. 32 which concerns on the embodiment. 同実施の形態に係る図31の被写体の3次元CG描画処理の詳細な内容を示すサブルーチンのフローチャート。FIG. 32 is a flowchart of a subroutine showing detailed contents of a three-dimensional CG drawing process for the subject in FIG. 31 according to the embodiment; 同実施の形態に係る図34での各処理段階での描画モデルを例示する図。The figure which illustrates the drawing model in each process step in FIG. 34 concerning the embodiment.

符号の説明Explanation of symbols

10…デジタルカメラ、11…撮影レンズ、12…レリーズキー、13…方位・3次元傾斜角センサ、14…モード切替ダイヤル、15…液晶表示部、16…内蔵フラッシュ、17…外付けフラッシュ用ホット端子、18…GPS受信アンテナ、19…光学ファインダ、20…カーソルキー、21…数値入力キー、22…電子ファインダ、23…カバー、31…撮像素子、32…ドライバ、33…A/D変換器、34…映像信号処理、35…画像メモリ、36…撮影制御回路、37…主制御回路、38…レンズ位置検出部、39…レンズ駆動部、40…シャッタ・絞り駆動部、41…測光・測距センサ、42…色温度検出部、43…測光部、44…測距部、45…フラッシュ駆動部、46…照射角駆動部、47…音声復号化部、48…音声符号化部、49…姿勢検出部、50…GPSレシーバ、51…入力回路、52…座標入力回路、53…表示メモリ、54…表示駆動部、55…画像処理部、56…圧縮符号化/伸長復号化部、57…画像データメモリ、58…プログラムメモリ、59…データメモリ、60…外部メモリインタフェース(I/F)、61…入出力(I/O)インタフェース、62…電源制御部、63…D/A変換器、64…スピーカ、65…マイクロホン、66…A/D変換器、67…メモリカード、68…入出力端子、69…通信部、70…電池。   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 11 ... Shooting lens, 12 ... Release key, 13 ... Direction / three-dimensional tilt angle sensor, 14 ... Mode switching dial, 15 ... Liquid crystal display part, 16 ... Built-in flash, 17 ... Hot terminal for external flash , 18 ... GPS receiving antenna, 19 ... Optical finder, 20 ... Cursor key, 21 ... Numeric input key, 22 ... Electronic finder, 23 ... Cover, 31 ... Image sensor, 32 ... Driver, 33 ... A / D converter, 34 Image signal processing, 35 Image memory, 36 Shooting control circuit, 37 Main control circuit, 38 Lens position detection unit, 39 Lens drive unit, 40 Shutter / aperture drive unit, 41 Photometry / ranging sensor , 42 ... color temperature detection unit, 43 ... photometry unit, 44 ... distance measurement unit, 45 ... flash drive unit, 46 ... irradiation angle drive unit, 47 ... voice decoding unit, 48 ... voice code Conversion unit, 49 ... posture detection unit, 50 ... GPS receiver, 51 ... input circuit, 52 ... coordinate input circuit, 53 ... display memory, 54 ... display drive unit, 55 ... image processing unit, 56 ... compression encoding / decompression decoding 57: Image data memory, 58 ... Program memory, 59 ... Data memory, 60 ... External memory interface (I / F), 61 ... Input / output (I / O) interface, 62 ... Power supply control unit, 63 ... D / A converter, 64 ... speaker, 65 ... microphone, 66 ... A / D converter, 67 ... memory card, 68 ... input / output terminal, 69 ... communication unit, 70 ... battery.

Claims (7)

被写体の画像を撮影する撮像手段と、
この撮像手段で得られる画像をモニタ表示する表示手段と、
時間経過に伴って変化する被写体の配置状況または撮影状況を示す所定の規則を記憶した記憶手段と、
装置の設置位置及び設置姿勢を指定する第1の指定手段と、
時刻を指定する第2の指定手段と、
上記第1の指定手段で指定する設置位置及び設置姿勢と上記第2の指定手段で指定する時刻とにより上記記憶手段で記憶した規則を参照し、被写体の配置状況または撮影状況を示すガイド画像を作成する作成手段と、
この作成手段で作成したガイド画像を上記表示手段でのモニタ画像に加えて表示させる表示制御手段と
を具備したことを特徴とする撮像装置。
Imaging means for capturing an image of a subject;
Display means for monitoring and displaying an image obtained by the imaging means;
Storage means for storing a predetermined rule indicating an arrangement situation or photographing situation of a subject that changes with time;
First designation means for designating the installation position and installation posture of the apparatus;
A second designation means for designating time;
By referring to the rules stored in the storage unit according to the installation position and installation posture specified by the first specifying unit and the time specified by the second specifying unit, a guide image indicating the arrangement state or photographing state of the subject is obtained. Creating means to create,
An image pickup apparatus comprising: display control means for displaying a guide image created by the creating means in addition to a monitor image on the display means.
上記作成手段は、ガイド画像として被写体の見え方を特定するガイド画像を作成することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the creating unit creates a guide image that specifies how the subject looks as a guide image. 上記作成手段は、ガイド画像として被写体の予想画像を作成し、
上記表示制御手段は、被写体の予想画像を上記表示手段でのモニタ画像に対して半透過状態で重畳表示させる
ことを特徴とする請求項1記載の撮像装置。
The creating means creates a predicted image of the subject as a guide image,
The imaging apparatus according to claim 1, wherein the display control unit displays the predicted image of the subject superimposed on the monitor image on the display unit in a semi-transparent state.
上記被写体は、天体を構成する複数の物体であることを特徴とする請求項1乃至3いずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject is a plurality of objects constituting a celestial body. 上記被写体は、地上の固定位置で太陽光を反射する物体であることを特徴とする請求項1乃至3いずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject is an object that reflects sunlight at a fixed position on the ground. 被写体の画像を撮影する撮像部、及びこの撮像部で得られる画像をモニタ表示する表示部を備えた撮像装置のガイド表示方法であって、
時間経過に伴って変化する被写体の配置状況または撮影状況を示す所定の規則を記憶する記憶工程と、
装置の設置位置及び設置姿勢を指定する第1の指定工程と、
時刻を指定する第2の指定工程と、
上記第1の指定工程で指定する設置位置及び設置姿勢と上記第2の指定工程で指定する時刻とにより上記記憶工程で記憶した規則を参照し、被写体の配置状況または撮影状況を示すガイド画像を作成する作成工程と、
この作成工程で作成したガイド画像を上記表示部でのモニタ画像に加えて表示させる表示制御工程と
を有したことを特徴とする撮像装置のガイド表示方法。
A guide display method of an imaging apparatus including an imaging unit that captures an image of a subject and a display unit that monitors and displays an image obtained by the imaging unit,
A storing step for storing a predetermined rule indicating an arrangement state or a photographing state of a subject that changes with time;
A first designation step for designating the installation position and installation posture of the device;
A second designation step for designating time;
By referring to the rules stored in the storage step according to the installation position and installation posture specified in the first specification step and the time specified in the second specification step, a guide image indicating the arrangement state or photographing state of the subject is obtained. Creating process to create,
A guide display method for an imaging apparatus, comprising: a display control step for displaying the guide image created in the creation step in addition to the monitor image on the display unit.
被写体の画像を撮影する撮像部、及びこの撮像部で得られる画像をモニタ表示する表示部を備えた撮像装置に内蔵されたコンピュータが実行するプログラムであって、
時間経過に伴って変化する被写体の配置状況または撮影状況を示す所定の規則を記憶する記憶ステップと、
装置の設置位置及び設置姿勢を指定する第1の指定ステップと、
時刻を指定する第2の指定ステップと、
上記第1の指定ステップで指定する設置位置及び設置姿勢と上記第2の指定ステップで指定する時刻とにより上記記憶ステップで記憶した規則を参照し、被写体の配置状況または撮影状況を示すガイド画像を作成する作成ステップと、
この作成ステップで作成したガイド画像を上記表示部でのモニタ画像に加えて表示させる表示制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program executed by a computer incorporated in an imaging apparatus including an imaging unit that captures an image of a subject and a display unit that displays an image obtained by the imaging unit on a monitor,
A storage step for storing a predetermined rule indicating an arrangement state or photographing state of a subject that changes with time;
A first designation step for designating the installation position and installation posture of the apparatus;
A second specifying step for specifying a time;
By referring to the rules stored in the storage step according to the installation position and installation posture specified in the first specification step and the time specified in the second specification step, a guide image indicating the arrangement state or photographing state of the subject is obtained. A creation step to create,
A program that causes a computer to execute a display control step of displaying a guide image created in the creation step in addition to a monitor image on the display unit.
JP2006187103A 2006-07-06 2006-07-06 Imaging apparatus and program Expired - Fee Related JP5034343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006187103A JP5034343B2 (en) 2006-07-06 2006-07-06 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006187103A JP5034343B2 (en) 2006-07-06 2006-07-06 Imaging apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011282128A Division JP5403045B2 (en) 2011-12-22 2011-12-22 Imaging apparatus, imaging method, and program

Publications (3)

Publication Number Publication Date
JP2008017223A true JP2008017223A (en) 2008-01-24
JP2008017223A5 JP2008017223A5 (en) 2009-08-13
JP5034343B2 JP5034343B2 (en) 2012-09-26

Family

ID=39073832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006187103A Expired - Fee Related JP5034343B2 (en) 2006-07-06 2006-07-06 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5034343B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100167A (en) * 2007-10-16 2009-05-07 Casio Comput Co Ltd Imaging apparatus and program therefor
JP2009210875A (en) * 2008-03-05 2009-09-17 Casio Comput Co Ltd Celestial body observation apparatus
JP2009271732A (en) * 2008-05-07 2009-11-19 Sony Corp Device and method for presenting information, imaging apparatus, and computer program
JP2010122672A (en) * 2008-10-23 2010-06-03 Hoya Corp Digital camera
JP2010199898A (en) * 2009-02-24 2010-09-09 Casio Computer Co Ltd Image processor, imaging apparatus, image generation method and program
JP2010266817A (en) * 2009-05-18 2010-11-25 Ntt Docomo Inc Astronomical guide device, astronomical guide method, and program
JP2010287988A (en) * 2009-06-10 2010-12-24 Nikon Corp Photographing device
WO2011032014A1 (en) * 2009-09-10 2011-03-17 Qualcomm Incorporated Signal measurements employed to affect photographic parameters
JP2011172102A (en) * 2010-02-19 2011-09-01 Olympus Corp Imaging device
JP2011228877A (en) * 2010-04-19 2011-11-10 Nec Corp Landform display system, mobile terminal, and landform display method
JP2012055450A (en) * 2010-09-08 2012-03-22 Software Factory:Kk Golf support device
JP2013070335A (en) * 2011-09-26 2013-04-18 Canon Inc Imaging apparatus, control method thereof, and program
US8447071B2 (en) 2010-05-25 2013-05-21 Pentax Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and photographic apparatus employing this method
WO2013145791A1 (en) * 2012-03-28 2013-10-03 富士フイルム株式会社 Imaging device and method for controlling same
US8717441B2 (en) 2010-05-19 2014-05-06 Pentax Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and camera employing this method
JP2014131315A (en) * 2014-02-12 2014-07-10 Olympus Imaging Corp Imaging apparatus and imaging method
JP2014209795A (en) * 2010-04-28 2014-11-06 リコーイメージング株式会社 Photographing device and photographing method
US9069064B2 (en) 2010-05-28 2015-06-30 Pentax Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and photographic apparatus employing this method
JP2015159510A (en) * 2014-02-25 2015-09-03 オリンパス株式会社 Image pickup device and image pickup device control method
JP2015215427A (en) * 2014-05-08 2015-12-03 オリンパス株式会社 Imaging apparatus and imaging method
WO2015196897A1 (en) * 2014-06-24 2015-12-30 努比亚技术有限公司 Shooting method and shooting device
EP3712696A1 (en) * 2019-03-19 2020-09-23 Meinhardt, Barbara Device and method for optimizing photographic recording properties
CN112560838A (en) * 2020-12-01 2021-03-26 北京字节跳动网络技术有限公司 Control method and device of image acquisition device, terminal and storage medium
FR3112401A1 (en) * 2020-07-09 2022-01-14 Unistellar Method and system for stereoscopic vision of a celestial observation scene

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549034A (en) * 1991-08-14 1993-02-26 Nikon Corp Electronic picture device
JPH07126083A (en) * 1993-10-28 1995-05-16 Kuraray Co Ltd Production of formed inorganic article
JPH1195315A (en) * 1997-09-19 1999-04-09 Fuji Photo Optical Co Ltd Remote control universal head device
JP2001169164A (en) * 1999-12-08 2001-06-22 Casio Comput Co Ltd Camera device, image reproducing device, and method for acquiring subject name in camera device
JP2002010114A (en) * 2000-04-19 2002-01-11 Fuji Photo Film Co Ltd Image pickup device
JP2002131824A (en) * 2000-10-23 2002-05-09 Canon Inc Camera
JP2002175315A (en) * 2000-09-28 2002-06-21 Nikon Corp Image annotation server, method for image annotation service, image collation device, electronic camera, telephoto optical equipment, and recording medium
JP2003259184A (en) * 2002-03-06 2003-09-12 Olympus Optical Co Ltd Imaging device
JP2003348519A (en) * 2002-05-27 2003-12-05 Casio Comput Co Ltd Server device, imaging apparatus, imaging system, imaging method and imaging apparatus control program
JP2005026872A (en) * 2003-06-30 2005-01-27 Casio Comput Co Ltd Photographing method, imaging apparatus, and program
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2005079948A (en) * 2003-09-01 2005-03-24 Pentax Corp Noise reduction device of digital camera
JP2005086236A (en) * 2003-09-04 2005-03-31 Casio Comput Co Ltd Imaging apparatus and program
JP2006119797A (en) * 2004-10-20 2006-05-11 Sony Ericsson Mobilecommunications Japan Inc Information providing system and mobile temrinal

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549034A (en) * 1991-08-14 1993-02-26 Nikon Corp Electronic picture device
JPH07126083A (en) * 1993-10-28 1995-05-16 Kuraray Co Ltd Production of formed inorganic article
JPH1195315A (en) * 1997-09-19 1999-04-09 Fuji Photo Optical Co Ltd Remote control universal head device
JP2001169164A (en) * 1999-12-08 2001-06-22 Casio Comput Co Ltd Camera device, image reproducing device, and method for acquiring subject name in camera device
JP2002010114A (en) * 2000-04-19 2002-01-11 Fuji Photo Film Co Ltd Image pickup device
JP2002175315A (en) * 2000-09-28 2002-06-21 Nikon Corp Image annotation server, method for image annotation service, image collation device, electronic camera, telephoto optical equipment, and recording medium
JP2002131824A (en) * 2000-10-23 2002-05-09 Canon Inc Camera
JP2003259184A (en) * 2002-03-06 2003-09-12 Olympus Optical Co Ltd Imaging device
JP2003348519A (en) * 2002-05-27 2003-12-05 Casio Comput Co Ltd Server device, imaging apparatus, imaging system, imaging method and imaging apparatus control program
JP2005026872A (en) * 2003-06-30 2005-01-27 Casio Comput Co Ltd Photographing method, imaging apparatus, and program
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2005079948A (en) * 2003-09-01 2005-03-24 Pentax Corp Noise reduction device of digital camera
JP2005086236A (en) * 2003-09-04 2005-03-31 Casio Comput Co Ltd Imaging apparatus and program
JP2006119797A (en) * 2004-10-20 2006-05-11 Sony Ericsson Mobilecommunications Japan Inc Information providing system and mobile temrinal

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100167A (en) * 2007-10-16 2009-05-07 Casio Comput Co Ltd Imaging apparatus and program therefor
JP2009210875A (en) * 2008-03-05 2009-09-17 Casio Comput Co Ltd Celestial body observation apparatus
US8103126B2 (en) 2008-05-07 2012-01-24 Sony Corporation Information presentation apparatus, information presentation method, imaging apparatus, and computer program
JP2009271732A (en) * 2008-05-07 2009-11-19 Sony Corp Device and method for presenting information, imaging apparatus, and computer program
JP4600515B2 (en) * 2008-05-07 2010-12-15 ソニー株式会社 Information presenting apparatus, information presenting method, imaging apparatus, and computer program
JP2010122672A (en) * 2008-10-23 2010-06-03 Hoya Corp Digital camera
JP2015165722A (en) * 2008-10-23 2015-09-17 リコーイメージング株式会社 imaging apparatus
JP2014116962A (en) * 2008-10-23 2014-06-26 Ricoh Imaging Co Ltd Imaging apparatus
JP2010199898A (en) * 2009-02-24 2010-09-09 Casio Computer Co Ltd Image processor, imaging apparatus, image generation method and program
JP2010266817A (en) * 2009-05-18 2010-11-25 Ntt Docomo Inc Astronomical guide device, astronomical guide method, and program
JP2010287988A (en) * 2009-06-10 2010-12-24 Nikon Corp Photographing device
WO2011032014A1 (en) * 2009-09-10 2011-03-17 Qualcomm Incorporated Signal measurements employed to affect photographic parameters
US8121472B2 (en) 2009-09-10 2012-02-21 Babak Forutanpour Signal measurements employed to affect photographic parameters
JP2011172102A (en) * 2010-02-19 2011-09-01 Olympus Corp Imaging device
JP2011228877A (en) * 2010-04-19 2011-11-10 Nec Corp Landform display system, mobile terminal, and landform display method
US9509920B2 (en) 2010-04-28 2016-11-29 Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects, and camera employing this method
JP2014209795A (en) * 2010-04-28 2014-11-06 リコーイメージング株式会社 Photographing device and photographing method
US8717441B2 (en) 2010-05-19 2014-05-06 Pentax Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and camera employing this method
US8447071B2 (en) 2010-05-25 2013-05-21 Pentax Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and photographic apparatus employing this method
US9069064B2 (en) 2010-05-28 2015-06-30 Pentax Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and photographic apparatus employing this method
US9759801B2 (en) 2010-05-28 2017-09-12 Ricoh Imaging Company, Ltd. Method of automatically tracking and photographing celestial objects and photographic apparatus employing this method
JP2012055450A (en) * 2010-09-08 2012-03-22 Software Factory:Kk Golf support device
US8970763B2 (en) 2011-09-26 2015-03-03 Canon Kabushiki Kaisha Image pickup apparatus having electronic compass function, control method therefor, and storage medium
JP2013070335A (en) * 2011-09-26 2013-04-18 Canon Inc Imaging apparatus, control method thereof, and program
WO2013145791A1 (en) * 2012-03-28 2013-10-03 富士フイルム株式会社 Imaging device and method for controlling same
JP2014131315A (en) * 2014-02-12 2014-07-10 Olympus Imaging Corp Imaging apparatus and imaging method
JP2015159510A (en) * 2014-02-25 2015-09-03 オリンパス株式会社 Image pickup device and image pickup device control method
JP2015215427A (en) * 2014-05-08 2015-12-03 オリンパス株式会社 Imaging apparatus and imaging method
WO2015196897A1 (en) * 2014-06-24 2015-12-30 努比亚技术有限公司 Shooting method and shooting device
EP3712696A1 (en) * 2019-03-19 2020-09-23 Meinhardt, Barbara Device and method for optimizing photographic recording properties
FR3112401A1 (en) * 2020-07-09 2022-01-14 Unistellar Method and system for stereoscopic vision of a celestial observation scene
CN112560838A (en) * 2020-12-01 2021-03-26 北京字节跳动网络技术有限公司 Control method and device of image acquisition device, terminal and storage medium

Also Published As

Publication number Publication date
JP5034343B2 (en) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5034343B2 (en) Imaging apparatus and program
US7339731B2 (en) Self-aligning telescope
JP4775205B2 (en) Imaging apparatus, imaging method, and program
US8447071B2 (en) Method of automatically tracking and photographing celestial objects and photographic apparatus employing this method
US20060238861A1 (en) High definition telescope
US7589740B2 (en) Planetarium picture-creating apparatus and picture-creating method thereof
JP2009282406A (en) Fixed point observation apparatus and fixed point observation method
CN101847330B (en) Digital astronomical phenomena system, ball screen and data processing method
Luhmann A historical review on panorama photogrammetry
JP5479148B2 (en) Imaging device
Ratledge The art and science of CCD astronomy
JP5403045B2 (en) Imaging apparatus, imaging method, and program
CN201465319U (en) Digital astronomical phenomena system and dome-screen
JP2791926B2 (en) Light receiving amount measuring method, sunshine condition measuring method, solar cell installation method and solar cell system
JP3569097B2 (en) Imaging device and digital still camera
JP2006036009A (en) Position coordinate indicating method of geostationary satellite and coordinates indicating device using it
JP3758524B2 (en) Astronomical observation dome
Stuart CCD astrophotography: high-quality imaging from the suburbs
US11899195B2 (en) Information technology based astronomical telescope system
Gabryl et al. Polarization observations and results of the 1998 February 26th solar corona
JP3349961B2 (en) Portable communication device and image synthesizing method using the device
Andersen Analysis of Tumble Rate and Spin Axis Orientation for Rocket Bodies near Geostationary Altitude
O'Brien A Deep Sky Astrophotography Primer: Creating Stunning Images Is Easier Than You Think!
JP2016038401A (en) Astronomical guide device, astronomical guide method, and program
Ashley The Solar System and Video Astronomy

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5034343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees