JP2012089944A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2012089944A
JP2012089944A JP2010232948A JP2010232948A JP2012089944A JP 2012089944 A JP2012089944 A JP 2012089944A JP 2010232948 A JP2010232948 A JP 2010232948A JP 2010232948 A JP2010232948 A JP 2010232948A JP 2012089944 A JP2012089944 A JP 2012089944A
Authority
JP
Japan
Prior art keywords
imaging
unit
constellation
image
image acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010232948A
Other languages
Japanese (ja)
Inventor
Nobusuke Honma
伸祐 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010232948A priority Critical patent/JP2012089944A/en
Publication of JP2012089944A publication Critical patent/JP2012089944A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method capable of emphasizing and displaying an imaged celestial body.SOLUTION: An imaging apparatus of the present invention has an imaging part which shoots a subject in an angle of a view of a lens to obtain an image; a shooting direction detection part which detects a direction in which the lens is directed based on an elevation angle and a direction of the lens; a shooting range specification part which specifies a range of the sky included in the image obtained by the imaging part based on an acquisition position and an acquisition time of the image, the angle of the view of the lens, a detection result of the shooting direction detection part; a database part in which information on the celestial body is stored; and an image processing part which corrects at least either one of a size or brightness of each celestial body included in the image obtained by the imaging part based on the specified result of the shooting range specification part and the information stored in the database part.

Description

本発明は、撮像装置及び撮像方法に関し、特に、天体の撮像に好適な撮像装置及び撮像方法に関するものである。   The present invention relates to an imaging apparatus and an imaging method, and more particularly to an imaging apparatus and an imaging method suitable for imaging celestial bodies.

GPS(Global Positioning System)により現在位置の緯度及び経度等の位置情報を取得し、当該取得した位置情報を種々の処理に利用できるように構成された装置等が従来提案されている。具体的には、GPSにより現在位置の位置情報を取得し、当該取得した現在位置から見ることができる天空図を表示するような装置が提案されている。   Conventionally proposed is a device configured to acquire position information such as the latitude and longitude of the current position by GPS (Global Positioning System) and use the acquired position information for various processes. Specifically, an apparatus has been proposed that acquires position information of the current position by GPS and displays a sky map that can be viewed from the acquired current position.

また、例えば、特許文献1には、カメラにより撮影された画像データに含まれる一定の輝度を有する画素群と、天体データファイル中の天体データと、を比較することにより前記画素群に相当する天体を特定し、当該特定された画素群と天体との関連付けに基づいて、前記天体データファイルから、前記画素群に関連付けられた天体についての天体データの表示情報を取得し、前記画像データに前記表示情報を重ね合わせた合成画像データを生成する、という構成を具備する天体観測装置が開示されている。   Further, for example, Patent Document 1 discloses a celestial object corresponding to the pixel group by comparing a pixel group having a certain luminance included in image data captured by a camera with celestial data in the celestial data file. Based on the association between the identified pixel group and the celestial object, obtains celestial data display information about the celestial object associated with the pixel group from the celestial data file, and displays the display on the image data. An astronomical observation apparatus having a configuration for generating composite image data in which information is superimposed is disclosed.

特開2009−210875号公報JP 2009-210875 A

しかし、実際の天空を目視して星座を見つけるような場合においては、例えば、暗い星を視認可能な明るさで見ることができさえすれば星座を見つけることが可能な場合も多くあると考えられ、すなわち、特許文献1の合成画像に表示されるような種々の情報を必ずしも必要としない場合が考えられる。   However, in the case of finding a constellation by looking at the actual sky, for example, it may be possible to find a constellation as long as a dark star can be seen with a visible brightness. That is, there may be a case where various kinds of information displayed on the composite image of Patent Document 1 are not necessarily required.

本発明は、前述した事情に鑑みてなされたものであり、撮像した天体を強調して表示させることが可能な撮像装置及び撮像方法を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an imaging apparatus and an imaging method capable of displaying an imaged celestial object with emphasis.

本発明の撮像装置は、レンズの画角内の被写体を撮影して画像を取得する撮像部と、前記レンズの仰角及び方位に基づいて前記レンズが向いている方向を検出する撮影方向検出部と、前記画像の取得位置及び取得時刻と、前記レンズの画角と、前記撮影方向検出部の検出結果と、に基づき、前記撮像部により取得された画像に含まれる天空の範囲を特定する撮影範囲特定部と、天体に関する情報が格納されたデータベース部と、前記撮影範囲特定部の特定結果と、前記データベース部に格納された情報と、に基づき、前記撮像部により取得された画像内に含まれる各天体の大きさ及び明るさのうちの少なくとも一方を補正する画像処理部と、を有する。   An imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject within an angle of view of a lens and acquires an image, and an imaging direction detection unit that detects a direction in which the lens faces based on an elevation angle and an orientation of the lens. An imaging range that identifies a sky range included in the image acquired by the imaging unit based on the acquisition position and acquisition time of the image, the angle of view of the lens, and the detection result of the imaging direction detection unit Included in the image acquired by the imaging unit based on the specifying unit, the database unit storing information about the celestial body, the specifying result of the shooting range specifying unit, and the information stored in the database unit An image processing unit that corrects at least one of the size and brightness of each celestial body.

本発明の撮像方法は、レンズの画角内の被写体を撮影して画像を取得する撮像ステップと、前記レンズの仰角及び方位に基づいて前記レンズが向いている方向を検出する撮影方向検出ステップと、前記画像の取得位置及び取得時刻と、前記レンズの画角と、前記撮影方向検出ステップの検出結果と、に基づき、前記撮像ステップにより取得された画像に含まれる天空の範囲を特定する撮影範囲特定ステップと、前記撮影範囲特定ステップの特定結果と、データベース部に格納された天体に関する情報と、に基づき、前記撮像ステップにより取得された画像内に含まれる各天体の大きさ及び明るさのうちの少なくとも一方を補正する画像処理ステップと、を有する。   The imaging method of the present invention includes an imaging step of capturing an image of a subject within the angle of view of the lens and acquiring an image, and an imaging direction detecting step of detecting a direction in which the lens is facing based on an elevation angle and an orientation of the lens; An imaging range that identifies the sky range included in the image acquired by the imaging step based on the acquisition position and acquisition time of the image, the angle of view of the lens, and the detection result of the imaging direction detection step Of the size and brightness of each celestial body included in the image acquired by the imaging step based on the identification step, the identification result of the imaging range identification step, and the information about the celestial object stored in the database unit And an image processing step for correcting at least one of the above.

本発明における撮像装置及び撮像方法によれば、撮像した天体を強調して表示させることができる。   According to the imaging apparatus and the imaging method of the present invention, an imaged celestial body can be highlighted and displayed.

本発明の実施例に係るカメラの要部の構成を示すブロック図。1 is a block diagram illustrating a configuration of a main part of a camera according to an embodiment of the present invention. 撮影モード時に行われる処理等の一例を示すフローチャート。6 is a flowchart illustrating an example of processing performed in a shooting mode. 天体撮影補助モードが使用可能な場合のガイド表示の一例を示す図。The figure which shows an example of the guide display in case the astronomical photography assistance mode can be used. 星座情報の表示の一例を示す図。The figure which shows an example of the display of constellation information. サブ画面を含む画像データの表示の一例を示す図。The figure which shows an example of a display of the image data containing a sub screen. 再生モード時に行われる処理等の一例を示すフローチャート。The flowchart which shows an example of the process etc. which are performed at the time of reproduction | regeneration mode.

以下、本発明の実施の形態について、図面を参照しつつ説明を行う。図1から図6は、本発明の実施例に係るものである。   Embodiments of the present invention will be described below with reference to the drawings. 1 to 6 relate to an embodiment of the present invention.

図1は、本発明の実施例に係るカメラの要部の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of a main part of a camera according to an embodiment of the present invention.

デジタルカメラとしてのカメラ101は、図1に示すように、撮像部1と、方位センサ2と、傾きセンサ3と、撮影方向検出部4と、GPSレシーバ5と、画像処理部6と、データベース部7と、CPU8と、RAM(Random Access Memory)9と、表示部10と、表示制御部11と、メモリインターフェース12(以下、メモリI/F12)と、記録媒体13と、時計14と、操作部15と、バス16と、を有して構成されている。   As shown in FIG. 1, a camera 101 as a digital camera includes an imaging unit 1, an orientation sensor 2, an inclination sensor 3, an imaging direction detection unit 4, a GPS receiver 5, an image processing unit 6, and a database unit. 7, a CPU 8, a RAM (Random Access Memory) 9, a display unit 10, a display control unit 11, a memory interface 12 (hereinafter, memory I / F 12), a recording medium 13, a clock 14, and an operation unit 15 and a bus 16.

撮像部1は、レンズ、絞り機構、シャッター機構、焦点調整機構、及び、撮像素子等を備えている。また、撮像部1は、CPU8の制御に基づき、レンズの画角内の被写体を撮影するとともに、撮影した被写体に係る画像データを取得して出力するように構成されている。   The imaging unit 1 includes a lens, a diaphragm mechanism, a shutter mechanism, a focus adjustment mechanism, an imaging element, and the like. Further, the imaging unit 1 is configured to capture a subject within the angle of view of the lens and acquire and output image data relating to the photographed subject based on the control of the CPU 8.

方位センサ2は、撮像部1のレンズの方位(方位角に相当する角度)を随時検出し、検出結果を撮影方向検出部4へ出力する。   The azimuth sensor 2 detects the azimuth of the lens of the imaging unit 1 (an angle corresponding to the azimuth angle) as needed, and outputs the detection result to the photographing direction detection unit 4.

傾きセンサ3は、撮像部1のレンズの仰角(水平方向を基準とした場合の傾き角に相当する角度)を随時検出し、検出結果を撮影方向検出部4へ出力する。   The tilt sensor 3 detects the elevation angle of the lens of the imaging unit 1 (an angle corresponding to the tilt angle with respect to the horizontal direction) as needed, and outputs the detection result to the shooting direction detection unit 4.

撮影方向検出部4は、方位センサ2及び傾きセンサ3からそれぞれ出力される検出結果に基づき、撮像部1のレンズが向いている方向である撮影方向を検出して出力するように構成されている。   The photographing direction detection unit 4 is configured to detect and output a photographing direction, which is a direction in which the lens of the imaging unit 1 faces, based on detection results output from the orientation sensor 2 and the tilt sensor 3. .

GPSレシーバ5は、例えば、複数のGPS衛星から受信した電波に基づいて現在位置の測位を行い、測位結果を位置データとして出力するように構成されている。   For example, the GPS receiver 5 is configured to measure the current position based on radio waves received from a plurality of GPS satellites and output the positioning result as position data.

画像処理部6は、撮像部1により取得された画像データに対して種々の画像処理を施すことにより、記録媒体13に記録する画像ファイルの生成、レックビュー表示用の画像データの生成、及び、ライブビュー表示用の画像データの生成等を行うことができるように構成されている。また、画像処理部6は、記録媒体13に記録された画像ファイルを読み込み、当該読み込んだ画像ファイルに基づいて再生表示用の画像データを生成することができるように構成されている。   The image processing unit 6 performs various image processing on the image data acquired by the imaging unit 1, thereby generating an image file to be recorded on the recording medium 13, generating image data for recording view display, and It is configured to be able to generate image data for live view display. The image processing unit 6 is configured to read an image file recorded on the recording medium 13 and generate image data for reproduction display based on the read image file.

データベース部7には、天体に関する情報としての、星データベース7aと、星座データベース7bと、星雲データベース7cと、星図データベース7dと、がそれぞれ格納されている。   The database unit 7 stores a star database 7a, a constellation database 7b, a nebula database 7c, and a star map database 7d as information about celestial bodies.

星データベース7aには、例えば、天空の星の名称と、実現等級の値と、が各星毎に関連付けられた星データが複数格納されている。   In the star database 7a, for example, a plurality of star data in which a name of a sky star and a realization grade value are associated with each star are stored.

星座データベース7bには、例えば、星座の名称と、星座を構成する天体の名称と、星座の星座線と、が各星座毎に関連付けられた星座データが複数格納されている。   The constellation database 7b stores, for example, a plurality of constellation data in which constellation names, names of celestial bodies constituting the constellations, and constellation lines of the constellations are associated with each constellation.

星雲データベース7cには、例えば、星雲の名称と、星雲に属する星座の名称と、が各星雲毎に関連付けられた星雲データが複数格納されている。   The nebula database 7c stores, for example, a plurality of nebula data in which the names of nebulae and the names of constellations belonging to the nebulae are associated with each nebula.

星図データベース7dには、例えば、天空中の位置及び日時と、当該位置及び日時における天体の情報と、が関連付けられた星図データが含まれている。   The star map database 7d includes, for example, star map data in which a position and date / time in the sky are associated with information on celestial bodies at the position / date and time.

CPU8は、後述の処理を行う撮影範囲特定部8aを有して構成されている。また、CPU8は、図示しない不揮発性メモリに予め書き込まれたプログラムをカメラ101の各部の動作に応じて読み込み、当該読み込んだプログラムに基づく処理等を実行する。さらに、CPU8は、ユーザの操作に応じてバス16に出力される指示に基づき、当該指示に関連する各部に対して制御を行う。   The CPU 8 is configured to include an imaging range specifying unit 8a that performs processing described later. The CPU 8 reads a program written in advance in a nonvolatile memory (not shown) according to the operation of each unit of the camera 101, and executes processing based on the read program. Furthermore, the CPU 8 controls each unit related to the instruction based on an instruction output to the bus 16 in response to a user operation.

RAM9には、画像処理部6により処理された画像データ、及び、CPU8の演算結果に係るデータ等の各種データが一時的に記憶される。   The RAM 9 temporarily stores various data such as image data processed by the image processing unit 6 and data related to the calculation result of the CPU 8.

表示部10は、表示制御部11の制御に応じ、撮影直後の画像データを一定時間だけ表示するレックビュー表示、記録媒体13に記録された画像ファイルの再生表示、及び、撮影する被写体の構図を動画にて確認可能なライブビュー表示等の種々の画像表示を行うことができるように構成されている。また、表示部10は、タッチパネル機能を有して構成されており、画面上に表示されるスイッチ群の操作に応じた指示を行うことができるように構成されている。   Under the control of the display control unit 11, the display unit 10 displays a rec view display that displays image data immediately after shooting for a certain period of time, a playback display of an image file recorded on the recording medium 13, and a composition of the subject to be shot. Various image displays such as a live view display that can be confirmed by moving images can be performed. Further, the display unit 10 is configured to have a touch panel function, and is configured to be able to give an instruction according to an operation of a switch group displayed on the screen.

表示制御部11は、画像処理部6により処理された画像データを表示させるための制御を表示部10に対して行う。また、表示制御部11は、表示部10の画面上に表示するスイッチ群、及び、種々の情報の入力を促す入力画面等の、GUI(Graphical User Interface)に関する画像データを生成可能に構成されている。さらに、表示制御部11は、表示部10に表示されるGUIの操作に応じてなされた指示を、バス16を介してCPU8へ出力する。   The display control unit 11 controls the display unit 10 to display the image data processed by the image processing unit 6. Further, the display control unit 11 is configured to be able to generate image data related to a GUI (Graphical User Interface) such as a switch group to be displayed on the screen of the display unit 10 and an input screen for prompting input of various information. Yes. Further, the display control unit 11 outputs an instruction made in accordance with a GUI operation displayed on the display unit 10 to the CPU 8 via the bus 16.

メモリI/F12は、記録媒体13をカメラ101に電気的に接続することができるように構成されている。   The memory I / F 12 is configured so that the recording medium 13 can be electrically connected to the camera 101.

記録媒体13は、メモリカード等により構成されており、メモリI/F12に対して着脱することができるとともに、画像処理部6により生成された画像ファイルを格納することができる。   The recording medium 13 is configured by a memory card or the like, and can be attached to and detached from the memory I / F 12 and can store an image file generated by the image processing unit 6.

時計14は、現在の日付及び時刻を随時取得するとともに、取得結果を日時データとして出力するように構成されている。   The clock 14 is configured to acquire the current date and time as needed and output the acquisition result as date and time data.

操作部15には、電源ボタン、レリーズボタン、再生ボタン、及び、各種入力キー等の入力装置群が設けられている。   The operation unit 15 is provided with an input device group such as a power button, a release button, a playback button, and various input keys.

操作部15の電源ボタンは、ユーザの操作に応じ、カメラ101の電源をオンまたはオフに切り替えるための指示を行うことができるように構成されている。   The power button of the operation unit 15 is configured to be able to issue an instruction for switching the power of the camera 101 on or off in accordance with a user operation.

操作部15のレリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチとからなる2段スイッチを有して構成されている。CPU8は、レリーズボタンの半押しに応じてファーストレリーズスイッチがオンされると、AE(自動露出)及びAF(自動焦点)に係る動作等を実施させるための制御を撮像部1に対して行う。また、CPU8は、レリーズボタンの全押しに応じてセカンドレリーズスイッチがオンされると、被写体の撮影を実施させるための制御を撮像部1に対して行う。   The release button of the operation unit 15 includes a two-stage switch including a first release switch and a second release switch. When the first release switch is turned on in response to half-pressing of the release button, the CPU 8 controls the imaging unit 1 to perform operations related to AE (automatic exposure) and AF (automatic focus). In addition, when the second release switch is turned on in response to the release button being fully pressed, the CPU 8 performs control for causing the imaging unit 1 to perform shooting of the subject.

操作部15の再生ボタンは、ユーザの操作に応じ、被写体を撮影して得られた静止画を表示部10に表示させるための指示を行うことができるように構成されている。CPU8は、再生ボタンがオフされていることを検出した場合には、カメラ101の動作モードを撮影モードに設定し、ライブビュー表示を行うように画像処理部6及び表示制御部11を動作させる。また、CPU8は、再生ボタンがオンされていることを検出した場合には、カメラ101の動作モードを再生モードに設定し、記録媒体13に記録された画像ファイルを再生表示するように画像処理部6及び表示制御部11を動作させる。   The playback button of the operation unit 15 is configured to issue an instruction to display a still image obtained by photographing a subject on the display unit 10 in accordance with a user operation. When the CPU 8 detects that the playback button is turned off, the CPU 8 sets the operation mode of the camera 101 to the shooting mode, and operates the image processing unit 6 and the display control unit 11 to perform live view display. Further, when the CPU 8 detects that the playback button is turned on, the image processing unit sets the operation mode of the camera 101 to the playback mode and plays back and displays the image file recorded on the recording medium 13. 6 and the display control unit 11 are operated.

バス16は、カメラ101の内部で発生した各種データをカメラ101の各部に転送するための転送路として構成されている。また、バス16は、撮像部1と、撮影方向検出部4と、GPSレシーバ5と、画像処理部6と、データベース部7と、CPU8と、RAM9と、表示制御部11と、メモリI/F12と、時計14と、操作部15と、に接続されている。   The bus 16 is configured as a transfer path for transferring various data generated inside the camera 101 to each unit of the camera 101. In addition, the bus 16 includes an imaging unit 1, a shooting direction detection unit 4, a GPS receiver 5, an image processing unit 6, a database unit 7, a CPU 8, a RAM 9, a display control unit 11, and a memory I / F 12. And the clock 14 and the operation unit 15.

ここで、以上に述べたような構成を具備するカメラ101を用いて撮影を行う場合の動作等について説明を行う。図2は、撮影モード時に行われる処理等の一例を示すフローチャートである。   Here, an operation in the case of performing shooting using the camera 101 having the above-described configuration will be described. FIG. 2 is a flowchart illustrating an example of processing performed in the shooting mode.

まず、操作部15の電源ボタンの操作に応じてカメラ101の電源がオンされると、CPU8は、操作部15の再生ボタンがオンされているか否かを検出する(図2のステップS1)。そして、CPU8は、図2のステップS1において、操作部15の再生ボタンがオンされていることを検出した場合には、カメラ101の動作モードを再生モードに設定した(図2のステップS2)後、図6のステップS101に示す処理を続けて行う。   First, when the power of the camera 101 is turned on according to the operation of the power button of the operation unit 15, the CPU 8 detects whether or not the playback button of the operation unit 15 is turned on (step S1 in FIG. 2). When the CPU 8 detects that the playback button of the operation unit 15 is turned on in step S1 of FIG. 2, the CPU 8 sets the operation mode of the camera 101 to the playback mode (step S2 of FIG. 2). Then, the process shown in step S101 of FIG. 6 is continued.

また、CPU8は、図2のステップS1において、操作部15の再生ボタンがオフされていることを検出した場合には、カメラ101の動作モードを撮影モードに設定した後、撮影方向検出部4から出力される撮影方向と、GPSレシーバ5から出力される位置データと、時計14から出力される日時データと、撮像部1のレンズの画角の広さを示す画角データと、を取得する。   In addition, when the CPU 8 detects that the playback button of the operation unit 15 is turned off in step S <b> 1 in FIG. 2, the CPU 8 sets the operation mode of the camera 101 to the shooting mode, and then from the shooting direction detection unit 4. An imaging direction to be output, position data output from the GPS receiver 5, date / time data output from the clock 14, and field angle data indicating the width of the field angle of the lens of the imaging unit 1 are acquired.

具体的には、例えば、撮像部1のレンズが固定の画角を有する場合には、図示しない不揮発性メモリに格納されたデータを読み込むことにより、前述の画角データを取得することができる。または、例えば、撮像部1のレンズが交換可能なレンズユニットとして構成されている場合には、各レンズユニット毎に設けられた図示しない不揮発性メモリに格納されたデータを読み込むことにより、前述の画角データを取得することができる。   Specifically, for example, when the lens of the imaging unit 1 has a fixed angle of view, the above-described angle-of-view data can be acquired by reading data stored in a nonvolatile memory (not shown). Alternatively, for example, in the case where the lens of the imaging unit 1 is configured as a replaceable lens unit, by reading data stored in a nonvolatile memory (not shown) provided for each lens unit, the above-described image can be obtained. Corner data can be acquired.

一方、CPU8の撮影範囲特定部8aは、撮影方向と、位置データと、日時データと、画角データと、に基づき、カメラ101のスルー画像に相当する天空の範囲を特定するための処理を行う(図2のステップS3)。   On the other hand, the shooting range specifying unit 8a of the CPU 8 performs processing for specifying the sky range corresponding to the through image of the camera 101 based on the shooting direction, position data, date / time data, and angle of view data. (Step S3 in FIG. 2).

また、CPU8は、撮影方向及び日時データの取得結果に基づき、カメラ101により夜空が撮影されているか否かの判定を行う(図2のステップS4)。具体的には、CPU8は、撮像部1のレンズが水平方向に対して上側を向いていることを撮影方向検出部4から出力される撮影方向に基づいて検出し、かつ、現在時刻が日没から日の出までに相当する時刻であることを日時データに基づいて検出した場合に、カメラ101により夜空が撮影されているとの判定結果を得る。   Further, the CPU 8 determines whether or not the night sky is photographed by the camera 101 based on the photographing direction and date / time data acquisition result (step S4 in FIG. 2). Specifically, the CPU 8 detects that the lens of the imaging unit 1 is facing upward with respect to the horizontal direction based on the shooting direction output from the shooting direction detection unit 4, and the current time is sunset. When it is detected based on the date / time data that it is a time corresponding to the time from sunrise to sunrise, a determination result that the night sky is captured by the camera 101 is obtained.

CPU8は、図2のステップS4において、カメラ101により夜空が撮影されていないとの判定結果を得た場合には、通常の撮影モードに移行する。これに伴い、CPU8は、撮像部1により得られたスルー画像を表示部10にライブビュー表示させ(図2のステップS17)、レリーズボタンが全押しされたことを検出した際に画像データの撮影を行わせ(図2のステップS18及びステップS19)、撮影により得られた画像データを画像ファイルとして記録媒体13に記録させた後、(撮影の実施の有無に係わらず、)図2のステップS1に戻って処理を行う。   When the CPU 8 obtains a determination result that the night sky is not photographed by the camera 101 in step S4 of FIG. 2, the CPU 8 shifts to the normal photographing mode. Accordingly, the CPU 8 causes the live view display of the through image obtained by the imaging unit 1 to be displayed on the display unit 10 (step S17 in FIG. 2), and captures image data when it is detected that the release button is fully pressed. 2 (step S18 and step S19 in FIG. 2), and the image data obtained by shooting is recorded as an image file on the recording medium 13, and thereafter (regardless of whether shooting is performed or not), step S1 in FIG. Return to and process.

CPU8は、図2のステップS4において、カメラ101により夜空が撮影されているとの判定結果を得た場合には、さらに、位置データ及び日時データの取得結果に基づいて星図データベース7dに格納された星図データを参照することにより、カメラ101のスルー画像に相当する天空の範囲に星座が存在するか否かの判定を行う(図2のステップS5)。具体的には、CPU8は、例えば、特開2008−17223号公報に開示されているような手法を用いて処理を行うことにより、カメラ101のスルー画像に相当する天空の範囲に星座が存在するか否かの判定を行う。   When the CPU 8 obtains a determination result that the night sky is being photographed by the camera 101 in step S4 of FIG. 2, the CPU 8 further stores the result in the star map database 7d based on the acquisition result of the position data and date / time data. By referring to the star map data, it is determined whether or not a constellation exists in the sky range corresponding to the through image of the camera 101 (step S5 in FIG. 2). Specifically, the CPU 8 performs processing using a technique disclosed in, for example, Japanese Patent Application Laid-Open No. 2008-17223, so that a constellation exists in the sky range corresponding to the through image of the camera 101. It is determined whether or not.

CPU8は、図2のステップS5において、カメラ101のスルー画像に相当する天空の範囲に星座が存在しないとの判定結果を得た場合には、通常の撮影モードに移行する。これに伴い、CPU8は、撮像部1により得られたスルー画像を表示部10にライブビュー表示させ(図2のステップS17)、レリーズボタンが全押しされたことを検出した際に画像データの撮影を行わせ(図2のステップS18及びステップS19)、撮影により得られた画像データを画像ファイルとして記録媒体13に記録させた後、(撮影の実施の有無に係わらず、)図2のステップS1に戻って処理を行う。   When the CPU 8 obtains a determination result that there is no constellation in the sky range corresponding to the through image of the camera 101 in step S5 of FIG. 2, the CPU 8 shifts to the normal shooting mode. Accordingly, the CPU 8 causes the live view display of the through image obtained by the imaging unit 1 to be displayed on the display unit 10 (step S17 in FIG. 2), and captures image data when it is detected that the release button is fully pressed. 2 (step S18 and step S19 in FIG. 2), and the image data obtained by shooting is recorded as an image file on the recording medium 13, and thereafter (regardless of whether shooting is performed or not), step S1 in FIG. Return to and process.

CPU8は、図2のステップS5において、カメラ101のスルー画像に相当する天空の範囲に星座が存在するとの判定結果を得た場合には、天体撮影補助モードを使用可能である旨を表示部10にガイド表示させる(図2のステップS6)。   When the CPU 8 obtains a determination result that a constellation exists in the sky range corresponding to the through image of the camera 101 in step S5 in FIG. 2, the display unit 10 indicates that the astrophotography assistance mode can be used. Is displayed as a guide (step S6 in FIG. 2).

具体的には、CPU8は、カメラ101のスルー画像に相当する天空の範囲に星座が存在するとの判定結果を得た場合に、ユーザの指等で触れることにより天体撮影補助モードを使用する旨の指示を行うことが可能なスイッチ機能を有する、例えば図3の星印として示すようなアイコン201を表示部10の画面の隅部に表示させる。   Specifically, when the CPU 8 obtains a determination result that a constellation exists in the sky range corresponding to the through image of the camera 101, the CPU 8 uses the astronomical imaging assistance mode by touching with a user's finger or the like. An icon 201 having a switch function capable of giving an instruction, for example, as shown by an asterisk in FIG. 3, is displayed at the corner of the screen of the display unit 10.

その後、CPU8は、天体撮影補助モードを使用する旨の指示が行われない場合においては(図2のステップS7)、通常の撮影モードに移行する。これに伴い、CPU8は、撮像部1により得られたスルー画像を表示部10にライブビュー表示させ(図2のステップS17)、レリーズボタンが全押しされたことを検出した際に画像データの撮影を行わせ(図2のステップS18及びステップS19)、撮影により得られた画像データを画像ファイルとして記録媒体13に記録させた後、(撮影の実施の有無に係わらず、)図2のステップS1に戻って処理を行う。   Thereafter, when the instruction to use the astronomical photographing assist mode is not issued (step S7 in FIG. 2), the CPU 8 shifts to the normal photographing mode. Accordingly, the CPU 8 causes the live view display of the through image obtained by the imaging unit 1 to be displayed on the display unit 10 (step S17 in FIG. 2), and captures image data when it is detected that the release button is fully pressed. 2 (step S18 and step S19 in FIG. 2), and the image data obtained by shooting is recorded as an image file on the recording medium 13, and thereafter (regardless of whether shooting is performed or not), step S1 in FIG. Return to and process.

一方、CPU8は、天体撮影補助モードを使用する旨の指示が行われたことを検出すると(図2のステップS7)、さらに、画角内に存在する各星座のうちの少なくとも1つを星座として識別可能な状態で撮影できるか否かの判定を行う(図2のステップS8)。   On the other hand, when the CPU 8 detects that an instruction to use the astrophotography assistance mode has been made (step S7 in FIG. 2), at least one of the constellations existing in the angle of view is further set as the constellation. It is determined whether or not shooting is possible in an identifiable state (step S8 in FIG. 2).

具体的には、CPU8は、図示しないメモリ等に格納されている設定データを読み込むことにより撮影時の画像サイズの設定を取得するとともに、画角内に存在する各星座の中から最も大きく映っている星座を抽出し、当該抽出した星座の画角内における横幅Ph及び縦幅Pvを取得する。そして、CPU8は、横幅Phが撮影時の画像サイズの横幅の15%を超えていることを検出した場合、または、縦幅Pvが撮影時の画像サイズの縦幅の15%を超えていることを検出した場合のいずれかにおいて、画角内に存在する星座を星座として識別可能な状態で撮影できるとの判定結果を得る。   Specifically, the CPU 8 acquires setting of the image size at the time of shooting by reading setting data stored in a memory or the like (not shown), and shows the largest image among the constellations existing in the angle of view. The constellation is extracted, and the horizontal width Ph and the vertical width Pv within the angle of view of the extracted constellation are acquired. When the CPU 8 detects that the horizontal width Ph exceeds 15% of the horizontal width of the image size at the time of shooting, or the vertical width Pv exceeds 15% of the vertical width of the image size at the time of shooting. In any of the cases where the constellation is detected, a determination result is obtained that the constellation existing within the angle of view can be photographed in a state that can be identified as the constellation.

CPU8は、図2のステップS8において、画角内に存在する星座を星座として識別可能な状態で撮影できないとの判定結果を得た場合には、後述の図2のステップS12の処理を続けて行う。   If the CPU 8 obtains a determination result that the constellation existing within the angle of view cannot be photographed in a state that can be identified as a constellation in step S8 of FIG. 2, the CPU 8 continues the process of step S12 of FIG. Do.

CPU8は、図2のステップS8において、画角内に存在する星座を星座として識別可能な状態で撮影できるとの判定結果を得た場合には、スルー画像内に映っている各星座を強調表示させる(図2のステップS9)。   When the CPU 8 obtains a determination result that the constellation existing in the angle of view can be photographed in a state that can be identified as the constellation in step S8 of FIG. 2, the CPU 8 highlights each constellation reflected in the through image. (Step S9 in FIG. 2).

ここで、図2のステップS9の強調表示の際に行われる処理について、画角内に存在する星座が1つである場合を例に挙げて説明を行う。   Here, the process performed at the time of highlighting in step S9 in FIG. 2 will be described by taking as an example the case where there is one constellation existing in the angle of view.

まず、CPU8は、星データベース7a及び星座データベース7bを参照することにより、画角内の星座を構成する各星のうち、最も明るい星の実現等級S1と、最も暗い星の実現等級S2と、をそれぞれ取得した後、S1の値からS2の値を減ずることにより、実現等級の差分値Sdを算出する。   First, the CPU 8 refers to the star database 7a and the constellation database 7b to determine the brightest star realization class S1 and the darkest star realization class S2 among the stars constituting the constellation in the angle of view. After each acquisition, the difference value Sd of the realization class is calculated by subtracting the value of S2 from the value of S1.

そして、CPU8は、星座を構成する各星の中からスルー画像内に最も大きく映っている星の大きさ(面積)Dbを取得した後、下記の数式(1)を用いた演算を行うことにより、強調表示時の描画対象となる星の大きさ(面積)Dxを星座を構成する各星毎に算出する。なお、下記の数式(1)におけるSxは、強調表示時の描画対象となる星の実現等級(S2≦Sx≦S1)を示すものであって、星データベース7aを参照することにより取得可能な値である。また、下記の数式(1)におけるNは、強調表示時の拡大倍率に相当するものであって、予め所定値(例えばN=3)に設定されているとともに、ユーザの所望の値に変更することができる。   Then, the CPU 8 obtains the size (area) Db of the star reflected most in the through image from among the stars constituting the constellation, and then performs the calculation using the following formula (1). The size (area) Dx of the star to be drawn at the time of highlighting is calculated for each star constituting the constellation. Note that Sx in the following formula (1) indicates the realization class (S2 ≦ Sx ≦ S1) of the star to be drawn at the time of highlighting, and is a value that can be acquired by referring to the star database 7a. It is. N in the following formula (1) corresponds to the enlargement magnification at the time of highlighting, and is set in advance to a predetermined value (for example, N = 3) and is changed to a user's desired value. be able to.


Dx=N×Db×{S2−(Sx−S1)}/(Sd+1) ・・・(1)

一方、CPU8は、スルー画像内に映っている天体(月及び星等)を除いた部分の平均輝度Ybを算出した後、撮影時の画像データにおいて表現可能な最大輝度Ym(例えば8ビットにより表現される場合にはYm=255)の値からYbの値を減ずることにより、輝度の差分値Ywを算出する。

Dx = N * Db * {S2- (Sx-S1)} / (Sd + 1) (1)

On the other hand, the CPU 8 calculates the average luminance Yb of the portion excluding the celestial bodies (such as the moon and stars) reflected in the through image, and then expresses the maximum luminance Ym (for example, represented by 8 bits) that can be expressed in the image data at the time of shooting. In this case, the luminance difference value Yw is calculated by subtracting the Yb value from the Ym = 255) value.

その後、CPU8は、下記の数式(2)を用いた演算を行うことにより、強調表示時の描画対象となる星の輝度Yxを星座を構成する各星毎に算出する。   Thereafter, the CPU 8 calculates the brightness Yx of the star to be drawn at the time of highlighting for each star constituting the constellation by performing a calculation using the following formula (2).


Yx={Yw−(Yw/Sd+2)×(Sx−S1)}+Yb ・・・(2)

そして、CPU8は、画像処理部6に対し、星座を構成する各星毎に算出したDx及びYxの値を用いてスルー画像内の星座を描画するように制御を行う。

Yx = {Yw− (Yw / Sd + 2) × (Sx−S1)} + Yb (2)

Then, the CPU 8 controls the image processing unit 6 to draw the constellation in the through image using the values of Dx and Yx calculated for each star constituting the constellation.

一方、画像処理部6は、星座を構成する各星の大きさをDxの値に応じたものに補正して描画するとともに、星座を構成する各星の明るさをYxの値に応じたものに補正して描画する処理を行う。さらに、画像処理部6は、CPU8の演算結果により得られたYxの値に基づき、星座を構成する各星を、星の中心部から周辺部にかけて段階的に暗くなってゆくように描画する。   On the other hand, the image processing unit 6 corrects and draws the size of each star constituting the constellation according to the value of Dx, and the brightness of each star constituting the constellation according to the value of Yx The drawing process is performed after correction. Further, the image processing unit 6 draws each star constituting the constellation so as to gradually darken from the center to the periphery of the star based on the value of Yx obtained from the calculation result of the CPU 8.

具体的には、画像処理部6は、スルー画像内における描画対象の星を選択し、選択した星を大きさ(面積)Dxに拡大し、拡大された星に相当する画素群に含まれる各画素の座標を特定する。そして、画像処理部6は、拡大された星に相当する画素群に含まれる各画素の輝度を、下記の数式(3)の演算結果として得られる輝度Ypを用いて決定しながら描画を行う。なお、下記の数式(3)におけるHwは、拡大された星に相当する画素群の横幅を示す値(画素数)である。また、下記の数式(3)におけるHxは、拡大された星に相当する画素群の中心画素から描画対象の画素までの距離を示す値であって、当該画素群において特定した各画素の座標に基づいて算出することができる。   Specifically, the image processing unit 6 selects a drawing target star in the through image, expands the selected star to a size (area) Dx, and includes each of the pixels included in the pixel group corresponding to the enlarged star. Specify pixel coordinates. Then, the image processing unit 6 performs drawing while determining the luminance of each pixel included in the pixel group corresponding to the enlarged star using the luminance Yp obtained as the calculation result of the following formula (3). In the following mathematical formula (3), Hw is a value (number of pixels) indicating the horizontal width of the pixel group corresponding to the enlarged star. Hx in Equation (3) below is a value indicating the distance from the central pixel of the pixel group corresponding to the enlarged star to the pixel to be drawn, and is the coordinate of each pixel specified in the pixel group. Can be calculated based on this.


Yp=Yx×(Hw−Hx)/Hw ・・・(3)

そして、以上に述べた処理等を経て得られたDx、Yx及びYpの値に基づく描画が行われることにより、スルー画像内に映っている星座を構成する各星を(ライブビューにて)強調表示させることができる。さらに、以上に例示した処理等を画角内に存在する星座の数に応じて繰り返し行うことにより、画角内に星座が複数存在する場合であっても、各星座毎に(ライブビューにて)同様の強調表示を行わせることができる。

Yp = Yx × (Hw−Hx) / Hw (3)

Then, by drawing based on the values of Dx, Yx, and Yp obtained through the processing described above, each star constituting the constellation reflected in the through image is emphasized (in live view). Can be displayed. Furthermore, by repeating the above-described processing and the like according to the number of constellations present in the angle of view, even if there are multiple constellations in the angle of view, for each constellation (in live view) ) The same highlighting can be performed.

なお、画像処理部6は、以上に例示した処理等による強調表示の際に、星以外の他の光源を削除して描画を行うものとする。   It is assumed that the image processing unit 6 performs drawing by deleting light sources other than stars when performing highlighting by the processes exemplified above.

また、画像処理部6は、以上に例示した処理等による強調表示の際に、星座を構成する星以外の他の星を削除して描画してもよく、または、星座を構成する星以外の他の星に対する処理を行わずに描画してもよい。   In addition, the image processing unit 6 may draw a star other than the stars constituting the constellation in the highlighting by the processing exemplified above, or may be drawn other than the stars constituting the constellation. You may draw without performing processing for other stars.

さらに、画像処理部6は、以上に例示した処理等による強調表示の際に、星データベース7a及び星座データベース7bを参照することにより、星座を示すための星座線を併せて描画するものであっても良い。   Further, the image processing unit 6 draws a constellation line for indicating a constellation by referring to the star database 7a and the constellation database 7b in highlighting by the processing exemplified above. Also good.

なお、画像処理部6は、以上に例示した処理等において用いられるパラメータである、強調表示時の描画対象となる星の大きさ(面積)Dx、及び、強調表示時の描画対象となる星の輝度Yxを、画角内の各星座を構成する星毎に算出するものに限らず、例えば、(星座を構成する星であるか否かに関係なく、)画角内に存在する全ての星毎に算出するものであっても良い。このような場合においては、画角内に存在する全ての星の中で最も明るい星の実現等級をS1とし、画角内に存在する全ての星の中で最も暗い星の実現等級をS2とし、画角内に存在する全ての星の中で最も大きく映っている星の大きさ(面積)をDbとすることにより、画角内に存在する各星毎に個別にDx及びYxの値を求めることができる。   The image processing unit 6 is a parameter used in the above-described processing or the like, and is a size (area) Dx of a star to be drawn at the time of highlighting and a star to be drawn at the time of highlighting. The brightness Yx is not limited to one calculated for each star constituting each constellation within the angle of view, for example, all stars existing within the angle of view (regardless of whether or not they are stars constituting the constellation). It may be calculated every time. In such a case, the realization grade of the brightest star among all the stars existing in the angle of view is S1, and the realization grade of the darkest star among all the stars existing in the angle of view is S2. By setting Db as the size (area) of the star that is the largest among all the stars existing in the angle of view, the values of Dx and Yx are individually determined for each star existing in the angle of view. Can be sought.

また、本実施例の画像処理部6は、星の大きさをDxの値に応じたものに補正する(拡大する)処理、及び、星の明るさをYxの値に応じたものに補正する(明るくする)処理を併せて行うものに限らず、いずれか一方の処理のみを行うものであってもよい。   Further, the image processing unit 6 of the present embodiment corrects (enlarges) the star size according to the value of Dx, and corrects the star brightness according to the value of Yx. It is not limited to performing the (brightening) process together, and only one of the processes may be performed.

一方、CPU8は、図2のステップS9の強調表示がなされている最中に、レリーズボタンの全押しによる撮影操作が行われたか否かを判定する(図2のステップS10)。そして、CPU8は、図2のステップS9の強調表示がなされている最中に撮影操作が行われない場合には、図2のステップS1に戻って処理を行う。   On the other hand, the CPU 8 determines whether or not a shooting operation has been performed by fully pressing the release button while the highlighting in step S9 in FIG. 2 is being performed (step S10 in FIG. 2). Then, when the shooting operation is not performed during the highlighted display in step S9 in FIG. 2, the CPU 8 returns to step S1 in FIG. 2 to perform the process.

また、CPU8は、図2のステップS9の強調表示がなされている最中に撮影操作が行われたことを検出すると、図2のステップS9の強調表示がなされていない状態の画像データと、図2のステップS9の強調表示がなされた状態の画像データと、の2つの画像データを一度の撮影において取得させる(図2のステップS11)。さらに、CPU8は、図2のステップS11の撮影により得られた2つの画像データに応じた画像ファイルをそれぞれ生成させ、画像ファイル同士を二つ一組として関連付けた状態で記録媒体13に記録させた後、(図2のステップS11の撮影の実施の有無に係わらず、)図2のステップS1に戻って処理を行う。   Further, when the CPU 8 detects that the photographing operation is performed while the highlighting in step S9 in FIG. 2 is being performed, the image data in the state in which the highlighting in step S9 in FIG. Two pieces of image data, that is, the image data that has been highlighted in step S9 in step 2 are acquired in one shooting (step S11 in FIG. 2). Further, the CPU 8 generates image files corresponding to the two image data obtained by the photographing in step S11 of FIG. 2, and records them on the recording medium 13 in a state where the image files are associated with each other as a pair. Thereafter, the process returns to step S1 in FIG. 2 to perform processing (regardless of whether or not the shooting in step S11 in FIG. 2 is performed).

一方、CPU8は、図2のステップS8において、画角内に存在する星座を星座として識別可能な状態で撮影できないとの判定結果を得た場合には、星座が存在する場所を報知するための情報(例えば矢印等)を表示部10の画面内に表示させる(図2のステップS12)。   On the other hand, when the CPU 8 obtains a determination result that the constellation existing in the angle of view cannot be photographed in a state where it can be identified as the constellation in step S8 in FIG. 2, the CPU 8 notifies the location of the constellation. Information (for example, an arrow etc.) is displayed on the screen of the display part 10 (step S12 of FIG. 2).

具体的には、CPU8は、画角内に存在する星座を星座として識別可能な状態で撮影できないとの判定結果を得た場合、例えば図4に示すように、星座が存在する場所と星座名とを併せた星座情報202を、表示部10の画面内の各星座の近傍に表示させる。   Specifically, when the CPU 8 obtains the determination result that the constellation existing in the angle of view cannot be photographed in a state where it can be identified as the constellation, for example, as shown in FIG. Is displayed in the vicinity of each constellation in the screen of the display unit 10.

その後、CPU8は、星座情報202が表示されている各星座の中から、ユーザによりいずれかの星座が選択されたか否かの判定を行う(図2のステップS13)。   Thereafter, the CPU 8 determines whether any constellation has been selected by the user from among the constellations for which the constellation information 202 is displayed (step S13 in FIG. 2).

具体的には、CPU8は、例えば、表示部10の画面内に表示されている各星座情報202のうちのいずれかにユーザの指等が触れたことを検出した場合に、検出結果に応じた星座が選択されたとの判定結果を得る。   Specifically, for example, when the CPU 8 detects that the user's finger or the like has touched any of the constellation information 202 displayed on the screen of the display unit 10, the CPU 8 responds to the detection result. A determination result that the constellation has been selected is obtained.

そして、CPU8は、図2のステップS13において、星座の選択がなされなかった場合には、図2のステップS1に戻って処理を行う。また、CPU8は、図2のステップS13において、星座情報202が表示されている各星座の中からいずれかの星座が選択されたことを検出した場合に、当該選択された星座を含むサブ画面の画像データを生成して表示部10に表示させる(図2のステップS14)。   If the constellation is not selected in step S13 in FIG. 2, the CPU 8 returns to step S1 in FIG. 2 to perform processing. Further, when the CPU 8 detects that any constellation is selected from the constellations for which the constellation information 202 is displayed in step S13 of FIG. 2, the CPU 8 displays the sub screen including the selected constellation. Image data is generated and displayed on the display unit 10 (step S14 in FIG. 2).

ここで、図2のステップS14のサブ画面の画像データの生成の際に行われる処理について、図4に示す各星座の中から「かに座」が選択された場合を例に挙げて説明を行う。   Here, the processing performed when generating the image data of the sub screen in step S14 in FIG. 2 will be described by taking as an example the case where “crab” is selected from the constellations shown in FIG. Do.

CPU8は、かに座が映っている部分をスルー画像の中から切り取らせた後、予め設定された拡大倍率で拡大させる。   The CPU 8 cuts out the portion where the Cancer is reflected from the through image, and then enlarges it at a preset magnification.

CPU8は、切り取られて拡大された状態のかに座の画像データに対し、図2のステップS9の強調表示の際に行われるものと同じ画像処理を施すことにより、かに座を構成する各星が強調表示された状態のサブ画面の画像データを生成させる。   The CPU 8 performs the same image processing as that performed at the highlighting in step S9 in FIG. The image data of the sub screen in a state where is highlighted is generated.

そして、CPU8は、例えば図5に示すように、スルー画像内に映っているかに座に被らない位置にサブ画面203を配置して表示させる。なお、このとき、図4に示す各星座の中から選択された星座である「かに座」以外の星座情報202が一時的に非表示になるものとする。   Then, for example, as shown in FIG. 5, the CPU 8 arranges and displays the sub-screen 203 at a position that is reflected in the through image or does not cover the seat. At this time, it is assumed that the constellation information 202 other than the “constellation” that is a constellation selected from the constellations shown in FIG. 4 is temporarily hidden.

CPU8は、図2のステップS14において生成されたサブ画面203が表示されている最中に、レリーズボタンの全押しによる撮影操作が行われたか否かを判定する(図2のステップS15)。そして、CPU8は、図2のステップS14において生成されたサブ画面203が表示されている最中に撮影操作が行われない場合には、図2のステップS1に戻って処理を行う。   The CPU 8 determines whether or not a shooting operation has been performed by fully pressing the release button while the sub-screen 203 generated in step S14 of FIG. 2 is being displayed (step S15 of FIG. 2). If the photographing operation is not performed while the sub screen 203 generated in step S14 of FIG. 2 is being displayed, the CPU 8 returns to step S1 of FIG. 2 to perform the process.

また、CPU8は、図2のステップS14において生成されたサブ画面203が表示されている最中に撮影操作が行われたことを検出すると、サブ画面203がない状態の画像データと、サブ画面203付きの画像データ(図5参照)と、の2つの画像データを一度の撮影において取得させる(図2のステップS16)。さらに、CPU8は、図2のステップS16の撮影により得られた2つの画像データに応じた画像ファイルをそれぞれ生成させ、画像ファイル同士を二つ一組として関連付けた状態で記録媒体13に記録させた後、(図2のステップS16の撮影の実施の有無に係わらず、)図2のステップS1に戻って処理を行う。   When the CPU 8 detects that a photographing operation has been performed while the sub screen 203 generated in step S14 of FIG. 2 is being displayed, the CPU 8 displays the image data without the sub screen 203 and the sub screen 203. The attached image data (see FIG. 5) and the two image data are acquired in one shooting (step S16 in FIG. 2). Further, the CPU 8 generates image files corresponding to the two image data obtained by the photographing in step S16 of FIG. 2, and records them on the recording medium 13 in a state where the image files are associated with each other as a set. Thereafter, the process returns to step S1 in FIG. 2 to perform processing (regardless of whether or not the shooting in step S16 in FIG. 2 is performed).

次に、記録媒体13に記録された画像データを再生表示する場合の動作等について説明を行う。図6は、再生モード時に行われる処理等の一例を示すフローチャートである。   Next, operations for reproducing and displaying the image data recorded on the recording medium 13 will be described. FIG. 6 is a flowchart illustrating an example of processing performed in the playback mode.

CPU8は、図2のステップS2においてカメラ101の動作モードを再生モードに設定した後、表示部10に表示されるスイッチ、または、操作部15の入力装置群においてアニメーションモードが選択されたか否かの判定を行う(図6のステップS101)。   The CPU 8 determines whether or not the animation mode is selected in the switch displayed on the display unit 10 or the input device group of the operation unit 15 after setting the operation mode of the camera 101 to the playback mode in step S2 of FIG. A determination is made (step S101 in FIG. 6).

CPU8は、図6のステップS101において、アニメーションモードが選択されていないとの判定結果を得た場合には、通常の再生表示を行う(図6のステップS109)。これに伴い、CPU8は、記録媒体13に記録された画像ファイルを表示部10に一覧表示(サムネイル表示)させ、一覧表示されている中から選択された画像ファイルの画像データを再生表示させた後、後述の図6のステップS110の処理を続けて行う。   When the CPU 8 obtains a determination result that the animation mode is not selected in step S101 in FIG. 6, the CPU 8 performs normal reproduction display (step S109 in FIG. 6). Accordingly, the CPU 8 displays a list of image files recorded on the recording medium 13 on the display unit 10 (thumbnail display), and reproduces and displays the image data of the image file selected from the list displayed. Then, the process of step S110 in FIG.

また、CPU8は、図6のステップS101において、アニメーションモードが選択されたとの判定結果を得た場合には、さらに、強調表示時に撮影して得た二つ一組の画像データ(図2のステップS11の撮影により得られた画像データ)が記録媒体13に記録された各画像ファイルの中にあるか否かの判定を行う(図6のステップS102)。   Further, when the CPU 8 obtains the determination result that the animation mode is selected in step S101 in FIG. 6, the CPU 8 further sets two sets of image data obtained by photographing at the time of highlighting (step in FIG. 2). It is determined whether or not the image data obtained by photographing in S11 is in each image file recorded on the recording medium 13 (step S102 in FIG. 6).

CPU8は、図6のステップS102において、強調表示時に撮影して得た二つ一組の画像データが記録媒体13に記録された各画像ファイルの中にないとの判定結果を得た場合には、通常の再生表示を行う(図6のステップS109)。これに伴い、CPU8は、記録媒体13に記録された画像ファイルを表示部10に一覧表示(サムネイル表示)させ、一覧表示されている中から選択された画像ファイルの画像データを再生表示させた後、後述の図6のステップS110の処理を続けて行う。   When the CPU 8 obtains a determination result in step S102 in FIG. 6 that the pair of image data obtained by photographing at the time of highlighting is not in each image file recorded on the recording medium 13. Then, normal reproduction display is performed (step S109 in FIG. 6). Accordingly, the CPU 8 displays a list of image files recorded on the recording medium 13 on the display unit 10 (thumbnail display), and reproduces and displays the image data of the image file selected from the list displayed. Then, the process of step S110 in FIG.

また、CPU8は、図6のステップS102において、強調表示時に撮影して得た二つ一組の画像データが記録媒体13に記録された各画像ファイルの中にあるとの判定結果を得た場合には、この判定結果に該当する二つ一組の画像ファイルを記録媒体13から全て抽出した後、抽出結果として得られた各画像ファイルの中からいずれか一組の画像ファイルを選択させるための選択画面を表示させる。   In addition, when the CPU 8 obtains a determination result in step S102 of FIG. 6 that each set of image data obtained by photographing at the time of highlighting is in each image file recorded on the recording medium 13. For extracting two sets of image files corresponding to the determination result from the recording medium 13 and then selecting one set of image files from the image files obtained as the extraction result. Display the selection screen.

その後、CPU8は、アニメーション処理を施すいずれか一組の画像ファイルが前述の選択画面において選択された(図6のステップS103)ことを検出すると、予め設定されたフレーム数Fn(例えば30fps×3秒=90フレーム)に基づき、強調表示が施される前(星の大きさを拡大する前)の画像データを1番目のフレームとして設定し、強調表示が施された後(星の大きさを拡大し終わった後)の画像データをFn番目のフレーム(最終フレーム)として設定する。そして、CPU8は、1番目のフレームの画像データを処理量=0と定め、かつ、Fn番目のフレームの画像データを処理量=1として定めることにより、1番目のフレームの画像データからFn番目のフレームの画像データへ至るアニメーション処理を行う際の1フレーム分の処理量1/Fnを決定する(図6のステップS104)。   Thereafter, when the CPU 8 detects that any one set of image files to be subjected to animation processing has been selected on the selection screen (step S103 in FIG. 6), the number of frames Fn set in advance (for example, 30 fps × 3 seconds). = 90 frames), the image data before highlighting (before enlarging the star size) is set as the first frame, and after highlighting (enlarging the star size) Then, the image data is set as the Fn-th frame (final frame). Then, the CPU 8 sets the image data of the first frame as processing amount = 0 and sets the image data of the Fn-th frame as processing amount = 1, so that the Fn-th image data from the image data of the first frame is determined. A processing amount 1 / Fn for one frame when performing the animation processing up to the image data of the frame is determined (step S104 in FIG. 6).

画像処理部6は、CPU8により決定された処理量1/Fnに基づき、図6のステップS103により選択された画像ファイルの画像データ内に含まれる各星の大きさが1フレームにつき1/Fnずつの割合で徐々に拡大してゆくように描画を行う(図6のステップS105)。なお、画像処理部6は、図6のステップS105において、各星の大きさを1フレームにつき1/Fnずつの割合で徐々に拡大してゆくに併せ、各星の明るさを1フレームにつき1/Fnずつの割合で徐々に明るくしてゆくように描画を行うものであってもよい。   Based on the processing amount 1 / Fn determined by the CPU 8, the image processing unit 6 determines that the size of each star included in the image data of the image file selected in step S103 in FIG. 6 is 1 / Fn per frame. Drawing is performed so as to gradually enlarge at a rate of (step S105 in FIG. 6). In step S105 of FIG. 6, the image processing unit 6 gradually increases the size of each star at a rate of 1 / Fn per frame, and sets the brightness of each star to 1 per frame. The image may be drawn so as to be gradually brightened at a rate of / Fn.

また、画像処理部6は、星データベース7a及び星座データベース7bを参照することにより、図6のステップS103において選択された画像データ内に含まれる各星座と、該各星座を示すための星座線と、を検出する。そして、画像処理部6は、CPU8により決定された処理量1/Fnに基づき、図6のステップS103により選択された画像データ内に含まれる各星座の星座線が1フレームにつき1/Fnずつの割合で徐々に付加されてゆくように描画を行う(図6のステップS106)。なお、図6のステップS106の処理により1フレーム毎に付加される星座線は、1/Fnずつ浮かび上がるように描画されるものであってもよく、または、星座を構成する各星から1/Fnずつ伸びてゆくように描画されるものであってもよい。   In addition, the image processing unit 6 refers to the star database 7a and the constellation database 7b, so that each constellation included in the image data selected in step S103 in FIG. 6 and a constellation line for indicating each constellation , Is detected. Then, based on the processing amount 1 / Fn determined by the CPU 8, the image processing unit 6 sets the constellation line of each constellation included in the image data selected in step S103 of FIG. 6 to 1 / Fn per frame. Drawing is performed so as to be gradually added at a rate (step S106 in FIG. 6). Note that the constellation line added for each frame by the process of step S106 in FIG. 6 may be drawn so as to float by 1 / Fn, or 1 / Fn from each star constituting the constellation. It may be drawn so as to extend by Fn.

さらに、画像処理部6は、星座データベース7b及び星雲データベース7cを参照することにより、図6のステップS106により検出された各星座が属する星雲を特定する。そして、画像処理部6は、CPU8により決定された処理量1/Fnに基づき、図6のステップS103により選択された画像データ内に含まれる星雲が1フレームにつき1/Fnずつの割合で徐々に着色されてゆくように描画を行う(図6のステップS107)。   Further, the image processing unit 6 specifies the nebula to which each constellation detected in step S106 of FIG. 6 belongs by referring to the constellation database 7b and the nebula database 7c. Then, based on the processing amount 1 / Fn determined by the CPU 8, the image processing unit 6 gradually adds nebulae contained in the image data selected in step S103 in FIG. 6 at a rate of 1 / Fn per frame. Drawing is performed so as to be colored (step S107 in FIG. 6).

そして、画像処理部6は、Fn番目のフレーム(最終フレーム)の画像データに達するまでの間、図6のステップS105からステップS107の処理を繰り返し行うとともに、Fn番目のフレーム(最終フレーム)の画像データに対する処理が施されたことを検出する(図6のステップS108)と、一連のアニメーション処理を完了する。   Then, the image processing unit 6 repeatedly performs the processing from step S105 to step S107 in FIG. 6 until the image data of the Fnth frame (final frame) is reached, and the image of the Fnth frame (final frame). When it is detected that the data has been processed (step S108 in FIG. 6), a series of animation processing is completed.

一方、CPU8は、図6のステップS108またはステップS109の処理を経た後、(例えば操作部15の再生ボタンがオフされること等により、)再生表示を終了させる指示がなされたことを検出するまでの間、図6のステップS101以降の処理を繰り返し行う(図6のステップS110)。   On the other hand, after the process of step S108 or step S109 of FIG. 6 is performed, the CPU 8 detects that an instruction to end the reproduction display is made (for example, by turning off the reproduction button of the operation unit 15). 6 repeatedly after step S101 in FIG. 6 (step S110 in FIG. 6).

また、CPU8は、操作部15の操作に応じ、画像データの再生表示を終了させる指示がなされたことを検出する(図6のステップS110)と、再生モードにおける一連の処理を完了し、図2のステップS1の処理を再度行う。   When the CPU 8 detects that an instruction to end the reproduction display of the image data is given in accordance with the operation of the operation unit 15 (step S110 in FIG. 6), the CPU 8 completes a series of processes in the reproduction mode, and FIG. The process of step S1 is performed again.

なお、本実施例によれば、天体撮影補助モードによる強調表示の際に、画角内に映っている星の大きさ及び輝度を変更して描画するような処理が行われるものに限らず、例えば、画角内に映っている星雲の輝度及び彩度を変更して描画するような処理が行われるものであってもよい。   Note that, according to the present embodiment, the highlighting in the astronomical photography assist mode is not limited to the processing in which the size and brightness of the star reflected in the angle of view is changed and drawn, For example, processing may be performed in which the brightness and saturation of the nebula reflected in the angle of view are changed and drawn.

以上に述べたように、本実施例によれば、撮像した星の大きさ及び明るさを補正して強調表示させることができるように構成されている。そのため、本実施例によれば、実際の天空を目視して天体を観察する場合に、所望の星座の発見を容易にすることができる。   As described above, according to the present embodiment, the size and brightness of the captured star can be corrected and highlighted. Therefore, according to the present embodiment, it is possible to easily find a desired constellation when observing a celestial body while viewing the actual sky.

本発明は、上述した実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   The present invention is not limited to the above-described embodiments, and it is needless to say that various modifications and applications can be made without departing from the spirit of the invention.

1 撮像部
2 方位センサ
3 傾きセンサ
4 撮影方向検出部
5 GPSレシーバ
6 画像処理部
7 データベース部
8 CPU
8a 撮像範囲特定部
9 RAM
10 表示部
11 表示制御部
12 メモリI/F
13 記録媒体
14 時計
15 操作部
16 バス
101 カメラ
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Direction sensor 3 Tilt sensor 4 Image | photographing direction detection part 5 GPS receiver 6 Image processing part 7 Database part 8 CPU
8a Imaging range specifying unit 9 RAM
10 Display unit 11 Display control unit 12 Memory I / F
13 Recording medium 14 Clock 15 Operation unit 16 Bus 101 Camera

Claims (12)

レンズの画角内の被写体を撮影して画像を取得する撮像部と、
前記レンズの仰角及び方位に基づいて前記レンズが向いている方向を検出する撮影方向検出部と、
前記画像の取得位置及び取得時刻と、前記レンズの画角と、前記撮影方向検出部の検出結果と、に基づき、前記撮像部により取得された画像に含まれる天空の範囲を特定する撮影範囲特定部と、
天体に関する情報が格納されたデータベース部と、
前記撮影範囲特定部の特定結果と、前記データベース部に格納された情報と、に基づき、前記撮像部により取得された画像内に含まれる各天体の大きさ及び明るさのうちの少なくとも一方を補正する画像処理部と、
を有することを特徴とする撮像装置。
An imaging unit that captures an image by capturing a subject within the angle of view of the lens;
An imaging direction detection unit that detects a direction in which the lens is facing based on an elevation angle and an azimuth of the lens;
An imaging range specification that specifies the sky range included in the image acquired by the imaging unit based on the acquisition position and acquisition time of the image, the angle of view of the lens, and the detection result of the imaging direction detection unit And
A database section that stores information about celestial bodies;
Correct at least one of the size and brightness of each celestial body included in the image acquired by the imaging unit based on the specification result of the imaging range specifying unit and the information stored in the database unit An image processing unit to
An imaging device comprising:
前記画像処理部は、前記データベース部に格納された各星毎の等級の値に基づき、前記撮像部により取得された画像内に含まれる各星の明るさを補正することを特徴とする請求項1に記載の撮像装置。   The said image processing part correct | amends the brightness of each star contained in the image acquired by the said imaging part based on the value of the grade for every star stored in the said database part. The imaging apparatus according to 1. 前記撮影範囲特定部の特定結果と、前記データベース部に格納された情報と、に基づき、前記撮像部により取得された画像内に星座が含まれるか否かを判定する判定部をさらに有し、
前記画像処理部は、前記撮像部により取得された画像内に星座が含まれるとの判定結果を前記判定部が得た場合に、星座を構成する各星の大きさ及び明るさのうちの少なくとも一方を補正することを特徴とする請求項1に記載の撮像装置。
A determination unit that determines whether or not a constellation is included in the image acquired by the imaging unit, based on the identification result of the imaging range identification unit and the information stored in the database unit;
The image processing unit, when the determination unit obtains a determination result that a constellation is included in the image acquired by the imaging unit, at least of the size and brightness of each star constituting the constellation The imaging apparatus according to claim 1, wherein one of the two is corrected.
前記撮像部により取得された画像内に星座が含まれるとの判定結果が前記判定部により得られた場合に、前記画像処理部による補正を実施可能である旨が表示部にガイド表示されることを特徴とする請求項3に記載の撮像装置。   When the determination result that the constellation is included in the image acquired by the imaging unit is obtained by the determination unit, a message indicating that correction by the image processing unit can be performed is displayed on the display unit as a guide. The imaging apparatus according to claim 3. 前記判定部は、前記撮像部により取得された画像内に星座が含まれるとの判定結果を得た場合に、さらに、前記撮像部により取得された画像内に含まれる各星座のうちの少なくとも1つを星座として識別可能な状態で撮影できるか否かを判定することを特徴とする請求項3に記載の撮像装置。   When the determination unit obtains a determination result that a constellation is included in the image acquired by the imaging unit, the determination unit further includes at least one of the constellations included in the image acquired by the imaging unit. The imaging apparatus according to claim 3, wherein it is determined whether or not the image can be photographed in a state where one can be identified as a constellation. 前記撮像部により取得された画像内に含まれる星座を星座として識別可能な状態で撮影できないとの判定結果が前記判定部により得られた場合に、星座が存在する場所を報知するための情報が表示部に表示されることを特徴とする請求項5に記載の撮像装置。   When the determination unit obtains a determination result that the constellation included in the image acquired by the imaging unit cannot be photographed in a state where the constellation can be identified as a constellation, there is information for informing where the constellation exists. The imaging apparatus according to claim 5, wherein the imaging apparatus is displayed on a display unit. レンズの画角内の被写体を撮影して画像を取得する撮像ステップと、
前記レンズの仰角及び方位に基づいて前記レンズが向いている方向を検出する撮影方向検出ステップと、
前記画像の取得位置及び取得時刻と、前記レンズの画角と、前記撮影方向検出ステップの検出結果と、に基づき、前記撮像ステップにより取得された画像に含まれる天空の範囲を特定する撮影範囲特定ステップと、
前記撮影範囲特定ステップの特定結果と、データベース部に格納された天体に関する情報と、に基づき、前記撮像ステップにより取得された画像内に含まれる各天体の大きさ及び明るさのうちの少なくとも一方を補正する画像処理ステップと、
を有することを特徴とする撮像方法。
An imaging step of capturing an image by photographing a subject within the angle of view of the lens;
A shooting direction detection step of detecting a direction in which the lens is directed based on an elevation angle and an azimuth of the lens;
Based on the acquisition position and acquisition time of the image, the angle of view of the lens, and the detection result of the imaging direction detection step, an imaging range specification that specifies the sky range included in the image acquired by the imaging step Steps,
At least one of the size and brightness of each celestial object included in the image acquired by the imaging step based on the identification result of the imaging range identification step and the information on the celestial object stored in the database unit. An image processing step to be corrected;
An imaging method characterized by comprising:
前記画像処理ステップは、前記データベース部に格納された各星毎の等級の値に基づき、前記撮像ステップにより取得された画像内に含まれる各星の明るさを補正することを特徴とする請求項7に記載の撮像方法。   The image processing step corrects the brightness of each star included in the image acquired by the imaging step based on a grade value for each star stored in the database unit. 8. The imaging method according to 7. 前記撮影範囲特定ステップの特定結果と、前記データベース部に格納された情報と、に基づき、前記撮像ステップにより取得された画像内に星座が含まれるか否かを判定する判定ステップをさらに有し、
前記画像処理ステップは、前記撮像ステップにより取得された画像内に星座が含まれるとの判定結果が前記判定ステップにより得られた場合に、星座を構成する各星の大きさ及び明るさのうちの少なくとも一方を補正することを特徴とする請求項7に記載の撮像方法。
A determination step of determining whether or not a constellation is included in the image acquired by the imaging step based on the identification result of the imaging range identification step and the information stored in the database unit;
In the image processing step, when the determination result that the constellation is included in the image acquired by the imaging step is obtained by the determination step, the size and brightness of each star constituting the constellation The imaging method according to claim 7, wherein at least one of the corrections is corrected.
前記撮像ステップにより取得された画像内に星座が含まれるとの判定結果が前記判定ステップにより得られた場合に、前記画像処理ステップによる補正を実施可能である旨を表示部にガイド表示させる表示ステップをさらに有することを特徴とする請求項9に記載の撮像方法。   When the determination result that the constellation is included in the image acquired by the imaging step is obtained by the determination step, a display step for displaying a guide on the display unit that the correction by the image processing step can be performed. The imaging method according to claim 9, further comprising: 前記判定ステップは、前記撮像ステップにより取得された画像内に星座が含まれるとの判定結果を得た場合に、さらに、前記撮像ステップにより取得された画像内に含まれる各星座のうちの少なくとも1つを星座として識別可能な状態で撮影できるか否かを判定することを特徴とする請求項9に記載の撮像方法。   When the determination step obtains a determination result that a constellation is included in the image acquired in the imaging step, at least one of the constellations included in the image acquired in the imaging step The imaging method according to claim 9, wherein it is determined whether or not it is possible to photograph in a state where one can be identified as a constellation. 前記撮像ステップにより取得された画像内に含まれる星座を星座として識別可能な状態で撮影できないとの判定結果が前記判定ステップにより得られた場合に、星座が存在する場所を報知するための情報を表示部に表示させる表示ステップをさらに有することを特徴とする請求項11に記載の撮像方法。   Information for notifying the location of the constellation when the determination result that the constellation included in the image acquired by the imaging step cannot be photographed in a state that can be identified as a constellation is obtained by the determination step. The imaging method according to claim 11, further comprising a display step of displaying on the display unit.
JP2010232948A 2010-10-15 2010-10-15 Imaging apparatus and imaging method Pending JP2012089944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010232948A JP2012089944A (en) 2010-10-15 2010-10-15 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232948A JP2012089944A (en) 2010-10-15 2010-10-15 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2012089944A true JP2012089944A (en) 2012-05-10

Family

ID=46261125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232948A Pending JP2012089944A (en) 2010-10-15 2010-10-15 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2012089944A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113301253A (en) * 2021-05-20 2021-08-24 努比亚技术有限公司 Auxiliary shooting method of astronomical image, mobile terminal and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113301253A (en) * 2021-05-20 2021-08-24 努比亚技术有限公司 Auxiliary shooting method of astronomical image, mobile terminal and storage medium
CN113301253B (en) * 2021-05-20 2024-02-09 努比亚技术有限公司 Auxiliary shooting method for astronomical image, mobile terminal and storage medium

Similar Documents

Publication Publication Date Title
US7746404B2 (en) Digital camera with panoramic image capture
WO2017071559A1 (en) Image processing apparatus and method
JP4509081B2 (en) Digital camera and digital camera program
US8525913B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2011049952A (en) Image generating apparatus and electronic camera
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
US8947558B2 (en) Digital photographing apparatus for multi-photography data and control method thereof
US20040246360A1 (en) System and method for displaying preview images to a camera user
JP6116436B2 (en) Image processing apparatus and image processing method
JP2005143112A (en) Camera and method concerning the same
CN114071010A (en) Shooting method and equipment
US8917331B2 (en) Digital photographing apparatus and method of controlling the same
JP2016167767A (en) Imaging apparatus, synthetic imaging method and synthetic imaging program
JP2012089944A (en) Imaging apparatus and imaging method
JP2008028890A (en) Imaging apparatus, imaging method, and imaging program
JP2012165350A (en) Imaging device
JP2011030104A (en) Image capturing apparatus, and method of controlling the same
JP2008098739A (en) Imaging apparatus, image processing method used for imaging apparatus and program making computer execute same image processing method
CN114071009B (en) Shooting method and equipment
JP2005318009A (en) Electronic camera and image processing program
JP6362735B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP2019022162A (en) Image processing system, imaging apparatus, control method and program of image processing system
KR101392382B1 (en) Apparatus and method for emboding panorama function of camera in portable terminal
JP6450879B2 (en) Recording apparatus, recording method, and recording program
JP2010028250A (en) Camera apparatus and image display method therefor, and image display program