JP6039471B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6039471B2
JP6039471B2 JP2013053397A JP2013053397A JP6039471B2 JP 6039471 B2 JP6039471 B2 JP 6039471B2 JP 2013053397 A JP2013053397 A JP 2013053397A JP 2013053397 A JP2013053397 A JP 2013053397A JP 6039471 B2 JP6039471 B2 JP 6039471B2
Authority
JP
Japan
Prior art keywords
subject
image data
imaging
unit
star
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013053397A
Other languages
Japanese (ja)
Other versions
JP2014179863A (en
JP2014179863A5 (en
Inventor
桂一 齊藤
桂一 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013053397A priority Critical patent/JP6039471B2/en
Publication of JP2014179863A publication Critical patent/JP2014179863A/en
Publication of JP2014179863A5 publication Critical patent/JP2014179863A5/ja
Application granted granted Critical
Publication of JP6039471B2 publication Critical patent/JP6039471B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置およびその制御方法に関し、特に、星景写真の画像処理に関する。 The present invention relates to an imaging apparatus and its control how, in particular, relates to an image processing Hoshikei photos.

一般に、天体撮影には、星空と星以外の建物又は山(以下風景)を一つの画面入れて撮影する星景写真と、星が止まっているように撮影する星野写真と呼ばれる撮影がある。   In general, astronomical photography includes photographing called a starry photograph in which a starry sky and a building or mountain other than the star (landscape) are photographed on a single screen, and a hoshino photograph in which a star is stopped.

星景写真においては、デジタルカメラなどの撮像装置を固定して、所定の露光時間で風景と星空とを撮影する。星景写真を撮影する際には、暗所における撮影であるので、画質を落とさないためにISO感度をノイズが出ないほど低くして、その分、露光時間を長くするように設定する。   In a starry photograph, an image capturing device such as a digital camera is fixed, and a landscape and a starry sky are photographed with a predetermined exposure time. When shooting a starry photograph, since shooting is performed in a dark place, the ISO sensitivity is set to be low enough not to cause noise so as not to deteriorate the image quality, and the exposure time is set longer.

撮像装置に装着されるレンズの焦点距離にも関係するが、露光時間が長くなるほど星の軌跡が長く露光されてしまうことになる。この星の軌跡は地球の自転によって相対的に星が動いているように見えるために生じる。星野写真を撮影する際には、星の軌道に合わせて撮像装置を回転させる赤道儀と呼ばれる機材を使用して星を追尾しながら撮影することが行われている。   Although related to the focal length of the lens mounted on the imaging apparatus, the longer the exposure time, the longer the star trajectory is exposed. This star trajectory arises because the stars appear to move relatively due to the rotation of the earth. When taking Hoshino photographs, it is performed while tracking the stars using equipment called an equatorial mount that rotates the imaging device in accordance with the orbit of the stars.

一方、星野写真を撮影する際の手法として、例えば、撮像装置の撮像面を星の軌道に合わせて駆動しつつ露光するようにしたものが知られている(特許文献1参照)。   On the other hand, as a technique for taking a Hoshino photograph, for example, an exposure apparatus is known in which exposure is performed while driving an imaging surface of an imaging device in accordance with a star orbit (see Patent Document 1).

さらに、星野写真を撮影する際の手法として、撮像装置を固定して撮影した複数枚の画像から基準画像を設定して、当該基準画像と同一の星を他の画像から検出して、検出した各星の輝度値を基準画像の星に合算して星野写真を生成するようにしたものがある(特許文献2参照)。   Furthermore, as a method for taking a Hoshino photo, a reference image is set from a plurality of images taken with the imaging device fixed, and the same star as the reference image is detected from other images and detected. There is one in which the brightness value of each star is added to the star of the reference image to generate a hoshino photograph (see Patent Document 2).

特開2010−122672号公報JP 2010-122672 A 特開2006−279135号公報JP 2006-279135 A

ところが、特許文献1に記載の手法では、別に星を追尾する機構が必要となるばかりでなく、風景が画面に写っていると、星の追尾によって風景がぶれて撮影されてしまうことになる。   However, in the method described in Patent Document 1, not only a mechanism for tracking a star is required, but if the landscape is reflected on the screen, the landscape is blurred and photographed by tracking the star.

そこで、本発明の目的は、星景写真を撮影する際に、風景と星とを鮮明にして、しかも星の軌跡が写らない画像を生成することのできる撮像装置およびその制御方法を提供することにある。 An object of the present invention, when taking the Hoshikei photos, and sharpen the scenery and stars, yet to provide an imaging apparatus and its control how capable of producing an image trajectory of stars not reflected There is.

上記の目的を達成するため、本発明による撮像装置は、静止している第1の被写体と移動する第2の被写体とを撮影する撮像手段と、前記撮像手段の撮影によって得られた画像データにおいて前記第1の被写体と前記第2の被写体とを検出して検出データを出力する検出手段と、前記検出データに応じて、前記第1の被写体に係る第1の露光条件で前記撮像手段を制御して撮を行い第1の撮影画像データを得るとともに、前記第2の被写体に係る第2の露光条件で前記撮像手段を制御して撮を行い第2の撮影画像データを得る制御手段と、記第2の被写体の輝度値を所定の輝度値に変更した前記第2の撮影画像データと、前記第1の撮影画像データとを合成して合成画像データを生成する合成手段と、を有することを特徴とする。 To achieve the above object, an imaging apparatus according to the present invention includes an imaging means for imaging the second object to move the first object that are sealed static image data obtained by the photographing of the imaging means wherein a first object and said second detecting means for outputting a detection data by detecting the object, in accordance with the prior danger out data in the first exposure condition according to the first object with obtaining the first photographic image data performs shooting by controlling the imaging means, before Symbol second imaging performed second shooting by controlling the imaging means with the exposure conditions according to the second object and obtained Ru control unit image data, and the second photographic image data of the luminance value is changed to a predetermined luminance value before Symbol second object, synthesis by synthesizing the first captured image data a synthetic unit that generates the image data, that has the features.

本発明による制御方法は、静止している第1の被写体と移動する第2の被写体とを撮影する撮像手段を有する撮像装置の制御方法であって、前記撮像手段の撮影によって得られた画像データにおいて前記第1の被写体と前記第2の被写体とを検出して検出データを出力する検出ステップと、前記検出データに応じて、前記第1の被写体に係る第1の露光条件で前記撮像手段を制御して撮を行い第1の撮影画像データを得るとともに、前記第2の被写体に係る第2の露光条件で前記撮像手段を制御して撮を行い第2の撮影画像データを得る制御ステップと、記第2の被写体の輝度値を所定の輝度値に変更した前記第2の撮影画像データと、前記第1の撮影画像データとを合成して合成画像データを生成する合成ステップと、を有することを特徴とする。 The control method according to the present invention is a control method for an image pickup apparatus having an image pickup means for picking up a stationary first subject and a moving second subject, and image data obtained by the image pickup means. the first subject and the detection step of outputting the detection data by detecting said second object, in accordance with the prior danger out data in the first exposure condition according to the first object with obtaining the first photographic image data performs shooting by controlling the imaging means, before Symbol second imaging performed second shooting by controlling the imaging means with the exposure conditions according to the second object and obtained Ru control step the image data, and the second photographic image data of the luminance value is changed to a predetermined luminance value before Symbol second object, synthesis by synthesizing the first captured image data to have a synthetic step that generates image data And features.

本発明によれば、第1の被写体である風景と第2の被写体である星とを鮮明にして、しかも星の軌跡が写らない画像を生成することができる。   According to the present invention, it is possible to generate an image in which a landscape that is a first subject and a star that is a second subject are clear and the locus of the star is not captured.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示すカメラによる星景写真の合成の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the synthesis | combination of the star-view photograph by the camera shown in FIG. 図2に示すテスト撮影および第1の被写体の検出について説明するためのフローチャートである。3 is a flowchart for explaining test imaging and detection of a first subject shown in FIG. 2. 図1に示す撮像部で得られたテスト撮影画像1枚目の一例を示す図である。It is a figure which shows an example of the 1st test picked-up image obtained with the imaging part shown in FIG. 図4に示すテスト撮影画像1枚目のエッジ検出結果を示す図である。It is a figure which shows the edge detection result of the 1st test picked-up image shown in FIG. 図1に示す撮像部で得られたテスト撮影画像2枚目のエッジ検出結果の一例を示す図である。It is a figure which shows an example of the edge detection result of the 2nd test picked-up image obtained by the imaging part shown in FIG. 図3で説明したエッジ検出が行われた画像の一部を示す図である。FIG. 4 is a diagram illustrating a part of an image on which the edge detection described in FIG. 3 is performed. 図1に示す第1の検出部で行われるブロックの設定を説明するための図である。It is a figure for demonstrating the setting of the block performed by the 1st detection part shown in FIG. 図1に示す第1の検出部で行われるラベルの貼付を説明するための図である。It is a figure for demonstrating sticking of the label performed by the 1st detection part shown in FIG. 北極星と北極星を中心として回転する星とを模式的に示す図である。It is a figure which shows typically the north star and the star which rotates centering on the north star. 図2に示す第2の被写体検出および露光時間算出を説明するためのフローチャートである。3 is a flowchart for explaining second subject detection and exposure time calculation shown in FIG. 2. 第1の撮影時刻における第2の被写体と第2の撮影時刻における第2の被写体を合わせた画像を示す図である。It is a figure which shows the image which match | combined the 2nd to-be-photographed object at the 2nd imaging | photography time with the 2nd to-be-photographed object at the 1st imaging | photography time. 方角別の星の探索方向を示す図である。It is a figure which shows the search direction of the star according to direction. 図1に示す情報管理部で保持される情報管理表の一例を示す図である。It is a figure which shows an example of the information management table hold | maintained at the information management part shown in FIG. 第2の被写体の移動方向を説明するための図である。It is a figure for demonstrating the moving direction of a 2nd to-be-photographed object. センサのピッチを用いて星の移動速度を求める例を説明するための図である。It is a figure for demonstrating the example which calculates | requires the moving speed of a star using the pitch of a sensor. 図1に示す情報管理部に保存される情報管理表の作成および更新を説明するための図であり、(a)は第1の時刻で検出された検出結果を情報管理表に反映させた状態を示す図、(b)は第2の撮影時刻において第1の星のレコードを更新した状態を示す図、(c)は第2の撮影時刻において第2の星のレコードを更新した状態を示す図、(d)は第2の撮影時刻において第3の星のレコードを更新した状態を示す図である。It is a figure for demonstrating creation and update of the information management table preserve | saved at the information management part shown in FIG. 1, (a) is the state which reflected the detection result detected at the 1st time on the information management table (B) is a diagram showing a state in which the first star record is updated at the second shooting time, and (c) is a state in which the second star record is updated at the second shooting time. FIG. 6D is a diagram showing a state in which the third star record is updated at the second photographing time. 図1に示す第1の検出部で検出される第1の被写体の領域について説明するための図である。It is a figure for demonstrating the area | region of the 1st to-be-photographed object detected by the 1st detection part shown in FIG. 星が建物の裏に入るようすを説明するための図である。It is a figure for demonstrating how a star enters the back of a building. 図1に示す第2の検出部で例外処理を行う際の情報管理表の更新処理を説明するためのフローチャートである。It is a flowchart for demonstrating the update process of the information management table | surface at the time of performing an exception process in the 2nd detection part shown in FIG. 本発明の第2の実施形態による撮像装置の一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of the imaging device by the 2nd Embodiment of this invention. 図21に示すカメラで行われる画像合成を説明するためのフローチャートである。It is a flowchart for demonstrating the image composition performed with the camera shown in FIG.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置100は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮像部101を有している。撮像部101はレンズ光学系、撮像素子、AFE(アナログフロントエンド)、映像処理部、および時刻取得部を備えており、レンズ光学系を介して光学像が撮像素子に結像する。撮像素子は光学像に応じた電気信号(アナログ信号)を出力し、このアナログ信号はAFEでデジタル信号に変換される。   The illustrated imaging apparatus 100 is, for example, a digital camera (hereinafter simply referred to as a camera) and includes an imaging unit 101. The imaging unit 101 includes a lens optical system, an imaging device, an AFE (analog front end), a video processing unit, and a time acquisition unit, and an optical image is formed on the imaging device via the lens optical system. The image sensor outputs an electrical signal (analog signal) corresponding to the optical image, and the analog signal is converted into a digital signal by AFE.

映像処理部は当該デジタル信号に対して所定の画像処理を施して、画像データとして出力する。この画像データは時刻取得部から出力される撮影時刻とともに、選択的に記録部102、第1の検出部103、および第2の検出部104に出力される。   The video processing unit performs predetermined image processing on the digital signal and outputs it as image data. The image data is selectively output to the recording unit 102, the first detection unit 103, and the second detection unit 104 together with the photographing time output from the time acquisition unit.

記録部102は、カメラ100に対して着脱可能であり、例えば、可搬記録メディア又はHDDである。出力先として記録部102が選択されると、撮像部101から出力された画像データは記録部102に記録される。また、記録部102は記録した画像データを後述する第1の合成部108および第2の合成部109に出力する。   The recording unit 102 is detachable from the camera 100, and is, for example, a portable recording medium or an HDD. When the recording unit 102 is selected as the output destination, the image data output from the imaging unit 101 is recorded in the recording unit 102. Further, the recording unit 102 outputs the recorded image data to a first combining unit 108 and a second combining unit 109 described later.

なお、以下の説明では、星および空以外の静止した被写体を第1の被写体と呼び、星を第2の被写体と呼ぶことにする。   In the following description, a stationary subject other than the star and the sky is referred to as a first subject, and a star is referred to as a second subject.

第1の検出部103は画像データおよび撮影時刻を受けて、撮影時刻が異なる2枚の画像データから第1の被写体を検出して、先に入力された画像データから第1の被写体の領域を示す領域座標(第1の領域座標)を第1の検出データとして出力する。   The first detection unit 103 receives the image data and the shooting time, detects the first subject from two pieces of image data having different shooting times, and determines the area of the first subject from the previously input image data. The indicated area coordinates (first area coordinates) are output as first detection data.

図示のカメラ100には、撮影方向取得部(撮影方向検出手段)106および情報管理部107が備えられており、撮影方向取得部106は、GPS装置又は電子コンパスである。そして、撮像方向取得部106は撮像装置100の撮像方向である光軸方向を光軸データとして取得して、第2の検出部104に出力する。   The illustrated camera 100 includes a shooting direction acquisition unit (shooting direction detection means) 106 and an information management unit 107, and the shooting direction acquisition unit 106 is a GPS device or an electronic compass. The imaging direction acquisition unit 106 acquires the optical axis direction that is the imaging direction of the imaging apparatus 100 as optical axis data, and outputs the optical axis data to the second detection unit 104.

情報管理部107には後述する情報管理データ(情報管理表ともいう)が保存されており、第2の検出部104は、画像データおよび撮影時刻を受けるとともに、第1の検出部103の出力である第1の領域座標、撮影方向取得部106の出力である光軸データ、そして、情報管理部107の出力である情報管理データに受ける。第2の検出部104は第1の領域座標、光軸データ、および情報管理データに基づいて、2枚の画像データから第2の被写体(つまり、星)を検出して、画像データにおける第2の被写体の領域を示す座標(第2の領域座標)、その輝度値、および撮影時刻を第2の検出データとして出力する。   Information management data (also referred to as an information management table), which will be described later, is stored in the information management unit 107, and the second detection unit 104 receives the image data and the shooting time, and outputs the data from the first detection unit 103. The first area coordinates, the optical axis data that is the output of the imaging direction acquisition unit 106, and the information management data that is the output of the information management unit 107 are received. The second detection unit 104 detects a second subject (that is, a star) from the two pieces of image data based on the first region coordinates, the optical axis data, and the information management data. The coordinates indicating the area of the subject (second area coordinates), the luminance value, and the photographing time are output as second detection data.

情報管理部107は第2の検出データに応じて、第2の被写体である画面上の星にそれぞれIDを割り振って、各第2の被写体の座標および輝度値などを情報管理データとして保存・更新する。この情報管理データは前述のように第2の検出部104に与えられるとともに、後述する露光条件設定部105および第1の合成部108に与えられる。   In accordance with the second detection data, the information management unit 107 assigns an ID to each star on the screen, which is the second subject, and saves / updates the coordinates and luminance values of each second subject as information management data To do. As described above, this information management data is given to the second detection unit 104 and also to an exposure condition setting unit 105 and a first synthesis unit 108 described later.

露光条件設定部105は撮像部101における露光時間、露光回数、測光を行う領域、そして、ISO感度などを設定・変更する。また、露光条件設定部105は第1の検出データおよび情報管理データに基づいて設定条件を決定する。   The exposure condition setting unit 105 sets / changes the exposure time, the number of exposures, the area for performing photometry, the ISO sensitivity, and the like in the imaging unit 101. Further, the exposure condition setting unit 105 determines a setting condition based on the first detection data and the information management data.

第1の合成部108は記録部102に記録された画像データを読み込んで、第2の被写体について、情報管理データに基づいて、その輝度値を変更して合成画像(第1の合成画像)を生成し、当該合成画像を第2の合成部109に与える。第2の合成部109は第1の検出データ、記録部102から読み込んだ画像データ、第1の合成画像に応じて後述するようにして第2の合成画像を生成する。   The first synthesizing unit 108 reads the image data recorded in the recording unit 102, changes the luminance value of the second subject based on the information management data, and generates a synthesized image (first synthesized image). The composite image is generated and given to the second composite unit 109. The second synthesizing unit 109 generates a second synthesized image as described later according to the first detection data, the image data read from the recording unit 102, and the first synthesized image.

ここで、図1に示すカメラ100を用いて星空および風景が鮮明で星の軌跡が写っていない星景写真の合成について説明する。   Here, a description will be given of the composition of a starry photograph in which the starry sky and the landscape are clear and the locus of the star is not captured using the camera 100 shown in FIG.

図2は、図1に示すカメラ100による星景写真の合成の一例を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining an example of the synthesis of a starscape photograph by the camera 100 shown in FIG.

星空および風景が鮮明でかつ星の軌跡が写っていない星景写真を合成する際には、撮像部101でテスト撮影を行ってテスト画像データを得る。そして、第1の検出部103が前述のようにしてテスト画像データから第1の被写体を検出する(ステップS2001)。続いて、第2の検出部104は第1の検出部103の出力である第1の検出データを用いて、前述のようにして、第2の被写体を検出して第2の検出データを出力する。そして、露光条件設定部105は、第1の被写体および第2の被写体に関して露光時間(つまり、露光条件)を決定する(ステップS2002)。   When synthesizing a starry photograph in which the starry sky and scenery are clear and the locus of the star is not captured, test imaging is performed by the imaging unit 101 to obtain test image data. Then, the first detection unit 103 detects the first subject from the test image data as described above (step S2001). Subsequently, the second detection unit 104 uses the first detection data that is the output of the first detection unit 103 to detect the second subject and output the second detection data as described above. To do. Then, the exposure condition setting unit 105 determines an exposure time (that is, an exposure condition) for the first subject and the second subject (step S2002).

続いて、撮像部101は、露光条件設定部105で設定された第1の被写体に係る露光条件(第1の露光条件)で撮影を行って画像データ(第1の画像データ)を得る(ステップS2003)。その後、撮像部101は露光条件設定部105で設定された第2の被写体に係る露光条件(第2の露光条件)で撮影を行って画像データ(第2の画像データ)を得る(ステップS2004)。   Subsequently, the imaging unit 101 captures an image with the exposure condition (first exposure condition) relating to the first subject set by the exposure condition setting unit 105 to obtain image data (first image data) (step). S2003). Thereafter, the imaging unit 101 captures an image with the exposure condition (second exposure condition) relating to the second subject set by the exposure condition setting unit 105 to obtain image data (second image data) (step S2004). .

次に、第1の合成部108は第2の被写体を鮮明にするため、後述するように画像合成を行って第1の合成画像(第1の合成画像データ)を得る(ステップS2005)。次に、第2の合成部109は第1の被写体に係る露光条件(第1の露光条件)で撮影した結果得られた画像(第1の画像データ)と第1の合成画像とを合成して第2の合成画像(第2の画像データ)を得て(ステップS2006)、合成処理を終了する。   Next, in order to make the second subject clear, the first composition unit 108 performs image composition as described later to obtain a first composition image (first composition image data) (step S2005). Next, the second synthesizing unit 109 synthesizes an image (first image data) obtained as a result of shooting under the exposure condition (first exposure condition) relating to the first subject and the first synthesized image. In this way, a second synthesized image (second image data) is obtained (step S2006), and the synthesis process is terminated.

図3は、図2に示すテスト撮影および第1の被写体の検出について説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the test photographing and the detection of the first subject shown in FIG.

テスト撮影が開始されると、撮像部101はISO感度を調整して適正露出となるシャッター速度(撮影条件)で撮影を行う(ステップS2101)。ステップS201のテスト撮影で得られた画像をテスト撮影画像1枚目(第1のテスト画像データ)と呼ぶ。そして、撮像部101はテスト撮影画像1枚目を第1の検出部104に出力する。   When the test shooting is started, the imaging unit 101 adjusts the ISO sensitivity and performs shooting at a shutter speed (shooting conditions) at which proper exposure is obtained (step S2101). The image obtained by the test shooting in step S201 is called the first test shooting image (first test image data). Then, the imaging unit 101 outputs the first test captured image to the first detection unit 104.

撮像部101は予め定められた時間が経過するまで待機をする(ステップS2102)。ここでは、この予め定められた時間は、例えば、連続撮影した際に得られた画像の間で同一の星が画面上で重ならなくなるまでの時間である。   The imaging unit 101 waits until a predetermined time elapses (step S2102). Here, the predetermined time is, for example, the time until the same star does not overlap on the screen between images obtained when continuous shooting is performed.

続いて、撮像部101はステップS2101と同一の撮影条件で撮影を行う(ステップS2103)。そして、撮像部101は撮影の結果得られた画像を第1の検出部104に出力する。ステップS2103のテスト撮影で得られた画像をテスト撮影画像2枚目(第2のテスト画像データ)と呼ぶ。第1の検出部104はテスト撮影画像1枚目とテスト撮影画像2枚目とからそれぞれエッジを検出する(ステップS2104)。   Subsequently, the imaging unit 101 performs shooting under the same shooting conditions as in step S2101 (step S2103). Then, the imaging unit 101 outputs an image obtained as a result of shooting to the first detection unit 104. The image obtained by the test shooting in step S2103 is referred to as a second test shot image (second test image data). The first detection unit 104 detects edges from the first test photographed image and the second test photographed image (step S2104).

図4は、図1に示す撮像部101で得られたテスト撮影画像1枚目の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a first test captured image obtained by the imaging unit 101 illustrated in FIG.

図4に示すテスト撮影画像1枚目は、風景と星空が撮影された画像である。そして、当該画像200には、建物201、星A(202)、および星B(203)が撮影されている。いま、テスト撮影画像1枚目の撮影時刻が時刻t1であるとする。   The first test photograph image shown in FIG. 4 is an image in which the landscape and the starry sky are photographed. In the image 200, a building 201, a star A (202), and a star B (203) are captured. Assume that the shooting time of the first test shot image is time t1.

図5は、図4に示すテスト撮影画像1枚目のエッジ検出結果を示す図である。   FIG. 5 is a diagram showing the edge detection result of the first test photographed image shown in FIG.

図5において、撮影時刻t1における画像500では、破線で示す建物201のエッジ502、破線で示す星Aのエッジ502、破線で示す星Bのエッジ503がエッジ検出結果として得られる。そして、後述するように、エッジ501で囲まれる領域にはラベルA(504)、エッジ502で囲まれる領域にはラベルB(505)、エッジ503で囲まれる領域にはラベルC(506)が貼られる。   In FIG. 5, in the image 500 at the photographing time t1, an edge 502 of the building 201 indicated by a broken line, an edge 502 of a star A indicated by a broken line, and an edge 503 of a star B indicated by a broken line are obtained as edge detection results. As will be described later, label A (504) is attached to the area surrounded by the edge 501, label B (505) is attached to the area surrounded by the edge 502, and label C (506) is attached to the area surrounded by the edge 503. It is done.

図6は、図1に示す撮像部101で得られたテスト撮影画像2枚目のエッジ検出結果の一例を示す図である。   FIG. 6 is a diagram illustrating an example of the edge detection result of the second test photographed image obtained by the imaging unit 101 illustrated in FIG.

テスト撮影画像2枚目は、テスト撮影画像1枚目よりも後に撮影されているので星が移動している。図6において、撮影時刻t2の画像600では、破線で示す建物201のエッジ601、破線で示す星Aのエッジ602、破線で示す星603がエッジ検出結果として得られる。そして、後述するように、エッジ601で囲まれる領域にはラベルD(604)、エッジ602で囲まれる領域にはラベルE(605)、エッジ603で囲まれる領域にはラベルF(606)が貼られる。   Since the second test photographed image is photographed after the first test photographed image, the star moves. In FIG. 6, in the image 600 at the photographing time t2, an edge 601 of the building 201 indicated by a broken line, an edge 602 of a star A indicated by a broken line, and a star 603 indicated by a broken line are obtained as edge detection results. As will be described later, label D (604) is attached to the area surrounded by the edge 601, label E (605) is attached to the area surrounded by the edge 602, and label F (606) is attached to the area surrounded by the edge 603. It is done.

再び図3を参照して、第1の検出部103はテスト撮影画像1枚目およびテスト撮影画像2枚目からそれぞれ抽出したエッジを囲むブロックを設定する(ステップS2105)。   Referring to FIG. 3 again, the first detection unit 103 sets blocks surrounding the edges extracted from the first test photographed image and the second test photographed image (step S2105).

図7は、図3で説明したエッジ検出が行われた画像の一部を示す図である。   FIG. 7 is a diagram illustrating a part of the image on which the edge detection described in FIG. 3 has been performed.

図7において、1つのマスは1画素を表す。画像1600において、画素に検出エッジ1601が存在すると、当該画素は数値”1”が割り当てられる。そして、検出エッジ1601が存在しない画素は、例えば、エッジ検出漏れ画素1603および1604とされる。第1の検出部103は画像1600を左上から走査方向1604に沿って走査してエッジが検出された画素を探索する。画像1600の右端に達すると、1ライン下げて、再び第1の検出部103は左端から走査方向1604に沿って走査してエッジが検出された画素を探索する。   In FIG. 7, one square represents one pixel. In the image 1600, when a detection edge 1601 exists in a pixel, the pixel is assigned a numerical value “1”. The pixels in which the detection edge 1601 does not exist are, for example, edge detection omission pixels 1603 and 1604. The first detection unit 103 scans the image 1600 from the upper left along the scanning direction 1604 to search for a pixel in which an edge is detected. When the right end of the image 1600 is reached, the line is lowered by one line, and the first detection unit 103 scans again from the left end along the scanning direction 1604 to search for a pixel whose edge is detected.

このようにして、第1の検出部103は1ライン毎に走査を行ってエッジが検出された画素を探索するが、既にラベルが貼られた画素であれば、当該画素を無視して走査を行う。ここで、ラベルが貼られた画素とは既に領域の抽出が済んだ画素のことをいう。   In this way, the first detection unit 103 performs scanning for each line to search for pixels whose edges are detected. However, if a pixel has already been labeled, the first detection unit 103 ignores the pixel and performs scanning. Do. Here, a pixel with a label refers to a pixel that has already been extracted.

第1の検出部103は走査中に最初に発見したエッジ1601を軸として把握すべきエッジで囲まれる領域を確認する。把握すべきエッジで囲まれる領域を確認するため、第1の検出部103は該当するエッジが存在する領域を覆うようにしてブロックを設定して、当該ブロック内におけるエッジの数の統計に基づいてブロックの大きさを特定する。   The first detection unit 103 confirms a region surrounded by an edge to be grasped with the edge 1601 first discovered during scanning as an axis. In order to confirm the area surrounded by the edges to be grasped, the first detection unit 103 sets a block so as to cover the area where the corresponding edge exists, and based on the statistics of the number of edges in the block Specify the block size.

図8は、図1に示す第1の検出部103で行われるブロックの設定を説明するための図である。   FIG. 8 is a diagram for describing block setting performed by the first detection unit 103 illustrated in FIG. 1.

図8に例では、5×3画素のブロック領域1700、9×5画素のブロック領域1701、13×7画素のブロック領域1702、17×9画素のブロック領域1703、および21×11画素のブロック領域1704が示されている。ここでは、上述の走査によって、エッジ1601が検出されるので、当該エッジ1601が軸とされる。ここでは、この検出エッジ1601を軸のエッジをと呼ぶ。   In the example shown in FIG. 8, a 5 × 3 pixel block region 1700, a 9 × 5 pixel block region 1701, a 13 × 7 pixel block region 1702, a 17 × 9 pixel block region 1703, and a 21 × 11 pixel block region. 1704 is shown. Here, since the edge 1601 is detected by the above-described scanning, the edge 1601 is used as an axis. Here, this detection edge 1601 is called an axis edge.

図示の例では、第1の検出部103は軸のエッジ1601を中心として左右に2画素、さらに下方向に2画素分の5×3画素のブロック領域1700を設定する。そして、第1の検出部103は5×3画素のブロック領域1700内に存在するエッジの数を第1のエッジ数として求める。   In the illustrated example, the first detection unit 103 sets a 5 × 3 pixel block area 1700 for two pixels on the left and right and two pixels on the lower side with the axis edge 1601 as the center. Then, the first detection unit 103 obtains the number of edges present in the 5 × 3 pixel block region 1700 as the first number of edges.

次に、第1の検出部103はブロックのサイズを大きくして(つまり、9×5画素のブロック領域1701として)、当該ブロック1701内のエッジの数を第2のエッジ数として求める。そして、第1の検出部103は第1のエッジ数と第2のエッジ数とを比較する。第1のエッジ数と第2のエッジ数とが等しければ、第1の検出部103はブロック1700の領域に把握すべきエッジで囲まれる領域が収まっていると判定する。   Next, the first detection unit 103 increases the block size (that is, the block area 1701 of 9 × 5 pixels), and obtains the number of edges in the block 1701 as the second edge number. Then, the first detection unit 103 compares the first edge number with the second edge number. If the first edge number is equal to the second edge number, the first detection unit 103 determines that the area surrounded by the edges to be grasped is included in the area of the block 1700.

一方、第1のエッジ数と第2のエッジ数とが異なると、つまり、第2のエッジ数>第1のエッジ数であると、第1の検出部103はブロックのサイズをさらに大きくして、ブロック1702内のエッジの数を第3のエッジ数として求める。そして、第1の検出部103は第3のエッジ数と第2のエッジ数とを比較する。以下同様にして、第1の検出部103は把握すべきエッジで囲まれる領域を確認するためのブロックを決定する。   On the other hand, if the number of first edges is different from the number of second edges, that is, if the number of second edges> the number of first edges, the first detector 103 further increases the block size. The number of edges in the block 1702 is obtained as the third edge number. Then, the first detection unit 103 compares the third edge number with the second edge number. Similarly, the first detection unit 103 determines a block for confirming a region surrounded by edges to be grasped.

図8に示す例では、エッジの数はブロック1700で5個、ブロック1701で10個、ブロック1702では14個である。さらに、ブロック1703ではエッジの数は20個、ブロック1704ではエッジの数は20個である。この結果、第1の検出部103は把握すべきエッジで囲まれる領域を確認するためのブロックのサイズを17×9画素に決定する。つまり、第1の検出部103はブロック1703を、把握すべきエッジで囲まれる領域を確認するためのブロックとする。   In the example illustrated in FIG. 8, the number of edges is 5 in the block 1700, 10 in the block 1701, and 14 in the block 1702. Further, the block 1703 has 20 edges, and the block 1704 has 20 edges. As a result, the first detection unit 103 determines the size of the block for confirming the area surrounded by the edge to be grasped as 17 × 9 pixels. That is, the first detection unit 103 sets the block 1703 as a block for confirming an area surrounded by an edge to be grasped.

なお、図8は一例であり、ブロックのサイズを拡張する際には、別のサイズで変更するようにしてもよい。   Note that FIG. 8 is an example, and when the block size is expanded, it may be changed with another size.

続いて、第1の検出部103は上述のようにして設定した各ブロックにおいてエッジで囲まれる領域にラベルを貼付する(ステップS2106)。   Subsequently, the first detection unit 103 attaches a label to an area surrounded by edges in each block set as described above (step S2106).

図9は、図1に示す第1の検出部103で行われるラベルの貼付を説明するための図である。   FIG. 9 is a diagram for explaining label sticking performed by the first detection unit 103 illustrated in FIG. 1.

図9においては、軸のエッジにはラベル1800が割り振られる。また、エッジ検出漏れ画素にはそれぞれラベル1801および1802が割り振られる。   In FIG. 9, labels 1800 are assigned to the edges of the axes. Further, labels 1801 and 1802 are assigned to the edge detection omission pixels, respectively.

第1の検出部103は、設定されたブロック1703の左上端から走査方向1803に沿って1ライン毎に走査して画素に割り振るラベルがあれば割り振りを行う。図示の例では、画素にエッジが存在すると、第1の検出部103は当該画素にブロック毎のユニークなラベルを張り付ける(ここでは”A”とする)。そして、第1の検出部103はライン毎にラベルに挟まれている画素についても同一のラベルを張り付ける。   The first detection unit 103 performs allocation if there is a label that is scanned for each line from the upper left end of the set block 1703 along the scanning direction 1803 and allocated to the pixels. In the illustrated example, when an edge exists in a pixel, the first detection unit 103 attaches a unique label for each block to the pixel (here, “A”). And the 1st detection part 103 sticks the same label also about the pixel pinched | interposed into the label for every line.

なお、エッジ検出漏れ画素1602および1603などに対応するため、第1の検出部103は走査する際に1画素毎にその上下の画素のエッジを確認して、当該上下の画素にエッジが存在する場合には当該画素に同一のラベルを付ける。また、第1の検出部103はライン毎にラベルに囲まれている画素について同一のラベルを振る。ここでは、エッジ検出漏れ画素1602および1603にはそれぞれラベルA(1801)および1802が割り振られる。   In order to deal with the edge detection omission pixels 1602 and 1603 and the like, the first detection unit 103 checks the edges of the upper and lower pixels for each pixel when scanning, and the edges exist in the upper and lower pixels. In this case, the same label is attached to the pixel. Further, the first detection unit 103 applies the same label to pixels surrounded by the label for each line. Here, labels A (1801) and 1802 are allocated to the edge detection omission pixels 1602 and 1603, respectively.

ここで、図5に示すように、画像500において、エッジ501に囲まれる領域にラベルA(504)、エッジ502に囲まれる領域にラベルB(505)、そして、エッジ503に囲まれる領域にラベルC(506)が割り振られたとする。また、図6に示すように、画像600において、エッジ601に囲まれる領域にラベルD(604)、エッジ602に囲まれる領域にラベルB(605)、そして、エッジ603に囲まれる領域にラベルC(606)が割り振られたとする。   Here, as shown in FIG. 5, in the image 500, the label A (504) is labeled in the area surrounded by the edge 501, the label B (505) is labeled in the area surrounded by the edge 502, and the label is labeled in the area surrounded by the edge 503. Assume that C (506) is allocated. As shown in FIG. 6, in the image 600, the label D (604) is the area surrounded by the edge 601, the label B (605) is the area surrounded by the edge 602, and the label C is the area surrounded by the edge 603. Assume that (606) is allocated.

画像500および画像600において、エッジで囲まれる領域はそれぞれユニークなラベルが画素単位で割り振られる。   In the image 500 and the image 600, a unique label is assigned to each region surrounded by edges in units of pixels.

再び図3を参照して、第1の検出部103はテスト撮影画像1枚目およびテスト画像2枚目についてラベルを張られた領域の位置を比較する(ステップS2107)。ここで、第1の検出部103は画像500および画像600ついてそのラベルの位置を比較して、画像500にラベルが存在する位置と同一の位置に画像600にラベルが存在すると、当該ラベルで規定される領域の被写体を第1の被写体とする。   Referring to FIG. 3 again, the first detection unit 103 compares the positions of the labeled regions for the first test photographed image and the second test image (step S2107). Here, the first detection unit 103 compares the positions of the labels of the image 500 and the image 600, and if the label exists in the image 600 at the same position as the position where the label exists in the image 500, the first label is defined by the label. The subject in the area to be processed is set as the first subject.

図5および図6を参照すると、撮影時刻t1における建物201のラベルA(504)と撮影時刻t2における建物201のラベルD(604)とは同一の位置に存在するので、第1の検出部103は建物201を第1の被写体とし、画像における当該領域の座標を示す座標情報を露光条件設定部105および第2の検出部104に出力する。   5 and 6, since the label A (504) of the building 201 at the photographing time t1 and the label D (604) of the building 201 at the photographing time t2 exist at the same position, the first detection unit 103 Outputs the coordinate information indicating the coordinates of the region in the image to the exposure condition setting unit 105 and the second detection unit 104, with the building 201 as the first subject.

一方、撮影時刻t1における星A(202)のラベルB(505)と撮影時刻t2における星A(202)のラベルE(605)とは同一の位置にないので、第1の検出部103は星A(202)を第1の被写体でないとする。同様に、撮影時刻t1における星B(203)のラベルC(506)と撮影時刻t2における星B(203)のラベルF(606)とは同一の位置にないので、第1の検出部103は星B(203)を第1の被写体でないとする。   On the other hand, since the label B (505) of the star A (202) at the photographing time t1 and the label E (605) of the star A (202) at the photographing time t2 are not at the same position, the first detection unit 103 Assume that A (202) is not the first subject. Similarly, since the label C (506) of the star B (203) at the photographing time t1 and the label F (606) of the star B (203) at the photographing time t2 are not at the same position, the first detection unit 103 It is assumed that the star B (203) is not the first subject.

続いて、第1の検出部103は第1の被写体でないとしたラベルがあったか否かを判定する(ステップS2108)。第1の被写体でないとしたラベルがないと(ステップS2108において、NO)、第1の検出部103は露光条件設定部105を介して撮像部101における撮影の待機時間を延長する(ステップS2110)。そして、処理はステップS2102の処理に進み、撮像部2102は延長された時間が経過するまで待機する。   Subsequently, the first detection unit 103 determines whether there is a label that is not the first subject (step S2108). If there is no label that is not the first subject (NO in step S2108), the first detection unit 103 extends the imaging standby time in the imaging unit 101 via the exposure condition setting unit 105 (step S2110). Then, the process proceeds to step S2102, and the imaging unit 2102 waits until the extended time elapses.

つまり、第1の被写体でないとしたラベルがない場合には、テスト撮影画像1枚目を撮影した後、テスト撮影画像2枚目を撮影するまでの待機時間は星が動くまでの時間よりも短いことになる。従って、ステップS2110において、待機時間を延長して、当該延長された時間経過後、再度テスト撮影画像2枚目が撮影されることになる。   In other words, if there is no label that is not the first subject, the waiting time until the second test shot image is shot after the first test shot image is shot is shorter than the time until the star moves. It will be. Accordingly, in step S2110, the standby time is extended, and the second test photographed image is captured again after the extended time has elapsed.

第1の被写体でないとしたラベルがあると(ステップS2108において、YES)、第1の検出部103はテスト撮影画像1枚目から第1の被写体とした領域を第2の検出部104および露光条件設定部105に出力して(ステップS2109)、テスト撮影および第1の被写体検出を終了する。   If there is a label that is not the first subject (YES in step S2108), the first detection unit 103 uses the second detection unit 104 and the exposure condition as a region from the first test photographed image as the first subject. The setting is outputted to the setting unit 105 (step S2109), and the test photographing and the first subject detection are finished.

ここで、図2に示す第2の被写体検出および露光時間算出についてさらに説明する。   Here, the second subject detection and exposure time calculation shown in FIG. 2 will be further described.

まず、第2の被写体に関する露光時間とは、第2の被写体と呼ばれる星が撮像素子の1画素の移動にかかる時間から連続撮影の際に生じる撮影間の準備時間を引いたものとする。第2の被写体に関する露光時間を算出する際には、画面において最も移動量の大きい星が用いられる。   First, it is assumed that the exposure time for the second subject is obtained by subtracting the preparation time between shootings that occur during continuous shooting from the time taken for a star called the second subject to move one pixel of the image sensor. When calculating the exposure time for the second subject, the star with the largest amount of movement on the screen is used.

図10は、北極星と北極星を中心として回転する星とを模式的に示す図である。   FIG. 10 is a diagram schematically showing a north star and a star rotating around the north star.

図示のように、北極星P(701)を中心として、星C(702)および星D(703)が回転しているものとする。北極星P(701)と星C(702)とは距離dc(704)離れており、北極星P(701)と星D(703)とは距離dd(705)離れている。そして、星C(702)と星D(703)とは北極星P(701)を中心として反時計まわりに回転している。   As shown in the figure, it is assumed that the star C (702) and the star D (703) are rotating around the north star P (701). The north star P (701) and the star C (702) are separated by a distance dc (704), and the north star P (701) and the star D (703) are separated by a distance dd (705). The star C (702) and the star D (703) rotate counterclockwise about the north star P (701).

単位時間当たりの移動距離は、北極星P(701)からの距離×単位時間の回転角度で求めることができる。いま、距離dcと距離ddとの関係が式(1)の関係であるとする。   The movement distance per unit time can be obtained by the distance from the north polar star P (701) × the rotation angle of unit time. Now, it is assumed that the relationship between the distance dc and the distance dd is the relationship of Expression (1).

dc<dd (1)
星D(703)は星C(702)に比べて北極星P(701)から、式(2)で示す距離分d1だけ離れている。よって、星D(703)と星C(702)との移動距離は同一ではない。
dc <dd (1)
The star D (703) is separated from the north star P (701) by the distance d1 shown by the equation (2) as compared to the star C (702). Therefore, the moving distance between the star D (703) and the star C (702) is not the same.

d1=dd−dc (2)
地球上のある点から天体を観測すると、北極星に近いほど単位時間の移動量は小さく、赤道に近いほど移動量は大きくなる。画面に存在する星の各々は移動量が異なるので、移動量の最も大きい星を検出して、当該星に合わせて露光時間を決定する必要がある。
d1 = dd-dc (2)
Observing celestial bodies from a certain point on the earth, the closer to the North Star, the smaller the amount of movement per unit time, and the closer to the equator, the larger the amount of movement. Since each star present on the screen has a different amount of movement, it is necessary to detect the star with the largest amount of movement and determine the exposure time according to the star.

図11は、図2に示す第2の被写体検出および露光時間算出を説明するためのフローチャートである。   FIG. 11 is a flowchart for explaining the second subject detection and exposure time calculation shown in FIG.

第2の被写体検出および露光時間算出が開始されると、第2の検出部104は、テスト撮影画像1枚目およびテスト撮影画像2枚目から第1の検出部103から出力される第1の被写体の領域を除く領域について輝度値に基づいて第2の被写体を検出する(ステップS2201)。続いて、第2の検出部104はテスト撮影画像1枚目およびテスト撮影画像2枚目において第2の被写体の移動先を検出する(ステップS2202)。   When the second subject detection and the exposure time calculation are started, the second detection unit 104 outputs the first detection unit 103 that outputs the first test photographed image and the second test photographed image. A second subject is detected based on the luminance value in the region excluding the subject region (step S2201). Subsequently, the second detection unit 104 detects the movement destination of the second subject in the first test photographed image and the second test photographed image (step S2202).

ここで、第2の検出部104で行われる第2の被写体(つまり、星)の移動方向の探索について説明する。   Here, the search of the moving direction of the second subject (that is, the star) performed by the second detection unit 104 will be described.

図12は、撮影時刻t1における第2の被写体と撮影時刻t2における第2の被写体を合わせた画像を示す図である。また、図13は、方角別の星の探索方向を示す図である。   FIG. 12 is a diagram illustrating an image in which the second subject at the photographing time t1 and the second subject at the photographing time t2 are combined. Moreover, FIG. 13 is a figure which shows the search direction of the star according to direction.

図12において、画像900には撮影時刻t1で撮影された画像で検出された第2の被写体901と撮影時刻t2で撮影された画像で検出された第2の被写体902が示されている。そして、ここでは、探索領域903が示されている。   In FIG. 12, an image 900 shows a second subject 901 detected in the image taken at the photographing time t1 and a second subject 902 detected in the image taken at the photographing time t2. Here, a search area 903 is shown.

図13において、第2の検出部104によって第2の被写体1000が検出されたものとする。続いて、撮像装置100を東向きの撮影方向(探索方向)1001として撮影を行う。なお、撮像装置100を南向きの撮影方向(探索方向)1002として撮影を行うようにしもよい。さらには、撮像装置100を西向きの撮影方向(探索方向)1003として撮影を行うようにしてもよい。そして、これら撮影方向1001、1002、又は1003で撮影された画像から、第2の第2の被写体1000の移動先を検出する。   In FIG. 13, it is assumed that the second detection unit 104 has detected the second subject 1000. Subsequently, shooting is performed with the imaging apparatus 100 as an eastward shooting direction (search direction) 1001. Note that imaging may be performed with the imaging apparatus 100 as the imaging direction (search direction) 1002 facing south. Further, the imaging apparatus 100 may be photographed with the westward photographing direction (search direction) 1003. Then, the movement destination of the second second subject 1000 is detected from the images photographed in these photographing directions 1001, 1002, or 1003.

まず、第2の検出部104は撮影方向取得部106から撮影方向を取得する、ここでは、撮影方向が西向きであるとする。撮影方向が西向きであるので、第2の検出部104は、図13において第2の被写体1000から探索方向1003を採用する。   First, the second detection unit 104 acquires the shooting direction from the shooting direction acquisition unit 106. Here, it is assumed that the shooting direction is west. Since the shooting direction is west, the second detection unit 104 employs the search direction 1003 from the second subject 1000 in FIG.

図12を参照すると、第2の検出部104は第2の被写体901から左斜め下側に向かって数画素の座標を中心として5×5画素のブロックを設定して、当該ブロックにおいて第2の被写体901と輝度値が最も近い座標を撮影時刻t1から撮影時刻t2において第2の被写体901が移動した先の座標とする。   Referring to FIG. 12, the second detection unit 104 sets a block of 5 × 5 pixels centered on a coordinate of several pixels from the second subject 901 toward the lower left diagonal side, and the second block The coordinates having the closest brightness value to the subject 901 are set as the coordinates to which the second subject 901 has moved from the photographing time t1 to the photographing time t2.

第2の被写体である星の軌跡で写っていたとすると、第2の検出部104は軌跡の始まりを示す画素の座標を出力する。軌跡の始まりの画素は、東、南、および西ではそれぞれ画面の左側、北では北極星より上に見える軌跡は画面の右側、北極星より下に見える軌跡は画面の左側とするとよい。   Assuming that the image is taken in the locus of a star that is the second subject, the second detection unit 104 outputs the coordinates of the pixel indicating the start of the locus. The start pixel of the locus may be the left side of the screen in the east, south, and west, the locus that appears above the north star in the north is the right side of the screen, and the locus that appears below the north star is the left side of the screen.

第2の検出部104は撮影時刻t1における画像にある複数の星をそれぞれ第2の被写体とし、各々の座標と輝度値を情報管理部107に出力する。そして、第2の検出部104は撮影時刻t1で検出された第2の被写体が撮影時刻t2でどこに移動したかを示す移動先を検出してその座標を情報管理部107に出力する。続いて、第2の検出部104はその移動量が最大の第2の被写体(つまり、星)を検出する(ステップS2203)。   The second detection unit 104 sets a plurality of stars in the image at the shooting time t1 as second subjects, and outputs each coordinate and luminance value to the information management unit 107. Then, the second detection unit 104 detects a movement destination indicating where the second subject detected at the shooting time t1 has moved at the shooting time t2, and outputs the coordinates to the information management unit 107. Subsequently, the second detection unit 104 detects the second subject (that is, the star) having the maximum movement amount (step S2203).

図14は、図1に示す情報管理部107で保持される情報管理表(情報管理データ)の一例を示す図である。   FIG. 14 is a diagram showing an example of an information management table (information management data) held by the information management unit 107 shown in FIG.

情報管理表800は、星ID欄801、撮影時刻欄802、輝度値欄803、座標欄804、移動前座標欄805、移動方向欄806、合計輝度値欄807、移動前撮影時刻欄810、およびレコード作成時座標欄811を有している。図示の例では、星ID欄801には、複数の星を識別するための星IDA808および星IDB809が記録されている。   The information management table 800 includes a star ID column 801, a shooting time column 802, a luminance value column 803, a coordinate column 804, a pre-movement coordinate column 805, a movement direction column 806, a total luminance value column 807, a pre-movement shooting time column 810, and A record creation coordinate field 811 is provided. In the illustrated example, a star ID field 801 stores a star IDA 808 and a star IDB 809 for identifying a plurality of stars.

情報管理部107は星ID欄801に星IDを記録すると、当該星IDに対応付けて撮影時刻欄802、輝度値欄803、座標欄804、移動前座標欄805、移動方向欄806、および合計輝度値欄807にそれぞれ撮影時刻、輝度値、座標、移動前座標、移動方向、および合計輝度値を記録する。そして、情報管理部107は行毎にレコード単位で管理する。   When the star ID is recorded in the star ID column 801, the information management unit 107 associates the star ID with the shooting time column 802, the luminance value column 803, the coordinate column 804, the pre-movement coordinate column 805, the movement direction column 806, and the total. In the luminance value column 807, the photographing time, luminance value, coordinates, coordinates before movement, moving direction, and total luminance value are recorded. Then, the information management unit 107 manages in units of records for each row.

星IDは第2の検出部104で検出された第2の被写体(つまり、星)を識別するためのIDである。撮影時刻は当該第2の被写体が存在する画像が撮影された時刻である。輝度値は星IDで識別される星の輝度値である。座標は星ID801で識別される星の画面上の位置を示す。移動前座標欄805にはレコードを更新した際(更新する都度)、当該レコードの座標欄804に記録された座標が移動前座標としてコピーされる。   The star ID is an ID for identifying the second subject (that is, a star) detected by the second detection unit 104. The photographing time is the time when an image in which the second subject exists is photographed. The luminance value is a luminance value of a star identified by the star ID. The coordinates indicate the position of the star identified by the star ID 801 on the screen. When the record is updated (every time it is updated), the coordinates recorded in the coordinate field 804 of the record are copied to the pre-movement coordinate field 805 as the pre-movement coordinates.

移動方向は座標と移動前座標とを結んでできる直線と移動前座標から上方に垂線を引いた際の時計まわりの角を示す。合計輝度値欄807にはレコードに更新があった際、当該レコードの輝度値が合算されて合計輝度値として記録される。   The movement direction indicates a straight line formed by connecting the coordinates and the coordinates before movement, and a clockwise angle when a vertical line is drawn upward from the coordinates before movement. When the record is updated in the total luminance value column 807, the luminance values of the record are added together and recorded as a total luminance value.

図15は第2の被写体(つまり、星)の移動方向を説明するための図である。   FIG. 15 is a diagram for explaining the moving direction of the second subject (that is, a star).

画像(画素マップ)1100には、星の移動前の座標1101および移動後の座標1102が示されるとともに、移動方向θ(1103)が示されている。なお、移動前の座標1101および移動後の座標1102は同一の星について異なる時刻の位置を示したものである。   The image (pixel map) 1100 shows the coordinates 1101 before and after the movement of the star and the movement direction θ (1103). Note that the coordinates 1101 before movement and the coordinates 1102 after movement indicate positions at different times for the same star.

移動方向θ(1103)は移動前の座標1101と移動後の座標1102とを結ぶ線分と画面の上方から移動前の座標1101までの垂線がなす時計周りの角度をいう。   The moving direction θ (1103) is a clockwise angle formed by a line segment connecting the coordinates 1101 before the movement and the coordinates 1102 after the movement and a perpendicular line from the top of the screen to the coordinates 1101 before the movement.

第2の検出部104はテスト撮影画像1枚目から第2の被写体として検出した星の座標、輝度値、および撮影時刻を情報管理部107に出力する。情報管理部107は、これら星の座標、輝度値、および撮影時刻を情報管理表に記録する。つまり、情報管理部107は星ID毎に星座標、輝度値、および撮影時刻をそれぞれ座標欄804、輝度値欄803、および撮影時刻欄802に記録する。   The second detection unit 104 outputs the coordinates of the stars detected as the second subject from the first test photographed image, the luminance value, and the photographing time to the information management unit 107. The information management unit 107 records the coordinates of the stars, the luminance value, and the shooting time in the information management table. That is, the information management unit 107 records the star coordinates, the luminance value, and the shooting time for each star ID in the coordinate column 804, the luminance value column 803, and the shooting time column 802, respectively.

レコードの作成の際、情報管理部107は座標欄804への記録とともに、レコード作成時座標811に座標欄804に記録した座標を記録する。   When creating the record, the information management unit 107 records the coordinates recorded in the coordinate column 804 in the coordinate 811 at the time of record creation together with the recording in the coordinate column 804.

次に、第2の検出部104はテスト撮影画像2枚目から第2の被写体として検出した星の座標、輝度値、および撮影時刻を情報管理部107に出力する。前述したように、テスト撮影画像2枚目に写る同一の星の位置関係は探索されているので、情報管理部107はテスト撮影画像2枚目の検出結果に応じて星ID801毎に情報管理表の更新を行う。   Next, the second detection unit 104 outputs the coordinates of the stars detected as the second subject from the second test photographed image, the luminance value, and the photographing time to the information management unit 107. As described above, since the positional relationship of the same star appearing in the second test photographed image is searched, the information management unit 107 determines the information management table for each star ID 801 according to the detection result of the second test photographed image. Update.

情報管理部107は新たに星の座標、輝度値、および撮影時刻を受けると、星ID毎に座標欄804に記録された座標を移動前座標欄805に上書き保存し、座標欄804に新たな星の座標を上書き保存する。また、情報管理部107は輝度値欄802に記録された輝度値を合計輝度値欄807に記録された合計輝度値と合算して、この合算値を合計輝度値欄807に上書き保存する。そして、情報管理部107は輝度値欄802に新たに入力された輝度値を上書き保存する。   When the information management unit 107 newly receives the coordinates of the star, the luminance value, and the shooting time, the coordinates recorded in the coordinate field 804 are overwritten and saved in the coordinate field 805 for each star ID, and the new coordinates are stored in the coordinate field 804. Save the star coordinates. Further, the information management unit 107 adds the luminance value recorded in the luminance value column 802 with the total luminance value recorded in the total luminance value column 807 and overwrites and saves the total value in the total luminance value column 807. Then, the information management unit 107 overwrites and saves the newly input luminance value in the luminance value column 802.

さらに、情報管理部107は撮影時刻欄802に記録された撮影時刻を移動前撮影時刻欄810に上書き保存し、新たに入力された撮影時刻を撮影時刻欄802に上書き保存する。情報管理部107は更新した座標と移動前座標とに基づいて、図15で説明したようにして移動方向θを算出し、移動方向欄806に当該移動方向θを上書き保存する。   Further, the information management unit 107 overwrites and saves the shooting time recorded in the shooting time column 802 in the shooting time column 810 before movement, and overwrites the newly input shooting time in the shooting time column 802. Based on the updated coordinates and the pre-movement coordinates, the information management unit 107 calculates the movement direction θ as described with reference to FIG. 15 and overwrites and saves the movement direction θ in the movement direction column 806.

このようにして、2枚のテスト撮影画像に応じて情報管理表の更新を終了すると、第2の検出部104は星IDで識別された星の中で移動量の最も大きい星を検出する。ここでは、移動量は座標欄804に記録された座標(つまり、移動後座標)と移動前座標欄805に記録された移動前座標を用いて求められる。ここで、移動量は、移動後座標から移動前座標を減算して、その結果(X座標およびY座標)の二乗を加算した結果の平方根とする。   In this way, when the update of the information management table is completed according to the two test photographed images, the second detection unit 104 detects the star having the largest movement amount among the stars identified by the star ID. Here, the movement amount is obtained using the coordinates recorded in the coordinate field 804 (that is, the coordinates after movement) and the coordinates before movement recorded in the coordinates field 805 before movement. Here, the amount of movement is the square root of the result of subtracting the coordinates before movement from the coordinates after movement and adding the square of the result (X coordinate and Y coordinate).

移動量の最も大きい星IDを検出した後、第2の検出部104は当該星IDに係る星の移動量から画面上における移動速度を算出する(ステップS2204)。なお、移動速度を求める際には、画素マップのみを用いて計算するようにしてもよいが、ここでは、センサのピッチも用いて移動速度を求める場合について説明する。   After detecting the star ID having the largest moving amount, the second detection unit 104 calculates the moving speed on the screen from the moving amount of the star related to the star ID (step S2204). In addition, when calculating | requiring a moving speed, you may make it calculate using only a pixel map, However, Here, the case where a moving speed is calculated | required also using the pitch of a sensor is demonstrated.

図16は、センサのピッチを用いて星の移動速度を求める例を説明するための図である。   FIG. 16 is a diagram for explaining an example in which the moving speed of the star is obtained using the pitch of the sensor.

図示の光学センサ1200は複数の画素を備えており、ここでは、光学センサ1200の1画素の縦方向の長さ1201をLpvとし、光学センサ1200の1画素の横方向の長さ1202をLphとする。また、光学センサ1200の1画素の対角線の長さ1203をLpdとする。   The illustrated optical sensor 1200 includes a plurality of pixels. Here, the vertical length 1201 of one pixel of the optical sensor 1200 is Lpv, and the horizontal length 1202 of one pixel of the optical sensor 1200 is Lph. To do. Further, the length 1203 of the diagonal line of one pixel of the optical sensor 1200 is Lpd.

いま、画素1204を移動前の星で露光されていた画素とし、画素1205を移動後の星で露光されていた画素とする。これらの画素は画素マップの座標と対応している。   Now, let the pixel 1204 be a pixel that was exposed with a star before movement, and let the pixel 1205 be a pixel that was exposed with a star after movement. These pixels correspond to the coordinates of the pixel map.

まず、画素マップ上の移動速度vtcは次の式(3)で求められる。   First, the moving speed vtc on the pixel map is obtained by the following equation (3).

ここで、tnは星の移動後の撮影時刻、tn−1は星の移動前の移動時刻を表す。また、Xnは星の移動後のX座標、Xn−1は星の移動前のX座標であり、Ynは星の移動後のY座標、Yn−1は星の移動前のY座標である。 Here, tn represents the shooting time after the movement of the star, and tn-1 represents the movement time before the movement of the star. Xn is the X coordinate after the star is moved, Xn-1 is the X coordinate before the star is moved, Yn is the Y coordinate after the star is moved, and Yn-1 is the Y coordinate before the star is moved.

画素マップ上の移動速度vtcから光学センサ上の移動速度vに変換を行う。この変換式は次の(4)で示される。 For converting the moving velocity v t on the optical sensor from the movement speed vtc on the pixel map. This conversion equation is shown by the following (4).

第2の検出部104は第2の被写体に関する露光時間を算出する(ステップS2205)。光学センサ上における移動速度を求めた後、第2の検出部104は移動量が最大の星について情報管理表を参照してその移動方向を確認する。そして、第2の検出部104は移動方向θ(角度)によって移動速度vtを除算する値を決定する。 The second detection unit 104 calculates the exposure time for the second subject (step S2205). After obtaining the moving speed on the optical sensor, the second detection unit 104 confirms the moving direction of the star with the largest moving amount by referring to the information management table. Then, the second detection unit 104 determines a value by which the moving speed vt is divided by the moving direction θ (angle).

例えば、移動方向(角度)θが0°≦θ<30°、150°≦θ<210°、330°≦θ<360°の場合には、第2の検出部104は移動速度vtを1画素の縦方向の長さLpvで除算する。角度θが30°≦θ<60°、120°≦θ<150°、210°≦θ<240°、300°≦θ<330°の場合には、第2の検出部104は移動速度vtを1画素の対角線の長さ1203をLpdで除算する。角度θが60°≦θ<120°、240°≦θ<300°の場合には、第2の検出部104は移動速度vtを1画素の横方向の長さ1202をLph除算する。   For example, when the moving direction (angle) θ is 0 ° ≦ θ <30 °, 150 ° ≦ θ <210 °, 330 ° ≦ θ <360 °, the second detection unit 104 sets the moving speed vt to one pixel. Is divided by the vertical length Lpv. When the angle θ is 30 ° ≦ θ <60 °, 120 ° ≦ θ <150 °, 210 ° ≦ θ <240 °, and 300 ° ≦ θ <330 °, the second detection unit 104 sets the moving speed vt. The diagonal length 1203 of one pixel is divided by Lpd. When the angle θ is 60 ° ≦ θ <120 ° and 240 ° ≦ θ <300 °, the second detection unit 104 divides the moving speed vt by the horizontal length 1202 of one pixel by Lph.

このようにして、移動方向θに応じて移動速度Vtを除算する値を変更すると、その商はほぼ光学センサの1画素の移動に掛かる時間となる。さらに、連続撮影の際に生じるタイムラグを考慮して、第2の検出部104は第2の露光時間を次の式(5)に応じて算出する。   In this way, when the value that divides the moving speed Vt is changed in accordance with the moving direction θ, the quotient is substantially the time taken to move one pixel of the optical sensor. Further, the second detection unit 104 calculates the second exposure time according to the following equation (5) in consideration of the time lag that occurs during continuous shooting.

なお、式(5)において、*は移動方向θによって決まる値である。
ここで、tssは第2の露光時間、Lp*はセンサの寸法、tlはタイムラグである。
In Equation (5), * is a value determined by the moving direction θ.
Here, tss is the second exposure time, Lp * is the dimension of the sensor, and tl is the time lag.

このようにして、第1の被写体の検出結果を用いて第2の被写体の検出と露光時間とを算出した後、第2の検出部104は第2の被写体検出および露光時間算出に係る処理を終了する。   In this manner, after calculating the second subject detection and the exposure time using the first subject detection result, the second detection unit 104 performs the processes related to the second subject detection and the exposure time calculation. finish.

ここで、図1に示す情報管理部107に保存される情報管理表の作成および更新について具体例を挙げて説明する。   Here, creation and update of the information management table stored in the information management unit 107 illustrated in FIG. 1 will be described with a specific example.

図17は、図1に示す情報管理部107に保存される情報管理表の作成および更新を説明するための図である。そして、図17(a)は第1の時刻t0で検出された検出結果を情報管理表に反映させた状態を示す図であり、図17(b)は第2の撮影時刻t1において第1の星Xのレコードを更新した状態を示す図である。また、図17(c)は第2の撮影時刻t1において第2の星Yのレコードを更新した状態を示す図であり、第17(d)は第2の撮影時刻t1において第3の星Zのレコードを更新した状態を示す図である。   FIG. 17 is a diagram for explaining the creation and update of the information management table stored in the information management unit 107 shown in FIG. FIG. 17A is a diagram illustrating a state in which the detection result detected at the first time t0 is reflected in the information management table, and FIG. 17B is a diagram illustrating the first imaging time t1 at the first imaging time t1. It is a figure which shows the state which updated the record of the star X. FIG. 17C is a diagram showing a state in which the record of the second star Y is updated at the second shooting time t1, and FIG. 17D is a diagram showing the third star Z at the second shooting time t1. It is a figure which shows the state which updated this record.

図17において、図14に示す例と同一の要素には同一の参照番号を付す。ここでは、星ID欄801には星IDとして星X、星Y、および星Zが登録されているものとする。そして、星Xはレコード1900を有し、星Yはレコード1901を有する。また、星Zはレコード1902を有している。   In FIG. 17, the same elements as those in the example shown in FIG. Here, it is assumed that star X, star Y, and star Z are registered in the star ID column 801 as star IDs. The star X has a record 1900, and the star Y has a record 1901. The star Z has a record 1902.

いま、第1の撮影時刻t0で撮影の結果得られた画像から3つの星が第2の検出部104によって検出されたとする。そして、第2の検出部104は撮影時刻、輝度値、および星座標を情報管理部107に出力する。情報管理部107は1番目の星に星Xという星IDを付与してレコード1900を作成する。ここでは、図17(a)に示すように、情報管理部107は撮影時刻欄802に”t0”を記録し、輝度値欄803に”10”を記録する。さらに、情報管理部107は座標欄804に座標(100,200)を記録するとともに、レコード作成時座標欄811に座標(100,200)を記録する。   Now, it is assumed that three stars are detected by the second detection unit 104 from an image obtained as a result of shooting at the first shooting time t0. Then, the second detection unit 104 outputs the shooting time, the luminance value, and the star coordinates to the information management unit 107. The information management unit 107 creates a record 1900 by assigning a star ID of star X to the first star. Here, as illustrated in FIG. 17A, the information management unit 107 records “t0” in the shooting time column 802 and “10” in the luminance value column 803. Further, the information management unit 107 records the coordinates (100, 200) in the coordinate column 804 and records the coordinates (100, 200) in the record creation coordinate column 811.

続いて、情報管理部107は2番目の星に星Yという星IDを付与してレコード1901を作成する。ここでは、図17(a)に示すように、情報管理部107は撮影時刻欄802に”t0”を記録し、輝度値欄803に”20”を記録する。さらに、情報管理部107は座標欄804に座標(300,400)を記録するとともに、レコード作成時座標欄811に座標(300,400)を記録する。   Subsequently, the information management unit 107 creates a record 1901 by assigning a star ID of star Y to the second star. Here, as shown in FIG. 17A, the information management unit 107 records “t0” in the photographing time column 802 and “20” in the luminance value column 803. Further, the information management unit 107 records the coordinates (300, 400) in the coordinate column 804 and records the coordinates (300, 400) in the record creation coordinate column 811.

さらに、情報管理部107は3番目の星に星Zという星IDを付与してレコード1902を作成する。ここでは、図17(a)に示すように、情報管理部107は撮影時刻欄802に”t0”を記録し、輝度値欄803に”50”を記録する。さらに、情報管理部107は座標欄804に座標(250,100)を記録するとともに、レコード作成時座標欄811に座標(250,100)を記録する。そして、情報管理部107はレコード1900〜1902に記録された座標および輝度値を第2の検出部104に出力する。   Further, the information management unit 107 creates a record 1902 by assigning a star ID of star Z to the third star. Here, as illustrated in FIG. 17A, the information management unit 107 records “t0” in the shooting time column 802 and “50” in the luminance value column 803. Furthermore, the information management unit 107 records the coordinates (250, 100) in the coordinate field 804 and records the coordinates (250, 100) in the coordinate field 811 when creating the record. Then, the information management unit 107 outputs the coordinates and luminance values recorded in the records 1900 to 1902 to the second detection unit 104.

次に、第2の撮影時刻t1で撮影の結果得られた画像から3つ星が第2の検出部104によって検出されたとする。そして、第2の検出部104は撮影時刻、輝度値、および星座標を情報管理部107に出力する。ここでは、第1の撮影時刻t0と同一の星が検出されたものとする。   Next, it is assumed that the second detection unit 104 detects three stars from an image obtained as a result of shooting at the second shooting time t1. Then, the second detection unit 104 outputs the shooting time, the luminance value, and the star coordinates to the information management unit 107. Here, it is assumed that the same star as the first photographing time t0 is detected.

まず、情報管理部107は一番目の星である星Xについてレコード1900を更新する。図17(b)に示すように、情報管理部107は撮影時刻欄802に”t1”を上書き保存し、輝度値欄803に”11”を上書き保存する。さらに、情報管理部107は座標欄804に座標(105,205)を上書き保存するとともに、移動前座標欄805に移動前の座標(100,200)を記録する。そして、移動後の座標および移動前の座標から移動方向θは45°となり、合計輝度値は21となるので、情報管理部107は移動方向欄805に”45°”を記録し、合計輝度値欄807に”21”を記録する。   First, the information management unit 107 updates the record 1900 for the star X that is the first star. As shown in FIG. 17B, the information management unit 107 overwrites and saves “t1” in the photographing time column 802 and “11” in the luminance value column 803. Further, the information management unit 107 overwrites and saves the coordinates (105, 205) in the coordinate column 804 and records the coordinates (100, 200) before the movement in the coordinates column 805 before the movement. Then, the movement direction θ is 45 ° from the coordinates after movement and the coordinates before movement, and the total luminance value is 21, so that the information management unit 107 records “45 °” in the movement direction column 805 to obtain the total luminance value. Record “21” in the field 807.

続いて、情報管理部107は二番目の星である星Yについてレコード1901を更新する。図17(c)に示すように、情報管理部107は撮影時刻欄802に”t1”を上書き保存し、輝度値欄803に”22”を上書き保存する。さらに、情報管理部107は座標欄804に座標(310,415)を上書き保存するとともに、移動前座標欄805に移動前の座標(300,400)を記録する。そして、移動後の座標および移動前の座標から移動方向θは56.5°となり、合計輝度値は42となるので、情報管理部107は移動方向欄805に”56.5°”を記録し、合計輝度値欄807に”42”を記録する。   Subsequently, the information management unit 107 updates the record 1901 for the second star, the star Y. As shown in FIG. 17C, the information management unit 107 overwrites and saves “t1” in the photographing time column 802 and “22” in the luminance value column 803. Further, the information management unit 107 overwrites and saves the coordinates (310, 415) in the coordinate field 804, and records the coordinates (300, 400) before the movement in the coordinates field 805 before the movement. Then, the movement direction θ is 56.5 ° from the coordinates after movement and the coordinates before movement, and the total luminance value is 42. Therefore, the information management unit 107 records “56.5 °” in the movement direction column 805. “42” is recorded in the total luminance value column 807.

次に、情報管理部107は三番目の星である星Zについてレコード1902を更新する。図17(d)に示すように、情報管理部107は撮影時刻欄802に”t1”を上書き保存し、輝度値欄803に”53”を上書き保存する。さらに、情報管理部107は座標欄804に座標(258,110)を上書き保存するとともに、移動前座標欄805に移動前の座標(250,100)を記録する。そして、移動後の座標および移動前の座標から移動方向θは85.5°となり、合計輝度値は103となるので、情報管理部107は移動方向欄805に”85.5°”を記録し、合計輝度値欄807に”103”を記録する。   Next, the information management unit 107 updates the record 1902 for the star Z that is the third star. As shown in FIG. 17D, the information management unit 107 overwrites and saves “t1” in the photographing time column 802 and “53” in the luminance value column 803. Furthermore, the information management unit 107 overwrites and saves the coordinates (258, 110) in the coordinate field 804 and records the coordinates (250, 100) before the movement in the coordinates field 805 before the movement. The movement direction θ is 85.5 ° from the coordinates after movement and the coordinates before movement, and the total luminance value is 103. Therefore, the information management unit 107 records “85.5 °” in the movement direction column 805. Then, “103” is recorded in the total luminance value column 807.

このようにして、星X〜星Zについてレコード1900〜1901の更新を終了すると、情報管理部107は第2の検出部104に各レコードの座標、輝度値、および移動方向を出力する。また、全てのレコードの更新が終わった後、合計輝度値が設定値を超えていると、情報管理部107は露光条件設定部105に撮影を中止する指示を送る。   In this way, when the update of the records 1900 to 1901 is completed for the stars X to Z, the information management unit 107 outputs the coordinates, the luminance value, and the moving direction of each record to the second detection unit 104. If the total luminance value exceeds the set value after all the records have been updated, the information management unit 107 sends an instruction to stop shooting to the exposure condition setting unit 105.

情報管理部107が露光条件設定部105に撮影中止の指示を送るまで、第2の検出部104によって検出された次の撮影時刻における検出結果が情報管理部107に与えられる。そして、情報管理部107は当該検出結果に応じてレコードを更新して、レコード更新の後、情報管理部107は更新後のレコードに記録された星の座標、輝度値、および移動方向を第2の検出部104に出力する。   Until the information management unit 107 sends an instruction to stop shooting to the exposure condition setting unit 105, the detection result at the next shooting time detected by the second detection unit 104 is given to the information management unit 107. Then, the information management unit 107 updates the record according to the detection result, and after updating the record, the information management unit 107 sets the second coordinates of the stars, the luminance value, and the moving direction recorded in the updated record. To the detection unit 104.

図2に関連して説明したように、ステップS2003において、撮像部101は第1の被写体に適した露光条件で撮影を行う。ステップS2001の処理で画像における第1の被写体の領域は判明しており、その検出結果は第1検出部から露光条件設定部105に送信される。   As described with reference to FIG. 2, in step S2003, the imaging unit 101 captures an image with exposure conditions suitable for the first subject. The region of the first subject in the image has been determined by the processing in step S2001, and the detection result is transmitted from the first detection unit to the exposure condition setting unit 105.

図18は図1に示す第1の検出部103で検出される第1の被写体の領域について説明するための図である。なお、図18は図4に示すテスト撮影画像1枚目と同様の画像である。   FIG. 18 is a diagram for explaining a region of the first subject detected by the first detection unit 103 shown in FIG. FIG. 18 is the same image as the first test photographed image shown in FIG.

図18に示す画像200において、第1の被写体の領域400が第1の被写体以外の領域401と区別されて検出される。露光条件設定部105は第1の被写体の領域400と同一の領域を、撮像部101によって測光して適正露出となるように、ISO感度を低くして露光条件を設定する。   In the image 200 shown in FIG. 18, the region 400 of the first subject is detected separately from the region 401 other than the first subject. The exposure condition setting unit 105 sets the exposure condition by lowering the ISO sensitivity so that the same area as the area 400 of the first subject is measured by the imaging unit 101 to obtain an appropriate exposure.

第1の被写体の領域400を測光して得られた第1の被写体に適した露光条件によって、撮像部101は撮影を行って画像データを生成する。そして、前述したように、当該画像データは撮像部101から記録部102に送られて保存される。   The imaging unit 101 shoots and generates image data according to exposure conditions suitable for the first subject obtained by photometry of the first subject area 400. As described above, the image data is sent from the imaging unit 101 to the recording unit 102 and stored.

図3で説明したステップS2004の処理では第2の被写体に適した露光条件での撮影が行われる。この際には、情報管理部107によって算出された第2の被写体用の露光時間が情報管理部107から露光条件設定部105に送られる。露光条件設定部105は第2の被写体用の露光時間で撮像部101を制御する。撮像部101で得られた画像データを記録部102および第2の検出部104に出力される。   In the process of step S2004 described with reference to FIG. 3, shooting is performed under an exposure condition suitable for the second subject. At this time, the exposure time for the second subject calculated by the information management unit 107 is sent from the information management unit 107 to the exposure condition setting unit 105. The exposure condition setting unit 105 controls the imaging unit 101 with the exposure time for the second subject. Image data obtained by the imaging unit 101 is output to the recording unit 102 and the second detection unit 104.

撮像部101は画像データの出力後、直ちに同一の露光時間で再度撮影を行う。第2の被写体用の露光時間で撮影された結果得られた二枚目以降の画像データは第2の検出部104のみに出力される。第2の検出部104は画像データから第2の被写体を検出して、撮影時刻、第2の被写体の座標、およびその輝度値を情報管理部107に出力する。   Immediately after the image data is output, the imaging unit 101 captures again with the same exposure time. The second and subsequent image data obtained as a result of shooting with the exposure time for the second subject is output only to the second detection unit 104. The second detection unit 104 detects the second subject from the image data, and outputs the shooting time, the coordinates of the second subject, and the luminance value thereof to the information management unit 107.

情報管理部107はテスト撮影画像から第2の被写体用の露光時間の算出を行って露光条件設定部105に出力すると、一旦、情報管理表のレコードを削除する。そして、情報管理部107は再び第2の検出部104の検出結果に応じて情報管理表にレコードを作成する。   When the information management unit 107 calculates the exposure time for the second subject from the test photographed image and outputs it to the exposure condition setting unit 105, the information management table record is once deleted. Then, the information management unit 107 creates a record in the information management table again according to the detection result of the second detection unit 104.

具体的には、情報管理部107は第2の検出部104から出力される第2の被写体に係る検出結果に応じて、前述のようにしてレコードを作成する。第2の検出部104は、撮像部101が第2の被写体用の露光時間で撮影した2枚目の画像データから、同一の撮影条件で撮影した結果得られた1枚目の画像データにおける同一の星の座標と輝度値を検出して撮影時刻とともに情報管理部107に出力する。   Specifically, the information management unit 107 creates a record as described above according to the detection result relating to the second subject output from the second detection unit 104. The second detection unit 104 is the same in the first image data obtained as a result of shooting under the same shooting conditions from the second image data shot by the imaging unit 101 with the exposure time for the second subject. The coordinates and brightness value of the star are detected and output to the information management unit 107 together with the photographing time.

情報管理部107はこれら座標、輝度値、および撮影時刻を用いて、前述のようにして情報管理表の各レコードを更新する。そして、情報管理部107は情報管理表の更新の結果である各レコードの輝度値、移動方向、および座標を第2の検出部104に送る。   The information management unit 107 updates each record of the information management table as described above using these coordinates, luminance value, and photographing time. Then, the information management unit 107 sends the brightness value, moving direction, and coordinates of each record, which is the result of updating the information management table, to the second detection unit 104.

第2の検出部104は撮像部101が第2の被写体用の露光時間で撮影した3枚目の画像データから、同一の撮影条件で撮影した2枚目の画像データにおける同一の星の座標および輝度値を検出して撮影時刻とともに情報管理部107に出力する。   The second detection unit 104 uses the coordinates of the same star in the second image data shot under the same shooting conditions from the third image data shot by the imaging unit 101 with the exposure time for the second subject. The brightness value is detected and output to the information management unit 107 together with the shooting time.

ここで、第2の被写体用の露光時間で撮影した3枚目の画像データから同一の撮影条件で撮影した結果得られた2枚目の画像データから同一の星の座標を検出する手法は前述の手法と異なる。   Here, the method for detecting the coordinates of the same star from the second image data obtained as a result of photographing under the same photographing conditions from the third image data photographed with the exposure time for the second subject is described above. It is different from the method.

ここでは、第2の被写体用の露光時間で撮影した結果得られた3枚目の画像データから撮影時間以外を同一の撮影条件として撮影した結果得られた2枚目の画像データから同一の星の座標の検出手法について説明する。なお、3枚目以降の画像データについては、一つ前に撮影された画像データから検出を行う。   Here, the same star is obtained from the second image data obtained as a result of photographing from the third image data obtained as a result of photographing with the exposure time for the second subject under the same photographing conditions except for the photographing time. The coordinate detection method will be described. The third and subsequent image data are detected from the previous image data.

第2の検出部104は、情報管理部107が出力する輝度値、座標、および移動方向に基づいて同一の星を検出する。まず、第2の検出部104は座標で示される位置から移動方向に応じて探索する方向を決定する。   The second detection unit 104 detects the same star based on the luminance value, coordinates, and movement direction output from the information management unit 107. First, the second detection unit 104 determines a search direction from a position indicated by coordinates according to the movement direction.

探索方向を決定すると、第2の検出部104は座標で示される位置から移動方向に沿って1画素分移動した画素を中心に5×5画素で構成されるブロックから輝度値が最も近い座標を探索する。なお、探索の際の移動量とブロックの大きさについては任意に定めることができる。   When the search direction is determined, the second detection unit 104 determines a coordinate having the closest luminance value from a block composed of 5 × 5 pixels around the pixel moved by one pixel along the movement direction from the position indicated by the coordinate. Explore. Note that the amount of movement and the size of the block during the search can be arbitrarily determined.

ここで、探索先が第1の被写体の領域に存在する場合の例外処理について説明する。   Here, exception processing when the search destination is in the area of the first subject will be described.

図19は、星が建物の裏に入るようすを説明するための図である。   FIG. 19 is a diagram for explaining how a star enters the back of a building.

図19において、画像1300は所定の撮影間隔で撮影した画像を合成した画像である。星の位置1301は撮影時刻tiにおける星の位置であり、星の位置1302は撮影時刻tjにおける星の位置である。また、星の位置1303は撮影時刻tkにおける星の位置である。   In FIG. 19, an image 1300 is an image obtained by combining images taken at a predetermined shooting interval. A star position 1301 is a star position at the photographing time ti, and a star position 1302 is a star position at the photographing time tj. A star position 1303 is a star position at the photographing time tk.

経路1304は撮影時刻tiから撮影時刻tjにかけて星が移動する経路であり、経路1305は撮影時刻tjから撮影時刻tkにかけて星が移動する経路である。また、経路1306は撮影時時刻tkから撮影時刻tlにかけて星が移動する経路である。なお、ここでは、撮影時刻ti、tj、tk、tlの順に時刻が早いものとする。   A route 1304 is a route along which the star moves from the photographing time ti to the photographing time tj, and a route 1305 is a route along which the star moves from the photographing time tj to the photographing time tk. A route 1306 is a route along which the star moves from the photographing time tk to the photographing time tl. Here, it is assumed that the time is earlier in the order of photographing times ti, tj, tk, and tl.

撮影時刻tiに観測された星は、撮影時刻tjでは撮影時刻tiから撮影時刻tjにかけて経路1304を通って観測される。さらに、撮影時刻tkでは星は経路1305を通って観測される。撮影時刻tlでは星は経路1306を通って建物201の裏に移動してしまう。なお、建物201の裏に星が移動した状態を、ここでは例外という。   The star observed at the photographing time ti is observed through the path 1304 from the photographing time ti to the photographing time tj at the photographing time tj. Furthermore, the star is observed through the path 1305 at the photographing time tk. At the photographing time tl, the star moves to the back of the building 201 through the route 1306. Here, the state where the star has moved to the back of the building 201 is referred to as an exception.

第2の検出部104は、第2の被写体である星を検出するため、撮影時刻の異なる画像を用いて探索を行うが、星が建物201などの第1の被写体の裏に移動すると、第2の検出部104は座標および輝度値を検出することができない。このため、ここでは、第2の検出部104は例外処理を行う必要がある。   The second detection unit 104 performs a search using images with different shooting times in order to detect a star that is the second subject. When the star moves behind the first subject such as the building 201, the second detection unit 104 performs the search. The second detection unit 104 cannot detect coordinates and luminance values. For this reason, here, the second detection unit 104 needs to perform exception processing.

図20は、図1に示す第2の検出部104で例外処理を行う際の情報管理表の更新処理を説明するためのフローチャートである。   FIG. 20 is a flowchart for explaining the update process of the information management table when the second detection unit 104 shown in FIG. 1 performs exception processing.

情報管理表の更新処理が開始されると、情報管理部107は合計輝度値が設定値を超えているレコードが存在するか否かを判定する(ステップS1401)。合計輝度値が設定値を超えているレコードが存在すると(ステップS1401において、YES)、情報管理部107は更新処理を終了する。   When the update process of the information management table is started, the information management unit 107 determines whether there is a record whose total luminance value exceeds the set value (step S1401). If there is a record in which the total luminance value exceeds the set value (YES in step S1401), the information management unit 107 ends the update process.

一方、合計輝度値が設定値を超えているレコードが存在しないと(ステップS1401において、NO)、情報管理部107からの指示によって露光条件設定部105は撮像部101を制御して第2の被写体用の露光時間で撮影を行う(ステップS1402)。続いて、情報管理部107は第2の検出部104から出力される検出結果に応じた情報管理表の各レコードの更新が終了したか否かを確認する(ステップS1403)。   On the other hand, if there is no record in which the total luminance value exceeds the set value (NO in step S1401), the exposure condition setting unit 105 controls the imaging unit 101 according to an instruction from the information management unit 107 to control the second subject. Photographing is performed with the exposure time for use (step S1402). Subsequently, the information management unit 107 confirms whether or not the update of each record in the information management table according to the detection result output from the second detection unit 104 has been completed (step S1403).

更新が終了すると(ステップS1403において、YES)、情報管理部107はステップS1401の処理に戻る。一方、更新が終了していないと(ステップS1403において、NO)、第2の検出部104は探索先が第1の被写体の領域に含まれていないか否かを確認する(ステップS1404)。   When the update is completed (YES in step S1403), the information management unit 107 returns to the process of step S1401. On the other hand, if the update has not ended (NO in step S1403), the second detection unit 104 checks whether or not the search destination is included in the region of the first subject (step S1404).

探索先が第1の被写体の領域に含まれていないと(ステップS1404において、NO)、第2の検出部104は情報管理表に保存された座標、輝度値、および移動方向に応じて同一の星の移動先を探索する(ステップS1405)。そして、第2の検出部104は探索先に星の移動先が検出できたか否かを確認する(ステップS1406)。   If the search destination is not included in the area of the first subject (NO in step S1404), the second detection unit 104 is identical according to the coordinates, the luminance value, and the movement direction stored in the information management table. The destination of the star is searched (step S1405). Then, the second detection unit 104 checks whether or not the star movement destination has been detected as the search destination (step S1406).

第2の検出部104によって星の移動先が検出できると(ステップS1406において、YES)、情報管理部107は第2の検出部104の出力である検出結果に基づいて、情報管理表の該当するレコードを更新する(ステップS1407)。そして、情報管理部107はステップS1403の処理に戻る。   When the second detection unit 104 can detect the moving destination of the star (YES in step S1406), the information management unit 107 corresponds to the information management table based on the detection result output from the second detection unit 104. The record is updated (step S1407). Then, the information management unit 107 returns to the process of step S1403.

第2の検出部104によって星の移動先が検出できないと(ステップS1406において、NO)、情報管理部107は例外処理として疑似情報を用いて情報管理表の該当するレコードを更新する(ステップS1408)。そして、情報管理部107はステップS1403の処理に戻る。なお、ステップS1404において、第2の検出部104によって探索先が第1の被写体の領域に含まれていると確認されると(ステップS1404において、YES)、情報管理部107はステップS1408の処理を行う。   If the second detection unit 104 cannot detect the moving destination of the star (NO in step S1406), the information management unit 107 updates the corresponding record in the information management table using the pseudo information as an exception process (step S1408). . Then, the information management unit 107 returns to the process of step S1403. In step S1404, when the second detection unit 104 confirms that the search destination is included in the first subject area (YES in step S1404), the information management unit 107 performs the process of step S1408. Do.

ここでは、疑似情報として、座標を探索する際に用いるブロックの中心座標を用いるとともに、輝度値欄803に格納された輝度値が用いられる。   Here, as the pseudo information, the center coordinates of the block used when searching for the coordinates are used, and the brightness value stored in the brightness value column 803 is used.

第2の被写体に適した露光時間での撮影、第2の被写体の検出、および情報管理表の更新は設定条件を満たすまで繰り返される。ここで、情報管理表の星IDで識別される星においていずれかの合計輝度値が所定の設定値に達すると、設定条件が満たされたとされる。なお、設定条件を設定する際には、画素が白飛びする値および特定の星に対する白飛びするなどが考慮される。   Shooting with an exposure time suitable for the second subject, detection of the second subject, and updating of the information management table are repeated until the setting condition is satisfied. Here, when any of the total luminance values reaches a predetermined set value in the star identified by the star ID in the information management table, it is determined that the set condition is satisfied. It should be noted that when setting the setting conditions, a value at which a pixel is blown out, a whiteout with respect to a specific star, and the like are taken into consideration.

図2で説明したステップS2005の処理では第2の被写体を鮮明にするための合成が行われる。まず、第1の合成部108は記録部102から第2の被写体に適した露光時間(露光条件)で撮影された最初の画像データを取得する。さらに、第1の合成部108は情報管理部107からレコード作成時座標と合計輝度値を取得する。   In the process of step S2005 described with reference to FIG. 2, the composition for sharpening the second subject is performed. First, the first synthesizing unit 108 acquires first image data taken from the recording unit 102 with an exposure time (exposure condition) suitable for the second subject. Further, the first synthesis unit 108 acquires the record creation coordinates and the total luminance value from the information management unit 107.

第1の合成部108は最初の画像データに対してレコード作成時座標で示される画素の輝度値を合計輝度値に置き換えて(つまり、合計輝度値に修正して)、第1の合成画像データを生成する。そして、第1の合成部108は第1の合成画像データを第2の合成部109に出力する。   The first synthesis unit 108 replaces the luminance value of the pixel indicated by the coordinates at the time of record creation with the total luminance value for the first image data (that is, corrects the luminance value to the total luminance value), and the first synthetic image data Is generated. Then, the first combining unit 108 outputs the first combined image data to the second combining unit 109.

図2で説明したステップS2006の処理では第1の被写体を撮影した画像データと第2の被写体を鮮明にした第1の合成画像データとの合成を行う。第2の合成部109は、記録部102から第1の被写体に適した露光時間(露光条件)で撮影された画像データを読み込むとともに、第1の検出部103が出力する第1の被写体の検出領域および第1の合成部108が出力する第1の合成画像データを読み込む。   In the process of step S2006 described with reference to FIG. 2, the image data obtained by photographing the first subject and the first synthesized image data obtained by clarifying the second subject are synthesized. The second synthesizing unit 109 reads the image data captured with the exposure time (exposure condition) suitable for the first subject from the recording unit 102 and detects the first subject output by the first detecting unit 103. The first synthesized image data output from the region and the first synthesis unit 108 is read.

第2の合成部109は第1の合成画像データに基づいて、第1の合成画像データにおける第1の被写体の領域に、第1の被写体に適した露光条件で撮影した画像データの同一の領域を張り付けて第2の合成画像データを生成する。   Based on the first synthesized image data, the second synthesizing unit 109 has the same area of the image data photographed under the exposure condition suitable for the first subject in the area of the first subject in the first synthesized image data. Is attached to generate second composite image data.

このようにして、本発明の第1の実施形態では、第2の被写体に適した露光条件で撮影した複数の画像から生成された合成画像データと第1の被写体に適した露光条件で撮影された画像データを合成するので、風景などの第1の被写体と星などの第2の被写体とを鮮明としてかつ第2の被写体の軌跡が写っていない画像データを生成することができる。   As described above, in the first embodiment of the present invention, the composite image data generated from a plurality of images photographed under the exposure condition suitable for the second subject and the exposure condition suitable for the first subject are photographed. Therefore, image data in which the first subject such as a landscape and the second subject such as a star are clear and the trajectory of the second subject is not captured can be generated.

[第2の実施形態]
続いて、本発明の第2の実施形態による撮像装置の一例について説明する。
[Second Embodiment]
Subsequently, an example of an imaging apparatus according to the second embodiment of the present invention will be described.

図21は、本発明の第2の実施形態による撮像装置の一例についてその構成を示すブロック図である。なお、図21において、図1に示す撮像装置と同一の構成要素については同一の参照番号を付して説明を省略する。   FIG. 21 is a block diagram showing the configuration of an example of an imaging apparatus according to the second embodiment of the present invention. In FIG. 21, the same components as those of the image pickup apparatus shown in FIG.

図示のカメラ1500は、図1で説明した露光条件設定部105とその機能が異なる露光条件設定部1503を備えるとともに、さらにユーザー指定領域取得部(以下単に指定領域取得部と呼ぶ)1501および表示部1502を有している。   The illustrated camera 1500 includes an exposure condition setting unit 1503 having a function different from that of the exposure condition setting unit 105 described in FIG. 1, and further includes a user designated area acquisition unit (hereinafter simply referred to as a designated area acquisition unit) 1501 and a display unit. 1502.

指定領域取得部1501はタッチパネルおよびボタンなどを有しており、カメラ1500のユーザーは指定領域取得部1501を用いてユーザー指定の領域を選択又は指定することができる。そして、ユーザーによって選択又は指定された領域が第1の被写体に係る検出結果(検出データとも呼ぶ)として、露光条件設定部1503、第2の検出部104、および第2の合成部109に出力される。   The designated area acquisition unit 1501 has a touch panel, buttons, and the like, and the user of the camera 1500 can select or designate a user designated area using the designated area acquisition unit 1501. The region selected or designated by the user is output to the exposure condition setting unit 1503, the second detection unit 104, and the second combining unit 109 as a detection result (also referred to as detection data) related to the first subject. The

表示部1502は、例えば、液晶表示装置又は有機EL表示装置であり、撮像部101による撮影の結果得られた画像が表示部1502に表示され、ユーザーは表示部1502に表示された画像を視認することができる。   The display unit 1502 is, for example, a liquid crystal display device or an organic EL display device, and an image obtained as a result of photographing by the imaging unit 101 is displayed on the display unit 1502, and the user visually recognizes the image displayed on the display unit 1502. be able to.

露光条件設定部1503は、撮像部101を制御して露光時間、露光回数、測光を行う領域、およびISO感度などを設定する。また、露光条件設定部1503は指定領域取得部1501が出力する第1の被写体の検出結果および情報管理部107の出力に基づいて撮影条件(設定条件)を決定する。   An exposure condition setting unit 1503 controls the imaging unit 101 to set an exposure time, the number of exposures, a photometric region, ISO sensitivity, and the like. The exposure condition setting unit 1503 determines a shooting condition (setting condition) based on the detection result of the first subject output from the designated area acquisition unit 1501 and the output of the information management unit 107.

第2の合成部109は記録部102から画像データを読み込み、第1の合成部108が出力する第1の合成画像データに、指定領域取得部1501が出力する第1の被写体の検出結果が示す領域にコピーして第2の合成画像データを出力する。   The second synthesizing unit 109 reads the image data from the recording unit 102, and the first synthesized image data output from the first synthesizing unit 108 indicates the detection result of the first subject output from the designated area acquiring unit 1501. Copy to the area and output the second composite image data.

図22は、図21に示すカメラ1500で行われる画像合成を説明するためのフローチャートである。   FIG. 22 is a flowchart for explaining image composition performed by the camera 1500 shown in FIG.

画像合成処理が開始されると、撮像部101はテスト撮影画像を2枚撮影する(ステップS301)。ステップS301における撮影処理は、図3で説明したステップS2101〜S2103までの処理が行われることになる。そして、撮像部101はテスト撮影画像1枚目を表示部1502に出力する。表示部1502が撮像部101から送られたテスト撮影画像1枚目を表示する(ステップS302)。   When the image composition process is started, the imaging unit 101 captures two test photographed images (step S301). In the photographing process in step S301, the processes from steps S2101 to S2103 described in FIG. 3 are performed. Then, the imaging unit 101 outputs the first test captured image to the display unit 1502. The display unit 1502 displays the first test captured image sent from the imaging unit 101 (step S302).

ユーザーは、指定領域取得部1501を用いて表示部1502に表示されたテスト撮影画像1枚目から第1の被写体の領域を指定する(ステップS303)。   The user designates the area of the first subject from the first test photographed image displayed on the display unit 1502 using the designated area acquisition unit 1501 (step S303).

図4を参照すると、例えば、表示部1502にはテスト撮影画像1枚目が画像200として表示され、この画像200には建物201、星A(202)、および星B(203)が表示されている。ユーザーは表示部1502に表示されたテスト撮影画像1枚目を見ながら、指定領域取得部1501によって第1の被写体に設定したい被写体を指定する。   Referring to FIG. 4, for example, a first test photographed image is displayed as an image 200 on the display unit 1502, and a building 201, a star A (202), and a star B (203) are displayed on the image 200. Yes. The user designates a subject to be set as the first subject by the designated area acquisition unit 1501 while viewing the first test photographed image displayed on the display unit 1502.

第1の被写体の指定を行う際には、例えば、図18に示す第1の被写体領域400をユーザーがポインタ又は指でなぞると、第1の被写体領域400が第1の被写体の検出結果として指定領域取得部1501から出力される。   When the first subject is designated, for example, when the user traces the first subject region 400 shown in FIG. 18 with a pointer or a finger, the first subject region 400 is designated as the detection result of the first subject. Output from the area acquisition unit 1501.

続いて、第2の検出部104は、第1の実施形態で説明したように、第1の被写体の検出結果を用いて第2の被写体の検出および露光時間の算出を行う(ステップS304)。なお、指定領域取得部1501から出力される第1の被写体の検出結果(第1の検出データ)のフォーマットは第1の実施形態で説明した第1の検出部103の出力と同様である。   Subsequently, as described in the first embodiment, the second detection unit 104 detects the second subject and calculates the exposure time using the detection result of the first subject (step S304). Note that the format of the first subject detection result (first detection data) output from the designated area acquisition unit 1501 is the same as the output of the first detection unit 103 described in the first embodiment.

続いて、撮像部101は第1の被写体に適した露光条件で撮影を行う(ステップS305)。前述のように、指定領域取得部1501は第1の被写体の検出データを露光条件設定部1503に出力する。露光条件設定部1503は撮像部101が第1の被写体の領域を測光して、当該測光結果によって第1の被写体が適正露出で撮影されるようにシャッタースピードを設定するように撮像部101を制御する。そして、撮像部101は第1の被写体を適正露出で撮影した画像データを記録部102に保存する。   Subsequently, the imaging unit 101 performs shooting under exposure conditions suitable for the first subject (step S305). As described above, the designated area acquisition unit 1501 outputs detection data of the first subject to the exposure condition setting unit 1503. The exposure condition setting unit 1503 controls the imaging unit 101 so that the imaging unit 101 measures the area of the first subject and sets the shutter speed so that the first subject is photographed with appropriate exposure based on the photometric result. To do. Then, the imaging unit 101 stores image data obtained by capturing the first subject with appropriate exposure in the recording unit 102.

続いて、撮像部101は第2の被写体に適した露光条件での撮影を行う(ステップS306)。ここでは、ステップS304で算出された露光時間に基づいて、露光条件設定部1503は撮像部101を制御して撮影を行う。露光時間以外の撮影条件は図2で説明したステップS2004の処理と同様である。   Subsequently, the imaging unit 101 performs shooting under an exposure condition suitable for the second subject (step S306). Here, based on the exposure time calculated in step S304, the exposure condition setting unit 1503 controls the imaging unit 101 to perform imaging. Shooting conditions other than the exposure time are the same as those in step S2004 described in FIG.

次に、第1の合成部108第2の被写体を鮮明にするための画像合成を行う(ステップS307)。ステップS307の処理は図2で説明したステップS2005の処理と同様である。   Next, image synthesis is performed to sharpen the second subject of the first synthesis unit 108 (step S307). The process in step S307 is the same as the process in step S2005 described with reference to FIG.

続いて、第2の合成部109は第1の被写体を撮影した画像データと第2の被写体を鮮明にした第1の合成画像データとを合成する(ステップS308)。ここでは、第2の合成部109は第1の合成画像データに基づいて、第1の合成画像データにおいてユーザーが指定した第1の被写体の領域に、第1の被写体に適した露光条件で撮影した画像データの同一の領域を張り付けて第2の合成画像データを生成して、合成処理を終了する。   Subsequently, the second synthesizing unit 109 synthesizes the image data obtained by photographing the first subject and the first synthesized image data obtained by clarifying the second subject (step S308). Here, based on the first composite image data, the second composite unit 109 captures an image of the first subject area designated by the user in the first composite image data under exposure conditions suitable for the first subject. The same area of the image data is pasted to generate second synthesized image data, and the synthesis process is terminated.

このように、本発明の第2の実施形態では、第2の被写体に適した露光条件で撮影した複数の画像に応じて生成された合成画像データとユーザー指定の第1の被写体の領域に第1の被写体に適した露光条件で撮影された画像データを合成するようにしたので、風景などの第1の被写体と星などの第2の被写体とが鮮明となり、第2の被写体の軌跡が写っていない画像データを生成することができる。   As described above, in the second embodiment of the present invention, the composite image data generated according to a plurality of images photographed under the exposure condition suitable for the second subject and the first subject-specified region specified by the user. Since the image data shot under the exposure conditions suitable for one subject are synthesized, the first subject such as a landscape and the second subject such as a star become clear and the locus of the second subject is reflected. Image data can be generated.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

100 撮像装置
101 撮像部
102 記録部
103 第1の検出部
104 第2の検出部
105 露光条件設定部
106 撮影方向取得部
107 情報管理部
108 第1の合成部
109 第2の合成部
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Imaging part 102 Recording part 103 1st detection part 104 2nd detection part 105 Exposure condition setting part 106 Shooting direction acquisition part 107 Information management part 108 1st synthetic | combination part 109 2nd synthetic | combination part

Claims (11)

静止している第1の被写体と移動する第2の被写体とを撮影する撮像手段と、
前記撮像手段の撮影によって得られた画像データにおいて前記第1の被写体と前記第2の被写体とを検出して検出データを出力する検出手段と、
記検出データに応じて、前記第1の被写体に係る第1の露光条件で前記撮像手段を制御して撮を行い第1の撮影画像データを得るとともに、前記第2の被写体に係る第2の露光条件で前記撮像手段を制御して撮を行い第2の撮影画像データを得る制御手段と、
記第2の被写体の輝度値を所定の輝度値に変更した前記第2の撮影画像データと、前記第1の撮影画像データとを合成して合成画像データを生成する合成手段と、
を有することを特徴とする撮像装置。
Imaging means for photographing a stationary first subject and a moving second subject ;
Detecting means for detecting the first subject and the second subject in the image data obtained by photographing by the imaging means and outputting detection data ;
Depending before dangerous out data, the first first with obtaining the first photographic image data performs shooting by controlling the imaging means with the exposure conditions of the subject, before Symbol second object a second second captured image data obtained Ru control means performs shooting by controlling the imaging means with the exposure conditions according to,
Before Symbol second the second photographic image data of the luminance value is changed to a predetermined luminance value of the subject, the synthetic unit that generates a synthetic image data by synthesizing the first captured image data ,
An imaging device comprising:
記制御手段は、所定の露光条件で前記撮像手段を制御して前記第1の被写体および前記第2の被写体を撮影して第1の画像データを得て、所定の時間経過後、前記所定の露光条件で前記撮像手段を制御して前記第1の被写体および前記第2の被写体を撮影して第2の画像データを得ており、
記検出手段は前記第1の画像データおよび前記第2の画像データから前記第1の被写体と前記第2の被写体を検出することを特徴とする請求項に記載の撮像装置。
Before SL control means obtains the first image data by imaging the first object and the second object by controlling the imaging means at a predetermined exposure condition, after a predetermined time, the Controlling the imaging means under a predetermined exposure condition to photograph the first subject and the second subject to obtain second image data;
Before dangerous out means, the image pickup apparatus according to claim 1, characterized in that to detect the second object and the first object from the first image data and the second image data.
記検出手段は、前記画像データを画像として表示する表示手段と、
前記画像において前記第1の被写体を指定する指定手段とを有し、
前記指定手段によって前記第1の被写体が指定されることにより前記第1の被写体を検出することを特徴とする請求項に記載の撮像装置。
Before dangerous detecting means includes a display means for displaying the image data as an image,
Designating means for designating the first subject in the image;
The imaging apparatus according to claim 1 , wherein the first subject is detected when the first subject is designated by the designation unit.
記制御手段は、前記検出データで示される前記第1の被写体の領域を測光して得られた測光結果に応じて前記第1の露光条件を決定することを特徴とする請求項のいずれか1項に記載の撮像装置。 Before SL control means, claims, characterized in that for determining the first exposure condition in accordance with the prior dangerous exits the first region photometry been photometric results of the subject indicated by the data The imaging device according to any one of 1 to 3 . 記検出手段は、前記第1の画像データおよび前記第2の画像データに基づいて、前記第2の被写体のうちその移動量が最大の第2の被写体の移動速度に応じて前記第2の露光条件を決定することを特徴とする請求項に記載の撮像装置。 Before dangerous out means, on the basis of the first image data and the second image data, the second according to the moving speed of the second second object the movement amount, the largest of the subject The imaging apparatus according to claim 2 , wherein an exposure condition is determined. 前記撮像手段による撮影の際の撮影方向を検出する撮影方向検出手段を備え、
記検出手段は、前記撮影方向検出手段で検出された撮影方向に応じて探索方向を決定して、前記検出データに基づいて前記第2の被写体の移動先を検出して前記検出データを出力することを特徴とする請求項に記載の撮像装置。
A photographing direction detecting means for detecting a photographing direction at the time of photographing by the imaging means;
Before dangerous detecting means, said imaging to determine the search direction in response to the detected photographing direction in the direction detection unit, before dangerous exits SL before detecting the moving destination of the second object based on the data the imaging apparatus according to claim 2, characterized in that outputs the detection data.
前記撮像手段から出力される画像データに応じて前記第2の被写体の各々について、少なくともその位置および輝度値を情報管理データとして記録する情報管理手段を有することを特徴とする請求項1〜のいずれか1項に記載の撮像装置。 For each of the second object in accordance with image data output from the imaging unit, according to claim 1-6, characterized in that it comprises an information management unit for recording at least the position and the luminance value as the information management data The imaging device according to any one of the above. 前記情報管理手段は、前記撮像手段から画像データが出力される都度、前記情報管理データを更新し、前記情報管理データにはさらに前記第2の被写体の各々の移動方向を含むとともに、更新の都度、前記輝度値を合計した合計輝度値を含むことを特徴とする請求項に記載の撮像装置。 The information management unit updates the information management data every time image data is output from the imaging unit, and the information management data further includes the moving direction of each of the second subjects, and The imaging apparatus according to claim 7 , further comprising a total luminance value obtained by summing the luminance values. 前記情報管理手段は、前記合計輝度値が所定の設定値となるまで前記情報管理データの更新を行うことを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 8 , wherein the information management unit updates the information management data until the total luminance value reaches a predetermined setting value. 記合成手段は、前記所定の輝度値として前記合計輝度値を用いるようにしたことを特徴とする請求項又はに記載の撮像装置。 Before Kigo formation means, the imaging apparatus according to claim 8 or 9, characterized in that as adapted to use the total luminance value as the predetermined luminance value. 静止している第1の被写体と移動する第2の被写体とを撮影する撮像手段を有する撮像装置の制御方法であって、
前記撮像手段の撮影によって得られた画像データにおいて前記第1の被写体と前記第2の被写体とを検出して検出データを出力する検出ステップと、
記検出データに応じて、前記第1の被写体に係る第1の露光条件で前記撮像手段を制御して撮を行い第1の撮影画像データを得るとともに、前記第2の被写体に係る第2の露光条件で前記撮像手段を制御して撮を行い第2の撮影画像データを得る制御ステップと、
記第2の被写体の輝度値を所定の輝度値に変更した前記第2の撮影画像データと、前記第1の撮影画像データとを合成して合成画像データを生成する合成ステップと、
を有することを特徴とする制御方法。
A method for controlling an imaging apparatus having an imaging means for imaging a stationary first subject and a moving second subject,
A detection step of detecting the first subject and the second subject in the image data obtained by photographing by the imaging means and outputting detection data ;
Depending before dangerous out data, the first first with obtaining the first photographic image data performs shooting by controlling the imaging means with the exposure conditions of the subject, before Symbol second object a second second captured image data obtained Ru control steps performed shooting by controlling the imaging means with the exposure conditions according to,
Before Symbol second the second photographic image data of the luminance value is changed to a predetermined luminance value of the subject, the synthetic steps that generates the synthetic image data by synthesizing the first captured image data ,
A control method characterized by comprising:
JP2013053397A 2013-03-15 2013-03-15 Imaging apparatus and control method thereof Active JP6039471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013053397A JP6039471B2 (en) 2013-03-15 2013-03-15 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013053397A JP6039471B2 (en) 2013-03-15 2013-03-15 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2014179863A JP2014179863A (en) 2014-09-25
JP2014179863A5 JP2014179863A5 (en) 2015-07-23
JP6039471B2 true JP6039471B2 (en) 2016-12-07

Family

ID=51699369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013053397A Active JP6039471B2 (en) 2013-03-15 2013-03-15 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6039471B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6446742B2 (en) * 2015-03-11 2019-01-09 三菱重工機械システム株式会社 Tire pattern determination device, vehicle type determination device, tire pattern determination method, and program
CN106506858B (en) * 2016-12-01 2019-10-08 努比亚技术有限公司 Star orbital prediction technique and device
WO2024053824A1 (en) * 2022-09-07 2024-03-14 삼성전자 주식회사 Electronic device for providing image, and operating method therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259184A (en) * 2002-03-06 2003-09-12 Olympus Optical Co Ltd Imaging device
JP2012004763A (en) * 2010-06-16 2012-01-05 Nikon Corp Camera
JP5678911B2 (en) * 2012-03-12 2015-03-04 カシオ計算機株式会社 Image composition apparatus, image composition method, and program

Also Published As

Publication number Publication date
JP2014179863A (en) 2014-09-25

Similar Documents

Publication Publication Date Title
US11710205B2 (en) Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
CN101715055B (en) Imaging apparatus, and imaging method
JP5619885B2 (en) Information display device, display control integrated circuit, and display control method
JP2002503893A (en) Virtual reality camera
WO2016026466A1 (en) Method and apparatus for optimizing light-painted image
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
JP6752681B2 (en) Display control device, control method and program of display control device, and storage medium
US20170111574A1 (en) Imaging apparatus and imaging method
JP2007288731A (en) Real-time panoramic image composing method and apparatus therefor
JP2007228118A (en) Determination of shooting scene
JP2016076805A (en) Image processing apparatus, control method and control program therefor, and imaging device
JP2015159510A (en) Image pickup device and image pickup device control method
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP6039471B2 (en) Imaging apparatus and control method thereof
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP2006279135A (en) Starry-sky photographic device camera and method for photographing starry sky and program
JP2014230088A (en) Image adjustment device, image adjustment method, image adjustment program, and imaging device
JP2010258765A (en) Imaging apparatus
JP2010200360A (en) Imaging apparatus, stroboscopic image generation method, and program
JP2016167767A (en) Imaging apparatus, synthetic imaging method and synthetic imaging program
JP2014120815A (en) Information processing apparatus, imaging device, information processing method, program, and storage medium
JP2017069911A (en) Imaging system, composition setting apparatus and composition setting program
JP5742301B2 (en) Image projection apparatus, digital camera and optical apparatus
JP2012227717A (en) Display device, display program, and display method
JP5287430B2 (en) Image editing apparatus, image editing method, and image editing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161104

R151 Written notification of patent or utility model registration

Ref document number: 6039471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151