JP6700937B2 - Image processing apparatus, control method thereof, and program - Google Patents

Image processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP6700937B2
JP6700937B2 JP2016087986A JP2016087986A JP6700937B2 JP 6700937 B2 JP6700937 B2 JP 6700937B2 JP 2016087986 A JP2016087986 A JP 2016087986A JP 2016087986 A JP2016087986 A JP 2016087986A JP 6700937 B2 JP6700937 B2 JP 6700937B2
Authority
JP
Japan
Prior art keywords
image
trajectory
celestial body
predicted
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016087986A
Other languages
Japanese (ja)
Other versions
JP2017069939A5 (en
JP2017069939A (en
Inventor
陽一 高橋
陽一 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2017069939A publication Critical patent/JP2017069939A/en
Publication of JP2017069939A5 publication Critical patent/JP2017069939A5/ja
Application granted granted Critical
Publication of JP6700937B2 publication Critical patent/JP6700937B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、画像処理装置及びその制御方法、並びにプログラムに関し、特に、天体の日周運動の軌跡の撮影を行う際に用いられる補助情報を表示する画像処理装置及びその制御方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, a control method therefor, and a program, and more particularly, to an image processing apparatus for displaying auxiliary information used when capturing a trajectory of a diurnal motion of an celestial body, a control method therefor, and a program.

画像処理装置としてのカメラでは、通常より長い時間露光する長秒時露光による撮影が行われる。長秒時露光では、通常の露光時間で捉えられない発光の弱い物体の動作や光の軌跡等の撮影が可能であり、長秒時露光は、例えば、天体の日周運動の軌跡の撮影等に用いられる。天体の日周運動の軌跡の撮影を行う際、カメラに設けられる表示部には、ユーザが撮影する構図の決定を補助するための補助情報が表示される。当該補助情報を表示するために、カメラは、当該カメラに設けられるGPSや仰角センサでカメラの位置情報を取得し、取得されたカメラの位置情報及び予め格納された天体の位置情報に基づいて任意の時間が経過した後の天体の位置を予測する。その後、カメラは、表示部に表示されるライブビュー画像に当該予測された結果を補助情報として重畳する(例えば、特許文献1参照)。ユーザは表示部に表示されるライブビュー画像によって任意の時間が経過した後の天体の位置を容易に把握可能である。   In a camera as an image processing device, shooting is performed by long-time exposure, which is longer than usual. With long exposure, it is possible to capture the motion of a weakly luminescent object or the trajectory of light that cannot be captured in the normal exposure time. With long exposure, for example, the trajectory of the diurnal motion of the celestial body can be captured. Used for. When the trajectory of the diurnal motion of the celestial body is photographed, the display unit provided in the camera displays auxiliary information for assisting the user in determining the composition to be photographed. In order to display the auxiliary information, the camera acquires position information of the camera by a GPS or an elevation angle sensor provided in the camera, and the camera arbitrarily determines based on the acquired position information of the camera and pre-stored position information of the celestial body. Predict the position of the celestial body after the passage of time. After that, the camera superimposes the predicted result as auxiliary information on the live view image displayed on the display unit (see, for example, Patent Document 1). The user can easily grasp the position of the celestial body after an arbitrary time has elapsed by the live view image displayed on the display unit.

特開2012−4763号公報JP 2012-4763 A

しかしながら、上述したカメラでは、上記補助情報を表示するためにGPSや仰角センサ等の特殊な装置を設ける必要がある。すなわち、従来のカメラでは、上記特殊な装置を設けていないと、天体の日周運動の軌跡の撮影を補助する補助情報を表示することができない。   However, in the above-mentioned camera, it is necessary to provide a special device such as a GPS or an elevation angle sensor in order to display the auxiliary information. That is, the conventional camera cannot display the auxiliary information for assisting the shooting of the locus of the diurnal motion of the celestial body unless the above-mentioned special device is provided.

本発明の目的は、特殊な装置を設けることなく、天体の日周運動の軌跡の撮影を補助する補助情報を表示することができる画像処理装置及びその制御方法、並びにプログラムを提供することにある。   An object of the present invention is to provide an image processing device, a control method thereof, and a program capable of displaying auxiliary information for assisting in capturing the trajectory of the diurnal motion of the celestial body without providing a special device. .

上記目的を達成するために、本発明の画像処理装置は、撮影により得られた複数の画像に基づいて、天体の移動軌跡を示す軌跡画像を生成可能な画像処理装置であって、前記複数の画像を撮影する前に、前記複数の画像を撮影するための露出条件に基づいて異なる時間に撮影された第1の撮影画像及び第2の撮影画像を少なくとも取得する画像取得手段と、前記第1の撮影画像及び前記第2の撮影画像の各々における前記天体を検出する検出手段と、前記第1の撮影画像における前記天体の位置及び前記第2の撮影画像における前記天体の位置の差分から前記天体の動きベクトルを算出する算出手段と、前記算出された動きベクトルに基づいて生成された前記天体の予測軌跡情報を含む合成画像を生成する合成画像生成手段と、前記第1の撮影画像の少なくとも空領域に前記合成画像に含まれる前記天体の予測軌跡情報を合成し、前記軌跡画像をシミュレーションした軌跡シミュレーション画像を生成する軌跡シミュレーション画像生成手段と、前記生成された軌跡シミュレーション画像を表示する表示手段と、を備えることを特徴とする。 In order to achieve the above object, an image processing device of the present invention is an image processing device capable of generating a trajectory image showing a trajectory of a celestial body based on a plurality of images obtained by photographing, Image capturing means for capturing at least a first captured image and a second captured image captured at different times based on exposure conditions for capturing the plurality of images before capturing the image; the celestial from the difference of the position of the celestial bodies in the captured image and the second detecting means for detecting the celestial in each captured image, the first position of the celestial in the captured image and the second captured image Calculating means for calculating a motion vector of the celestial body , a synthetic image generating means for generating a synthetic image including predicted trajectory information of the celestial body generated based on the calculated motion vector, and at least the sky of the first captured image. Trajectory simulation image generating means for synthesizing the predicted trajectory information of the celestial body included in the synthesized image in a region and generating a trajectory simulation image simulating the trajectory image; and display means for displaying the generated trajectory simulation image. , Are provided.

本発明によれば、特殊な装置を設けることなく、天体の日周運動の軌跡の撮影を補助する補助情報を表示することができる。   According to the present invention, it is possible to display auxiliary information for assisting in capturing the trajectory of the diurnal motion of the celestial body without providing a special device.

本発明の実施の形態に係る画像処理装置としてのカメラの構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the camera as an image processing apparatus which concerns on embodiment of this invention. 図1のカメラで実行される表示処理の手順を示すフローチャートである。7 is a flowchart showing a procedure of display processing executed by the camera of FIG. 1. 図1のカメラによる予測軌跡情報の生成を説明するための図であり、図3(a)は予測軌跡情報の生成に用いられる撮影画像の一例を示し、図3(b)は撮影画像が分割された分割領域を示し、図3(c)は算出された星の予測位置を示し、図3(d)は生成された予測軌跡情報の一例を示す。3A and 3B are diagrams for explaining generation of predicted trajectory information by the camera of FIG. 1, FIG. 3A shows an example of a captured image used for generation of predicted trajectory information, and FIG. 3C shows the calculated predicted position of the star, and FIG. 3D shows an example of the generated predicted trajectory information. 図1のカメラで生成される軌跡シミュレーション画像を説明するための図である。It is a figure for demonstrating the locus|trajectory simulation image produced|generated by the camera of FIG. 図1のカメラで実行される軌跡画像の撮影処理の手順を示すフローチャートである。6 is a flowchart showing a procedure of a trajectory image capturing process executed by the camera of FIG. 1.

以下、本発明の実施の形態を図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る画像処理装置としてのカメラ100の構成を概略的に示すブロック図である。   FIG. 1 is a block diagram schematically showing a configuration of a camera 100 as an image processing device according to an embodiment of the present invention.

図1において、カメラ100は、シャッター101、バリア102、撮影レンズ103、撮像部104、A/D変換部105、画像処理部106、メモリ制御部107、メモリ108、D/A変換部109、及び表示部110を備える。また、カメラ100は、システム制御部111、不揮発性メモリ112、システムメモリ113、システムタイマー114、操作部115、電源制御部116、電源部117、記録媒体I/F118、及び通信部119を備える。システム制御部111は、シャッター101、撮影レンズ103、撮像部104、画像処理部106、不揮発性メモリ112、システムメモリ113、システムタイマー114、操作部115、電源制御部116、及び通信部119とそれぞれ接続されている。システム制御部111、メモリ制御部107、メモリ108、及び記録媒体I/F118はシステムバス120を介して互いに接続されている。撮像部104はA/D変換部105と接続され、A/D変換部105は画像処理部106及びメモリ制御部107とそれぞれ接続されている。D/A変換部109はメモリ制御部107及び表示部110とそれぞれ接続され、電源部117は電源制御部116と接続されている。   In FIG. 1, a camera 100 includes a shutter 101, a barrier 102, a taking lens 103, an imaging unit 104, an A/D conversion unit 105, an image processing unit 106, a memory control unit 107, a memory 108, a D/A conversion unit 109, and The display unit 110 is provided. The camera 100 also includes a system control unit 111, a non-volatile memory 112, a system memory 113, a system timer 114, an operation unit 115, a power supply control unit 116, a power supply unit 117, a recording medium I/F 118, and a communication unit 119. The system control unit 111 includes a shutter 101, a taking lens 103, an imaging unit 104, an image processing unit 106, a non-volatile memory 112, a system memory 113, a system timer 114, an operation unit 115, a power supply control unit 116, and a communication unit 119, respectively. It is connected. The system control unit 111, the memory control unit 107, the memory 108, and the recording medium I/F 118 are connected to each other via a system bus 120. The imaging unit 104 is connected to the A/D conversion unit 105, and the A/D conversion unit 105 is connected to the image processing unit 106 and the memory control unit 107, respectively. The D/A conversion unit 109 is connected to the memory control unit 107 and the display unit 110, respectively, and the power supply unit 117 is connected to the power supply control unit 116.

カメラ100は、静止画像及び動画像を撮影可能であり、長秒時露光によって撮影された静止画像を用いて天体の日周運動の軌跡画像を生成可能な星空軌跡合成モードを有する。星空軌跡合成モードでは、長秒時露光によって撮影された複数枚の静止画像を比較して明るい部分のみ合成する比較明合成を行って軌跡画像が生成される。本実施の形態では、ユーザの操作部115の操作によって星空軌跡合成モードが設定されると、カメラ100は、ユーザが撮影する軌跡画像の構図の決定を補助する補助情報として後述する図4の軌跡シミュレーション画像400を表示部110に表示する。これにより、ユーザは、軌跡画像の撮影を行う前に、天体の日周運動の軌跡の様子を把握することができ、所望する撮影の構図を決定することができる。   The camera 100 is capable of capturing a still image and a moving image, and has a starry sky trajectory synthesis mode capable of generating a trajectory image of the diurnal motion of the celestial body using the still image captured by long-time exposure. In the starry sky trajectory combination mode, a trajectory image is generated by comparing a plurality of still images photographed by exposure for a long time and performing comparative bright combining for combining only bright portions. In the present embodiment, when the starry sky trajectory combination mode is set by the operation of the operation unit 115 by the user, the camera 100 causes the trajectory of FIG. 4, which will be described later, as auxiliary information for assisting in determining the composition of the trajectory image taken by the user. The simulation image 400 is displayed on the display unit 110. Thereby, the user can grasp the state of the trajectory of the diurnal motion of the celestial body before taking the trajectory image, and can determine the desired composition of the imaging.

シャッター101は絞り機能を有する。バリア102は、シャッター101、撮影レンズ103、及び撮像部104を含む撮像系を保護する。撮影レンズ103はズームレンズ及びフォーカスレンズを含むレンズ群である。撮像部104は撮影レンズ103を透過した光束に基づく光学像を電気的なアナログ信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換部105は、撮像部104で変換されたアナログ信号をデジタル信号に変換し、当該デジタル信号を画像処理部106やメモリ制御部107に送信する。画像処理部106は、A/D変換部105から送信されたデジタル信号やメモリ制御部107から取得した画像データ等に対して画素補間及び縮小等を含む各種画像処理を行う。本実施の形態では、画像処理部106は被写体として同じ星が異なる時間で撮影された複数枚、例えば、2枚の撮影画像の画像データをメモリ制御部107からそれぞれ取得する。画像処理部106は、取得された画像データに基づいて各撮影画像における星を検出し、当該星が撮影画像において占める面積や当該撮影画像における星の中心座標を算出する。また、画像処理部106は取得された各画像データに基づいて2枚の撮影画像における星の位置のずれを示す動きベクトルを検出する。メモリ制御部107は、A/D変換部105から送信されたデジタル信号に基づく画像データをメモリ108に送信する。メモリ108はメモリ制御部107から送信された画像データや表示部110に各種情報を表示するための表示用データを格納する。D/A変換部109はメモリ108に格納された画像データや表示用データ等をアナログ信号に変換して当該アナログ信号を表示部110に送信する。表示部110は、LCD等のディスプレイを含み、D/A変換部109から送信されたアナログ信号に基づいて各種画像を表示する。表示部110は、電子ビューファインダーの機能を有し、撮影レンズ103を透過した光束によって得られた光学像に対応する画像をスルー画像表示(ライブビュー画像表示)可能である。   The shutter 101 has a diaphragm function. The barrier 102 protects an imaging system including the shutter 101, the taking lens 103, and the imaging unit 104. The taking lens 103 is a lens group including a zoom lens and a focus lens. The image pickup unit 104 is an image pickup device including a CCD, a CMOS device, or the like that converts an optical image based on the light flux transmitted through the taking lens 103 into an electrical analog signal. The A/D conversion unit 105 converts the analog signal converted by the imaging unit 104 into a digital signal, and sends the digital signal to the image processing unit 106 and the memory control unit 107. The image processing unit 106 performs various kinds of image processing including pixel interpolation and reduction on the digital signal transmitted from the A/D conversion unit 105, the image data acquired from the memory control unit 107, and the like. In the present embodiment, the image processing unit 106 respectively acquires, from the memory control unit 107, image data of a plurality of, for example, two captured images in which the same star is captured as a subject at different times. The image processing unit 106 detects a star in each captured image based on the acquired image data, and calculates the area occupied by the star in the captured image and the center coordinates of the star in the captured image. Further, the image processing unit 106 detects a motion vector indicating the shift of the position of the star in the two captured images based on the acquired image data. The memory control unit 107 transmits image data based on the digital signal transmitted from the A/D conversion unit 105 to the memory 108. The memory 108 stores image data transmitted from the memory control unit 107 and display data for displaying various information on the display unit 110. The D/A conversion unit 109 converts the image data, the display data, and the like stored in the memory 108 into an analog signal and sends the analog signal to the display unit 110. The display unit 110 includes a display such as an LCD and displays various images based on the analog signal transmitted from the D/A conversion unit 109. The display unit 110 has a function of an electronic viewfinder, and can display an image corresponding to an optical image obtained by a light flux transmitted through the taking lens 103 (live view image display).

システム制御部111はカメラ100全体を統括的に制御し、システム制御部111は不揮発性メモリ112に格納された各種プログラムを実行して各種制御を行う。不揮発性メモリ112は、EEPROM等を含み、システム制御部111で用いられる各種プログラムを格納する。システムメモリ113はRAM等を含み、システム制御部111の作業領域として用いられる。また、システムメモリ113は各種データの一時格納領域として用いられる。システムタイマー114は各種制御に用いられる時間の計測を行う。操作部115は、カメラ100の各種設定や各種撮影の操作を行うボタン等を含む。本実施の形態では、例えば、ユーザの操作部115の操作によって星空軌跡合成モードが設定され、また、当該星空軌跡合成モードで用いられる露出条件や長秒時露光における連続露光時間が設定される。電源制御部116は、電源部117からカメラ100に設けられる各構成要素への電力の供給を制御する。電源部117はアルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池等の二次電池、及びACアダプター等を含み、カメラ100に設けられる各構成要素へ電力を供給する。記録媒体I/F118は、接続されたメモリカードやハードディスク等の記録媒体121とデータ通信を行う。通信部119は、有線ケーブルで接続された各種装置や無線通信可能な各種装置と映像信号や音声信号等のデータ通信を行う。   The system control unit 111 totally controls the camera 100, and the system control unit 111 executes various programs stored in the non-volatile memory 112 to perform various controls. The non-volatile memory 112 includes an EEPROM or the like and stores various programs used by the system control unit 111. The system memory 113 includes a RAM and the like and is used as a work area of the system control unit 111. The system memory 113 is used as a temporary storage area for various data. The system timer 114 measures the time used for various controls. The operation unit 115 includes buttons for performing various settings of the camera 100 and various shooting operations. In the present embodiment, for example, the starry sky trajectory combination mode is set by the user operating the operation unit 115, and the exposure conditions used in the starry sky trajectory combination mode and the continuous exposure time in long-time exposure are set. The power supply control unit 116 controls the supply of electric power from the power supply unit 117 to each component provided in the camera 100. The power supply unit 117 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery or a NiMH battery, and an AC adapter, and supplies electric power to each component provided in the camera 100. The recording medium I/F 118 performs data communication with the recording medium 121 such as a connected memory card or hard disk. The communication unit 119 performs data communication such as video signals and audio signals with various devices connected by a cable and various devices capable of wireless communication.

図2は、図1のカメラ100で実行される合成画像表示処理の手順を示すフローチャートである。   FIG. 2 is a flowchart showing the procedure of the composite image display process executed by the camera 100 of FIG.

図2の処理は、システム制御部111が不揮発性メモリ112に格納された各種プログラムを実行することによって行われる。図2の処理は、ユーザの操作部115の操作によって星空軌跡合成モードが予め設定され、ユーザが軌跡画像の撮影を行う前に行われることを前提とする。   The process of FIG. 2 is performed by the system control unit 111 executing various programs stored in the nonvolatile memory 112. The processing of FIG. 2 is premised on that the starry sky trajectory combination mode is preset by the operation of the operation unit 115 by the user and is performed before the user captures the trajectory image.

図2において、まず、システム制御部111は、星空軌跡合成モードの露出条件に基づいて後述する軌跡シミュレーション画像400を生成するための撮影の露出条件を決定する(ステップS201)。すなわち、本実施の形態では、軌跡画像の撮影時と同じ露出条件による軌跡シミュレーション画像400が生成される。次いで、システム制御部111は決定された露出条件に基づいて所望の星を含む同じ被写体を異なる時間で複数回、例えば、2回撮影する。システム制御部111は、1回目の撮影の撮影画像である図3(a)の第1の撮影画像300及び2回目の撮影の撮影画像である第2の撮影画像をそれぞれ生成する(ステップS202)。その後、システム制御部111は生成された各撮影画像及び当該各撮影画像の露光開始時間を示す情報をメモリ108に格納する。次いで、システム制御部111は、格納された各撮影画像を取得し(画像取得手段)、取得された各撮影画像における星を検出する(ステップS203)。具体的に、システム制御部111は、各撮影画像から、当該各撮影画像を構成する複数の画素のうち周囲の画素と画素値の異なる孤立点を抽出し、抽出された孤立点から星を検出する。システム制御部111は、検出された全ての星において、各撮影画像における各星に関連する情報である被写体関連情報を取得する。被写体関連情報は、各星の中心座標、各星が各撮影画像において占める面積を含み、また、被写体関連情報は、各星の平均輝度値、及び各星の色情報のうち少なくとも一方を含む。   In FIG. 2, first, the system control unit 111 determines an exposure condition for shooting for generating a trajectory simulation image 400, which will be described later, based on the exposure condition in the starry sky trajectory combination mode (step S201). That is, in the present embodiment, the trajectory simulation image 400 is generated under the same exposure condition as when the trajectory image was captured. Next, the system control unit 111 shoots the same subject including a desired star a plurality of times at different times, for example, twice based on the determined exposure condition. The system control unit 111 respectively generates a first captured image 300 of FIG. 3A which is a captured image of the first capturing and a second captured image which is a captured image of the second capturing (step S202). .. After that, the system control unit 111 stores the generated captured images and information indicating the exposure start time of each captured image in the memory 108. Next, the system control unit 111 acquires each stored captured image (image acquisition unit) and detects a star in each acquired captured image (step S203). Specifically, the system control unit 111 extracts, from each captured image, an isolated point having a pixel value different from that of surrounding pixels among a plurality of pixels forming each captured image, and detects a star from the extracted isolated point. To do. The system control unit 111 acquires subject-related information, which is information related to each star in each captured image, for all the detected stars. The subject-related information includes the center coordinates of each star, the area occupied by each star in each captured image, and the subject-related information includes at least one of the average luminance value of each star and the color information of each star.

次いで、システム制御部111は、第1の撮影画像における各星の位置及び第2の撮影画像における各星の位置の差分から当該各星の動きベクトルを算出する(ステップS204)。システム制御部111は、各撮影画像を図3(b)に示すように、複数の分割領域に分割し、複数の分割領域のうち、例えば、星が予め設定された所定の数以上存在する分割領域に対して動きベクトルを算出する。星が予め設定された所定の数以上存在する分割領域が複数である場合、システム制御部111は該当する各分割領域に対して動きベクトルをそれぞれ算出する。次いで、システム制御部111は、当該動きベクトルに基づいて算出されたアフィン係数が利用可能であるか否かを判別する(ステップS205)。アフィン係数は、各撮影画像に対して拡大・縮小、平行移動等の各種画像処理を施す際に用いられる。本実施の形態では、システム制御部111は、上記動きベクトルに基づいてアフィン係数を算出し、算出されたアフィン係数を用いて、例えば、連続露光時間が経過したときの各星の予測位置を算出する。画像処理後の画像における被写体の座標(x’,y’)は、画像処理前の画像における被写体の座標(x、y)及びアフィン係数(a,b,c,d)とすると、下記式1で算出される。   Next, the system control unit 111 calculates the motion vector of each star from the difference between the position of each star in the first captured image and the position of each star in the second captured image (step S204). As shown in FIG. 3B, the system control unit 111 divides each captured image into a plurality of divided areas, and among the plurality of divided areas, for example, a division in which a predetermined number or more of stars are present. A motion vector is calculated for the area. When there are a plurality of divided areas in which a predetermined number of stars or more exist, the system control unit 111 calculates a motion vector for each corresponding divided area. Next, the system control unit 111 determines whether the affine coefficient calculated based on the motion vector is available (step S205). The affine coefficient is used when performing various image processing such as enlargement/reduction and parallel movement on each captured image. In the present embodiment, the system control unit 111 calculates the affine coefficient based on the motion vector, and uses the calculated affine coefficient to calculate, for example, the predicted position of each star when the continuous exposure time has elapsed. To do. If the coordinates (x′, y′) of the subject in the image after image processing are the coordinates (x, y) of the subject in the image before image processing and the affine coefficients (a, b, c, d), the following equation 1 It is calculated by.

システム制御部111は、動きベクトルが複数算出された場合、算出された複数の動きベクトルのうち少なくとも3つ以上の動きベクトルを任意の組合せで選択する。その後、システム制御部111は選択された各動きベクトルに基づいてアフィン係数をそれぞれ算出し、算出された各アフィン係数に基づいて下記式2に示すアフィン係数の誤差Eを算出する。   When a plurality of motion vectors are calculated, the system control unit 111 selects at least three or more motion vectors from the calculated plurality of motion vectors in an arbitrary combination. After that, the system control unit 111 calculates the affine coefficient based on each selected motion vector, and calculates the error E of the affine coefficient shown in the following Expression 2 based on each calculated affine coefficient.

システム制御部111は、アフィン係数の誤差Eが予め設定された閾値以下になる動きベクトルの個数を計測する。ステップS205では、システム制御部111は、当該動きベクトルの個数が予め設定された個数以上である場合、動きベクトルに基づいて算出されたアフィン係数が利用可能であると判別する。一方、システム制御部111は、当該動きベクトルの個数が予め設定された個数より少ない場合、動きベクトルに基づいて算出されたアフィン係数が利用不可能であると判別する。   The system control unit 111 measures the number of motion vectors in which the error E of the affine coefficient is equal to or smaller than a preset threshold value. In step S205, the system control unit 111 determines that the affine coefficient calculated based on the motion vector is available when the number of the motion vector is equal to or more than the preset number. On the other hand, when the number of the motion vectors is smaller than the preset number, the system control unit 111 determines that the affine coefficient calculated based on the motion vectors cannot be used.

ステップS205の判別の結果、動きベクトルに基づいて算出されたアフィン係数が利用不可能であるとき、システム制御部111は本処理を終了する。一方、ステップS205の判別の結果、動きベクトルに基づいて算出されたアフィン係数が利用可能であるとき、システム制御部111は、算出されたアフィン係数に基づいて、予め設定された連続露光時間が経過したときの各星の予測位置の算出処理を行う(ステップS206)。予測位置の算出処理では、システム制御部111は、格納された各撮影画像の露光開始時間の差分に基づいて単位時間当たりのアフィン係数を算出する。また、システム制御部111は、連続露光時間を複数の予測時間に区切るための時間間隔を設定し、区切られた複数の予測時間がそれぞれ経過したときの各星における複数の予測位置を算出する。例えば、連続露光時間が30分で設定された場合、図3(c)に示すように、開始点から15分経過した後の各星の予測位置、及び開始点から30分経過した後の各星の予測位置が算出される。   As a result of the determination in step S205, when the affine coefficient calculated based on the motion vector is not available, the system control unit 111 ends this processing. On the other hand, as a result of the determination in step S205, when the affine coefficient calculated based on the motion vector is available, the system control unit 111 causes the preset continuous exposure time to elapse based on the calculated affine coefficient. The predicted position of each star at that time is calculated (step S206). In the calculation process of the predicted position, the system control unit 111 calculates the affine coefficient per unit time based on the difference between the exposure start times of the stored captured images. The system control unit 111 also sets a time interval for dividing the continuous exposure time into a plurality of predicted times, and calculates a plurality of predicted positions on each star when the plurality of divided predicted times have passed. For example, when the continuous exposure time is set to 30 minutes, as shown in FIG. 3C, the predicted position of each star after 15 minutes has passed from the starting point, and each predicted position after 30 minutes has passed from the starting point. The predicted position of the star is calculated.

次いで、システム制御部111は算出された各星の予測位置に基づいて図3(d)の予測軌跡情報301を生成する。予測軌跡情報301は各星の軌跡を示す線を含み、各星の軌跡を示す線は各星の予測位置をそれぞれ線で繋ぐことによって形成される。本実施の形態では、予測軌跡情報301の線の太さ及び色は各星の被写体関連情報に基づいて決定される。例えば、被写体関連情報に各星の平均輝度値が含まれる場合、予測軌跡情報301の線の太さは各星の平均輝度値に基づいて決定され、被写体関連情報に各星の色情報が含まれる場合、予測軌跡情報301の線の色は各星の色情報に基づいて決定される。次いで、システム制御部111は生成された予測軌跡情報301を含む合成用画像302を生成する(ステップS207)(予測軌跡情報生成手段)。   Next, the system control unit 111 generates the predicted trajectory information 301 of FIG. 3D based on the calculated predicted position of each star. The predicted trajectory information 301 includes a line indicating the trajectory of each star, and the line indicating the trajectory of each star is formed by connecting the predicted positions of each star with a line. In the present embodiment, the line thickness and color of the predicted trajectory information 301 is determined based on the subject related information of each star. For example, when the subject-related information includes the average luminance value of each star, the line thickness of the predicted trajectory information 301 is determined based on the average luminance value of each star, and the subject-related information includes the color information of each star. In this case, the line color of the predicted trajectory information 301 is determined based on the color information of each star. Next, the system control unit 111 generates a synthesis image 302 including the generated predicted trajectory information 301 (step S207) (predicted trajectory information generating means).

次いで、システム制御部111は、取得された第1の撮影画像300及び第2の撮影画像のうち後述する軌跡シミュレーション画像400の基準となる第1の撮影画像300において、各星より手前に位置する山303等を含む前景領域を検出する。本実施の形態では、前景領域を検出する際、システム制御部111は第1の撮影画像300を当該第1の撮影画像300における各星が検出不可能になる大きさまで縮小した縮小画像を生成する。システム制御部111は、当該縮小画像を構成する複数の画素のうち輝度値や色情報が近い画素をグルーピングし、隣接する画素と急激に輝度値や色情報が異なる画素を境界として複数の領域に分割する。これにより、縮小画像において、例えば、第1の撮影画像300の山303に相当する山領域及び空304に相当する空領域に分割する。また、システム制御部111は分割された各領域の平均輝度値を算出し、空領域の平均輝度値及び空領域を除く各領域の平均輝度値を比較し、比較した結果が予め設定された所定の値以上である領域を前景領域として検出する。次いで、システム制御部111は取得された第1の撮影画像300及び合成用画像302を用いて比較明合成を行う。システム制御部111は第1の撮影画像300のうち前景領域以外の領域に合成用画像302に含まれる予測軌跡情報301を合成して軌跡シミュレーション画像400を生成する(ステップS208)(合成画像生成手段)。すなわち、本実施の形態では、軌跡シミュレーション画像400において、予測軌跡情報401が星402より手前に位置する山403に重畳しない。次いで、システム制御部111は軌跡シミュレーション画像400を表示部110に表示し(ステップS209)、連続露光時間が変更されたか否かを判別する(ステップS210)。   Next, the system control unit 111 is located in front of each star in the first captured image 300, which is the reference of the trajectory simulation image 400, which will be described later, among the acquired first captured image 300 and second captured image. The foreground area including the mountain 303 and the like is detected. In the present embodiment, when detecting the foreground area, the system control unit 111 generates a reduced image in which the first captured image 300 is reduced to a size such that each star in the first captured image 300 cannot be detected. .. The system control unit 111 groups pixels having similar brightness values and color information among a plurality of pixels forming the reduced image, and divides the pixels into a plurality of areas with a pixel having a brightness value and color information abruptly different from an adjacent pixel as a boundary. To divide. As a result, the reduced image is divided into, for example, a mountain region corresponding to the mountain 303 and a sky region corresponding to the sky 304 of the first captured image 300. In addition, the system control unit 111 calculates an average brightness value of each divided area, compares the average brightness value of the sky area and the average brightness value of each area excluding the sky area, and the comparison result is a preset predetermined value. An area having a value equal to or greater than is detected as a foreground area. Next, the system control unit 111 uses the acquired first captured image 300 and the acquired image for composition 302 to perform comparative bright composition. The system control unit 111 synthesizes the predicted trajectory information 301 included in the image for synthesis 302 in an area other than the foreground area in the first captured image 300 to generate the trajectory simulation image 400 (step S208) (composite image generation means). ). That is, in the present embodiment, in the trajectory simulation image 400, the predicted trajectory information 401 is not superimposed on the mountain 403 located in front of the star 402. Next, the system control unit 111 displays the trajectory simulation image 400 on the display unit 110 (step S209) and determines whether the continuous exposure time has been changed (step S210).

ステップS210の判別の結果、連続露光時間が変更されたとき、システム制御部111はステップS206の処理に戻る。これにより、システム制御部111は変更された連続露光時間が経過したときの星の予測位置から新たな星の予測軌跡情報を生成する。一方、ステップS210の判別の結果、連続露光時間が変更されないとき、システム制御部111は本処理を終了する。   As a result of the determination in step S210, when the continuous exposure time is changed, the system control unit 111 returns to the process of step S206. As a result, the system control unit 111 generates new star prediction trajectory information from the predicted position of the star when the changed continuous exposure time has elapsed. On the other hand, if the result of determination in step S210 is that the continuous exposure time has not changed, the system control unit 111 ends this processing.

上述した図2の処理によれば、第1の撮影画像300における星の位置及び第2の撮影画像における星の位置の差分から算出された動きベクトルに基づいて星の予測軌跡情報301が生成される。さらに予測軌跡情報301を含む軌跡シミュレーション画像400が生成され、生成された軌跡シミュレーション画像400が表示される。動きベクトルの算出のためには第1の撮影画像300及び第2の撮影画像のそれぞれにおける星の位置のみが取得できればよく、これらの位置の取得のためには第1の撮影画像300及び第2の撮影画像が取得できればよい。したがって、特殊な装置を設けることなく、星の予測軌跡情報301を表示することができる。   According to the processing of FIG. 2 described above, the predicted star trajectory information 301 is generated based on the motion vector calculated from the difference between the position of the star in the first captured image 300 and the position of the star in the second captured image. It Furthermore, the trajectory simulation image 400 including the predicted trajectory information 301 is generated, and the generated trajectory simulation image 400 is displayed. In order to calculate the motion vector, only the positions of the stars in each of the first captured image 300 and the second captured image need to be acquired, and in order to obtain these positions, the first captured image 300 and the second captured image are acquired. It is only necessary to be able to acquire the captured image of. Therefore, the predicted trajectory information 301 of a star can be displayed without providing a special device.

また、上述した図2の処理では、星の予測軌跡情報301は星の軌跡を示す線を含み、星の軌跡を示す線の太さ及び色は被写体関連情報に基づいて決定される。これにより、例えば、第1の撮影画像300及び第2の撮影画像において複数の星が存在しても、各星の被写体関連情報に基づいて各星の軌跡を示す線の太さや色を個々に設定することができ、もって、ユーザは表示された軌跡シミュレーション画像400における複数の星から所望の星を容易に特定することができる。   In the processing of FIG. 2 described above, the predicted trajectory information 301 of a star includes a line indicating the trajectory of the star, and the thickness and color of the line indicating the trajectory of the star are determined based on the subject-related information. Thus, for example, even if a plurality of stars exist in the first captured image 300 and the second captured image, the thickness and color of the line indicating the trajectory of each star are individually determined based on the subject-related information of each star. This can be set, so that the user can easily specify a desired star from the plurality of stars in the displayed trajectory simulation image 400.

さらに、上述した図2の処理では、第1の撮影画像300及び第2の撮影画像の各々における孤立点に基づいて星が検出されるので、星を検出するための特殊な画像処理や星検出用情報等を用いることなく、第1の撮影画像300及び第2の撮影画像から星を検出することができる。   Further, in the processing of FIG. 2 described above, stars are detected based on the isolated points in each of the first captured image 300 and the second captured image, so special image processing for star detection and star detection is performed. A star can be detected from the first captured image 300 and the second captured image without using the usage information or the like.

上述した図2の処理では、連続露光時間が変更されると、変更された連続露光時間が経過したときの星の予測位置から新たな星の予測軌跡情報が生成される。これにより、ユーザが所望する連続露光時間が経過したときの星の予測軌跡情報を容易に表示することができる。   In the above-described process of FIG. 2, when the continuous exposure time is changed, new star predicted trajectory information is generated from the predicted position of the star when the changed continuous exposure time has elapsed. This makes it possible to easily display the predicted trajectory information of the star when the continuous exposure time desired by the user has elapsed.

また、上述した図2の処理では、区切られた複数の予測時間がそれぞれ経過したときの複数の星の予測位置に基づいて星の予測軌跡情報301が生成される。これにより、予測軌跡情報301の精度を向上することができ、実際に撮影される星の軌跡に近似する星の予測軌跡情報301を生成することができる。   Further, in the above-described processing of FIG. 2, the predicted star trajectory information 301 is generated based on the predicted positions of a plurality of stars when a plurality of divided prediction times have passed. As a result, the accuracy of the predicted trajectory information 301 can be improved, and the predicted trajectory information 301 of a star that approximates the trajectory of a star that is actually photographed can be generated.

上述した図2の処理では、第1の撮影画像300及び第2の撮影画像の各々の撮影時の露出条件は、星の軌跡画像を撮影する際に設定された露出条件に基づいて決定される。これにより、星の軌跡画像を撮影する際に設定された露出条件に基づいて撮影された第1の撮影画像300及び第2の撮影画像を用いて星の予測軌跡情報301を含む軌跡シミュレーション画像400を生成することができる。すなわち、星の軌跡画像の撮影時と同じ露出条件の星の予測軌跡情報301を含む軌跡シミュレーション画像400を生成することができ、もって、実際に撮影される星の軌跡画像に近似する星の予測軌跡情報301を生成することができる。   In the processing of FIG. 2 described above, the exposure conditions of the first captured image 300 and the second captured image at the time of capturing are determined based on the exposure conditions set when capturing the star trail image. .. Accordingly, the trajectory simulation image 400 including the predicted trajectory information 301 of the star using the first captured image 300 and the second captured image captured based on the exposure condition set when capturing the star trajectory image. Can be generated. That is, it is possible to generate the trajectory simulation image 400 including the predicted trajectory information 301 of the star under the same exposure condition as when the star trajectory image was captured, and thus, the prediction of the star that is approximate to the actually captured star trajectory image can be performed. The trajectory information 301 can be generated.

また、上述した図2の処理では、軌跡シミュレーション画像400において、予測軌跡情報401が星402より手前に位置する山403に重畳されない。これにより、星402より手前に位置する山403に星の予測軌跡情報401が合成された不自然な軌跡シミュレーション画像400が生成されることを防止することができる。   Further, in the above-described processing of FIG. 2, the predicted trajectory information 401 is not superimposed on the mountain 403 located in front of the star 402 in the trajectory simulation image 400. As a result, it is possible to prevent the generation of the unnatural trajectory simulation image 400 in which the predicted trajectory information 401 of the star is combined with the mountain 403 located in front of the star 402.

本実施の形態では、天体の日周運動の軌跡を撮影する画像処理装置としてのカメラ100に本発明を適用した場合について説明したが、本発明の適用先はカメラ100に限られない。例えば、上述した予測軌跡情報301を生成可能なクライアントPC等を含む画像処理装置であれば本発明を適用することができる。具体的に、クライアントPCは、カメラ100等から上述した第1の撮影画像300及び第2の撮影画像を取得する。その後、クライアントPCは、取得された第1の撮影画像300における星の位置及び第2の撮影画像における星の位置の差分から星の動きベクトルを算出し、算出された動きベクトルに基づいて各星の予測軌跡情報301を生成する。さらに、クライアントPCは生成された予測軌跡情報301を含む軌跡シミュレーション画像400を生成し、生成された軌跡シミュレーション画像400をクライアントPCに設けられる表示部等に表示する。これにより、上述した本実施の形態と同様の効果を奏することができる。   In the present embodiment, the case where the present invention is applied to the camera 100 as an image processing device that captures the trajectory of the diurnal motion of the celestial body has been described, but the application destination of the present invention is not limited to the camera 100. For example, the present invention can be applied to any image processing apparatus including a client PC or the like that can generate the above-described predicted trajectory information 301. Specifically, the client PC acquires the above-described first captured image 300 and second captured image from the camera 100 or the like. After that, the client PC calculates a motion vector of the star from the difference between the acquired position of the star in the first captured image 300 and the position of the star in the second captured image, and each star is calculated based on the calculated motion vector. The predicted locus information 301 of is generated. Further, the client PC generates a trajectory simulation image 400 including the generated predicted trajectory information 301 and displays the generated trajectory simulation image 400 on a display unit or the like provided in the client PC. As a result, the same effect as that of the above-described present embodiment can be obtained.

また、本実施の形態では、軌跡シミュレーション画像400を生成する際に設定された各設定値を軌跡画像の撮影の設定値として設定してもよい。   Further, in the present embodiment, each setting value set when the trajectory simulation image 400 is generated may be set as the setting value for capturing the trajectory image.

図5は、図1のカメラ100で実行される軌跡画像の撮影処理の手順を示すフローチャートである。   FIG. 5 is a flowchart showing a procedure of a trajectory image capturing process executed by the camera 100 of FIG.

図5の処理は、システム制御部111が不揮発性メモリ112に格納された各種プログラムを実行することによって行われる。また、図5の処理は、軌跡シミュレーション画像400の生成後に軌跡画像の撮影を実行する軌跡合成撮影モードが予め設定されていることを前提とする。   The process of FIG. 5 is performed by the system control unit 111 executing various programs stored in the nonvolatile memory 112. Further, the processing of FIG. 5 is premised on that the trajectory composite photographing mode in which the trajectory image is photographed after the trajectory simulation image 400 is generated is set in advance.

図5において、まず、システム制御部111は図2のステップS201〜S210の処理を行う。次いで、システム制御部111はユーザの操作部115の操作によって軌跡シミュレーション画像400に含まれる星の数を調整する数量調整設定が行われたか否かを判別する(ステップS501)。本実施の形態では、数量調整設定として、表示部110に表示された軌跡シミュレーション画像400に含まれる星の数を増やす又は減らすことを設定可能である。   In FIG. 5, first, the system control unit 111 performs the processing of steps S201 to S210 of FIG. Next, the system control unit 111 determines whether or not the number adjustment setting for adjusting the number of stars included in the trajectory simulation image 400 has been performed by the user's operation of the operation unit 115 (step S501). In the present embodiment, the quantity adjustment setting can be set to increase or decrease the number of stars included in the trajectory simulation image 400 displayed on the display unit 110.

ステップS501の判別の結果、数量調整設定が行われたとき、システム制御部111は数量調整設定に基づいて第1の撮影画像300及び第2の撮影画像の各々を構成する各画素の画素値を調整するゲイン値を設定する(ステップS502)。これにより、各撮影画像を構成する各画素の画素値が変更され、各撮影画像における孤立点の検出結果が変わる。例えば、ゲイン値が設定されることで、周囲の画素の画素値との差が大きくなった画素が、孤立点、つまり、星として検出され、周囲の画素の画素値との差が小さくなった画素が、星として検出されなくなる。ステップS502で設定されたゲイン値はメモリ108に保持される。次いで、システム制御部111はステップS206以降の処理を行う。   When the quantity adjustment setting is performed as a result of the determination in step S501, the system control unit 111 determines the pixel value of each pixel forming each of the first captured image 300 and the second captured image based on the quantity adjustment setting. The gain value to be adjusted is set (step S502). As a result, the pixel value of each pixel forming each captured image is changed, and the detection result of the isolated point in each captured image changes. For example, when the gain value is set, a pixel whose difference from the pixel values of the surrounding pixels is large is detected as an isolated point, that is, a star, and the difference from the pixel values of the surrounding pixels is reduced. The pixel is no longer detected as a star. The gain value set in step S502 is held in the memory 108. Next, the system control unit 111 performs the processing from step S206.

ステップS501の判別の結果、数量調整設定が行われないとき、システム制御部111はユーザの操作部115の操作によって当該軌跡シミュレーション画像400の表示の終了が指示されたか否かを判別する(ステップS503)。   As a result of the determination in step S501, when the quantity adjustment setting is not performed, the system control unit 111 determines whether or not the user has operated the operation unit 115 to instruct the end of the display of the trajectory simulation image 400 (step S503). ).

ステップS503の判別の結果、軌跡シミュレーション画像400の表示の終了が指示されないとき、システム制御部111は、軌跡シミュレーション画像400の表示を継続し、本処理を終了する。一方、ステップS503の判別の結果、軌跡シミュレーション画像400の表示の終了が指示されたとき、システム制御部111は軌跡画像の撮影の連続露光時間を設定する(ステップS504)。具体的に、システム制御部111は図2の処理で用いられた連続露光時間を軌跡画像の撮影の連続露光時間として設定する。次いで、システム制御部111は軌跡画像の撮影のゲイン値を設定する(ステップS505)。具体的に、システム制御部111はステップS502で設定されたゲイン値を軌跡画像の撮影のゲイン値として設定する。ステップS504,S505で設定された連続露光時間及びゲイン値は表示部110に表示される。なお、本実施の形態では、軌跡画像の撮影の設定の一例として、連続露光時間及びゲイン値を設定する場合を説明したが、連続露光時間及びゲイン値以外の設定値を設定してもよい。例えば、軌跡シミュレーション画像400を生成する際に設定されたホワイトバランス、シャッタースピード、絞り値等の設定値のそれぞれを軌跡画像の撮影の設定値として設定してもよい。次いで、システム制御部111は軌跡画像の撮影の開始が指示されたか否かを判別する(ステップS506)。   As a result of the determination in step S503, when it is not instructed to end the display of the trajectory simulation image 400, the system control unit 111 continues the display of the trajectory simulation image 400 and ends the present process. On the other hand, when the end of display of the trajectory simulation image 400 is instructed as a result of the determination in step S503, the system control unit 111 sets the continuous exposure time for capturing the trajectory image (step S504). Specifically, the system control unit 111 sets the continuous exposure time used in the process of FIG. 2 as the continuous exposure time for capturing the trajectory image. Next, the system control unit 111 sets a gain value for capturing the trajectory image (step S505). Specifically, the system control unit 111 sets the gain value set in step S502 as the gain value for capturing the trajectory image. The continuous exposure time and the gain value set in steps S504 and S505 are displayed on the display unit 110. In the present embodiment, the case where the continuous exposure time and the gain value are set has been described as an example of the setting of the shooting of the locus image, but setting values other than the continuous exposure time and the gain value may be set. For example, each of the setting values such as the white balance, the shutter speed, and the aperture value set when generating the trajectory simulation image 400 may be set as the setting values for capturing the trajectory image. Next, the system control unit 111 determines whether or not the start of shooting the trajectory image is instructed (step S506).

ステップS506の判別の結果、軌跡画像の撮影の開始が指示されないとき、システム制御部111は本処理を終了する。一方、ステップS506の判別の結果、軌跡画像の撮影の開始が指示されたとき、システム制御部111はステップS504,S505で設定された設定値に基づいて軌跡画像の撮影を開始する(ステップS507)。軌跡画像の撮影では、システム制御部111は設定された連続露光時間を経過するまで連続して撮影を行い、連続露光時間が経過するまでの間に撮影された全ての画像を比較明合成して星空の軌跡画像を生成する。当該軌跡画像は撮影の開始が指示されてから連続露光時間が経過するまでの間、撮影が行われる毎に更新される。その後、システム制御部111は設定された連続露光時間が経過すると、撮影を終了し、最後に生成された軌跡画像を記録媒体121に保存し(ステップS508)、本処理を終了する。   As a result of the determination in step S506, when the start of shooting the trajectory image is not instructed, the system control unit 111 ends this processing. On the other hand, as a result of the determination in step S506, when the start of shooting the trajectory image is instructed, the system control unit 111 starts shooting the trajectory image based on the setting values set in steps S504 and S505 (step S507). .. In capturing the trajectory image, the system control unit 111 continuously captures images until the set continuous exposure time elapses, and performs comparative bright composition on all the images captured until the continuous exposure time elapses. Generate a trajectory image of the starry sky. The locus image is updated each time a shooting is performed from when the start of shooting is instructed until the continuous exposure time elapses. After that, when the set continuous exposure time elapses, the system control unit 111 ends shooting, saves the trajectory image generated last in the recording medium 121 (step S508), and ends this processing.

上述した図5の処理では、軌跡シミュレーション画像400を生成する際に設定された設定値のそれぞれが軌跡画像の撮影の設定値として設定される。これにより、軌跡シミュレーション画像400と同じ設定条件で軌跡画像の撮影を行うことができ、もって、軌跡シミュレーション画像400と近似した軌跡画像の撮影を行うことができる。   In the process of FIG. 5 described above, each of the setting values set when generating the trajectory simulation image 400 is set as the setting value for capturing the trajectory image. Accordingly, the trajectory image can be captured under the same setting conditions as the trajectory simulation image 400, and thus, the trajectory image approximate to the trajectory simulation image 400 can be captured.

本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or a device via a network or a storage medium, and one or more processors in a computer of the system or the device read the program. It can also be realized by a process that is executed. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 カメラ
106 画像処理部
111 システム制御部
115 操作部
300 第1の撮影画像
301,401 予測軌跡情報
402 星
403 山
400 軌跡シミュレーション画像
100 camera 106 image processing unit 111 system control unit 115 operation unit 300 first captured image 301, 401 predicted trajectory information 402 star 403 mountain 400 trajectory simulation image

Claims (8)

撮影により得られた複数の画像に基づいて、天体の移動軌跡を示す軌跡画像を生成可能な画像処理装置であって、
前記複数の画像を撮影する前に、前記複数の画像を撮影するための露出条件に基づいて異なる時間に撮影された第1の撮影画像及び第2の撮影画像を少なくとも取得する画像取得手段と、
前記第1の撮影画像及び前記第2の撮影画像の各々における前記天体を検出する検出手段と、
前記第1の撮影画像における前記天体の位置及び前記第2の撮影画像における前記天体の位置の差分から前記天体の動きベクトルを算出する算出手段と、
前記算出された動きベクトルに基づいて生成された前記天体の予測軌跡情報を含む合成画像を生成する合成画像生成手段と、
前記第1の撮影画像の少なくとも空領域に前記合成画像に含まれる前記天体の予測軌跡情報を合成し、前記軌跡画像をシミュレーションした軌跡シミュレーション画像を生成する軌跡シミュレーション画像生成手段と、
前記生成された軌跡シミュレーション画像を表示する表示手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus capable of generating a trajectory image showing a trajectory of a celestial body based on a plurality of images obtained by shooting,
An image acquisition unit that acquires at least a first captured image and a second captured image captured at different times based on exposure conditions for capturing the plurality of images before capturing the plurality of images ;
Detection means for detecting the celestial body in each of the first captured image and the second captured image;
Calculating means for calculating a motion vector of the celestial body from the difference between the position of the celestial body in the first photographed image and the position of the celestial body in the second photographed image;
Synthetic image generation means for generating a synthetic image including predicted trajectory information of the celestial body generated based on the calculated motion vector,
Trajectory simulation image generation means for synthesizing predicted trajectory information of the celestial body included in the synthesized image in at least the sky region of the first captured image, and generating a trajectory simulation image simulating the trajectory image,
An image processing apparatus comprising: a display unit that displays the generated trajectory simulation image.
前記第1の撮影画像及び前記第2の撮影画像の各々における前記天体の色と前記天体の輝度の少なくとも一方を含む被写体関連情報を検出する検出手段と、
前記天体の予測軌跡情報を生成する予測軌跡情報生成手段とを更に備え、
前記天体の予測軌跡情報は、前記天体の軌跡を示す線を含み、
前記予測軌跡情報生成手段は、前記天体の軌跡を示す線の太さと色の少なくとも一方を前記被写体関連情報に基づいて決定することを特徴とする請求項1記載の画像処理装置。
Detection means for detecting subject-related information including at least one of the color of the celestial body and the luminance of the celestial body in each of the first photographed image and the second photographed image;
Further comprising a prediction trajectory information generating means for generating the prediction trajectory information of the celestial body ,
Estimated track information of the celestial body comprises a line indicating the trajectory of the celestial,
The image processing apparatus according to claim 1, wherein the predicted trajectory information generation unit determines at least one of thickness and color of a line indicating the trajectory of the celestial body based on the subject related information.
連続露光時間を設定する設定手段を更に備え、
前記予測軌跡情報生成手段は、前記連続露光時間が経過したときの前記天体の予測位置から前記天体の予測軌跡情報を生成し、
前記予測軌跡情報生成手段は、前記天体の予測軌跡情報を生成した後に、前記連続露光時間が変更されると、前記変更された連続露光時間が経過したときの前記天体の予測位置に基づいて新たな前記天体の予測軌跡情報を生成することを特徴とする請求項2記載の画像処理装置。
Further comprising setting means for setting the continuous exposure time,
The estimated track information generating means generates the estimated track information of the celestial body from predicted position of the celestial body when the continuous exposure time has elapsed,
If the continuous exposure time is changed after generating the predicted trajectory information of the celestial body , the predicted trajectory information generation means newly generates a predicted position of the celestial body based on the predicted position of the celestial body when the changed continuous exposure time has elapsed. The image processing apparatus according to claim 2, wherein the predicted trajectory information of the celestial body is generated.
前記予測軌跡情報生成手段は、前記連続露光時間を複数の予測時間に区切るための時間間隔を設定し、前記区切られた複数の予測時間がそれぞれ経過したときの複数の前記天体の予測位置に基づいて前記天体の予測軌跡情報を生成することを特徴とする請求項3記載の画像処理装置。 The predicted trajectory information generation means sets a time interval for dividing the continuous exposure time into a plurality of predicted times, and based on predicted positions of the plurality of celestial bodies when the plurality of divided predicted times have passed. The image processing apparatus according to claim 3, wherein the predicted trajectory information of the celestial body is generated. 前記検出手段は、前記第1の撮影画像及び前記第2の撮影画像の各々における孤立点に基づいて前記天体を検出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The image according to claim 1, wherein the detecting unit detects the celestial object based on an isolated point in each of the first captured image and the second captured image. Processing equipment. 前記天体は星であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The astronomical image processing apparatus according to any one of claims 1 to 5, characterized in that a star. 前記第1の撮影画像における前記天体より手前に位置する前景領域を検出する前景領域検出手段を更に備え、
前記軌跡シミュレーション画像生成手段は、前記合成画像に含まれる前記天体の予測軌跡情報を前記前景領域合成しないことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
Further comprising a foreground region detecting means for detecting a foreground region that is located in front of the celestial bodies definitive in the first shooting picture image,
The trajectory simulation image generating means, the image processing apparatus according to any one of claims 1 to 6, characterized in that does not synthesize estimated track information of the celestial body contained in the composite image to the foreground area.
撮影により得られた複数の画像に基づいて、天体の移動軌跡を示す軌跡画像を生成可能な画像処理装置の制御方法であって、
前記複数の画像を撮影する前に、前記複数の画像を撮影するための露出条件に基づいて異なる時間に撮影された第1の撮影画像及び第2の撮影画像を少なくとも取得する画像取得ステップと、
前記第1の撮影画像及び前記第2の撮影画像の各々における前記天体を検出する検出ステップと、
前記第1の撮影画像における前記天体の位置及び前記第2の撮影画像における前記天体の位置の差分から前記天体の動きベクトルを算出する算出ステップと、
前記算出された動きベクトルに基づいて生成された前記天体の予測軌跡情報を含む合成画像を生成する合成画像生成ステップと、
前記第1の撮影画像の少なくとも空領域に前記合成画像に含まれる前記天体の予測軌跡情報を合成し、前記軌跡画像をシミュレーションした軌跡シミュレーション画像を生成する軌跡シミュレーション画像生成ステップと、
前記生成された軌跡シミュレーション画像を表示する表示ステップと、を備えることを特徴とする画像処理装置の制御方法。
A control method for an image processing device capable of generating a trajectory image showing a trajectory of a celestial body based on a plurality of images obtained by shooting ,
An image acquisition step of acquiring at least a first captured image and a second captured image captured at different times based on exposure conditions for capturing the plurality of images before capturing the plurality of images ;
A detection step of detecting the celestial body in each of the first captured image and the second captured image;
A calculation step of calculating a motion vector of the celestial body from the difference between the position of the celestial body in the first photographed image and the position of the celestial body in the second photographed image;
A synthetic image generation step of generating a synthetic image including predicted trajectory information of the celestial body generated based on the calculated motion vector;
A trajectory simulation image generating step of synthesizing predicted trajectory information of the celestial body included in the synthesized image in at least the sky region of the first captured image, and generating a trajectory simulation image simulating the trajectory image;
A step of displaying the generated trajectory simulation image, and a control method of the image processing device.
JP2016087986A 2015-10-02 2016-04-26 Image processing apparatus, control method thereof, and program Active JP6700937B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015196780 2015-10-02
JP2015196780 2015-10-02

Publications (3)

Publication Number Publication Date
JP2017069939A JP2017069939A (en) 2017-04-06
JP2017069939A5 JP2017069939A5 (en) 2019-06-06
JP6700937B2 true JP6700937B2 (en) 2020-05-27

Family

ID=58495421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016087986A Active JP6700937B2 (en) 2015-10-02 2016-04-26 Image processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6700937B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024096494A1 (en) * 2022-11-01 2024-05-10 삼성전자주식회사 Electronic device and method for acquiring image data on basis of compositing images
WO2024158192A1 (en) * 2023-01-23 2024-08-02 Samsung Electronics Co., Ltd. System and method for generating astro-lapse video on user device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4490752B2 (en) * 2004-07-30 2010-06-30 日本放送協会 Video object extraction device, video object trajectory synthesis device, method and program thereof
JP4441354B2 (en) * 2004-07-30 2010-03-31 日本放送協会 Video object extraction device, video object trajectory synthesis device, method and program thereof
JP4555690B2 (en) * 2005-01-11 2010-10-06 日本放送協会 Trajectory-added video generation apparatus and trajectory-added video generation program
JP4956273B2 (en) * 2007-05-17 2012-06-20 日本放送協会 Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program
JP6237119B2 (en) * 2013-10-30 2017-11-29 株式会社ソシオネクスト Image processing apparatus and image processing method
JP2015118213A (en) * 2013-12-18 2015-06-25 キヤノン株式会社 Image processing apparatus, imaging apparatus including the same, image processing method, program, and storage medium
JP6257377B2 (en) * 2014-02-25 2018-01-10 オリンパス株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
CN104092948B (en) * 2014-07-29 2016-05-11 小米科技有限责任公司 Process method and the device of image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024096494A1 (en) * 2022-11-01 2024-05-10 삼성전자주식회사 Electronic device and method for acquiring image data on basis of compositing images
WO2024158192A1 (en) * 2023-01-23 2024-08-02 Samsung Electronics Co., Ltd. System and method for generating astro-lapse video on user device

Also Published As

Publication number Publication date
JP2017069939A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6418879B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP6659162B2 (en) Imaging device, imaging device control method, and program
JP6594180B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6116299B2 (en) Imaging apparatus and control method thereof
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
CN111385471B (en) Information processing apparatus and method, image pickup apparatus and control method thereof, and storage medium
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
WO2019163558A1 (en) Image processing device, image processing method, and program
JP2015231118A (en) Image composition device, image composition system and image composition method
JP6700937B2 (en) Image processing apparatus, control method thereof, and program
JP6445887B2 (en) Focus adjustment apparatus, imaging apparatus, control method therefor, and program
JP6758950B2 (en) Imaging device, its control method and program
JP2011193062A (en) Panoramic image imaging device and panoramic image compositing method
JP7102150B2 (en) Image processing equipment, image processing methods, and programs
JP6762843B2 (en) Image processing equipment, image processing methods, and programs
JP6759039B2 (en) Image processing equipment, image processing methods, and programs
JP2021083018A (en) Imaging device, imaging method, program, and recording medium
KR101700360B1 (en) Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method
JP2016032180A (en) Imaging apparatus, control method and program
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP7475846B2 (en) Information processing device, imaging device, information processing method, and imaging device control method
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP6616668B2 (en) Image processing apparatus and image processing method
JP2019062369A (en) Imaging apparatus and control method thereof, electronic device and control method thereof, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6700937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151