JP5440366B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5440366B2
JP5440366B2 JP2010105012A JP2010105012A JP5440366B2 JP 5440366 B2 JP5440366 B2 JP 5440366B2 JP 2010105012 A JP2010105012 A JP 2010105012A JP 2010105012 A JP2010105012 A JP 2010105012A JP 5440366 B2 JP5440366 B2 JP 5440366B2
Authority
JP
Japan
Prior art keywords
time
image
correction
change
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010105012A
Other languages
Japanese (ja)
Other versions
JP2011234274A5 (en
JP2011234274A (en
Inventor
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010105012A priority Critical patent/JP5440366B2/en
Publication of JP2011234274A publication Critical patent/JP2011234274A/en
Publication of JP2011234274A5 publication Critical patent/JP2011234274A5/ja
Application granted granted Critical
Publication of JP5440366B2 publication Critical patent/JP5440366B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、ユーザの撮像行為の目的に合致し、かつより自然で現実味のある画像となるように、撮像画像を加工することを可能とする技術に関する。   The present invention relates to an image processing apparatus, method, and program, and in particular, a technique that makes it possible to process a captured image so as to be a more natural and realistic image that matches the purpose of a user's imaging action. About.

従来、電子表示装置が鑑賞用の画像を表示したり、カーナビゲーション装置が地図等の情報確認用の画像を表示する、といった表示技術の分野が存在する。このような表示技術の分野においては、時間変化や天候変化に応じた演出表示が行われている(特許文献1乃至4参照)。
一方、ユーザがカメラを用いて撮像する、といった撮像技術の分野も存在する。このような撮像技術の分野でも、デジタルカメラの登場により、撮像画像の表示が可能になり、さらに近年では、撮像画像を加工して表示することも可能になっている。
2. Description of the Related Art Conventionally, there is a field of display technology in which an electronic display device displays an image for viewing and a car navigation device displays an image for information confirmation such as a map. In the field of such display technology, effect display according to time change and weather change is performed (see Patent Documents 1 to 4).
On the other hand, there is a field of imaging technology in which a user takes an image using a camera. Also in the field of such imaging technology, with the advent of digital cameras, it is possible to display captured images, and in recent years, it has also become possible to process and display captured images.

特開平05−199491号公報Japanese Patent Laid-Open No. 05-199491 特開平07−210123号公報Japanese Patent Application Laid-Open No. 07-210123 特開平08−16586号公報Japanese Patent Laid-Open No. 08-16586 特開2002−286461号公報JP 2002-286461 A

しかしながら、撮像技術の分野では、一般的には、ユーザがデジタルカメラを用いて撮像するという撮像行為の方が、その結果得られた撮像画像をユーザが確認する行為よりも主要な行為となる。ここで、撮像行為とは、ユーザの主観的な目的を伴う行為であり、当該目的が達成した画像を創り出すという能動的行為である。このため、ユーザが創造したともいえる撮像画像に対しては、撮像行為という能動的行為の目的に合致した加工を施すことが要求される。
一方で、表示技術の分野においては、表示対象の画像は、ユーザとは別の他人が創造した画像であることが多い。そして、このような他人が創造した画像を鑑賞したり確認する行為が主要な行為となる。即ち、表示技術の分野とは、撮像行為等の能動的行為よりも、一方的に提示された画像をユーザが鑑賞又は確認するという受動的な行為が主要な行為であるとして、発達してきた分野である。
よって、表示技術の分野の技術、例えば特許文献1乃至4に記載の技術をそのまま撮像技術の分野に適用しても、ユーザの撮像行為の目的に合致した加工を撮像画像に施すことは困難である。
However, in the field of imaging technology, in general, an imaging action in which a user takes an image using a digital camera is a main action rather than an action in which the user confirms a captured image obtained as a result. Here, the imaging action is an action accompanied by a user's subjective purpose, and is an active action of creating an image that achieves the purpose. For this reason, it is required that the captured image, which can be said to be created by the user, be processed in accordance with the purpose of the active action called the imaging action.
On the other hand, in the field of display technology, an image to be displayed is often an image created by another person other than the user. And the act of appreciating and confirming images created by others is the main act. In other words, the field of display technology has been developed as a main act is a passive act in which a user views or confirms a unilaterally presented image rather than an active act such as an imaging act. It is.
Therefore, even if the technology in the field of display technology, for example, the technology described in Patent Documents 1 to 4 is applied to the field of imaging technology as it is, it is difficult to apply processing that matches the purpose of the user's imaging action to the captured image. is there.

例えば、ユーザが、紅葉やサクラ開花等の景観を撮像するために所定の場所に訪れたが、見頃の時期から少し外れた時期に訪れてしまって、紅葉やサクラ開花が未だ見頃になっていない景観しか撮像できないような場合を想定してみる。
この場合のユーザの撮像行為の目的は、紅葉やサクラ開花が見頃になった景観を撮像することであったはずである。ところが、この場合では、紅葉やサクラ開花が未だ見頃になっていない景観が写っている撮像画像しか得られない。このような撮像画像は、撮像行為の目的が達成されていない画像である。このため、撮像行為の目的が達成された画像となるように、即ち、紅葉やサクラ開花が見頃になった景観が写っている画像となるように、撮像画像を加工することが要求される。
しかしながら、特許文献1乃至4に記載の技術を単に適用しても、このような要求に応えることは困難である。即ち、特許文献1乃至4に記載の技術とは、時間変化や天候変化に応じて、表示する絵柄や画像を自動的に選択して表示する第1技術か、或いは、色や輝度等の表示用調整データを予め設定しておき、現在の季節、日時、天候等に応じて画像全体を補正する第2技術である。前者の第1技術では、選択して表示する絵柄や画像は予め用意しておく必要があるところ、実世界の樹木の像を予め用意しておくことは現実的で無い。後者の第2の技術では、樹木の葉や花の部分だけでなく、画像全体の色や輝度が補正されてしまうため、不自然で現実味に欠ける補正しかできない。
For example, a user visits a predetermined place to image a landscape such as autumn leaves or cherry blossoms, but the user visits at a time slightly off from the best time, and the autumn leaves or cherry blossoms are not yet in full bloom. Let's assume a case where only the landscape can be imaged.
The purpose of the user's imaging action in this case should have been to capture a landscape in which the autumn leaves and cherry blossoms were in full bloom. However, in this case, only a captured image showing a landscape in which autumn leaves and cherry blossoms are not yet in full bloom is obtained. Such a captured image is an image in which the purpose of the imaging action is not achieved. For this reason, it is required to process the captured image so as to achieve an image in which the purpose of the imaging action is achieved, that is, an image in which the scenery in which autumn leaves and cherry blossoms are in full bloom is reflected.
However, simply applying the techniques described in Patent Documents 1 to 4 makes it difficult to meet such requirements. That is, the techniques described in Patent Documents 1 to 4 are the first technique for automatically selecting and displaying a picture or image to be displayed in accordance with a change in time or a change in weather, or a display of color, brightness, or the like. This is a second technique in which the adjustment data is preset and the entire image is corrected according to the current season, date, weather, and the like. In the former first technique, it is necessary to prepare patterns and images to be selected and displayed in advance. However, it is not realistic to prepare images of trees in the real world in advance. In the latter second technique, not only the leaves and flower portions of the tree but also the color and brightness of the entire image are corrected, so that only unnatural and unrealistic correction can be performed.

なお、従来、3次元CG(Computer Graphics)や建築用の景観シミュレーションソフトウェアの中には、色々な視点から眺めた建築物の景観をレンダリングしたり、樹木等周囲の景観や季節変化による日陰等をシミュレーションできるものが存在する。
しかしながら、これらのシミュレーションソフトウェアにより得られる画像は、実世界を撮像した結果得られる撮像画像(写真画像)と比較すると、仮想的かつ人工的な画像であることが明らかであり、不自然で現実味に欠けるものであった。
さらにまた、これらのシミュレーションソフトウェアは、そもそも設計データや3次元形状モデル等実世界とは別なものに基づいて、シミュレーション描画することが前提とされている。このため、これらのシミュレーションソフトウェアを、実世界の景観等を撮像した結果得られる撮影画像の加工用としてそのまま適用することは非常に困難である。
Conventionally, in 3D computer graphics (CG) and architectural landscape simulation software, the architectural landscape viewed from various viewpoints is rendered, the surrounding landscape such as trees, and the shade due to seasonal changes, etc. There is something that can be simulated.
However, it is clear that the images obtained by these simulation software are virtual and artificial images compared to captured images (photo images) obtained as a result of imaging the real world, which is unnatural and realistic. It was lacking.
Furthermore, it is assumed that these simulation softwares perform simulation drawing based on things different from the real world, such as design data and a three-dimensional shape model. For this reason, it is very difficult to apply these simulation softwares as they are for processing a captured image obtained as a result of imaging a real world landscape or the like.

以上まとめると、ユーザの撮像行為の目的に合致し、かつより自然で現実味のある画像となるように、撮像画像を加工したいという要望が挙げられている。しかしながら、特許文献1乃至4を含む従来の技術では、当該要望に十分に応えることはできない。このため、当該要望に十分に応えることが可能な技術の実現が求められている。   In summary, there is a demand for processing a captured image so as to be a more natural and realistic image that matches the purpose of the user's imaging action. However, the conventional techniques including Patent Documents 1 to 4 cannot sufficiently meet the demand. For this reason, the realization of the technique which can fully respond to the said request is calculated | required.

本発明は、このような状況に鑑みてなされたものであり、ユーザの撮像行為の目的に合致し、かつより自然で現実味のある画像となるように、撮像画像を加工することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to process a captured image so as to be a more natural and realistic image that matches the purpose of the user's imaging action. .

本発明の一態様によると、
時間と位置に依存して特徴が変化していく特定領域を含む画像を撮影して再生することのできる画像処理装置において、
前記特定領域の特徴を、位置と時間に対応付けて予め記憶してある時間変化特性情報を保持する保持手段と、
撮影された前記特定領域を含む画像を再生するとき、該特定領域の特徴を前記時間変化特性情報から読み出して、読み出した特徴と前記画像を撮影したときの特徴とを比較し、前記撮影したときの特徴を補正する補正手段と、
前記補正された特定領域を含む画像を再生する再生手段と、
を備える画像処理装置を提供する。
According to one aspect of the invention,
In an image processing apparatus capable of capturing and reproducing an image including a specific region whose characteristics change depending on time and position,
Holding means for holding time variation characteristic information stored in advance in association with the position and time, the characteristics of the specific region;
When playing back an image including the captured specific area, the characteristic of the specific area is read from the time change characteristic information, the read characteristic is compared with the characteristic when the image is captured, and the captured image is captured. Correction means for correcting the characteristics of
Playback means for playing back an image including the corrected specific area;
An image processing apparatus is provided.

本発明の別の態様によると、上述した本発明の一態様に係る画像処理装置に対応する画像処理方法及びプログラムの各々を提供する。   According to another aspect of the present invention, an image processing method and a program corresponding to the above-described image processing apparatus according to one aspect of the present invention are provided.

本発明によれば、ユーザの撮像行為の目的に合致し、かつより自然で現実味のある画像となるように、撮像画像を加工することができる。   ADVANTAGE OF THE INVENTION According to this invention, a captured image can be processed so that it may become a more natural and realistic image according to the objective of a user's imaging action.

本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 落葉樹の色度の時間変化を示すxyY表色系の色度図である。It is a chromaticity diagram of the xyY color system showing the time change of the chromaticity of deciduous trees. 図1の撮像装置が実行する経時変化補正処理の結果の一例を示す図である。It is a figure which shows an example of the result of a time-dependent change correction process which the imaging device of FIG. 1 performs. 図1の撮像装置が有する機能のうち、経時変化補正処理を実現する機能についての機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure about the function which implement | achieves a time-dependent change correction process among the functions which the imaging device of FIG. 1 has. 図4の撮像装置が実行する経時変化補正処理の流れを説明するフローチャートである。6 is a flowchart for explaining a flow of a temporal change correction process executed by the imaging apparatus of FIG. 4. 図1の撮像処理装置が実行する撮像処理であって、図5の経時変化補正処理をサブルーチン処理として含む撮像処理の流れを示すフローチャートである。6 is a flowchart illustrating an imaging process executed by the imaging processing apparatus of FIG. 1 and including the temporal change correction process of FIG. 5 as a subroutine process. 図1の撮像処理装置が実行する表示処理であって、図5の経時変化補正処理をサブルーチン処理として含む表示処理の流れを示すフローチャートである。6 is a flowchart illustrating a display process executed by the imaging processing apparatus of FIG. 1 and including a time-dependent change correction process of FIG. 5 as a subroutine process. 図5の経時変化補正処理で用いられるGUI画像の一例を示す図である。It is a figure which shows an example of the GUI image used by the time-dependent change correction process of FIG. 所定の経時色変化対象から区分された複数の部分対象毎の時間色変化特性情報を用いた補正の結果の一例を示す図である。It is a figure which shows an example of the result of the correction | amendment using the time color change characteristic information for every some partial object divided from the predetermined color change object with time. 経時変化対象が落葉樹である場合の葉の色の変化を示す、確率過程に基づく色の状態遷移の一例を示している。An example of a color state transition based on a stochastic process, showing a change in the color of a leaf when the temporal change target is a deciduous tree, is shown. 図1の撮像装置が実行する経時変化補正処理の結果の一例であって、図3とは異なる例を示す図である。FIG. 4 is a diagram illustrating an example of a result of a temporal change correction process performed by the imaging apparatus of FIG. 1 and an example different from FIG. 3.

以下、本発明の一実施形態を図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明に係る画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラにより構成することができる。   FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus according to the present invention. The imaging device 1 can be configured by a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、操作部17と、表示部18と、記憶部19と、通信部20と、GPS(Global Positioning System)部21と、ドライブ22と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an operation unit 17. A display unit 18, a storage unit 19, a communication unit 20, a GPS (Global Positioning System) unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラムに従って各種の処理を実行する。又は、CPU11は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to programs recorded in the ROM 12. Alternatively, the CPU 11 executes various processes according to a program loaded from the storage unit 19 to the RAM 13.
The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.

例えば本実施形態では、後述する図4の撮像画像取得部51乃至時間変化特性情報決定部59の各機能を実現するプログラムが、ROM12や記憶部19に記憶されている。従って、CPU11が、これらのプログラムに従った処理を実行することで、後述する図4の撮像画像取得部51乃至時間変化特性情報決定部59の各機能を実現することができる。   For example, in the present embodiment, programs for realizing the functions of the captured image acquisition unit 51 to the time change characteristic information determination unit 59 in FIG. 4 to be described later are stored in the ROM 12 and the storage unit 19. Therefore, when the CPU 11 executes processing according to these programs, each function of the captured image acquisition unit 51 to the time change characteristic information determination unit 59 of FIG. 4 to be described later can be realized.

CPU11、ROM12、及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、操作部17、表示部18、記憶部19、通信部20、及びGPS部21が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an operation unit 17, a display unit 18, a storage unit 19, a communication unit 20, and a GPS unit 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、一定時間毎に被写体像を光電変換(撮像)して画像信号を蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
なお、以下、撮像部16の出力信号を、「撮像画像のデータ」と呼ぶ。従って、撮像部16からは撮像画像のデータが出力されて、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) a subject image at regular time intervals to accumulate image signals, and sequentially supplies the accumulated image signals to the AFE as analog signals.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. Therefore, captured image data is output from the imaging unit 16 and is appropriately supplied to the CPU 11 and the like.

操作部17は、レリーズ釦41を含む各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部18は、各種画像を表示する。
記憶部19は、DRAM(Dynamic Random Access Memory)等で構成され、撮像部16から出力された撮像画像のデータを一時記憶する。また、記憶部19は、各種画像処理に必要な各種データ、例えば、画像のデータ、各種フラグの値、閾値等も記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
GPS部21は、GPS(Global Positioning System)用の複数の衛星からGPS信号を受信して、このGPS信号に基づいて撮像装置1の現在位置を示す緯度及び経度の情報(以下、「GPS位置情報」と呼ぶ)を生成する。
The operation unit 17 includes various buttons including a release button 41 and receives a user instruction operation.
The display unit 18 displays various images.
The storage unit 19 is configured by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores captured image data output from the imaging unit 16. The storage unit 19 also stores various data necessary for various image processing, such as image data, various flag values, threshold values, and the like.
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.
The GPS unit 21 receives GPS signals from a plurality of satellites for GPS (Global Positioning System), and information on latitude and longitude indicating the current position of the imaging device 1 based on the GPS signals (hereinafter referred to as “GPS position information”). ").

入出力インターフェース15にはまた、必要に応じてドライブ22が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。そして、それらから読み出されたプログラムが、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像データ等の各種データも、記憶部19と同様に記憶することができる。   A drive 22 is connected to the input / output interface 15 as necessary, and a removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted. And the program read from them is installed in the memory | storage part 19 as needed. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

このようなハードウェア構成を有する撮像装置1は、本実施形態では、経時変化補正処理を実行する。
経時変化補正処理とは、実世界に存在する経時変化対象の時間方向の変化に応じて、撮像画像に含まれる当該経時変化対象の像を補正する処理をいう。
In the present embodiment, the imaging apparatus 1 having such a hardware configuration executes a temporal change correction process.
The temporal change correction process refers to a process of correcting the temporal change target image included in the captured image in accordance with a change in the temporal direction of the temporal change target existing in the real world.

ここで、実世界における所定の特徴が一定の法則に従って時間方向に変化するものを、本明細書では、「経時変化対象」と呼称している。
なお、経時変化対象の所定の特徴を変化させる「一定の法則」とは、任意の自然法則を含む任意の種類の法則で足り、数式化できなともよく、また例えば時間の経過とともに色が赤くなっていく傾向にあるという程度の単純な法則でもよい。また、1種類の法則のみで経時変化対象の所定の特徴の変化が決定づけられる場合もあるし、複数の法則の他、乱数等の不確定要素も組み合わさって、経時変化対象の所定の特徴の変化が決定づけられる場合もある。
Here, what changes a predetermined feature in the real world in the time direction according to a certain rule is referred to as a “time-change target” in this specification.
It should be noted that the “constant law” that changes the predetermined characteristics of the object that changes over time is not limited to any kind of law including any natural law, and may not be mathematically expressed. For example, the color becomes red over time. It may be a simple law that tends to become. In addition, a change in a predetermined feature of a temporal change target may be determined by only one type of law, or in addition to a plurality of laws, uncertain elements such as random numbers may be combined to determine a predetermined feature of the temporal change target. In some cases, changes are dictated.

以下の説明では、説明の便宜上、「所定の特徴」として「色」に着目する。即ち、経時変化対象の一例として、一定の法則に従って時間方向に色が変化するものについて、以下説明する。このようなものを、以下、「経時色変化対象」と呼ぶ。   In the following description, for convenience of explanation, “color” is focused as “predetermined feature”. That is, an example in which the color changes in the time direction according to a certain rule will be described below as an example of the temporal change target. Such a device is hereinafter referred to as a “color change target with time”.

例えば、カエデ等の落葉樹は、日本国では秋になると紅葉するため、即ち、時間の経過とともにその葉の色が赤、黄、褐色等に徐々に変化していくため、経時色変化対象の一例である。
図2は、落葉樹の色度の時間変化を示すxyY表色系の色度図である。具体的には図2(A)は、落葉樹の一種類であるイチョウの色度の時間変化を示すxyY表色系の色度図であり、図2(B)は、落葉樹の別の種類であるイロハカエデの色度の時間変化を示すxyY表色系の色度図である。
図2(A)において、曲線LdA,LmA,LuAは、イチョウの各層部の葉の色度が、10月乃至12月にかけて矢印の方向に推移していくことを示している。即ち、曲線LdAは、イチョウの下層部の葉の色度の時間変化を示している。曲線LmAは、イチョウの中層部の葉の色度の時間変化を示している。曲線LuAはイチョウの層部の葉の色度の時間変化を示している。
図2(B)において、曲線LdB,LmB,LuBは、イロハカエデの各層部の葉の色度が、10月乃至12月にかけて矢印の方向に推移していくことを示している。即ち、曲線LdBは、イロハカエデの下層部の葉の色度の時間変化を示している。曲線LmBは、イロハカエデの中層部の葉の色度の時間変化を示している。曲線LuBはイロハカエデの層部の葉の色度の時間変化を示している。
図2に示すように、イチョウとイロハカエデとは共に、時間の経過とともに葉の色が変化していくことがわかる。具体的には、同一の樹木内で比較すると、ここでは、図2(A)内の曲線LdA,LmA,LuA同士を比較したり、図2(B)内の曲線LdB,LmB,LuB同士を比較すると、変化の法則性は、各層部によって色度変化や時期が微妙に異なるが、ほぼ同じ傾向であることがわかる。一方で、イチョウとイロハカエデといったように異なる種類の樹木間で比較すると、ここでは、図2(A)の曲線LdAと図2(B)の曲線LdB同士、図2(A)の曲線LmAと図2(B)の曲線LmB同士、及び図2(A)の曲線LuAと図2(B)の曲線LuB同士を比較すると、変化の法則性は、イチョウとイロハカエデといった樹木の各々の種類に応じて異なっていることがわかる。
このような落葉樹の他、経時色変化対象の例としては、ウメやサクラといった花木や、頭上の空間(空)等が挙げられる。即ち、ウメやサクラといった花木においては、日本国では早春から春にかけて徐々に開花していくことで、枝付近の色が赤やピンクに徐々に変化していく。また、頭上の空間においては、1日の間に時間の経過とともに空の色が徐々に変化していく。
For example, deciduous trees such as maple leaves fall in autumn in Japan, that is, the color of the leaves gradually changes to red, yellow, brown, etc. over time. It is.
FIG. 2 is a chromaticity diagram of the xyY color system showing temporal changes in chromaticity of deciduous trees. Specifically, FIG. 2 (A) is a chromaticity diagram of the xyY color system showing the temporal change in chromaticity of a ginkgo that is one type of deciduous tree, and FIG. 2 (B) is another type of deciduous tree. It is a chromaticity diagram of the xyY color system showing the time change of chromaticity of a certain yellow maple.
In FIG. 2A, curves LdA, LmA, and LuA indicate that the chromaticity of the leaves of each layer of the ginkgo changes in the direction of the arrow from October to December. That is, the curve LdA shows the time change of the chromaticity of the leaf of the lower part of the ginkgo. A curve LmA shows a temporal change in the chromaticity of the leaf of the middle layer of the ginkgo. Curve LuA shows the time variation of the chromaticity of the leaves of the upper layer portion of the ginkgo.
In FIG. 2B, curves LdB, LmB, and LuB indicate that the chromaticity of the leaves of each layer of yellow maple changes in the direction of the arrow from October to December. That is, the curve LdB shows the time change of the chromaticity of the leaf of the lower part of the maple leaf. A curve LmB indicates a temporal change in the chromaticity of the leaf of the middle part of the maple leaf. Curve LuB shows the time variation of the chromaticity of the leaves of the upper layer portion of the Irohakaede.
As shown in FIG. 2, it can be seen that the color of the leaves of both ginkgo and yellow maple changes with time. Specifically, when compared within the same tree, here, the curves LdA, LmA, and LuA in FIG. 2A are compared, or the curves LdB, LmB, and LuB in FIG. By comparison, it can be seen that the law of change has almost the same tendency, although the chromaticity change and timing differ slightly depending on each layer. On the other hand, when comparing between different types of trees such as ginkgo and yellow maple, here, the curves LdA of FIG. 2A and the curves LdB of FIG. 2B, the curves LmA of FIG. When comparing the curves LmB of 2 (B) and the curves LuA of FIG. 2 (A) and the curves LuB of FIG. 2 (B), the law of change depends on the kind of trees such as Ginkgo and Acer palmatum. You can see that they are different.
In addition to such deciduous trees, examples of color change objects over time include flower trees such as ume and cherry, overhead space (sky), and the like. In other words, in Japanese flowers such as ume and cherry blossoms, the color near the branches gradually changes to red or pink by gradually blooming from early spring to spring in Japan. In addition, in the overhead space, the sky color gradually changes over time during the day.

このような経時色変化対象の像が撮像画像に含まれている場合に、撮像装置1は、経時色変化対象の像を含む領域を補正対象として特定する。なお、このような領域を、以下、「特定領域」と呼ぶ。
また、撮像装置1は、補正条件として、撮像時刻とは別の時刻、又は撮像時刻との差分時間を取得する。撮像装置1は、補正条件として撮像時刻とは別の時刻を取得した場合、撮像時刻を現在時刻と、取得した時刻を補正時刻として、現在時刻と補正時刻との差分時間を求める。なお、以下、このようにして求められた差分時間や、補正条件として取得された差分時間を、「条件差分時間」と呼ぶ。
そして、撮像装置1は、経時色変化対象について条件差分時間の間に実世界で生ずる色の変化に応じて、特定領域のデータの色空間の座標を補正する。
このような一連の処理が、経時変化補正処理である。
When such an image of a color change target with time is included in the captured image, the imaging apparatus 1 specifies a region including the image of the color change target with time as a correction target. Hereinafter, such a region is referred to as a “specific region”.
In addition, the imaging device 1 acquires a time different from the imaging time or a difference time from the imaging time as the correction condition. When acquiring a time different from the imaging time as the correction condition, the imaging device 1 obtains a difference time between the current time and the correction time using the imaging time as the current time and the acquired time as the correction time. Hereinafter, the difference time obtained in this way and the difference time acquired as the correction condition are referred to as “conditional difference time”.
Then, the imaging device 1 corrects the coordinates of the color space of the data in the specific area according to the color change that occurs in the real world during the condition difference time for the color change target with time.
Such a series of processes is a temporal change correction process.

さらに以下、図3を参照して、経時変化補正処理について具体的に説明する。
図3は、経時変化補正処理の結果の一例を示している。
例えば、紅葉の見頃の時期よりも少し前の時刻TNに、家と落葉樹を含むシーンが撮像された結果、図3(B)に示すような家像42と落葉樹像43Nとを含む撮像画像41Nのデータが得られたとする。なお、撮像画像41Nを撮像する装置は、撮像装置1であってもよいし、他の装置であってもよい。
このように、撮像画像41Nの撮像時刻(現在時刻)は、紅葉の見頃の時期よりも少し前の時刻TNであったため、ユーザが、紅葉の見頃の時期の画像を得たいと所望したとする。このような場合、ユーザは、操作部17(図1)を操作することによって、紅葉の見頃の時期に相当する未来の時刻TFを設定することができる。
この場合、撮像装置1は、撮像の時刻TNと設定された時刻TFとの差分時間を、条件差分時間として求める。
また、撮像装置1は、撮像画像41Nのデータに基づいて、落葉樹像43Nの葉の部分を特定領域として検出する。
そして、撮像装置1は、落葉樹についての条件差分時間の間に実世界で生ずる葉の色の変化に応じて、特定領域のデータの色空間の座標を補正する。
これにより、図3(B)に示す撮像画像41Nのデータから、図3(A)に示す補正画像41Fのデータが得られる。即ち、撮像の時刻TNから時刻TFまで時間が経過すると実世界では落葉樹の紅葉が進むため、落葉樹の葉の色は、赤色、黄色、褐色等が多くなる。このため、特定領域として検出された葉の部分の多くが赤色、黄色、又は褐色等になるように補正された落葉樹像43Fが、補正画像41Fに含まれる。一方で、実世界の家は時間経過による色の変化は生じないとして、撮像画像41N内の家像42は特定領域として検出されない。その結果、家像42は、補正されずにそのままの状態で補正画像41Fに含まれる。
Further, with reference to FIG. 3, the temporal change correction process will be specifically described below.
FIG. 3 shows an example of the result of the temporal change correction process.
For example, as a result of imaging a scene including a house and a deciduous tree at a time TN slightly before the best time to see autumn leaves, a captured image 41N including a house image 42 and a deciduous tree image 43N as shown in FIG. Is obtained. Note that the apparatus that captures the captured image 41N may be the imaging apparatus 1 or another apparatus.
As described above, since the imaging time (current time) of the captured image 41N is a time TN slightly before the time when the autumn leaves are in full bloom, it is assumed that the user desires to obtain an image at the time when the autumn leaves are in full bloom. . In such a case, the user can set a future time TF corresponding to the best time to see the autumn leaves by operating the operation unit 17 (FIG. 1).
In this case, the imaging device 1 obtains the difference time between the imaging time TN and the set time TF as the condition difference time.
Moreover, the imaging device 1 detects the leaf part of the deciduous tree image 43N as a specific region based on the data of the captured image 41N.
Then, the imaging apparatus 1 corrects the coordinates of the color space of the data in the specific area according to the change in the leaf color that occurs in the real world during the condition difference time for the deciduous tree.
Thereby, the data of the corrected image 41F shown in FIG. 3A is obtained from the data of the captured image 41N shown in FIG. In other words, when the time elapses from the time TN of imaging to the time TF, the autumn leaves of the deciduous tree advance in the real world, and the leaves of the deciduous tree increase in red, yellow, brown, and the like. Therefore, the corrected image 41F includes a deciduous tree image 43F that has been corrected so that most of the leaf portions detected as the specific region are red, yellow, brown, or the like. On the other hand, the house image 42 in the captured image 41N is not detected as a specific area, assuming that the real-world house does not change in color over time. As a result, the house image 42 is included in the corrected image 41F without being corrected.

なお、1日単位でみると、実世界の家の色も朝昼晩によって刻々と変化する場合がある。ただし、図3の例では、実世界の落葉樹の葉の色の時間変化とは、日本国の秋から冬までといった長期的なスパンでの時間変化を意味しているため、このような1日単位の時間変化は無視している。しかしながら、このような1日単位の時間変化を考慮して、経時変化補正処理を実行することも当然ながら可能である。   In addition, when viewed on a daily basis, the color of a real-world house may change from morning to night. However, in the example of FIG. 3, the time change in the color of the leaves of the deciduous tree in the real world means a time change over a long span such as autumn to winter in Japan. The time change of the unit is ignored. However, it is of course possible to execute the temporal change correction process in consideration of such a daily time change.

ここで、経時色変化対象についての実世界での色の時間変化に応じた補正を可能にするために、経時色変化対象についての実世界での色の時間変化の特性を示す情報が、撮像装置1に予め保持されているものとする。なお、このような情報を、以下、「時間色変化特性情報」と呼ぶ。
例えば、実世界の経時色変化対象について、その色の時間推移を実測した情報や、その色の時間変化の法則性を示す情報が、時間色変化特性情報の一例である。
具体的には例えば、図2(A)に示す曲線LdA,LmA,LuA特定可能な情報を、イチョウの時間色変化特性情報として採用することができる。
この場合、撮像装置1は、撮像画像中のイチョウの葉の部分を特定領域として、当該イチョウの時間色変化特性情報を用いて特定領域の色空間の座標を補正する。即ち、撮像装置1は、図2(A)に示す曲線LdA,LmA,LuAのうち、撮像の時刻TNに対応する点(同図中灰色の点)の色度座標と、補正後の時刻TFに対応する点(同図中黒色の点)の色度座標とに基づいて、補正内容を決定する。そして、撮像装置1は、決定した補正内容に従って、特定領域のデータの色空間の座標を補正する。
Here, in order to enable correction according to the temporal change of the color in the real world for the temporal color change target, information indicating the characteristics of the temporal color change in the real world for the temporal color change target is captured. It is assumed that the device 1 holds it in advance. Such information is hereinafter referred to as “temporal color change characteristic information”.
For example, with respect to a color change target with time in the real world, information indicating the time transition of the color and information indicating the law of the time change of the color are examples of the time color change characteristic information.
Specifically, for example, curve LdA shown in FIG. 2 (A), LMA, specific information capable of LUA, can be employed as a time change in color characteristic information of ginkgo.
In this case, the imaging apparatus 1 uses the ginkgo leaf portion in the captured image as the specific area, and corrects the coordinates of the color space of the specific area using the temporal color change characteristic information of the ginkgo. That is, the imaging apparatus 1 uses the chromaticity coordinates of the point corresponding to the imaging time TN (gray point in the figure) of the curves LdA, LmA, and LuA shown in FIG. 2A and the corrected time TF. The correction content is determined based on the chromaticity coordinates of the point corresponding to (black point in the figure). Then, the imaging apparatus 1 corrects the coordinates of the color space of the data in the specific area according to the determined correction content.

さらに、ユーザは、撮像の時刻TNに対して未来の時刻のみならず、過去の時刻も設定することができる。例えば、撮像の時刻TNに対して過去の時刻TPが設定された場合にも、経時変化補正処理として、上述した一連の処理が実行される。
これにより、図3(B)に示す撮像画像41Nのデータから、図3(C)に示す補正画像41Pのデータが得られる。
即ち、撮像の時刻TNから時刻TPまで時間が戻る(逆方向に経過する)と、実世界の落葉樹は紅葉前の状態となるため、その葉の色は緑色が多くなる。このため、特定領域として検出された葉の部分の多くが緑色となるように補正された落葉樹像43Pが、補正画像41Pに含まれる。一方で、実世界の家は時間経過による色の変化は生じないとして、撮像画像41N内の家像42は特定領域として検出されない。その結果、家像42は、補正されずにそのまま補正画像41Pに含まれる。
Furthermore, the user can set not only the future time but also the past time with respect to the imaging time TN. For example, even when the past time TP is set with respect to the imaging time TN, the above-described series of processing is executed as the temporal change correction processing.
Thereby, the data of the corrected image 41P shown in FIG. 3C is obtained from the data of the captured image 41N shown in FIG.
That is, when the time returns from the imaging time TN to the time TP (elapses in the reverse direction), the deciduous tree in the real world is in a state before the autumn leaves, so the color of the leaves increases in green. Therefore, the corrected image 41P includes the deciduous tree image 43P corrected so that most of the leaf portions detected as the specific region are green. On the other hand, the house image 42 in the captured image 41N is not detected as a specific area, assuming that the real-world house does not change in color over time. As a result, the house image 42 is included in the corrected image 41P as it is without being corrected.

図4は、このような経時変化補正処理を実行する撮像装置1の機能的構成を示す機能ブロック図である。   FIG. 4 is a functional block diagram showing a functional configuration of the imaging apparatus 1 that executes such a temporal change correction process.

図4に示すように、撮像装置1は、経時変化補正処理を実現すべく、撮像画像取得部51と、撮像条件取得部52と、補正条件取得部53と、条件差分取得部54と、特定領域検出部55と、変化データ取得部56と、特定領域補正部57と、補正画像生成部58と、時間変化特性情報決定部59と、時間変化特性情報記憶部60と、を備えている。   As illustrated in FIG. 4, the imaging device 1 includes a captured image acquisition unit 51, an imaging condition acquisition unit 52, a correction condition acquisition unit 53, a condition difference acquisition unit 54, and a specification so as to realize a temporal change correction process. An area detection unit 55, a change data acquisition unit 56, a specific area correction unit 57, a corrected image generation unit 58, a time change characteristic information determination unit 59, and a time change characteristic information storage unit 60 are provided.

本実施形態では、撮像画像取得部51乃至時間変化特性情報決定部59の各々は、図1に示す構成のうち、CPU11というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
また、時間変化特性情報記憶部60は、図1に示す構成のうち、撮像装置1のRAM13若しくは記憶部19、又はリムーバブルメディア31内の一領域として構成されている。なお、時間変化特性情報記憶部60は、撮像装置1以外の他の装置、例えばサーバ等に保持され、撮像装置1が、経時変化補正処理を実行する際に通信部20を制御して、他の装置に保持された時間変化特性情報記憶部60にアクセスするようにしてもよい。
In the present embodiment, each of the captured image acquisition unit 51 to the time change characteristic information determination unit 59 is a combination of the hardware called the CPU 11 and the program (software) stored in the ROM 12 or the like in the configuration shown in FIG. It is configured.
In addition, the time change characteristic information storage unit 60 is configured as an area in the RAM 13 or the storage unit 19 of the imaging apparatus 1 or the removable medium 31 in the configuration illustrated in FIG. 1. Note that the time change characteristic information storage unit 60 is held in a device other than the imaging device 1, such as a server, and the imaging device 1 controls the communication unit 20 when executing the temporal change correction process. You may make it access the time change characteristic information storage part 60 hold | maintained at this apparatus.

このような撮像画像取得部51乃至時間変化特性情報決定部59の各々の詳細にについて、図5を適宜参照しつつ説明する。
図5は、図4の撮像装置1が実行する経時変化補正処理の流れを説明するフローチャートである。
Details of each of the captured image acquisition unit 51 to the time change characteristic information determination unit 59 will be described with reference to FIG. 5 as appropriate.
FIG. 5 is a flowchart for explaining the flow of the temporal change correction process executed by the imaging apparatus 1 of FIG.

ステップS1において、時間変化特性情報決定部59は、例えば、山並み、山林、樹木等のシーンを1単位としたり、樹木や植生の各種類を1単位として設定し、設定した単位毎に、時間色変化特性情報をそれぞれ設定する。
なお、前述の単位は例示であり、任意の単位を採用することができる。この場合、階層化した単位を採用することもできる。
例えば上述したイチョウやイロハカエデ等の落葉樹の所定の種類が単位として採用された場合、当該単位をさらに、空間方向の複数の単位に区分(階層化)することもできる。即ち、同一の日時であっても、紅葉の進み具合は、日本国の南部の九州地方と北部の東北地方とでは異なる。そこで、落葉樹の所定の種類の単位の下層の単位として、日本国の各地方を採用することができる。この場合、所定種類の落葉樹について、日本国の各地方毎に、葉の色の時間変化を示す時間色変化特性情報がそれぞれ設定されることになる。
また、時間色変化特性情報の形態は特に限定されず、例えば、HSB値(色相H、彩度S、及び明度Bの各値)の時間推移、XYZ色度座標の色度の時間推移、L*a*b*色空間座標の時間推移等を採用することができる。
このようにして、時間変化特性情報決定部59により単位毎に設定された時間色変化特性情報は、時間変化特性情報記憶部60に記憶される。
In step S1, the time variation characteristic information determination unit 59 sets, for example, a scene such as a mountain range, a forest, or a tree as one unit, or sets each type of tree or vegetation as one unit, and sets a time color for each set unit. Set each change characteristic information.
In addition, the above-mentioned unit is an illustration, Arbitrary units can be employ | adopted. In this case, hierarchized units may be employed.
For example, when a predetermined type of deciduous tree such as ginkgo or yellow maple is used as a unit, the unit can be further divided (hierarchized) into a plurality of units in the spatial direction. That is, even with the same date and time, the progress of autumn leaves differs between the Kyushu region in the south of Japan and the Tohoku region in the north. Therefore, each region of Japan can be adopted as a unit below the predetermined type of deciduous tree. In this case, for a predetermined type of deciduous tree, time color change characteristic information indicating a time change in leaf color is set for each region in Japan.
The form of temporal color change characteristic information is not particularly limited. For example, the time transition of HSB values (each value of hue H, saturation S, and lightness B), the time transition of chromaticity in XYZ chromaticity coordinates, L * a * b * Time transition of color space coordinates, etc. can be adopted.
In this way, the time color change characteristic information set for each unit by the time change characteristic information determination unit 59 is stored in the time change characteristic information storage unit 60.

なお、このようなステップS1の処理と、後述するステップS2以降の処理とは、時間的に連続している必要は特に無く、ステップS2の処理前にステップS1の処理が終了していれば足りる。即ち、予めステップS1の処理が実行されて、各単位毎の時間色変化特性情報が時間変化特性情報記憶部60に記憶された後であれば、撮像装置1は、任意のタイミングで、ステップS2以降の処理を実行することができる。
従って、経時変化補正処理が、後述する図6の撮像処理や図7の表示処理のサブルーチン処理として実行される場合、各単位毎の時間色変化特性情報が時間変化特性情報記憶部60に既に記憶されているときには、ステップS1の処理は適宜省略することができる。
Note that the processing in step S1 and the processing in step S2 and later described below do not have to be continuous in time, and it is sufficient that the processing in step S1 is completed before the processing in step S2. . That is, after the process of step S1 is executed in advance and the time color change characteristic information for each unit is stored in the time change characteristic information storage unit 60, the imaging apparatus 1 performs step S2 at an arbitrary timing. Subsequent processing can be executed.
Therefore, when the temporal change correction process is executed as a subroutine process of an imaging process shown in FIG. 6 or a display process shown in FIG. 7 described later, the time color change characteristic information for each unit is already stored in the time change characteristic information storage unit 60. If so, the process of step S1 can be omitted as appropriate.

ステップS2において、撮像画像取得部51は、撮像画像のデータを取得する。
ここで、撮像画像の撮像時刻(現在時刻)は、ステップS2の処理タイミングと同期した時刻である必要は特に無く、ステップS2の処理以前の任意の時刻でよい。即ち、撮像画像取得部51は、過去の任意のタイミングで撮像された撮像画像のデータを取得することができる。
また、撮像画像のデータは、撮像装置1によって撮像されたものである必要は特に無く、別の装置によって撮像されたものでもよい。
従って、撮像画像取得部51は、撮像部16から出力された撮像画像のデータを直接取得する他、他の装置から送信されて通信部20に受信された撮像画像のデータや、リムーバブルメディア31からドライブ22によって読み出された撮像画像のデータ等を適宜取得することができる。
なお、以下、図5のフローチャートの流れの理解を容易なものとすべく、ステップS2の処理で、図3(B)に示すような家像42と落葉樹像43Nとを含む撮像画像41Nのデータが取得された場合における、後述する各ステップの処理の例を、「具体例」と呼ぶ。
In step S2, the captured image acquisition unit 51 acquires captured image data.
Here, the imaging time (current time) of the captured image need not be a time synchronized with the processing timing of step S2, and may be an arbitrary time before the processing of step S2. That is, the captured image acquisition unit 51 can acquire captured image data captured at an arbitrary timing in the past.
The captured image data need not be captured by the image capturing apparatus 1 and may be captured by another apparatus.
Therefore, the captured image acquisition unit 51 directly acquires the captured image data output from the imaging unit 16, and also the captured image data transmitted from another device and received by the communication unit 20, and the removable media 31. Data of the captured image read by the drive 22 can be acquired as appropriate.
In the following, in order to facilitate understanding of the flow of the flowchart of FIG. 5, the data of the captured image 41N including the house image 42 and the deciduous tree image 43N as shown in FIG. An example of processing at each step to be described later when is acquired is referred to as a “specific example”.

ステップS3において、撮像条件取得部52は、ステップS2の処理で取得された撮像画像のデータに関する撮像条件を取得する。
撮像条件としては、撮像画像の撮像時刻(現在時刻)や、基準時刻(例えば紅葉の見頃の時期)と撮像時刻との差分時間といった、撮像画像の時間条件が少なくとも含まれている。
具体例としては、撮像画像41Nの撮像時刻は、紅葉の見頃の時期よりも少し前の時刻TNであるため、当該時刻TNが撮像条件の少なくとも1つとして取得される。
その他の条件は、任意であり、本実施形態では、撮像位置等、撮像画像の位置条件が撮像条件にさらに含まれている。例えば、撮像画像が撮像装置1により撮像されたものである場合、撮像時点にGPS部21(図1)から出力されたGPS位置情報が、撮像画像の位置条件として取得される。また、ユーザが操作部17(図1)を操作して撮像画像についての位置情報を入力した場合、入力された位置情報が、撮像画像の位置条件として取得される。
In step S3, the imaging condition acquisition unit 52 acquires imaging conditions related to the data of the captured image acquired in the process of step S2.
The imaging condition includes at least a time condition of the captured image such as an imaging time (current time) of the captured image and a difference time between the reference time (for example, the best time to see autumn leaves) and the imaging time.
As a specific example, since the imaging time of the captured image 41N is a time TN slightly before the best time to see autumn leaves, the time TN is acquired as at least one of the imaging conditions.
The other conditions are arbitrary, and in the present embodiment, the imaging conditions such as the imaging position are further included in the imaging conditions. For example, when the captured image is captured by the image capturing apparatus 1, GPS position information output from the GPS unit 21 (FIG. 1) at the time of capturing is acquired as the position condition of the captured image. Further, when the user operates the operation unit 17 (FIG. 1) and inputs position information about the captured image, the input position information is acquired as a position condition of the captured image.

ステップS4において、補正条件取得部53は、ステップS2の処理で取得された撮像画像のデータに対する補正条件を取得する。
補正条件としては、補正時刻や、基準時刻(例えば紅葉の見頃の時期)と補正時刻との差分時間といった、補正後の画像の時間条件が少なくとも含まれている。
具体例としては、例えばユーザが、操作部17(図1)を操作することによって、紅葉の見頃の時期に相当する未来の時刻TFを設定した場合には、当該未来の時刻TFが補正条件の少なくとも1つとして取得される。
その他の条件は、任意であり、本実施形態では、補正後の画像により表現される場所等、位置条件が補正条件にさらに含まれている。例えば、補正後の画像により表現される場所がステップS4の処理時点の撮像装置1の存在場所である場合には、ステップS4の処理時点にGPS部21から出力されたGPS位置情報が、補正条件の1つである位置条件として取得される。また、ユーザが操作部17を操作して補正後の位置情報を入力した場合、入力された位置情報が、補正条件の1つである位置条件として取得される。
補正条件の取得手法は、特に限定されず、例えば、ユーザが操作部17を操作することによって設定した条件を、補正条件として取得する手法を採用することができる。また例えば、ユーザの操作を介さずに撮像装置1が自律的な判断で設定した条件、即ち自動的に設定した条件を、補正条件として取得する手法を採用することができる。さらに、これらの手法を単体で用いてもよいし、組み合わせて用いてもよい。
In step S4, the correction condition acquisition unit 53 acquires correction conditions for the captured image data acquired in the process of step S2.
The correction condition includes at least a time condition of the corrected image, such as a correction time and a difference time between a reference time (for example, the best time to see autumn leaves) and the correction time.
As a specific example, for example, when the user sets a future time TF corresponding to the best time to see autumn leaves by operating the operation unit 17 (FIG. 1), the future time TF is the correction condition. Acquired as at least one.
Other conditions are arbitrary, and in the present embodiment, position conditions such as a place represented by a corrected image are further included in the correction conditions. For example, when the location represented by the corrected image is the location where the imaging device 1 is present at the time of processing in step S4, the GPS position information output from the GPS unit 21 at the time of processing in step S4 is the correction condition. Is acquired as a position condition which is one of the following. When the user operates the operation unit 17 and inputs corrected position information, the input position information is acquired as a position condition that is one of the correction conditions.
The correction condition acquisition method is not particularly limited, and for example, a method of acquiring a condition set by the user operating the operation unit 17 as the correction condition can be employed. Further, for example, it is possible to employ a method of acquiring, as the correction condition, a condition set by the imaging apparatus 1 by autonomous determination without the user's operation, that is, a condition set automatically. Furthermore, these methods may be used alone or in combination.

ステップS5において、条件差分取得部54は、ステップS3の処理で取得された撮像条件と、ステップS4の処理で取得された補正条件との差分(以下、「条件差分」と呼ぶ)を取得する。
上述したように、撮像条件及び補正条件の各々には時間条件が少なくとも含まれている。よって、撮像時刻(現在時刻)と補正時刻との差分時間、即ち条件差分時間が、条件差分の1つとして少なくとも取得される。
具体例としては、撮像の時刻TNと未来時刻TFとの差分時間(=TF−TN)が、条件差分時間として取得される。
また、本実施形態では、撮像条件及び補正条件の各々には位置条件が少なくとも含まれている。よって、撮像画像の位置条件と補正後の位置条件との差分、即ち、緯度や経度等の補正前後の偏差を示す情報(このような情報を、以下、「条件差分位置」と呼ぶ)も、条件差分の1つとして取得される。
In step S5, the condition difference acquisition unit 54 acquires a difference (hereinafter referred to as “condition difference”) between the imaging condition acquired in the process of step S3 and the correction condition acquired in the process of step S4.
As described above, each of the imaging condition and the correction condition includes at least a time condition. Therefore, the difference time between the imaging time (current time) and the correction time, that is, the condition difference time is acquired as at least one of the condition differences.
As a specific example, the difference time (= TF−TN) between the imaging time TN and the future time TF is acquired as the condition difference time.
In the present embodiment, each of the imaging condition and the correction condition includes at least a position condition. Therefore, the difference between the position condition of the captured image and the corrected position condition, that is, information indicating the deviation before and after correction such as latitude and longitude (such information is hereinafter referred to as “conditional difference position”) is also Acquired as one of the condition differences.

ステップS6において、撮像画像取得部51は、撮像画像のデータを、カラー領域画像の形態に変換する。
即ち、本実施形態では、撮像画像のデータは、明度情報(輝度情報)と色彩情報とが分離されていない色空間(RGB空間やXYZ空間)の各画素の色情報の集合体である。このため、撮像画像のデータをそのまま用いると、領域毎の特徴が判別しにくく、後述するステップS7の特定領域のデータの抽出の精度に影響を及ぼすおそれもある。
そこで、撮像画像取得部51は、撮像画像のデータを構成する各画素の色情報を、明度情報(輝度情報)と色彩情報とが分離された色空間(HSV空間やL*a*b*空間等)の色情報に変換する。このような明度情報と色彩情報とが分離された色空間で表現される画像を、ここでは「カラー領域画像」と呼称している。
具体例としては、図3(B)に示す撮像画像41Nのデータが、カラー領域画像の形態に変換される。ただし、以下の具体例の説明では、説明の便宜上、図3(B)をそのまま参照して説明する。
In step S6, the captured image acquisition unit 51 converts the captured image data into a color area image format.
That is, in the present embodiment, the captured image data is a collection of color information of each pixel in a color space (RGB space or XYZ space) in which lightness information (luminance information) and color information are not separated. For this reason, if the data of the captured image is used as it is, it is difficult to distinguish the features for each region, which may affect the accuracy of data extraction for a specific region in step S7 described later.
Therefore, the captured image acquisition unit 51 uses color space (HSV space or L * a * b * space) in which lightness information (luminance information) and color information are separated as color information of each pixel constituting the captured image data. Etc.) color information. An image expressed in a color space in which lightness information and color information are separated is called a “color region image”.
As a specific example, the data of the captured image 41N shown in FIG. 3B is converted into a color area image form. However, in the following description of the specific example, for convenience of explanation, description will be made with reference to FIG.

ステップS7において、特定領域検出部55は、撮像画像のデータから、特定領域のデータを検出する。
特定領域は、経時色変化対象の像を含む領域であれば足り、その種類は特に限定されない。例えば、空、山並み、山林、樹木、海川湖沼、人物の顔等の像を含む領域のデータが、特定領域のデータとして検出される。
さらに、ステップS7の処理で検出される特定領域の個数は、特に限定されず、単数であってもよいし、任意の複数であってもよい。
複数の特定領域が検出される場合には、任意の一の特定領域は、他の特定領域と関連する領域であってもよいし、他の特定領域とは独立した領域であってもよい。即ち、複数の特定領域の各々の種類は、他の特定領域と同一となる場合もあるし、異なる場合もある。なお、ここでは、説明の便宜上、経時色変化対象の種類毎に特定領域が検出されるものとする。
具体例としては、図3(B)に示す撮像画像41Nのうち、落葉樹像43Nの葉の部分のデータのみが、特定領域のデータとして検出される。
In step S <b> 7, the specific area detection unit 55 detects specific area data from the captured image data.
The specific region is not particularly limited as long as it is a region including an image of a color change target with time. For example, area data including images such as sky, mountain ranges, forests, trees, sea river lakes, and human faces is detected as specific area data.
Furthermore, the number of specific areas detected in the process of step S7 is not particularly limited, and may be a single area or an arbitrary plural area.
When a plurality of specific areas are detected, any one specific area may be an area associated with another specific area, or may be an area independent of the other specific areas. In other words, each type of the plurality of specific areas may be the same as or different from other specific areas. Here, for convenience of explanation, it is assumed that a specific area is detected for each type of color change target with time.
As a specific example, only the data of the leaf portion of the deciduous tree image 43N in the captured image 41N shown in FIG.

ステップS8において、特定領域補正部57は、ステップS7の処理で検出された1以上の特定領域の中から、所定の1つを、処理の対象として注目すべき領域(以下、「注目領域」と呼ぶ)として抽出する。
具体例としては、図3(B)に示す撮像画像41Nのうち、落葉樹像43Nの葉の部分(特定領域)が、注目領域として抽出される。
In step S8, the specific area correction unit 57 selects a predetermined one of the one or more specific areas detected in the process of step S7 as a process target (hereinafter referred to as “target area”). To be extracted).
As a specific example, a leaf portion (specific region) of the deciduous tree image 43N is extracted as a region of interest in the captured image 41N illustrated in FIG.

ステップS9において、特定領域補正部57は、ステップS7の処理で注目領域として抽出した特定領域を構成する各画素の中から、所定の1つを、処理の対象として注目すべき画素(以下、「注目画素」と呼ぶ)として設定する。
具体例としては、図3(B)に示す撮像画像41Nの落葉樹像43Nの葉の部分(注目領域)を構成する画素群のうち、所定の1つの画素が、注目画素に設定される。
In step S <b> 9, the specific area correction unit 57 selects a predetermined one of the pixels constituting the specific area extracted as the attention area in the process of step S <b> 7 as a processing target (hereinafter, “ This is referred to as a “pixel of interest”.
As a specific example, a predetermined one pixel is set as a pixel of interest in a pixel group constituting a leaf portion (region of interest) of the deciduous tree image 43N of the captured image 41N shown in FIG. 3B.

ステップS10において、変化データ取得部56は、ステップS5の処理で取得された条件差分と、ステップS8の処理で注目領域として設定された特定領域の種類等に基づいて、適切な時間色変化特性情報を時間変化特性情報記憶部60から特定し、特定された時間色変化特性情報に基づいて、注目画素に対する変化データを取得する。
ステップS11において、特定領域補正部57は、注目画素のデータを、当該変化データに変換する。
ここで、変化データとは、注目画素の更新後の色度座標(画素値の1種類)をいい、時間色変化特性情報そのものを示すデータであってもよいし、時間色変化特性情報に基づいて生成されるデータであってもよい。なお、変化データとして取得される色度座標の色空間は、特に限定されないが、ステップS6の処理で変換されたカラー領域画像により特定される色空間であれば、変化データをそのまま注目画素の補正後の画素値として採用できるので好適である。
具体例としては、例えば、ステップS2の処理で取得された撮像画像41Nに含まれる落葉樹像43Nが、イチョウの像であり、図2(A)に示す曲線LdA,LmA,LuAを特定可能な情報が、ステップS1の処理で時間色変化特性情報として設定されたものとする。この場合、ステップS10の処理で、図2(A)に示す曲線LdA,LmA,LuAのうち、撮像の時刻TNに対応する点(同図中灰色の点)の色度座標と、補正後の時刻TFに対応する点(同図中黒色の点)の色度座標とに基づいて、注目画素の変化データが取得される。そして、ステップS11の処理で、注目画素のデータが、当該変化データに取得される。
In step S10, the change data acquisition unit 56 selects appropriate temporal color change characteristic information based on the condition difference acquired in the process of step S5 and the type of the specific area set as the attention area in the process of step S8. Is determined from the time change characteristic information storage unit 60, and change data for the target pixel is acquired based on the specified time color change characteristic information.
In step S11, the specific area correction unit 57 converts the data of the target pixel into the change data.
Here, the change data refers to the chromaticity coordinates (one type of pixel value) after updating the target pixel, and may be data indicating the temporal color change characteristic information itself, or based on the temporal color change characteristic information. May be generated. The color space of the chromaticity coordinates acquired as the change data is not particularly limited. However, if the color space is specified by the color area image converted in the process of step S6, the change data is directly corrected for the target pixel. Since it can employ | adopt as a later pixel value, it is suitable.
As a specific example, for example, the deciduous tree image 43N included in the captured image 41N acquired in the process of step S2 is a ginkgo image, and information that can specify the curves LdA, LmA, and LuA shown in FIG. However, it is assumed that the time color change characteristic information is set in the process of step S1. In this case, in the process of step S10, the chromaticity coordinates of the point corresponding to the imaging time TN (gray point in the figure) of the curves LdA, LmA, and LuA shown in FIG. Based on the chromaticity coordinates of the point corresponding to the time TF (black point in the figure), change data of the target pixel is acquired. Then, in the process of step S <b> 11, the pixel-of-interest data is acquired as the change data.

ステップS12において、特定領域補正部57は、注目画素は、注目領域内の最後の画素か否かを判定する。
注目領域内に注目画素として未だ設定されていない画素が存在する場合、ステップS12においてNOであると判定されて、処理はステップS9に戻され、それ以降の処理が繰り返される。
即ち、注目領域内の各画素の各々が注目画素に設定される毎に、ステップS9乃至S12のループ処理が繰り返し実行され、条件差分にとって適切な色を示す色度座標が、注目画素の変化データとして取得され、注目画素のデータ(画素値)が変化データにその都度更新される。
その後、注目領域内の全画素が注目画素に設定されて、全画素のデータが各々の変化データに変換されると、ステップS12においてYESであると判定されて、処理はステップS13に進む。
具体例としては、図3(B)に示す撮像画像41Nの落葉樹像43Nの葉の部分(注目領域)を構成する画素群の全てが、注目画素に設定されて、当該葉の部分を構成する画素群の全画素のデータが各々の変化データに変換されると、ステップS12においてYESであると判定されて、処理はステップS13に進む。
In step S12, the specific area correction unit 57 determines whether or not the target pixel is the last pixel in the target area.
If there is a pixel that has not yet been set as the target pixel in the target region, it is determined NO in step S12, the process returns to step S9, and the subsequent processes are repeated.
That is, each time each pixel in the attention area is set as the attention pixel, the loop processing of Steps S9 to S12 is repeatedly executed, and the chromaticity coordinates indicating the color suitable for the condition difference are the change data of the attention pixel. And the data (pixel value) of the pixel of interest is updated to change data each time.
Thereafter, when all the pixels in the attention area are set as the attention pixels and the data of all the pixels are converted into the respective change data, it is determined as YES in Step S12, and the process proceeds to Step S13.
As a specific example, all of the pixel groups constituting the leaf part (attention area) of the deciduous tree image 43N of the captured image 41N shown in FIG. 3B are set as the attention pixel to constitute the leaf part. When the data of all the pixels in the pixel group is converted into each change data, it is determined as YES in Step S12, and the process proceeds to Step S13.

ステップS13において、特定領域補正部57は、注目領域は、ステップS7の処理で検出された1以上の特定領域の中で最後の特定領域か否かを判定する。
ステップS7の処理で検出された1以上の特定領域の中に、注目領域として未だ設定されていない特定領域が存在する場合、ステップS13においてNOであると判定されて、処理はステップS8に戻されそれ以降の処理が繰り返される。
即ち、ステップS7の処理で検出された1以上の特定領域の各々が注目領域に設定される毎に、ステップS9乃至S13のループ処理が繰り返し実行され、注目領域を構成する各画素のデータ(画素値)が、条件差分にとって適切な色を示す色度座標の各々に変換される。
その後、ステップS7の処理で検出された1以上の特定領域の全てが注目領域に設定されて、全注目領域についての補正が終了すると、ステップS13においてYESであると判定されて、処理はステップS14に進む。
具体例としては、図3(B)に示す撮像画像41Nのうち特定領域は、落葉樹像43Nの葉の部分のみであるため、当該葉の部分が注目領域に設定されて補正が終了すると、ステップS13においてYESであると判定されて、処理はステップS14に進む。
In step S13, the specific area correction unit 57 determines whether or not the attention area is the last specific area among the one or more specific areas detected in the process of step S7.
If there is a specific area that has not yet been set as the attention area among the one or more specific areas detected in the process of step S7, it is determined as NO in step S13, and the process returns to step S8. The subsequent processing is repeated.
That is, every time one or more specific areas detected in the process of step S7 are set as the attention area, the loop process of steps S9 to S13 is repeatedly executed, and the data (pixels) of each pixel constituting the attention area is repeatedly executed. Value) is converted into each of the chromaticity coordinates indicating the appropriate color for the condition difference.
After that, when all of the one or more specific areas detected in the process of step S7 are set as the attention area and the correction for all the attention areas is completed, it is determined as YES in step S13, and the process proceeds to step S14. Proceed to
As a specific example, since the specific region of the captured image 41N shown in FIG. 3B is only the leaf portion of the deciduous tree image 43N, when the correction is completed after the leaf portion is set as the attention region, the step It is determined as YES in S13, and the process proceeds to step S14.

ステップS14において、補正画像生成部58は、ステップS8乃至S13のループ処理の繰り返しの結果得られた、1以上の補正後の特定領域の各々のデータを、撮像画像のデータに合成することによって、補正画像のデータを生成する。
具体例としては、図3(B)に示す落葉樹像43Nの葉の部分の補正後のデータが、撮像画像41Nのデータに合成され、その結果、図3(A)に示す補正画像41Fのデータ(ただし、この段階のデータの形態はカラー領域画像である)が生成される。
In step S14, the corrected image generation unit 58 combines the data of each of the one or more corrected specific regions obtained as a result of repeating the loop processing of steps S8 to S13 with the data of the captured image. Generate corrected image data.
As a specific example, the corrected data of the leaf portion of the deciduous tree image 43N shown in FIG. 3B is combined with the data of the captured image 41N, and as a result, the data of the corrected image 41F shown in FIG. (However, the data format at this stage is a color area image).

ステップS15において、補正画像生成部58は、補正画像のデータに対して、アンチエリアシング処理、スムージング処理、鮮鋭化処理等の後処理を適宜実行する。   In step S15, the corrected image generation unit 58 appropriately performs post-processing such as anti-aliasing processing, smoothing processing, and sharpening processing on the corrected image data.

ステップS16において、補正画像生成部58は、補正画像のデータを、カラー領域画像の形態から元の形態、即ちRGB空間やXYZ空間の色情報の形態に変換する。
具体例としては、補正画像41Fのデータが、図3(A)に示すように、図3には図示せぬカラー領域画像の形態から、図3(A)に示すような色情報の形態に変換される。
In step S16, the corrected image generation unit 58 converts the corrected image data from the color area image form to the original form, that is, the color information form in the RGB space or XYZ space.
As a specific example, as shown in FIG. 3A, the data of the corrected image 41F is changed from a color area image form not shown in FIG. 3 to a color information form shown in FIG. Converted.

これにより、経時変化補正処理が終了する。
このようにして、撮像画像のデータが補正され、その結果、1以上の特定領域の各々が条件差分にとって適切な色に変化した補正画像のデータが得られる。
具体例としては、図3(B)に示す撮像画像41Nのデータから、図3(A)に示す補正画像41Fのデータが得られる。即ち、撮像の時刻TNから未来の時刻TFまで時間が経過すると実世界では落葉樹の紅葉が進むため、落葉樹の葉の色は、赤色、黄色、褐色等が多くなる。このため、特定領域として検出された葉の部分の多くが赤色、黄色、又は褐色等になるように補正された落葉樹像43Fが、補正画像41Fに含まれる。一方で、実世界の家は時間経過による色の変化は生じないとして、撮像画像41N内の家像42は特定領域として検出されない。その結果、家像42は、補正されずにそのままの状態で補正画像41Fに含まれる。
Thereby, the temporal change correction process ends.
In this way, the captured image data is corrected, and as a result, corrected image data is obtained in which each of the one or more specific areas has changed to a color suitable for the condition difference.
As a specific example, data of the corrected image 41F shown in FIG. 3A is obtained from the data of the captured image 41N shown in FIG. In other words, when the time elapses from the imaging time TN to the future time TF, the autumn leaves of the deciduous tree advance in the real world, and the colors of the leaves of the deciduous tree are red, yellow, brown, and the like. Therefore, the corrected image 41F includes a deciduous tree image 43F that has been corrected so that most of the leaf portions detected as the specific region are red, yellow, brown, or the like. On the other hand, the house image 42 in the captured image 41N is not detected as a specific area, assuming that the real-world house does not change in color over time. As a result, the house image 42 is included in the corrected image 41F without being corrected.

以上、図2乃至図5を参照して、経時変化補正処理について説明した。
このような経時変化補正処理の結果得られた補正画像のデータは、各種各様の処理に用いることができる。換言すると、経時変化補正処理は、各種各様の処理前後に独立して実行される他、各種各様のサブルーチン処理とすることもできる。
例えば、経時変化補正処理は、撮像処理や表示処理のサブルーチン処理とすることもできる。なお、撮像処理とは、撮像画像のデータを記録するまでの一連の処理をいう。表示処理とは、撮像画像を表示するまでの一連の処理をいう。
経時変化補正処理をサブルーチン処理として含む撮像処理では、経時変化補正処理の結果得られた補正画像のデータを記録することが可能になる。また、経時変化補正処理をサブルーチン処理として含む表示処理では、経時変化補正処理の結果得られた補正画像を表示することが可能になる。
以下、経時変化補正処理をサブルーチン処理として含む撮像処理と表示処理との各々について、その順番で個別に説明する。
The temporal change correction process has been described above with reference to FIGS. 2 to 5.
The data of the corrected image obtained as a result of such aging correction processing can be used for various types of processing. In other words, the temporal change correction process is independently executed before and after various processes, and can be a various subroutine process.
For example, the temporal change correction process may be a subroutine process of an imaging process or a display process. Note that the imaging process refers to a series of processes until recording of captured image data. Display processing refers to a series of processing until a captured image is displayed.
In the imaging process including the temporal change correction process as a subroutine process, it is possible to record the corrected image data obtained as a result of the temporal change correction process. Further, in the display process including the temporal change correction process as a subroutine process, it is possible to display a corrected image obtained as a result of the temporal change correction process.
Hereinafter, each of the imaging process and the display process including the temporal change correction process as a subroutine process will be individually described in the order.

図6は、本発明が適用される撮像処理であって、経時変化補正処理をサブルーチン処理として含む撮像処理の流れを示すフローチャートである。   FIG. 6 is a flowchart showing the flow of the imaging process to which the present invention is applied and including the temporal change correction process as a subroutine process.

撮像処理は、例えばユーザが撮像を指示する操作を操作部17(図1)に対して行った場合、その操作を契機として開始される。即ち、次のような処理が実行される。   For example, when the user performs an operation for instructing imaging on the operation unit 17 (FIG. 1), the imaging process is started when the operation is performed. That is, the following processing is executed.

ステップS21において、図1のCPU11は、スルー撮像とスルー表示を行う。
即ち、CPU11は、撮像部16による撮像動作を継続させ、その間に所定時間間隔毎に撮像部16から順次出力される撮像画像(以下、「フレーム画像」と適宜呼ぶ)のデータを、RAM13や記憶部19等のメモリに一時的に記憶させる。このようなCPU11の一連の処理が、ここでいう「スルー撮像」である。
また、CPU11は、スルー撮像時にメモリに一時的に記録された各フレーム画像のデータを順次読み出して、それぞれに対応するフレーム画像を表示部18に順次表示させる。このようなCPU11の一連の処理が、ここでいう「スルー表示」である。なお、スルー表示されているフレーム画像を、以下、「スルー画像」と呼ぶ。
In step S21, the CPU 11 in FIG. 1 performs through imaging and through display.
That is, the CPU 11 continues the imaging operation by the imaging unit 16, and the data of the captured images (hereinafter referred to as “frame images” as appropriate) sequentially output from the imaging unit 16 at predetermined time intervals during that time are stored in the RAM 13 and the memory. It is temporarily stored in a memory such as the unit 19. Such a series of processing of the CPU 11 is “through imaging” here.
Further, the CPU 11 sequentially reads the data of each frame image temporarily recorded in the memory at the time of through imaging, and sequentially displays the corresponding frame image on the display unit 18. Such a series of processes of the CPU 11 is “through display” here. The frame image displayed as a through image is hereinafter referred to as a “through image”.

ステップS22において、CPU11は、所定の撮像条件を設定するか又は取得する。   In step S22, the CPU 11 sets or acquires predetermined imaging conditions.

ステップS23において、CPU11は、レリーズ釦41(図1)が半押しの状態であるか否かを判定する。
ユーザがレリーズ釦41を半押ししていない場合、ステップS23においてNOであると判定され、処理はステップS23に戻される。即ち、ユーザがレリーズ釦41を半押しするまでの間、ステップS23の判定処理が繰り返されて、撮像処理は待機状態になる。
In step S23, the CPU 11 determines whether or not the release button 41 (FIG. 1) is in a half-pressed state.
If the user has not pressed the release button 41 halfway, it is determined as NO in Step S23, and the process returns to Step S23. That is, until the user half-presses the release button 41, the determination process in step S23 is repeated, and the imaging process enters a standby state.

その後、ユーザがレリーズ釦41を半押しすると、ステップS23においてYESであると判定されて、処理はステップS24に進む。
ステップS24において、CPU11は、撮影条件等に基づいてAF処理(Automatic Focus処理:オートフォーカス処理)等を実行する。
Thereafter, when the user half-presses the release button 41, it is determined as YES in Step S23, and the process proceeds to Step S24.
In step S24, the CPU 11 executes AF processing (Automatic Focus processing: autofocus processing) and the like based on shooting conditions and the like.

ステップS25において、CPU11は、スルー画像のデータに対して、経時変化補正処理(図5)を施す。   In step S25, the CPU 11 performs a temporal change correction process (FIG. 5) on the live view image data.

ステップS26において、CPU11は、ステップS25の経時変化補正処理による補正後のスルー画像を表示部18に表示させる。
この場合の表示形態は、特に限定されないが、本実施形態では後述する図8に示すような表示形態が採用されている。
In step S <b> 26, the CPU 11 causes the display unit 18 to display a through image that has been corrected by the temporal change correction process in step S <b> 25.
The display form in this case is not particularly limited, but in this embodiment, a display form as shown in FIG.

ステップS27において、CPU11は、レリーズ釦41が全押しの状態であるか否かを判定する。   In step S27, the CPU 11 determines whether or not the release button 41 is fully pressed.

ユーザがレリーズ釦41を全押ししていない場合、ステップS27においてNOであると判定され、処理はステップS28に進む。
ステップS28において、CPU11は、レリーズ釦41が解除されたか否かを判定する。
ユーザの指等がレリーズ釦41から離された場合、ステップS28においてYESであると判定されて、撮像処理は終了となる。
これに対して、ユーザの指等がレリーズ釦41から離されていない場合、ステップS28においてNOであると判定されて、処理はステップS23に戻され、それ以降の処理が繰り返される。即ち、レリーズ釦41の半押し状態が継続している限り、ステップS23YES乃至S28のループ処理が繰り返し実行される。
If the user has not fully pressed the release button 41, it is determined as NO in Step S27, and the process proceeds to Step S28.
In step S28, the CPU 11 determines whether or not the release button 41 has been released.
When the user's finger or the like is released from the release button 41, it is determined as YES in Step S28, and the imaging process is ended.
On the other hand, when the user's finger or the like is not released from the release button 41, it is determined as NO in Step S28, the process is returned to Step S23, and the subsequent processes are repeated. That is, as long as the release button 41 is half-pressed, the loop processing from step S23 YES to step S28 is repeatedly executed.

その後、ユーザが、所望の色に変化した補正画像を視認して、例えば紅葉の見頃の時期の様子が表現された補正画像を視認して、レリーズ釦41を全押しすると、ステップS27においてYESであると判定されて、処理はステップS29に進む。
ステップS29において、CPU11は、撮像部16を制御して、撮像画像のデータを取得する。取得された撮像画像のデータは、RAM13や記憶部19等のメモリに一時的に記憶される。
Thereafter, when the user visually recognizes the corrected image changed to the desired color, for example, visually recognizes the corrected image expressing the appearance of the autumn leaves, and presses the release button 41 fully, YES is determined in step S27. If it is determined that there is, the process proceeds to step S29.
In step S29, the CPU 11 controls the imaging unit 16 to acquire captured image data. The acquired captured image data is temporarily stored in a memory such as the RAM 13 or the storage unit 19.

ステップS30において、CPU11は、ステップS29の処理で取得した撮像画像のデータに対して、経時変化補正処理(図5)を施す。
なお、この場合、直前のステップS25の処理で用いた条件差分を流用するならば、図5のステップS1乃至S5の処理は適宜省略することができる。
In step S30, the CPU 11 performs a temporal change correction process (FIG. 5) on the captured image data acquired in the process of step S29.
In this case, if the condition difference used in the immediately preceding step S25 is used, the processes in steps S1 to S5 in FIG. 5 can be omitted as appropriate.

ステップS31において、CPU11は、ステップS30の経時変化補正処理による補正後の撮像画像(補正画像)を表示部18に表示させる。
この場合の表示形態は、特に限定されないが、本実施形態では後述する図8に示すような表示形態が採用されている。
In step S31, the CPU 11 causes the display unit 18 to display a captured image (corrected image) corrected by the temporal change correction process in step S30.
The display form in this case is not particularly limited, but in this embodiment, a display form as shown in FIG.

ステップS32において、CPU11は、ステップS29の処理で取得した撮像画像のデータ、及び、ステップS30の経時変化補正処理による補正後の撮像画像(補正画像)のデータを、リムーバブルメディア31等に記録する処理(以下、「画像記録処理」と呼ぶ)を実行する。
これにより、撮像処理は終了となる。
In step S32, the CPU 11 records the captured image data acquired in the process of step S29 and the captured image (corrected image) data corrected by the temporal change correction process in step S30 on the removable medium 31 or the like. (Hereinafter referred to as “image recording process”).
Thereby, the imaging process is completed.

以上、経時変化補正処理をサブルーチン処理として含む撮像処理について説明した。
次に、経時変化補正処理をサブルーチン処理として含む表示処理について説明する。
The imaging process including the temporal change correction process as a subroutine process has been described above.
Next, a display process including the temporal change correction process as a subroutine process will be described.

図7は、本発明が適用される表示処理であって、経時変化補正処理をサブルーチン処理として含む表示処理の流れを示すフローチャートである。   FIG. 7 is a flowchart showing the flow of the display process to which the present invention is applied and which includes the temporal change correction process as a subroutine process.

表示処理は、例えばユーザが所定の画像の表示を指示する操作を操作部17(図1)に対して行った場合、その操作を契機として開始される。即ち、次のような処理が実行される。   For example, when the user performs an operation to instruct display of a predetermined image on the operation unit 17 (FIG. 1), the display process is started when the operation is performed. That is, the following processing is executed.

ステップS41において、図1のCPU11は、ユーザにより指示された画像を表示画像として、当該表示画像のデータを取得する。
なお、表示画像のデータは、撮像装置1によって撮像されたものである必要は特に無く、別の装置によって撮像又は生成されたものでもよい。
従って、CPU11は、リムーバブルメディア31に記録されている撮像画像のデータの他、リムーバブルメディア31に記録されている別の画像のデータも、表示画像のデータとして取得することができる。さらに、CPU11は、他の装置から送信されて通信部20に受信された各種各様の画像のデータを、表示画像のデータとして適宜取得することもできる。
In step S41, the CPU 11 in FIG. 1 acquires data of the display image using the image instructed by the user as the display image.
Note that the display image data is not necessarily captured by the imaging apparatus 1 and may be captured or generated by another apparatus.
Therefore, the CPU 11 can acquire the data of the captured image recorded on the removable medium 31 as well as the data of another image recorded on the removable medium 31 as display image data. Further, the CPU 11 can appropriately acquire various types of image data transmitted from other devices and received by the communication unit 20 as display image data.

ステップS42において、CPU11は、ステップS41の処理でデータとして取得した表示画像を表示部18に表示させる。   In step S42, the CPU 11 causes the display unit 18 to display the display image acquired as data in the process of step S41.

ステップS43において、CPU11は、補正条件の設定操作があったか否かを判定する。
本実施形態では、ユーザは操作部17を操作することで、表示画像に対する補正条件、即ち、補正時刻等の時間条件や、補正位置等の位置条件を設定することができる。なお、このような補正条件の設定操作の具体例については、図8を参照して後述する。
In step S43, the CPU 11 determines whether or not a correction condition setting operation has been performed.
In the present embodiment, the user can set a correction condition for a display image, that is, a time condition such as a correction time, and a position condition such as a correction position by operating the operation unit 17. A specific example of the operation for setting the correction condition will be described later with reference to FIG.

このような補正条件の設定操作がなされていない場合、ステップS43においてNOであると判定され、処理はステップS46に進む。従って、この場合には、経時変化補正処理が実行されないので、元の表示画像がそのまま表示部18に表示され続ける。   If such a correction condition setting operation has not been performed, it is determined as NO in Step S43, and the process proceeds to Step S46. Therefore, in this case, since the temporal change correction process is not executed, the original display image continues to be displayed on the display unit 18 as it is.

ステップS46において、CPU11は、表示処理の終了指示がなされたか否かを判定する。   In step S46, the CPU 11 determines whether an instruction to end the display process has been given.

表示処理の終了指示がなされた場合、ステップS46においてYESであると判定されて、表示処理は終了となる。
これに対して、表示処理の終了指示がなされない場合、ステップS46においてNOであると判定されて、処理はステップS43に戻され、それ以降の処理が繰り返される。
即ち、表示処理の終了指示がなされない場合には、補正条件の設定操作がなされるまでの間、ステップS43NO,S46NOのループ処理が繰り返され、表示処理は待機状態となり、元の表示画像がそのまま表示部18に表示され続ける。
その後、補正条件の設定操作がなされると、ステップS43においてYESであると判定されて、処理はステップS44に進む。
If an instruction to end the display process is given, it is determined as YES in step S46, and the display process ends.
On the other hand, if no instruction to end the display process is given, it is determined as NO in step S46, the process returns to step S43, and the subsequent processes are repeated.
That is, when the display processing end instruction is not given, the loop processing of Steps S43NO and S46NO is repeated until the correction condition setting operation is performed, the display processing enters a standby state, and the original display image remains as it is. It continues to be displayed on the display unit 18.
Thereafter, when a correction condition setting operation is performed, it is determined as YES in Step S43, and the process proceeds to Step S44.

ステップS44において、CPU11は、表示画像のデータに対して、経時変化補正処理(図5)を施す。   In step S44, the CPU 11 performs a temporal change correction process (FIG. 5) on the display image data.

ステップS45において、CPU11は、ステップS44の経時変化補正処理による補正後の表示画像を表示する。
この場合の表示形態は、特に限定されないが、本実施形態では後述する図8に示すような表示形態が採用されている。
In step S45, the CPU 11 displays a display image corrected by the temporal change correction process in step S44.
The display form in this case is not particularly limited, but in this embodiment, a display form as shown in FIG.

その後、処理はステップS46に進み、それ以降の処理が繰り返される。
即ち、ユーザは、所望の色に補正された表示画像が表示されるまで、補正条件を変更することができる。補正条件が変更されると、ステップS43の処理でYESであると判定されて、ステップS44の処理で、変更後の補正条件に基づいて表示画像が補正され、ステップS45の処理で、変更後の補正条件に基づく補正後の表示画像が表示される。
Thereafter, the process proceeds to step S46, and the subsequent processes are repeated.
That is, the user can change the correction condition until a display image corrected to a desired color is displayed. When the correction condition is changed, it is determined as YES in the process of step S43, the display image is corrected based on the corrected correction condition in the process of step S44, and the changed image is processed in the process of step S45. A display image after correction based on the correction condition is displayed.

さらに、図8を参照して、表示処理を具体的に説明する。   Further, the display process will be specifically described with reference to FIG.

図8は、経時変化補正処理で用いられるGUI(Graphical User Interface)画像の一例を示している。   FIG. 8 shows an example of a GUI (Graphical User Interface) image used in the temporal change correction process.

GUI画像101は、落葉樹の葉の色を変化させる経時変化補正処理の実行の際に用いられ、補正条件として時間情報の設定操作を受け付け、当該補正条件に従った経時変化補正処理の結果得られた補正画像を表示させることができる。
GUI画像101には、図8中上方から順に、画像表示領域111、日時表示領域112、補正条件変更バー113、紅葉見頃表示領域114、及び、サンプル紅葉画像表示領域115が設けられている。
The GUI image 101 is used when executing a temporal change correction process for changing the color of leaves of a deciduous tree, accepts a time information setting operation as a correction condition, and is obtained as a result of the temporal change correction process according to the correction condition. The corrected image can be displayed.
In the GUI image 101, an image display area 111, a date and time display area 112, a correction condition change bar 113, a fall foliage display area 114, and a sample fall foliage image display area 115 are provided in this order from the top in FIG.

画像表示領域111には、経時変化補正処理の対象となる画像が表示される。
なお、図8において、画像表示領域111に表示されている画像を区分している白い線は、特定領域とそれ以外の領域を区別するか、又は2つの特定領域を区別する境界線である。
In the image display area 111, an image to be subjected to the temporal change correction process is displayed.
In FIG. 8, the white line that separates the images displayed in the image display area 111 is a boundary line that distinguishes the specific area from other areas, or distinguishes two specific areas.

日時表示領域112には、撮像時刻(現在時刻)と補正時刻とを少なくとも含む日時が表示される。
ここで、撮影時刻は、下向き三角形状のポインタ121によって表わされる。
The date and time display area 112 displays a date and time including at least the imaging time (current time) and the correction time.
Here, the shooting time is represented by a downward-pointing triangular pointer 121.

補正条件変更バー113は、補正時刻として設定可能な時間帯を示している。
補正条件変更バー113内のポインタ122は、補正時刻を示している。
ユーザは、操作部17(図1)を操作して、例えば日時表示領域112の表示内容を参考にしながら、補正条件変更バー113内でポインタ122を左右に自在に移動させることで、所望の日時を補正時刻として設定することができる。
The correction condition change bar 113 indicates a time zone that can be set as the correction time.
A pointer 122 in the correction condition change bar 113 indicates the correction time.
The user operates the operation unit 17 (FIG. 1) to move the pointer 122 freely left and right in the correction condition change bar 113 while referring to the display contents of the date display area 112, for example, so that a desired date and time can be obtained. Can be set as the correction time.

紅葉見頃表示領域114には、最も紅葉が見頃になる度合を基準「0」として、見頃になる前の度合をマイナスで表現し、見頃になった後の度合をプラスで表現した各数値が表示される。なお、「-7」と「+7」との表示の間に引かれた実線は、この間が紅葉の見頃の時期であることを示している。
例えば、日時表示領域112に表示されている「10/21」の下方には、「-28」が紅葉見頃表示領域114に表示されている。このことは、10月21日の時点では、紅葉の見頃の度合は「-28」であること、即ち、見頃になる前の段階であって、後28レベル程の色の変化が必要であることを意味している。
従って、ユーザは、補正条件変更バー113内のポインタ122を移動させて補正時刻を設定する場合、紅葉見頃表示領域114の表示内容を参考にすることもできる。即ち、ユーザは、補正条件変更バー113内のポインタ122を「-7」と「+7」との間に移動させることによって、見頃の時期を補正時刻として容易に設定することができる。
In the autumn foliage display area 114, the degree of the best autumn leaves is set as a reference “0”, the numerical value before the best time is expressed as a negative value, and the numerical value after the best time is displayed as a positive value is displayed. Is done. The solid line drawn between “-7” and “+7” indicates that this is the best time to see the autumn leaves.
For example, “−28” is displayed in the autumnal best season display area 114 below “10/21” displayed in the date and time display area 112. This means that as of October 21, the best time to see the autumn leaves is “-28”, that is, the stage before the best time to see, and the color change needs to be about 28 levels later. It means that.
Therefore, when the user sets the correction time by moving the pointer 122 in the correction condition change bar 113, the user can refer to the display contents of the autumnal best season display area 114. That is, the user can easily set the best time as the correction time by moving the pointer 122 in the correction condition change bar 113 between “−7” and “+7”.

サンプル紅葉画像表示領域115には、紅葉の度合を段階的に示した葉のサンプル画像が表示される。
従って、ユーザは、補正条件変更バー113内のポインタ122を移動させて補正時刻を設定する場合、サンプル紅葉画像表示領域115の表示内容を参考にすることもできる。即ち、ユーザは、補正条件変更バー113内のポインタ122を所望の色の葉のサンプル画像の上に移動させることによって、所望の紅葉度合の時期を補正時刻として容易に設定することができる。
In the sample autumnal image display area 115, a leaf sample image showing the degree of autumnal leaves in a stepwise manner is displayed.
Accordingly, when the user sets the correction time by moving the pointer 122 in the correction condition change bar 113, the user can refer to the display contents of the sample autumnal image display area 115. That is, the user can easily set the desired time of autumn leaves as the correction time by moving the pointer 122 in the correction condition change bar 113 onto the sample image of the leaf of the desired color.

このようなGUI画像101が表示部18の画面として表示されている状態で、図7の表示処理のステップS41の処理で、表示画像のデータが取得されると、当該表示画像は画像表示領域111に表示される。
なお、この場合、図5のステップS3の処理は、即ち撮像条件の取得の処理は、この段階で実行されて、取得された撮像条件から特定される撮像時刻を示す位置に、日時表示領域112のポインタ121が表示されるものとする。
また、図示はしないが、補正条件変更バー113内のポインタ122の位置は、デフォルトの位置、例えば撮像時刻を示すポインタ121の下方の位置に表示されるものとする。
When the display image data is acquired in the process of step S41 of the display process in FIG. 7 in a state where the GUI image 101 is displayed as the screen of the display unit 18, the display image is displayed in the image display area 111. Is displayed.
In this case, the process of step S3 in FIG. 5, that is, the acquisition process of the imaging condition is executed at this stage, and the date and time display area 112 is located at the position indicating the imaging time specified from the acquired imaging condition. The pointer 121 is displayed.
Although not shown, the position of the pointer 122 in the correction condition change bar 113 is displayed at a default position, for example, a position below the pointer 121 indicating the imaging time.

その後、ユーザが、操作部17(図1)を操作して、補正条件変更バー113内でポインタ122を図8に示す位置まで移動させると、ステップS43の処理でYESであると判定されて、ステップS44の処理で経時変化補正処理が実行される。
即ち、図5のステップS5の処理で、図8に示すポインタ121とポインタ122との間の距離に相当する時間が、条件差分時間として算出される。
そして、図8の画像表示領域111に表示されている表示画像が撮像画像として取り扱われて、ステップS7の処理で、図8に示す白い線に沿って区分された領域のうちの幾つかの領域のデータ、例えば、落葉樹群を含む領域のデータが、特定領域のデータとして検出される。
これらの幾つかの特定領域のデータの各々に対して、ステップS8乃至S13のループ処理がその都度繰り返されて、各特定領域の各画素の色度座標が補正される。その後、ステップS14乃至S16の処理が実行されることで、補正後の表示画像(補正画像)のデータが生成される。
Thereafter, when the user operates the operation unit 17 (FIG. 1) to move the pointer 122 to the position shown in FIG. 8 within the correction condition change bar 113, it is determined YES in the process of step S43, A time course correction process is executed in the process of step S44.
That is, in the process of step S5 in FIG. 5, a time corresponding to the distance between the pointer 121 and the pointer 122 shown in FIG. 8 is calculated as the condition difference time.
And the display image currently displayed on the image display area 111 of FIG. 8 is handled as a picked-up image, and some area | regions of the area | regions divided along the white line shown in FIG. 8 by the process of step S7. For example, data of a region including a deciduous tree group is detected as data of a specific region.
The loop processing of steps S8 to S13 is repeated for each of these several specific area data to correct the chromaticity coordinates of each pixel in each specific area. Thereafter, the processing of steps S14 to S16 is executed, and the data of the corrected display image (corrected image) is generated.

すると、図7のステップS45の処理で、補正後の表示画像が、図8の画像表示領域111に表示される。
即ち、サンプル紅葉画像表示領域115内の葉のサンプル画像のうち、図8のポインタ122の位置の下方の葉のサンプル画像と近い色になった特定領域を有する画像が、補正後の表示画像として画像表示領域111に表示される。
換言すると、図8の例では、ポインタ122の位置の下方の日時表示領域112には、紅葉の見頃の範囲内の「-7」が表示されている。従って、紅葉の見頃の度合が「-7」程度の色になった特定領域を有する画像が、補正後の表示画像として画像表示領域111に表示される。
Then, the corrected display image is displayed in the image display area 111 of FIG. 8 in the process of step S45 of FIG.
That is, among the leaf sample images in the sample autumnal image display region 115, an image having a specific region that is close to the color of the leaf sample image below the position of the pointer 122 in FIG. 8 is displayed as a corrected display image. It is displayed in the image display area 111.
In other words, in the example of FIG. 8, “−7” within the range of the best time to see the autumn leaves is displayed in the date and time display area 112 below the position of the pointer 122. Accordingly, an image having a specific area in which the degree of best viewing of autumn leaves is a color of about “−7” is displayed in the image display area 111 as a corrected display image.

このとき、ユーザは、補正後の表示画像が所望の色になっていないと判断した場合には、操作部17(図1)を操作して、補正条件変更バー113内でポインタ122を適当な位置まで移動させるとよい。
これにより、補正条件が変更されるので、ステップS43の処理でYESであると判定されて、ステップS44の処理で、変更後の補正条件に基づいて表示画像が補正され、ステップS45の処理で、変更後の補正条件に基づく補正後の表示画像、即ちユーザの所望の色により近づいた表示画像が表示される。
At this time, if the user determines that the corrected display image does not have a desired color, the user operates the operation unit 17 (FIG. 1) and moves the pointer 122 within the correction condition change bar 113 to an appropriate value. It is good to move to a position.
Thereby, since the correction condition is changed, it is determined as YES in the process of step S43, the display image is corrected based on the corrected correction condition in the process of step S44, and in the process of step S45, A display image after correction based on the corrected correction condition, that is, a display image closer to the user's desired color is displayed.

以上、図8のGUI画像101を用いた表示処理について説明したが、GUI画像101はその他各種処理でも用いることができる。例えば図6の撮像処理のステップS25やS30の処理の際に、全く同様にGUI画像101を用いることもできる。   The display processing using the GUI image 101 in FIG. 8 has been described above, but the GUI image 101 can be used in various other processes. For example, the GUI image 101 can be used in exactly the same way in the processes of steps S25 and S30 of the imaging process of FIG.

以上説明したように、本実施形態の撮像装置1は、経時色変化対象について、実世界での色の時間変化の特性を示す時間色変化特性情報を保持している場合、次の第1乃至第4の機能を実現することができる。
即ち、第1の機能とは、補正対象の撮像画像のデータを取得する機能である。第2の機能とは、補正対象の撮像画像の撮像時刻と補正時刻との差分を条件差分時間として取得する機能である。第3の機能とは、補正対象の撮像画像の中から、経時色変化対象を含む領域を特定領域として検出する機能である。第4の機能とは、時間色変化特性情報に基づいて、経時色変化対象について条件差分時間の間に実世界で生ずる色の変化に対応するように、特定領域のデータを補正する機能である。
これにより、次の(1)乃至(3)に示す効果を奏することが可能になる。
As described above, when the imaging device 1 according to the present embodiment holds temporal color change characteristic information indicating the temporal color change characteristics in the real world for the temporal color change target, The fourth function can be realized.
That is, the first function is a function for acquiring captured image data to be corrected. The second function is a function for acquiring the difference between the imaging time of the captured image to be corrected and the correction time as the condition difference time. The third function is a function of detecting, as a specific area, a region including a color change target with time from a correction target captured image. The fourth function is a function for correcting the data in the specific area so as to correspond to the color change occurring in the real world during the condition difference time for the color change target over time based on the time color change characteristic information. .
As a result, the following effects (1) to (3) can be obtained.

(1)例えば、経時色変化対象としては、日本国の秋頃に徐々に紅葉していく落葉樹や、日本国の春頃に開花率に応じて徐々に全体が花の色に変化していく樹木を採用することができる。
ここで、例えば、ユーザは、紅葉やサクラ開花等の景観を撮像するために所定の場所に訪れたが、見頃の時期から少し外れた時期に訪れてしまって、紅葉やサクラ開花が未だ見頃になっていない景観しか撮像できないような場合を想定してみる。
このような場合であっても、ユーザは、本実施形態の撮像装置1を操作して、紅葉やサクラ開花が未だ見頃になっていない景観を撮像するだけで、その撮像画像から、落葉樹の葉やサクラの木等が見頃の時期の色に変化した補正画像を容易に得ることができる。即ち、当該補正画像は、紅葉やサクラ開花が見頃になっている景観画像(ユーザの撮像行為の目的に合致した景観画像)であって、かつ、自然でリアルな景観画像となっている。そこで、このような補正画像のデータを記録することで、撮像の失敗(撮像行為の目的が未達成という意)を減らしたり、カバーすることが可能になる。
このように、ユーザの撮像行為の目的に合致し、かつより自然で現実味のある画像となるように、撮像画像を加工することが可能になる。
(1) For example, as the color change target with time, deciduous trees that gradually fall in the autumn in Japan, or the whole gradually changes to the flower color according to the flowering rate in the spring of Japan Trees can be employed.
Here, for example, the user has visited a predetermined place to capture a landscape such as autumn leaves and cherry blossoms, but has visited a period slightly away from the best time to see autumn leaves and cherry blossoms still in full bloom. Let's assume a case where only a landscape that has not been captured can be imaged.
Even in such a case, the user simply operates the imaging device 1 of the present embodiment to image a landscape in which the autumn leaves and cherry blossoms are not yet in full bloom. It is possible to easily obtain a corrected image in which the color of the cherry tree or cherry tree changes to the best time. In other words, the corrected image is a landscape image in which autumn leaves and cherry blossoms are in full bloom (a landscape image that matches the purpose of the user's imaging action), and is a natural and realistic landscape image. Therefore, by recording such corrected image data, it is possible to reduce or cover imaging failures (meaning that the purpose of the imaging action has not been achieved).
In this way, the captured image can be processed so as to be a more natural and realistic image that matches the purpose of the user's imaging action.

(2)さらに、補正時刻は自在に設定可能とされている。
このため、最初に設定した補正時刻によって補正された補正画像が、ユーザにとって所望の景観画像となっていなかった場合には、ユーザは、補正時刻を前後に微調整する操作をすることができる。このような操作を行う度に新たな補正画像が得られるため、ユーザは、所望の景観画像を容易かつ短時間に得ることが可能になる。
即ち、撮像画像の撮影状況にかかわらず、例えば撮像位置や撮像時刻(季節や日時)にかかわらず、ユーザは、所望の景観画像を容易かつ短時間に得ることが可能になる。
(2) Further, the correction time can be set freely.
For this reason, when the correction image corrected by the initially set correction time is not a desired landscape image for the user, the user can perform an operation of finely adjusting the correction time back and forth. Since a new corrected image is obtained each time such an operation is performed, the user can easily obtain a desired landscape image in a short time.
That is, the user can easily obtain a desired landscape image in a short time regardless of the shooting state of the captured image, for example, regardless of the imaging position or imaging time (season or date).

(3)さらに、このような補正時刻を設定するために、本実施形態の撮像装置1は、図8のGUI画像101を表示させて、ユーザの操作を受け付けることもできる。
これにより、ユーザにとっては、撮影日時(現在時刻)や補正したい日時(補正時刻)と、紅葉や開花の見頃の時期との相対関係を容易に視認できるし、また、紅葉や開花の度合いも容易に視認できる。
さらに、ユーザは、補正日時マーク(図8の例ではポインタ122)を、時間目盛上で左右や前後にスライド移動させる等の簡単な操作を行うだけで、所望の紅葉や開花の度合の補正を行うことが可能になる。
(3) Further, in order to set such a correction time, the imaging apparatus 1 of the present embodiment can display the GUI image 101 of FIG. 8 and accept a user operation.
This allows the user to easily recognize the relative relationship between the shooting date / time (current time), the date / time to be corrected (correction time), and the best time to see autumn leaves and flowering, and the degree of autumn leaves and flowering is easy. Visible to.
Furthermore, the user can correct the desired degree of autumn leaves and flowering by performing simple operations such as sliding the correction date / time mark (pointer 122 in the example of FIG. 8) to the left or right or back and forth on the time scale. It becomes possible to do.

なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   It should be noted that the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within a scope that can achieve the object of the present invention are included in the present invention.

例えば、前記実施形態では、補正色変化対象毎の時間色変化特性情報が採用されたが、時間色変化特性情報の種類は、特にこれに限定されない。
具体的には例えば、上述したように、同一の落葉樹であっても、葉の色の変化は、樹木内での葉の位置や層、日射量や遮蔽等の様々な要因によってバラつき、空間的又は時間的に一様ではない複雑なものとなる。
そこで、所定の経時色変化対象から区分された複数の部分対象毎の時間色変化特性情報を採用してもよい。例えば、補正色変化対象が山林や樹木である場合には、上層部、中層部、及び下層部の各々を部分対象として採用したり、日当たり部分と日陰となる部分との各々を部分対象として採用してもよい。
図9は、所定の経時色変化対象から区分された複数の部分対象毎の時間色変化特性情報を用いた補正の結果の一例を示している。
図9(A)は、経時色変化対象が樹木であって、上層部、中層部、及び下層部の各々を部分対象として採用した場合の補正の結果の一例を示している。一番上の樹木の像が、第1の時刻に撮像された撮像画像に含まれる樹木の像を示している。中央の樹木の像は、第1の時刻から所定時間が経過した第2の時刻を補正時刻とした場合の補正後の樹木の像を示しており、上層部、中層部、及び下層部の各々の色の変化(紅葉度合)が異なっていることがわかる。一番下の樹木の像は、さらに第2の時刻から所定時間が経過した第3の時刻を補正時刻とした場合の補正後の樹木の像を示しており、同様に、上層部、中層部、及び下層部の各々の色の変化が異なっていることがわかる。
図9(B)は、経時色変化対象が樹木であって、高日当たり部分、中日当たり部分、及び日陰となる部分の各々を部分対象として採用した場合の補正の結果の一例を示している。一番上の樹木の像が、第1の時刻に撮像された撮像画像に含まれる樹木の像を示している。中央の樹木の像は、第1の時刻から所定時間が経過した第2の時刻を補正時刻とした場合の補正後の樹木の像を示しており、高日当たり部分、中日当たり部分、及び日陰となる部分の各々の色の変化(紅葉度合)が異なっていることがわかる。一番下の樹木の像は、さらに第2の時刻から所定時間が経過した第3の時刻を補正時刻とした場合の補正後の樹木の像を示しており、同様に、高日当たり部分、中日当たり部分、及び日陰となる部分の各々の色の変化が異なっていることがわかる。
図9(C)は、経時色変化対象が山林(樹木の集合体)であって、上層部、中層部、及び下層部の各々を部分対象として採用した場合の補正の結果の一例を示している。一番上の山林の像が、第1の時刻に撮像された撮像画像に含まれる山林の像を示している。中央の山林の像は、第1の時刻から所定時間が経過した第2の時刻を補正時刻とした場合の補正後の山林の像を示しており、上層部、中層部、及び下層部の各々の色の変化(紅葉度合)が異なっていることがわかる。一番下の山林の像は、さらに第2の時刻から所定時間が経過した第3の時刻を補正時刻とした場合の補正後の山林の像を示しており、同様に、上層部、中層部、及び下層部の各々の色の変化が異なっていることがわかる。
For example, in the embodiment, the time color change characteristic information for each correction color change target is adopted, but the type of the time color change characteristic information is not particularly limited to this.
Specifically, for example, as described above, even in the same deciduous tree, the change in leaf color varies depending on various factors such as the position and layer of leaves, the amount of solar radiation, and shielding, and spatial Or, it becomes complicated that is not uniform in time.
Therefore, temporal color change characteristic information for each of a plurality of partial objects divided from predetermined temporal color change objects may be employed. For example, when the correction color change target is a forest or a tree, each of the upper layer, middle layer, and lower layer is adopted as a partial target, or each of a sunlit part and a shaded part is adopted as a partial target. May be.
FIG. 9 shows an example of the result of correction using temporal color change characteristic information for each of a plurality of partial objects divided from predetermined time-dependent color change objects.
FIG. 9A shows an example of the result of correction when the temporal color change target is a tree and each of the upper layer portion, the middle layer portion, and the lower layer portion is adopted as a partial target. The image of the top tree indicates the image of the tree included in the captured image captured at the first time. The image of the tree at the center shows the image of the tree after correction when the second time when a predetermined time has elapsed from the first time is the correction time, and each of the upper layer portion, the middle layer portion, and the lower layer portion It can be seen that the change in color (degree of autumn leaves) is different. The image of the bottom tree shows the corrected tree image when the third time after a predetermined time has passed from the second time as the correction time. Similarly, the upper layer portion and the middle layer portion It can be seen that the color changes of the lower layer and the lower layer are different.
FIG. 9B shows an example of a correction result when the color change target with time is a tree, and each of a part with a high sun, a part with a medium sun, and a part that is shaded is adopted as a part target. The image of the top tree indicates the image of the tree included in the captured image captured at the first time. The image of the tree at the center shows an image of the tree after correction when the second time when a predetermined time has elapsed from the first time is set as the correction time. It can be seen that the color change (degree of autumn leaves) of each part is different. The image of the tree at the bottom shows the corrected tree image when the third time after a predetermined time from the second time is used as the correction time. It can be seen that the change in the color of each of the sunlit part and the shaded part is different.
FIG. 9C shows an example of correction results when the color change target over time is a mountain forest (a collection of trees) and each of the upper layer portion, the middle layer portion, and the lower layer portion is adopted as a partial target. Yes. The image of the top forest is an image of the forest included in the captured image captured at the first time. The image of the forest in the center shows the image of the forest after correction when the second time after a predetermined time has elapsed from the first time as the correction time, and each of the upper layer part, the middle layer part, and the lower layer part It can be seen that the change in color (degree of autumn leaves) is different. The image of the forest at the bottom shows the image of the forest after the correction when the third time after a predetermined time from the second time is used as the correction time. Similarly, the upper and middle layers It can be seen that the color changes of the lower layer and the lower layer are different.

例えば、前記実施形態では、経時色変化対象についての実世界で生ずる色の変化は、実測されたが、特にこれに限定されず、確率過程に基づく色の状態遷移を算出するようにしてもよい。
図10は、経時変化対象が落葉樹である場合の葉の色の変化を示す、確率過程に基づく色の状態遷移の一例を示している。
即ち、図10は、紅葉の進展の段階又は葉の色度が、マルコフ過程(Malkov process)に従って、次の段階又は色度に変化すると仮定する確率モデル(マルコフモデル)の一例を示している。
図10の例では、楕円が1つの状態を示しており、GY(黄緑)、Y(彩度の高い黄)、y(彩度の低い黄)、yr(黄赤)の4種類の状態が例示されている。また、矢印に付された数字は、矢印の元の状態から矢印の状態に遷移する場合(同一状態に維持する場合含む)の状態遷移確率(State Transitional Probability)を示している。
For example, in the above-described embodiment, the color change that occurs in the real world for the color change target with time is actually measured. However, the present invention is not particularly limited thereto, and the color state transition based on the stochastic process may be calculated. .
FIG. 10 shows an example of a color state transition based on a stochastic process showing a change in the color of a leaf when the temporal change target is a deciduous tree.
That is, FIG. 10 shows an example of a stochastic model (Markov model) that assumes that the stage of development of autumn leaves or the chromaticity of leaves changes to the next stage or chromaticity according to the Markov process.
In the example of FIG. 10, an ellipse indicates one state, and four types of states of GY (yellowish green), Y (highly saturated yellow), y (lowly saturated yellow), and yr (yellowish red) are shown. Is illustrated. The number attached to the arrow indicates the state transition probability (State Transitional Probability) when transitioning from the original state of the arrow to the state of the arrow (including when maintaining the same state).

例えば、前記実施形態では、経時変化対象として、実世界における色が一定の法則に従って時間方向に変化する経時色変化対象を採用したが、実世界における所定の特徴が一定の法則に従って時間方向に変化するものであれば任意の対象を採用することができる。
具体的には例えば、所定の特徴として、樹木の大きさ、成長、繁茂の度合等、樹木の空間占有率を採用すると、当該所定の特徴は、大きくなる或いは高くなるといった法則に従って時間方向に変化していく。このため、実世界における空間占有率が一定の法則に従って時間方向に変化する経時変化対象を採用することもできる。なお、このような経時変化対象を、以下、「経時大きさ変化対象」と呼ぶ。
For example, in the above embodiment, the temporal color change target in which the color in the real world changes in the time direction according to a certain rule is adopted as the temporal change target. However, a predetermined feature in the real world changes in the time direction according to the constant law. Any object can be adopted as long as it does.
Specifically, for example, if a tree space occupancy such as the size, growth, and prosperity of a tree is adopted as a predetermined feature, the predetermined feature changes in the time direction according to the law that it becomes larger or higher. I will do it. For this reason, it is also possible to employ a temporally changing object whose space occupancy in the real world changes in the time direction according to a certain law. Such a temporal change target is hereinafter referred to as a “temporal change target”.

さらに以下、図11を参照して、経時大きさ変化対象に対する経時変化補正処理について具体的に説明する。
図11は、経時大きさ変化対象における経時変化補正処理の結果の一例を示している。
例えば、時刻TNに、家と樹木を含むシーンが撮像された結果、図11(B)に示すような家像82と樹木像83Nとを含む撮像画像81Nのデータが得られたとする。なお、撮像画像81Nを撮像する装置は、撮像装置1であってもよいし、他の装置であってもよい。
ここで、ユーザが、当該樹木が生長した様子の画像を得たいと所望したとする。このような場合、ユーザは、操作部17(図1)を操作することによって、未来の時刻TFを設定することができる。
この場合、撮像装置1は、撮像の時刻TNと未来の時刻TFとの差分時間を、条件差分時間として求める。
また、撮像装置1は、撮像画像81Nのデータに基づいて、樹木像83Nを特定領域として検出する。
そして、撮像装置1は、樹木についての条件差分時間の間に実世界で生ずる空間占有率(大きさや高さ)の変化に応じて、特定領域のデータを補正する。
これにより、図11(B)に示す撮像画像81Nのデータから、図11(A)に示す補正画像81Fのデータが得られる。即ち、撮像の時刻TNから時刻TFまで時間が経過すると実世界では樹木の生長が進む。このため、特定領域として検出された樹木像83Nよりも空間占有率が大きくなった(サイズが大きくなった)樹木像83Fが、補正画像81Fに含まれる。一方で、実世界の家は時間経過によって空間占有率は変化しないとして、撮像画像81N内の家像82は特定領域として検出されない。その結果、家像82は、補正されずにそのままの状態で補正画像81Fに含まれる。
さらに、ユーザは、撮像の時刻TNに対して未来の時刻のみならず、過去の時刻も設定することができる。例えば、撮像の時刻TNに対して過去の時刻TPが設定された場合にも、経時変化補正処理として、上述した一連の処理が実行される。
これにより、図11(B)に示す撮像画像81Nのデータから、図11(C)に示す補正画像81Pのデータが得られる。
即ち、撮像の時刻TNから時刻TPまで時間が戻る(逆方向に経過する)と、実世界の樹木は生長前の状態となるため、その空間占有率(大きさや高さ)は小さくなる。このため、特定領域として検出された樹木像83Nよりも空間占有率が小さくなった(サイズが小さくなった)樹木像83Pが、補正画像81Pに含まれる。一方で、実世界の家は時間経過によって空間占有率は変化しないとして、撮像画像81N内の家像82は特定領域として検出されない。その結果、家像82は、補正されずにそのままの状態で補正画像81Pに含まれる。
Further, with reference to FIG. 11, the temporal change correction processing for the temporal size change target will be specifically described below.
FIG. 11 shows an example of the result of the temporal change correction process in the temporal size change target.
For example, assume that data of a captured image 81N including a house image 82 and a tree image 83N as illustrated in FIG. 11B is obtained as a result of capturing a scene including a house and a tree at time TN. Note that the apparatus that captures the captured image 81N may be the imaging apparatus 1 or another apparatus.
Here, it is assumed that the user desires to obtain an image in which the tree has grown. In such a case, the user can set a future time TF by operating the operation unit 17 (FIG. 1).
In this case, the imaging apparatus 1 obtains the difference time between the imaging time TN and the future time TF as the condition difference time.
Further, the imaging device 1 detects the tree image 83N as a specific region based on the data of the captured image 81N.
And the imaging device 1 correct | amends the data of a specific area according to the change of the space occupation rate (a magnitude | size and height) which arises in the real world during the condition difference time about a tree.
Thereby, the data of the corrected image 81F shown in FIG. 11A is obtained from the data of the captured image 81N shown in FIG. That is, when the time elapses from the time TN of imaging to the time TF, tree growth proceeds in the real world. For this reason, the corrected image 81F includes a tree image 83F having a larger space occupancy (a larger size) than the tree image 83N detected as the specific region. On the other hand, the house occupancy in the captured image 81N is not detected as a specific area, assuming that the space occupancy does not change with time for a real-world house. As a result, the house image 82 is included in the corrected image 81F as it is without being corrected.
Furthermore, the user can set not only the future time but also the past time with respect to the imaging time TN. For example, even when the past time TP is set with respect to the imaging time TN, the above-described series of processing is executed as the temporal change correction processing.
Thereby, the data of the corrected image 81P shown in FIG. 11C is obtained from the data of the captured image 81N shown in FIG.
In other words, when the time returns from the imaging time TN to the time TP (elapses in the reverse direction), the trees in the real world are in a pre-growth state, and thus the space occupancy (size and height) decreases. For this reason, the corrected image 81P includes a tree image 83P having a smaller space occupancy (smaller in size) than the tree image 83N detected as the specific region. On the other hand, the house occupancy in the captured image 81N is not detected as a specific area, assuming that the space occupancy does not change with time for a real-world house. As a result, the house image 82 is included in the corrected image 81P without being corrected.

例えば、前記実施形態では、経時変化補正処理で用いる補正時刻は、ユーザが操作部17を操作することで指示していたが、特にこれに限定されず、撮像装置1がユーザの操作を介在せずに自律的に、即ち自動的に補正時刻を設定してもよい。
具体的には例えば、条件差分取得部54(図4)等は、経時変化対象についての所定の特徴(色や空間占有率)の変化の段階を予測し、予測した変化の段階のうちの所定の段階を示す時刻を補正時刻として決定してもよい。
例えば落葉樹が経時色変化対象として採用されている場合には、条件差分取得部54等は、紅葉の進み具合を予測し、見頃の時期を補正時刻として決定することができる。
なお、この場合の予測の手法は、特に限定されない。例えば、条件差分取得部54等は、各地域毎の過去の見頃の平均日のデータや、各地域毎の月別の平均気温等の気象統計データ等の実測データから、紅葉の進み具合を予測し、見頃の時期を補正時刻として決定することができる。この場合、実測データから所定の予測式を予め作成しておき、条件差分取得部54等は、当該予測式を用いた予測演算をすることによって、紅葉の進み具合を予測し、見頃の時期を補正時刻として決定してもよい。
For example, in the above-described embodiment, the correction time used in the temporal change correction process is instructed by the user operating the operation unit 17, but is not particularly limited thereto, and the imaging apparatus 1 is not mediated by the user's operation. The correction time may be set autonomously, that is, automatically.
Specifically, for example, the condition difference acquisition unit 54 (FIG. 4) or the like predicts a change stage of a predetermined feature (color or space occupancy) for the temporal change target, and sets a predetermined one of the predicted change stages. The time indicating the stage may be determined as the correction time.
For example, when a deciduous tree is adopted as a color change target over time, the condition difference acquisition unit 54 and the like can predict the progress of autumn leaves and determine the best time as a correction time.
Note that the prediction method in this case is not particularly limited. For example, the condition difference acquisition unit 54 or the like predicts the progress of autumn leaves from data on the average date in the past for each region, or actual measurement data such as monthly average temperature for each region. The best time can be determined as the correction time. In this case, a predetermined prediction formula is created in advance from the actual measurement data, and the condition difference acquisition unit 54 and the like predict the progress of the autumn leaves by performing a prediction calculation using the prediction formula, and determine the best time. The correction time may be determined.

例えば、前記実施形態では、経時変化補正処理の補正対象の画像のデータは、撮像画像のデータとされたが、特にこれに限定されず、経時変化対象の像を含めば、任意の画像のデータを補正対象とすることができる。
この場合、撮像画像取得部51は、撮像部16から出力された撮像画像のデータを補正対象として直接取得する他、他の装置から送信されて通信部20に受信された画像のデータや、リムーバブルメディア31からドライブ21によって読み出された画像のデータ等を適宜補正対象として取得することができる。
For example, in the above-described embodiment, the correction target image data of the temporal change correction process is captured image data. However, the present invention is not limited to this, and any image data may be used as long as the temporal change target image is included. Can be corrected.
In this case, the captured image acquisition unit 51 directly acquires the captured image data output from the imaging unit 16 as a correction target, as well as image data transmitted from another device and received by the communication unit 20, or removable. Image data read from the medium 31 by the drive 21 can be appropriately acquired as a correction target.

また例えば、上述した実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の撮像装置として構成される例として説明した。しかしながら、本発明は、撮像装置に特に限定されず、撮像機能の有無を問わず、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。   For example, in the above-described embodiments, the image processing apparatus to which the present invention is applied has been described as an example configured as an imaging apparatus such as a digital camera. However, the present invention is not particularly limited to the imaging device, and can be applied to any electronic device that can execute the above-described image processing regardless of the presence or absence of an imaging function. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware or can be executed by software.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、16・・・撮像部、17・・・操作部、18・・・表示部、19・・・記憶部、20・・・通信部、21・・・ドライブ、31・・・リムーバブルメディア、51・・・撮像画像取得部、52・・・撮像条件取得部、53・・・補正条件取得部、54・・・条件差分取得部、55・・・特定領域検出部、56・・・変化データ取得部、57・・・特定領域補正部、58・・・補正画像生成部、59・・・時間変化特性情報決定部、60・・・時間変化特性情報記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 16 ... Imaging part, 17 ... Operation part, 18 ... Display part, 19 ... Storage unit, 20 ... communication unit, 21 ... drive, 31 ... removable media, 51 ... captured image acquisition unit, 52 ... imaging condition acquisition unit, 53 ... correction condition acquisition unit, 54 ... Conditional difference acquisition unit, 55 ... Specific region detection unit, 56 ... Change data acquisition unit, 57 ... Specific region correction unit, 58 ... Correction image generation unit, 59 ... Time Change characteristic information determination unit, 60... Time change characteristic information storage unit

Claims (11)

時間と位置に依存して特徴が変化していく特定領域を含む画像を撮影して再生することのできる画像処理装置において、
前記特定領域の特徴を、位置と時間に対応付けて予め記憶してある時間変化特性情報を保持する保持手段と、
撮影された前記特定領域を含む画像を再生するとき、該特定領域の特徴を前記時間変化特性情報から読み出して、読み出した特徴と前記画像を撮影したときの特徴とを比較し、前記撮影したときの特徴を補正する補正手段と、
前記補正された特定領域を含む画像を再生する再生手段と、
を備える画像処理装置。
In an image processing apparatus capable of capturing and reproducing an image including a specific region whose characteristics change depending on time and position,
Holding means for holding time variation characteristic information stored in advance in association with the position and time, the characteristics of the specific region;
When playing back an image including the captured specific area, the characteristic of the specific area is read from the time change characteristic information, the read characteristic is compared with the characteristic when the image is captured, and the captured image is captured. Correction means for correcting the characteristics of
Playback means for playing back an image including the corrected specific area;
An image processing apparatus comprising:
前記補正手段は、The correction means includes
撮影した画像が示す位置を現在位置とし、補正後の画像が示す位置を補正位置とし、前記現在位置と前記補正位置との差異を条件差分位置として取得し、  The position indicated by the captured image is the current position, the position indicated by the corrected image is the correction position, and the difference between the current position and the correction position is acquired as a condition difference position.
さらに、撮影した画像が示す時刻を現時刻とし、補正後の画像が示す時刻を補正時刻とし、前記現時刻と前記補正時刻との差分を条件差分時間として取得する差分取得手段と、  Furthermore, the difference acquisition means for acquiring the time indicated by the captured image as the current time, the time indicated by the corrected image as the correction time, and acquiring the difference between the current time and the correction time as the condition difference time;
を含むことを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, further comprising:
前記保持手段は、複数種類の特定領域毎に前記時間変化特性情報を保持しており、
記補正手段は、前記特定領域の種類毎に、その種類に対応する前記時間変化特性情報に基づいて、その種類の前記特定領域について前記条件差分時間の間に生ずる前記特徴の変化に対応するように、その種類に対応する前記特定領域のデータを補正する、
請求項に記載の画像処理装置。
It said holding means Ri Contact holds the time change characteristic information for each of a plurality of types of the specific area,
Before SL correcting means, for each type of the specific area, based on the time change characteristic information corresponding to the type, respond to changes in raw cheat the characteristics between the condition differential time for the particular region of the type To correct the data of the specific area corresponding to the type,
The image processing apparatus according to claim 2 .
前記保持手段は、所定の特定領域から区分された複数の部分対象毎に、前記時間変化特性情報を保持しており、
前記補正手段は、前記複数の部分対象毎に、その部分対象に対応する前記時間変化特性情報に基づいて、その部分対象について前記条件差分時間の間に生ずる前記特徴の変化に対応するように、前記特定領域内のその部分対象の像のデータを補正する、
請求項2又はに記載の画像処理装置。
The holding means holds the time variation characteristic information for each of a plurality of partial objects divided from a predetermined specific area ,
Said correcting means, said each plurality of sub-objects, based on the time change characteristic information corresponding to the partial object, so as to correspond to a change in the raw cheat the characteristics between the condition differential time for the parts subject , Correcting the data of the partial target image in the specific area,
The image processing apparatus according to claim 2 or 3.
前記補正手段は、
さらに、前記特定領域について前記条件差分時間の間に生ずる前記特徴の変化を、確率過程に基づく前記特徴の状態遷移として算出し、
算出した前記状態遷移に基づいて、前記特定領域のデータを補正する
請求項2乃至の何れか1項に記載の画像処理装置。
The correction means includes
Furthermore, the change in raw cheat the characteristics between the condition differential time for the particular region, is calculated as the state transition of the feature based on stochastic processes,
On the basis of the calculated state transition, the image processing apparatus according to any one of claims 2 to 4 for correcting the data of the specific area.
前記補正時刻を、絶対時刻又は所定の基準時刻に対する相対時刻でユーザが指定する操作を受け付ける操作手段をさらに備え、
前記差分取得手段は、前記ユーザにより指定されて前記操作手段により受け付けられた前記補正時刻を認識し、前記現時刻と認識した前記補正時刻との差分を前記条件差分時間として取得する、
請求項2乃至5の何れか1項に記載の画像処理装置。
An operation means for receiving an operation in which the user designates the correction time as an absolute time or a relative time with respect to a predetermined reference time;
The difference acquisition means recognizes the correction time specified by the user and received by the operation means, and acquires the difference between the current time and the correction time recognized as the condition difference time.
The image processing apparatus according to claim 2.
前記差分取得手段は、
さらに、前記特徴の変化の段階を予測し、
予測した変化の段階のうちの所定の段階を示す時刻を補正時刻として決定し、前記現時刻と決定した前記補正時刻との差分を前記条件差分時間として取得する、
請求項2乃至5の何れか1項に記載の画像処理装置。
The difference acquisition means
Furthermore, the stage of change of the feature is predicted,
Determining a time indicating a predetermined stage of the predicted stages of change as a correction time, and obtaining a difference between the current time and the determined correction time as the condition difference time;
The image processing apparatus according to claim 2.
前記特定領域の対象は、植物であり、実世界において一定の法則に従って時間方向に変化する前記特徴は、前記植物の少なくとも一部の色である、
請求項1乃至7の何れか1項に記載の画像処理装置。
The object of the specific region is a plant, and the characteristic that changes in the time direction according to a certain rule in the real world is a color of at least a part of the plant.
The image processing apparatus according to claim 1.
前記特定領域の対象は、植物であり、実世界において一定の法則に従って時間方向に変化する前記特徴は、前記植物の少なくとも一部の空間占有率である、
請求項1乃至7の何れか1項に記載の画像処理装置。
The object of the specific region is a plant, and the characteristic that changes in the time direction according to a certain law in the real world is a space occupancy of at least a part of the plant.
The image processing apparatus according to claim 1.
時間と位置に依存して特徴が変化していく特定領域を含む画像を撮影して再生することのできる画像処理装置が、
前記特定領域の特徴を、位置と時間に対応付けて予め記憶してある時間変化特性情報を保持する保持ステップと、
撮影された前記特定領域を含む画像を再生するとき、該特定領域の特徴を前記時間変化特性情報から読み出して、読み出した特徴と前記画像を撮影したときの特徴とを比較し、前記撮影したときの特徴を補正する補正ステップと、
前記補正された特定領域を含む画像を再生する再生ステップと、
を含む画像処理方法。
An image processing apparatus that can capture and reproduce an image including a specific region whose characteristics change depending on time and position ,
A holding step of holding time change characteristic information stored in advance in association with the position and time of the characteristics of the specific region;
When playing back an image including the captured specific area, the characteristic of the specific area is read from the time change characteristic information, the read characteristic is compared with the characteristic when the image is captured, and the captured image is captured. A correction step for correcting the characteristics of
A reproduction step of reproducing an image including the corrected specific area;
An image processing method including:
時間と位置に依存して特徴が変化していく特定領域を含む画像を撮影して再生することのできる画像処理装置を制御するコンピュータに、
前記特定領域の特徴を、位置と時間に対応付けて予め記憶してある時間変化特性情報を保持する保持機能と、
撮影された前記特定領域を含む画像を再生するとき、該特定領域の特徴を前記時間変化特性情報から読み出して、読み出した特徴と前記画像を撮影したときの特徴とを比較し、前記撮影したときの特徴を補正する補正機能と、
前記補正された特定領域を含む画像を再生する再生機能と、
を実現させるプログラム。
A computer that controls an image processing apparatus that can capture and reproduce an image including a specific region whose characteristics change depending on time and position ,
A holding function for holding time-varying characteristic information stored in advance in association with the position and time of the feature of the specific region;
When playing back an image including the captured specific area, the characteristic of the specific area is read from the time change characteristic information, the read characteristic is compared with the characteristic when the image is captured, and the captured image is captured. Correction function to correct the characteristics of
A playback function for playing back an image including the corrected specific area;
A program that realizes
JP2010105012A 2010-04-30 2010-04-30 Image processing apparatus and method, and program Expired - Fee Related JP5440366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010105012A JP5440366B2 (en) 2010-04-30 2010-04-30 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010105012A JP5440366B2 (en) 2010-04-30 2010-04-30 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2011234274A JP2011234274A (en) 2011-11-17
JP2011234274A5 JP2011234274A5 (en) 2013-03-07
JP5440366B2 true JP5440366B2 (en) 2014-03-12

Family

ID=45323104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010105012A Expired - Fee Related JP5440366B2 (en) 2010-04-30 2010-04-30 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5440366B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099473A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Server
JP7084715B2 (en) * 2017-12-19 2022-06-15 株式会社日立製作所 Train seat guidance system and train seat guidance method
CN110612495A (en) * 2018-01-19 2019-12-24 深圳市大疆创新科技有限公司 Obstacle information processing method and terminal device
JP7392341B2 (en) * 2019-09-17 2023-12-06 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program
KR102765886B1 (en) * 2023-07-06 2025-02-11 한국전자기술연구원 Pre-processing system and method of image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05199491A (en) * 1992-01-22 1993-08-06 Kyocera Corp Still image playback device
JP2003259137A (en) * 2002-02-28 2003-09-12 Seiko Epson Corp Image color correction apparatus and method, and computer program
JP2004064345A (en) * 2002-07-26 2004-02-26 Matsushita Electric Ind Co Ltd Image correction apparatus and image correction method
WO2006028108A1 (en) * 2004-09-07 2006-03-16 Nec Corporation Image processing system and method, and terminal and server used for the same

Also Published As

Publication number Publication date
JP2011234274A (en) 2011-11-17

Similar Documents

Publication Publication Date Title
JP4862930B2 (en) Image processing apparatus, image processing method, and program
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
CN101399925B (en) Electronic camera
JP5321163B2 (en) Imaging apparatus and imaging method
US20060012690A1 (en) Image capturing apparatus and method of acquiring image
US20130027587A1 (en) Signal processing apparatus, imaging apparatus, signal processing method and program
JP2010011223A (en) Signal processing apparatus, signal processing method, program, and recording medium
CN103888661A (en) Image pickup apparatus, image pickup system and method of controlling image pickup apparatus
CN112991245B (en) Dual camera blur processing method, device, electronic equipment and readable storage medium
JP5440366B2 (en) Image processing apparatus and method, and program
JP6723092B2 (en) Imaging device, control method thereof, and program
WO2014141771A1 (en) Imaging device, image processing method, image processing program, and recording medium
JP2015073185A (en) Image processing device, image processing method and program
US20060007322A1 (en) Image capturing apparatus and method of acquiring image
US8649561B2 (en) Subject designating device and subject tracking apparatus
JP4597087B2 (en) Image processing apparatus and method, and imaging apparatus
JP2019103031A (en) Image processing device, imaging apparatus, image processing method and program
JP2007324965A (en) Digital camera, photographing control method, and image output system
JP7057079B2 (en) Image processing device, image pickup device, image processing method, and program
JP5202190B2 (en) Image processing method and image processing apparatus
JP5621524B2 (en) Image processing apparatus and method, and program
JP2017229032A (en) Imaging apparatus, control method thereof and program
JP2016046610A (en) Imaging apparatus
JP6074201B2 (en) Image processing apparatus, control method, and program
JP4844073B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5440366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees