JP5621524B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5621524B2
JP5621524B2 JP2010251067A JP2010251067A JP5621524B2 JP 5621524 B2 JP5621524 B2 JP 5621524B2 JP 2010251067 A JP2010251067 A JP 2010251067A JP 2010251067 A JP2010251067 A JP 2010251067A JP 5621524 B2 JP5621524 B2 JP 5621524B2
Authority
JP
Japan
Prior art keywords
image
unit
snow
original image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010251067A
Other languages
Japanese (ja)
Other versions
JP2012105008A5 (en
JP2012105008A (en
Inventor
喜多 一記
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010251067A priority Critical patent/JP5621524B2/en
Publication of JP2012105008A publication Critical patent/JP2012105008A/en
Publication of JP2012105008A5 publication Critical patent/JP2012105008A5/ja
Application granted granted Critical
Publication of JP5621524B2 publication Critical patent/JP5621524B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image

Description

本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、ユーザの撮像行為の目的に合致した画像処理であって、より自然で現実味のある景観を表現できる画像処理を実現可能な技術に関する。   The present invention relates to an image processing apparatus and method, and a program, and more particularly, to a technique capable of realizing image processing that can represent a more natural and realistic landscape, which is image processing that matches the purpose of a user's imaging action.

従来、表示装置が鑑賞用の画像を表示したり、カーナビゲーション装置が地図等の情報確認用の画像を表示する、といった表示技術の分野が存在する。このような表示技術の分野においては、時間変化や天候変化に応じた演出表示が行われている(特許文献1乃至4参照)。
一方、ユーザがカメラを用いて撮像画像を撮像する、といった撮像技術の分野も存在する。このような撮像技術の分野でも、デジタルカメラの登場により、撮像画像の表示が可能になり、さらに近年では、画像処理が施された撮像画像を表示することも可能になっている。
2. Description of the Related Art Conventionally, there is a field of display technology in which a display device displays an image for viewing, and a car navigation device displays an image for information confirmation such as a map. In the field of such display technology, effect display according to time change and weather change is performed (see Patent Documents 1 to 4).
On the other hand, there is a field of imaging technology in which a user captures a captured image using a camera. Also in the field of such imaging technology, with the advent of digital cameras, it is possible to display captured images, and more recently, it is also possible to display captured images that have been subjected to image processing.

特開平05−199491号公報Japanese Patent Laid-Open No. 05-199491 特開平07−210123号公報Japanese Patent Application Laid-Open No. 07-210123 特開平08−16586号公報Japanese Patent Laid-Open No. 08-16586 特開2002−286461号公報JP 2002-286461 A

しかしながら、撮像技術の分野では、一般的には、ユーザがデジタルカメラを用いて撮像するという撮像行為の方が、その撮像行為の結果として得られる撮像画像をユーザが確認する行為よりも主要な行為となる。ここで、撮像行為とは、ユーザの主観的な目的を伴う行為であり、当該目的が達成した画像を創り出すという能動的行為である。このため、ユーザが創造したともいえる撮像画像のデータに対しては、撮像行為という能動的行為の目的に合致した画像処理を施すことが要求される。
一方で、表示技術の分野においては、表示対象の画像は、ユーザとは別の他人が創造した画像であることが多い。そして、このような他人が創造した画像を鑑賞したり確認する行為が、ユーザの主要な行為となる。即ち、表示技術の分野とは、撮像行為等の能動的行為よりも、一方的に提示された画像をユーザが鑑賞又は確認するという受動的な行為が主要な行為であるとして、発達してきた分野である。
よって、表示技術の分野の技術、例えば特許文献1乃至4に記載の技術をそのまま撮像技術の分野に適用しても、ユーザの撮像行為の目的に合致した画像処理を撮像画像のデータに施すことは困難である。
However, in the field of imaging technology, in general, an imaging action in which a user takes an image using a digital camera is more important than an action in which the user confirms a captured image obtained as a result of the imaging action. It becomes. Here, the imaging action is an action accompanied by a user's subjective purpose, and is an active action of creating an image that achieves the purpose. For this reason, it is required that image data that can be said to be created by the user be subjected to image processing that matches the purpose of an active action called an imaging action.
On the other hand, in the field of display technology, an image to be displayed is often an image created by another person other than the user. The act of appreciating or confirming an image created by another person is the main act of the user. In other words, the field of display technology has been developed as a main act is a passive act in which a user views or confirms a unilaterally presented image rather than an active act such as an imaging act. It is.
Therefore, even if the technology in the field of display technology, for example, the technology described in Patent Documents 1 to 4 is applied to the field of imaging technology as it is, image processing that matches the purpose of the user's imaging action is performed on the data of the captured image. It is difficult.

例えば、ユーザが、デジタルカメラを用いて、所定場所から見える景観の画像を、撮像画像として撮像する場合を考える。ただし、ユーザの撮像行為の目的は、当該所定場所から見える景観であって、かつ、所望の状態になっている景観の画像を得ることであるとする。
ここで、同一の所定場所であっても、季節が違えば、景観の状態は異なる。
そこで、ユーザは、その撮像行為の目的を達成すべく、所定場所まで赴き、景観が所望の状態になっていると想定される時刻になるまで待機して、景観の画像を撮像する。
しかしながら、この場合に得られる撮像画像は、必ずしも所望の景観が写っている画像、即ち撮像行為の目的が達成されている画像とは限らない。
For example, consider a case where a user captures a landscape image seen from a predetermined location as a captured image using a digital camera. However, it is assumed that the purpose of the user's imaging action is to obtain a landscape image that is visible from the predetermined location and is in a desired state.
Here, even if it is the same predetermined place, if the season is different, the state of the landscape will be different.
Then, in order to achieve the purpose of the imaging action, the user goes to a predetermined place, waits until the time when the landscape is assumed to be in a desired state, and captures an image of the landscape.
However, the captured image obtained in this case is not necessarily an image in which a desired landscape is reflected, that is, an image in which the purpose of the imaging action is achieved.

というのも、景観の状態は、天気等の各種条件によって異なり、これらの各種条件が時や場所を隔てて同一になる確率は非常に低いからである。
例えば、ユーザは、積雪された景観の画像を得ることが撮像行為の目的であった場合、通常、天気予報等により降雪となる日時を予測し、予測した日時の景観の画像を撮像する。
しかしながら、予測した日時の天気が降雪となっているとは限らない。予測した日時が例えば快晴であったならば、当然ながら、ユーザは、積雪された景観の画像、即ち撮像行為の目的が達成されている画像を得ることができない。
This is because the state of the landscape varies depending on various conditions such as weather, and the probability that these various conditions are the same across time and place is very low.
For example, when the purpose of the imaging action is to obtain an image of a snowed landscape, the user usually predicts the date and time when snow falls by weather forecast or the like, and captures an image of the landscape at the predicted date and time.
However, the weather at the predicted date and time is not necessarily snowfall. If the predicted date and time is clear, for example, the user cannot obtain an image of a snowed landscape, that is, an image in which the purpose of the imaging action is achieved.

このように、ユーザにとって、単にデジタルカメラを用いて撮像操作(レリーズ釦の押下操作等)をしただけでは、景観の所望の状態(積雪された状態等)になっている画像、即ち、当該ユーザの撮像行為の目的が達成された画像を得ることは困難である。
そこで、デジタルカメラが、撮像画像のデータに対して画像処理を施して、撮像行為の目的が達成された画像のデータに変換することが要求される。
In this way, for a user, an image that is in a desired state (snow-covered state, etc.) of a landscape simply by performing an imaging operation (such as pressing a release button) using a digital camera, that is, the user It is difficult to obtain an image in which the purpose of the imaging action is achieved.
Therefore, it is required that the digital camera performs image processing on the captured image data and converts the captured image data into image data that achieves the purpose of the imaging action.

しかしながら、特許文献1乃至4に記載の技術を単に適用しても、このような要求に応えることは困難である。
即ち、特許文献1乃至4に記載の技術とは、時間変化や天候変化に応じて、表示する絵柄や画像を自動的に選択して表示する第1技術か、或いは、色や輝度等の表示用調整データを予め設定しておき、現在の季節、日時、天候等に応じて画像全体を補正する第2技術である。
前者の第1技術では、選択して表示する絵柄や画像は予め用意しておく必要があるところ、所定場所から見える景観の画像を予め用意しておくことは現実的でない。後者の第2の技術では、景観の色だけでなく、画像全体の色や輝度が一律に補正されてしまうため、不自然で現実味に欠ける補正しかできない。
However, simply applying the techniques described in Patent Documents 1 to 4 makes it difficult to meet such requirements.
That is, the techniques described in Patent Documents 1 to 4 are the first technique for automatically selecting and displaying a picture or image to be displayed in accordance with a change in time or a change in weather, or a display of color, brightness, or the like. This is a second technique in which the adjustment data is preset and the entire image is corrected according to the current season, date, weather, and the like.
In the former first technique, it is necessary to prepare in advance a pattern or image to be selected and displayed. However, it is not realistic to prepare a landscape image that can be seen from a predetermined place. In the latter second technique, not only the color of the landscape but also the color and brightness of the entire image are uniformly corrected, so that only correction that is unnatural and lacks reality is possible.

なお、従来、3次元CG(Computer Graphics)や建築用の景観シミュレーションソフトウェアの中には、色々な視点から眺めた建築物の景観をレンダリングしたり、樹木等周囲の景観や季節変化による日陰等をシミュレーションできるものが存在する。
しかしながら、これらのシミュレーションソフトウェアにより得られる画像は、実世界を撮像した結果得られる撮像画像(写真画像)と比較すると、仮想的かつ人工的な画像であることが明らかであり、不自然で現実味に欠けるものであった。
さらにまた、これらのシミュレーションソフトウェアは、そもそも設計データや3次元形状モデル等実世界とは別なものに基づいて、シミュレーション描画することが前提とされている。このため、これらのシミュレーションソフトウェアを、実世界の景観等を撮像した結果得られる撮像画像の加工用としてそのまま適用することは非常に困難である。
Conventionally, in 3D CG (Computer Graphics) and architectural landscape simulation software, the landscape of buildings viewed from various viewpoints, the surrounding landscape such as trees, and the shade due to seasonal changes, etc. There is something that can be simulated.
However, it is clear that the images obtained by these simulation software are virtual and artificial images compared to captured images (photo images) obtained as a result of imaging the real world, which is unnatural and realistic. It was lacking.
Furthermore, it is assumed that these simulation softwares perform simulation drawing based on things different from the real world, such as design data and a three-dimensional shape model. For this reason, it is very difficult to apply these simulation software as they are for processing a captured image obtained as a result of imaging a real world landscape or the like.

以上まとめると、ユーザの撮像行為の目的に合致し、かつより自然で現実味のある画像となるように、撮像画像を加工したいという要望が挙げられている。しかしながら、特許文献1乃至4を含む従来の技術では、当該要望に十分に応えることはできない。このため、当該要望に十分に応えることが可能な技術の実現が求められている。   In summary, there is a demand for processing a captured image so as to be a more natural and realistic image that matches the purpose of the user's imaging action. However, the conventional techniques including Patent Documents 1 to 4 cannot sufficiently meet the demand. For this reason, the realization of the technique which can fully respond to the said request is calculated | required.

本発明は、このような状況に鑑みてなされたものであり、ユーザの撮像行為の目的に合致した画像処理であって、より自然で現実味のある景観の状態を表現できる画像処理を実現することを目的とする。   The present invention has been made in view of such a situation, and realizes image processing that matches the purpose of the user's imaging action and can express a more natural and realistic landscape state. With the goal.

本発明の一態様に係る画像処理装置は、処理対象となる原画像を取得する原画像取得手段と、前記原画像取得手段により取得された前記原画像内における所定の堆積物が堆積し得る被写体部分の位置と形状を特定する被写体特定手段と、前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の位置と形状に対応させて、前記原画像上に前記所定の堆積物を示す物体画像を配置して合成することによって合成画像を生成する合成手段と、を備えることを特徴とする。 An image processing apparatus according to an aspect of the present invention includes an original image acquisition unit that acquires an original image to be processed, and a subject on which a predetermined deposit in the original image acquired by the original image acquisition unit can accumulate and the object specifying means for specifying the part of the position and shape, so as to correspond to the position and shape of the object portion which is the predetermined deposit identified may be deposited by the object specifying means, the predetermined deposition on said original image characterized in that it comprises a synthesizing means for generating a composite image by combining by placing the object image representing the object.

本発明の別の態様によると、上述した本発明の一態様に係る画像処理装置に対応する画像処理方法及びプログラムの各々を提供する。   According to another aspect of the present invention, an image processing method and a program corresponding to the above-described image processing apparatus according to one aspect of the present invention are provided.

本発明によれば、ユーザの撮像行為の目的に合致した画像処理であって、より自然で現実味のある景観の状態を表現可能な画像処理を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, it is an image process corresponding to the objective of a user's imaging action, Comprising: The image process which can express the state of a more natural and realistic landscape can be implement | achieved.

本発明の画像処理装置の第1実施形態としての撮像装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an imaging apparatus as a first embodiment of an image processing apparatus of the present invention. 図1の撮像装置の機能的構成のうち、本発明の第1実施形態に係る画像合成処理の実行機能を実現する機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional structural example which implement | achieves the execution function of the image synthesis process which concerns on 1st Embodiment of this invention among the functional structures of the imaging device of FIG. 原画像の一例を示す図である。It is a figure which shows an example of an original image. 図3の原画像から得られた合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image obtained from the original image of FIG. 図1の撮像装置が実行する本発明の第1実施形態に係る画像合成処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of image composition processing according to the first embodiment of the present invention executed by the imaging apparatus of FIG. 1. 図5の画像合成処理に含まれる対象被写体特定処理の詳細な流れの一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of a detailed flow of a target subject specifying process included in the image composition process of FIG. 5. 図5の画像合成処理に含まれる対象被写体特定処理の詳細な流れの一例であって、図6の例とは別の例を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining an example of a detailed flow of a target subject specifying process included in the image composition process of FIG. 5, which is different from the example of FIG. 6. 図5の画像合成処理に含まれる雪画像生成処理の詳細な流れの一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of a detailed flow of a snow image generation process included in the image composition process of FIG. 5. 図5の画像合成処理に含まれる雪画像生成処理の詳細な流れの一例であって、図8の例とは別の例を説明するためのフローチャートである。FIG. 9 is a flowchart illustrating an example of a detailed flow of a snow image generation process included in the image composition process of FIG. 5, and an example different from the example of FIG. 8. 図1の撮像装置の機能的構成のうち、本発明の第2実施形態に係る画像合成処理の実行機能を実現する機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional structural example which implement | achieves the execution function of the image synthesis process which concerns on 2nd Embodiment of this invention among the functional structures of the imaging device of FIG. 図1の撮像装置が実行する本発明の第2実施形態に係る画像合成処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image compositing process which concerns on 2nd Embodiment of this invention which the imaging device of FIG. 1 performs. 図1の撮像装置が実行する本発明の第2実施形態に係る成長物画像生成処理の詳細な流れの一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the detailed flow of the growth image generation process which concerns on 2nd Embodiment of this invention which the imaging device of FIG. 1 performs.

以下、図面に基づいて、本発明の画像処理装置の実施形態として、第1実施形態及び第2実施形態をその順番で個別に説明する。   Hereinafter, as an embodiment of an image processing apparatus of the present invention, a first embodiment and a second embodiment will be described individually in that order based on the drawings.

〔第1実施形態〕
図1は、本発明の画像処理装置の第1実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラにより構成することができる。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as a first embodiment of the image processing apparatus of the present invention. The imaging device 1 can be configured by a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、計時部14と、バス15と、入出力インターフェース16と、撮像部17と、操作部18と、表示部19と、記憶部20と、通信部21と、GPS(Global Positioning System)部22と、ドライブ23と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a timer unit 14, a bus 15, an input / output interface 16, and an imaging unit 17. An operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, a GPS (Global Positioning System) unit 22, and a drive 23.

CPU11は、ROM12に記録されているプログラムに従って、又は、記憶部20からRAM13にロードされたプログラムに従って、各種の処理を実行する。
RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to a program recorded in the ROM 12 or according to a program loaded from the storage unit 20 to the RAM 13.
The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.

例えば本実施形態では、後述する図2の原画像取得部41乃至表示制御部45の各機能を実現するプログラムが、ROM12や記憶部20に記憶されている。従って、CPU11が、これらのプログラムに従った処理を実行することで、図2の原画像取得部41乃至表示制御部45の各機能を実現することができる。   For example, in the present embodiment, programs for realizing the functions of the original image acquisition unit 41 to display control unit 45 shown in FIG. 2 to be described later are stored in the ROM 12 and the storage unit 20. Therefore, when the CPU 11 executes processing according to these programs, the functions of the original image acquisition unit 41 to display control unit 45 in FIG. 2 can be realized.

計時部14は、計時動作を行い、現在時刻等をCPU11に通知する。   The timekeeping unit 14 performs a timekeeping operation and notifies the CPU 11 of the current time and the like.

CPU11、ROM12、RAM13、及び計時部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、表示部19、記憶部20、通信部21、GPS部22、及びドライブ23が接続されている。   The CPU 11, ROM 12, RAM 13, and timer unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, a GPS unit 22, and a drive 23 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮像するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured with a lens that collects light, such as a focus lens and a zoom lens, in order to capture an image of the subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、一定時間毎に被写体像を光電変換(撮像)して画像信号を蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
なお、以下、撮像部17の出力信号を、「撮像画像のデータ」と呼ぶ。従って、撮像部17からは撮像画像のデータが出力されて、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) a subject image at regular time intervals to accumulate image signals, and sequentially supplies the accumulated image signals to the AFE as analog signals.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Hereinafter, the output signal of the imaging unit 17 is referred to as “captured image data”. Therefore, captured image data is output from the imaging unit 17 and is appropriately supplied to the CPU 11 and the like.

操作部18は、各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部19は、液晶ディスプレイ等で構成され、各種画像を表示する。
記憶部20は、DRAM(Dynamic Random Access Memory)等で構成され、撮像部17から出力された撮像画像のデータを一時記憶する。また、記憶部20は、各種画像処理に必要な各種データ、例えば、画像のデータ、各種フラグの値、閾値等も記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The operation unit 18 includes various buttons and the like, and accepts user instruction operations.
The display unit 19 is composed of a liquid crystal display or the like and displays various images.
The storage unit 20 is configured by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores captured image data output from the imaging unit 17. The storage unit 20 also stores various data necessary for various image processing, for example, image data, various flag values, threshold values, and the like.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

GPS部22は、複数のGPS衛星との距離を算出することで、撮像装置1の現在位置を測定する。   The GPS unit 22 measures the current position of the imaging device 1 by calculating the distance to a plurality of GPS satellites.

ドライブ23には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。ドライブ23によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 23. The program read from the removable medium 31 by the drive 23 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、図1の撮像装置1の機能的構成のうち、本発明の第1実施形態に係る画像合成処理の実行機能を実現する機能的構成例を示す機能ブロック図である。
ここで、第1実施形態に係る画像合成処理とは、一般的な景観を表す原画像のデータと、後述する対象被写体に一定量の積雪がなされた画像(以下、「雪画像」と呼ぶ)のデータとを合成するまでの一連の処理をいう。
FIG. 2 is a functional block diagram illustrating an example of a functional configuration that realizes an execution function of the image composition processing according to the first embodiment of the present invention, among the functional configurations of the imaging apparatus 1 in FIG. 1.
Here, the image composition processing according to the first embodiment includes original image data representing a general landscape, and an image in which a certain amount of snow is applied to a target subject described later (hereinafter referred to as a “snow image”). A series of processing until combining the data.

CPU11は、このような画像合成処理を実行すべく、原画像取得部41と、対象被写体特定部42と、雪画像生成部43と、合成部44と、表示制御部45と、を備えている。   The CPU 11 includes an original image acquisition unit 41, a target subject specifying unit 42, a snow image generation unit 43, a synthesis unit 44, and a display control unit 45 in order to execute such an image synthesis process. .

本実施形態では、原画像取得部41乃至表示制御部45の各々は、図1に示す構成のうち、CPU11というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
しかしながら、これは例示であって、原画像取得部41乃至表示制御部45の機能の少なくとも一部を、CPU11以外の他の構成要素に移譲させることも当然可能である。
In the present embodiment, each of the original image acquisition unit 41 to the display control unit 45 is configured as a combination of hardware called the CPU 11 and a program (software) stored in the ROM 12 or the like in the configuration shown in FIG. Yes.
However, this is merely an example, and it is naturally possible to transfer at least part of the functions of the original image acquisition unit 41 to the display control unit 45 to other components than the CPU 11.

また、本実施形態では、記憶部20の一領域として、積雪情報記憶部51が設けられている。
なお、積雪情報記憶部51が記憶部20の一領域として設けられていることは例示にすぎず、その他例えば、リムーバブルメディア31の一領域として設けられるようにしてもよい。また、積雪情報記憶部51は、撮像装置1に設けられている必要は特になく、例えば、通信部21を介して接続される他の装置内に設けられていてもよい。
In the present embodiment, a snow information storage unit 51 is provided as an area of the storage unit 20.
Note that the snow information storage unit 51 is provided as an area of the storage unit 20 is merely an example. For example, the snow information storage unit 51 may be provided as an area of the removable media 31. Further, the snow information storage unit 51 is not particularly required to be provided in the imaging device 1, and may be provided in another device connected via the communication unit 21, for example.

原画像取得部41は、本実施形態では撮像部17から出力される撮像画像のデータを、原画像のデータとして取得して、対象被写体特定部42及び合成部44に供給する。   In the present embodiment, the original image acquisition unit 41 acquires captured image data output from the imaging unit 17 as original image data, and supplies the acquired data to the target subject specifying unit 42 and the synthesis unit 44.

なお、原画像のデータは、本実施形態では撮像部17から出力される撮像画像のデータが採用されているが、本実施形態の例に特に限定されず、後述する積雪対象領域を特定可能な画像のデータであれば、その供給元は問わない。
例えば、原画像取得部41は、リムーバブルメディア31から読み出された画像のデータや、通信部21を介するインターネット等から供給される画像のデータを、原画像のデータとして取得することもできる。
In addition, in this embodiment, the data of the captured image output from the imaging unit 17 is adopted as the data of the original image. However, the data is not particularly limited to the example of the present embodiment, and the snow target area described later can be specified. If it is image data, the supply source is not ask | required.
For example, the original image acquisition unit 41 can also acquire image data read from the removable medium 31 or image data supplied from the Internet or the like via the communication unit 21 as original image data.

また、本実施形態では、原画像のデータには、当該原画像が撮像された地域(以下、「撮像地域」と呼ぶ)を示す位置情報と、当該原画像が撮像された時刻(以下、「撮像時刻」と呼ぶ)を示す時間情報とが、少なくともメタ情報として付加されているものとする。
ここで、位置情報は例えばGPS部22(図1)により得られ、時間情報は例えば計時部14(図1)により得られる。
In the present embodiment, the original image data includes position information indicating a region where the original image was captured (hereinafter referred to as “imaging region”) and a time when the original image was captured (hereinafter, “ It is assumed that time information indicating "imaging time" is added as at least meta information.
Here, the position information is obtained by, for example, the GPS unit 22 (FIG. 1), and the time information is obtained by, for example, the time measuring unit 14 (FIG. 1).

対象被写体特定部42は、原画像取得部41から供給された原画像のデータに基づいて、当該原画像に含まれる各種被写体のうち、その上に積雪が起こり得る1以上の被写体(以下、「対象被写体」と呼ぶ)の位置や形状を特定する処理を実行する。
このような対象被写体の位置や形状を特定する処理を、以下、「対象被写体特定処理」と呼ぶ。
ここで、対象被写体の位置や形状を特定する手法は、特に限定されない。本明細書では、このような各種各様の手法のうち2つの具体例について、図6及び図7の各々を参照して後述する。
Based on the original image data supplied from the original image acquisition unit 41, the target subject specifying unit 42 includes one or more subjects (hereinafter referred to as “ A process for specifying the position and shape of the “subject” is executed.
Such processing for specifying the position and shape of the target subject is hereinafter referred to as “target subject specification processing”.
Here, the method for specifying the position and shape of the target subject is not particularly limited. In the present specification, two specific examples of such various methods will be described later with reference to FIGS. 6 and 7.

図3は、原画像の一例を示している。
図3の原画像61においては、道路を示す対象被写体71aや、家を示す対象被写体71b等が特定されることになる。なお、当然ながら、その他の家等の被写体についても、積雪の可能性があるため、対象被写体として特定され得るが、ここでは説明の便宜上、図3に符号が図示されている対象被写体71a,71bのみに着目して、以下、説明を行う。
FIG. 3 shows an example of the original image.
In the original image 61 of FIG. 3, a target subject 71a indicating a road, a target subject 71b indicating a house, and the like are specified. Of course, other subjects such as homes may also be identified as subject subjects because of the possibility of snow accumulation, but here, for convenience of explanation, subject subjects 71a and 71b whose reference numerals are shown in FIG. Hereinafter, the description will be given focusing only on the above.

対象被写体特定部42は、1以上の対象被写体の各々の位置や形状を、雪画像生成部43に通知する。   The target subject specifying unit 42 notifies the snow image generating unit 43 of the position and shape of each of the one or more target subjects.

雪画像生成部43は、対象被写体特定部42から通知された1以上の対象被写体の位置や形状に基づいて、一定量の積雪がなされた当該1以上の対象被写体を含み、それ以外は透明になっている画像のデータを、雪画像のデータとして生成する。
ここで、対象被写体の上の部分であって、一定量の積雪がなされている部分を、以下、「積雪領域」と呼ぶ。従って、本実施形態では、雪画像には、対象被写体と、積雪領域との両者が含まれる。ただし、雪画像には、積雪領域が含まれていれば足り、対象被写体は省略してもよい。
また、本実施形態では、雪画像のうち、対象被写体と積雪領域以外の画素、即ち透明の画素は、データ上、所定の画素値が与えられずに、「画素値がない」というフラグが立てられることにより、表現されるものとする。
ここで、雪画像を生成する手法は、特に限定されない。本明細書では、このような各種各様の手法のうち2つの具体例について、図8及び図9の各々を参照して後述する。
The snow image generation unit 43 includes the one or more target subjects on which a certain amount of snow has been accumulated based on the positions and shapes of the one or more target subjects notified from the target subject specifying unit 42, and the other portions are transparent. The generated image data is generated as snow image data.
Here, a portion above the target subject and where a certain amount of snow is accumulated is hereinafter referred to as a “snow accumulation region”. Therefore, in the present embodiment, the snow image includes both the target subject and the snow accumulation area. However, it is sufficient if the snow image includes a snow accumulation region, and the target subject may be omitted.
In the present embodiment, in the snow image, pixels other than the target subject and the snow accumulation region, that is, transparent pixels, are not given a predetermined pixel value in the data and are flagged as “no pixel value”. To be expressed.
Here, the method for generating the snow image is not particularly limited. In this specification, two specific examples of such various methods will be described later with reference to FIGS. 8 and 9.

なお、本実施形態では、雪領域の積雪量、即ち、雪領域の画像内の垂直方向の長さ(高さ)の基準は、ユーザが自在に設定可能とされており、以下、「設定積雪量」と呼ぶ。即ち、ユーザは、操作部18を操作することによって、設定積雪量を指示することができる。
なお、設定積雪量の指示の手法は、特に限定されないが、本実施形態では、積雪量加減モードと季節変化モードの2種類の設定モードが設けられており、ユーザが何れかの種類の設定モードを用いて設定積雪量を指示する、という手法が採用されているものとする。
積雪量加減モードとは、ユーザが、設定積雪量の加減量を、例えばセンチメートル単位で、操作部18を操作して直接指示するモードをいう。積雪量加減モードでは、ユーザは、既に積雪している合成画像(合成画像については後述する)に対して、マイナス量を指定して設定積雪量を減ずる設定をすることで、合成画像の積雪量を減少させることもできる。
一方、季節変化モードとは、地域や季節のリストが表示部19に表示され、ユーザが操作部18を操作して、そのリストの中から任意の地域と任意の季節を選択することにより、当該地域と季節における例年の積雪量を、設定積雪量として指示するモードをいう。なお、季節変化モードを実現するために、地域と季節とを少なくとも含む複数種類のパラメータにより特定されるパターンに対して、所定の積雪量が対応付けられた情報(以下、「積雪情報」と呼ぶ)が積雪情報記憶部51に記録されている。
In the present embodiment, the snow amount of the snow region, that is, the reference for the vertical length (height) in the image of the snow region can be freely set by the user. Called “amount”. That is, the user can instruct the set snow amount by operating the operation unit 18.
Although the method for instructing the set snow amount is not particularly limited, in the present embodiment, two types of setting modes, a snow amount adjustment mode and a seasonal change mode, are provided, and the user can select any type of setting mode. It is assumed that the method of instructing the set snow amount using is used.
The snow accumulation mode is a mode in which the user directly designates the adjustment of the set snow amount by operating the operation unit 18 in units of centimeters, for example. In the snow cover amount adjustment mode, the user can specify a minus amount to reduce the set snow cover amount for a composite image that has already snowed (the composite image will be described later). Can also be reduced.
On the other hand, in the seasonal change mode, a list of regions and seasons is displayed on the display unit 19, and the user operates the operation unit 18 to select any region and any season from the list. A mode in which the amount of snowfall in each year in the region and season is indicated as the set amount of snowfall. In order to realize the seasonal change mode, information in which a predetermined amount of snow is associated with a pattern specified by a plurality of types of parameters including at least a region and a season (hereinafter referred to as “snow cover information”). ) Is recorded in the snow cover information storage unit 51.

雪画像生成部43は、このようにして生成した雪画像のデータを、合成部44に供給する。   The snow image generation unit 43 supplies the snow image data generated in this way to the synthesis unit 44.

合成部44は、原画像取得部41から供給された原画像のデータと、雪画像生成部43により生成された雪画像のデータとを合成することによって、合成画像のデータを生成する。
具体的には例えば、対象被写体及び積雪領域については透明度が0%(非透明)にされ、それ以外については透明度が100%(透明)にされた状態で、雪画像が原画像の上に重畳されるように、合成画像のデータが生成される。
The combining unit 44 generates combined image data by combining the original image data supplied from the original image acquiring unit 41 and the snow image data generated by the snow image generating unit 43.
Specifically, for example, the snow image is superimposed on the original image in a state where the transparency is set to 0% (non-transparent) for the target subject and the snow covered region, and the transparency is set to 100% (transparent) for the other subjects. As described above, composite image data is generated.

図4は、図3の原画像から得られた合成画像の一例を示している。
合成画像62は、図3の原画像61に対して、各対象被写体の上に積雪領域が付加された画像、例えば、対象被写体71aの上に積雪領域72aが付加され、対象被写体71bの上に積雪領域72bが付加された画像になっている。
FIG. 4 shows an example of a composite image obtained from the original image of FIG.
The composite image 62 is an image in which a snow cover area is added on each target subject, for example, a snow cover area 72a is added on the target subject 71a, and the target image 71b is displayed on the target image 71b. This is an image with the snow region 72b added.

ここで、対象被写体や積雪領域の透明度は、0%(非透明)にする必要は特になく、例えば30%などの半透明にしてもよい。これにより、原画像の色を合成画像に反映させることができるので、例えば積雪領域の奥に元の風景が存在する様子がおぼろげながらわかるような、より自然な表現が可能になる。
また、積雪領域の透明度は、一律に同一割合にする必要は特になく、下方にいくほど0%(非透明)に近付ける、換言すると、上方にいくほど100%(透明)に近付けるようにしてもよい。これにより、下方にいくほど積雪の密度が濃くなり、元の奥の風景が見えづらくなり、上方にいくほど積雪の密度が薄くなり、元の奥の風景が見え易くなるといった、より自然な表現も可能になる。
Here, the transparency of the target subject and the snowy area need not be 0% (non-transparent), and may be translucent, for example, 30%. Thereby, since the color of the original image can be reflected in the composite image, for example, a more natural expression can be realized so that it can be understood that the original landscape exists behind the snowy area.
Further, the transparency of the snowy area does not need to be uniformly the same ratio, and approaches 0% (non-transparent) as it goes downward, in other words, approaches 100% (transparent) as it goes upward. Good. As a result, the density of snowfall increases as it goes down, making it harder to see the original landscape, and the density of snowfall decreases as it goes up, making it easier to see the original landscape. Is also possible.

合成部44は、合成画像のデータを、表示制御部45に供給する。
すると、表示制御部45は、合成部44から供給されたデータが表現する合成画像、即ち、原画像に対して、対象被写体が積雪された状態に変化した画像を表示部19に表示させる。
The combining unit 44 supplies the composite image data to the display control unit 45.
Then, the display control unit 45 causes the display unit 19 to display a composite image represented by the data supplied from the synthesis unit 44, that is, an image in which the target subject has been snowed with respect to the original image.

また、合成部44は、ユーザの操作部18に対する保存の指定操作があった場合、当該合成画像のデータを、例えばリムーバブルメディア31に保存する。   Further, when there is a save designation operation on the operation unit 18 by the user, the synthesis unit 44 saves the data of the synthesized image in, for example, the removable medium 31.

次に、以上説明した図2の機能的構成を有する撮像装置1が実行する画像合成処理について説明する。   Next, an image composition process executed by the imaging apparatus 1 having the functional configuration shown in FIG. 2 described above will be described.

画像合成処理は、例えば、撮像画像が撮像された後、この撮像画像のデータを保存用メモリ(図1のリムーバブルメディア31等)に記録することを確定する前の確認用画面(いわゆるプレビュー画面)の表示中に、ユーザが、当該撮像画像を積雪の状態の画像に変更をする指示操作を操作部18に対して行った場合、その操作を契機として開始される。
そして、この画像合成処理により積雪の状態が変更された後の撮像画像が再度確認用画面に表示され、ユーザが保存用メモリへの記録を確定する指示操作を行った後に、撮像装置1は、積雪の状態が変更された後の撮像画像のデータを保存用メモリに記録する。又は、撮像装置1は、保存用メモリに一時記憶されていた撮像画像のデータの恒久的な保存を確定する。
この場合、ユーザが保存用メモリへの記録を確定する指示操作を行わなかった場合には、一時的に保存用メモリ又は記憶部20に記録されていた撮像画像のデータを自動的に削除する。そして、撮像画像のデータの保存又は非保存が確定した後、撮像装置1の状態は、次の撮影の待機状態に移行する。
ユーザは、保存用メモリへの記録を確定する指示操作を行う前(次の撮影の待機状態に移行する前)の段階では、何度でも変更の指示操作を行って、その都度撮像装置1に画像合成処理を実行させることで、積雪状態の変化を確認用画面でその都度確認することができる。
一方で、ユーザが積雪の状態を変更する指示操作を行わずに保存用メモリへの記録を確定する指示操作を行った場合には、画像合成処理は実行されずに、積雪の状態が変更されていない撮像画像のデータが保存用メモリに記録される。
なお、撮像画像の記録指示操作(シャッタ釦の全押操作等)を、積雪の状態の画像に変更をする指示操作として兼用することも可能である。
このように、撮影直後の確認用画面において、ユーザの指示操作に応じて積雪の状態を任意の状態に変更し、その変更結果を確認できるようにしたので、構図と積雪状態の組み合わせが所望の状態になるまで、構図と積雪状態の両方を変えながら何度でも撮り直しをすることが可能となる。また、構図と積雪状態の組み合わせが所望の状態になった撮像画像のデータだけを保存用メモリに記録することができるので、無駄な撮像画像のデータを保存することなくメモリ容量を節約することが可能となる。
即ち、ユーザは、積雪状態だけを変更するのであれば、例えば、帰宅後に自宅のパーソナルコンピュータを用いて画像編集を行うことも可能である。しかしながら、ユーザは、構図と積雪状態の組み合わせを所望の状態にするためには、その場で(撮影直後に)、積雪状態の変更と確認を行うことが必須になる。このような変更と確認を行うために、画像合成処理が実行されるのである。
なお、上述のように、撮影直後の保存用メモリへの記録を確定する前(次の撮影の待機状態に移行する前)に画像合成処理を行うのが望ましいが、保存用メモリに記録した後の任意のタイミングで撮像画像を読み出して画像合成処理を実行できるようにしてもよい。
また、例えば、より処理能力の高いCPUを用いるなどして、ライブビュー表示のために逐次取得される画像のデータに対して画像合成処理をリアルタイムに施しながら表示するようにしてもよい。
また、予め撮影前の段階で、積雪量加減モードや季節変化モードを設定して記憶しておき、撮影指示が行われた際に、ユーザが他の指示操作を行うこと無く、予め設定された条件で自動的に画像合成処理を実行し、積雪状態が変更された後の撮像画像を自動的に記録するようにしてもよい。
For example, after the captured image is captured, the image composition processing is a confirmation screen (so-called preview screen) before confirming that the captured image data is recorded in the storage memory (removable medium 31 or the like in FIG. 1). When the user performs an instruction operation on the operation unit 18 to change the captured image to an image in a snowy state during the display, the operation is started.
Then, after the captured image after the state of snow has been changed by this image composition processing is displayed again on the confirmation screen and the user performs an instruction operation to confirm recording in the storage memory, the imaging device 1 Data of the captured image after the snow condition is changed is recorded in the storage memory. Alternatively, the imaging device 1 determines the permanent storage of the captured image data temporarily stored in the storage memory.
In this case, when the user does not perform an instruction operation to confirm recording in the storage memory, the captured image data recorded in the storage memory or the storage unit 20 is automatically deleted. After the storage or non-storage of the captured image data is confirmed, the state of the imaging device 1 shifts to a standby state for the next shooting.
The user performs the change instruction operation as many times as necessary before performing the instruction operation for confirming the recording in the storage memory (before shifting to the standby state for the next shooting). By executing the image composition process, it is possible to confirm the change in the snow cover state each time on the confirmation screen.
On the other hand, when the user performs an instruction operation to confirm recording in the storage memory without performing an instruction operation to change the snow cover state, the snow composition state is changed without executing the image composition process. The data of the captured image not recorded is recorded in the storage memory.
Note that a recorded image recording instruction operation (shutter button full press operation or the like) can also be used as an instruction operation for changing to an image in a snowy state.
In this way, on the confirmation screen immediately after shooting, the snow cover state is changed to an arbitrary state in accordance with the user's instruction operation, and the change result can be checked, so that the combination of composition and snow cover state is desired. Until the condition is reached, it is possible to re-shoot as many times as possible while changing both the composition and the snow cover. In addition, since only the captured image data in which the combination of the composition and the snow cover state is in a desired state can be recorded in the storage memory, it is possible to save the memory capacity without storing unnecessary captured image data. It becomes possible.
That is, if the user changes only the snow cover state, the user can edit the image using a personal computer at home after returning home, for example. However, it is essential for the user to change and check the snow cover state on the spot (immediately after photographing) in order to obtain a desired combination of composition and snow cover state. In order to make such a change and confirmation, an image composition process is executed.
As described above, it is desirable to perform image composition processing before confirming recording in the storage memory immediately after shooting (before shifting to the next shooting standby state), but after recording in the storage memory. It is also possible to read the captured image at an arbitrary timing and execute the image composition processing.
Further, for example, a CPU with higher processing capability may be used to display the image data sequentially obtained for live view display while performing image synthesis processing in real time.
In addition, the snow accumulation mode / seasonal change mode and season change mode are set and stored in advance before shooting, and when the shooting instruction is issued, the user does not perform any other instruction operation. An image synthesis process may be automatically executed under conditions to automatically record a captured image after the snow cover state is changed.

図5は、このような画像合成処理の流れの一例を示すフローチャートである。   FIG. 5 is a flowchart showing an example of the flow of such image composition processing.

ステップS1において、原画像取得部41は、原画像のデータを取得する。   In step S1, the original image acquisition unit 41 acquires original image data.

ステップS2において、対象被写体特定部42は、対象被写体特定処理を実行することによって、ステップS1の処理で取得された原画像のデータから、1以上の対象被写体の各々の形状と位置を特定する。
なお、対象被写体特定処理の詳細については、図6及び図7の各々の具体例を参照して後述する。
In step S2, the target subject specifying unit 42 specifies the shape and position of each of the one or more target subjects from the original image data acquired in step S1 by executing the target subject specifying process.
Details of the target subject specifying process will be described later with reference to specific examples of FIGS. 6 and 7.

ステップS3において、雪画像生成部43は、設定積雪量の設定モードの選択操作を受け付ける。
即ち、上述したように、設定積雪量の設定モードとして、積雪量加減モードと季節変化モードの2種類の設定モードが設けられている。このため、本実施形態では、ユーザは、操作部18を操作することによって、これら2種類の設定モードのうち所望のモードを選択することができる。
雪画像生成部43は、このようなユーザの操作部18に対する選択操作を受け付けると、処理をステップS4に進める。
In step S <b> 3, the snow image generation unit 43 accepts a setting operation for setting the set snow amount setting mode.
That is, as described above, there are two types of setting modes, the snow accumulation mode and the seasonal change mode, as the set snow accumulation mode. For this reason, in this embodiment, the user can select a desired mode among these two types of setting modes by operating the operation unit 18.
When the snow image generation unit 43 receives such a selection operation on the operation unit 18 by the user, the snow image generation unit 43 advances the process to step S4.

ステップS4において、雪画像生成部43は、ステップS3の処理で受け付けた選択操作の内容を解釈することによって、選択された設定モードが季節変化モードであるか否かを判定する。   In step S4, the snow image generating unit 43 determines whether or not the selected setting mode is the seasonal change mode by interpreting the content of the selection operation received in the process of step S3.

設定積雪量の設定モードとして、積雪量加減モードが選択された場合、ステップS4においてNOであると判定され、処理はステップS5に進む。
ステップS5において、雪画像生成部43は、ユーザが操作部18を操作して直接指定した積雪量(増減量も含む)を、設定積雪量として決定する。
これにより、処理はステップS9に進む。ただし、ステップS9以降の処理は後述する。
When the snow accumulation mode is selected as the set snow accumulation setting mode, it is determined as NO in step S4, and the process proceeds to step S5.
In step S <b> 5, the snow image generation unit 43 determines the snow amount (including the increase / decrease amount) directly designated by the user by operating the operation unit 18 as the set snow amount.
Thereby, a process progresses to step S9. However, the processing after step S9 will be described later.

これに対して、設定積雪量の設定モードとして、季節変化モードが選択された場合、ステップS4においてYESであると判定され、次のようなステップS6乃至S8の処理が実行される。   On the other hand, when the seasonal change mode is selected as the set snow amount setting mode, it is determined as YES in step S4, and the following processes in steps S6 to S8 are executed.

ステップS6において、雪画像生成部43は、図2には図示しないが表示制御部45を制御して、ユーザが選択可能な地域と季節のリストを、表示部19に表示させる。   In step S <b> 6, the snow image generation unit 43 controls the display control unit 45 (not shown in FIG. 2) to display a list of regions and seasons that can be selected by the user on the display unit 19.

表示部19に表示されたリストをみたユーザは、操作部18を操作して、所望の地域と所望の季節を選択する。   The user who sees the list displayed on the display unit 19 operates the operation unit 18 to select a desired region and a desired season.

ステップS7において、雪画像生成部43は、ユーザが選択した地域と季節のパターンを認識する。
なお、ユーザが地域を選択しなかった場合、本実施形態では、雪画像生成部43は、原画像の撮像地域が選択されたものとみなし、当該原画像のデータに付されたメタ情報(位置情報)から撮像地域を認識する。
また、ユーザが季節を選択しなかった場合、本実施形態では、雪画像生成部43は、原画像が撮像された時の季節が選択されたものとみなし、当該原画像のデータに付されたメタ情報(時間情報)から季節を認識する。
In step S <b> 7, the snow image generation unit 43 recognizes the region and season patterns selected by the user.
When the user does not select an area, in the present embodiment, the snow image generation unit 43 regards that the imaging area of the original image is selected, and meta information (position) attached to the data of the original image The imaging area is recognized from the information.
In addition, when the user does not select a season, in the present embodiment, the snow image generation unit 43 regards that the season when the original image was captured is selected, and is attached to the data of the original image. Recognize the season from meta information (time information).

ステップS8において、雪画像生成部43は、ステップS7の処理で認識したパターンに対応する積雪情報を積雪情報記憶部51から読み出し、当該積雪情報に基づいて設定積雪量を決定する。   In step S8, the snow image generation unit 43 reads the snow cover information corresponding to the pattern recognized in the process of step S7 from the snow cover information storage unit 51, and determines a set snow cover amount based on the snow cover information.

このようにして、ステップS5又はS8の処理で設定積雪量が決定されると、処理はステップS9に進む。   In this way, when the set snow amount is determined in the process of step S5 or S8, the process proceeds to step S9.

ステップS9において、雪画像生成部43は、雪画像のデータを生成する。即ち、ステップS2の対象被写体特定処理によって位置と形状が特定された対象被写体の上部に、ステップS5又はS8の処理で決定された設定積雪量に基づいて堆積された雪を示す積雪領域が付加された画像のデータが、雪画像のデータとして生成される。
このようなステップS9の処理を、以下、図5の同ステップの記載にあわせて「雪画像生成処理」と呼ぶ。雪画像生成処理の詳細については、図8及び図9の各々の具体例を参照して後述する。
In step S9, the snow image generation unit 43 generates snow image data. That is, a snow cover area indicating snow accumulated based on the set snow amount determined in the process of step S5 or S8 is added to the upper part of the target object whose position and shape have been specified by the target subject specifying process of step S2. The image data is generated as snow image data.
Such processing in step S9 is hereinafter referred to as “snow image generation processing” in accordance with the description of the step in FIG. Details of the snow image generation processing will be described later with reference to specific examples of FIGS. 8 and 9.

ステップS10において、合成部44は、ステップS1の処理で取得された原画像のデータと、ステップS9の雪画像生成処理で生成された雪画像のデータとを合成することによって、合成画像のデータを生成する。   In step S10, the synthesis unit 44 synthesizes the composite image data by combining the original image data acquired in step S1 with the snow image data generated in step S9. Generate.

ステップS11において、表示制御部45は、ステップS10の処理で生成されたデータで表現される合成画像を、表示部19に表示させる。
これにより、画像合成処理は終了する。
In step S11, the display control unit 45 causes the display unit 19 to display a composite image expressed by the data generated in the process of step S10.
Thereby, the image composition process is completed.

次に、図5の画像合成処理のうち、ステップS2の対象被写体特定処理の詳細について、図6及び図7の各々の具体例を用いて説明する。
図6は、対象被写体特定処理の詳細な流れの一例を説明するためのフローチャートである。
Next, details of the target subject specifying process in step S2 in the image compositing process of FIG. 5 will be described using the specific examples of FIGS.
FIG. 6 is a flowchart for explaining an example of a detailed flow of the target subject specifying process.

図6の例の対象被写体特定処理においては、対象被写体特定部42は、顕著性マップを作成することにより、対象被写体の位置や形状を特定する。   In the target subject specifying process of the example of FIG. 6, the target subject specifying unit 42 specifies the position and shape of the target subject by creating a saliency map.

顕著性マップとは、次のような画像のデータをいう。即ち、人間の目の網膜や脳の視覚野にある受容野の細胞は、網膜に映る画像の輪郭成分や直線成分を強調して認識する、という性質を有している。このような性質に基づくシミュレーションによって、原画像のデータから生成される画像のデータであって、原画像の中から連続した輪郭成分を抽出するために用いられる画像のデータが、顕著性マップである。
顕著性マップの解像度(サイズ)は原画像と同一であり、顕著性マップの各画素値は、複数種類の特徴量マップの各画素値又はそれに重み付けした値の総和となる。
そこで、図6の例の対象被写体特定処理においては、先ず、次のようなステップS21乃至S23のループ処理が繰り返されることによって、複数種類の特徴量マップが生成される。
The saliency map refers to the following image data. In other words, the receptive field cells in the retina of the human eye and the visual cortex of the brain have the property of recognizing the contour component and the straight line component of the image reflected on the retina. The saliency map is image data generated from the original image data by the simulation based on such properties and used to extract continuous contour components from the original image. .
The resolution (size) of the saliency map is the same as that of the original image, and each pixel value of the saliency map is the sum of the pixel values of a plurality of types of feature amount maps or values weighted thereto.
Therefore, in the target subject specifying process of the example of FIG. 6, first, a plurality of types of feature amount maps are generated by repeating the following loop process of steps S21 to S23.

ステップS21において、対象被写体特定部42は、所定種類の特徴を処理対象に設定する。
ステップS22において、対象被写体特定部42は、処理対象に対応する種類の特徴量マップを生成する。
In step S21, the target subject specifying unit 42 sets a predetermined type of feature as a processing target.
In step S <b> 22, the target subject specifying unit 42 generates a type of feature amount map corresponding to the processing target.

ここで、特徴量マップとは、原画像と同一の解像度(サイズ)を有する画像のデータであって、所定種類の特徴についての原画像の各画素における特徴量のそれぞれを、対応する画素の画素値として有する画像のデータである。
即ち、ステップS21の処理で選択される特徴の種類に応じて、特徴量マップの種類が特定されることになる。
ステップS21の処理で選択され得る特徴の種類として主に採用されるものは、隣接画素間における輝度や色の差分(即ち輪郭成分)と、縦横斜め方向の直線成分である。これらの種類の特徴は全て、人間の受容野の細胞が有する性質のうち、実際に輝度や色の差分と縦横斜めの直線を特異的に感知するという性質に基づいて採用されたものである。
輝度や色の輪郭成分を強調することは、画像の空間周波数の高周波成分を強調することと等価である。それ故、ステップS21の処理で、輝度や色の輪郭成分が特徴として選択された場合、対象被写体特定部42は、ステップS22の処理として、空間周波数のローパスフィルタ(ガウシアンフィルタ等)を原画像のデータに掛けた結果得られるデータと、原画像のデータとの差分を演算する。これにより、所定の高周波成分を強調した画像のデータ、即ち、輝度や色の輪郭成分についての特徴量マップが生成される。
また、ステップS21の処理で、縦横斜め方向のうちの所定方向の直線成分が特徴として選択された場合、対象被写体特定部42は、ステップS22の処理として、所定方向の輪郭成分を強調するフィルタ(ガボールフィルタ等)を原画像のデータに掛けた結果得られるデータと、当該原画像のデータとの差分を演算する。これにより、所定方向の直線成分を強調した画像のデータ、即ち、所定方向の直線成分についての特徴量マップが生成される。
Here, the feature amount map is data of an image having the same resolution (size) as the original image, and the feature amount in each pixel of the original image with respect to a predetermined type of feature is represented by a corresponding pixel. This is image data having values.
That is, the feature map type is specified in accordance with the feature type selected in step S21.
What is mainly adopted as the types of features that can be selected in the process of step S21 is a luminance or color difference (that is, a contour component) between adjacent pixels and a linear component in the vertical and horizontal diagonal directions. All of these types of features were adopted based on the nature of human receptive field cells that specifically senses luminance and color differences and vertical and horizontal diagonal lines.
Emphasizing luminance and color contour components is equivalent to enhancing high-frequency components of the spatial frequency of an image. Therefore, when the luminance or color contour component is selected as a feature in the process of step S21, the target subject specifying unit 42 uses a spatial frequency low-pass filter (such as a Gaussian filter) as the process of step S22. The difference between the data obtained as a result of multiplying the data and the original image data is calculated. As a result, image data in which a predetermined high-frequency component is emphasized, that is, a feature amount map for luminance and color contour components is generated.
In addition, when a linear component in a predetermined direction in the vertical and horizontal diagonal directions is selected as a feature in the process of step S21, the target subject specifying unit 42 performs a filter (step S22) that emphasizes the contour component in the predetermined direction. The difference between the data obtained by applying the Gabor filter or the like to the original image data and the original image data is calculated. Thereby, image data in which a linear component in a predetermined direction is emphasized, that is, a feature amount map for the linear component in the predetermined direction is generated.

このようにして、ステップS21及びS22の処理で、処理対象に対応する種類の特徴量マップが生成されると、処理はステップS23に進む。
ステップS23において、対象被写体特定部42は、全ての種類の特徴が処理対象に設定されたか否かを判定する。
ここで、「全ての種類の特徴」は何れも、撮像装置1の設計製作者やユーザが任意に決定することが可能である。即ち、撮像装置1の設計製作者やユーザは、任意の種類の特徴を任意の数だけ決定することが可能である。
このようにして撮像装置1の設計製作者やユーザにより決定された複数の特徴の種類のうち、未だ処理対象に設定されていないものがある場合、ステップS23においてNOであると判定されて、処理はステップS21に戻され、それ以降の処理が繰り返される。
即ち、撮像装置1の設計製作者やユーザにより決定された複数の特徴の種類の各々が順次処理対象に設定され、その都度、ステップS21乃至S23のループ処理が繰り返し実行されることによって、当該処理対象に対応する種類の特徴量マップがそれぞれ生成される。
そして、輝度や色の高周波成分についての特徴量マップや、縦横斜めの直線成分についての特徴量マップといった複数種類の特徴量マップが生成されると、ステップS23においてYESであると判定されて、処理はステップS24に進む。
In this manner, when the type of feature amount map corresponding to the processing target is generated in the processing of steps S21 and S22, the processing proceeds to step S23.
In step S23, the target subject specifying unit 42 determines whether or not all types of features have been set as processing targets.
Here, any of “all types of features” can be arbitrarily determined by the designer or user of the imaging apparatus 1. That is, the design manufacturer or user of the imaging apparatus 1 can determine an arbitrary number of features of any type.
In this manner, when there is a plurality of feature types determined by the design producer or user of the imaging device 1 that have not yet been set as the processing target, it is determined as NO in step S23, and the processing is performed. Is returned to step S21, and the subsequent processing is repeated.
That is, each of a plurality of feature types determined by the design producer or user of the imaging device 1 is sequentially set as a processing target, and the loop processing of steps S21 to S23 is repeatedly executed each time, thereby performing the processing. A type of feature amount map corresponding to the object is generated.
When a plurality of types of feature quantity maps such as a feature quantity map for high-frequency components of luminance and color and a feature quantity map for longitudinal and horizontal diagonal line components are generated, it is determined as YES in step S23, and processing is performed. Advances to step S24.

ステップS24において、対象被写体特定部42は、複数種類の特徴量マップのデータを構成する各画素値のそれぞれについて、必要に応じて一定の重み付けをして、それらの総和を取ることにより、顕著性マップを生成する。   In step S <b> 24, the target subject specifying unit 42 assigns a certain weight to each of the pixel values constituting the data of the plurality of types of feature amount maps as necessary, and takes the sum of the weights to obtain the saliency. Generate a map.

顕著性マップの具体的な生成手法としては、例えば、Treismanの特徴統合理論や、Itti及びKochらによる顕著性マップの手法を採用することができる。
なお、Treismanの特徴統合理論については、「A.M.Treisman And G.Gelade,“A Feature-Integration Theory of Attention”,Cognitive Psychology,Vol.12,No.1,pp97-136,1980.」を参照するとよい。
また、Itti及びKochらによる顕著性マップについては、「L.Itti,C.Koch, and E.Niebur,“A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”,IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.20,No.11,November 1998.」を参照するとよい。
As a specific method for generating a saliency map, for example, Treisman's feature integration theory or a saliency map method by Itti and Koch et al. Can be adopted.
As for the feature integration theory of Treisman, “AMTreisman And G. Gelade,“ A Feature-Integration Theory of Attention ”, Cognitive Psychology, Vol. 12, No. 1, pp97-136, 1980” may be referred to.
For the saliency map by Itti and Koch et al., See “L. Itti, C. Koch, and E. Niebur,“ A Model of Saliency-Based Visual Attention for Rapid Scene Analysis ”, IEEE Transactions on Pattern Analysis and Machine Intelligence. , Vol. 20, No. 11, November 1998 ”.

ステップS25において、対象被写体特定部42は、顕著性マップに基づいて、注目点領域を特定する。即ち、対象被写体特定部42は、顕著性マップを構成する各画素値のうち、所定の閾値以上の画素値を有する画素の集合体(領域)を、注目点領域として特定する。   In step S25, the target subject specifying unit 42 specifies the point-of-interest area based on the saliency map. That is, the target subject specifying unit 42 specifies an aggregate (region) of pixels having a pixel value equal to or greater than a predetermined threshold among the pixel values constituting the saliency map as the attention point region.

ステップS26において、対象被写体特定部42は、注目点領域に基づいて、対象被写体の位置や形状を特定する。例えば、対象被写体特定部42は、注目点領域の上方の輪郭線を結合することによって、対象被写体の位置や形状を特定する。
これにより、対象被写体特定処理は終了する。即ち、図5のステップS2の処理は終了して、処理はステップS3に進む。
In step S26, the target subject specifying unit 42 specifies the position and shape of the target subject based on the attention point area. For example, the target subject specifying unit 42 specifies the position and shape of the target subject by combining outlines above the attention point region.
Thereby, the target subject specifying process ends. That is, the process of step S2 in FIG. 5 ends, and the process proceeds to step S3.

以上、図5の画像合成処理のステップS2の対象被写体特定処理の一例について、図6のフローチャートを参照して説明した。次に、当該対象被写体特定処理の別の例として、図7のフローチャートを参照して説明する。
図7は、対象被写体特定処理の詳細な流れの一例であって、図6の例とは別の例を説明するためのフローチャートである。
The example of the target subject specifying process in step S2 of the image composition process in FIG. 5 has been described above with reference to the flowchart in FIG. Next, another example of the target subject specifying process will be described with reference to the flowchart of FIG.
FIG. 7 is an example of a detailed flow of the target subject specifying process, and is a flowchart for explaining an example different from the example of FIG.

ステップS41において、対象被写体特定部42は、2次元の原画像のデータから、対象被写体の3次元形状を特定する。   In step S41, the target subject specifying unit 42 specifies the three-dimensional shape of the target subject from the data of the two-dimensional original image.

ステップS42において、対象被写体特定部42は、特定された3次元形状内の平面部分を特定する。   In step S42, the target subject specifying unit 42 specifies a plane portion in the specified three-dimensional shape.

ステップS43において、対象被写体特定部42は、特定された平面部分に基づいて、対象被写体の位置や形状を特定する。
これにより、対象被写体特定処理は終了する。即ち、図5のステップS2の処理は終了して、処理はステップS3に進む。
In step S43, the target subject specifying unit 42 specifies the position and shape of the target subject based on the specified plane portion.
Thereby, the target subject specifying process ends. That is, the process of step S2 in FIG. 5 ends, and the process proceeds to step S3.

以上、図5の画像合成処理のステップS2の対象被写体特定処理の2つの例について、図6及び図7の各々のフローチャートを参照してそれぞれ説明した。
次に、画像合成処理のステップS9の雪画像生成処理の2つの例について、図8及び図9の各々のフローチャートを参照してそれぞれ説明する。
Heretofore, two examples of the target subject specifying process in step S2 of the image composition process in FIG. 5 have been described with reference to the respective flowcharts in FIGS.
Next, two examples of the snow image generation process in step S9 of the image composition process will be described with reference to the flowcharts of FIGS.

図8は、雪画像生成処理の詳細な流れの一例を説明するためのフローチャートである。   FIG. 8 is a flowchart for explaining an example of a detailed flow of the snow image generation process.

ステップS61において、雪画像生成部43は、基準線の上に単位雪画像をランダムに配置させる処理(以下、図8の記載にあわせ「単位雪画像配置処理」と呼ぶ)を実行する。
ここで、初回の単位雪画像配置処理の基準線は、図5のステップS2の対象被写体特定処理により位置や形状が特定された対象被写体のうち、積雪の可能性がある部分(主に上部)の形状の輪郭線が採用される。
また、単位雪画像とは、n×m画素の雪色の画像をいう。nは、水平方向の画素数を示す任意の整数値である。mは、垂直方向の画素数を示す整数値であって、nとは独立した任意の整数値(n=mも含む)である。n,mは、単位雪画像を連続して配置した場合に自然な積雪のように見える範囲内で設定するとよい。
なお、全ての単位雪画像が一律に同一色ならば、単位雪画像が連続して配置された部分は、一律に同一色となってしまい、自然な積雪のようにみえない。従って、単位雪画像の色も、積雪時の色として不自然にならない範囲内で、ランダムに変化させるとよい。或いはまた、単位雪画像を構成するn×mの各画素の色を、積雪時の色として不自然にならない範囲内で、ランダムに変化させてもよい。
また、対象被写体が複数個存在する場合には、単位雪画像配置処理は、複数の対象被写体毎にそれぞれ実行される。
In step S61, the snow image generation unit 43 executes a process of randomly arranging unit snow images on the reference line (hereinafter referred to as “unit snow image arrangement process” in accordance with the description of FIG. 8).
Here, the reference line of the first unit snow image arrangement process is a portion (mainly at the top) where there is a possibility of snow accumulation in the target subject whose position and shape are specified by the target subject specifying process in step S2 of FIG. The outline of the shape is adopted.
The unit snow image is a snow color image of n × m pixels. n is an arbitrary integer value indicating the number of pixels in the horizontal direction. m is an integer value indicating the number of pixels in the vertical direction, and is an arbitrary integer value (including n = m) independent of n. n and m may be set within a range that looks like natural snow when unit snow images are continuously arranged.
If all the unit snow images are uniformly the same color, the portions where the unit snow images are continuously arranged are uniformly the same color and do not look like natural snow. Therefore, the color of the unit snow image may be changed randomly within a range that does not become unnatural as the color at the time of snow accumulation. Alternatively, the color of each n × m pixel constituting the unit snow image may be randomly changed within a range that does not become unnatural as the color at the time of snow accumulation.
When there are a plurality of target subjects, the unit snow image arrangement process is executed for each of the plurality of target subjects.

ステップS62において、雪画像生成部43は、直前のステップS61の処理が終了した時点の単位雪画像の上部の形状の輪郭線を新たな基準線として更新する。   In step S62, the snow image generation unit 43 updates the contour line of the shape of the upper part of the unit snow image at the time when the processing of the previous step S61 is completed as a new reference line.

ステップS63において、雪画像生成部43は、初回の基準線(対象被写体の上部)から、直前のステップS62の処理で更新された基準線までの高さに基づいて、画像内の積雪量を認識し、当該積雪量が、図5のステップS5又はS8の処理で決定された設定積雪量を超えたか否かを判定する。   In step S63, the snow image generation unit 43 recognizes the amount of snow in the image based on the height from the initial reference line (above the target subject) to the reference line updated in the immediately preceding step S62. Then, it is determined whether or not the snow cover amount exceeds the set snow cover amount determined in the process of step S5 or S8 in FIG.

画像内の積雪量が設定積雪量に到達していない場合、ステップS63においてNOであると判定されて、処理はステップS61に戻され、それ以降の処理が繰り返される。
即ち、画像内の積雪量が設定積雪量に到達するまでの間、ステップS61乃至S63のループ処理が繰り返し実行され、単位雪画像配置処理がその都度実行される。
これにより、対象被写体の上部に、単位雪画像が徐々に積層されていくことになる。この場合、このような単位雪画像が積層された領域が、積雪領域となる。即ち、単位雪画像配置処理が繰り返し実行されることで、画像内の積雪量が増加していくように、積雪領域の画像内の高さが高くなっていく。
その後、画像内の積雪量が設定積雪量を超えると、ステップS63においてYESであると判定され、雪画像生成処理が終了する。
なお、対象被写体が複数存在する場合には、複数の対象被写体のそれぞれに対して、ステップS61乃至S63の処理が実行され、複数の対象被写体の上部に複数の積雪領域が形成されていく。この場合、積雪領域の画像内の積雪量(高さ)のうち、例えば最高量(最高位)が設定積雪量を超えると、ステップS63においてYESであると判定され、雪画像生成処理が終了する。
If the amount of snow in the image has not reached the set amount of snow, it is determined NO in step S63, the process returns to step S61, and the subsequent processes are repeated.
That is, until the amount of snow in the image reaches the set amount of snow, the loop processing of steps S61 to S63 is repeatedly executed, and the unit snow image arrangement processing is executed each time.
As a result, the unit snow images are gradually stacked on top of the target subject. In this case, a region where such unit snow images are stacked is a snow accumulation region. That is, by repeatedly executing the unit snow image arrangement process, the height of the snow area in the image increases so that the amount of snow in the image increases.
Thereafter, when the amount of snow in the image exceeds the set amount of snow, it is determined as YES in step S63, and the snow image generation process ends.
When there are a plurality of target subjects, the processes of steps S61 to S63 are performed for each of the plurality of target subjects, and a plurality of snow areas are formed above the plurality of target subjects. In this case, if, for example, the maximum amount (highest) out of the amount of snow (height) in the image of the snow region exceeds the set amount of snow, it is determined to be YES in step S63, and the snow image generation process ends. .

このようにして雪画像生成処理が終了すると、原画像と同一解像度(同一サイズ)の画像であって、一定量(一定の高さ)の積雪領域が上部にそれぞれ付加された、1以上の対象被写体を含み、それ以外は透明となった画像のデータが、雪画像のデータとして生成される。
その後、処理は、図5のステップS9からS10に進み、このような雪画像のデータが、原画像のデータに合成されて、合成画像のデータが生成される。
When the snow image generation process is completed in this way, one or more objects having the same resolution (same size) as the original image, each having a fixed amount (fixed height) of snow accumulation area added to the upper part, respectively. Image data including a subject and transparent otherwise is generated as snow image data.
Thereafter, the process proceeds from step S9 to step S10 in FIG. 5, and such snow image data is combined with the original image data to generate combined image data.

以上、図5の画像合成処理のステップS9の雪画像生成処理の一例について、図8のフローチャートを参照して説明した。次に、当該雪画像生成処理の別の例として、図9のフローチャートを参照して説明する。
図9は、雪画像生成処理の詳細な流れの一例であって、図8の例とは別の例を説明するためのフローチャートである。
The example of the snow image generation process in step S9 of the image composition process in FIG. 5 has been described above with reference to the flowchart in FIG. Next, another example of the snow image generation process will be described with reference to the flowchart of FIG.
FIG. 9 is an example of a detailed flow of the snow image generation process, and is a flowchart for explaining an example different from the example of FIG.

ステップS81において、雪画像生成部43は、図5のステップS2の対象被写体特定処理により特定された対象被写体の位置や形状にあわせて、所定の降雪シミュレーションにおける降雪対象モデルの形状を設定する。   In step S81, the snow image generation unit 43 sets the shape of the snow target model in a predetermined snow simulation in accordance with the position and shape of the target subject specified by the target subject specifying process in step S2 of FIG.

ステップS82において、雪画像生成部43は、図5のステップS5又はS8の処理で決定された設定積雪量を、降雪シミュレーションにおける雪の量として設定する等、降雪シミュレーションの各種条件を設定する。   In step S82, the snow image generating unit 43 sets various conditions for the snowfall simulation, such as setting the set snow amount determined in the process of step S5 or S8 in FIG. 5 as the amount of snow in the snowfall simulation.

ステップS83において、雪画像生成部43は、ステップS82の処理で設定された条件に従って、ステップS81の処理で設定された降雪対象モデルに対して降雪シミュレーションを行うことによって、雪画像のデータを生成する。
これにより、雪画像生成処理が終了する。
In step S83, the snow image generation unit 43 generates snow image data by performing a snowfall simulation on the snow target model set in step S81 in accordance with the conditions set in step S82. .
Thereby, the snow image generation process ends.

このようにして雪画像生成処理が終了すると、原画像と同一解像度(同一サイズ)の画像であって、一定量(一定の高さ)の積雪領域が上部にそれぞれ付加された、1以上の対象被写体を含み、それ以外は透明となった画像のデータが、雪画像のデータとして生成される。
その後、処理は、図5のステップS9からS10に進み、このような雪画像のデータが、原画像のデータに合成されて、合成画像のデータが生成される。
When the snow image generation process is completed in this way, one or more objects having the same resolution (same size) as the original image, each having a fixed amount (fixed height) of snow accumulation area added to the upper part, respectively. Image data including a subject and transparent otherwise is generated as snow image data.
Thereafter, the process proceeds from step S9 to step S10 in FIG. 5, and such snow image data is combined with the original image data to generate combined image data.

なお、図9の例の雪画像生成処理に適用する降雪シミュレーションの手法は特に限定されない。例えば、モンテカルロフィルタ或いは粒子フィルタと呼ばれるフィルタを用いる手法を適用することができる。そこで、以下、当該手法の概略について説明する。   Note that the snowfall simulation technique applied to the snow image generation process in the example of FIG. 9 is not particularly limited. For example, a technique using a filter called a Monte Carlo filter or a particle filter can be applied. Therefore, the outline of the method will be described below.

粒子フィルタを用いる手法が適用された降雪シミュレーションは、次のように実行される。
即ち、上空の所定位置からランダムに発生した雪粒子が、一定時間毎にランダムな揺らぎを与えられた場合において、各雪粒子の運動状態が演算される。このような演算が、対象被写体毎に、各雪粒子が到達するまでの間繰り返し実行されると、対象被写体の各々の上に到達する雪粒子の数が求められる。
このような雪粒子の数を求めるまでの演算がさらに繰り返し実行されると、対象被写体の各々に降り積もる雪の3次元形状(積雪領域の3次元形状)がそれぞれ形成されていく。
これにより、対象被写体の各々の積雪量は当然ランダムになるが、その平均値(或いは最大値)が、図5のステップS5又はS8の処理で決定された設定積雪量に達した時点で、積雪領域の3次元形状は確定される。
The snowfall simulation to which the method using the particle filter is applied is executed as follows.
That is, when snow particles randomly generated from a predetermined position in the sky are given random fluctuations at regular intervals, the motion state of each snow particle is calculated. When such a calculation is repeatedly executed for each target subject until each snow particle reaches, the number of snow particles reaching each target subject is obtained.
When the calculation until the number of snow particles is obtained is repeatedly executed, a three-dimensional shape of snow (three-dimensional shape of the snow region) that accumulates on each of the target subjects is formed.
As a result, the snow amount of each of the target subjects is naturally random, but when the average value (or the maximum value) reaches the set snow amount determined in step S5 or S8 of FIG. The three-dimensional shape of the region is determined.

雪画像生成部43は、さらに、上述のように確定された積雪領域の3次元形状が、原画像の画角に対してどのように見えるかをシミュレートすることによって、2次元の積雪領域を含む雪画像のデータを生成する。
ここで、積雪領域の3次元形状から2次元の画像を得る手法は、特に限定されず、例えば、CG(コンピュータ・グラフィックス)の技法として広く用いられているレイ・トレーシング法等を採用することができる。
レイ・トレーシング法とは、画像を見る眼の方から逆に光線を発したと仮想して、光の伝播経路を追跡することで、2次元スクリーンの各画素でどのように見えるかをシミュレートして、2次元の画像のデータを生成する手法をいう。
Further, the snow image generation unit 43 simulates how the three-dimensional shape of the snow area determined as described above looks with respect to the angle of view of the original image, thereby generating a two-dimensional snow area. Generate snow image data.
Here, the method of obtaining a two-dimensional image from the three-dimensional shape of the snow region is not particularly limited, and for example, a ray tracing method widely used as a CG (computer graphics) method is employed. be able to.
The ray tracing method simulates how each pixel of a two-dimensional screen looks by tracing the light propagation path, assuming that light is emitted from the eye viewing the image. A method of generating two-dimensional image data.

以上説明したように、本発明の第1実施形態に係る撮像装置1は、原画像取得部41と、対象被写体特定部42と、操作部18と、雪画像生成部43と、合成部44と、を備えている。
原画像取得部41は、被写体を含む原画像のデータを取得する。
対象被写体特定部42は、原画像のデータについて、所定の物体の一例である雪の少なくとも一部が接するか又は重なるように合成され得る被写体を対象被写体として、当該対象被写体の形状を特定する。
操作部18は、ユーザにより指定された、雪の合成量の基準として、設定積雪量を受け付ける。
雪画像生成部43は、設定積雪量に基づく積雪量の雪(上述の積雪領域)が、対象被写体の形状の少なくとも一部に対して接するか又は重なる位置に配置された画像のデータを、雪画像のデータとして生成する。
合成部44は、原画像のデータと、雪画像のデータとを合成することによって、合成画像のデータを生成する。
As described above, the imaging apparatus 1 according to the first embodiment of the present invention includes the original image acquisition unit 41, the target subject specifying unit 42, the operation unit 18, the snow image generation unit 43, and the synthesis unit 44. It is equipped with.
The original image acquisition unit 41 acquires data of an original image including a subject.
The target subject specifying unit 42 specifies the shape of the target subject with respect to the original image data, using a subject that can be synthesized so that at least a part of snow as an example of a predetermined object touches or overlaps.
The operation unit 18 receives the set snow accumulation amount as a reference for the amount of snow synthesis specified by the user.
The snow image generation unit 43 converts the image data arranged at a position where the snow of the snow amount based on the set snow amount (the above-described snow region) touches or overlaps at least a part of the shape of the target subject. Generated as image data.
The combining unit 44 generates combined image data by combining the original image data and the snow image data.

従って、本発明の第1実施形態の撮像装置1は、撮像画像に対して、あたかも雪を積もらせたような合成画像のデータを生成することができる。このような合成画像は、例えば、異なる地域や季節の積雪を模した画像になる。   Therefore, the imaging apparatus 1 according to the first embodiment of the present invention can generate composite image data as if snow was piled up on the captured image. Such a composite image is, for example, an image simulating snow accumulation in different regions and seasons.

ここで、ユーザが、撮像装置1を用いて、所定場所(例えば日本国の東京都A区)から見える景観の画像を、撮像画像として撮像する場合を考える。ただし、ユーザの撮像行為の目的は、当該所定場所(例えば日本国の東京都A区)から見える、降雪時の景観の画像を得ることであるとする。
この場合、ユーザの撮影時点において実際に雪が降っていなくとも、即ち、降雪していない景観の画像が原画像として得られたとしても、合成画像として、所望の量の雪が積雪した景観の画像を得ることが容易に可能になる。
さらに、一定量の雪が一律に積雪するのではなく、ユーザにより指定された設定積雪量が基準となって、当該基準に基づいて積雪量が対象被写体毎に決定されるので、より自然で現実味のある降雪の様子を表現できる画像処理が実現可能になる。
Here, a case where the user captures an image of a landscape seen from a predetermined place (for example, A-ku, Tokyo, Japan) as the captured image using the imaging device 1 is considered. However, it is assumed that the purpose of the user's imaging action is to obtain an image of a landscape at the time of snowing that can be seen from the predetermined place (for example, Tokyo A Ward, Japan).
In this case, even if it is not actually snowing at the time of shooting by the user, that is, even if an image of a landscape that has not snowed is obtained as an original image, an image of a landscape in which a desired amount of snow has accumulated as a composite image. It can be easily obtained.
Furthermore, since a certain amount of snow is not uniformly accumulated, the set snow amount specified by the user is used as a reference, and the snow amount is determined for each subject based on the reference, so that more natural and realistic snow can be obtained. Image processing that can express the state of a certain snowfall can be realized.

以上の、本発明の第1実施形態の撮像装置1が奏することが可能な効果を、具体的に説明すると、例えば次の(1)や(2)のようになる。
(1)所定場所における所望量の積雪がなされた景観等、ユーザの作画意図に合った思い通りの景観の画像を、模擬的な合成画像として容易に得ることができるので、ユーザにとっては、撮影の失敗を減少したり、失敗時のカバーを容易にすることができる。
(2)海外の旅行先等の再び撮影するのが困難な場所での撮影や、同一状態の再現や繰り返しが困難な被写体の撮影といった、再撮影が困難な撮影が存在する。このような場合であっても、ユーザは、1度の撮影で得られた撮像画像を原画像とすることで、所望の景観に近い合成画像を得ることができ、さらに、当該合成画像のデータを保存対象のデータとすることができる。その結果、再度の撮影が不要になる。
また、専らパーソナルコンピュータに用いられる画像編集ソフト等を採用する場合と異なり、ユーザが、積雪の場所、積雪の量、積雪の状態(色等)を個々に指定する必要が無く、積雪の量や季節を指定するだけで、自動的に積雪の場所や積雪の状態(色など)を決定して容易に積雪の画像合成を行うことが可能となる。
The above-described effects that can be achieved by the imaging apparatus 1 according to the first embodiment of the present invention will be specifically described as follows (1) and (2).
(1) Since an image of a desired landscape that matches the user's intention to draw, such as a landscape with a desired amount of snow in a predetermined place, can be easily obtained as a simulated composite image, for the user, It can reduce failure and make it easier to cover when it fails.
(2) There are shootings that are difficult to re-shoot, such as shooting in places where it is difficult to re-shoot such as overseas travel destinations, and shooting of subjects that are difficult to reproduce or repeat the same state. Even in such a case, the user can obtain a composite image close to a desired landscape by using a captured image obtained by one shooting as an original image, and further, data of the composite image. Can be stored data. As a result, re-shooting is unnecessary.
Unlike the case of adopting image editing software used exclusively for personal computers, it is not necessary for the user to individually specify the location of snow, the amount of snow, and the state of snow (color, etc.). By simply designating the season, it is possible to automatically determine the location of snow and the state (color, etc.) of snow and easily synthesize snow images.

以上、本発明の画像処理装置の第1実施形態としての撮像装置1について説明した。
ここで、第1実施形態では、原画像に合成される所定の物体は、雪とされたが、特にこれに限定されない。
原画像に合成される所定の物体としては、例えば、時間の経過とともに被写体に堆積する任意の堆積物を採用することができる。換言すると、堆積物の一例が、上述の雪である。従って、雪以外の堆積物、例えば、水たまりや埃等を、原画像に合成される所定の物体として採用することもできる。
さらにまた、原画像に合成される所定の物体としては、例えば、樹木に咲く花、庭に生える草花等、時間の経過とともに成長する成長物を採用することもできる。
そこで、以下、原画像に合成される所定の物体として「成長物」を採用した場合の実施形態を第2実施形態として、以下説明をする。
Heretofore, the imaging apparatus 1 as the first embodiment of the image processing apparatus of the present invention has been described.
Here, in the first embodiment, the predetermined object to be combined with the original image is snow, but is not particularly limited to this.
As the predetermined object to be combined with the original image, for example, any deposit that accumulates on the subject over time can be employed. In other words, an example of the deposit is the above-described snow. Accordingly, deposits other than snow, such as puddles and dust, can be employed as the predetermined object to be combined with the original image.
Furthermore, as the predetermined object to be combined with the original image, for example, a growing thing that grows with the passage of time, such as a flower blooming in a tree or a flower growing in a garden, can be adopted.
Therefore, hereinafter, an embodiment in which a “growth” is adopted as a predetermined object to be combined with the original image will be described as a second embodiment.

〔第2実施形態〕
本発明の第2実施形態に係る撮像装置1は、第1実施形態に係る撮像装置1と基本的に同様のハードウェア構成を取ることができる。
従って、図1は、第2実施形態に係る撮像装置1のハードウェアの構成を示すブロック図でもある。第2実施形態に係る撮像装置1は、第1実施形態と同様に、例えばデジタルカメラにより構成することができる。
[Second Embodiment]
The imaging apparatus 1 according to the second embodiment of the present invention can have basically the same hardware configuration as the imaging apparatus 1 according to the first embodiment.
Therefore, FIG. 1 is also a block diagram illustrating a hardware configuration of the imaging apparatus 1 according to the second embodiment. The imaging device 1 according to the second embodiment can be configured by a digital camera, for example, as in the first embodiment.

図10は、図1の撮像装置1の機能的構成のうち、第2実施形態に係る画像合成処理の実行機能を実現する機能的構成例を示す機能ブロック図である。
ここで、第2実施形態に係る画像合成処理とは、一般的な景観を表す原画像のデータと、一定量の成長を遂げた成長物を含む画像(以下、「成長物画像」と呼ぶ)のデータとを合成するまでの一連の処理をいう。
FIG. 10 is a functional block diagram illustrating an example of a functional configuration that implements an execution function of an image composition process according to the second embodiment, among the functional configurations of the imaging apparatus 1 of FIG.
Here, the image composition processing according to the second embodiment refers to an original image data representing a general landscape and an image including a growth that has achieved a certain amount of growth (hereinafter referred to as a “growth image”). A series of processing until combining the data.

CPU11は、このような画像合成処理を実行すべく、原画像取得部41と、対象被写体特定部42と、合成部44と、表示制御部45と、成長物画像生成部71と、を備えている。   The CPU 11 includes an original image acquisition unit 41, a target subject identification unit 42, a synthesis unit 44, a display control unit 45, and a growth image generation unit 71 in order to execute such an image synthesis process. Yes.

本実施形態では、原画像取得部41、対象被写体特定部42、合成部44、表示制御部45、及び成長物画像生成部71の各々は、図1に示す構成のうち、CPU11というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
しかしながら、これは例示であって、原画像取得部41、対象被写体特定部42、合成部44、表示制御部45、及び成長物画像生成部71の機能の少なくとも一部を、CPU11以外の他の構成要素に移譲させることも当然可能である。
In the present embodiment, each of the original image acquisition unit 41, the target subject specifying unit 42, the synthesis unit 44, the display control unit 45, and the growth image generation unit 71 includes a hardware called a CPU 11 in the configuration illustrated in FIG. 1. The program is configured as a combination with a program (software) stored in the ROM 12 or the like.
However, this is merely an example, and at least some of the functions of the original image acquisition unit 41, the target subject specifying unit 42, the synthesis unit 44, the display control unit 45, and the growth image generation unit 71 are other than the CPU 11. Of course, it is also possible to transfer to a component.

また、本実施形態では、記憶部20の一領域として、成長物情報記憶部81が設けられている。
なお、成長物情報記憶部81が記憶部20の一領域として設けられていることは例示にすぎず、その他例えばリムーバブルメディア31の一領域として設けられるようにしてもよい。また、成長物情報記憶部81は、撮像装置1に設けられている必要は特になく、例えば通信部21を介して接続される他の装置内に設けられていてもよい。
In the present embodiment, a growth information storage unit 81 is provided as an area of the storage unit 20.
Note that the growth information storage unit 81 is provided as an area of the storage unit 20 is merely an example, and may be provided as an area of the removable medium 31, for example. The growth information storage unit 81 is not particularly required to be provided in the imaging device 1, and may be provided in another device connected via the communication unit 21, for example.

原画像取得部41、対象被写体特定部42、合成部44、及び表示制御部45の各機能ブロックは、図2の同一符号の各機能ブロックと基本的に同様の機能的構成を有しているため、ここでは、これらの説明は適宜省略する。   The functional blocks of the original image acquisition unit 41, the target subject specifying unit 42, the synthesis unit 44, and the display control unit 45 have basically the same functional configuration as the functional blocks with the same reference numerals in FIG. Therefore, these descriptions are omitted here as appropriate.

対象被写体特定部42は、原画像取得部41により取得された原画像のデータに基づいて、成長物が含まれるか又は接する可能性のある1以上の被写体、例えば桜等の花が咲く樹木を対象被写体として、当該対象被写体の位置や形状を特定する。
対象被写体特定部42は、1以上の対象被写体の各々の位置や形状を、成長物画像生成部71に通知する。
Based on the original image data acquired by the original image acquisition unit 41, the target subject specifying unit 42 selects one or more subjects that contain or may come into contact with growth, for example, a tree with flowers such as cherry blossoms. As the target subject, the position and shape of the target subject are specified.
The target subject specifying unit 42 notifies the growth image generating unit 71 of the position and shape of each of the one or more target subjects.

成長物画像生成部71は、対象被写体特定部42から通知された1以上の対象被写体の位置や形状に基づいて、一定量の成長を遂げた成長物が付加された当該1以上の対象被写体を含み、それ以外は透明になっている画像のデータを、成長物画像のデータとして生成する。
ここで、本実施形態では、成長物画像には、対象被写体と、それに付加される成長物の両者が含まれる。例えば、対象被写体が樹木であれば、成長物は当該樹木の枝であり、当該枝の成長度合によって、当該枝に生える葉の量や、当該枝に咲く花の量が変化する。ただし、成長物画像には、成長物が含まれていれば足り、対象被写体は省略してもよい。
また、本実施形態では、成長物画像のうち、対象被写体と成長物以外の画素、即ち透明の画素は、データ上、所定の画素値が与えられずに、「画素値がない」というフラグが立てられることにより、表現されるものとする。
ここで、成長物画像を生成する手法は、特に限定されない。本明細書では、このような各種各様の手法の1つの具体例について、図11を参照して後述する。
Based on the position and shape of the one or more target subjects notified from the target subject specifying unit 42, the growth image generation unit 71 adds the one or more target subjects to which the growth material that has achieved a certain amount of growth has been added. Data of an image that is included and is otherwise transparent is generated as data of a growth image.
Here, in the present embodiment, the growth image includes both the target subject and the growth object added thereto. For example, if the target subject is a tree, the growth is a branch of the tree, and the amount of leaves that grow on the branch and the amount of flowers that bloom on the branch change depending on the degree of growth of the branch. However, it suffices if the growth image contains the growth material, and the target subject may be omitted.
In the present embodiment, in the growth image, pixels other than the target object and the growth material, that is, transparent pixels, are not given a predetermined pixel value in the data, and have a flag “no pixel value”. It shall be expressed by being stood.
Here, the method for generating the growth image is not particularly limited. In this specification, one specific example of such various methods will be described later with reference to FIG.

なお、本実施形態では、成長物の成長度合の基準は、ユーザが自在に設定可能とされており、以下、「設定成長度合」と呼ぶ。即ち、ユーザは、操作部18を操作することによって、設定成長度合を指示することができる。
設定成長度合の指示の手法は、特に限定されないが、本実施形態では、成長度合加減モードと季節変化モードの2種類の設定モードが設けられており、ユーザが何れかの種類の設定モードを用いて設定成長度合を指示する、という手法が採用されているものとする。
設定度合加減モードとは、ユーザが、設定成長度合の加減量を、操作部18を操作して直接指示するモードをいう。成長度合加減モードでは、ユーザは、既に成長している合成画像(合成画像については後述する)に対して、マイナス量を指定して設定成長度合を減ずる設定をすることで、成長を戻す(過去の状態に戻す)ような合成画像を得ることができる。
一方、季節変化モードとは、地域や季節のリストが表示部19に表示され、ユーザが操作部18を操作して、そのリストの中から任意の地域と任意の季節を選択することにより、当該地域と季節における例年の成長度合を、設定成長度合として指示するモードをいう。なお、季節変化モードを実現するために、地域と季節とを少なくとも含む複数種類のパラメータにより特定されるパターンに対して、所定の成長度合が対応付けられた情報(以下、「成長物情報」と呼ぶ)が成長物情報記憶部81に記録されている。
In the present embodiment, the reference of the growth degree of the grown product can be freely set by the user, and is hereinafter referred to as “set growth degree”. That is, the user can instruct the set growth degree by operating the operation unit 18.
Although the method of instructing the set growth degree is not particularly limited, in the present embodiment, two types of setting modes, a growth degree adjustment mode and a seasonal change mode, are provided, and the user uses any type of setting mode. It is assumed that the method of instructing the set growth degree is adopted.
The set degree adjustment mode is a mode in which the user directly indicates the adjustment amount of the set growth degree by operating the operation unit 18. In the growth degree addition / subtraction mode, the user restores growth by setting a minus amount to reduce the set growth degree with respect to an already grown composite image (the composite image will be described later) (past The composite image can be obtained.
On the other hand, in the seasonal change mode, a list of regions and seasons is displayed on the display unit 19, and the user operates the operation unit 18 to select any region and any season from the list. This is a mode in which the annual growth rate in the region and season is indicated as the set growth rate. In order to realize the seasonal change mode, information in which a predetermined growth degree is associated with a pattern specified by a plurality of types of parameters including at least a region and a season (hereinafter referred to as “growth information”). Is recorded in the growth information storage unit 81.

成長物画像生成部71は、このようにして生成した成長物画像のデータを、合成部44に供給する。   The growth image generation unit 71 supplies the growth image data generated in this way to the synthesis unit 44.

合成部44は、原画像取得部41から供給された原画像のデータと、成長物画像生成部71により生成された成長物画像のデータとを合成することによって、合成画像のデータを生成する。
具体的には例えば、対象被写体及び成長物については透明度が0%(非透明)にされ、それ以外については透明度が100%(透明)にされた状態で、成長物画像が原画像の上に重畳されるように、合成画像のデータが生成される。
The combining unit 44 generates combined image data by combining the original image data supplied from the original image acquiring unit 41 and the grown image data generated by the grown image generating unit 71.
Specifically, for example, the growth image is placed on the original image in a state where the transparency is set to 0% (non-transparent) for the target subject and the growth, and the transparency is set to 100% (transparency) for the other subjects. Composite image data is generated so as to be superimposed.

ここで、対象被写体や成長物の透明度は、0%(非透明)にする必要は特になく、例えば30%などの半透明にしてもよい。これにより、原画像の色を合成画像に反映させることができるので、例えば成長物の奥に元の風景が存在する様子がおぼろげながらわかるような、より自然な表現が可能になる。
また、成長物の透明度は、一律に同一割合にする必要は特になく、下方にいくほど0%(非透明)に近付ける、換言すると、上方にいくほど100%(透明)に近付けるようにしてもよい。これにより、下方にいくほど成長物(花が咲いたり、葉が生い茂った枝等)の密度が濃くなり、元の奥の風景が見えづらくなり、上方にいくほど成長物の密度が薄くなり、元の奥の風景が見え易くなるといった、より自然な表現も可能になる。
Here, the transparency of the target subject and the growth object need not be 0% (non-transparent), and may be semi-transparent, such as 30%. Thereby, since the color of the original image can be reflected in the composite image, for example, a more natural expression can be realized so that the appearance of the original scenery in the back of the growth can be understood in a relaxed manner.
Further, the transparency of the growth need not be uniformly the same ratio, and it becomes closer to 0% (non-transparent) as it goes downward, in other words, it approaches 100% (transparent) as it goes upward. Good. As a result, the density of the growth (flower blooms, leaves with thick leaves, etc.) increases as it goes down, and it becomes difficult to see the original landscape. More natural expressions, such as making it easier to see the original landscape, are also possible.

次に、以上説明した図2の機能的構成を有する撮像装置1が実行する、第2実施形態に係る画像合成処理について説明する。   Next, an image composition process according to the second embodiment executed by the imaging apparatus 1 having the functional configuration of FIG. 2 described above will be described.

第2実施形態に係る画像合成処理は、例えば、撮像画像が撮像された後、この撮像画像のデータを保存用メモリ(図1のリムーバブルメディア31等)に記録することを確定する前の確認用画面(いわゆるプレビュー画面)の表示中に、ユーザが、当該撮像画像に含まれる成長物の成長度合を変更する指示操作を操作部18に対して行った場合、その操作を契機として開始される。
そして、この画像合成処理により成長度合が変更された後の撮像画像が再度確認用画面に表示され、ユーザが保存用メモリへの記録を確定する指示操作を行った後に、撮像装置1は、成長度合が変更された後の撮像画像のデータを保存用メモリに記録する。又は、撮像装置1は、保存用メモリに一時記憶されていた撮像画像のデータの恒久的な保存を確定する。
この場合、ユーザが保存用メモリへの記録を確定する指示操作を行わなかった場合には、一時的に保存用メモリ又は記憶部20に記録されていた撮像画像のデータを自動的に削除する。そして、撮像画像のデータの保存又は非保存が確定した後、撮像装置1の状態は、次の撮影の待機状態に移行する。
ユーザは、保存用メモリへの記録を確定する指示操作を行う前(次の撮影の待機状態に移行する前)の段階では、何度でも変更の指示操作を行って、その都度撮像装置1に画像合成処理を実行させることで、成長物の成長度合の変化を確認用画面でその都度確認することができる。
一方で、ユーザが成長度合を変更する指示操作を行わずに保存用メモリへの記録を確定する指示操作を行った場合には、画像合成処理は実行されずに、成長物の成長度合が変更されていない撮像画像のデータが保存用メモリに記録される。
なお、撮像画像の記録指示操作(シャッタ釦の全押操作等)を、成長物の成長度合を変更する指示操作として兼用することも可能である。
このように、撮影直後の確認用画面において、ユーザの指示操作に応じて成長物の成長度合を任意の度合に変更し、その変更結果を確認できるようにしたので、構図と成長度合の組み合わせが所望の状態になるまで、構図と成長度合の両方を変えながら何度でも撮り直しをすることが可能となる。また、構図と成長度合の組み合わせが所望の状態になった撮像画像のデータだけを保存用メモリに記録することができるので、無駄な撮像画像のデータを保存することなくメモリ容量を節約することが可能となる。
即ち、ユーザは、成長物の成長度合だけを変更するのであれば、例えば、帰宅後に自宅のパーソナルコンピュータを用いて画像編集を行うことも可能である。しかしながら、ユーザは、構図と成長度合の組み合わせを所望の状態にするためには、その場で(撮影直後に)、成長度合の変更と確認を行うことが必須になる。このような変更と確認を行うために、画像合成処理が実行されるのである。
なお、上述のように、撮影直後の保存用メモリへの記録を確定する前(次の撮影の待機状態に移行する前)に画像合成処理を行うのが望ましいが、保存用メモリに記録した後の任意のタイミングで撮像画像を読み出して画像合成処理を実行できるようにしてもよい。
また、例えば、より処理能力の高いCPUを用いるなどして、ライブビュー表示のために逐次取得される画像のデータに対して画像合成処理をリアルタイムに施しながら表示するようにしてもよい。
また、予め撮影前の段階で、成長度合加減モードや季節変化モードを設定して記憶しておき、撮影指示が行われた際に、ユーザが他の指示操作を行うこと無く、予め設定された条件で自動的に画像合成処理を実行し、成長度合が変更された後の撮像画像を自動的に記録するようにしてもよい。
The image compositing process according to the second embodiment is, for example, for confirmation before confirming that the captured image data is recorded in the storage memory (such as the removable medium 31 in FIG. 1) after the captured image is captured. When the user performs an instruction operation for changing the growth degree of the growth included in the captured image on the operation unit 18 while the screen (so-called preview screen) is displayed, the operation is started.
Then, the captured image after the growth degree is changed by this image composition processing is displayed again on the confirmation screen, and after the user performs an instruction operation to confirm recording in the storage memory, the imaging device 1 Data of the captured image after the degree is changed is recorded in the storage memory. Alternatively, the imaging device 1 determines the permanent storage of the captured image data temporarily stored in the storage memory.
In this case, when the user does not perform an instruction operation to confirm recording in the storage memory, the captured image data recorded in the storage memory or the storage unit 20 is automatically deleted. After the storage or non-storage of the captured image data is confirmed, the state of the imaging device 1 shifts to a standby state for the next shooting.
The user performs the change instruction operation as many times as necessary before performing the instruction operation for confirming the recording in the storage memory (before shifting to the standby state for the next shooting). By executing the image compositing process, it is possible to confirm the change in the growth degree of the grown product on the confirmation screen each time.
On the other hand, when the user performs an instruction operation to confirm recording in the storage memory without performing an instruction operation to change the growth degree, the growth degree of the growth is changed without executing the image composition process. Data of the captured image that has not been recorded is recorded in the storage memory.
It should be noted that a captured image recording instruction operation (shutter button full pressing operation, etc.) can also be used as an instruction operation for changing the growth degree of the growth.
In this way, on the confirmation screen immediately after shooting, the growth degree of the growth is changed to an arbitrary degree according to the user's instruction operation, and the change result can be confirmed, so the combination of composition and growth degree is It is possible to re-shoot as many times as necessary while changing both the composition and the degree of growth until the desired state is achieved. In addition, since only the captured image data in which the combination of composition and the degree of growth is in a desired state can be recorded in the storage memory, it is possible to save memory capacity without storing useless captured image data. It becomes possible.
That is, if the user changes only the growth degree of the grown product, for example, the user can edit the image using a personal computer at home after returning home. However, it is essential for the user to change and confirm the growth degree on the spot (immediately after shooting) in order to obtain a desired combination of composition and growth degree. In order to make such a change and confirmation, an image composition process is executed.
As described above, it is desirable to perform image composition processing before confirming recording in the storage memory immediately after shooting (before shifting to the next shooting standby state), but after recording in the storage memory. It is also possible to read the captured image at an arbitrary timing and execute the image composition processing.
Further, for example, a CPU with higher processing capability may be used to display the image data sequentially obtained for live view display while performing image synthesis processing in real time.
In addition, the growth degree adjustment mode and the seasonal change mode are set and stored in advance before shooting, and when the shooting instruction is issued, the user does not perform any other instruction operation. An image synthesis process may be automatically executed under conditions, and a captured image after the growth degree is changed may be automatically recorded.

図11は、このような第2実施形態に係る画像合成処理の流れの一例を示すフローチャートである。   FIG. 11 is a flowchart showing an example of the flow of image composition processing according to the second embodiment.

ステップS101において、原画像取得部41は、原画像のデータを取得する。   In step S101, the original image acquisition unit 41 acquires original image data.

ステップS102において、対象被写体特定部42は、対象被写体特定処理を実行することによって、ステップS1の処理で取得された原画像のデータから、1以上の対象被写体の各々の形状と位置を特定する。
なお、対象被写体特定処理としては、上述した図6や図7の例も含め、各種各様の処理を採用することができる。
ここでは、説明の便宜上、桜の木が対象被写体として、当該桜の木の形状と位置が特定されたものとして、以下の説明を行う。
In step S102, the target subject specifying unit 42 executes the target subject specifying process to specify the shape and position of each of the one or more target subjects from the original image data acquired in the process of step S1.
It should be noted that various types of processing can be employed as the target subject specifying processing, including the examples of FIGS. 6 and 7 described above.
Here, for convenience of explanation, the following description will be given on the assumption that the cherry tree is the target subject and the shape and position of the cherry tree are specified.

ステップS103において、成長物画像生成部71は、設定成長度合の設定モードの選択操作を受け付ける。
即ち、上述したように、設定成長度合の設定モードとして、成長度合加減モードと季節変化モードの2種類の設定モードが設けられている。このため、本実施形態では、ユーザは、操作部18を操作することによって、これら2種類の設定モードのうち所望のモードを選択することができる。
成長物画像生成部71は、このようなユーザの操作部18に対する選択操作を受け付けると、処理をステップS104に進める。
In step S <b> 103, the growth image generating unit 71 accepts a setting mode selection operation for the set growth degree.
That is, as described above, there are two types of setting modes, the growth degree adjustment mode and the seasonal change mode, as the set growth degree setting modes. For this reason, in this embodiment, the user can select a desired mode among these two types of setting modes by operating the operation unit 18.
When the growth image generation unit 71 accepts such a selection operation performed on the operation unit 18 by the user, the process proceeds to step S104.

ステップS104において、成長物画像生成部71は、ステップS3の処理で受け付けた選択操作の内容を解釈することによって、選択された設定モードが季節変化モードであるか否かを判定する。   In step S104, the growth image generation unit 71 determines whether or not the selected setting mode is the seasonal change mode by interpreting the content of the selection operation received in the process of step S3.

設定成長度合の設定モードとして、成長度合加減モードが選択された場合、ステップS104においてNOであると判定され、処理はステップS105に進む。
ステップS105において、成長物画像生成部71は、ユーザが操作部18を操作して直接指定した成長度合(例えば、桜の花の開花度等も含む)を、設定成長度合として決定する。
これにより、処理はステップS109に進む。ただし、ステップS109以降の処理は後述する。
When the growth degree addition / subtraction mode is selected as the setting mode of the set growth degree, it is determined as NO in Step S104, and the process proceeds to Step S105.
In step S105, the growth image generation unit 71 determines the growth degree (including the flowering degree of cherry blossoms and the like) directly designated by the user by operating the operation unit 18 as the set growth degree.
Accordingly, the process proceeds to step S109. However, the processing after step S109 will be described later.

これに対して、設定成長度合の設定モードとして、季節変化モードが選択された場合、ステップS104においてYESであると判定され、次のようなステップS106乃至S108の処理が実行される。   On the other hand, when the seasonal change mode is selected as the setting mode of the set growth degree, it is determined as YES in step S104, and the following processes of steps S106 to S108 are executed.

ステップS106において、成長物画像生成部71は、図10には図示しないが表示制御部45を制御して、ユーザが選択可能な地域と季節のリストを、表示部19に表示させる。   In step S <b> 106, the growth image generating unit 71 controls the display control unit 45 (not shown in FIG. 10) to display a list of regions and seasons that can be selected by the user on the display unit 19.

表示部19に表示されたリストをみたユーザは、操作部18を操作して、所望の地域と所望の季節を選択する。   The user who sees the list displayed on the display unit 19 operates the operation unit 18 to select a desired region and a desired season.

ステップS107において、成長物画像生成部71は、ユーザが選択した地域と季節のパターンを認識する。
なお、ユーザが地域を選択しなかった場合、本実施形態では、成長物画像生成部71は、原画像の撮像地域が選択されたものとみなし、当該原画像のデータに付されたメタ情報(位置情報)から撮像地域を認識する。
また、ユーザが季節を選択しなかった場合、本実施形態では、成長物画像生成部71は、原画像が撮像された時の季節が選択されたものとみなし、当該原画像のデータに付されたメタ情報(時間情報)から季節を認識する。
In step S107, the growth image generation unit 71 recognizes the region and season patterns selected by the user.
When the user does not select an area, in this embodiment, the growth image generation unit 71 regards that the imaging area of the original image has been selected, and meta information ( The imaging area is recognized from the position information.
When the user does not select a season, in this embodiment, the growth image generation unit 71 regards that the season when the original image was captured is selected, and is attached to the data of the original image. The season is recognized from the meta information (time information).

ステップS108において、成長物画像生成部71は、ステップS107の処理で認識したパターンに対応する成長物情報を成長物情報記憶部81から読み出し、当該成長物情報に基づいて設定成長度合を決定する。   In step S108, the growth image generation unit 71 reads growth information corresponding to the pattern recognized in the process of step S107 from the growth information storage unit 81, and determines a set growth degree based on the growth information.

このようにして、ステップS105又はS108の処理で設定成長度合が決定されると、処理はステップS109に進む。   In this way, when the set growth degree is determined in the process of step S105 or S108, the process proceeds to step S109.

ステップS109において、成長物画像生成部71は、成長物画像のデータを生成する。即ち、ステップS102の対象被写体特定処理によって位置と形状が特定された対象被写体の内部又は接する位置に、ステップS105又はS108の処理で決定された設定成長度合に応じた成長を遂げた成長物が配置された画像のデータが、成長物画像のデータとして生成される。具体的には例えば、上述の例では、桜の木が対象被写体であるため、成長物は当該桜の木の枝になり、その結果、成長度合(開花度)に応じた桜の花が咲いた各枝を有する木を含む画像のデータが、成長物画像のデータとして得られる。
このようなステップS109の処理を、以下、図11の同ステップの記載にあわせて「成長物画像生成処理」と呼ぶ。成長物画像生成処理の詳細については、図12の具体例を参照して後述する。
In step S109, the growth image generation unit 71 generates growth image data. That is, a growth that has grown in accordance with the set growth degree determined in the process of step S105 or S108 is placed in or inside the target object whose position and shape have been specified by the target object specifying process of step S102. The image data is generated as growth image data. Specifically, for example, in the above-described example, the cherry tree is the target subject, so the growth becomes a branch of the cherry tree, and as a result, each branch where the cherry blossoms bloom according to the degree of growth (flowering degree). Data of an image including a tree having “” is obtained as growth image data.
Such processing in step S109 is hereinafter referred to as “growth image generation processing” in accordance with the description of the same step in FIG. Details of the growth image generation processing will be described later with reference to a specific example of FIG.

ステップS110において、合成部44は、ステップS101の処理で取得された原画像のデータと、ステップS109の成長物画像生成処理で生成された成長物画像のデータとを合成することによって、合成画像のデータを生成する。   In step S110, the synthesizing unit 44 synthesizes the original image data acquired in step S101 and the growth image data generated in the growth image generation process in step S109, thereby generating a synthesized image. Generate data.

ステップS111において、表示制御部45は、ステップS110の処理で生成されたデータで表現される合成画像を、表示部19に表示させる。
これにより、画像合成処理は終了する。
In step S111, the display control unit 45 causes the display unit 19 to display a composite image expressed by the data generated in the process of step S110.
Thereby, the image composition process is completed.

以上、図11のフローチャートを参照して、第2実施形態に係る画像合成処理について説明した。
次に、このような画像合成処理のうち、ステップS109の成長物画像生成処理の詳細な例について、図12のフローチャートを参照して説明する。
Heretofore, the image composition processing according to the second embodiment has been described with reference to the flowchart of FIG.
Next, a detailed example of the growth image generation processing in step S109 among such image synthesis processing will be described with reference to the flowchart of FIG.

図12は、第2実施形態に係る成長物画像生成処理の詳細な流れの一例を説明するためのフローチャートである   FIG. 12 is a flowchart for explaining an example of a detailed flow of the growth image generation processing according to the second embodiment.

ステップS121において、成長物画像生成部71は、基準線の上に単位要素画像をランダムに配置させる処理(以下、図12の記載にあわせ「単位要素画像配置処理」と呼ぶ)を実行する。
ここで、初回の単位要素画像配置処理の基準線は、図11のステップS102の対象被写体特定処理により位置や形状が特定された対象被写体の一部又は接するように配置される成長物の輪郭線が採用される。
また、単位要素画像とは、n×m画素の、成長物の成長要素の少なくとも一部を示す画像、例えば成長物が桜の木の枝ならば、桜の花の少なくとも一部を示す桜色(ピンク色等)の画像をいう。nは、水平方向の画素数を示す任意の整数値である。mは、垂直方向の画素数を示す整数値であって、nとは独立した任意の整数値(n=mも含む)である。n,mは、単位要素画像を連続して配置した場合に成長物が自然に成長しているように見える範囲内で設定するとよい。
なお、全ての単位要素画像が一律に同一色ならば、単位要素画像が連続して配置された部分は、一律に同一色となってしまい、自然な成長物にみえない。例えば成長物が桜の木の枝ならば、一律に同一のピンク色の領域が枝に付加されただけになってしまい、桜の花が自然に開花しているようにみえない。
従って、単位要素画像の色も、成長時の色、例えば桜の開花時の色として不自然にならない範囲内で、ランダムに変化させるとよい。或いはまた、単位要素画像を構成するn×mの各画素の色を、成長時の色、例えば桜の開花時の色として不自然にならない範囲内で、ランダムに変化させてもよい。
また、成長物が複数個存在する場合には、単位要素画像配置処理は、複数の成長物毎にそれぞれ実行される。例えば、対象被写体が桜の木の場合、成長物たる複数の枝が存在するので、複数の枝毎に、単位要素画像配置処理がそれぞれ実行され、その結果、複数の枝のそれぞれに桜の花(単位要素画像)が開花しているように配置されることになる。
In step S121, the growth image generating unit 71 executes a process of randomly arranging unit element images on the reference line (hereinafter referred to as “unit element image arrangement process” in accordance with the description of FIG. 12).
Here, the reference line of the first unit element image arrangement process is a contour line of a growth object arranged so as to be a part of or in contact with the target subject whose position and shape are specified by the target subject specifying process in step S102 of FIG. Is adopted.
The unit element image is an image of n × m pixels showing at least a part of the growth element of the growth, for example, if the growth is a branch of a cherry tree, a cherry color (pink color) showing at least a part of the cherry blossom. Etc.). n is an arbitrary integer value indicating the number of pixels in the horizontal direction. m is an integer value indicating the number of pixels in the vertical direction, and is an arbitrary integer value (including n = m) independent of n. n and m may be set within a range in which a growth product appears to grow naturally when unit element images are continuously arranged.
If all the unit element images are uniformly the same color, the portion where the unit element images are continuously arranged is uniformly the same color, and does not look like a natural growth product. For example, if the growth is a branch of a cherry tree, the same pink area is simply added to the branch, and the cherry blossoms do not appear to be naturally blooming.
Therefore, the color of the unit element image may be randomly changed within a range that does not become unnatural as a color at the time of growth, for example, a color at the time of blooming cherry blossoms. Alternatively, the color of each n × m pixel constituting the unit element image may be randomly changed within a range that does not become unnatural as a color at the time of growth, for example, a color at the time of blooming cherry blossoms.
When there are a plurality of growths, the unit element image arrangement process is executed for each of the plurality of growths. For example, when the target subject is a cherry tree, there are a plurality of branches that are grown, so unit element image placement processing is executed for each of the plurality of branches, and as a result, a cherry blossom (unit The element image) is arranged so as to bloom.

ステップS122において、成長物画像生成部71は、直前のステップS121の処理が終了した時点の単位要素画像の輪郭線を新たな基準線として更新する。   In step S122, the growth image generating unit 71 updates the contour line of the unit element image at the time when the processing of the previous step S121 is completed as a new reference line.

ステップS123において、成長物画像生成部71は、初回の基準線(対象被写体の上部)から、直前のステップS122の処理で更新された基準線までの高さに基づいて、画像内の成長物の成長度合(桜の花の開花度等)を認識し、当該成長度が、図11のステップS105又はS108の処理で決定された設定成長度合を超えたか否かを判定する。   In step S123, the growth image generating unit 71 determines the growth of the growth in the image based on the height from the initial reference line (above the target subject) to the reference line updated in the immediately preceding step S122. The degree of growth (such as the degree of cherry blossom bloom) is recognized, and it is determined whether or not the degree of growth exceeds the set degree of growth determined in step S105 or S108 of FIG.

画像内の成長物の成長度合が設定成長度合に到達していない場合、ステップS123においてNOであると判定されて、処理はステップS121に戻され、それ以降の処理が繰り返される。
即ち、画像内の成長物の成長度合(桜の花の開花度等)が設定成長度合に到達するまでの間、ステップS121乃至S123のループ処理が繰り返し実行され、単位要素画像配置処理がその都度実行される。
これにより、対象被写体の一部又は接するように配置された成長物に、単位要素画像が徐々に積層されていくことになる。例えば、対象被写体が桜の木の場合には、成長物である複数の枝の各々に対して、桜の花(単位要素画像)が徐々に積層されていくことによって、開花が進んでいく様子が表わされていく。
その後、画像内の成長物の成長度合が設定成長度合を超えると(桜の花の開花度が設定開花度を超えると)、ステップS123においてYESであると判定され、成長物画像生成処理が終了する。
なお、成長物が複数存在する場合には、複数の成長物のそれぞれに対して、ステップS121乃至S123の処理が実行され、複数の成長物の画像内のサイズが大きくなっていく。この場合、成長物の画像内のサイズのうち、例えば最高サイズに対応する成長度合が設定成長度合を超えると、ステップS123においてYESであると判定され、成長物画像生成処理が終了する。
If the growth degree of the growth in the image has not reached the set growth degree, it is determined as NO in step S123, the process returns to step S121, and the subsequent processes are repeated.
That is, the loop processing of steps S121 to S123 is repeatedly executed until the growth degree (such as the flowering degree of cherry blossoms) in the image reaches the set growth degree, and the unit element image arrangement process is executed each time. Is done.
As a result, the unit element images are gradually stacked on the growth object arranged to be in contact with a part of the subject. For example, when the target subject is a cherry tree, the flowering progresses as the cherry blossoms (unit element images) are gradually stacked on each of a plurality of branches that are grown. I will be forgotten.
Thereafter, when the growth degree of the growth in the image exceeds the set growth degree (when the cherry blossom flowering degree exceeds the set flowering degree), it is determined as YES in step S123, and the growth image generation process ends. .
When there are a plurality of growths, the processes in steps S121 to S123 are performed on each of the plurality of growths, and the size of the plurality of growths in the image increases. In this case, for example, when the growth degree corresponding to the maximum size among the sizes in the image of the growth exceeds the set growth degree, it is determined as YES in Step S123, and the growth image generation process is ended.

このようにして成長物画像生成処理が終了すると、原画像と同一解像度(同一サイズ)の画像であって、設定成長度合に基づく成長量で成長した成長物が、設定被写体の内部又は接する位置に配置された画像のデータが、成長物画像のデータとして生成される。
例えば、対象被写体が桜の木であって、成長物が複数の枝の各々の場合には、設定成長度合(設定開花度)に基づいて開花された複数の枝の各々を有する桜の木を含む画像のデータが、成長物画像のデータとして生成される。
その後、処理は、図11のステップS109からS110に進み、このような成長物画像のデータが、原画像のデータに合成されて、合成画像のデータが生成される。
When the growth image generation process is completed in this manner, an image having the same resolution (same size) as the original image and grown at a growth amount based on the set growth degree is located at or inside the set subject. The arranged image data is generated as growth image data.
For example, when the target subject is a cherry tree and the growth is each of a plurality of branches, the image includes a cherry tree having each of a plurality of branches flowered based on a set growth degree (set flowering degree). Are generated as growth image data.
Thereafter, the process proceeds from step S109 to step S110 in FIG. 11, and such growth image data is combined with the original image data to generate combined image data.

以上説明したように、本発明の第2実施形態に係る撮像装置1は、原画像取得部41と、対象被写体特定部42と、操作部18と、成長物画像生成部71と、合成部44と、を備えている。
原画像取得部41は、被写体を含む原画像のデータを取得する。
対象被写体特定部42は、原画像のデータについて、所定の物体の一例である成長物(例えば桜の木の枝等)の少なくとも一部が接するか又は重なるように合成され得る被写体(例えば桜の木等)を対象被写体として、当該対象被写体の形状を特定する。
操作部18は、ユーザにより指定された、成長物の成長量(合成量)の基準として、設定成長度合を受け付ける。
成長物画像生成部71は、設定成長度合に基づく成長量で成長した成長物が、設定被写体の内部又は接する位置に配置された画像のデータを、成長物画像のデータとして生成する。
合成部44は、原画像のデータと、成長物画像のデータとを合成することによって、合成画像のデータを生成する。
As described above, the imaging apparatus 1 according to the second embodiment of the present invention includes the original image acquisition unit 41, the target subject specifying unit 42, the operation unit 18, the growth image generation unit 71, and the synthesis unit 44. And.
The original image acquisition unit 41 acquires data of an original image including a subject.
The target subject specifying unit 42 is a subject (for example, a cherry tree or the like) that can be synthesized so that at least a part of a growth (for example, a cherry tree branch) that is an example of a predetermined object touches or overlaps the original image data. ) As a target subject, the shape of the target subject is specified.
The operation unit 18 receives the set growth degree as a reference for the growth amount (synthesis amount) of the growth specified by the user.
The growth image generation unit 71 generates, as growth image data, data of an image in which a growth grown with a growth amount based on the set growth degree is arranged inside or in contact with the set subject.
The combining unit 44 generates combined image data by combining the original image data and the growth image data.

従って、本発明の第2実施形態の撮像装置1は、撮像画像に対して、あたかも成長物が成長した状態の合成画像のデータを生成することができる。このような合成画像は、例えば、異なる地域や季節の成長物の成長状態を模した画像になる。   Therefore, the imaging apparatus 1 according to the second embodiment of the present invention can generate composite image data in a state in which a growth has grown on the captured image. Such a composite image is, for example, an image imitating the growth state of a growth product in a different region or season.

ここで、ユーザが、撮像装置1を用いて、所定場所(例えば日本国の東京都A区)から見える景観の画像を、撮像画像として撮像する場合を考える。ただし、ユーザの撮像行為の目的は、当該所定場所(例えば日本国の東京都A区)から見える、開花時の桜の木の景観の画像を得ることであるとする。
この場合、ユーザの撮影時点において実際に桜が開花していなくとも、即ち、開花していない桜の木の景観の画像が原画像として得られたとしても、合成画像として、所望の開花度で開花した桜の木の景観の画像を得ることが容易に可能になる。
さらに、一定面積の桜の花を示す領域が各枝に付されるのではなく、ユーザにより指定された設定開花度が基準となって、当該基準に基づいて開花量(桜の花を示す領域の面積)が各枝(成長物)毎に決定されるので、より自然で現実味のある桜の開花の様子を表現できる画像処理が実現可能になる。
Here, a case where the user captures an image of a landscape seen from a predetermined place (for example, A-ku, Tokyo, Japan) as the captured image using the imaging device 1 is considered. However, the purpose of the user's imaging action is to obtain an image of a cherry tree landscape at the time of flowering that can be seen from the predetermined place (for example, A-ku, Tokyo, Japan).
In this case, even if the cherry blossoms are not actually blooming at the time of shooting by the user, that is, even if an image of the landscape of the cherry blossom trees that has not blossomed is obtained as the original image, it is flowered as a composite image at a desired flowering degree It is possible to easily obtain an image of the cherry tree landscape.
Further, a region indicating a cherry blossom of a certain area is not attached to each branch, but the amount of flowering (the area of the region indicating a cherry blossom) is determined based on the set flowering degree specified by the user. ) Is determined for each branch (growth), it is possible to realize image processing that can express a more natural and realistic appearance of cherry blossoms.

以上の、本発明の第2実施形態の撮像装置1が奏することが可能な効果を、具体的に説明すると、例えば次の(1)や(2)のようになる。
(1)所定場所における所望の開花度で開花した桜の木の景観等、ユーザの作画意図に合った思い通りの景観の画像を、模擬的な合成画像として容易に得ることができるので、ユーザにとっては、撮影の失敗を減少したり、失敗時のカバーを容易にすることができる。
(2)海外の旅行先等の再び撮影するのが困難な場所での撮影や、同一状態の再現や繰り返しが困難な被写体の撮影といった、再撮影が困難な撮影が存在する。このような場合であっても、ユーザは、1度の撮影で得られた撮像画像を原画像とすることで、所望の景観に近い合成画像を得ることができ、さらに、当該合成画像のデータを保存対象のデータとすることができる。その結果、再度の撮影が不要になる。
The effects that can be achieved by the imaging apparatus 1 of the second embodiment of the present invention will be specifically described as follows (1) and (2), for example.
(1) Since it is possible to easily obtain an image of a desired landscape suitable for the user's drawing intention, such as a landscape of a cherry tree blossomed at a desired flowering degree in a predetermined place, for a user, Can reduce shooting failures or facilitate the cover at the time of failure.
(2) There are shootings that are difficult to re-shoot, such as shooting in places where it is difficult to re-shoot such as overseas travel destinations, and shooting of subjects that are difficult to reproduce or repeat the same state. Even in such a case, the user can obtain a composite image close to a desired landscape by using a captured image obtained by one shooting as an original image, and further, data of the composite image. Can be stored data. As a result, re-shooting is unnecessary.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、上述の実施形態では、原画像に合成される合成対象は、第1実施形態では雪を代表とする堆積物とされ、第2実施形態では成長物とされたが、特にこれに限定されない。
換言すると、本発明が適用される画像処理装置は、原画像取得機能と、被写体特定機能と、受け付け機能と、物体画像生成機能と、合成機能と、を有していれば足り、その実施の形態は特に限定されない。
ここで、原画像取得機能とは、被写体を含む原画像のデータを取得する機能である。
被写体特定機能とは、原画像のデータについて、所定の物体の少なくとも一部が接するか又は重なるように合成され得る被写体を対象として、対象の被写体の形状を特定する機能である。
受け付け機能とは、ユーザにより指定された、所定の物体の合成量の基準を受け付ける機能である。
物体画像生成機能とは、受け付けられた基準に基づく合成量の所定の物体が、被写体の形状の少なくとも一部に対して接するか又は重なる位置に配置された画像のデータを、物体画像のデータとして生成する機能である。
合成機能とは、原画像のデータと、物体画像のデータとを合成することによって、合成画像のデータを生成する機能である。
これらの各機能を有する、本発明が適用される画像処理装置は、第1実施形態や第2実施形態で説明したように、ユーザの撮像行為の目的に合致した画像処理であって、より自然で現実味のある景観を表現できる画像処理を実行できる。
For example, in the above-described embodiment, the synthesis target to be synthesized with the original image is a deposit represented by snow in the first embodiment and a growth in the second embodiment, but is not particularly limited thereto. .
In other words, the image processing apparatus to which the present invention is applied only needs to have an original image acquisition function, a subject identification function, a reception function, an object image generation function, and a composition function. The form is not particularly limited.
Here, the original image acquisition function is a function for acquiring data of an original image including a subject.
The subject specifying function is a function for specifying the shape of a target subject for a subject that can be synthesized so that at least a part of a predetermined object touches or overlaps the original image data.
The accepting function is a function for accepting a reference for the amount of synthesis of a predetermined object designated by the user.
The object image generation function refers to data of an image in which a predetermined amount of a composite object based on an accepted reference is in contact with or overlaps at least a part of the shape of a subject as object image data. It is a function to generate.
The composition function is a function for generating composite image data by compositing original image data and object image data.
As described in the first embodiment and the second embodiment, the image processing apparatus having each of these functions is an image processing that matches the purpose of the user's imaging action, and is more natural. It is possible to execute image processing that can express a realistic landscape.

また例えば、上述の実施形態では、原画像に対して積雪部分だけを変化させたが、雪が増えることにより、反射される光の量は増えるので、雪のないところも全体的に輝度を上げるような補正をしてもよい。
また例えば、上述の実施形態では、雪が積もっていない景観画像から対象被写体を特定したが、既に雪が積もっている景観画像であれば、その積雪部分を抽出して、その上にさらに雪を積もらせるという方法も採用できる。
Further, for example, in the above-described embodiment, only the snow cover portion is changed with respect to the original image. However, since the amount of reflected light increases as the snow increases, the brightness is increased even in areas without snow. May be corrected.
Further, for example, in the above-described embodiment, the target subject is specified from the landscape image in which snow is not piled up. You can also adopt this method.

また例えば、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の撮像装置として構成される例として説明した。しかしながら、本発明は、撮像装置に特に限定されず、撮像機能の有無を問わず(撮像画像のデータは別の装置から取得してもよい)、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。   For example, in the above-described embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as an imaging apparatus such as a digital camera. However, the present invention is not particularly limited to an imaging apparatus, and is applicable to any electronic device that can execute the above-described image processing regardless of whether or not an imaging function is provided (data of a captured image may be acquired from another apparatus). can do. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware or can be executed by software.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body is configured by, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、18・・・操作部、20・・・記憶部、31・・・リムーバブルメディア、ドライブ、41・・・原画像取得部、42・・・対象被写体特定部、43・・・雪画像生成部、44・・・合成部、45・・・表示制御部、51・・・積雪情報記憶部、71・・・成長物画像生成部、81・・・成長物情報記憶部

DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 18 ... Operation part, 20 ... Storage part, 31 ... Removable media, Drive, 41 ..Original image acquisition unit, 42... Target subject specifying unit, 43... Snow image generation unit, 44... Composition unit, 45. ... Growth image generation unit, 81 ... Growth information storage unit

Claims (14)

処理対象となる原画像を取得する原画像取得手段と、
前記原画像取得手段により取得された前記原画像内における所定の堆積物が堆積し得る被写体部分の位置と形状を特定する被写体特定手段と、
前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の位置と形状に対応させて、前記原画像上に前記所定の堆積物を示す物体画像を配置して合成することによって合成画像を生成する合成手段と、
を備えることを特徴とする画像処理装置。
Original image acquisition means for acquiring an original image to be processed;
Subject specifying means for specifying the position and shape of a subject portion on which a predetermined deposit in the original image acquired by the original image acquiring means can be deposited ;
Wherein in correspondence with the position and shape of the object portion which is the predetermined deposit identified may be deposited by subject specifying unit, by combining by placing the object image indicating the predetermined deposit on said original image Combining means for generating a combined image;
An image processing apparatus comprising:
前記原画像上に合成すべき堆積物の種類を指定する第1指定手段を更に備え、
前記被写体特定手段は、前記第1指定手段により指定された種類の堆積物の合成に適した被写体部分の位置と形状を特定し、
前記合成手段は、前記第1指定手段により指定された種類の堆積物を示す物体画像を、この堆積物が堆積し得る被写体部分の位置と形状に対応させて前記原画像上に配置して合成することを特徴とする請求項1に記載の画像処理装置。
Further comprising first specifying means for specifying the type of deposit to be synthesized on the original image;
The subject specifying means specifies the position and shape of the subject portion suitable for the synthesis of the type of deposit designated by the first designation means,
The synthesizing unit arranges an object image indicating the type of deposit designated by the first designation unit on the original image in correspondence with the position and shape of the subject portion on which the deposit can be deposited. The image processing apparatus according to claim 1, wherein:
前記所定の堆積物堆積量を指定する第2指定手段と、
前記合成手段は、前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の位置と形状に対応させて、前記原画像上に前記第2指定手段により指定された堆積量に対応する量の前記所定の堆積物を示す物体画像を配置して合成することを特徴とする請求項1または2に記載の画像処理装置。
Second designation means for designating a deposition amount of the predetermined deposit ;
The synthesizing unit corresponds to the deposition amount designated by the second designation unit on the original image in correspondence with the position and shape of the subject portion on which the predetermined deposit specified by the subject specifying unit can be deposited. The image processing apparatus according to claim 1, wherein an object image indicating a predetermined amount of the predetermined deposit is arranged and synthesized.
前記所定の堆積物が、前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の形状に対応する形状で配置された状態の物体画像を生成する物体画像生成手段を更に備え、
前記合成手段は、前記物体画像生成手段により生成された物体画像を前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の位置に配置して合成することを特徴とする請求項3に記載の画像処理装置。
The predetermined deposit, further comprising an object image generating means for generating an object image in a state of being arranged in a corresponding shape to the shape of the object portion which is the predetermined deposit identified may be deposited by the object specifying means ,
The synthesizing unit arranges and synthesizes the object image generated by the object image generating unit at a position of a subject portion where the predetermined deposit specified by the subject specifying unit can be deposited. Item 4. The image processing apparatus according to Item 3.
被写体を撮像して撮像画像のデータを取得する撮像手段と、
前記撮像手段により撮像してデータとして得られた前記撮像画像を表示する表示手段と、
前記撮像手段により撮像して得られた前記撮像画像のデータを記録する記録手段と、
をさらに備え、
前記原画像取得手段は、前記撮像手段により撮像して得られた前記撮像画像のデータを前記処理対象となる原画像のデータとして取得し、
前記表示手段は、前記撮像画像として、前記合成手段により生成された前記合成画像を表示し、
前記記録手段は、前記撮像画像のデータとして、前記合成手段により生成された前記合成画像のデータを記録することを特徴とする請求項に記載の画像処理装置。
Imaging means for capturing an image of a subject and acquiring captured image data;
Display means for displaying the captured image obtained as data by imaging by the imaging means;
Recording means for recording data of the captured image obtained by imaging by the imaging means;
Further comprising
The original image acquisition unit acquires data of the captured image obtained by imaging by the imaging unit as data of the original image to be processed,
The display means displays the synthesized image generated by the synthesizing means as the captured image,
The image processing apparatus according to claim 4 , wherein the recording unit records data of the synthesized image generated by the synthesizing unit as data of the captured image.
前記記録手段は、前記表示手段により前記合成画像が表示された後、ユーザによる記録の指示操作に応じて、前記合成画像のデータを記録する、
ことを特徴とする請求項5に記載の画像処理装置。
The recording means records the composite image data in response to a recording instruction operation by a user after the composite image is displayed by the display means.
The image processing apparatus according to claim 5.
前記表示手段により前記合成画像が表示された後、前記ユーザによる記録の指示操作が行われるまでの間、前記第2指定手段による合成量のユーザによる指定と、前記物体画像生成手段による前記物体画像の生成と、前記合成手段による前記合成画像の生成と、前記表示手段による前記合成画像の表示とを繰り返させる制御を実行する制御手段をさらに備えたことを特徴とする請求項6に記載の画像処理装置。   After the composite image is displayed by the display means, until the recording instruction operation by the user is performed, the composite amount specified by the second specification means by the user and the object image by the object image generation means 7. The image according to claim 6, further comprising control means for executing control for repeating generation of the composite image, generation of the composite image by the composite means, and display of the composite image by the display means. Processing equipment. 前記合成手段は、前記第2指定手段により指定された堆積量に対応する量の前記所定の堆積物が、前記被写体特定手段により特定された前記所定の被写体部分の上部に堆積した状態を示す物体画像を前記原画像上に配置して合成することを特徴とする請求項3または4に記載の画像処理装置。 The synthesizing unit is an object indicating a state in which the predetermined deposit corresponding to the deposition amount specified by the second specifying unit is accumulated on the upper portion of the predetermined subject portion specified by the subject specifying unit. 5. The image processing apparatus according to claim 3 , wherein an image is arranged on the original image and synthesized. 前記所定の堆積物は、雪である、
ことを特徴とする請求項8に記載の画像処理装置。
The predetermined deposit is snow;
The image processing apparatus according to claim 8.
前記合成手段は、所定の降雪シミュレーションを実行することにより、前記雪が堆積した状態を示す物体画像を生成する、
ことを特徴とする請求項9に記載の画像処理装置。
The synthesizing unit generates an object image indicating a state in which the snow is accumulated by executing a predetermined snowfall simulation.
The image processing apparatus according to claim 9.
前記被写体特定手段は、前記所定の堆積物が堆積し得る被写体部分の3次元形状を特定し、
前記合成手段は、前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の3次元形状に基づいて、前記所定の堆積物を示す物体画像を合成する際の形状及び配置位置を決定することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
The subject specifying means specifies a three-dimensional shape of a subject portion on which the predetermined deposit can be deposited ,
The compositing unit is configured to synthesize an object image indicating the predetermined deposit based on a three-dimensional shape of a subject portion on which the predetermined deposit specified by the subject specifying unit can be deposited. The image processing apparatus according to claim 1, further comprising:
前記被写体特定手段は、前記原画像に基づいて、複数の特徴量に基づく顕著性マップを生成し、前記顕著性マップに基づいて注目点領域を推定し、前記注目点領域に基づいて前記所定の堆積物が堆積し得る被写体部分の位置と形状を特定する、
ことを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。
The subject specifying unit generates a saliency map based on a plurality of feature amounts based on the original image, estimates a point-of-interest area based on the saliency map, and determines the predetermined point based on the point-of-interest area. Identify the location and shape of the subject part where the deposit can accumulate ,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像処理装置が実行する画像処理方法において、
処理対象となる原画像を取得する原画像取得ステップと、
前記原画像取得ステップにより取得された前記原画像内における所定の堆積物が堆積し得る被写体部分の位置と形状を特定する被写体特定ステップと、
前記被写体特定ステップにより特定された前記所定の堆積物が堆積し得る被写体部分の位置と形状に対応させて、前記原画像上に前記所定の堆積物を示す物体画像を配置して合成することによって合成画像を生成する合成ステップと、
を含むことを特徴とする画像処理方法。
In the image processing method executed by the image processing apparatus,
An original image acquisition step of acquiring an original image to be processed;
A subject specifying step for specifying a position and a shape of a subject portion where a predetermined deposit in the original image acquired by the original image acquiring step can be deposited ;
The subject specified in correspondence with the position and shape of the object portion which is the predetermined deposit identified may be deposited by step, by combining by placing the object image indicating the predetermined deposit on said original image A compositing step for generating a composite image;
An image processing method comprising:
コンピュータを、
処理対象となる原画像を取得する原画像取得手段、
前記原画像取得手段により取得された前記原画像内における所定の堆積物が堆積し得る被写体部分の位置と形状を特定する被写体特定手段、
前記被写体特定手段により特定された前記所定の堆積物が堆積し得る被写体部分の位置と形状に対応させて、前記原画像上に前記所定の堆積物を示す物体画像を配置して合成することによって合成画像を生成する合成手段、
として機能させるためのプログラム。
Computer
Original image acquisition means for acquiring an original image to be processed;
Subject specifying means for specifying the position and shape of a subject portion on which a predetermined deposit in the original image acquired by the original image acquiring means can be deposited ;
Wherein in correspondence with the position and shape of the object portion which is the predetermined deposit identified may be deposited by subject specifying unit, by combining by placing the object image indicating the predetermined deposit on said original image A compositing means for generating a composite image;
Program to function as.
JP2010251067A 2010-11-09 2010-11-09 Image processing apparatus and method, and program Expired - Fee Related JP5621524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010251067A JP5621524B2 (en) 2010-11-09 2010-11-09 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010251067A JP5621524B2 (en) 2010-11-09 2010-11-09 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2012105008A JP2012105008A (en) 2012-05-31
JP2012105008A5 JP2012105008A5 (en) 2013-11-28
JP5621524B2 true JP5621524B2 (en) 2014-11-12

Family

ID=46394920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010251067A Expired - Fee Related JP5621524B2 (en) 2010-11-09 2010-11-09 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5621524B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5872496B2 (en) * 2013-02-01 2016-03-01 日本電信電話株式会社 Plant confirmation method and information processing apparatus
WO2021033314A1 (en) * 2019-08-22 2021-02-25 日本電気株式会社 Estimation device, learning device, control method, and recording medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3179318B2 (en) * 1995-08-22 2001-06-25 日本電気株式会社 Information presentation device
JPH11328375A (en) * 1998-05-19 1999-11-30 Taisei Corp Aspect image generating device
JP2003259214A (en) * 2002-03-01 2003-09-12 Univ Waseda Image composition system and image acquisition system
JP2004134950A (en) * 2002-10-09 2004-04-30 Sony Corp Image compositing method and image compositing apparatus
JP2005063083A (en) * 2003-08-11 2005-03-10 Kyocera Mita Corp State change simulation system and device, control method thereof, and control program thereof
JP4828788B2 (en) * 2003-10-07 2011-11-30 株式会社東芝 Image processing device
JP4423929B2 (en) * 2003-10-31 2010-03-03 カシオ計算機株式会社 Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP5040844B2 (en) * 2008-07-31 2012-10-03 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP4840426B2 (en) * 2008-09-24 2011-12-21 ソニー株式会社 Electronic device, blurred image selection method and program

Also Published As

Publication number Publication date
JP2012105008A (en) 2012-05-31

Similar Documents

Publication Publication Date Title
US10949978B2 (en) Automatic background replacement for single-image and multi-view captures
KR101709380B1 (en) Image processing apparatus, image processing method and program thereof
JP6513169B1 (en) System, method and program for generating virtual viewpoint image
CN105551087B (en) Scenic spot holographic real-time virtual reality system based on cloud and its seizure system and method
CN103548333B (en) Image processing device and method, supplement image generation device and method, program, and recording medium
KR101694689B1 (en) Method for generating video data and image photographing device thereof
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
CN101422035A (en) Image high-resolution upgrading device, image high-resolution upgrading method, image high-resolution upgrading program and image high-resolution upgrading system
JP3857988B2 (en) Stereoscopic image processing method and apparatus
CN107862718B (en) 4D holographic video capture method
CN109255841A (en) AR image presentation method, device, terminal and storage medium
WO2015156149A1 (en) Image processing apparatus and image processing method
CN107682656B (en) Background image processing method, electronic device, and computer-readable storage medium
CN105120256A (en) Mobile terminal and method and device for synthesizing picture by shooting 3D image
WO2018052100A1 (en) Image processing device, image processing method, and image processing program
CN103929594A (en) Mobile terminal and shooting method and device thereof
JP5621524B2 (en) Image processing apparatus and method, and program
JP6392738B2 (en) Information acquisition apparatus, information acquisition method, and information acquisition program
JP2000270203A (en) Image pickup device, image composite device and its method
JP5511681B2 (en) Method for displaying virtual images
JP5440366B2 (en) Image processing apparatus and method, and program
Yamamoto et al. LIFLET: Light field live with thousands of lenslets
JP6450305B2 (en) Information acquisition apparatus, information acquisition method, and information acquisition program
CN108781251A (en) Image processing apparatus, image processing method and image processing system
WO2010018610A1 (en) Background video generating method and background video generating system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131010

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140908

R150 Certificate of patent or registration of utility model

Ref document number: 5621524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees