JP2011205296A - Apparatus and program for image decoration - Google Patents

Apparatus and program for image decoration Download PDF

Info

Publication number
JP2011205296A
JP2011205296A JP2010069415A JP2010069415A JP2011205296A JP 2011205296 A JP2011205296 A JP 2011205296A JP 2010069415 A JP2010069415 A JP 2010069415A JP 2010069415 A JP2010069415 A JP 2010069415A JP 2011205296 A JP2011205296 A JP 2011205296A
Authority
JP
Japan
Prior art keywords
image
decoration
image data
subject
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010069415A
Other languages
Japanese (ja)
Inventor
Kensuke Kanamaru
謙介 金丸
Daisuke Yoshizawa
大輔 吉澤
Satoshi Hasegawa
智志 長谷川
Yuji Nakao
祐士 中尾
Sayaka Funato
さやか 船戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010069415A priority Critical patent/JP2011205296A/en
Publication of JP2011205296A publication Critical patent/JP2011205296A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To more effectively decorate images than documents consisting of only character information.SOLUTION: When an image decoration mode is already configured, if image data is generated by capturing an image, object recognition is performed through image analysis. When an object is specified, decoration content is extracted from a decoration database based on it, and then the image data is decorated with the extracted decoration. Based on the decorated image data, an image file is structured and recorded into a recording medium.

Description

本発明は、電子画像に装飾を施すことが可能な画像装飾装置および画像装飾プログラムに関する。   The present invention relates to an image decoration device and an image decoration program capable of decorating an electronic image.

画像または音響データに付随する情報(例えば、ユーザ登録メモ、格納フォルダ名、記録時の情報、再生頻度、好感度情報など)を読み出し、読み出された情報に基づいて文を生成し、生成された文を音声合成して出力する音声合成装置が知られている(例えば、特許文献1参照)。   Read information (eg, user registration memo, storage folder name, information at the time of recording, playback frequency, preference information, etc.) associated with the image or sound data, and generate a sentence based on the read information There is known a speech synthesizer that synthesizes and outputs a synthesized sentence (for example, see Patent Document 1).

特開2006−23592号公報JP 2006-23592 A

特許文献1の装置では、単に画像データに付随する文字情報を抽出して文章を作成するだけなので、作成される文章は面白みを欠く。   In the apparatus of Patent Document 1, since text is simply extracted by extracting character information attached to image data, the created text lacks interest.

本発明に係る画像装飾装置は、画像データまたは画像データに対応づけられた情報に基づいて、当該画像データの被写体または撮影状況を推定する推定手段と、推定手段で推定された被写体または撮影状況に適合する画像装飾内容を決定する決定手段と、決定手段で決定された内容の装飾を当該画像データに施して出力する装飾手段とを具備することを特徴とする。   The image decoration device according to the present invention is based on image data or information associated with the image data, estimating means for estimating the subject or shooting situation of the image data, and the subject or shooting situation estimated by the estimating means. The image processing apparatus includes: a determination unit that determines suitable image decoration content; and a decoration unit that applies the decoration of the content determined by the determination unit to the image data and outputs the image data.

本発明によれば、単に文字情報から文章を作成する場合と比べてより面白みのある装飾を画像に施すことができ、画像鑑賞者に驚きと感動を与えることができるとともに、撮影者自身も今まで以上に楽しみながら撮影を行うことができる。   According to the present invention, it is possible to add more interesting decoration to an image compared to a case where a sentence is simply created from character information, which can give the image viewer surprise and excitement. You can shoot while enjoying more than ever.

第1の実施形態におけるデジタルカメラの制御ブロック図。FIG. 3 is a control block diagram of the digital camera according to the first embodiment. 画像装飾を施した画像の表示例を示す図。The figure which shows the example of a display of the image which gave the image decoration. 画像装飾を施した画像の他の表示例を示す図。The figure which shows the other example of a display of the image which gave the image decoration. 画像装飾を施した画像の他の表示例を示す図。The figure which shows the other example of a display of the image which gave the image decoration. 画像装飾を施した画像の他の表示例を示す図。The figure which shows the other example of a display of the image which gave the image decoration. 第1の実施形態におけるカメラの処理手順を示すフローチャート。6 is a flowchart illustrating a processing procedure of the camera according to the first embodiment. 画像装飾を施した画像の他の表示例を示す図。The figure which shows the other example of a display of the image which gave the image decoration. 第2の実施形態におけるシステムの構成図。The system block diagram in 2nd Embodiment. 画像装飾を施した画像の他の表示例を示す図。The figure which shows the other example of a display of the image which gave the image decoration. 第2の実施形態におけるPCの処理手順を示すフローチャート。The flowchart which shows the process sequence of PC in 2nd Embodiment.

−第1の実施形態−
図1〜図7により本発明をデジタルカメラに適用した場合の一実施形態を説明する。
図1は本実施形態におけるデジタルカメラのブロック図である。撮影レンズ1を透過した被写体光束は、撮像素子2で撮像され、その撮像信号は画像処理部3に入力される。画像処理部3を構成する画像処理回路3aは、入力された撮像信号に種々の処理を施して画像データを生成する。画像データは、表示回路3bによる処理を経て、カメラ背面などに設けられた液晶モニタ4に表示される。撮影モード設定時には、上記撮像および画像表示が繰り返され、いわゆるライブビュー表示(スルー画表示)が行われる。撮影指示がなされると改めて撮像が行われ、それによって生成された画像データは、コンピュータで扱うことが可能な画像ファイルとして、記録/再生回路3cによりメモリカード等の記録媒体5に記録される。
-First embodiment-
An embodiment when the present invention is applied to a digital camera will be described with reference to FIGS.
FIG. 1 is a block diagram of a digital camera according to this embodiment. The subject luminous flux that has passed through the photographic lens 1 is imaged by the imaging device 2, and the imaging signal is input to the image processing unit 3. The image processing circuit 3a constituting the image processing unit 3 performs various processes on the input imaging signal to generate image data. The image data is displayed on a liquid crystal monitor 4 provided on the back of the camera or the like through processing by the display circuit 3b. When the shooting mode is set, the above imaging and image display are repeated, and so-called live view display (through image display) is performed. When a shooting instruction is given, the image is taken again, and the image data generated thereby is recorded on the recording medium 5 such as a memory card by the recording / reproducing circuit 3c as an image file that can be handled by a computer.

記録される画像ファイルは、画像本体を構成する上記画像データ(必要に応じて圧縮される)と、撮影日時や撮影場所、撮影条件などのメタデータとを組み合わせて構成される。撮影条件としては、絞り値やシャッタ秒時、ISO感度の他に、使用したシーンモードなどの情報も含まれる。   The image file to be recorded is configured by combining the above-described image data (compressed as necessary) constituting the image main body and metadata such as shooting date / time, shooting location, and shooting conditions. The shooting conditions include information such as a used scene mode in addition to the aperture value, shutter speed, and ISO sensitivity.

再生モードでは、記録媒体5に記録された画像データを記録/再生回路3cにて読み出し、画像処理回路3aおよび表示回路3bによる処理を経て液晶モニタ4に表示することができる。   In the reproduction mode, the image data recorded on the recording medium 5 can be read out by the recording / reproduction circuit 3c and displayed on the liquid crystal monitor 4 through the processing by the image processing circuit 3a and the display circuit 3b.

CPU6は、操作部7からの入力に応答して画像処理部3や不図示の回路を制御する。操作部7は、電源ボタンやレリーズボタン、再生操作や情報入力等で用いる各種操作部材等を含む。GPS受信機8は、カメラの位置情報(緯度、経度情報)を検出し、CPU6は、撮影時に検出される位置情報(撮影位置情報)を上記メタデータとして画像ファイルに埋め込むことができる。9はROMやRAMから成るメモリである。   The CPU 6 controls the image processing unit 3 and a circuit (not shown) in response to an input from the operation unit 7. The operation unit 7 includes a power button, a release button, various operation members used for reproduction operation, information input, and the like. The GPS receiver 8 detects camera position information (latitude and longitude information), and the CPU 6 can embed position information (shooting position information) detected at the time of shooting in the image file as the metadata. Reference numeral 9 denotes a memory including a ROM and a RAM.

次に、本実施形態における画像装飾について説明する。
ここでいう画像装飾とは、画像データに擬音語、擬声語、擬態語などを文字で挿入したり、画像に適したマークや線等の非文字を挿入することを指す。装飾内容は、画像データまたはメタデータに基づいてCPU6が自動的に決定する。
Next, image decoration in the present embodiment will be described.
Image decoration here refers to inserting onomatopoeia, onomatopoeia, mimetic words, and the like into the image data, and inserting non-characters such as marks and lines suitable for the image. The decoration content is automatically determined by the CPU 6 based on image data or metadata.

画像データに基づいて画像に装飾を施すには、メモリ9に被写体を認識(推定)する機能が予め組み込まれている必要がある。被写体認識機能は、画像データを解析し、形状や色彩等から被写体を推定する機能であり、例えばテンプレートマッチングなどの手法を用いることができる。テンプレートマッチングを用いる場合は、複数種類の被写体のテンプレートを格納したデータベースを予めメモリ9に記憶させておく。   In order to decorate an image based on image data, the memory 9 needs to have a function for recognizing (estimating) a subject in advance. The subject recognition function is a function of analyzing image data and estimating a subject from the shape, color, and the like, and for example, a technique such as template matching can be used. When using template matching, a database storing a plurality of types of subject templates is stored in the memory 9 in advance.

またメモリ9には、画像に適した装飾内容を抽出するための装飾データベースも格納されている。このデータベースは、種々の被写体と、装飾内容としてその被写体が発する音、鳴き声などを表す文字列を対応づけたもので、例としては、「海」に対して「ざざざざ」、「自動車」に対して「ぶろろろ」、「雷」に対して「ぴか」、「花火」に対して「どかーん」、「猫」に対して「にゃん」、「犬」に対して「わん」、「サッカーの試合」に対して「はいれー!」などが挙げられる。   The memory 9 also stores a decoration database for extracting decoration contents suitable for the image. This database associates various subjects with character strings representing the sounds, calls, etc. emitted by the subjects as decoration contents. For example, “Bazai” or “Automobile” for “Sea” On the other hand, “Buroro”, “Thunder” “Pika”, “Fireworks” “Dokan”, “Cat” “Nyan”, “Dog” “Wan”, For example, “Hello!” For “soccer game”.

CPU6は、上記被写体認識の結果に基づいて装飾データベースを検索して装飾内容を抽出し、それに基づいて画像データに装飾を施す。装飾済みの画像データに基づく画像は、液晶モニタ4に表示することができる。   The CPU 6 searches the decoration database based on the result of the subject recognition, extracts the decoration contents, and applies the decoration to the image data based on it. An image based on the decorated image data can be displayed on the liquid crystal monitor 4.

図2は「海」を撮影した画像データの表示例である。この場合、CPU6は、例えば画像の下部分にブルー系の占める割合が大きいことで、被写体が「海」であると推定し、「海」をキーワードとして装飾データベースを検索する。検索の結果、「ザザァ」という文字列が抽出され、この文字列を元の画像データに挿入する。被写体が「山」であると判断した場合は、図3に示すように「ヤッホー」などの文字列を挿入する。   FIG. 2 is a display example of image data obtained by photographing “the sea”. In this case, the CPU 6 estimates that the subject is “the sea” due to the large proportion of the blue system in the lower part of the image, for example, and searches the decoration database using “the sea” as a keyword. As a result of the search, a character string “Zaza” is extracted, and this character string is inserted into the original image data. When it is determined that the subject is “mountain”, a character string such as “Yaho” is inserted as shown in FIG.

図4は「猫」を撮影した画像データの表示例である。この場合、CPU6は、被写体の形状と色彩とに基づいて被写体が「猫」であると推定し、「猫」」をキーワードとして装飾データベースを検索する。検索の結果、「にゃーん」という文字列が抽出され、この文字列を元の画像データに挿入する。   FIG. 4 is a display example of image data obtained by photographing “cat”. In this case, the CPU 6 estimates that the subject is “cat” based on the shape and color of the subject, and searches the decoration database using “cat” as a keyword. As a result of the search, a character string “Nyan” is extracted, and this character string is inserted into the original image data.

同様に図5は「レースカー」を撮影した画像データの表示例である。この場合、CPU6は、テンプレートマッチング等によって被写体が「レースカー」であると推定し、「レースカー」をキーワードとして装飾データベースを検索する。検索の結果、「ヴォオオオン」という文字列が抽出され、この文字列を元の画像データに挿入する。   Similarly, FIG. 5 is a display example of image data obtained by photographing a “race car”. In this case, the CPU 6 estimates that the subject is a “race car” by template matching or the like, and searches the decoration database using “race car” as a keyword. As a result of the search, a character string “VOOOON” is extracted, and this character string is inserted into the original image data.

また図5の例では、文字列だけでなく、主要被写体として認識された「レースカー」を中心として放射状の複数の直線を挿入している。このような視覚効果も文字列と同時に装飾データベースから抽出される。文字列以外の視覚効果を施すことで、主要被写体を際だたせたり、被写体の動きを強調することができる。
主要被写体の認識については後述する。
In the example of FIG. 5, not only a character string but also a plurality of radial straight lines are inserted around a “race car” recognized as a main subject. Such visual effects are also extracted from the decoration database simultaneously with the character string. By applying visual effects other than character strings, it is possible to highlight the main subject and emphasize the movement of the subject.
The recognition of the main subject will be described later.

ここで、公知の動体予測機能を備えたカメラでは、その予測結果に基づいて画像装飾(視覚効果)を施すことができる。動体予測は、本来は焦点調節に用いられるものであるが、動体予測によってCPU6は被写体の移動方向を認識できるので、その移動方向が分かるような流線(例えば、主要被写体から移動方向と逆方向に延びる複数の線)を画像に挿入することが考えられる。この場合は、上述したようなデータベース検索を行うことなく装飾を施すことが可能である。   Here, in a camera having a known moving object prediction function, image decoration (visual effect) can be applied based on the prediction result. Although the moving object prediction is originally used for focus adjustment, since the CPU 6 can recognize the moving direction of the subject by the moving object prediction, a streamline (for example, a direction opposite to the moving direction from the main subject) can be known. It is conceivable to insert a plurality of lines extending into the image. In this case, the decoration can be applied without performing the database search as described above.

被写体認識の手法として、公知の顔認識技術や表情認識技術を用いてもよい。まず画像データに対して顔認識を行い、顔が認識された場合は表情認識を行う。例えば「笑顔」であることが認識された場合は「にっこり」や「にやにや」、「泣き顔」であることが認識された場合は「しくしく」などの文字列が装飾データベースから抽出され、画像データに挿入される。表情認識については、例えば、特開2001−51338号公報等に記載されているような手法を用いることができる。   A known face recognition technique or facial expression recognition technique may be used as a subject recognition technique. First, face recognition is performed on image data. If a face is recognized, facial expression recognition is performed. For example, if it is recognized that it is a “smile,” a character string such as “smile” or “niyaya”, or if it is recognized as a “crying face” is extracted from the decoration database, and the image data is Inserted. For facial expression recognition, for example, a technique described in Japanese Patent Application Laid-Open No. 2001-51338 can be used.

ここで、装飾を施すときには、装飾(文字列等)が主要被写体に被らないようにする必要がある。そのためCPU6は、ピントを合わせた箇所(フォーカスエリア)や、画像データの輝度分布や色情報、あるいは上述した被写体認識結果等に基づいて撮影者の意図する主要被写体を認識し、主要被写体から外れた位置に文字列を配置する。   Here, when the decoration is applied, it is necessary to prevent the main subject from being covered with the decoration (character string or the like). Therefore, the CPU 6 recognizes the main subject intended by the photographer based on the in-focus position (focus area), the luminance distribution and color information of the image data, or the above-described subject recognition result, and is out of the main subject. Place a string at a position.

また装飾を目立たせるために、装飾を施す部分の色に基づいて文字列の色を決定したり、文字列の内容によってフォントや文字サイズ、平仮名か片仮名かローマ字かなどを決定したり、装飾を施す部分の大きさや形状に応じて文字の大きさや、横書きか縦書きかなどを決定するようにすることが望ましい。
さらに、GPS受信機8を備えたカメラでは、上記撮影位置情報に基づき、撮影が行われた国や地域の言語や方言で装飾としての文字列を構成してもよい。例えば、英語圏で撮影された画像データに対しては、文字列を英語で挿入したり、あるいは英語の表現を日本語の文字列で挿入するなどが考えられる。
In order to make the decoration stand out, the color of the character string is determined based on the color of the part to be decorated, the font and character size, hiragana, katakana or romaji are determined according to the contents of the character string, etc. It is desirable to determine the character size, horizontal writing or vertical writing according to the size and shape of the portion to be applied.
Furthermore, in a camera equipped with the GPS receiver 8, a character string as a decoration may be configured in the language or dialect of the country or region where the image was taken based on the shooting position information. For example, for image data shot in an English-speaking region, it is conceivable to insert a character string in English or insert an English expression as a Japanese character string.

図6は画像装飾を含む撮影時の処理手順例を示すフローチャートであり、これは、撮影直後に画像装飾を施す例である。
レリーズボタンの操作に応答してCPU6がこのプログラムを起動し、ステップS1で撮像を行って画像データを得る。ステップS2では、画像装飾モードの設定の有無を判定する。画像装飾モードは、例えばメニュー画面等でその設定/解除を切換えることができる。
FIG. 6 is a flowchart showing an example of a processing procedure at the time of shooting including image decoration. This is an example of applying image decoration immediately after shooting.
In response to the operation of the release button, the CPU 6 activates this program and performs image capturing in step S1 to obtain image data. In step S2, it is determined whether or not the image decoration mode is set. The setting / cancellation of the image decoration mode can be switched on, for example, a menu screen.

画像装飾モードが設定されていない場合はステップS7に進み、上記画像データに基づく画像を液晶モニタ4に表示する。ステップS8では、上記画像データの圧縮やメタデータの付加等を行って画像ファイルを構成し、ステップS9で画像ファイルを記録媒体5に記録して終了する。なお、ステップS7で表示された画像は所定時間(数秒)後に消灯する。   If the image decoration mode is not set, the process proceeds to step S7, and an image based on the image data is displayed on the liquid crystal monitor 4. In step S8, the image data is compressed and metadata is added to form an image file. In step S9, the image file is recorded on the recording medium 5 and the process ends. The image displayed in step S7 is turned off after a predetermined time (several seconds).

一方、ステップS2で画像装飾モードが設定されていると判定された場合はステップS3に進み、上述した被写体認識を行う。ステップS4では、ステップS3において被写体が特定できたか否かを判定する。例えば被写体認識のためのデータベースに登録されていない被写体は特定することができず、また登録されていても何らかの理由で被写体を特定できないことがあり得る。被写体が特定できない場合はステップS10に進み、液晶モニタ4に画像装飾を行えない旨の表示を行ってステップS7に進む。   On the other hand, if it is determined in step S2 that the image decoration mode is set, the process proceeds to step S3 to perform the above-described subject recognition. In step S4, it is determined whether or not the subject has been identified in step S3. For example, a subject that is not registered in the database for subject recognition cannot be specified, and even if it is registered, the subject may not be specified for some reason. If the subject cannot be specified, the process proceeds to step S10, a display indicating that the image decoration cannot be performed is displayed on the liquid crystal monitor 4, and the process proceeds to step S7.

被写体が特定できた場合はステップS5に進み、上述した装飾データベース検索を行って装飾として使用すべき内容(文字列)を抽出する。この際、文字列の色やフォントなども決定する。ステップS6では、抽出した装飾内容を画像データに対して施し、上記ステップS7に進む。この場合は、装飾済みの画像データに基づく画像が液晶モニタ4に表示され(ステップS7)、また装飾済みの画像データを用いて画像ファイルが構成され、記録される(ステップS8,S9)。なお、装飾済み画像ファイルと、装飾が施されていない画像ファイルの双方を記録するようにしてもよい。   If the subject can be identified, the process proceeds to step S5, and the above-described decoration database search is performed to extract the contents (character string) to be used as decoration. At this time, the color and font of the character string are also determined. In step S6, the extracted decoration content is applied to the image data, and the process proceeds to step S7. In this case, an image based on the decorated image data is displayed on the liquid crystal monitor 4 (step S7), and an image file is constructed and recorded using the decorated image data (steps S8 and S9). Note that both a decorated image file and an undecorated image file may be recorded.

以上は装飾として文字列を画像に挿入するようにしたが、文字列に変えてマークや絵柄を挿入してもよい。例えば、上述した表情認識の結果に基づき、認識された表情に適したマークや絵柄を画像に挿入することが考えられる。図7はその一例を示し、被写体人物の「怒り」の表情が検出されたので、CPU6が「怒り」をキーワードとしてデータベース検索を行い、怒りマークMK1を抽出して画像に挿入したものである。「笑顔」が検出された場合は、例えば「花」の絵柄を挿入するようにする。   Although the character string is inserted into the image as a decoration as described above, a mark or a picture may be inserted instead of the character string. For example, based on the result of facial expression recognition described above, it may be possible to insert a mark or a pattern suitable for the recognized facial expression into an image. FIG. 7 shows an example of this. Since the “angry” facial expression of the subject person is detected, the CPU 6 searches the database using “angry” as a keyword, extracts the angry mark MK1, and inserts it into the image. When “smile” is detected, for example, a pattern of “flower” is inserted.

また以上では、撮影時に画像装飾を施し、装飾済みの画像データを記録するようにしたが、撮影時には装飾を行わず、記録媒体5に既に記録されている画像ファイルを読み出し、読み出した画像ファイルの画像データに装飾を施し、装飾後に改めて記録するようにしてもよい。
なお、デジタルカメラにて説明したが、例えばカメラ機能付き携帯電話機などにも本発明を適用可能である。
Further, in the above, image decoration is performed at the time of shooting and the decorated image data is recorded, but decoration is not performed at the time of shooting, and the image file already recorded in the recording medium 5 is read out, and the read image file The image data may be decorated and recorded again after the decoration.
In addition, although it demonstrated with the digital camera, this invention is applicable also to the mobile telephone with a camera function etc., for example.

−第2の実施形態−
図8〜図10により本発明の第2の実施形態を説明する。
本実施形態は、パーソナルコンピュータ(以下、PC)で画像装飾を施す点、および画像装飾を画像ファイルのメタデータや音声データに基づいて行う点が先の実施形態と異なる。なお、本実施形態の機能を上述したようなデジタルカメラに持たせてもよいし、逆に先の実施形態の機能をPCに持たせてもよい。
-Second Embodiment-
A second embodiment of the present invention will be described with reference to FIGS.
This embodiment is different from the previous embodiment in that image decoration is performed by a personal computer (hereinafter referred to as a PC) and that image decoration is performed based on metadata and audio data of an image file. Note that the functions of the present embodiment may be provided in the digital camera as described above, or conversely, the functions of the previous embodiment may be provided in the PC.

図8は本実施形態におけるシステム構成図である。PC20は、CPU21と、RAMやハードディスク等から成る記憶部22と、液晶ディスプレイ等の表示部23と、マウスやキーボード等の操作部24と、ネットワーク通信を行うための通信部25とを有している。ハードディスクには、デジタルカメラから画像ファイルを取り込むための転送ソフトウェアや、取り込んだ画像ファイルを加工したり再生するための画像加工ソフトウェア、通信回線網30を介して外部のサーバ(40,50など)にアクセスするための通信ソフトウェアが予め記憶されている。サーバ40は、各地の気象情報を提供するサービスを行っており、またサーバ50は、各地で行われるイベント(スポーツ大会や花火大会等)に関する情報を提供するサービスを行っている。   FIG. 8 is a system configuration diagram in the present embodiment. The PC 20 includes a CPU 21, a storage unit 22 including a RAM, a hard disk, and the like, a display unit 23 such as a liquid crystal display, an operation unit 24 such as a mouse and a keyboard, and a communication unit 25 for performing network communication. Yes. In the hard disk, transfer software for capturing an image file from a digital camera, image processing software for processing or reproducing the captured image file, and an external server (40, 50, etc.) via the communication network 30 Communication software for access is stored in advance. The server 40 provides a service that provides weather information of each location, and the server 50 provides a service that provides information related to events (such as sporting events and fireworks events) that are performed in each location.

ここで、デジタルカメラには、撮影時に周囲の音声を録音して音声データを作成し、画像ファイルに対応づけて記録可能なものがある。CPU21は、上記転送ソフトウェアを用いてデジタルカメラから画像ファイルを取り込むが、画像ファイルに対応づけられた音声データが存在する場合は、その音声データも同時に取り込む。   Here, some digital cameras can record ambient sound during recording to create sound data and record it in association with an image file. The CPU 21 captures an image file from the digital camera using the transfer software. If there is audio data associated with the image file, the CPU 21 also captures the audio data.

本実施形態における画像装飾について説明する。
CPU21は、対象となる画像ファイルがメタデータとして撮影位置情報(緯度、経度情報)を有している場合、その撮影位置情報と撮影日時情報とに基づいて、撮影時の気象を推定する。これは、撮影位置情報および撮影日時情報を通信回線網30を介してサーバ40に送り、撮影位置情報が含まれる地域の撮影日時における気象情報を取得することで行う。そして、取得した気象情報に基づいて装飾内容を装飾データベースから抽出し、当該画像ファイル内の画像データに施す。
The image decoration in this embodiment will be described.
When the target image file has shooting position information (latitude and longitude information) as metadata, the CPU 21 estimates the weather at the time of shooting based on the shooting position information and shooting date / time information. This is done by sending the shooting position information and shooting date / time information to the server 40 via the communication network 30 and acquiring weather information at the shooting date / time of the area including the shooting position information. Then, the decoration content is extracted from the decoration database based on the acquired weather information and applied to the image data in the image file.

図9は気象情報に基づいて装飾が施された画像の表示例を示し、この画像には、気温および湿度が高いときの不快なさまを表す「ジメジメ」という文字列が装飾として施されている。またこの例では、不快感をより強めるフォントが使用されている。気温がより高いときは、例えば「暑いー」などの文字列が挿入される。   FIG. 9 shows a display example of an image decorated based on weather information. In this image, a character string “Jimejime” representing an uncomfortable state when temperature and humidity are high is decorated as a decoration. . In this example, a font that further increases discomfort is used. When the temperature is higher, a character string such as “hot” is inserted.

同様にCPU21は、上記撮影位置情報と撮影日時情報とをサーバ50に送り、その撮影日時にその撮影場所で行われたイベント情報を取得することで、何を撮影した画像であるかを推定することができる。そして、その推定結果に基づいて装飾内容を装飾データベースから抽出し、当該画像ファイル内の画像データに施す。例えば野球の試合が行われていたことが判明した場合は、当該画像データに「カキーン」などの文字列が挿入され、花火大会が行われていたことが判明した場合は、当該画像データに「どーん」または「たまやー かぎやー」などの文字列が挿入される。   Similarly, the CPU 21 estimates the captured image by sending the shooting position information and shooting date / time information to the server 50 and acquiring event information performed at the shooting location on the shooting date / time. be able to. Then, based on the estimation result, the decoration content is extracted from the decoration database and applied to the image data in the image file. For example, if it is determined that a baseball game has been held, a character string such as “Kakein” is inserted into the image data, and if it is determined that a fireworks display has been held, “ A character string such as “don” or “tamaya-kaguya-” is inserted.

また、メタデータとしてのシーンモード情報に基づいて画像装飾を施すこともできる。デジタルカメラの多くは、複数のシーンモードを備えており、撮影者が撮りたいシーンに応じていずれかのシーンモードを選択すると、そのシーンに適した露出値等の撮影条件をカメラが自動的に設定して撮影を行う。シーンモードには、「風景モード」、「ポートレートモード」、「スポーツモード」、「夜景モード」、「夕焼けモード」などがあり、これらのモードを使用して撮影を行った場合には、その使用モードの情報(シーンモード情報)が上記メタデータとして画像ファイルに埋め込まれる。   Further, image decoration can be applied based on scene mode information as metadata. Many digital cameras have multiple scene modes, and when the photographer selects one of the scene modes according to the scene they want to shoot, the camera automatically sets the shooting conditions such as the exposure value suitable for that scene. Set and take a picture. Scene modes include “Landscape mode”, “Portrait mode”, “Sport mode”, “Night scene mode”, “Sunset mode”, etc. Use mode information (scene mode information) is embedded in the image file as the metadata.

CPU21は、画像ファイルからシーンモード情報を読み出すことで、被写体や撮影状況を推定でき、それに基づいて装飾内容を装飾データベースから抽出し、画像データに施す。例えば、「スポーツモード」で撮影した画像の場合は、図4で説明したような放射状の直線を挿入したり、「夕焼けモード」で撮影した画像の場合は、カラスの鳴き声である「かーかー」などの文字列を挿入することが考えられる。   The CPU 21 reads the scene mode information from the image file, so that the subject and the shooting situation can be estimated, and based on this, the decoration content is extracted from the decoration database and applied to the image data. For example, in the case of an image taken in the “sport mode”, a radial straight line as described in FIG. 4 is inserted, or in the case of an image taken in the “sunset mode”, the “crow” is a crow call. It is conceivable to insert a character string such as

さらに、音声データが対応づけられている画像データに対しては、その音声データを解析し、音量などに基づいて装飾を施すことができる。例えば、音が小さい場合は「シーン」などの文字列を挿入し、音が大きい場合は「ワイワイ」または「ガヤガヤ」などの文字列を挿入する。   Furthermore, with respect to image data associated with audio data, the audio data can be analyzed and decoration can be applied based on the volume or the like. For example, if the sound is low, a character string such as “Scene” is inserted, and if the sound is high, a character string such as “Wai Wai” or “Gaya Gaya” is inserted.

図10はCPU21による画像装飾の処理手順例を示すフローチャートである。この処理は、例えば上記画像加工ソフトウェアの一機能として組み込むことができる。ユーザが画像装飾を行うべき画像ファイルを選択すると、CPU21はその画像ファイルの画像データに基づく画像を表示部23に表示し、その後にユーザが所定操作を行うと、CPU21が図10の処理を起動する。   FIG. 10 is a flowchart illustrating an example of a processing procedure for image decoration by the CPU 21. This processing can be incorporated as one function of the image processing software, for example. When the user selects an image file to be decorated, the CPU 21 displays an image based on the image data of the image file on the display unit 23. Thereafter, when the user performs a predetermined operation, the CPU 21 activates the process of FIG. To do.

CPU21は、まずステップS21で当該画像ファイルからメタデータを読み出し、ステップS22でメタデータに撮影位置情報が含まれるか否かを判定する。ステップS22が否定されるとステップS28に進み、肯定されるとステップS23において、メタデータである撮影位置情報および撮影日時情報を通信回線網30を介してサーバ40に送り、撮影日時における撮影場所の気象情報を取得する。ステップS24では、取得した気象情報に基づいて装飾データベース検索を行い、装飾内容を取得する。   The CPU 21 first reads metadata from the image file in step S21, and determines whether or not shooting position information is included in the metadata in step S22. If step S22 is negative, the process proceeds to step S28. If the determination is positive, in step S23, the shooting position information and the shooting date / time information, which are metadata, are sent to the server 40 via the communication network 30, and the shooting location at the shooting date / time is determined. Get weather information. In step S24, a decoration database search is performed based on the acquired weather information to acquire decoration contents.

ステップS24では、当該画像ファイルのメタデータである撮影位置情報および撮影日時情報を通信回線網30を介してサーバ50に送り、その撮影日時にその撮影場所で行われたイベント情報の取得を試みる。ステップS26ではイベント情報が取得できたか否かを判定し、否定されるとステップS28に進み、肯定されるとステップS27において、取得したイベント情報に基づいて装飾データベース検索を行い、装飾内容を取得する。   In step S24, shooting position information and shooting date / time information, which are metadata of the image file, are sent to the server 50 via the communication line network 30, and acquisition of event information performed at the shooting location at the shooting date / time is attempted. In step S26, it is determined whether or not event information has been acquired. If the determination is negative, the process proceeds to step S28. If the determination is affirmative, in step S27, a decoration database search is performed based on the acquired event information to acquire the decoration contents. .

ステップS28では、当該画像ファイルのメータデータとしてシーンモード情報が存在するか否かを判定し、否定されるとステップS30に進む。ステップS28が肯定されるとステップS29に進み、シーンモード情報に基づいて装飾データベース検索を行い、装飾内容を抽出する。   In step S28, it is determined whether or not scene mode information exists as meter data of the image file. If the determination is negative, the process proceeds to step S30. If step S28 is affirmed, the process proceeds to step S29, where a decoration database search is performed based on the scene mode information, and the decoration content is extracted.

ステップS30では、当該画像ファイルに上記音声ファイルが対応づけられているか否かを判定し、否定されるとステップS32に進む。ステップS30が肯定されるとステップS31に進み、音声データに基づいて装飾データベース検索を行い、装飾内容を抽出する。   In step S30, it is determined whether or not the audio file is associated with the image file. If the result is negative, the process proceeds to step S32. If step S30 is affirmed, the process proceeds to step S31, where a decoration database search is performed based on the audio data to extract decoration contents.

ステップS32では、少なくとも一つの装飾内容が抽出されているか否かを判定し、否定されるとステップS38に進み、画像装飾を行えない旨の表示を表示部23に行って処理を終了させる。例えば、メタデータに撮影位置情報もシーンモード情報もなく、音声データも対応づけられていない場合は、ステップS32は否定されることになる。   In step S32, it is determined whether or not at least one decoration content has been extracted. If the determination is negative, the process proceeds to step S38, a display indicating that image decoration cannot be performed is displayed on the display unit 23, and the process is terminated. For example, if there is no shooting position information and scene mode information in the metadata and no audio data is associated, step S32 is negative.

ステップS32が肯定された場合はステップS33に進み、画像装飾内容を決定する。複数の画像装飾内容が抽出されている場合(ステップS24,S27,S29,S31のうち2以上のステップで装飾内容が抽出されている場合)は、その中からCPU21が何らかのアルゴリズムによっていずれかを選択する。全装飾内容を表示し、ユーザが選択できるようにしてもよい。あるいは、抽出されている全ての装飾を施すようにしてもよい。   When step S32 is affirmed, it progresses to step S33 and the image decoration content is determined. When a plurality of image decoration contents are extracted (when decoration contents are extracted in two or more of steps S24, S27, S29, and S31), the CPU 21 selects one of them by some algorithm. To do. All decoration contents may be displayed so that the user can select them. Or you may make it give all the decorations extracted.

ステップS34では、ステップS33で決定された装飾内容を当該画像ファイルの画像データに施し、ステップS35装飾後の画像を表示部23表示する。ステップS36では、装飾後の画像を保存するか否かをユーザに問い、「YES」の操作がなされると画像ファイルを保存し、「NO」の操作がなされると保存せずに終了する。   In step S34, the decoration content determined in step S33 is applied to the image data of the image file, and the image after decoration in step S35 is displayed on the display unit 23. In step S36, the user is asked whether or not to save the decorated image. When the “YES” operation is performed, the image file is stored, and when the “NO” operation is performed, the process ends without saving.

2 撮像素子
3 画像処理部
6 CPU(カメラ)
20 PC(パーソナルコンピュータ)
21 CPU(PC)
2 Image sensor 3 Image processor 6 CPU (Camera)
20 PC (personal computer)
21 CPU (PC)

Claims (8)

画像データまたは画像データに対応づけられた情報に基づいて、当該画像データの被写体または撮影状況を推定する推定手段と、
前記推定手段で推定された被写体または撮影状況に適合する画像装飾内容を決定する決定手段と、
前記決定手段で決定された内容の装飾を当該画像データに施して出力する装飾手段とを具備することを特徴とする画像装飾装置。
Based on image data or information associated with the image data, estimating means for estimating the subject of the image data or the shooting situation;
Determining means for determining image decoration contents suitable for the subject or shooting situation estimated by the estimating means;
An image decoration apparatus comprising: decoration means for applying the decoration of the content determined by the determination means to the image data and outputting the image data.
前記推定手段は、前記画像データに対して画像解析を行うことで前記被写体または撮影状況を推定することを特徴とする請求項1に記載の画像装飾装置。   The image decoration device according to claim 1, wherein the estimation unit estimates the subject or the shooting state by performing an image analysis on the image data. 前記推定手段は、前記画像データに対応づけられた撮影位置情報に基づいて前記撮影状況を推定することを特徴とする請求項1に記載の画像装飾装置。   The image decoration device according to claim 1, wherein the estimation unit estimates the shooting situation based on shooting position information associated with the image data. 前記推定手段は、前記画像データに対応づけられた撮影時の音声データに基づいて前記撮影状況を推定することを特徴とする請求項1に記載の画像装飾装置。   The image decoration device according to claim 1, wherein the estimation unit estimates the shooting state based on audio data at the time of shooting associated with the image data. 前記決定手段は、前記推定手段の推定結果に基づいてデータベース検索を行うことで前記装飾内容を決定することを特徴とする請求項1〜4のいずれか1項に記載の画像装飾装置。   The image decoration device according to claim 1, wherein the determination unit determines the decoration content by performing a database search based on an estimation result of the estimation unit. 前記装飾内容は、被写体に関する擬音語、擬声語、または擬態語であり、前記装飾手段は、前記擬音語、擬声語、または擬態語が画像中に文字列で表示されるように装飾を行うことを特徴とする請求項1〜5のいずれか1項に記載の画像装飾装置。   The decoration content is an onomatopoeia, an onomatopoeia, or an imitation word related to a subject, and the decoration means decorates the onomatopoeia, onomatopoeia, or an imitation word so that it is displayed as a character string in an image. The image decoration apparatus according to claim 1. 撮像を行って前記画像データを生成する撮像手段を更に備えることを特徴とする請求項1〜6のいずれか1項に記載の画像装飾装置。   The image decoration apparatus according to claim 1, further comprising an imaging unit that performs imaging to generate the image data. コンピュータに、
画像データまたは画像データに対応づけられた情報に基づいて、当該画像データの被写体または撮影状況を推定する処理と、
前記推定された被写体または撮影状況に適合する画像装飾内容を決定する処理と、
前記決定された内容の装飾を当該画像データに対施して出力する処理とを実行させるための画像装飾プログラム。
On the computer,
Based on image data or information associated with the image data, a process for estimating the subject of the image data or the shooting situation;
A process of determining image decoration content suitable for the estimated subject or shooting situation;
An image decoration program for executing a process of applying the decoration of the determined content to the image data and outputting the image data.
JP2010069415A 2010-03-25 2010-03-25 Apparatus and program for image decoration Pending JP2011205296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010069415A JP2011205296A (en) 2010-03-25 2010-03-25 Apparatus and program for image decoration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010069415A JP2011205296A (en) 2010-03-25 2010-03-25 Apparatus and program for image decoration

Publications (1)

Publication Number Publication Date
JP2011205296A true JP2011205296A (en) 2011-10-13

Family

ID=44881488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010069415A Pending JP2011205296A (en) 2010-03-25 2010-03-25 Apparatus and program for image decoration

Country Status (1)

Country Link
JP (1) JP2011205296A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153926A (en) * 2013-02-08 2014-08-25 Pfu Ltd Information processor,information processing system, and program
US9117275B2 (en) 2012-03-05 2015-08-25 Panasonic Intellectual Property Corporation Of America Content processing device, integrated circuit, method, and program
JP5927363B1 (en) * 2015-02-10 2016-06-01 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2019149709A (en) * 2018-02-27 2019-09-05 大日本印刷株式会社 Image printing system, image printing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117275B2 (en) 2012-03-05 2015-08-25 Panasonic Intellectual Property Corporation Of America Content processing device, integrated circuit, method, and program
JP2014153926A (en) * 2013-02-08 2014-08-25 Pfu Ltd Information processor,information processing system, and program
JP5927363B1 (en) * 2015-02-10 2016-06-01 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2019149709A (en) * 2018-02-27 2019-09-05 大日本印刷株式会社 Image printing system, image printing method, and program
JP7073782B2 (en) 2018-02-27 2022-05-24 大日本印刷株式会社 Image printing system, image printing method and program

Similar Documents

Publication Publication Date Title
US10367997B2 (en) Enriched digital photographs
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
US8582918B2 (en) Imaging device, image composition and display device, and image composition method
JP5612310B2 (en) User interface for face recognition
WO2022042776A1 (en) Photographing method and terminal
WO2017114048A1 (en) Mobile terminal and method for identifying contact
CN113709545A (en) Video processing method and device, computer equipment and storage medium
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
CN111368127A (en) Image processing method, image processing device, computer equipment and storage medium
JP5878523B2 (en) Content processing apparatus and integrated circuit, method and program thereof
JP2004005534A (en) Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods
JP2011205296A (en) Apparatus and program for image decoration
JP2014050022A (en) Image processing device, imaging device, and program
JP2022140458A (en) Information processing device, information processing method, and program
JP5320913B2 (en) Imaging apparatus and keyword creation program
JP6043753B2 (en) Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium
JP2010178259A (en) Digital camera
CN104978389B (en) Method, system, server and client side
JP2006279925A (en) Imaging apparatus, imaging method, and imaging program
JP2012244226A (en) Imaging device, image composition method, and program
JP5550114B2 (en) Imaging device
CN107203646A (en) A kind of intelligent social sharing method and device
JP2013114236A (en) Image editing device, image editing method and image editing program
JP2006236267A (en) Image output device, image output method and program
US20100254576A1 (en) Digital photographing apparatus, method of controlling the same, and recording medium storing program to implement the method