JP2014068229A - Image communication system - Google Patents

Image communication system Download PDF

Info

Publication number
JP2014068229A
JP2014068229A JP2012212572A JP2012212572A JP2014068229A JP 2014068229 A JP2014068229 A JP 2014068229A JP 2012212572 A JP2012212572 A JP 2012212572A JP 2012212572 A JP2012212572 A JP 2012212572A JP 2014068229 A JP2014068229 A JP 2014068229A
Authority
JP
Japan
Prior art keywords
image
user
processing
image data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012212572A
Other languages
Japanese (ja)
Inventor
Nobuhiro Hayashi
暢洋 林
Kyoko Negishi
恭子 根岸
Masaru Fujita
優 藤田
Naotake Yamashita
尚剛 山下
Satoshi Hasegawa
智志 長谷川
Mari Kanda
真理 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012212572A priority Critical patent/JP2014068229A/en
Publication of JP2014068229A publication Critical patent/JP2014068229A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain image data having quality a user prefers without image edition processing performed by the user himself/herself having received source image data.SOLUTION: An image communication system including user side terminal apparatuses and a server unit capable of transmitting/receiving data to/from the user side terminal apparatuses executes transmission/reception of image data among a plurality of users using the user side terminal apparatuses through the server unit. The server unit comprises: an image acceptance section for accepting image data to be transmitted from any user of the plurality of users to another user; a storage section for storing processing tendency information showing processing tendency of image edition processing for image data, for each of the plurality of users; image edition section which reads processing tendency information on the other user when accepting the image data, and performs image edition processing based on the read processing tendency information on the accepted image data; and a transmission section for transmitting the image data on which the image edition processing is performed to a user side terminal apparatus used by the other user.

Description

本発明は、画像通信システムに関する。   The present invention relates to an image communication system.

デジタルカメラは、撮影時に得られた画像データに対して、撮影時に設定された撮影シーンモードに合わせた画像処理を施している。このデジタルカメラに搭載される撮影シーンモードは、様々な撮影環境下に対して設定される撮影シーンモードのうち、代表的な撮影シーンモードとなる。このため、上述した画像処理が施された後の画像データは、ユーザ好みの仕上がりでないことがある。このような場合、ユーザはユーザ自身が所有するパーソナルコンピュータ(PC)を用いて、取得された画像データに対する画像編集処理を行っている。最近では、画像データを解析した結果と事前に収集した情報とから撮影シーンモードに最も適した画像が得られるように画像編集処理を行うとともに、撮影時の設定についてユーザに対してアドバイスを行うカメラについても考案されている。(特許文献1参照)。   The digital camera performs image processing on the image data obtained at the time of shooting in accordance with the shooting scene mode set at the time of shooting. The shooting scene mode mounted on this digital camera is a typical shooting scene mode among shooting scene modes set for various shooting environments. For this reason, the image data after the above-described image processing may not have a user-preferred finish. In such a case, the user performs an image editing process on the acquired image data using a personal computer (PC) owned by the user. Recently, a camera that performs image editing processing so that an image most suitable for the shooting scene mode can be obtained from the result of analyzing the image data and information collected in advance, and also provides advice to the user regarding settings at the time of shooting Has also been devised. (See Patent Document 1).

特開2003−8977号公報Japanese Unexamined Patent Publication No. 2003-8877

ここで、ユーザ間で画像データを送信する場合、該画像データを送信するユーザは、送信先のユーザが好む画像データに画像編集処理を行わずに画像データを送信していることが多い。このため、画像データを受信したユーザは、受信した画像データに基づく画像がユーザの好みの画像ではない場合には、ユーザ自身の好みの画像となるように画像編集処理を行っているのが実情である。   Here, when image data is transmitted between users, the user who transmits the image data often transmits the image data without performing image editing processing on the image data preferred by the user at the transmission destination. For this reason, it is a fact that the user who received the image data is performing image editing processing so that the image based on the received image data is the user's favorite image when the image is not the user's favorite image. It is.

本発明は、画像データを受信したユーザ自身が画像編集処理を行わなくとも、ユーザが好む仕上がりとなる画像データを得ることができるようにした画像通信システムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image communication system in which image data having a finish desired by a user can be obtained without the user himself / herself performing image editing processing.

上述した課題を解決するために、本発明の画像通信システムは、ユーザ側端末機と、前記ユーザ側端末機との間でデータを送受信することが可能なサーバユニットとを有し、前記ユーザ側端末機を使用する複数のユーザ間の画像データの送受信を、前記サーバユニットを介して実行する画像通信システムにおいて、前記サーバユニットは、前記複数のユーザのいずれかのユーザが前記ユーザ側端末機を用いて、他のユーザに送信する画像データを受け付ける画像受付部と、前記画像データに対する画像編集処理の処理傾向を示す処理傾向情報を前記複数のユーザ毎に記憶する記憶部と、前記画像データを受け付けたときに前記他のユーザに対する処理傾向情報を読み出し、読み出した前記処理傾向情報に基づいた前記画像編集処理を、受け付けた前記画像データに施す画像編集部と、前記画像編集処理が施された画像データを、前記他のユーザが使用するユーザ側端末機に送信する送信部と、を備えたことを特徴とする。   In order to solve the above-described problems, an image communication system according to the present invention includes a user terminal and a server unit capable of transmitting and receiving data between the user terminal and the user side. In the image communication system for performing transmission / reception of image data between a plurality of users using a terminal via the server unit, the server unit allows any one of the plurality of users to connect the user side terminal. An image receiving unit that receives image data to be transmitted to another user, a storage unit that stores processing trend information indicating a processing trend of image editing processing on the image data, and the image data. When receiving the processing trend information for the other user, the image editing processing based on the read processing trend information is received. Said image editing unit which performs the image data, the image data to which the image editing processing has been performed, wherein the another user and a transmission unit that transmits to the user side terminal to be used.

本発明によれば、画像データを受信したユーザ自身が画像編集処理を行わなくとも、ユーザが好む仕上がりとなる画像データを得ることができる。   According to the present invention, even if the user who receives the image data does not perform the image editing process, it is possible to obtain image data having a finish that the user likes.

本発明の画像通信システムの構成を示す図である。It is a figure which shows the structure of the image communication system of this invention. デジタルカメラの構成を示す図である。It is a figure which shows the structure of a digital camera. ユーザ側端末機の構成を示す図である。It is a figure which shows the structure of a user side terminal. 画像編集処理時の表示画面の一例を示す図である。It is a figure which shows an example of the display screen at the time of an image editing process. サンプル画像を生成する際に用いられる画像編集処理の一例を示す図である。It is a figure which shows an example of the image edit process used when producing | generating a sample image. 自己編集処理を行う場合の流れを示す図である。It is a figure which shows the flow in the case of performing a self-editing process. 明るさ補正処理の強さと、画像編集処理を解析する期間との関係を示す図である。It is a figure which shows the relationship between the intensity | strength of a brightness correction process, and the period which analyzes an image edit process. 画像処理の前後の画像及びそれら画像から得られるヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram obtained from the image before and behind image processing, and those images. 画像編集処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an image editing process. 処理情報を生成する流れを示すフローチャートである。It is a flowchart which shows the flow which produces | generates process information. 編集情報を用いて画像編集処理の処理内容を解析する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which analyzes the process content of an image edit process using edit information. ユーザAがユーザB及びユーザCに画像データを送信する場合の、画像通信システムの構成の一例を示す図である。It is a figure which shows an example of a structure of an image communication system when the user A transmits image data to the user B and the user C. アプリケーションサーバにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in an application server. ユーザDからユーザEに、画像データが付帯された電子メールを送信する場合の、画像通信システムの構成の一例を示す図である。It is a figure which shows an example of a structure of an image communication system in the case of transmitting the email with which image data was attached to the user E from the user D. アプリケーションサービスを利用するユーザと、該アプリケーションサービスを利用していないユーザとの間で、画像データが付帯された電子メールを送信する場合の、画像通信システムの構成の一例を示す図である。It is a figure which shows an example of a structure of an image communication system in the case of transmitting the email with which image data was attached between the user who uses an application service, and the user who is not using this application service.

以下、本発明を実施した画像通信システムについて説明する。この画像通信システムは、アプリケーション提供会社が、クラウド提供会社が提供するクラウドサービスを利用してアプリケーションサービスをユーザに提供することが可能なシステムである。なお、このクラウドサービスは、アプリケーションサービスの他、コミュニティサービスに代表されるソーシャルネットワーキングサービスを提供することが可能である。   Hereinafter, an image communication system embodying the present invention will be described. This image communication system is a system in which an application provider can provide an application service to a user using a cloud service provided by the cloud provider. This cloud service can provide social networking services represented by community services in addition to application services.

図1に示すように、画像通信システム10は、コンピュータシステム11、デジタルカメラ12、パーソナルコンピュータ13から構成され、これらがインターネット14を経由で、データの送受信を行うことを可能としている。以下、パーソナルコンピュータ13をユーザ側端末機13と称して説明する。なお、ユーザ側端末機13として、パーソナルコンピュータを例に取り上げているが、これに限定される必要はなく、通信機能を備えた携帯型端末機、例えばスマートフォンなどであってもよい。   As shown in FIG. 1, the image communication system 10 includes a computer system 11, a digital camera 12, and a personal computer 13, which can transmit and receive data via the Internet 14. Hereinafter, the personal computer 13 will be described as a user terminal 13. In addition, although the personal computer is taken up as an example as the user-side terminal device 13, it is not limited thereto, and may be a portable terminal device having a communication function, such as a smartphone.

コンピュータシステム11は、サーバシステム21及びストレージ22を有している。サーバシステム21は、アプリケーションサーバ25とデータベースサーバ26とから構成される。これらサーバは、仮想マシンとして機能する。これらサーバが仮想マシンとして機能することで、ユーザにアプリケーションサービスやソーシャルネットワーキングサービスを提供する。   The computer system 11 includes a server system 21 and a storage 22. The server system 21 includes an application server 25 and a database server 26. These servers function as virtual machines. These servers function as virtual machines to provide users with application services and social networking services.

アプリケーションサーバ25は、図示は省略するが、1又は複数のブレードサーバから構成され、ブレードサーバに割り当てられたリソースの利用率に応じて、使用するブレードサーバを増設或いは削除する。   Although not shown, the application server 25 includes one or a plurality of blade servers, and adds or deletes the blade servers to be used according to the utilization rate of resources allocated to the blade servers.

アプリケーションサーバ25は、ユーザ側端末機13からのリクエストを受け付けて、データベースサーバ26と通信を行う。データベースサーバ26との通信により、アプリケーションサーバ25は、ストレージ22に記憶したデータを参照する処理や読み出す処理を行う。アプリケーションサーバ25は、ストレージ22に記憶するデータの登録処理、変更処理、削除処理などを実行する。また、アプリケーションサーバ25は、データベースサーバ26から受信した情報を、ユーザ側端末機13に送信する。   The application server 25 receives a request from the user terminal 13 and communicates with the database server 26. Through communication with the database server 26, the application server 25 performs processing for referring to and reading data stored in the storage 22. The application server 25 executes registration processing, change processing, deletion processing, and the like of data stored in the storage 22. The application server 25 transmits information received from the database server 26 to the user terminal 13.

このアプリケーションサーバ25は、画像編集部27、処理解析部28及び傾向解析部29を有している。画像編集部27は、ユーザ側端末機13を用いてアプリケーションサービスを利用して画像編集を行う場合に、ユーザ側端末機13からコンピュータシステム11に送信される画像データに対して画像編集処理を実行する。ここで、アプリケーションサービスを用いた画像編集処理は、ユーザ側端末機13から出力される指示信号に基づいて実行される。   The application server 25 includes an image editing unit 27, a processing analysis unit 28, and a trend analysis unit 29. The image editing unit 27 performs image editing processing on image data transmitted from the user terminal 13 to the computer system 11 when performing image editing using the application service using the user terminal 13. To do. Here, the image editing process using the application service is executed based on the instruction signal output from the user terminal 13.

処理解析部28は、ユーザ側端末機13又は画像編集部27にて実行された画像編集処理の内容を解析する。詳細は後述するが、この処理解析部28には、画像編集処理が実行される前後の画像データが、それぞれ入力される。これら入力された画像データを用いて、画像データに施された画像編集処理の内容を解析する。そして、処理解析部28は、解析した結果を編集情報として、データベースサーバ26に出力する。これを受けて、データベースサーバ26は、ストレージ22のユーザ使用領域35に編集情報31を記憶する。   The processing analysis unit 28 analyzes the contents of the image editing process executed by the user terminal 13 or the image editing unit 27. Although details will be described later, image data before and after the image editing process is input to the processing analysis unit 28, respectively. Using these input image data, the contents of the image editing process applied to the image data are analyzed. Then, the processing analysis unit 28 outputs the analyzed result to the database server 26 as editing information. In response to this, the database server 26 stores the editing information 31 in the user use area 35 of the storage 22.

傾向解析部29は、画像編集処理が実行されたときに得られる編集情報31を用いて、同一の撮影シーンモードにより取得される画像データに対して行われる画像編集処理の傾向を解析する。そして、傾向解析部29は、解析結果を解析情報としてまとめ、データベースサーバ26に出力する。ここで、解析情報32としては、撮影シーンモード、画像編集処理における処理の種類及び該処理における処理パラメータの情報が挙げられる。これを受けて、データベースサーバ26はストレージ22のユーザ使用領域35に、解析情報32を記憶する
ストレージ22は、アプリケーションサービスやソーシャルネットワーキングサービスで使用されるユーザのID(以下、ユーザID)、パスワードなどの個人情報の他、ユーザ側端末機13から送信された画像データなどの重要な情報を暗号化した状態で記憶する。ストレージ22は、これらの記憶された情報を管理する。このストレージ22は、登録されたユーザ毎に使用できる領域(以下、ユーザ使用領域)35が設定され、このユーザ使用領域35に上述した編集情報31や解析情報32が記憶される。
The trend analysis unit 29 analyzes the tendency of the image editing process performed on the image data acquired in the same shooting scene mode, using the editing information 31 obtained when the image editing process is executed. Then, the trend analysis unit 29 summarizes the analysis results as analysis information and outputs it to the database server 26. Here, examples of the analysis information 32 include information on a shooting scene mode, a type of processing in the image editing process, and processing parameters in the processing. In response to this, the database server 26 stores the analysis information 32 in the user use area 35 of the storage 22. The storage 22 is a user ID (hereinafter referred to as user ID), password, etc. used in the application service or social networking service. In addition to the personal information, important information such as image data transmitted from the user terminal 13 is stored in an encrypted state. The storage 22 manages these stored information. In the storage 22, an area (hereinafter referred to as a user use area) 35 that can be used for each registered user is set, and the editing information 31 and the analysis information 32 described above are stored in the user use area 35.

図2に示すように、デジタルカメラ12は、撮像光学系41、撮像素子42、A/D変換器43、ドライバ44、タイミングジェネレータ(TG)45、バッファメモリ46、画像処理回路47、符号化/復号化回路48、表示制御回路49、モニタ50、メディアコントローラ51、無線通信モジュール52、I/Fポート53、CPU54、内蔵メモリ55、レリーズボタン56及び設定操作部57を備えている。ここで、A/D変換器43、バッファメモリ46、画像処理回路47、符号化/復号化回路48、表示制御回路49、メディアコントローラ51、無線通信モジュール52、I/Fポート53、CPU54、内蔵メモリ55は、バス58を介して接続される。   As shown in FIG. 2, the digital camera 12 includes an imaging optical system 41, an imaging device 42, an A / D converter 43, a driver 44, a timing generator (TG) 45, a buffer memory 46, an image processing circuit 47, an encoding / coding circuit. A decoding circuit 48, a display control circuit 49, a monitor 50, a media controller 51, a wireless communication module 52, an I / F port 53, a CPU 54, a built-in memory 55, a release button 56, and a setting operation unit 57 are provided. Here, the A / D converter 43, buffer memory 46, image processing circuit 47, encoding / decoding circuit 48, display control circuit 49, media controller 51, wireless communication module 52, I / F port 53, CPU 54, built-in The memory 55 is connected via the bus 58.

撮像光学系41は、図示を省略したズームレンズやフォーカスレンズなどを含むレンズ群から構成される。これらズームレンズやフォーカスレンズは図示を省略したレンズ駆動機構によって光軸L方向に移動する。なお、撮像光学系41を介して取り込まれる被写体光は、撮像素子42の受光面において結像される。   The imaging optical system 41 includes a lens group including a zoom lens, a focus lens, and the like that are not shown. These zoom lens and focus lens are moved in the direction of the optical axis L by a lens driving mechanism (not shown). Note that the subject light captured via the imaging optical system 41 is imaged on the light receiving surface of the imaging element 42.

撮像素子42は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)などから構成される。この撮像素子42は、ドライバ44によって駆動制御される。撮像素子42の駆動制御としては、撮像素子42の各画素における信号電荷の蓄積、及び蓄積された各画素の信号電荷の出力を制御することが挙げられる。なお、各画素の信号電荷は画像信号としてA/D変換器43に出力される。A/D変換器43は、入力される画像信号をアナログの信号からデジタルの信号に変換する。このA/D変換器43から出力されるデジタルの画像信号は、バッファメモリ46に記憶される。   The image sensor 42 is configured by, for example, a charge coupled device (CCD), a complementary metal-oxide semiconductor (CMOS), or the like. The image sensor 42 is driven and controlled by a driver 44. The drive control of the image sensor 42 includes control of signal charge accumulation in each pixel of the image sensor 42 and output of the signal charge accumulated in each pixel. The signal charge of each pixel is output to the A / D converter 43 as an image signal. The A / D converter 43 converts an input image signal from an analog signal to a digital signal. The digital image signal output from the A / D converter 43 is stored in the buffer memory 46.

タイミングジェネレータ45は、A/D変換器43やドライバ44に対してクロックパルスを出力する。タイミングジェネレータ45からクロックパルスが出力されることで、撮像素子42やA/D変換器43の駆動タイミングが同期される。   The timing generator 45 outputs a clock pulse to the A / D converter 43 and the driver 44. By outputting clock pulses from the timing generator 45, the drive timing of the image sensor 42 and the A / D converter 43 is synchronized.

バッファメモリ46は、例えばEPPROMなどの不揮発性メモリからなる。このバッファメモリ46は、A/D変換器43から出力された画像信号、画像処理回路47にて画像処理が施された画像信号の他、記憶媒体59から読み出された画像信号が一時的に記憶される。   The buffer memory 46 is composed of a nonvolatile memory such as EPPROM, for example. In addition to the image signal output from the A / D converter 43 and the image signal subjected to image processing by the image processing circuit 47, the buffer memory 46 temporarily stores the image signal read from the storage medium 59. Remembered.

画像処理回路47は、バッファメモリ46に書き込まれた画像信号に対して、ホワイトバランス処理、色補間処理、輪郭補償処理、ガンマ処理などの画像処理を施す。以下、画像処理が施された画像信号を、画像データと称する。   The image processing circuit 47 performs image processing such as white balance processing, color interpolation processing, contour compensation processing, and gamma processing on the image signal written in the buffer memory 46. Hereinafter, an image signal subjected to image processing is referred to as image data.

この画像処理回路47は、画像データに対して解像度変換処理を行う。この解像度変換処理により、元の画像データに対して解像度の低い画像データが生成される。この解像度の低い画像データの例としては、画像の一覧表示を行う際に用いる画像データ(サムネイル画像データ)が挙げられる。また、画像処理回路47は、バッファメモリ46に記憶された画像データに基づく画像をモニタ50に表示させる場合に、モニタ50の解像度に併せた解像度となるように画像データに対する解像度変換処理を実行する。   The image processing circuit 47 performs resolution conversion processing on the image data. By this resolution conversion processing, image data having a lower resolution than the original image data is generated. As an example of the low-resolution image data, there is image data (thumbnail image data) used when displaying a list of images. Further, the image processing circuit 47 executes a resolution conversion process on the image data so that the resolution matches the resolution of the monitor 50 when displaying an image based on the image data stored in the buffer memory 46 on the monitor 50. .

符号化/復号化回路48は、バッファメモリ46に記憶された画像データを読み出し、読み出した画像データに対して符号化処理を実行する。この符号化処理により、例えばJPEG圧縮された画像データが生成される。この符号化処理された画像データは、バッファメモリ46に記憶される。また、符号化/復号化回路48は、符号化処理された画像データに対して復号化処理を施す。   The encoding / decoding circuit 48 reads the image data stored in the buffer memory 46, and executes an encoding process on the read image data. By this encoding process, for example, JPEG compressed image data is generated. The encoded image data is stored in the buffer memory 46. The encoding / decoding circuit 48 performs a decoding process on the encoded image data.

表示制御回路49は、画像処理回路47にて解像度変換処理が施された画像データを読み出す。そして、表示制御回路49は、読み出した画像データに基づく画像をモニタ50に表示する。ここで、モニタ50としては、例えばLCDや有機ELディスプレイなどが挙げられる。   The display control circuit 49 reads the image data that has been subjected to resolution conversion processing by the image processing circuit 47. Then, the display control circuit 49 displays an image based on the read image data on the monitor 50. Here, examples of the monitor 50 include an LCD and an organic EL display.

メディアコントローラ51は、例えばフラッシュメモリからなるメモリカードの他、光学ディスク、磁気ディスクなどの記憶媒体59と電気的に接続される。画像データを記憶媒体59に記憶させるときには、CPU54は、撮影条件、デジタルカメラ12の機種、撮影日時、サムネイル画像データなどを付帯情報として生成し、生成された付帯情報を生成する。そして、CPU54は、バッファメモリ46に記憶された符号化された画像データと付帯情報とを、例えばEXIF形式の画像ファイルとして記憶媒体59に書き込む。   The media controller 51 is electrically connected to a storage medium 59 such as an optical disk and a magnetic disk, in addition to a memory card made of, for example, a flash memory. When the image data is stored in the storage medium 59, the CPU 54 generates shooting conditions, the model of the digital camera 12, shooting date and time, thumbnail image data, and the like as additional information, and generates the generated additional information. Then, the CPU 54 writes the encoded image data and auxiliary information stored in the buffer memory 46 into the storage medium 59 as an EXIF image file, for example.

無線通信モジュール52は、通信回路及び通信アンテナを含み、例えば無線などの公知の通信回線を介してインターネット14に接続される。I/Fポート53は、例えばUSBポートやIEEEポートなどからなり、例えばデジタルカメラ12とユーザ側端末機13とをケーブルにより接続する際に、ケーブルの一端に設けられたコネクタが装着される。   The wireless communication module 52 includes a communication circuit and a communication antenna, and is connected to the Internet 14 via a known communication line such as a wireless communication. The I / F port 53 includes, for example, a USB port, an IEEE port, and the like. For example, when connecting the digital camera 12 and the user terminal 13 with a cable, a connector provided at one end of the cable is attached.

CPU54は、図示を省略した制御プログラムを実行することで、デジタルカメラ12の各部を統括的に制御する。このCPU54にはレリーズボタン56や設定操作部57が接続され、CPU54は、これら操作に応じた処理を実行する。つまり、CPU54は、レリーズボタン56や設定操作部57の操作に応じた、各種機能を実行する。この各種機能の一つとして、更新部60の機能が挙げられる。   The CPU 54 comprehensively controls each unit of the digital camera 12 by executing a control program (not shown). A release button 56 and a setting operation unit 57 are connected to the CPU 54, and the CPU 54 executes processing according to these operations. That is, the CPU 54 executes various functions according to the operation of the release button 56 and the setting operation unit 57. One of these various functions is the function of the update unit 60.

この更新部60は、コンピュータシステム11から送信された更新データを受信したときに、更新データに基づいて、撮影シーンモードに基づく画像処理データを更新する。ここで、撮影シーンモードとしては、例えば「ポートレート」、「マクロ撮影」、「人物」、「風景」、「夜景」、「こども」などが挙げられる。また、画像処理パラメータ61は、画像処理回路47にて実行されるホワイトバランス処理、色補間処理、輪郭補償処理及びガンマ処理などの画像処理にて用いるパラメータである。ここで、画像処理パラメータ61は、撮影シーンモード毎に対応付けられて内蔵メモリ55に記憶される。   When receiving the update data transmitted from the computer system 11, the update unit 60 updates the image processing data based on the shooting scene mode based on the update data. Here, examples of the shooting scene mode include “portrait”, “macro shooting”, “person”, “landscape”, “night view”, “children”, and the like. The image processing parameter 61 is a parameter used in image processing such as white balance processing, color interpolation processing, contour compensation processing, and gamma processing executed by the image processing circuit 47. Here, the image processing parameter 61 is stored in the built-in memory 55 in association with each shooting scene mode.

図3は、ユーザ側端末機13の構成を示す図である。ユーザ側端末機13は、CPU65、ROM66、RAM67、通信回路68、表示制御回路69、モニタ70、バッファメモリ71、I/Fポート72、メディアコントローラ73、入力操作部74などを有している。ここで、CPU65、ROM66、RAM67、通信回路68、表示制御回路69、バッファメモリ71、I/Fポート72及びメディアコントローラ73は、バス75を介して接続される。   FIG. 3 is a diagram illustrating a configuration of the user terminal 13. The user terminal 13 includes a CPU 65, ROM 66, RAM 67, communication circuit 68, display control circuit 69, monitor 70, buffer memory 71, I / F port 72, media controller 73, input operation unit 74, and the like. Here, the CPU 65, ROM 66, RAM 67, communication circuit 68, display control circuit 69, buffer memory 71, I / F port 72, and media controller 73 are connected via a bus 75.

CPU65は、ROM66に記憶された制御プログラムや、画像処理プログラムなどを実行することで、ユーザ側端末機13の各部を制御する。ROM66は、CPU65にて実行される各種プログラムや、各種プログラムを実行したときに使用される演算子などが記憶される。ここで、ROM66に記憶されるプログラムとして、画像編集プログラムが挙げられる。RAM67は、ROM66に記憶される各種プログラムを実行したときに算出される演算子などが記憶される。   The CPU 65 controls each unit of the user terminal 13 by executing a control program, an image processing program, and the like stored in the ROM 66. The ROM 66 stores various programs executed by the CPU 65, operators used when executing the various programs, and the like. Here, an image editing program may be mentioned as a program stored in the ROM 66. The RAM 67 stores an operator calculated when various programs stored in the ROM 66 are executed.

通信回路68は、例えば無線や有線などの公知の通信回線を介してインターネット14に接続される。表示制御回路69は、コンピュータシステム11から送信された画像データに基づく画像をモニタ70に表示する。ここで、モニタ70としては、例えばLCDや有機ELディスプレイなどが挙げられる。   The communication circuit 68 is connected to the Internet 14 via a known communication line such as wireless or wired. The display control circuit 69 displays an image based on the image data transmitted from the computer system 11 on the monitor 70. Here, examples of the monitor 70 include an LCD and an organic EL display.

バッファメモリ71は、コンピュータシステム11に向けて送信する画像データや、受信した画像データを記憶する。I/Fポート72は、例えばUSBポートやIEEEポートなどからなり、例えばデジタルカメラ12とユーザ側端末機13とをケーブルにより接続する際に、ケーブルの一端に設けられたコネクタが装着される。   The buffer memory 71 stores image data transmitted to the computer system 11 and received image data. The I / F port 72 includes, for example, a USB port, an IEEE port, and the like. For example, when the digital camera 12 and the user terminal 13 are connected by a cable, a connector provided at one end of the cable is attached.

メディアコントローラ73は、例えばフラッシュメモリからなるメモリカードの他、光学ディスク、磁気ディスクなどの記憶媒体と接続される。ここで、記憶媒体として、デジタルカメラ12に装着される記憶媒体59が挙げられる。   The media controller 73 is connected to a storage medium such as an optical disk and a magnetic disk in addition to a memory card made of, for example, a flash memory. Here, a storage medium 59 attached to the digital camera 12 is an example of the storage medium.

入力操作部74は、マウスやキーボードなどから構成され、ユーザ側端末機13における各種操作を行う際に操作される。この入力操作部74が操作されると、その操作信号がCPU65に入力される。CPU65は、入力操作部74からの操作信号に基づく処理を実行する。   The input operation unit 74 includes a mouse, a keyboard, and the like, and is operated when performing various operations in the user terminal 13. When the input operation unit 74 is operated, the operation signal is input to the CPU 65. The CPU 65 executes processing based on the operation signal from the input operation unit 74.

この画像通信システムにおいては、ユーザ端末機13に保持される画像編集プログラムを実行し、ユーザ端末機13にて受け付けた画像データに対する画像編集処理を行う他、コンピュータシステム11を用いたアプリケーションサービス上で画像編集処理を行うことができる。まず、ユーザ端末機に保持される画像編集プログラムを用いて、画像データに対する画像編集処理を行う場合について説明する。   In this image communication system, an image editing program held in the user terminal 13 is executed to perform image editing processing on the image data received by the user terminal 13, and on an application service using the computer system 11. Image editing processing can be performed. First, a case where image editing processing is performed on image data using an image editing program held in the user terminal will be described.

ユーザ側端末機13において画像編集プログラムを実行すると、ユーザ側端末機13のモニタ70の表示画面70aには、画像編集処理に基づく画面が表示される。ユーザは、入力操作部74を操作して、デジタルカメラ12により取得された画像データのうち、画像編集処理を行う画像データを選択する。   When the image editing program is executed in the user terminal 13, a screen based on the image editing process is displayed on the display screen 70 a of the monitor 70 of the user terminal 13. The user operates the input operation unit 74 to select image data to be subjected to image editing processing from among image data acquired by the digital camera 12.

ここで、ユーザ側端末機13において画像編集処理を実行する場合、ユーザ側端末機13とデジタルカメラ12とをケーブルを用いて接続し、デジタルカメラ12に装着される記憶媒体59に記憶される画像データから画像編集処理を行う画像データを選択してもよい。または、デジタルカメラ12から取り外された記憶媒体59をユーザ側端末機13に装着することで、画像編集処理を行う画像データを選択してもよい。   Here, when the image editing process is executed in the user terminal 13, the user terminal 13 and the digital camera 12 are connected using a cable, and the image stored in the storage medium 59 attached to the digital camera 12 is stored. Image data to be subjected to image editing processing may be selected from the data. Alternatively, image data to be subjected to image editing processing may be selected by attaching the storage medium 59 removed from the digital camera 12 to the user terminal 13.

ユーザが画像編集処理を行う画像データを選択すると、ユーザ側端末機13は、画像データに対して、複数の異なる処理内容を用いた画像処理を実行する。ここで、画像データとしては、画像データの付帯情報として付帯されるサムネイル画像データに対して上述した画像処理が実行される。ここで、複数の異なる処理内容とは、画像データを取得したときの撮影シーンモードに応じて設定される処理内容である。なお、処理の種類が同一であっても、該処理に対して用いられる値が異なれば、異なる処理内容となる。   When the user selects image data to be subjected to image editing processing, the user terminal 13 executes image processing using a plurality of different processing contents on the image data. Here, as the image data, the above-described image processing is performed on the thumbnail image data attached as the auxiliary information of the image data. Here, the plurality of different processing contents are processing contents set according to the shooting scene mode when the image data is acquired. Even if the type of processing is the same, if the value used for the processing is different, the processing contents are different.

この画像処理が行われると、ユーザ側端末機13のモニタ70の表示画面70aには、それぞれ処理が施された画像の一覧が表示される(図4参照)。以下、複数の異なる処理内容の画像処理が施された画像をそれぞれサンプル画像と称する。図4においては、6種類のサンプル画像を表示している。つまり、画像処理の処理内容として、6種類の処理内容が設定されている場合を示しているが、画像処理の処理内容は、6種類の処理内容に限定されるものではなく、適宜設定されるものである。   When this image processing is performed, a list of processed images is displayed on the display screen 70a of the monitor 70 of the user terminal 13 (see FIG. 4). Hereinafter, each of the images subjected to the image processing having different processing contents is referred to as a sample image. In FIG. 4, six types of sample images are displayed. That is, the case where six types of processing content are set as the processing content of the image processing is shown, but the processing content of the image processing is not limited to the six types of processing content, and is set as appropriate. Is.

図5は、サンプル画像を生成する際に実行される画像編集処理の内容を示している。例えば画像番号「1」のサンプル画像は、シャープネス処理、コントラスト処理及び彩度補正処理は「変更なし」、明るさ補正処理は「プラス(強)」に設定される。また、画像編集処理の範囲は「被写体のみ」に設定される。   FIG. 5 shows the contents of the image editing process executed when the sample image is generated. For example, for the sample image with the image number “1”, the sharpness process, the contrast process, and the saturation correction process are set to “no change”, and the brightness correction process is set to “plus (strong)”. Further, the range of the image editing process is set to “subject only”.

同様にして、画像番号「2」のサンプル画像は、例えばシャープネス処理、明るさ補正処理及び彩度補正処理は「変更なし」、コントラスト処理は「マイナス(弱)」に設定される。また、画像編集処理の範囲は「画像全体」に設定される。このように、他の画像番号に対しても、画像編集処理の処理内容が設定される。   Similarly, for the sample image with the image number “2”, for example, sharpness processing, brightness correction processing, and saturation correction processing are set to “no change”, and contrast processing is set to “minus (weak)”. The range of the image editing process is set to “whole image”. In this way, the processing content of the image editing process is also set for other image numbers.

図4に戻って、モニタ70の表示画面70aに表示されるサンプル画像の一覧の中に、ユーザの意図するサンプル画像があれば、ユーザは、入力操作部74を操作して、意図するサンプル画像に対応するチェックボックスを選択し、「OK」ボタン80を押圧操作する。この「OK」ボタン80の押圧操作を受けて、ユーザ側端末機13は、画像データに対して、選択された処理内容の画像編集処理を実行する。例えば画像番号「1」の画像が選択された場合には、画像データに対して画像番号「1」に設定される画像処理が実行される。   Returning to FIG. 4, if there is a sample image intended by the user in the list of sample images displayed on the display screen 70 a of the monitor 70, the user operates the input operation unit 74 to perform the intended sample image. Is selected, and the “OK” button 80 is pressed. In response to the pressing operation of the “OK” button 80, the user terminal 13 executes image editing processing of the selected processing content on the image data. For example, when the image with the image number “1” is selected, the image processing that is set to the image number “1” is performed on the image data.

この画像処理の後、ユーザ側端末機13は、画像編集処理が行われた日時の情報、画像編集処理の情報(以下、処理情報)の他、画像情報を編集情報としてアプリケーションサーバ25に送信する。ここで、画像情報とは、撮影時に設定される撮影シーンモードの情報が挙げられる他、顔検出の結果を示す情報、焦点距離の情報、光源種の情報、GPS情報、輝度差の情報など画像データに付帯される付帯情報が挙げられる。   After this image processing, the user terminal 13 transmits image information as editing information to the application server 25 in addition to information on the date and time when the image editing processing was performed and information on the image editing processing (hereinafter, processing information). . Here, the image information includes shooting scene mode information set at the time of shooting, as well as information indicating face detection results, focal length information, light source type information, GPS information, luminance difference information, and the like. Ancillary information incidental to the data is included.

ユーザの中には、モニタ70の表示画面70aに表示されるサンプル画像から画像を選択せずに、自分自身で画像編集処理を行う場合もある。この場合、図4に示すモニタ70の表示画面70aにおいて、項目「自分で詳細に編集する」のチェックボックスを選択し、「OK」ボタン80を押圧操作する。この操作により、画像編集処理を行う画像の他、例えばトーンカーブなどの画像編集用ダイアログがモニタ70の表示画面70aに表示される(図示省略)。ユーザは、入力操作部74を用いて画像編集用ダイアログを操作する。これにより、ユーザによる入力操作部74の操作にて、画像編集処理を行うことが可能となる。以下、ユーザ自身で画像編集処理を行う場合を、自己編集処理と称する。   Some users may perform image editing processing themselves without selecting an image from the sample images displayed on the display screen 70 a of the monitor 70. In this case, on the display screen 70a of the monitor 70 shown in FIG. 4, the check box of the item “Edit in detail by yourself” is selected, and the “OK” button 80 is pressed. By this operation, an image editing dialog such as a tone curve is displayed on the display screen 70a of the monitor 70 in addition to the image to be subjected to the image editing process (not shown). The user operates the image editing dialog using the input operation unit 74. As a result, the image editing process can be performed by the operation of the input operation unit 74 by the user. Hereinafter, the case where the user himself performs the image editing process is referred to as a self-editing process.

図6は、自己編集処理を行う場合の流れを示す図である。この図6においては、画像編集処理を行う画像に対して、明るさ補正処理、彩度補正処理、色相補正処理の3つの補正処理が順に行われた場合を示す。この場合、ユーザ側端末機13は、明るさ補正処理が施される前の画像P、明るさ補正処理後の画像P、彩度補正処理後の画像P、色相補正処理後の画像Pの計4つの画像をアプリケーションサーバ25に送信する。なお、これら画像のうち、画像Pは、自己編集処理を行う前にアプリケーションサーバ25に送信される。また、画像P,P,Pは、それぞれ自己編集処理の各処理が施された後に、アプリケーションサーバ25に送信される。これら画像を受けて、アプリケーションサーバ25の処理解析部28は各画像を用いた画像編集処理の内容を解析する。 FIG. 6 is a diagram showing a flow when performing the self-editing process. FIG. 6 shows a case where three correction processes, a brightness correction process, a saturation correction process, and a hue correction process, are sequentially performed on an image to be subjected to the image editing process. In this case, the user-side terminal 13 has the image P 0 before the brightness correction process, the image P 1 after the brightness correction process, the image P 2 after the saturation correction process, and the image after the hue correction process. transmitting a total of four images P 3 to the application server 25. Of these images, the image P 0 is transmitted to the application server 25 before performing the self-editing process. In addition, the images P 1 , P 2 , and P 3 are transmitted to the application server 25 after being subjected to each process of the self-editing process. Upon receiving these images, the processing analysis unit 28 of the application server 25 analyzes the contents of the image editing process using each image.

そして、ユーザ側端末機13は、画像編集処理が行われた日時の情報及び画像情報を編集情報としてアプリケーションサーバ25に送信する。なお、各画像をアプリケーションサーバに送信するタイミングは適宜設定されるものである。   Then, the user terminal 13 transmits the date and time information and image information on which the image editing process has been performed to the application server 25 as editing information. The timing for transmitting each image to the application server is set as appropriate.

ここで、図6においては、ユーザ側端末機13は、画像編集処理における各処理が施される前後の画像をそれぞれアプリケーションサーバ25に送信しているが、これに限定される必要はなく、自己編集処理を実行する前の画像(図6における画像P)と、自己画像編集処理を実行した後の画像(図6における画像P)とをアプリケーションサーバ25に送信してもよい。 Here, in FIG. 6, the user terminal 13 transmits the images before and after each processing in the image editing processing to the application server 25, but the present invention is not limited to this. The image before the editing process (image P 0 in FIG. 6) and the image after the self-image editing process (image P 3 in FIG. 6) may be transmitted to the application server 25.

ここでは、ユーザ端末機13に保持された画像編集プログラムを実行して画像編集処理を行う場合について説明しているが、この他に、コンピュータシステム11が提供するアプリケーションサービスにおいても画像編集処理を行うことができる。このコンピュータシステム11が提供するアプルケーションサービスを用いて画像編集処理を行う場合、ユーザ側端末機13のモニタ70の表示画面70aには、図4に示す表示画面や、自己編集処理に係る表示画面が表示される。この場合、まず、画像編集処理を行う画像データをアプリケーションサーバ25に送信し、送信した後、アプリケーションサーバ25において、画像編集処理を行い、画像編集処理後の画像データを、ユーザ側端末機13に送信すればよい。   Here, a case has been described in which the image editing program held in the user terminal 13 is executed to perform the image editing process, but in addition to this, the image editing process is also performed in an application service provided by the computer system 11. be able to. When the image editing process is performed using the application service provided by the computer system 11, the display screen 70a of the monitor 70 of the user terminal 13 includes the display screen shown in FIG. Is displayed. In this case, first, image data to be subjected to image editing processing is transmitted to the application server 25, and after the transmission, the image editing processing is performed in the application server 25, and the image data after the image editing processing is sent to the user terminal 13. Just send it.

ここで、自己編集処理が行われた場合、アプリケーションサーバ25において、画像編集処理の処理内容が解析される。この処理は、処理解析部28により実行される。処理解析部28は、ユーザ側端末機13から出力される画像データを用いて、画像編集処理の傾向を解析する。具体的には、図7に示すように、画像編集処理を施す前の画像Aと画像編集処理を施した後の画像Bとの差分から画像編集処理の内容を解析する。   Here, when the self-editing process is performed, the application server 25 analyzes the processing content of the image editing process. This process is executed by the process analysis unit 28. The processing analysis unit 28 analyzes the tendency of the image editing process using the image data output from the user terminal 13. Specifically, as shown in FIG. 7, the contents of the image editing process are analyzed from the difference between the image A before the image editing process and the image B after the image editing process.

まず、処理解析部28は、画像編集処理を施す前の画像Aと画像編集処理を施した後の画像Bのそれぞれの画像からヒストグラムを生成する。そして、処理解析部28は、生成された画像毎のヒストグラムから画像編集処理の処理内容を解析する。   First, the processing analysis unit 28 generates a histogram from each of the image A before the image editing process and the image B after the image editing process. Then, the processing analysis unit 28 analyzes the processing content of the image editing process from the generated histogram for each image.

例えば、画像編集処理を施す前の画像から生成されるヒストグラムと、画像編集処理を施した後の画像から生成されるヒストグラムとを比較すると、ある一定のパターンの変化が現れる。処理解析部28は、それぞれの画像から生成されたヒストグラムを比較することで現れるパターンに基づいて、画像編集処理の内容を解析する。図7においては、各画像から生成されるヒストグラムにおける各色成分のピークが、それぞれ図中右方にずれている。この場合、処理解析部28は、画像編集処理として明るさ補正処理が実行されたと判定する。そして、このピーク値のずれ量を明るさ補正処理における補正量(処理パラメータ)として求める。同様にして、処理解析部28は、明るさ補正処理だけでなく、彩度補正処理、色調補正に対する補正量も求める。そして、処理解析部28は、求めた画像編集の内容及び処理パラメータを処理情報としてまとめる。処理解析部28は、まとめた処理情報を、画像編集処理が終了する際にユーザ側端末機13からアプリケーションサーバ25に入力される編集情報31に付加する。そして、処理解析部28は、処理情報を付加した編集情報を、ストレージ22のユーザ使用領域35に記憶する。   For example, when a histogram generated from an image before the image editing process is compared with a histogram generated from the image after the image editing process, a certain pattern change appears. The processing analysis unit 28 analyzes the contents of the image editing process based on the patterns that appear by comparing the histograms generated from the images. In FIG. 7, the peak of each color component in the histogram generated from each image is shifted to the right in the drawing. In this case, the process analysis unit 28 determines that the brightness correction process has been executed as the image editing process. Then, the deviation amount of the peak value is obtained as a correction amount (processing parameter) in the brightness correction processing. Similarly, the process analysis unit 28 calculates not only the brightness correction process but also the correction amount for the saturation correction process and the color tone correction. Then, the processing analysis unit 28 summarizes the obtained image editing content and processing parameters as processing information. The process analysis unit 28 adds the collected process information to the edit information 31 that is input from the user terminal 13 to the application server 25 when the image editing process ends. Then, the processing analysis unit 28 stores the editing information to which the processing information is added in the user use area 35 of the storage 22.

次に、画像編集処理の傾向を解析する処理について説明する。この処理は、アプリケーションサーバ25の傾向解析部29にて実行される。まず、傾向解析部29は、最新の編集情報を含む、所定期間以内に得られた編集情報31のうち、同一の撮影条件(撮影シーンモードも含む)となる編集情報31の数が予め設定された閾値以上となるか否かを判定する。ここで、閾値は、ユーザが独自に設定してもよいし、予め設定された値であってもよい。同一の撮影条件となる編集情報31の数が予め設定された閾値以上となる場合、傾向解析部29は、同一の撮影条件となる編集情報31を用いて、画像編集処理の傾向を解析する。一方、同一の撮影条件となる編集情報31の数が予め設定された閾値未満となる場合には、傾向解析部29は、画像編集処理の傾向を解析する処理は実行しない。   Next, processing for analyzing the tendency of image editing processing will be described. This process is executed by the trend analysis unit 29 of the application server 25. First, the trend analysis unit 29 sets in advance the number of pieces of editing information 31 that have the same shooting conditions (including the shooting scene mode) among the editing information 31 obtained within a predetermined period including the latest editing information. It is determined whether or not the threshold value is exceeded. Here, the threshold value may be set independently by the user or may be a preset value. When the number of editing information 31 that is the same shooting condition is equal to or greater than a preset threshold value, the trend analysis unit 29 analyzes the tendency of the image editing process using the editing information 31 that is the same shooting condition. On the other hand, when the number of pieces of editing information 31 having the same shooting condition is less than a preset threshold value, the trend analysis unit 29 does not execute the process of analyzing the tendency of the image editing process.

傾向解析部29は、ストレージ22のユーザ使用領域35に記憶された編集情報のうち、同一の撮影シーンモードとなる編集情報31から処理情報を読み出す。そして、アプリケーションサーバ25は、同一の撮影シーンモードとなる処理情報を用いて、該当する撮影シーンモードにおける画像編集処理の傾向を解析する。図8は、ある撮影シーンモードで撮影された画像データに対する画像編集処理のうち、明るさ補正処理で用いた処理パラメータを示す。図8においては、明るさ補正処理の強度を縦軸、画像編集処理が行われた処理日時を横軸で表している。   The trend analysis unit 29 reads processing information from the editing information 31 in the same shooting scene mode among the editing information stored in the user use area 35 of the storage 22. Then, the application server 25 analyzes the tendency of the image editing process in the corresponding shooting scene mode using the processing information for the same shooting scene mode. FIG. 8 shows processing parameters used in the brightness correction process in the image editing process for image data shot in a shooting scene mode. In FIG. 8, the intensity of the brightness correction process is represented on the vertical axis, and the processing date and time when the image editing process was performed is represented on the horizontal axis.

ここで、画像編集処理の傾向を解析する処理は、最新の編集情報31における処理日時より前の所定期間を解析対象期間とした上で、この解析対象期間に得られた編集情報31の処理情報を用いて実行される。図8においては、処理日時nにおける処理パラメータが最新の処理パラメータとなるので、この場合の解析対象期間としては例えば処理日時(n−4)から、処理日時(n)までが解析対象期間となる。傾向解析部29は、処理日時(n−4)から、処理日時(n)の明るさ補正処理で用いた処理パラメータを参照し、解析対象期間における明るさ補正処理の傾向を推定する。   Here, the process of analyzing the tendency of the image editing process is performed by setting the predetermined period before the processing date and time in the latest editing information 31 as the analysis target period, and processing information of the editing information 31 obtained in the analysis target period. It is executed using In FIG. 8, the processing parameter at the processing date and time n is the latest processing parameter, and therefore the analysis target period in this case is, for example, from the processing date and time (n−4) to the processing date and time (n). . The trend analysis unit 29 refers to the processing parameters used in the brightness correction processing of the processing date and time (n) from the processing date and time (n-4), and estimates the tendency of the brightness correction processing in the analysis target period.

図8の場合、傾向解析部29は、解析対象期間における各処理パラメータの値から、明るさ補正処理は明るさを強める方向に補正する傾向にあると推定する。アプリケーションサーバ25は、この撮影シーンモードにおいては、明るさ補正処理は、明るさを強める補正を行う傾向があると推定する。傾向解析部29は、明るさ補正処理の傾向が推定されると、明るさ補正処理に用いる処理パラメータを求める。この明るさ補正処理の処理パラメータは、例えば、解析対象期間に含まれる処理パラメータを平均する、または、最新の明るさ補正処理にて使用された処理パラメータに対する重みを高くし、時間的に古い明るさ補正処理にて使用された処理パラメータに対する重みを低く設定した加重加算により求めることができる。   In the case of FIG. 8, the trend analysis unit 29 estimates that the brightness correction processing tends to correct in the direction of increasing brightness from the value of each processing parameter in the analysis target period. The application server 25 estimates that in this shooting scene mode, the brightness correction process tends to perform correction that increases brightness. When the tendency of the brightness correction process is estimated, the trend analysis unit 29 obtains a processing parameter used for the brightness correction process. The brightness correction processing parameter is, for example, an average of the processing parameters included in the analysis target period or a higher weight for the processing parameter used in the latest brightness correction processing. It can be obtained by weighted addition in which the weight for the processing parameter used in the correction process is set low.

図8においては、明るさ補正処理の傾向について解析する場合について示しているが、シャープネス処理、コントラスト処理、彩度処理など他の画像編集処理についても同様にして、撮影シーンモード毎の画像編集処理の傾向が解析される。   Although FIG. 8 shows the case of analyzing the tendency of brightness correction processing, image editing processing for each shooting scene mode is similarly performed for other image editing processing such as sharpness processing, contrast processing, and saturation processing. Trends are analyzed.

この画像編集処理を解析する際に、撮影シーンモードが同一であっても、画像編集処理の傾向が異なる場合がある。この場合、傾向解析部29は、編集情報に含まれる画像情報を読み出し、撮影条件が同一の条件となる編集情報に含まれる処理情報のみを用いて、同一の撮影条件となる編集情報の処理情報を用いて、画像編集処理の傾向を解析する。   When analyzing this image editing process, the tendency of the image editing process may be different even if the shooting scene mode is the same. In this case, the trend analysis unit 29 reads the image information included in the editing information, and uses only the processing information included in the editing information with the same shooting condition, and the processing information of the editing information with the same shooting condition. Is used to analyze the tendency of the image editing process.

なお、ストレージ22のユーザ使用領域35に編集情報を記憶する際に、撮影シーンモード及び撮影条件毎に編集情報31を分類しておき、分類された編集情報31の数が閾値以上となる場合に、分類された編集情報31毎に、画像編集処理の傾向を解析することも可能である。   When editing information is stored in the user use area 35 of the storage 22, the editing information 31 is classified for each shooting scene mode and shooting condition, and the number of classified editing information 31 is equal to or greater than a threshold value. It is also possible to analyze the tendency of image editing processing for each classified editing information 31.

傾向解析部29は、画像編集処理を解析した後、解析結果を示す情報(解析情報32)を生成し、撮影シーンモード及び撮影条件毎に分類してストレージ22のユーザ使用領域35に記憶する。   After analyzing the image editing process, the trend analysis unit 29 generates information (analysis information 32) indicating the analysis result, classifies it for each shooting scene mode and shooting conditions, and stores them in the user use area 35 of the storage 22.

なお、ストレージ22のユーザ使用領域35に記憶される解析情報32は、例えば、デジタルカメラ12の撮影シーンモードを更新する処理に用いられる。例えば解析情報がアプリケーションサーバ25は、デジタルカメラ12に撮影シーンモードを更新することができる旨の情報を送信する。これを受けて、デジタルカメラ12には、撮影シーンモードを更新できる旨の表示が行われる。ユーザが設定操作部57により撮影シーンモードを更新する処理を実行させると、その旨の信号がアプリケーションサーバ25に送信される。この信号を受けて、アプリケーションサーバ25は、解析情報32を更新データとして、デジタルカメラに送信する。これにより、デジタルカメラ12のCPU54は、撮影シーンモードに対する画像処理用パラメータを更新する。   The analysis information 32 stored in the user usage area 35 of the storage 22 is used for, for example, processing for updating the shooting scene mode of the digital camera 12. For example, the analysis server transmits information indicating that the shooting scene mode can be updated to the digital camera 12. In response to this, the digital camera 12 displays that the shooting scene mode can be updated. When the user causes the setting operation unit 57 to execute processing for updating the shooting scene mode, a signal to that effect is transmitted to the application server 25. Upon receiving this signal, the application server 25 transmits the analysis information 32 as update data to the digital camera. Thereby, the CPU 54 of the digital camera 12 updates the image processing parameters for the shooting scene mode.

次に、デジタルカメラ12により撮影された画像データに対して画像編集処理を実行する際の流れを、図9のフローチャートを用いて説明する。以下、ユーザ側端末機13に保持された画像編集プログラムを用いて画像編集処理を実行する場合について説明する。   Next, a flow when image editing processing is performed on image data captured by the digital camera 12 will be described with reference to a flowchart of FIG. Hereinafter, a case where image editing processing is executed using an image editing program stored in the user terminal 13 will be described.

ステップS101は、画像データを選択する処理である。ユーザの操作による入力操作部74からの操作信号を受けて、CPU65は、記憶媒体59に記憶された画像データから、画像編集処理を行う画像データを選択する。なお、記憶媒体59は、ユーザ側端末機13に直接接続されていてもよいし、ユーザ側端末機13にケーブルなどを用いて電気的に接続されるデジタルカメラ12に装着されていてもよい。   Step S101 is processing for selecting image data. Upon receiving an operation signal from the input operation unit 74 by a user operation, the CPU 65 selects image data to be subjected to image editing processing from image data stored in the storage medium 59. The storage medium 59 may be directly connected to the user terminal 13 or may be attached to the digital camera 12 that is electrically connected to the user terminal 13 using a cable or the like.

ステップS102は、サンプル画像データを生成する処理である。CPU65は、ステップS101において選択された画像データの付帯情報から撮影シーンモードの情報を読み出す。CPU65は、読み出した撮影シーンモードに応じて設定された複数の処理内容の画像編集処理を、選択された画像データに対して施す。これにより、処理内容が異なる複数の画像編集処理が施されたサンプル画像データが生成される。   Step S102 is processing for generating sample image data. The CPU 65 reads out information on the shooting scene mode from the incidental information of the image data selected in step S101. The CPU 65 performs image editing processing of a plurality of processing contents set according to the read shooting scene mode on the selected image data. Thereby, sample image data subjected to a plurality of image editing processes with different processing contents is generated.

ステップS103は、サンプル画像を表示する処理である。CPU65は、生成されたサンプル画像データを表示制御回路69に出力する。表示制御回路69は、入力されたサンプル画像データに基づくサンプル画像をモニタ70の表示画面70aに表示する(図4参照)。   Step S103 is processing for displaying a sample image. The CPU 65 outputs the generated sample image data to the display control circuit 69. The display control circuit 69 displays a sample image based on the input sample image data on the display screen 70a of the monitor 70 (see FIG. 4).

ステップS104は、サンプル画像の選択があるか否かを判定する処理である。ユーザによる入力操作部74の操作に基づいた操作信号から、サンプル画像のいずれかが選択されたと判断できる場合に、CPU65は、ステップS104の判定結果をYesとする。この場合、ステップS105に進む。一方、ユーザによる入力操作部74の操作に基づいた操作信号から、サンプル画像のいずれも選択していないと判断できる場合、CPU65は、このステップS104の判定結果をNoとする。この場合、ステップS107に進む。   Step S104 is processing for determining whether or not there is a sample image selection. When it can be determined that one of the sample images has been selected from the operation signal based on the operation of the input operation unit 74 by the user, the CPU 65 sets the determination result in step S104 to Yes. In this case, the process proceeds to step S105. On the other hand, if it can be determined from the operation signal based on the operation of the input operation unit 74 by the user that none of the sample images has been selected, the CPU 65 sets the determination result in step S104 to No. In this case, the process proceeds to step S107.

ステップS105は、画像編集処理である。このステップS105は、ステップS104の判定結果がYesとなる場合に実行される。つまり、ステップS104において、画像編集後の画像の仕上がりとして、サンプル画像のいずれかが選択されている。CPU65は、選択されたサンプル画像に施された画像編集処理において使用された画像編集パラメータを、ROM66から読み出す。そして、CPU65は、読み出した画像編集パラメータを用いた画像編集を画像データに対して施す。この画像編集処理を行った際に、CPU65は、実行された画像編集処理の処理内容及び画像編集パラメータを画像データの付帯情報に書き込む。   Step S105 is an image editing process. This step S105 is executed when the determination result of step S104 is Yes. That is, in step S104, one of the sample images is selected as the finished image after image editing. The CPU 65 reads from the ROM 66 the image editing parameters used in the image editing process performed on the selected sample image. Then, the CPU 65 performs image editing on the image data using the read image editing parameters. When this image editing process is performed, the CPU 65 writes the processing contents of the executed image editing process and the image editing parameters in the incidental information of the image data.

ステップS106は、処理日時の情報、処理情報及び画像情報を編集情報として送信する処理である。CPU65は、画像編集処理を行った処理日時の情報、選択した画像データに施した画像編集処理の内容を示す情報(処理情報)の他、画像情報を編集情報としてまとめる。そして、CPU65は、通信回路68を介して、コンピュータシステム11に編集情報を送信する。   Step S106 is processing for transmitting processing date information, processing information, and image information as editing information. The CPU 65 collects image information as editing information, in addition to information on the processing date and time when the image editing processing was performed and information (processing information) indicating the content of the image editing processing performed on the selected image data. Then, the CPU 65 transmits editing information to the computer system 11 via the communication circuit 68.

上述したステップS104においてサンプル画像のいずれも選択していないと判断できる場合、ステップS104の判定結果がNoとなり、ステップS107に進む。   When it can be determined that none of the sample images is selected in step S104 described above, the determination result in step S104 is No, and the process proceeds to step S107.

ステップS107は、自己編集処理を行うか否かを判定する処理である。ユーザによる入力操作部64の操作に基づいた操作信号から、ユーザ自身で画像編集処理を行うと判断される場合に、CPU65は、ステップS107の判定結果をYesとする。この場合、ステップS108に進む。一方、ユーザによる入力操作部74の操作に基づいた操作信号から、ユーザ自身で画像編集処理を行うと判断できない場合には、CPU65は、このステップS107の判定結果をNoとする。この場合ステップS104に戻る。   Step S107 is processing for determining whether or not to perform self-editing processing. If it is determined from the operation signal based on the operation of the input operation unit 64 by the user that the user himself performs the image editing process, the CPU 65 sets the determination result in step S107 to Yes. In this case, the process proceeds to step S108. On the other hand, if it is not possible to determine from the operation signal based on the operation of the input operation unit 74 by the user that the user himself will perform the image editing process, the CPU 65 sets the determination result in step S107 to No. In this case, the process returns to step S104.

ステップS108は、画像データを送信する処理である。CPU65は、ステップS101にて選択された画像データに付帯された付帯情報から、サムネイル画像データを読み出す。そして、CPU65は、通信回路68を介して、コンピュータシステム11にサムネイル画像データを送信する。   Step S108 is processing for transmitting image data. The CPU 65 reads thumbnail image data from the accompanying information attached to the image data selected in step S101. Then, the CPU 65 transmits thumbnail image data to the computer system 11 via the communication circuit 68.

ステップS109は、自己編集処理である。このステップS109の処理が実行されると、CPU65は表示制御回路69に画像編集処理に関わる編集画面の表示が行われるように、表示制御回路69に表示開始信号を出力する。このステップS109の処理を実行することで、ユーザ側端末機13のモニタ70に処理対象となるサムネイル画像と、編集用のダイアログを表示する。これを受けて、CPU65は、ユーザによる入力操作部64の操作に基づいた画像編集処理を実行する。   Step S109 is a self-editing process. When the process of step S109 is executed, the CPU 65 outputs a display start signal to the display control circuit 69 so that the display screen of the editing screen related to the image editing process is displayed on the display control circuit 69. By executing the process of step S109, a thumbnail image to be processed and a dialog for editing are displayed on the monitor 70 of the user terminal 13. In response to this, the CPU 65 executes image editing processing based on the operation of the input operation unit 64 by the user.

ステップS110は、処理済み画像データを送信する処理である。CPU65は、通信回路68を介して、コンピュータシステム11に画像編集処理が施された画像データを送信する。   Step S110 is processing for transmitting processed image data. The CPU 65 transmits the image data subjected to the image editing process to the computer system 11 via the communication circuit 68.

ステップS111は、画像を表示する処理である。CPU65は、表示制御回路69に対して、画像編集処理が施されたサムネイル画像データに基づく画像をモニタ70に表示する。   Step S111 is a process for displaying an image. The CPU 65 causes the display control circuit 69 to display an image based on the thumbnail image data subjected to the image editing process on the monitor 70.

ステップS112は、自己編集処理を終了するか否かを判定する処理である。ユーザによる入力操作部74の操作に基づいて出力される操作信号から自己編集操作を終了すると判断される場合に、CPU65は、ステップS112の判定結果をYesとする。この場合、ステップS113に進む。一方、ユーザによる入力操作部74の操作に基づいて出力される操作信号から、自己編集操作を継続すると判断される場合、CPU65は、ステップS112の判定結果をNoとする。この場合、ステップS109に戻る。つまり、自己編集処理が引き続き実行され、自己編集処理における画像編集処理が1回行われる度に、その画像編集処理が施された画像データがコンピュータシステム11に出力される。   Step S112 is a process for determining whether or not to end the self-editing process. When it is determined that the self-editing operation is to be ended from the operation signal output based on the operation of the input operation unit 74 by the user, the CPU 65 sets the determination result in step S112 to Yes. In this case, the process proceeds to step S113. On the other hand, when it is determined from the operation signal output based on the operation of the input operation unit 74 by the user that the self-editing operation is to be continued, the CPU 65 sets the determination result in step S112 to No. In this case, the process returns to step S109. That is, the self-editing process is continuously executed, and each time the image editing process in the self-editing process is performed once, the image data subjected to the image editing process is output to the computer system 11.

ステップS113は、処理日時の情報及び画像情報を編集情報として送信する処理である。CPU65は、画像編集処理を行った処理日時の情報及び画像情報を編集情報としてまとめる。そして、CPU65は、通信回路68を介して、コンピュータシステム11に編集情報を送信する。このようにして、取得した画像データに対して自己編集処理を行ったときの情報がコンピュータシステム11に送信される。送信される編集情報を受けて、コンピュータシステム11は、ストレージ22のユーザ使用領域35に編集情報31を記憶する。   Step S113 is a process of transmitting the processing date and time information and the image information as editing information. The CPU 65 collects information on the processing date and time when the image editing process is performed and the image information as editing information. Then, the CPU 65 transmits editing information to the computer system 11 via the communication circuit 68. In this way, information when the self-editing process is performed on the acquired image data is transmitted to the computer system 11. In response to the transmitted editing information, the computer system 11 stores the editing information 31 in the user use area 35 of the storage 22.

図1のフローチャートにおいては、ユーザ側端末機13に保持された画像編集プログラムを用いて画像編集処理を実行する場合について説明しているが、例えばコンピュータシステム11が提供するアプリケーションサービスにおいて画像編集処理を行うこともできる。この場合、アプリケーションサーバ25は、図1のフローチャートにおけるステップS102、S105、S109の各処理を実行し、これら処理を施した画像データをユーザ側端末機13に送信すればよい。   In the flowchart of FIG. 1, the case where the image editing process is executed using the image editing program held in the user terminal 13 is described. For example, the image editing process is performed in an application service provided by the computer system 11. It can also be done. In this case, the application server 25 may execute each process of steps S102, S105, and S109 in the flowchart of FIG. 1 and transmit the image data subjected to these processes to the user terminal 13.

次に、画像編集処理の処理内容を解析して処理情報を生成する処理について、図10のフローチャートを用いて説明する。なお、この処理は、ユーザ側端末機13において自己編集処理が行われた場合に実行される。   Next, processing for generating processing information by analyzing processing contents of the image editing processing will be described with reference to a flowchart of FIG. This process is executed when a self-editing process is performed in the user terminal 13.

ステップS201は、画像データを受信したか否かを判定する処理である。ユーザ側端末機13において画像データに対して自己編集処理を行う場合には、ユーザ側端末機13は、画像編集処理を行う画像データをコンピュータシステム11に送信する。画像データを受信した場合、アプリケーションサーバ25は、ステップS201の判定結果をYesとする。この場合、ステップS202に進む。一方、画像データを受信していない場合には、アプリケーションサーバ25は、ステップS201の判定結果をNoとする。この場合、画像データを受信するまで、ステップS201の判定処理が繰り返し実行される。   Step S201 is processing to determine whether or not image data has been received. When the user side terminal 13 performs self-editing processing on image data, the user side terminal 13 transmits image data to be subjected to image editing processing to the computer system 11. When the image data is received, the application server 25 sets the determination result in step S201 to Yes. In this case, the process proceeds to step S202. On the other hand, when the image data is not received, the application server 25 sets the determination result in step S201 to No. In this case, the determination process in step S201 is repeatedly executed until image data is received.

ステップS202は、画像データを記憶する処理である。アプリケーションサーバ25は、受信した画像データをストレージ22のユーザ使用領域35に記憶する。   Step S202 is processing for storing image data. The application server 25 stores the received image data in the user use area 35 of the storage 22.

ステップS203は、処理済みの画像データを受信したか否かを判定する処理である。ユーザ側端末機13において自己編集処理を行う場合、1回の画像編集処理が実行される度に、ユーザ側端末機13は処理済みの画像データをコンピュータシステム11に送信する。処理済みの画像データを受信した場合、アプリケーションサーバ25は、ステップS203の判定結果をYesとする。この場合、ステップS204に進む。一方、処理済みの画像データを受信していない場合、アプリケーションサーバ25はステップS203の判定結果をNoとする。この場合、処理済みの画像データを受信するまで、ステップS203の判定処理が繰り返し実行される。   Step S203 is processing to determine whether or not processed image data has been received. When self-editing processing is performed in the user-side terminal 13, the user-side terminal 13 transmits processed image data to the computer system 11 each time one image editing process is executed. When the processed image data is received, the application server 25 sets the determination result in step S203 to Yes. In this case, the process proceeds to step S204. On the other hand, when the processed image data has not been received, the application server 25 sets the determination result in step S203 to No. In this case, the determination process in step S203 is repeatedly executed until the processed image data is received.

ステップS204は、画像データを記憶する処理である。ステップS203において処理済みの画像データを受信すると、アプリケーションサーバ25は、ストレージ22のユーザ使用領域に処理済みの画像データを記憶する。   Step S204 is processing to store image data. Upon receiving the processed image data in step S203, the application server 25 stores the processed image data in the user use area of the storage 22.

ステップS205は、画像編集処理における処理内容を解析する処理である。アプリケーションサーバ25は、ストレージ22に記憶される画像データを用いて、実行された画像編集処理の処理内容を解析する。この解析により、アプリケーションサーバ25は、実行された画像編集処理における処理の種類及び処理パラメータを求める。   Step S205 is processing for analyzing processing contents in the image editing processing. The application server 25 uses the image data stored in the storage 22 to analyze the processing content of the executed image editing process. By this analysis, the application server 25 obtains the processing type and processing parameters in the executed image editing processing.

ステップS206は、自己編集処理が終了したか否かを判定する処理である。ユーザ側端末機13において自己編集処理が終了すると、その旨の信号が、ユーザ側端末機13からアプリケーションサーバ25に送信される。この信号が入力されることを受けて、アプリケーションサーバ25は、自己編集処理が終了したと判定する。アプリケーションサーバ25は、ステップS206の判定結果をYesとする。この場合、ステップS207に進む。一方、上述した信号が送信されない場合には、アプリケーションサーバ25は、自己編集処理が終了しておらず、自己編集処理が引き続き行われると判断する。つまり、アプリケーションサーバ25は、ステップS203の判定結果をNoとする。この場合、ステップS203に戻る。   Step S206 is a process of determining whether or not the self-editing process has been completed. When the self-editing process is completed in the user terminal 13, a signal to that effect is transmitted from the user terminal 13 to the application server 25. In response to the input of this signal, the application server 25 determines that the self-editing process has ended. The application server 25 sets the determination result in step S206 to Yes. In this case, the process proceeds to step S207. On the other hand, when the above-described signal is not transmitted, the application server 25 determines that the self-editing process is not completed and the self-editing process is continued. That is, the application server 25 sets the determination result in step S203 to No. In this case, the process returns to step S203.

ステップS207は、処理情報を生成する処理である。アプリケーションサーバ25は、画像編集処理を解析したときに得られる画像編集処理の処理内容と処理パラメータとをまとめることで、処理情報を生成する。アプリケーションサーバ25は、生成された処理情報は、ストレージ22のユーザ使用領域35に記憶する。   Step S207 is processing for generating processing information. The application server 25 generates processing information by collecting the processing contents and processing parameters of the image editing processing obtained when the image editing processing is analyzed. The application server 25 stores the generated processing information in the user use area 35 of the storage 22.

次に、コンピュータシステム11において、撮影シーンモード毎の処理傾向を解析する処理について図11のフローチャートを用いて説明する。   Next, processing for analyzing a processing tendency for each shooting scene mode in the computer system 11 will be described with reference to the flowchart of FIG.

ステップS301は、編集情報を受信する処理である。ユーザ側端末機13から編集情報が送信されることを受けて、コンピュータシステム11のアプリケーションサーバ25は、編集情報を受信する。   Step S301 is processing for receiving editing information. In response to the editing information transmitted from the user terminal 13, the application server 25 of the computer system 11 receives the editing information.

ステップS302は、処理情報があるか否かを判定する処理である。アプリケーションサーバ25は、受信した編集情報を参照し、画像編集処理に関わる処理情報が編集情報に含まれているか否かを判定する。複数のサンプル画像のいずれかを選択することで、画像編集処理が実行された場合、編集情報として処理情報が含まれている。この場合、アプリケーションサーバ25は、ステップS302の判定結果をYesとし、ステップS203に進む。一方、自己編集処理により画像編集処理が実行された場合には、元の画像データや処理済みの画像データがそれぞれアプリケーションサーバ25に送信され、アプリケーションサーバ25上で、画像編集処理を解析する処理が実行される。つまり、編集情報として、処理情報は含まれていない。よって、この場合、アプリケーションサーバ25は、ステップS302の判定結果をNoとする。この場合、ステップS304に進む。   Step S302 is processing to determine whether there is processing information. The application server 25 refers to the received editing information and determines whether or not the processing information related to the image editing process is included in the editing information. When image editing processing is executed by selecting one of a plurality of sample images, processing information is included as editing information. In this case, the application server 25 sets the determination result in step S302 to Yes, and proceeds to step S203. On the other hand, when the image editing process is executed by the self-editing process, the original image data and the processed image data are transmitted to the application server 25, and the application server 25 analyzes the image editing process. Executed. That is, processing information is not included as editing information. Therefore, in this case, the application server 25 sets the determination result in step S302 to No. In this case, the process proceeds to step S304.

ステップS303は、編集情報を記憶する処理である。アプリケーションサーバ25は、データベースサーバ26に編集情報を出力する。データベースサーバ26は、入力される編集情報をストレージ22のユーザ使用領域35に記憶する。   Step S303 is processing for storing editing information. The application server 25 outputs editing information to the database server 26. The database server 26 stores the input editing information in the user use area 35 of the storage 22.

ステップS304は、生成された処理情報を編集情報に追加する処理である。アプリケーションサーバ25は、ストレージ22のユーザ使用領域35に記憶された編集情報を読み出す。そして、アプリケーションサーバ25は、生成された処理情報を編集情報に追加する。この処理が実行されると、ステップS303に進む。   Step S304 is processing to add the generated processing information to the editing information. The application server 25 reads the editing information stored in the user usage area 35 of the storage 22. Then, the application server 25 adds the generated processing information to the editing information. When this process is executed, the process proceeds to step S303.

ステップS305は、同一の撮影条件となる編集情報の数が閾値以上となるか否かを判定する処理である。アプリケーションサーバ25は、データベースサーバ26を介して、ストレージ22に記憶された編集情報のうち、同一の撮影条件となる編集情報の数が閾値以上となるか否かを判定する。そして、同一の撮影条件となる編集情報の数が閾値以上であると判定される場合、アプリケーションサーバ25は、ステップS305の判定結果をYesとする。この場合、ステップS306に進む。一方、同一の撮影条件となる編集情報の数が閾値未満であると判定される場合、アプリケーションサーバ25は、ステップS305の判定処理をNoとする。この場合、図11のフローチャートの処理が終了する。つまり、この場合には、編集情報から更新データが生成されないことになる。   Step S305 is processing to determine whether or not the number of pieces of editing information that have the same shooting condition is equal to or greater than a threshold value. The application server 25 determines whether or not the number of pieces of editing information that have the same shooting condition among the pieces of editing information stored in the storage 22 is greater than or equal to a threshold value via the database server 26. When it is determined that the number of pieces of editing information that have the same shooting condition is equal to or greater than the threshold, the application server 25 sets the determination result in step S305 to Yes. In this case, the process proceeds to step S306. On the other hand, if it is determined that the number of pieces of editing information that have the same shooting condition is less than the threshold, the application server 25 determines No in step S305. In this case, the process of the flowchart of FIG. 11 ends. That is, in this case, update data is not generated from the editing information.

ステップS306は、画像編集処理における処理傾向を解析する処理である。アプリケーションサーバ25は、データベースサーバ26を介して、ストレージ22のユーザ使用領域35に記憶された編集情報のうち、同一の撮影シーンモードとなる編集情報を読み出す。そして、アプリケーションサーバ25は、読み出した編集情報を用いて、撮影シーンモード毎に施される画像編集処理における処理傾向を解析する。この画像編集処理における処理傾向を解析する処理により、過去に実行された撮影シーンモードにおける画像編集処理の種類、及び該処理における処理パラメータが求められる。   Step S306 is a process of analyzing a processing tendency in the image editing process. The application server 25 reads, through the database server 26, editing information that is in the same shooting scene mode from among the editing information stored in the user use area 35 of the storage 22. Then, the application server 25 analyzes the processing tendency in the image editing process performed for each shooting scene mode using the read editing information. By analyzing the processing tendency in the image editing process, the type of the image editing process in the shooting scene mode executed in the past and the processing parameters in the process are obtained.

ステップS307は、解析情報を生成する処理である。アプリケーションサーバ25は、画像編集処理により実行された処理の種類及び該処理における処理パラメータと、撮影シーンモードとをまとめることで、解析情報を生成する。そして、アプリケーションサーバ25は、生成した解析情報32を例えば撮影シーンモード毎にストレージ22のユーザ使用領域35に記憶する。また、アプリケーションサーバ25は、デジタルカメラ12に対して、更新通知を示す情報を送信する。なお、デジタルカメラ12から、更新許可を示す情報(信号)が送信された場合には、アプリケーションサーバ25は、対応する解析情報をストレージ22から読み出し、読み出した解析情報を更新データとして、デジタルカメラ12に送信する。   Step S307 is processing for generating analysis information. The application server 25 generates analysis information by collecting the types of processing executed by the image editing processing, the processing parameters in the processing, and the shooting scene mode. Then, the application server 25 stores the generated analysis information 32 in the user use area 35 of the storage 22 for each shooting scene mode, for example. In addition, the application server 25 transmits information indicating an update notification to the digital camera 12. When information (signal) indicating update permission is transmitted from the digital camera 12, the application server 25 reads the corresponding analysis information from the storage 22, and uses the read analysis information as update data. Send to.

このように、ユーザは、撮影により得られた画像データのそれぞれに対して上記に説明した画像編集処理を行っている。この画像編集処理を行うことで、画像編集処理に基づく情報(編集情報)や撮影シーンモード毎の解析情報がストレージ22のユーザ使用領域35に蓄積されていく。   Thus, the user performs the image editing process described above for each piece of image data obtained by shooting. By performing this image editing process, information (editing information) based on the image editing process and analysis information for each shooting scene mode are accumulated in the user use area 35 of the storage 22.

上述したコンピュータシステム11が提供するアプリケーションサービスは、複数のユーザが利用することができる。つまり、コンピュータシステム11は、複数のユーザが使用するユーザ側端末機13と接続される。よって、複数のユーザが使用するユーザ側端末機13の間で、画像データの送受信や電子メールの送受信の他、画像データの共有などを行うことができる。以下、アプリケーションサービスを用いて他のユーザに画像データを送信する場合について、第1実施形態と称して説明する。
[第1実施形態]
図12は、ユーザA、ユーザB及びユーザCの3人がアプリケーションサービスを利用する場合の概要図である。ここで、ユーザAが使用するユーザ側端末機13a、ユーザBが使用するユーザ側端末機13b及びユーザCが使用するユーザ側端末機13cは、それぞれインターネット14を介して、コンピュータシステム11に接続される。よって、コンピュータシステム11のストレージ22には、ユーザA、ユーザB及びユーザCの各ユーザに割り当てられたユーザ使用領域35a,35b,35cが生成される。ユーザ使用領域35aは、ユーザAに関するユーザ情報の他に、上述した画像編集処理における編集情報31aや解析情報32aを保持する。ユーザ使用領域35bは、ユーザBに関するユーザ情報の他に、画像編集処理にかかる編集情報31bや解析情報32bを保持する。ユーザ使用領域35cは、ユーザCに関するユーザ情報の他に、画像編集処理にかかる編集情報31cや解析情報32cを保持する。
The application service provided by the computer system 11 described above can be used by a plurality of users. That is, the computer system 11 is connected to the user terminal 13 used by a plurality of users. Accordingly, image data can be shared among the user terminals 13 used by a plurality of users, in addition to image data transmission / reception and e-mail transmission / reception. Hereinafter, a case where image data is transmitted to another user using an application service will be described as a first embodiment.
[First Embodiment]
FIG. 12 is a schematic diagram when three users, user A, user B, and user C use the application service. Here, the user terminal 13a used by the user A, the user terminal 13b used by the user B, and the user terminal 13c used by the user C are connected to the computer system 11 via the Internet 14, respectively. The Therefore, user usage areas 35a, 35b, and 35c assigned to the users A, B, and C are generated in the storage 22 of the computer system 11. The user use area 35a holds the editing information 31a and the analysis information 32a in the above-described image editing process in addition to the user information regarding the user A. The user use area 35b holds editing information 31b and analysis information 32b related to the image editing process in addition to the user information regarding the user B. The user use area 35c holds editing information 31c and analysis information 32c related to the image editing process in addition to the user information regarding the user C.

以下、アプリケーションサービスを利用するユーザが該アプリケーションサービスを利用する他のユーザに画像データを送信するときの、コンピュータシステム11における処理の流れを、図13のフローチャートに基づいて説明する。   Hereinafter, the flow of processing in the computer system 11 when a user who uses the application service transmits image data to another user who uses the application service will be described based on the flowchart of FIG. 13.

ステップS401は、画像データ及び送信先情報を受信したか否かを判定する処理である。ユーザがユーザ側端末機13を用いて画像データを他のユーザに向けて送信する操作を行うと、ユーザ側端末機13のCPU65は、ユーザIDを示す情報の他、送信する画像データと、送信先を示す情報(送信先情報)とをコンピュータシステム11に送信する。ここで、送信先情報とは、例えば、ユーザの電子メールのアドレス(以下、電子メールアドレス)、登録IDなどが挙げられる。   Step S401 is processing to determine whether image data and destination information have been received. When the user performs an operation of transmitting image data to another user using the user terminal 13, the CPU 65 of the user terminal 13 transmits the image data to be transmitted and the transmission in addition to the information indicating the user ID. Information indicating the destination (transmission destination information) is transmitted to the computer system 11. Here, the destination information includes, for example, a user's e-mail address (hereinafter, e-mail address), a registration ID, and the like.

ステップS402は、送信先情報に基づいて解析情報を読み出す処理である。アプリケーションサーバ25は、受信した画像データに付帯された付帯情報から撮影シーンモードの情報を読み出す。同時に、アプリケーションサーバ25は、送信先情報を読み出す。そして、アプリケーションサーバ25は、読み出した送信先情報に対応するユーザ使用領域から、撮影シーンモードに基づいた解析情報を読み出す。   Step S402 is processing for reading analysis information based on transmission destination information. The application server 25 reads out the information of the shooting scene mode from the accompanying information attached to the received image data. At the same time, the application server 25 reads transmission destination information. Then, the application server 25 reads analysis information based on the shooting scene mode from the user use area corresponding to the read transmission destination information.

ステップS403は、解析情報に基づいた画像編集処理を行う処理である。アプリケーションサーバ25は、ステップS402にて読み出した解析情報に基づいて、受信した画像データに対して画像編集処理を実行する。   Step S403 is a process of performing an image editing process based on the analysis information. The application server 25 executes an image editing process on the received image data based on the analysis information read in step S402.

ステップS404は、送信先情報に対応する画像編集処理済みの画像データを生成したか否かを判定する処理である。送信先情報に対応する画像編集処理を行うことで画像編集処理済みの画像データを生成した場合、アプリケーションサーバ25は、ステップS404の判定結果をYesとする。この場合、ステップS405に進む。一方、送信先情報に対応する画像編集処理を行うことで画像編集処理済みの画像データを生成していない場合、アプリケーションサーバ25は、ステップS404の判定結果をNoとする。なお、この判定がされる場合として、送信先情報が複数となるときに、各送信先情報に対応する画像編集処理済みの画像データを生成していない場合が挙げられる。この場合、ステップS402に戻る。   Step S404 is processing for determining whether or not image data that has undergone image editing processing corresponding to the transmission destination information has been generated. When image data that has been subjected to image editing processing is generated by performing image editing processing corresponding to the transmission destination information, the application server 25 sets the determination result in step S404 to Yes. In this case, the process proceeds to step S405. On the other hand, when the image data subjected to the image editing process is not generated by performing the image editing process corresponding to the transmission destination information, the application server 25 sets the determination result in step S404 to No. As a case where this determination is made, there is a case where image data subjected to image editing processing corresponding to each piece of transmission destination information is not generated when there are a plurality of pieces of transmission destination information. In this case, the process returns to step S402.

ステップS405は、画像編集処理された画像データを送信する処理である。アプリケーションサーバ25は、送信先情報に基づいて画像編集処理された画像データを、対応する送信先に送信する。   Step S405 is processing for transmitting the image data that has undergone image editing processing. The application server 25 transmits the image data subjected to the image editing process based on the transmission destination information to the corresponding transmission destination.

図12に示すように、例えばユーザAがアプリケーションサービスを利用して、ユーザB及びユーザCに画像データを送信する場合について説明する。ユーザAがユーザ側端末機13aを用いて送信する画像データを選択し送信先を指定すると、ユーザ側端末機13aは、ユーザAのユーザ情報の他、画像データ及び送信先情報をコンピュータシステム11に送信する。   As shown in FIG. 12, for example, a case where user A transmits image data to user B and user C using an application service will be described. When the user A selects the image data to be transmitted using the user terminal 13a and designates the transmission destination, the user terminal 13a sends the user A's user information as well as the image data and the transmission destination information to the computer system 11. Send.

コンピュータシステム11が画像データを受信すると、アプリケーションサーバ25は、送信先情報と画像データに付帯された撮影シーンモードの情報とを参照し、対象となるユーザ使用領域から解析情報を読み出す。この場合、ユーザB及びユーザCに対して画像データを送信する場合について説明しているので、アプリケーションサーバ25は、ユーザB及びユーザCに対して割り当てられたユーザ使用領域35b、35cから、撮影シーンモードに対応する解析情報32b及び32cを読み出す。アプリケーションサーバ25は、読み出した解析情報32b及び32cを用いて、受信した画像データに対する画像編集処理を行う。つまり、ユーザBに送信する画像データに対しては、ユーザBの解析情報32bを用いた画像編集処理が施される。また、ユーザCに送信する画像データに対しては、ユーザCの解析情報32cを用いた画像編集処理が施される。これら画像編集処理の後、画像編集処理が行われた画像データは、ユーザBのユーザ側端末機13b及びユーザCのユーザ側端末機13cにそれぞれに送信される。   When the computer system 11 receives the image data, the application server 25 refers to the transmission destination information and the information of the shooting scene mode attached to the image data, and reads the analysis information from the target user use area. In this case, since the case where image data is transmitted to the user B and the user C has been described, the application server 25 uses the user scenes 35b and 35c allocated to the user B and the user C to obtain a shooting scene. The analysis information 32b and 32c corresponding to the mode is read. The application server 25 performs image editing processing on the received image data using the read analysis information 32b and 32c. That is, the image data transmitted to the user B is subjected to an image editing process using the analysis information 32b of the user B. Further, the image data transmitted to the user C is subjected to an image editing process using the analysis information 32c of the user C. After these image editing processes, the image data subjected to the image editing process is transmitted to the user-side terminal 13b of user B and the user-side terminal 13c of user C, respectively.

上述したように、画像編集処理の処理傾向は撮影環境や被写体などにより異なる他、撮影を行ったユーザの好みにより異なる。よって、上記に示すユーザBが画像データに対して施す画像編集処理の処理傾向と、ユーザCが画像データに対して施す画像編集処理の処理傾向とは異なる。よって、第1実施形態では、画像データの送信時に予めユーザの好みの処理傾向に基づいて画像編集処理を実行し、画像編集処理を実行した画像データを各ユーザに送信している。このような処理をコンピュータシステム11側で行うことで、画像データを送信するユーザは、事前に送信先となるユーザの好みの画像となるように送信対象となる画像データに対して画像編集処理を行う必要がなくなる。一方、画像データを受信するユーザは、他のユーザが撮影により取得した画像データを、自分好みの画像となるように画像編集処理を行う必要がなくなる。よって、画像データを送受信する各ユーザの手間を省くことが可能となる。   As described above, the processing tendency of the image editing process varies depending on the photographing environment, the subject, and the like, and also varies depending on the preference of the user who performed the photographing. Therefore, the processing trend of the image editing process performed on the image data by the user B and the processing trend of the image editing process performed by the user C on the image data are different. Therefore, in the first embodiment, when image data is transmitted, the image editing process is executed in advance based on the user's favorite processing tendency, and the image data subjected to the image editing process is transmitted to each user. By performing such processing on the computer system 11 side, a user who transmits image data performs image editing processing on the image data to be transmitted in advance so that the user's favorite image as the transmission destination is obtained. There is no need to do it. On the other hand, the user who receives the image data does not need to perform an image editing process so that the image data acquired by the other user by photographing is a favorite image. Therefore, it is possible to save the trouble of each user who transmits and receives image data.

ここで、アプリケーションサービスを利用しているユーザの中には、該サービスの利用期間が短いユーザや、該サービスをあまり使用していないユーザが含まれる。このようなユーザの場合、該ユーザに対応するストレージ22のユーザ使用領域35には解析情報32が記憶されていないことがある。このようなユーザに対して画像データを送信する場合、アプリケーションサーバ25は、以下の処理を行う。まず、アプリケーションサーバ25は、ユーザに対して割り当てられたユーザ使用領域において解析情報32が保持されているか否かを判定する。そして、解析情報32が保持されていない場合、アプリケーションサーバ25は、他のユーザに割り当てられたユーザ使用領域35に記憶される解析情報32を読み出す。上述したように、解析情報32は、撮影シーンモード、画像編集処理における処理の種類及び該処理における処理パラメータの情報からなる。よって、アプリケーションサーバ25は、画像処理における処理の種類及び該処理における処理パラメータの情報を解析情報35から読み出し、平均的な画像編集処理の内容(処理の種類及び処理パラメータ)を決定する。そして、アプリケーションサーバ25は、決定した平均的な画像編集処理の内容に基づいて、対象となる画像データに対する画像編集処理を実行する。   Here, the users who use the application service include users who use the service for a short period of time and users who do not use the service very much. In the case of such a user, the analysis information 32 may not be stored in the user use area 35 of the storage 22 corresponding to the user. When transmitting image data to such a user, the application server 25 performs the following processing. First, the application server 25 determines whether or not the analysis information 32 is held in the user usage area assigned to the user. When the analysis information 32 is not held, the application server 25 reads the analysis information 32 stored in the user use area 35 assigned to another user. As described above, the analysis information 32 includes information on the shooting scene mode, the type of processing in the image editing process, and processing parameters in the processing. Therefore, the application server 25 reads information on the type of processing in the image processing and the processing parameters in the processing from the analysis information 35, and determines the average image editing processing content (type of processing and processing parameters). Then, the application server 25 executes an image editing process on the target image data based on the determined average image editing process.

なお、上述した第1実施形態は、共通のアプリケーションサービスを利用する他のユーザに対して画像データを送信する場合について説明している。共通のアプリケーションサービスを使用する場合、ユーザ間で画像データを送受信する他に、画像データを添付した電子メールを送受信する場合がある。このような場合であっても、本発明を適用することができる。共通のアプリケーションサービスを利用する他のユーザに対して画像データを添付した画像データを送信する場合について第2実施形態と称して説明する。なお、第1実施形態と同一の構成となる箇所については、同一の符号を付して説明する。
[第2実施形態]
図14に示すように、コンピュータシステム11のサーバユニット21は、アプリケーションサーバ25、データベースサーバ26の他に、メールサーバ80を有している。つまり、サーバユニット21がメールサーバ80を有することで、コンピュータシステム11が提供するアプリケーションサービスは、メールの送受信を行う機能を有する。
Note that the first embodiment described above describes a case where image data is transmitted to another user who uses a common application service. When using a common application service, in addition to transmitting and receiving image data between users, an e-mail attached with image data may be transmitted and received. Even in such a case, the present invention can be applied. A case where image data with image data attached is transmitted to another user who uses a common application service will be described as a second embodiment. In addition, about the location which becomes the same structure as 1st Embodiment, the same code | symbol is attached | subjected and demonstrated.
[Second Embodiment]
As shown in FIG. 14, the server unit 21 of the computer system 11 has a mail server 80 in addition to the application server 25 and the database server 26. That is, since the server unit 21 includes the mail server 80, the application service provided by the computer system 11 has a function of transmitting and receiving mail.

メールサーバ80は、アプリケーションサービスを利用する際に取得した電子メールアドレスを送信先とした電子メールを保持する。また、メールサーバ80は、電子メールを保持したときに、送信先の電子メールアドレスを所有するユーザがユーザ側端末機13を用いてアプリケーションサービスを利用したときに、該ユーザ側端末機13に対して、電子メールを受信していることを示す信号を送信する。そして、メールサーバ80は、該電子メールを送信する旨の要求信号を受信したときに、保持する電子メールをユーザ側端末機13に送信する。   The mail server 80 holds an e-mail whose destination is an e-mail address acquired when using the application service. In addition, when the mail server 80 holds the e-mail and the user who owns the e-mail address of the transmission destination uses the application service using the user-side terminal 13, the mail server 80 responds to the user-side terminal 13. Then, a signal indicating that the electronic mail is received is transmitted. When the mail server 80 receives a request signal for transmitting the electronic mail, the mail server 80 transmits the retained electronic mail to the user terminal 13.

以下、ユーザDがコンピュータシステム11により提供されるアプリケーションサービスを利用して、画像データを添付した電子メールをユーザEに対して送信する場合について説明する。ここで、電子メールを送信する際には、ユーザDはユーザ側端末機13dを用いて、ユーザEの所有する電子メールアドレスを送信先とする電子メールを生成する。この電子メールの生成時に、画像データが電子メールに添付される。ユーザが電子メールを送信する操作を行うと、ユーザ側端末機13dは、生成した電子メールをコンピュータシステム11に設けられたメールサーバ80に向けて送信する。   Hereinafter, a case where the user D transmits an e-mail attached with image data to the user E using an application service provided by the computer system 11 will be described. Here, when transmitting an e-mail, the user D generates an e-mail having the e-mail address owned by the user E as a transmission destination using the user terminal 13d. When this e-mail is generated, the image data is attached to the e-mail. When the user performs an operation of transmitting an e-mail, the user terminal 13d transmits the generated e-mail to a mail server 80 provided in the computer system 11.

メールサーバ80がユーザ側端末機13dからの電子メールを受信すると、メールサーバ80は、受信した電子メールに画像データが添付されているか否かを判定する。電子メールに画像データが添付されている場合、メールサーバ80は、送信先のユーザ情報を読み出す。メールサーバ80は、読み出した送信先のユーザ情報に基づき、ユーザ使用領域35eから解析情報32eを読み出す。なお、ユーザ使用領域35eから読み出す解析情報32eは、画像データに付帯された撮影シーンモードの情報に対応して生成された情報である。アプリケーションサーバ25は、読み出した解析情報に基づいて、画像データに対する画像編集処理を実行する。この画像編集処理が実行された後、アプリケーションサーバ25は、画像編集処理が実行された画像データをメールサーバ80に出力する。メールサーバ80は、画像編集処理が施された画像データを元の電子メールに添付する。   When the mail server 80 receives an electronic mail from the user terminal 13d, the mail server 80 determines whether image data is attached to the received electronic mail. When the image data is attached to the e-mail, the mail server 80 reads the user information of the transmission destination. The mail server 80 reads the analysis information 32e from the user use area 35e based on the read destination user information. Note that the analysis information 32e read from the user use area 35e is information generated corresponding to the information of the shooting scene mode attached to the image data. The application server 25 executes an image editing process on the image data based on the read analysis information. After this image editing process is executed, the application server 25 outputs the image data on which the image editing process has been executed to the mail server 80. The mail server 80 attaches the image data subjected to the image editing process to the original electronic mail.

メールサーバ80は、送信先の電子メールアドレスを所有するユーザがアプリケーションサービスを現在利用しているか否かの確認を行う。なお、この確認は、メールサーバ80とアプリケーションサーバ25との間で行う。送信先の電子メールアドレスを所有するユーザEがアプリケーションサービスを現在利用している場合、メールサーバ80は、ユーザEが使用するユーザ端末機13eに電子メールを受信したことを示す信号を送信する。この信号を受けて、ユーザEが使用するユーザ側端末機13eは、メールサーバ80に対して、電子メールを要求する信号を出力する。メールサーバ80は、ユーザ側端末機13eに、ユーザが所有する電子メールアドレスを送信先とした電子メールを送信する。   The mail server 80 checks whether or not the user who owns the destination e-mail address is currently using the application service. This confirmation is performed between the mail server 80 and the application server 25. When the user E who owns the destination electronic mail address is currently using the application service, the mail server 80 transmits a signal indicating that the electronic mail has been received to the user terminal 13e used by the user E. In response to this signal, the user terminal 13e used by the user E outputs a signal requesting an email to the mail server 80. The mail server 80 transmits an e-mail with the e-mail address owned by the user as a transmission destination to the user terminal 13e.

電子メールを受信すると、ユーザ側端末機13eのモニタ70eには、電子メールを受信したことを示す表示が行われる。これにより、ユーザは、ユーザ側端末機13eのモニタ70eにおいて、受信した電子メールや、添付された画像データに基づく画像を見ることができる。また、この他に、添付された画像データをユーザ側端末機13eの所定の記録先(例えばユーザ側端末機13eに設けられる内部メモリやユーザ側端末機13eに装着される記憶媒体)に記憶することができる。ここで、電子メールに添付される画像データは、ユーザEが過去に行った画像編集処理の処理内容を解析した結果に基づいた画像編集処理が施されている。つまり、ユーザEの好みの画像となることから、ユーザEが、自身で画像編集処理を行う必要がない。また、電子メールを送信するユーザは、電子メールの送信時に、ユーザEの好みの画像となるように画像編集処理を行う必要はない。よって、画像編集処理に係る手間を省くことができ、容易に、ユーザ好みの画像を得ることができる。   When the e-mail is received, a display indicating that the e-mail has been received is displayed on the monitor 70e of the user terminal 13e. As a result, the user can view an image based on the received electronic mail or the attached image data on the monitor 70e of the user terminal 13e. In addition, the attached image data is stored in a predetermined recording destination of the user terminal 13e (for example, an internal memory provided in the user terminal 13e or a storage medium attached to the user terminal 13e). be able to. Here, the image data attached to the e-mail is subjected to image editing processing based on the result of analyzing the processing content of the image editing processing performed by the user E in the past. That is, since the image becomes a preference of the user E, the user E does not need to perform image editing processing by himself. In addition, the user who transmits the e-mail does not need to perform the image editing process so that the user E's favorite image is obtained when the e-mail is transmitted. Accordingly, it is possible to save time and effort related to the image editing process, and it is possible to easily obtain a user-preferred image.

なお、第2実施形態に示す電子メールの送受信に関して、電子メールを送信するユーザ、又は電子メールを受信するユーザは、上述したアプリケーションサービスを利用するユーザとは限らない。例えばメールを受信するユーザがアプリケーションサービスを利用していない場合、そのユーザに対して画像データを添付した電子メールを送信すると、画像データは送信したときの状態を保ったまま、言い換えれば、送信先のユーザの好みの画像データではない。よって、電子メールを受信するユーザによっては、受信した電子メールに添付された画像データに対して画像編集処理を行うこともある。   In addition, regarding transmission / reception of electronic mail shown in the second embodiment, a user who transmits an electronic mail or a user who receives an electronic mail is not necessarily a user who uses the application service described above. For example, if the user who receives the email does not use the application service and sends an email with the image data attached to the user, the image data remains the same as when it was sent, in other words, the destination It is not the user's favorite image data. Thus, depending on the user who receives the e-mail, the image editing process may be performed on the image data attached to the received e-mail.

以下、アプリケーションサービスを利用するユーザと、該アプリケーションサービスを利用していないユーザとの間で電子メールを送受信する場合について、第3実施形態として説明する。   Hereinafter, a case where an electronic mail is transmitted and received between a user who uses an application service and a user who does not use the application service will be described as a third embodiment.

[第3実施形態]
この第3実施形態は、アプリケーションサービスを利用するユーザと、該アプリケーションサービスを利用していないユーザとの間でメールを送受信する場合について説明する。アプリケーションサービスを利用するユーザは、該アプリケーションサービスの利用を開始する際に取得した電子メールアドレスの他に、他のインターネット接続業者(プロバイダ)のサービスを利用する際に取得した電子メールアドレスを所有している場合を例に挙げて説明する。なお、第1実施形態及び第2実施形態と同一の構成となる箇所に対しては、同一の符号を付して説明する。
[Third Embodiment]
In the third embodiment, a case where mail is transmitted and received between a user who uses an application service and a user who does not use the application service will be described. The user who uses the application service owns the e-mail address acquired when using the service of other Internet service provider (provider) in addition to the e-mail address acquired when starting the use of the application service. An example will be described. In addition, the same code | symbol is attached | subjected and demonstrated to the location which becomes the same structure as 1st Embodiment and 2nd Embodiment.

まず、アプリケーションサービスを利用していないユーザGが、ユーザFが所有する電子メールアドレスのうち、アプリケーションサービスの利用を開始する際に取得した電子メールアドレスに電子メールを送信する場合を説明する。   First, a case where the user G who does not use the application service transmits an e-mail to an e-mail address acquired when starting to use the application service among e-mail addresses owned by the user F will be described.

図15に示すように、ユーザGは、ユーザ側端末機13gを用いて電子メールを生成する。電子メールを生成した後、ユーザGが電子メールを送信する操作を行うと、ユーザ側端末機13gは、生成した電子メールをメールサーバ82に送信する。メールサーバ82は、受信した電子メールの送信先である電子メールアドレスを参照する。メールサーバ82は、参照した電子メールアドレスに対応するメールサーバ80に送信する。電子メールを受信すると、メールサーバ80は、画像データが添付されている電子メールであるか否かを判定する。そして、画像データが添付されている電子メールであると判定された場合に、メールサーバ80は、送信先情報及び画像データとをアプリケーションサーバ25に出力する。   As shown in FIG. 15, the user G generates an electronic mail using the user terminal 13g. When the user G performs an operation of transmitting an email after generating the email, the user terminal 13g transmits the generated email to the mail server 82. The mail server 82 refers to the email address that is the destination of the received email. The mail server 82 transmits to the mail server 80 corresponding to the referenced electronic mail address. When the e-mail is received, the mail server 80 determines whether the e-mail is attached with image data. If it is determined that the image data is an attached e-mail, the mail server 80 outputs the destination information and the image data to the application server 25.

アプリケーションサーバ25は、送信先の情報からユーザを特定した後、特定したユーザに対応付けられたユーザ使用領域から解析情報を読み出す。ここで、解析情報は、画像データに付帯された撮影シーンモードの情報に対応付けられた情報である。   The application server 25 identifies the user from the transmission destination information, and then reads the analysis information from the user usage area associated with the identified user. Here, the analysis information is information associated with shooting scene mode information attached to the image data.

この場合、ユーザGがユーザFに対して電子メールを送信する場合を説明しているので、送信先の情報から特定されるユーザは、ユーザFとなる。よって、アプリケーションサーバ25は、ユーザFに対して割り当てたユーザ使用領域35fから、解析情報32fを読み出す。そして、アプリケーションサーバ25は、読み出した解析情報32fを用いて、画像データに対する画像編集処理を実行する。その後、アプリケーションサーバ25は、画像編集処理済みの画像データをメールサーバ80に出力する。これを受けて、メールサーバ80は、画像データを読み出した電子メールに対して、画像編集処理が施された画像データを添付する処理を実行する。なお、上述した処理が施された電子メールは、メールサーバ80に保持される。   In this case, since the case where the user G transmits an e-mail to the user F is described, the user specified from the transmission destination information is the user F. Therefore, the application server 25 reads the analysis information 32f from the user use area 35f assigned to the user F. Then, the application server 25 executes an image editing process on the image data using the read analysis information 32f. Thereafter, the application server 25 outputs the image data that has undergone the image editing process to the mail server 80. In response to this, the mail server 80 executes a process of attaching the image data subjected to the image editing process to the electronic mail from which the image data has been read. Note that the e-mail that has been subjected to the above-described processing is held in the mail server 80.

これら処理の後、メールサーバ80は、送信先の電子メールアドレスを所有するユーザFがアプリケーションサービスを現在利用しているか否かをアプリケーションサーバ25に確認する。送信先の電子メールアドレスを所有するユーザFがアプリケーションサービスを現在利用している場合、メールサーバ80は、ユーザFが使用するユーザ側端末機13fに電子メールを受信したことを示す信号を送信する。これを受けて、ユーザFが使用するユーザ側端末機13fは、メールサーバ80に対して、電子メールを要求する信号を出力する。メールサーバ80は、ユーザ側端末機13fに電子メールを送信する。これにより、アプリケーションサービスを提供するアプリケーションサーバ25のメールサーバ80から電子メールがユーザ側端末機13fに送信される。   After these processes, the mail server 80 checks with the application server 25 whether or not the user F who owns the destination electronic mail address is currently using the application service. When the user F who owns the destination e-mail address is currently using the application service, the mail server 80 transmits a signal indicating that the e-mail has been received to the user terminal 13f used by the user F. . In response to this, the user terminal 13f used by the user F outputs a signal requesting an email to the mail server 80. The mail server 80 transmits an e-mail to the user terminal 13f. Accordingly, an e-mail is transmitted from the mail server 80 of the application server 25 that provides the application service to the user terminal 13f.

電子メールを受信すると、ユーザ側端末機13fのモニタ70fには、電子メールを受信したことを示す表示が行われる。これにより、ユーザFは、ユーザ側端末機13fのモニタ70fにおいて、受信した電子メールや、添付された画像データに基づく画像を見ることができる。また、この他に、添付された画像データをユーザ側端末機13fの所定の記録先(例えばユーザ側端末機13fに設けられる内部メモリやユーザ側端末機13fに装着される記憶媒体)に記憶することができる。ここで、電子メールに添付される画像データは、ユーザFが過去に行った画像編集処理の処理内容を解析した結果に基づいた画像編集処理が施されている。つまり、ユーザFの好みの画像となることから、ユーザFが、自身で画像編集処理を行う必要がない。また、電子メールを送信するユーザFは、電子メールの送信時に、ユーザFの好みの画像となるように画像編集処理を行う必要はない。よって、画像編集処理に係る手間を省くことができ、容易に、ユーザ好みの画像を得ることができる。   When the electronic mail is received, a display indicating that the electronic mail has been received is displayed on the monitor 70f of the user terminal 13f. Thereby, the user F can see the image based on the received e-mail or the attached image data on the monitor 70f of the user terminal 13f. In addition, the attached image data is stored in a predetermined recording destination of the user terminal 13f (for example, an internal memory provided in the user terminal 13f or a storage medium attached to the user terminal 13f). be able to. Here, the image data attached to the e-mail is subjected to image editing processing based on the result of analyzing the processing content of the image editing processing performed by the user F in the past. That is, since the image becomes a preference of the user F, the user F does not need to perform image editing processing by himself. Further, the user F who transmits an e-mail does not need to perform an image editing process so that the user F's favorite image is obtained when the e-mail is transmitted. Accordingly, it is possible to save time and effort related to the image editing process, and it is possible to easily obtain a user-preferred image.

次に、ユーザGがユーザ側端末機13gを用いて、ユーザFが所有する電子メールアドレスのうち、他のインターネット接続業者のサービスを利用する際に取得した電子メールアドレスに対して、画像データを添付した画像データを送信する場合について説明する。この場合、ユーザGがユーザ側端末機13gを用いて電子メールを送信する操作を行うと、ユーザ側端末機13gからメールサーバ82に向けて電子メールが送信される。メールサーバ82は、電子メールの送付先となるインターネット接続業者が所有するメールサーバ81に電子メールを転送する。メールサーバ81は、ユーザGからの電子メールを保持する。そして、ユーザFがユーザ側端末機13fを用いたときに、メールサーバ81は、ユーザ側端末機13fに向けて電子メールを送信する。   Next, the user G uses the user-side terminal 13g to send image data to an email address acquired when using the service of another Internet service provider among the email addresses owned by the user F. A case where attached image data is transmitted will be described. In this case, when the user G performs an operation of transmitting an email using the user terminal 13g, the email is transmitted from the user terminal 13g to the mail server 82. The mail server 82 transfers the e-mail to the mail server 81 owned by the Internet connection company that is the destination of the e-mail. The mail server 81 holds an email from the user G. When the user F uses the user terminal 13f, the mail server 81 transmits an e-mail to the user terminal 13f.

ここで、ユーザFは、上述したアプリケーションサービスを利用している状態で、他のインターネット接続業者のサービスを利用している。よって、ユーザ側端末機13fに電子メールが受信されると、ユーザ側端末機13fは、電子メールに画像データが添付されているか否かを判定する。そして、電子メールに画像データが添付されている場合、ユーザ側端末機13fは、電子メールに添付される画像データをアプリケーションサーバ25に送信する。これを受けて、アプリケーションサーバ25は、画像データに対する画像編集処理を実行する。なお、この画像編集処理の内容は、第1実施形態と同様である。   Here, the user F is using the service of another internet connection provider in the state which is using the application service mentioned above. Therefore, when the electronic mail is received by the user side terminal 13f, the user side terminal 13f determines whether image data is attached to the electronic mail. If the image data is attached to the e-mail, the user terminal 13f transmits the image data attached to the e-mail to the application server 25. In response to this, the application server 25 executes an image editing process on the image data. The contents of this image editing process are the same as those in the first embodiment.

一方、ユーザFが、アプリケーションサービスにおいて取得した電子メールアドレスを用いて、ユーザGが所有する他のインターネット接続業者のサービスにて取得された電子メールを送信する場合について考える。ユーザGはアプリケーションサービスを利用していないことから、このような場合には、コンピュータシステムは、上述した画像編集処理を行わずに、そのまま、メールサーバに送信する。この場合、平均的な画像編集処理を施した上で、電子メールをメールサーバに送信することも可能である。   On the other hand, consider a case where the user F transmits an e-mail acquired by the service of another Internet connection company owned by the user G using the e-mail address acquired by the application service. Since the user G does not use the application service, in such a case, the computer system transmits it to the mail server as it is without performing the image editing process described above. In this case, it is also possible to send an e-mail to a mail server after performing an average image editing process.

第1実施形態では、アプリケーションサービスを使用するユーザ間で画像データを送受信する場合、第2実施形態では、アプリケーションサービスを使用するユーザ間で画像データを添付した電子メールを送受信する場合、第3実施形態では、アプリケーションサービスを使用するユーザと、アプリケーションサービスを使用しないユーザとの間で画像データを添付した電子メールを送受信する場合について説明している。しかしながら、本発明は、これに限定される必要なく、アプリケーションサービスを利用するユーザがアプリケーションサービスを利用する際に、共有される画像データに基づく画像を閲覧する場合にも、本発明を用いることができる。   In the first embodiment, when image data is transmitted / received between users using the application service, in the second embodiment, when an e-mail attached with image data is transmitted / received between users using the application service, the third embodiment In the embodiment, a case is described in which an e-mail attached with image data is transmitted and received between a user who uses the application service and a user who does not use the application service. However, the present invention is not limited to this, and the present invention can also be used when a user who uses an application service browses an image based on shared image data when using the application service. it can.

10…画像通信システム、11…コンピュータシステム、12…デジタルカメラ、13…ユーザ側端末機、22…ストレージ、25…アプリケーションサーバ、26…データベースサーバ、27…画像編集部、28…処理解析部、29…傾向解析部、35…ユーザ使用領域   DESCRIPTION OF SYMBOLS 10 ... Image communication system, 11 ... Computer system, 12 ... Digital camera, 13 ... User side terminal, 22 ... Storage, 25 ... Application server, 26 ... Database server, 27 ... Image editing part, 28 ... Process analysis part, 29 ... Trend analysis part, 35 ... User use area

Claims (6)

ユーザ側端末機と、前記ユーザ側端末機との間でデータを送受信することが可能なサーバユニットとを有し、前記ユーザ側端末機を使用する複数のユーザ間の画像データの送受信を、前記サーバユニットを介して実行する画像通信システムにおいて、
前記サーバユニットは、
前記複数のユーザのいずれかのユーザが他のユーザに送信する画像データを受け付ける画像受付部と、
前記画像データに対する画像編集処理の処理傾向を示す処理傾向情報を前記複数のユーザ毎に記憶する記憶部と、
前記画像データを受け付けたときに前記他のユーザに対する処理傾向情報を読み出し、読み出した前記処理傾向情報に基づいた前記画像編集処理を、受け付けた前記画像データに施す画像編集部と、
前記画像編集処理が施された画像データを、前記他のユーザが使用するユーザ側端末機に送信する送信部と、
を備えたことを特徴とする画像通信システム。
A user-side terminal and a server unit capable of transmitting and receiving data between the user-side terminal and transmitting and receiving image data among a plurality of users using the user-side terminal; In an image communication system executed via a server unit,
The server unit is
An image receiving unit that receives image data transmitted by one of the plurality of users to another user;
A storage unit that stores processing trend information indicating a processing trend of image editing processing on the image data for each of the plurality of users;
Processing trend information for the other user is read when the image data is received, and an image editing unit that performs the image editing process based on the read processing trend information on the received image data;
A transmission unit for transmitting the image data subjected to the image editing process to a user terminal used by the other user;
An image communication system comprising:
請求項1に記載の画像通信システムにおいて、
前記サーバユニットは、前記ユーザ側端末機を使用した前記画像データの画像編集処理を行う画像編集サービスを提供することが可能であり、
前記複数のユーザは、前記画像編集サービスの提供を受けるユーザからなることを特徴とする画像通信システム。
The image communication system according to claim 1,
The server unit can provide an image editing service for performing image editing processing of the image data using the user terminal.
The image communication system, wherein the plurality of users include users who receive the image editing service.
請求項1及び請求項2に記載の通信ステムにおいて、
前記他のユーザは、少なくとも1以上のユーザであり、
前記画像編集部は、前記少なくとも1以上のユーザのそれぞれに対応する処理傾向情報毎の画像編集処理を実行し、他のユーザが使用するユーザ側端末機に該画像データを送信することを特徴とする画像通信システム。
The communication system according to claim 1 and claim 2,
The other user is at least one user,
The image editing unit executes image editing processing for each processing tendency information corresponding to each of the at least one user and transmits the image data to a user terminal used by another user. Image communication system.
請求項1から請求項3のいずれか1項に記載の画像通信システムにおいて、
前記画像編集部は、前記記憶部に記憶されるユーザ毎の処理傾向情報のうち、撮影時に設定される撮影シーンモードに対する処理傾向情報を用いて画像データに対する画像編集処理を実行することを特徴とする画像通信システム。
The image communication system according to any one of claims 1 to 3,
The image editing unit executes image editing processing on image data using processing trend information for a shooting scene mode set at the time of shooting among processing trend information for each user stored in the storage unit. Image communication system.
請求項1に記載の画像通信システムにおいて、
前記サーバユニットは、前記複数のユーザ間で電子メールを送受信する際に用いるメールサーバを備え、
前記メールサーバは、受信した電子メールに画像データが添付されているか否かを判定し、
前記サーバユニットは、前記電子メールに画像データが添付されていると判定した場合に、該画像データに対して前記画像編集処理を行うことを特徴とする画像通信システム。
The image communication system according to claim 1,
The server unit includes a mail server used when sending and receiving e-mail between the plurality of users.
The mail server determines whether image data is attached to the received e-mail;
When the server unit determines that image data is attached to the e-mail, the server unit performs the image editing process on the image data.
請求項1に記載の画像通信システムにおいて、
前記複数のユーザは、他のメールサーバからの電子メールを使用する前記ユーザ側端末機にて受信することが可能であり、
前記ユーザ側端末機は、前記他のメールサーバから受信した電子メールに画像データが添付されていた場合に、該画像データを前記サーバユニットに送信し、
前記サーバユニットは、前記他のユーザ側端末機から送信された画像データに対して、送信したユーザに対して記憶される処理傾向情報に基づいた画像編集処理を実行することを特徴とする画像通信システム。
The image communication system according to claim 1,
The plurality of users can be received by the user terminal using an email from another mail server,
The user terminal transmits the image data to the server unit when the image data is attached to the e-mail received from the other mail server,
The server unit executes image editing processing based on processing tendency information stored for a user who has transmitted the image data transmitted from the other user terminal. system.
JP2012212572A 2012-09-26 2012-09-26 Image communication system Pending JP2014068229A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012212572A JP2014068229A (en) 2012-09-26 2012-09-26 Image communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012212572A JP2014068229A (en) 2012-09-26 2012-09-26 Image communication system

Publications (1)

Publication Number Publication Date
JP2014068229A true JP2014068229A (en) 2014-04-17

Family

ID=50744216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012212572A Pending JP2014068229A (en) 2012-09-26 2012-09-26 Image communication system

Country Status (1)

Country Link
JP (1) JP2014068229A (en)

Similar Documents

Publication Publication Date Title
KR20180116466A (en) Use of camera metadata for recommendations
CN101325658A (en) Imaging device, imaging method and computer program
US9692963B2 (en) Method and electronic apparatus for sharing photographing setting values, and sharing system
CN104349047B (en) Image picking-up apparatus and its image pickup method
EP2866434A1 (en) Imaging apparatus
CN102567729A (en) Region specification method, region specification apparatus, server, and system
CN109391757A (en) Information processing unit, information processing method and storage medium
EP2141654A1 (en) System and method for efficiently performing image processing operations
US9389678B2 (en) Virtual image signal processor
CN103873762A (en) Photographing apparatus and method of controlling the same
CN109391771B (en) Image pickup apparatus, communication apparatus, control method thereof, and storage medium
US20100033582A1 (en) Method and apparatus for controlling thumbnail display and digital photographing apparatus
JP2003199097A (en) Monitoring system center apparatus, monitoring system center program and recording medium for recording monitoring system center program
JP2014068227A (en) Image pick-up system
JP2013172312A (en) Photographing support system and photographing support program
KR20140045369A (en) Image information processing system
JP2011135380A (en) Image capturing apparatus, image sharing method, and image sharing program
JP2014068229A (en) Image communication system
CN111078085B (en) Information processing apparatus, control method of information processing apparatus, and storage medium
CN110225223B (en) Image processing apparatus and control method thereof
JP4499275B2 (en) Electronic camera system and electronic camera
CN108780426A (en) Service provider system, service delivery system, service providing method and program
KR101789674B1 (en) Non-realtime image processing method, image picturing apparatus and image processing system thereof
JP2014068228A (en) Image analysis system and image capturing system
US9710927B2 (en) Method and apparatus for determining data enabling generation of a user profile