JP2004032371A - Method, apparatus and program for processing image - Google Patents

Method, apparatus and program for processing image Download PDF

Info

Publication number
JP2004032371A
JP2004032371A JP2002185870A JP2002185870A JP2004032371A JP 2004032371 A JP2004032371 A JP 2004032371A JP 2002185870 A JP2002185870 A JP 2002185870A JP 2002185870 A JP2002185870 A JP 2002185870A JP 2004032371 A JP2004032371 A JP 2004032371A
Authority
JP
Japan
Prior art keywords
image data
image
processing
image processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002185870A
Other languages
Japanese (ja)
Inventor
Fumito Takemoto
竹本 文人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002185870A priority Critical patent/JP2004032371A/en
Publication of JP2004032371A publication Critical patent/JP2004032371A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To apply image processing in which the characteristics of a portable terminal device are taken into account to image data obtained in the portable terminal device such as a cellular telephone with a camera. <P>SOLUTION: The image data obtained in the cellular telephones 1, 2 with a camera are stored in a storing means of an image server 3. A plurality kinds of image data which are temporally mixed with image data S0 to be processed are extracted, and the image data obtained in the cellular telephone 1 with a camera, from which the data S0 are obtained, are selected. An image processing parameter P0 for applying image processing to the data S0 on the basis of the selected image data is calculated in an automatic setup means 37, and the image processing is applied to the data S0 on the basis of the parameter P0 to obtain processed image data S3. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ付き携帯電話等の携帯端末装置において取得された画像データに対して画像処理を施す画像処理方法および装置並びに画像処理方法をコンピュータに実行させるためのプログラムに関するものである。
【0002】
【従来の技術】
携帯電話の普及には目覚ましいものがあるが、近年、撮影により画像データを取得する撮影手段を有するカメラ付き携帯電話が普及しつつある(例えば特開平6−233020号公報、同9−322114号公報、同10−150523号公報、特開2000−253290号公報等)。このようなカメラ付き携帯電話を用いることにより、撮影により取得した自分の好みの画像データを携帯電話の待ち受け画面に設定できる。また、撮影により取得した画像データを電子メールに添付して友人に送信することができるため、約束をキャンセルせざるを得ないような状況になったとき、あるいは待ち合わせ時刻に遅刻しそうなときに、申し訳なさそうな自分の表情を撮影して友人に送信する等、現在の自分の状況を友人に知らせることができることから、友人とのコミュニケーションを図るのに便利である。
【0003】
また、カメラ付き携帯電話の機能が向上し、プリント出力を行うのに十分なサイズを有する画像データをカメラ付き携帯電話において取得することも可能となってきている。
【0004】
一方、カメラ付き携帯電話において取得された画像データに対して、種々の画像処理を施して処理済み画像データを得たり、画像データをプリント出力したり、ネットワーク上にアップロードすることが行われている。これにより、ユーザは高画質の画像を取得したり、プリントを取得したり、ネットワーク上において画像を閲覧する等できるため、通信による画像データの利用形態の多様化を図ることができる。
【0005】
このようなカメラ付き携帯電話において取得された画像データの利用は、画像データを撮像したカメラ付き携帯電話から、画像データの保管管理を行う画像サーバに画像データを送信し、画像サーバにおいて画像データの保管場所を表すURLを付与した電子メールを生成し、この電子メールを画像データの送信先の携帯電話、パソコンやPDA等の端末装置、プリント出力を行うラボ等に送信し、電子メールの送信を受けた携帯電話、端末装置またはラボ等からURLを参照して画像データをダウンロードすることにより行われている。
【0006】
一方、ネガフイルムに記録された画像を読み取ることにより得られた画像データに対して画像処理を施す際に、ネガフイルムに記録された全ての画像から求められた階調バランスと、各画像毎の階調バランスとを重み付けすることにより、各画像に対する階調バランスの調整条件を求めるようにした方法が提案されている(特開平11−317880号公報)。
【0007】
また、ネガフイルムに記録された各画像の類似度を求め、類似度に応じて各画像の画像処理条件を求めるようにした方法も提案されている(特開2000−98513号公報)。このように、複数の画像を用いて画像処理のためのパラメータを算出することにより、ネガフイルムの特性を考慮した画像処理をネガフイルムに記録された画像を読み取ることにより得られた画像データに対して施すことができるため、画質のばらつきのない処理済み画像を得ることができる。
【0008】
【発明が解決しようとする課題】
ところで、カメラ付き携帯電話の機種も多様化しているが、機種に応じてカメラの特性が異なることから、カメラ付き携帯電話の機種を考慮した画像処理を画像データに対して施すことが好ましい。
【0009】
本発明は上記事情に鑑みなされたものであり、カメラ付き携帯電話等の携帯端末装置において得られた画像データに対して、機種の特性を考慮した画像処理を施すことを目的とする。
【0010】
【課題を解決するための手段】
本発明による画像処理方法は、複数種類のカメラ付き携帯端末装置においてそれぞれ取得された複数の画像データのうちの1の処理対象画像データに対して画像処理を施して処理済み画像データを得る画像処理方法であって、
複数種類のカメラ付き携帯端末装置において取得された複数の画像データから、前記処理対象画像データを取得した対象カメラ付き携帯端末装置と同一機種のカメラ付き携帯端末装置において取得された複数の対象画像データを選択し、
該複数の対象画像データに基づいて前記処理対象画像データに対して前記画像処理を施すための画像処理パラメータを算出し、
該画像処理パラメータに基づいて、前記処理対象画像データに対して画像処理を施して前記処理済み画像データを得ることを特徴とするものである。
【0011】
なお、本発明による画像処理方法においては、所定時間内に取得された複数の画像データを前記複数の対象画像データとして選択するようにしてもよい。この場合、複数の画像データは似たシーンを表すものとなる。
【0012】
本発明による画像処理装置は、複数種類のカメラ付き携帯端末装置においてそれぞれ取得された複数の画像データのうちの1の処理対象画像データに対して画像処理を施して処理済み画像データを得る画像処理装置であって、
前記複数の画像データから、前記処理対象画像データを取得した対象カメラ付き携帯端末装置と同一機種のカメラ付き携帯端末装置において取得された複数の対象画像データを選択し、該複数の対象画像データに基づいて前記処理対象画像データに対して前記画像処理を施すための画像処理パラメータを算出する画像処理パラメータ算出手段と、
該画像処理パラメータに基づいて、前記処理対象画像データに対して画像処理を施して前記処理済み画像データを得る処理手段とを備えたことを特徴とするものである。
【0013】
なお、本発明による画像処理装置においては、前記画像処理パラメータ算出手段を、所定時間内に取得された複数の画像データを前記複数の対象画像データとして選択する手段としてもよい。
【0014】
なお、本発明による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
【0015】
【発明の効果】
本発明によれば、複数種類のカメラ付き携帯端末装置においてそれぞれ取得された複数の画像データから、画像処理の対象である処理対象画像データを取得した対象カメラ付き携帯端末装置と同一機種のカメラ付き携帯端末装置において取得された複数の対象画像データが選択され、選択された複数の対象画像データに基づいて処理対象画像データに画像処理を施すための画像処理パラメータが算出される。このため、算出された画像処理パラメータは、処理対象画像データを取得した対象カメラ付き携帯端末装置の特性を考慮したものとなっている。したがって、算出された画像処理パラメータに基づくことにより、同一機種のカメラ付き携帯端末装置において得られた画像データに対しては、画質のばらつきが生じないように画像処理を施すことができる。
【0016】
また、複数の対象画像データを所定時間内に取得された画像データとすることにより、とくに似たシーンの画像に基づいて算出された画像処理パラメータにより処理対象の画像データに対して画像処理を施すことができるため、処理済み画像データにより表される処理済み画像の画質のばらつきをより低減することができる。
【0017】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による画像処理装置を備えた画像処理システムの構成を示す概略ブロック図である。図1に示すように本実施形態による画像処理システムは、カメラ付き携帯電話1,2と、カメラ付き携帯電話1,2において取得された画像データS0を保管管理する画像サーバ3と、画像データS0をプリント出力するラボ4との間で、画像データS0や種々の情報のやり取りを携帯電話通信網5を介して行うものである。
【0018】
カメラ付き携帯電話1は、撮影により画像データS0を取得するカメラ11と、画像データS0や種々の情報の送受信を行う通信手段12と、画像データS0に対して画像処理を施して処理済み画像データS1を得る画像処理手段13と、画像や電話番号等種々の表示を行う液晶モニタ14と、カメラ付き携帯電話1の動作を制御するコントローラ15と、後述するように画像データS0の用途および/または画質に基づいて、画像データS0に対して画像処理を施す場所を決定して場所情報B0を生成する画像処理場所決定手段16と、カメラ11による撮影の操作、画像データS0の送信指示、画像データS0の用途および/または画質の入力、画像データS0または処理済み画像データS1の送信先、プリント出力を行うか否かの指定、画像サーバ3に保管しておくか否かの指定、画像データS0に画像処理を施す際の指示等、種々の情報の入力を行う複数のボタンからなる入力手段17とを備える。
【0019】
カメラ付き携帯電話2は、撮影により画像データS0を取得するカメラ21と、画像データS0や種々の情報の送受信を行う通信手段22と、画像データS0に対して画像処理を施して処理済み画像データS2を得る画像処理手段23と、画像や電話番号等種々の表示を行う液晶モニタ24と、カメラ付き携帯電話2の動作を制御するコントローラ25と、後述するように画像データS0の用途および/または画質に基づいて、画像データS0に対して画像処理を施す場所を決定して場所情報B0を生成する画像処理場所決定手段26と、カメラ21による撮影の操作、画像データS0の送信指示、画像データS0の用途および/または画質の入力、画像データS0または処理済み画像データS2の送信先、プリント出力を行うか否かの指定、画像サーバ3に保管しておくか否かの指定、画像データS0に画像処理を施す際の指示等、種々の情報の入力を行う複数のボタンからなる入力手段27とを備える。
【0020】
なお、本実施形態においては、カメラ付き携帯電話1において画像データS0を取得して画像データS0に画像処理を施す画像処理場所を決定し、カメラ付き携帯電話2を画像データS0または処理済み画像データS1の送信先の1つとして指定するものとする。
【0021】
画像処理手段13は、画像データS0に対して濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、シャープネス処理等の画像処理を施して処理済み画像データS1を得る。なお、画像処理手段13は、後述する画像サーバ3やラボ4の画像処理手段ほど高度な画像処理を行うことができないものである。したがって、得られる処理済み画像データS1は、液晶モニタ14のように比較的小さいサイズのモニタに表示するには問題ないが、プリント出力したりパソコンのモニタのような大きいサイズのモニタに表示するには適さないものである。
【0022】
画像処理場所決定手段16は、カメラ付き携帯電話1のユーザが入力手段17から入力した画像データS0の用途および/または画質に基づいて、画像データS0に対して画像処理を施す場所を決定して、画像処理を施す場所を表す場所情報B0を生成する。例えば、画像データS0の用途が携帯電話のモニタへの表示である旨が入力された場合および/または低画質の旨が入力された場合には、画像データS0はそれほど高い画質は要求されないことから、画像処理場所決定手段16は、画像処理場所をカメラ付き携帯電話1に決定して場所情報B0を生成する。なお、画像データS0をカメラ付き携帯電話2に送信する場合には、画像処理場所をカメラ付き携帯電話2と決定して場所情報B0を生成してもよい。この場合、画像処理場所の決定は、入力手段17から入力される画像データS0の送信先情報に基づいて行えばよい。
【0023】
なお、用途および/または画質は入力手段17から直接入力してもよいが、液晶モニタ14に種々の用途および/または画質を表示して、ユーザに所望とする用途および/または画質を選択させるようにしてもよい。
【0024】
また、画像データS0の用途が画像サーバ3への保管である場合には、画像データS0がパソコン等の端末装置にダウンロードされてモニタに表示されて用いられることから、画像データS0にはプリント出力ほどではないが中程度の画質が要求される。したがって、画像データS0の用途が画像サーバ3への保管である場合および/または中程度の画質の旨が入力された場合には、画像処理場所決定手段16は、画像データS0には中程度の画質が要求されることから、画像処理場所を画像サーバ3に決定して場所情報B0を生成する。
【0025】
さらに、画像データS0の用途がプリント出力である場合には、画像データS0には高画質が要求される。また、画像データS0を高画質にしたい場合はプリント出力を所望する場合が多い。したがって、画像データS0の用途がプリント出力である場合および/または高画質の旨が入力された場合には、画像処理場所決定手段16は、画像データS0には高画質が要求されることから、画像処理場所をラボ4に決定して場所情報B0を生成する。
【0026】
通信手段12は、画像データS0または処理済み画像データS1を、場所情報B0および画像データS0または処理済み画像データS1の送信先を表す送信先情報(例えば、ラボ4、カメラ付き携帯電話2、カメラ付き携帯電話1のユーザの友人のメールアドレス等)とともに携帯電話通信網5を介して画像サーバ3へ送信する。なお、画像データS0の用途がプリント出力である場合には、プリントの受け取り先を表す受け取り先情報(相手を特定できればよいため、例えば携帯電話の番号等でもよい)も送信される。なお、画像データS0または処理済み画像データS1のタグには、カメラ付き携帯電話1の機種を表す機種情報が記述される。
【0027】
ここで、未処理の画像データS0が送信されるのは、画像処理場所が画像サーバ3、ラボ4およびカメラ付き携帯電話2に決定された場合である。一方、画像処理場所がカメラ付き携帯電話1に決定された場合には、画像処理手段13において画像データS0に対して画像処理が施されて処理済み画像データS1が得られ、これが場所情報B0(この場合カメラ付き携帯電話1を表す)とともに画像サーバ3へ送信される。
【0028】
なお、カメラ付き携帯電話2の通信手段22、画像処理手段23および画像処理場所決定手段26は、通信手段12、画像処理手段13および画像処理場所決定手段16と同様の機能を有する。
【0029】
画像サーバ3は、画像データS0等種々の情報の送受信を行う通信手段31と、画像データS0に対して画像処理を施して処理済み画像データS3を得る画像処理手段32と、カメラ付き携帯電話1から送信された画像データS0または処理済み画像データS1を保管する保管手段33と、画像データS0または処理済み画像データS1の保管場所を表すURLを生成するURL生成手段34と、URL生成手段34において生成されたURLが付与された電子メールを作成するメール作成手段35と、画像サーバ3の動作を制御するコントローラ36と、画像データS0に対して施す画像処理のための画像処理パラメータP0を算出するオートセットアップ手段37とを備える。
【0030】
画像処理手段32は、カメラ付き携帯電話1から画像データS0が送信され、かつ場所情報B0に基づく画像処理場所が画像サーバ3である場合に、画像データS0に対して濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、シャープネス処理等の画像処理を施して処理済み画像データS3を得る。なお、画像処理手段32において行われる画像処理は、処理済み画像データS3をモニタに表示するのに適した画質にする画像処理である。また、画像データS0に対する画像処理のための画像処理パラメータP0は後述するようにオートセットアップ手段37において算出される。
【0031】
保管手段33は、カメラ付き携帯電話1から処理済み画像データS1が送信された場合には処理済み画像データS1を保管する。また、未処理の画像データS0が送信された場合において、場所情報B0に基づく画像処理場所が画像サーバ3である場合には、画像処理手段32において得られた処理済み画像データS3を保管する。さらに、未処理の画像データS0が送信された場合において、場所情報B0に基づく画像処理場所がカメラ付き携帯電話2またはラボ4である場合には、未処理の画像データS0を保管する。
【0032】
URL生成手段34は、画像データS0、処理済み画像データS1または処理済み画像データS3の保管場所を表すURLを生成する。
【0033】
メール作成手段35は、画像データS0または処理済み画像データS1とともに送信された送信先情報に基づいて、URL生成手段34において生成されたURLが付与された電子メールを作成する。なお、作成された電子メールは、通信手段31により送信先情報に基づく送信先に携帯電話通信網5を介して送信される。
【0034】
オートセットアップ手段37は、保管手段33に保管された複数の画像データからカメラ付き携帯電話1において取得された複数の画像データを選択し、選択された複数の画像データに基づいて処理の対象である画像データS0の画像処理パラメータP0を算出する。
【0035】
具体的には、まず画像データS0のタグ情報を参照し、画像データS0を取得したカメラ付き携帯電話1の機種情報を得、この機種情報と同一の機種情報がタグ情報に記述されている複数の画像データ(Spとする)を保管手段33から選択する。
【0036】
図2は画像データSpの選択を説明するための図である。まず、画像サーバ3の保管手段33に保管された複数の画像データを撮影順に並べ、処理対象である画像データS0の撮影時間を基準とした前後それぞれ30分以内の複数の画像データを抽出する。本実施形態においては10個の画像データが抽出されたとする。なお、複数の画像データを並べる順序は、保管手段33に保管された順であってもよい。また、画像データS0の撮影時間を基準として、その前後の予め定められた数(例えば前後それぞれ10個)の画像データを抽出するようにしてもよい。
【0037】
そして、10個の画像データのタグ情報を参照し、カメラ付き携帯電話1において取得された複数の画像データSpを選択する。図2においては、▲1▼、▲2▼がそれぞれカメラ付き携帯電話1,2において取得された画像データを、▲3▼が不図示の他のカメラ付き携帯電話において取得された画像データを示す。図2に示すように画像データが並べられた場合、カメラ付き携帯電話1において取得された画像データSpはSp1〜Sp5の5つとなる。なお、複数の画像データSpが選択できない場合には、複数の画像データSpが選択できるまで画像データを抽出する時間間隔を広げればよい。
【0038】
そして、画像データSp1〜Sp5のそれぞれにより表される画像の特徴量(例えばRGB濃度の平均値、高彩度部分を除去したRGB濃度の平均値等)に基づいて、濃度補正量、ホワイトバランス調整量、階調補正量、色補正量およびシャープネス補正量を画像処理パラメータP1〜P5として算出する。また、画像データSp1〜Sp5に付与されたタグ情報には、画像種(セピア、モノクロ画像等)や撮影時のストロボ使用の有無等を表す撮影情報が記述されているため、タグ情報に基づいて画像処理パラメータP1〜P5を算出する。
【0039】
次いで、処理対象である画像データS0(ここでは画像データSp3に対応する)および画像データS0の前後の画像データSp2,Sp4に基づいて算出された画像処理パラメータP2,P3,P4を重み付け加算して、画像データS0に対する画像処理パラメータP0を算出する。例えば、P0=1・P2+2・P3+1・P4の重み付け加算演算により画像処理パラメータP0を算出する。
【0040】
なお、処理対象の画像データS0が画像データSp1である場合、時間的に前の画像データSpが存在しないため、時間的に後の画像データSp2の画像処理パラメータP2と画像処理パラメータP1との重み付け加算により画像処理パラメータP0を算出する。また、処理対象の画像データS0が画像データSp5である場合、時間的に後の画像データSpが存在しないため、時間的に前の画像データSp4の画像処理パラメータP4と画像処理パラメータP5との重み付け加算により画像処理パラメータP0を算出する。
【0041】
また、画像処理パラメータP1〜P5の平均値を画像データS0についての画像処理パラメータP0として算出してもよい。
【0042】
ラボ4は、画像データS0等種々の情報の送受信を行う通信手段41と、画像データS0に対して画像処理を施して処理済み画像データS4を得る画像処理手段42と、処理済み画像データS4をプリント出力してプリントPを作成するプリンタ43と、プリントPが作成された場合にその旨をカメラ付き携帯電話1に通知する通知手段44と、ラボ4の動作を制御するコントローラ45とを備える。
【0043】
ラボ4は、画像サーバ3から送信された電子メールを受信すると、電子メールに付与されたURLを参照して、通信手段41において画像サーバ3の保管手段33から画像データS0をダウンロードする。なお、画像データS0のダウンロードと同時に、プリントPの受け取り先を表す受け取り先情報もダウンロードする。
【0044】
画像処理手段42は、画像サーバ3の保管手段33からダウンロードした画像データS0に対して、濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、シャープネス処理等の画像処理を施して処理済み画像データS4を得る。ここで、ラボ4に電子メールが送信された場合には、ラボ4において画像データS0に画像処理を施すことは明らかであるが、場所情報B0を参照して画像処理場所がラボ4であることを確認することが好ましい。なお、画像処理手段42において行われる画像処理は、処理済み画像データS4をプリント出力するのに適した画質にする画像処理である。
【0045】
通知手段44は、処理済み画像データS4のプリント出力が完了すると、受け取り先情報に基づく受け取り先に、プリント出力が完了した旨の通知を行う。通知は電子メールであっても電話の自動音声によるものであってもよい。なお、ラボ4のオペレータが受け取り先に電話をかけたり、マニュアル操作により電子メールを送信することによって、通知を行ってもよい。
【0046】
なお、画像サーバ3からカメラ付き携帯電話2に電子メールが送信された場合には、カメラ付き携帯電話2のユーザは、URLを参照して画像サーバ3の保管手段33にアクセスして画像データS0または処理済み画像データS1をダウンロードする。なお、処理済み画像データS1をダウンロードした場合には、処理済み画像データS1がそのまま液晶モニタ24に表示される。一方、画像データS0をダウンロードした場合には、画像処理手段23において画像データS0に対して画像処理が施されて処理済み画像データS2が得られ、これが液晶モニタ24に表示される。
【0047】
なお、カメラ付き携帯電話2に未処理の画像データS0の保管場所を表すURLが付与された電子メールが送信された場合には、カメラ付き携帯電話2において画像データS0に画像処理を施すことは明らかであるが、場所情報B0を参照して画像処理場所がカメラ付き携帯電話2であることを確認することが好ましい。
【0048】
ここで、画像処理手段32において行われる処理について説明する。図3は画像サーバ3の画像処理手段32およびオートセットアップ手段37において行われる処理を示す概略ブロック図である。なお、図3においては、一点鎖線で囲まれる処理がオートセットアップ手段37において行われる処理である。図3に示すように、オートセットアップ手段37においては、画像データSp1〜Sp5はJPEG形式等により圧縮されていることから、まず、画像データSp1〜Sp5が解凍され、次いで、画像データSp1〜Sp5が縮小される。そして、縮小された画像データSp1〜Sp5および画像データSp1〜Sp5のタグ情報に付与された撮影時の撮影条件等に基づいて、画像処理パラメータP1〜P5が算出され、さらに処理の対象である画像データS0についての画像処理パラメータP0が算出される。
【0049】
そして、算出された画像処理パラメータP0に基づいて、濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、およびシャープネス処理が行われて処理済み画像データS3が得られる。なお、画像処理パラメータP0に基づく処理ではないが、シャープネス処理の前に画像データS0により表される画像のサイズを出力サイズ(プリントサイズ、モニタサイズ等)に合わせるための拡大処理が行われる。ここで、拡大処理には1未満の倍率の拡大処理も含まれる。
【0050】
ここで、濃度補正処理およびホワイトバランス調整処理は、撮影時の露出エラーおよびホワイトバランスエラーを補正し、階調補正処理は、撮影時のシーンとプリントとのコントラストの相違を吸収し、色補正処理は、RGB各色の色相、彩度、明度を補正し、シャープネス処理は画像の鮮鋭度を補正する。
【0051】
なお、処理済み画像データS3を不図示のモニタに表示し、画像サーバ3のオペレータがマニュアル操作により濃度、ホワイトバランス、階調、色、およびシャープネスを補正可能なようにしてもよい。
【0052】
また、カメラ付き携帯電話1,2の画像処理手段13,23およびラボ4の画像処理手段42においても同様に画像処理が行われる。
【0053】
ここで、カメラ付き携帯電話1,2および画像サーバ3においては、送信容量の制限や表示媒体の表示色の制限があることから、図3においてシャープネス処理後に、容量を低減するための圧縮処理や色数を低減するための減色処理が行われて処理済み画像データS1,S2,S3が得られる。ここで、カメラ付き携帯電話1,2の液晶モニタ14,24の色再現域は、パソコン等のモニタの色再現域よりも狭いため、狭い色再現域を有効に活用するように減色処理が行われる。
【0054】
また、カメラ付き携帯電話1,2の画像処理手段13,23においては、画像サーバ3の画像処理手段32またはラボ4の画像処理手段42と比較して簡易な演算により画像データS0に対して画像処理が施される。さらに、色補正処理およびシャープネス処理が省略される場合もある。
【0055】
一方、ラボ4の画像処理手段42においては、図3のシャープネス処理後の破線に示すように、シャープネス処理後の画像データをプリンタ43のデバイス信号に変換するプリント出力処理がさらに行われて、処理済み画像データS4が得られる。
【0056】
次いで、本実施形態の動作について説明する。図4はカメラ付き携帯電話1において行われる処理を示すフローチャートである。まず、カメラ11により撮影が行われて画像データS0が取得される(ステップS1)。一方、入力手段17において、カメラ付き携帯電話1のユーザによる画像データS0の用途および/または画質の入力が受け付けられ(ステップS2)、入力された用途および/または画質に基づいて、画像処理場所決定手段16において画像データS0に画像処理を施す画像処理場所が決定されて場所情報B0が生成される(ステップS3)。
【0057】
そして、コントローラ15により、場所情報B0が参照されて画像処理場所がカメラ付き携帯電話1であるか否かが判定される(ステップS4)。ステップS4が肯定された場合には、画像処理手段13において画像データS0に対して画像処理が施されて処理済み画像データS1が得られ(ステップS5)、ステップS6に進む。ステップS4が否定された場合にもステップS6に進む。
【0058】
ステップS6においては、ユーザによる送信指示がなされたか否かの監視が開始され、ステップS6が肯定されると、画像データS0または処理済み画像データS1が場所情報B0、送信先情報およびプリント出力を依頼する場合にはプリントPの受け取り先情報とともに画像サーバ3に送信され(ステップS7)、処理を終了する。
【0059】
図5は画像サーバ3において行われる処理を示すフローチャートである。まず、カメラ付き携帯電話1から送信された画像データS0または処理済み画像データS1が受信され(ステップS11)、画像データS0または処理済み画像データS1に付与された場所情報B0に基づいて、画像データS0に対する画像処理場所が判定される(ステップS12)。
【0060】
画像処理場所がカメラ付き携帯電話1であると判定された場合には、処理済み画像データS1が送信されていることから、処理済み画像データS1を保管手段33に保管する(ステップS13)。画像処理場所が、カメラ付き携帯電話2またはラボ4であると判定された場合には、未処理の画像データS0を保管手段33に保管する(ステップS14)。
【0061】
画像処理場所が画像サーバ3であると判定された場合には、オートセットアップ手段37において画像データS0に対して画像処理を施すための画像処理パラメータP0が算出され(ステップS15)、画像処理手段32において画像データS0に対して画像処理パラメータP0に基づいて画像処理が施されて処理済み画像データS3が得られ(ステップS16)、処理済み画像データS3が保管手段33に保管される(ステップS17)。
【0062】
画像データS0または処理済み画像データS1,S3が保管されると、URL生成手段34において、画像データS0または処理済み画像データS1,S3の保管場所を表すURLが生成される(ステップS18)。そして、メール作成手段35においてURLが付与された電子メールが作成され(ステップS19)、画像データS0または処理済み画像データS1とともに送信された送信先情報に応じた送信先に電子メールが送信され(ステップS20)、処理を終了する。
【0063】
なお、電子メールの送信先がカメラ付き携帯電話2である場合には、電子メールに付与されたURLが画像データS0のものであるか、処理済み画像データS1のものであるかが電子メールに記述される。
【0064】
図6はラボ4において行われる処理を示すフローチャートである。まず、画像サーバ3から送信された電子メールが受信される(ステップS21)。次いで、通信手段41が電子メールに付与されたURLにアクセスして(ステップS22)、画像データS0がダウンロードされる(ステップS23)。そして、画像処理手段42において画像データS0に対して画像処理が施されて処理済み画像データS4が得られる(ステップS24)。処理済み画像データS4はプリンタ43においてプリント出力されてプリントPが得られる(ステップS25)。プリント出力が完了すると、通知手段44によりプリントPの受け取り先にプリント出力が完了した旨の通知がなされ(ステップS26)、処理を終了する。
【0065】
なお、プリントPは、通知を受けた受け取り先(例えばカメラ付き携帯電話1)のユーザがラボ4に出向いて受け取るか、ラボ4からユーザに配送される。
【0066】
図7はカメラ付き携帯電話2において行われる処理を示すフローチャートである。まず、画像サーバ3から送信された電子メールが受信される(ステップS31)。次いで、通信手段41が電子メールに付与されたURLにアクセスして(ステップS32)、画像データS0または処理済み画像データS1がダウンロードされる(ステップS33)。
【0067】
そして、電子メールの記述に基づいて、ダウンロードされた画像データが未処理の画像データS0か否かが判定され(ステップS34)、ステップS34が肯定されると、未処理の画像データS0がダウンロードされたことから、画像処理手段23において画像データS0に対して画像処理が施されて処理済み画像データS2が得られる(ステップS35)。処理済み画像データS2は液晶モニタ24に表示され(ステップS36)、処理を終了する。
【0068】
一方、ステップS34が否定されると、処理済み画像データS1がダウンロードされたことから、処理済み画像データS1が液晶モニタ24に表示され(ステップS36)、処理を終了する。
【0069】
このように、本実施形態においては、処理対象の画像データS0を取得したカメラ付き携帯電話1において取得された複数の画像データSp1〜Sp5に基づいて、画像データS0に対して画像処理を施すための画像処理パラメータP0を算出するようにしたため、算出された画像処理パラメータP0は、処理対象の画像データS0を取得したカメラ付き携帯電話1の特性を考慮したものとなっている。したがって、算出された画像処理パラメータP0に基づくことにより、同一のカメラ付き携帯電話1において得られた画像データS0に対しては画質のばらつきが生じないように画像処理を施すことができる。
【0070】
また、画像データSp1〜Sp5を所定時間内に取得された画像データとすることにより、とくに似たシーンの画像に基づいて算出された画像処理パラメータP0により処理対象の画像データS0に対して画像処理を施すことができるため、処理済み画像データS3により表される処理済み画像の画質のばらつきをより低減することができる。
【0071】
なお、上記実施形態においては、画像データS0または処理済み画像データS1の送信先の1つをカメラ付き携帯電話2としているが、カメラ無しの携帯電話やPDA等の携帯端末装置(不図示)等としてもよい。
【図面の簡単な説明】
【図1】本発明の実施形態による画像処理装置を備えた画像処理システムの構成を示す概略ブロック図
【図2】画像データの選択を説明するための図
【図3】画像処理手段およびオートセットアップ手段において行われる処理を示す概略ブロック図
【図4】カメラ付き携帯電話1において行われる処理を示すフローチャート
【図5】画像サーバにおいて行われる処理を示すフローチャート
【図6】ラボにおいて行われる処理を示すフローチャート
【図7】カメラ付き携帯電話2において行われる処理を示すフローチャート
【符号の説明】
1,2  カメラ付き携帯電話
3  画像サーバ
4  ラボ
5  携帯電話通信網
11,21  カメラ
12,22,31,41  通信手段
13,23,32,42  画像処理手段
14,24  液晶モニタ
15,25,36,45  コントローラ
16,26  画像処理場所決定手段
17,27  入力手段
33  保管手段
34  URL生成手段
35  メール作成手段
37  オートセットアップ手段
43  プリンタ
44  通知手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method and apparatus for performing image processing on image data acquired in a mobile terminal device such as a camera-equipped mobile phone, and a program for causing a computer to execute the image processing method.
[0002]
[Prior art]
Although there is a remarkable spread of mobile phones, in recent years, mobile phones with cameras having photographing means for acquiring image data by photographing are becoming popular (for example, Japanese Patent Laid-Open Nos. 6-233020 and 9-322114). 10-150523, JP-A 2000-253290, etc.). By using such a camera-equipped mobile phone, the user's favorite image data acquired by photographing can be set on the standby screen of the mobile phone. In addition, since it is possible to attach the image data acquired by shooting to an e-mail and send it to a friend, when it becomes necessary to cancel the appointment or when it is likely to be late at the meeting time, It is convenient for communication with friends because it is possible to inform a friend of his / her current situation, such as taking a picture of his / her disappointing expression and sending it to a friend.
[0003]
In addition, the function of the camera-equipped mobile phone has been improved, and it has become possible to acquire image data having a size sufficient for print output in the camera-equipped mobile phone.
[0004]
On the other hand, image data acquired by a camera-equipped mobile phone is subjected to various image processes to obtain processed image data, print out the image data, or upload it onto a network. . As a result, the user can acquire a high-quality image, acquire a print, view an image on a network, and the like, so that the use form of image data by communication can be diversified.
[0005]
The use of the image data acquired in such a camera-equipped mobile phone transmits image data from the camera-equipped mobile phone that has captured the image data to an image server that manages image data storage. Generate an e-mail with a URL indicating the storage location, send the e-mail to a mobile phone to which the image data is sent, a terminal device such as a personal computer or PDA, a laboratory that performs print output, and the like. The image data is downloaded by referring to the URL from the received mobile phone, terminal device or laboratory.
[0006]
On the other hand, when image processing is performed on image data obtained by reading an image recorded on a negative film, the gradation balance obtained from all the images recorded on the negative film, and for each image, A method has been proposed in which tone balance adjustment conditions are obtained for each image by weighting the tone balance (Japanese Patent Laid-Open No. 11-317880).
[0007]
A method has also been proposed in which the degree of similarity of each image recorded on a negative film is obtained, and the image processing conditions for each image are obtained in accordance with the degree of similarity (Japanese Patent Laid-Open No. 2000-98513). In this way, by calculating parameters for image processing using a plurality of images, image processing taking into account the characteristics of the negative film is applied to the image data obtained by reading the image recorded on the negative film. Therefore, a processed image with no variation in image quality can be obtained.
[0008]
[Problems to be solved by the invention]
By the way, although the model of the camera-equipped mobile phone is diversified, it is preferable to perform image processing on the image data in consideration of the model of the camera-equipped mobile phone because the characteristics of the camera differ depending on the model.
[0009]
The present invention has been made in view of the above circumstances, and an object of the present invention is to perform image processing in consideration of model characteristics on image data obtained in a mobile terminal device such as a camera-equipped mobile phone.
[0010]
[Means for Solving the Problems]
The image processing method according to the present invention performs image processing on one processing target image data among a plurality of pieces of image data respectively acquired by a plurality of types of camera-equipped mobile terminal devices to obtain processed image data. A method,
Multiple target image data acquired in a mobile terminal device with a camera of the same model as the mobile terminal device with the target camera that acquired the processing target image data from a plurality of image data acquired in a plurality of types of mobile terminal devices with a camera Select
Calculating image processing parameters for performing the image processing on the processing target image data based on the plurality of target image data;
The processed image data is obtained by performing image processing on the processing target image data based on the image processing parameter.
[0011]
In the image processing method according to the present invention, a plurality of image data acquired within a predetermined time may be selected as the plurality of target image data. In this case, the plurality of image data represents a similar scene.
[0012]
The image processing apparatus according to the present invention performs image processing on one processing target image data among a plurality of pieces of image data respectively acquired by a plurality of types of mobile terminal devices with cameras to obtain processed image data. A device,
From the plurality of image data, select a plurality of target image data acquired in a mobile terminal device with a camera of the same model as the mobile terminal device with the target camera that acquired the processing target image data, and select the plurality of target image data Image processing parameter calculation means for calculating an image processing parameter for performing the image processing on the processing target image data based on
The image processing apparatus includes a processing unit that performs image processing on the processing target image data based on the image processing parameter to obtain the processed image data.
[0013]
In the image processing apparatus according to the present invention, the image processing parameter calculation unit may be a unit that selects a plurality of pieces of image data acquired within a predetermined time as the plurality of target image data.
[0014]
The image processing method according to the present invention may be provided as a program for causing a computer to execute the image processing method.
[0015]
【The invention's effect】
According to the present invention, a camera with the same model as the target camera-equipped mobile terminal device that acquired the processing target image data that is the target of image processing from the plurality of image data respectively acquired by the plurality of types of camera-equipped mobile terminal devices. A plurality of target image data acquired in the mobile terminal device is selected, and image processing parameters for performing image processing on the processing target image data are calculated based on the selected plurality of target image data. For this reason, the calculated image processing parameters take into consideration the characteristics of the mobile terminal device with the target camera that acquired the processing target image data. Therefore, based on the calculated image processing parameters, it is possible to perform image processing on image data obtained by the same type of camera-equipped mobile terminal device so as not to cause variations in image quality.
[0016]
In addition, by using a plurality of target image data as image data acquired within a predetermined time, image processing is performed on the image data to be processed using image processing parameters calculated based on images of particularly similar scenes. Therefore, the variation in image quality of the processed image represented by the processed image data can be further reduced.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing system according to the present embodiment includes a mobile phone with cameras 1 and 2, an image server 3 for storing and managing image data S0 acquired by the mobile phones with camera 1 and 2, and an image data S0. The image data S0 and various kinds of information are exchanged with the laboratory 4 that prints the image via the mobile phone communication network 5.
[0018]
The camera-equipped mobile phone 1 includes a camera 11 that acquires image data S0 by photographing, a communication unit 12 that transmits and receives the image data S0 and various information, and image data that has been processed by performing image processing on the image data S0. An image processing means 13 for obtaining S1, a liquid crystal monitor 14 for performing various displays such as images and telephone numbers, a controller 15 for controlling the operation of the camera-equipped mobile phone 1, and the use of image data S0 and / or as will be described later. Based on the image quality, the image processing location determining means 16 for determining the location where image processing is performed on the image data S0 and generating the location information B0, the shooting operation by the camera 11, the transmission instruction of the image data S0, the image data Designation of use of S0 and / or image quality, transmission destination of image data S0 or processed image data S1, and whether to perform print output Comprising specifying whether keep stored in the image server 3, instructions or the like when performing an image processing on the image data S0, and input means 17 comprising a plurality of buttons for inputting various kinds of information.
[0019]
The camera-equipped mobile phone 2 includes a camera 21 that acquires image data S0 by photographing, a communication unit 22 that transmits and receives the image data S0 and various information, and image data that has been processed by performing image processing on the image data S0. The image processing means 23 for obtaining S2, the liquid crystal monitor 24 for performing various displays such as images and telephone numbers, the controller 25 for controlling the operation of the camera-equipped mobile phone 2, the use of the image data S0 and / or as described later Based on the image quality, the image processing location determining means 26 for determining the location where image processing is performed on the image data S0 and generating the location information B0, the shooting operation by the camera 21, the transmission instruction of the image data S0, the image data Designation of use of S0 and / or image quality, transmission destination of image data S0 or processed image data S2, and whether to perform print output Comprising specifying whether keep stored in the image server 3, instructions or the like when performing an image processing on the image data S0, and input means 27 comprising a plurality of buttons for inputting various kinds of information.
[0020]
In the present embodiment, the camera-equipped mobile phone 1 obtains the image data S0, determines the image processing location where the image data S0 is subjected to image processing, and the camera-equipped mobile phone 2 receives the image data S0 or the processed image data. It is assumed that it is designated as one of the transmission destinations of S1.
[0021]
The image processing unit 13 performs image processing such as density correction processing, white balance adjustment processing, gradation correction processing, color correction processing, and sharpness processing on the image data S0 to obtain processed image data S1. Note that the image processing means 13 cannot perform advanced image processing as much as the image processing means of the image server 3 and the laboratory 4 described later. Accordingly, the obtained processed image data S1 has no problem in displaying on a relatively small monitor such as the liquid crystal monitor 14, but is printed out or displayed on a large monitor such as a personal computer monitor. Is not suitable.
[0022]
The image processing location determination means 16 determines the location where image processing is performed on the image data S0 based on the use and / or image quality of the image data S0 input by the user of the camera-equipped mobile phone 1 from the input means 17. The location information B0 representing the location where image processing is performed is generated. For example, when it is input that the use of the image data S0 is to be displayed on a monitor of a mobile phone and / or when low-quality image is input, the image data S0 does not require so high image quality. The image processing place determination means 16 determines the image processing place in the camera-equipped mobile phone 1 and generates the place information B0. When transmitting the image data S0 to the camera-equipped mobile phone 2, the location information B0 may be generated by determining the image processing location as the camera-equipped mobile phone 2. In this case, the image processing location may be determined based on the transmission destination information of the image data S0 input from the input unit 17.
[0023]
The application and / or image quality may be input directly from the input means 17, but various applications and / or image quality are displayed on the liquid crystal monitor 14 so that the user can select the desired application and / or image quality. It may be.
[0024]
When the use of the image data S0 is storage in the image server 3, since the image data S0 is downloaded to a terminal device such as a personal computer and displayed on the monitor, it is printed out as the image data S0. Moderate image quality is required, though not so much. Therefore, when the use of the image data S0 is to be stored in the image server 3 and / or when the medium image quality is inputted, the image processing location determination means 16 has a medium value for the image data S0. Since image quality is required, the image processing location is determined by the image server 3 to generate location information B0.
[0025]
Further, when the use of the image data S0 is print output, the image data S0 is required to have high image quality. Further, when it is desired to make the image data S0 have high image quality, print output is often desired. Therefore, when the use of the image data S0 is print output and / or when high-quality is input, the image processing location determination means 16 requires high image quality for the image data S0. The image processing place is determined by the laboratory 4 and the place information B0 is generated.
[0026]
The communication unit 12 converts the image data S0 or the processed image data S1 into the destination information (for example, the lab 4, the mobile phone with camera 2, the camera, and the destination information B0 and the destination of the image data S0 or the processed image data S1). And the user's friend's e-mail address of the attached mobile phone 1) to the image server 3 via the mobile phone communication network 5. Note that when the use of the image data S0 is print output, receiving destination information indicating the receiving destination of the print (if it is sufficient to identify the other party, for example, a mobile phone number or the like may be transmitted). Note that model information representing the model of the camera-equipped mobile phone 1 is described in the tag of the image data S0 or the processed image data S1.
[0027]
Here, the unprocessed image data S0 is transmitted when the image processing location is determined by the image server 3, the laboratory 4, and the camera-equipped mobile phone 2. On the other hand, when the image processing location is determined to be the camera-equipped mobile phone 1, the image processing unit 13 performs image processing on the image data S 0 to obtain processed image data S 1, which is the location information B 0 ( In this case, the camera-equipped mobile phone 1 is transmitted to the image server 3.
[0028]
Note that the communication unit 22, the image processing unit 23, and the image processing location determination unit 26 of the camera-equipped mobile phone 2 have the same functions as the communication unit 12, the image processing unit 13, and the image processing location determination unit 16.
[0029]
The image server 3 includes a communication unit 31 that transmits and receives various information such as the image data S0, an image processing unit 32 that performs image processing on the image data S0 to obtain processed image data S3, and the camera-equipped mobile phone 1 In the storage unit 33 for storing the image data S0 or the processed image data S1 transmitted from the URL, the URL generation unit 34 for generating a URL representing the storage location of the image data S0 or the processed image data S1, and the URL generation unit 34 The mail creation means 35 for creating the generated email with the URL attached thereto, the controller 36 for controlling the operation of the image server 3, and the image processing parameter P0 for image processing to be applied to the image data S0 are calculated. And auto setup means 37.
[0030]
When the image data S0 is transmitted from the camera-equipped mobile phone 1 and the image processing location based on the location information B0 is the image server 3, the image processing means 32 performs density correction processing and white balance adjustment on the image data S0. Processed image data S3 is obtained by performing image processing such as processing, gradation correction processing, color correction processing, and sharpness processing. Note that the image processing performed in the image processing means 32 is image processing for making the image quality suitable for displaying the processed image data S3 on the monitor. The image processing parameter P0 for image processing on the image data S0 is calculated by the auto setup means 37 as will be described later.
[0031]
The storage unit 33 stores the processed image data S1 when the processed image data S1 is transmitted from the camera-equipped mobile phone 1. When the unprocessed image data S0 is transmitted and the image processing location based on the location information B0 is the image server 3, the processed image data S3 obtained by the image processing means 32 is stored. Furthermore, when the unprocessed image data S0 is transmitted, if the image processing location based on the location information B0 is the mobile phone with camera 2 or the laboratory 4, the unprocessed image data S0 is stored.
[0032]
The URL generation unit 34 generates a URL representing the storage location of the image data S0, the processed image data S1, or the processed image data S3.
[0033]
The mail creating means 35 creates an e-mail with the URL generated by the URL generating means 34 based on the destination information transmitted together with the image data S0 or the processed image data S1. The created e-mail is transmitted by the communication means 31 to the transmission destination based on the transmission destination information via the mobile phone communication network 5.
[0034]
The auto setup unit 37 selects a plurality of image data acquired by the camera-equipped mobile phone 1 from the plurality of image data stored in the storage unit 33, and is a processing target based on the selected plurality of image data. An image processing parameter P0 of the image data S0 is calculated.
[0035]
Specifically, reference is first made to the tag information of the image data S0, the model information of the camera-equipped mobile phone 1 that acquired the image data S0 is obtained, and a plurality of model information that is the same as this model information is described in the tag information. Image data (referred to as Sp) is selected from the storage means 33.
[0036]
FIG. 2 is a diagram for explaining selection of the image data Sp. First, a plurality of image data stored in the storage unit 33 of the image server 3 are arranged in the order of shooting, and a plurality of image data within 30 minutes before and after each is extracted with reference to the shooting time of the image data S0 to be processed. In the present embodiment, it is assumed that ten image data are extracted. Note that the order in which the plurality of image data are arranged may be the order in which the image data is stored in the storage unit 33. In addition, a predetermined number of image data before and after the image data S0 may be extracted as a reference (for example, 10 before and after).
[0037]
Then, referring to the tag information of 10 pieces of image data, a plurality of pieces of image data Sp acquired by the camera-equipped mobile phone 1 are selected. In FIG. 2, (1) and (2) indicate image data acquired by the camera-equipped mobile phones 1 and 2, respectively, and (3) indicate image data acquired by another camera-equipped mobile phone (not shown). . When the image data is arranged as shown in FIG. 2, the image data Sp acquired in the camera-equipped mobile phone 1 is five of Sp1 to Sp5. When a plurality of image data Sp cannot be selected, the time interval for extracting image data may be increased until a plurality of image data Sp can be selected.
[0038]
Then, based on the feature amount of the image represented by each of the image data Sp1 to Sp5 (for example, the average value of RGB density, the average value of RGB density from which the high saturation portion is removed, etc.), the density correction amount, the white balance adjustment amount, The gradation correction amount, color correction amount, and sharpness correction amount are calculated as image processing parameters P1 to P5. In addition, since the tag information given to the image data Sp1 to Sp5 describes the image type (sepia, monochrome image, etc.), shooting information indicating whether or not the strobe is used at the time of shooting, etc., the tag information is based on the tag information. Image processing parameters P1 to P5 are calculated.
[0039]
Next, the image processing parameters P2, P3, and P4 calculated based on the image data S0 to be processed (corresponding to the image data Sp3 here) and the image data Sp2 and Sp4 before and after the image data S0 are weighted and added. The image processing parameter P0 for the image data S0 is calculated. For example, the image processing parameter P0 is calculated by a weighted addition calculation of P0 = 1, P2 + 2, P3 + 1, and P4.
[0040]
When the image data S0 to be processed is the image data Sp1, since there is no temporally previous image data Sp, the weighting of the image processing parameter P2 and the image processing parameter P1 of the temporally subsequent image data Sp2 is performed. The image processing parameter P0 is calculated by addition. Further, when the image data S0 to be processed is the image data Sp5, there is no temporally subsequent image data Sp, so the weighting of the image processing parameter P4 and the image processing parameter P5 of the temporally previous image data Sp4. The image processing parameter P0 is calculated by addition.
[0041]
Further, an average value of the image processing parameters P1 to P5 may be calculated as the image processing parameter P0 for the image data S0.
[0042]
The lab 4 includes a communication unit 41 that transmits and receives various information such as the image data S0, an image processing unit 42 that performs image processing on the image data S0 to obtain processed image data S4, and processed image data S4. A printer 43 that prints out and creates a print P, a notification means 44 that notifies the camera-equipped mobile phone 1 when the print P is created, and a controller 45 that controls the operation of the laboratory 4 are provided.
[0043]
When the lab 4 receives the e-mail transmitted from the image server 3, the communication unit 41 downloads the image data S 0 from the storage unit 33 of the image server 3 with reference to the URL given to the e-mail. At the same time as downloading the image data S0, the recipient information indicating the recipient of the print P is also downloaded.
[0044]
The image processing unit 42 performs image processing such as density correction processing, white balance adjustment processing, gradation correction processing, color correction processing, and sharpness processing on the image data S0 downloaded from the storage unit 33 of the image server 3. Processed image data S4 is obtained. Here, when an e-mail is transmitted to the lab 4, it is clear that the lab 4 performs image processing on the image data S0, but the image processing location is the lab 4 with reference to the location information B0. It is preferable to confirm. Note that the image processing performed in the image processing means 42 is image processing for making the image quality suitable for printing out the processed image data S4.
[0045]
When the print output of the processed image data S4 is completed, the notification unit 44 notifies the reception destination based on the reception destination information that the print output has been completed. The notification may be an e-mail or an automatic telephone call. Note that the operator of the lab 4 may make a notification by calling the recipient or sending an e-mail manually.
[0046]
When an e-mail is transmitted from the image server 3 to the camera-equipped mobile phone 2, the user of the camera-equipped mobile phone 2 accesses the storage unit 33 of the image server 3 by referring to the URL to obtain the image data S 0. Alternatively, the processed image data S1 is downloaded. When the processed image data S1 is downloaded, the processed image data S1 is displayed on the liquid crystal monitor 24 as it is. On the other hand, when the image data S0 is downloaded, the image processing unit 23 performs image processing on the image data S0 to obtain processed image data S2, which is displayed on the liquid crystal monitor 24.
[0047]
When an e-mail with a URL indicating the storage location of the unprocessed image data S0 is transmitted to the camera-equipped mobile phone 2, the camera-equipped mobile phone 2 performs image processing on the image data S0. Obviously, it is preferable to confirm that the image processing place is the camera-equipped mobile phone 2 with reference to the place information B0.
[0048]
Here, processing performed in the image processing means 32 will be described. FIG. 3 is a schematic block diagram showing processing performed in the image processing means 32 and the auto setup means 37 of the image server 3. In FIG. 3, the process surrounded by the alternate long and short dash line is a process performed in the auto setup unit 37. As shown in FIG. 3, in the auto setup means 37, since the image data Sp1 to Sp5 are compressed by the JPEG format or the like, the image data Sp1 to Sp5 is first decompressed, and then the image data Sp1 to Sp5 is Reduced. The image processing parameters P1 to P5 are calculated on the basis of the reduced image data Sp1 to Sp5 and the shooting conditions at the time of shooting given to the tag information of the image data Sp1 to Sp5, and the image to be processed further. An image processing parameter P0 for the data S0 is calculated.
[0049]
Then, based on the calculated image processing parameter P0, density correction processing, white balance adjustment processing, gradation correction processing, color correction processing, and sharpness processing are performed to obtain processed image data S3. Although not based on the image processing parameter P0, enlargement processing for adjusting the size of the image represented by the image data S0 to the output size (print size, monitor size, etc.) is performed before the sharpness processing. Here, the enlargement process includes an enlargement process with a magnification of less than 1.
[0050]
Here, density correction processing and white balance adjustment processing correct exposure errors and white balance errors during shooting, and tone correction processing absorbs differences in contrast between scenes and prints during shooting, and color correction processing. Corrects the hue, saturation, and brightness of each color of RGB, and the sharpness processing corrects the sharpness of the image.
[0051]
The processed image data S3 may be displayed on a monitor (not shown) so that the operator of the image server 3 can correct the density, white balance, gradation, color, and sharpness by manual operation.
[0052]
Similarly, image processing is also performed in the image processing means 13 and 23 of the camera-equipped mobile phones 1 and 2 and the image processing means 42 of the laboratory 4.
[0053]
Here, since the camera-equipped mobile phones 1 and 2 and the image server 3 have limitations on transmission capacity and display color on the display medium, compression processing for reducing the capacity after sharpness processing in FIG. Color reduction processing for reducing the number of colors is performed to obtain processed image data S1, S2, and S3. Here, since the color gamut of the liquid crystal monitors 14 and 24 of the camera-equipped mobile phones 1 and 2 is narrower than the color gamut of a monitor such as a personal computer, color reduction processing is performed so as to effectively use the narrow color gamut. Is called.
[0054]
Further, in the image processing means 13 and 23 of the camera-equipped mobile phones 1 and 2, the image data S <b> 0 is imaged by a simple calculation as compared with the image processing means 32 of the image server 3 or the image processing means 42 of the laboratory 4. Processing is performed. Further, the color correction process and the sharpness process may be omitted.
[0055]
On the other hand, the image processing means 42 of the laboratory 4 further performs a print output process for converting the image data after the sharpness processing into a device signal of the printer 43 as shown by the broken line after the sharpness processing in FIG. Completed image data S4 is obtained.
[0056]
Next, the operation of this embodiment will be described. FIG. 4 is a flowchart showing processing performed in the camera-equipped mobile phone 1. First, photographing is performed by the camera 11, and image data S0 is acquired (step S1). On the other hand, the input means 17 accepts the input of the use and / or image quality of the image data S0 by the user of the camera-equipped mobile phone 1 (step S2), and determines the image processing location based on the input use and / or image quality. The image processing location where image processing is performed on the image data S0 in the means 16 is determined, and location information B0 is generated (step S3).
[0057]
Then, the controller 15 refers to the location information B0 to determine whether the image processing location is the camera-equipped mobile phone 1 (step S4). If step S4 is affirmed, the image processing unit 13 performs image processing on the image data S0 to obtain processed image data S1 (step S5), and the process proceeds to step S6. Also when step S4 is denied, it progresses to step S6.
[0058]
In step S6, monitoring is started as to whether or not a transmission instruction has been issued by the user. When step S6 is affirmed, the image data S0 or the processed image data S1 requests location information B0, transmission destination information, and print output. If it is to be sent, it is transmitted to the image server 3 together with the recipient information of the print P (step S7), and the process is terminated.
[0059]
FIG. 5 is a flowchart showing processing performed in the image server 3. First, the image data S0 or the processed image data S1 transmitted from the camera-equipped mobile phone 1 is received (step S11), and the image data is based on the location information B0 given to the image data S0 or the processed image data S1. The image processing location for S0 is determined (step S12).
[0060]
If it is determined that the image processing place is the camera-equipped mobile phone 1, since the processed image data S1 has been transmitted, the processed image data S1 is stored in the storage means 33 (step S13). When it is determined that the image processing place is the camera-equipped mobile phone 2 or the laboratory 4, the unprocessed image data S0 is stored in the storage unit 33 (step S14).
[0061]
If it is determined that the image processing place is the image server 3, the auto setup unit 37 calculates an image processing parameter P0 for performing image processing on the image data S0 (step S15), and the image processing unit 32 The image data S0 is subjected to image processing based on the image processing parameter P0 to obtain processed image data S3 (step S16), and the processed image data S3 is stored in the storage means 33 (step S17). .
[0062]
When the image data S0 or the processed image data S1 and S3 are stored, the URL generation unit 34 generates a URL representing the storage location of the image data S0 or the processed image data S1 and S3 (step S18). Then, an e-mail with a URL is created by the mail creating means 35 (step S19), and the e-mail is sent to the destination corresponding to the destination information sent together with the image data S0 or the processed image data S1 ( Step S20), the process ends.
[0063]
When the destination of the e-mail is the camera-equipped mobile phone 2, it is determined in the e-mail whether the URL given to the e-mail is for the image data S0 or the processed image data S1. Described.
[0064]
FIG. 6 is a flowchart showing processing performed in the laboratory 4. First, an e-mail transmitted from the image server 3 is received (step S21). Next, the communication means 41 accesses the URL given to the e-mail (step S22), and the image data S0 is downloaded (step S23). Then, the image processing unit 42 performs image processing on the image data S0 to obtain processed image data S4 (step S24). The processed image data S4 is printed out by the printer 43 to obtain a print P (step S25). When the print output is completed, the notification means 44 notifies the recipient of the print P that the print output has been completed (step S26), and the process ends.
[0065]
Note that the print P is sent to the lab 4 by the user of the receiving destination (for example, the camera-equipped mobile phone 1) who receives the notification, or is delivered from the lab 4 to the user.
[0066]
FIG. 7 is a flowchart showing processing performed in the camera-equipped mobile phone 2. First, an e-mail transmitted from the image server 3 is received (step S31). Next, the communication means 41 accesses the URL given to the e-mail (step S32), and the image data S0 or the processed image data S1 is downloaded (step S33).
[0067]
Then, based on the description of the e-mail, it is determined whether the downloaded image data is unprocessed image data S0 (step S34). If step S34 is affirmed, unprocessed image data S0 is downloaded. Therefore, the image processing means 23 performs image processing on the image data S0 to obtain processed image data S2 (step S35). The processed image data S2 is displayed on the liquid crystal monitor 24 (step S36), and the process ends.
[0068]
On the other hand, if step S34 is negative, since the processed image data S1 has been downloaded, the processed image data S1 is displayed on the liquid crystal monitor 24 (step S36), and the process ends.
[0069]
As described above, in the present embodiment, image processing is performed on the image data S0 based on the plurality of image data Sp1 to Sp5 acquired by the camera-equipped mobile phone 1 that acquired the image data S0 to be processed. Since the image processing parameter P0 is calculated, the calculated image processing parameter P0 takes into consideration the characteristics of the camera-equipped mobile phone 1 that acquired the image data S0 to be processed. Therefore, based on the calculated image processing parameter P0, it is possible to perform image processing on the image data S0 obtained by the same camera-equipped mobile phone 1 so that there is no variation in image quality.
[0070]
Further, by using the image data Sp1 to Sp5 as the image data acquired within a predetermined time, the image processing parameter P0 calculated based on the image of a particularly similar scene is used to process the image data S0 to be processed. Therefore, variation in image quality of the processed image represented by the processed image data S3 can be further reduced.
[0071]
In the above embodiment, one of the transmission destinations of the image data S0 or the processed image data S1 is the mobile phone 2 with a camera. However, a mobile terminal without a camera, a mobile terminal device (not shown) such as a PDA, or the like It is good.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing a configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram for explaining selection of image data. Fig. 4 is a schematic block diagram showing processing performed in the means. Fig. 4 is a flowchart showing processing performed in the camera-equipped mobile phone 1. Fig. 5 is a flowchart showing processing performed in the image server. Fig. 6 is a flowchart showing processing performed in the laboratory. Flowchart [FIG. 7] Flowchart showing processing performed in the camera-equipped mobile phone 2
1, 2 Mobile phone with camera 3 Image server 4 Lab 5 Mobile phone communication network 11, 21 Camera 12, 22, 31, 41 Communication means 13, 23, 32, 42 Image processing means 14, 24 Liquid crystal monitor 15, 25, 36 , 45 Controller 16, 26 Image processing place determination means 17, 27 Input means 33 Storage means 34 URL generation means 35 Mail creation means 37 Auto setup means 43 Printer 44 Notification means

Claims (6)

複数種類のカメラ付き携帯端末装置においてそれぞれ取得された複数の画像データのうちの1の処理対象画像データに対して画像処理を施して処理済み画像データを得る画像処理方法であって、
前記複数の画像データから、前記処理対象画像データを取得した対象カメラ付き携帯端末装置と同一機種のカメラ付き携帯装置において取得された複数の対象画像データを選択し、
該複数の対象画像データに基づいて前記処理対象画像データに対して前記画像処理を施すための画像処理パラメータを算出し、
該画像処理パラメータに基づいて、前記処理対象画像データに対して画像処理を施して前記処理済み画像データを得ることを特徴とする画像処理方法。
An image processing method for obtaining processed image data by performing image processing on one processing target image data among a plurality of image data respectively acquired by a plurality of types of camera-equipped mobile terminal devices,
From the plurality of image data, select a plurality of target image data acquired in a mobile device with a camera of the same model as the mobile terminal device with the target camera that acquired the processing target image data,
Calculating image processing parameters for performing the image processing on the processing target image data based on the plurality of target image data;
An image processing method, wherein the processed image data is obtained by performing image processing on the processing target image data based on the image processing parameter.
所定時間内に取得された複数の画像データを前記複数の対象画像データとして選択することを特徴とする請求項1記載の画像処理方法。The image processing method according to claim 1, wherein a plurality of pieces of image data acquired within a predetermined time are selected as the plurality of target image data. 複数種類のカメラ付き携帯端末装置においてそれぞれ取得された複数の画像データのうちの1の処理対象画像データに対して画像処理を施して処理済み画像データを得る画像処理装置であって、
前記複数の画像データから、前記処理対象画像データを取得した対象カメラ付き携帯端末装置と同一機種のカメラ付き携帯端末装置において取得された複数の対象画像データを選択し、該複数の対象画像データに基づいて前記処理対象画像データに対して前記画像処理を施すための画像処理パラメータを算出する画像処理パラメータ算出手段と、
該画像処理パラメータに基づいて、前記処理対象画像データに対して画像処理を施して前記処理済み画像データを得る処理手段とを備えたことを特徴とする画像処理装置。
An image processing device that obtains processed image data by performing image processing on one processing target image data among a plurality of image data respectively acquired by a plurality of types of mobile terminal devices with cameras,
From the plurality of image data, select a plurality of target image data acquired in a mobile terminal device with a camera of the same model as the mobile terminal device with the target camera that acquired the processing target image data, and select the plurality of target image data Image processing parameter calculation means for calculating an image processing parameter for performing the image processing on the processing target image data based on
An image processing apparatus comprising: processing means for performing image processing on the processing target image data based on the image processing parameter to obtain the processed image data.
前記画像処理パラメータ算出手段は、所定時間内に取得された複数の画像データを前記複数の対象画像データとして選択する手段であることを特徴とする請求項3記載の画像処理装置。4. The image processing apparatus according to claim 3, wherein the image processing parameter calculation means is means for selecting a plurality of pieces of image data acquired within a predetermined time as the plurality of target image data. 複数種類のカメラ付き携帯端末装置においてそれぞれ取得された複数の画像データのうちの1の処理対象画像データに対して画像処理を施して処理済み画像データを得る画像処理方法をコンピュータに実行させるためのプログラムであって、
前記複数の画像データから、前記処理対象画像データを取得した対象カメラ付き携帯端末装置と同一機種のカメラ付き携帯端末装置において取得された複数の対象画像データを選択する手順と、
該複数の対象画像データに基づいて前記処理対象画像データに対して前記画像処理を施すための画像処理パラメータを算出する手順と、
該画像処理パラメータに基づいて、前記処理対象画像データに対して画像処理を施して前記処理済み画像データを得る手順とを有するプログラム。
An image processing method for causing a computer to execute an image processing method for performing image processing on one processing target image data out of a plurality of image data respectively acquired by a plurality of types of mobile terminal devices with cameras to obtain processed image data A program,
A procedure for selecting, from the plurality of image data, a plurality of target image data acquired in a mobile terminal device with a camera of the same model as the mobile terminal device with a target camera that acquired the processing target image data;
A procedure for calculating image processing parameters for performing the image processing on the processing target image data based on the plurality of target image data;
And a procedure for obtaining the processed image data by performing image processing on the processing target image data based on the image processing parameters.
前記複数の対象画像データを選択する手順は、所定時間内に取得された複数の画像データを前記複数の処理対象画像データとして選択する手順である請求項5記載のプログラム。The program according to claim 5, wherein the procedure of selecting the plurality of target image data is a procedure of selecting a plurality of image data acquired within a predetermined time as the plurality of processing target image data.
JP2002185870A 2002-06-26 2002-06-26 Method, apparatus and program for processing image Withdrawn JP2004032371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002185870A JP2004032371A (en) 2002-06-26 2002-06-26 Method, apparatus and program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002185870A JP2004032371A (en) 2002-06-26 2002-06-26 Method, apparatus and program for processing image

Publications (1)

Publication Number Publication Date
JP2004032371A true JP2004032371A (en) 2004-01-29

Family

ID=31181380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002185870A Withdrawn JP2004032371A (en) 2002-06-26 2002-06-26 Method, apparatus and program for processing image

Country Status (1)

Country Link
JP (1) JP2004032371A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007067815A (en) * 2005-08-31 2007-03-15 Olympus Imaging Corp Image processing device and image processing method
JP2007116291A (en) * 2005-10-19 2007-05-10 Ims:Kk Corrected image provision system and correction processor for use therein
JP2010045813A (en) * 2002-09-20 2010-02-25 Ricoh Co Ltd System for controlling inter-apparatus data replication

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045813A (en) * 2002-09-20 2010-02-25 Ricoh Co Ltd System for controlling inter-apparatus data replication
JP4635099B2 (en) * 2002-09-20 2011-02-16 株式会社リコー System for controlling data copying between devices
JP2007067815A (en) * 2005-08-31 2007-03-15 Olympus Imaging Corp Image processing device and image processing method
JP2007116291A (en) * 2005-10-19 2007-05-10 Ims:Kk Corrected image provision system and correction processor for use therein

Similar Documents

Publication Publication Date Title
US7565035B2 (en) Image processing method, image processing apparatus and image processing program
JP4032210B2 (en) Mobile device, image transmission system, and image transmission method
JP3920184B2 (en) Image correction processing apparatus and program
US20040002302A1 (en) Image data transmission method, portable terminal apparatus, image processing method, image processing apparatus, and computer program therefor
JP2004032372A (en) Image data processing method, portable terminal device and program
JP4076800B2 (en) Image data transmission method, portable terminal device, and program
JP2003284019A (en) Method and apparatus for image transmission, and program
JP2004032373A (en) Method, apparatus and program for reproducing image
JP2004032371A (en) Method, apparatus and program for processing image
JP2004030250A (en) Image data transmitting method and portable terminal device and program
JP2004140799A (en) Method, apparatus, and program for controlling image pickup device
JP3967162B2 (en) Image processing method, apparatus, and program
JP4115416B2 (en) Image processing method, image processing apparatus, image processing system, and image processing program
JP3957156B2 (en) Image correction method, apparatus, and program
JP2006525746A (en) Image quality improving method and apparatus for improving images based on stored preferences
JP2005284411A (en) Method, apparatus, system and program for image processing
JP4459517B2 (en) Portable terminal device, calibration method and program for portable terminal device
JP2004179883A (en) Image adjustment method, image input apparatus, digital still camera, image forming apparatus, and computer program
JP2004032553A (en) Image processing apparatus and image communication method
JP2004118560A (en) Image processing method and apparatus, as well as program
JP2002197038A (en) Image communication system, portable communication terminal, and image processor
KR100432423B1 (en) Transmission System and Method of Image Data to Handphone
JP4232360B2 (en) Image file generation device, image processing device, and image file editing device
JP2004120398A (en) Method and device for image output, and method, device, and program for image processing
JP2003319034A (en) Portable terminal equipment, image processing method therein image processing parameter generation equipment and method therefor, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906