JP2004032373A - Method, apparatus and program for reproducing image - Google Patents

Method, apparatus and program for reproducing image Download PDF

Info

Publication number
JP2004032373A
JP2004032373A JP2002185872A JP2002185872A JP2004032373A JP 2004032373 A JP2004032373 A JP 2004032373A JP 2002185872 A JP2002185872 A JP 2002185872A JP 2002185872 A JP2002185872 A JP 2002185872A JP 2004032373 A JP2004032373 A JP 2004032373A
Authority
JP
Japan
Prior art keywords
image data
image
information
shooting
location information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002185872A
Other languages
Japanese (ja)
Inventor
Fumito Takemoto
竹本 文人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002185872A priority Critical patent/JP2004032373A/en
Publication of JP2004032373A publication Critical patent/JP2004032373A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize the photographed location and photographed date and time of an image only by referring to a reproduced image. <P>SOLUTION: In a cellular telephone 1 with a camera, GPS (global positioning system) information G0 is obtained at the time of obtaining image data S0, and photographed location information P0 is obtained on the basis of the obtained GPS information G0 in referrence to a database DB1 which associates the GPS information G0 with the location information. The information P0 is provided to processed image data S1 of image data S0 together with photographed date/time information T0 and transmitted to a image server 3, and the information is transmitted to a cellular telephone 2 with a camera and displayed. The image provided with the photographed location and photographed date/time is displayed on a liquid crystal display 24 of the telephone 2. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、撮影や受信により取得された画像データを再生する画像再生方法および装置並びに画像再生方法をコンピュータに実行させるためのプログラムに関するものである。
【0002】
【従来の技術】
携帯電話の普及には目覚ましいものがあるが、近年、撮影により画像データを取得する撮影手段を有するカメラ付き携帯電話が普及しつつある(例えば特開平6−233020号公報、同9−322114号公報、同10−150523号公報、特開2000−253290号公報等)。このようなカメラ付き携帯電話を用いることにより、撮影により取得した自分の好みの画像データを携帯電話の待ち受け画面に設定できる。また、撮影により取得した画像データを電子メールに添付して友人に送信することができるため、約束をキャンセルせざるを得ないような状況になったとき、あるいは待ち合わせ時刻に遅刻しそうなときに、申し訳なさそうな自分の表情を撮影して友人に送信する等、現在の自分の状況を友人に知らせることができることから、友人とのコミュニケーションを図るのに便利である。
【0003】
また、カメラ付き携帯電話の機能が向上し、プリント出力を行うのに十分なサイズを有する画像データをカメラ付き携帯電話において取得することも可能となってきている。
【0004】
一方、カメラ付き携帯電話において取得された画像データに対して、種々の画像処理を施して処理済み画像データを得たり、画像データをプリント出力したり、ネットワーク上にアップロードすることが行われている。これにより、ユーザは高画質の画像を取得したり、プリントを取得したり、ネットワーク上において画像を閲覧する等できるため、通信による画像データの利用形態の多様化を図ることができる。
【0005】
このようなカメラ付き携帯電話において取得された画像データの利用は、画像データを撮像したカメラ付き携帯電話から、画像データの保管管理を行う画像サーバに画像データを送信し、画像サーバにおいて画像データの保管場所を表すURLを付与した電子メールを生成し、この電子メールを画像データの送信先の携帯電話、パソコンやPDA等の端末装置、プリント出力を行うラボ等に送信し、電子メールの送信を受けた携帯電話、端末装置またはラボ等からURLを参照して画像データをダウンロードすることにより行われている。
【0006】
【発明が解決しようとする課題】
ところで、カメラ付き携帯電話は多種多様な場所において撮影を行うことができるが、後で画像データを再生したときに、それがどこで撮影されたものであるかが分からなくなってしまう場合がある。
【0007】
ここで、例えば、特開平10−2333985号公報に記載されているように、デジタルカメラとGPS(Global Positioning System)装置を用いて、GPS装置において取得された撮影場所を表す情報を画像データと関連付けて記憶し、電子地図を表示した際に、電子地図上の対応する場所に画像データにサムネイル画像を表示する方法が提案されている。また、GPS装置に撮影場所や撮影日時の情報を記憶しておき、後で画像データを参照する際に記憶された撮影場所および撮影日時を同時に参照する方法も提案されている(特開2001−94916号公報)。
【0008】
しかしながら、上記方法は、撮影場所や撮影日時が知りたい場合には、画像データとともに撮影場所や撮影日時を表す情報を参照する必要があるため、再生された画像を参照するのみでは、撮影場所や撮影日時を知ることができない。
【0009】
本発明は上記事情に鑑みなされたものであり、再生された画像を参照するのみで、画像の撮影場所や撮影日時を認識できるようにすることを目的とする。
【0010】
【課題を解決するための手段】
本発明による画像再生方法は、画像データを再生する画像再生方法において、
前記画像データの撮影場所を表す撮影場所情報を取得し、
該撮影場所情報を前記画像データに付与して再生することを特徴とするものである。
【0011】
「再生」とは、液晶モニタやCRTモニタ等への表示およびプリンタによるプリント出力を含む。
【0012】
「付与」とは、再生がモニタへの表示である場合には、取得した撮影場所情報を再生される画像に含めて表示するあるいは画像に隣接させて表示する等、画像を見れば撮影場所を認識できるような態様にて付与することをいう。また、再生がプリント出力である場合には、取得した撮影場所情報を画像に含めることにより付与してもよく、プリントの裏や白縁部分に印字することにより取得した撮影場所情報を付与してもよい。
【0013】
なお、本発明による画像再生方法においては、前記画像データにGPS情報が付与されてなるものであり、
GPS情報と場所情報とを対応付けたデータベースを参照して、前記画像データに付与されたGPS情報に対応する対応場所情報を前記撮影場所情報として取得するようにしてもよい。
【0014】
また、本発明による画像再生方法においては、前記撮影場所情報は、前記撮影場所の地図を表す地図情報であってもよい。
【0015】
また、本発明による画像再生方法においては、前記画像データの撮影日時を表す撮影日時情報をさらに取得し、
該撮影日時情報を前記画像データにさらに付与して再生するようにしてもよい。
【0016】
本発明による画像再生装置は、画像データを再生する再生手段を備えた画像再生装置において、
前記画像データの撮影場所を表す撮影場所情報を取得する撮影場所情報取得手段をさらに備え、
前記再生手段は、前記撮影場所情報を前記画像データに付与して再生する手段であることを特徴とするものである。
【0017】
なお、本発明による画像再生装置においては、前記画像データがGPS情報が付与されてなるものである場合において、
GPS情報と場所情報とを対応付けたデータベースを保管した保管手段をさらに備え、
前記撮影場所情報取得手段を、前記データベースを参照して、前記画像データに付与されたGPS情報に対応する対応場所情報を前記撮影場所情報として取得する手段としてもよい。
【0018】
また、本発明による画像再生装置においては、前記撮影場所情報を、前記撮影場所の地図を表す地図情報としてもよい。
【0019】
また、本発明による画像再生装置においては、前記撮影場所情報取得手段を、前記画像データの撮影日時を表す撮影日時情報をさらに取得する手段とし、
前記再生手段を、前記撮影日時情報を前記画像データにさらに付与して再生する手段としてもよい。
【0020】
なお、本発明による画像再生方法をコンピュータに実行させるためのプログラムとして提供してもよい。
【0021】
【発明の効果】
本発明によれば、画像データの撮影場所を表す撮影場所情報が取得され、撮影場所情報が画像データに付与されて再生される。このため、再生された画像を参照すれば画像データの撮影場所を直ちに認識することができる。
【0022】
また、画像データにGPS情報が付与されている場合には、GPS情報と場所情報とを対応付けたデータベースを参照してGPS情報に対応する場所情報を取得するようにすれば、撮影場所情報を簡易に取得することができる。
【0023】
また、撮影場所情報を撮影場所の地図を表す地図情報とすることにより、撮影場所をより容易に認識できる。
【0024】
さらに、画像データの撮影日時を表す時刻情報をさらに取得し、撮影日時情報を画像データにさらに付与して再生することにより、再生された画像を参照すれば、画像データの撮影場所とともに撮影日時を直ちに認識することができる。
【0025】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による画像再生装置を備えた画像処理システムの構成を示す概略ブロック図である。図1に示すように本実施形態による画像処理システムは、カメラ付き携帯電話1,2と、カメラ付き携帯電話1,2において取得された画像データS0を保管管理する画像サーバ3と、画像データS0をプリント出力するラボ4との間で、画像データS0や種々の情報のやり取りを携帯電話通信網5を介して行うものである。
【0026】
カメラ付き携帯電話1は、撮影により画像データS0を取得するカメラ11と、画像データS0や種々の情報の送受信を行う通信手段12と、画像データS0に対して画像処理を施して処理済み画像データS1を得る画像処理手段13と、画像や電話番号等種々の表示を行う液晶モニタ14と、カメラ付き携帯電話1の動作を制御するコントローラ15と、後述するように画像データS0の用途および/または画質に基づいて、画像データS0に対して画像処理を施す場所を決定して場所情報B0を生成する画像処理場所決定手段16と、カメラ11による撮影の操作、画像データS0の送信指示、画像データS0の用途および/または画質の入力、画像データS0または処理済み画像データS1の送信先、プリント出力を行うか否かの指定、画像サーバ3に保管しておくか否かの指定、画像データS0に画像処理を施す際の指示等、種々の情報の入力を行う複数のボタンからなる入力手段17と、GPS衛星からの測位情報すなわちカメラ付き携帯電話1が存在する場所の緯度および経度の情報をGPS情報G0として取得するGPS手段18と、緯度および経度と場所情報とを対応付けて記憶したデータベースDB1を記憶した保管手段71と、GPS情報G0に基づいてデータベースDB1を参照してGPS情報G0に対応する場所情報を画像データS0の撮影場所を表す撮影場所情報P0として取得する撮影場所情報取得手段19とを備える。なお、撮影場所情報取得手段19は、不図示のタイマーに基づいて撮影日時を表す撮影日時情報T0も取得する。
【0027】
カメラ付き携帯電話2は、撮影により画像データS0を取得するカメラ21と、画像データS0や種々の情報の送受信を行う通信手段22と、画像データS0に対して画像処理を施して処理済み画像データS2を得る画像処理手段23と、画像や電話番号等種々の表示を行う液晶モニタ24と、カメラ付き携帯電話2の動作を制御するコントローラ25と、後述するように画像データS0の用途および/または画質に基づいて、画像データS0に対して画像処理を施す場所を決定して場所情報B0を生成する画像処理場所決定手段26と、カメラ21による撮影の操作、画像データS0の送信指示、画像データS0の用途および/または画質の入力、画像データS0または処理済み画像データS2の送信先、プリント出力を行うか否かの指定、画像サーバ3に保管しておくか否かの指定、画像データS0に画像処理を施す際の指示等、種々の情報の入力を行う複数のボタンからなる入力手段27と、GPS衛星からの測位情報すなわちカメラ付き携帯電話2が存在する場所の緯度および経度の情報をGPS情報G0として取得するGPS手段28と、緯度および経度と場所情報とを対応付けて記憶したデータベースDB2を記憶した保管手段72と、GPS情報G0に基づいてデータベースDB2を参照してGPS情報G0に対応する場所情報を画像データS0の撮影場所を表す撮影場所情報P0として取得する撮影場所情報取得手段29とを備える。なお、撮影場所情報取得手段19は、不図示のタイマーに基づいて撮影日時を表す撮影日時情報T0も取得する。
【0028】
なお、本実施形態においては、カメラ付き携帯電話1において画像データS0を取得して画像データS0に画像処理を施す画像処理場所を決定し、カメラ付き携帯電話2を画像データS0または処理済み画像データS1の送信先の1つとして指定するものとする。
【0029】
画像処理手段13は、画像データS0に対して濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、シャープネス処理等の画像処理を施して処理済み画像データS1を得る。また、後述する撮影場所情報P0および撮影日時情報T0を画像データS0または処理済み画像データS1に付与する。なお、画像処理手段13は、後述する画像サーバ3やラボ4の画像処理手段ほど高度な画像処理を行うことができないものである。したがって、得られる処理済み画像データS1は、液晶モニタ14のように比較的小さいサイズのモニタに表示するには問題ないが、プリント出力したりパソコンのモニタのような大きいサイズのモニタに表示するには適さないものである。
【0030】
画像処理場所決定手段16は、カメラ付き携帯電話1のユーザが入力手段17から入力した画像データS0の用途および/または画質に基づいて、画像データS0に対して画像処理を施す場所を決定して、画像処理を施す場所を表す場所情報B0を生成する。例えば、画像データS0の用途が携帯電話のモニタへの表示である旨が入力された場合および/または低画質の旨が入力された場合には、画像データS0はそれほど高い画質は要求されないことから、画像処理場所決定手段16は、画像処理場所をカメラ付き携帯電話1に決定して場所情報B0を生成する。なお、画像データS0をカメラ付き携帯電話2に送信する場合には、画像処理場所をカメラ付き携帯電話2と決定して場所情報B0を生成してもよい。この場合、画像処理場所の決定は、入力手段17から入力される画像データS0の送信先情報に基づいて行えばよい。
【0031】
なお、用途および/または画質は入力手段17から直接入力してもよいが、液晶モニタ14に種々の用途および/または画質を表示して、ユーザに所望とする用途および/または画質を選択させるようにしてもよい。
【0032】
また、画像データS0の用途が画像サーバ3への保管である場合には、画像データS0がパソコン等の端末装置にダウンロードされてモニタに表示されて用いられることから、画像データS0にはプリント出力ほどではないが中程度の画質が要求される。したがって、画像データS0の用途が画像サーバ3への保管である場合および/または中程度の画質の旨が入力された場合には、画像処理場所決定手段16は、画像データS0には中程度の画質が要求されることから、画像処理場所を画像サーバ3に決定して場所情報B0を生成する。
【0033】
さらに、画像データS0の用途がプリント出力である場合には、画像データS0には高画質が要求される。また、画像データS0を高画質にしたい場合はプリント出力を所望する場合が多い。したがって、画像データS0の用途がプリント出力である場合および/または高画質の旨が入力された場合には、画像処理場所決定手段16は、画像データS0には高画質が要求されることから、画像処理場所をラボ4に決定して場所情報B0を生成する。
【0034】
通信手段12は、画像データS0または処理済み画像データS1を、場所情報B0および画像データS0または処理済み画像データS1の送信先を表す送信先情報(例えば、ラボ4、カメラ付き携帯電話2、カメラ付き携帯電話1のユーザの友人のメールアドレス等)とともに携帯電話通信網5を介して画像サーバ3へ送信する。なお、画像データS0の用途がプリント出力である場合には、プリントの受け取り先を表す受け取り先情報(相手を特定できればよいため、例えば携帯電話の番号等でもよい)も送信される。
【0035】
ここで、未処理の画像データS0が送信されるのは、画像処理場所が画像サーバ3、ラボ4およびカメラ付き携帯電話2に決定された場合である。一方、画像処理場所がカメラ付き携帯電話1に決定された場合には、画像処理手段13において画像データS0に対して画像処理が施されて処理済み画像データS1が得られ、これが場所情報B0(この場合カメラ付き携帯電話1を表す)とともに画像サーバ3へ送信される。
【0036】
GPS手段18は、GPS衛星からの測位用電波を受信し、カメラ付き携帯電話1が存在する場所すなわち撮影場所の測位情報(緯度および経度情報)をGPS情報G0として取得する。なお、GPS情報G0の取得は、入力手段17における撮影動作に連動して行われる。
【0037】
保管手段71に保管されたデータベースDB1には、緯度および経度情報と場所情報とが対応付けられている。ここで、場所情報としては、地名、町名、観光地の名称、テーマパークの名称等を用いることができる。
【0038】
撮影場所情報取得手段19は、データベースDB1を参照し、GPS情報G0に基づいてGPS情報G0により表される緯度および経度に対応する場所情報を、画像データS0を撮影した撮影場所情報P0として取得する。また、同時に撮影日時情報T0も取得する。
【0039】
なお、撮影場所情報P0は画像処理手段13において、撮影日時情報T0とともに画像データS0または処理済み画像データS1に付与される。ここで、撮影場所情報P0および撮影日時情報T0は、画像データS0または処理済み画像データS1により表される画像中に含ませる、あるいは画像データS0または処理済み画像データS1のタグ情報として記述する等により、画像データS0または処理済み画像データS1に付与される。
【0040】
ここで、カメラ付き携帯電話2の通信手段22、画像処理手段23、画像処理場所決定手段26、GPS手段28、撮影場所情報取得手段29および保管手段72は、通信手段12、画像処理手段13、画像処理場所決定手段16、GPS手段18、撮影場所情報取得手段19および保管手段71と同様の機能を有する。
【0041】
画像サーバ3は、画像データS0等種々の情報の送受信を行う通信手段31と、画像データS0に対して画像処理を施して処理済み画像データS3を得る画像処理手段32と、カメラ付き携帯電話1から送信された画像データS0または処理済み画像データS1を保管する保管手段33と、画像データS0または処理済み画像データS1の保管場所を表すURLを生成するURL生成手段34と、URL生成手段34において生成されたURLが付与された電子メールを作成するメール作成手段35と、画像サーバ3の動作を制御するコントローラ36とを備える。
【0042】
画像処理手段32は、カメラ付き携帯電話1から画像データS0が送信され、かつ場所情報B0に基づく画像処理場所が画像サーバ3である場合に、画像データS0に対して濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、シャープネス処理等の画像処理を施して処理済み画像データS3を得る。また、撮影場所情報P0および撮影日時情報T0が画像データS0のタグ情報に記述されている場合には、撮影場所情報P0および撮影日時情報T0が処理済み画像データS3により表される処理済み画像中に含められる。なお、画像処理手段32において行われる画像処理は、処理済み画像データS3をモニタに表示するのに適した画質にする画像処理である。
【0043】
保管手段33は、カメラ付き携帯電話1から処理済み画像データS1が送信された場合には処理済み画像データS1を保管する。また、未処理の画像データS0が送信された場合において、場所情報B0に基づく画像処理場所が画像サーバ3である場合には、画像処理手段32において得られた処理済み画像データS3を保管する。さらに、未処理の画像データS0が送信された場合において、場所情報B0に基づく画像処理場所がカメラ付き携帯電話2またはラボ4である場合には、未処理の画像データS0を保管する。
【0044】
URL生成手段34は、画像データS0、処理済み画像データS1または処理済み画像データS3の保管場所を表すURLを生成する。
【0045】
メール作成手段35は、画像データS0または処理済み画像データS1とともに送信された送信先情報に基づいて、URL生成手段34において生成されたURLが付与された電子メールを作成する。なお、作成された電子メールは、通信手段31により送信先情報に基づく送信先に携帯電話通信網5を介して送信される。
【0046】
ラボ4は、画像データS0等種々の情報の送受信を行う通信手段41と、画像データS0に対して画像処理を施して処理済み画像データS4を得る画像処理手段42と、処理済み画像データS4をプリント出力してプリントPを作成するプリンタ43と、プリントPが作成された場合にその旨をカメラ付き携帯電話1に通知する通知手段44と、ラボ4の動作を制御するコントローラ45とを備える。
【0047】
ラボ4は、画像サーバ3から送信された電子メールを受信すると、電子メールに付与されたURLを参照して、通信手段41において画像サーバ3の保管手段33から画像データS0をダウンロードする。なお、画像データS0のダウンロードと同時に、プリントPの受け取り先を表す受け取り先情報もダウンロードする。
【0048】
画像処理手段42は、画像サーバ3の保管手段33からダウンロードした画像データS0に対して、濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、シャープネス処理等の画像処理を施して処理済み画像データS4を得る。また、撮影場所情報P0および撮影日時情報T0が画像データS0のタグ情報に記述されている場合には、撮影場所情報P0および撮影日時情報T0が処理済み画像データS4により表される処理済み画像中に含められる。また、この場合、後述するように撮影場所情報P0および撮影日時情報T0をプリントPの裏や縁部に印字してもよい。ここで、ラボ4に電子メールが送信された場合には、ラボ4において画像データS0に画像処理を施すことは明らかであるが、場所情報B0を参照して画像処理場所がラボ4であることを確認することが好ましい。なお、画像処理手段42において行われる画像処理は、処理済み画像データS4をプリント出力するのに適した画質にする画像処理である。
【0049】
通知手段44は、処理済み画像データS4のプリント出力が完了すると、受け取り先情報に基づく受け取り先に、プリント出力が完了した旨の通知を行う。通知は電子メールであっても電話の自動音声によるものであってもよい。なお、ラボ4のオペレータが受け取り先に電話をかけたり、マニュアル操作により電子メールを送信することによって、通知を行ってもよい。
【0050】
なお、画像サーバ3からカメラ付き携帯電話2に電子メールが送信された場合には、カメラ付き携帯電話2のユーザは、URLを参照して画像サーバ3の保管手段33にアクセスして画像データS0または処理済み画像データS1をダウンロードする。なお、処理済み画像データS1をダウンロードした場合には、処理済み画像データS1がそのまま液晶モニタ24に表示される。一方、画像データS0をダウンロードした場合には、画像処理手段23において画像データS0に対して画像処理が施されて処理済み画像データS2が得られ、これが液晶モニタ24に表示される。
【0051】
なお、カメラ付き携帯電話2に未処理の画像データS0の保管場所を表すURLが付与された電子メールが送信された場合には、カメラ付き携帯電話2において画像データS0に画像処理を施すことは明らかであるが、場所情報B0を参照して画像処理場所がカメラ付き携帯電話2であることを確認することが好ましい。
【0052】
ここで、画像処理手段において行われる処理について説明する。図2はカメラ付き携帯電話1の画像処理手段13において行われる処理を示す概略ブロック図である。図2に示すように、画像処理手段13においては、画像データS0はJPEG形式等により圧縮されていることから、まず画像データS0が解凍され、次いで、画像データS0が縮小される。そして、縮小された画像データS0および画像データS0のタグ情報に付与された撮影時の撮影条件等に基づいて、画像データS0に対して画像処理を施す際の画像処理条件Jが算出される。
【0053】
そして、算出された画像処理条件Jに基づいて、濃度補正処理、ホワイトバランス調整処理、階調補正処理、色補正処理、およびシャープネス処理が行われ、処理済み画像データS1が得られる。さらに、撮影場所情報P0および撮影日時情報T0が処理済み画像データS1に付与される。なお、画像処理条件Jに基づく処理ではないが、シャープネス処理の前に画像データS0により表される画像のサイズを出力サイズ(プリントサイズ、モニタサイズ等)に合わせるための拡大処理が行われる。ここで、拡大処理には1未満の倍率の拡大処理も含まれる。
【0054】
ここで、濃度補正処理およびホワイトバランス調整処理は、撮影時の露出エラーおよびホワイトバランスエラーを補正し、階調補正処理は、撮影時のシーンとプリントとのコントラストの相違を吸収し、色補正処理は、RGB各色の色相、彩度、明度を補正し、シャープネス処理は画像の鮮鋭度を補正する。
【0055】
なお、画像データS0に対して画像処理を施さない場合には、画像データS0に対して撮影場所情報P0および撮影日時情報T0が付与される。
【0056】
図3は、撮影場所情報P0および撮影日時情報T0が付与された画像データS0または処理済み画像データS1をカメラ付き携帯電話1の液晶モニタ14に表示した状態を示す図である。なお、ここでは画像データS0または処理済み画像データS1中に撮影場所情報P0および撮影日時情報T0を含ませた場合の画像を示す。図3に示すように、液晶モニタ14に表示された画像の下部には、撮影場所および撮影日時を表す「横浜 4/10/02 10:00」が含まれる。なお、撮影場所および撮影日時を画像に隣接させて表示してもよい。
【0057】
図4は、撮影場所情報P0および撮影日時情報T0が付与された画像データS0または処理済み画像データS1をプリント出力することにより得られたプリントPを示す図である。図4(a)に示すように、プリントPには画像中に撮影場所および撮影日時を表す「横浜 4/10/02 10:00」が含まれる。なお、撮影場所情報P0および撮影日時情報T0が画像データS0のタグ情報に記述されている場合には、図4(b)に示すようにプリントPの裏面に、撮影場所および撮影日時を印字してもよく、図4(c)に示すように、フチ有りプリントの場合にはプリントの縁部に撮影場所および撮影日時を印字してもよい。
【0058】
なお、カメラ付き携帯電話2の画像処理手段23、画像サーバ3の画像処理手段32およびラボ4の画像処理手段42においても同様に画像処理が行われる。
【0059】
ここで、カメラ付き携帯電話1,2および画像サーバ3においては、送信容量の制限や表示媒体の表示色の制限があることから、図2においてシャープネス処理後に、容量を低減するための圧縮処理や色数を低減するための減色処理が行われて処理済み画像データS1,S2、補正処理済み画像データS1′または処理済み画像データS3が得られる。なお、カメラ付き携帯電話1,2の液晶モニタ14,24の色再現域は、パソコン等のモニタの色再現域よりも狭いため、狭い色再現域を有効に活用するように減色処理が行われる。
【0060】
また、カメラ付き携帯電話1,2の画像処理手段13,23においては、画像サーバ3の画像処理手段32またはラボ4の画像処理手段42と比較して簡易な演算により画像データS0に対して画像処理が施される。さらに、色補正処理およびシャープネス処理が省略される場合もある。
【0061】
一方、ラボ4の画像処理手段42においては、図2のシャープネス処理後の破線に示すように、シャープネス処理後の画像データをプリンタ43のデバイス信号に変換するプリント出力処理がさらに行われて、処理済み画像データS4が得られる。
【0062】
次いで、本実施形態の動作について説明する。図5はカメラ付き携帯電話1において行われる処理を示すフローチャートである。まず、カメラ11により撮影が行われて画像データS0が取得される(ステップS1)。一方、入力手段17において、カメラ付き携帯電話1のユーザによる画像データS0の用途および/または画質の入力が受け付けられ(ステップS2)、入力された用途および/または画質に基づいて、画像処理場所決定手段16において画像データS0に画像処理を施す画像処理場所が決定されて場所情報B0が生成される(ステップS3)。
【0063】
そして、コントローラ15により、場所情報B0が参照されて画像処理場所がカメラ付き携帯電話1であるか否かが判定される(ステップS4)。ステップS4が肯定された場合には、画像処理手段13において画像データS0に対して画像処理が施されて処理済み画像データS1が得られ(ステップS5)、ステップS8に進む。ステップS4が否定された場合にもステップS8に進む。
【0064】
その一方で、GPS手段18によりGPS情報G0が取得され(ステップS6)、保管手段71に保管されたデータベースDB1が参照されて、GPS情報G0に基づいて撮影場所情報P0が取得される(ステップS7)。撮影場所情報P0は撮影日時情報T0とともに画像データS0または処理済み画像データS1に付与される(ステップS8)。この状態で画像データS0または処理済み画像データS1を液晶モニタ14に表示すると、表示された画像は、図3に示すように撮影場所および撮影日時が含まれたものとなっている。
【0065】
次いで、ステップS9においては、ユーザによる送信指示がなされたか否かの監視が開始され、ステップS9が肯定されると、画像データS0または処理済み画像データS1が場所情報B0、送信先情報およびプリント出力を依頼する場合にはプリントPの受け取り先情報とともに画像サーバ3に送信され(ステップS10)、処理を終了する。
【0066】
図6は画像サーバ3において行われる処理を示すフローチャートである。まず、カメラ付き携帯電話1から送信された画像データS0または処理済み画像データS1が受信され(ステップS11)、画像データS0または処理済み画像データS1に付与された場所情報B0に基づいて、画像データS0に対する画像処理場所が判定される(ステップS12)。
【0067】
画像処理場所がカメラ付き携帯電話1であると判定された場合には、処理済み画像データS1が送信されていることから、処理済み画像データS1を保管手段33に保管する(ステップS13)。画像処理場所が、カメラ付き携帯電話2またはラボ4であると判定された場合には、未処理の画像データS0を保管手段33に保管する(ステップS14)。画像処理場所が画像サーバ3であると判定された場合には、画像処理手段32において画像データS0に対して画像処理が施されて処理済み画像データS3が得られ(ステップS15)、処理済み画像データS3が保管手段33に保管される(ステップS16)。
【0068】
画像データS0または処理済み画像データS1,S3が保管されると、URL生成手段34において、画像データS0または処理済み画像データS1,S3の保管場所を表すURLが生成される(ステップS17)。そして、メール作成手段35においてURLが付与された電子メールが作成され(ステップS18)、画像データS0または処理済み画像データS1とともに送信された送信先情報に応じた送信先に電子メールが送信され(ステップS19)、処理を終了する。
【0069】
なお、電子メールの送信先がカメラ付き携帯電話2である場合には、電子メールに付与されたURLが画像データS0のものであるか、処理済み画像データS1のものであるかが電子メールに記述される。
【0070】
図7はラボ4において行われる処理を示すフローチャートである。まず、画像サーバ3から送信された電子メールが受信される(ステップS21)。次いで、通信手段41が電子メールに付与されたURLにアクセスして(ステップS22)、画像データS0がダウンロードされる(ステップS23)。そして、画像処理手段42において画像データS0に対して画像処理が施されて処理済み画像データS4が得られる(ステップS24)。処理済み画像データS4はプリンタ43においてプリント出力されてプリントPが得られる(ステップS25)。プリント出力が完了すると、通知手段44によりプリントPの受け取り先にプリント出力が完了した旨の通知がなされ(ステップS26)、処理を終了する。
【0071】
なお、プリントPには、図4(a)〜(c)に示すように、画像中、裏面あるいは縁部に撮影場所および撮影日時が付与または印字される。
【0072】
なお、プリントPは、通知を受けた受け取り先(例えばカメラ付き携帯電話1)のユーザがラボ4に出向いて受け取るか、ラボ4からユーザに配送される。
【0073】
図8はカメラ付き携帯電話2において行われる処理を示すフローチャートである。まず、画像サーバ3から送信された電子メールが受信される(ステップS31)。次いで、通信手段41が電子メールに付与されたURLにアクセスして(ステップS32)、画像データS0または処理済み画像データS1がダウンロードされる(ステップS33)。
【0074】
そして、電子メールの記述に基づいて、ダウンロードされた画像データが未処理の画像データS0か否かが判定され(ステップS34)、ステップS34が肯定されると、未処理の画像データS0がダウンロードされたことから、画像処理手段23において画像データS0に対して画像処理が施されて処理済み画像データS2が得られる(ステップS35)。処理済み画像データS2は液晶モニタ24に表示され(ステップS36)、処理を終了する。
【0075】
一方、ステップS34が否定されると、処理済み画像データS1がダウンロードされたことから、処理済み画像データS1が液晶モニタ24に表示され(ステップS36)、処理を終了する。
【0076】
液晶モニタ24には、図3に示すように撮影場所および撮影日時が付与された画像が表示される。
【0077】
このように、本実施形態においては、画像データS0の撮影場所を表す撮影場所情報P0および撮影日時情報T0を取得し、撮影場所情報P0および撮影日時情報T0を画像に付与して再生するようにしたため、再生された画像を参照すれば画像データの撮影場所および撮影日時を直ちに認識することができる。
【0078】
また、GPS情報G0を取得し、GPS情報G0と場所情報とを対応付けたデータベースDB1を参照してGPS情報G0に対応する場所情報を取得するようにすれば、撮影場所情報P0を簡易に取得することができる。
【0079】
なお、上記実施形態においては、GPS情報G0と場所情報とを対応付けたデータベースDB1,DB2を参照して撮影場所情報P0を得ているが、撮影場所情報P0を電子地図に基づく地図情報として画像データS0または処理済み画像データS1に付与すれば、画像データS0または処理済み画像データを再生した際に、図9に示すように画像とともに撮影場所の地図を再生することができる。なお、図9においては撮影場所を地図上の☆印で示している。このように、撮影場所情報P0を撮影場所の地図情報とすることにより、撮影場所をより容易に認識できる。
【0080】
また、上記実施形態において、カメラ付き携帯電話1において、GPS情報G0のみを取得してこれを画像データS0または処理済み画像データS1のタグ情報に記述して画像サーバ3に送信し、画像サーバ3においてGPS情報G0に基づいて、撮影場所情報P0を画像データS0または処理済み画像データS1に付与してもよい。この場合、カメラ付き携帯電話1,2は、図10に示すように撮影場所情報取得手段19,29および保管手段71,72を省略してもよい。一方、画像サーバ3は、保管手段33にデータベースDB1を保管し、さらに画像データS0または処理済み画像データS1のタグ情報に記述されたGPS情報G0に基づいてデータベースDB1を参照して撮影場所情報P0を取得する撮影場所情報取得手段37を備えるものとすればよい。
【図面の簡単な説明】
【図1】本発明の実施形態による画像再生装置を備えた画像処理システムの構成を示す概略ブロック図
【図2】画像処理手段において行われる処理を示す概略ブロック図
【図3】撮影場所情報および撮影日時情報が付与された画像データをカメラ付き携帯電話に再生した状態を示す図
【図4】撮影場所情報および撮影日時情報が付与された画像データのプリントを示す図
【図5】カメラ付き携帯電話1において行われる処理を示すフローチャート
【図6】画像サーバにおいて行われる処理を示すフローチャート
【図7】ラボにおいて行われる処理を示すフローチャート
【図8】カメラ付き携帯電話2において行われる処理を示すフローチャート
【図9】撮影場所情報を地図情報とした場合に画像を表示した状態を示す図
【図10】本発明の他の実施形態による画像再生装置を備えた画像処理システムの構成を示す概略ブロック図
【符号の説明】
1,2  カメラ付き携帯電話
3  画像サーバ
4  ラボ
5  携帯電話通信網
11,21  カメラ
12,22,31,41  通信手段
13,23,32,42  画像処理手段
14,24  液晶モニタ
15,25,36,45  コントローラ
16,26  画像処理場所決定手段
17,27  入力手段
18,28  GPS手段
19,29,37  撮影場所情報取得手段
33  保管手段
34  URL生成手段
35  メール作成手段
43  プリンタ
44  通知手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image reproduction method and apparatus for reproducing image data acquired by photographing or reception, and a program for causing a computer to execute the image reproduction method.
[0002]
[Prior art]
Although there is a remarkable spread of mobile phones, in recent years, mobile phones with cameras having photographing means for acquiring image data by photographing are becoming popular (for example, Japanese Patent Laid-Open Nos. 6-233020 and 9-322114). 10-150523, JP-A 2000-253290, etc.). By using such a camera-equipped mobile phone, the user's favorite image data acquired by photographing can be set on the standby screen of the mobile phone. In addition, since it is possible to attach the image data acquired by shooting to an e-mail and send it to a friend, when it becomes necessary to cancel the appointment or when it is likely to be late at the meeting time, It is convenient for communication with friends because it is possible to inform a friend of his / her current situation, such as taking a picture of his / her disappointing expression and sending it to a friend.
[0003]
In addition, the function of the camera-equipped mobile phone has been improved, and it has become possible to acquire image data having a size sufficient for print output in the camera-equipped mobile phone.
[0004]
On the other hand, image data acquired by a camera-equipped mobile phone is subjected to various image processes to obtain processed image data, print out the image data, or upload it onto a network. . As a result, the user can acquire a high-quality image, acquire a print, view an image on a network, and the like, so that the use form of image data by communication can be diversified.
[0005]
The use of the image data acquired in such a camera-equipped mobile phone transmits image data from the camera-equipped mobile phone that has captured the image data to an image server that manages image data storage. Generate an e-mail with a URL indicating the storage location, send the e-mail to a mobile phone to which the image data is sent, a terminal device such as a personal computer or PDA, a laboratory that performs print output, and the like. The image data is downloaded by referring to the URL from the received mobile phone, terminal device or laboratory.
[0006]
[Problems to be solved by the invention]
By the way, although the camera-equipped mobile phone can shoot in a wide variety of places, when image data is reproduced later, it may become difficult to know where the image data was taken.
[0007]
Here, for example, as described in Japanese Patent Application Laid-Open No. 10-2233985, information representing a shooting location acquired in a GPS device is associated with image data using a digital camera and a GPS (Global Positioning System) device. A method for displaying thumbnail images in image data at corresponding locations on the electronic map when the electronic map is displayed and stored is proposed. In addition, a method has been proposed in which information on a shooting location and shooting date / time is stored in a GPS device, and the shooting location and shooting date / time stored at the time of referring to image data later are referred to simultaneously (Japanese Patent Laid-Open No. 2001-2001). No. 94916).
[0008]
However, in the above method, when it is desired to know the shooting location and the shooting date and time, it is necessary to refer to the information indicating the shooting location and the shooting date and time together with the image data. I can't know the shooting date.
[0009]
The present invention has been made in view of the above circumstances, and an object of the present invention is to make it possible to recognize the shooting location and shooting date of an image only by referring to the reproduced image.
[0010]
[Means for Solving the Problems]
An image reproduction method according to the present invention is an image reproduction method for reproducing image data.
Obtaining shooting location information representing the shooting location of the image data;
The photographing location information is added to the image data and reproduced.
[0011]
“Playback” includes display on a liquid crystal monitor, CRT monitor, etc. and print output by a printer.
[0012]
“Grant” means that if the playback is a display on the monitor, the acquired shooting location information is included in the reproduced image or displayed adjacent to the image. Giving in such a way that it can be recognized. In addition, when the reproduction is a print output, the acquired shooting location information may be added to the image, or the acquired shooting location information may be added by printing on the back or white edge portion of the print. Also good.
[0013]
In the image reproduction method according to the present invention, GPS information is added to the image data,
The corresponding location information corresponding to the GPS information assigned to the image data may be acquired as the shooting location information with reference to a database in which GPS information and location information are associated with each other.
[0014]
In the image reproduction method according to the present invention, the shooting location information may be map information representing a map of the shooting location.
[0015]
Further, in the image reproduction method according to the present invention, it further acquires shooting date / time information representing the shooting date / time of the image data,
The photographing date / time information may be further added to the image data and reproduced.
[0016]
An image reproduction apparatus according to the present invention is an image reproduction apparatus provided with reproduction means for reproducing image data.
Further comprising a shooting location information acquisition means for acquiring shooting location information representing a shooting location of the image data
The reproduction means is means for reproducing the image data by adding the shooting location information to the image data.
[0017]
In the image reproducing apparatus according to the present invention, when the image data is provided with GPS information,
A storage means for storing a database in which GPS information and location information are associated with each other;
The shooting location information acquisition unit may be a unit that refers to the database and acquires corresponding location information corresponding to GPS information given to the image data as the shooting location information.
[0018]
In the image reproducing device according to the present invention, the shooting location information may be map information representing a map of the shooting location.
[0019]
Further, in the image reproduction apparatus according to the present invention, the shooting location information acquisition unit is a unit that further acquires shooting date / time information representing the shooting date / time of the image data,
The reproducing unit may be a unit that further adds the shooting date / time information to the image data and reproduces the image data.
[0020]
The image reproduction method according to the present invention may be provided as a program for causing a computer to execute the image reproduction method.
[0021]
【The invention's effect】
According to the present invention, shooting location information representing a shooting location of image data is acquired, and the shooting location information is added to the image data and reproduced. For this reason, the shooting location of the image data can be immediately recognized by referring to the reproduced image.
[0022]
In addition, when GPS information is added to the image data, the location information corresponding to the GPS information can be obtained by referring to the database in which the GPS information and the location information are associated with each other. It can be obtained easily.
[0023]
In addition, by using the shooting location information as map information representing a map of the shooting location, the shooting location can be more easily recognized.
[0024]
Further, by acquiring further time information indicating the shooting date and time of the image data, and adding the shooting date and time information to the image data and playing it back, if the reproduced image is referenced, the shooting date and time can be set together with the shooting location of the image data. It can be recognized immediately.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a configuration of an image processing system including an image reproduction apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing system according to the present embodiment includes a mobile phone with cameras 1 and 2, an image server 3 for storing and managing image data S0 acquired by the mobile phones with camera 1 and 2, and an image data S0. The image data S0 and various kinds of information are exchanged with the laboratory 4 that prints the image via the mobile phone communication network 5.
[0026]
The camera-equipped mobile phone 1 includes a camera 11 that acquires image data S0 by photographing, a communication unit 12 that transmits and receives the image data S0 and various information, and image data that has been processed by performing image processing on the image data S0. An image processing means 13 for obtaining S1, a liquid crystal monitor 14 for performing various displays such as images and telephone numbers, a controller 15 for controlling the operation of the camera-equipped mobile phone 1, and the use of image data S0 and / or as will be described later. Based on the image quality, the image processing location determining means 16 for determining the location where image processing is performed on the image data S0 and generating the location information B0, the shooting operation by the camera 11, the transmission instruction of the image data S0, the image data Designation of use of S0 and / or image quality, transmission destination of image data S0 or processed image data S1, and whether to perform print output Input means 17 comprising a plurality of buttons for inputting various information such as designation of whether or not to store in the image server 3, instructions for performing image processing on the image data S0, and positioning information from GPS satellites That is, the GPS means 18 that acquires the latitude and longitude information of the place where the camera-equipped mobile phone 1 exists as the GPS information G0, and the storage means 71 that stores the database DB1 that stores the latitude, longitude, and location information in association with each other. And a shooting location information acquisition means 19 for acquiring location information corresponding to the GPS information G0 as shooting location information P0 representing the shooting location of the image data S0 with reference to the database DB1 based on the GPS information G0. The shooting location information acquisition unit 19 also acquires shooting date / time information T0 indicating the shooting date / time based on a timer (not shown).
[0027]
The camera-equipped mobile phone 2 includes a camera 21 that acquires image data S0 by photographing, a communication unit 22 that transmits and receives the image data S0 and various information, and image data that has been processed by performing image processing on the image data S0. The image processing means 23 for obtaining S2, the liquid crystal monitor 24 for performing various displays such as images and telephone numbers, the controller 25 for controlling the operation of the camera-equipped mobile phone 2, the use of the image data S0 and / or as described later Based on the image quality, the image processing location determining means 26 for determining the location where image processing is performed on the image data S0 and generating the location information B0, the shooting operation by the camera 21, the transmission instruction of the image data S0, the image data Designation of use of S0 and / or image quality, transmission destination of image data S0 or processed image data S2, and whether to perform print output Input means 27 including a plurality of buttons for inputting various information such as designation of whether or not to store in the image server 3, instructions for performing image processing on the image data S0, and positioning information from a GPS satellite That is, the GPS means 28 that acquires the latitude and longitude information of the place where the mobile phone 2 with the camera exists as GPS information G0, and the storage means 72 that stores the database DB2 that stores the latitude and longitude and the place information in association with each other. And a shooting location information acquisition means 29 for acquiring location information corresponding to the GPS information G0 as shooting location information P0 representing the shooting location of the image data S0 with reference to the database DB2 based on the GPS information G0. The shooting location information acquisition unit 19 also acquires shooting date / time information T0 indicating the shooting date / time based on a timer (not shown).
[0028]
In the present embodiment, the camera-equipped mobile phone 1 obtains the image data S0, determines the image processing location where the image data S0 is subjected to image processing, and the camera-equipped mobile phone 2 receives the image data S0 or the processed image data. It is assumed that it is designated as one of the transmission destinations of S1.
[0029]
The image processing unit 13 performs image processing such as density correction processing, white balance adjustment processing, gradation correction processing, color correction processing, and sharpness processing on the image data S0 to obtain processed image data S1. Also, shooting location information P0 and shooting date / time information T0, which will be described later, are added to the image data S0 or the processed image data S1. Note that the image processing means 13 cannot perform advanced image processing as much as the image processing means of the image server 3 and the laboratory 4 described later. Accordingly, the obtained processed image data S1 has no problem in displaying on a relatively small monitor such as the liquid crystal monitor 14, but is printed out or displayed on a large monitor such as a personal computer monitor. Is not suitable.
[0030]
The image processing location determination means 16 determines the location where image processing is performed on the image data S0 based on the use and / or image quality of the image data S0 input by the user of the camera-equipped mobile phone 1 from the input means 17. The location information B0 representing the location where image processing is performed is generated. For example, when it is input that the use of the image data S0 is to be displayed on a monitor of a mobile phone and / or when low-quality image is input, the image data S0 does not require so high image quality. The image processing place determination means 16 determines the image processing place in the camera-equipped mobile phone 1 and generates the place information B0. When transmitting the image data S0 to the camera-equipped mobile phone 2, the location information B0 may be generated by determining the image processing location as the camera-equipped mobile phone 2. In this case, the image processing location may be determined based on the transmission destination information of the image data S0 input from the input unit 17.
[0031]
The application and / or image quality may be input directly from the input means 17, but various applications and / or image quality are displayed on the liquid crystal monitor 14 so that the user can select the desired application and / or image quality. It may be.
[0032]
When the use of the image data S0 is storage in the image server 3, since the image data S0 is downloaded to a terminal device such as a personal computer and displayed on the monitor, it is printed out as the image data S0. Moderate image quality is required, though not so much. Therefore, when the use of the image data S0 is to be stored in the image server 3 and / or when the medium image quality is inputted, the image processing location determination means 16 has a medium value for the image data S0. Since image quality is required, the image processing location is determined by the image server 3 to generate location information B0.
[0033]
Further, when the use of the image data S0 is print output, the image data S0 is required to have high image quality. Further, when it is desired to make the image data S0 have high image quality, print output is often desired. Therefore, when the use of the image data S0 is print output and / or when high-quality is input, the image processing location determination means 16 requires high image quality for the image data S0. The image processing place is determined by the laboratory 4 and the place information B0 is generated.
[0034]
The communication unit 12 converts the image data S0 or the processed image data S1 into the destination information (for example, the lab 4, the mobile phone with camera 2, the camera, and the destination information B0 and the destination of the image data S0 or the processed image data S1). And the user's friend's e-mail address of the attached mobile phone 1) to the image server 3 via the mobile phone communication network 5. Note that when the use of the image data S0 is print output, receiving destination information indicating the receiving destination of the print (if it is sufficient to identify the other party, for example, a mobile phone number or the like may be transmitted).
[0035]
Here, the unprocessed image data S0 is transmitted when the image processing location is determined by the image server 3, the laboratory 4, and the camera-equipped mobile phone 2. On the other hand, when the image processing location is determined to be the camera-equipped mobile phone 1, the image processing unit 13 performs image processing on the image data S 0 to obtain processed image data S 1, which is the location information B 0 ( In this case, the camera-equipped mobile phone 1 is transmitted to the image server 3.
[0036]
The GPS means 18 receives positioning radio waves from GPS satellites, and acquires positioning information (latitude and longitude information) of the location where the mobile phone with camera 1 exists, that is, the shooting location, as GPS information G0. The acquisition of the GPS information G0 is performed in conjunction with the photographing operation in the input unit 17.
[0037]
In the database DB1 stored in the storage unit 71, latitude and longitude information and location information are associated with each other. Here, as place information, a place name, a town name, a name of a sightseeing spot, a name of a theme park, or the like can be used.
[0038]
The shooting location information acquisition means 19 refers to the database DB1 and acquires location information corresponding to the latitude and longitude represented by the GPS information G0 based on the GPS information G0 as shooting location information P0 obtained by shooting the image data S0. . At the same time, the shooting date / time information T0 is also acquired.
[0039]
The shooting location information P0 is given to the image data S0 or the processed image data S1 together with the shooting date / time information T0 by the image processing means 13. Here, the shooting location information P0 and the shooting date / time information T0 are included in the image represented by the image data S0 or the processed image data S1, or are described as tag information of the image data S0 or the processed image data S1. Thus, it is given to the image data S0 or the processed image data S1.
[0040]
Here, the communication means 22, the image processing means 23, the image processing place determination means 26, the GPS means 28, the shooting place information acquisition means 29 and the storage means 72 of the camera-equipped mobile phone 2 are the communication means 12, the image processing means 13, The image processing place determining means 16, the GPS means 18, the shooting place information acquiring means 19 and the storage means 71 have the same functions.
[0041]
The image server 3 includes a communication unit 31 that transmits and receives various information such as the image data S0, an image processing unit 32 that performs image processing on the image data S0 to obtain processed image data S3, and the camera-equipped mobile phone 1 In the storage unit 33 for storing the image data S0 or the processed image data S1 transmitted from the URL, the URL generation unit 34 for generating a URL representing the storage location of the image data S0 or the processed image data S1, and the URL generation unit 34 A mail creation unit 35 for creating an electronic mail to which the generated URL is assigned, and a controller 36 for controlling the operation of the image server 3 are provided.
[0042]
When the image data S0 is transmitted from the camera-equipped mobile phone 1 and the image processing location based on the location information B0 is the image server 3, the image processing means 32 performs density correction processing and white balance adjustment on the image data S0. Processed image data S3 is obtained by performing image processing such as processing, gradation correction processing, color correction processing, and sharpness processing. When the shooting location information P0 and the shooting date / time information T0 are described in the tag information of the image data S0, the shooting location information P0 and the shooting date / time information T0 are included in the processed image represented by the processed image data S3. Included in Note that the image processing performed in the image processing means 32 is image processing for making the image quality suitable for displaying the processed image data S3 on the monitor.
[0043]
The storage unit 33 stores the processed image data S1 when the processed image data S1 is transmitted from the camera-equipped mobile phone 1. When the unprocessed image data S0 is transmitted and the image processing location based on the location information B0 is the image server 3, the processed image data S3 obtained by the image processing means 32 is stored. Furthermore, when the unprocessed image data S0 is transmitted, if the image processing location based on the location information B0 is the mobile phone with camera 2 or the laboratory 4, the unprocessed image data S0 is stored.
[0044]
The URL generation unit 34 generates a URL representing the storage location of the image data S0, the processed image data S1, or the processed image data S3.
[0045]
The mail creating means 35 creates an e-mail with the URL generated by the URL generating means 34 based on the destination information transmitted together with the image data S0 or the processed image data S1. The created e-mail is transmitted by the communication means 31 to the transmission destination based on the transmission destination information via the mobile phone communication network 5.
[0046]
The lab 4 includes a communication unit 41 that transmits and receives various information such as the image data S0, an image processing unit 42 that performs image processing on the image data S0 to obtain processed image data S4, and processed image data S4. A printer 43 that prints out and creates a print P, a notification means 44 that notifies the camera-equipped mobile phone 1 when the print P is created, and a controller 45 that controls the operation of the laboratory 4 are provided.
[0047]
When the lab 4 receives the e-mail transmitted from the image server 3, the communication unit 41 downloads the image data S 0 from the storage unit 33 of the image server 3 with reference to the URL given to the e-mail. At the same time as downloading the image data S0, the recipient information indicating the recipient of the print P is also downloaded.
[0048]
The image processing unit 42 performs image processing such as density correction processing, white balance adjustment processing, gradation correction processing, color correction processing, and sharpness processing on the image data S0 downloaded from the storage unit 33 of the image server 3. Processed image data S4 is obtained. When the shooting location information P0 and the shooting date / time information T0 are described in the tag information of the image data S0, the shooting location information P0 and the shooting date / time information T0 are included in the processed image represented by the processed image data S4. Included in In this case, the shooting location information P0 and the shooting date / time information T0 may be printed on the back or edge of the print P as described later. Here, when an e-mail is transmitted to the lab 4, it is clear that the lab 4 performs image processing on the image data S0, but the image processing location is the lab 4 with reference to the location information B0. It is preferable to confirm. Note that the image processing performed in the image processing means 42 is image processing for making the image quality suitable for printing out the processed image data S4.
[0049]
When the print output of the processed image data S4 is completed, the notification unit 44 notifies the reception destination based on the reception destination information that the print output has been completed. The notification may be an e-mail or an automatic telephone call. Note that the operator of the lab 4 may make a notification by calling the recipient or sending an e-mail manually.
[0050]
When an e-mail is transmitted from the image server 3 to the camera-equipped mobile phone 2, the user of the camera-equipped mobile phone 2 accesses the storage unit 33 of the image server 3 by referring to the URL to obtain the image data S 0. Alternatively, the processed image data S1 is downloaded. When the processed image data S1 is downloaded, the processed image data S1 is displayed on the liquid crystal monitor 24 as it is. On the other hand, when the image data S0 is downloaded, the image processing unit 23 performs image processing on the image data S0 to obtain processed image data S2, which is displayed on the liquid crystal monitor 24.
[0051]
When an e-mail with a URL indicating the storage location of the unprocessed image data S0 is transmitted to the camera-equipped mobile phone 2, the camera-equipped mobile phone 2 performs image processing on the image data S0. Obviously, it is preferable to confirm that the image processing place is the camera-equipped mobile phone 2 with reference to the place information B0.
[0052]
Here, processing performed in the image processing means will be described. FIG. 2 is a schematic block diagram showing processing performed in the image processing means 13 of the camera-equipped mobile phone 1. As shown in FIG. 2, in the image processing means 13, since the image data S0 is compressed in the JPEG format or the like, the image data S0 is first decompressed and then the image data S0 is reduced. Then, based on the reduced image data S0 and the shooting conditions at the time of shooting given to the tag information of the image data S0, an image processing condition J for performing image processing on the image data S0 is calculated.
[0053]
Based on the calculated image processing condition J, density correction processing, white balance adjustment processing, gradation correction processing, color correction processing, and sharpness processing are performed, and processed image data S1 is obtained. Further, the shooting location information P0 and the shooting date / time information T0 are given to the processed image data S1. Although not based on the image processing condition J, enlargement processing for adjusting the size of the image represented by the image data S0 to the output size (print size, monitor size, etc.) is performed before the sharpness processing. Here, the enlargement process includes an enlargement process with a magnification of less than 1.
[0054]
Here, density correction processing and white balance adjustment processing correct exposure errors and white balance errors during shooting, and tone correction processing absorbs differences in contrast between scenes and prints during shooting, and color correction processing. Corrects the hue, saturation, and brightness of each color of RGB, and the sharpness processing corrects the sharpness of the image.
[0055]
When image processing is not performed on the image data S0, shooting location information P0 and shooting date / time information T0 are assigned to the image data S0.
[0056]
FIG. 3 is a diagram showing a state in which the image data S0 or the processed image data S1 to which the shooting location information P0 and the shooting date / time information T0 are given is displayed on the liquid crystal monitor 14 of the camera-equipped mobile phone 1. Here, an image when the shooting location information P0 and the shooting date / time information T0 are included in the image data S0 or the processed image data S1 is shown. As shown in FIG. 3, “Yokohama 4/10/02 10:00” representing the shooting location and the shooting date and time is included at the bottom of the image displayed on the liquid crystal monitor 14. Note that the shooting location and the shooting date and time may be displayed adjacent to the image.
[0057]
FIG. 4 is a diagram showing a print P obtained by printing out image data S0 or processed image data S1 to which shooting location information P0 and shooting date / time information T0 are assigned. As shown in FIG. 4A, the print P includes “Yokohama 4/10/02 10:00” representing the shooting location and the shooting date and time in the image. When the shooting location information P0 and the shooting date / time information T0 are described in the tag information of the image data S0, the shooting location and the shooting date / time are printed on the back side of the print P as shown in FIG. Alternatively, as shown in FIG. 4C, in the case of a bordered print, the shooting location and the shooting date and time may be printed on the edge of the print.
[0058]
Note that image processing is similarly performed in the image processing means 23 of the camera-equipped mobile phone 2, the image processing means 32 of the image server 3, and the image processing means 42 of the laboratory 4.
[0059]
Here, in the camera-equipped mobile phones 1 and 2 and the image server 3, there is a limitation on the transmission capacity and the display color of the display medium. Therefore, after the sharpness process in FIG. Color reduction processing for reducing the number of colors is performed to obtain processed image data S1, S2, corrected image data S1 ′, or processed image data S3. Since the color gamut of the liquid crystal monitors 14 and 24 of the camera-equipped mobile phones 1 and 2 is narrower than the color gamut of a monitor such as a personal computer, color reduction processing is performed so as to effectively use the narrow color gamut. .
[0060]
Further, in the image processing means 13 and 23 of the camera-equipped mobile phones 1 and 2, the image data S <b> 0 is imaged by a simple calculation as compared with the image processing means 32 of the image server 3 or the image processing means 42 of the laboratory 4. Processing is performed. Further, the color correction process and the sharpness process may be omitted.
[0061]
On the other hand, the image processing means 42 of the laboratory 4 further performs a print output process for converting the image data after the sharpness processing into a device signal of the printer 43 as shown by the broken line after the sharpness processing in FIG. Completed image data S4 is obtained.
[0062]
Next, the operation of this embodiment will be described. FIG. 5 is a flowchart showing processing performed in the camera-equipped mobile phone 1. First, photographing is performed by the camera 11, and image data S0 is acquired (step S1). On the other hand, the input means 17 accepts the input of the use and / or image quality of the image data S0 by the user of the camera-equipped mobile phone 1 (step S2), and determines the image processing location based on the input use and / or image quality. The image processing location where image processing is performed on the image data S0 in the means 16 is determined, and location information B0 is generated (step S3).
[0063]
Then, the controller 15 refers to the location information B0 to determine whether the image processing location is the camera-equipped mobile phone 1 (step S4). If step S4 is affirmed, the image processing unit 13 performs image processing on the image data S0 to obtain processed image data S1 (step S5), and the process proceeds to step S8. Even when step S4 is negative, the process proceeds to step S8.
[0064]
On the other hand, GPS information G0 is acquired by the GPS means 18 (step S6), the database DB1 stored in the storage means 71 is referred to, and shooting location information P0 is acquired based on the GPS information G0 (step S7). ). The shooting location information P0 is given to the image data S0 or the processed image data S1 together with the shooting date / time information T0 (step S8). When the image data S0 or the processed image data S1 is displayed on the liquid crystal monitor 14 in this state, the displayed image includes the shooting location and the shooting date and time as shown in FIG.
[0065]
Next, in step S9, monitoring is started as to whether or not a transmission instruction has been issued by the user. If step S9 is affirmed, the image data S0 or the processed image data S1 is the location information B0, transmission destination information, and print output. Is sent to the image server 3 together with the recipient information of the print P (step S10), and the process is terminated.
[0066]
FIG. 6 is a flowchart showing processing performed in the image server 3. First, the image data S0 or the processed image data S1 transmitted from the camera-equipped mobile phone 1 is received (step S11), and the image data is based on the location information B0 given to the image data S0 or the processed image data S1. The image processing location for S0 is determined (step S12).
[0067]
If it is determined that the image processing place is the camera-equipped mobile phone 1, since the processed image data S1 has been transmitted, the processed image data S1 is stored in the storage means 33 (step S13). When it is determined that the image processing place is the camera-equipped mobile phone 2 or the laboratory 4, the unprocessed image data S0 is stored in the storage unit 33 (step S14). When it is determined that the image processing place is the image server 3, the image processing unit 32 performs image processing on the image data S0 to obtain processed image data S3 (step S15). Data S3 is stored in the storage means 33 (step S16).
[0068]
When the image data S0 or the processed image data S1 and S3 are stored, the URL generating unit 34 generates a URL representing the storage location of the image data S0 or the processed image data S1 and S3 (step S17). Then, an e-mail with a URL is created by the mail creating means 35 (step S18), and the e-mail is sent to the destination corresponding to the destination information sent together with the image data S0 or the processed image data S1 ( Step S19), the process is terminated.
[0069]
When the destination of the e-mail is the camera-equipped mobile phone 2, it is determined in the e-mail whether the URL given to the e-mail is for the image data S0 or the processed image data S1. Described.
[0070]
FIG. 7 is a flowchart showing processing performed in the laboratory 4. First, an e-mail transmitted from the image server 3 is received (step S21). Next, the communication means 41 accesses the URL given to the e-mail (step S22), and the image data S0 is downloaded (step S23). Then, the image processing unit 42 performs image processing on the image data S0 to obtain processed image data S4 (step S24). The processed image data S4 is printed out by the printer 43 to obtain a print P (step S25). When the print output is completed, the notification means 44 notifies the recipient of the print P that the print output has been completed (step S26), and the process ends.
[0071]
As shown in FIGS. 4A to 4C, the print location and the shooting date and time are given to or printed on the back surface or the edge of the image.
[0072]
Note that the print P is sent to the lab 4 by the user of the receiving destination (for example, the camera-equipped mobile phone 1) who receives the notification, or is delivered from the lab 4 to the user.
[0073]
FIG. 8 is a flowchart showing processing performed in the camera-equipped mobile phone 2. First, an e-mail transmitted from the image server 3 is received (step S31). Next, the communication means 41 accesses the URL given to the e-mail (step S32), and the image data S0 or the processed image data S1 is downloaded (step S33).
[0074]
Then, based on the description of the e-mail, it is determined whether the downloaded image data is unprocessed image data S0 (step S34). If step S34 is affirmed, unprocessed image data S0 is downloaded. Therefore, the image processing means 23 performs image processing on the image data S0 to obtain processed image data S2 (step S35). The processed image data S2 is displayed on the liquid crystal monitor 24 (step S36), and the process ends.
[0075]
On the other hand, if step S34 is negative, since the processed image data S1 has been downloaded, the processed image data S1 is displayed on the liquid crystal monitor 24 (step S36), and the process ends.
[0076]
As shown in FIG. 3, the liquid crystal monitor 24 displays an image to which the shooting location and the shooting date and time are given.
[0077]
As described above, in the present embodiment, the shooting location information P0 and the shooting date / time information T0 representing the shooting location of the image data S0 are acquired, and the shooting location information P0 and the shooting date / time information T0 are attached to the image and reproduced. Therefore, by referring to the reproduced image, it is possible to immediately recognize the shooting location and shooting date / time of the image data.
[0078]
Further, if the GPS information G0 is acquired and the location information corresponding to the GPS information G0 is acquired with reference to the database DB1 in which the GPS information G0 and the location information are associated with each other, the shooting location information P0 can be easily acquired. can do.
[0079]
In the above embodiment, the shooting location information P0 is obtained with reference to the databases DB1 and DB2 in which the GPS information G0 and the location information are associated with each other. However, the shooting location information P0 is displayed as map information based on an electronic map. If it is added to the data S0 or the processed image data S1, when the image data S0 or the processed image data is reproduced, a map of the shooting location can be reproduced together with the image as shown in FIG. In FIG. 9, the shooting location is indicated by a mark on the map. Thus, the shooting location can be more easily recognized by using the shooting location information P0 as map information of the shooting location.
[0080]
In the above embodiment, the camera-equipped mobile phone 1 acquires only the GPS information G0, describes this in the tag information of the image data S0 or the processed image data S1, and transmits it to the image server 3. The shooting location information P0 may be added to the image data S0 or the processed image data S1 based on the GPS information G0. In this case, the camera-equipped mobile phones 1 and 2 may omit the shooting location information acquisition means 19 and 29 and the storage means 71 and 72 as shown in FIG. On the other hand, the image server 3 stores the database DB1 in the storage unit 33, and further refers to the database DB1 based on the GPS information G0 described in the tag information of the image data S0 or the processed image data S1, and the shooting location information P0. What is necessary is just to provide the imaging | photography location information acquisition means 37 which acquires.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram illustrating a configuration of an image processing system including an image reproduction device according to an embodiment of the present invention. FIG. 2 is a schematic block diagram illustrating processing performed in an image processing unit. FIG. 4 is a diagram showing a state in which image data with shooting date / time information is reproduced on a mobile phone with camera. FIG. 4 is a diagram showing a print of image data with shooting location information and shooting date / time information. FIG. 6 is a flowchart showing processing performed in the image server. FIG. 7 is a flowchart showing processing performed in the laboratory. FIG. 8 is a flowchart showing processing performed in the camera-equipped mobile phone 2. FIG. 9 is a diagram showing a state in which an image is displayed when shooting location information is map information. Schematic block diagram showing a configuration of an image processing system including an image reproducing apparatus according to an embodiment EXPLANATION OF REFERENCE NUMERALS
1, 2 Mobile phone with camera 3 Image server 4 Lab 5 Mobile phone communication network 11, 21 Camera 12, 22, 31, 41 Communication means 13, 23, 32, 42 Image processing means 14, 24 Liquid crystal monitor 15, 25, 36 , 45 Controller 16, 26 Image processing place determination means 17, 27 Input means 18, 28 GPS means 19, 29, 37 Shooting place information acquisition means 33 Storage means 34 URL generation means 35 Mail creation means 43 Printer 44 Notification means

Claims (12)

画像データを再生する画像再生方法において、
前記画像データの撮影場所を表す撮影場所情報を取得し、
該撮影場所情報を前記画像データに付与して再生することを特徴とする画像再生方法。
In an image reproduction method for reproducing image data,
Obtaining shooting location information representing the shooting location of the image data;
An image reproduction method, wherein the image location information is added to the image data for reproduction.
前記画像データがGPS情報が付与されてなるものであり、GPS情報と場所情報とを対応付けたデータベースを参照して、前記画像データに付与されたGPS情報に対応する対応場所情報を前記撮影場所情報として取得することを特徴とする請求項1記載の画像再生方法。The image data is provided with GPS information, and the corresponding location information corresponding to the GPS information assigned to the image data is obtained by referring to a database in which GPS information and location information are associated with each other. The image reproduction method according to claim 1, wherein the image reproduction method is acquired as information. 前記撮影場所情報は、前記撮影場所の地図を表す地図情報であることを特徴とする請求項1または2記載の画像再生方法。3. The image reproduction method according to claim 1, wherein the shooting location information is map information representing a map of the shooting location. 前記画像データの撮影日時を表す撮影日時情報をさらに取得し、
該撮影日時情報を前記画像データにさらに付与して再生することを特徴とする請求項1から3のいずれか1項記載の画像再生方法。
Further acquiring shooting date and time information representing the shooting date and time of the image data,
4. The image reproduction method according to claim 1, wherein the photographing date / time information is further added to the image data for reproduction.
画像データを再生する再生手段を備えた画像再生装置において、
前記画像データの撮影場所を表す撮影場所情報を取得する撮影場所情報取得手段をさらに備え、
前記再生手段は、前記撮影場所情報を前記画像データに付与して再生する手段であることを特徴とする画像再生装置。
In an image reproduction apparatus provided with reproduction means for reproducing image data,
Further comprising a shooting location information acquisition means for acquiring shooting location information representing a shooting location of the image data,
The image reproduction apparatus according to claim 1, wherein the reproduction means is means for reproducing the image data by adding the shooting location information.
前記画像データがGPS情報が付与されてなるものである場合において、
GPS情報と場所情報とを対応付けたデータベースを保管した保管手段をさらに備え、
前記撮影場所情報取得手段は、前記データベースを参照して、前記画像データに付与されたGPS情報に対応する対応場所情報を前記撮影場所情報として取得する手段であることを特徴とする請求項5記載の画像再生装置。
In the case where the image data is provided with GPS information,
A storage means for storing a database in which GPS information and location information are associated with each other;
6. The photographing location information acquiring means is means for acquiring, as the photographing location information, corresponding location information corresponding to GPS information given to the image data with reference to the database. Image playback device.
前記撮影場所情報は、前記撮影場所の地図を表す地図情報であることを特徴とする請求項5または6記載の画像再生装置。The image reproducing device according to claim 5 or 6, wherein the shooting location information is map information representing a map of the shooting location. 前記撮影場所情報取得手段は、前記画像データの撮影日時を表す撮影日時情報をさらに取得する手段であり、
前記再生手段は、前記撮影日時情報を前記画像データにさらに付与して再生する手段であることを特徴とする請求項5から7のいずれか1項記載の画像再生装置。
The shooting location information acquisition means is means for further acquiring shooting date / time information representing the shooting date / time of the image data,
The image reproducing apparatus according to claim 5, wherein the reproducing unit is a unit that further adds the shooting date / time information to the image data and reproduces the image data.
画像データを再生する画像再生方法をコンピュータに実行させるためのプログラムにおいて、
前記画像データの撮影場所を表す撮影場所情報を取得する手順と、
該撮影場所情報を前記画像データに付与して再生する手順とを有するプログラム。
In a program for causing a computer to execute an image reproduction method for reproducing image data,
A procedure for acquiring shooting location information representing a shooting location of the image data;
A program for reproducing the image data by adding the shooting location information to the image data.
前記画像データがGPS情報が付与されてなるものであり、
前記撮影場所情報を取得する手順は、GPS情報と場所情報とを対応付けたデータベースを参照して、前記画像データに付与されたGPS情報に対応する対応場所情報を前記撮影場所情報として取得する手順である請求項9記載のプログラム。
The image data is provided with GPS information,
The procedure of acquiring the shooting location information refers to a procedure of referring to a database in which GPS information and location information are associated with each other and acquiring corresponding location information corresponding to the GPS information assigned to the image data as the shooting location information. The program according to claim 9.
前記撮影場所情報は、前記撮影場所の地図を表す地図情報である請求項9または10記載のプログラム。The program according to claim 9 or 10, wherein the shooting location information is map information representing a map of the shooting location. 前記画像データの撮影日時を表す撮影日時情報を取得する手順をさらに有し、
前記撮影場所情報を取得する手順は、前記撮影日時情報を前記画像データにさらに付与して再生する手順である請求項9から11のいずれか1項記載のプログラム。
The method further includes a step of obtaining shooting date / time information representing the shooting date / time of the image data,
The program according to any one of claims 9 to 11, wherein the procedure of acquiring the shooting location information is a procedure of further adding the shooting date / time information to the image data and reproducing the image data.
JP2002185872A 2002-06-26 2002-06-26 Method, apparatus and program for reproducing image Pending JP2004032373A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002185872A JP2004032373A (en) 2002-06-26 2002-06-26 Method, apparatus and program for reproducing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002185872A JP2004032373A (en) 2002-06-26 2002-06-26 Method, apparatus and program for reproducing image

Publications (1)

Publication Number Publication Date
JP2004032373A true JP2004032373A (en) 2004-01-29

Family

ID=31181381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002185872A Pending JP2004032373A (en) 2002-06-26 2002-06-26 Method, apparatus and program for reproducing image

Country Status (1)

Country Link
JP (1) JP2004032373A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022429A1 (en) * 2004-08-27 2006-03-02 Canon Kabushiki Kaisha Portable communication apparatus, print system, and control method thereof
JP2007046918A (en) * 2005-08-05 2007-02-22 Toshiba Corp River information management system
JP2007300468A (en) * 2006-05-01 2007-11-15 Make Softwear:Kk Photograph seal producing device, method for controlling the same, and program for controlling the device
JP2007325238A (en) * 2006-05-01 2007-12-13 Make Softwear:Kk Photography seal formation device, control method of photography seal formation device, and control program of photography seal formation device
JP2008283348A (en) * 2007-05-09 2008-11-20 Nikon Corp Electronic apparatus
KR100982192B1 (en) 2008-12-09 2010-09-14 한국과학기술연구원 A Method for Geo-tagging of Pictures and Apparatus thereof
US9094653B2 (en) 2006-10-04 2015-07-28 Nikon Corporation Electronic device that displays a photographing location on a map

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022429A1 (en) * 2004-08-27 2006-03-02 Canon Kabushiki Kaisha Portable communication apparatus, print system, and control method thereof
US8179546B2 (en) 2004-08-27 2012-05-15 Canon Kabushiki Kaisha Printing using a portable communication apparatus
JP2007046918A (en) * 2005-08-05 2007-02-22 Toshiba Corp River information management system
JP2007300468A (en) * 2006-05-01 2007-11-15 Make Softwear:Kk Photograph seal producing device, method for controlling the same, and program for controlling the device
JP2007325238A (en) * 2006-05-01 2007-12-13 Make Softwear:Kk Photography seal formation device, control method of photography seal formation device, and control program of photography seal formation device
JP4644630B2 (en) * 2006-05-01 2011-03-02 株式会社メイクソフトウェア Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program
US9094653B2 (en) 2006-10-04 2015-07-28 Nikon Corporation Electronic device that displays a photographing location on a map
US9740090B2 (en) 2006-10-04 2017-08-22 Nikon Corporation Electronic device
US10545400B2 (en) 2006-10-04 2020-01-28 Nikon Corporation Non-transitory computer readable medium that causes an electronic device to transmit based on recipient information
JP2008283348A (en) * 2007-05-09 2008-11-20 Nikon Corp Electronic apparatus
KR100982192B1 (en) 2008-12-09 2010-09-14 한국과학기술연구원 A Method for Geo-tagging of Pictures and Apparatus thereof
US8320706B2 (en) 2008-12-09 2012-11-27 Korea Institute Of Science And Technology Method for geotagging of pictures and apparatus thereof

Similar Documents

Publication Publication Date Title
JP4032210B2 (en) Mobile device, image transmission system, and image transmission method
JP3920184B2 (en) Image correction processing apparatus and program
JP2004135230A (en) Panorama compositing of two or more image data
US7525578B1 (en) Dual-location tagging of digital image files
JPH1188672A (en) Image-processing method, its device, image reproduction method and its device and image-confirming device used for the method
US7199815B2 (en) Method and apparatus for processing image, method and apparatus for transmitting data and program therefor
US20040002302A1 (en) Image data transmission method, portable terminal apparatus, image processing method, image processing apparatus, and computer program therefor
JP2004032373A (en) Method, apparatus and program for reproducing image
JP2004032372A (en) Image data processing method, portable terminal device and program
JP4076800B2 (en) Image data transmission method, portable terminal device, and program
JP2009260814A (en) Image capturing apparatus
JP2003284019A (en) Method and apparatus for image transmission, and program
JP2005039702A (en) Information terminal, data transmission method, and data transmission program
JP2004140799A (en) Method, apparatus, and program for controlling image pickup device
JP2004032371A (en) Method, apparatus and program for processing image
JP4353467B2 (en) Image server and control method thereof
JP3967162B2 (en) Image processing method, apparatus, and program
JP2004030250A (en) Image data transmitting method and portable terminal device and program
JP2004015247A (en) Server apparatus, imaging apparatus, imaging system, imaging method, and imaging apparatus control program
JP3957156B2 (en) Image correction method, apparatus, and program
JP2007019921A (en) Image correcting device, image processing method and image processing program
JP2004120397A (en) Method, device, and program for outputting image
JP2003250073A (en) Electronic camera and mobile terminal
JP2007072648A (en) Print order system, photographing device and order reception server
JP2006525746A (en) Image quality improving method and apparatus for improving images based on stored preferences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060725