JP5562136B2 - 撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム - Google Patents

撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム Download PDF

Info

Publication number
JP5562136B2
JP5562136B2 JP2010140528A JP2010140528A JP5562136B2 JP 5562136 B2 JP5562136 B2 JP 5562136B2 JP 2010140528 A JP2010140528 A JP 2010140528A JP 2010140528 A JP2010140528 A JP 2010140528A JP 5562136 B2 JP5562136 B2 JP 5562136B2
Authority
JP
Japan
Prior art keywords
image file
time
comparison
image
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010140528A
Other languages
English (en)
Other versions
JP2012005028A (ja
JP2012005028A5 (ja
Inventor
千明 三河
可奈子 山河
拓馬 三河
洋子 広谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010140528A priority Critical patent/JP5562136B2/ja
Priority to US13/156,756 priority patent/US9258471B2/en
Publication of JP2012005028A publication Critical patent/JP2012005028A/ja
Publication of JP2012005028A5 publication Critical patent/JP2012005028A5/ja
Application granted granted Critical
Publication of JP5562136B2 publication Critical patent/JP5562136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • H04N21/2396Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests characterized by admission policies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラムに関し、特に、情報配信装置であるサーバ装置がカメラ等の撮像装置で撮影・処理された画像ファイルを受信して、他の機器にネットワークを介して配信する技術に関する。
一般に、画像処理装置として、例えば、撮影装置及びカメラ付携帯電話機(以下単に携帯電話機と呼ぶ)等が知られている。そして、撮影装置又は携帯電話機で撮影した画像をサーバ装置に送り、サーバ装置が受信した画像をWEBページに掲載して他の機器に配信することが行われている。
また、サーバ装置は、画像ととともに当該画像に付加された撮影位置(GPS情報等)や撮影日時を示す撮影情報をWEBページに掲載して他の機器に配信することも行われている(特許文献1参照)。
特開2005−339214号公報
ところで、上述のように、サーバ装置が画像とともに撮影時間及び撮影場所を掲載したWEBページを他の機器に配信すると、他の機器を使用するユーザに撮影者の現在の居場所が知られてしまうことがある。そして、撮影者の現在の居場所が不特定多数の人に知られると不都合なことがある。
そこで、本発明の目的は、画像を他の機器に配信する際、他の機器を使用するユーザが画像の撮影情報によって撮影者の現在位置を知るのを防ぐことのできる撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラムを提供することにある。
上記の目的を達成するため、本発明の1つは、撮影により得られた画像ファイルを外部装置に送信可能な撮像装置において、前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出手段と、前記算出手段により算出された距離と所定値とを比較する比較手段と、前記比較手段による比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記外部装置に送信し、前記距離が前記所定値より大きくない場合に、前記画像ファイルを前記外部装置に送信しないよう制御する送信制御手段とを有することを特徴とする。
本発明によれば、撮影者の撮影場所からの移動距離または撮影日時からの経過時間に応じて、画像の撮影場所を示す撮影場所情報の配信制御を行うので、現在、撮影者が撮影場所にいることを他のユーザに知られることを防止できるという効果がある。
本発明の実施の形態による撮像装置の一つであるデジタルカメラの構成を示すブロック図である。 本発明の実施の形態による情報配信装置の一つであるWEBサーバ装置の構成を示すブロック図である。 図1に示すデジタルカメラ(撮影装置)及び図2に示すWEBサーバ装置を有する画像処理システムの一例を示す図である。 図1に示すデジタルカメラが画像ファイルを図2に示すWEBサーバ装置にアップロードする際の動作を説明するためのフローチャートである。 図4で説明した下限値の設定の際に図1に示す表示装置に表示される下限値設定画面を示す図である。 図5で説明した下限値設定画面に応じて設定されたアップロード先毎の下限値の一例を示す図である。 図1に示すデジタルカメラが画像ファイルを複数のアップロード先にアップロードする際の動作を説明するためのフローチャートである。 図1に示すデジタルカメラに設定される時間帯毎の下限値の一例を示す図である。 図3に示すWEBサーバ装置がデジタルカメラから画像ファイルを受信して通信機器に当該画像ファイルを配信する際の動作を説明するためのフローチャートである。 図1に示すデジタルカメラの撮影位置及びGPS情報公開位置を地図上にプロットした例を示す図である。 図1に示すデジタルカメラにおいて撮影モードの際の動作の一例を説明するためのフローチャートである。 図4で説明した撮影場所情報公開判定処理を詳細に説明するためのフローチャートである。 図1に示すデジタルカメラにおいて撮影モードの際の動作の他の例を説明するためのフローチャートである。 図2に示すサーバ装置における画像配信処理を説明するためのフローチャートである。 図2に示すWEBサーバ装置における撮影場所情報公開処理を説明するためのフローチャートである。 図1に示すデジタルカメラが撮影した後、図2に示すWEBサーバ装置にアップロードする際の動作を説明するためのフローチャートである。 図16で説明した画像配信処理における画像アップロード処理の手順を説明するためのフローチャートである。 図16で説明した画像アップロード一覧表(画像配信一覧表)追加処理の手順を説明するためのフローチャートである。 図2に示すWEBサーバ装置が図1に示すデジタルカメラから画像ファイルを受信して、図3に示す通信機器に配信する際の動作を説明するためのフローチャートである。
以下、本発明の実施の形態による撮像装置及び情報配信装置の一例について図面を参照して説明する。
(第1の実施形態)
図1は本発明の実施の形態による撮像装置の一つであるデジタルカメラの構成を示すブロック図である。
図示のデジタルカメラは撮像装置の一つであり、ここでは、デジタルカメラは静止画像及び動画像のうち少なくとも一方を撮影して、記憶媒体に記録する。なお、図示の例では、デジタルカメラの撮影機能は一般的なものであるため説明は省略し、撮影後に記憶媒体に記憶された画像データを処理する機能について説明する。
<デジタルカメラの構成>
図1を参照して、デジタルカメラ100は、撮像部114を有しており、この撮像部114は、例えば、固体撮像素子(図示せず)によって光学像を光―電気変換して画像データを生成する。CPU101はデジタルカメラ100全体の制御を司る。
ROM102には、CPU101の動作処理手順(例えば、デジタルカメラ100の電源をオン(ON)した際の処理及び基本入出力処理等のプログラム)が記憶されている。RAM103は、CPU101のメインメモリとして機能する。RAM103には後述の処理を実現するための制御プログラムを含む各種プログラムがROM102等からロードされ、CPU101はRAM103にロードしたプログラムを実行する。また、RAM103はCPU101が各種処理を実行する際のワークエリアとして用いられる。
表示装置104は、例えば、LCD(液晶ディスプレイ)であり、表示装置104はCPU101の制御下で記憶媒体(図示せず)に記憶された画像及びテキスト等の各種情報を表示する。入力装置107は、ユーザが各種操作を行うために用いられ、例えば、各種ボタン等を備えている。
前述の記憶媒体は記憶媒体装着ユニット(メディアドライブ)108に着脱可能である。記録媒体に画像データ等の各種データを記憶する際には、メディアドライブ108に記憶媒体が装着される。また、記憶媒体に記憶された各種データを読み出す際にも、メディアドライブ108に記憶媒体が装着される。
図示のデジタルカメラ100はネットワークインターフェイス(I/F)109を有しており、このI/F109は通信回線111を介してコンピュータネットワーク(Network)112と接続される。そして、I/F109によってWEBサーバ装置又はパーソナルコンピュータ(図1にはともに示さず)と画像データ等の各種データが送受信される。
CPU101は、通信回線111を介してネットワーク112に接続する。そして、CPU101は外部サーバ(図示せず)からデジタルカメラ100が位置する場所を取得する。この外部サーバは衛星測位システム(以下、GPSという)を利用してデジタルカメラ100が位置する場所を算出する。
なお、デジタルカメラ100がGPSアンテナを備えて、GPS衛星からGPS信号を受信して、CPU101がGPS信号に応じてデジタルカメラ100が位置する場所を算出するようにしてもよい。
また、図示のように、CPU101、ROM102、RAM103、表示装置104、入力装置107、メディアドライブ108、I/F209、及び撮像部114は、システムバス(アドレスバス、データバス、及び制御バス)110により互いに接続されている。
<WEBサーバ装置の構成>
図2は本発明の実施の形態による情報配信装置の一つであるWEBサーバ装置の構成を示すブロック図である。
図示のWEBサーバ装置は、デジタルカメラ100からネットワーク112を介して画像データ等の各種データを受信して、当該画像データ等を含むWEBページをネットワーク112に接続された他の機器に配信する。このWEBサーバ装置も情報配信装置の一つである。
図2を参照して、WEBサーバ装置200は、デジタルカメラ100(図1)等の外部機器から画像データをネットワークを介して受信して記憶し、当該画像をWEBページに掲載して他の機器にネットワークを介して配信する。
WEBサーバ装置200は、CPU201を有しており、このCPU201はWEBサーバ装置200全体の制御を司る。ROM202にはCPU201の動作処理手順(例えば、コンピュータの立ち上げ処理及び基本入出力処理等のプログラム)が記憶されている。
RAM203は、CPU201のメインメモリとして機能する。RAM203には後述の処理を実現するための制御プログラムを含む各種プログラムがハードディスクドライブ205等からロードされる。そして、CPU201はRAM203にロードされたプログラムを実行する。また、RAM203は、CPU201が各種処理を実行する際のワークエリアとして用いられる。
ディスプレイ204はCPU201の制御下で各種表示を行う。WEBサーバ装置200はハードディスクドライブ(HDD)205及びDVDドライブ(DVDD)206を備えており、これらHDD205及びDVDD206の各々はアプリケーションプログラム、データ、及びライブラリ等の保存及び読み込みに用いられる。
なお、DVDD206の替わりに、又は追加してCD−ROM又はMO等の光(磁気)ディスクドライブ、テープストリーマ、DDS等の磁気テープドライブ等を設けるようにしてもよい。
入力装置207は、例えば、キーボード及びポインティングデバイス等である。ネットワークインターフェイス(I/F)209は通信回線211を介してコンピュータネットワーク(Network)112と接続される。そして、WEBサーバ装置200はI/F209によって、ネットワーク112に接続された機器と各種データを送受信する。
また、ネットワーク112に接続された機器の位置を示す位置情報を取得する際、CPU201は通信回線211を介してコンピュータネットワーク212と接続し、GPSを利用して機器の位置を算出する外部サーバと通信して当該機器の位置情報を取得する。又は、CPU201は通信回線211を介して当該機器から直接その位置する場所を示す位置情報を取得する。
なお、CPU201、ROM202、RAM203、ディスプレイ204、HDD205、DVDD206、入力装置207、及びI/F209はシステムバス(アドレスバス、データバス、及び制御バスからなる)210によって相互に接続されている。
<画像処理システムの構成>
図3は、図1に示すデジタルカメラ(撮影装置)100及び図2に示すWEBサーバ装置200を有する画像処理システムの一例を示す図である。
図3を参照すると、図示の画像処理システムでは、デジタルカメラ100及びWEBサーバ装置200がネットワーク112を介して相互に接続されている。また、図示の例では、通信機器(他の機器)300がネットワーク112に接続されている。ここでは、他の機器300は、例えば、パーソナルコンピュータ及び携帯電話機である。
図示の画像処理システムでは、デジタルカメラ100によって撮影した結果得られた画像データがネットワーク112を介してWEBサーバ装置200にアップロードされる。そして、WEBサーバ装置200は、受信した画像データをHDD205(図2)に画像ファイルとして記憶する。WEBサーバ装置200は他の機器300からの要求に応答して画像データを通信機器300に配信する情報配信装置である。
<静止画像ファイルの構成>
画像データが静止画像を表す場合、画像ファイルには、属性情報領域、縮小画像領域、及び原画像領域が含まれる。属性情報領域には属性情報が記録され、この属性情報には撮影情報及びフラグ情報がある。撮影情報には画像データサイズ、撮影日時、撮影場所、撮影機種、及びフラッシュオン/オフ等の情報が含まれている。また、フラグ情報には、アップロード済みフラグ及び配信済みフラグ等の情報が含まれている。
なお、アップロード済みフラグは、WEBサーバ装置200にアップロード済みか否かを示すフラグである。また、配信済みフラグはWEBサーバ装置200が当該画像データをWEBページに掲載して他の機器300へ配信済みか否かを示すフラグである。
縮小画像領域には、一覧画面に表示する縮小画像データが記録される。現画像領域には、静止画像データ本体が記録される。CPU101(図1)は画像データを生成した後、属性情報を付加して画像ファイルを生成する。そして、CPU101はメディアドライブ108を介して記憶媒体に画像ファイルを記憶する。この一連の処理を、以下「撮影」と呼ぶことにする。
ここで、画像ファイルの生成の際、CPU101は撮影場所を取得する。そして、CPU101は、撮影場所として緯度、経度、高度、及び測位時間等の位置情報を属性情報領域に記録する。また、画像ファイルの生成の際、CPU101は、アップロード済みフラグ及び配信済みフラグをFALSE(偽)として属性情報領域に記録する。
<静止画像ファイルのアップロード>
図4は、図1に示すデジタルカメラ100が画像ファイルを図2に示すWEBサーバ装置200にアップロードする際の動作を説明するためのフローチャートである。なお、図4に示す処理は、CPU101がRAM103に格納された制御プログラムを実行することにより行われる。
図1及び図4を参照して、ここでは、画像ファイルとして静止画像ファイルがデジタルカメラ100からWEBサーバ装置200にアップロードされる。画像ファイルアップロード処理が開始されると、CPU101は、撮影者が所定の操作を行ったか否かについて判定する(ステップS401)。ここで、所定の操作とは、例えば、電源ON又は電池の挿入等の操作である。所定の操作がないと判定すると(ステップS401において、NO)、CPU101は処理を終了する。
一方、所定の操作があったと判定すると(ステップS401において、YES)、CPU101は、デジタルカメラ100の現在の位置を示す位置情報を取得する(ステップS402)。
続いて、CPU101は、WEBサーバ装置200にアップロードする対象である画像ファイルを抽出する(ステップS403)。まず、CPU101は、記憶媒体に記憶されている画像ファイルの全てについて、属性情報領域のアップロード済みフラグを参照する。そして、CPU101は、アップロード済みフラグがFALSEである画像ファイルをアップロード対象であると判定して、当該画像ファイルを抽出する。
次に、CPU101は、内蔵するカウンタnに0を代入する(ステップS404)。このカウンタnはアップロード対象となる画像ファイルの各々について、後述するステップS406〜S409までの一連の処理をCPU101が実行する際に用いられるカウンタである。
続いて、CPU101は、カウンタnがアップロード対象である画像ファイルの数より少ないか否かについて判定する(ステップS405)。カウンタnがアップロード対象である画像ファイルの数以上であると(ステップS405において、NO)、CPU101はアップロード対象である画像ファイルの全てに対して一連の処理が完了したものと判断して、処理を終了する。
カウンタnがアップロード対象である画像ファイルの数より少ないと(ステップS405において、YES)、CPU101は、アップロード対象である画像ファイルの属性情報領域から撮影場所をRAM103へ読み込む(ステップS406)。
次に、CPU101は、前述の撮影場所から位置情報が示す現在位置までの移動距離が、RAM103に予め記憶された下限値より大きいか否かについて判定する(ステップS407)。ここで、下限値は予め撮影者が任意に設定し、デジタルカメラ100のRAM103に記憶する。なお、撮影者による設定に代えて、例えば、1000m等の固定値を下限値としてRAM103に記憶しておいてもよい。
移動距離が下限値よりも大きいと(ステップS407において、YES)、CPU101はI/F109を介してWEBサーバ装置200(図1)に当該画像ファイルを送信(アップロード)する(ステップS408)。そして、CPU101は当該画像ファイルに対応するアップロード済みフラグをTURE(真)に更新する(ステップS409)。その後、CPU101はカウンタnをインクリメント(n=n+1)として(ステップS410)、ステップS405に戻って処理を続行する。
一方、移動距離が下限値以下であると(ステップS407において、NO)、当該画像ファイルを送信することなく、CPU101はステップS410に進んで、カウンタnをインクリメントする。
上述のようにして、デジタルカメラ100からWEBサーバ装置200に画像ファイルがアップロードされると、WEBサーバ装置200は当該画像ファイルをWEBページに追加する。そして、他の機器(通信機器)300からのリクエストに応答して、WEBサーバ装置200はWEBページを通信機器300へ配信する。
図5は、図4で説明した下限値の設定の際に図1に示す表示装置104に表示される下限値設定画面を示す図である。
図5を参照して、デジタルカメラ100(図3)の背面には、表示装置104の画面が配置されるとともに、入力装置107(図1)の各種ボタンが配置されている。具体的には、入力装置107は、電源ボタン(ON/OFF)502、撮影ボタン503、再生ボタン504、設定ボタン505、及び十字キーボタンを有している。そして、十字キーボタンには、決定キー506及びスクロールキー(方向キー)507〜510を備えている。なお、ここでは、各ボタンの操作について説明を省略する。また、デジタルカメラ100の上面にはシャッタースイッチ500が配置されている。
図1及び図5を参照して、いま、撮影者が設定ボタン505を押下すると、CPU101は下限値設定画面501を表示装置104に表示する。この下限値設定画面501には、値変更ボタン515及び516が表示される。撮影者は値変更ボタン515又は516を操作して、下限値設定ボックス511の値(図示の例では、1000m)を所望の値に変更下限値とする。そして、撮影者が決定キー506を押下すると、CPU101は下限値設定画面501に表示された値を下限値としてRAM103に記憶する。
図示のように、下限値設定画面501にはアップロード先エディットボックス512が表示されており、このアップロード先エディットボックス512には画像ファイルのアップロード先が入力される。具体的には、文字入力エリア513において選択された文字列がアップロード先エディットボックス512に入力され、決定ボタン514を押すと、画像ファイルのアップロード先が設定される。
下限値設定画面501において変更された情報(下限値及びアップロード先)又は入力された情報は、CPU101によってRAM103に記憶される。そして、CPU101は必要に応じてこれらの情報を読み出して、各種処理に利用する。
なお、図示の例では、アップロード先毎に異なる下限値を設定することが可能である。また、アップロード先として既定値を予め設定し、RAM103に記憶していておくようにしてもよい。
上述の例では、画像ファイルをWEBサーバ装置200にアップロードしたか否かについて判定するため、CPU101はアップロード済みフラグを参照するようにした。しかし、これに限らず、WEBサーバ装置200に画像ファイルに送信すると、CPU101は記憶媒体から当該画像ファイルを消去するようにしてもよい。この場合には、CPU101は、記憶媒体に記憶された画像ファイルをアップロード未と判定することになる。
また、CPU101は、画像ファイルの各々に対してステップS406〜S409の処理を行うようにした。しかし、これに限らず、連写撮影、ブラケット撮影、及びパノラマ撮影等で得られた画像ファイルについては、これら画像ファイルを一組としてステップS406〜S409の処理を行うようにしてもよい。
つまり、連写撮影、ブラケット撮影、及びパノラマ撮影等ではほぼ同一位置で撮影が行われ、ほぼ同一の位置情報が複数の画像ファイルに関連付けられることになる。従って、このような画像ファイルについては一組として扱ってステップS406〜S409の処理を行うようにしてもよい。
具体的には、ステップS406において、CPU101は、連写撮影、ブラケット撮影、又はパノラマ撮影等によって得られた複数の画像ファイルについて、個々に撮影場所を取得することなく、1つの画像ファイルから撮影場所を読み込めばよい。
続いて、ステップS407において、CPU101は、ステップS406で取得した1つの撮影場所について判定を行う。そして、遠いと判定した場合には、ステップS408において、CPU101は、複数の画像ファイルを1組としてWEBサーバ装置200に送信する。
さらに、ステップS409において、CPU101は、送信を完了した全ての画像ファイルについてアップロード済みフラグをTRUE(真)に書き換える。そして、ステップS410において、CPU101は、カウンタnを送信完了したファイル数分カウントアップすることになる。
このように、複数の画像ファイルを纏めて処理することになるので、複数の画像ファイルを個々に処理するよりもCPU101の負荷が軽減されることになる。
<動画像ファイルの構成>
画像データが動画像である場合、画像ファイル(つまり、動画像ファイル)は、動画情報ファイル及び動画データファイルを有している。動画情報ファイルは属性情報領域及び縮小画像領域を有する。属性情報領域に記録される属性情報は撮影情報及びフラグ情報がある。
撮影情報には、例えば、記録時間、記録開始時刻、記録終了時刻、1秒間当りに再生するフレーム数、フレーム毎の撮影時間と撮影場所、及び音声に関する情報等が含まれる。また、フラグ情報には、アップロード済みフラグ及び配信済みフラグ等が含まれる。
また、一覧画面に表示する縮小画像データが縮小画像領域に記録される。ここで、動画像データが複数シーンに分割されている場合には、縮小画像データは各シーンの先頭フレームから生成したデータである。動画像データがシーン分割されていない場合には、縮小画像データは動画像データの先頭フレームから生成されたデータである。
動画データファイルには動画データ本体が記憶される。動画データファイルは動画情報ファイルと関連付けられており、動画データファイル内の動画データ本体を再生する際には、当該動画データファイルに関連する動画情報ファイルの情報が利用される。
ここでは、動画情報ファイルはDCF規格に準拠しているものとし、DCF規格によって定められたタグがある情報については、デジタルカメラ100はDCF規格に準拠して記録を行う。一方、DCF規格によって予め定められたタグがない情報については、デジタルカメラ100はメーカーノートの領域を使用する。
ここで、動画像ファイルを生成する際には、CPU101は撮影場所(撮影位置)を取得して、撮影場所を示す緯度、経度、高度、及び測位時間等の情報をフレームと関連付けて属性情報領域に記憶する。
さらに、動画像ファイルを生成する際には、CPU101は、属性情報領域に記録されたアップロード済みフラグ及び配信済みフラグにFALSE(偽)を書き込む。
<動画像ファイルのアップロード>
続いて、デジタルカメラ100が動画像ファイルをWEBサーバ装置200にアップロードする際の動作について説明する。
図1及び図4を参照して、ここでは、画像ファイルとして動画像ファイルがデジタルカメラ100からWEBサーバ装置200にアップロードされる。なお、以下の説明では、静止画像ファイルのアップロードと同様の処理について説明を省略することにする。
画像ファイルアップロード処理が開始されると、ステップS403において、CPU101は、WEBサーバ装置200へのアップロード対象となる動画像ファイルを抽出する。そして、ステップS406において、CPU101は、動画像ファイルの属性情報領域から最終フレームの撮影場所をRAM103へ読み込む。
なお、アップロード対象となる動画像ファイルは、記憶媒体に記憶されている動画像ファイルのうち、属性情報領域に記録されたアップロード済みフラグがFALSEの動画像ファイルである。
なお、記録媒体に静止画像ファイルと動画ファイルとが混在して記憶されている場合には、ステップS403及びS406の処理を行う前に、CPU101は当該画像ファイルが静止画像ファイルであるか動画像ファイルであるかを判定する。そして、その判定結果に応じて処理の内容を切り替えることになる。
また、画像ファイルが動画像ファイルである場合、ステップS406において、CPU101は最終フレームの撮影場所を読み込んだ。しかし、これに限らず、全てのフレームの撮影場所を読み込んで、ステップS407において、読み込んだ撮影場所のうちで現在位置に最も近い撮影場所を、ステップS407の判定に用いるようにしてもよい。これによって、撮影者の現在位置が特定される可能性を低減することができる。
さらに、一部のフレームの撮影場所のみが記録されている場合には、CPU101は当該フレームの撮影場所のみを読み込むようにしてもよい。
<アップロード先毎に下限値が異なる場合のアップロード>
図6は、図5で説明した下限値設定画面に応じて設定されたアップロード先毎の下限値(アップロード先設定データ)の一例を示す図である。また、図7は、図1に示すデジタルカメラ100が画像ファイルを複数のアップロード先にアップロードする際の動作を説明するためのフローチャートである。なお、図7に示す処理は、CPU101がRAM103に格納された制御プログラムを実行することにより実行される。
図1、図6、及び図7を参照して、ここでは、図4で説明したステップと同様の処理については同一の参照符号を付し、説明を省略する。
画像ファイルアップロード処理が開始されると、CPU101はステップS401及びS402の処理を行った後、アップロード先設定データをRAM103から読み出して、アップロード先の総数(アップロード先総数)をカウントする(ステップS711)。続いて、CPU101は、内蔵するカウンタmに1を代入する(ステップS712)。このカウンタmは、アップロード先の各々について、後述するステップS713〜S710までの一連の処理をCPU101が実行する際に用いられる。
次に、CPU101は、カウンタmの値がアップロード先総数以下であるか否かについて判定をする(ステップS713)。カウンタmの値がアップロード先総数よりも大きいと(ステップS713において、NO)、CPU101は、全てのアップロード先に対して一連の処理が完了したものと判断して、処理を終了する。
一方、カウンタmの値がアップロード先総数以下であると(ステップS713において、YES)、CPU101は、図6に示すアップロード先(送信先)設定データを参照して、m番目のアップロード先の下限値を読み込む。そして、CPU101は、後述するステップS707における判定に用いる下限値として代入する(ステップS714)。その後、CPU101は、前述したステップS403、S404、及びS405の処理を行う。
カウンタnの値がアップロード対象の画像ファイル数未満であると判定すると(ステップS405において、YES)、CPU101は、アップロード対象である画像ファイルの属性情報領域から撮影場所をRAM103へ読み込む(ステップS706)。
次に、CPU101は、移動距離がm番目のアップロード先の下限値よりも遠いか否かについて判定する(ステップS707)。移動距離が下限値よりも遠いと(ステップS707において、YES)、CPU101はI/F109を介してm番目のアップロード先であるWEBサーバ装置に当該画像ファイルを送信(アップロード)する(ステップS708)。そして、CPU101はm番目のアップロード先に関して当該画像ファイルに対応するアップロード済みフラグをTURE(真)とする(ステップS709)。その後、CPU101はカウンタnをインクリメント(n=n+1)として(ステップS710)、ステップS405に戻って処理を続行する。
一方、移動距離が下限値以下であると(ステップS707において、NO)、CPU101はステップS710に進んで、カウンタnをインクリメントする。
なお、カウンタnの値がアップロード対象の画像ファイル数以上であると判定すると(ステップS405において、NO)、CPU101はカウンタmをインクリメント(m=m+1)として(ステップS715)、ステップS713に戻って処理を続行する。
上述の処理によって、撮影者はアップロード先に応じて下限値を変更することができる。例えば、アップロード先が家族だけがダウンロード可能な電子アルバムを配信するWEBサーバ装置であれば、下限値を0m(図6に示すNo.1の送信先)と設定する。一方、アップロード先が不特定多数の閲覧者がダウンロード可能なブログを配信するWEBサーバ装置であれば、下限値を3000m(図6に示すNo.2の送信先)と設定する。
これによって、現在地を知られてもよい家族に対しては、撮影した画像を即時に配信することができる。一方、現在地を知られたくない不特定多数の閲覧者に対しては、撮影者が3000m以上撮影場所から離れてから配信することになる。この結果、画像とともに表示される撮影時間及び撮影場所から、撮影者の現在位置が知られることを防ぐことができる。
なお、時間帯に応じて下限値を変更することも可能である。図8は、図1に示すデジタルカメラ100に設定される時間帯毎の下限値の一例を示す図である。
時間帯毎に下限値を変更する際には、CPU101は、図7で説明したステップS403とステップS404の間で、現在時刻を取得する処理を実行する。そして、CPU101は当該時刻に応じて図8に示すテーブルから下限値を読込み、ステップS407の判定で用いる下限値とする。
図8に示すように、不特定多数のユーザに現在位置を知られてもよい昼間については、下限値を、例えば、0mと設定する。一方、現在位置を知られたくない夜間については、下限値を、例えば、3000mと設定する。
これによって、昼間においては、撮影した画像を即時に配信することができ、夜間では撮影者が3000m以上撮影場所から離れてから配信することになる。この結果、夜間においては、画像とともに表示される撮影時間及び撮影場所から撮影者の現在位置が知られることを防ぐことができる。
なお、時間帯の代わりに撮影地域(区域)に応じて下限値を変更することも可能である。この場合、時間帯の代わりに撮影地域と下限値を対応付けてデジタルカメラ100に記憶する。この際、撮影地域は、緯度経度等で表現するものとする。また、海外と国内とにおいて下限値を変更することも可能である。
撮影者が海外にいるか国内にいるかを判定する際には、CPU101は撮影者の操作によってタイムゾーンが自分の地域から他の地域へ切り換えられたか否かに応じて判定を行う。
例えば、不特定多数のユーザに現在位置が知られても撮影者に追いつくまでに時間がかかると思われるような撮影場所では、下限値を0mと設定する。一方、現在位置を知られると直ぐに撮影者に追いつく撮影場所では、下限値を3000mと設定する。
これによって、前者であれば、画像を即時に配信することができ、後者であれば、撮影者が3000m以上撮影場所から離れてから配信することになる。この結果、撮影者が追いつかれるような撮影場所では、画像とともに配信された撮影場所及び撮影時刻から撮影者の現在位置が知られることを防ぐことができる。
さらに、撮影地域の種類又は種別によって下限値を変更してもよい。この場合、デジタルカメラ100には撮影場所毎の種類をRAM103に記憶しておくか、又はCPU101はWEBサーバ装置200又は他の外部サーバに問い合わせて撮影場所の種類を取得することになる。
例えば、撮影場所の種類が繁華街であれば下限値を100mと設定する。また、住宅地であれば、下限値を3000mと設定する。これによって、繁華街のように撮影者の現在位置を知られても通信機器300のユーザが撮影者を見つけにくい撮影場所で撮影された画像については、即時に配信する。一方、住宅街のように撮影者の現在位置を知られると通信機器300のユーザが容易に撮影者を見つけられる撮影場所で撮影された画像については、撮影者が3000m以上離れてから配信することになる。
上述の例では、デジタルカメラ100からWEBサーバ装置200に画像ファイルをアップロードする場合について説明したが、カメラ付きの携帯電話機についても同様にして適用することができる。さらに、デジタルカメラ100と接続されてデジタルカメラ100で撮影された画像を受信して記憶することが可能なノート型パーソナルコンピュータ又は携帯電話機においても同様に適用することができる。
また、上述の例では、現在位置の取得にGPSを用いたが、GPSではなく、携帯電話基地局又は無線LANアクセスポイントの電波状況から位置を算出するようにしてもよい。さらに、GPSと上記の手法等複数の手法を併用するようにしてもよい。これによって、屋内等GPSから現在位置を取得できない場合でも、携帯電話基地局又は無線LANのアクセスポイントの電波状況から位置を取得することができ、デジタルカメラ100の周囲環境にかかわらず現在位置を取得することができる。
この場合、図4又は図7のステップS401において、CPU101はユーザの操作を判定する代わりに、通信経路が切り替えられたか否かを判定して、ステップS402以降の処理を行うようにしてもよい。ここで、通信経路とは、例えば、携帯電話基地局又は無線LANアクセスポイントである。
具体的には、携帯電話の場合には、携帯電話機の移動とともに通信を行う基地局が切り替わる。そして、CPU101は切り替りのタイミングで処理を開始する。
さらに、上述の例では、ステップS401においてユーザの操作があったか否かに応じてステップS402以降の処理を開始したが、デジタルカメラ100の状態に応じて処理を開始するようにしてもよい。例えば、省電力モードに自動的に遷移した場合又はユーザの操作がない時間が一定時間あると、CPU101は処理を開始するようにしてもよい。この結果、撮影者がデジタルカメラ100を使用しない間に、CPU101は集中して上述のアップロード処理を行うことができる。
以上のように、本実施形態によれば、デジタルカメラ100が画像ファイルの撮影位置とデジタルカメラ100の現在位置とを比較し、比較結果に応じて画像ファイルの送信制御を行う。そして、比較結果が一定距離以上離れていることを示すと、WEBサーバ装置200に画像ファイルをアップロードする。つまり、デジタルカメラ等の撮影装置が撮影場所から離れるまでは画像ファイルは送信されず、撮影場所から離れてから、画像ファイルがWEBサーバ装置に送信される。このため、画像ファイルに付加された撮影場所及び撮影時間等の撮影情報を元に、WEBサーバ装置200から画像をダウンロードする通信機器のユーザが撮影者の現在位置を知ることを防ぐことができる。
(第2の実施形態)
第2の実施形態では、デジタルカメラ等の撮影装置の代わりにWEBサーバ装置が画像の撮影位置と撮影装置の現在位置を比較して、一定距離以上離れていれば画像ファイルを通信機器へ配信する場合について説明する。なお、この実施形態の撮影装置は画像を撮影すると、即時に画像をWEBサーバ装置へアップロードすることができる。以下の説明では、第1の実施形態と同様の構成要素等については説明を省略する。
図9は、図3に示すWEBサーバ装置200がデジタルカメラ100から画像ファイルを受信して、通信機器300に当該画像ファイルを配信する際の動作を説明するためのフローチャートである。なお、図9で説明する処理は、図2に示すCPU201がRAM203に格納された制御プログラムを実行することによって行われる。
図2、図3、及び図9を参照して、まず、CPU201は、デジタルカメラ100から画像ファイルを受信したか否かについて判定する(ステップS901)。画像ファイルの受信がないと判定すると(ステップS901において、NO)、CPU201は処理を終了する。
一方、画像ファイルの受信があると判定すると(ステップS901において、YES)、CPU201は、デジタルカメラ100を識別するためのカメラ識別情報をデジタルカメラ100から受信して、RAM203に記憶する(ステップS911)。
続いて、CPU201は、受信した画像ファイルをHDD205にカメラ識別情報と関連付けて記憶する(ステップS912)。この際、CPU201は当該画像ファイルを第三者からは読み取り不可な状態にする。
次に、CPU201は、デジタルカメラ100において前述の下限値設定ボックス511(図5)で撮影者によって設定された下限値を示す情報を受信して、RAM203に記憶する(ステップS913)。なお、撮影者が予めWEBサーバ装置200にアクセスして下限値を入力し、CPU201がRAM203にこの下限値を記憶するようにしてもよい。
続いて、CPU201はGPSシステムを利用してデジタルカメラ100の現在の位置情報を取得する(ステップS902)。なお、デジタルカメラ100が現在の位置情報を保有する際には、CPU201はデジタルカメラ100から現在の位置情報を取得する。
次に、CPU201は、配信対象となる画像ファイルをHDD205から抽出する(ステップS903)。まず、CPU201は、HDD205中の対象となるカメラ識別情報と関連付けられている画像ファイルの全てについて、属性情報領域の配信済みフラグを参照する。そして、CPU201は、配信済みフラグがFALSEのものを配信対象であると判定して、当該画像ファイルの抽出を行う。
続いて、CPU201は、内蔵するカウンタnに0を代入する(ステップS904)。カウンタnは配信対象となる画像ファイルの各々について、後述するステップS906からステップS909までの一連の処理をCPU201が実行する際に用いるカウンタである。
次に、CPU201は、カウンタnの値が配信対象となる画像ファイルの数より少ないか否かについて判定をする(ステップS905)。カウンタnの値が配信対象となる画像ファイルの数より少ないと(ステップS905において、YES)、CPU201は、配信対象となる画像ファイルの属性情報から画像の撮影場所をRAM203に読み込む(ステップS906)。
CPU201は、撮影場所から現在位置までの移動距離がRAM203に記憶されている下限値より大きいか否かについて判定する(ステップS907)。ここで、下限値を取得できていないと、CPU201は、例えば1000m等の既定値を下限値とする。
移動距離が下限値よりも大きいと判定すると(ステップS907において、YES)、CPU201は、当該画像ファイルをWEBページに追加する。そして、通信機器300からの要求に応答して、CPU201はこのWEBページを配信する(ステップS908)。
続いて、CPU201は、該画像ファイルの配信済みフラグをTRUEに書き換える(ステップS909)。そして、CPU201は、カウンタnをインクリメント(n=n+1)して(ステップS910)、ステップS905に戻って処理を続行する。
なお、ステップS907において、移動距離が下限値以下であると判定すると(ステップS907において、NO)、当該画像ファイルをWEBページに追加することなく、CPU201は、ステップS910に進み、カウンタnをインクリメントする。また、ステップS905において、カウンタnの値が配信対象となる画像ファイルの数以上であると(ステップS905において、NO)、CPU201は対象となる全ての画像に対して一連の処理が完了したものと判断して処理を終了する。
上述の説明では、WEBサーバ装置200がデジタルカメラ100から画像ファイルを受信した際に、デジタルカメラ100の現在位置を取得したが、他のタイミングでデジタルカメラ100の現在位置を取得するようにしてもよい。例えば、WEBサーバ装置200が定期的にデジタルカメラ100の現在位置を取得するようにしてもよいし、デジタルカメラ100の通信経路が切り替わったときに現在位置を取得するようにしてもよい。通信経路とは、前述のように、例えば、携帯電話基地局又は無線LANアクセスポイントである。
この結果、デジタルカメラ100が画像ファイルをWEBサーバ装置200に送信しない期間が続いても、撮影者の移動とともに、WEBサーバ装置200は画像ファイルを通信機器300に配信することができる。
以上のように、本実施形態によれば、WEBサーバ装置200は画像ファイルの撮影位置とデジタルカメラ100の現在位置とを比較し、比較結果に応じて画像ファイルの配信制御を行う。そして、比較結果が一定距離以上離れていることを示すと、WEBサーバ装置200は画像ファイルを通信機器300にダウンロードする。つまり、デジタルカメラ等の撮影装置が撮影場所から離れるまでは画像ファイルは配信されず、撮影場所から離れてから、画像ファイルを通信機器300に配信する。このため、画像ファイルに付加された撮影場所及び撮影時間等の撮影情報を元に、通信機器300のユーザが撮影者の現在位置を知ることを防ぐことができる。
(第3の実施形態)
本実施形態では、デジタルカメラ100で撮影した画像を、撮影場所を示す情報なしでWEBサーバ装置200にアップロードして、その後、デジタルカメラ100は撮影場所から一定距離以上離れた際に画像の撮影場所をWEBサーバ装置200に送信する。なお、WEBサーバ装置200はデジタルカメラ100から画像及び撮影場所を受信すると、当該画像を通信機器300に配信することができる。
図10は、図1に示すデジタルカメラ100の撮影位置及びGPS情報公開位置を地図上にプロットした例を示す図である。
いま、図10に破線矢印で示す移動経路1005をとって、撮影者は移動しているものとする。ここで、領域1004は、図1に示すCPU101が撮影場所情報をWEBサーバ装置200に送信しないと判定する範囲である非公開範囲を表している。この領域1004は、撮影位置を中心として予め設定された既定値(例えば、1000m)を半径とする円である。
画像データは撮影位置1001で取得され、CPU101は撮影直後にWEBサーバ装置200へ位置情報(撮影場所)を含まない画像データ(画像ファイル)を送信する。図2に示すCPU201は受信した画像データを即座に通信機器300に配信することができる。
CPU101は一定の間隔で撮影者の現在位置を取得して、次のようにしてWEBサーバ装置200に撮影場所を示す情報を送信するか否かについて判定する。
位置1004は領域1004の範囲内、つまり、撮影位置から1000m離れていない位置である。よって、CPU101はWEBサーバ装置200に撮影場所を示す情報を送信しない。
位置1003は領域1004の範囲外、つまり、撮影位置から1000mよりも遠く離れている位置である。よって、CPU101はWEBサーバ装置200に位置1001で撮影された画像データの撮影場所を示す情報と画像ファイル名をWEBサーバ装置200に送信する。CPU201は、受信した撮影場所を示す情報を画像ファイル名で対応する画像データとともに通信機器300(図3)に配信することができる。
<デジタルカメラの画像アップロード>
図11は、図1に示すデジタルカメラにおいて撮影モードの際の動作の一例を説明するためのフローチャートである。
図1及び図11を参照して、ここでは、デジタルカメラ100には既に「撮影モード」が設定されているものとする。CPU101は「撮影モード」への切り替えを検知すると、終了操作又はモード変更操作されたか否かについて判定する(ステップS1100)。つまり、CPU101は、電源ボタン、再生ボタン、及び設定ボタンのいずれかが押下されたか否かについて判定する。終了操作又はモード変更操作が行われると(ステップS1100において、YES)、CPU101は「撮影モード」の処理を終了する。
一方、終了操作及びモード変更操作が行われないと(ステップS1100において、NO)、CPU101は撮影操作されたか否か、つまり、レリーズボタンが押下されたか否かを判定する(ステップS1101)。レリーズボタンが押下された場合(ステップS1101において、YES)、CPU101は撮影処理を行う(ステップS1102)。具体的には、撮像素子によって光学像が電気的な画像データに変換されて、画像データに撮影日時及びデジタルカメラ100のモデル名等の撮影情報が付加される。なお、撮影情報には撮影場所を示す情報は含まれない。
続いて、CPU101は、後述する画像データ管理リストに画像データに関する情報を追加する(ステップS1103)。画像データ管理リストは画像データの通し番号であるIndex、ハードディスクに記録されている画像データのファイル名を有する。また、画像データ管理リストは撮影場所情報をWEBサーバ装置200に送信したか否かを表す撮影場所情報公開済みフラグ、画像データを撮影した位置を示す撮影場所情報を有する。
ステップS1102において撮影の結果得られた画像データについて、撮影場所情報がWEBサーバ装置200に送信されていないので、撮影場所情報公開済みフラグにFalseが設定される。
続いて、CPU101は、撮影の結果得られた画像データをWEBサーバ装置200に送信する(ステップS1104)。その際、この画像データ(画像ファイル)に撮影場所情報は含まれない。
次に、CPU101は、後述する撮影場所情報公開判定処理を実行する(ステップS1105)。そして、CPU101はステップS1105における処理によって公開対象と判定された画像データのファイル名と対応する撮影場所情報をWEBサーバ装置200に送信する(ステップS1106)。
続いて、CPU101は、ステップS1106においてWEBサーバ装置200への送信に成功した画像データについて、画像データ管理リストの撮影場所情報公開済みフラグをTrueに設定して、画像データ管理リストを更新する(ステップS1107)。そして、CPU101はステップS1100に戻る。
なお、ステップS1101において、レリーズボタンが押下げられないと(ステップS1101において、NO)、CPU101はステップS1105に移行する。
<WEBサーバ装置の画像配信>
図2を参照して、CPU201は、デジタルカメラ100から画像データを受信すると、画像データをWEBページに追加し、通信機器300からの要求に応答して通信機器300にWEBページを配信する。なお、CPU201は、受信した画像データを共有フォルダに記録して、通信機器300からの要求に応答して通信機器300へ画像データをダウンロードするようにしてもよい。
CPU201は、デジタルカメラ100から画像データのファイル名とその撮影場所情報とを受信すると、撮影場所情報をWEBページに追加する。そして、CPU201は通信機器300からの要求に応答して通信機器300に当該WEBページを配信する。なお、CPU201は画像データに撮影場所情報を関連付けて共有フォルダに記録して、通信機器300からの要求に応答して画像データとともに撮影場所情報を通信機器300にダウンロードするようにしてもよい。
<撮影場所情報公開判定処理のプログラムの動作概要>
次に、図11で説明したステップS1105の撮影場所情報公開判定処理について説明する。
図12は、図11で説明した撮影場所情報公開判定処理を詳細に説明するためのフローチャートである。
図1及び図12を参照して、撮影場所情報公開判定処理においては、CPU101は通信回線111を介してデジタルカメラ100の現在位置を取得する(ステップS1200)。続いて、CPU101は、内蔵するカウンタiに1を、レジスタMaxに画像データ管理リストに登録されている画像データ数をそれぞれ格納する(ステップS1201)。
次に、CPU101は、画像データ管理リストのIndexについてカウンタiに対応するIndexの画像データに係る撮影場所情報公開済みフラグがfalseか否かを判定する(ステップS1202)。
撮影場所情報公開済みフラグがfalseであると(ステップS1202において、YES)、CPU101は画像データ管理リストのIndexがカウンタiの画像データについてその撮影位置と現在位置を比較する(ステップS1203)。そして、CPU101は、撮影位置から現在位置までの移動距離が設定モードで設定された下限値以上離れているか否かについて判定する。
移動距離が下限値以上離れていると(ステップS1203において、YES)、CPU101は画像データ管理リストのIndexがカウンタiの画像データについてその撮影場所情報を公開対象とする(ステップS1204)。
続いて、CPU101はカウンタiの値がレジスタMaxの値以上であるか否かについて判定する(ステップS1205)。そして、i≧Maxであると(ステップS1205において、YES)、CPU101は撮影場所情報公開判定処理を終了する。一方、i<Maxであると(ステップS1205において、NO)、CPU101はカウンタiをインクリメント(i=i+1)して、ステップS1202に戻って処理を続行する。
なお、ステップS1202において、撮影場所情報公開済みフラグがfalseでないと(ステップS1202において、NO)、CPU101はステップS1205に移行する。同様に、ステップS1203において、移動距離が下限値未満であると(ステップS1203において、NO)、CPU101はステップS1205に移行する。
上述の例では、後から受信した撮影場所情報を画像データと関連づけて記憶するようにしているが、画像データ内に撮影場所情報を付加して記憶するようにしてもよい。
また、デジタルカメラ100は撮影の際に撮影位置情報なしの画像データをWEBサーバ装置200に送信する。そして、ユーザが撮影位置から一定距離離れたタイミングで、デジタルカメラ100は撮影位置情報ありの画像データをWEBサーバ装置200に送信して、WEBサーバ装置200が公開する画像データを入れ替えるようにしてもよい。
なお、上述の例では、デジタルカメラ100が撮影位置から一定距離離れたタイミングで、デジタルカメラ100から撮影場所情報をWEBサーバ装置200に送信する例について説明した。しかし、これに限らず、撮影日時から一定の期間経過したタイミングで、デジタルカメラ100から撮影場所情報をWEBサーバ装置に送信するようにしてもよい。
(第4の実施形態)
ここでは、デジタルカメラ100で撮影した結果得られた画像データを撮影場所とともにWEBサーバ装置200にアップロードする。そして、WEBサーバ装置200が、まず撮影場所なしの状態で画像データを通信機器300に配信し、その後、デジタルカメラ100が撮影場所から一定距離以上離れた際に画像データとともに撮影場所を示す情報を通信機器300に配信する場合について説明する。
<デジタルカメラの画像アップロード>
図13は、図1に示すデジタルカメラにおいて撮影モードの際の動作の他の例を説明するためのフローチャートである。
図1及び図13を参照して、ここでは、デジタルカメラ100には既に「撮影モード」が設定されているものとする。CPU101は「撮影モード」への切り替えを検知すると、終了操作又はモード変更操作されたか否かについて判定する(ステップS1300)。つまり、CPU101は、電源ボタン、再生ボタン、及び設定ボタンのいずれかが押下されたか否かについて判定する。終了操作又はモード変更操作が行われると(ステップS1300において、YES)、CPU101は「撮影モード」の処理を終了する。
一方、終了操作及びモード変更操作が行われないと(ステップS1300において、NO)、CPU101は撮影操作されたか否か、つまり、レリーズボタンが押下されたか否かを判定する(ステップS1301)。レリーズボタンが押下された場合(ステップS1301において、YES)、CPU101は撮影処理を行う(ステップS1302)。具体的には、撮像素子によって光学像が電気的な画像データに変換されて、画像データに撮影日時、GPS情報(撮影場所情報)、及びデジタルカメラ100のモデル名等の撮影情報が付加される。
続いて、CPU101は、撮影の結果得られた画像データと非公開範囲(図10に符号1003で示す範囲)とをWEBサーバ装置200に送信する(ステップS1303)。そして、CPU101は通信回線111を介してデジタルカメラ100の現在位置を示す情報を取得して、当該現在位置情報をWEBサーバ装置200にアップロードする(ステップS1304)。その後、CPU101はステップS1300に戻る。
なお、ステップS1301において、レリーズボタンが押下げられないと(ステップS1301において、NO)、CPU101はステップS1304に移行する。
<WEBサーバ装置の画像配信>
図14は図2に示すWEBサーバ装置200における画像配信処理を説明するためのフローチャートである。
図2及び図14を参照して、画像配信処理が開始されると、CPU201は、図13に示すステップS1303においてデジタルカメラ100から送信された画像データを受信してHDD205等に保存する。そして、CPU201は通信機器300からの要求に応答して通信機器300に画像データを配信する(ステップS1400)。ここでは、未だ撮影場所情報については配信しない。
続いて、CPU201は、受信した画像データのレコードを画像データ管理リストに追加する(ステップS1401)。そして、CPU201は画像配信処理を終了する。
画像データ管理リストの各レコードには、画像データの通し番号であるIndex、HDD205に記録されている画像データのファイル名、撮影場所情報を公開したか否かを表す撮影場所情報公開済みフラグ、画像データの撮影場所情報と非公開範囲が格納される。
なお、新規に追加された画像データについては、撮影場所情報が配信されていないので、撮影場所情報公開済みフラグはFalseに設定される。
<WEBサーバ装置の撮影場所情報公開処理>
図15は、図2に示すWEBサーバ装置200における撮影場所情報公開処理を説明するためのフローチャートである。
図2及び図15を参照して、画像データを受信した時からの経過時間が下限値より大きくなるか又は通信機器300から要求があると、CPU201は撮影場所情報公開判定処理を実行する(ステップS1500)。
具体的には、CPU201は、デジタルカメラ100からデジタルカメラ100の現在位置を示す現在位置情報を取得する。そして、CPU201は、図12のステップS1201で説明した処理と同様にして、カウンタiに1を代入し、レジスタMaxに画像データ管理リストに登録されている画像データ数をそれぞれ格納する。そして、CPU201は、図12のステップS1202で説明した処理と同様にして、カウンタiに対応する画像データリストのIndexの画像データにおける撮影場所情報公開済みフラグがFALSEであるか否かについて判定する。
撮影場所公開済みフラグがFALSEである場合、CPU201は、図12のステップS1203で説明した処理と同様にして、画像データ管理リストのIndexがカウンタiである画像データの撮影位置と現在位置とを比較する。そして、CPU201は現在位置が画像データ管理リストに登録されている非公開範囲外であるか否かについて判定する。
現在位置が非公開範囲外であれば、CPU201は、図12のステップS1204で説明した処理と同様にして、画像データリストのIndexがカウンタiである画像データに係る撮影場所情報を通信機器300に配信可能な状態とする。
続いて、CPU201は撮影場所情報を通信機器300に公開、つまり、配信する(ステップS1501)。そして、CPU201は画像データ管理リストを更新する(ステップS1502)。具体的には、CPU201は撮影場所情報を配信可能な状態にした画像データに関する撮影場所情報公開済みフラグをTrueに設定する。その後、CPU201は撮影場所公開判定処理を終了する。
<撮影場所情報非公開範囲の決定方法>
上述の例では、撮影場所非公開範囲(以下単に非公開範囲と呼ぶ)について撮影者が手動で設定する例について示したが、ここでは、それ以外の決定方法について説明する。
撮影位置に応じて非公開範囲を決定するようにしてもよい。例えば、撮影者の自宅位置を示す情報をデジタルカメラ100に記憶しておき、自宅位置から近い位置において撮影した場合には非公開範囲を広く設定し、自宅位置から遠い位置で撮影した場合には非公開範囲を狭く設定するようにする。
また、撮影位置情報以外の撮影情報によって、非公開範囲を決定するようにしてもよい。例えば、撮影位置が特定できる被写体等が写っている場合には、非公開範囲を広く設定し、撮影位置を特定できる被写体等が写っていない場合には非公開範囲を狭く設定する。さらに、撮影時刻が昼間であれば、非公開範囲を広く設定し、撮影時刻が夜中であれば、非公開範囲を狭く設定するようにしてもよい。
加えて、アップロード先の設定条件に応じて非公開範囲を決定するようにしてもよい。例えば、アップロード先が不特定多数の通信機器がアクセスできるWEBサーバ装置であれば非公開範囲を広く設定し、特定の通信機器のみがアクセスできるWEBサーバ装置であれば非公開範囲を狭く設定するようにしてもよい。
また、デジタルカメラ100、つまり、撮影者の移動速度に応じて、非公開範囲を決定するようにしてもよい。例えば、自動車等を使う等して速く移動している場合には非公開範囲を広く設定し、徒歩等で遅く移動している場合は非公開範囲を狭く設定するようにしてもよい。
<ユーザ位置取得のタイミング>
上述の例では、デジタルカメラ100の現在位置情報を一定間隔に取得する例について説明したが、次のタイミングで現在位置情報を取得するようにしてもよい。例えば、GPS受信機等の通信可能な機器の電源をON/OFFする時、スリープモードに移る時、次の撮影操作、連写、又は動画撮影の終了の時、又は記録媒体の残り容量が所定容量よりも少なくなる時に、現在位置情報を取得するようにしてもよい。
(第5の実施形態)
ここでは、デジタルカメラ100による撮影から一定時間が経過した後、WEBサーバ装置200に画像ファイル(画像データ)をアップロードする場合について説明する。なお、WEBサーバ装置200はデジタルカメラ100から画像ファイルを受信すると、即時に当該画像ファイルを通信機器300に配信することができる。
図16は、図1に示すデジタルカメラ100が撮影した後図2に示すWEBサーバ装置200にアップロードする際の動作を説明するためのフローチャートである。以下の説明では、CPU101はRAM103から各種プログラムを読み出し、当該プログラムに従って動作するものとする。なお、ここでは、デジタルカメラ100は画像配信一覧表をRAM103に記憶している。
いま、デジタルカメラ100の電源がオンされると、CPU101は次の処理を開始する。まず、CPU101は画像アップロード処理(画像配信処理)を実行する(ステップS1601)。このアップロード処理については、後述する。
画像アップロード処理が終了すると、CPU101はモード切替スイッチのモード状態を取得する(ステップS1602)。そして、CPU101はモード状態が撮影モードであるか否かについて判定する(ステップS1603)。
モード状態が撮影モードではなく、再生モードであると(ステップS1603において、NO)、CPU101は「モード」に“再生モード(閲覧モード)”を代入する(ステップS1604)。そして、CPU101は記録済みの撮影画像について再生処理を実行し(ステップS1605)、後述するステップS1608に移行する。
一方、モード状態が撮影モードであると(ステップS1603において、YES)、CPU101は「モード」に“撮影モード”を代入する(ステップS1606)。そして、CPU101は撮影用の画像処理を実行する(ステップS1607)。
続いて、CPU101はモード切替スイッチのモード状態を確認し、モードが切り替えられたか否かについて判定する(ステップS1608)。モードが切り替えられた場合には(ステップS1608において、YES)、CPU101はステップS1602に戻って処理を続行する。
モードが切り替えられていない場合には(ステップS1608において、NO)、CPU101はモードが決定されたか否かについて判定する。つまり、CPU101は実行ボタンが押下げられたか否かについて判定する(ステップS1609)。
モードが決定された場合には(ステップS1609において、YES)、CPU101は「モード」が“撮影モード”か否かについて判定する(ステップS1610)。
「モード」が撮影モードではなく、“再生モード”の場合には(ステップS1610において、NO)、CPU101はアップロード対象の画像を選択する。つまり、CPU101は配信画像の選択処理を実行する(ステップS1611)。例えば、CPU101は表示装置104に記録済みの画像データ(画像ファイル)の一覧を表示する。そして、CPU101は撮影者の操作に応答してアップロード対象の画像を選択する。
アップロード画像の選択処理が終了すると、CPU101は、後述する画像アップロード一覧追加処理に移行して、画像アップロード一覧表を更新する(ステップS1612)。そして、CPU101は、後述するステップS1617に移行する。
ここで、画像アップロード一覧表には、アップロード対象の画像ファイルのファイル名とアップロード時刻とが対応付けて記憶される。画像アップロード一覧表は、少なくとも「Index」、「画像ファイルのファイル名」、及び「アップロード時刻」の各項目を有している。画像ファイルがアップロード対象として選択されると、当該画像ファイルのファイル名とアップロード時刻とが画像アップロード一覧表に追加して格納される。そして、画像ファイルのアップロード処理が完了すると、当該画像ファイルのレコードが画像アップロード一覧表から削除される。
一方、「モード」が“撮影モード”の場合には(ステップS1610において、YES)、CPU101は撮像部114から入力される映像信号(画像信号)をエンコードした画像データを画像ファイルとして生成する(撮影画像作成処理:ステップS1613)。そして、CPU101は当該画像ファイルに撮影日時を付加する(ステップS1614)。
さらに、CPU101は前述したようにして、撮影場所情報を取得して画像ファイルに付加して(ステップS1615)、当該画像ファイルの保存処理を実行する(ステップS1616)。
その後、CPU101は電源ボタンが押されたか否かを判定する(ステップS1617)、電源ボタンが押された場合には(ステップS1617において、YES)、CPU101は処理を終了する。一方、電源ボタンが押されないと(ステップS1617において、NO)、CPU101はステップS1601に戻って処理を続行する。
なお、ステップS1609において、モードが決定されないと(ステップS1609において、NO)、CPU101はステップS1617に移行して、電源ボタンが押されたか否かを判定する。
図17は、図16で説明した画像配信処理における画像アップロード処理の手順を説明するためのフローチャートである。
図1及び図17を参照して、まず、CPU101は画像アップロード一覧表に格納されているアップロード画像の総数を取得して、その総数を「Index Max」に代入する(ステップS1701)。続いて、CPU101は「Index」に“1”を代入し(ステップS1702)、「Index Max」が「Index」より小さいか否かを判定する(ステップS1703)。
「Index Max」が「Index」よりも大きいか又は等しい場合には(ステップS1703において、NO)、CPU101は画像アップロード一覧表内の「Index」に対応する画像ファイルのアップロード時刻を取得する。そして、CPU101は、取得したアップロード時刻を「アップロード時刻」に代入する(ステップS1704)。
続いて、CPU101は、内蔵する時計から「現在時刻」を取得する(ステップS1705)。そして、CPU101は「アップロード時刻(配信時刻)」が「現在時刻」以下であるか否かについて判定する(ステップS1706)。「アップロード時刻」が「現在時刻」以前の場合(ステップS1706において、YES)、CPU101は画像アップロード一覧表内の「Index」に対応する画像ファイル名を取得し、「画像ファイル名」に代入する(ステップS1707)。一方、「アップロード時刻」が「現在時刻」より後の場合(ステップS1706において、NO)、CPU101は「画像ファイル名」の代入を行うことなく、「Index」を”1”増加させる(ステップS1711)。
次に、「画像ファイル名」に基づいて、CPU101は記憶媒体から記録済みの「画像データ(画像ファイル)」を取得する(ステップS1708)。その後、CPU101は通信回線111を介してアップロード先(配信先)となるWEBサーバ装置200に係るアップロード先情報を取得する(ステップS1709)。そして、CPU101は「画像ファイル」を当該WEBサーバ装置200にアップロードする(ステップS1710)。
このように、CPU101は、ステップS1706において現在時刻と撮影時間とを比較して、現在時刻が撮影時間から後述する待機時間を経過しているか否かを判定している。
続いて、CPU101は「Index」を”1”増加させて(ステップS1711)、ステップS1703に戻って処理を続行する。なお、ステップS1706において「現在時刻」よりも「アップロード時刻」が大きい場合には(S1706において、NO)、CPU101はステップS1711に移行する。
また、「Index Max」が「Index」よりも小さいと(ステップS1703において、YES)、CPU101は「画像アップロード一覧表」からアップロード済みの「画像ファイル名」と「画像アップロード時刻」とを削除する(ステップS1712)。そして、CPU101は画像配信処理を終了して、図16のS1602に移行する。
上述の例では、デジタルカメラ100が備える内蔵時計を用いて「現在時刻」を取得するようにしたが、GPS情報から「現在時刻」を取得するようにしてもよい。さらには、WEBサーバ装置200から「現在時刻」を取得するようにしてもよい。また、上述の例では、アップロード先をWEBサーバ装置200としたが、メールサーバ等の複数のアップロード先を備えて、複数のアップロード先から少なくとも1つのアップロード先を撮影者に選択させるようにしてもよい。
図18は、図16で説明した画像アップロード一覧表(画像配信一覧表)追加処理の手順を説明するためのフローチャートである。
図1及び図18を参照して、図16のステップS1611で選択された画像ファイルについて、CPU101は当該画像ファイル内の撮影日時を示すメタデータから撮影日時を取得して、当該撮影日時を「撮影日時」に代入する(ステップS1801)。そして、CPU101は「待機時間」に、例えば、3時間を代入する(ステップS1802)。
続いて、CPU101は「撮影日時」に「待機時間」を加算した時刻を「アップロード時刻(配信時刻)」に代入する(ステップS1803)。さらに、CPU101は画像ファイルから「画像ファイル名」を取得して(ステップS1804)、「アップロード時刻」及び「画像ファイル名」を画像アップロード一覧表へ登録する(ステップS1805)。そして、CPU101は画像アップロード一覧表(画像配信一覧表)追加処理を終了して、図16のステップS1617に移行する。
なお、上述の例では、「待機時間」を3時間と設定したが、撮影者が任意に設定できるようにしてもよい。また、画像ファイルの撮影日時が、夜中の場合には待機時間を短くし、昼間の場合には待機時間を長く設定するようにして、撮影日時に応じて待機時間を変更するようにしてもよい。
さらに、アップロード先が不特定多数のユーザが閲覧可能な場合には、待機時間を設定するようにしてもよい。また、アップロード先にアクセス制限があり特定のユーザだけが閲覧可能な場合には待機時間なしと設定するようにしてもよい。いずれにしても、アップロード先に応じて待機時間の長さを変更するようにしてもよい。
また、画像ファイルを保存する際に、GPS情報の受信に障害があって、画像ファイルにGPS情報(撮影場所)が付加されないという状況下では、待機時間をなしとして、即座にアップロードを行うようにしてもよい。
以上のように、上述の例ではデジタルカメラ100が画像ファイルの撮影日時から一定時間経過した後、画像ファイルをWEBサーバ装置200にアップロードする。これによって、WEBサーバ装置200から画像ファイルをダウンロードする通信機器のユーザが画像ファイルに付加された撮影場所や撮影日時等の撮影情報を元に撮影者の現在地を知ることを防止することができる。
(第6の実施形態)
ここでは、図2に示すWEBサーバ装置200が、図1に示すデジタルカメラ100から画像ファイルを受信すると、画像ファイルの撮影時間から一定時間が経過してから、当該画像ファイルを通信機器に配信する場合について説明する。ここでは、デジタルカメラ100は画像を撮影すると、即時に画像ファイルをWEBサーバ装置200にアップロードすることができる。以下の説明では第5の実施形態と同様の部分については説明を省略する。
なお、ここでは、画像の配信とは、WEBサーバ装置200が、ハードディスクの共有フォルダに分類して記憶されている画像ファイルを、ネットワークを介して通信機器がダウンロード可能な状態にすることをいう。
図19は、図2に示すWEBサーバ装置200が図1に示すデジタルカメラ100から画像ファイルを受信して、図3に示す通信機器300に配信する際の動作を説明するためのフローチャートである。
以下の説明では、CPU201はRAM203から各種プログラムを読み出して、当該プログラムに従って動作するものとする。
図1〜図3及び図19を参照して、まず、CPU201は図17説明した画像アップロード処理と同様にして、画像の配信時刻と現在時刻とを比較して、現在時刻が配信時刻を過ぎていれば、画像ファイルの配信処理を実行する(ステップS1901)。ここでの画像ファイルの配信処理とは、アップロード先の代わりに配信先となる共有フォルダに画像ファイルを送信する処理をいう。
続いて、CPU201は画像ファイルをデジタルカメラ100から受信したか否かについて判定する(ステップS1902)。画像ファイルを受信すると(ステップS1902において、YES)、CPU201は当該受信画像ファイルの撮影位置情報を取得する(ステップS1903)。例えば、CPU201は受信画像ファイルのメタデータから撮影場所を示す撮影位置情報を取得する。
続いて、CPU201は撮影場所の取得ができたか否かについて判定する(ステップS1904)。撮影場所が取得できると(ステップS1904において、YES)、CPU201は図18で説明した画像アップロード一覧追加処理と同様にして画像配信一覧表を更新する(ステップS1905)。なお、画像配信一覧表には、配信対象の画像ファイルのファイル名と配信時刻とが対応付けられて格納される。画像配信一覧表は、少なくとも「Index」、「ファイル名」、及び「配信時刻」の各項目を有している。CPU201は画像ファイルをデジタルカメラ100から受信すると、画像ファイルのファイル名と配信時刻とを上記の一覧表に追加する。そして、画像ファイルの配信が完了すると、CPU201は画像配信一覧表から当該画像ファイルのレコードを削除する。
画像配信一覧表追加処理の終了後、CPU201は電源ボタンが押されたかを確認する(ステップS1908)。電源ボタンが押されていない場合には(S1908において、NO)、CPU201はS1901に戻って処理を続行する。電源ボタンが押された場合には(S1908において、YES)、CPU201は処理を終了する。
一方、撮影場所が取得できないと(ステップS1904において、NO)、CPU201は撮影場所の位置情報なしと判断して、配信先となる共有フォルダのファイルパスを取得する(ステップS1906)。そして、CPU201は共有フォルダに画像ファイルを送信する受信画像配信処理を実行する(ステップS1907)。その後、CPU201はステップS1908に移行する。
なお、上述の例では受信した画像ファイルのメタデータから撮影場所を取得するようにしたが、画像ファイルと関連付けられた別ファイル又は外部装置から撮影場所を取得するようにしてもよい。
以上のように、上述の例では、WEBサーバ装置200が画像ファイルの撮影日時から一定時間経過した後、当該画像ファイルを通信機器へ配信するようにしている。これによって、WEBサーバ装置200から画像ファイルをダウンロードする通信機器のユーザが画像ファイルの撮影場所や撮影日時を元に、撮影者の現在地を知ることを防止することができる。
上述の説明から明らかなように、デジタルカメラ100及びWEBサーバ装置はそれぞれ撮像装置及び情報配信装置として用いられるとともに、外部装置として機能することになる。また、CPU101は算出手段、比較手段、及び送信制御手段として機能し、CPU201は取得手段、算出手段、比較手段、及び配信制御手段として機能する。
以上、本発明について実施形態に基づいて説明したが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。また、上述の実施形態の一部を適宜組み合わせてもよい。
さらに、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。

Claims (20)

  1. 撮影により得られた画像ファイルを外部装置に送信可能な撮像装置において、
    前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出手段と、
    前記算出手段により算出された距離と所定値とを比較する比較手段と、
    前記比較手段による比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記外部装置に送信し、前記距離が前記所定値より大きくない場合に、前記画像ファイルを前記外部装置に送信しないように制御する送信制御手段とを有することを特徴とする撮像装置。
  2. 前記所定値は、前記外部装置の種別、前記画像ファイルに含まれる被写体の種別、前記撮像装置の移動速度、前記撮影場所の区域、及び前記画像ファイルの撮影日時のうち少なくとも1つに応じて予め設定されることを特徴とする請求項1記載の撮像装置。
  3. 撮影により得られた画像ファイルを外部装置に送信可能な撮像装置において、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較手段と、
    前記比較手段による比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルを前記外部装置に送信し、前記経過時間が前記所定の待機時間より大きくない場合に、前記画像ファイルを前記外部装置に送信しないように制御する送信制御手段とを有することを特徴とする撮像装置。
  4. 撮影により得られた画像ファイルを外部装置に送信可能な撮像装置において、
    前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出手段と、
    前記算出手段により算出された距離と所定値とを比較する比較手段と、
    前記比較手段による比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルに含まれる画像データおよび撮影場所情報を前記外部装置に送信し、前記距離が前記所定値より大きくない場合に、前記画像ファイルに含まれる画像データを前記外部装置に送信し、撮影場所情報を前記外部装置に送信しないように制御する送信制御手段とを有することを特徴とする撮像装置。
  5. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信可能な情報配信装置において、
    前記外部装置の現在位置を取得する取得手段と、
    前記画像ファイルの撮影場所から前記取得手段により取得された前記外部装置の現在位置までの距離を算出する算出手段と、
    前記算出手段により算出された距離と所定値とを比較する比較手段と、
    前記比較手段による比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記他の機器に配信し、前記算出された距離が前記所定値より大きくない場合に、前記画像ファイルを前記他の機器に配信しないように制御する配信制御手段とを有することを特徴とする情報配信装置。
  6. 前記所定値は、前記撮影場所の区域及び前記画像ファイルの撮影日時のうち少なくとも1つに応じて予め設定されることを特徴とする請求項5に記載の情報配信装置。
  7. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信可能な情報配信装置において、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較手段と、
    前記比較手段による比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルを前記他の機器に配信し、前記経過時間が前記所定の待機時間より大きくない場合に、前記画像ファイルを前記他の機器に配信しないように制御する配信制御手段とを有することを特徴とする情報配信装置。
  8. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信可能な情報配信装置において、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較手段と、
    前記比較手段による比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルに含まれる画像データおよび撮影場所情報を前記他の機器に配信し、前記経過時間が前記所定の待機時間より大きくない場合に、前記画像ファイルに含まれる画像データを前記他の機器に配信し、撮影場所情報を配信しないように制御する配信制御手段とを有することを特徴とする情報配信装置。
  9. 撮像装置により撮像された画像ファイルを外部装置に送信する情報送信方法において、
    前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出ステップと、
    前記算出された距離と所定値とを比較する比較ステップと、
    前記比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記外部装置に送信する送信ステップとを有することを特徴とする情報送信方法。
  10. 撮像装置により撮像された画像ファイルを外部装置に送信する情報送信方法において、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルを前記外部装置に送信する送信ステップとを有することを特徴とする情報送信方法。
  11. 撮像装置により撮像された画像ファイルを外部装置に送信する情報送信方法において、
    前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出ステップと、
    前記算出された距離と所定値とを比較する比較ステップと、
    前記比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルに含まれる画像データおよび撮影場所情報を前記外部装置に送信する第1の送信ステップと、
    前記比較の結果、前記距離が前記所定値より大きくない場合に、前記画像ファイルに含まれる撮影場所情報を除き画像データを前記外部装置に送信する第2の送信ステップとを有することを特徴とする情報配信方法。
  12. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信する情報配信方法において、
    前記外部装置の現在位置を取得する取得ステップと、
    前記画像ファイルの撮影場所から前記取得ステップで取得された前記外部装置の現在位置までの距離を算出する算出ステップと、
    前記算出された距離と所定値とを比較する比較ステップと、
    前記比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記他の機器に配信する配信ステップとを有することを特徴とする情報配信方法。
  13. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信する情報配信方法において、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルを前記他の機器に配信する配信ステップとを有することを特徴とする情報配信方法。
  14. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信する情報配信方法において、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルに含まれる画像データおよび撮影場所情報を前記他の機器に配信する第1の配信ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きくない場合に、前記画像ファイルに含まれる撮影場所情報を除いて画像データを前記他の機器に配信する第2の配信ステップとを有することを特徴とする情報配信方法。
  15. 撮像装置により撮像された画像ファイルを外部装置に送信する情報送信方法をコンピュータに実行させるプログラムであって、
    前記情報送信方法は、
    前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出ステップと、
    前記算出された距離と所定値とを比較する比較ステップと、
    前記比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記外部装置に送信する送信ステップとを有することを特徴とするプログラム。
  16. 撮像装置により撮像された画像ファイルを外部装置に送信する情報送信方法をコンピュータに実行させるプログラムであって、
    前記情報送信方法は、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルを前記外部装置に送信する送信ステップとを有することを特徴とするプログラム。
  17. 撮像装置により撮像された画像ファイルを外部装置に送信する情報送信方法をコンピュータに実行させるプログラムであって、
    前記情報送信方法は、
    前記画像ファイルの撮影場所から前記撮像装置の現在位置までの距離を算出する算出ステップと、
    前記算出された距離と所定値とを比較する比較ステップと、
    前記比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルに含まれる画像データおよび撮影場所情報を前記外部装置に送信する第1の送信ステップと、
    前記比較の結果、前記距離が前記所定値より大きくない場合に、前記画像ファイルに含まれる撮影場所情報を除き画像データを前記外部装置に送信する第2の送信ステップとを有することを特徴とするプログラム。
  18. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信する情報配信方法をコンピュータに実行させるプログラムであって、
    前記情報配信方法は、
    前記外部装置の現在位置を取得する取得ステップと、
    前記画像ファイルの撮影場所から前記取得ステップで取得された前記外部装置の現在位置までの距離を算出する算出ステップと、
    前記算出された距離と所定値とを比較する比較ステップと、
    前記比較の結果、前記距離が前記所定値より大きい場合に、前記画像ファイルを前記他の機器に配信する配信ステップとを有することを特徴とするプログラム。
  19. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信する情報配信方法をコンピュータに実行させるプログラムであって、
    前記情報配信方法は、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルを前記他の機器に配信する配信ステップとを有することを特徴とするプログラム。
  20. 外部装置から画像ファイルを受信して当該画像ファイルを他の機器に配信する情報配信方法をコンピュータに実行させるプログラムであって、
    前記情報配信方法は、
    前記画像ファイルの撮影日時から現在の時刻までの経過時間と所定の待機時間とを比較する比較ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きい場合に、前記画像ファイルに含まれる画像データおよび撮影場所情報を前記他の機器に配信する第1の配信ステップと、
    前記比較の結果、前記経過時間が前記所定の待機時間より大きくない場合に、前記画像ファイルに含まれる撮影場所情報を除いて画像データを前記他の機器に配信する第2の配信ステップとを有することを特徴とするプログラム。
JP2010140528A 2010-06-21 2010-06-21 撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム Active JP5562136B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010140528A JP5562136B2 (ja) 2010-06-21 2010-06-21 撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム
US13/156,756 US9258471B2 (en) 2010-06-21 2011-06-09 Image pickup apparatus, information distributing apparatus, information transmission method, information distribution method, and computer-readable storage medium storing control program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140528A JP5562136B2 (ja) 2010-06-21 2010-06-21 撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012005028A JP2012005028A (ja) 2012-01-05
JP2012005028A5 JP2012005028A5 (ja) 2013-08-08
JP5562136B2 true JP5562136B2 (ja) 2014-07-30

Family

ID=45328311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140528A Active JP5562136B2 (ja) 2010-06-21 2010-06-21 撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム

Country Status (2)

Country Link
US (1) US9258471B2 (ja)
JP (1) JP5562136B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9172938B2 (en) 2012-04-27 2015-10-27 Panasonic Intellectual Property Management Co., Ltd. Content reproduction method, content reproduction system, and content imaging device
WO2014013763A1 (ja) * 2012-07-17 2014-01-23 Necカシオモバイルコミュニケーションズ株式会社 携帯端末とその制御方法、および、プログラム
JP2014064069A (ja) * 2012-09-20 2014-04-10 Casio Comput Co Ltd 転送制御装置、画像転送制御方法及びプログラム
JP2014078910A (ja) * 2012-10-12 2014-05-01 Sony Corp 画像処理装置、画像処理システム、画像処理方法、及びプログラム
KR102063072B1 (ko) * 2013-02-01 2020-01-07 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6192306B2 (ja) * 2013-02-14 2017-09-06 オリンパス株式会社 撮像装置、管理サーバ、画像送信方法およびプログラム
JP2014219886A (ja) * 2013-05-10 2014-11-20 アルパイン株式会社 端末装置、投稿情報送信方法、投稿情報送信プログラムおよび投稿情報表示システム
US10118500B2 (en) * 2016-03-09 2018-11-06 Ford Global Technologies, Llc Battery capacity estimation based on open-loop and closed-loop models
JP6551946B2 (ja) * 2017-07-13 2019-07-31 アルパイン株式会社 端末装置、投稿情報送信方法、投稿情報送信プログラムおよび投稿情報表示システム
JP6367437B2 (ja) * 2017-07-13 2018-08-01 アルパイン株式会社 端末装置、投稿情報送信方法、投稿情報送信プログラムおよび投稿情報表示システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4339673B2 (ja) * 2003-12-19 2009-10-07 京セラ株式会社 携帯端末装置、通信システム、及び無線装置における撮像制御方法
JP2005339214A (ja) 2004-05-27 2005-12-08 Oki Electric Ind Co Ltd オンラインアルバムシステム、当該システムに用いるサーバ、端末装置、およびプログラム
JP2006251383A (ja) * 2005-03-10 2006-09-21 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及びプログラム
JP2009027607A (ja) * 2007-07-23 2009-02-05 Fujifilm Corp 撮影装置、携帯通信機器および警告システム
JP2009134333A (ja) * 2007-11-28 2009-06-18 Nec Corp デジタル写真共有システム装置
JP2010068247A (ja) * 2008-09-10 2010-03-25 Fujifilm Corp コンテンツ出力装置、方法、プログラムおよびシステム
US7986344B1 (en) * 2008-10-16 2011-07-26 Olympus Corporation Image sample downloading camera, method and apparatus
US9210232B2 (en) * 2009-02-26 2015-12-08 Nokia Technologies Oy Method and apparatus for adaptive media transfer
US20110069179A1 (en) * 2009-09-24 2011-03-24 Microsoft Corporation Network coordinated event capture and image storage
US20110292231A1 (en) * 2010-05-28 2011-12-01 Winters Dustin L System for managing privacy of digital images
KR101761613B1 (ko) * 2010-10-04 2017-07-26 엘지전자 주식회사 이동 단말기 및 이것의 영상 송신 방법

Also Published As

Publication number Publication date
JP2012005028A (ja) 2012-01-05
US20110310259A1 (en) 2011-12-22
US9258471B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
JP5562136B2 (ja) 撮像装置、情報配信装置、及び情報送信方法、情報配信方法、並びにプログラム
KR100649040B1 (ko) 화상 데이터 관리·열람 방법
US7714910B2 (en) Image file recording method, image recording and playback method, image recording and playback system, image recording apparatus, and image playback apparatus
CN103842936A (zh) 将多个实况视频剪辑和静态照片记录、编辑和合并为成品组合作品
JP5121285B2 (ja) 被写体メタデータ管理システム
JP2004104429A (ja) 画像記録装置及びその制御方法
CN102129448A (zh) 图像管理设备及其控制方法
CN105323303A (zh) 管理元数据的系统和方法
US20140206337A1 (en) System and method for managing file catalogs on a wireless handheld device
KR102180474B1 (ko) 백업 정보를 디스플레이 하여 이미지 파일을 관리하는 장치 및 방법
KR20160016576A (ko) 메타 데이터를 관리하는 시스템 및 방법
JP5950686B2 (ja) 画像処理装置、その制御方法、プログラム
CN102833493A (zh) 一种移动终端的图像显示方法及系统
JP2012084052A (ja) 撮像装置、制御方法及びプログラム
US9307113B2 (en) Display control apparatus and control method thereof
JP2014027424A (ja) 撮像装置及びその制御方法
JP2013065165A (ja) 画像表示方法及び装置、画像表示プログラム、並びに画像表示システム
JP2012147267A (ja) 情報記録装置およびプログラム
KR101963298B1 (ko) 사진 관리 전용 어플리케이션이 구동되는 스마트기기 및 그 사진관리방법
JP2004200997A (ja) 情報処理装置
WO2021039129A1 (ja) 情報処理装置、情報処理方法、プログラム
EP2230816A1 (en) System and method for managing file catalogs on a wireless handheld device
CA2703504C (en) System and method for managing file catalogs on a wireless handheld device
JP2014075123A (ja) 記録装置、記録装置の制御方法、プログラム
JP2022176567A (ja) 再生情報生成装置、動画編集装置および動画編集プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140610

R151 Written notification of patent or utility model registration

Ref document number: 5562136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151