JP2012089928A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2012089928A JP2012089928A JP2010232780A JP2010232780A JP2012089928A JP 2012089928 A JP2012089928 A JP 2012089928A JP 2010232780 A JP2010232780 A JP 2010232780A JP 2010232780 A JP2010232780 A JP 2010232780A JP 2012089928 A JP2012089928 A JP 2012089928A
- Authority
- JP
- Japan
- Prior art keywords
- attribute information
- information
- image processing
- image
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、画像の属性情報を処理するための技術に関するものである。 The present invention relates to a technique for processing image attribute information.
デジタルカメラや携帯電話で撮影した画像をブログや電子アルバムで配信することが日常的に行われるようになっている。さらに、画像に撮影位置が特定できる情報(GPS情報など)が付加されるようになってきている。 Distribution of images taken with digital cameras and mobile phones via blogs and electronic albums has become common. Furthermore, information (GPS information or the like) that can specify the shooting position is added to the image.
このような状況の中で、プライバシーに関わる情報を守るため、インターネット等の通信網経由でファイルを転送するとき、ファイルに付加されている情報を自動的に削除するデジタルカメラが提案されている(特許文献1)。 In such a situation, in order to protect information related to privacy, a digital camera that automatically deletes information added to a file when transferring the file via a communication network such as the Internet has been proposed ( Patent Document 1).
しかしながら、特許文献1では、ファイルに付加されている情報を削除してしまうと、検索や表示に全く使えなくなってしまうという問題があった。本発明は以上の問題に鑑みてなされたものであり、撮影者のプライバシーを保護すると共に、撮影場所や撮影日時の情報を検索や表示に使用可能にする為の技術を提供することを目的とする。
However, in
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、画像データと、該画像データと関連付けて記録される属性情報と、を取得する取得手段と、前記取得手段により取得された前記属性情報よりも精度を落とした低精度属性情報を生成するか否かを判断する判断手段と、前記判断手段が前記生成を行うと判断した場合に、前記精度を落とした低精度属性情報を生成する生成手段と、前記判断手段が前記生成を行わないと判断した場合には、前記取得手段が取得した属性情報と画像データとを出力し、前記判断手段により前記生成を行うと判断した場合には、前記生成手段が生成した低精度属性情報と前記画像データとを出力する出力手段とを備えることを特徴とする。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, whether to generate image data and attribute information recorded in association with the image data, and to generate low-accuracy attribute information with lower accuracy than the attribute information acquired by the acquisition unit A determination unit that determines whether or not, a generation unit that generates low-precision attribute information with reduced accuracy when the determination unit determines to perform the generation, and a determination unit that determines that the generation is not performed If the determination means outputs the attribute information and image data acquired by the acquisition means, and the determination means determines that the generation is to be performed, the low-precision attribute information generated by the generation means and the image data Output means for outputting.
本発明の構成によれば、撮影者のプライバシーを保護すると共に、撮影場所や撮影日時の情報を検索や表示に使用可能にすることができる。 According to the configuration of the present invention, it is possible to protect the privacy of the photographer and to make it possible to use information on the shooting location and shooting date and time for searching and displaying.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態に係る画像処理装置は、固体撮像素子を用いて光学像を画像信号に変換して撮影を行う、デジタルスチルカメラやデジタルビデオカメラ等のカメラが撮像した画像を取り扱う。本実施形態では、画像を外部機器に対して送信する際に、プライバシーに関わる属性情報である撮影場所と撮影日時とを、ある範囲を有する情報に変換し、画像と関連づけて記録する画像処理装置についての説明を行う。なお、画像処理装置が外部機器に対して送信処理を行った後、この外部機器は即時に第三者に提供できる状態にするものとする。
[First Embodiment]
The image processing apparatus according to the present embodiment handles an image captured by a camera such as a digital still camera or a digital video camera that performs imaging by converting an optical image into an image signal using a solid-state imaging device. In this embodiment, when an image is transmitted to an external device, an image processing apparatus that converts a shooting location and shooting date and time, which are attribute information related to privacy, into information having a certain range and records the information in association with the image. Will be described. Note that after the image processing apparatus performs transmission processing on an external device, the external device is ready to be provided to a third party.
<本願明細書で用いる文言の定義>
以下の説明で用いる文言が指し示す定義を、ここに列挙する。なお、これらの文言のより詳細な定義については、以下の説明で明らかとなるであろう。
<Definition of wording used in this specification>
The definitions indicated by the words used in the following description are listed here. A more detailed definition of these terms will become apparent in the following description.
・ 「抽象化」 … 詳細な情報を、より低い精度で対象を特定するための情報や、ある範囲で対象を特定するための情報に変換すること。何れにしても、より低い精度の情報に変換することを指す。 ・ “Abstraction”: Converting detailed information into information for specifying a target with lower accuracy or information for specifying a target within a certain range. In any case, it refers to conversion to information with lower accuracy.
・ 「送信」 … データを外部機器に通信回線経由で送信すること。たとえば、デジタルカメラからインターネット経由でサーバコンピュータ(サーバ)にデータを送ること。 ・ “Transmission”: Sending data to an external device via a communication line. For example, sending data from a digital camera to a server computer (server) via the Internet.
・ 「配信」 … 送信先の外部機器において、第三者に提供できる状態にすること。たとえば、サーバコンピュータにて、第三者に提供できる状態にすること。 ・ “Distribution”: To be in a state where it can be provided to a third party on the external device at the destination. For example, the server computer can be provided to a third party.
<ディジタルスティルカメラの構成例について>
本実施形態では、画像処理装置として動作するディジタルスティルカメラを例に取り、説明する。また以下では、本実施形態における特徴を明確に説明するために、ディジタルスティルカメラが有する全ての動作機能について説明するのではなく、ディジタルスティルカメラがアクセス可能なメモリ内に格納された画像に対する制御機能に焦点を絞って説明する。
<Configuration example of digital still camera>
In the present embodiment, a digital still camera that operates as an image processing apparatus will be described as an example. In the following, in order to clearly describe the features of the present embodiment, not all the operation functions of the digital still camera are described, but a control function for an image stored in a memory accessible by the digital still camera. Focus on and explain.
本実施形態で説明するディジタルスティルカメラの機能構成例について、図1のブロック図を用いて説明する。上記の通り、ここではディジタルスティルカメラの全体について説明するわけではないため、図1には、ディジタルスティルカメラが有する全ての構成のうち、以下の説明で登場する構成のみを示している。 A functional configuration example of the digital still camera described in the present embodiment will be described with reference to the block diagram of FIG. As described above, the entire digital still camera is not described here, and FIG. 1 shows only the configurations that appear in the following description among all the configurations of the digital still camera.
撮像装置100は、固体撮像素子を用いて光学像を画像信号に変換し、変換した画像信号から画像(撮像画像)のデータを生成する為のものである。CPU101はROM102やRAM103に格納されているコンピュータプログラムやデータを用いてディジタルスティルカメラ全体の動作制御を行うと共に、ディジタルスティルカメラが行うものとして後述する様々な処理を実行する。
The
ROM102には、CPU101の動作処理手順(例えばディジタルスティルカメラの電源をONにした時にCPU101に行わせる処理や、基本入出力処理等)をCPU101に実行させるためのコンピュータプログラムやデータが格納されている。また、ROM102には、ディジタルスティルカメラが行うものとして後述する各種の処理をCPU101に実行させるためのコンピュータプログラムやデータが格納されている。また、ディジタルスティルカメラの各種の設定データもこのROM102に格納されている。ROM102に格納されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。
The
RAM103は、メディアドライブ108に装着された記憶媒体やROM102からロードされたコンピュータプログラムやデータを一時的に記憶する為のエリアを有する。更にRAM103は、I/F(インターフェース)109を介してディジタルスティルカメラ外から受信したデータを一時的に記憶する為のエリアを有する。更にRAM103は、CPU101が各種の処理を実行する際に使用するワークエリアも有する。このようにRAM103は、これらのエリアを含め、各種のエリアを適宜提供することができる。
The
表示装置104は、図4を用いて後述するディスプレイ401を表示画面として有する装置であって、CPU101による処理結果を画像や文字として表示する。この表示する内容には、例えば、送信制御のための設定を行う画面(GUI:グラフィカルユーザインターフェース)や、メディアドライブ108に装着された記憶媒体等のメモリに格納されているデータに係る情報がある。
The
入力装置107は、ボタン等、ディジタルスティルカメラの操作者(ユーザ)が操作することで各種の操作指示をCPU101に対して入力するためのものである。入力装置107の詳細については、図4を用いて後述する。
The
メディアドライブ108は、ディジタルスティルカメラに対して着脱可能な記憶媒体をディジタルスティルカメラに対して装着するためのI/Fとして機能するものであり、メディアドライブ108はこの装着された記憶媒体に対してデータの読み書きを行う。 The media drive 108 functions as an I / F for mounting a storage medium that is detachable from the digital still camera to the digital still camera. The media drive 108 is connected to the mounted storage medium. Read and write data.
I/F109は、ディジタルスティルカメラを通信回線111に接続する為のものである。通信回線111には、コンピュータネットワーク112が接続されており、更にこのコンピュータネットワーク112には、サーバやパーソナルコンピュータ等の外部機器が接続されている。然るにディジタルスティルカメラは、このI/F109を介して、コンピュータネットワーク112に接続されている外部機器とのデータ通信を行うことができる。本実施形態では、衛星測位システム(GPS)を利用して現在位置を算出するサーバがコンピュータネットワーク112に接続されているので、ディジタルスティルカメラはこのI/F109を介してこのサーバから自身の現在位置を取得することができる。
The I /
上記の各部はシステムバス110に接続されている。このシステムバス110は、アドレスバス、データバス、制御バス等からなるものである。
Each unit described above is connected to the
<画像ファイルの構成について>
次に、ディジタルスティルカメラが取り扱う画像のファイル構成について、図2を用いて説明する。なお、本実施形態では、図2に示したファイル構成を採用するが、以下に説明する各処理が実現可能であれば、このファイル構成は適宜変更しても良い。領域200及び領域201は共に、Exif規格に準じて画像属性情報を記録するための領域である。
<About the structure of image files>
Next, the image file structure handled by the digital still camera will be described with reference to FIG. In this embodiment, the file configuration shown in FIG. 2 is adopted. However, the file configuration may be changed as appropriate as long as each process described below can be realized. Both the
領域200は、Exif規格の基本的な情報を記録するための領域である。領域200内には、本ファイル内に記録する画像のデータサイズ、撮影日時、撮影場所、撮影機種、フラッシュオン/オフ、等、画像撮像時における撮像状況(撮像環境)を示す情報、画像の読み出しや再生、制御に必要な情報、が記録されている。
The
領域201は、Exif規格に準じて、ディジタルスティルカメラのメーカー独自のフォーマットで画像属性情報を記録するための領域である。領域201内には、送信済みフラグ、配信済みフラグ、撮影場所範囲情報、撮影時間範囲情報、等、画像撮像時における撮像状況を示す情報、制御に必要な情報、が記録されている。送信済みフラグは、本ファイルが既に外部機器に送信済みであるか否か(TRUE若しくはFALSE)を示すフラグである。配信済みフラグは、本ファイルが既に外部機器にて配信済みであるか否か(TRUE若しくはFALSE)を示すフラグである。
The
領域202には、後述する領域203内に記録される画像のサムネイル画像(縮小画像)のデータが記録される。各画像ファイル内のサムネイル画像は、一覧表示を行う指示が入力された場合に、表示装置104のディスプレイ401上に一覧表示される。領域203内には、撮像装置100が生成した撮像画像のデータ(画像データ)が記録される。
In the
撮像装置100がCPU101による制御に従って撮像画像のデータを生成すると、CPU101は、領域200に記録するための情報を取得する。より詳しくは、CPU101は、I/F109を介して、コンピュータネットワーク112に接続されている外部機器から、GPSを利用して測定された「撮像装置100による撮影場所を示す緯度、経度、高度、測位時間等」を取得する。そしてCPU101は、この取得した情報を、領域200に記録する。
When the
また、CPU101は、送信済みフラグ及び配信済みフラグをFalseに初期化してから、領域201内に記録する。なお、送信済みフラグ、撮影場所範囲情報、撮影時間範囲情報、の使用方法については、本実施形態にて後述する。また、配信済みフラグの使用方法については、第3の実施形態にて後述する。
Further, the
もちろん、撮像装置100が生成した撮像画像のデータは、CPU101により領域203内に記録されるし、この撮像画像のサムネイル画像のデータは、CPU101により領域202内に記録される。
Of course, the captured image data generated by the
このように、1枚の撮像画像のデータを生成すると、この撮像画像に対して図2に例示するような構成を有する画像ファイルが生成され、メディアドライブ108に装着されている記憶媒体に記録される。もちろん、記録先についてはこれに限定するものではないし、記録せずに、何らかの出力先に出力しても良い。以下では、このようにして画像ファイルを形成し、形成した画像ファイルを記憶媒体に記録するまでの一連の処理を、「撮像」と呼称する。
As described above, when data of one captured image is generated, an image file having a configuration illustrated in FIG. 2 is generated for the captured image and is recorded on a storage medium attached to the
<入力装置107について>
ディジタルスティルカメラが有する入力装置107について、ディジタルスティルカメラの背面図である図4を用いて説明する。上記の通り、入力装置107は、ディジタルスティルカメラのユーザが操作するためのボタン群などにより構成されており、それぞれは図4に示す如く、ディジタルスティルカメラの様々な箇所に取り付けられている。もちろん、図4に示した取り付け位置は一例であって、これに限るものではない。
<About the
The
本実施形態に係るディジタルスティルカメラでは、4つのモードを切り替えて使用することができる。第1のモードは、撮像を行うためのモードである「撮影モード」である。第2のモードは、メディアドライブ108に装着された記憶媒体に記録されている画像(サムネイル画像)を、表示装置104のディスプレイ401上に一覧表示するためのモードである「再生モード」である。第3のモードは、各種の設定を行うためのモードである「設定モード」である。第4のモードは、記憶媒体に記録されている画像ファイルをI/F109を介して外部機器に対して送信する為のモードである「送信モード」である。何れのモードが選択されても、CPU101は選択されたモードに応じてディジタルスティルカメラを制御し、この選択されたモードに対応する処理を実現させる。以下では主に設定モード時におけるCPU101による動作について説明する。また、電源ボタン402以外のボタンに関しては、ディジタルスティルカメラに電源が入っているときの機能について説明する。
In the digital still camera according to the present embodiment, four modes can be switched and used. The first mode is a “shooting mode” that is a mode for performing imaging. The second mode is a “reproduction mode” which is a mode for displaying a list of images (thumbnail images) recorded on a storage medium mounted on the media drive 108 on the
レリーズボタン400は、ディジタルスティルカメラのユーザが撮影指示を入力するために押下するものである。CPU101はレリーズボタン400の押下を検知すると、ディジタルスティルカメラの動作モードを「撮影モード」に切り替え、「撮影モード」に応じた動作を行う。
The
ディスプレイ401は上記の通り、表示装置104の表示画面であり、このディスプレイ401には図4に例示するような設定画面などが表示される。もちろん、ディスプレイ401による表示は、CPU101による制御に従って行われる。
The
電源ボタン402は、ディジタルスティルカメラのユーザが、ディジタルスティルカメラの電源のON/OFFを切り替える為に押下するものである。CPU101は、ディジタルスティルカメラの電源が入っていない状態でこの電源ボタン402が押下されたことを検知すると、ディジタルスティルカメラの電源を入れるための動作制御を行う。また、CPU101は、ディジタルスティルカメラの電源が入っている状態でこの電源ボタン402が押下されたことを検知すると、ディジタルスティルカメラの電源を切るための動作制御を行う。
The
撮影モードボタン403は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを撮影モードに切り替えるために押下するものである。CPU101はこの撮影モードボタン403の押下を検知すると、ディジタルスティルカメラの動作モードを撮影モードに切り替える。そしてCPU101は、撮像装置100を撮像準備状態に制御すると共に、撮像装置100から出力された画像をディスプレイ401に表示させる。なお、CPU101は、撮影モードにおいてレリーズボタン400の押下を検知すると、この押下を検知した時点で撮像装置100から出力された画像のファイルを作成し、記憶媒体に記録する。
The
再生ボタン404は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを再生モードに切り替えるために押下するものである。CPU101はこの再生ボタン404の押下を検知すると、ディジタルスティルカメラの動作モードを再生モードに切り替える。そしてCPU101は、記憶媒体に記録されているそれぞれの画像ファイルからサムネイル画像を読み出し、読み出したサムネイル画像群をディスプレイ401上に一覧表示させる。
A
Menuボタン405は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを設定モードに切り替えるために押下するものである。CPU101はこのMenuボタン405の押下を検知すると、ディジタルスティルカメラの動作モードを設定モードに切り替える。そしてCPU101は、ROM102から図4に例示するような設定画面に係るコンピュータプログラムやデータを読み出し、読み出したコンピュータプログラムやデータに基づいて図4に例示するような設定画面をディスプレイ401上に表示させる。もちろん、図4に例示するような設定画面の動作制御についても、このCPU101が行うことになる。
The
送信ボタン411は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを送信モードに切り替えるために押下するものである。CPU101は、この送信ボタン411の押下を検知すると、送信指示が入力されたものと判断し、ディジタルスティルカメラの動作モードを送信モードに切り替える。そしてCPU101は、記憶媒体に記録されている画像ファイルを読み出し、読み出した画像ファイルに対して後述する画像制御処理を行った後、設定モードで設定された送信先に対して送信する。
The
上矢印ボタン407、下矢印ボタン408、左矢印ボタン409、右矢印ボタン410は何れも、ディジタルスティルカメラのユーザが押下することで、対応する方向に選択対象を切り替えるためのものである。それぞれのボタン407〜410が押下されると、CPU101は、対応する方向に選択対象を切り替える。決定ボタン406は、CPU101に対して決定指示を入力するためにディジタルスティルカメラのユーザが押下するためのものである。
The up
ディスプレイ401内に表示されている設定画面のうち、現在アクティブになっている(操作可能となっている)項目には、選択枠415が重畳表示されている。CPU101は、上矢印ボタン407の押下を検知すると、選択枠415が現在位置している項目よりも1つ上の項目にこの選択枠415を移動させる。CPU101は、下矢印ボタン408の押下を検知すると、選択枠415が現在位置している項目よりも1つ下の項目にこの選択枠415を移動させる。CPU101は、左矢印ボタン409の押下を検知すると、選択枠415が現在位置している項目よりも1つ左の項目にこの選択枠415を移動させる。CPU101は、右矢印ボタン410の押下を検知すると、選択枠415が現在位置している項目よりも1つ右の項目にこの選択枠415を移動させる。
Of the setting screen displayed in the
領域412は、画像ファイルの送信先を入力するための領域(エディットボックス)である。ユーザがボタン407〜410を操作して選択枠415を領域412に移動させてから決定ボタン406を押下すると、領域413が使用可能となる。ユーザはボタン407〜410を用いて領域413内に表示されている文字や記号を選択することができ、選択後に決定ボタン406を押下すると、この選択した文字や記号が領域413の上段に追加表示される。この操作を、送信先を示す文字列が領域413の上段に表示されるまで繰り返して行う。そして送信先を示す文字列が領域413の上段に表示された後、ユーザがボタン407〜410を操作して選択枠415をボタン414に移動させ、そこで決定ボタン406を押下すると、CPU101は、送信先の設定が完了したものと判断する。するとCPU101は、領域413の上段に表示されている送信先を示す文字列を、領域412内に表示する。もちろん、送信先の設定方法はこれに限るものではない。以降に説明する操作部分は、プライバシーに関わる属性情報を、抽象化した情報(低精度属性情報)に変換する為の設定に関するものである。
An
チェックボックス416は、抽象化に係る設定を行うか否かを切り替えるためのものである。ユーザがボタン407〜410を操作して選択枠415をこのチェックボックス416の位置に移動させた後、決定ボタン406を押下する毎に、チェックボックス416のON/OFFが切り替わる。チェックボックス416がONの状態で決定ボタン406を押下するとOFFになり、チェックボックス416がOFFの状態で決定ボタン406を押下するとONになる。
A
ユーザがボタン407〜410を操作してメニュー417の位置に選択枠415を移動させ、そこで決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「送信時」、「撮影時」、「配信時」、である。ユーザがボタン407〜410を操作し、所望の項目の位置に選択枠415を移動させ、そこで決定ボタン406を押下すると、CPU101は、この所望の項目を、抽象化した情報への変換タイミングに係る設定情報としてRAM103等のメモリに格納する。更にCPU101は、この所望の項目を、メニュー417上に文字列として表示する。図4では「送信時」が所望の項目として選択されたので、この「送信時」がメニュー417上に文字列として表示されている。
When the user operates the
ユーザがボタン407〜410を操作してメニュー418の位置に選択枠415を移動させ、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「自宅の周辺だった場合」、「夜間だった場合」、である。なお、ここでは「夜間」とは「20:00〜6:00の時間帯」を指すものとするが、これは一例に過ぎない。ユーザがボタン407〜410を操作し、所望の項目の位置に選択枠415を移動させ、そこで決定ボタン406を押下すると、CPU101は、この所望の項目を、抽象化した情報への変換条件に係る設定情報としてRAM103等のメモリに格納する。更にCPU101は、この所望の項目を、メニュー418上に文字列として表示する。図4では「自宅の周辺だった場合」が所望の項目として選択されたので、この「自宅の周辺だった場合」がメニュー418上に文字列として表示されている。
When the user operates the
ボタン419は、抽象化した情報への変換に係る詳細設定を行うためのものである。ユーザがボタン407〜410を操作して選択枠415をボタン419の位置に移動させ、そこで決定ボタン406を押下すると、CPU101は、抽象化した情報への変換に係る詳細設定を行うための画面をディスプレイ401上に表示する。この詳細設定を行うための画面については、本実施形態では触れず、第2の実施形態以降で触れることにする。
A
なお、図4に例示した設定画面で設定した各種の設定情報は、他の動作モードに切り替わった場合などにRAM103などのメモリに格納するようにしても良いし、その格納するタイミングについては特に限定するものではない。なお、何れの場合でも、チェックボックス416がON/OFFの何れであるのかを特定する為の情報も、設定情報としてRAM103などのメモリに格納する。そしてこれらの設定情報は、以下に説明する画像制御処理で用いることになる。
Various setting information set on the setting screen illustrated in FIG. 4 may be stored in a memory such as the
<画像制御処理について>
画像ファイルを送信するためにディジタルスティルカメラが行う処理について、同処理のフローチャートを示す図3を用いて説明する。図3のフローチャートに従った処理は、上記の通り、CPU101がROM102に格納されているコンピュータプログラムやデータを用いて行うものである。
<About image control processing>
A process performed by the digital still camera to transmit the image file will be described with reference to FIG. 3 showing a flowchart of the process. The processing according to the flowchart of FIG. 3 is performed by the
ステップS301ではCPU101は、入力装置107を用いたユーザ操作を監視し、ユーザ操作がなされた場合、このユーザ操作が、メニュー417を用いて設定した設定情報が指し示す変換タイミングに合致しているか否かを判断する。ユーザ操作が、メニュー417を用いて設定した設定情報が指し示す変換タイミングに合致している場合には、処理はステップS302に進む。一方、ユーザ操作が、メニュー417を用いて設定した設定情報が指し示す変換タイミングに合致していない場合には、本処理を終了する。
In step S301, the
ここでは一例として、メニュー417を用いて設定した設定情報が「送信時」であるものとする。然るにこの場合、ユーザが送信ボタン411を押下したことをCPU101が検知した場合には、処理はステップS302に進み、検知していない場合には、本処理を終了する。
Here, as an example, it is assumed that the setting information set using the
ステップS302ではCPU101は、メディアドライブ108に装着されている記憶媒体に対してアクセスし、記憶媒体内に記録されている各画像ファイル内の領域201内の送信済みフラグを参照する。そして、送信済みフラグがFALSEとなっている画像ファイルのみをROM102から読み出し、RAM103にロード(抽出)する。
In step S302, the
ステップS303では、CPU101は、カウンタnを0に初期化する。ステップS304ではCPU101は、カウンタnの値と、ステップS302でRAM103にロードした画像ファイルの総数と、の大小比較を行う。この大小比較の結果、(カウンタnの値)<(ステップS302でRAM103にロードした画像ファイルの総数)であれば、処理はステップS305に進む。一方、(カウンタnの値)≧(ステップS302でRAM103にロードした画像ファイルの総数)であれば、本処理を終了する。
In step S303, the
ステップS305ではCPU101は、図4の設定画面を用いて設定されRAM103などのメモリに格納された設定情報のうち、チェックボックス416がONであるかOFFであるのかを特定する為の設定情報を参照する。そしてこの参照した設定情報が、チェックボックス416がONであることを指し示している場合には、処理はステップS306に進み、OFFであることを指し示している場合には、処理はステップS311に進む。この場合、ステップS311ではCPU101は、ステップS302でRAM103にロードした画像ファイルのうち未送信の画像ファイルを、I/F109を介して外部機器に対して送信する。
In step S305, the
ステップS306ではCPU101は、ステップS302でRAM103にロードした画像ファイルのうち、送信済みフラグがFALSEであるものを1つ選択する。そして選択した画像ファイル内の領域200内に記録されている情報のうち、画像の撮影場所と撮影日時と、を示す情報を読み出す。
In step S306, the
ステップS307ではCPU101は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたか否かを判断する。例えば、ディジタルスティルカメラのユーザの自宅の緯度、経度をRAM103などのメモリに予め登録しておき、メニュー418で「自宅の周辺だった場合」が選択されたとする。この場合、ステップS307では、自宅の緯度、経度が指し示す位置(自宅の位置)と、ステップS306で読み出した撮影場所と、の間の距離を算出する。そしてこの算出した距離が、予め定められた閾値以下であれば、「自宅の周辺である」と判断する。もちろん、この判断方法についてはこれに限るものではない。
In step S307, the
そして、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、処理はステップS308に進み、満たされていないと判断した場合には、処理はステップS311に進む。この場合、ステップS311では、ステップS306で選択した画像ファイルを、I/F109を介して外部機器に対して送信する。
If it is determined that the conversion condition indicated by the setting information set using the
ステップS308ではCPU101は、ステップS306で読み出した撮影場所について範囲情報を生成する。例えば、撮影場所の緯度が43.323464度の場合、緯度の範囲情報は、この数値「43.323464」を範囲内とする、この範囲の両端の数値43〜44度とする。また、経度が142.353991度の場合、経度の範囲情報は、この数値「142.353991」を範囲内とする、この範囲の両端の数値142〜143度とする。このようにして、範囲情報(上限値と下限値)を生成すると、生成した範囲情報をRAM103などのメモリに格納する。
In step S308, the
ステップS309ではCPU101は、ステップS306で読み出した撮影日時について範囲情報(日時範囲)を生成する。例えば、撮影日時が2009年1月3日9時45分15秒の場合、撮影日時の範囲情報は、2009年1月3日9時〜10時とする。このようにして、範囲情報(上限値と下限値)を生成すると、生成した範囲情報をRAM103などのメモリに格納する。
In step S309, the
ステップS310ではCPU101は、ステップS306で読み出した撮影場所についてステップS308で生成した範囲情報を用いて、この読み出した撮影場所を更新することで、この撮影場所を抽象化した情報に更新する。同様に、ステップS306で読み出した撮影日時についてステップS309で生成した範囲情報を用いて、この読み出した撮影日時を更新することで、この撮影日時を抽象化した情報に更新する。これにより、ステップS306で選択した画像ファイル内の撮影場所及び撮影日時を抽象化してこの画像ファイルを更新する。
In step S310, the
撮影場所及び撮影日時について、抽象前と抽象後を図5に示す。501の欄には、領域200(Exif_Base属性情報領域)及び領域201(Exif_MakerNote属性情報領域)を記している。抽象前には、領域200内には上述の通り、502で示す如く、撮影場所としての緯度、経度、撮影日時が記録されている。
The pre-abstraction and post-abstraction are shown in FIG. In the
ステップS310ではCPU101は先ず、503に示す如く、領域200内のこれらの情報を領域201内にコピーすると共に、領域200内のこれらの情報を削除する。そして次にCPU101は、504に示す如く、領域201内のコピーした緯度を、緯度について生成した上限値と下限値とに置き換える。これにより、緯度「43.323464度」を緯度「43」及び「44」に抽象化する。同様にCPU101は、504に示す如く、領域201内のコピーした経度を、経度について生成した上限値と下限値とに置き換える。これにより、経度「142.353991度」を経度「142」及び「143」に抽象化する。同様にCPU101は、504に示す如く、領域201内のコピーした撮影日時を、撮影日時について生成した上限値と下限値とに置き換える。これにより、撮影日時「2009年1月3日9時45分15秒」を撮影日時「2009年1月3日9時」及び「2009年1月3日10時」に抽象化する。
In step S310, the
そしてこの場合、ステップS311ではCPU101は、ステップS310で領域200及び領域201が更新された画像ファイルを、I/F109を介して外部機器に対して送信する。なお、この外部機器は上記の設定モードで設定した送信先である。もし、ユーザが送信先を設定していなければ既定の送信先としてもよいし、警告を表示し、ユーザに送信先の設定を促してもよい。
In this case, in step S311, the
ステップS312ではCPU101は、ステップS311で送信した画像ファイル内の送信済みフラグをTRUEに書き換える。ステップS313ではCPU101は、カウンタnの値を1つインクリメントする。そしてステップS304以降の処理を繰り返す。
In step S312, the
なお、本実施形態では、画像ファイルを外部機器に送信したか否かを判定するためにこの画像ファイルの送信済みフラグを参照した。しかし、画像ファイルを外部機器に送信した後、この画像ファイルを記憶媒体から削除しても良く、その場合、記憶媒体内にこの画像ファイルが残っているか否かを判定すれば良い。 In this embodiment, the transmitted flag of the image file is referred to determine whether the image file has been transmitted to the external device. However, after the image file is transmitted to the external device, the image file may be deleted from the storage medium. In this case, it may be determined whether or not the image file remains in the storage medium.
<外部機器について>
ここでは、上記の外部機器、即ち、上記のようにディジタルスティルカメラから送信された画像ファイルを受信し、受信した画像ファイル内の画像を表示する画像表示装置として機能する外部機器について説明する。
<About external devices>
Here, the above-described external device, that is, the external device that functions as an image display device that receives the image file transmitted from the digital still camera as described above and displays an image in the received image file will be described.
先ず、このような画像表示装置として機能する外部機器が、ディジタルスティルカメラから送信された画像ファイルを受信した場合に行う処理について、同処理のフローチャートを示す図6を用いて説明する。外部機器が有するメモリには、図6のフローチャートに従った処理を外部機器が有するCPUに実行させるためのコンピュータプログラムやデータが格納されている。然るに、外部機器が有するCPUがこのコンピュータプログラムやデータを用いて処理を実行することで、この外部機器は、図6のフローチャートに従った処理を実行することができる。 First, processing performed when an external device functioning as such an image display apparatus receives an image file transmitted from a digital still camera will be described with reference to FIG. 6 showing a flowchart of the processing. The memory of the external device stores a computer program and data for causing the CPU of the external device to execute processing according to the flowchart of FIG. However, when the CPU of the external device executes processing using the computer program and data, the external device can execute processing according to the flowchart of FIG.
なお、以下では、ディジタルスティルカメラからは画像A及び画像Bについては撮影場所及び撮影日時は抽象化せずに外部機器に送信され、画像Cについては撮影場所及び撮影日時は抽象化してから外部機器に送信されたケースを例に取り説明する。しかし、以下の説明がこのケースに限ったものでものはないことは、以下の説明より明らかとなるであろう。 In the following description, the digital still camera transmits images A and B to the external device without abstracting the shooting location and shooting date and time, and the image C for the external device after abstracting the shooting location and shooting date and time. As an example, the case transmitted to will be described. However, it will be clear from the following description that the following description is not limited to this case.
ステップS601では、ディジタルスティルカメラから送信され、外部機器が有するハードディスクなどのメモリ内に取り込まれたそれぞれの画像ファイルを、外部機器が有するRAMなどのメモリに読み出す。 In step S601, each image file transmitted from the digital still camera and taken into a memory such as a hard disk included in the external device is read out to a memory such as a RAM included in the external device.
ステップS602では、以下の処理で用いるカウンタnの値を0に初期化する。ステップS603では、カウンタnの値と、ステップS601で読み出した画像ファイルの総数と、の大小比較を行う。この大小比較の結果、(カウンタnの値)<(ステップS601で読み出した画像ファイルの総数)であれば、処理はステップS604に進み、(カウンタnの値)≧(ステップS601で読み出した画像ファイルの総数)であれば、本処理を終了する。 In step S602, the value of the counter n used in the following processing is initialized to zero. In step S603, the size of the counter n is compared with the total number of image files read in step S601. As a result of the size comparison, if (value of counter n) <(total number of image files read in step S601), the process proceeds to step S604, where (value of counter n) ≧ (image file read in step S601). If this is the case, the process is terminated.
ステップS604では、ステップS601で読み出した画像ファイルのうち未だ以下のステップにおける処理対象となっていない画像ファイルを1つ、選択画像ファイルとして選択する。そして選択画像ファイル内に記録されている撮影場所が抽象化されたものであるのか否かを判断する。この判断では、選択画像ファイル内の領域200内に緯度、経度が記録されていれば、この選択画像ファイル内に記録されている撮影場所は抽象されたものではないと判断する。一方、選択画像ファイル内の領域200内に緯度、経度が記録されていなければ、この選択画像ファイル内に記録されている撮影場所は抽象されたものであると判断する。
In step S604, one of the image files read out in step S601 that has not yet been processed in the following steps is selected as a selected image file. Then, it is determined whether or not the shooting location recorded in the selected image file is an abstraction. In this determination, if the latitude and longitude are recorded in the
この判断の結果、選択画像ファイル内に記録されている撮影場所が抽象化されたものである場合には、処理はステップS606に進み、抽象化されたものではない場合には、処理はステップS605に進む。 If the result of this determination is that the shooting location recorded in the selected image file is abstracted, the process proceeds to step S606, and if it is not abstracted, the process proceeds to step S605. Proceed to
ステップS605では、外部機器が有する表示画面上に表示されている地図画像上における、選択画像ファイル内の画像の縮小画像(若しくはサムネイル画像の縮小画像)の配置位置を、選択画像ファイル内の撮影場所を用いて求める。そしてこの求めた配置位置にこの縮小画像、及び選択画像ファイル内に記録されている緯度、経度などの属性情報、を配置する。 In step S605, the arrangement position of the reduced image (or thumbnail image) in the selected image file on the map image displayed on the display screen of the external device is set as the shooting location in the selected image file. Find using. Then, the reduced image and attribute information such as latitude and longitude recorded in the selected image file are arranged at the obtained arrangement position.
ステップS606では、選択画像ファイル内の撮影場所が範囲情報として記録されているか否か、即ち、撮影場所が上限値と下限値とを用いて記録されているか否かを判断する。この判断では、緯度1、緯度2、経度1、経度2のそれぞれに対応する情報が記録されているか否かを判断する。緯度1、緯度2、経度1、経度2のそれぞれに対応する情報が記録されていれば、選択画像ファイル内の撮影場所が上限値と下限値とを用いて記録されていると判断する。一方、緯度1、緯度2、経度1、経度2のそれぞれに対応する情報が記録されていなければ、選択画像ファイル内の撮影場所は上限値と下限値とを用いて記録されていないと判断する。
In step S606, it is determined whether or not the shooting location in the selected image file is recorded as range information, that is, whether or not the shooting location is recorded using an upper limit value and a lower limit value. In this determination, it is determined whether information corresponding to each of
選択画像ファイル内の撮影場所が範囲情報として記録されている場合には、処理はステップS607に進み、選択画像ファイル内の撮影場所が範囲情報として記録されていない場合には、処理はステップS609に進む。選択画像ファイル内の撮影場所が範囲情報として記録されていないような選択画像ファイルは、領域200にも領域201にも地図画像上に表示するために必要な緯度経度の情報がないことになる。そのため、地図画像上に表示する際に、表示位置を算出することができない。よって、このような選択画像ファイル内の画像については、表示しないものとする。
If the shooting location in the selected image file is recorded as range information, the process proceeds to step S607. If the shooting location in the selected image file is not recorded as range information, the process proceeds to step S609. move on. In the selected image file in which the shooting location in the selected image file is not recorded as the range information, neither the
ステップS607では、選択画像ファイル内の撮影場所(範囲情報)が指し示す地図画像上の範囲を求める。そして求めた範囲を示す枠を、この地図画像上に配置する。ステップS608では、ステップS607で求めた枠内の位置に、選択画像ファイル内の画像の縮小画像(若しくはサムネイル画像の縮小画像)、及び選択画像ファイル内に記録されている緯度、経度などの属性情報、を配置する。ステップS609では、カウンタnの値を1つインクリメントする。そして処理はステップS603に戻り、以降の処理を繰り返す。 In step S607, the range on the map image indicated by the shooting location (range information) in the selected image file is obtained. And the frame which shows the calculated | required range is arrange | positioned on this map image. In step S608, the reduced image of the image in the selected image file (or the reduced image of the thumbnail image) and the attribute information such as the latitude and longitude recorded in the selected image file at the position in the frame obtained in step S607. , To arrange. In step S609, the value of the counter n is incremented by one. Then, the process returns to step S603, and the subsequent processes are repeated.
次に、図6のフローチャートに従って表示される地図画像の一例を図7に示す。地図画像700は、地図画像を管理しているサーバなどから外部機器がダウンロードすることで入手したものである。なお、ダウンロードの際には、画像A、画像B、画像Cのそれぞれの撮影場所が含まれるようなエリアの地図画像をダウンロードするようにする。このように所定のエリアの地図画像をダウンロードする為の技術については一般的なものであるので、これについての詳細な説明は省略する。
Next, an example of the map image displayed according to the flowchart of FIG. 6 is shown in FIG. The
地図画像700の左上隅701は、地図画像700内では北西の端である。地図画像700の右下隅702は、地図画像700では南東の端である。枠703は、ステップS607で求めた範囲を示すものである。ステップS607では、枠703の左上隅704及び右下隅705の位置を、選択画像ファイル内の撮影場所が指し示す地図画像上の範囲を規定する情報として求める。そして枠703内の適当な位置には、画像C及び画像Cの撮影日時が配されたウィンドウ708が配置されている。
The upper
画像Bの画像ファイル内の撮影場所に対応する地図画像700上の位置には「×」のマーカ706が配置されており、その近傍に画像B及び画像Bの撮影日時が配されたウィンドウ707が配置されている。もちろん、マーカ706の位置にウィンドウ707を配置しても良い。この場合、マーカ706は配さないことになる。これは画像Aについても同様である。
An “x”
次に、上記のステップS605における処理、即ち、地図画像700上における縮小画像の配置位置(shotX,shotY)を求める処理について説明する。なお、実際には、配置位置(shotX,shotY)にはマーカ706を配置し、その近傍位置に縮小画像を配置する。
Next, the process in step S605 described above, that is, the process for obtaining the arrangement position (shotX, shotY) of the reduced image on the
ここで、地図画像700において701を原点とし、横方向をX軸方向、縦方向をY軸方向とする。また、ステップS605における処理を行う段階で、以下の変数の値は既知のものであるとする。
Here, in the
mapN0 : 原点701における緯度(度)
mapE0 : 原点701における経度(度)
mapN1 : 右下隅の点702における緯度(度)
mapE1 : 右下隅の点702における経度(度)
shotN : 画像Bの撮影場所の緯度(度)
shotE : 画像Bの撮影場所の経度(度)
uiX0 : 原点701のX座標(pixel)
uiY0 : 原点701のY座標(pixel)
uiX1 : 点702のX座標(pixel)
uiY1 : 点702のY座標(pixel)
shotX : マーカ706のX座標(pixel)
shotY : マーカ706のY座標(pixel)
実際の撮影場所と、地図画像700内の位置と、を一致させるために、式(1)、式(2)が共に真になるようにする。この条件を満たす、地図画像700上における撮影場所の座標は、以下の式(3)、(4)を計算することで求めることができる。
mapN0: Latitude (degrees) at
mapE0: Longitude (degree) at
mapN1: latitude in degrees at
mapE1: Longitude (degrees) at
shotN: Latitude (degrees) of the shooting location of image B
shotE: Longitude (degree) of shooting location of image B
uiX0: X coordinate of origin 701 (pixel)
uiY0: Y coordinate of origin 701 (pixel)
uiX1: X coordinate of point 702 (pixel)
uiY1: Y coordinate of point 702 (pixel)
shotX: X coordinate (pixel) of
shotY: Y coordinate (pixel) of
In order to match the actual shooting location with the position in the
(mapE0-mapE1):(shotE-mapE1)=(uiX0-uiX1):(shotX-uiX1) …(1)
(mapN0-mapN1):(shotN-mapN1)=(uiY0-uiY1):(shotY-uiY1) …(2)
shotX=((uiX0-uiX1)×(shotE-mapE1))÷(mapE0-mapE1)+uiX1 …(3)
shotY=((uiY0-uiY1)×(shotN-mapN1))÷(mapN0-mapN1)+uiY1 …(4)
前述の変数に加え、以下の変数の値は既知のものであるとし、枠(shotX0,shotY0)〜(shotX1,shotY1)の描画位置の算出方法について説明する。
(mapE0-mapE1) :( shotE-mapE1) = (uiX0-uiX1) :( shotX-uiX1) (1)
(mapN0-mapN1) :( shotN-mapN1) = (uiY0-uiY1) :( shotY-uiY1) (2)
shotX = ((uiX0-uiX1) × (shotE-mapE1)) ÷ (mapE0-mapE1) + uiX1 (3)
shotY = ((uiY0-uiY1) × (shotN-mapN1)) ÷ (mapN0-mapN1) + uiY1 (4)
In addition to the variables described above, it is assumed that the values of the following variables are known, and a method of calculating the drawing positions of the frames (shotX0, shotY0) to (shotX1, shotY1) will be described.
shotN0 : 画像Cの撮影場所の範囲の北西端の緯度(度)
shotE0 : 画像Cの撮影場所の範囲の北西端の経度(度)
shotN1 : 画像Cの撮影場所の範囲の南東端の緯度(度)
shotE1 : 画像Cの撮影場所の範囲の南東端の経度(度)
shotX0 : 左上隅704のX座標(pixel)
shotY0 : 左上隅704のY座標(pixel)
shotX1 : 右下隅705のX座標(pixel)
shotY1 : 右下隅705のY座標(pixel)
前述のステップS605における算出方法と同様に、式(5)、式(6)、式(7)、式(8)が全て真になるようにする。この条件を満たす、枠を構成する頂点の座標は、式(9)、式(10)、式(11)、式(12)、を計算することで求めることができる。
shotN0: Latitude (degrees) at the northwestern end of the image C shooting location range
shotE0: Longitude (degrees) at the northwestern end of the shooting location range for image C
shotN1: Latitude (degrees) of the southeastern end of the shooting location range for image C
shotE1: longitude (degrees) at the southeast end of the range of the shooting location of image C
shotX0: X coordinate (pixel) of upper
shotY0: Y coordinate (pixel) of upper
shotX1: X coordinate (pixel) of lower
shotY1: Y coordinate (pixel) of lower
Similar to the calculation method in step S605 described above, the equations (5), (6), (7), and (8) are all made true. The coordinates of the vertices constituting the frame that satisfy this condition can be obtained by calculating Expression (9), Expression (10), Expression (11), and Expression (12).
(mapE0-mapE1):(shotE0-mapE1)=(uiX0-uiX1):(shotX0-uiX1) …(5)
(mapN0-mapN1):(shotN0-mapN1)=(uiY0-uiY1):(shotY0-uiY1) …(6)
(mapE0-mapE1):(shotE1-mapE1)=(uiX0-uiX1):(shotX1-uiX1) …(7)
(mapN0-mapN1):(shotN1-mapN1)=(uiY0-uiY1):(shotY1-uiY1) …(8)
shotX0=((uiX0-uiX1)×(shotE0-mapE1))÷(mapE0-mapE1) +uiX1 …(9)
shotY0=((uiY0-uiY1)×(shotN0-mapN1))÷(mapN0-mapN1) +uiY1 …(10)
shotX1=((uiX0-uiX1)×(shotE1-mapE1))÷(mapE0-mapE1) +uiX1 …(11)
shotY1=((uiY0-uiY1)×(shotN1-mapN1))÷(mapN0-mapN1) +uiY1 …(12)
ここで、撮影場所の座標(shotX,shotY)を求める処理(ステップS605)について、具体的な例を用いて説明する。外部機器がダウンロードした地図画像は、緯度43.45度、経度142.25度から緯度43.25度、経度142.45度の範囲内のエリアのものであるとする。画像Bの詳細な撮影場所は、緯度43.33度、経度142.32度とする。また、地図画像内の座標(uiX1,uiY1)を(0,0)、(uiX0,uiY0)を(1500,2000)とする。また、上記の各変数の値を式(13)に示す。
(mapE0-mapE1) :( shotE0-mapE1) = (uiX0-uiX1) :( shotX0-uiX1) (5)
(mapN0-mapN1) :( shotN0-mapN1) = (uiY0-uiY1) :( shotY0-uiY1) (6)
(mapE0-mapE1) :( shotE1-mapE1) = (uiX0-uiX1) :( shotX1-uiX1) (7)
(mapN0-mapN1) :( shotN1-mapN1) = (uiY0-uiY1) :( shotY1-uiY1) (8)
shotX0 = ((uiX0-uiX1) × (shotE0-mapE1)) ÷ (mapE0-mapE1) + uiX1… (9)
shotY0 = ((uiY0-uiY1) × (shotN0-mapN1)) ÷ (mapN0-mapN1) + uiY1 (10)
shotX1 = ((uiX0-uiX1) × (shotE1-mapE1)) ÷ (mapE0-mapE1) + uiX1 (11)
shotY1 = ((uiY0-uiY1) × (shotN1-mapN1)) ÷ (mapN0-mapN1) + uiY1… (12)
Here, the process (step S605) for obtaining the coordinates (shotX, shotY) of the shooting location will be described using a specific example. The map image downloaded by the external device is assumed to be in an area within the range of 43.45 degrees latitude and 142.25 degrees longitude to 43.25 degrees latitude and 142.45 degrees longitude. The detailed shooting location of the image B is 43.33 degrees latitude and 142.32 degrees longitude. Also, the coordinates (uiX1, uiY1) in the map image are (0, 0), and (uiX0, uiY0) are (1500, 2000). Also, the value of each variable is shown in Equation (13).
mapN0=43.45
mapE0=142.25
mapN1=43.25
mapE1=142.45
shotN=43.33
shotE=142.32
uiX0=0
uiY0=0
uiX1=2000
uiY1=1500 …(13)
式(3)と式(4)に式(13)の値を代入して算出した結果を式(14)、式(15)に示す。
mapN0 = 43.45
mapE0 = 142.25
mapN1 = 43.25
mapE1 = 142.45
shotN = 43.33
shotE = 142.32
uiX0 = 0
uiY0 = 0
uiX1 = 2000
uiY1 = 1500 (13)
The results calculated by substituting the value of the equation (13) into the equations (3) and (4) are shown in the equations (14) and (15).
shotX=((uiX0-uiX1)×(shotE-mapE1))÷(mapE0-mapE1)+uiX1 =((0-2000)×(142.32-142.45))÷(142.25-142.45)+2000= 700 …(14)
shotY=((uiY0-uiY1)×(shotN-mapN1))÷(mapN0-mapN1)+uiY1=((0-1500)×(43.33-43.25))÷(43.45-43.25)+1500= 900 …(15)
以上説明した方法で、撮影場所を算出する。式(14)、式(15)の結果となった場合には、原点701からX軸方向に700pixel、Y軸方向に900pixelの位置を画像Bの撮影場所として求める。
shotX = ((uiX0-uiX1) × (shotE-mapE1)) ÷ (mapE0-mapE1) + uiX1 = ((0-2000) × (142.32-142.45)) ÷ (142.25-142.45) + 2000 = 700… (14 )
shotY = ((uiY0-uiY1) × (shotN-mapN1)) ÷ (mapN0-mapN1) + uiY1 = ((0-1500) × (43.33-43.25)) ÷ (43.45-43.25) + 1500 = 900… (15 )
The shooting location is calculated by the method described above. When the results of Expressions (14) and (15) are obtained, the position of 700 pixels in the X-axis direction and 900 pixels in the Y-axis direction from the
次に、ステップS607における処理について、具体的な例を用いて説明する。画像Cの撮影場所は、緯度43.4度、経度142.3度から緯度43.3度、経度142.4度とする。上記の各変数の値を式(16)に示す。その他の値は式(13)と同じとする。 Next, the process in step S607 will be described using a specific example. The shooting location of the image C is 43.4 degrees latitude, 142.3 degrees longitude to 43.3 degrees latitude, and 142.4 degrees longitude. The value of each of the above variables is shown in equation (16). The other values are the same as in equation (13).
shotN0=43.4
shotE0=142.3
shotN1=43.3
shotE1=142.4 …(16)
式(9)から式(12)に式(13)と式(16)の値を代入して算出した結果を、以下の通り、式(17)から式(20)に示す。
shotN0 = 43.4
shotE0 = 142.3
shotN1 = 43.3
shotE1 = 142.4 (16)
The results calculated by substituting the values of Equations (13) and (16) into Equations (9) to (12) are shown in Equations (17) to (20) as follows.
shotX0=((uiX0-uiX1)×(shotE0-mapE1))÷(mapE0-mapE1) +uiX1=((0-2000)×(142.3-142.45))÷(142.25-142.45)+2000=500 …(17)
shotY0=((uiY0-uiY1)×(shotN0-mapN1))÷(mapN0-mapN1) +uiY1=((0-1500)×(43.4-43.25))÷(43.45-43.25)+1500= 375 …(18)
shotX1=((uiX0-uiX1)×(shotE1-mapE1))÷(mapE0-mapE1) +uiX1=((0-2000)×(142.4-142.45))÷(142.25-142.45)+2000= 1500 …(19)
shotY1=((uiY0-uiY1)×(shotN1-mapN1))÷(mapN0-mapN1) +uiY1=((0-1500)×(43.3-43.25))÷(43.45-43.25)+1500= 1125 …(20)
以上説明した方法で、撮影場所範囲を算出する。式(17)から式(20)の結果になった場合には、X座標とY座標が(500,375)から(1500,1125)までを画像Cに対する枠(図7では枠703)とする。
shotX0 = ((uiX0-uiX1) × (shotE0-mapE1)) ÷ (mapE0-mapE1) + uiX1 = ((0-2000) × (142.3-142.45)) ÷ (142.25-142.45) + 2000 = 500… (17 )
shotY0 = ((uiY0-uiY1) × (shotN0-mapN1)) ÷ (mapN0-mapN1) + uiY1 = ((0-1500) × (43.4-43.25)) ÷ (43.45-43.25) + 1500 = 375… (18 )
shotX1 = ((uiX0-uiX1) × (shotE1-mapE1)) ÷ (mapE0-mapE1) + uiX1 = ((0-2000) × (142.4-142.45)) ÷ (142.25-142.45) + 2000 = 1500… (19 )
shotY1 = ((uiY0-uiY1) × (shotN1-mapN1)) ÷ (mapN0-mapN1) + uiY1 = ((0-1500) × (43.3-43.25)) ÷ (43.45-43.25) + 1500 = 1125… (20 )
The shooting location range is calculated by the method described above. When the results of Expression (17) to Expression (20) are obtained, the X and Y coordinates from (500,375) to (1500,1125) are set as a frame for image C (
なお、本実施形態では、撮影場所の表示例について説明したが、撮影日時の場合でも、画像表示装置がその情報を表示する機能があればよい。例えば、図7の画像Cのように撮影時間の範囲を文字列で表示すればよい。 In this embodiment, the display example of the shooting location has been described. However, the image display device only needs to have a function of displaying the information even when the shooting date and time are displayed. For example, the range of the shooting time may be displayed as a character string as in image C in FIG.
<撮影場所のバリエーション>
上記の説明では、撮影場所として、GPSを用いて取得した緯度、経度を用いたが、撮影場所を特定できる情報であれば、他の情報でもよい。例えば、携帯電話の基地局や無線LANのアクセスポイントを利用して取得した撮影場所でもよい。
<Variations of shooting locations>
In the above description, the latitude and longitude acquired using the GPS are used as the shooting location, but other information may be used as long as the information can identify the shooting location. For example, a shooting location acquired using a mobile phone base station or a wireless LAN access point may be used.
<画像処理装置のバリエーション>
上記の説明では、画像処理装置の一例としてディジタルスティルカメラを用いたが、複数の機器の組み合わせで画像処理装置を実現させても良い。例えば、撮像機能をもつディジタルカメラが画像を生成した後に、I/F109により通信回線111を介してコンピュータネットワーク112に接続し、この画像を、サーバへ送信する。そして、サーバにおいて第三者へ配信する際に前述した属性情報抽象化の処理を行っても良い。その場合、抽象化のタイミングや条件の設定はディジタルカメラ側で行い、その設定情報をサーバに送信してもよいし、パーソナルコンピュータにて図4と同様のユーザインターフェイスで設定を行い、その設定情報をサーバに送信してもよい。また、サーバに抽象化のタイミングや条件の設定を行うためのユーザインターフェイスを設け、そこで抽象化の設定を行っても良い。
<Variations of image processing devices>
In the above description, the digital still camera is used as an example of the image processing apparatus. However, the image processing apparatus may be realized by a combination of a plurality of devices. For example, after a digital camera having an imaging function generates an image, the I /
<抽象化した情報への変換条件のバリエーション>
上記の説明では、ステップS307において、自宅の周辺であるか否かを判断していた。しかし、抽象化した情報への変換条件として、その他の条件を用いても良い。ここでは、撮影時刻、撮影日、被写体、送信先、配信先、の情報を用いて判断する方法について説明する。
<Variation of conversion conditions to abstract information>
In the above description, in step S307, it is determined whether or not it is the vicinity of the home. However, other conditions may be used as conditions for converting to abstract information. Here, a description will be given of a method of making a determination using information on the shooting time, shooting date, subject, transmission destination, and distribution destination.
ステップS307では、撮影日時が、ユーザによって予め設定された時間帯に含まれているか否かを判断しても良い。例えば、ユーザが予め設定した時間帯が20:00〜6:00であるとする。この場合、ステップS307では、画像ファイルから取得した撮影日時がこの時間帯に含まれているか否かを判断する。そして含まれていれば、処理はステップS308に進む。これにより、夜間撮影された写真の撮影場所および撮影日時は抽象化されるので、夜に立ち寄る場所の情報などが閲覧者に伝わることを防止することができ、プライバシーを守ることができる。 In step S307, it may be determined whether the shooting date / time is included in a time zone preset by the user. For example, it is assumed that the time zone preset by the user is 20:00 to 6:00. In this case, in step S307, it is determined whether or not the shooting date and time acquired from the image file is included in this time zone. If it is included, the process proceeds to step S308. As a result, the shooting location and shooting date and time of the photograph taken at night are abstracted, so that it is possible to prevent the information on the location where the person stops at night from being transmitted to the viewer, and privacy can be protected.
また、ステップS307では、撮影日時が、ユーザによって予め設定された期間に含まれているか否かを判断しても良い。例えば、ユーザが予め設定した期間が期間Xであるとする。この場合、ステップS307では、画像ファイルから取得した期間がこの期間Xに含まれているか否かを判断する。そして含まれていれば、処理はステップS308に進む。これにより、旅行中の期間を抽象化しない期間として設定しておけば、旅行中の写真の撮影場所は、閲覧者が詳細を知ることができるようになる。対して、日常生活で撮影した画像については、撮影場所および撮影日時を抽象化するので、プライバシーを守ることができる。 In step S307, it may be determined whether or not the shooting date / time is included in a period preset by the user. For example, it is assumed that the period set in advance by the user is the period X. In this case, in step S307, it is determined whether or not the period acquired from the image file is included in the period X. If it is included, the process proceeds to step S308. Thus, if the period during travel is set as a period that is not abstracted, the viewer can know the details of the shooting location of the photograph during travel. On the other hand, for images taken in daily life, the shooting location and shooting date and time are abstracted, so that privacy can be protected.
また、ステップS307では、画像ファイル内の画像に、ユーザが予め設定した被写体が映っているか否かを判断しても良い。例えば、ユーザが予め設定した被写体が被写体Xであるとする。この場合、ステップS307では、画像ファイル内の領域200内に記録されている被写体情報が被写体Xを示しているか否かを判断する。そして示していれば、処理はステップS308に進む。これにより、自分の子供や友人が写っている場合には、撮影場所および撮影日時を抽象化するので、個人を特定する情報が少なくなり、プライバシーを守ることができる。
In step S307, it may be determined whether or not a subject preset by the user is reflected in the image in the image file. For example, it is assumed that the subject preset by the user is the subject X. In this case, in step S307, it is determined whether or not the subject information recorded in the
また、ステップS307では、画像ファイルの送信先が、ユーザによって予め設定された送信先であるか否かを判断しても良い。例えば、ユーザが予め設定した送信先が送信先Xであるとする。この場合、ステップS307では、設定モードで設定された送信先が送信先Xであるか否かを判断する。そして、設定された送信先が送信先Xである場合には、処理はステップS308に進む。これにより、たとえば、不特定多数が閲覧するブログが送信先だった場合には抽象化すると設定することができるので、ブログ公開用のサーバへ送信する際には、撮影場所および撮影日時を抽象化するので、プライバシーを守ることができる。一方、家族用のWEBアルバム用のサーバへ送信する際には抽象化しないので、詳細な情報を閲覧者が知ることができる。 In step S307, it may be determined whether the transmission destination of the image file is a transmission destination set in advance by the user. For example, it is assumed that the transmission destination set in advance by the user is the transmission destination X. In this case, in step S307, it is determined whether or not the transmission destination set in the setting mode is the transmission destination X. If the set transmission destination is the transmission destination X, the process proceeds to step S308. As a result, for example, when a blog viewed by an unspecified number is a destination, it can be set to be abstracted, so when sending to a blog publishing server, the shooting location and shooting date are abstracted. So you can protect your privacy. On the other hand, since it is not abstracted when transmitting to the server for the family WEB album, the viewer can know detailed information.
また、ステップS307では、画像ファイルの配信先が、ユーザによって予め設定された配信先であるか否かを判断しても良い。例えば、ユーザが予め設定した配信先が配信先Xであるとする。この場合、ステップS307では、設定された配信先が配信先Xであるか否かを判断する。そして、設定された配信先が配信先Xである場合には、処理はステップS308に進む。これにより、たとえば、不特定多数が閲覧するブログが配信先だった場合には抽象化すると設定することができるので、ブログ公開用のサーバへ送信する際には、撮影場所および撮影日時を抽象化するので、プライバシーを守ることができる。一方、家族用のWEBアルバム用のサーバへ送信する際には抽象化しないので、詳細な情報を閲覧者が知ることができる。 In step S307, it may be determined whether the distribution destination of the image file is a distribution destination preset by the user. For example, it is assumed that the delivery destination set in advance by the user is the delivery destination X. In this case, in step S307, it is determined whether or not the set delivery destination is the delivery destination X. If the set delivery destination is delivery destination X, the process proceeds to step S308. As a result, for example, when a blog viewed by an unspecified number is a distribution destination, it can be set to be abstracted, so when sending it to a blog publishing server, abstract the shooting location and shooting date and time. So you can protect your privacy. On the other hand, since it is not abstracted when transmitting to the server for the family WEB album, the viewer can know detailed information.
<抽象化した情報への変換タイミングのバリエーション>
上記の説明では、ステップS301では、ユーザが送信ボタン411を押下したか否かをCPU101が監視している例について説明した。しかし、ユーザがレリーズボタン400を押下したか否か(撮像指示が入力されたか否か)をCPU101が監視するようにしても良い。この場合、レリーズボタン400が押下された(撮像指示が入力された)ことをCPU101が検知した場合には、処理をステップS302に進める。もちろん、サーバによる配信がなされたか否かを指標としても良い。これについては第3の実施形態で詳しく説明する。
<Variation of conversion timing to abstract information>
In the above description, in step S301, an example in which the
<属性情報の更新方法のバリエーション>
上記の説明では、ステップS310では、詳細な情報(ステップS306で読み出した情報)を削除し、範囲情報を記録することを例に挙げた。しかし、詳細な情報を削除しなくても、容易に見られない状態にし、抽象化した情報が閲覧に利用できるような形にしても良い。例えば、詳細な情報を暗号化したり、電子透かし技術により画像へ埋め込んだりして、容易に見られない状態(不可視の情報)に変換してもよい。また、送信するデータのみ抽象化処理を行い、抽象化処理前の元のデータは、記憶媒体に残しておくようにしてもよい。
<Variation of attribute information update method>
In the above description, in step S310, detailed information (information read in step S306) is deleted, and range information is recorded as an example. However, even if detailed information is not deleted, it may be in a state where it cannot be easily seen and the abstracted information can be used for browsing. For example, detailed information may be encrypted or embedded in an image using a digital watermark technique to convert it into a state that cannot be easily seen (invisible information). Alternatively, the abstraction process may be performed only on the data to be transmitted, and the original data before the abstraction process may be left in the storage medium.
以上の説明により、本実施形態によれば、撮影者のプライバシーを守る上、撮影場所や撮影日時の情報を検索や表示に使うことができる。また、画像表示装置が対応していれば、撮影場所や日時の大まかな情報を閲覧者が知ることができる。 As described above, according to the present embodiment, the photographer's privacy can be protected, and information on the shooting location and the shooting date / time can be used for searching and displaying. Further, if the image display device is compatible, the viewer can know rough information about the shooting location and the date and time.
[第2の実施形態]
第1の実施形態では、撮影場所及び撮影日時を、範囲を示す情報に抽象化した。本実施形態では、撮影場所(位置情報)及び撮影日時(日時情報)が示す数値(数値情報)の精度を下げ、有効な桁数を有する撮影場所及び撮影日時に抽象化する。以下では、第1の実施形態との差異についてのみ説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
[Second Embodiment]
In the first embodiment, the shooting location and the shooting date and time are abstracted into information indicating a range. In this embodiment, the accuracy of the numerical value (numerical information) indicated by the shooting location (position information) and the shooting date / time (date / time information) is lowered and abstracted to the shooting location and shooting date / time having an effective number of digits. In the following, only differences from the first embodiment will be described, and unless otherwise noted, the same as the first embodiment.
<抽象化用の設定画面について>
撮影場所及び撮影日時を抽象化するための設定を行う設定画面について、ディジタルスティルカメラの背面図である図8を用いて説明する。図8に示したものは、図4に示したものにおいて、ディスプレイ401の表示内容が抽象化用の設定画面に変わっているのみである。然るに図8では、抽象化用の設定画面についてのみ参照番号を付し、これについてのみ説明する。
<About the setting screen for abstraction>
A setting screen for performing setting for abstracting the shooting location and the shooting date and time will be described with reference to FIG. 8 which is a rear view of the digital still camera. 8 is the same as that shown in FIG. 4 except that the display content of the
図8に示した設定画面は、図4の設定画面において、ボタン419に選択枠415を移動させてから決定ボタン406を押下した場合にディスプレイ401に表示されるものである。
The setting screen shown in FIG. 8 is displayed on the
メニュー801は、緯度の有効桁数を選択するためのもので、ボタン407〜410を操作して選択枠805をメニュー801に移動させた後、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「整数」、「小数点第一位」、「小数点第二位」、である。ユーザがボタン407〜410を操作し、これらの項目のうち何れか1つを選択し、決定ボタン406を押下すると、決定した有効桁数を設定情報としてRAM103などのメモリに格納すると共に、決定した有効桁数がメニュー801上に表示される。
A
メニュー802は、経度の有効桁数を選択するためのもので、ボタン407〜410を操作して選択枠805をメニュー802に移動させた後、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「整数」、「小数点第一位」、「小数点第二位」、である。ユーザがボタン407〜410を操作し、これらの項目のうち何れか1つを選択し、決定ボタン406を押下すると、決定した有効桁数を設定情報としてRAM103などのメモリに格納すると共に、決定した有効桁数がメニュー802上に表示される。
A
なお、緯度、経度のそれぞれの有効桁数を指定するための方法についてはこれに限定するものではなく、直接有効桁数を示す数値を入力装置107を用いて入力しても良い。また、有効桁数はこれに限るものではない。
Note that the method for designating the number of significant digits of latitude and longitude is not limited to this, and a numerical value indicating the number of significant digits may be directly input using the
メニュー803は、撮影時間をどの単位で表現するのかを選択するためのもので、ボタン407〜410を操作して選択枠805をメニュー803に移動させた後、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「6時間」、「3時間」、「60分」、である。ユーザがボタン407〜410を操作し、これらの項目のうち何れか1つを選択し、決定ボタン406を押下すると、決定した単位を設定情報としてRAM103などのメモリに格納すると共に、決定した単位がメニュー803上に表示される。
A
選択枠805をボタン804に移動させ、そこで決定ボタン406を押下すると、図8に例示した設定画面から、図4に例示した設定画面に切り替わる。なお、図8に例示した設定画面で設定した各種の設定情報は、このような画面の切り替え時にRAM103などのメモリに格納するようにしても良いし、その格納するタイミングについては特に限定するものではない。また、図8に例示した設定画面についても、図4に例示した設定画面と同様、CPU101により制御される。
When the
<画像制御処理について>
画像ファイルを送信するためにディジタルスティルカメラが行う処理は、図3のフローチャートにおいて、ステップS308〜S310を図9のステップS901〜S903に置き換えたものとなる。即ち、本実施形態ではCPU101は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、図9のフローチャートに従った処理を実行し、その後、処理をステップS311に進める。
<About image control processing>
The processing performed by the digital still camera to transmit the image file is obtained by replacing steps S308 to S310 with steps S901 to S903 in FIG. 9 in the flowchart of FIG. That is, in this embodiment, when the
ステップS901ではCPU101は、ステップS306で読み出した撮影場所である緯度、経度において、メニュー801で設定した有効桁数よりも下の桁を削除することで、この緯度、経度を更新する。これにより、有効桁数で緯度、経度を表現する撮影場所の情報を作成することができる。
In step S901, the
ステップS902ではCPU101は、ステップS306で読み出した撮影日時を、メニュー802で設定した単位で量子化(設定した単位より小さい値を切り捨てる)することで、この撮影日時を更新する。例えば、メニュー802で「60分間」を単位として設定した場合、撮影日時「9時35分」は「9時」と量子化される。
In step S902, the
ステップS903ではCPU101は、領域200内に記録されていた撮影場所を、ステップS901で更新した撮影場所に更新することで、撮影場所を抽象化した情報に更新する。同様に、領域200内に記録されていた撮影日時を、ステップS902で更新した撮影日時に更新することで、撮影日時を抽象化した情報に更新する。更にステップS903ではCPU101は、領域201内に、メニュー801で設定した有効桁数、メニュー802で設定した単位を書き込むことで、この領域201を更新する。
In step S903, the
領域200及び領域201について、更新前と更新後とを図11に示す。1101の欄には、領域200(Exif_Base属性情報領域)及び領域201(Exif_MakerNote属性情報領域)を記している。更新前には、領域200内には上述の通り、1102で示す如く、撮影場所としての緯度、経度、撮影日時が記録されている。
FIG. 11 shows the
ステップS901ではCPU101は、欄1103に示している緯度、経度については、欄1104に示す如く、メニュー801で設定した有効桁数(ここでは小数点第一位)を有する緯度、経度にそれぞれ更新する。
In step S901, the
ステップS902ではCPU101は、欄1103に示している撮影日時については、欄1104に示す如く、メニュー802で設定した単位(ここでは60分)で量子化して更新する。
In step S <b> 902, the
そして、緯度についてメニュー801で設定した有効桁数(図11では小数点第一位)による有効最小単位「0.1」を、欄1104に示す如く、領域201内に書き込む。更に、経度についてメニュー802で設定した有効桁数(図11では小数点第一位)による有効最小単位「0.1」を、欄1104に示す如く、領域201内に書き込む。更に、撮影日時についてメニュー802で設定した単位(図11では60分)による有効最小単位「1」(時間)を、欄1104に示す如く、領域201内に書き込む。
Then, the effective minimum unit “0.1” based on the effective number of digits (first decimal place in FIG. 11) set in the
<範囲情報への変換について>
有効桁数を有する緯度、経度、設定された単位で量子化された撮影日時、のそれぞれを、第1の実施形態と同様、範囲情報として記録しても良い。その場合、先ず、以下に示す各変数の値は既知であるものとする。そして、緯度、経度についての範囲情報を、式(21)、式(22)、式(23)、式(24)を計算することで求める。
<About conversion to range information>
Each of latitude and longitude having an effective number of digits, and shooting date and time quantized in a set unit may be recorded as range information as in the first embodiment. In that case, first, it is assumed that the values of the following variables are known. Then, range information about latitude and longitude is obtained by calculating Expression (21), Expression (22), Expression (23), and Expression (24).
exifShotN : 抽象化後の撮影場所の緯度
exifShotE : 抽象化後の撮影場所の経度
mStepN : 緯度の最小有効単位
mStepE : 経度の最小有効単位
shotN0 : 撮影場所の範囲の端の緯度(度)
shotE0 : 撮影場所の範囲の端の経度(度)
shotN1 : 撮影場所の範囲のshotN0とは反対側の端の緯度(度)
shotE1 : 撮影場所の範囲のshotE0とは反対側の端の経度(度)
shotN0=exifShotN …(21)
shotE0=exifShotE …(22)
shotN1=exifShotN+mStepN …(23)
shotE1=exifShotE+mStepE …(24)
以下に示す各変数の値が既知のものであるとした場合に、撮影日時についての範囲情報を、式(25)、式(26)を計算することで求める。
exifShotN: Latitude of the shooting location after abstraction
exifShotE: Longitude of shooting location after abstraction
mStepN: Minimum effective unit of latitude
mStepE: Minimum effective unit of longitude
shotN0: Latitude (degrees) at the end of the shooting location range
shotE0: Longitude (degrees) at the end of the shooting location range
shotN1: Latitude (degrees) at the end of the shooting location opposite to shotN0
shotE1: Longitude (degrees) at the end of the shooting location opposite to shotE0
shotN0 = exifShotN (21)
shotE0 = exifShotE (22)
shotN1 = exifShotN + mStepN (23)
shotE1 = exifShotE + mStepE (24)
When it is assumed that the values of the following variables are known, range information about the shooting date and time is obtained by calculating Expression (25) and Expression (26).
exifShotHour : 抽象化後の撮影時刻(時)
minStep : 時間の最小有効単位(時)
shotHour0 : 撮影日時の範囲の端(時)
shotHour1 : 撮影日時の範囲のshotHour0とは反対側の端(時)
shotHour0=exifShotHour …(25)
shotHour1=exifShotHour+minStep …(26)
これ以降については、第1の実施形態と同様である。
exifShotHour: Shooting time after abstraction (hours)
minStep: Minimum effective unit of time (hours)
shotHour0: End of shooting date and time range (hours)
shotHour1: End of the shooting date and time range opposite to shotHour0 (hours)
shotHour0 = exifShotHour (25)
shotHour1 = exifShotHour + minStep (26)
The subsequent steps are the same as in the first embodiment.
以上の説明により、本実施形態によれば、撮影者のプライバシーを守る上、撮影場所や撮影日時の情報を検索や表示に使うことができる。また、画像表示装置が対応していれば、撮影場所や日時の大まかな情報を閲覧者が知ることができる。 As described above, according to the present embodiment, the photographer's privacy can be protected, and information on the shooting location and the shooting date / time can be used for searching and displaying. Further, if the image display device is compatible, the viewer can know rough information about the shooting location and the date and time.
加えて、本実施形態においては、領域200内の撮影場所および撮影日時は削除しない。そのため、画像表示装置が範囲の表示などに対応していなくても、切捨てされた情報を検索や表示に使うことが可能である。
In addition, in this embodiment, the shooting location and shooting date / time in the
[第3の実施形態]
第1,2の実施形態では、ディジタルスティルカメラとしての画像処理装置について説明した。本実施形態では、サーバに適用した場合の画像処理装置について説明する。また、第1,2の実施形態では、緯度経度といった数値である情報を抽象化したが、本実施形態では、数値ではなく文字列の情報(文字列情報)であっても、抽象化可能であることを説明する。なお、以下では、第1の実施形態と異なる点のみについて触れ、第1の実施形態と同じ部分については特に触れないものとする。
[Third Embodiment]
In the first and second embodiments, the image processing apparatus as a digital still camera has been described. In the present embodiment, an image processing apparatus when applied to a server will be described. In the first and second embodiments, information that is numerical values such as latitude and longitude is abstracted. However, in this embodiment, it is possible to abstract even character string information (character string information) instead of numerical values. Explain that there is. In the following, only points different from the first embodiment will be mentioned, and the same parts as those of the first embodiment will not be particularly mentioned.
<サーバの構成例について>
サーバの機能構成例について、図10のブロック図を用いて説明する。なお、サーバの機能構成例については図10に示した構成に限るものではなく、同様の機能させ実現できれば、他の構成も考え得る。
<Example of server configuration>
An example of the functional configuration of the server will be described with reference to the block diagram of FIG. The functional configuration example of the server is not limited to the configuration shown in FIG. 10, and other configurations can be considered as long as the same functions can be realized.
CPU1001は、ROM1002やRAM1003に格納されているコンピュータプログラムやデータを用いてサーバ全体の制御を行うと共に、サーバが行うものとして後述する各種の処理を実行する。ROM1002には、ブートプログラムやサーバの設定データ等が格納されている。
The
RAM1003は、HDD(ハードディスクドライブ)1005やDVDD(DVDドライブ)からロードされたコンピュータプログラムやデータ、I/F1009を介して外部から受信したデータを一時的に記憶するためのエリアを有する。更にRAM1003は、CPU1001が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM1003は、各種のエリアを適宜提供することができる。ディスプレイ1004は、CPU1001による処理結果を画像や文字などでもって表示することができる。
The
HDD1005には、OS(オペレーティングシステム)や、サーバが行うものとして後述する各処理をCPU1001に実行させるためのコンピュータプログラムやデータが保存されている。また、既知の情報として説明するものも、このHDD1005に保存されている。HDD1005に保存されているコンピュータプログラムやデータは、CPU1001による制御に従って適宜RAM1003にロードされ、CPU1001による処理対象となる。
The
DVDD1006は、DVDに記録された情報を読み取り、読み取った情報を、HDD1005やRAM1003に出力する。なお、DVDD1006の代わりに、若しくは追加して、CD−ROMドライブ、MO等の光(磁気)ディスクドライブ、テープストリーマ、DDSなどの磁気テープドライブ等を設けてもよい。
The
入力装置1007は、キーボードやマウスなどのポインティングデバイスにより構成されており、サーバの操作者が操作することで、各種の指示をCPU1001に対して入力することができる。
The
I/F1009は、サーバを通信回線1011に接続する為のものである。通信回線1011には、コンピュータネットワーク1012が接続されており、更にこのコンピュータネットワーク1012には、サーバやパーソナルコンピュータ等の外部機器が接続されている。然るにサーバは、このI/F1009を介して、コンピュータネットワーク1012に接続されている外部機器とのデータ通信を行うことができる。本実施形態では、衛星測位システム(GPS)を利用して現在位置を算出するサーバがコンピュータネットワーク1012に接続されているので、サーバはこのI/F1009を介してこのサーバから現在位置を取得することができる。上記の各部はシステムバス1010に接続されている。このシステムバス1010は、アドレスバス、データバス、制御バス等からなるものである。
The I /
<撮影場所の抽象化設定の為の設定画面について>
本実施形態ではディジタルスティルカメラは、設定モードでは図15に例示するような設定画面をディスプレイ401に表示させる。図15に例示した設定画面は、図4に示した設定画面に、メニュー1501を追加したものであり、それ以外については図4に例示した設定画面と同じである。然るに以下では、このメニュー1501について説明する。
<Setting screen for abstraction setting of shooting location>
In the present embodiment, the digital still camera causes the
ユーザがボタン407〜410を操作して選択枠をメニュー1501に移動させ、そこで決定ボタンを押下すると、プルダウン式のメニューが表示される。このメニューの項目は、「国までの地名に変更」、「県までの地名に変更」、「市までの地名に変更」、である。即ち、このメニュー1501は、撮像画像の撮影場所を表す地名をどの程度詳細に表現するのか(どの詳細度とするのか)を指定するものである。
When the user operates the
ユーザがボタン407〜410を操作し、所望の項目の位置に選択枠を移動させ、そこで決定ボタン406を押下すると、CPU101は、この所望の項目を、抽象化した情報への変換条件に係る設定情報としてRAM103等のメモリに格納する。更にCPU101は、この所望の項目を、メニュー1501上に文字列として表示する。図15では「市までの地名に変更」が所望の項目として選択されたので、この「市までの地名に変更」がメニュー1501上に文字列として表示されている。
When the user operates the
なお、図15に例示した設定画面で設定した各種の設定情報は、他の動作モードに切り替わった場合などにRAM103などのメモリに格納するようにしても良いし、その格納するタイミングについては特に限定するものではない。
Note that the various setting information set on the setting screen illustrated in FIG. 15 may be stored in a memory such as the
そしてこのようにして設定された様々な設定情報を含む画像ファイルは、ディジタルスティルカメラから本実施形態に係るサーバに対して送信される。もちろん、この画像ファイルには、メニュー1501を用いて設定した設定情報も含まれている。
An image file including various setting information set in this way is transmitted from the digital still camera to the server according to the present embodiment. Of course, this image file also includes setting information set using the
<画像制御処理について>
サーバがディジタルスティルカメラから受信した画像ファイルを配信する際に、サーバが行う処理について、同処理のフローチャートを示す図12を用いて説明する。図12のフローチャートに従った処理は、上記の通り、CPU1001が行うものである。また、図12において図3と同じステップ番号については、処理の主体が異なるだけで処理の内容については同様である。なお、以下では、抽象化した情報への変換タイミングは「配信時」であるものとする。
<About image control processing>
Processing performed by the server when the server distributes the image file received from the digital still camera will be described with reference to FIG. 12 showing a flowchart of the processing. The process according to the flowchart of FIG. 12 is performed by the
ステップS1201ではCPU1001は、送信ボタン411が押下された旨を示すメッセージをディジタルスティルカメラから受信した場合には、処理はステップS1202に進む。一方、受信していない場合には、本処理を終了する。送信ボタン411が押下されると、ディジタルスティルカメラからは画像ファイルが送信される。
In step S1201, if the
ステップS1202ではCPU1001は、ディジタルスティルカメラから送信されたそれぞれの画像ファイル内の領域201内の配信済みフラグを参照する。そして、配信済みフラグがFALSEとなっている画像ファイルのみをRAM1003にロード(抽出)する。
In step S1202, the
ステップS303ではCPU1001は、カウンタnを0に初期化する。ステップS304ではCPU1001は、カウンタnの値と、ステップS1202でRAM103にロードした画像ファイルの総数と、の大小比較を行う。この大小比較の結果、(カウンタnの値)<(ステップS1202でRAM103にロードした画像ファイルの総数)であれば、処理はステップS305に進む。一方、(カウンタnの値)≧(ステップS1202でRAM103にロードした画像ファイルの総数)であれば、本処理を終了する。
In step S303, the
ステップS305ではCPU1001は、ステップS1202で抽出した画像ファイル内の「チェックボックス416がONであるかOFFであるのかを特定する為の設定情報」を参照する。そしてこの参照した設定情報が、チェックボックス416がONであることを指し示している場合には、処理はステップS306に進み、OFFであることを指し示している場合には、処理はステップS1206に進む。
In step S305, the
この場合、ステップS1206ではCPU1001は、ステップS1202でRAM1003にロードした画像ファイルのうち未配信の画像ファイルを、I/F1009を介して外部に対して配信する。
In this case, in step S1206, the
ステップS306ではCPU1001は、ステップS1202でRAM1003にロードした画像ファイルのうち、配信済みフラグがFALSEであるものを1つ選択する。そして選択した画像ファイル内の領域200内に記録されている情報のうち、画像の撮影場所と撮影日時と、を示す情報を読み出す。
In step S306, the
ステップS307ではCPU1001は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたか否かを判断する。例えば、ディジタルスティルカメラのユーザの自宅の緯度、経度をRAM1003などのメモリに予め登録しておき、メニュー418で「自宅の周辺だった場合」が選択されたとする。この場合、ステップS307では、自宅の緯度、経度が指し示す位置(自宅の位置)と、ステップS306で読み出した撮影場所と、の間の距離を算出する。そしてこの算出した距離が、予め定められた閾値以下であれば、「自宅の周辺である」と判断する。もちろん、この判断方法についてはこれに限るものではない。
In step S307, the
そして、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、処理はステップS1203に進み、満たされていないと判断した場合には、処理はステップS1206に進む。
If it is determined that the conversion condition indicated by the setting information set using the
この場合、ステップS1206ではCPU1001は、ステップS306で選択した画像ファイルを、I/F1009を介して外部に対して配信する。
In this case, in step S1206, the
ステップS1203ではCPU1001は、緯度経度と、この緯度経度における地名情報と、を関連付けて管理しているサーバに対して、I/F1009を介してアクセスする。そしてCPU1001は、ステップS306で選択した選択画像ファイル内に記録されている緯度経度に対応する地名情報を、このサーバからRAM1003などのメモリにダウンロードする。このダウンロードの際には、図13に例示する如く、国、県、市、区、区町村以下の地名、番地、といった地名情報として精度の異なる情報をそれぞれの文字列情報としてダウンロードする。国や県の情報ほど精度は低く、番地までの情報になるほど精度は高くなる。なぜならば、国や県の情報だけでは場所を特定しにくく、番地までの情報だと場所を特定しやすくなるからである。
In step S1203, the
ステップS1204ではCPU1001は、ステップS1203で取得した地名情報のうち、メニュー1501で指定した詳細レベルまでの地名情報を採用する。図15では「市までの地名に変更」と設定されているので、市までの地名の文字列を採用する。
In step S1204, the
ステップS1205ではCPU1001は、選択画像ファイル内の領域200内の撮影場所を削除すると共に、領域201内に、ステップS1204で採用した文字列を並べてこの領域201内に登録する。
In step S1205, the
領域200及び領域201について、更新前と更新後とを図14に示す。1401の欄には、領域200(Exif_Base属性情報領域)及び領域201(Exif_MakerNote属性情報領域)を記している。更新前には、領域200内には上述の通り、1402,1403で示す如く、撮影場所としての緯度、経度が記録されている。
FIG. 14 shows the
ステップS1205ではCPU1001は先ず、1403、1404に示す如く、領域200内の緯度経度を削除する。そして次にCPU1001は、1404に示す如く、ステップS1203で取得した地名情報のうち、メニュー1501で指定した詳細レベルまでの地名情報「東京」、「大田区」を採用する。そして採用した文字列を並べたもの「東京都大田区」を領域201内に登録する。
In step S1205, the
そしてこの場合、ステップS1206ではCPU1001は、ステップS1205で領域200及び領域201が更新された画像ファイルを、I/F1009を介して外部に対して配信する。
In this case, in step S1206, the
ステップS1207ではCPU1001は、ステップS1206で配信した画像ファイル内の配信済みフラグをTRUEに書き換える。ステップS313ではCPU1001は、カウンタnの値を1つインクリメントする。そしてステップS304以降の処理を繰り返す。
In step S1207, the
なお、以上の説明では、国、県、市、区、区町村以下の地名、番地、をそれぞれ分けて受信するものとしたが、詳細な地名を全て受信してから、キーワードによって分離してもよい。たとえば、地名の中に都道府県のキーワードが付与されていれば、その前の文字列を県と判定する。同様に市が付与されていれば、その前の文字列を市と判定する。そして、分離してもよい。 In the above description, the place names and addresses below the country, prefecture, city, ward, and ward / town / town are received separately. However, after receiving all the detailed place names, they may be separated by keywords. Good. For example, if a keyword for a prefecture is given in the place name, the previous character string is determined as a prefecture. Similarly, if a city is given, the previous character string is determined as a city. And you may isolate | separate.
<画像処理装置のバリエーション>
上記の説明では、画像処理装置の一例としてサーバを用いたが、複数の機器の組み合わせで画像処理装置を実現させても良い。ディジタルスティルカメラが緯度経度から地名を検索する機能を持つサーバと直接通信し、詳細な地名情報を受信した後に、ユーザに地名の精度を選択させてもよい。そして、ディジタルスティルカメラで属性情報の抽象化処理を行っても良いし、サーバに送信した後に、サーバ側にて属性情報の抽象化処理を行っても良い。また、ディジタルスティルカメラ自体に、緯度経度から地名を検索する機能があれば、地名情報を取得するためにサーバと通信する必要はない。
<Variations of image processing devices>
In the above description, the server is used as an example of the image processing apparatus. However, the image processing apparatus may be realized by a combination of a plurality of devices. The digital still camera may directly communicate with a server having a function of searching for a place name from latitude and longitude, and after receiving detailed place name information, the user may select the accuracy of the place name. Then, the attribute information abstraction processing may be performed by the digital still camera, or after the transmission to the server, the attribute information abstraction processing may be performed on the server side. In addition, if the digital still camera itself has a function of searching for a place name from latitude and longitude, it is not necessary to communicate with a server to obtain place name information.
<撮影場所のバリエーション>
上記の説明では、緯度、経度から、場所を特定するための精度がより低い情報へと変換する例について説明した。しかし、領域200若しくは領域201に元々詳細な撮影場所が記録されている場合には、この撮影場所を、場所を特定するための精度がより低い情報に変換すればよい。
<Variations of shooting locations>
In the above description, an example has been described in which latitude and longitude are converted into information with lower accuracy for specifying a location. However, if a detailed shooting location is originally recorded in the
また、その際には、緯度経度など他の詳細な撮影場所がある場合には削除(一部を削除)するか、もしくは第1の実施形態若しくは第2の実施形態のように、抽象化した情報へと変換すれば、プライバシーに関する情報を守ることができる。 At that time, if there are other detailed shooting locations such as latitude and longitude, they are deleted (partially deleted) or abstracted as in the first or second embodiment. If converted to information, information about privacy can be protected.
<撮影場所の抽象化設定のバリエーション>
上記の説明では、場所を特定するための精度をどのレベルまでにするのかをメニュー1501を用いて指定したが、他の設定画面を用いて、各レベルの撮影場所を表示し、ユーザに選択させても良い。
<Variation of abstraction setting of shooting location>
In the above description, the level of accuracy for specifying the location is specified using the
例えば、図16に例示した設定画面を用いて、変換先の文字列を指定しても良い。図16に例示した設定画面は、図4の設定画面において、ボタン419に選択枠415を移動させてから決定ボタン406を押下した場合にディスプレイ401に表示されるものである。然るに以下の説明では、係る設定はディジタルスティルカメラ側で行うものとしているが、サーバ側で行っても良い。
For example, the conversion destination character string may be specified using the setting screen illustrated in FIG. The setting screen illustrated in FIG. 16 is displayed on the
ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1601に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が最も高い文字列が選択(選択指示)される。
When the user operates the
ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1602に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が2番目に高い文字列が選択される。
When the user operates the
ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1603に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が3番目に高い文字列が選択される。
When the user operates the
ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1604に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が4番目に高い文字列が選択される。
When the user operates the
ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1605に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が最も低い文字列が選択される。
When the user operates the
なお、ラジオボタン1601〜1605は何れか1つのみが選択可能となる。この設定画面を用いることで、緯度経度から、若しくは詳細な撮影場所から、ラジオボタン1601〜1605の何れか1つに対応する撮影場所に変換することができる。
Note that only one of the
以上の説明により、本実施形態によれば、数値の情報でなくても抽象化を行うことが可能である。そして、撮影者のプライバシーを守る上、撮影場所の大まかな地名を閲覧者が知ることができる。加えて、その地名情報を表示や検索に使用することができる。 As described above, according to the present embodiment, abstraction can be performed without using numerical information. In addition to protecting the photographer's privacy, the viewer can know the approximate place name of the shooting location. In addition, the place name information can be used for display and search.
[第4の実施形態]
本実施形態では、第1,2の実施形態と同様、ディジタルスティルカメラとしての画像処理装置について説明する。また、本実施形態では、文字列の情報として、撮像画像の撮影者を抽象化する。なお、以下では、第1の実施形態と異なる点のみについて触れ、第1の実施形態と同じ部分については特に触れないものとする。
[Fourth Embodiment]
In the present embodiment, an image processing apparatus as a digital still camera will be described as in the first and second embodiments. In this embodiment, the photographer of the captured image is abstracted as character string information. In the following, only points different from the first embodiment will be mentioned, and the same parts as those of the first embodiment will not be particularly mentioned.
<抽象化用の設定画面について>
撮影者を抽象化するための設定を行う設定画面について、ディジタルスティルカメラの背面図である図17を用いて説明する。図17に示した設定画面は、図4の設定画面において、ボタン419に選択枠415を移動させてから決定ボタン406を押下した場合にディスプレイ401に表示されるものである。
<About the setting screen for abstraction>
A setting screen for performing settings for abstracting the photographer will be described with reference to FIG. 17 which is a rear view of the digital still camera. The setting screen shown in FIG. 17 is displayed on the
エディットボックス1705は、撮影者のニックネームを入力するためのものである。エディットボックス1706は、撮影者の属するグループ名を入力するためのものである。エディットボックス1707は、撮影者の属する会社名や学校名を入力するためのものである。エディットボックス1708は、撮影者のファミリーネーム(姓)を入力するためのものである。
An
ユーザがボタン407〜410を操作して何れかのエディットボックスを選択してから決定ボタン406を押下すると、選択したエディットボックス内に文字を入力することができる。文字の入力方法については第1の実施形態と同様である。即ち、ユーザはボタン407〜410を用いて領域1709内に表示されている文字を選択することができ、選択後に決定ボタン1710を押下すると、この選択した文字が選択したエディットボックス内に追加表示される。もちろん、文字入力の方法はこれに限るものではない。
When the user operates the
ラジオボタン1701〜1704は、何れか1つのみが選択可能なものであり、ボタン407〜410を操作して選択枠を所望のラジオボタンに移動させることで、この所望のラジオボタンを選択することができる。図17では、ラジオボタン1701が選択された状態が示されている。そしてラジオボタン1701〜1704のうち何れか1つを選択し、そこで決定ボタン406を押下すると、選択したラジオボタンに対応するエディットボックス内に入力された文字列が抽象化対象として設定される。ラジオボタン1701にはエディットボックス1705が対応している。ラジオボタン1702にはエディットボックス1706が対応している。ラジオボタン1703にはエディットボックス1707が対応している。ラジオボタン1704にはエディットボックス1708が対応している。
Only one of the
ユーザがボタン407〜410を操作してボタン1711を選択し、決定ボタン406を押下すると、図17の設定画面で設定した内容をRAM103などのメモリに格納する。更には、ディスプレイ401に表示される画面は、図17に例示した設定画面から図4に例示した設定画面に切り替わる。
When the user operates
図17に例示した設定画面によって設定され、RAM103などのメモリに記録される情報について、図18(a)を用いて説明する。各エディットボックス1705〜1708に対応する項目1801が列挙されており、各エディットボックス1705〜1708に入力された文字列1802が列挙されている。そして、各項目において対応するラジオボタンが選択状態(ON)にあるのか非選択状態(OFF)にあるのかが選択状態1803として列挙されている。図18(a)では、ニックネームとして入力された文字列「Hana」に対応するラジオボタン1701が選択状態にあり、それ以外のラジオボタンは非選択状態にある例を示している。
Information set on the setting screen illustrated in FIG. 17 and recorded in a memory such as the
<画像制御処理について>
本実施形態に係るディジタルスティルカメラが行う処理は、図3のフローチャートにおいて、ステップS308〜S310を図18(b)のステップS1901,S1902に置き換えたものとなる。即ち、本実施形態ではCPU101は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、図18(b)のフローチャートに従った処理を実行し、その後、処理をステップS311に進める。
<About image control processing>
The processing performed by the digital still camera according to the present embodiment is obtained by replacing steps S308 to S310 with steps S1901 and S1902 in FIG. 18B in the flowchart of FIG. That is, in this embodiment, when the
ステップS1901でCPU101は、図18(a)に示した構成を有する情報をRAM103などのメモリから読み出す。そしてCPU101は、選択状態1803がONになっている項目1801の文字列1802を、領域200内の撮影者を表す文字列と置き換える対象として設定する。
In step S1901, the
ステップS1902ではCPU101は、領域200内の撮影者を表す文字列を、ステップS1901で設定した文字列に置き換える。もし、領域200内に記録されている撮影者を表す文字列と同じ文字列が領域201内にも記録されている場合には、CPU101は、領域201内の撮影者を表す文字列を、ステップS1901で設定した文字列に置き換える。
In step S1902, the
<抽象化方法のバリエーション>
本実施形態では、図17の設定画面を用いて設定した文字列に置き換えることで、撮影者を表す文字列を抽象化した。しかし、ユーザの操作を介さずにこの抽象化処理を行っても良い。例えば、撮影者の名前(人名)からCPU101がイニシャルを生成し、撮影者の名前をこのイニシャルに置き換えることで、抽象化を行っても良い。もちろん、撮影者の名前からニックネームを作成する為のコンピュータプログラムが予めディジタルスティルカメラ内に格納されている場合には、CPU101はこのコンピュータプログラムを実行して撮影者の名前の抽象化処理を行っても良い。
<Variation of abstraction method>
In this embodiment, the character string representing the photographer is abstracted by replacing it with the character string set using the setting screen of FIG. However, this abstraction process may be performed without user operation. For example, abstraction may be performed by generating an initial from the photographer's name (person name) and replacing the photographer's name with this initial. Of course, if a computer program for creating a nickname from the photographer's name is stored in the digital still camera in advance, the
<抽象化対象のバリエーション>
本実施形態では、撮影者の名前を抽象化していたが、被写体の名前を同様にして抽象化しても良い。顔認識技術により被写体の顔を認識して、この被写体の名前を特定することができるのであれば、あとは上記の説明と同様にしてこの被写体の名前を抽象化することができる。
<Variations for abstraction>
In this embodiment, the name of the photographer is abstracted, but the name of the subject may be abstracted in the same manner. If the face of the subject can be recognized by the face recognition technology and the name of the subject can be specified, the name of the subject can be abstracted in the same manner as described above.
以上の説明により、本実施形態によれば、撮影者名や被写体の名前に対しても抽象化を行うことが可能である。そして、撮影者のプライバシーを守る上、撮影者名や被写体の名前の大まかな情報を閲覧者が知ることができる。加えて、その名前の情報を表示や検索に使用することができる。 As described above, according to the present embodiment, it is possible to abstract the photographer name and the subject name. Then, in order to protect the photographer's privacy, the viewer can know rough information about the photographer's name and the subject's name. In addition, the name information can be used for display and search.
なお、以上説明した各実施形態、各バリエーションは、適宜組み合わせても良いし、処理内容は同じで用いる情報だけを異ならせるなど、上記の説明をベースにして様々なバリエーションが考え得る。 Each embodiment and each variation described above may be combined as appropriate, and various variations may be considered based on the above description, such as changing only information used with the same processing content.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (16)
前記取得手段により取得された前記属性情報よりも精度を落とした低精度属性情報を生成するか否かを判断する判断手段と、
前記判断手段が前記生成を行うと判断した場合に、前記精度を落とした低精度属性情報を生成する生成手段と、
前記判断手段が前記生成を行わないと判断した場合には、前記取得手段が取得した属性情報と画像データとを出力し、前記判断手段により前記生成を行うと判断した場合には、前記生成手段が生成した低精度属性情報と前記画像データとを出力する出力手段と
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring image data and attribute information recorded in association with the image data;
Determining means for determining whether to generate low-precision attribute information with a lower accuracy than the attribute information acquired by the acquiring means;
When the determination unit determines to perform the generation, a generation unit that generates the low-accuracy attribute information with the reduced accuracy;
When the determination unit determines not to perform the generation, the attribute information and image data acquired by the acquisition unit are output. When the determination unit determines to perform the generation, the generation unit An image processing apparatus comprising: output means for outputting low-precision attribute information generated by the image data and the image data.
前記生成手段は、前記低精度属性情報として、前記取得手段が取得した属性情報が表す数値から予め設定された有効桁数よりも下の桁を切り捨てた数値を生成する、または、前記取得手段が取得した属性情報が表す数値を含む範囲情報を生成する、または、前記取得手段が取得した属性情報が表す数値を予め設定された単位で量子化した数値を表す情報を生成する、ことを特徴とする請求項1に記載の画像処理装置。 When handling numerical information as the attribute information,
The generation unit generates, as the low-accuracy attribute information, a numerical value obtained by rounding down digits lower than a preset effective digit number from a numerical value represented by the attribute information acquired by the acquisition unit, or the acquisition unit Generating range information including a numerical value represented by the acquired attribute information, or generating information representing a numerical value obtained by quantizing the numerical value represented by the attribute information acquired by the acquiring unit in a preset unit. The image processing apparatus according to claim 1.
前記生成手段は、前記低精度属性情報として、前記取得手段が取得した文字列情報の一部を削除した文字列情報を生成する、または前記取得手段が取得した文字列情報を、より精度の低い他の文字列情報に変換する、ことを特徴する請求項1または2に記載の画像処理装置。 When handling character string information as the attribute information,
The generation unit generates, as the low-precision attribute information, character string information obtained by deleting a part of the character string information acquired by the acquisition unit, or the character string information acquired by the acquisition unit is less accurate. The image processing apparatus according to claim 1, wherein the image processing apparatus is converted into other character string information.
前記画像処理装置の取得手段が、画像データと、該画像データと関連付けて記録される属性情報と、を取得する取得工程と、
前記画像処理装置の判断手段が、前記取得工程で取得された前記属性情報よりも精度を落とした低精度属性情報を生成するか否かを判断する判断工程と、
前記画像処理装置の生成手段が、前記判断工程で前記生成を行うと判断した場合に、前記精度を落とした低精度属性情報を生成する生成工程と、
前記画像処理装置の出力手段が、前記判断工程で前記生成を行わないと判断した場合には、前記取得工程で取得した属性情報と画像データとを出力し、前記判断工程で前記生成を行うと判断した場合には、前記生成工程で生成した低精度属性情報と前記画像データとを出力する出力工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
An acquisition step in which the acquisition unit of the image processing apparatus acquires image data and attribute information recorded in association with the image data;
A determination step of determining whether or not the determination unit of the image processing device generates low-accuracy attribute information with a lower accuracy than the attribute information acquired in the acquisition step;
When the generation unit of the image processing apparatus determines to perform the generation in the determination step, a generation step of generating low-accuracy attribute information with reduced accuracy;
When the output unit of the image processing apparatus determines that the generation is not performed in the determination step, the attribute information and the image data acquired in the acquisition step are output, and the generation is performed in the determination step. An image processing method comprising: an output step of outputting the low-precision attribute information generated in the generation step and the image data when the determination is made.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010232780A JP2012089928A (en) | 2010-10-15 | 2010-10-15 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010232780A JP2012089928A (en) | 2010-10-15 | 2010-10-15 | Image processing device and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012089928A true JP2012089928A (en) | 2012-05-10 |
Family
ID=46261113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010232780A Withdrawn JP2012089928A (en) | 2010-10-15 | 2010-10-15 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012089928A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228988A (en) * | 2013-05-21 | 2014-12-08 | 富士ゼロックス株式会社 | System, relay device and program |
JP2014238681A (en) * | 2013-06-07 | 2014-12-18 | カシオ計算機株式会社 | Data processing device, data processing system, data processing method and program |
JP2014238635A (en) * | 2013-06-06 | 2014-12-18 | 凸版印刷株式会社 | Information processing server, information processing system and information processing method |
-
2010
- 2010-10-15 JP JP2010232780A patent/JP2012089928A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228988A (en) * | 2013-05-21 | 2014-12-08 | 富士ゼロックス株式会社 | System, relay device and program |
JP2014238635A (en) * | 2013-06-06 | 2014-12-18 | 凸版印刷株式会社 | Information processing server, information processing system and information processing method |
JP2014238681A (en) * | 2013-06-07 | 2014-12-18 | カシオ計算機株式会社 | Data processing device, data processing system, data processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11714523B2 (en) | Digital image tagging apparatuses, systems, and methods | |
JP5658823B2 (en) | Metadata integration for duplicate images | |
US20110184980A1 (en) | Apparatus and method for providing image | |
US9007397B2 (en) | Image control apparatus, server and control method therefor | |
US9465802B2 (en) | Content storage processing system, content storage processing method, and semiconductor integrated circuit | |
JP5371489B2 (en) | Image management apparatus, control method therefor, program, and storage medium | |
JP6300792B2 (en) | Enhancing captured data | |
JP2005309995A (en) | Device and method for managing information, and program | |
JP5677073B2 (en) | Image control apparatus, image control method, information processing apparatus, information processing method, program, and storage medium | |
CN111191176A (en) | Website content updating method, device, terminal and storage medium | |
JPWO2014050956A1 (en) | Imaging device, imaging system, imaging method, and imaging control program | |
JP2007266902A (en) | Camera | |
JP5728167B2 (en) | Information processing apparatus, control method therefor, and computer program | |
JP2012089928A (en) | Image processing device and image processing method | |
US11238622B2 (en) | Method of providing augmented reality contents and electronic device therefor | |
JP5990055B2 (en) | Imaging apparatus and control method thereof | |
KR20100101960A (en) | Digital camera, system and method for grouping photography | |
JP5950589B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2013065165A (en) | Image display method and device, image display program, and image display system | |
WO2011065570A1 (en) | Information display device, information display method, and computer program | |
JP2009043006A (en) | Peripheral information providing system, server and peripheral information providing method | |
WO2019069366A1 (en) | Information processing device, information system, information processing method, and program | |
JP5517895B2 (en) | Terminal device | |
JP6672385B2 (en) | Privilege grant device, privilege grant method, privilege acquisition program, and privilege acquisition method | |
JP4561358B2 (en) | Electronic album creation apparatus and electronic album creation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140107 |