JP2012089928A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2012089928A
JP2012089928A JP2010232780A JP2010232780A JP2012089928A JP 2012089928 A JP2012089928 A JP 2012089928A JP 2010232780 A JP2010232780 A JP 2010232780A JP 2010232780 A JP2010232780 A JP 2010232780A JP 2012089928 A JP2012089928 A JP 2012089928A
Authority
JP
Japan
Prior art keywords
attribute information
information
image processing
image
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010232780A
Other languages
Japanese (ja)
Inventor
Chiaki Mikawa
千明 三河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010232780A priority Critical patent/JP2012089928A/en
Publication of JP2012089928A publication Critical patent/JP2012089928A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for protecting photographer's privacy and making information on a photographing place and photographing time usable for retrieval and display.SOLUTION: An image processing device acquires image data and attribute information to be recorded in association with the image data, and determines whether to generate low-accuracy attribute information which has lowered accuracy than that of the attribute information. When it is determined to perform generation, low-accuracy attribute information which has lowered accuracy is generated. When it is not determined to perform the generation, the attribute information and the image data are output and when it is determined to perform the generation, the low-accuracy attribute information and the image data are output.

Description

本発明は、画像の属性情報を処理するための技術に関するものである。   The present invention relates to a technique for processing image attribute information.

デジタルカメラや携帯電話で撮影した画像をブログや電子アルバムで配信することが日常的に行われるようになっている。さらに、画像に撮影位置が特定できる情報(GPS情報など)が付加されるようになってきている。   Distribution of images taken with digital cameras and mobile phones via blogs and electronic albums has become common. Furthermore, information (GPS information or the like) that can specify the shooting position is added to the image.

このような状況の中で、プライバシーに関わる情報を守るため、インターネット等の通信網経由でファイルを転送するとき、ファイルに付加されている情報を自動的に削除するデジタルカメラが提案されている(特許文献1)。   In such a situation, in order to protect information related to privacy, a digital camera that automatically deletes information added to a file when transferring the file via a communication network such as the Internet has been proposed ( Patent Document 1).

特開2004-343627号公報JP 2004-343627 A

しかしながら、特許文献1では、ファイルに付加されている情報を削除してしまうと、検索や表示に全く使えなくなってしまうという問題があった。本発明は以上の問題に鑑みてなされたものであり、撮影者のプライバシーを保護すると共に、撮影場所や撮影日時の情報を検索や表示に使用可能にする為の技術を提供することを目的とする。   However, in Patent Document 1, there is a problem that if information added to a file is deleted, it cannot be used for search or display at all. The present invention has been made in view of the above problems, and it is an object of the present invention to provide a technique for protecting the photographer's privacy and making the information on the shooting location and shooting date and time usable for searching and displaying. To do.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、画像データと、該画像データと関連付けて記録される属性情報と、を取得する取得手段と、前記取得手段により取得された前記属性情報よりも精度を落とした低精度属性情報を生成するか否かを判断する判断手段と、前記判断手段が前記生成を行うと判断した場合に、前記精度を落とした低精度属性情報を生成する生成手段と、前記判断手段が前記生成を行わないと判断した場合には、前記取得手段が取得した属性情報と画像データとを出力し、前記判断手段により前記生成を行うと判断した場合には、前記生成手段が生成した低精度属性情報と前記画像データとを出力する出力手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, whether to generate image data and attribute information recorded in association with the image data, and to generate low-accuracy attribute information with lower accuracy than the attribute information acquired by the acquisition unit A determination unit that determines whether or not, a generation unit that generates low-precision attribute information with reduced accuracy when the determination unit determines to perform the generation, and a determination unit that determines that the generation is not performed If the determination means outputs the attribute information and image data acquired by the acquisition means, and the determination means determines that the generation is to be performed, the low-precision attribute information generated by the generation means and the image data Output means for outputting.

本発明の構成によれば、撮影者のプライバシーを保護すると共に、撮影場所や撮影日時の情報を検索や表示に使用可能にすることができる。   According to the configuration of the present invention, it is possible to protect the privacy of the photographer and to make it possible to use information on the shooting location and shooting date and time for searching and displaying.

ディジタルスティルカメラの機能構成例を示すブロック図。The block diagram which shows the function structural example of a digital still camera. ディジタルスティルカメラが取り扱う画像のファイル構成を示す図。The figure which shows the file structure of the image which a digital still camera handles. ディジタルスティルカメラが行う処理のフローチャート。The flowchart of the process which a digital still camera performs. ディジタルスティルカメラの背面図。The rear view of a digital still camera. 撮影場所及び撮影日時について、抽象前と抽象後を示す図。The figure which shows before abstraction and after abstraction about an imaging | photography place and imaging | photography date. 外部機器が行う処理のフローチャート。The flowchart of the process which an external device performs. 地図画像の一例を示す図。The figure which shows an example of a map image. ディジタルスティルカメラの背面図。The rear view of a digital still camera. ディジタルスティルカメラが行う処理のフローチャート。The flowchart of the process which a digital still camera performs. サーバの機能構成例を示すブロック図。The block diagram which shows the function structural example of a server. 領域200及び領域201について、更新前と更新後とを示す図。The figure which shows before and after an update about the area | region 200 and the area | region 201. FIG. サーバが行う処理のフローチャート。The flowchart of the process which a server performs. 地名情報を示す図。The figure which shows place name information. 領域200及び領域201について、更新前と更新後とを示す図。The figure which shows before and after an update about the area | region 200 and the area | region 201. FIG. 設定画面の表示例を示す図。The figure which shows the example of a display of a setting screen. 設定画面の表示例を示す図。The figure which shows the example of a display of a setting screen. ディジタルスティルカメラの背面図。The rear view of a digital still camera. (a)は、図17の設定画面で設定される情報を示す図、(b)はディジタルスティルカメラが行う処理のフローチャート。(A) is a figure which shows the information set on the setting screen of FIG. 17, (b) is a flowchart of the process which a digital still camera performs.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る画像処理装置は、固体撮像素子を用いて光学像を画像信号に変換して撮影を行う、デジタルスチルカメラやデジタルビデオカメラ等のカメラが撮像した画像を取り扱う。本実施形態では、画像を外部機器に対して送信する際に、プライバシーに関わる属性情報である撮影場所と撮影日時とを、ある範囲を有する情報に変換し、画像と関連づけて記録する画像処理装置についての説明を行う。なお、画像処理装置が外部機器に対して送信処理を行った後、この外部機器は即時に第三者に提供できる状態にするものとする。
[First Embodiment]
The image processing apparatus according to the present embodiment handles an image captured by a camera such as a digital still camera or a digital video camera that performs imaging by converting an optical image into an image signal using a solid-state imaging device. In this embodiment, when an image is transmitted to an external device, an image processing apparatus that converts a shooting location and shooting date and time, which are attribute information related to privacy, into information having a certain range and records the information in association with the image. Will be described. Note that after the image processing apparatus performs transmission processing on an external device, the external device is ready to be provided to a third party.

<本願明細書で用いる文言の定義>
以下の説明で用いる文言が指し示す定義を、ここに列挙する。なお、これらの文言のより詳細な定義については、以下の説明で明らかとなるであろう。
<Definition of wording used in this specification>
The definitions indicated by the words used in the following description are listed here. A more detailed definition of these terms will become apparent in the following description.

・ 「抽象化」 … 詳細な情報を、より低い精度で対象を特定するための情報や、ある範囲で対象を特定するための情報に変換すること。何れにしても、より低い精度の情報に変換することを指す。   ・ “Abstraction”: Converting detailed information into information for specifying a target with lower accuracy or information for specifying a target within a certain range. In any case, it refers to conversion to information with lower accuracy.

・ 「送信」 … データを外部機器に通信回線経由で送信すること。たとえば、デジタルカメラからインターネット経由でサーバコンピュータ(サーバ)にデータを送ること。   ・ “Transmission”: Sending data to an external device via a communication line. For example, sending data from a digital camera to a server computer (server) via the Internet.

・ 「配信」 … 送信先の外部機器において、第三者に提供できる状態にすること。たとえば、サーバコンピュータにて、第三者に提供できる状態にすること。   ・ “Distribution”: To be in a state where it can be provided to a third party on the external device at the destination. For example, the server computer can be provided to a third party.

<ディジタルスティルカメラの構成例について>
本実施形態では、画像処理装置として動作するディジタルスティルカメラを例に取り、説明する。また以下では、本実施形態における特徴を明確に説明するために、ディジタルスティルカメラが有する全ての動作機能について説明するのではなく、ディジタルスティルカメラがアクセス可能なメモリ内に格納された画像に対する制御機能に焦点を絞って説明する。
<Configuration example of digital still camera>
In the present embodiment, a digital still camera that operates as an image processing apparatus will be described as an example. In the following, in order to clearly describe the features of the present embodiment, not all the operation functions of the digital still camera are described, but a control function for an image stored in a memory accessible by the digital still camera. Focus on and explain.

本実施形態で説明するディジタルスティルカメラの機能構成例について、図1のブロック図を用いて説明する。上記の通り、ここではディジタルスティルカメラの全体について説明するわけではないため、図1には、ディジタルスティルカメラが有する全ての構成のうち、以下の説明で登場する構成のみを示している。   A functional configuration example of the digital still camera described in the present embodiment will be described with reference to the block diagram of FIG. As described above, the entire digital still camera is not described here, and FIG. 1 shows only the configurations that appear in the following description among all the configurations of the digital still camera.

撮像装置100は、固体撮像素子を用いて光学像を画像信号に変換し、変換した画像信号から画像(撮像画像)のデータを生成する為のものである。CPU101はROM102やRAM103に格納されているコンピュータプログラムやデータを用いてディジタルスティルカメラ全体の動作制御を行うと共に、ディジタルスティルカメラが行うものとして後述する様々な処理を実行する。   The imaging apparatus 100 is for converting an optical image into an image signal using a solid-state imaging device and generating image (captured image) data from the converted image signal. The CPU 101 controls the operation of the entire digital still camera using computer programs and data stored in the ROM 102 and RAM 103, and executes various processes that will be described later as what the digital still camera performs.

ROM102には、CPU101の動作処理手順(例えばディジタルスティルカメラの電源をONにした時にCPU101に行わせる処理や、基本入出力処理等)をCPU101に実行させるためのコンピュータプログラムやデータが格納されている。また、ROM102には、ディジタルスティルカメラが行うものとして後述する各種の処理をCPU101に実行させるためのコンピュータプログラムやデータが格納されている。また、ディジタルスティルカメラの各種の設定データもこのROM102に格納されている。ROM102に格納されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。   The ROM 102 stores computer programs and data for causing the CPU 101 to execute operation processing procedures of the CPU 101 (for example, processing to be performed by the CPU 101 when the digital still camera is turned on, basic input / output processing, and the like). . Further, the ROM 102 stores computer programs and data for causing the CPU 101 to execute various processes, which will be described later, performed by the digital still camera. Various setting data of the digital still camera are also stored in the ROM 102. Computer programs and data stored in the ROM 102 are appropriately loaded into the RAM 103 under the control of the CPU 101 and are processed by the CPU 101.

RAM103は、メディアドライブ108に装着された記憶媒体やROM102からロードされたコンピュータプログラムやデータを一時的に記憶する為のエリアを有する。更にRAM103は、I/F(インターフェース)109を介してディジタルスティルカメラ外から受信したデータを一時的に記憶する為のエリアを有する。更にRAM103は、CPU101が各種の処理を実行する際に使用するワークエリアも有する。このようにRAM103は、これらのエリアを含め、各種のエリアを適宜提供することができる。   The RAM 103 has an area for temporarily storing a storage medium loaded in the media drive 108 and a computer program and data loaded from the ROM 102. Further, the RAM 103 has an area for temporarily storing data received from outside the digital still camera via the I / F (interface) 109. Further, the RAM 103 also has a work area used when the CPU 101 executes various processes. As described above, the RAM 103 can appropriately provide various areas including these areas.

表示装置104は、図4を用いて後述するディスプレイ401を表示画面として有する装置であって、CPU101による処理結果を画像や文字として表示する。この表示する内容には、例えば、送信制御のための設定を行う画面(GUI:グラフィカルユーザインターフェース)や、メディアドライブ108に装着された記憶媒体等のメモリに格納されているデータに係る情報がある。   The display device 104 is a device having a display 401 (to be described later with reference to FIG. 4) as a display screen, and displays processing results by the CPU 101 as images and characters. The displayed contents include, for example, information related to data stored in a memory such as a screen (GUI: Graphical User Interface) for setting transmission control or a storage medium mounted on the media drive 108. .

入力装置107は、ボタン等、ディジタルスティルカメラの操作者(ユーザ)が操作することで各種の操作指示をCPU101に対して入力するためのものである。入力装置107の詳細については、図4を用いて後述する。   The input device 107 is used to input various operation instructions to the CPU 101 by an operator (user) of the digital still camera such as buttons. Details of the input device 107 will be described later with reference to FIG.

メディアドライブ108は、ディジタルスティルカメラに対して着脱可能な記憶媒体をディジタルスティルカメラに対して装着するためのI/Fとして機能するものであり、メディアドライブ108はこの装着された記憶媒体に対してデータの読み書きを行う。   The media drive 108 functions as an I / F for mounting a storage medium that is detachable from the digital still camera to the digital still camera. The media drive 108 is connected to the mounted storage medium. Read and write data.

I/F109は、ディジタルスティルカメラを通信回線111に接続する為のものである。通信回線111には、コンピュータネットワーク112が接続されており、更にこのコンピュータネットワーク112には、サーバやパーソナルコンピュータ等の外部機器が接続されている。然るにディジタルスティルカメラは、このI/F109を介して、コンピュータネットワーク112に接続されている外部機器とのデータ通信を行うことができる。本実施形態では、衛星測位システム(GPS)を利用して現在位置を算出するサーバがコンピュータネットワーク112に接続されているので、ディジタルスティルカメラはこのI/F109を介してこのサーバから自身の現在位置を取得することができる。   The I / F 109 is for connecting a digital still camera to the communication line 111. A computer network 112 is connected to the communication line 111, and an external device such as a server or a personal computer is further connected to the computer network 112. However, the digital still camera can perform data communication with an external device connected to the computer network 112 via the I / F 109. In the present embodiment, a server for calculating the current position using a satellite positioning system (GPS) is connected to the computer network 112, so that the digital still camera can detect its current position from this server via the I / F 109. Can be obtained.

上記の各部はシステムバス110に接続されている。このシステムバス110は、アドレスバス、データバス、制御バス等からなるものである。   Each unit described above is connected to the system bus 110. The system bus 110 includes an address bus, a data bus, a control bus, and the like.

<画像ファイルの構成について>
次に、ディジタルスティルカメラが取り扱う画像のファイル構成について、図2を用いて説明する。なお、本実施形態では、図2に示したファイル構成を採用するが、以下に説明する各処理が実現可能であれば、このファイル構成は適宜変更しても良い。領域200及び領域201は共に、Exif規格に準じて画像属性情報を記録するための領域である。
<About the structure of image files>
Next, the image file structure handled by the digital still camera will be described with reference to FIG. In this embodiment, the file configuration shown in FIG. 2 is adopted. However, the file configuration may be changed as appropriate as long as each process described below can be realized. Both the area 200 and the area 201 are areas for recording image attribute information according to the Exif standard.

領域200は、Exif規格の基本的な情報を記録するための領域である。領域200内には、本ファイル内に記録する画像のデータサイズ、撮影日時、撮影場所、撮影機種、フラッシュオン/オフ、等、画像撮像時における撮像状況(撮像環境)を示す情報、画像の読み出しや再生、制御に必要な情報、が記録されている。   The area 200 is an area for recording basic information of the Exif standard. In the area 200, information indicating the imaging status (imaging environment) at the time of image capturing, such as the data size of the image to be recorded in the file, the shooting date and time, the shooting location, the shooting model, the flash on / off, etc., and the reading of the image And information necessary for playback and control.

領域201は、Exif規格に準じて、ディジタルスティルカメラのメーカー独自のフォーマットで画像属性情報を記録するための領域である。領域201内には、送信済みフラグ、配信済みフラグ、撮影場所範囲情報、撮影時間範囲情報、等、画像撮像時における撮像状況を示す情報、制御に必要な情報、が記録されている。送信済みフラグは、本ファイルが既に外部機器に送信済みであるか否か(TRUE若しくはFALSE)を示すフラグである。配信済みフラグは、本ファイルが既に外部機器にて配信済みであるか否か(TRUE若しくはFALSE)を示すフラグである。   The area 201 is an area for recording image attribute information in a format unique to the manufacturer of the digital still camera according to the Exif standard. In the area 201, information indicating an imaging state at the time of image capturing such as a transmitted flag, a distributed flag, shooting location range information, shooting time range information, and information necessary for control are recorded. The transmitted flag is a flag indicating whether this file has already been transmitted to the external device (TRUE or FALSE). The distribution completion flag is a flag indicating whether or not the file has already been distributed by the external device (TRUE or FALSE).

領域202には、後述する領域203内に記録される画像のサムネイル画像(縮小画像)のデータが記録される。各画像ファイル内のサムネイル画像は、一覧表示を行う指示が入力された場合に、表示装置104のディスプレイ401上に一覧表示される。領域203内には、撮像装置100が生成した撮像画像のデータ(画像データ)が記録される。   In the area 202, thumbnail image (reduced image) data of an image recorded in the area 203 described later is recorded. The thumbnail images in each image file are displayed as a list on the display 401 of the display device 104 when an instruction to display a list is input. In the area 203, captured image data (image data) generated by the imaging apparatus 100 is recorded.

撮像装置100がCPU101による制御に従って撮像画像のデータを生成すると、CPU101は、領域200に記録するための情報を取得する。より詳しくは、CPU101は、I/F109を介して、コンピュータネットワーク112に接続されている外部機器から、GPSを利用して測定された「撮像装置100による撮影場所を示す緯度、経度、高度、測位時間等」を取得する。そしてCPU101は、この取得した情報を、領域200に記録する。   When the imaging apparatus 100 generates captured image data in accordance with control by the CPU 101, the CPU 101 acquires information to be recorded in the area 200. More specifically, the CPU 101 measures the “latitude, longitude, altitude, positioning indicating the shooting location by the imaging apparatus 100, measured using GPS from an external device connected to the computer network 112 via the I / F 109. "Time etc." Then, the CPU 101 records the acquired information in the area 200.

また、CPU101は、送信済みフラグ及び配信済みフラグをFalseに初期化してから、領域201内に記録する。なお、送信済みフラグ、撮影場所範囲情報、撮影時間範囲情報、の使用方法については、本実施形態にて後述する。また、配信済みフラグの使用方法については、第3の実施形態にて後述する。   Further, the CPU 101 initializes the transmitted flag and the distributed flag to False and then records them in the area 201. Note that a method of using the transmitted flag, shooting location range information, and shooting time range information will be described later in this embodiment. Further, a method of using the distribution completion flag will be described later in the third embodiment.

もちろん、撮像装置100が生成した撮像画像のデータは、CPU101により領域203内に記録されるし、この撮像画像のサムネイル画像のデータは、CPU101により領域202内に記録される。   Of course, the captured image data generated by the imaging apparatus 100 is recorded in the region 203 by the CPU 101, and the thumbnail image data of the captured image is recorded in the region 202 by the CPU 101.

このように、1枚の撮像画像のデータを生成すると、この撮像画像に対して図2に例示するような構成を有する画像ファイルが生成され、メディアドライブ108に装着されている記憶媒体に記録される。もちろん、記録先についてはこれに限定するものではないし、記録せずに、何らかの出力先に出力しても良い。以下では、このようにして画像ファイルを形成し、形成した画像ファイルを記憶媒体に記録するまでの一連の処理を、「撮像」と呼称する。   As described above, when data of one captured image is generated, an image file having a configuration illustrated in FIG. 2 is generated for the captured image and is recorded on a storage medium attached to the media drive 108. The Of course, the recording destination is not limited to this, and it may be output to some output destination without recording. Hereinafter, a series of processes until the image file is formed in this way and the formed image file is recorded on the storage medium is referred to as “imaging”.

<入力装置107について>
ディジタルスティルカメラが有する入力装置107について、ディジタルスティルカメラの背面図である図4を用いて説明する。上記の通り、入力装置107は、ディジタルスティルカメラのユーザが操作するためのボタン群などにより構成されており、それぞれは図4に示す如く、ディジタルスティルカメラの様々な箇所に取り付けられている。もちろん、図4に示した取り付け位置は一例であって、これに限るものではない。
<About the input device 107>
The input device 107 included in the digital still camera will be described with reference to FIG. 4 which is a rear view of the digital still camera. As described above, the input device 107 is composed of a group of buttons for the user of the digital still camera to operate, and each is attached to various parts of the digital still camera as shown in FIG. Of course, the attachment position shown in FIG. 4 is an example, and the present invention is not limited to this.

本実施形態に係るディジタルスティルカメラでは、4つのモードを切り替えて使用することができる。第1のモードは、撮像を行うためのモードである「撮影モード」である。第2のモードは、メディアドライブ108に装着された記憶媒体に記録されている画像(サムネイル画像)を、表示装置104のディスプレイ401上に一覧表示するためのモードである「再生モード」である。第3のモードは、各種の設定を行うためのモードである「設定モード」である。第4のモードは、記憶媒体に記録されている画像ファイルをI/F109を介して外部機器に対して送信する為のモードである「送信モード」である。何れのモードが選択されても、CPU101は選択されたモードに応じてディジタルスティルカメラを制御し、この選択されたモードに対応する処理を実現させる。以下では主に設定モード時におけるCPU101による動作について説明する。また、電源ボタン402以外のボタンに関しては、ディジタルスティルカメラに電源が入っているときの機能について説明する。   In the digital still camera according to the present embodiment, four modes can be switched and used. The first mode is a “shooting mode” that is a mode for performing imaging. The second mode is a “reproduction mode” which is a mode for displaying a list of images (thumbnail images) recorded on a storage medium mounted on the media drive 108 on the display 401 of the display device 104. The third mode is a “setting mode” that is a mode for performing various settings. The fourth mode is a “transmission mode” which is a mode for transmitting an image file recorded on a storage medium to an external device via the I / F 109. Regardless of which mode is selected, the CPU 101 controls the digital still camera in accordance with the selected mode, and realizes processing corresponding to the selected mode. Hereinafter, the operation of the CPU 101 in the setting mode will be mainly described. Regarding the buttons other than the power button 402, functions when the digital still camera is turned on will be described.

レリーズボタン400は、ディジタルスティルカメラのユーザが撮影指示を入力するために押下するものである。CPU101はレリーズボタン400の押下を検知すると、ディジタルスティルカメラの動作モードを「撮影モード」に切り替え、「撮影モード」に応じた動作を行う。   The release button 400 is pressed by the user of the digital still camera to input a shooting instruction. When the CPU 101 detects that the release button 400 is pressed, the operation mode of the digital still camera is switched to the “shooting mode” and an operation corresponding to the “shooting mode” is performed.

ディスプレイ401は上記の通り、表示装置104の表示画面であり、このディスプレイ401には図4に例示するような設定画面などが表示される。もちろん、ディスプレイ401による表示は、CPU101による制御に従って行われる。   The display 401 is the display screen of the display device 104 as described above, and a setting screen as illustrated in FIG. Of course, display on the display 401 is performed according to control by the CPU 101.

電源ボタン402は、ディジタルスティルカメラのユーザが、ディジタルスティルカメラの電源のON/OFFを切り替える為に押下するものである。CPU101は、ディジタルスティルカメラの電源が入っていない状態でこの電源ボタン402が押下されたことを検知すると、ディジタルスティルカメラの電源を入れるための動作制御を行う。また、CPU101は、ディジタルスティルカメラの電源が入っている状態でこの電源ボタン402が押下されたことを検知すると、ディジタルスティルカメラの電源を切るための動作制御を行う。   The power button 402 is pressed by the user of the digital still camera to turn on / off the power of the digital still camera. When the CPU 101 detects that the power button 402 has been pressed in a state where the power of the digital still camera is not turned on, the CPU 101 performs operation control for turning on the power of the digital still camera. Further, when the CPU 101 detects that the power button 402 has been pressed while the digital still camera is turned on, the CPU 101 performs operation control for turning off the power of the digital still camera.

撮影モードボタン403は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを撮影モードに切り替えるために押下するものである。CPU101はこの撮影モードボタン403の押下を検知すると、ディジタルスティルカメラの動作モードを撮影モードに切り替える。そしてCPU101は、撮像装置100を撮像準備状態に制御すると共に、撮像装置100から出力された画像をディスプレイ401に表示させる。なお、CPU101は、撮影モードにおいてレリーズボタン400の押下を検知すると、この押下を検知した時点で撮像装置100から出力された画像のファイルを作成し、記憶媒体に記録する。   The shooting mode button 403 is pressed by the user of the digital still camera to switch the operation mode of the digital still camera to the shooting mode. When the CPU 101 detects that the shooting mode button 403 is pressed, the operation mode of the digital still camera is switched to the shooting mode. Then, the CPU 101 controls the imaging device 100 to the imaging preparation state and displays an image output from the imaging device 100 on the display 401. Note that when the CPU 101 detects that the release button 400 is pressed in the shooting mode, the CPU 101 creates a file of the image output from the imaging device 100 at the time when the release button is detected, and records the file on the storage medium.

再生ボタン404は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを再生モードに切り替えるために押下するものである。CPU101はこの再生ボタン404の押下を検知すると、ディジタルスティルカメラの動作モードを再生モードに切り替える。そしてCPU101は、記憶媒体に記録されているそれぞれの画像ファイルからサムネイル画像を読み出し、読み出したサムネイル画像群をディスプレイ401上に一覧表示させる。   A playback button 404 is pressed by the user of the digital still camera to switch the operation mode of the digital still camera to the playback mode. When the CPU 101 detects that the playback button 404 is pressed, the operation mode of the digital still camera is switched to the playback mode. Then, the CPU 101 reads out thumbnail images from the respective image files recorded on the storage medium, and displays a list of the read thumbnail image groups on the display 401.

Menuボタン405は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを設定モードに切り替えるために押下するものである。CPU101はこのMenuボタン405の押下を検知すると、ディジタルスティルカメラの動作モードを設定モードに切り替える。そしてCPU101は、ROM102から図4に例示するような設定画面に係るコンピュータプログラムやデータを読み出し、読み出したコンピュータプログラムやデータに基づいて図4に例示するような設定画面をディスプレイ401上に表示させる。もちろん、図4に例示するような設定画面の動作制御についても、このCPU101が行うことになる。   The menu button 405 is pressed by the user of the digital still camera to switch the operation mode of the digital still camera to the setting mode. When the CPU 101 detects that the menu button 405 is pressed, the operation mode of the digital still camera is switched to the setting mode. Then, the CPU 101 reads out the computer program and data related to the setting screen illustrated in FIG. 4 from the ROM 102 and displays the setting screen illustrated in FIG. 4 on the display 401 based on the read computer program and data. Of course, the CPU 101 also performs operation control of the setting screen as exemplified in FIG.

送信ボタン411は、ディジタルスティルカメラのユーザがディジタルスティルカメラの動作モードを送信モードに切り替えるために押下するものである。CPU101は、この送信ボタン411の押下を検知すると、送信指示が入力されたものと判断し、ディジタルスティルカメラの動作モードを送信モードに切り替える。そしてCPU101は、記憶媒体に記録されている画像ファイルを読み出し、読み出した画像ファイルに対して後述する画像制御処理を行った後、設定モードで設定された送信先に対して送信する。   The transmission button 411 is pressed by the user of the digital still camera to switch the operation mode of the digital still camera to the transmission mode. When the CPU 101 detects that the transmission button 411 is pressed, the CPU 101 determines that a transmission instruction has been input, and switches the operation mode of the digital still camera to the transmission mode. The CPU 101 reads out the image file recorded in the storage medium, performs image control processing described later on the read out image file, and transmits the image file to the transmission destination set in the setting mode.

上矢印ボタン407、下矢印ボタン408、左矢印ボタン409、右矢印ボタン410は何れも、ディジタルスティルカメラのユーザが押下することで、対応する方向に選択対象を切り替えるためのものである。それぞれのボタン407〜410が押下されると、CPU101は、対応する方向に選択対象を切り替える。決定ボタン406は、CPU101に対して決定指示を入力するためにディジタルスティルカメラのユーザが押下するためのものである。   The up arrow button 407, the down arrow button 408, the left arrow button 409, and the right arrow button 410 are all for switching the selection target in the corresponding direction when pressed by the user of the digital still camera. When the buttons 407 to 410 are pressed, the CPU 101 switches the selection target in the corresponding direction. A determination button 406 is used by the user of the digital still camera to press to input a determination instruction to the CPU 101.

ディスプレイ401内に表示されている設定画面のうち、現在アクティブになっている(操作可能となっている)項目には、選択枠415が重畳表示されている。CPU101は、上矢印ボタン407の押下を検知すると、選択枠415が現在位置している項目よりも1つ上の項目にこの選択枠415を移動させる。CPU101は、下矢印ボタン408の押下を検知すると、選択枠415が現在位置している項目よりも1つ下の項目にこの選択枠415を移動させる。CPU101は、左矢印ボタン409の押下を検知すると、選択枠415が現在位置している項目よりも1つ左の項目にこの選択枠415を移動させる。CPU101は、右矢印ボタン410の押下を検知すると、選択枠415が現在位置している項目よりも1つ右の項目にこの選択枠415を移動させる。   Of the setting screen displayed in the display 401, a selection frame 415 is superimposed on an item that is currently active (operable). When the CPU 101 detects pressing of the up arrow button 407, the CPU 101 moves the selection frame 415 to an item one level higher than the item where the selection frame 415 is currently located. When the CPU 101 detects that the down arrow button 408 has been pressed, the CPU 101 moves the selection frame 415 to an item one lower than the item in which the selection frame 415 is currently located. When the CPU 101 detects that the left arrow button 409 is pressed, the CPU 101 moves the selection frame 415 to an item that is one item left of the item in which the selection frame 415 is currently located. When the CPU 101 detects pressing of the right arrow button 410, the CPU 101 moves the selection frame 415 to an item that is one right of the item in which the selection frame 415 is currently located.

領域412は、画像ファイルの送信先を入力するための領域(エディットボックス)である。ユーザがボタン407〜410を操作して選択枠415を領域412に移動させてから決定ボタン406を押下すると、領域413が使用可能となる。ユーザはボタン407〜410を用いて領域413内に表示されている文字や記号を選択することができ、選択後に決定ボタン406を押下すると、この選択した文字や記号が領域413の上段に追加表示される。この操作を、送信先を示す文字列が領域413の上段に表示されるまで繰り返して行う。そして送信先を示す文字列が領域413の上段に表示された後、ユーザがボタン407〜410を操作して選択枠415をボタン414に移動させ、そこで決定ボタン406を押下すると、CPU101は、送信先の設定が完了したものと判断する。するとCPU101は、領域413の上段に表示されている送信先を示す文字列を、領域412内に表示する。もちろん、送信先の設定方法はこれに限るものではない。以降に説明する操作部分は、プライバシーに関わる属性情報を、抽象化した情報(低精度属性情報)に変換する為の設定に関するものである。   An area 412 is an area (edit box) for inputting an image file transmission destination. When the user operates the buttons 407 to 410 to move the selection frame 415 to the area 412 and then presses the enter button 406, the area 413 becomes usable. The user can select the characters and symbols displayed in the area 413 using the buttons 407 to 410, and when the user presses the decision button 406 after selection, the selected characters and symbols are additionally displayed in the upper part of the area 413. Is done. This operation is repeated until the character string indicating the transmission destination is displayed in the upper part of the area 413. After the character string indicating the transmission destination is displayed in the upper part of the area 413, when the user operates the buttons 407 to 410 to move the selection frame 415 to the button 414 and presses the decision button 406 there, the CPU 101 transmits It is determined that the previous setting has been completed. Then, the CPU 101 displays a character string indicating the transmission destination displayed in the upper part of the area 413 in the area 412. Of course, the transmission destination setting method is not limited to this. The operation part described below relates to settings for converting attribute information related to privacy into abstract information (low-precision attribute information).

チェックボックス416は、抽象化に係る設定を行うか否かを切り替えるためのものである。ユーザがボタン407〜410を操作して選択枠415をこのチェックボックス416の位置に移動させた後、決定ボタン406を押下する毎に、チェックボックス416のON/OFFが切り替わる。チェックボックス416がONの状態で決定ボタン406を押下するとOFFになり、チェックボックス416がOFFの状態で決定ボタン406を押下するとONになる。   A check box 416 is used to switch whether or not to perform setting related to abstraction. After the user operates the buttons 407 to 410 to move the selection frame 415 to the position of the check box 416, every time the user presses the enter button 406, the check box 416 is switched ON / OFF. When the determination button 406 is pressed while the check box 416 is ON, the button is turned OFF. When the determination button 406 is pressed while the check box 416 is OFF, the button is turned ON.

ユーザがボタン407〜410を操作してメニュー417の位置に選択枠415を移動させ、そこで決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「送信時」、「撮影時」、「配信時」、である。ユーザがボタン407〜410を操作し、所望の項目の位置に選択枠415を移動させ、そこで決定ボタン406を押下すると、CPU101は、この所望の項目を、抽象化した情報への変換タイミングに係る設定情報としてRAM103等のメモリに格納する。更にCPU101は、この所望の項目を、メニュー417上に文字列として表示する。図4では「送信時」が所望の項目として選択されたので、この「送信時」がメニュー417上に文字列として表示されている。   When the user operates the buttons 407 to 410 to move the selection frame 415 to the position of the menu 417 and depresses the enter button 406 there, a pull-down menu is displayed. The menu items to be displayed are “when sending”, “when shooting”, and “when delivering”. When the user operates the buttons 407 to 410 to move the selection frame 415 to the position of the desired item and presses the enter button 406 there, the CPU 101 relates to the conversion timing of the desired item to abstract information. The setting information is stored in a memory such as the RAM 103. Further, the CPU 101 displays the desired item on the menu 417 as a character string. In FIG. 4, “when sending” is selected as a desired item, and this “when sending” is displayed as a character string on the menu 417.

ユーザがボタン407〜410を操作してメニュー418の位置に選択枠415を移動させ、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「自宅の周辺だった場合」、「夜間だった場合」、である。なお、ここでは「夜間」とは「20:00〜6:00の時間帯」を指すものとするが、これは一例に過ぎない。ユーザがボタン407〜410を操作し、所望の項目の位置に選択枠415を移動させ、そこで決定ボタン406を押下すると、CPU101は、この所望の項目を、抽象化した情報への変換条件に係る設定情報としてRAM103等のメモリに格納する。更にCPU101は、この所望の項目を、メニュー418上に文字列として表示する。図4では「自宅の周辺だった場合」が所望の項目として選択されたので、この「自宅の周辺だった場合」がメニュー418上に文字列として表示されている。   When the user operates the buttons 407 to 410 to move the selection frame 415 to the position of the menu 418 and presses the enter button 406, a pull-down menu is displayed. The menu items to be displayed are “when it is around home” and “when it is night”. Here, “night” refers to “time zone from 20:00 to 6:00”, but this is only an example. When the user operates the buttons 407 to 410 to move the selection frame 415 to the position of a desired item and presses the enter button 406 there, the CPU 101 relates to the conversion condition for converting the desired item into abstract information. The setting information is stored in a memory such as the RAM 103. Further, the CPU 101 displays the desired item on the menu 418 as a character string. In FIG. 4, “when it is around the home” is selected as a desired item, so this “when it is around the home” is displayed as a character string on the menu 418.

ボタン419は、抽象化した情報への変換に係る詳細設定を行うためのものである。ユーザがボタン407〜410を操作して選択枠415をボタン419の位置に移動させ、そこで決定ボタン406を押下すると、CPU101は、抽象化した情報への変換に係る詳細設定を行うための画面をディスプレイ401上に表示する。この詳細設定を行うための画面については、本実施形態では触れず、第2の実施形態以降で触れることにする。   A button 419 is used to make detailed settings related to conversion to abstract information. When the user operates the buttons 407 to 410 to move the selection frame 415 to the position of the button 419 and presses the determination button 406 there, the CPU 101 displays a screen for performing detailed settings related to conversion to abstract information. It is displayed on the display 401. The screen for performing this detailed setting is not touched in the present embodiment, and will be touched in the second and subsequent embodiments.

なお、図4に例示した設定画面で設定した各種の設定情報は、他の動作モードに切り替わった場合などにRAM103などのメモリに格納するようにしても良いし、その格納するタイミングについては特に限定するものではない。なお、何れの場合でも、チェックボックス416がON/OFFの何れであるのかを特定する為の情報も、設定情報としてRAM103などのメモリに格納する。そしてこれらの設定情報は、以下に説明する画像制御処理で用いることになる。   Various setting information set on the setting screen illustrated in FIG. 4 may be stored in a memory such as the RAM 103 when switching to another operation mode, and the timing for storing the setting information is particularly limited. Not what you want. In any case, information for specifying whether the check box 416 is ON / OFF is also stored in the memory such as the RAM 103 as setting information. Such setting information is used in an image control process described below.

<画像制御処理について>
画像ファイルを送信するためにディジタルスティルカメラが行う処理について、同処理のフローチャートを示す図3を用いて説明する。図3のフローチャートに従った処理は、上記の通り、CPU101がROM102に格納されているコンピュータプログラムやデータを用いて行うものである。
<About image control processing>
A process performed by the digital still camera to transmit the image file will be described with reference to FIG. 3 showing a flowchart of the process. The processing according to the flowchart of FIG. 3 is performed by the CPU 101 using the computer program and data stored in the ROM 102 as described above.

ステップS301ではCPU101は、入力装置107を用いたユーザ操作を監視し、ユーザ操作がなされた場合、このユーザ操作が、メニュー417を用いて設定した設定情報が指し示す変換タイミングに合致しているか否かを判断する。ユーザ操作が、メニュー417を用いて設定した設定情報が指し示す変換タイミングに合致している場合には、処理はステップS302に進む。一方、ユーザ操作が、メニュー417を用いて設定した設定情報が指し示す変換タイミングに合致していない場合には、本処理を終了する。   In step S301, the CPU 101 monitors a user operation using the input device 107, and when a user operation is performed, whether the user operation matches the conversion timing indicated by the setting information set using the menu 417. Judging. If the user operation matches the conversion timing indicated by the setting information set using the menu 417, the process proceeds to step S302. On the other hand, when the user operation does not coincide with the conversion timing indicated by the setting information set using the menu 417, this process is terminated.

ここでは一例として、メニュー417を用いて設定した設定情報が「送信時」であるものとする。然るにこの場合、ユーザが送信ボタン411を押下したことをCPU101が検知した場合には、処理はステップS302に進み、検知していない場合には、本処理を終了する。   Here, as an example, it is assumed that the setting information set using the menu 417 is “during transmission”. In this case, however, if the CPU 101 detects that the user has pressed the send button 411, the process proceeds to step S302. If not detected, the process ends.

ステップS302ではCPU101は、メディアドライブ108に装着されている記憶媒体に対してアクセスし、記憶媒体内に記録されている各画像ファイル内の領域201内の送信済みフラグを参照する。そして、送信済みフラグがFALSEとなっている画像ファイルのみをROM102から読み出し、RAM103にロード(抽出)する。   In step S302, the CPU 101 accesses the storage medium mounted in the media drive 108, and refers to the transmitted flag in the area 201 in each image file recorded in the storage medium. Then, only the image file whose transmitted flag is FALSE is read from the ROM 102 and loaded (extracted) into the RAM 103.

ステップS303では、CPU101は、カウンタnを0に初期化する。ステップS304ではCPU101は、カウンタnの値と、ステップS302でRAM103にロードした画像ファイルの総数と、の大小比較を行う。この大小比較の結果、(カウンタnの値)<(ステップS302でRAM103にロードした画像ファイルの総数)であれば、処理はステップS305に進む。一方、(カウンタnの値)≧(ステップS302でRAM103にロードした画像ファイルの総数)であれば、本処理を終了する。   In step S303, the CPU 101 initializes the counter n to 0. In step S304, the CPU 101 compares the value of the counter n with the total number of image files loaded in the RAM 103 in step S302. As a result of this size comparison, if (value of counter n) <(total number of image files loaded into RAM 103 in step S302), the process proceeds to step S305. On the other hand, if (the value of the counter n) ≧ (the total number of image files loaded into the RAM 103 in step S302), this processing ends.

ステップS305ではCPU101は、図4の設定画面を用いて設定されRAM103などのメモリに格納された設定情報のうち、チェックボックス416がONであるかOFFであるのかを特定する為の設定情報を参照する。そしてこの参照した設定情報が、チェックボックス416がONであることを指し示している場合には、処理はステップS306に進み、OFFであることを指し示している場合には、処理はステップS311に進む。この場合、ステップS311ではCPU101は、ステップS302でRAM103にロードした画像ファイルのうち未送信の画像ファイルを、I/F109を介して外部機器に対して送信する。   In step S305, the CPU 101 refers to setting information for specifying whether the check box 416 is ON or OFF among the setting information set using the setting screen of FIG. 4 and stored in the memory such as the RAM 103. To do. If the referenced setting information indicates that the check box 416 is ON, the process proceeds to step S306, and if it indicates that the check box 416 is OFF, the process proceeds to step S311. In this case, in step S311, the CPU 101 transmits an untransmitted image file among the image files loaded in the RAM 103 in step S302 to the external device via the I / F 109.

ステップS306ではCPU101は、ステップS302でRAM103にロードした画像ファイルのうち、送信済みフラグがFALSEであるものを1つ選択する。そして選択した画像ファイル内の領域200内に記録されている情報のうち、画像の撮影場所と撮影日時と、を示す情報を読み出す。   In step S306, the CPU 101 selects one of the image files loaded in the RAM 103 in step S302 and whose transmitted flag is FALSE. Of the information recorded in the area 200 in the selected image file, information indicating the shooting location and shooting date of the image is read out.

ステップS307ではCPU101は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたか否かを判断する。例えば、ディジタルスティルカメラのユーザの自宅の緯度、経度をRAM103などのメモリに予め登録しておき、メニュー418で「自宅の周辺だった場合」が選択されたとする。この場合、ステップS307では、自宅の緯度、経度が指し示す位置(自宅の位置)と、ステップS306で読み出した撮影場所と、の間の距離を算出する。そしてこの算出した距離が、予め定められた閾値以下であれば、「自宅の周辺である」と判断する。もちろん、この判断方法についてはこれに限るものではない。   In step S307, the CPU 101 determines whether or not the conversion condition indicated by the setting information set using the menu 418 is satisfied. For example, it is assumed that the latitude and longitude of a digital still camera user's home are registered in advance in a memory such as the RAM 103 and “when the user is in the vicinity of the home” is selected from the menu 418. In this case, in step S307, the distance between the position (home position) indicated by the latitude and longitude of the home and the shooting location read in step S306 is calculated. If the calculated distance is equal to or smaller than a predetermined threshold value, it is determined that the object is “around the home”. Of course, this determination method is not limited to this.

そして、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、処理はステップS308に進み、満たされていないと判断した場合には、処理はステップS311に進む。この場合、ステップS311では、ステップS306で選択した画像ファイルを、I/F109を介して外部機器に対して送信する。   If it is determined that the conversion condition indicated by the setting information set using the menu 418 is satisfied, the process proceeds to step S308. If it is determined that the conversion condition is not satisfied, the process proceeds to step S311. In this case, in step S311, the image file selected in step S306 is transmitted to the external device via the I / F 109.

ステップS308ではCPU101は、ステップS306で読み出した撮影場所について範囲情報を生成する。例えば、撮影場所の緯度が43.323464度の場合、緯度の範囲情報は、この数値「43.323464」を範囲内とする、この範囲の両端の数値43〜44度とする。また、経度が142.353991度の場合、経度の範囲情報は、この数値「142.353991」を範囲内とする、この範囲の両端の数値142〜143度とする。このようにして、範囲情報(上限値と下限値)を生成すると、生成した範囲情報をRAM103などのメモリに格納する。   In step S308, the CPU 101 generates range information for the shooting location read in step S306. For example, when the latitude of the shooting location is 43.323464 degrees, the latitude range information is set to numerical values 43 to 44 degrees at both ends of the range, with the numerical value “43.323464” being in the range. When the longitude is 142.353991 degrees, the longitude range information has the numerical value “142.353991” within the range, and the numerical values 142 to 143 degrees at both ends of the range. When the range information (upper limit value and lower limit value) is generated in this way, the generated range information is stored in a memory such as the RAM 103.

ステップS309ではCPU101は、ステップS306で読み出した撮影日時について範囲情報(日時範囲)を生成する。例えば、撮影日時が2009年1月3日9時45分15秒の場合、撮影日時の範囲情報は、2009年1月3日9時〜10時とする。このようにして、範囲情報(上限値と下限値)を生成すると、生成した範囲情報をRAM103などのメモリに格納する。   In step S309, the CPU 101 generates range information (date / time range) for the shooting date and time read in step S306. For example, if the shooting date and time is January 3, 2009, 9:45:15, the shooting date and time range information is set to January 3, 2009 from 9:00 to 10:00. When the range information (upper limit value and lower limit value) is generated in this way, the generated range information is stored in a memory such as the RAM 103.

ステップS310ではCPU101は、ステップS306で読み出した撮影場所についてステップS308で生成した範囲情報を用いて、この読み出した撮影場所を更新することで、この撮影場所を抽象化した情報に更新する。同様に、ステップS306で読み出した撮影日時についてステップS309で生成した範囲情報を用いて、この読み出した撮影日時を更新することで、この撮影日時を抽象化した情報に更新する。これにより、ステップS306で選択した画像ファイル内の撮影場所及び撮影日時を抽象化してこの画像ファイルを更新する。   In step S310, the CPU 101 updates the read shooting location by using the range information generated in step S308 for the shooting location read in step S306, thereby updating the shooting location to abstract information. Similarly, by using the range information generated in step S309 for the shooting date and time read in step S306, the read shooting date and time is updated to update the shooting date and time to information that is abstracted. As a result, the shooting location and shooting date and time in the image file selected in step S306 are abstracted and the image file is updated.

撮影場所及び撮影日時について、抽象前と抽象後を図5に示す。501の欄には、領域200(Exif_Base属性情報領域)及び領域201(Exif_MakerNote属性情報領域)を記している。抽象前には、領域200内には上述の通り、502で示す如く、撮影場所としての緯度、経度、撮影日時が記録されている。   The pre-abstraction and post-abstraction are shown in FIG. In the column 501, an area 200 (Exif_Base attribute information area) and an area 201 (Exif_MakerNote attribute information area) are described. Prior to abstraction, the latitude, longitude, and shooting date / time as the shooting location are recorded in the area 200, as indicated by 502, as described above.

ステップS310ではCPU101は先ず、503に示す如く、領域200内のこれらの情報を領域201内にコピーすると共に、領域200内のこれらの情報を削除する。そして次にCPU101は、504に示す如く、領域201内のコピーした緯度を、緯度について生成した上限値と下限値とに置き換える。これにより、緯度「43.323464度」を緯度「43」及び「44」に抽象化する。同様にCPU101は、504に示す如く、領域201内のコピーした経度を、経度について生成した上限値と下限値とに置き換える。これにより、経度「142.353991度」を経度「142」及び「143」に抽象化する。同様にCPU101は、504に示す如く、領域201内のコピーした撮影日時を、撮影日時について生成した上限値と下限値とに置き換える。これにより、撮影日時「2009年1月3日9時45分15秒」を撮影日時「2009年1月3日9時」及び「2009年1月3日10時」に抽象化する。   In step S310, the CPU 101 first copies the information in the area 200 into the area 201 and deletes the information in the area 200 as indicated by reference numeral 503. Next, as shown at 504, the CPU 101 replaces the copied latitude in the area 201 with the upper limit value and the lower limit value generated for the latitude. As a result, the latitude “43.323464 degrees” is abstracted into latitudes “43” and “44”. Similarly, as shown at 504, the CPU 101 replaces the copied longitude in the area 201 with the upper limit value and the lower limit value generated for the longitude. As a result, the longitude “142.353991 degrees” is abstracted into longitudes “142” and “143”. Similarly, the CPU 101 replaces the copied shooting date / time in the area 201 with the upper limit value and the lower limit value generated for the shooting date / time as shown at 504. As a result, the shooting date “January 3, 2009 9:45:15” is abstracted to the shooting date “January 3, 2009 9 o'clock” and “January 3, 2009 10:00”.

そしてこの場合、ステップS311ではCPU101は、ステップS310で領域200及び領域201が更新された画像ファイルを、I/F109を介して外部機器に対して送信する。なお、この外部機器は上記の設定モードで設定した送信先である。もし、ユーザが送信先を設定していなければ既定の送信先としてもよいし、警告を表示し、ユーザに送信先の設定を促してもよい。   In this case, in step S311, the CPU 101 transmits the image file in which the area 200 and the area 201 are updated in step S310 to the external device via the I / F 109. This external device is the transmission destination set in the above setting mode. If the transmission destination is not set by the user, the default transmission destination may be used, or a warning may be displayed to prompt the user to set the transmission destination.

ステップS312ではCPU101は、ステップS311で送信した画像ファイル内の送信済みフラグをTRUEに書き換える。ステップS313ではCPU101は、カウンタnの値を1つインクリメントする。そしてステップS304以降の処理を繰り返す。   In step S312, the CPU 101 rewrites the transmitted flag in the image file transmitted in step S311 to TRUE. In step S313, the CPU 101 increments the value of the counter n by one. And the process after step S304 is repeated.

なお、本実施形態では、画像ファイルを外部機器に送信したか否かを判定するためにこの画像ファイルの送信済みフラグを参照した。しかし、画像ファイルを外部機器に送信した後、この画像ファイルを記憶媒体から削除しても良く、その場合、記憶媒体内にこの画像ファイルが残っているか否かを判定すれば良い。   In this embodiment, the transmitted flag of the image file is referred to determine whether the image file has been transmitted to the external device. However, after the image file is transmitted to the external device, the image file may be deleted from the storage medium. In this case, it may be determined whether or not the image file remains in the storage medium.

<外部機器について>
ここでは、上記の外部機器、即ち、上記のようにディジタルスティルカメラから送信された画像ファイルを受信し、受信した画像ファイル内の画像を表示する画像表示装置として機能する外部機器について説明する。
<About external devices>
Here, the above-described external device, that is, the external device that functions as an image display device that receives the image file transmitted from the digital still camera as described above and displays an image in the received image file will be described.

先ず、このような画像表示装置として機能する外部機器が、ディジタルスティルカメラから送信された画像ファイルを受信した場合に行う処理について、同処理のフローチャートを示す図6を用いて説明する。外部機器が有するメモリには、図6のフローチャートに従った処理を外部機器が有するCPUに実行させるためのコンピュータプログラムやデータが格納されている。然るに、外部機器が有するCPUがこのコンピュータプログラムやデータを用いて処理を実行することで、この外部機器は、図6のフローチャートに従った処理を実行することができる。   First, processing performed when an external device functioning as such an image display apparatus receives an image file transmitted from a digital still camera will be described with reference to FIG. 6 showing a flowchart of the processing. The memory of the external device stores a computer program and data for causing the CPU of the external device to execute processing according to the flowchart of FIG. However, when the CPU of the external device executes processing using the computer program and data, the external device can execute processing according to the flowchart of FIG.

なお、以下では、ディジタルスティルカメラからは画像A及び画像Bについては撮影場所及び撮影日時は抽象化せずに外部機器に送信され、画像Cについては撮影場所及び撮影日時は抽象化してから外部機器に送信されたケースを例に取り説明する。しかし、以下の説明がこのケースに限ったものでものはないことは、以下の説明より明らかとなるであろう。   In the following description, the digital still camera transmits images A and B to the external device without abstracting the shooting location and shooting date and time, and the image C for the external device after abstracting the shooting location and shooting date and time. As an example, the case transmitted to will be described. However, it will be clear from the following description that the following description is not limited to this case.

ステップS601では、ディジタルスティルカメラから送信され、外部機器が有するハードディスクなどのメモリ内に取り込まれたそれぞれの画像ファイルを、外部機器が有するRAMなどのメモリに読み出す。   In step S601, each image file transmitted from the digital still camera and taken into a memory such as a hard disk included in the external device is read out to a memory such as a RAM included in the external device.

ステップS602では、以下の処理で用いるカウンタnの値を0に初期化する。ステップS603では、カウンタnの値と、ステップS601で読み出した画像ファイルの総数と、の大小比較を行う。この大小比較の結果、(カウンタnの値)<(ステップS601で読み出した画像ファイルの総数)であれば、処理はステップS604に進み、(カウンタnの値)≧(ステップS601で読み出した画像ファイルの総数)であれば、本処理を終了する。   In step S602, the value of the counter n used in the following processing is initialized to zero. In step S603, the size of the counter n is compared with the total number of image files read in step S601. As a result of the size comparison, if (value of counter n) <(total number of image files read in step S601), the process proceeds to step S604, where (value of counter n) ≧ (image file read in step S601). If this is the case, the process is terminated.

ステップS604では、ステップS601で読み出した画像ファイルのうち未だ以下のステップにおける処理対象となっていない画像ファイルを1つ、選択画像ファイルとして選択する。そして選択画像ファイル内に記録されている撮影場所が抽象化されたものであるのか否かを判断する。この判断では、選択画像ファイル内の領域200内に緯度、経度が記録されていれば、この選択画像ファイル内に記録されている撮影場所は抽象されたものではないと判断する。一方、選択画像ファイル内の領域200内に緯度、経度が記録されていなければ、この選択画像ファイル内に記録されている撮影場所は抽象されたものであると判断する。   In step S604, one of the image files read out in step S601 that has not yet been processed in the following steps is selected as a selected image file. Then, it is determined whether or not the shooting location recorded in the selected image file is an abstraction. In this determination, if the latitude and longitude are recorded in the area 200 in the selected image file, it is determined that the shooting location recorded in the selected image file is not abstract. On the other hand, if the latitude and longitude are not recorded in the area 200 in the selected image file, it is determined that the shooting location recorded in the selected image file is abstract.

この判断の結果、選択画像ファイル内に記録されている撮影場所が抽象化されたものである場合には、処理はステップS606に進み、抽象化されたものではない場合には、処理はステップS605に進む。   If the result of this determination is that the shooting location recorded in the selected image file is abstracted, the process proceeds to step S606, and if it is not abstracted, the process proceeds to step S605. Proceed to

ステップS605では、外部機器が有する表示画面上に表示されている地図画像上における、選択画像ファイル内の画像の縮小画像(若しくはサムネイル画像の縮小画像)の配置位置を、選択画像ファイル内の撮影場所を用いて求める。そしてこの求めた配置位置にこの縮小画像、及び選択画像ファイル内に記録されている緯度、経度などの属性情報、を配置する。   In step S605, the arrangement position of the reduced image (or thumbnail image) in the selected image file on the map image displayed on the display screen of the external device is set as the shooting location in the selected image file. Find using. Then, the reduced image and attribute information such as latitude and longitude recorded in the selected image file are arranged at the obtained arrangement position.

ステップS606では、選択画像ファイル内の撮影場所が範囲情報として記録されているか否か、即ち、撮影場所が上限値と下限値とを用いて記録されているか否かを判断する。この判断では、緯度1、緯度2、経度1、経度2のそれぞれに対応する情報が記録されているか否かを判断する。緯度1、緯度2、経度1、経度2のそれぞれに対応する情報が記録されていれば、選択画像ファイル内の撮影場所が上限値と下限値とを用いて記録されていると判断する。一方、緯度1、緯度2、経度1、経度2のそれぞれに対応する情報が記録されていなければ、選択画像ファイル内の撮影場所は上限値と下限値とを用いて記録されていないと判断する。   In step S606, it is determined whether or not the shooting location in the selected image file is recorded as range information, that is, whether or not the shooting location is recorded using an upper limit value and a lower limit value. In this determination, it is determined whether information corresponding to each of latitude 1, latitude 2, longitude 1, and longitude 2 is recorded. If information corresponding to each of latitude 1, latitude 2, longitude 1, and longitude 2 is recorded, it is determined that the shooting location in the selected image file is recorded using the upper limit value and the lower limit value. On the other hand, if information corresponding to each of latitude 1, latitude 2, longitude 1, and longitude 2 is not recorded, it is determined that the shooting location in the selected image file is not recorded using the upper limit value and the lower limit value. .

選択画像ファイル内の撮影場所が範囲情報として記録されている場合には、処理はステップS607に進み、選択画像ファイル内の撮影場所が範囲情報として記録されていない場合には、処理はステップS609に進む。選択画像ファイル内の撮影場所が範囲情報として記録されていないような選択画像ファイルは、領域200にも領域201にも地図画像上に表示するために必要な緯度経度の情報がないことになる。そのため、地図画像上に表示する際に、表示位置を算出することができない。よって、このような選択画像ファイル内の画像については、表示しないものとする。   If the shooting location in the selected image file is recorded as range information, the process proceeds to step S607. If the shooting location in the selected image file is not recorded as range information, the process proceeds to step S609. move on. In the selected image file in which the shooting location in the selected image file is not recorded as the range information, neither the area 200 nor the area 201 has the latitude and longitude information necessary for displaying on the map image. Therefore, the display position cannot be calculated when displaying on the map image. Therefore, such an image in the selected image file is not displayed.

ステップS607では、選択画像ファイル内の撮影場所(範囲情報)が指し示す地図画像上の範囲を求める。そして求めた範囲を示す枠を、この地図画像上に配置する。ステップS608では、ステップS607で求めた枠内の位置に、選択画像ファイル内の画像の縮小画像(若しくはサムネイル画像の縮小画像)、及び選択画像ファイル内に記録されている緯度、経度などの属性情報、を配置する。ステップS609では、カウンタnの値を1つインクリメントする。そして処理はステップS603に戻り、以降の処理を繰り返す。   In step S607, the range on the map image indicated by the shooting location (range information) in the selected image file is obtained. And the frame which shows the calculated | required range is arrange | positioned on this map image. In step S608, the reduced image of the image in the selected image file (or the reduced image of the thumbnail image) and the attribute information such as the latitude and longitude recorded in the selected image file at the position in the frame obtained in step S607. , To arrange. In step S609, the value of the counter n is incremented by one. Then, the process returns to step S603, and the subsequent processes are repeated.

次に、図6のフローチャートに従って表示される地図画像の一例を図7に示す。地図画像700は、地図画像を管理しているサーバなどから外部機器がダウンロードすることで入手したものである。なお、ダウンロードの際には、画像A、画像B、画像Cのそれぞれの撮影場所が含まれるようなエリアの地図画像をダウンロードするようにする。このように所定のエリアの地図画像をダウンロードする為の技術については一般的なものであるので、これについての詳細な説明は省略する。   Next, an example of the map image displayed according to the flowchart of FIG. 6 is shown in FIG. The map image 700 is obtained by downloading from an external device from a server or the like that manages the map image. At the time of downloading, a map image of an area that includes the shooting locations of the images A, B, and C is downloaded. Since the technique for downloading the map image of the predetermined area is general, detailed description thereof will be omitted.

地図画像700の左上隅701は、地図画像700内では北西の端である。地図画像700の右下隅702は、地図画像700では南東の端である。枠703は、ステップS607で求めた範囲を示すものである。ステップS607では、枠703の左上隅704及び右下隅705の位置を、選択画像ファイル内の撮影場所が指し示す地図画像上の範囲を規定する情報として求める。そして枠703内の適当な位置には、画像C及び画像Cの撮影日時が配されたウィンドウ708が配置されている。   The upper left corner 701 of the map image 700 is the northwest end in the map image 700. The lower right corner 702 of the map image 700 is the southeast end in the map image 700. A frame 703 indicates the range obtained in step S607. In step S607, the positions of the upper left corner 704 and lower right corner 705 of the frame 703 are obtained as information defining the range on the map image indicated by the shooting location in the selected image file. At an appropriate position in the frame 703, a window 708 in which the image C and the shooting date / time of the image C are arranged is arranged.

画像Bの画像ファイル内の撮影場所に対応する地図画像700上の位置には「×」のマーカ706が配置されており、その近傍に画像B及び画像Bの撮影日時が配されたウィンドウ707が配置されている。もちろん、マーカ706の位置にウィンドウ707を配置しても良い。この場合、マーカ706は配さないことになる。これは画像Aについても同様である。   An “x” marker 706 is arranged at a position on the map image 700 corresponding to the shooting location in the image file of the image B, and a window 707 in which the shooting date and time of the image B and the image B are arranged in the vicinity thereof. Has been placed. Of course, the window 707 may be arranged at the position of the marker 706. In this case, the marker 706 is not arranged. The same applies to the image A.

次に、上記のステップS605における処理、即ち、地図画像700上における縮小画像の配置位置(shotX,shotY)を求める処理について説明する。なお、実際には、配置位置(shotX,shotY)にはマーカ706を配置し、その近傍位置に縮小画像を配置する。   Next, the process in step S605 described above, that is, the process for obtaining the arrangement position (shotX, shotY) of the reduced image on the map image 700 will be described. Actually, the marker 706 is arranged at the arrangement position (shotX, shotY), and the reduced image is arranged at a position near the marker 706.

ここで、地図画像700において701を原点とし、横方向をX軸方向、縦方向をY軸方向とする。また、ステップS605における処理を行う段階で、以下の変数の値は既知のものであるとする。   Here, in the map image 700, 701 is the origin, the horizontal direction is the X-axis direction, and the vertical direction is the Y-axis direction. In addition, it is assumed that the following variable values are known at the stage of performing the processing in step S605.

mapN0 : 原点701における緯度(度)
mapE0 : 原点701における経度(度)
mapN1 : 右下隅の点702における緯度(度)
mapE1 : 右下隅の点702における経度(度)
shotN : 画像Bの撮影場所の緯度(度)
shotE : 画像Bの撮影場所の経度(度)
uiX0 : 原点701のX座標(pixel)
uiY0 : 原点701のY座標(pixel)
uiX1 : 点702のX座標(pixel)
uiY1 : 点702のY座標(pixel)
shotX : マーカ706のX座標(pixel)
shotY : マーカ706のY座標(pixel)
実際の撮影場所と、地図画像700内の位置と、を一致させるために、式(1)、式(2)が共に真になるようにする。この条件を満たす、地図画像700上における撮影場所の座標は、以下の式(3)、(4)を計算することで求めることができる。
mapN0: Latitude (degrees) at origin 701
mapE0: Longitude (degree) at origin 701
mapN1: latitude in degrees at point 702 in the lower right corner
mapE1: Longitude (degrees) at point 702 in the lower right corner
shotN: Latitude (degrees) of the shooting location of image B
shotE: Longitude (degree) of shooting location of image B
uiX0: X coordinate of origin 701 (pixel)
uiY0: Y coordinate of origin 701 (pixel)
uiX1: X coordinate of point 702 (pixel)
uiY1: Y coordinate of point 702 (pixel)
shotX: X coordinate (pixel) of marker 706
shotY: Y coordinate (pixel) of marker 706
In order to match the actual shooting location with the position in the map image 700, both the expressions (1) and (2) are made true. The coordinates of the shooting location on the map image 700 that satisfy this condition can be obtained by calculating the following equations (3) and (4).

(mapE0-mapE1):(shotE-mapE1)=(uiX0-uiX1):(shotX-uiX1) …(1)
(mapN0-mapN1):(shotN-mapN1)=(uiY0-uiY1):(shotY-uiY1) …(2)
shotX=((uiX0-uiX1)×(shotE-mapE1))÷(mapE0-mapE1)+uiX1 …(3)
shotY=((uiY0-uiY1)×(shotN-mapN1))÷(mapN0-mapN1)+uiY1 …(4)
前述の変数に加え、以下の変数の値は既知のものであるとし、枠(shotX0,shotY0)〜(shotX1,shotY1)の描画位置の算出方法について説明する。
(mapE0-mapE1) :( shotE-mapE1) = (uiX0-uiX1) :( shotX-uiX1) (1)
(mapN0-mapN1) :( shotN-mapN1) = (uiY0-uiY1) :( shotY-uiY1) (2)
shotX = ((uiX0-uiX1) × (shotE-mapE1)) ÷ (mapE0-mapE1) + uiX1 (3)
shotY = ((uiY0-uiY1) × (shotN-mapN1)) ÷ (mapN0-mapN1) + uiY1 (4)
In addition to the variables described above, it is assumed that the values of the following variables are known, and a method of calculating the drawing positions of the frames (shotX0, shotY0) to (shotX1, shotY1) will be described.

shotN0 : 画像Cの撮影場所の範囲の北西端の緯度(度)
shotE0 : 画像Cの撮影場所の範囲の北西端の経度(度)
shotN1 : 画像Cの撮影場所の範囲の南東端の緯度(度)
shotE1 : 画像Cの撮影場所の範囲の南東端の経度(度)
shotX0 : 左上隅704のX座標(pixel)
shotY0 : 左上隅704のY座標(pixel)
shotX1 : 右下隅705のX座標(pixel)
shotY1 : 右下隅705のY座標(pixel)
前述のステップS605における算出方法と同様に、式(5)、式(6)、式(7)、式(8)が全て真になるようにする。この条件を満たす、枠を構成する頂点の座標は、式(9)、式(10)、式(11)、式(12)、を計算することで求めることができる。
shotN0: Latitude (degrees) at the northwestern end of the image C shooting location range
shotE0: Longitude (degrees) at the northwestern end of the shooting location range for image C
shotN1: Latitude (degrees) of the southeastern end of the shooting location range for image C
shotE1: longitude (degrees) at the southeast end of the range of the shooting location of image C
shotX0: X coordinate (pixel) of upper left corner 704
shotY0: Y coordinate (pixel) of upper left corner 704
shotX1: X coordinate (pixel) of lower right corner 705
shotY1: Y coordinate (pixel) of lower right corner 705
Similar to the calculation method in step S605 described above, the equations (5), (6), (7), and (8) are all made true. The coordinates of the vertices constituting the frame that satisfy this condition can be obtained by calculating Expression (9), Expression (10), Expression (11), and Expression (12).

(mapE0-mapE1):(shotE0-mapE1)=(uiX0-uiX1):(shotX0-uiX1) …(5)
(mapN0-mapN1):(shotN0-mapN1)=(uiY0-uiY1):(shotY0-uiY1) …(6)
(mapE0-mapE1):(shotE1-mapE1)=(uiX0-uiX1):(shotX1-uiX1) …(7)
(mapN0-mapN1):(shotN1-mapN1)=(uiY0-uiY1):(shotY1-uiY1) …(8)
shotX0=((uiX0-uiX1)×(shotE0-mapE1))÷(mapE0-mapE1) +uiX1 …(9)
shotY0=((uiY0-uiY1)×(shotN0-mapN1))÷(mapN0-mapN1) +uiY1 …(10)
shotX1=((uiX0-uiX1)×(shotE1-mapE1))÷(mapE0-mapE1) +uiX1 …(11)
shotY1=((uiY0-uiY1)×(shotN1-mapN1))÷(mapN0-mapN1) +uiY1 …(12)
ここで、撮影場所の座標(shotX,shotY)を求める処理(ステップS605)について、具体的な例を用いて説明する。外部機器がダウンロードした地図画像は、緯度43.45度、経度142.25度から緯度43.25度、経度142.45度の範囲内のエリアのものであるとする。画像Bの詳細な撮影場所は、緯度43.33度、経度142.32度とする。また、地図画像内の座標(uiX1,uiY1)を(0,0)、(uiX0,uiY0)を(1500,2000)とする。また、上記の各変数の値を式(13)に示す。
(mapE0-mapE1) :( shotE0-mapE1) = (uiX0-uiX1) :( shotX0-uiX1) (5)
(mapN0-mapN1) :( shotN0-mapN1) = (uiY0-uiY1) :( shotY0-uiY1) (6)
(mapE0-mapE1) :( shotE1-mapE1) = (uiX0-uiX1) :( shotX1-uiX1) (7)
(mapN0-mapN1) :( shotN1-mapN1) = (uiY0-uiY1) :( shotY1-uiY1) (8)
shotX0 = ((uiX0-uiX1) × (shotE0-mapE1)) ÷ (mapE0-mapE1) + uiX1… (9)
shotY0 = ((uiY0-uiY1) × (shotN0-mapN1)) ÷ (mapN0-mapN1) + uiY1 (10)
shotX1 = ((uiX0-uiX1) × (shotE1-mapE1)) ÷ (mapE0-mapE1) + uiX1 (11)
shotY1 = ((uiY0-uiY1) × (shotN1-mapN1)) ÷ (mapN0-mapN1) + uiY1… (12)
Here, the process (step S605) for obtaining the coordinates (shotX, shotY) of the shooting location will be described using a specific example. The map image downloaded by the external device is assumed to be in an area within the range of 43.45 degrees latitude and 142.25 degrees longitude to 43.25 degrees latitude and 142.45 degrees longitude. The detailed shooting location of the image B is 43.33 degrees latitude and 142.32 degrees longitude. Also, the coordinates (uiX1, uiY1) in the map image are (0, 0), and (uiX0, uiY0) are (1500, 2000). Also, the value of each variable is shown in Equation (13).

mapN0=43.45
mapE0=142.25
mapN1=43.25
mapE1=142.45
shotN=43.33
shotE=142.32
uiX0=0
uiY0=0
uiX1=2000
uiY1=1500 …(13)
式(3)と式(4)に式(13)の値を代入して算出した結果を式(14)、式(15)に示す。
mapN0 = 43.45
mapE0 = 142.25
mapN1 = 43.25
mapE1 = 142.45
shotN = 43.33
shotE = 142.32
uiX0 = 0
uiY0 = 0
uiX1 = 2000
uiY1 = 1500 (13)
The results calculated by substituting the value of the equation (13) into the equations (3) and (4) are shown in the equations (14) and (15).

shotX=((uiX0-uiX1)×(shotE-mapE1))÷(mapE0-mapE1)+uiX1 =((0-2000)×(142.32-142.45))÷(142.25-142.45)+2000= 700 …(14)
shotY=((uiY0-uiY1)×(shotN-mapN1))÷(mapN0-mapN1)+uiY1=((0-1500)×(43.33-43.25))÷(43.45-43.25)+1500= 900 …(15)
以上説明した方法で、撮影場所を算出する。式(14)、式(15)の結果となった場合には、原点701からX軸方向に700pixel、Y軸方向に900pixelの位置を画像Bの撮影場所として求める。
shotX = ((uiX0-uiX1) × (shotE-mapE1)) ÷ (mapE0-mapE1) + uiX1 = ((0-2000) × (142.32-142.45)) ÷ (142.25-142.45) + 2000 = 700… (14 )
shotY = ((uiY0-uiY1) × (shotN-mapN1)) ÷ (mapN0-mapN1) + uiY1 = ((0-1500) × (43.33-43.25)) ÷ (43.45-43.25) + 1500 = 900… (15 )
The shooting location is calculated by the method described above. When the results of Expressions (14) and (15) are obtained, the position of 700 pixels in the X-axis direction and 900 pixels in the Y-axis direction from the origin 701 is obtained as the image B shooting location.

次に、ステップS607における処理について、具体的な例を用いて説明する。画像Cの撮影場所は、緯度43.4度、経度142.3度から緯度43.3度、経度142.4度とする。上記の各変数の値を式(16)に示す。その他の値は式(13)と同じとする。   Next, the process in step S607 will be described using a specific example. The shooting location of the image C is 43.4 degrees latitude, 142.3 degrees longitude to 43.3 degrees latitude, and 142.4 degrees longitude. The value of each of the above variables is shown in equation (16). The other values are the same as in equation (13).

shotN0=43.4
shotE0=142.3
shotN1=43.3
shotE1=142.4 …(16)
式(9)から式(12)に式(13)と式(16)の値を代入して算出した結果を、以下の通り、式(17)から式(20)に示す。
shotN0 = 43.4
shotE0 = 142.3
shotN1 = 43.3
shotE1 = 142.4 (16)
The results calculated by substituting the values of Equations (13) and (16) into Equations (9) to (12) are shown in Equations (17) to (20) as follows.

shotX0=((uiX0-uiX1)×(shotE0-mapE1))÷(mapE0-mapE1) +uiX1=((0-2000)×(142.3-142.45))÷(142.25-142.45)+2000=500 …(17)
shotY0=((uiY0-uiY1)×(shotN0-mapN1))÷(mapN0-mapN1) +uiY1=((0-1500)×(43.4-43.25))÷(43.45-43.25)+1500= 375 …(18)
shotX1=((uiX0-uiX1)×(shotE1-mapE1))÷(mapE0-mapE1) +uiX1=((0-2000)×(142.4-142.45))÷(142.25-142.45)+2000= 1500 …(19)
shotY1=((uiY0-uiY1)×(shotN1-mapN1))÷(mapN0-mapN1) +uiY1=((0-1500)×(43.3-43.25))÷(43.45-43.25)+1500= 1125 …(20)
以上説明した方法で、撮影場所範囲を算出する。式(17)から式(20)の結果になった場合には、X座標とY座標が(500,375)から(1500,1125)までを画像Cに対する枠(図7では枠703)とする。
shotX0 = ((uiX0-uiX1) × (shotE0-mapE1)) ÷ (mapE0-mapE1) + uiX1 = ((0-2000) × (142.3-142.45)) ÷ (142.25-142.45) + 2000 = 500… (17 )
shotY0 = ((uiY0-uiY1) × (shotN0-mapN1)) ÷ (mapN0-mapN1) + uiY1 = ((0-1500) × (43.4-43.25)) ÷ (43.45-43.25) + 1500 = 375… (18 )
shotX1 = ((uiX0-uiX1) × (shotE1-mapE1)) ÷ (mapE0-mapE1) + uiX1 = ((0-2000) × (142.4-142.45)) ÷ (142.25-142.45) + 2000 = 1500… (19 )
shotY1 = ((uiY0-uiY1) × (shotN1-mapN1)) ÷ (mapN0-mapN1) + uiY1 = ((0-1500) × (43.3-43.25)) ÷ (43.45-43.25) + 1500 = 1125… (20 )
The shooting location range is calculated by the method described above. When the results of Expression (17) to Expression (20) are obtained, the X and Y coordinates from (500,375) to (1500,1125) are set as a frame for image C (frame 703 in FIG. 7).

なお、本実施形態では、撮影場所の表示例について説明したが、撮影日時の場合でも、画像表示装置がその情報を表示する機能があればよい。例えば、図7の画像Cのように撮影時間の範囲を文字列で表示すればよい。   In this embodiment, the display example of the shooting location has been described. However, the image display device only needs to have a function of displaying the information even when the shooting date and time are displayed. For example, the range of the shooting time may be displayed as a character string as in image C in FIG.

<撮影場所のバリエーション>
上記の説明では、撮影場所として、GPSを用いて取得した緯度、経度を用いたが、撮影場所を特定できる情報であれば、他の情報でもよい。例えば、携帯電話の基地局や無線LANのアクセスポイントを利用して取得した撮影場所でもよい。
<Variations of shooting locations>
In the above description, the latitude and longitude acquired using the GPS are used as the shooting location, but other information may be used as long as the information can identify the shooting location. For example, a shooting location acquired using a mobile phone base station or a wireless LAN access point may be used.

<画像処理装置のバリエーション>
上記の説明では、画像処理装置の一例としてディジタルスティルカメラを用いたが、複数の機器の組み合わせで画像処理装置を実現させても良い。例えば、撮像機能をもつディジタルカメラが画像を生成した後に、I/F109により通信回線111を介してコンピュータネットワーク112に接続し、この画像を、サーバへ送信する。そして、サーバにおいて第三者へ配信する際に前述した属性情報抽象化の処理を行っても良い。その場合、抽象化のタイミングや条件の設定はディジタルカメラ側で行い、その設定情報をサーバに送信してもよいし、パーソナルコンピュータにて図4と同様のユーザインターフェイスで設定を行い、その設定情報をサーバに送信してもよい。また、サーバに抽象化のタイミングや条件の設定を行うためのユーザインターフェイスを設け、そこで抽象化の設定を行っても良い。
<Variations of image processing devices>
In the above description, the digital still camera is used as an example of the image processing apparatus. However, the image processing apparatus may be realized by a combination of a plurality of devices. For example, after a digital camera having an imaging function generates an image, the I / F 109 connects to the computer network 112 via the communication line 111 and transmits the image to the server. The attribute information abstraction process described above may be performed when distributing to a third party in the server. In that case, the abstraction timing and conditions may be set on the digital camera side, and the setting information may be sent to the server, or the personal computer may be used for setting with the same user interface as in FIG. May be sent to the server. Further, a user interface for setting abstraction timing and conditions may be provided in the server, and the abstraction may be set there.

<抽象化した情報への変換条件のバリエーション>
上記の説明では、ステップS307において、自宅の周辺であるか否かを判断していた。しかし、抽象化した情報への変換条件として、その他の条件を用いても良い。ここでは、撮影時刻、撮影日、被写体、送信先、配信先、の情報を用いて判断する方法について説明する。
<Variation of conversion conditions to abstract information>
In the above description, in step S307, it is determined whether or not it is the vicinity of the home. However, other conditions may be used as conditions for converting to abstract information. Here, a description will be given of a method of making a determination using information on the shooting time, shooting date, subject, transmission destination, and distribution destination.

ステップS307では、撮影日時が、ユーザによって予め設定された時間帯に含まれているか否かを判断しても良い。例えば、ユーザが予め設定した時間帯が20:00〜6:00であるとする。この場合、ステップS307では、画像ファイルから取得した撮影日時がこの時間帯に含まれているか否かを判断する。そして含まれていれば、処理はステップS308に進む。これにより、夜間撮影された写真の撮影場所および撮影日時は抽象化されるので、夜に立ち寄る場所の情報などが閲覧者に伝わることを防止することができ、プライバシーを守ることができる。   In step S307, it may be determined whether the shooting date / time is included in a time zone preset by the user. For example, it is assumed that the time zone preset by the user is 20:00 to 6:00. In this case, in step S307, it is determined whether or not the shooting date and time acquired from the image file is included in this time zone. If it is included, the process proceeds to step S308. As a result, the shooting location and shooting date and time of the photograph taken at night are abstracted, so that it is possible to prevent the information on the location where the person stops at night from being transmitted to the viewer, and privacy can be protected.

また、ステップS307では、撮影日時が、ユーザによって予め設定された期間に含まれているか否かを判断しても良い。例えば、ユーザが予め設定した期間が期間Xであるとする。この場合、ステップS307では、画像ファイルから取得した期間がこの期間Xに含まれているか否かを判断する。そして含まれていれば、処理はステップS308に進む。これにより、旅行中の期間を抽象化しない期間として設定しておけば、旅行中の写真の撮影場所は、閲覧者が詳細を知ることができるようになる。対して、日常生活で撮影した画像については、撮影場所および撮影日時を抽象化するので、プライバシーを守ることができる。   In step S307, it may be determined whether or not the shooting date / time is included in a period preset by the user. For example, it is assumed that the period set in advance by the user is the period X. In this case, in step S307, it is determined whether or not the period acquired from the image file is included in the period X. If it is included, the process proceeds to step S308. Thus, if the period during travel is set as a period that is not abstracted, the viewer can know the details of the shooting location of the photograph during travel. On the other hand, for images taken in daily life, the shooting location and shooting date and time are abstracted, so that privacy can be protected.

また、ステップS307では、画像ファイル内の画像に、ユーザが予め設定した被写体が映っているか否かを判断しても良い。例えば、ユーザが予め設定した被写体が被写体Xであるとする。この場合、ステップS307では、画像ファイル内の領域200内に記録されている被写体情報が被写体Xを示しているか否かを判断する。そして示していれば、処理はステップS308に進む。これにより、自分の子供や友人が写っている場合には、撮影場所および撮影日時を抽象化するので、個人を特定する情報が少なくなり、プライバシーを守ることができる。   In step S307, it may be determined whether or not a subject preset by the user is reflected in the image in the image file. For example, it is assumed that the subject preset by the user is the subject X. In this case, in step S307, it is determined whether or not the subject information recorded in the area 200 in the image file indicates the subject X. If so, the process proceeds to step S308. As a result, when the child or friend is shown, the shooting location and the shooting date and time are abstracted, so that information for identifying an individual is reduced and privacy can be protected.

また、ステップS307では、画像ファイルの送信先が、ユーザによって予め設定された送信先であるか否かを判断しても良い。例えば、ユーザが予め設定した送信先が送信先Xであるとする。この場合、ステップS307では、設定モードで設定された送信先が送信先Xであるか否かを判断する。そして、設定された送信先が送信先Xである場合には、処理はステップS308に進む。これにより、たとえば、不特定多数が閲覧するブログが送信先だった場合には抽象化すると設定することができるので、ブログ公開用のサーバへ送信する際には、撮影場所および撮影日時を抽象化するので、プライバシーを守ることができる。一方、家族用のWEBアルバム用のサーバへ送信する際には抽象化しないので、詳細な情報を閲覧者が知ることができる。   In step S307, it may be determined whether the transmission destination of the image file is a transmission destination set in advance by the user. For example, it is assumed that the transmission destination set in advance by the user is the transmission destination X. In this case, in step S307, it is determined whether or not the transmission destination set in the setting mode is the transmission destination X. If the set transmission destination is the transmission destination X, the process proceeds to step S308. As a result, for example, when a blog viewed by an unspecified number is a destination, it can be set to be abstracted, so when sending to a blog publishing server, the shooting location and shooting date are abstracted. So you can protect your privacy. On the other hand, since it is not abstracted when transmitting to the server for the family WEB album, the viewer can know detailed information.

また、ステップS307では、画像ファイルの配信先が、ユーザによって予め設定された配信先であるか否かを判断しても良い。例えば、ユーザが予め設定した配信先が配信先Xであるとする。この場合、ステップS307では、設定された配信先が配信先Xであるか否かを判断する。そして、設定された配信先が配信先Xである場合には、処理はステップS308に進む。これにより、たとえば、不特定多数が閲覧するブログが配信先だった場合には抽象化すると設定することができるので、ブログ公開用のサーバへ送信する際には、撮影場所および撮影日時を抽象化するので、プライバシーを守ることができる。一方、家族用のWEBアルバム用のサーバへ送信する際には抽象化しないので、詳細な情報を閲覧者が知ることができる。   In step S307, it may be determined whether the distribution destination of the image file is a distribution destination preset by the user. For example, it is assumed that the delivery destination set in advance by the user is the delivery destination X. In this case, in step S307, it is determined whether or not the set delivery destination is the delivery destination X. If the set delivery destination is delivery destination X, the process proceeds to step S308. As a result, for example, when a blog viewed by an unspecified number is a distribution destination, it can be set to be abstracted, so when sending it to a blog publishing server, abstract the shooting location and shooting date and time. So you can protect your privacy. On the other hand, since it is not abstracted when transmitting to the server for the family WEB album, the viewer can know detailed information.

<抽象化した情報への変換タイミングのバリエーション>
上記の説明では、ステップS301では、ユーザが送信ボタン411を押下したか否かをCPU101が監視している例について説明した。しかし、ユーザがレリーズボタン400を押下したか否か(撮像指示が入力されたか否か)をCPU101が監視するようにしても良い。この場合、レリーズボタン400が押下された(撮像指示が入力された)ことをCPU101が検知した場合には、処理をステップS302に進める。もちろん、サーバによる配信がなされたか否かを指標としても良い。これについては第3の実施形態で詳しく説明する。
<Variation of conversion timing to abstract information>
In the above description, in step S301, an example in which the CPU 101 monitors whether or not the user has pressed the transmission button 411 has been described. However, the CPU 101 may monitor whether the user has pressed the release button 400 (whether an imaging instruction has been input). In this case, if the CPU 101 detects that the release button 400 has been pressed (an imaging instruction has been input), the process proceeds to step S302. Of course, it is good also as a parameter | index whether the delivery by the server was made. This will be described in detail in the third embodiment.

<属性情報の更新方法のバリエーション>
上記の説明では、ステップS310では、詳細な情報(ステップS306で読み出した情報)を削除し、範囲情報を記録することを例に挙げた。しかし、詳細な情報を削除しなくても、容易に見られない状態にし、抽象化した情報が閲覧に利用できるような形にしても良い。例えば、詳細な情報を暗号化したり、電子透かし技術により画像へ埋め込んだりして、容易に見られない状態(不可視の情報)に変換してもよい。また、送信するデータのみ抽象化処理を行い、抽象化処理前の元のデータは、記憶媒体に残しておくようにしてもよい。
<Variation of attribute information update method>
In the above description, in step S310, detailed information (information read in step S306) is deleted, and range information is recorded as an example. However, even if detailed information is not deleted, it may be in a state where it cannot be easily seen and the abstracted information can be used for browsing. For example, detailed information may be encrypted or embedded in an image using a digital watermark technique to convert it into a state that cannot be easily seen (invisible information). Alternatively, the abstraction process may be performed only on the data to be transmitted, and the original data before the abstraction process may be left in the storage medium.

以上の説明により、本実施形態によれば、撮影者のプライバシーを守る上、撮影場所や撮影日時の情報を検索や表示に使うことができる。また、画像表示装置が対応していれば、撮影場所や日時の大まかな情報を閲覧者が知ることができる。   As described above, according to the present embodiment, the photographer's privacy can be protected, and information on the shooting location and the shooting date / time can be used for searching and displaying. Further, if the image display device is compatible, the viewer can know rough information about the shooting location and the date and time.

[第2の実施形態]
第1の実施形態では、撮影場所及び撮影日時を、範囲を示す情報に抽象化した。本実施形態では、撮影場所(位置情報)及び撮影日時(日時情報)が示す数値(数値情報)の精度を下げ、有効な桁数を有する撮影場所及び撮影日時に抽象化する。以下では、第1の実施形態との差異についてのみ説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
[Second Embodiment]
In the first embodiment, the shooting location and the shooting date and time are abstracted into information indicating a range. In this embodiment, the accuracy of the numerical value (numerical information) indicated by the shooting location (position information) and the shooting date / time (date / time information) is lowered and abstracted to the shooting location and shooting date / time having an effective number of digits. In the following, only differences from the first embodiment will be described, and unless otherwise noted, the same as the first embodiment.

<抽象化用の設定画面について>
撮影場所及び撮影日時を抽象化するための設定を行う設定画面について、ディジタルスティルカメラの背面図である図8を用いて説明する。図8に示したものは、図4に示したものにおいて、ディスプレイ401の表示内容が抽象化用の設定画面に変わっているのみである。然るに図8では、抽象化用の設定画面についてのみ参照番号を付し、これについてのみ説明する。
<About the setting screen for abstraction>
A setting screen for performing setting for abstracting the shooting location and the shooting date and time will be described with reference to FIG. 8 which is a rear view of the digital still camera. 8 is the same as that shown in FIG. 4 except that the display content of the display 401 is changed to an abstraction setting screen. However, in FIG. 8, only the setting screen for abstraction is provided with a reference number, and only this will be described.

図8に示した設定画面は、図4の設定画面において、ボタン419に選択枠415を移動させてから決定ボタン406を押下した場合にディスプレイ401に表示されるものである。   The setting screen shown in FIG. 8 is displayed on the display 401 when the selection button 406 is pressed after the selection frame 415 is moved to the button 419 in the setting screen of FIG.

メニュー801は、緯度の有効桁数を選択するためのもので、ボタン407〜410を操作して選択枠805をメニュー801に移動させた後、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「整数」、「小数点第一位」、「小数点第二位」、である。ユーザがボタン407〜410を操作し、これらの項目のうち何れか1つを選択し、決定ボタン406を押下すると、決定した有効桁数を設定情報としてRAM103などのメモリに格納すると共に、決定した有効桁数がメニュー801上に表示される。   A menu 801 is used to select the number of significant digits of latitude. When the user presses the decision button 406 after operating the buttons 407 to 410 to move the selection frame 805 to the menu 801, a pull-down menu is displayed. To do. The menu items to be displayed are “integer”, “first decimal place”, and “second decimal place”. When the user operates buttons 407 to 410 to select any one of these items and presses the enter button 406, the determined effective number of digits is stored as setting information in a memory such as the RAM 103 and determined. The number of significant digits is displayed on the menu 801.

メニュー802は、経度の有効桁数を選択するためのもので、ボタン407〜410を操作して選択枠805をメニュー802に移動させた後、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「整数」、「小数点第一位」、「小数点第二位」、である。ユーザがボタン407〜410を操作し、これらの項目のうち何れか1つを選択し、決定ボタン406を押下すると、決定した有効桁数を設定情報としてRAM103などのメモリに格納すると共に、決定した有効桁数がメニュー802上に表示される。   A menu 802 is used to select the number of significant digits of the longitude. When the button 407 to 410 is operated to move the selection frame 805 to the menu 802 and the enter button 406 is pressed, a pull-down menu is displayed. To do. The menu items to be displayed are “integer”, “first decimal place”, and “second decimal place”. When the user operates buttons 407 to 410 to select any one of these items and presses the enter button 406, the determined effective number of digits is stored as setting information in a memory such as the RAM 103 and determined. The number of significant digits is displayed on the menu 802.

なお、緯度、経度のそれぞれの有効桁数を指定するための方法についてはこれに限定するものではなく、直接有効桁数を示す数値を入力装置107を用いて入力しても良い。また、有効桁数はこれに限るものではない。   Note that the method for designating the number of significant digits of latitude and longitude is not limited to this, and a numerical value indicating the number of significant digits may be directly input using the input device 107. The number of significant digits is not limited to this.

メニュー803は、撮影時間をどの単位で表現するのかを選択するためのもので、ボタン407〜410を操作して選択枠805をメニュー803に移動させた後、決定ボタン406を押下すると、プルダウン式のメニューを表示する。表示するメニューの項目は、「6時間」、「3時間」、「60分」、である。ユーザがボタン407〜410を操作し、これらの項目のうち何れか1つを選択し、決定ボタン406を押下すると、決定した単位を設定情報としてRAM103などのメモリに格納すると共に、決定した単位がメニュー803上に表示される。   A menu 803 is used to select in which unit the shooting time is expressed. When the user presses the decision button 406 after operating the buttons 407 to 410 to move the selection frame 805 to the menu 803, a pull-down menu is displayed. Display the menu. The menu items to be displayed are “6 hours”, “3 hours”, and “60 minutes”. When the user operates buttons 407 to 410 to select one of these items and presses the enter button 406, the determined unit is stored as setting information in a memory such as the RAM 103, and the determined unit is It is displayed on the menu 803.

選択枠805をボタン804に移動させ、そこで決定ボタン406を押下すると、図8に例示した設定画面から、図4に例示した設定画面に切り替わる。なお、図8に例示した設定画面で設定した各種の設定情報は、このような画面の切り替え時にRAM103などのメモリに格納するようにしても良いし、その格納するタイミングについては特に限定するものではない。また、図8に例示した設定画面についても、図4に例示した設定画面と同様、CPU101により制御される。   When the selection frame 805 is moved to the button 804 and the determination button 406 is pressed there, the setting screen illustrated in FIG. 8 is switched to the setting screen illustrated in FIG. The various setting information set on the setting screen illustrated in FIG. 8 may be stored in a memory such as the RAM 103 at the time of switching the screen, and the timing for storing the setting information is not particularly limited. Absent. Further, the setting screen illustrated in FIG. 8 is also controlled by the CPU 101, similarly to the setting screen illustrated in FIG.

<画像制御処理について>
画像ファイルを送信するためにディジタルスティルカメラが行う処理は、図3のフローチャートにおいて、ステップS308〜S310を図9のステップS901〜S903に置き換えたものとなる。即ち、本実施形態ではCPU101は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、図9のフローチャートに従った処理を実行し、その後、処理をステップS311に進める。
<About image control processing>
The processing performed by the digital still camera to transmit the image file is obtained by replacing steps S308 to S310 with steps S901 to S903 in FIG. 9 in the flowchart of FIG. That is, in this embodiment, when the CPU 101 determines that the conversion condition indicated by the setting information set using the menu 418 is satisfied, the CPU 101 executes the process according to the flowchart of FIG. Proceed to

ステップS901ではCPU101は、ステップS306で読み出した撮影場所である緯度、経度において、メニュー801で設定した有効桁数よりも下の桁を削除することで、この緯度、経度を更新する。これにより、有効桁数で緯度、経度を表現する撮影場所の情報を作成することができる。   In step S901, the CPU 101 updates the latitude and longitude by deleting digits lower than the number of valid digits set in the menu 801 in the latitude and longitude that are the shooting locations read out in step S306. This makes it possible to create shooting location information that expresses latitude and longitude with the number of significant digits.

ステップS902ではCPU101は、ステップS306で読み出した撮影日時を、メニュー802で設定した単位で量子化(設定した単位より小さい値を切り捨てる)することで、この撮影日時を更新する。例えば、メニュー802で「60分間」を単位として設定した場合、撮影日時「9時35分」は「9時」と量子化される。   In step S902, the CPU 101 updates the shooting date and time by quantizing the shooting date and time read in step S306 in the unit set in the menu 802 (a value smaller than the set unit is rounded down). For example, when “60 minutes” is set as a unit in the menu 802, the shooting date “9:35” is quantized as “9 o'clock”.

ステップS903ではCPU101は、領域200内に記録されていた撮影場所を、ステップS901で更新した撮影場所に更新することで、撮影場所を抽象化した情報に更新する。同様に、領域200内に記録されていた撮影日時を、ステップS902で更新した撮影日時に更新することで、撮影日時を抽象化した情報に更新する。更にステップS903ではCPU101は、領域201内に、メニュー801で設定した有効桁数、メニュー802で設定した単位を書き込むことで、この領域201を更新する。   In step S903, the CPU 101 updates the shooting location recorded in the area 200 to the information obtained by abstracting the shooting location by updating the shooting location updated in step S901. Similarly, the shooting date and time recorded in the area 200 is updated to the shooting date and time updated in step S902, thereby updating the shooting date and time to information abstracted. In step S903, the CPU 101 updates the area 201 by writing the number of significant digits set in the menu 801 and the unit set in the menu 802 in the area 201.

領域200及び領域201について、更新前と更新後とを図11に示す。1101の欄には、領域200(Exif_Base属性情報領域)及び領域201(Exif_MakerNote属性情報領域)を記している。更新前には、領域200内には上述の通り、1102で示す如く、撮影場所としての緯度、経度、撮影日時が記録されている。   FIG. 11 shows the region 200 and the region 201 before and after the update. In a column 1101, an area 200 (Exif_Base attribute information area) and an area 201 (Exif_MakerNote attribute information area) are described. Before the update, the latitude, longitude, and shooting date and time as the shooting location are recorded in the area 200 as described above, as indicated by 1102 in the area 200.

ステップS901ではCPU101は、欄1103に示している緯度、経度については、欄1104に示す如く、メニュー801で設定した有効桁数(ここでは小数点第一位)を有する緯度、経度にそれぞれ更新する。   In step S901, the CPU 101 updates the latitude and longitude shown in the column 1103 to the latitude and longitude having the number of significant digits (here, the first decimal place) set in the menu 801 as shown in the column 1104.

ステップS902ではCPU101は、欄1103に示している撮影日時については、欄1104に示す如く、メニュー802で設定した単位(ここでは60分)で量子化して更新する。   In step S <b> 902, the CPU 101 quantizes and updates the shooting date and time shown in the column 1103 in the unit set in the menu 802 (60 minutes here) as shown in the column 1104.

そして、緯度についてメニュー801で設定した有効桁数(図11では小数点第一位)による有効最小単位「0.1」を、欄1104に示す如く、領域201内に書き込む。更に、経度についてメニュー802で設定した有効桁数(図11では小数点第一位)による有効最小単位「0.1」を、欄1104に示す如く、領域201内に書き込む。更に、撮影日時についてメニュー802で設定した単位(図11では60分)による有効最小単位「1」(時間)を、欄1104に示す如く、領域201内に書き込む。   Then, the effective minimum unit “0.1” based on the effective number of digits (first decimal place in FIG. 11) set in the menu 801 for latitude is written in the area 201 as shown in a column 1104. Further, the effective minimum unit “0.1” based on the number of significant digits (first decimal place in FIG. 11) set in the menu 802 for longitude is written in the area 201 as shown in a column 1104. Further, the effective minimum unit “1” (time) in the unit (60 minutes in FIG. 11) set in the menu 802 for the shooting date and time is written in the area 201 as shown in the column 1104.

<範囲情報への変換について>
有効桁数を有する緯度、経度、設定された単位で量子化された撮影日時、のそれぞれを、第1の実施形態と同様、範囲情報として記録しても良い。その場合、先ず、以下に示す各変数の値は既知であるものとする。そして、緯度、経度についての範囲情報を、式(21)、式(22)、式(23)、式(24)を計算することで求める。
<About conversion to range information>
Each of latitude and longitude having an effective number of digits, and shooting date and time quantized in a set unit may be recorded as range information as in the first embodiment. In that case, first, it is assumed that the values of the following variables are known. Then, range information about latitude and longitude is obtained by calculating Expression (21), Expression (22), Expression (23), and Expression (24).

exifShotN : 抽象化後の撮影場所の緯度
exifShotE : 抽象化後の撮影場所の経度
mStepN : 緯度の最小有効単位
mStepE : 経度の最小有効単位
shotN0 : 撮影場所の範囲の端の緯度(度)
shotE0 : 撮影場所の範囲の端の経度(度)
shotN1 : 撮影場所の範囲のshotN0とは反対側の端の緯度(度)
shotE1 : 撮影場所の範囲のshotE0とは反対側の端の経度(度)
shotN0=exifShotN …(21)
shotE0=exifShotE …(22)
shotN1=exifShotN+mStepN …(23)
shotE1=exifShotE+mStepE …(24)
以下に示す各変数の値が既知のものであるとした場合に、撮影日時についての範囲情報を、式(25)、式(26)を計算することで求める。
exifShotN: Latitude of the shooting location after abstraction
exifShotE: Longitude of shooting location after abstraction
mStepN: Minimum effective unit of latitude
mStepE: Minimum effective unit of longitude
shotN0: Latitude (degrees) at the end of the shooting location range
shotE0: Longitude (degrees) at the end of the shooting location range
shotN1: Latitude (degrees) at the end of the shooting location opposite to shotN0
shotE1: Longitude (degrees) at the end of the shooting location opposite to shotE0
shotN0 = exifShotN (21)
shotE0 = exifShotE (22)
shotN1 = exifShotN + mStepN (23)
shotE1 = exifShotE + mStepE (24)
When it is assumed that the values of the following variables are known, range information about the shooting date and time is obtained by calculating Expression (25) and Expression (26).

exifShotHour : 抽象化後の撮影時刻(時)
minStep : 時間の最小有効単位(時)
shotHour0 : 撮影日時の範囲の端(時)
shotHour1 : 撮影日時の範囲のshotHour0とは反対側の端(時)
shotHour0=exifShotHour …(25)
shotHour1=exifShotHour+minStep …(26)
これ以降については、第1の実施形態と同様である。
exifShotHour: Shooting time after abstraction (hours)
minStep: Minimum effective unit of time (hours)
shotHour0: End of shooting date and time range (hours)
shotHour1: End of the shooting date and time range opposite to shotHour0 (hours)
shotHour0 = exifShotHour (25)
shotHour1 = exifShotHour + minStep (26)
The subsequent steps are the same as in the first embodiment.

以上の説明により、本実施形態によれば、撮影者のプライバシーを守る上、撮影場所や撮影日時の情報を検索や表示に使うことができる。また、画像表示装置が対応していれば、撮影場所や日時の大まかな情報を閲覧者が知ることができる。   As described above, according to the present embodiment, the photographer's privacy can be protected, and information on the shooting location and the shooting date / time can be used for searching and displaying. Further, if the image display device is compatible, the viewer can know rough information about the shooting location and the date and time.

加えて、本実施形態においては、領域200内の撮影場所および撮影日時は削除しない。そのため、画像表示装置が範囲の表示などに対応していなくても、切捨てされた情報を検索や表示に使うことが可能である。   In addition, in this embodiment, the shooting location and shooting date / time in the area 200 are not deleted. Therefore, even if the image display device does not support range display, the truncated information can be used for search and display.

[第3の実施形態]
第1,2の実施形態では、ディジタルスティルカメラとしての画像処理装置について説明した。本実施形態では、サーバに適用した場合の画像処理装置について説明する。また、第1,2の実施形態では、緯度経度といった数値である情報を抽象化したが、本実施形態では、数値ではなく文字列の情報(文字列情報)であっても、抽象化可能であることを説明する。なお、以下では、第1の実施形態と異なる点のみについて触れ、第1の実施形態と同じ部分については特に触れないものとする。
[Third Embodiment]
In the first and second embodiments, the image processing apparatus as a digital still camera has been described. In the present embodiment, an image processing apparatus when applied to a server will be described. In the first and second embodiments, information that is numerical values such as latitude and longitude is abstracted. However, in this embodiment, it is possible to abstract even character string information (character string information) instead of numerical values. Explain that there is. In the following, only points different from the first embodiment will be mentioned, and the same parts as those of the first embodiment will not be particularly mentioned.

<サーバの構成例について>
サーバの機能構成例について、図10のブロック図を用いて説明する。なお、サーバの機能構成例については図10に示した構成に限るものではなく、同様の機能させ実現できれば、他の構成も考え得る。
<Example of server configuration>
An example of the functional configuration of the server will be described with reference to the block diagram of FIG. The functional configuration example of the server is not limited to the configuration shown in FIG. 10, and other configurations can be considered as long as the same functions can be realized.

CPU1001は、ROM1002やRAM1003に格納されているコンピュータプログラムやデータを用いてサーバ全体の制御を行うと共に、サーバが行うものとして後述する各種の処理を実行する。ROM1002には、ブートプログラムやサーバの設定データ等が格納されている。   The CPU 1001 controls the entire server using computer programs and data stored in the ROM 1002 and the RAM 1003, and executes various processes described later as performed by the server. The ROM 1002 stores a boot program, server setting data, and the like.

RAM1003は、HDD(ハードディスクドライブ)1005やDVDD(DVDドライブ)からロードされたコンピュータプログラムやデータ、I/F1009を介して外部から受信したデータを一時的に記憶するためのエリアを有する。更にRAM1003は、CPU1001が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM1003は、各種のエリアを適宜提供することができる。ディスプレイ1004は、CPU1001による処理結果を画像や文字などでもって表示することができる。   The RAM 1003 has an area for temporarily storing computer programs and data loaded from the HDD (Hard Disk Drive) 1005 and DVDD (DVD Drive) and data received from the outside via the I / F 1009. Furthermore, the RAM 1003 also has a work area used when the CPU 1001 executes various processes. That is, the RAM 1003 can provide various areas as appropriate. The display 1004 can display the result of processing by the CPU 1001 using images, characters, and the like.

HDD1005には、OS(オペレーティングシステム)や、サーバが行うものとして後述する各処理をCPU1001に実行させるためのコンピュータプログラムやデータが保存されている。また、既知の情報として説明するものも、このHDD1005に保存されている。HDD1005に保存されているコンピュータプログラムやデータは、CPU1001による制御に従って適宜RAM1003にロードされ、CPU1001による処理対象となる。   The HDD 1005 stores an OS (Operating System) and computer programs and data for causing the CPU 1001 to execute processes to be described later as performed by the server. Also, what is described as known information is also stored in the HDD 1005. Computer programs and data stored in the HDD 1005 are appropriately loaded into the RAM 1003 under the control of the CPU 1001 and are processed by the CPU 1001.

DVDD1006は、DVDに記録された情報を読み取り、読み取った情報を、HDD1005やRAM1003に出力する。なお、DVDD1006の代わりに、若しくは追加して、CD−ROMドライブ、MO等の光(磁気)ディスクドライブ、テープストリーマ、DDSなどの磁気テープドライブ等を設けてもよい。   The DVDD 1006 reads information recorded on the DVD and outputs the read information to the HDD 1005 and the RAM 1003. Note that a CD-ROM drive, an optical (magnetic) disk drive such as MO, a tape streamer, a magnetic tape drive such as DDS, or the like may be provided instead of or in addition to the DVDD 1006.

入力装置1007は、キーボードやマウスなどのポインティングデバイスにより構成されており、サーバの操作者が操作することで、各種の指示をCPU1001に対して入力することができる。   The input device 1007 is configured by a pointing device such as a keyboard and a mouse, and can input various instructions to the CPU 1001 by being operated by an operator of the server.

I/F1009は、サーバを通信回線1011に接続する為のものである。通信回線1011には、コンピュータネットワーク1012が接続されており、更にこのコンピュータネットワーク1012には、サーバやパーソナルコンピュータ等の外部機器が接続されている。然るにサーバは、このI/F1009を介して、コンピュータネットワーク1012に接続されている外部機器とのデータ通信を行うことができる。本実施形態では、衛星測位システム(GPS)を利用して現在位置を算出するサーバがコンピュータネットワーク1012に接続されているので、サーバはこのI/F1009を介してこのサーバから現在位置を取得することができる。上記の各部はシステムバス1010に接続されている。このシステムバス1010は、アドレスバス、データバス、制御バス等からなるものである。   The I / F 1009 is for connecting the server to the communication line 1011. A computer network 1012 is connected to the communication line 1011, and an external device such as a server or a personal computer is further connected to the computer network 1012. However, the server can perform data communication with an external device connected to the computer network 1012 via the I / F 1009. In the present embodiment, a server that calculates a current position using a satellite positioning system (GPS) is connected to the computer network 1012, so that the server acquires the current position from the server via the I / F 1009. Can do. Each unit described above is connected to the system bus 1010. The system bus 1010 includes an address bus, a data bus, a control bus, and the like.

<撮影場所の抽象化設定の為の設定画面について>
本実施形態ではディジタルスティルカメラは、設定モードでは図15に例示するような設定画面をディスプレイ401に表示させる。図15に例示した設定画面は、図4に示した設定画面に、メニュー1501を追加したものであり、それ以外については図4に例示した設定画面と同じである。然るに以下では、このメニュー1501について説明する。
<Setting screen for abstraction setting of shooting location>
In the present embodiment, the digital still camera causes the display 401 to display a setting screen illustrated in FIG. 15 in the setting mode. The setting screen illustrated in FIG. 15 is obtained by adding a menu 1501 to the setting screen illustrated in FIG. 4, and is otherwise the same as the setting screen illustrated in FIG. However, the menu 1501 will be described below.

ユーザがボタン407〜410を操作して選択枠をメニュー1501に移動させ、そこで決定ボタンを押下すると、プルダウン式のメニューが表示される。このメニューの項目は、「国までの地名に変更」、「県までの地名に変更」、「市までの地名に変更」、である。即ち、このメニュー1501は、撮像画像の撮影場所を表す地名をどの程度詳細に表現するのか(どの詳細度とするのか)を指定するものである。   When the user operates the buttons 407 to 410 to move the selection frame to the menu 1501 and presses the enter button there, a pull-down menu is displayed. The items in this menu are “change to place name up to country”, “change to place name up to prefecture”, and “change to place name up to city”. That is, the menu 1501 is used to specify how much the place name representing the shooting location of the captured image is expressed (how much detail is to be set).

ユーザがボタン407〜410を操作し、所望の項目の位置に選択枠を移動させ、そこで決定ボタン406を押下すると、CPU101は、この所望の項目を、抽象化した情報への変換条件に係る設定情報としてRAM103等のメモリに格納する。更にCPU101は、この所望の項目を、メニュー1501上に文字列として表示する。図15では「市までの地名に変更」が所望の項目として選択されたので、この「市までの地名に変更」がメニュー1501上に文字列として表示されている。   When the user operates the buttons 407 to 410 to move the selection frame to the position of the desired item and presses the enter button 406 there, the CPU 101 sets the desired item according to the conversion condition to the abstracted information. Information is stored in a memory such as the RAM 103. Further, the CPU 101 displays the desired item on the menu 1501 as a character string. In FIG. 15, “Change to place name up to city” is selected as a desired item, so “Change to place name up to city” is displayed as a character string on the menu 1501.

なお、図15に例示した設定画面で設定した各種の設定情報は、他の動作モードに切り替わった場合などにRAM103などのメモリに格納するようにしても良いし、その格納するタイミングについては特に限定するものではない。   Note that the various setting information set on the setting screen illustrated in FIG. 15 may be stored in a memory such as the RAM 103 when switching to another operation mode, and the storage timing is particularly limited. Not what you want.

そしてこのようにして設定された様々な設定情報を含む画像ファイルは、ディジタルスティルカメラから本実施形態に係るサーバに対して送信される。もちろん、この画像ファイルには、メニュー1501を用いて設定した設定情報も含まれている。   An image file including various setting information set in this way is transmitted from the digital still camera to the server according to the present embodiment. Of course, this image file also includes setting information set using the menu 1501.

<画像制御処理について>
サーバがディジタルスティルカメラから受信した画像ファイルを配信する際に、サーバが行う処理について、同処理のフローチャートを示す図12を用いて説明する。図12のフローチャートに従った処理は、上記の通り、CPU1001が行うものである。また、図12において図3と同じステップ番号については、処理の主体が異なるだけで処理の内容については同様である。なお、以下では、抽象化した情報への変換タイミングは「配信時」であるものとする。
<About image control processing>
Processing performed by the server when the server distributes the image file received from the digital still camera will be described with reference to FIG. 12 showing a flowchart of the processing. The process according to the flowchart of FIG. 12 is performed by the CPU 1001 as described above. In FIG. 12, the same step numbers as those in FIG. In the following, it is assumed that the conversion timing to the abstracted information is “at the time of distribution”.

ステップS1201ではCPU1001は、送信ボタン411が押下された旨を示すメッセージをディジタルスティルカメラから受信した場合には、処理はステップS1202に進む。一方、受信していない場合には、本処理を終了する。送信ボタン411が押下されると、ディジタルスティルカメラからは画像ファイルが送信される。   In step S1201, if the CPU 1001 receives a message indicating that the transmission button 411 has been pressed from the digital still camera, the process proceeds to step S1202. On the other hand, if it has not been received, this process ends. When the transmission button 411 is pressed, an image file is transmitted from the digital still camera.

ステップS1202ではCPU1001は、ディジタルスティルカメラから送信されたそれぞれの画像ファイル内の領域201内の配信済みフラグを参照する。そして、配信済みフラグがFALSEとなっている画像ファイルのみをRAM1003にロード(抽出)する。   In step S1202, the CPU 1001 refers to the distribution completion flag in the area 201 in each image file transmitted from the digital still camera. Only the image file whose distribution flag is FALSE is loaded (extracted) into the RAM 1003.

ステップS303ではCPU1001は、カウンタnを0に初期化する。ステップS304ではCPU1001は、カウンタnの値と、ステップS1202でRAM103にロードした画像ファイルの総数と、の大小比較を行う。この大小比較の結果、(カウンタnの値)<(ステップS1202でRAM103にロードした画像ファイルの総数)であれば、処理はステップS305に進む。一方、(カウンタnの値)≧(ステップS1202でRAM103にロードした画像ファイルの総数)であれば、本処理を終了する。   In step S303, the CPU 1001 initializes the counter n to 0. In step S304, the CPU 1001 compares the value of the counter n with the total number of image files loaded in the RAM 103 in step S1202. As a result of this size comparison, if (value of counter n) <(total number of image files loaded into RAM 103 in step S1202), the process proceeds to step S305. On the other hand, if (the value of the counter n) ≧ (total number of image files loaded into the RAM 103 in step S1202), this processing ends.

ステップS305ではCPU1001は、ステップS1202で抽出した画像ファイル内の「チェックボックス416がONであるかOFFであるのかを特定する為の設定情報」を参照する。そしてこの参照した設定情報が、チェックボックス416がONであることを指し示している場合には、処理はステップS306に進み、OFFであることを指し示している場合には、処理はステップS1206に進む。   In step S305, the CPU 1001 refers to “setting information for specifying whether the check box 416 is ON or OFF” in the image file extracted in step S1202. If the referenced setting information indicates that the check box 416 is ON, the process proceeds to step S306, and if the setting information indicates OFF, the process proceeds to step S1206.

この場合、ステップS1206ではCPU1001は、ステップS1202でRAM1003にロードした画像ファイルのうち未配信の画像ファイルを、I/F1009を介して外部に対して配信する。   In this case, in step S1206, the CPU 1001 distributes the undelivered image file among the image files loaded in the RAM 1003 in step S1202 to the outside via the I / F 1009.

ステップS306ではCPU1001は、ステップS1202でRAM1003にロードした画像ファイルのうち、配信済みフラグがFALSEであるものを1つ選択する。そして選択した画像ファイル内の領域200内に記録されている情報のうち、画像の撮影場所と撮影日時と、を示す情報を読み出す。   In step S306, the CPU 1001 selects one of the image files loaded in the RAM 1003 in step S1202 whose distribution flag is FALSE. Of the information recorded in the area 200 in the selected image file, information indicating the shooting location and shooting date of the image is read out.

ステップS307ではCPU1001は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたか否かを判断する。例えば、ディジタルスティルカメラのユーザの自宅の緯度、経度をRAM1003などのメモリに予め登録しておき、メニュー418で「自宅の周辺だった場合」が選択されたとする。この場合、ステップS307では、自宅の緯度、経度が指し示す位置(自宅の位置)と、ステップS306で読み出した撮影場所と、の間の距離を算出する。そしてこの算出した距離が、予め定められた閾値以下であれば、「自宅の周辺である」と判断する。もちろん、この判断方法についてはこれに限るものではない。   In step S307, the CPU 1001 determines whether the conversion condition indicated by the setting information set using the menu 418 is satisfied. For example, it is assumed that the latitude and longitude of the digital still camera user's home are registered in advance in a memory such as the RAM 1003 and “when the home is around” is selected in the menu 418. In this case, in step S307, the distance between the position (home position) indicated by the latitude and longitude of the home and the shooting location read in step S306 is calculated. If the calculated distance is equal to or smaller than a predetermined threshold value, it is determined that the object is “around the home”. Of course, this determination method is not limited to this.

そして、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、処理はステップS1203に進み、満たされていないと判断した場合には、処理はステップS1206に進む。   If it is determined that the conversion condition indicated by the setting information set using the menu 418 is satisfied, the process proceeds to step S1203. If it is determined that the conversion condition is not satisfied, the process proceeds to step S1206.

この場合、ステップS1206ではCPU1001は、ステップS306で選択した画像ファイルを、I/F1009を介して外部に対して配信する。   In this case, in step S1206, the CPU 1001 distributes the image file selected in step S306 to the outside via the I / F 1009.

ステップS1203ではCPU1001は、緯度経度と、この緯度経度における地名情報と、を関連付けて管理しているサーバに対して、I/F1009を介してアクセスする。そしてCPU1001は、ステップS306で選択した選択画像ファイル内に記録されている緯度経度に対応する地名情報を、このサーバからRAM1003などのメモリにダウンロードする。このダウンロードの際には、図13に例示する如く、国、県、市、区、区町村以下の地名、番地、といった地名情報として精度の異なる情報をそれぞれの文字列情報としてダウンロードする。国や県の情報ほど精度は低く、番地までの情報になるほど精度は高くなる。なぜならば、国や県の情報だけでは場所を特定しにくく、番地までの情報だと場所を特定しやすくなるからである。   In step S1203, the CPU 1001 accesses, via the I / F 1009, a server that manages the latitude and longitude and the place name information at the latitude and longitude in association with each other. The CPU 1001 downloads the place name information corresponding to the latitude and longitude recorded in the selected image file selected in step S306 from the server to a memory such as the RAM 1003. At the time of this download, as illustrated in FIG. 13, information having different accuracy is downloaded as character string information, such as country name, prefecture, city, ward, place name and address below the ward, town and village. The accuracy of country and prefecture information is lower, and the more accurate the information up to the address, the higher the accuracy. This is because it is difficult to specify the location only by the information of the country or prefecture, and it is easy to specify the location if the information is up to the address.

ステップS1204ではCPU1001は、ステップS1203で取得した地名情報のうち、メニュー1501で指定した詳細レベルまでの地名情報を採用する。図15では「市までの地名に変更」と設定されているので、市までの地名の文字列を採用する。   In step S1204, the CPU 1001 employs the place name information up to the detailed level designated in the menu 1501 from the place name information acquired in step S1203. In FIG. 15, “change to place name up to city” is set, so a character string of the place name up to city is adopted.

ステップS1205ではCPU1001は、選択画像ファイル内の領域200内の撮影場所を削除すると共に、領域201内に、ステップS1204で採用した文字列を並べてこの領域201内に登録する。   In step S1205, the CPU 1001 deletes the shooting location in the area 200 in the selected image file, and arranges the character strings adopted in step S1204 in the area 201 and registers them in the area 201.

領域200及び領域201について、更新前と更新後とを図14に示す。1401の欄には、領域200(Exif_Base属性情報領域)及び領域201(Exif_MakerNote属性情報領域)を記している。更新前には、領域200内には上述の通り、1402,1403で示す如く、撮影場所としての緯度、経度が記録されている。   FIG. 14 shows the areas 200 and 201 before and after the update. In a column 1401, an area 200 (Exif_Base attribute information area) and an area 201 (Exif_MakerNote attribute information area) are described. Prior to the update, the latitude and longitude as the shooting location are recorded in the area 200 as indicated by 1402 and 1403 as described above.

ステップS1205ではCPU1001は先ず、1403、1404に示す如く、領域200内の緯度経度を削除する。そして次にCPU1001は、1404に示す如く、ステップS1203で取得した地名情報のうち、メニュー1501で指定した詳細レベルまでの地名情報「東京」、「大田区」を採用する。そして採用した文字列を並べたもの「東京都大田区」を領域201内に登録する。   In step S1205, the CPU 1001 first deletes the latitude and longitude in the area 200 as indicated by 1403 and 1404. Next, as shown in 1404, the CPU 1001 employs place name information “Tokyo” and “Ota Ward” up to the detailed level specified by the menu 1501 among the place name information acquired in step S 1203. Then, “Tokyo Ota Ward” in which the adopted character strings are arranged is registered in the area 201.

そしてこの場合、ステップS1206ではCPU1001は、ステップS1205で領域200及び領域201が更新された画像ファイルを、I/F1009を介して外部に対して配信する。   In this case, in step S1206, the CPU 1001 distributes the image file in which the area 200 and the area 201 are updated in step S1205 to the outside via the I / F 1009.

ステップS1207ではCPU1001は、ステップS1206で配信した画像ファイル内の配信済みフラグをTRUEに書き換える。ステップS313ではCPU1001は、カウンタnの値を1つインクリメントする。そしてステップS304以降の処理を繰り返す。   In step S1207, the CPU 1001 rewrites the distributed flag in the image file distributed in step S1206 to TRUE. In step S313, the CPU 1001 increments the value of the counter n by one. And the process after step S304 is repeated.

なお、以上の説明では、国、県、市、区、区町村以下の地名、番地、をそれぞれ分けて受信するものとしたが、詳細な地名を全て受信してから、キーワードによって分離してもよい。たとえば、地名の中に都道府県のキーワードが付与されていれば、その前の文字列を県と判定する。同様に市が付与されていれば、その前の文字列を市と判定する。そして、分離してもよい。   In the above description, the place names and addresses below the country, prefecture, city, ward, and ward / town / town are received separately. However, after receiving all the detailed place names, they may be separated by keywords. Good. For example, if a keyword for a prefecture is given in the place name, the previous character string is determined as a prefecture. Similarly, if a city is given, the previous character string is determined as a city. And you may isolate | separate.

<画像処理装置のバリエーション>
上記の説明では、画像処理装置の一例としてサーバを用いたが、複数の機器の組み合わせで画像処理装置を実現させても良い。ディジタルスティルカメラが緯度経度から地名を検索する機能を持つサーバと直接通信し、詳細な地名情報を受信した後に、ユーザに地名の精度を選択させてもよい。そして、ディジタルスティルカメラで属性情報の抽象化処理を行っても良いし、サーバに送信した後に、サーバ側にて属性情報の抽象化処理を行っても良い。また、ディジタルスティルカメラ自体に、緯度経度から地名を検索する機能があれば、地名情報を取得するためにサーバと通信する必要はない。
<Variations of image processing devices>
In the above description, the server is used as an example of the image processing apparatus. However, the image processing apparatus may be realized by a combination of a plurality of devices. The digital still camera may directly communicate with a server having a function of searching for a place name from latitude and longitude, and after receiving detailed place name information, the user may select the accuracy of the place name. Then, the attribute information abstraction processing may be performed by the digital still camera, or after the transmission to the server, the attribute information abstraction processing may be performed on the server side. In addition, if the digital still camera itself has a function of searching for a place name from latitude and longitude, it is not necessary to communicate with a server to obtain place name information.

<撮影場所のバリエーション>
上記の説明では、緯度、経度から、場所を特定するための精度がより低い情報へと変換する例について説明した。しかし、領域200若しくは領域201に元々詳細な撮影場所が記録されている場合には、この撮影場所を、場所を特定するための精度がより低い情報に変換すればよい。
<Variations of shooting locations>
In the above description, an example has been described in which latitude and longitude are converted into information with lower accuracy for specifying a location. However, if a detailed shooting location is originally recorded in the region 200 or 201, the shooting location may be converted into information with lower accuracy for specifying the location.

また、その際には、緯度経度など他の詳細な撮影場所がある場合には削除(一部を削除)するか、もしくは第1の実施形態若しくは第2の実施形態のように、抽象化した情報へと変換すれば、プライバシーに関する情報を守ることができる。   At that time, if there are other detailed shooting locations such as latitude and longitude, they are deleted (partially deleted) or abstracted as in the first or second embodiment. If converted to information, information about privacy can be protected.

<撮影場所の抽象化設定のバリエーション>
上記の説明では、場所を特定するための精度をどのレベルまでにするのかをメニュー1501を用いて指定したが、他の設定画面を用いて、各レベルの撮影場所を表示し、ユーザに選択させても良い。
<Variation of abstraction setting of shooting location>
In the above description, the level of accuracy for specifying the location is specified using the menu 1501. However, the shooting location at each level is displayed using other setting screens, and the user can select it. May be.

例えば、図16に例示した設定画面を用いて、変換先の文字列を指定しても良い。図16に例示した設定画面は、図4の設定画面において、ボタン419に選択枠415を移動させてから決定ボタン406を押下した場合にディスプレイ401に表示されるものである。然るに以下の説明では、係る設定はディジタルスティルカメラ側で行うものとしているが、サーバ側で行っても良い。   For example, the conversion destination character string may be specified using the setting screen illustrated in FIG. The setting screen illustrated in FIG. 16 is displayed on the display 401 when the selection button 406 is pressed after the selection frame 415 is moved to the button 419 in the setting screen of FIG. However, in the following description, the setting is performed on the digital still camera side, but may be performed on the server side.

ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1601に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が最も高い文字列が選択(選択指示)される。   When the user operates the buttons 407 to 410 to move the selection frame 1606 to the radio button 1601 and presses the enter button 406 there, the character string having the highest accuracy for specifying the location is selected (selection instruction).

ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1602に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が2番目に高い文字列が選択される。   When the user operates the buttons 407 to 410 to move the selection frame 1606 to the radio button 1602 and presses the enter button 406 there, the character string having the second highest accuracy for specifying the location is selected.

ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1603に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が3番目に高い文字列が選択される。   When the user operates the buttons 407 to 410 to move the selection frame 1606 to the radio button 1603 and presses the enter button 406 there, a character string having the third highest accuracy for specifying the location is selected.

ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1604に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が4番目に高い文字列が選択される。   When the user operates the buttons 407 to 410 to move the selection frame 1606 to the radio button 1604 and presses the enter button 406 there, a character string having the fourth highest accuracy for specifying the location is selected.

ユーザがボタン407〜410を操作して選択枠1606をラジオボタン1605に移動させ、そこで決定ボタン406を押下すると、場所を特定するための精度が最も低い文字列が選択される。   When the user operates the buttons 407 to 410 to move the selection frame 1606 to the radio button 1605 and presses the enter button 406 there, the character string having the lowest accuracy for specifying the location is selected.

なお、ラジオボタン1601〜1605は何れか1つのみが選択可能となる。この設定画面を用いることで、緯度経度から、若しくは詳細な撮影場所から、ラジオボタン1601〜1605の何れか1つに対応する撮影場所に変換することができる。   Note that only one of the radio buttons 1601 to 1605 can be selected. By using this setting screen, it is possible to convert from a latitude / longitude or a detailed shooting location to a shooting location corresponding to any one of the radio buttons 1601 to 1605.

以上の説明により、本実施形態によれば、数値の情報でなくても抽象化を行うことが可能である。そして、撮影者のプライバシーを守る上、撮影場所の大まかな地名を閲覧者が知ることができる。加えて、その地名情報を表示や検索に使用することができる。   As described above, according to the present embodiment, abstraction can be performed without using numerical information. In addition to protecting the photographer's privacy, the viewer can know the approximate place name of the shooting location. In addition, the place name information can be used for display and search.

[第4の実施形態]
本実施形態では、第1,2の実施形態と同様、ディジタルスティルカメラとしての画像処理装置について説明する。また、本実施形態では、文字列の情報として、撮像画像の撮影者を抽象化する。なお、以下では、第1の実施形態と異なる点のみについて触れ、第1の実施形態と同じ部分については特に触れないものとする。
[Fourth Embodiment]
In the present embodiment, an image processing apparatus as a digital still camera will be described as in the first and second embodiments. In this embodiment, the photographer of the captured image is abstracted as character string information. In the following, only points different from the first embodiment will be mentioned, and the same parts as those of the first embodiment will not be particularly mentioned.

<抽象化用の設定画面について>
撮影者を抽象化するための設定を行う設定画面について、ディジタルスティルカメラの背面図である図17を用いて説明する。図17に示した設定画面は、図4の設定画面において、ボタン419に選択枠415を移動させてから決定ボタン406を押下した場合にディスプレイ401に表示されるものである。
<About the setting screen for abstraction>
A setting screen for performing settings for abstracting the photographer will be described with reference to FIG. 17 which is a rear view of the digital still camera. The setting screen shown in FIG. 17 is displayed on the display 401 when the selection button 406 is pressed after the selection frame 415 is moved to the button 419 in the setting screen of FIG.

エディットボックス1705は、撮影者のニックネームを入力するためのものである。エディットボックス1706は、撮影者の属するグループ名を入力するためのものである。エディットボックス1707は、撮影者の属する会社名や学校名を入力するためのものである。エディットボックス1708は、撮影者のファミリーネーム(姓)を入力するためのものである。   An edit box 1705 is for inputting a photographer's nickname. An edit box 1706 is for inputting a group name to which the photographer belongs. An edit box 1707 is for inputting a company name or school name to which the photographer belongs. An edit box 1708 is used to input the family name (surname) of the photographer.

ユーザがボタン407〜410を操作して何れかのエディットボックスを選択してから決定ボタン406を押下すると、選択したエディットボックス内に文字を入力することができる。文字の入力方法については第1の実施形態と同様である。即ち、ユーザはボタン407〜410を用いて領域1709内に表示されている文字を選択することができ、選択後に決定ボタン1710を押下すると、この選択した文字が選択したエディットボックス内に追加表示される。もちろん、文字入力の方法はこれに限るものではない。   When the user operates the buttons 407 to 410 to select any edit box and then presses the enter button 406, a character can be input into the selected edit box. The method for inputting characters is the same as in the first embodiment. That is, the user can select a character displayed in the area 1709 using the buttons 407 to 410, and when the user presses the enter button 1710 after the selection, the selected character is additionally displayed in the selected edit box. The Of course, the method of inputting characters is not limited to this.

ラジオボタン1701〜1704は、何れか1つのみが選択可能なものであり、ボタン407〜410を操作して選択枠を所望のラジオボタンに移動させることで、この所望のラジオボタンを選択することができる。図17では、ラジオボタン1701が選択された状態が示されている。そしてラジオボタン1701〜1704のうち何れか1つを選択し、そこで決定ボタン406を押下すると、選択したラジオボタンに対応するエディットボックス内に入力された文字列が抽象化対象として設定される。ラジオボタン1701にはエディットボックス1705が対応している。ラジオボタン1702にはエディットボックス1706が対応している。ラジオボタン1703にはエディットボックス1707が対応している。ラジオボタン1704にはエディットボックス1708が対応している。   Only one of the radio buttons 1701 to 1704 can be selected, and the user can select the desired radio button by operating the buttons 407 to 410 to move the selection frame to the desired radio button. Can do. FIG. 17 shows a state where the radio button 1701 is selected. When one of the radio buttons 1701 to 1704 is selected and the determination button 406 is pressed there, the character string input in the edit box corresponding to the selected radio button is set as an abstraction target. An edit box 1705 corresponds to the radio button 1701. An edit box 1706 corresponds to the radio button 1702. An edit box 1707 corresponds to the radio button 1703. An edit box 1708 corresponds to the radio button 1704.

ユーザがボタン407〜410を操作してボタン1711を選択し、決定ボタン406を押下すると、図17の設定画面で設定した内容をRAM103などのメモリに格納する。更には、ディスプレイ401に表示される画面は、図17に例示した設定画面から図4に例示した設定画面に切り替わる。   When the user operates buttons 407 to 410 to select button 1711 and presses determination button 406, the contents set on the setting screen of FIG. 17 are stored in a memory such as RAM 103. Furthermore, the screen displayed on the display 401 is switched from the setting screen illustrated in FIG. 17 to the setting screen illustrated in FIG.

図17に例示した設定画面によって設定され、RAM103などのメモリに記録される情報について、図18(a)を用いて説明する。各エディットボックス1705〜1708に対応する項目1801が列挙されており、各エディットボックス1705〜1708に入力された文字列1802が列挙されている。そして、各項目において対応するラジオボタンが選択状態(ON)にあるのか非選択状態(OFF)にあるのかが選択状態1803として列挙されている。図18(a)では、ニックネームとして入力された文字列「Hana」に対応するラジオボタン1701が選択状態にあり、それ以外のラジオボタンは非選択状態にある例を示している。   Information set on the setting screen illustrated in FIG. 17 and recorded in a memory such as the RAM 103 will be described with reference to FIG. Items 1801 corresponding to the edit boxes 1705 to 1708 are listed, and character strings 1802 input to the edit boxes 1705 to 1708 are listed. In each item, whether the corresponding radio button is in a selected state (ON) or a non-selected state (OFF) is listed as a selected state 1803. FIG. 18A shows an example in which the radio button 1701 corresponding to the character string “Hana” input as the nickname is in a selected state, and the other radio buttons are in a non-selected state.

<画像制御処理について>
本実施形態に係るディジタルスティルカメラが行う処理は、図3のフローチャートにおいて、ステップS308〜S310を図18(b)のステップS1901,S1902に置き換えたものとなる。即ち、本実施形態ではCPU101は、メニュー418を用いて設定した設定情報が指し示す変換条件が満たされたと判断した場合には、図18(b)のフローチャートに従った処理を実行し、その後、処理をステップS311に進める。
<About image control processing>
The processing performed by the digital still camera according to the present embodiment is obtained by replacing steps S308 to S310 with steps S1901 and S1902 in FIG. 18B in the flowchart of FIG. That is, in this embodiment, when the CPU 101 determines that the conversion condition indicated by the setting information set using the menu 418 is satisfied, the CPU 101 executes the process according to the flowchart of FIG. Advances to step S311.

ステップS1901でCPU101は、図18(a)に示した構成を有する情報をRAM103などのメモリから読み出す。そしてCPU101は、選択状態1803がONになっている項目1801の文字列1802を、領域200内の撮影者を表す文字列と置き換える対象として設定する。   In step S1901, the CPU 101 reads information having the configuration illustrated in FIG. 18A from a memory such as the RAM 103. Then, the CPU 101 sets the character string 1802 of the item 1801 whose selection state 1803 is ON as a target to be replaced with a character string representing the photographer in the area 200.

ステップS1902ではCPU101は、領域200内の撮影者を表す文字列を、ステップS1901で設定した文字列に置き換える。もし、領域200内に記録されている撮影者を表す文字列と同じ文字列が領域201内にも記録されている場合には、CPU101は、領域201内の撮影者を表す文字列を、ステップS1901で設定した文字列に置き換える。   In step S1902, the CPU 101 replaces the character string representing the photographer in the area 200 with the character string set in step S1901. If the same character string representing the photographer recorded in the area 200 is also recorded in the area 201, the CPU 101 sets the character string representing the photographer in the area 201 as a step. Replace with the character string set in S1901.

<抽象化方法のバリエーション>
本実施形態では、図17の設定画面を用いて設定した文字列に置き換えることで、撮影者を表す文字列を抽象化した。しかし、ユーザの操作を介さずにこの抽象化処理を行っても良い。例えば、撮影者の名前(人名)からCPU101がイニシャルを生成し、撮影者の名前をこのイニシャルに置き換えることで、抽象化を行っても良い。もちろん、撮影者の名前からニックネームを作成する為のコンピュータプログラムが予めディジタルスティルカメラ内に格納されている場合には、CPU101はこのコンピュータプログラムを実行して撮影者の名前の抽象化処理を行っても良い。
<Variation of abstraction method>
In this embodiment, the character string representing the photographer is abstracted by replacing it with the character string set using the setting screen of FIG. However, this abstraction process may be performed without user operation. For example, abstraction may be performed by generating an initial from the photographer's name (person name) and replacing the photographer's name with this initial. Of course, if a computer program for creating a nickname from the photographer's name is stored in the digital still camera in advance, the CPU 101 executes this computer program to perform an abstraction process for the photographer's name. Also good.

<抽象化対象のバリエーション>
本実施形態では、撮影者の名前を抽象化していたが、被写体の名前を同様にして抽象化しても良い。顔認識技術により被写体の顔を認識して、この被写体の名前を特定することができるのであれば、あとは上記の説明と同様にしてこの被写体の名前を抽象化することができる。
<Variations for abstraction>
In this embodiment, the name of the photographer is abstracted, but the name of the subject may be abstracted in the same manner. If the face of the subject can be recognized by the face recognition technology and the name of the subject can be specified, the name of the subject can be abstracted in the same manner as described above.

以上の説明により、本実施形態によれば、撮影者名や被写体の名前に対しても抽象化を行うことが可能である。そして、撮影者のプライバシーを守る上、撮影者名や被写体の名前の大まかな情報を閲覧者が知ることができる。加えて、その名前の情報を表示や検索に使用することができる。   As described above, according to the present embodiment, it is possible to abstract the photographer name and the subject name. Then, in order to protect the photographer's privacy, the viewer can know rough information about the photographer's name and the subject's name. In addition, the name information can be used for display and search.

なお、以上説明した各実施形態、各バリエーションは、適宜組み合わせても良いし、処理内容は同じで用いる情報だけを異ならせるなど、上記の説明をベースにして様々なバリエーションが考え得る。   Each embodiment and each variation described above may be combined as appropriate, and various variations may be considered based on the above description, such as changing only information used with the same processing content.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (16)

画像データと、該画像データと関連付けて記録される属性情報と、を取得する取得手段と、
前記取得手段により取得された前記属性情報よりも精度を落とした低精度属性情報を生成するか否かを判断する判断手段と、
前記判断手段が前記生成を行うと判断した場合に、前記精度を落とした低精度属性情報を生成する生成手段と、
前記判断手段が前記生成を行わないと判断した場合には、前記取得手段が取得した属性情報と画像データとを出力し、前記判断手段により前記生成を行うと判断した場合には、前記生成手段が生成した低精度属性情報と前記画像データとを出力する出力手段と
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring image data and attribute information recorded in association with the image data;
Determining means for determining whether to generate low-precision attribute information with a lower accuracy than the attribute information acquired by the acquiring means;
When the determination unit determines to perform the generation, a generation unit that generates the low-accuracy attribute information with the reduced accuracy;
When the determination unit determines not to perform the generation, the attribute information and image data acquired by the acquisition unit are output. When the determination unit determines to perform the generation, the generation unit An image processing apparatus comprising: output means for outputting low-precision attribute information generated by the image data and the image data.
前記属性情報として数値情報を扱う場合、
前記生成手段は、前記低精度属性情報として、前記取得手段が取得した属性情報が表す数値から予め設定された有効桁数よりも下の桁を切り捨てた数値を生成する、または、前記取得手段が取得した属性情報が表す数値を含む範囲情報を生成する、または、前記取得手段が取得した属性情報が表す数値を予め設定された単位で量子化した数値を表す情報を生成する、ことを特徴とする請求項1に記載の画像処理装置。
When handling numerical information as the attribute information,
The generation unit generates, as the low-accuracy attribute information, a numerical value obtained by rounding down digits lower than a preset effective digit number from a numerical value represented by the attribute information acquired by the acquisition unit, or the acquisition unit Generating range information including a numerical value represented by the acquired attribute information, or generating information representing a numerical value obtained by quantizing the numerical value represented by the attribute information acquired by the acquiring unit in a preset unit. The image processing apparatus according to claim 1.
前記属性情報として文字列情報を扱う場合、
前記生成手段は、前記低精度属性情報として、前記取得手段が取得した文字列情報の一部を削除した文字列情報を生成する、または前記取得手段が取得した文字列情報を、より精度の低い他の文字列情報に変換する、ことを特徴する請求項1または2に記載の画像処理装置。
When handling character string information as the attribute information,
The generation unit generates, as the low-precision attribute information, character string information obtained by deleting a part of the character string information acquired by the acquisition unit, or the character string information acquired by the acquisition unit is less accurate. The image processing apparatus according to claim 1, wherein the image processing apparatus is converted into other character string information.
前記属性情報は、位置情報または日時情報、または個人を特定する情報、であることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the attribute information is position information, date / time information, or information for identifying an individual. 前記判断手段は、外部装置へ画像データを送信するときに前記判断を行うか、または前記画像データから画像ファイルを生成するときに前記判断を行う、ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。   5. The determination unit according to claim 1, wherein the determination unit performs the determination when transmitting image data to an external device, or performs the determination when generating an image file from the image data. The image processing apparatus according to claim 1. 前記属性情報が位置情報を含む場合であって、かつ前記取得手段で取得した位置情報が示す位置が既定の位置に含まれている場合、前記判断手段は、低精度属性情報を生成すると判断することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   When the attribute information includes position information and the position indicated by the position information acquired by the acquisition unit is included in a predetermined position, the determination unit determines to generate low-precision attribute information. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記属性情報が日時情報を含む場合であって、かつ前記取得手段で取得した日時情報が示す日時が既定の日時範囲に含まれている場合、前記判断手段は、低精度属性情報を生成すると判断することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   If the attribute information includes date and time information and the date and time indicated by the date and time information acquired by the acquisition unit is included in a predetermined date and time range, the determination unit determines to generate low-precision attribute information The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記画像データに特定の被写体が含まれている場合、前記判断手段は、低精度属性情報を生成すると判断することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein when the image data includes a specific subject, the determination unit determines to generate low-precision attribute information. 前記判断手段は、外部装置へ画像データを送信する場合であって、かつ該画像データの送信先が規定の送信先である場合に、前記判断手段は、低精度属性情報を生成すると判断することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。   The determination unit determines to generate low-accuracy attribute information when image data is transmitted to an external device and the transmission destination of the image data is a specified transmission destination. The image processing apparatus according to claim 1, wherein: 前記属性情報が地名を表す文字列情報である場合、前記生成手段は、該地名をどの程度詳細に表現するのかを示す詳細度をユーザから受け付け、該受け付けた詳細度で前記地名を表す低精度属性情報を生成することを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。   When the attribute information is character string information representing a place name, the generation means accepts a detail level indicating how much the place name is expressed from the user, and the low-precision representing the place name with the received detail level The image processing apparatus according to claim 1, wherein attribute information is generated. 前記属性情報が人名を表す文字列情報である場合、前記生成手段は、該文字列情報を、ユーザにより指定された文字列情報に置き換えることにより低精度属性情報を生成することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。   When the attribute information is character string information representing a person's name, the generation unit generates low-precision attribute information by replacing the character string information with character string information specified by a user. Item 11. The image processing apparatus according to any one of Items 1 to 10. 前記取得手段が画像ファイルから前記画像データと前記属性情報とを取得する場合、前記出力手段は、該属性情報を前記画像ファイルから削除し、前記生成手段が生成した低精度属性情報を前記画像ファイル内に格納してから該画像ファイルを出力することを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。   When the acquisition unit acquires the image data and the attribute information from an image file, the output unit deletes the attribute information from the image file, and uses the low-precision attribute information generated by the generation unit as the image file. The image processing apparatus according to claim 1, wherein the image file is output after being stored in the image processing apparatus. 前記取得手段が画像ファイル内から前記画像データと前記属性情報を取得する場合、前記画像ファイル内の属性情報を不可視の情報に変換するとともに、前記生成手段が生成した低精度属性情報を前記画像ファイル内に格納してから該画像ファイルを出力することを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。   When the acquisition unit acquires the image data and the attribute information from the image file, the attribute information in the image file is converted into invisible information, and the low-precision attribute information generated by the generation unit is converted to the image file. The image processing apparatus according to claim 1, wherein the image file is output after being stored in the image processing apparatus. 画像処理装置が行う画像処理方法であって、
前記画像処理装置の取得手段が、画像データと、該画像データと関連付けて記録される属性情報と、を取得する取得工程と、
前記画像処理装置の判断手段が、前記取得工程で取得された前記属性情報よりも精度を落とした低精度属性情報を生成するか否かを判断する判断工程と、
前記画像処理装置の生成手段が、前記判断工程で前記生成を行うと判断した場合に、前記精度を落とした低精度属性情報を生成する生成工程と、
前記画像処理装置の出力手段が、前記判断工程で前記生成を行わないと判断した場合には、前記取得工程で取得した属性情報と画像データとを出力し、前記判断工程で前記生成を行うと判断した場合には、前記生成工程で生成した低精度属性情報と前記画像データとを出力する出力工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
An acquisition step in which the acquisition unit of the image processing apparatus acquires image data and attribute information recorded in association with the image data;
A determination step of determining whether or not the determination unit of the image processing device generates low-accuracy attribute information with a lower accuracy than the attribute information acquired in the acquisition step;
When the generation unit of the image processing apparatus determines to perform the generation in the determination step, a generation step of generating low-accuracy attribute information with reduced accuracy;
When the output unit of the image processing apparatus determines that the generation is not performed in the determination step, the attribute information and the image data acquired in the acquisition step are output, and the generation is performed in the determination step. An image processing method comprising: an output step of outputting the low-precision attribute information generated in the generation step and the image data when the determination is made.
コンピュータを、請求項1乃至13の何れか1項に記載の画像処理装置が有する各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit included in the image processing apparatus according to any one of claims 1 to 13. 請求項15に記載のコンピュータプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 15.
JP2010232780A 2010-10-15 2010-10-15 Image processing device and image processing method Withdrawn JP2012089928A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010232780A JP2012089928A (en) 2010-10-15 2010-10-15 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232780A JP2012089928A (en) 2010-10-15 2010-10-15 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2012089928A true JP2012089928A (en) 2012-05-10

Family

ID=46261113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232780A Withdrawn JP2012089928A (en) 2010-10-15 2010-10-15 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2012089928A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014228988A (en) * 2013-05-21 2014-12-08 富士ゼロックス株式会社 System, relay device and program
JP2014238681A (en) * 2013-06-07 2014-12-18 カシオ計算機株式会社 Data processing device, data processing system, data processing method and program
JP2014238635A (en) * 2013-06-06 2014-12-18 凸版印刷株式会社 Information processing server, information processing system and information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014228988A (en) * 2013-05-21 2014-12-08 富士ゼロックス株式会社 System, relay device and program
JP2014238635A (en) * 2013-06-06 2014-12-18 凸版印刷株式会社 Information processing server, information processing system and information processing method
JP2014238681A (en) * 2013-06-07 2014-12-18 カシオ計算機株式会社 Data processing device, data processing system, data processing method and program

Similar Documents

Publication Publication Date Title
US11714523B2 (en) Digital image tagging apparatuses, systems, and methods
JP5658823B2 (en) Metadata integration for duplicate images
US20110184980A1 (en) Apparatus and method for providing image
US9007397B2 (en) Image control apparatus, server and control method therefor
US9465802B2 (en) Content storage processing system, content storage processing method, and semiconductor integrated circuit
JP5371489B2 (en) Image management apparatus, control method therefor, program, and storage medium
JP6300792B2 (en) Enhancing captured data
JP2005309995A (en) Device and method for managing information, and program
JP5677073B2 (en) Image control apparatus, image control method, information processing apparatus, information processing method, program, and storage medium
CN111191176A (en) Website content updating method, device, terminal and storage medium
JPWO2014050956A1 (en) Imaging device, imaging system, imaging method, and imaging control program
JP2007266902A (en) Camera
JP5728167B2 (en) Information processing apparatus, control method therefor, and computer program
JP2012089928A (en) Image processing device and image processing method
US11238622B2 (en) Method of providing augmented reality contents and electronic device therefor
JP5990055B2 (en) Imaging apparatus and control method thereof
KR20100101960A (en) Digital camera, system and method for grouping photography
JP5950589B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2013065165A (en) Image display method and device, image display program, and image display system
WO2011065570A1 (en) Information display device, information display method, and computer program
JP2009043006A (en) Peripheral information providing system, server and peripheral information providing method
WO2019069366A1 (en) Information processing device, information system, information processing method, and program
JP5517895B2 (en) Terminal device
JP6672385B2 (en) Privilege grant device, privilege grant method, privilege acquisition program, and privilege acquisition method
JP4561358B2 (en) Electronic album creation apparatus and electronic album creation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140107