JP6520222B2 - Server apparatus, image sharing control method, and image sharing control program - Google Patents

Server apparatus, image sharing control method, and image sharing control program Download PDF

Info

Publication number
JP6520222B2
JP6520222B2 JP2015041576A JP2015041576A JP6520222B2 JP 6520222 B2 JP6520222 B2 JP 6520222B2 JP 2015041576 A JP2015041576 A JP 2015041576A JP 2015041576 A JP2015041576 A JP 2015041576A JP 6520222 B2 JP6520222 B2 JP 6520222B2
Authority
JP
Japan
Prior art keywords
image
time
data
terminal device
portable terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015041576A
Other languages
Japanese (ja)
Other versions
JP2016162295A (en
Inventor
鈴木 智美
智美 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Connected Technologies Ltd
Original Assignee
Fujitsu Connected Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Connected Technologies Ltd filed Critical Fujitsu Connected Technologies Ltd
Priority to JP2015041576A priority Critical patent/JP6520222B2/en
Publication of JP2016162295A publication Critical patent/JP2016162295A/en
Application granted granted Critical
Publication of JP6520222B2 publication Critical patent/JP6520222B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、データの共有技術に関する。   The present invention relates to data sharing technology.

スマートフォンやデジタルカメラなどの携帯端末で撮影された画像のデータをクラウド上に保存しておくことで、画像を閲覧したい複数の者が画像のデータを共有できるようにする技術が知られている。例えば、或る文献においては、複数のユーザ通信端末のうちいずれかのユーザ通信端末によって、画像管理サーバに画像のデータがアップロードされる。そして、画像管理サーバにアップロードされた画像のデータを、複数のユーザ通信端末の各々がダウンロードできるようにすることで、複数のユーザが画像のデータを共有できるようにする。   There is known a technology for enabling a plurality of persons who want to view an image to share the data of the image by storing the data of the image taken by a portable terminal such as a smartphone or a digital camera on the cloud. For example, in a document, data of an image is uploaded to an image management server by one of a plurality of user communication terminals. Then, by enabling each of the plurality of user communication terminals to download the image data uploaded to the image management server, the plurality of users can share the image data.

しかし、画像管理サーバにアップロードされた画像のデータの中には、実際に画像を閲覧しようとする者に関係が無い画像のデータが含まれることがある。その場合には、実際の画像を閲覧しようとする者に、アップロードされた画像のデータの中から自身に関係するものを選び出す操作を強いることになる。   However, data of an image uploaded to the image management server may include data of an image that is not related to a person who actually views the image. In this case, the user who wants to view the actual image is forced to select the data related to the user from the uploaded image data.

画像のデータをクラウド上に保存するのではなく、画像の閲覧を要求する者の端末にメールの添付ファイルとして送ることも一般的に行われている。しかし、この場合には、写真撮影などを行った撮影者に、画像のデータを添付したメールを送信するための操作を強いることになる。また、メールの添付ファイルには容量の制限があるので、何度も送信操作を行うことになったり、送信すべき画像のデータを選び出す操作を撮影者が行うことになる。   It is also common practice to send image data as an email attachment to the terminal of the person requesting to view the image, instead of storing the data on the cloud. However, in this case, a photographer who has performed photography or the like is forced to perform an operation for transmitting an e-mail attached with image data. Further, since there is a limit to the size of the attached file of the e-mail, the photographer will perform the transmission operation many times, and the photographer will perform the operation of selecting the data of the image to be transmitted.

特開2006−85588号公報Unexamined-Japanese-Patent No. 2006-85588 特開2013−191035号公報JP, 2013-191035, A

従って、本発明の目的は、1つの側面では、画像の共有を簡便に行うための技術を提供することである。   Therefore, an object of the present invention is, in one aspect, to provide a technique for facilitating image sharing.

本発明の第1の態様に係る携帯端末装置は、時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を記憶する記憶部と、ネットワークを介して接続されたサーバ装置に、記憶部に記憶された第1の時刻情報及び第1の位置情報を送信する送信部と、サーバ装置が管理する1又は複数の画像のうち、送信した第1の時刻情報及び第1の位置情報と、画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報との比較に基づき選択された画像を、サーバ装置から受信する受信部とを有する。   A portable terminal device according to a first aspect of the present invention is connected via a network to a storage unit storing first time information indicating time and first position information indicating the position of the portable terminal at the time Transmitting unit that transmits the first time information and the first position information stored in the storage unit to the selected server apparatus, and the first time information transmitted among the one or more images managed by the server apparatus And the first position information, the second time information indicating the time when the image was generated, and the image selected based on the comparison between the second position information indicating the position where the image is generated, from the server device And a receiving unit for receiving.

本発明の第2の態様に係るサーバ装置は、時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続された携帯端末装置から受信する受信部と、画像毎に、当該画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の時刻情報を記憶する記憶部と、受信した第1の時刻情報及び第1の位置情報と記憶部に記憶された第2の時刻情報及び第2の位置情報との比較に基づき、サーバ装置が管理する1又は複数の画像のうち携帯端末装置に送信する画像を選択する選択部と、選択部により選択された画像を、携帯端末装置に送信する送信部とを有する。   The server apparatus according to the second aspect of the present invention is a mobile terminal apparatus connected via a network, the first time information indicating time and the first position information indicating the position of the portable terminal at the time A receiving unit for receiving, a storage unit for storing, for each image, second time information indicating a time at which the image is generated and a second time information indicating a position at which the image is generated; Based on comparison of the time information and the first position information with the second time information and the second position information stored in the storage unit, the information is transmitted to the portable terminal device among the one or more images managed by the server device And a transmission unit for transmitting the image selected by the selection unit to the portable terminal device.

1つの側面では、画像の共有を簡便に行えるようになる。   In one aspect, image sharing can be facilitated.

図1は、本実施の形態のシステム概要を示す図である。FIG. 1 is a diagram showing an outline of a system according to the present embodiment. 図2は、クラウドサーバの機能ブロック図である。FIG. 2 is a functional block diagram of the cloud server. 図3は、携帯端末のハードウエア構成例を示す図である。FIG. 3 is a diagram showing an example of the hardware configuration of the portable terminal. 図4は、携帯端末の機能ブロック図である。FIG. 4 is a functional block diagram of the portable terminal. 図5は、本実施の形態の概要を説明するための図である。FIG. 5 is a diagram for explaining the outline of the present embodiment. 図6は、本実施の形態の概要を説明するための図である。FIG. 6 is a diagram for explaining the outline of the present embodiment. 図7は、本実施の形態の概要を説明するための図である。FIG. 7 is a diagram for explaining the outline of the present embodiment. 図8は、本実施の形態の概要を説明するための図である。FIG. 8 is a diagram for explaining the outline of the present embodiment. 図9は、第1の実施の形態における携帯端末が日時データ及び位置データを取得する処理の処理フローを示す図である。FIG. 9 is a diagram showing a processing flow of processing in which the portable terminal in the first embodiment acquires date and time data and position data. 図10は、携帯端末の端末データ格納部に格納されるデータの一例を示す図である。FIG. 10 is a diagram showing an example of data stored in the terminal data storage unit of the portable terminal. 図11は、携帯端末が自動送信についての設定の入力を受け付ける処理の処理フローを示す図である。FIG. 11 is a diagram showing a processing flow of processing in which the portable terminal receives an input of settings for automatic transmission. 図12は、携帯端末が画像のデータを生成する際に実行する処理の処理フローを示す図である。FIG. 12 is a diagram showing a processing flow of processing executed when the portable terminal generates data of an image. 図13は、送信処理の処理フローを示す図である。FIG. 13 is a diagram showing a processing flow of transmission processing. 図14は、クラウドサーバが画像データを受信した際に実行する処理の処理フローを示す図である。FIG. 14 is a diagram showing a processing flow of processing executed when the cloud server receives image data. 図15は、第1の実施の形態におけるクラウドサーバの端末データ格納部に格納されるデータの一例を示す図である。FIG. 15 is a diagram illustrating an example of data stored in the terminal data storage unit of the cloud server according to the first embodiment. 図16は、携帯端末がクラウドサーバに閲覧要求を送信した際に実行される処理の処理フローを示す図である。FIG. 16 is a diagram showing a processing flow of processing executed when the portable terminal transmits a browse request to the cloud server. 図17は、クラウドサーバから携帯端末へ送信されるデータの一例を示す図である。FIG. 17 is a diagram illustrating an example of data transmitted from the cloud server to the mobile terminal. 図18は、携帯端末からクラウドサーバへ送信されるデータの一例を示す図である。FIG. 18 is a diagram illustrating an example of data transmitted from the mobile terminal to the cloud server. 図19は、第2の実施の形態におけるクラウドサーバの端末データ格納部に格納されるデータの一例を示す図である。FIG. 19 is a diagram of an example of data stored in the terminal data storage unit of the cloud server according to the second embodiment. 図20は、第2の実施の形態における携帯端末の端末データ格納部に格納されるデータの一例を示す図である。FIG. 20 is a diagram showing an example of data stored in the terminal data storage unit of the portable terminal in the second embodiment. 図21は、第3の実施の形態における携帯端末が日時データ及び位置データを取得する処理の処理フローを示す図である。FIG. 21 is a diagram showing a processing flow of processing in which the portable terminal in the third embodiment acquires date and time data and position data. 図22は、第4の実施の形態におけるクラウドサーバの端末データ格納部に格納されるデータの一例を示す図である。FIG. 22 is a diagram of an example of data stored in the terminal data storage unit of the cloud server according to the fourth embodiment. 図23は、第4の実施の形態におけるクラウドサーバの端末データ格納部に格納されるデータの一例を示す図である。FIG. 23 is a diagram of an example of data stored in the terminal data storage unit of the cloud server according to the fourth embodiment. 図24は、コンピュータの機能ブロック図である。FIG. 24 is a functional block diagram of a computer.

[実施の形態1]
図1に、本実施の形態におけるシステムの概要を示す。例えばインターネットであるネットワーク10には、クラウドサーバ1と、例えばスマートフォンである携帯端末A及びBとが接続される。クラウドサーバ1は物理サーバであってもよいし、仮想サーバであってもよい。図1において携帯端末の数は2であるが、数に限定は無い。
First Embodiment
FIG. 1 shows an outline of a system in the present embodiment. For example, the cloud server 1 and mobile terminals A and B, which are smartphones, are connected to the network 10, which is the Internet, for example. The cloud server 1 may be a physical server or a virtual server. Although the number of portable terminals is two in FIG. 1, the number is not limited.

図2に、クラウドサーバ1の機能ブロック図を示す。クラウドサーバ1は、通信部101と、管理部103と、分類部105と、画像データ格納部107と、端末データ格納部109とを含む。   FIG. 2 shows a functional block diagram of the cloud server 1. The cloud server 1 includes a communication unit 101, a management unit 103, a classification unit 105, an image data storage unit 107, and a terminal data storage unit 109.

通信部101は、他の装置(例えば携帯端末A及びB)からデータを受信する処理、及び、他の装置にデータを送信する処理を実行する。管理部103は、携帯端末A及びBから受信したデータ及び端末データ格納部109に格納されたデータに基づき処理を実行し、処理結果に応じて、画像データ格納部107に格納された画像のデータを携帯端末A及びBに送信する。分類部105は、端末データ格納部109に格納されたデータに基づき、画像をグループ分けする処理を実行する。   The communication unit 101 executes a process of receiving data from another device (for example, portable terminals A and B) and a process of transmitting data to the other device. The management unit 103 executes processing based on the data received from the portable terminals A and B and the data stored in the terminal data storage unit 109, and the data of the image stored in the image data storage unit 107 according to the processing result. Are transmitted to the portable terminals A and B. The classification unit 105 executes processing of grouping images based on the data stored in the terminal data storage unit 109.

図3に、携帯端末A及びBのハードウエア構成例を示す。携帯端末A及びBは、アプリケーションプロセッサ301と、メモリ303と、カメラ305と、表示部307と、操作入力部309と、外部記憶装置311と、ベースバンドプロセッサ313と、無線通信部315と、位置データ取得部317と、アンテナ319及び321とを有する。   FIG. 3 shows an example of the hardware configuration of the portable terminals A and B. The portable terminals A and B include an application processor 301, a memory 303, a camera 305, a display unit 307, an operation input unit 309, an external storage device 311, a baseband processor 313, a wireless communication unit 315, and a position. It has a data acquisition unit 317 and antennas 319 and 321.

アプリケーションプロセッサ301は、メモリ303と、カメラ305と、表示部307と、操作入力部309と、外部記憶装置311と、ベースバンドプロセッサ313とに接続される。アプリケーションプロセッサ301は、アプリケーションプログラムを実行する処理装置(例えばCPU(Central Processing Unit))である。メモリ303は、例えばRAM(Random Access Memory)である。カメラ305は、撮像処理を行い画像のデータを生成する。表示部307は、例えばディスプレイであり、表示されるべきデータを表示する。操作入力部309は、例えばボタン又はタッチパネルであり、ユーザによる操作を受け付ける。外部記憶装置311は、例えばSD(Secure Digital)メモリカードであり、ユーザによる取り外しが可能である。   The application processor 301 is connected to the memory 303, the camera 305, the display unit 307, the operation input unit 309, the external storage device 311, and the baseband processor 313. The application processor 301 is a processing device (for example, a CPU (Central Processing Unit)) that executes an application program. The memory 303 is, for example, a random access memory (RAM). The camera 305 performs imaging processing to generate data of an image. The display unit 307 is, for example, a display, and displays data to be displayed. The operation input unit 309 is, for example, a button or a touch panel, and receives an operation by the user. The external storage device 311 is, for example, an SD (Secure Digital) memory card, and can be removed by the user.

ベースバンドプロセッサ313は、アプリケーションプロセッサ301と、アンテナ319に接続された無線通信部315と、アンテナ321に接続された位置データ取得部317とに接続される。ベースバンドプロセッサ313は、例えばCPUであり、無線通信部315及び位置データ取得部317を制御する。無線通信部315は、無線通信を行う。位置データ取得部317は、例えばGPS(Global Positioning System)により位置データを取得する。但し、説明を簡単にするため、以下ではベースバンドプロセッサ313の処理に関する詳細な説明を省略する。   The baseband processor 313 is connected to the application processor 301, the wireless communication unit 315 connected to the antenna 319, and the position data acquisition unit 317 connected to the antenna 321. The baseband processor 313 is, for example, a CPU, and controls the wireless communication unit 315 and the position data acquisition unit 317. The wireless communication unit 315 performs wireless communication. The position data acquisition unit 317 acquires position data by, for example, GPS (Global Positioning System). However, in order to simplify the description, the detailed description of the processing of the baseband processor 313 is omitted below.

アプリケーションプロセッサ301は、本実施の形態における処理を実行するためのプログラムを実行することによって、図4に示すような機能を実現する。図4に、携帯端末A及びBの機能ブロック図を示す。携帯端末A及びBは、管理部351と、設定データ格納部353と、端末データ格納部355と、画像データ格納部357とを含む。設定データ格納部353及び端末データ格納部355は、メモリ303又は外部記憶装置311に設けられる。画像データ格納部357は、外部記憶装置311に設けられる。   The application processor 301 implements a function as shown in FIG. 4 by executing a program for executing the process in this embodiment. FIG. 4 shows a functional block diagram of the portable terminals A and B. The portable terminals A and B include a management unit 351, a setting data storage unit 353, a terminal data storage unit 355, and an image data storage unit 357. The setting data storage unit 353 and the terminal data storage unit 355 are provided in the memory 303 or the external storage device 311. The image data storage unit 357 is provided in the external storage device 311.

管理部351は、設定データ格納部353に格納されたデータ及び端末データ格納部355に格納されたデータに基づき、画像のデータの送信を制御する処理、及び日時データ及び位置データの送信を制御する処理等を実行する。   The management unit 351 controls transmission of image data based on data stored in the setting data storage unit 353 and data stored in the terminal data storage unit 355, and controls transmission of date and time data and position data. Execute processing etc.

次に、図5乃至図8を用いて、本実施の形態の概要について説明する。ここでは、携帯端末Aを操作するユーザ(ここでは、ユーザaとする)と携帯端末Bを操作するユーザ(ここでは、ユーザbとする)とが一緒に観光地に行き、ユーザaは携帯端末Aのカメラ305によって撮影を行ったとする。すると、図5に示すように、携帯端末Aは、携帯端末Aにおいて生成された画像のデータに、画像を生成した日時を示す日時データ及び画像を生成した位置を示す位置データを例えばEXIF(EXchangeable Image File Format)情報として付加し、ユーザaの画像のデータを管理するクラウドサーバ1に送信する。クラウドサーバ1は、ユーザa用の記憶領域に、携帯端末Aから受信した画像のデータを保存する。   Next, an outline of the present embodiment will be described using FIGS. 5 to 8. Here, the user who operates the portable terminal A (here, the user a) and the user who operates the portable terminal B (here, the user b) goes to the sightseeing spot together, and the user a operates the portable terminal It is assumed that photographing is performed by the camera 305 of A. Then, as shown in FIG. 5, in the data of the image generated at the portable terminal A, the portable terminal A generates date data indicating the date and time of generation of the image and position data indicating the position at which the image is generated. Image File Format) is added as information, and transmitted to the cloud server 1 that manages data of the image of the user a. The cloud server 1 stores the data of the image received from the portable terminal A in the storage area for the user a.

後日、ユーザaが観光地で撮影した画像の閲覧を希望するユーザbは、携帯端末Bを操作する。ここで、ユーザbが行う操作は、ユーザaの画像のデータを管理するクラウドサーバ1を指定する操作(例えば、タップによる選択)だけであり、パスワードの入力など、煩雑な操作を含まない。これに応じ、携帯端末Bは、図6に示すように、ユーザaの画像の閲覧を要求する閲覧要求を、ユーザaの画像のデータを管理するクラウドサーバ1に送信する。なお、携帯端末Bには、ユーザaの画像のデータを管理するクラウドサーバ1にアクセスするための情報(例えば、アドレス又はURL(Uniform Resource Locater)など)が予め登録されているものとする。また、日時を示す日時データ及びその日時における位置を示す位置データが携帯端末Bにおいて定期的に取得されているものとする。   At a later date, the user b who desires to browse the image photographed at the sightseeing spot by the user a operates the portable terminal B. Here, the operation performed by the user b is only an operation (for example, selection by tap) for specifying the cloud server 1 that manages data of the image of the user a, and does not include complicated operations such as password input. In response to this, as shown in FIG. 6, the portable terminal B transmits a browsing request for requesting browsing of the image of the user a to the cloud server 1 managing data of the image of the user a. In addition, it is assumed that information (for example, an address or a URL (Uniform Resource Locator) or the like) for accessing the cloud server 1 managing data of the image of the user a is registered in the portable terminal B in advance. Further, it is assumed that date and time data indicating a date and time and position data indicating a position on the date and time are periodically acquired by the portable terminal B.

すると、図7に示すように、閲覧要求を受信したクラウドサーバ1は、携帯端末Bの過去の位置を示す位置データ及びその位置にいた時刻を示す日時データを携帯端末Bから取得する。この取得に際して、ユーザbは操作を何も行わない(すなわち、自動で取得が行われる)。そして、クラウドサーバ1は、携帯端末Bから取得した位置データ及び日時データとユーザaの画像のデータに付加された位置データ及び日時データとを比較することで、ユーザaとユーザbが一緒にいたときに撮影されたと推定される画像のデータを特定する。ここでは、画像のデータ701及び画像のデータ702が特定される。   Then, as shown in FIG. 7, the cloud server 1 having received the browsing request acquires, from the portable terminal B, position data indicating the past position of the portable terminal B and date / time data indicating time at the position. In this acquisition, the user b does not perform any operation (ie, acquisition is performed automatically). Then, the cloud server 1 compares the position data and date data acquired from the portable terminal B with the position data and date data added to the data of the image of the user a, whereby the user a and the user b are together. Identify the data of the image that is presumed to have been taken. Here, image data 701 and image data 702 are specified.

そして、図8に示すように、クラウドサーバ1は、特定された画像のデータ701及び702を携帯端末Bに送信する。これにより、ユーザbは、携帯端末Bの表示部307に表示された画像を確認することができる。従って、ユーザbは、画像の選択などの煩雑な入力操作を行うことなく、ユーザaの画像のデータのうちユーザaとユーザbが一緒にいたときに撮影した画像のデータを閲覧することができる。   Then, as shown in FIG. 8, the cloud server 1 transmits the data 701 and 702 of the specified image to the portable terminal B. Thereby, the user b can confirm the image displayed on the display unit 307 of the portable terminal B. Therefore, the user b can browse the data of the image photographed when the user a and the user b are together among the data of the user a without performing a complicated input operation such as selection of the image .

次に、図9乃至図18を用いて、携帯端末A及びBが実行する処理並びにクラウドサーバ1が処理について説明する。   Next, processing performed by the portable terminals A and B and processing performed by the cloud server 1 will be described with reference to FIGS. 9 to 18.

はじめに、図9及び図10を用いて、携帯端末が日時データ及び位置データを取得する処理について説明する。まず、ユーザが起動ボタンを押下することによって、携帯端末が起動される(図9:ステップS1)。 First, processing in which the portable terminal B acquires date and time data and position data will be described using FIGS. 9 and 10. First, when the user presses the start button, the mobile terminal B is started (FIG. 9: step S1).

携帯端末の管理部351は、位置データ取得部317に、位置データの取得指示を出力する。これに応じ、位置データ取得部317は、基地局から位置データを取得、又は、GPSにより位置データを取得する(ステップS3)。基地局から取得できる位置データは、基地局に登録された位置データである。位置データ取得部317は2つの方法を使い分けることができ、例えば、GPSによる位置データの取得が困難な屋内又は地下などに携帯端末が有る場合に基地局から位置データを取得してもよい。 The management unit 351 of the portable terminal B outputs a position data acquisition instruction to the position data acquisition unit 317. In response to this, the position data acquisition unit 317 acquires position data from the base station or acquires position data by GPS (step S3). Position data that can be acquired from the base station is position data registered in the base station. The position data acquisition unit 317 can use two different methods. For example, when there is the portable terminal B in the indoor or underground where acquisition of position data by GPS is difficult, the position data may be acquired from the base station.

管理部351は、例えばOS(Operating System)のシステム時計から、日時データを取得する(ステップS5)。   The management unit 351 acquires date and time data from, for example, a system clock of the OS (Operating System) (step S5).

なお、管理部351は、ステップS3の処理及びステップS5の処理を、前回の実行時刻から所定の時間が経過した場合に実行するようにしてもよい。これにより、位置データ及び日時データの取得を定期的に行えるようになる。   The management unit 351 may execute the process of step S3 and the process of step S5 when a predetermined time has elapsed from the previous execution time. This makes it possible to periodically acquire position data and date and time data.

管理部351は、ステップS3において取得した位置データ及びステップS5において取得した日時データを、端末データ格納部355に追加する(ステップS7)。   The management unit 351 adds the position data acquired in step S3 and the date and time data acquired in step S5 to the terminal data storage unit 355 (step S7).

図10に、端末データ格納部355に蓄積されるデータの一例を示す。図10の例では、日時データと、日時データが表す日時における携帯端末の位置を示す位置データとが蓄積される。但し、携帯端末のメモリ容量には制限があるので、一定の時間より前に追加された日時データ及び位置データを削除してもよい。 FIG. 10 shows an example of data stored in the terminal data storage unit 355. In the example of FIG. 10, date and time data and position data indicating the position of the portable terminal B at the date and time represented by the date and time data are accumulated. However, since the memory capacity of the portable terminal B is limited, date and time data and position data added before a certain time may be deleted.

図9の説明に戻り、位置データ取得部317は、現在の基地局の範囲外に携帯端末が移動した場合には、位置データを登録する基地局を変更する(ステップS9)。そしてステップS3の処理に戻る。なお、現在の基地局の範囲内である場合には、ステップS9の処理は省略される。 Returning to the description of FIG. 9, when the portable terminal B moves out of the range of the current base station, the position data acquisition unit 317 changes the base station to which the position data is registered (step S9). Then, the process returns to the process of step S3. In addition, when it is in the range of the present base station, the process of step S9 is abbreviate | omitted.

以上のような処理を実行すれば、携帯端末の日時データ及び位置データを蓄積し、後の処理に利用できるようになる。 If the above processing is executed, date and time data and position data of the portable terminal B can be accumulated and used for later processing.

次に、図11を用いて、携帯端末Aが自動送信についての設定の入力を受け付ける処理について説明する。   Next, a process of the portable terminal A receiving an input of settings for automatic transmission will be described using FIG.

まず、携帯端末Aの操作入力部309は、自動送信についての設定の入力をユーザから受け付ける(図11:ステップS11)。自動送信についての設定とは、携帯端末Aが画像のデータを生成した場合に画像のデータを自動でクラウドサーバ1に送信するか否かについての設定である。   First, the operation input unit 309 of the portable terminal A receives an input of settings for automatic transmission from the user (FIG. 11: step S11). The setting for the automatic transmission is a setting as to whether or not the image data is automatically transmitted to the cloud server 1 when the portable terminal A generates the image data.

管理部351は、ステップS11において入力を受け付けた設定のデータである設定データを設定データ格納部353に格納する(ステップS13)。そして処理を終了する。   The management unit 351 stores setting data, which is data of the setting for which the input has been received in step S11, in the setting data storage unit 353 (step S13). Then the process ends.

以上のような処理を実行すれば、画像のデータを自動で送信できるようになるので、携帯端末Aのユーザは画像のデータの送信を意識しなくてもよくなる。これにより、画像のアップロードのために行う操作によってユーザが感じるストレスを軽減できるようになる。   Since the image data can be automatically transmitted if the above processing is performed, the user of the portable terminal A does not have to be conscious of the transmission of the image data. As a result, it is possible to reduce the stress felt by the user due to the operation for uploading the image.

次に、図12及び図13を用いて、携帯端末Aが画像のデータを生成する際に実行する処理について説明する。   Next, processing to be performed when the portable terminal A generates image data will be described using FIGS. 12 and 13.

携帯端末Aのユーザは、撮影スポットに到着すると、携帯端末Aを操作することでカメラ305を起動する(図12:ステップS31)。   When the user of the portable terminal A arrives at the imaging spot, the user operates the portable terminal A to activate the camera 305 (FIG. 12: step S31).

カメラ305が起動されると、管理部351は、位置データ取得部317に、位置データの取得指示を出力する。これに応じ、位置データ取得部317は、基地局から位置データを取得、又は、GPSにより位置データを取得する(ステップS33)。また、管理部351は、例えばOS(Operating System)のシステム時計から、日時データを取得する(ステップS35)。   When the camera 305 is activated, the management unit 351 outputs a position data acquisition instruction to the position data acquisition unit 317. In response to this, the position data acquisition unit 317 acquires position data from the base station or acquires position data by GPS (step S33). Further, the management unit 351 acquires date and time data from, for example, a system clock of an OS (Operating System) (step S35).

カメラ305は、操作入力部309が受け付けた入力(例えば、シャッターボタンに相当する部分のタップ)に応じ撮像処理を実行し、画像のデータを生成する(ステップS37)。生成された画像のデータは、管理部351に出力される。   The camera 305 executes an imaging process according to the input (for example, a tap of a portion corresponding to the shutter button) received by the operation input unit 309, and generates image data (step S37). The generated image data is output to the management unit 351.

管理部351は、ステップS37において生成された画像のデータに日時データ及び位置データをEXIF情報として付加し、画像データ格納部357に保存する(ステップS39)。   The management unit 351 adds date and time data and position data to the data of the image generated in step S37 as EXIF information, and stores the data in the image data storage unit 357 (step S39).

管理部351は、送信処理を実行する(ステップS41)。そして処理は終了する。送信処理については、図13を用いて説明する。   The management unit 351 executes transmission processing (step S41). The process then ends. The transmission process will be described with reference to FIG.

まず、管理部351は、設定データ格納部353に格納された、自動送信についての設定が、「自動送信」を示しているか判断する(図13:ステップS51)。   First, the management unit 351 determines whether the setting for automatic transmission stored in the setting data storage unit 353 indicates "automatic transmission" (FIG. 13: step S51).

設定が「自動送信」を示している場合(ステップS51:Yesルート)、管理部351は、ステップS39において画像データ格納部357に保存された画像のデータを、無線通信部315に出力する。これに応じ、無線通信部315は、画像のデータ(この画像のデータには、日時データ及び位置データが付加されている)を、携帯端末Aのユーザの画像を管理するクラウドサーバ1に送信する(ステップS53)。そして呼び出し元の処理に戻る。   When the setting indicates “automatic transmission” (step S51: Yes route), the management unit 351 outputs the data of the image stored in the image data storage unit 357 in step S39 to the wireless communication unit 315. In response to this, the wireless communication unit 315 transmits the image data (the date and time data and the position data are added to the image data) to the cloud server 1 that manages the image of the user of the portable terminal A. (Step S53). And it returns to the process of the caller.

一方、設定が「自動送信」を示していない場合(ステップS51:Noルート)、管理部351は、送信可否についての指示の入力を促すデータを、表示部307に表示させる(ステップS55)。ユーザは、表示部307に表示されたデータに従い、送信可否についての指示を操作入力部309を介して入力する。   On the other hand, when the setting does not indicate “automatic transmission” (step S51: No route), the management unit 351 causes the display unit 307 to display data prompting input of an instruction regarding transmission availability (step S55). The user inputs an instruction on transmission availability via the operation input unit 309 in accordance with the data displayed on the display unit 307.

管理部351は、ユーザからの指示が「送信」を示している場合に、ステップS39において画像データ格納部357に保存された画像のデータを、無線通信部315に出力する。これに応じ、無線通信部315は、画像のデータ(この画像のデータには、日時データ及び位置データが付加されている)を、携帯端末Aのユーザの画像を管理するクラウドサーバ1に送信する(ステップS57)。そして呼び出し元の処理に戻る。   The management unit 351 outputs the data of the image stored in the image data storage unit 357 in step S39 to the wireless communication unit 315 when the instruction from the user indicates “send”. In response to this, the wireless communication unit 315 transmits the image data (the date and time data and the position data are added to the image data) to the cloud server 1 that manages the image of the user of the portable terminal A. (Step S57). And it returns to the process of the caller.

なお、ステップS55及びS57の処理は、カメラ305が停止した後に実行してもよい。このようにすれば、カメラ305によって生成された複数の画像のデータを一括してクラウドサーバ1に送信できるようになる。その場合、ステップS55において、ユーザに画像を選択させてもよい。   The processes of steps S55 and S57 may be performed after the camera 305 is stopped. In this way, data of a plurality of images generated by the camera 305 can be collectively transmitted to the cloud server 1. In that case, the user may select an image in step S55.

以上のような処理を実行すれば、携帯端末Aにおいて生成された画像のデータに日時データ及び位置データを付加した上でクラウドサーバ1に保存できるようになる。   If the processing as described above is executed, date data and position data can be added to the data of the image generated in the portable terminal A, and can be stored in the cloud server 1.

次に、図14及び図15を用いて、クラウドサーバ1が画像データを受信した際に実行する処理について説明する。   Next, processing to be performed when the cloud server 1 receives image data will be described using FIGS. 14 and 15.

まず、クラウドサーバ1の通信部101は、日時データ及び位置データが付加された画像のデータを携帯端末Aから受信し(図14:ステップS61)、管理部103に出力する。   First, the communication unit 101 of the cloud server 1 receives, from the portable terminal A, data of an image to which date data and position data are added (FIG. 14: step S61), and outputs the data to the management unit 103.

管理部103は、ステップS61において受信した画像のデータに付加されている日時データ及び位置データを、画像データ番号に対応付けて端末データ格納部109に格納する(ステップS63)。なお、画像のデータは画像データ番号と関連付けて画像データ格納部107に格納される。   The management unit 103 stores the date and time data and position data added to the data of the image received in step S61 in the terminal data storage unit 109 in association with the image data number (step S63). The data of the image is stored in the image data storage unit 107 in association with the image data number.

図15に、端末データ格納部109に格納されるデータの一例を示す。図15の例では、画像データ番号と、日時データと、位置データと、グループ番号とが格納される。但し、直前のステップS63において格納されたデータについては、グループ番号は付与されず、ステップS65の処理によって付与される。   FIG. 15 illustrates an example of data stored in the terminal data storage unit 109. In the example of FIG. 15, an image data number, date and time data, position data, and a group number are stored. However, the group number is not assigned to the data stored in the immediately preceding step S63, and is assigned by the process of step S65.

図14の説明に戻り、管理部103は、分類部105にグルーピングの実行を指示する。これに応じ、分類部105は、予め定められたルールに従い画像のグルーピングを実行する(ステップS65)。端末データ格納部109に格納されているグループ番号は、ステップS65の処理結果に基づき更新される。そして処理を終了する。   Returning to the explanation of FIG. 14, the management unit 103 instructs the classification unit 105 to execute grouping. In response to this, the classification unit 105 performs grouping of images according to a predetermined rule (step S65). The group number stored in the terminal data storage unit 109 is updated based on the processing result of step S65. Then the process ends.

予め定められたルールとは、例えば、連続して生成された複数の画像であって、(1)最も早く生成された画像の日時と最も後に生成された画像の日時との差が30分以内であるという条件、及び(2)複数の画像の生成位置が半径100メートルの円に収まるという条件の両方を満たす複数の画像が同じグループにグループ分けするというルールである。但し、ここで示したルールに限られるわけではない。   The predetermined rule is, for example, a plurality of continuously generated images, and (1) the difference between the date and time of the earliest generated image and the date and time of the latest generated image is within 30 minutes And (2) a rule in which a plurality of images satisfying both the condition that the generation positions of the plurality of images fall within a circle with a radius of 100 meters are grouped into the same group. However, it is not necessarily limited to the rules shown here.

以上のようにして生成されたグループに属する画像を一括して送信すれば、関連性が高いと推定される複数の画像を携帯端末に漏れなく送信できるようになる。   By collectively transmitting the images belonging to the group generated as described above, it becomes possible to transmit a plurality of images presumed to be highly relevant to the portable terminal without omission.

次に、図16乃至図18を用いて、携帯端末Bがクラウドサーバ1に閲覧要求を送信した際に実行される処理について説明する。   Next, processing executed when the portable terminal B transmits a browse request to the cloud server 1 will be described using FIGS. 16 to 18.

まず、携帯端末Bの無線通信部315は、携帯端末Aが生成した画像を閲覧することを要求する閲覧要求を、携帯端末Aが生成した画像のデータを管理するクラウドサーバ1に送信する(図16:ステップS71)。上で述べたように、携帯端末Bのユーザは、携帯端末Aが生成した画像のデータを管理するクラウドサーバ1にアクセスするための情報を予めメール等により通知されており、その情報は携帯端末Bに登録されているものとする。そのため、携帯端末Bのユーザの操作は、携帯端末Aが生成した画像のデータを管理するクラウドサーバ1を指定する操作(例えば、ユーザアカウント情報やパスワードの入力)だけであり、画像の選択など、煩雑な操作を含まない。なお、クラウドサーバ1が複数の携帯端末について画像のデータを管理している場合に対処するため、閲覧要求が携帯端末Aの識別子を含んでもよい。   First, the wireless communication unit 315 of the mobile terminal B transmits a browsing request for requesting browsing of the image generated by the mobile terminal A to the cloud server 1 managing data of the image generated by the mobile terminal A (see FIG. 16: Step S71). As described above, the user of the portable terminal B is notified in advance by e-mail etc. of information for accessing the cloud server 1 that manages the data of the image generated by the portable terminal A, and the information is portable terminal It shall be registered in B. Therefore, the operation of the user of the portable terminal B is only an operation to specify the cloud server 1 that manages the data of the image generated by the portable terminal A (for example, input of user account information and password). Does not include cumbersome operations. Note that the browsing request may include the identifier of the portable terminal A in order to cope with the case where the cloud server 1 manages image data of a plurality of portable terminals.

携帯端末Aが生成した画像のデータを管理するクラウドサーバ1の通信部101は、閲覧要求を携帯端末Bから受信する(ステップS73)。通信部101は、閲覧要求を管理部103に出力する。   The communication unit 101 of the cloud server 1 that manages data of an image generated by the portable terminal A receives a browsing request from the portable terminal B (step S73). The communication unit 101 outputs the browsing request to the management unit 103.

管理部103は、携帯端末Aに関する各グループの日時データのうち最先の日時データを読み出す(ステップS75)。例えば図15に示した例であれば、画像データ番号「DSC_0001」に対応する日時データ、画像データ番号「DSC_0002」に対応する日時データ、画像データ番号「DSC_0003」に対応する日時データ、画像データ番号「DSC_0004」に対応する日時データ、画像データ番号「DSC_0006」に対応する日時データ、及び画像データ番号「DSC_0007」に対応する日時データが読み出される。   The management unit 103 reads out the earliest date and time data among the date and time data of each group related to the portable terminal A (step S75). For example, in the example shown in FIG. 15, the date and time data corresponding to the image data number "DSC_0001", the date and time data corresponding to the image data number "DSC_0002", the date and time data corresponding to the image data number "DSC_0003", and the image data number The date data corresponding to “DSC — 0004”, the date data corresponding to the image data number “DSC — 0006”, and the date data corresponding to the image data number “DSC — 0007” are read out.

管理部103は、読み出した日時データを通信部101に出力する。これに応じ、通信部101は、管理部103から受け取った日時データを携帯端末Bに送信する(ステップS77)。図17に、ステップS77において送信されるデータの一例を示す。図17の例においては、グループ番号と、そのグループ番号のグループにおいて最先の日時データとが送信される。但し、グループ番号は含まれていなくてもよい。   The management unit 103 outputs the read date and time data to the communication unit 101. In response to this, the communication unit 101 transmits the date and time data received from the management unit 103 to the portable terminal B (step S77). FIG. 17 shows an example of data transmitted in step S77. In the example of FIG. 17, the group number and the earliest date and time data in the group of the group number are transmitted. However, the group number may not be included.

携帯端末Bの無線通信部315は、携帯端末Aが生成した画像のデータを管理するクラウドサーバ1から、日時データを受信し(ステップS79)、管理部351に出力する。   The wireless communication unit 315 of the portable terminal B receives the date and time data from the cloud server 1 that manages the data of the image generated by the portable terminal A (step S79), and outputs the data to the management unit 351.

管理部351は、各グループについて、受信した日時データに最も近い日時データとその日時データに対応する位置データとを端末データ格納部355から読み出す(ステップS81)。管理部351は、読み出した日時データ及び位置データを無線通信部315に出力する。   The management unit 351 reads, from the terminal data storage unit 355, date and time data closest to the received date and time data and position data corresponding to the date and time data for each group (step S81). The management unit 351 outputs the read date and time data and position data to the wireless communication unit 315.

無線通信部315は、管理部351から受け取った日時データ及び位置データを、携帯端末Aが生成した画像のデータを管理するクラウドサーバ1に送信する(ステップS83)。図18に、ステップS83において送信されるデータの一例を示す。図18の例では、グループ番号と、受信した最先の日時データに最も近い日時データと、その日時データに対応する位置データとが含まれる。   The wireless communication unit 315 transmits the date and time data and position data received from the management unit 351 to the cloud server 1 that manages the data of the image generated by the portable terminal A (step S83). FIG. 18 shows an example of data transmitted in step S83. In the example of FIG. 18, the group number, the date and time data closest to the received first date and time data, and the position data corresponding to the date and time data are included.

携帯端末Aが生成した画像のデータを管理するクラウドサーバ1の通信部101は、各グループについての日時データ及び位置データを携帯端末Bから受信する(ステップS85)。通信部101は、受信した日時データ及び位置データを管理部103に出力する。   The communication unit 101 of the cloud server 1 that manages data of an image generated by the portable terminal A receives date and time data and position data for each group from the portable terminal B (step S85). The communication unit 101 outputs the received date and time data and position data to the management unit 103.

管理部103は、各グループについて、受信した位置データが示す位置との距離が所定距離(例えば500メートル)以内である位置を示す位置データが端末データ格納部109に有るか判定する(ステップS87)。   The management unit 103 determines, for each group, whether or not there is position data indicating a position within a predetermined distance (for example, 500 meters) from the position indicated by the received position data in the terminal data storage unit 109 (step S87) .

管理部103は、受信した位置データが示す位置との距離が所定距離以内である位置を示す位置データが端末データ格納部109に有ると判定されたグループについて、そのグループに属する画像のデータを読み出す(ステップS89)。管理部103は、読み出した画像のデータを含むプレビュー画面のデータを生成し通信部101に出力する。   The management unit 103 reads data of an image belonging to a group determined to have position data indicating that the distance from the position indicated by the received position data is within a predetermined distance in the terminal data storage unit 109. (Step S89). The management unit 103 generates data of a preview screen including data of the read image and outputs the data to the communication unit 101.

通信部101は、管理部103から受け取ったプレビュー画面のデータを、携帯端末Bに送信する(ステップS91)。   The communication unit 101 transmits the data of the preview screen received from the management unit 103 to the portable terminal B (step S91).

携帯端末Bの無線通信部315は、プレビュー画面のデータをクラウドサーバ1から受信し、管理部351に出力する。管理部351は、無線通信部315から受け取ったプレビュー画面のデータを表示部307に表示させる(ステップS93)。   The wireless communication unit 315 of the portable terminal B receives the data of the preview screen from the cloud server 1 and outputs the data to the management unit 351. The management unit 351 causes the display unit 307 to display the data of the preview screen received from the wireless communication unit 315 (step S93).

以上のようにすれば、携帯端末Bのユーザは、簡単な操作を行うだけで携帯端末Aのユーザの画像を閲覧できるようになる。一方、携帯端末Aのユーザは、公開する画像を指定しなくても、適切なユーザに対してのみ画像を公開できるようになる。   As described above, the user of the portable terminal B can view the image of the user of the portable terminal A simply by performing a simple operation. On the other hand, the user of the portable terminal A can release the image only to the appropriate user without specifying the image to be released.

[実施の形態2]
携帯端末A及びBのメモリ容量には制限があるため、日時データ及び位置データを端末データ格納部355に蓄積し続けることはできない。そのため、古いデータから順に削除することが考えられるが、日時データ及び位置データを削除してしまうと、クラウドサーバ1に保存されている画像を閲覧できなくなる可能性がある。
Second Embodiment
Since the memory capacity of the portable terminals A and B is limited, date and time data and position data can not be continuously stored in the terminal data storage unit 355. Therefore, it is conceivable to delete the oldest data in order, but if date and time data and position data are deleted, there is a possibility that the image stored in the cloud server 1 can not be browsed.

そこで第2の実施の形態においては、携帯端末A及びB並びにクラウドサーバ1のメモリ使用量を抑制しつつ、画像を閲覧できなくなることを防止する方法について説明する。   Therefore, in the second embodiment, a method for preventing the inability to view an image while suppressing the memory usage of the portable terminals A and B and the cloud server 1 will be described.

1つめの方法として、クラウドサーバ1における端末データ格納部109において、図19に示すようなデータを管理する。図19の例では、画像データ番号と、日時データと、位置データと、グループ番号と、画像のデータを受信すべき携帯端末のID(IDentifier)とが管理される。例えば、携帯端末Bから閲覧要求を受信した場合において、グループ番号1及び4についてはステップS87において「受信した位置データが示す位置との距離が所定距離以内である位置を示す位置データが端末データ格納部109に有る」と判定されたとする。この場合、グループ番号1及び4に対応する携帯端末のIDの欄に、携帯端末BのIDであるID−Bを格納するようにする。そして、携帯端末Bから閲覧要求を再度受信した際、たとえ携帯端末Bの日時データ及び位置データが失われていたとしても、画像データ番号が「DSC_0001」、「DSC_0004」及び「DSC_0005」である画像については、携帯端末Bに送信する。このようにすることで、携帯端末Bが画像を閲覧できなくなることを防止できる。   As a first method, the terminal data storage unit 109 in the cloud server 1 manages data as shown in FIG. In the example of FIG. 19, an image data number, date and time data, position data, a group number, and an ID (IDentifier) of a portable terminal that should receive data of an image are managed. For example, when a browsing request is received from the portable terminal B, for the group numbers 1 and 4, “position data indicating a position where the distance from the position indicated by the received position data is within a predetermined distance is stored in step S87 It is assumed that it is determined that there is a "part 109". In this case, ID-B, which is the ID of the portable terminal B, is stored in the column of the ID of the portable terminal corresponding to the group numbers 1 and 4. Then, when the browsing request is received again from the portable terminal B, even if the date and time data and position data of the portable terminal B are lost, the image having the image data numbers “DSC_0001”, “DSC_0004” and “DSC_0005” Is transmitted to the portable terminal B. This can prevent the portable terminal B from being unable to view the image.

2つめの方法として、携帯端末Bにおける端末データ格納部355において、図20に示すようなデータを管理する。図20の例では、日時データと、位置データと、クラウドサーバのIDとが格納される。ここでは、プレビュー画面のデータを取得した際に使用された日時データ及び位置データに対応付けて、プレビュー画面のデータの送信元であるクラウドサーバ1のIDを格納しておく。そして、クラウドサーバ1のIDが格納された行については、データを削除しないようにする。これにより、携帯端末Bが画像を閲覧できなくなることを防止できる。   As a second method, the terminal data storage unit 355 of the portable terminal B manages data as shown in FIG. In the example of FIG. 20, date and time data, position data, and an ID of a cloud server are stored. Here, the ID of the cloud server 1 that is the transmission source of the data of the preview screen is stored in association with the date and time data and position data used when acquiring the data of the preview screen. The data is not deleted for the row in which the ID of the cloud server 1 is stored. This can prevent the portable terminal B from being unable to view the image.

[実施の形態3]
第1の実施の形態においては、携帯端末A及びBが起動している間、日時データ及び位置データの取得が行われる。しかし、携帯端末の起動中に常にこれらのデータが取得されることを望まないユーザも存在する。また、電池や記憶領域を節約すべき状況にある場合には、これらのデータを取得し続けることは好ましくない。
Third Embodiment
In the first embodiment, acquisition of date and time data and position data is performed while the portable terminals A and B are activated. However, there are also users who do not want to always obtain these data during activation of the mobile terminal. In addition, when it is in the situation where it should save the battery and storage area, it is not desirable to keep acquiring these data.

そこで第3の実施の形態においては、図21に示すような処理を実行することでデータの取得を制限する。   Therefore, in the third embodiment, acquisition of data is restricted by executing the process as shown in FIG.

まず、携帯端末Aが日時データ及び位置データを取得する処理について説明する。まず、ユーザが起動ボタンを押下することによって、携帯端末Aが起動される(図21:ステップS101)。   First, the process in which the portable terminal A acquires date and time data and position data will be described. First, when the user presses the start button, the mobile terminal A is started (FIG. 21: step S101).

携帯端末Aの管理部351は、ユーザからデータ取得指示の入力を操作入力部309を介して受け付けたか判断する(ステップS103)。データ取得指示の入力を受け付けていない場合(ステップS103:Noルート)、ステップS103の処理に戻る。   The management unit 351 of the portable terminal A determines whether an input of a data acquisition instruction has been received from the user via the operation input unit 309 (step S103). If the input of the data acquisition instruction has not been received (step S103: No route), the process returns to step S103.

一方、データ取得指示の入力を受け付けた場合(ステップS103:Yesルート)、管理部351は、位置データ取得部317に、位置データの取得指示を出力する。これに応じ、位置データ取得部317は、基地局から位置データを取得、又は、GPSにより位置データを取得する(ステップS107)。   On the other hand, when the input of the data acquisition instruction has been received (step S103: Yes route), the management unit 351 outputs the position data acquisition instruction to the position data acquisition unit 317. In response to this, the position data acquisition unit 317 acquires position data from the base station or acquires position data by GPS (step S107).

管理部351は、例えばOS(Operating System)のシステム時計から、日時データを取得する(ステップS109)。   The management unit 351 acquires date and time data from, for example, a system clock of the OS (Operating System) (step S109).

なお、管理部351は、ステップS107の処理及びステップS109の処理を、前回の実行時刻から所定の時間が経過した場合に実行するようにしてもよい。これにより、位置データ及び日時データの取得を定期的に行えるようになる。   The management unit 351 may execute the process of step S107 and the process of step S109 when a predetermined time has elapsed from the previous execution time. This makes it possible to periodically acquire position data and date and time data.

管理部351は、ステップS107において取得した位置データ及びステップS109において取得した日時データを、端末データ格納部355に追加する(ステップS111)。   The management unit 351 adds the position data acquired in step S107 and the date and time data acquired in step S109 to the terminal data storage unit 355 (step S111).

位置データ取得部317は、現在の基地局の範囲外に携帯端末Aが移動した場合には、位置データを登録する基地局を変更する(ステップS113)。そしてステップS107の処理に戻る。なお、現在の基地局の範囲内である場合には、ステップS113の処理は省略される。   When the portable terminal A moves out of the range of the current base station, the position data acquisition unit 317 changes the base station to which the position data is registered (step S113). Then, the process returns to the process of step S107. In addition, when it is in the range of the present base station, the process of step S113 is abbreviate | omitted.

管理部351は、ユーザからデータ取得停止指示の入力を操作入力部309を介して受け付けたか判断する(ステップS115)。データ取得停止指示の入力を受け付けていない場合(ステップS115:Noルート)、取得を継続するため、ステップS107の処理に戻る。   The management unit 351 determines whether an input of a data acquisition stop instruction has been received from the user via the operation input unit 309 (step S115). If the input of the data acquisition stop instruction has not been received (step S115: No route), the processing returns to step S107 in order to continue the acquisition.

一方、データ取得停止指示の入力を受け付けた場合(ステップS115:Yesルート)、ステップS103の処理に戻る。   On the other hand, when the input of the data acquisition stop instruction is received (step S115: Yes route), the process returns to the process of step S103.

以上のような処理を実行すれば、日時データ及び位置データの取得にユーザの意向を反映できるようになる。   By executing the above-described processing, it is possible to reflect the user's intention in acquisition of date and time data and position data.

[実施の形態4]
第4の実施の形態においては、グループ分けをより柔軟に行う方法について説明する。
Fourth Embodiment
In the fourth embodiment, a method of more flexibly performing grouping will be described.

例えば、クラウドサーバ1は、ユーザにより行われたグループ分けを示すデータを携帯端末Aから受信する。そして、クラウドサーバ1は、端末データ格納部109に、図22に示すようなデータを格納する。図22の例では、画像データ番号と、日時データと、位置データと、グループ番号と、ユーザにより指定されたグループを表すグループ番号とが格納される。そして、クラウドサーバ1は、ユーザにより行われたグループ分けに従って画像のデータの送信を行うようにする。   For example, the cloud server 1 receives, from the portable terminal A, data indicating grouping performed by the user. Then, the cloud server 1 stores data as shown in FIG. 22 in the terminal data storage unit 109. In the example of FIG. 22, an image data number, date and time data, position data, a group number, and a group number representing a group designated by the user are stored. Then, the cloud server 1 transmits image data according to the grouping performed by the user.

このようにすれば、クラウドサーバ1により行われたグループ分けをユーザが修正したいと考えた場合には、ユーザの意向を反映したグループ分けを行えるようになる。   In this way, when the user wants to correct the grouping performed by the cloud server 1, grouping can be performed in which the intention of the user is reflected.

また、クラウドサーバ1は、携帯端末Aからグループ分けを示すデータを受信し、ユーザにより行われたグループ分けに対して、第1の実施の形態と同様の方法でさらにグループ分けを行うことでサブグループを生成してもよい。そして、図23に示すようなデータを端末データ格納部109に格納してもよい。図23の例では、画像データ番号と、日時データと、位置データと、ユーザにより指定されたグループを表すグループ番号と、サブグループを表すグループ番号とが格納される。図23の例では、ユーザが指定したグループ(ここでは、グループ番号1のグループ)に属する画像が、さらに2つのサブグループにグループ分けされている。クラウドサーバ1は、サブグループが生成された場合には、サブグループに従って画像のデータの送信を行うようにする。   In addition, the cloud server 1 receives data indicating grouping from the portable terminal A, and performs grouping on the grouping performed by the user by further grouping in the same manner as in the first embodiment. Groups may be created. Then, data as shown in FIG. 23 may be stored in the terminal data storage unit 109. In the example of FIG. 23, an image data number, date and time data, position data, a group number representing a group designated by the user, and a group number representing a sub-group are stored. In the example of FIG. 23, the images belonging to the group designated by the user (here, the group having the group number 1) are further divided into two subgroups. When the subgroup is generated, the cloud server 1 transmits image data according to the subgroup.

このようにすれば、ユーザがおおまかなグループ分けを行ったうえで、クラウドサーバ1が詳細なグループ分けを行うことが可能になる。これにより、ユーザの意向を反映しつつ、日時及び位置に基づくグループ分けを行えるようになる。   In this way, it is possible for the cloud server 1 to perform detailed grouping after the user performs rough grouping. This makes it possible to perform grouping based on date and time and position while reflecting the user's intention.

[実施の形態5]
第1の実施の形態においては、携帯端末Bは閲覧要求に対する応答を受信した後に、日時データ及び位置データをクラウドサーバ1に送信する。しかし、閲覧要求をクラウドサーバ1に送信する際に、端末データ格納部355に格納されている日時データ及び位置データを閲覧要求と一緒にクラウドサーバ1に送信してもよい。そして、クラウドサーバ1は、例えば、受信した日時データが示す日時との差が所定時間以内である日時を示す日時データに対応付けられ且つ受信した位置データが示す位置との距離が所定距離以内である位置を示す位置データに対応付けられたグループ番号を特定する。そして、クラウドサーバ1は、特定されたグループ番号が示すグループに属する画像のデータを含むプレビュー画面のデータを生成するようにする。
Fifth Embodiment
In the first embodiment, the portable terminal B transmits date and time data and position data to the cloud server 1 after receiving a response to the browsing request. However, when transmitting the browsing request to the cloud server 1, the date and time data and the position data stored in the terminal data storage unit 355 may be transmitted to the cloud server 1 together with the browsing request. Then, in the cloud server 1, for example, the distance from the position indicated by the received position data is within a predetermined distance, which is associated with the date and time data indicating a date and time whose difference from the date and time indicated by the received date and time data A group number associated with position data indicating a certain position is specified. Then, the cloud server 1 generates data of a preview screen including data of an image belonging to the group indicated by the specified group number.

このような方法であっても、携帯端末Bは、携帯端末Aのユーザの画像を簡便に閲覧できるようになる。   Even with such a method, the portable terminal B can easily browse the image of the user of the portable terminal A.

以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上で説明した携帯端末A及びB並びにクラウドサーバ1の機能ブロック構成は実際のプログラムモジュール構成に一致しない場合もある。   Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, the functional block configurations of the mobile terminals A and B and the cloud server 1 described above may not match the actual program module configurations.

また、上で説明したデータ保持構成は一例であって、上記のような構成でなければならないわけではない。さらに、処理フローにおいても、処理結果が変わらなければ処理の順番を入れ替えることも可能である。さらに、並列に実行させるようにしても良い。   In addition, the data holding configuration described above is an example, and the configuration is not necessarily the above. Furthermore, also in the processing flow, it is possible to change the order of processing as long as the processing result does not change. Furthermore, they may be executed in parallel.

また、上ではクラウドサーバ1がプレビュー画面のデータを生成する例を示したが、クラウドサーバ1は画像のデータをそのまま携帯端末Bに送信し、携帯端末Bがプレビュー画面のデータを生成してもよい。   Further, although the example in which the cloud server 1 generates data of the preview screen is shown above, the cloud server 1 transmits the data of the image as it is to the portable terminal B, and the portable terminal B generates the data of the preview screen Good.

また、携帯端末A及びBにおいては、アプリケーション或いはブラウザから、ユーザの操作を受け付けるようにしてもよい。   In the portable terminals A and B, the user's operation may be accepted from the application or the browser.

また、ステップS75においては最先の日時データを読み出しているが、最後の日時データでもよいし、中間の日時データでもよい。また、端末データ格納部109に格納された全日時データを送信するようにしてもよい。   Further, although the earliest date and time data is read out in step S75, the last date and time data may be used, or intermediate date and time data may be used. Further, all date and time data stored in the terminal data storage unit 109 may be transmitted.

なお、上で述べたクラウドサーバ1は、コンピュータ装置であって、図24に示すように、メモリ2501とCPU(Central Processing Unit)2503とハードディスク・ドライブ(HDD:Hard Disk Drive)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。CPU2503は、アプリケーション・プログラムの処理内容に応じて表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリ2501に格納されるが、HDD2505に格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。   The cloud server 1 described above is a computer device, and as shown in FIG. 24, a memory 2501, a CPU (Central Processing Unit) 2503, a hard disk drive (HDD: Hard Disk Drive) 2505, and a display device 2509. A display control unit 2507 connected to the drive unit 2513 for the removable disk 2511 and a communication control unit 2517 for connecting to the input device 2515 are connected by a bus 2519. An operating system (OS: Operating System) and an application program for performing processing in the present embodiment are stored in the HDD 2505 and read out from the HDD 2505 to the memory 2501 when executed by the CPU 2503. The CPU 2503 controls the display control unit 2507, the communication control unit 2517, and the drive device 2513 according to the processing content of the application program to perform a predetermined operation. Further, data in the middle of processing is mainly stored in the memory 2501, but may be stored in the HDD 2505. In the embodiment of the present invention, an application program for performing the above-described processing is stored and distributed in a computer readable removable disk 2511 and installed from the drive device 2513 into the HDD 2505. It may be installed in the HDD 2505 via a network such as the Internet and the communication control unit 2517. Such a computer device realizes various functions as described above by organic cooperation between hardware such as the CPU 2503 and the memory 2501 described above and programs such as the OS and application programs. .

以上述べた本発明の実施の形態をまとめると、以下のようになる。   The embodiments of the present invention described above are summarized as follows.

本実施の形態の第1の態様に係る携帯端末装置は、(A)時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を記憶する記憶部と、(B)ネットワークを介して接続されたサーバ装置に、記憶部に記憶された第1の時刻情報及び第1の位置情報を送信する送信部と、(C)サーバ装置が管理する1又は複数の画像のうち、送信した第1の時刻情報及び第1の位置情報と、画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報との比較に基づき選択された画像を、サーバ装置から受信する受信部とを有する。   A portable terminal device according to a first aspect of the present embodiment includes: (A) a storage unit storing first time information indicating a time and first position information indicating a position of the portable terminal device at the time; (B) a transmitting unit for transmitting the first time information and the first position information stored in the storage unit to the server apparatus connected via the network; and (C) one or more managed by the server apparatus Comparison of the first time information and the first position information transmitted among the images, the second time information indicating the time when the image was generated, and the second position information indicating the position where the image is generated And a receiver for receiving an image selected based on the image data from the server apparatus.

このようにすれば、携帯端末装置のユーザによる煩雑な入力操作は不要なので、画像の共有を簡便に行えるようになる。   In this way, since it is not necessary for the user of the portable terminal device to perform complicated input operations, it is possible to easily share the image.

また、サーバ装置から受信する画像は、第1の位置情報が示す位置と第2の位置情報が示す位置との間の距離が所定距離以内であり且つ第1の時刻情報が示す時刻と第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像であってもよい。画像が上記条件を満たす場合、携帯端末装置のユーザは画像の生成に立ち会っていた可能性が高い。よって、上で述べたようにすれば、画像を共有すべきユーザが画像を共有できるようになる。   Further, in the image received from the server device, the distance between the position indicated by the first position information and the position indicated by the second position information is within a predetermined distance and the time indicated by the first time information and the second The image may satisfy the condition that the difference from the time indicated by the time information of is within a predetermined time. If the image satisfies the above condition, the user of the mobile terminal device is likely to have attended the generation of the image. Thus, the user who should share the image can share the image, as described above.

また、上で述べた送信部は、(b1)携帯端末装置のユーザによる指示の入力に応じて、第1の位置情報及び第1の時刻情報を送信する処理を開始又は停止してもよい。位置情報及び時刻情報をできる限り秘匿したいユーザも存在する。上で述べたような構成であれば、位置情報及び時刻情報を他の装置に送信するか否かについて、ユーザの意向を反映できるようになる。   In addition, the transmission unit described above may start or stop the process of transmitting the first position information and the first time information according to (b1) input of an instruction by the user of the portable terminal device. There are also users who want to conceal location information and time information as much as possible. With the above-described configuration, it is possible to reflect the user's intention as to whether or not to transmit position information and time information to another device.

また、上で述べた送信部は、(b2)携帯端末装置が生成した画像をサーバ装置に自動で送信することを指示する第1の指示が携帯端末装置のユーザにより入力された場合、携帯端末装置が生成した画像を、当該画像が生成された時に又は所定のタイミングにおいてサーバ装置に送信してもよい。これにより、ユーザが画像の送信を意識しなくてもよくなるので、画像の共有をより簡便に行えるようになる。   In addition, the transmitting unit described above (b2) a portable terminal when a user instructs the portable terminal device to input a first instruction to automatically transmit an image generated by the portable terminal device to the server device. The image generated by the device may be transmitted to the server device when the image is generated or at a predetermined timing. As a result, since the user does not have to be conscious of image transmission, image sharing can be performed more easily.

本実施の形態の第2の態様に係るサーバ装置は、(D)時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続された携帯端末装置から受信する受信部と、(E)画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の時刻情報を画像毎に記憶する記憶部と、(F)受信した第1の時刻情報及び第1の位置情報と記憶部に記憶された第2の時刻情報及び第2の位置情報との比較に基づき、サーバ装置が管理する1又は複数の画像のうち携帯端末装置に送信する画像を選択する選択部と、(G)選択部により選択された画像を、携帯端末装置に送信する送信部とを有する。   The server apparatus according to the second aspect of the present embodiment is connected via the network to (D) first time information indicating time and first position information indicating the position of the portable terminal apparatus at the time Storage unit that stores, for each image, a reception unit received from the portable terminal device, and (E) second time information indicating a time when the image is generated and second time information indicating a position at which the image is generated And (F) one or more of the server devices manage based on comparison of the received first time information and first position information with the second time information and second position information stored in the storage unit. And a transmitter configured to transmit the image selected by the (G) selection unit to the mobile terminal device.

このようにすれば、時刻情報及び位置情報で画像の共有を制御できるので、簡便な画像共有が可能になる。   In this way, since sharing of the image can be controlled by the time information and the position information, simple image sharing becomes possible.

また、上で述べた選択部は、(f1)第1の位置情報が示す位置と第2の位置情報が示す位置との間の距離が所定距離以内であり且つ第1の時刻情報が示す時刻と第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像を選択してもよい。画像が上記条件を満たす場合、携帯端末装置のユーザは画像の生成に立ち会っていた可能性が高い。よって、上で述べたようにすれば、画像を共有すべきユーザが画像を共有できるようになる。   In addition, the selection unit described above (f1) the time between the position indicated by the first position information and the position indicated by the second position information is within a predetermined distance and indicated by the first time information You may select the image which satisfy | fills the conditions that the difference of and the time which 2nd time information shows is less than predetermined time. If the image satisfies the above condition, the user of the mobile terminal device is likely to have attended the generation of the image. Thus, the user who should share the image can share the image, as described above.

また、本サーバ装置は、(H)第2の時刻情報及び第2の位置情報に基づき、サーバ装置が管理する1又は複数の画像をグループ分けする分類部をさらに有してもよい。そして、上で述べた選択部は、(f2)分類部によるグループ分けの結果に基づき、条件を満たす画像と同じグループに属する画像をさらに選択してもよい。このようにすれば、同じグループに属する画像を携帯端末装置が一括して受信できるので、利便性が向上する。   The server device may further include a classification unit that groups one or more images managed by the server device based on (H) second time information and second position information. Then, the selection unit described above may further select an image belonging to the same group as the image satisfying the condition based on the grouping result by the (f2) classification unit. In this way, the mobile terminal device can collectively receive the images belonging to the same group, and the convenience is improved.

また、上で述べた選択部は、(f3)1又は複数の画像の各々が属するグループを示す分類情報を、1又は複数の画像を生成した携帯端末装置である第2の携帯端末装置から受信した場合、受信した分類情報に基づき、条件を満たす画像と同じグループに属する画像をさらに選択してもよい。このようにすれば、同じグループに属する画像を携帯端末装置が一括して受信できるので、利便性が向上する。   Further, the selection unit described above receives (f3) classification information indicating a group to which each of the one or more images belongs from the second portable terminal that is the portable terminal that has generated the one or more images. In this case, based on the received classification information, an image belonging to the same group as the image satisfying the condition may be further selected. In this way, the mobile terminal device can collectively receive the images belonging to the same group, and the convenience is improved.

また、本サーバ装置は、(I)分類情報と、第2の時刻情報及び第2の位置情報とに基づき、同じグループに属する1又は複数の画像を1又は複数のサブグループに分類するグループ分けを行う分類部をさらに有してもよい。そして、上で述べた選択部は、(f4)分類部によるグループ分けの結果に基づき、条件を満たす画像と同じサブグループに属する画像をさらに選択してもよい。このようにすれば、より細かいグループ分けになるので、利便性がさらに向上する。   In addition, the server apparatus classifies one or more images belonging to the same group into one or more subgroups based on (I) classification information and the second time information and the second position information. May further include a classification unit that Then, the selection unit described above may further select an image belonging to the same subgroup as the image satisfying the condition based on the grouping result by the (f4) classification unit. In this way, since the grouping is more finely, the convenience is further improved.

また、上で述べた選択部は、(f5)選択された画像の識別情報と携帯端末装置の識別情報とを対応付けて保存してもよい。このようにすれば、たとえ携帯端末装置の第1の時刻情報及び第1の位置情報が失われた場合であっても、携帯端末装置に画像を送信できるようになる。   The selection unit described above may store (f5) identification information of the selected image and identification information of the portable terminal device in association with each other. In this way, even if the first time information and first position information of the mobile terminal device are lost, it is possible to transmit an image to the mobile terminal device.

本実施の形態の第3の態様に係る画像共有制御方法は、(J)記憶装置に記憶された、時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続されたサーバ装置に送信し、(K)サーバ装置が管理する1又は複数の画像のうち、送信した第1の時刻情報及び第1の位置情報と、画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報との比較に基づき選択された画像を、前記サーバ装置から受信する処理を含む。   In the image sharing control method according to the third aspect of the present embodiment, (J) first time information indicating a time stored in the storage device and a first position indicating a position of the portable terminal device at the time The information is transmitted to the server apparatus connected via the network, and (K) the transmitted first time information and the first position information among the one or more images managed by the server apparatus, and the image are generated And a process of receiving, from the server apparatus, an image selected based on a comparison between second time information indicating the time that has been taken and second position information indicating the position at which the image is generated.

本実施の形態の第4の態様に係る画像共有制御方法は、(L)時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続された携帯端末装置から受信し、(M)受信した第1の時刻情報及び第1の位置情報と、(N)画像毎に当該画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の時刻情報を記憶部に記憶された第2の時刻情報及び第2の位置情報との比較に基づき、サーバ装置が管理する1又は複数の画像のうち携帯端末装置に送信する画像を選択し、(O)選択された画像を、携帯端末装置に送信する処理を含む。   An image sharing control method according to a fourth aspect of the present embodiment includes (L) first time information indicating time and first position information indicating the position of the portable terminal device at the time via the network. (M) first time information and first position information received from a connected portable terminal device, and (N) second time information indicating a time when the image is generated for each image, and the second time information Based on comparison of the second time information indicating the position at which the image is generated with the second time information and the second position information stored in the storage unit, the mobile device of the one or more images managed by the server device And (O) selecting an image to be transmitted to the terminal device, and transmitting the selected image to the mobile terminal device.

なお、上記方法による処理をプロセッサに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。   Note that a program for causing a processor to perform processing according to the above method can be created, and the program is, for example, a computer readable storage medium such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, a hard disk or the like. It is stored in a storage device. Intermediate processing results are temporarily stored in a storage device such as a main memory.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following appendices will be further disclosed with respect to the embodiment including the above examples.

(付記1)
携帯端末装置であって、
時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報を記憶する記憶部と、
ネットワークを介して接続されたサーバ装置に、前記記憶部に記憶された前記第1の時刻情報及び前記第1の位置情報を送信する送信部と、
前記サーバ装置が管理する1又は複数の画像のうち、送信した前記第1の時刻情報及び前記第1の位置情報と、画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報との比較に基づき選択された画像を、前記サーバ装置から受信する受信部と、
を有する携帯端末装置。
(Supplementary Note 1)
A mobile terminal device,
A storage unit that stores first time information indicating a time and first position information indicating a position of the portable terminal device at the time;
A transmitting unit for transmitting the first time information and the first position information stored in the storage unit to a server apparatus connected via a network;
Among the one or more images managed by the server device, the transmitted first time information and the first position information, and second time information indicating the time when the image was generated, and the image are generated. A receiver configured to receive from the server apparatus an image selected based on comparison with second position information indicating the selected position;
Mobile terminal device having

(付記2)
前記サーバ装置から受信する画像は、前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との間の距離が所定距離以内であり且つ前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像である、
付記1記載の携帯端末装置。
(Supplementary Note 2)
The image received from the server device has a time at which a distance between a position indicated by the first position information and a position indicated by the second position information is within a predetermined distance and indicated by the first time information. The image satisfies the condition that the difference with the time indicated by the second time information is within a predetermined time.
The mobile terminal device according to appendix 1.

(付記3)
前記送信部は、
前記携帯端末装置のユーザによる指示の入力に応じて、前記第1の位置情報及び前記第1の時刻情報を送信する処理を開始又は停止する、
付記1又は2記載の携帯端末装置。
(Supplementary Note 3)
The transmission unit is
A process of transmitting the first position information and the first time information is started or stopped according to an input of an instruction by the user of the mobile terminal device.
The mobile terminal device according to Appendix 1 or 2.

(付記4)
前記送信部は、
前記携帯端末装置が生成した画像を前記サーバ装置に自動で送信することを指示する第1の指示が前記携帯端末装置のユーザにより入力された場合、前記携帯端末装置が生成した画像を、当該画像が生成された時に又は所定のタイミングにおいて前記サーバ装置に送信する、
付記1乃至3のいずれか1つ記載の携帯端末装置。
(Supplementary Note 4)
The transmission unit is
The image generated by the mobile terminal device is the image when the user of the mobile terminal device inputs a first instruction instructing the automatic transmission of the image generated by the mobile terminal device to the server device. Are sent to the server when or are generated at a predetermined timing,
The mobile terminal device according to any one of appendices 1 to 3.

(付記5)
サーバ装置であって、
時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続された携帯端末装置から受信する受信部と、
画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の時刻情報を画像毎に記憶する記憶部と、
受信した前記第1の時刻情報及び前記第1の位置情報と前記記憶部に記憶された前記第2の時刻情報及び前記第2の位置情報との比較に基づき、前記サーバ装置が管理する1又は複数の画像のうち前記携帯端末装置に送信する画像を選択する選択部と、
前記選択部により選択された前記画像を、前記携帯端末装置に送信する送信部と、
を有するサーバ装置。
(Supplementary Note 5)
A server device,
A receiving unit that receives, from a portable terminal device connected via a network, first time information indicating time and first position information indicating the position of the portable terminal device at the time;
A storage unit that stores, for each image, second time information indicating a time at which the image is generated and second time information indicating a position at which the image is generated;
1 or the server device manages based on comparison of the received first time information and the first position information with the second time information and the second position information stored in the storage unit A selection unit that selects an image to be transmitted to the mobile terminal device among a plurality of images;
A transmitting unit that transmits the image selected by the selecting unit to the mobile terminal device;
Server device having

(付記6)
前記選択部は、
前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との間の距離が所定距離以内であり且つ前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像を選択する、
付記5記載のサーバ装置。
(Supplementary Note 6)
The selection unit is
The distance between the position indicated by the first position information and the position indicated by the second position information is within a predetermined distance, and the time indicated by the first time information and the time indicated by the second time information Select an image that satisfies the condition that the difference between
The server apparatus according to appendix 5.

(付記7)
前記第2の時刻情報及び前記第2の位置情報に基づき、前記サーバ装置が管理する1又は複数の画像をグループ分けする分類部
をさらに有し、
前記選択部は、
前記分類部によるグループ分けの結果に基づき、前記条件を満たす画像と同じグループに属する画像をさらに選択する、
付記6記載のサーバ装置。
(Appendix 7)
The image processing apparatus further includes a classification unit that groups one or more images managed by the server device based on the second time information and the second position information.
The selection unit is
The image processing apparatus further selects an image belonging to the same group as the image satisfying the condition based on the grouping result by the classification unit.
The server apparatus according to appendix 6.

(付記8)
前記選択部は、
前記1又は複数の画像の各々が属するグループを示す分類情報を、前記1又は複数の画像を生成した携帯端末装置である第2の携帯端末装置から受信した場合、受信した前記分類情報に基づき、前記条件を満たす画像と同じグループに属する画像をさらに選択する、
付記6記載のサーバ装置。
(Supplementary Note 8)
The selection unit is
When classification information indicating a group to which each of the one or more images belongs is received from a second portable terminal device that is a portable terminal device that has generated the one or more images, based on the received classification information, Further selecting an image belonging to the same group as the image satisfying the condition;
The server apparatus according to appendix 6.

(付記9)
前記分類情報と、前記第2の時刻情報及び前記第2の位置情報とに基づき、同じグループに属する1又は複数の画像を1又は複数のサブグループに分類するグループ分けを行う分類部
をさらに有し、
前記選択部は、
前記分類部による前記グループ分けの結果に基づき、前記条件を満たす画像と同じサブグループに属する画像をさらに選択する、
付記8記載のサーバ装置。
(Appendix 9)
There is further provided a classification unit for classifying one or more images belonging to the same group into one or more subgroups based on the classification information, the second time information and the second position information. And
The selection unit is
Further selecting an image belonging to the same subgroup as the image satisfying the condition based on the grouping result by the classification unit;
The server apparatus according to appendix 8.

(付記10)
前記選択部は、
選択された前記画像の識別情報と前記携帯端末装置の識別情報とを対応付けて保存する、
付記5乃至9のいずれか1つ記載のサーバ装置。
(Supplementary Note 10)
The selection unit is
Storing identification information of the selected image and identification information of the portable terminal device in association with each other;
The server apparatus according to any one of appendices 5 to 9.

(付記11)
記憶装置に記憶された、時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続されたサーバ装置に送信し、
前記サーバ装置が管理する1又は複数の画像のうち、送信した前記第1の時刻情報及び前記第1の位置情報と、画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報との比較に基づき選択された画像を、前記サーバ装置から受信する、
処理を前記携帯端末装置が実行する画像共有制御方法。
(Supplementary Note 11)
Transmitting, to the server apparatus connected via the network, the first time information indicating the time and the first position information indicating the position of the portable terminal device at the time stored in the storage device;
Among the one or more images managed by the server device, the transmitted first time information and the first position information, and second time information indicating the time when the image was generated, and the image are generated. Receiving an image selected from the server device based on comparison with second position information indicating a different position;
The image sharing control method which the said portable terminal device performs a process.

(付記12)
時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続された携帯端末装置から受信し、
受信した前記第1の時刻情報及び前記第1の位置情報と、画像毎に当該画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の時刻情報を記憶部に記憶された前記第2の時刻情報及び前記第2の位置情報との比較に基づき、サーバ装置が管理する1又は複数の画像のうち前記携帯端末装置に送信する画像を選択し、
選択された前記画像を、前記携帯端末装置に送信する、
処理を前記サーバ装置実行する画像共有制御方法。
(Supplementary Note 12)
Receiving first time information indicating time and first position information indicating the position of the portable terminal device at the time from the portable terminal device connected via the network;
The received first time information and the first position information, the second time information indicating the time when the image is generated for each image, and the second time information indicating the position where the image is generated The image to be transmitted to the portable terminal device is selected from the one or a plurality of images managed by the server device based on the comparison with the second time information and the second position information stored in the storage unit,
Transmitting the selected image to the mobile terminal device;
An image sharing control method of executing the processing on the server device.

(付記13)
記憶装置に記憶された、時刻を示す第1の時刻情報及び当該時刻における携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続されたサーバ装置に送信し、
前記サーバ装置が管理する1又は複数の画像のうち、送信した前記第1の時刻情報及び前記第1の位置情報と、画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報との比較に基づき選択された画像を、前記サーバ装置から受信する、
処理を前記携帯端末装置のプロセッサに実行させる画像共有制御プログラム。
(Supplementary Note 13)
Transmitting, to the server apparatus connected via the network, the first time information indicating the time and the first position information indicating the position of the portable terminal device at the time stored in the storage device;
Among the one or more images managed by the server device, the transmitted first time information and the first position information, and second time information indicating the time when the image was generated, and the image are generated. Receiving an image selected from the server device based on comparison with second position information indicating a different position;
An image sharing control program that causes a processor of the mobile terminal device to execute processing.

(付記14)
時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報を、ネットワークを介して接続された携帯端末装置から受信し、
受信した前記第1の時刻情報及び前記第1の位置情報と、画像毎に当該画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の時刻情報を記憶部に記憶された前記第2の時刻情報及び前記第2の位置情報との比較に基づき、サーバ装置が管理する1又は複数の画像のうち前記携帯端末装置に送信する画像を選択し、
選択された前記画像を、前記携帯端末装置に送信する、
処理を前記サーバ装置のプロセッサに実行させる画像共有制御プログラム。
(Supplementary Note 14)
Receiving first time information indicating time and first position information indicating the position of the portable terminal device at the time from the portable terminal device connected via the network;
The received first time information and the first position information, the second time information indicating the time when the image is generated for each image, and the second time information indicating the position where the image is generated The image to be transmitted to the portable terminal device is selected from the one or a plurality of images managed by the server device based on the comparison with the second time information and the second position information stored in the storage unit,
Transmitting the selected image to the mobile terminal device;
An image sharing control program that causes a processor of the server apparatus to execute a process.

1 クラウドサーバ 101 通信部
103 管理部 105 分類部
107 画像データ格納部 109 端末データ格納部
10 ネットワーク A,B 携帯端末
301 アプリケーションプロセッサ 303 メモリ
305 カメラ 307 表示部
309 操作入力部 311 外部記憶装置
313 ベースバンドプロセッサ 315 無線通信部
317 位置データ取得部 319,321 アンテナ
351 管理部 353 設定データ格納部
355 端末データ格納部 357 画像データ格納部
DESCRIPTION OF SYMBOLS 1 cloud server 101 communication unit 103 management unit 105 classification unit 107 image data storage unit 109 terminal data storage unit 10 network A, B portable terminal 301 application processor 303 memory 305 camera 307 display unit 309 operation input unit 311 external storage device 313 baseband Processor 315 wireless communication unit 317 position data acquisition unit 319, 321 antenna 351 management unit 353 setting data storage unit 355 terminal data storage unit 357 image data storage unit

Claims (4)

サーバ装置であって、
携帯端末装置が定期的に取得して蓄積した時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報の組を、ネットワークを介して接続された前記携帯端末装置から受信する受信部と、
画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報の組を画像毎に記憶する記憶部と、
受信した前記第1の時刻情報及び前記第1の位置情報の組と前記記憶部に記憶された前記第2の時刻情報及び前記第2の位置情報の組との比較に基づき、前記サーバ装置が管理する1又は複数の画像のうち前記携帯端末装置に送信する画像を選択する選択部と、
前記選択部により選択された前記画像を、前記携帯端末装置に送信する送信部と、
前記第2の時刻情報及び前記第2の位置情報に基づき、前記サーバ装置が管理する1又は複数の画像をグループ分けする分類部と、を有し、
前記選択部は、
前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との間の距離が所定距離以内であり且つ前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像を選択し、
前記1又は複数の画像の各々が属するグループを示す分類情報を、前記1又は複数の画像を生成した携帯端末装置である第2の携帯端末装置から受信した場合、受信した前記分類情報に基づき、前記条件を満たす画像と同じグループに属する画像をさらに選択する、
サーバ装置。
A server device,
The mobile phone connected via a network with a set of first time information indicating time that the mobile terminal device has acquired and accumulated periodically and first position information indicating the position of the mobile terminal device at the time A receiving unit that receives from the terminal device;
A storage unit that stores, for each image, a pair of second time information indicating a time when an image is generated and second position information indicating a position where the image is generated;
The server device compares the set of the received first time information and the first position information with the set of the second time information and the second position information stored in the storage unit. A selection unit that selects an image to be transmitted to the mobile terminal device among the one or more images to be managed;
A transmitting unit that transmits the image selected by the selecting unit to the mobile terminal device;
And a classification unit that groups one or more images managed by the server device based on the second time information and the second position information,
The selection unit is
The distance between the position indicated by the first position information and the position indicated by the second position information is within a predetermined distance, and the time indicated by the first time information and the time indicated by the second time information Select an image that satisfies the condition that the difference between
When classification information indicating a group to which each of the one or more images belongs is received from a second portable terminal device that is a portable terminal device that has generated the one or more images, based on the received classification information, Further selecting an image belonging to the same group as the image satisfying the condition;
Server device.
前記分類情報と、前記第2の時刻情報及び前記第2の位置情報とに基づき、同じグループに属する1又は複数の画像を1又は複数のサブグループに分類するグループ分けを行う分類部
をさらに有し、
前記選択部は、
前記分類部による前記グループ分けの結果に基づき、前記条件を満たす画像と同じサブグループに属する画像をさらに選択する、
請求項記載のサーバ装置。
There is further provided a classification unit for classifying one or more images belonging to the same group into one or more subgroups based on the classification information, the second time information and the second position information. And
The selection unit is
Further selecting an image belonging to the same subgroup as the image satisfying the condition based on the grouping result by the classification unit;
The server apparatus according to claim 1 .
携帯端末装置が定期的に取得して蓄積した時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報の組を、ネットワークを介して接続された前記携帯端末装置から受信し、
受信した前記第1の時刻情報及び前記第1の位置情報の組と、画像毎に当該画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報の組との比較に基づき、サーバ装置が管理する1又は複数の画像のうち前記携帯端末装置に送信する画像を選択し、
選択された前記画像を、前記携帯端末装置に送信する、処理を前記サーバ装置が実行し、
前記選択する処理は、
前記第2の時刻情報及び前記第2の位置情報に基づき、前記サーバ装置が管理する1又は複数の画像をグループ分けし、
前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との間の距離が所定距離以内であり且つ前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像を選択し、
前記1又は複数の画像の各々が属するグループを示す分類情報を、前記1又は複数の画像を生成した携帯端末装置である第2の携帯端末装置から受信した場合、受信した前記分類情報に基づき、前記条件を満たす画像と同じグループに属する画像をさらに選択する、処理を含む、
画像共有制御方法。
The mobile phone connected via a network with a set of first time information indicating time that the mobile terminal device has acquired and accumulated periodically and first position information indicating the position of the mobile terminal device at the time Received from the terminal,
A second set of the received first time information and the first position information, a second time information indicating the time when the image is generated for each image, and a second position indicating the position where the image is generated The image to be transmitted to the portable terminal device is selected from the one or more images managed by the server device based on the comparison with the information set,
The server device executes a process of transmitting the selected image to the mobile terminal device ;
The process to select is
Grouping one or more images managed by the server device based on the second time information and the second position information;
The distance between the position indicated by the first position information and the position indicated by the second position information is within a predetermined distance, and the time indicated by the first time information and the time indicated by the second time information Select an image that satisfies the condition that the difference between
When classification information indicating a group to which each of the one or more images belongs is received from a second portable terminal device that is a portable terminal device that has generated the one or more images, based on the received classification information, Further selecting an image belonging to the same group as the image satisfying the condition;
Image sharing control method.
携帯端末装置が定期的に取得して蓄積した時刻を示す第1の時刻情報及び当該時刻における前記携帯端末装置の位置を示す第1の位置情報の組を、ネットワークを介して接続された前記携帯端末装置から受信し、
受信した前記第1の時刻情報及び前記第1の位置情報と、画像毎に当該画像が生成された時刻を示す第2の時刻情報及び当該画像が生成された位置を示す第2の位置情報の組との比較に基づき、サーバ装置が管理する1又は複数の画像のうち前記携帯端末装置に送信する画像を選択し、
選択された前記画像を、前記携帯端末装置に送信する、処理を前記サーバ装置のプロセッサに実行させ、
前記選択する処理は、
前記第2の時刻情報及び前記第2の位置情報に基づき、前記サーバ装置が管理する1又は複数の画像をグループ分けし、
前記第1の位置情報が示す位置と前記第2の位置情報が示す位置との間の距離が所定距離以内であり且つ前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻との差が所定時間以内であるという条件を満たす画像を選択し、
前記1又は複数の画像の各々が属するグループを示す分類情報を、前記1又は複数の画像を生成した携帯端末装置である第2の携帯端末装置から受信した場合、受信した前記分類情報に基づき、前記条件を満たす画像と同じグループに属する画像をさらに選択する、処理を含む、
画像共有制御プログラム。
The mobile phone connected via a network with a set of first time information indicating time that the mobile terminal device has acquired and accumulated periodically and first position information indicating the position of the mobile terminal device at the time Received from the terminal,
The first time information and the first position information received, second time information indicating the time when the image is generated for each image, and second position information indicating the position where the image is generated The image to be transmitted to the mobile terminal device is selected from the one or more images managed by the server device based on the comparison with the set,
Causing the processor of the server device to execute processing for transmitting the selected image to the mobile terminal device ;
The process to select is
Grouping one or more images managed by the server device based on the second time information and the second position information;
The distance between the position indicated by the first position information and the position indicated by the second position information is within a predetermined distance, and the time indicated by the first time information and the time indicated by the second time information Select an image that satisfies the condition that the difference between
When classification information indicating a group to which each of the one or more images belongs is received from a second portable terminal device that is a portable terminal device that has generated the one or more images, based on the received classification information, Further selecting an image belonging to the same group as the image satisfying the condition;
Image sharing control program.
JP2015041576A 2015-03-03 2015-03-03 Server apparatus, image sharing control method, and image sharing control program Active JP6520222B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015041576A JP6520222B2 (en) 2015-03-03 2015-03-03 Server apparatus, image sharing control method, and image sharing control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041576A JP6520222B2 (en) 2015-03-03 2015-03-03 Server apparatus, image sharing control method, and image sharing control program

Publications (2)

Publication Number Publication Date
JP2016162295A JP2016162295A (en) 2016-09-05
JP6520222B2 true JP6520222B2 (en) 2019-05-29

Family

ID=56847071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041576A Active JP6520222B2 (en) 2015-03-03 2015-03-03 Server apparatus, image sharing control method, and image sharing control program

Country Status (1)

Country Link
JP (1) JP6520222B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107277117A (en) * 2017-05-27 2017-10-20 广东欧珀移动通信有限公司 Image synchronization method, device, server, storage medium and terminal
JP7059540B2 (en) * 2017-09-08 2022-04-26 大日本印刷株式会社 Image management server, image management method, and program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183742A (en) * 2000-12-18 2002-06-28 Yamaha Motor Co Ltd Preparation method and device for electronic album of trip and mobile tool for preparing electronic album
JP4829762B2 (en) * 2006-12-06 2011-12-07 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP5045413B2 (en) * 2007-12-13 2012-10-10 日本電気株式会社 Photo output system
JP4913232B2 (en) * 2009-06-18 2012-04-11 パナソニック株式会社 Image selection apparatus and image selection method
JP4981875B2 (en) * 2009-11-13 2012-07-25 株式会社エヌ・ティ・ティ・ドコモ Accompanying determination device and accompanying determination method
JP5603763B2 (en) * 2010-12-21 2014-10-08 パナソニック株式会社 Location history authentication system, server device, and program
JP2012247840A (en) * 2011-05-25 2012-12-13 Sony Corp Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
JP2012247841A (en) * 2011-05-25 2012-12-13 Sony Corp Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
JP2013105422A (en) * 2011-11-16 2013-05-30 Sony Corp Terminal device, information processing method, program, and storage medium
JP5743017B2 (en) * 2014-10-30 2015-07-01 富士ゼロックス株式会社 Image management apparatus and program

Also Published As

Publication number Publication date
JP2016162295A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
US10038852B2 (en) Image generation method and apparatus having location information-based geo-sticker
US10637953B2 (en) Apparatus, system and method for cache management
JP2014531627A (en) Zero-click photo upload
JP2007325096A (en) Imaging apparatus with communication function, control method thereof, and program
JP5901160B2 (en) Image delivery apparatus and control method thereof, image transmission apparatus and control method thereof, and program
JP6832098B2 (en) Equipment, computer programs and methods
JP5605891B1 (en) Information processing apparatus, information processing method, program, and recording medium
US9510129B2 (en) Character hitchhike information processing device, character hitchhike information processing system, and computer readable medium
KR20140131377A (en) Method, device, and system for ad-hoc resource selection
KR102121327B1 (en) Image acquisition method, controlled device and server
KR101519716B1 (en) Method and system for sharing photo between mobile terminal
JP6520222B2 (en) Server apparatus, image sharing control method, and image sharing control program
JP5728167B2 (en) Information processing apparatus, control method therefor, and computer program
JP2017120487A (en) Information processing device, system and control method and program thereof
WO2015101991A1 (en) Method for providing on-demand digital representations to mobile devices in other geographic locations
JP6999920B2 (en) Image processing system and image processing equipment
KR101339375B1 (en) Method for registering of lectures by using relay server, and system thereof
JP5469468B2 (en) Imaging apparatus, imaging method, and image data sharing system
KR20210090920A (en) Method and Apparatus for Creating and Retrieving CCTV Images
JP2014238720A (en) Information processing system, information processing method, information processing apparatus, and program
US11695705B2 (en) Resource management apparatus, resource management system, and resource management method
JP5979205B2 (en) Information processing apparatus and camera
JP2015053572A (en) Image management system
KR20140116368A (en) Method for providing mobile photobook service based on online
JP2016036105A (en) Information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180410

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6520222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533