JP5082005B2 - Imaging data processing device - Google Patents

Imaging data processing device Download PDF

Info

Publication number
JP5082005B2
JP5082005B2 JP2011208651A JP2011208651A JP5082005B2 JP 5082005 B2 JP5082005 B2 JP 5082005B2 JP 2011208651 A JP2011208651 A JP 2011208651A JP 2011208651 A JP2011208651 A JP 2011208651A JP 5082005 B2 JP5082005 B2 JP 5082005B2
Authority
JP
Japan
Prior art keywords
information
processing
data
frame
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011208651A
Other languages
Japanese (ja)
Other versions
JP2012034397A (en
Inventor
秀和 仲原
兼二 橋本
Original Assignee
株式会社日本ビジネスエンジニアリング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日本ビジネスエンジニアリング filed Critical 株式会社日本ビジネスエンジニアリング
Priority to JP2011208651A priority Critical patent/JP5082005B2/en
Publication of JP2012034397A publication Critical patent/JP2012034397A/en
Application granted granted Critical
Publication of JP5082005B2 publication Critical patent/JP5082005B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、静止画若しくは動画を撮影可能な情報処理装置に関し、特にGPS等の自己位置取得手段を備える静止画若しくは動画を撮影可能な撮像データ加工装置等に関する。   The present invention relates to an information processing apparatus capable of capturing a still image or a moving image, and more particularly to an imaging data processing apparatus capable of capturing a still image or a moving image including a self-position acquisition unit such as GPS.

静止画若しくは動画を撮影可能な情報処理装置(例えばカメラ・ビデオカメラ・携帯電話など)では、GPS等の自己位置取得手段を備えるものも存在している。これにより、単に写真や動画を撮るというだけではなく、位置情報を用いた新しい利用方法やサービスの提供が考えられ始めている。   Some information processing apparatuses (for example, a camera, a video camera, and a mobile phone) that can capture a still image or a moving image include a self-position acquisition unit such as a GPS. As a result, it has begun to be considered to provide new usage methods and services using location information, rather than simply taking pictures and videos.

このようなものに関する従来技術が特許文献1などによって開示されている。特許文献1で開示される従来技術は、目印となる画像にメッセージを残しておき、当該目印を撮影した場合にこれに対応するメッセージを入手できるものである。具体例を簡略化して説明すると、メッセージを残したい者がハチ公像の写真を撮るとGPSによってその位置の緯度経度情報が取得され、当該位置情報と画像(ハチ公像)と入力したメッセージとを対応付けてサーバに送信しておく。次に、メッセージを読みたい者がハチ公像の写真を撮ると、GPSによってその位置の緯度経度情報が取得され、当該位置情報と画像(ハチ公像)とをサーバに送信し、サーバにおいて位置情報と画像(ハチ公像)に対応するメッセージを検索しこれを返信することで、メッセージを読みたい者がメッセージを取得できるものである。即ち、位置をより詳細に特定するために“写真(画像)”が用いられているものである(GPSによる緯度経度情報に加え、“写真(画像)”によりメッセージが残されている位置を特定しているものであり、画像撮影手段も位置を特定するための手段として機能しているものである)。   The prior art regarding such a thing is disclosed by patent document 1 etc. The prior art disclosed in Patent Document 1 can leave a message in an image serving as a mark and obtain a message corresponding to the mark when the mark is photographed. When a person who wants to leave a message takes a picture of a bee image, the latitude and longitude information of the position is acquired by GPS, and the position information corresponds to the input message (image). And send it to the server. Next, when a person who wants to read the message takes a picture of the bee image, the latitude and longitude information of the position is acquired by GPS, and the position information and the image (the bee image) are transmitted to the server. A person who wants to read the message can acquire the message by searching for a message corresponding to the image (Hachiko) and returning the message. That is, “photograph (image)” is used to specify the location in more detail (in addition to the latitude and longitude information by GPS, the location where the message is left is specified by “photograph (image)” The image photographing means also functions as a means for specifying the position).

特開2002−41526号公報JP 2002-41526 A

本発明は、GPS等の自己位置取得手段を備える静止画若しくは動画を撮影可能な情報処理装置において新たな利用方法を提供することができる撮像データ加工装置等を提供すること、又は、新たなサービス方法を提供することを目的とする。   The present invention provides an imaging data processing apparatus or the like that can provide a new usage method in an information processing apparatus capable of capturing a still image or a moving image including self-position acquisition means such as GPS, or a new service It aims to provide a method.

本発明に係る撮像データ加工装置は、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な撮像データ加工装置であって、表示部と、制御部と、記憶部と、自己位置取得部と、を備え、前記記憶部に若しくは前記撮像データ加工装置に対して着脱可能な記憶媒体に、位置情報と加工データとを対応付けて格納しておくことにより、前記画像撮影手段による撮影によって得られる撮像データに対して、前記自己位置取得部によって取得される自己位置情報に対応する前記加工データを用いた加工処理を実行するものであり、前記加工データは、対応付けられた位置での過去の写真を加工データとして記憶しているものであり、当該加工データの取得条件が取得条件テーブルに設定されており、当該取得条件としては、所定の地域を限定して加工データを取得するように管理する地域限定に関する取得条件(以降、「地域限定条件」とする)が設定されているものであり、前記撮像データ加工装置によって、前記地域限定条件で設定された前記所定の地域内に被写体の位置を算出した場合には、当該被写体位置情報に対応する前記加工データとしての過去の写真の表示処理を実行することを特徴とする。 An imaging data processing apparatus according to the present invention is an imaging data processing apparatus that can capture a still image or a moving image by including an image capturing unit, and includes a display unit, a control unit, a storage unit, and a self-position acquisition unit. And the positional information and the processed data are stored in association with each other in the storage unit or in a storage medium that is detachable from the imaging data processing device. The imaging data is subjected to processing using the processing data corresponding to the self-position information acquired by the self-position acquisition unit, and the processing data is stored in the past at the corresponding position. The photograph is stored as processed data, and the acquisition conditions for the processed data are set in the acquisition condition table. Acquisition conditions (hereinafter referred to as "regional conditions") regarding regional managing as constant to acquire the processed data are those that are set by the image pickup data processing apparatus, set by the regional conditions when calculating the position of the subject is to be the predetermined area, and executes a display process of the past pictures as the processing data corresponding to the object position information.

上記構成によれば、位置情報と加工データとが対応付けられて管理され、これに基づいて撮像データ加工装置によって取得される“自己位置”に対応する加工データが取得され、更に自己位置情報と地域限定条件とに基づいて加工データの取得条件設定され、前記地域限定条件で設定された前記所定の地域内に被写体の位置を算出した場合、当該位置情報に対応する加工データを用いて撮像データに対する加工処理が実行される。当該加工データを利用して撮像データ加工装置によって撮影された撮像データに対する加工処理が行われる。なお、“加工データ”は“撮像データ”に対する何らかの加工処理を行うための情報であり、例えば、写真などに重畳させる画像のデータや、“撮像データ”に音声などを付加させる音声データや、“撮像データ”が再生(画面表示など)される際に当該再生を実行する装置に備えられる駆動部分を駆動させるための情報などである。 According to the above configuration, positional information and processing data are managed in association with each other, processing data corresponding to “self-position” acquired by the imaging data processing apparatus is acquired based on the positional information and processing data, and further, self-position information and When processing data acquisition conditions are set based on the region-limited conditions and the position of the subject is calculated within the predetermined region set by the region-limited conditions, imaging is performed using the processing data corresponding to the position information. Processing for the data is executed. A processing process is performed on the image data captured by the image data processing apparatus using the processed data . Na you, "processed data" is information for performing some processing for "imaging data", for example, and audio data for adding voice data or image, the "imaging data" to be superimposed like a photograph, This is information for driving a drive portion provided in an apparatus that executes the reproduction when “imaging data” is reproduced (screen display or the like).

本発明に係る撮像データ加工装置は、前記加工データを取得する前記地域限定条件としての所定の地域は、地図座標を持った図形であることを特徴とする。 The imaging data processing apparatus according to the present invention is characterized in that the predetermined area as the area limiting condition for acquiring the processed data is a figure having map coordinates .

上記構成によれば、地域限定条件は、1つの地図座標乃至複数の地図座標からなる線分又は平面図形又は立体図形によって構成されるAccording to the above configuration, the area limiting condition is configured by a line segment, a plane figure, or a three-dimensional figure composed of one map coordinate or a plurality of map coordinates .

本発明に係る撮像データ加工装置は、前記加工データの取得条件である地域限定条件により取得した加工データとしての過去の写真を、実際に撮影した写真と並べて前記表示部に画像生成することを特徴とする。 Imaging data processing apparatus according to the present invention, the past pictures of the previous SL Work piece data acquired by regional condition is acquired condition data, to actually image generated on the display unit side by side with the captured photo Features.

上記構成によれば、被写体の位置が地域限定条件によって所定の地域内であると判別された場合、当該地域限定条件により取得された加工データを、撮像データと並べて画像生成するAccording to the above configuration, when it is determined that the position of the subject is within a predetermined area based on the area limitation condition, the processed data acquired based on the area limitation condition is generated along with the imaging data .

本発明に係る撮像データ加工装置は、前記加工データがテキストデータであることを特徴とする。 Imaging data processing apparatus according to the present invention is characterized in that it is a pre-Symbol processed data Gath text data.

上記構成によれば、撮像データ加工装置の表示部に、撮像データに文字列を重畳させた加工処理後の画像が表示されることとなる。 According to the above configuration, the display unit of an imaging data processing apparatus, so that the image after the processing overlapped with the character string in the imaging data is displayed.

本発明に係る撮像データ加工装置によれば、例えば、GPS等を利用した自己位置取得手段を備えるデジタルカメラや携帯電話等(撮像データ加工装置)において、現在の位置(自己位置情報)に対応する過去の写真(加工データ)を取得し、撮影した写真(撮像データ)と過去の写真を並べて表示するというような使い方ができる。よって、GPS等の自己位置取得手段を備える静止画若しくは動画を撮影可能な情報処理装置において新たな利用方法を提供することができる。 According to the imaging data processing apparatus according to the present invention, for example, in a digital camera or a mobile phone (imaging data processing apparatus) provided with a self-position acquisition means using GPS or the like, it corresponds to the current position (self-position information). It can be used such as acquiring past photographs (processed data) and displaying the photographed photographs (imaging data) and past photographs side by side . Therefore, it is possible to provide a new usage method in an information processing apparatus that can capture a still image or a moving image including self-position acquisition means such as GPS.

本発明に係る撮像データ加工装置によれば、位置情報と加工データとの対応付けに基づく加工データの取得に加えて、加工データ特定情報として「地域限定条件」が設定されており、これと加工データとの対応付けに基づく加工データの取得が行われ、当該取得した加工データを利用して撮像データ加工装置によって撮影された撮像データに対する加工処理が行われる According to the imaging data processing apparatus according to the present invention, in addition to the acquisition of the processed data based on the correspondence between the position information and the processed data, and the processing data identification information is set with a "regional conditions", which The processing data is acquired based on the association between the processing data and the processing data, and processing processing is performed on the imaging data captured by the imaging data processing apparatus using the acquired processing data .

撮像データ加工システムの構成の概略を示すブロック図Block diagram showing outline of configuration of imaging data processing system 端末装置においてアプリを最初に起動した場合の初期設定に関する処理動作の概略を示したフローチャートA flowchart showing an outline of processing operations related to initial settings when an application is first activated in a terminal device 初期設定要求を受信したサービス提供サーバにおける処理動作の概略を示したフローチャートFlow chart showing an outline of processing operation in the service providing server that has received the initial setting request 「フレーム画像取得処理」の処理動作の概略を示したフローチャートFlow chart showing an outline of the processing operation of “frame image acquisition processing” 「取得条件設定処理」の処理動作の概略を示したフローチャートFlow chart showing the outline of the processing operation of "acquisition condition setting process" 端末装置における本発明に関する処理動作の概略を示したフローチャートA flowchart showing an outline of processing operations related to the present invention in a terminal device 「台紙(フレーム選択画面)表示処理」の処理動作の概略を示したフローチャートFlow chart showing the outline of the processing operation of “mounting (frame selection screen) display processing” 「フレーム撮影処理」の処理動作の概略を示したフローチャートFlowchart showing the outline of the processing operation of “frame shooting processing” 「パラメタ取得処理」の処理動作の概略を示したフローチャートFlow chart showing the outline of the processing operation of "parameter acquisition processing" サービス提供サーバにおける「フレーム取得処理」の処理動作の概略を示したフローチャートFlow chart showing the outline of the processing operation of “frame acquisition processing” in the service providing server 「取得条件(地域)適合性判別処理」の処理動作の概略を示したフローチャートFlow chart showing the outline of the processing operation of "Acquisition condition (region) suitability determination processing" 「取得条件(時間)適合性判別処理」の処理動作の概略を示したフローチャートFlow chart showing an outline of the processing operation of "acquisition condition (time) suitability determination processing" 台紙変更要求を受信したサービス提供サーバにおける処理動作の概略を示したフローチャートA flowchart showing an outline of processing operations in the service providing server that has received the mount change request 撮像データ加工システムが備えるテーブル構成の概略を示す図:(a)フレーム台紙テーブル、(b)メニューアイコンテーブルThe figure which shows the outline of the table structure with which an imaging data processing system is provided: (a) Frame mount table, (b) Menu icon table 撮像データ加工システムが備えるテーブル構成の概略を示す図:(a)フレーム画像属性テーブル、(b)端末対応フレーム画像テーブルThe figure which shows the outline of the table structure with which an imaging data processing system is provided: (a) Frame image attribute table, (b) Terminal corresponding | compatible frame image table 撮像データ加工システムが備えるテーブル構成の概略を示す図:(a)取得条件(地域限定)テーブル、(b)取得条件(時間限定)テーブルThe figure which shows the outline of the table structure with which an imaging data processing system is provided: (a) Acquisition condition (area limitation) table, (b) Acquisition condition (time limitation) table 撮像データ加工システムが備えるテーブル構成の概略を示す図:(a)取得条件(解除コード)テーブル、(b)取得条件(順番限定)テーブルThe figure which shows the outline of the table structure with which an imaging data processing system is provided: (a) Acquisition condition (cancellation code) table, (b) Acquisition condition (order limitation) table 撮像データ加工システムが備えるテーブル構成の概略を示す図:(a)取得条件(数量コード)テーブル、(b)ユーザデータ管理テーブルThe figure which shows the outline of the table structure with which an imaging data processing system is provided: (a) Acquisition condition (quantity code) table, (b) User data management table 撮像データ加工システムが備えるテーブル構成の概略を示す図:(a)カレントフレーム台紙テーブル、(b)カレントメニューアイコンテーブルThe figure which shows the outline of the table structure with which an imaging data processing system is provided: (a) Current frame mount table, (b) Current menu icon table 撮像データ加工システムが備える保持フレーム画像属性テーブル構成の概略を示す図The figure which shows the outline of a holding | maintenance frame image attribute table structure with which an imaging data processing system is provided. 端末装置における表示画面の一例を示す図The figure which shows an example of the display screen in a terminal device 端末装置における別の表示画面の一例を示す図The figure which shows an example of another display screen in a terminal device 端末装置における別の表示画面の一例を示す図The figure which shows an example of another display screen in a terminal device 端末装置における別の表示画面の一例を示す図The figure which shows an example of another display screen in a terminal device 端末装置における別の表示画面の一例を示す図The figure which shows an example of another display screen in a terminal device 端末装置における別の表示画面の一例を示す図The figure which shows an example of another display screen in a terminal device

以下、本発明の具体的実施例について、図面を参照しながら説明する。なお、以下の実施態様は、本発明を具体化する際の一形態であって、本発明をその範囲内に限定するためのものではない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following embodiment is one form when the present invention is embodied, and is not intended to limit the present invention within the scope thereof.

図1は本実施例の撮像データ加工システムの構成の概略を示すブロック図である。本発明に係る撮像データ加工システムは、写真(動画であってもよい)を撮影可能であって、且つGPS等により自己の位置を検出することができる情報処理装置に対し、その写真撮影時において自己位置に応じた写真の加工サービス(写真にフレームを付加する等)を提供するためのものである。例えば、海岸で写真を撮った場合には海にちなんだフレームを写真に重畳し、山で写真を撮った場合には山にちなんだフレームを写真に重畳するようなものである。   FIG. 1 is a block diagram showing an outline of the configuration of the imaging data processing system of this embodiment. The imaging data processing system according to the present invention is capable of taking a photograph (may be a moving image) and is capable of detecting its own position by GPS or the like at the time of taking the photograph. This is to provide a photo processing service (such as adding a frame to the photo) according to the self-location. For example, when a photograph is taken at the beach, a frame named after the sea is superimposed on the photograph, and when a photograph is taken at the mountain, a frame named after the mountain is superimposed on the photograph.

図1に示されるように本実施例の撮像データ加工システムは、カメラ撮影及びGPS測位可能な端末装置1(例えば携帯電話)と、サービス提供サーバ3と、コンテンツ提供サーバ4とを有し、ネットワーク2によって接続される。なお、何れの構成要素も1つではなく複数存在するものであってよい。   As shown in FIG. 1, the imaging data processing system of the present embodiment includes a terminal device 1 (for example, a mobile phone) capable of camera photography and GPS positioning, a service providing server 3, and a content providing server 4. 2 are connected. Note that there may be a plurality of constituent elements instead of one.

端末装置1は、装置全体の制御やデータの入出力、各種演算処理、データの一時的な格納などを行う制御部110と、静止画若しくは動画を撮影可能とするカメラ部120と、各種のデータやプログラムなどが格納される記憶部130と、ネットワーク2への情報の送受信を行う通信部140と、GPS(GLOBAL Positioning System)衛星からの信号を受信するGPS受信部150と、入力インターフェースである入力部160と、モニタである表示部170と、等を備える。   The terminal device 1 includes a control unit 110 that controls the entire device, data input / output, various arithmetic processes, temporary storage of data, a camera unit 120 that can capture still images or moving images, and various data. , A storage unit 130 that stores programs and the like, a communication unit 140 that transmits and receives information to and from the network 2, a GPS reception unit 150 that receives signals from a GPS (GLOBAL Positioning System) satellite, and an input that is an input interface A display unit 170, a display unit 170 as a monitor, and the like.

サービス提供サーバ3は、装置全体の制御やデータの入出力、各種演算処理、データの一時的な格納などを行う制御部310と、各種のデータやプログラムなどが格納される記憶部320と、入力インターフェースである入力部330と、モニタ等の出力部340と、ネットワーク2への情報の送受信を行う通信部350と、等を備える。   The service providing server 3 includes a control unit 310 that controls the entire apparatus, input / output of data, various arithmetic processes, temporary storage of data, a storage unit 320 that stores various data and programs, and an input An input unit 330 that is an interface, an output unit 340 such as a monitor, a communication unit 350 that transmits and receives information to and from the network 2, and the like.

サービス提供サーバ3の、記憶部320には、写真を加工するための加工データたるフレームデータが格納されるフレームDB322や、本サービスに関するアプリケーションソフトウェア(以下「アプリ」と略称する場合がある)を端末装置1上で実行させる際に画面を構成する部品となるアイコンやテキストに関するデータ等が格納される画面部品DB323や、フレームの取得条件(例えば、各フレームと位置情報の対応付け)などが対応付けられて格納されるテーブル321等が形成される。   The storage unit 320 of the service providing server 3 includes a frame DB 322 that stores frame data that is processed data for processing a photograph, and application software related to the service (hereinafter may be abbreviated as “app”) as a terminal. Corresponding to the screen component DB 323 storing data related to icons and text that are components constituting the screen when executed on the apparatus 1, frame acquisition conditions (for example, correspondence between each frame and position information), etc. A table 321 and the like are stored.

図14〜図18は、サービス提供サーバ3の記憶部320に格納されているテーブル321の構造の一例を示した図である。図14(a)のフレーム台紙テーブルと図14(b)のメニューアイコンテーブルは、主に端末装置1上でアプリを実行させる際の画面を構成させるための情報を定義するテーブルである。図15(a)のフレーム画像属性テーブルと図15(b)の端末対応フレーム画像テーブルは、主にフレームの属性などを定義するテーブルである。図16(a)〜図18(a)までの各種の取得条件テーブルは、フレームの取得条件に関する定義を行うテーブルである。図18(b)のユーザデータ管理テーブルは、ユーザ(端末装置1の使用者)に関するデータ(ユーザデータ)を管理するためのテーブルである。   14 to 18 are diagrams illustrating an example of the structure of the table 321 stored in the storage unit 320 of the service providing server 3. The frame mount table in FIG. 14A and the menu icon table in FIG. 14B are tables that define information for configuring a screen when an application is executed mainly on the terminal device 1. The frame image attribute table in FIG. 15A and the terminal-compatible frame image table in FIG. 15B are tables that mainly define frame attributes and the like. The various acquisition condition tables from FIG. 16A to FIG. 18A are tables for defining the frame acquisition conditions. The user data management table in FIG. 18B is a table for managing data (user data) related to users (users of the terminal device 1).

図19と図20は、端末装置1の記憶部130に格納されるテーブルの構成の一例を示した図である。以下で説明するが、当該各テーブルはアプリの初期設定時などにおいて、必要な情報をサービス提供サーバ3のテーブル321(図14〜図18)から取得することなどによって形成される。   19 and 20 are diagrams illustrating an example of a configuration of a table stored in the storage unit 130 of the terminal device 1. As will be described below, each table is formed by acquiring necessary information from the table 321 (FIGS. 14 to 18) of the service providing server 3 at the time of initial setting of the application.

なお、コンテンツ提供サーバ4は、写真を加工するための加工データたるフレームデータを提供するサーバである。即ち、フレームデータ自体はサービス提供サーバ3が持っているものに限らず(サービス提供サーバ3はフレームデータを持っていなくともよい)、コンテンツ提供サーバ4から取得して端末装置1へ配信するような場合もある(データのダウンロード自体はコンテンツ提供サーバ4から端末装置1に直接行われるものであっても構わない)。   The content providing server 4 is a server that provides frame data that is processed data for processing a photograph. That is, the frame data itself is not limited to what the service providing server 3 has (the service providing server 3 may not have the frame data), but is acquired from the content providing server 4 and distributed to the terminal device 1. In some cases (the data download itself may be performed directly from the content providing server 4 to the terminal device 1).

次に、以上の構成を有する撮像データ加工システムの処理動作の概略を図2〜図13のフローチャートを参照しつつ説明する。これらの各処理は基本的に記憶部に格納されているプログラムが制御部において実行されることで動作するものであり、制御部は必要に応じて記憶部にあるデータや通信部によってネットワーク2を介して送受信したデータ若しくはGPS受信部16によって受信した情報若しくは入力部13から得られるユーザの入力情報などを使用しながら、入力部13からの指示(ユーザの要求)若しくは端末装置からの要求に応じて各種データの演算処理を行い、必要に応じて演算結果を記憶部に格納する等しながら、結果を表示部に表示若しくは端末装置に応答として送信等するものである(端末装置とサーバの何れにおいても基本的には同様の概念)。なお、図21〜図26は端末装置1の表示部170に表示される画面例(表示画面の遷移を示す図)である。当該画面例についても各処理の説明の中で参照しつつ説明する。   Next, an outline of the processing operation of the imaging data processing system having the above configuration will be described with reference to the flowcharts of FIGS. Each of these processes basically operates when a program stored in the storage unit is executed in the control unit. The control unit uses the data in the storage unit or the communication unit to connect the network 2 as necessary. In response to an instruction (user request) from the input unit 13 or a request from the terminal device, using data transmitted / received via the interface, information received by the GPS receiving unit 16 or user input information obtained from the input unit 13 The processing of various data is performed, and the result is displayed on the display unit or transmitted as a response to the terminal device while storing the calculation result in the storage unit as necessary (any of the terminal device and the server). Is basically the same concept). FIGS. 21 to 26 are screen examples (showing transitions of display screens) displayed on the display unit 170 of the terminal device 1. The screen example will also be described with reference to the description of each process.

図2は、端末装置1において本実施例に関するアプリケーション(プログラム)を最初に起動する場合の初期設定に関するフローチャートである。   FIG. 2 is a flowchart regarding the initial setting when the application (program) according to the present embodiment is first activated in the terminal device 1.

本発明に関するアプリの起動があった際に、これが初回起動であった場合には(ステップ201)、アプリに含まれる「フレーム台紙ID」と端末装置1の端末識別情報(端末装置1の記憶部130に記録されている)とをサービス提供サーバ3へと送信する(ステップ202)。「フレーム台紙ID」とは、提供するサービス(本発明に関する写真の加工サービス)の種別や範囲を定めるようなものであり、例えば、提供されるサービスにはシリーズのようなものがあって、それぞれのシリーズに対して「フレーム台紙ID」が割り当てられるようなものである(請求項38の「サービス種別情報」に該当)。即ち、例えばAというキャラクターの一連のフレームデータと、Bというキャラクターの一連のフレームデータとに対してそれぞれ「フレーム台紙ID」が割り当てられるようなものとなる。本実施例では、各シリーズごとに対応するアプリ(例えばAキャラクターフレーム用のアプリなど)があって、これをユーザがダウンロードするようなものを想定しているため、アプリに予め含まれている「フレーム台紙ID」を自動的に送信するものとして説明しているが、アプリに複数の「フレーム台紙ID」が含まれていてこれをユーザに選択させてサーバに送信するものや、ユーザが別の手段(例えば雑誌などにおける紹介)によって知った「フレーム台紙ID」を直接入力させて送信するようなものであってもよい。   When the application related to the present invention is activated and this is the first activation (step 201), the “frame mount ID” included in the application and the terminal identification information of the terminal device 1 (the storage unit of the terminal device 1) Is recorded on the service providing server 3 (step 202). The “frame mount ID” is to determine the type and range of the service to be provided (photo processing service related to the present invention). For example, there are services such as series, The “frame mount ID” is assigned to this series (corresponding to “service type information” in claim 38). That is, for example, a “frame mount ID” is assigned to each of a series of frame data of a character A and a series of frame data of a character B. In this embodiment, there is an application corresponding to each series (for example, an application for A character frame), and the application is assumed to be downloaded by the user. Although it is described that the “frame mount ID” is automatically transmitted, a plurality of “frame mount IDs” are included in the application and the user selects this to transmit to the server. It may be such that the “frame mount ID” known by means (for example, introduction in a magazine or the like) is directly input and transmitted.

図3は、図2のステップ202によって送信された情報を受信したサービス提供サーバ3における処理動作の概略を示したフローチャートである。当該処理は端末装置1のアプリの動作に必要な初期設定を行うために必要な情報(サービス提供サーバ3が保持する情報)を収集して端末装置1へと送信するための処理である。   FIG. 3 is a flowchart showing an outline of the processing operation in the service providing server 3 that has received the information transmitted in step 202 of FIG. This process is a process for collecting and transmitting to the terminal device 1 information necessary for performing initial settings required for the operation of the application of the terminal device 1 (information held by the service providing server 3).

端末装置1から送信された「フレーム台紙ID」と「端末識別情報」を受信した際には(ステップ301)、当該「フレーム台紙ID」に対応するデータをフレーム台紙テーブル(図14(a))と、メニューアイコンテーブル(図14(b))とに基づいて取得する(ステップ302)。これらのテーブルは前述のごとく、主に端末装置1上でアプリを実行させる際の画面を構成させるための情報を定義するものであり、画面を構成させるための画像やテキストのある場所(パス)若しくは画像やテキストそのものが格納されている。テーブルにパスが格納されている場合には、当該パスに基づいて必要な情報(画像やテキスト)を画面部品DB323から取得する処理などが行われる。取得した情報は後に端末装置1へと送信するため、一時的に保持しておく(この後の各処理における情報取得においても同様である)。なお、取得した情報をその都度送信するものであっても構わない。ステップ302で取得された情報が端末装置1に送信されることで、端末装置1の記憶部130に格納されるテーブルである図19のカレントフレーム台紙テーブル(図a)と、カレントメニューアイコンテーブル(図b)に必要な情報が得られることとなる。   When the “frame mount ID” and the “terminal identification information” transmitted from the terminal device 1 are received (step 301), the data corresponding to the “frame mount ID” is stored in the frame mount table (FIG. 14A). And the menu icon table (FIG. 14B) (step 302). As described above, these tables mainly define information for configuring a screen when an application is executed on the terminal device 1, and a place (path) where an image or text for configuring the screen is present. Or the image and the text itself are stored. When a path is stored in the table, processing for obtaining necessary information (image and text) from the screen component DB 323 based on the path is performed. The acquired information is temporarily stored for later transmission to the terminal device 1 (the same applies to information acquisition in the subsequent processes). Note that the acquired information may be transmitted each time. When the information acquired in step 302 is transmitted to the terminal device 1, the current frame mount table (FIG. 19 a) in FIG. 19, which is a table stored in the storage unit 130 of the terminal device 1, and the current menu icon table ( Information necessary for FIG. B) is obtained.

ステップ302に続くループ処理は、端末装置1から受信した「フレーム台紙ID」に該当する全てのフレームに対してステップ303〜ステップ309の処理を実行させるものである。「フレーム台紙ID」は前述のごとく例えばAキャラクターに関するフレーム提供サービスを行わせるものであり、Aキャラクターを使用したフレームとして複数のフレームが存在し得ることとなる。即ち、ある「フレーム台紙ID」に対応するフレームが複数存在するものであり、これらの各フレームはフレームIDによって識別される。ステップ302に続くループ処理はフレーム台紙IDが同一である各フレームIDに対して実行されることとなる。これらの説明からもわかるように、図14のテーブルは「フレーム台紙ID」ごとに存在するものであり(例えば、Aキャラ用のテーブル、Bキャラ用のテーブル・・・)、図15〜図18の各テーブルは、フレームID(フレーム台紙ID及びフレームID)ごとに存在する(例えば、Aキャラ用の第1のフレーム用テーブル、第2のフレーム用テーブル・・・)こととなる。   The loop processing subsequent to step 302 is to execute the processing from step 303 to step 309 for all frames corresponding to the “frame mount ID” received from the terminal device 1. As described above, the “frame mount ID”, for example, allows a frame providing service related to the A character to be performed, and a plurality of frames can exist as frames using the A character. That is, there are a plurality of frames corresponding to a certain “frame mount ID”, and each of these frames is identified by the frame ID. The loop processing following step 302 is executed for each frame ID having the same frame mount ID. As can be understood from these descriptions, the table of FIG. 14 exists for each “frame mount ID” (for example, a table for A character, a table for B character,...), And FIGS. Each table exists for each frame ID (frame mount ID and frame ID) (for example, a first frame table for A character, a second frame table,...).

ステップ303では、フレーム台紙IDとフレームIDに該当するフレーム画像属性テーブル(図15(a))を参照して、対応する属性情報を取得する。当該取得処理によって端末装置1の記憶部130に格納されるテーブルである図20の保持フレーム画像属性テーブルに必要な、“説明文字列”と“保持可能フラグ”と“初期保持フラグ”と“取得方法文字列”の情報が得られることとなる。   In step 303, the attribute information corresponding to the frame mount ID and the frame image attribute table (FIG. 15A) corresponding to the frame ID is acquired. The “description character string”, “holdable flag”, “initial hold flag”, and “acquisition” necessary for the hold frame image attribute table of FIG. 20 which is a table stored in the storage unit 130 of the terminal device 1 by the acquisition process. Information on “method character string” is obtained.

続くステップ304では、フレーム画像属性テーブル(図15(a))を参照してサムネイル画像パスが設定されているか否か(換言すれば当該フレームのサムネイル画像があるか否か)を判別する。サムネイル画像パスが無かった場合にはステップ306へと移行して、フレーム台紙IDとフレームIDと端末識別情報(端末装置1から受信した情報)とに基づいて端末対応フレーム画像テーブル(図15(b))を参照して、フレーム画像を取得し(パスに基づいて画像を取得。当該取得処理は後に説明する図4の処理と同様のものとなる)、当該取得したフレーム画像に基づいてサムネイル画像を生成する処理を行う。一方、サムネイル画像パスがあった場合にはステップ305へ移行して対応する画像を取得する処理を実行する。当該ステップ304〜ステップ306の処理によって、フレーム台紙IDとフレームIDに該当するフレームのサムネイル画像が取得される(端末装置1の保持フレーム画像属性テーブル(図20)の“サムネイル画像”の情報となる)。なお、当該処理からも明らかなようにサムネイル画像自体は全てのフレームに対応して取得されることとなるが、取得制限や保持制限をかけるフレームについてはそのフレーム画像自体に基づいてサムネイル画像を生成する(フレームの図柄そのものの縮小版にする)のではなく、シルエットのみがわかるようなサムネイルを生成する等、フレームそのものの図柄がわからないようなサムネイルを生成するようにしてもよい。   In the subsequent step 304, it is determined whether or not the thumbnail image path is set with reference to the frame image attribute table (FIG. 15A) (in other words, whether or not there is a thumbnail image of the frame). If there is no thumbnail image path, the process proceeds to step 306, where the terminal corresponding frame image table (FIG. 15 (b)) is based on the frame mount ID, the frame ID, and the terminal identification information (information received from the terminal device 1). )), The frame image is acquired (the image is acquired based on the path. The acquisition process is the same as the process of FIG. 4 described later), and the thumbnail image is acquired based on the acquired frame image. Process to generate. On the other hand, if there is a thumbnail image path, the process proceeds to step 305 to execute processing for acquiring the corresponding image. Through the processing of step 304 to step 306, the frame mount ID and the thumbnail image of the frame corresponding to the frame ID are acquired (the information is “thumbnail image” in the holding frame image attribute table (FIG. 20) of the terminal device 1). ). As can be seen from the processing, the thumbnail image itself is acquired corresponding to all the frames, but for the frames that are subject to acquisition restrictions and retention restrictions, thumbnail images are generated based on the frame images themselves. Instead of making a reduced version of the frame design itself, a thumbnail that does not know the design of the frame itself may be generated, such as generating a thumbnail that only shows the silhouette.

続くステップ307では、フレーム画像属性テーブル(図15(a))を参照して、初期保持フラグの真偽を判別する。初期保持フラグは端末装置1のアプリにおいて初期状態から使用を許すフレームであるか否かを定義するフラグである。初期保持フラグが真(使用可)であった場合には、ステップ308へと移行してフレーム画像取得処理を実行する。一方、偽(使用不可)であった場合には、ステップ308をスキップする。   In the subsequent step 307, the authenticity of the initial holding flag is determined with reference to the frame image attribute table (FIG. 15A). The initial holding flag is a flag that defines whether or not a frame is allowed to be used from the initial state in the application of the terminal device 1. If the initial holding flag is true (usable), the process proceeds to step 308 to execute frame image acquisition processing. On the other hand, if it is false (unusable), step 308 is skipped.

図4は、図3のステップ308の「フレーム画像取得処理」の概略を示したフローチャートである。   FIG. 4 is a flowchart showing an outline of the “frame image acquisition process” in step 308 of FIG.

本「フレーム画像取得処理」は引数としてフレーム台紙IDとフレームIDと端末識別情報が与えられる(ステップ401)。本「フレーム画像取得処理」は、後に説明する別の処理(図10のステップ1014)からも呼び出される処理であり、その場合には“取得条件パラメタ”も引数として渡されるものであるが、図3のステップ308から実行された場合には、“取得条件パラメタ”は関係ない。なお、端末識別情報は端末の種別を識別するために使用するものである。端末装置の相違によって表示部の表示領域や解像度が異なる場合があり、従ってこれらの相違に対応したフレーム画像を用意する必要があるため、図柄としては同じフレーム(フレームID)であっても各端末識別情報に応じて端末対応フレーム画像テーブル(図15(b))が存在することとなる。   In this “frame image acquisition process”, a frame mount ID, a frame ID, and terminal identification information are given as arguments (step 401). This “frame image acquisition process” is also called from another process (step 1014 in FIG. 10) described later. In this case, the “acquisition condition parameter” is also passed as an argument. When the processing is executed from step 308 of No. 3, “acquisition condition parameter” is not relevant. The terminal identification information is used to identify the type of terminal. The display area and resolution of the display unit may differ depending on the terminal device, and therefore it is necessary to prepare frame images corresponding to these differences. Therefore, even if the same frame (frame ID) is used as a symbol, each terminal A terminal-compatible frame image table (FIG. 15B) exists in accordance with the identification information.

ステップ401に続くステップ402〜ステップ404は、“取得条件パラメタ”が引数として与えられている場合に実行される処理であるので、図3のステップ308から実行された場合には関係ない。   Steps 402 to 404 subsequent to step 401 are processes executed when “acquisition condition parameter” is given as an argument, and thus are not relevant when executed from step 308 of FIG. 3.

ステップ405では、フレーム台紙IDとフレームIDと端末識別情報に基づいて端末対応フレーム画像テーブル(図15(b))を参照して得られるフレーム画像パスによって、当該場所からフレーム画像ファイルを取得する処理が実行される。パスが外部サーバ(コンテンツ提供サーバ4)を示すURL情報である場合には、当該サーバからフレーム画像が取得され、サービス提供サーバ3が保持するものであれば、サービス提供サーバ3の中での処理となる。   In step 405, a process of acquiring a frame image file from the location by using a frame image path obtained by referring to the terminal-compatible frame image table (FIG. 15B) based on the frame mount ID, the frame ID, and the terminal identification information. Is executed. When the path is URL information indicating an external server (content providing server 4), if the frame image is acquired from the server and held by the service providing server 3, processing in the service providing server 3 It becomes.

図3に戻って説明を続ける。   Returning to FIG. 3, the description will be continued.

ステップ308の「フレーム画像取得処理」によってフレーム画像(初期状態で使用を許可されているフレーム)が取得される。(端末装置1の保持フレーム画像属性テーブル(図20)の“フレーム画像”の情報となる)   A frame image (a frame permitted to be used in the initial state) is acquired by the “frame image acquisition process” in step 308. (It becomes information of “frame image” in the holding frame image attribute table (FIG. 20) of the terminal device 1)

続くステップ309では、「取得条件設定処理」が実行される。図5は当該「取得条件設定処理」の処理動作の概略を示したフローチャートである。   In the subsequent step 309, “acquisition condition setting process” is executed. FIG. 5 is a flowchart showing an outline of the processing operation of the “acquisition condition setting process”.

ステップ501では、フレーム台紙IDとフレームIDに基づいて取得条件(地域限定)テーブル(図16(a))を参照して、地域限定に関する取得条件の設定があるか否かを判別する。取得条件があった場合には(ステップ502)、「位置情報送信」の旨を端末装置1に設定するための情報(フレームIDに対応する保持フレーム画像属性テーブル(図20)の“位置情報送信”の項目に設定されるフラグ)を取得する(ステップ503)。一方、取得条件がなかった場合にはステップ503をスキップする。   In step 501, the acquisition condition (area limitation) table (FIG. 16A) is referred to based on the frame mount ID and the frame ID to determine whether or not there is an acquisition condition setting related to the area limitation. When there is an acquisition condition (step 502), information for setting “position information transmission” to the terminal device 1 (“position information transmission” in the holding frame image attribute table (FIG. 20) corresponding to the frame ID) "Flag set to the item") is acquired (step 503). On the other hand, if there is no acquisition condition, step 503 is skipped.

続くステップ504では、フレーム台紙IDとフレームIDに基づいて取得条件(解除コード)テーブル(図17(a))を参照して、解除コードに関する取得条件の制定があるか否かを判別する。取得条件があった場合には(ステップ505)、コード種別に応じた情報(フレームIDに対応する保持フレーム画像属性テーブル(図20)の“解除コード送信”の項目に設定されるフラグ)を取得する(ステップ506)。一方、取得条件がなかった場合にはステップ506をスキップする。解除コードとは、当該コードを有することによって該当フレームの取得が許可されるものであり、例えばバーコードやICタグなどから読取ることによって取得される情報である。バーコードやICタグなどの媒体の別に応じて当該媒体から情報を取得するために起動すべき機能が異なるため、起動すべき機能を端末装置1が判断できるように“コード種別に応じた情報”を端末装置1に送るものである。   In the subsequent step 504, it is determined whether or not an acquisition condition relating to the release code has been established with reference to the acquisition condition (release code) table (FIG. 17A) based on the frame mount ID and the frame ID. If there is an acquisition condition (step 505), information corresponding to the code type (a flag set in the “transmission code transmission” item of the holding frame image attribute table (FIG. 20) corresponding to the frame ID) is acquired. (Step 506). On the other hand, if there is no acquisition condition, step 506 is skipped. The release code is permitted to acquire the corresponding frame by having the code, and is information acquired by reading from a barcode or an IC tag, for example. “Function according to code type” so that the terminal device 1 can determine the function to be activated because the function to be activated differs depending on the medium such as the barcode or the IC tag. Is sent to the terminal device 1.

続くステップ507では、フレーム台紙IDとフレームIDに基づいて取得条件(順番限定)テーブル(図17(b))を参照して、順番限定に関する取得条件の設定があるか否かを判別する。取得条件があった場合には(ステップ508)、取得順番情報(フレームIDに対応する保持フレーム画像属性テーブル(図20)の“取得順番”の項目に設定される情報)を取得する(ステップ509)。一方、取得条件がなかった場合にはステップ509をスキップする。なお、“位置情報送信”の取得に関する処理(ステップ501〜ステップ503)と、“解除コード送信”の取得に関する処理(ステップ504〜ステップ506)と、“取得順番”の取得に関する処理(ステップ507〜ステップ509)は、何れを先に行っても構わない。   In the subsequent step 507, it is determined whether or not there is an acquisition condition setting related to the order limitation with reference to the acquisition condition (order limitation) table (FIG. 17B) based on the frame mount ID and the frame ID. If there is an acquisition condition (step 508), acquisition order information (information set in the item “acquisition order” in the holding frame image attribute table (FIG. 20) corresponding to the frame ID) is acquired (step 509). ). On the other hand, if there is no acquisition condition, step 509 is skipped. It should be noted that the processing related to the acquisition of “position information transmission” (steps 501 to 503), the processing related to the acquisition of “transmission code transmission” (steps 504 to 506), and the processing related to the acquisition of “acquisition order” (steps 507 to 507). Step 509) may be performed first.

図3に戻って説明を続ける。   Returning to FIG. 3, the description will be continued.

ステップ309の「取得条件設定処理」によって、端末装置1の保持フレーム画像属性テーブル(図20)の“位置情報送信”、“解除コード送信”、“取得順番”の各項目に設定される情報が取得される。   Information set in each item of “position information transmission”, “transmission code transmission”, and “acquisition order” in the holding frame image attribute table (FIG. 20) of the terminal device 1 by the “acquisition condition setting process” in step 309. To be acquired.

上記したステップ303〜ステップ309の処理が1回行われることにより、1つのフレームに関する各種の情報(該当するフレームIDに対応する保持フレーム画像属性テーブル(図20)に必要な情報)が取得され、これがループ処理によって繰り返されることにより、フレーム台紙IDが一致する全てのフレームについて必要な情報の取得が行われる。なお、サムネイル画像を取得するための処理(ステップ304〜ステップ306)と、初期フレームを取得する処理(ステップ307〜ステップ308)と、取得条件設定処理(ステップ309)は、何れを先に行うものであっても構わない。ステップ302の処理とループ処理についても何れを先に行うものであっても構わない。   By performing the processing of Step 303 to Step 309 described above once, various types of information (information necessary for the holding frame image attribute table (FIG. 20) corresponding to the corresponding frame ID) is acquired, By repeating this by the loop processing, necessary information is acquired for all frames having the same frame mount ID. The process for acquiring thumbnail images (steps 304 to 306), the process of acquiring initial frames (steps 307 to 308), and the acquisition condition setting process (step 309) are performed first. It does not matter. Any of the processing in step 302 and the loop processing may be performed first.

ステップ310では、取得した各情報を端末装置1へ送信する処理が行われる。即ち、図2のステップ202によって送信されてきた「フレーム台紙ID」と「端末識別情報」に対する応答として、各情報が端末装置1へ送信されるものである。   In step 310, a process of transmitting each acquired information to the terminal device 1 is performed. That is, each information is transmitted to the terminal device 1 as a response to the “frame mount ID” and “terminal identification information” transmitted in step 202 of FIG.

当該情報を受信した端末装置1では、受信した各情報によってカレントフレーム台紙テーブル(図19(a))と、カレントメニューアイコンテーブル(図19(b))と、保持フレーム画像属性テーブル(図20)の各テーブルを形成する処理を行い、これによって初期設定がなされた後は、トップメニュー画面(図21)を表示部170に表示させる処理を行う(図2:ステップ203)。   In the terminal device 1 that has received the information, a current frame mount table (FIG. 19A), a current menu icon table (FIG. 19B), and a holding frame image attribute table (FIG. 20) are received according to the received information. After the initial setting is made, the top menu screen (FIG. 21) is displayed on the display unit 170 (FIG. 2: step 203).

なお、上記の説明からもわかるように、本実施例では、サムネイル画像については全てのフレームに対応して取得されるが、フレーム画像は初期状態で使用が許されたもののみが取得されることとなる。   As can be seen from the above description, in this embodiment, thumbnail images are acquired corresponding to all frames, but only frame images that are permitted to be used in the initial state are acquired. It becomes.

以上の処理より、本発明に関するアプリの初期設定が終了し、サービス(写真の加工サービス)を受けることが可能となる。なお、上記の初期設定処理に伴いユーザ登録も同時に実行されるものである。即ち、ユーザIDなどによってユーザが特定され、当該ユーザIDがサービス提供サーバ3において管理されるものである。後に説明するようにユーザIDに対応したユーザデータ管理テーブル(図18(b))もサービス提供サーバ3に形成されるものであるが、初期設定の段階では必ずしもユーザデータ管理テーブルを生成する必要はない。   Through the above processing, the initial setting of the application relating to the present invention is completed, and it becomes possible to receive a service (photo processing service). Note that user registration is also executed simultaneously with the initial setting process. That is, a user is specified by a user ID or the like, and the user ID is managed by the service providing server 3. As will be described later, the user data management table (FIG. 18B) corresponding to the user ID is also formed in the service providing server 3, but it is not always necessary to generate the user data management table at the initial setting stage. Absent.

次に、当該アプリの主に本発明(撮像データ加工処理)に関する処理について説明する。図6は、端末装置1における処理動作の概略を示すフローチャートである。   Next, processing related to the present invention (imaging data processing) of the application will be described. FIG. 6 is a flowchart showing an outline of the processing operation in the terminal device 1.

アプリの起動により、端末装置1の表示部170の表示画面は図21のようなものとなる。当該メニュー画面において、「フレーム撮影」が選択された場合には(図6ステップ601)、ステップ602〜ステップ603の処理が実行され、メニュー画面で「設定変更」が選択されて台紙の変更要求があった場合には(ステップ604)、ステップ605〜ステップ607の処理を実行する。「終了」が選択された場合にはアプリを終了する(ステップ608)。なお、図6の処理は本発明の概念の説明に特に必要なもの以外を省略しているが、メニュー画面にて「写真を見る」が選択された場合には、後に説明する処理によって得られた各種の写真を画面表示させる処理等が実行され、「友達と交換」が選択された場合には、他の端末装置等(他のユーザ)へ写真を送信する処理等が実行される。   When the application is activated, the display screen of the display unit 170 of the terminal device 1 is as shown in FIG. When “frame shooting” is selected on the menu screen (step 601 in FIG. 6), the processing from step 602 to step 603 is executed, “setting change” is selected on the menu screen, and a request to change the mount is made. If there is (step 604), the processing of step 605 to step 607 is executed. If “end” is selected, the application is ended (step 608). The processing in FIG. 6 is omitted except for what is particularly necessary for explaining the concept of the present invention. However, when “view photo” is selected on the menu screen, the processing described later is obtained. When various kinds of photos are displayed on the screen and “exchange with friends” is selected, processing for sending photos to other terminal devices or the like (other users) is executed.

「フレーム撮影」が選択された場合の処理について説明する。   Processing when “frame shooting” is selected will be described.

「フレーム撮影」が選択された場合には(ステップ601)、ステップ602へと移行して「台紙(フレーム選択画面)表示処理」が実行される。図7は当該「台紙(フレーム選択画面)表示処理」の処理動作の概略を示したフローチャートである。なお、台紙(フレーム選択画面)とは、フレームのサムネイル画像を並べて表示してこれを選択させるための画面であり、図22〜26の左端に示したような画面である。   When “frame shooting” is selected (step 601), the process proceeds to step 602, and “mounting (frame selection screen) display processing” is executed. FIG. 7 is a flowchart showing an outline of the processing operation of the “mounting (frame selection screen) display processing”. The mount (frame selection screen) is a screen for displaying thumbnail images of frames side by side and selecting them, and is a screen as shown at the left end of FIGS.

図7の台紙(フレーム選択画面)表示処理が実行されると、先ずカレントフレーム台紙テーブル(図19(a))と、カレントメニューアイコンテーブル(図19(b))から、画面構成に必要な情報を取得して背景画面(図22〜26の左端に示したような画面においてフレームのサムネイルが表示されていない状態の画面)を構成・表示する(ステップ701)。   When the mount (frame selection screen) display process of FIG. 7 is executed, first, information necessary for the screen configuration is obtained from the current frame mount table (FIG. 19A) and the current menu icon table (FIG. 19B). To obtain and display a background screen (a screen in which no frame thumbnail is displayed on the screen as shown at the left end of FIGS. 22 to 26) (step 701).

ステップ701に続くループ処理は、ステップ702〜ステップ707の処理を全てのフレームIDに対して行わせるものである。“全てのフレームID”とは、端末装置1に格納されている全ての保持フレーム画像属性テーブル(図20)に基づく。当該テーブルは、図3の処理によって「フレーム台紙IDが一致するフレーム」が抽出され、これに基づいて生成されているため、図7のループ処理は「フレーム台紙IDが一致する全てのフレーム」に対して行われることとなる。   The loop processing following step 701 is to perform the processing from step 702 to step 707 for all frame IDs. “All frame IDs” are based on all retained frame image attribute tables (FIG. 20) stored in the terminal device 1. Since the table shown in FIG. 3 extracts “frames with matching frame mount IDs” and is generated based on this, the loop processing of FIG. 7 changes to “all frames with matching frame mount IDs”. Will be done.

ステップ702〜ステップ707の処理は、各フレームのサムネイル画像を画面表示させるための処理であり、取得条件などに従ってサムネイル画像の表示を変化させるための処理である。ステップ702では、保持フレーム画像属性テーブル(図20)を参照して初期保持フラグが真であるか偽であるかを判別する。前述したごとく、初期保持フラグが“真”のものは最初からアプリで使用が許可されているフレームであり、フレーム画像についても初期設定において端末装置1にダウンロードされているものである。従って、初期保持フラグが“真”である場合にはその他の条件を判断するまでもなくステップ707へと移行してそのままサムネイル画像を該当位置に表示させる処理を行う。なお、“該当位置に表示”とは、保持フレーム画像属性テーブル(図20)に具体的な座標が設定されていて(元はサービス提供サーバ3において設定されていて)これに基づいて表示させるものや、台紙として(カレントフレーム台紙テーブルに)サムネイルの表示位置が定められており、当該位置に順番に表示させるようなもの等である(以下の処理における“該当位置に表示”も同様)。   The processing from step 702 to step 707 is processing for displaying the thumbnail image of each frame on the screen, and is processing for changing the display of the thumbnail image according to the acquisition condition or the like. In step 702, it is determined whether the initial holding flag is true or false by referring to the holding frame image attribute table (FIG. 20). As described above, a frame whose initial holding flag is “true” is a frame that is permitted to be used by the application from the beginning, and a frame image is also downloaded to the terminal device 1 in the initial setting. Accordingly, when the initial holding flag is “true”, the process proceeds to step 707 without any other conditions being judged, and the process of displaying the thumbnail image at the corresponding position as it is is performed. “Display at corresponding position” means that specific coordinates are set in the holding frame image attribute table (FIG. 20) (originally set in the service providing server 3) and displayed based on this. Alternatively, the display position of thumbnails is determined as a mount (in the current frame mount table), and the thumbnails are displayed in order at the positions (the same applies to “display at corresponding position” in the following processing).

初期保持フラグが偽であった場合には、取得フラグの真偽を判別する(ステップ703)。取得フラグとは、後に説明する処理で明らかになるように、端末装置1によって取得済みのフレームであるか否かを示すフラグである(例えば、取得条件が課せられたフレームについて、条件を満たすことで過去に実際にサーバからダウンロードしたフレーム)。取得フラグが偽である場合は、当該フレームは未だ取得していないものであるため、“未取得サムネイル画像”を該当位置に表示する(ステップ704)。“未取得サムネイル画像”とは、例えば、図22〜26の左端の画面における“?”のようなものである。図3のステップ304〜ステップ306で説明したように、本実施例ではサムネイル画像自体は全てのフレームについて端末装置1に一旦ダウンロードされることとなる。よって図7のサムネイル画像を表示させる処理においては、全てのフレームのサムネイルを表示させることも可能ではあるが、取得条件が課せられているようなフレームについては無条件でその内容(本来のフレームの図柄と同様のサムネイル)を明らかにするのではなく、取得した時に初めて図柄などがわかるようにしているものである。ここでの例のように取得していないフレームについて一律に“未取得サムネイル画像”とするのではなく、“未取得サムネイル画像”とするか否かのフラグを保持フレーム画像属性テーブルに設定(元はサービス提供サーバ3において設定)し、特別なフレームのみ“?”のように図柄を隠すようにしてもよい。なお、図3のステップ304〜ステップ306の説明の中で触れたように、取得制限のあるフレームについてはサーバ側でフレームそのものの図柄がわからないようなサムネイルを生成する(或いは保持制限のあるフレームについては半透明化したサムネイルを生成する)等している場合には、ステップ702〜ステップ706の処理を行わずに、そのままサーバから受信して設定されているサムネイル画像を表示させるようにしてよい。   If the initial holding flag is false, it is determined whether the acquisition flag is true (step 703). The acquisition flag is a flag indicating whether or not the frame has already been acquired by the terminal device 1 as will be apparent from the processing described later (for example, the condition is satisfied for a frame for which an acquisition condition is imposed). In the past, frames actually downloaded from the server). If the acquisition flag is false, since the frame has not been acquired yet, “unacquired thumbnail image” is displayed at the corresponding position (step 704). The “unacquired thumbnail image” is, for example, “?” On the leftmost screen in FIGS. As described in step 304 to step 306 in FIG. 3, in this embodiment, the thumbnail image itself is temporarily downloaded to the terminal device 1 for all frames. Therefore, in the process of displaying the thumbnail image of FIG. 7, it is possible to display thumbnails of all frames, but the contents of the frames for which acquisition conditions are imposed are unconditionally (the original frame Rather than clarifying the same thumbnails as the symbols), the symbols and the like can be understood only when they are acquired. As in this example, a flag indicating whether or not to set an “unacquired thumbnail image” for a frame that has not been acquired is set in the holding frame image attribute table (original source). May be set in the service providing server 3), and only a special frame may be hidden such as “?”. As mentioned in the description of step 304 to step 306 in FIG. 3, for the frames with acquisition restrictions, the server generates thumbnails that do not know the design of the frames themselves (or for frames with holding restrictions). In the case of generating a semi-transparent thumbnail), the thumbnail image that is received and set from the server as it is may be displayed without performing the processing of step 702 to step 706.

初期保持フラグが偽であり且つ取得フラグが真であった場合には(ステップ702→ステップ703)、保持可能フラグの真偽を判別する(ステップ705)。“保持可能フラグ”とは、フレーム画像(サムネイル画像ではない)を端末装置1にて保持することを許可するか否かを定義するフラグである。端末装置1で保持することを許されていない場合には、フレーム撮影に使用する毎にサーバからフレーム画像をダウンロードする必要があり、一度取得(使用)したフレームであってもその後自由に使える訳ではないことになる(当該設定はコンテンツ提供側の意向などに基づく)。保持可能フラグが偽である(且つ取得フラグが真である)場合は、当該フレームは過去に取得(使用)してはいるが、使用にはダウンロードが必要であることを示すために、サムネイル画像に半透明化処理を施して(要はそのまま使用できるものとの区別をさせるものであるので、その他の視覚効果を施すものであってもよい)該当位置に表示する(ステップ706)。   If the initial holding flag is false and the acquisition flag is true (step 702 → step 703), it is determined whether the holding flag is true (step 705). The “holdable flag” is a flag that defines whether or not the terminal device 1 is permitted to hold a frame image (not a thumbnail image). If the terminal device 1 is not allowed to hold the frame, it is necessary to download a frame image from the server every time it is used for frame shooting, and even a frame once acquired (used) can be used freely thereafter. (This setting is based on the intention of the content provider, etc.). When the holdable flag is false (and the acquisition flag is true), the thumbnail image is used to indicate that the frame has been acquired (used) in the past but needs to be downloaded. A semi-transparency process is performed on the screen (the point is to distinguish it from that which can be used as it is, so other visual effects may be applied) and displayed at the corresponding position (step 706).

初期保持フラグが偽であり且つ取得フラグが真であり且つ保持可能フラグが真であった場合には(ステップ702→ステップ703→ステップ705)、ステップ707へと移行してそのままサムネイル画像を該当位置に表示させる処理を行う。   If the initial holding flag is false, the acquisition flag is true, and the holdable flag is true (step 702 → step 703 → step 705), the process proceeds to step 707 and the thumbnail image is directly displayed at the corresponding position. Process to be displayed on.

以上の処理により、図22〜26の左端に示したような、フレームのサムネイル画像を並べて表示してこれを選択させるための画面の表示が行われる。なお、図7のループ処理では、“全てのフレームについて処理”というような説明としたが、表示部170の表示領域が限られており全てのサムネイル画像を表示できないような場合(ページ送りなどよう要するような場合)には、1画面表示に必要な分だけの処理(ページ送り等に応じてその都度必要な処理を実行するもの)であってよい。   Through the above processing, as shown at the left end of FIGS. 22 to 26, a screen for displaying the thumbnail images of the frames side by side and selecting them is displayed. In the loop processing of FIG. 7, the description is “processing for all frames”. However, when the display area of the display unit 170 is limited and all thumbnail images cannot be displayed (page feed or the like). In such a case, it is possible to perform only the processing necessary for one-screen display (execution of processing necessary for each page feed or the like).

図6に戻って説明を続ける。   Returning to FIG. 6, the description will be continued.

上記処理によって表示される“フレーム選択画面”においてフレームの選択がなされることでフレーム撮影処理が行われる(ステップ603)。図8は当該「フレーム撮影処理」の処理動作の概略を示したフローチャートである。   Frame shooting processing is performed by selecting a frame on the “frame selection screen” displayed by the above processing (step 603). FIG. 8 is a flowchart showing an outline of the processing operation of the “frame photographing process”.

フレーム選択画面においてフレームの選択があった場合には(ステップ801)、選択されたフレームに関する情報を保持フレーム画像属性テーブル(図20)を参照して取得する(ステップ802)。   When a frame is selected on the frame selection screen (step 801), information on the selected frame is acquired with reference to the holding frame image attribute table (FIG. 20) (step 802).

続くステップ803では取得フラグ(ステップ802で取得した情報)が真であるか偽であるか(即ち、過去に端末装置1によってフレーム画像が取得されたか否か)を判別する。   In subsequent step 803, it is determined whether the acquisition flag (information acquired in step 802) is true or false (that is, whether or not a frame image has been acquired by the terminal device 1 in the past).

取得フラグが偽であった場合には、ステップ805〜ステップ807の処理によって取得順番に関する条件を満たしているか否かを判別する。取得フラグが偽である場合には端末装置1にフレーム画像が無いことを示すため、フレーム撮影のためにはフレーム画像をサーバから取得する必要があるが、取得順番に関する条件が設定されていて当該条件を満たしていない場合にはそもそも当該フレームの取得が許されないため、フレーム画像を取得するためにサーバに問い合わせる前に取得順番に関する条件を満たしているか否かを判別するものである。本実施例における“取得順番”とは、単純に順番情報(数値情報)が設定されるものであり、例えば“取得順番”が6である場合には、それ以前に別の5つのフレームが取得されている必要があることとなる。なお、全てのフレームに対して“取得順番”が設定されている必要は無い(制限を全てのフレームに対して設けなくてもよいという点は以降で説明する他の取得条件についても同様である)。例えばフレームがn個ある場合に、そのうちの1つだけに“取得順番”として「n−1」を設定しておくことにより、他のn−1個のフレームには取得順番に関する制限は無いが、設定のフレームについてだけ「他の全てのフレーム取得をコンプリートした場合に始めて取得できるフレーム」という制限をかけること等が可能である。本実施例では上記のごとく順番情報を例としているが、例えば“取得順番”として他のフレームのフレームID(1つ又は複数)を設定しておくことで、「設定されたフレームの取得がなされていないと、当該フレームの取得ができない」というような処理としてもよい。   If the acquisition flag is false, it is determined whether or not the conditions regarding the acquisition order are satisfied by the processing in steps 805 to 807. When the acquisition flag is false, it indicates that there is no frame image in the terminal device 1, so it is necessary to acquire a frame image from the server for frame shooting. If the condition is not satisfied, the acquisition of the frame is not permitted in the first place. Therefore, it is determined whether or not the condition regarding the acquisition order is satisfied before inquiring the server to acquire the frame image. The “acquisition order” in this embodiment is simply set with order information (numerical information). For example, when “acquisition order” is 6, another five frames are acquired before that. It will be necessary to have been. Note that the “acquisition order” does not have to be set for all frames (the same is true for other acquisition conditions described later in that the restriction need not be provided for all frames). ). For example, when there are n frames, by setting “n−1” as the “acquisition order” for only one of them, there is no restriction on the acquisition order for the other n−1 frames. It is possible to apply a restriction such as “a frame that can be acquired for the first time when all other frames are acquired” only for the set frame. In this embodiment, the order information is taken as an example as described above. For example, by setting the frame ID (one or more) of other frames as the “acquisition order”, “the set frame is acquired. If it is not, acquisition of the frame cannot be performed ”.

ステップ805では、“取得順番”に設定があるか否かを判別し、設定があった場合には、ステップ806において各保持フレーム画像属性テーブル(図20)を参照して取得フラグが真であるデータの個数(即ち取得済みのフレームの数)を集計する。取得順番情報から1を引いた値が、取得済みのフレームの数以下でなかった場合には(ステップ807)、“取得順番”に関する条件を満たさないこととなるため、ステップ808へと移行して当該フレームの取得を許可しない旨(取得失敗)の表示を行って、フレーム撮影処理を終了する。一方、“取得順番”に設定が無い場合(ステップ805)や、“取得順番”に関する条件を満たす場合(ステップ805〜ステップ807)には、ステップ809の「パラメタ取得処理」へと移行する。   In step 805, it is determined whether or not “acquisition order” is set. If it is set, in step 806, the acquisition flag is true with reference to each holding frame image attribute table (FIG. 20). The number of data (that is, the number of acquired frames) is totaled. If the value obtained by subtracting 1 from the acquisition order information is not less than or equal to the number of acquired frames (step 807), the condition regarding the “acquisition order” is not satisfied, and the process proceeds to step 808. A display indicating that the acquisition of the frame is not permitted (acquisition failure) is performed, and the frame photographing process is terminated. On the other hand, when the “acquisition order” is not set (step 805) or when the conditions regarding the “acquisition order” are satisfied (steps 805 to 807), the process proceeds to “parameter acquisition process” in step 809.

図9は「パラメタ取得処理」の修理動作の概略を示したフローチャートである。パラメタ取得処理は、フレームの取得条件の中には端末装置1が持っている情報(若しくは取得する情報)に基づいて取得の可否を判断するものがあり、当該“端末装置1が持っている情報”をサービス提供サーバ3に送る必要があるため、その準備となる処理である。   FIG. 9 is a flowchart showing an outline of the repair operation of the “parameter acquisition process”. In the parameter acquisition process, there is a frame acquisition condition that determines whether or not acquisition is possible based on information (or information to be acquired) that the terminal device 1 has, and the “information that the terminal device 1 has” "Is necessary to send to the service providing server 3, which is a preparation process.

ステップ901では、“解除コード送信”(図8のステップ802で取得する情報)の指定があるか否かを判別する。解除コードとは、前述したごとく、バーコードやICタグなどから読取ることによって取得される情報であり、“解除コード送信”の指定がある場合には、フレームの取得のためにはバーコードやICタグなどから情報(解除コード)を読取る必要があることとなる。よって、指定があった場合にはそのコード種別を判別し(ステップ901→ステップ902)、取得するべき情報がパスコードである場合にはステップ904へと移行し、入力ダイアログを表示してユーザにコードの入力を求める。取得するべき情報が2次元バーコードである場合にはステップ903へと移行し、コードリーダ(カメラ機能及び2次元バーコード解読機能)を起動して解除コードを取得する(ここではユーザの手入力と2次元バーコード読み取りを例としているが、無線通信などによって情報を取得するものなどであってよい)。続くステップ905では“取得条件パラメタ”に取得した解除コードとその種別をセットする。“取得条件パラメタ”とは、サービス提供サーバ3に送信するパラメタである。“解除コード送信”の指定が無かった場合には(ステップ901)、ステップ902〜ステップ905をスキップする。   In step 901, it is determined whether or not “transmission code transmission” (information acquired in step 802 in FIG. 8) is designated. As described above, the release code is information acquired by reading from a barcode, an IC tag, or the like. When “transmission code transmission” is designated, the barcode or IC is used for frame acquisition. It is necessary to read information (release code) from a tag or the like. Therefore, if specified, the code type is discriminated (step 901 → step 902). If the information to be acquired is a passcode, the process proceeds to step 904, and an input dialog is displayed to the user. Prompt for code. If the information to be acquired is a two-dimensional bar code, the process proceeds to step 903, where a code reader (camera function and two-dimensional bar code decoding function) is activated to obtain a release code (here, manually input by the user) 2D bar code reading is used as an example, but information may be acquired by wireless communication or the like). In the next step 905, the acquired release code and its type are set in the “acquisition condition parameter”. The “acquisition condition parameter” is a parameter transmitted to the service providing server 3. If there is no designation of "transmission code transmission" (step 901), steps 902 to 905 are skipped.

続くステップ906では、“位置情報送信”(図8のステップ802で取得する情報)の指定があるか否かを判別する。“位置情報送信”は、フレームの取得のための条件として端末装置1の現在位置が設定された範囲内にいることを要するとされているため、端末装置1の現在位置情報をサービス提供サーバ3に送信する必要があることを示すものである。“位置情報送信”の指定があった場合には、GPS受信部150を起動してGPS測位を行い、これによって得られた位置情報と、測位精度(測位レベル情報)を取得して、“取得条件パラメタ”にセットする(ステップ906→ステップ907)。一方、“位置情報送信”の指定が無かった場合にはステップ907をスキップして「パラメタ取得処理」を終了する。なお、“位置情報送信”に関するパラメタの取得処理(ステップ906〜ステップ907)を、“解除コード送信”に関するパラメタの取得処理(ステップ901〜ステップ905)より先に行ってもよい。   In the subsequent step 906, it is determined whether or not “position information transmission” (information acquired in step 802 in FIG. 8) is designated. Since “position information transmission” requires that the current position of the terminal device 1 is within a set range as a condition for acquiring a frame, the current position information of the terminal device 1 is used as the service providing server 3. To indicate that it needs to be sent. When “position information transmission” is designated, the GPS receiver 150 is activated to perform GPS positioning, and the position information obtained by this and the positioning accuracy (positioning level information) are acquired. "Condition parameter" is set (step 906 → step 907). On the other hand, if “position information transmission” is not designated, step 907 is skipped and the “parameter acquisition process” is terminated. The parameter acquisition process (steps 906 to 907) related to “position information transmission” may be performed prior to the parameter acquisition process (steps 901 to 905) related to “transmission code transmission”.

上記処理によって、“取得条件パラメタ”に、サービス提供サーバ3に送信する情報(フレームの取得条件に関する情報)がセットされる。   As a result of the above processing, information to be transmitted to the service providing server 3 (information regarding the frame acquisition condition) is set in the “acquisition condition parameter”.

図8に戻って説明を続ける。   Returning to FIG.

ステップ809(図9の処理)に続くステップ810では、サービス提供サーバ3に、フレーム台紙IDと、フレームID(ユーザが選択したフレームのID)と、取得条件パラメタと、端末識別情報とを送信する。当該情報を受信したサービス提供サーバ3では、後に説明する図10の処理が行われ、その結果、端末装置1は「取得されたフレーム画像」若しくは「取得失敗(及びその理由)」の何れかの情報を受信する。   In step 810 following step 809 (the process of FIG. 9), the frame mount ID, the frame ID (frame ID selected by the user), the acquisition condition parameter, and the terminal identification information are transmitted to the service providing server 3. . In the service providing server 3 that has received the information, the process of FIG. 10 to be described later is performed. As a result, the terminal device 1 is either “acquired frame image” or “acquired failure (and reason)”. Receive information.

フレーム画像の取得に成功した場合には、保持フレーム画像属性テーブル(図20)の取得フラグを“真”に設定し、カメラ部120を起動して撮影処理を実行してこれによって得られた写真にフレーム画像を重畳させる処理(合成処理)を行う(ステップ811→ステップ812→ステップ813→ステップ814)。一方、取得失敗であった場合には、取得失敗の旨とその理由を画面表示して「フレーム撮影処理」を終了する(ステップ811→ステップ808)。なお、当該フレームの保持可能フラグが真である場合には(保持フレーム画像属性テーブルを参照して判別)、撮影(写真合成処理)後にフレーム画像を端末装置1に保持(記憶部130に格納)するが、保持可能フラグが偽であった場合には、当該フレーム画像を消去する処理を行う(端末装置1においてフレーム画像を保持しない)。   If the acquisition of the frame image is successful, the acquisition flag of the holding frame image attribute table (FIG. 20) is set to “true”, the camera unit 120 is activated to perform the shooting process, and the photograph obtained thereby A process of superimposing a frame image on (combining process) is performed (step 811 → step 812 → step 813 → step 814). On the other hand, if the acquisition is unsuccessful, the fact of the acquisition failure and the reason are displayed on the screen, and the “frame shooting process” is terminated (step 811 → step 808). If the holdable flag of the frame is true (determined with reference to the hold frame image attribute table), the frame image is held in the terminal device 1 after shooting (photo compositing process) (stored in the storage unit 130). However, if the holdable flag is false, a process for deleting the frame image is performed (the frame image is not held in the terminal device 1).

フレーム撮影処理(写真合成)が行われた場合には、当該合成後の写真に基づいてサムネイル画像を生成して、当該生成したサムネイル画像を保持フレーム画像属性テーブル(図20)の“サムネイル画像”として設定するようにしてもよい。毎回このような処理を行うことにより、図7の処理によって表示されるフレーム選択画面において、前回撮影した写真(フレーム合成後の写真)がフレームを選択するためのサムネイルとして表示されることとなる。或いは、フレーム撮影処理が行われた場合に、当該画像データ(フレーム合成後の写真)のパス(保存場所)を保持フレーム画像属性テーブル(図20)の“サムネイル画像”として設定しておき、図7のステップ707の処理において、“サムネイル画像”としてパスが設定されていた場合には、当該パスの画像データ(フレーム合成後の写真)を縮小してフレーム選択画面に表示させるようにしてもよい(上記と同様の効果が得られる)。なお、これらによって更新された、保持フレーム画像属性テーブル(図20)の“サムネイル画像”の情報を、後に説明する図6のステップ606の処理においてサーバ側へと送信し、サーバにおいてユーザ情報として管理させるものであってもよい。これに伴い、後に説明する図13の処理によってサーバから端末装置へと当該情報を返信し、これを受信した端末装置で当該情報に基づいてアプリの設定を行うことで(図6ステップ607)、台紙の変更などがあっても以前撮影した写真(フレーム合成後の写真)がフレームを選択するためのサムネイルとして表示されるようにしてもよい。   When frame shooting processing (photo combination) is performed, a thumbnail image is generated based on the combined photo, and the generated thumbnail image is stored in the “thumbnail image” in the holding frame image attribute table (FIG. 20). You may make it set as. By performing such processing every time, the previously taken photo (photo after frame synthesis) is displayed as a thumbnail for selecting a frame on the frame selection screen displayed by the processing of FIG. Alternatively, when frame shooting processing is performed, the path (storage location) of the image data (photo after frame synthesis) is set as “thumbnail image” in the holding frame image attribute table (FIG. 20). 7, if a path is set as a “thumbnail image”, the image data of the path (photo after frame composition) may be reduced and displayed on the frame selection screen. (An effect similar to the above is obtained). The information of the “thumbnail image” in the holding frame image attribute table (FIG. 20) updated by these is transmitted to the server side in the processing of step 606 in FIG. 6 described later, and managed as user information in the server. It may be allowed. Along with this, by returning the information from the server to the terminal device by the processing of FIG. 13 described later, and setting the application based on the information in the terminal device that has received this (step 607 in FIG. 6), Even if there is a change in the mount, a picture taken before (a picture after frame synthesis) may be displayed as a thumbnail for selecting a frame.

ステップ803における判別の結果、取得フラグが“真”であった場合には、ステップ804へと移行して保持可能フラグが真であるか偽であるかを判別する。ステップ804の判別の結果、保持可能フラグが真であった場合には(即ち取得フラグも保持可能フラグも真)、既に取得済みのフレームであって且つ端末において保持可能とされているフレームであるので、端末装置1内にフレーム画像が存在することとなる。よって、ステップ813へと移行して直ぐにカメラ撮影及び写真合成処理を実行する。一方、ステップ804の判別の結果、保持可能フラグが偽であった場合には(即ち取得フラグは真で保持可能フラグは偽)、過去に取得(使用)したことがある(即ち取得順番に関する条件はクリアしている)フレームではあるが、端末において保持不可のフレームであるので、端末装置1内にフレーム画像が存在しておらず、サーバからの取得を要することとなる。よって、ステップ805〜ステップ807をスキップしてステップ809以下の処理を実行する。なお、ステップ813の撮影処理は、最初に行っても構わない。すなわち撮影後にフレームの選択や取得処理を行い、合成処理を行うものであっても構わない。   If the acquisition flag is “true” as a result of the determination in step 803, the process proceeds to step 804 to determine whether the holdable flag is true or false. If the holdable flag is true as a result of the determination in step 804 (that is, the acquisition flag and the holdable flag are both true), the frame is already acquired and can be held in the terminal. Therefore, a frame image exists in the terminal device 1. Therefore, the process proceeds to step 813 and the camera photographing and the photo composition process are executed immediately. On the other hand, as a result of the determination in step 804, if the holdable flag is false (that is, the acquisition flag is true and the holdable flag is false), it has been acquired (used) in the past (that is, the conditions regarding the acquisition order). Is a frame that has been cleared), but is a frame that cannot be retained in the terminal, and therefore there is no frame image in the terminal device 1, and acquisition from the server is required. Therefore, step 805 to step 807 are skipped, and the processing after step 809 is executed. Note that the photographing process in step 813 may be performed first. In other words, the frame selection or acquisition process may be performed after shooting to perform the synthesis process.

以上の処理につき、端末装置1の画面遷移図を参照する。図22は、初期フレーム等の取得済みであって端末がフレーム画像を保持している場合の画面遷移図である。左端の画面においてハイライトされているフレーム(サムネイル)についての説明文が表示され(保持フレーム画像属性テーブル(図20)の情報に基づく)、これが選択された場合には直ぐにカメラ撮影と合成処理が実行される(ステップ803→ステップ804→ステップ813〜の流れ)。   For the above processing, the screen transition diagram of the terminal device 1 is referred to. FIG. 22 is a screen transition diagram when an initial frame or the like has been acquired and the terminal holds a frame image. An explanatory text about the frame (thumbnail) highlighted on the leftmost screen is displayed (based on the information in the holding frame image attribute table (FIG. 20)). When this is selected, the camera shooting and composition processing are immediately performed. It is executed (the flow from step 803 to step 804 to step 813).

図23は、“位置情報送信”の指定がある場合の画面遷移図である。左端の画面においてハイライトされているフレーム(サムネイル)についての説明文が表示され、これが選択された場合には場所のヒントが表示される(保持フレーム画像属性テーブル(図20)の“取得方法文字列”に基づく)。次に位置情報の測位が実行され、これをサーバに送った結果、フレームを取得できた場合には右端上の画面となり(ステップ803→〜→ステップ809(図9ステップ906→ステップ907)→ステップ810→ステップ811→ステップ812〜の流れ)、フレームを取得でなかった場合には右端下の画面となる(ステップ803→〜→ステップ809(図9ステップ906→ステップ907)→ステップ810→ステップ811→ステップ808の流れ)。   FIG. 23 is a screen transition diagram in a case where “position information transmission” is designated. An explanatory text about the frame (thumbnail) highlighted on the leftmost screen is displayed. When this is selected, a hint of the location is displayed ("Acquisition method character in the holding frame image attribute table (FIG. 20)"). Column "). Next, the positioning of the position information is executed, and if the frame is acquired as a result of sending it to the server, the screen on the right end is displayed (step 803 → step 809 (step 906 → step 907 in FIG. 9) → step. Step 810 → Step 811 → Step 812) If the frame is not acquired, the lower right screen is displayed (Step 803 → Step 809 (Step 906 → Step 907 in FIG. 9) → Step 810 → Step 811). (The flow of step 808).

図24は、“取得順番”の指定がある場合の画面遷移図である。左端の画面においてハイライトされているフレーム(サムネイル)についての説明文が表示され、これが選択された場合には取得順番の条件を満たすかの判別が行われ、OKであった場合にはサーバからのフレーム画像の取得が行われるという、図の上段の流れとなる(ステップ803→ステップ805→ステップ806→ステップ807→ステップ809〜の流れ)。一方、取得順番の条件を満たさなかった場合には、図の下段の画面となる(ステップ803→ステップ805→ステップ806→ステップ807→ステップ808の流れ)。   FIG. 24 is a screen transition diagram when “acquisition order” is designated. An explanatory text about the frame (thumbnail) highlighted in the leftmost screen is displayed. When this is selected, it is determined whether the acquisition order condition is satisfied. The frame image is acquired in the upper part of the figure (step 803 → step 805 → step 806 → step 807 → step 809˜). On the other hand, when the acquisition order condition is not satisfied, the lower screen is shown (step 803 → step 805 → step 806 → step 807 → step 808).

次に、図8のステップ810によって端末装置1から送信された情報を受信したサービス提供サーバ3における処理について説明する。図10は当該サーバにおける処理(フレーム取得処理)の処理動作の概略を示すフローチャートである。   Next, processing in the service providing server 3 that has received the information transmitted from the terminal device 1 in step 810 of FIG. 8 will be described. FIG. 10 is a flowchart showing an outline of the processing operation of the processing (frame acquisition processing) in the server.

ステップ1001〜ステップ1003はフレーム取得条件である地域限定に関する判別処理であり、以下同様に、ステップ1004〜ステップ1006はコード限定に関する判別処理、ステップ1007〜ステップ1009は時間限定に関する判別処理、ステップ1010〜ステップ1013は数量限定に関する判別処理である。なお、これらの判別処理は何れを先に行うものであっても構わない。   Steps 1001 to 1003 are determination processing related to area limitation, which is a frame acquisition condition. Similarly, step 1004 to step 1006 are determination processing related to code limitation, step 1007 to step 1009 are determination processing related to time limitation, and step 1010. Step 1013 is a determination process related to quantity limitation. Any of these determination processes may be performed first.

ステップ1001では、端末装置1から受信した取得条件パラメタに位置情報があるか否かを判別し、これがあった場合には、「取得条件(地域)適合性判別処理」を実行する(ステップ1002)。図11は当該「取得条件(地域)適合性判別処理」の処理動作の概略を示したフローチャートである。   In step 1001, it is determined whether or not the acquisition condition parameter received from the terminal device 1 has position information. If there is this, “acquisition condition (region) suitability determination processing” is executed (step 1002). . FIG. 11 is a flowchart showing an outline of the processing operation of the “acquisition condition (region) suitability determination process”.

ステップ1101では、フレーム台紙ID、フレームID、測位レベル(何れも端末装置1から受信した情報)に基づいて取得条件(地域限定)テーブル(図16(a))を参照して、取得条件を取得する。   In step 1101, the acquisition condition is acquired with reference to the acquisition condition (region limited) table (FIG. 16A) based on the frame mount ID, the frame ID, and the positioning level (both are information received from the terminal device 1). To do.

続くステップ1102では、位置情報(端末装置1から受信した情報)を中心とした円であって、測位レベルに応じた半径の円を生成する。測位レベルは、本実施例では「誤差50m未満」というようなことを示す情報を想定しているため、半径もそのまま50mや100mとするものである。なお、例えば測位レベルが補足した衛星の個数の情報であるような場合には、当該個数情報とこれに対応する距離(半径)情報とを対応付けて取得条件(地域限定)テーブルに定義しておいて、これに基づいて円を生成するもの等であってもよい。   In the subsequent step 1102, a circle centered on the position information (information received from the terminal device 1) and having a radius corresponding to the positioning level is generated. Since the positioning level assumes information indicating that “error is less than 50 m” in this embodiment, the radius is also set to 50 m or 100 m as it is. For example, when the positioning level is information on the number of satellites supplemented, the number information and the distance (radius) information corresponding to the information are defined in the acquisition condition (region limited) table. In this case, a circle may be generated based on this.

続くループ処理は、ステップ1103〜1104の処理を、取得条件(地域限定)テーブル(図16(a))に設定されている図形(=地域)の数だけ行うものである。ここで言う“図形”とは、地図座標をもった図形のことであり、複数箇所設定されている場合もあるためループ処理によって全ての図形(=地域)に対して処理を実行させるものである。   In the subsequent loop processing, the processing in steps 1103 to 1104 is performed by the number of figures (= regions) set in the acquisition condition (region limitation) table (FIG. 16A). “Graphic” here refers to a graphic with map coordinates. Since there are cases where a plurality of locations are set, processing is executed for all the graphics (= regions) by loop processing. .

ステップ1103では、取得条件(地域限定)テーブル(図16(a))の図形種別を基に図形データから図形を生成する処理が実行される。図計種別とは、線やポリゴンといった種別であり、図形データは点(地図座標)などである。例えば、図形データとして3点の地図座標がある場合に、図形種別がポリゴンである場合には三角形の図形が生成され、図形種別が線である場合には3点を結んだ線となるようなものである。ここでの図形生成の処理には、測位レベルの情報も利用され、測位レベルに合わせた図形種別若しくは図形データが選択されて図形の生成処理が行われる(測位レベルと図形種別若しくは図形データの対応付けが取得条件(地域限定)テーブルになされている)。具体的には、測位レベルが低いほど図形(=地域)の範囲を小さくさせる処理となる。測位レベルが低いということは自己位置の特定の誤差が大きいということであり、ステップ1102で生成される円(端末装置1が存在するであろう範囲を示す)も大きくなる。後の処理で当該円とステップ1103の図形(=地域)の接触の有無を判別することで、設定されている地域に端末装置1があるか否かを判別するものであるが、比較対象であるステップ1103の図形(=地域)が一定であると、円が大きい(測位レベルが低い)場合には条件が緩くなってしまう結果を招くこととなる。よって、測位レベルが低い場合にも、設定されている地域(図形)との接触の条件が緩くなり過ぎないように、測位レベルに応じて図形(=地域)の範囲を変化させるものである。なお、測位レベルの高低に関わらずステップ1102で生成する円の半径を一定にすることで、「接触の条件が緩くなる」ということを防止するようにしてもよいが、測位レベルに応じた円はその範囲内に端末装置が存在するであろう範囲を示すものであるため、測位レベルを無視して円を一定にするよりは、本実施例の処理の方が優れている。   In step 1103, a process of generating a graphic from the graphic data based on the graphic type in the acquisition condition (region limited) table (FIG. 16A) is executed. The graphic type is a type such as a line or a polygon, and the graphic data is a point (map coordinate) or the like. For example, when there are three map coordinates as graphic data, a triangular figure is generated when the graphic type is polygon, and a line connecting three points is generated when the graphic type is line. Is. In this figure generation process, positioning level information is also used, and a graphic type or graphic data is selected according to the positioning level, and graphic generation processing is performed (correspondence between positioning level and graphic type or graphic data). (Attachment is made to the acquisition condition (region-only) table). More specifically, the lower the positioning level, the smaller the figure (= region) range. When the positioning level is low, the specific error of the self-position is large, and the circle generated in step 1102 (indicating the range where the terminal device 1 will exist) becomes large. In a later process, it is determined whether or not there is the terminal device 1 in the set area by determining whether or not the circle and the figure (= area) in step 1103 are in contact with each other. If the figure (= region) in a certain step 1103 is constant, the result is that the condition becomes loose when the circle is large (positioning level is low). Therefore, even when the positioning level is low, the range of the figure (= area) is changed according to the positioning level so that the condition for contact with the set area (graphic) does not become too loose. It should be noted that it is possible to prevent the “contact condition from becoming loose” by keeping the radius of the circle generated in step 1102 constant regardless of the level of the positioning level. Indicates the range within which the terminal device will be present, and therefore the processing of this embodiment is superior to making the circle constant while ignoring the positioning level.

続くステップ1104では、ステップ1102で生成した円と、ステップ1103で生成した図形が接触するか否かを判別し、接触していない場合にはループ処理を進行し(次の図形(地域)の処理を行う)、接触している場合にはループを抜けてステップ1105へと移行して「取得条件適合」である旨の情報を返す。ループが終了した場合(即ち、何れの図形(=地域)にも接触しなかった場合)には、「取得条件不適合」である旨の情報を返して「取得条件(地域)適合性判別処理」の処理を終了する(ステップ1106)。   In the subsequent step 1104, it is determined whether or not the circle generated in step 1102 and the graphic generated in step 1103 are in contact with each other. If not, the loop process proceeds (processing of the next graphic (region)). If there is contact, the process exits the loop and proceeds to step 1105 to return information indicating “acquisition of acquisition conditions”. When the loop is finished (that is, when no figure (= region) is touched), information indicating that “acquisition condition is not met” is returned, and “acquisition condition (region) suitability determination process” This process is terminated (step 1106).

図10に戻って説明を続ける。   Returning to FIG.

図11の処理であるステップ1002に続くステップ1003では、「取得条件(地域)適合性判別処理」による戻り値が取得条件適合であるか否かを判別する。取得条件適合であった場合にはステップ1004へと移行し、不適合であった場合にはステップ1015へと移行して、フレーム取得失敗である旨とその理由(該当フレームを取得できる地域にいないことを示す情報。上記説明した円と図形の位置関係を判別して、「もう少し東」というようなヒント情報を返すものであってよい)を戻り値(端末装置1へ返す情報)としてセットする。   In step 1003 subsequent to step 1002 in FIG. 11, it is determined whether or not the return value obtained by the “acquisition condition (region) suitability determination process” is the acquisition condition conformity. If the acquisition condition is met, the process proceeds to step 1004. If the acquisition condition is not met, the process proceeds to step 1015 to indicate that the frame acquisition has failed and the reason (the area is not in the area where the frame can be acquired). The positional relationship between the circle and the graphic described above is discriminated, and hint information such as “slightly more east” may be returned) as a return value (information to be returned to the terminal device 1).

ステップ1004では、端末装置1から受信した取得条件パラメタに解除コードがあるか否かを判別し、これがあった場合には、フレーム台紙ID、フレームID、コード種別、(端末装置1から受信した情報)に基づいて取得条件(解除コード)テーブル(図17(a))を参照して、取得条件を取得する。   In step 1004, it is determined whether or not the acquisition condition parameter received from the terminal device 1 has a release code. If there is, the frame mount ID, frame ID, code type, (information received from the terminal device 1). ) Based on the acquisition condition (cancellation code) table (FIG. 17A), the acquisition condition is acquired.

続くステップ1006では、取得条件(解除コード)テーブルから取得した取得条件たるコード情報と、端末装置1から受信した解除コードとが適合するか否かを判別し、不適合であった場合にはステップ1015へと移行して、フレーム取得失敗である旨とその理由(該当フレームを取得できる解除コードではないことを示す情報)を戻り値(端末装置1へ返す情報)としてセットする。一方、適合であった場合(若しくはステップ1004の判別の結果、取得条件パラメタに解除コードが無かった場合)には、ステップ1007へと移行する。   In the subsequent step 1006, it is determined whether or not the code information as the acquisition condition acquired from the acquisition condition (release code) table and the release code received from the terminal device 1 are compatible. Then, the fact that the frame acquisition has failed and the reason (information indicating that it is not a cancellation code that can acquire the frame) is set as a return value (information to be returned to the terminal device 1). On the other hand, if it matches (or if the acquisition condition parameter has no release code as a result of the determination in step 1004), the process proceeds to step 1007.

ステップ1007では、フレーム台紙ID、フレームID(端末装置1から受信した情報)に対応する取得条件(時間限定)テーブル(図16(b))を参照して、取得条件があるか否かを判別する。取得条件が設定されていた場合にはステップ1008へと移行して「取得条件(時間)適合性判別処理」を実行する。図12は当該「取得条件(時間)適合性判別処理」の処理動作の概略を示したフローチャートである。   In step 1007, it is determined whether there is an acquisition condition by referring to the acquisition condition (time limited) table (FIG. 16B) corresponding to the frame mount ID and frame ID (information received from the terminal device 1). To do. If the acquisition condition is set, the process proceeds to step 1008 to execute “acquisition condition (time) suitability determination process”. FIG. 12 is a flowchart showing an outline of the processing operation of the “acquisition condition (time) suitability determination process”.

ステップ1201では、フレーム台紙ID、フレームIDに対応する取得条件(時間限定)テーブルから取得条件(時間帯情報)を取得する。   In step 1201, an acquisition condition (time zone information) is acquired from an acquisition condition (time limited) table corresponding to the frame mount ID and frame ID.

続くループ処理は、ステップ1203の処理を、取得条件(時間限定)テーブルに設定されている時間帯の数だけ行うものである。時間帯が複数設定されている場合もあるためループ処理によって全ての時間帯に対して処理を実行させるものである。   In the subsequent loop processing, the processing in step 1203 is performed for the number of time zones set in the acquisition condition (time limited) table. Since a plurality of time zones may be set, the processing is executed for all the time zones by loop processing.

ステップ1203では、現在時刻が取得条件(時間限定)テーブルに設定されている開始日時と終了日時の間であるか否かを判別し、該当しない場合にはループ処理を進行し(次の時間帯の処理を行う)、該当する場合にはループを抜けてステップ1204へと移行して「取得条件適合」である旨の情報を返す。ループが終了した場合(即ち、何れの時間帯にも適合しなかった場合)には、「取得条件不適合」である旨の情報を返して「取得条件(時間)適合性判別処理」の処理を終了する(ステップ1205)。   In Step 1203, it is determined whether or not the current time is between the start date and time and the end date and time set in the acquisition condition (time limited) table. If not, the loop process is performed (in the next time zone). If applicable, exit the loop and go to step 1204 to return information indicating “acquisition of acquisition conditions”. When the loop is completed (that is, when it does not conform to any time zone), information indicating that “acquisition condition non-conformity” is returned and “acquisition condition (time) conformity determination processing” is performed. The process ends (step 1205).

図10に戻って説明を続ける。   Returning to FIG.

図12の処理であるステップ1008に続くステップ1009では、「取得条件(時間)適合性判別処理」による戻り値が取得条件適合であるか否かを判別する。取得条件適合であった場合(若しくはステップ1007の判別の結果、時間に関する取得条件が無かった場合)にはステップ1010へと移行し、不適合であった場合にはステップ1015へと移行して、フレーム取得失敗である旨とその理由(該当フレームを取得できる時間帯ではないことを示す情報)を戻り値(端末装置1へ返す情報)としてセットする。   In step 1009 following step 1008, which is the process of FIG. 12, it is determined whether or not the return value obtained by the “acquisition condition (time) suitability determination process” is the acquisition condition conformity. If the acquisition condition is met (or if the result of determination in step 1007 is that there is no acquisition condition related to time), the process proceeds to step 1010. If the acquisition condition is not met, the process proceeds to step 1015. The acquisition failure and the reason (information indicating that it is not the time zone in which the frame can be acquired) are set as return values (information to be returned to the terminal device 1).

ステップ1010では、フレーム台紙ID、フレームID(端末装置1から受信した情報)に対応する取得条件(数量限定)テーブル(図18(a))を参照して、取得可フラグが真であるか偽であるかを判別する。取得可フラグが偽であった場合には、ステップ1015へと移行して、フレーム取得失敗である旨とその理由(該当フレームの配信限定数量が終了したことを示す情報)を戻り値(端末装置へ1返す情報)としてセットする。   In step 1010, referring to the acquisition condition (quantity limited) table (FIG. 18 (a)) corresponding to the frame mount ID and frame ID (information received from the terminal device 1), the acquisition enable flag is true or false. Is determined. If the acquisition permission flag is false, the process proceeds to step 1015, and the return value (terminal device) indicates that the frame acquisition has failed and the reason (information indicating that the distribution limited quantity of the corresponding frame has ended). Information to return to 1).

取得可フラグが真であった場合には、フレーム台紙ID、フレームIDに対応する取得条件(数量限定)テーブルの“カウンタ”をインクリメントし(ステップ1011)、当該インクリメントされたカウンタが“上限カウンタ”未満であるか否かを判別して(ステップ1012)、未満である場合にはステップ1014の「フレーム画像取得処理」へと移行し、カウンタが上限カウンタに達した場合には、取得可フラグを偽にしてステップ1014の「フレーム画像取得処理」へと移行する。   If the acquisition enable flag is true, the frame mount ID and the “counter” in the acquisition condition (quantity limited) table corresponding to the frame ID are incremented (step 1011), and the incremented counter becomes the “upper limit counter”. It is determined whether or not it is less than (step 1012). If it is less, the process proceeds to “frame image acquisition processing” in step 1014. If the counter reaches the upper limit counter, the acquisition enable flag is set. If it is false, the process proceeds to “frame image acquisition process” in step 1014.

ステップ1014の「フレーム画像取得処理」は図4で示した処理となる。ステップ1014から図4の処理を呼び出す場合には、引数としてフレーム台紙IDとフレームIDと端末識別情報と取得条件パラメタと(何れも端末装置1から受信した情報)、が与えられる(ステップ401)。   The “frame image acquisition process” in step 1014 is the process shown in FIG. When calling the processing of FIG. 4 from step 1014, the frame mount ID, the frame ID, the terminal identification information, and the acquisition condition parameter (both are information received from the terminal device 1) are given as arguments (step 401).

ステップ402では、フレーム台紙IDとフレームIDと端末識別情報に基づいて端末対応フレーム画像テーブル(図15(b))のパラメタ許可フラグを参照する。パラメタ許可フラグは、フレーム画像パス(URL)にパラメタを付加することを示すフラグであり、外部のサーバ(コンテンツ提供サーバ4)にパラメタ(位置情報や解除コードなど)を渡すことで、コンテンツ提供サーバ4においても提供するコンテンツ(フレーム画像)をパラメタに応じて変更等させることを可能とするものである。   In step 402, the parameter permission flag of the terminal corresponding frame image table (FIG. 15B) is referred to based on the frame mount ID, the frame ID, and the terminal identification information. The parameter permission flag is a flag indicating that a parameter is added to the frame image path (URL), and the parameter (location information, release code, etc.) is passed to the external server (content providing server 4), thereby providing the content providing server. 4 can also change the content (frame image) to be provided according to the parameters.

ステップ403ではパラメタ許可フラグの真偽を判別し、真であった場合にはステップ404へと移行して、フレーム画像パス(URL)に取得条件パラメタを付加する。一方、許可フラグが偽であった場合にはステップ404をスキップする。   In step 403, it is determined whether the parameter permission flag is true. If it is true, the process proceeds to step 404 to add an acquisition condition parameter to the frame image path (URL). On the other hand, if the permission flag is false, step 404 is skipped.

続くステップ405では、フレーム画像パスに基づいて当該場所からフレーム画像ファイルを取得する処理が実行される。なお、図4の処理は主に外部のサーバ(コンテンツ提供サーバ4)からフレーム画像を取得することを想定した処理であるが、サービス提供サーバ3がフレーム画像を所持している場合にも、同様の処理で動作可能である(フレーム画像パスがサービス提供サーバ3内の場所を指すだけの違い)。   In the subsequent step 405, processing for acquiring a frame image file from the location is executed based on the frame image path. Note that the processing in FIG. 4 is mainly processing assuming that a frame image is acquired from an external server (content providing server 4), but the same applies when the service providing server 3 possesses a frame image. (The difference is that the frame image path only points to a location in the service providing server 3).

上記処理よってフレーム画像が取得された場合(図10ステップ1014)には、当該フレーム画像を端末装置1へと送信し、取得失敗した場合(ステップ1015)には戻り値(取得失敗とその理由を示す情報)を端末装置1へと送信する(端末装置1は当該情報を受信することにより図8のステップ811の判別処理を行う)。   When a frame image is acquired by the above processing (step 1014 in FIG. 10), the frame image is transmitted to the terminal device 1. When acquisition fails (step 1015), a return value (acquisition failure and its reason is displayed). (Information shown) is transmitted to the terminal device 1 (the terminal device 1 performs the determination processing in step 811 of FIG. 8 by receiving the information).

上記処理に基づく端末装置1の画面遷移の一例が図25である。左端の画面においてハイライトされているフレーム(サムネイル)についての説明文が表示され、これが選択された場合には、サーバにおける取得条件の判別の結果、フレームを取得できた場合には右端上の画面となり(ステップ810→(サーバ側処理の図10ステップ1010→ステップ1011→〜→ステップ1014)→ステップ811→ステップ812〜の流れ)、フレームを取得でなかった場合には右端下の画面となる(ステップ810→(図10ステップ1010→ステップ1015)→ステップ811→ステップ808の流れ)。   An example of the screen transition of the terminal device 1 based on the said process is FIG. An explanatory text about the frame (thumbnail) highlighted on the leftmost screen is displayed. When this is selected, if the frame is acquired as a result of determining the acquisition condition in the server, the screen on the upper right is displayed. (Step 810 → (Step 1010 in FIG. 10 of server side processing → Step 1011 → ˜ → Step 1014) → Step 811 → Step 812-12), and if the frame is not acquired, the lower right screen is displayed ( Step 810 → (Step 1010 → Step 1015 in FIG. 10) → Step 811 → Step 808)

図6へ戻って説明を続ける。   Returning to FIG. 6, the description will be continued.

上記説明において、ステップ601〜ステップ603において行われるフレーム撮影処理及びそれに必要なサーバ側の処理などを説明した。   In the above description, the frame photographing process performed in steps 601 to 603, the server-side process necessary for the frame photographing process, and the like have been described.

メニュー画面(図21)において「設定変更」が選択されて台紙の変更要求があった場合には(ステップ604)、ステップ605へと移行してフレーム台紙IDの選択処理を行う。当該処理は、アプリが有する若しくはサーバからダウンロードした複数のフレーム台紙IDをリスト表示(表示はIDをそのまま表示するものでも構わないが、「Cキャラクターフレーム」といったカテゴリ名等による)させてこれをユーザに選択されるものや、ユーザがフレーム台紙IDを直接入力するもの、2次元バーコード情報を読み込むことでフレーム台紙IDが取得されるもの等である。   When “change setting” is selected on the menu screen (FIG. 21) and there is a request to change the mount (step 604), the process proceeds to step 605 to select the frame mount ID. This processing is performed by displaying a list of a plurality of frame mount IDs possessed by the application or downloaded from the server (the display may be displayed as it is, but the category name such as “C character frame”). Selected by the user, a user directly inputting a frame mount ID, a frame mount ID obtained by reading two-dimensional barcode information, and the like.

続くステップ606では、変更前のフレーム台紙IDと各フレームの取得フラグと変更後のフレーム台紙IDを端末識別情報及びユーザIDと共にサービス提供サーバ3へ送信する処理を行う。ユーザ情報(変更前のフレーム台紙IDに属するフレームの取得状況)をサーバ側で管理するためのものである。   In the subsequent step 606, a process of transmitting the frame mount ID before the change, the acquisition flag of each frame, and the frame mount ID after the change to the service providing server 3 together with the terminal identification information and the user ID is performed. This is for managing user information (acquisition status of frames belonging to the frame mount ID before change) on the server side.

ステップ606の情報送信に対するサービス提供サーバ3からの応答(以下にサーバ側の処理を説明する)があった場合には、当該応答に含まれる情報に基づいて、変更後のフレーム台紙IDについてのアプリの設定を行い、画面(メニュー画面(図21))の表示処理を行う(ステップ607)。   If there is a response from the service providing server 3 to the information transmission in step 606 (the server side processing will be described below), the application about the frame mount ID after the change is based on the information included in the response And the display process of the screen (menu screen (FIG. 21)) is performed (step 607).

図13は、ステップ606による端末装置1からの情報を受信した場合のサービス提供サーバ3における処理動作の概略を示したフローチャートである。   FIG. 13 is a flowchart showing an outline of the processing operation in the service providing server 3 when the information from the terminal device 1 in step 606 is received.

ステップ1301では、受信した変更前のフレーム台紙IDと各フレームの取得フラグとユーザIDとに基づいてユーザデータ管理テーブル(図18(b))を更新(該当テーブルがない場合には生成)する。   In step 1301, the user data management table (FIG. 18B) is updated (generated if there is no corresponding table) based on the received frame mount ID before change, the acquisition flag of each frame, and the user ID.

続くステップ1302では、受信した変更後のフレーム台紙IDと端末識別情報とに基づいて「フレーム台紙情報取得処理」(図3の処理)を実行し、変更後のフレーム台紙IDとユーザIDに基づいてユーザデータ管理テーブル(図18(b))を検索し、該当するテーブルがあった場合には“取得フラグ”を取得して真偽を判別する(ステップ1303)。   In the subsequent step 1302, the “frame mount information acquisition process” (the process of FIG. 3) is executed based on the received frame mount ID after change and the terminal identification information, and based on the changed frame mount ID and user ID. The user data management table (FIG. 18B) is searched, and if there is a corresponding table, an “acquisition flag” is acquired to determine whether it is true or false (step 1303).

取得フラグが真であったフレームID(及びフレーム台紙ID)について、フレーム画像属性テーブル(図15(a))を参照して保持可能フラグの真偽を判別し、保持可能である場合には処理結果(端末装置1へと送信する情報)にフレーム画像を追加する。なお、ステップ1303で取得した“取得フラグ”も処理結果(端末装置1へと送信する情報)に加える(ステップ1304)。   For the frame ID (and frame mount ID) for which the acquisition flag is true, the authenticity of the holdable flag is determined with reference to the frame image attribute table (FIG. 15A), and processing is performed if it can be held. A frame image is added to the result (information to be transmitted to the terminal device 1). Note that the “acquisition flag” acquired in step 1303 is also added to the processing result (information transmitted to the terminal device 1) (step 1304).

ステップ1305において処理結果(ステップ1302による初期設定情報と、ステップ1304によるユーザ情報に基づく設定情報)を端末装置へと送信する。端末装置1では、当該受信した情報でアプリを設定する(図6ステップ607)ことにより、サーバ側でユーザ情報が管理されていた場合には、既に取得済みであったフレームについては、フレーム画像がダウンロードされて使える状態となる。   In step 1305, the processing result (initial setting information in step 1302 and setting information based on user information in step 1304) is transmitted to the terminal device. In the terminal device 1, when user information is managed on the server side by setting an application with the received information (step 607 in FIG. 6), a frame image is already acquired for the already acquired frame. Downloaded and ready to use.

本実施例では、先ずユーザが所望のフレーム(サムネイル)を選択し、当該フレームの取得を許すか否かというようなものを例として説明したが、特にフレームを限定させずに、「フレーム撮影をしたい」という選択のみをユーザに行わせ、取得条件パラメタをサーバへと送信し、受信したパラメタやサーバにおいて判別可能な条件(例えば時間)に基づき取得可能なフレームがあるか否かを判別して、これがあった場合にはフレーム画像を端末装置へと送信し、これを受信した端末装置においてフレーム取得or撮影が可能となるようなものであってもよい。条件が合わなければフレームが取得できないのでフレーム撮影は行われず、たまたま条件があった場合にはフレーム撮影がなされる(どのようなフレームとなるかもわからない)というような遊び的側面の強いサービスを提供することができる。この場合の端末装置からの取得条件パラメタの送信にあたり、取得条件パラメタの取得のためにユーザの操作を必要するものは煩雑となるため、装置で自動的に取得できるもの(例えばGPSを利用した位置情報)のみとしてもよいし、端末装置からの取得条件パラメタの送信は行わず、サーバ側で判別可能な条件のみに基づいて処理するものであってもよい。   In this embodiment, the user first selects a desired frame (thumbnail) and whether or not to allow the acquisition of the frame has been described as an example. The user selects only “I want to do”, sends the acquisition condition parameter to the server, and determines whether there is a frame that can be acquired based on the received parameter and the condition (for example, time) that can be determined by the server. When this occurs, the frame image may be transmitted to the terminal device, and the terminal device that has received the frame image may be able to acquire or shoot the frame. Since frames cannot be acquired unless the conditions are met, frame shooting is not performed, and if there is a condition, frame shooting is performed (you do not know what kind of frame it will be) can do. In this case, when the acquisition condition parameter is transmitted from the terminal device, the one that requires the user's operation for acquisition of the acquisition condition parameter becomes complicated, so that it can be automatically acquired by the device (for example, a position using GPS) Information) may be used alone, or the acquisition condition parameter may not be transmitted from the terminal device, and processing may be performed based only on a condition that can be discriminated on the server side.

また、ユーザによってフレームが選択された場合においても、上記と同様に特定の条件に適合するか否かを判別してこれに合致した場合には、ユーザが選択したフレームを変更させるようなものであってもよい(図4の処理の説明の中においてふれた取得条件パラメタを使用したフレームの変更がこれと同趣旨)。図26に、このような処理における端末装置1の画面遷移の一例を示した。左端の画面においてハイライトされているフレーム(サムネイル)についての説明文が表示され、これが選択された場合には、サーバにおける取得条件の判別が行われる。ここの例の場合、サーバ側では、端末装置1から取得した位置情報に基づいて当該位置の天気情報を取得する処理と(天気情報は自己が保有しているのであればそれに基づいて取得するものであってもよいし、外部の気象情報提供サーバへ問い合わせて取得するもの等であってもよい)、天気に対応したフレームがあるか否かの判別処理が行われる(天気に関する取得条件テーブルが必要となる)。この結果、フレームを取得できた場合には当該フレーム画像(例えば、ユーザが選択したフレームにアレンジがなされた雨バージョンのフレーム)が端末装置1へと送信されることとなる。   In addition, even when a frame is selected by the user, it is determined whether or not the specific condition is met and the frame selected by the user is changed when the frame is met. There may also be a change in the frame using the acquisition condition parameter mentioned in the description of the processing in FIG. FIG. 26 shows an example of screen transition of the terminal device 1 in such processing. An explanatory text about the frame (thumbnail) highlighted on the leftmost screen is displayed. When this is selected, the acquisition condition in the server is determined. In the case of this example, on the server side, based on the position information acquired from the terminal device 1, processing for acquiring weather information at the position, and (if the weather information is owned by itself, the server acquires based on it) Or may be acquired by inquiring to an external weather information providing server), and a determination process is performed to determine whether there is a frame corresponding to the weather (the acquisition condition table regarding weather is Required). As a result, when the frame can be acquired, the frame image (for example, a rain version frame arranged in the frame selected by the user) is transmitted to the terminal device 1.

以上のごとく、本実施例の撮像データ加工システムによれば、GPSを利用した自己位置取得手段を備えるデジタルカメラや携帯電話等において、現在の位置(自己位置情報)に対応するフレーム情報(加工データ)を用いて撮影した写真(撮像データ)にフレームが付加されるというような使い方ができる。よって、GPS等の自己位置取得手段を備える静止画若しくは動画を撮影可能な情報処理装置において新たな利用方法を提供することができる。なお、本実施例では自己位置取得手段の例としてGPSを利用するものを用いたが、例えば、無線タグやバーコード等を用いて、特定の場所に設置(貼付)してある無線タグやバーコードから情報を読み取ることにより現在位置情報を取得するようなものであってもよいし(即ち、端末装置にはICリーダやバーコードリーダ等が備えられ、これが自己位置取得部として機能する)、携帯電話である場合には基地局の情報によって現在位置情報を取得するようなものや、無線LANなどの無線ネットワークにおけるアクセスポイントの情報によって子機(端末装置)の現在位置情報を取得するようなもの等であっても構わない。   As described above, according to the imaging data processing system of this embodiment, frame information (processing data) corresponding to the current position (self-position information) in a digital camera or a mobile phone having a self-position acquisition means using GPS. ) Can be used such that a frame is added to a photograph (imaging data). Therefore, it is possible to provide a new usage method in an information processing apparatus that can capture a still image or a moving image including self-position acquisition means such as GPS. In the present embodiment, a device that uses GPS is used as an example of the self-location acquisition unit. However, for example, a wireless tag or bar installed (attached) at a specific location using a wireless tag, a barcode, or the like. The current position information may be acquired by reading the information from the code (that is, the terminal device is provided with an IC reader, a barcode reader, etc., which functions as a self-position acquisition unit) In the case of a mobile phone, the current position information is acquired from the base station information, or the current position information of the slave unit (terminal device) is acquired from the access point information in a wireless network such as a wireless LAN. It may be a thing.

また、現在の位置情報に対応したフレームの取得だけでなく、加工データであるフレーム画像には他の取得条件(加工データ特定情報)も対応付けられており、ユーザに対して種々のサービス(新たな利用方法)を提供することができる。本実施例では、「加工データ特定情報」として、時間情報、コード情報、順番情報、数量情報を例として用いて説明したが、その他種々の条件(情報)を「加工データ特定情報」として用いるようにしてよい。例えば、説明の中で少しふれたが、気象情報を「加工データ特定情報」として用いるものであってよい。上記説明のごとく、気象情報提供サーバから気象情報を取得するものであってもよいが、端末装置に気象観測部(温度観測部や湿度観測部など)を備えさせ、当該気象観測部から得られる情報をサーバへと送信して、フレームの取得や変更の判別に使用するようなものであってもよい。   In addition to the acquisition of the frame corresponding to the current position information, other acquisition conditions (processing data specifying information) are also associated with the frame image that is the processing data, and various services (new data) are provided to the user. Use method). In this embodiment, the time information, code information, order information, and quantity information have been described as examples of “processing data specifying information”. However, various other conditions (information) are used as “processing data specifying information”. You can do it. For example, although mentioned a little in the description, the weather information may be used as “processing data specifying information”. As described above, the weather information may be acquired from the weather information providing server. However, the terminal device is provided with a weather observation unit (such as a temperature observation unit or a humidity observation unit), and is obtained from the weather observation unit. Information may be transmitted to the server and used for frame acquisition and change determination.

被写体情報を「加工データ特定情報」として用いるようにしてよい。端末装置に画像認識部を備えさせ、当該画像認識部から得られる情報をサーバへと送信して(若しくはサーバ側に画像認識部を備えさせ、撮像データを端末装置からサーバへ送信させサーバ側で画像判別)、フレームの取得や変更の判別や写真の加工に使用するようなものであってもよい。例えば、被写体が人間(顔)だと判別できた場合には、顔の周りにキャラクタなどの画像が付加されるようなものである。   The subject information may be used as “processing data specifying information”. The terminal device is provided with an image recognition unit, and the information obtained from the image recognition unit is transmitted to the server (or the server side is provided with the image recognition unit, and the imaging data is transmitted from the terminal device to the server. It may be used for image discrimination), frame acquisition and change discrimination, and photo processing. For example, when it can be determined that the subject is a human (face), an image of a character or the like is added around the face.

イベント情報を「加工データ特定情報」として用いるようにしてよい。イベント情報とはユーザの端末装置に対する操作履歴等に基づくものである。例えば、本アプリを起動した回数や、本アプリにてフレーム撮影を行った回数などの情報を、端末装置若しくはサーバ側で履歴として管理し、ある一定数を超えたら取得できるフレームを設定しておくものや、ユーザにより設定されたユーザ情報に基づいてフレームの取得や変更を行うもの等である(例えば、誕生日を管理しておき誕生日には特別のフレームが取得できるといったものや、ユーザの出身地や自宅を管理することで、当該地にいる場合は特別のフレームが取得できるといったもの等)。実施例中で説明したコード情報の取得もこのイベント情報に該当すると言える。   The event information may be used as “processing data specifying information”. The event information is based on the operation history of the user terminal device. For example, information such as the number of times this application has been started and the number of times frame shooting has been performed with this application is managed as a history on the terminal device or server side, and frames that can be acquired when a certain number is exceeded are set. Or a frame that is acquired or changed based on user information set by the user (for example, a birthday can be managed and a special frame can be acquired for the birthday) For example, you can manage your hometown or home so that you can get a special frame if you are in that area). It can be said that the acquisition of the code information described in the embodiment also corresponds to this event information.

音声情報を「加工データ特定情報」として用いるようにしてよい。端末装置に音声情報取得部(マイク)を備えさせ、当該音声情報取得部から得られる情報をサーバへと送信して、フレームの取得や変更の判別に使用するようなものであってもよい。例えば、音声の周波数などを判別してフレームの取得や変更の判別に使用するものであってもよいし、単純に音の大きさを判別してフレームの取得や変更の判別に使用するようなものであってもよい。   Audio information may be used as “processed data specifying information”. The terminal device may be provided with an audio information acquisition unit (microphone), and information obtained from the audio information acquisition unit may be transmitted to a server and used for frame acquisition or change determination. For example, it may be used to determine the frequency or the like of a sound and use it to acquire or change a frame, or simply determine the volume of a sound and use it to determine the acquisition or change of a frame. It may be a thing.

数値情報を「加工データ特定情報」として用いるようにしてよい。本実施例における順番情報や数量情報もこの数値情報にあたると言えるが、その他、例えば乱数を発生させて、当該乱数が定義された数値範囲に入った場合にフレームの取得や変更がされるようなものであってよい。   Numerical information may be used as “processing data specifying information”. The order information and quantity information in this embodiment can also be said to correspond to this numerical information, but in addition, for example, when a random number is generated and the random number falls within a defined numerical range, a frame is acquired or changed. It may be a thing.

地点情報を「加工データ特定情報」として用いるようにしてよい。その地点で得られる情報を利用してフレームの取得や変更を行うものである。その地点で得られる情報とは、例えば現地に設置してあるICタグやバーコード等から取得する情報や、位置情報から地図検索(地図情報提供サーバに問い合わせる等)を行って得られるその地点の施設情報等である。これにより例えば、遊園地など施設の入場時においてICタグなどにより入場番号を取得し(現地施設における対応が必要)、フレームに入場番号を埋め込むといった処理も可能となる。   The point information may be used as “processing data specifying information”. The information obtained at that point is used to acquire or change the frame. The information obtained at the point is, for example, information obtained from an IC tag or barcode installed in the site, or the point obtained by performing a map search (inquiring to the map information providing server) from the position information. Facility information. Thereby, for example, when entering a facility such as an amusement park, it is possible to obtain an entrance number using an IC tag or the like (requires handling at the local facility) and embed the entrance number in the frame.

方位情報を「加工データ特定情報」として用いるようにしてよい。端末装置に方位情報取得部を備えさせ、当該方位情報取得部から得られる情報をサーバへと送信して、フレームの取得や変更の判別に使用するようなものであってもよい。例えば、その方位の代表的な星座がフレームに描かれる等である(時間情報と合わせて、夜のみ星座フレームが取得できるものや、その時間(時節)のその方位の星座のフレームが得られるような処理としてもよい)。方位情報取得部は、例えば、地磁気センサなどである。複数回位置取得を行うことで進行方向を判別するものであってもよい(この場合はサーバ側に“方位情報取得部”を備えることも可能)。   The azimuth information may be used as “processing data specifying information”. The terminal device may be provided with an orientation information acquisition unit, and information obtained from the orientation information acquisition unit may be transmitted to a server and used for frame acquisition or change determination. For example, a representative constellation of that direction is drawn on the frame (it is possible to obtain a constellation frame only at night, along with time information, or a frame of the constellation of that direction at that time (time)) May be a good process). The orientation information acquisition unit is, for example, a geomagnetic sensor. The traveling direction may be determined by performing position acquisition a plurality of times (in this case, an “azimuth information acquisition unit” may be provided on the server side).

また、方位情報取得部に加えて、フォーカス情報取得部も備えさせることにより、自己位置情報と、方位情報と、フォーカス情報とに基づいて(即ち、基準位置と方向と距離に基づいて)被写体の位置を算出し、当該被写体位置情報に基づいてフレームの取得や変更の判別に使用するようなものであってもよい。   In addition to the azimuth information acquisition unit, a focus information acquisition unit is also provided so that the subject's position can be determined based on the self-position information, the azimuth information, and the focus information (that is, based on the reference position, direction, and distance). The position may be calculated and used for frame acquisition or change determination based on the subject position information.

以上例示した各「加工データ特定情報(取得条件)」に基づいてフレームの取得や変更の判別をするためには、当然にそれぞれの条件を定めた“条件テーブル”の設定がなされていることが前提となるが、基本的な考え方は実施例中で説明した取得条件テーブルと変わらない(各加工データ特定情報(取得条件)と、加工データ(フレーム)との対応付けがなされていればよい)。それぞれの「加工データ特定情報(取得条件)」を組み合わせて処理することができる点も実施例中で説明した通りである。   In order to determine whether to acquire or change a frame based on each of the “processed data specifying information (acquisition conditions)” exemplified above, it is a matter of course that a “condition table” that defines each condition is set. Although it is a premise, the basic idea is the same as the acquisition condition table described in the embodiment (As long as each processing data specifying information (acquisition condition) and processing data (frame) are associated with each other). . The point that each “processing data specifying information (acquisition condition)” can be processed in combination is also as described in the embodiment.

以上のごとく、加工データ特定情報と加工データとの対応付けに基づく加工データの取得や変更が行われ、当該取得した加工データを利用して撮像データ加工装置(端末装置)によって撮影された撮像データに対する加工処理が行われる。加工データ特定情報としては種々のものが考えられ、且つ、それらの組み合わせも自由に行うことが可能である。よって、ユーザに対して種々のサービスを提供することができるのである。特に、端末装置がある場所付近の環境情報(位置情報や、気象情報や、音声情報など)は、ユーザがいる場所に基づく情報であるため、これを利用することによりユーザにとって臨場感のあるサービスを提供することが可能となるものである。   As described above, the processing data is acquired or changed based on the correspondence between the processing data specifying information and the processing data, and the imaging data captured by the imaging data processing device (terminal device) using the acquired processing data. Is processed. Various pieces of processing data specifying information are conceivable, and combinations thereof can be freely performed. Therefore, various services can be provided to the user. In particular, environmental information (location information, weather information, voice information, etc.) near the location where the terminal device is located is information based on the location where the user is located. Can be provided.

なお、加工データ特定情報と加工データとの対応付けを動的に変化させるものとしてもよい。例えば、加工データ(フレーム)と対応付けられる位置情報を動的に変化させることで、あるときA地点で撮影した写真に対してある特定のフレームが用いられたとしても、別のときにA地点で撮影した写真に対しては別のフレームが用いられる(orフレームの付加処理が行われない)といったこととなるため、同じ場所で写真を撮ると常に同じ結果になるわけではなく、時間・時節に応じて異なる結果が得られることとなる。よって、ユーザに対して種々のサービスを提供することができる。位置情報を動的に変化させる手法は、例えば、一定期間ごとに乱数を発生させて当該乱数に基づいて“図形データ”や“図形種別”を変更させものや、時刻情報から得られる数値に基づいて“図形データ”や“図形種別”を変更させるもの等である(例えば座標情報に、乱数などの数値を用いて特定の数式に基づいて演算処理行うなど)。   The association between the machining data specifying information and the machining data may be dynamically changed. For example, by dynamically changing the position information associated with the processing data (frame), even if a specific frame is used for a photograph taken at point A at one time, point A at another time Since a different frame is used for the photos taken in (no additional processing of or frames is performed), taking a photo at the same location does not always give the same result, time and time Depending on the case, different results will be obtained. Therefore, various services can be provided to the user. The method of dynamically changing the position information is, for example, a method in which a random number is generated every fixed period and “graphic data” or “graphic type” is changed based on the random number, or based on a numerical value obtained from time information. The “graphic data” and the “graphic type” are changed (for example, arithmetic processing is performed based on a specific mathematical expression using numerical values such as random numbers as coordinate information).

本実施例におけるフレーム選択画面は、フレームの“台紙帳”としても機能する。即ち、取得(使用)済みのフレームについてはその図柄がそのまま(サムネイル)表示され、取得がされていないものについては、図柄がわからないようなサムネイルとして表示されるものである。よって、使用した加工データ(フレーム)については順次“台紙帳”の該当欄が埋められていき、使用されていない加工データの欄はデータ名のみの表示やシルエット表示等を行うようにすることができるものである。よって、ユーザの収集意欲を増進させるようなサービスを提供することができる。   The frame selection screen in this embodiment also functions as a “mounting book” of frames. That is, for the frames that have been acquired (used), the symbols are displayed as they are (thumbnail), and those that have not been acquired are displayed as thumbnails whose symbols are not known. Therefore, for the processed data (frame) used, the corresponding column of the “Mount Book” is filled in sequentially, and the column of the processed data that is not used is displayed with only the data name or silhouette display. It can be done. Therefore, it is possible to provide a service that enhances the user's desire to collect.

フレーム撮影処理の際にフレームの取得ができた(若しくはフレームがある)場合には、表示部170に、カメラ部120によって得られる画像にフレームを重畳して表示させるようにしてもよい。即ち、撮影後に画像にフレームを重畳する加工(合成)処理を行うのとは別に、表示部に「被写体にフレームを重畳した映像」を表示させるものである。これにより、ユーザは撮影前に撮影後に得られる画像がどのような感じであるのかを認識することができる。   If a frame can be acquired (or there is a frame) during the frame photographing process, the display unit 170 may display the frame superimposed on the image obtained by the camera unit 120. That is, apart from performing processing (compositing) processing for superimposing a frame on an image after shooting, “video with a frame superimposed on a subject” is displayed on the display unit. Thereby, the user can recognize what the image obtained after shooting is like before shooting.

本発明に係る撮像データ加工システムはオリエンテーリングなどにも利用することができる。本発明に係る撮像データ加工システムによれば、地域限定と順番限定とを組み合わせることにより、決められたポイントで決められた順番で「フレーム撮影」をしないと各フレームが取得できないようにすることができるため、正しいポイントにおいて正しい順番で「フレーム撮影」をした場合にだけ、写真に「第nポイント通過OK」というような情報を重畳させる加工がなされるようにすることができるものである。よって、参加者は各ポイントで「フレーム撮影」を行うことで、そこに正しい順番で到達できたのかを認識でき、且つ、各ポイントにおける写真が正しくポイントを通過したことを示す証跡ともなる。   The imaging data processing system according to the present invention can also be used for orienteering and the like. According to the imaging data processing system according to the present invention, by combining the area limitation and the order limitation, each frame cannot be acquired unless “frame shooting” is performed in the order determined by the determined points. Therefore, only when “frame shooting” is performed in the correct order at the correct point, processing such as “nth point passing OK” can be superimposed on the photograph. Therefore, the participant can recognize whether or not he / she has reached the correct order by performing “frame shooting” at each point, and also serves as a trail indicating that the photograph at each point has correctly passed the point.

また、本発明に係る撮像データ加工システムを利用することで、写真撮影した場所の過去の風景を提供するようなサービスも行うことができる。実施例で説明した“フレーム”に替えてその位置の過去の写真等を“加工データ”として対応付けておき、実際に撮影した写真と過去の写真などを並べた(or子画面として埋め込むなど)画像を生成するといったようなことが可能である。さらにユーザに年代を入力させるなどして、それぞれの年代に応じた過去の写真などを取得可能とさせてもよい。これにより、例えば、現在は天守閣のない城跡において“フレーム撮影”を行うことで、左半分は今撮った写真、右半分にはかつての天守閣の写真が合成された写真データを生成させるというようなことができる。   In addition, by using the imaging data processing system according to the present invention, it is possible to provide a service that provides a past landscape of a place where a photograph was taken. In place of the “frame” described in the embodiment, past photographs at the position are associated as “processing data”, and the actually photographed photograph and the past photograph are arranged (embedded as an or sub-screen). It is possible to generate an image. Further, the user may be allowed to acquire a past photo or the like corresponding to each age by inputting the age. By doing this, for example, “frame shooting” is performed at the castle ruins where there is no castle tower, so that the left half generates photo data composed of the current shoot and the right half of the castle tower. be able to.

なお、本実施例では、“加工データ”の例としてフレーム画像を用いて説明したが、“加工データ”をこれに限るものではなく、“撮像データ(動画or静止画)”に対する何らかの加工処理を行うための情報であってよい。例えば、実施例で用いたような写真などに重畳させる画像のデータの他、“撮像データ”にテキストを付加させるテキストデータや、“撮像データ”に音声などを付加させる音声データや、“撮像データ”が再生(画面表示など)される際に当該再生を実行する装置に備えられる駆動部分(例えば振動装置)を駆動させるための情報などである。   In this embodiment, the frame image is used as an example of “processed data”. However, “processed data” is not limited to this, and some processing for “imaging data (moving image or still image)” is performed. It may be information to do. For example, in addition to image data to be superimposed on a photograph or the like used in the embodiment, text data to add text to “imaging data”, audio data to add voice to “imaging data”, or “imaging data” "Is information for driving a drive portion (for example, a vibration device) provided in a device that performs the reproduction when" "is reproduced (screen display or the like).

また、“加工データ”及び加工処理を複数組み合わせるものであっても構わない。種類の異なる加工データ及び加工処理を組み合わせてもよいし、同種の加工データ及び加工処理を組み合わせるものであってもよい。「同種の加工データの組み合わせ」とは例えば画像データを複数組み合わせて加工処理を行うものである。本実施例に即した例としては、地域限定に基づくフレーム画像と、天気情報に基づく晴れマークのアイコン画像と、温度情報に基づく汗をかいたキャラクタの画像とをそれぞれ用いて、写真を加工するようなものである。   Also, a plurality of “processing data” and processing processes may be combined. Different types of processing data and processing may be combined, or the same type of processing data and processing may be combined. “Combination of processing data of the same type” is, for example, processing by combining a plurality of image data. As an example according to the present embodiment, a photograph is processed by using a frame image based on region limitation, a clear mark icon image based on weather information, and a sweaty character image based on temperature information. It ’s like that.

なお、本実施例において各種のテーブルを具体的な構成例を示して説明しているが、本発明をこれに限る趣旨ではない。上述した本発明の趣旨に基づいて必要な情報が相互に対応付けられて保持されればよいものであり、実際の実装にあたりDBとしてどの程度の正規化を行うかといったようなことは適宜定めればよい。   In the present embodiment, various tables are described with specific configuration examples, but the present invention is not limited to this. It is sufficient that necessary information is stored in association with each other based on the above-described gist of the present invention, and how much normalization is performed as a DB in actual implementation is appropriately determined. That's fine.

本実施例では、端末装置の具体例として携帯電話を想定して説明しているが、PDAや携帯型のゲーム機、デジタルカメラ・デジタルビデオカメラ、ノートPCなどのその他の携帯型情報処理装置において適用できるのは勿論のことである。また、利用シーンとしては限定されるにせよ、本発明の適用範囲は携帯型の端末装置に限られるものではなく、例えば普通の据置型のPC上で動作させるものであっても構わない(各種の情報処理装置において適用できるものである)。   In this embodiment, a mobile phone is described as a specific example of the terminal device. However, in other portable information processing devices such as a PDA, a portable game machine, a digital camera / digital video camera, and a notebook PC. Of course, it can be applied. Further, although the usage scene is limited, the scope of application of the present invention is not limited to a portable terminal device, and for example, it may be operated on an ordinary stationary PC (various types). It can be applied to the information processing apparatus of the above).

本実施例では、端末装置1において必要な情報を他の装置(サービス提供サイト3若しくはコンテンツ提供サーバ4)から取得するようにしているが、端末装置1自身が必要な情報を全て備えていて、上記説明してきたサーバ側で行っていた処理も端末装置によって行うもの(即ち、端末装置が単独で動作するもの)であっても構わない。“必要な情報”は、装置に内蔵されている記憶部12に備えるものであってもよいし、着脱可能な記憶媒体(半導体メモリや光ディスク媒体、磁気ディスク媒体など)を介して取得するものであっても良い。   In this embodiment, the terminal device 1 acquires necessary information from another device (the service providing site 3 or the content providing server 4), but the terminal device 1 itself has all necessary information, The processing performed on the server side described above may be performed by the terminal device (that is, the terminal device operates alone). The “necessary information” may be provided in the storage unit 12 incorporated in the apparatus, or obtained via a removable storage medium (semiconductor memory, optical disk medium, magnetic disk medium, etc.). There may be.

逆に、本実施例で端末装置1が保持していた情報の一部や端末装置が実行していた処理の一部を、ネットワークを介したサーバ側で所持・実行するものであってもよい(例えば取得順番に関する判別処理など)。端末装置からの要求に応じて、主な処理の実行をサーバ上で行い、処理結果を応答として端末装置へ返すことで、上記で説明してきたものと同等の機能を実現するものであってもよい。本実施例において、入力部から得られた命令(要求)に応じて、制御部において記憶部の各情報を利用しつつ各処理を実行する等していたものが、端末装置から受信した要求に応じて、サーバにおいてサーバが有する各情報(或いは端末から得られる情報や他のサーバから取得する情報)を利用しつつ各処理を実行し、その処理結果を端末装置へ応答として送信し、これを受信した端末装置で結果を表示部に出力する等すれば良いものである。各情報を何れの装置で持ち各処理を何れの装置で行うのかは適宜選択することが可能なものである。   Conversely, part of information held by the terminal device 1 and part of processing executed by the terminal device in the present embodiment may be possessed and executed on the server side via the network. (For example, determination processing related to the acquisition order). Even if the main processing is executed on the server in response to a request from the terminal device and the processing result is returned to the terminal device as a response, the same function as described above can be realized. Good. In this embodiment, in response to a command (request) obtained from the input unit, the control unit executes each process while using each piece of information in the storage unit. In response, each process is performed while using each information (or information obtained from the terminal or information obtained from another server) in the server, and the processing result is transmitted to the terminal device as a response. The received terminal device may output the result to the display unit. It is possible to appropriately select which device has each information and which device performs each process.

ただし、サーバ側におけるユーザデータの管理や、数量限定に関する処理(複数ユーザの存在を前提に、先着順に数量限定でサービス提供するもの)といったものについては、当然に“端末装置が単独で動作”には適さない。また、現実的には、端末装置やネットワーク、サーバのそれぞれのスループットに鑑みて、サーバ側で管理した方がよい情報やサーバ側で実行した方がよい処理(若しくは端末側で管理した方がよい情報や端末側で実行した方がよい処理)というものは存在する。通常は端末装置やネットワークのスループットが低いことが多いため、端末装置とサーバ間で送受信する情報量を減らすと共に重い処理はサーバ側で行うようにするという傾向となる。   However, for user data management on the server side and processing related to limited quantity (providing services with limited quantity on a first-come-first-served basis assuming the existence of multiple users), naturally the "terminal device operates alone" Is not suitable. In reality, in view of the throughput of each terminal device, network, and server, information that should be managed on the server side or processing that should be executed on the server side (or managed on the terminal side is better) Information and processing that should be executed on the terminal side) exist. Normally, the throughput of the terminal device and the network is often low, so that there is a tendency to reduce the amount of information transmitted and received between the terminal device and the server and to perform heavy processing on the server side.

本発明に係る第1の撮像データ加工装置は、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な撮像データ加工装置であって、制御部と、記憶部と、自己位置取得部と、を備え、前記記憶部に若しくは前記撮像データ加工装置に対して着脱可能な記憶媒体に、位置情報と加工データとを対応付けて格納しておくことにより、前記画像撮影手段による撮影によって得られる撮像データに対して、前記自己位置取得部によって取得される自己位置情報に対応する前記加工データを用いた加工処理を実行することを特徴とする。   A first imaging data processing apparatus according to the present invention is an imaging data processing apparatus that can capture a still image or a moving image by including an image capturing unit, and includes a control unit, a storage unit, a self-position acquisition unit, Image data obtained by photographing by the image photographing means by storing the positional information and the processed data in association with each other in the storage unit or in a storage medium removable from the imaging data processing device. The processing using the processing data corresponding to the self-position information acquired by the self-position acquisition unit is executed on the data.

上記構成によれば、位置情報と加工データとが対応付けられて管理され、これに基づいて撮像データ加工装置によって取得される“自己位置”に対応する加工データが取得され、当該加工データを利用して撮像データ加工装置によって撮影された撮像データに対する加工処理が行われる。例えば、GPS等を利用した自己位置取得手段を備えるデジタルカメラや携帯電話等(撮像データ加工装置)において、現在の位置(自己位置情報)に対応するフレーム情報(加工データ)を用いて撮影した写真(撮像データ)にフレームが付加されるというような使い方ができる。なお、“加工データ”は“撮像データ”に対する何らかの加工処理を行うための情報であり、例えば、写真などに重畳させる画像のデータや、“撮像データ”に音声などを付加させる音声データや、“撮像データ”が再生(画面表示など)される際に当該再生を実行する装置に備えられる駆動部分を駆動させるための情報などである。   According to the above configuration, positional information and processing data are managed in association with each other, processing data corresponding to “self-position” acquired by the imaging data processing device is acquired based on the positional information, and the processing data is used. Then, the processing for the image data captured by the image data processing apparatus is performed. For example, a photograph taken using frame information (processed data) corresponding to the current position (self-position information) in a digital camera or mobile phone (imaging data processing apparatus) provided with self-position acquisition means using GPS or the like It can be used such that a frame is added to (imaging data). The “processed data” is information for performing some processing on the “imaging data”. For example, image data to be superimposed on a photograph or the like, audio data to which sound is added to the “imaging data”, “ This is information for driving a drive portion provided in a device that executes the reproduction when the “imaging data” is reproduced (screen display or the like).

本発明に係る第2の撮像データ加工装置は、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な撮像データ加工装置であって、制御部と、記憶部と、自己位置取得部と、通信部と、を備え、前記画像撮影手段による撮影によって得られる撮像データに前記自己位置取得部によって取得される自己位置情報を対応付け、位置情報と加工データとの対応付けを行う加工データ対応付サーバから若しくは当該対応付けによって定められる加工データ保持サーバから前記自己位置情報に対応する前記加工データを前記通信部を介して取得し、当該取得した加工データによって前記撮影によって得られる撮像データに対する加工処理を実行することを特徴とする。   A second imaging data processing apparatus according to the present invention is an imaging data processing apparatus that can capture a still image or a moving image by including an image capturing unit, and includes a control unit, a storage unit, a self-position acquisition unit, A processing unit that associates self-position information acquired by the self-position acquisition unit with imaging data obtained by photographing by the image photographing unit and associates position information with processing data. The processing data corresponding to the self-position information is acquired from the server or the processing data holding server determined by the association via the communication unit, and the processing processing is performed on the imaging data obtained by the imaging using the acquired processing data It is characterized by performing.

上記構成によれば、ネットワーク上のサーバにおいて位置情報と加工データとが対応付けられて管理され、撮像データ加工装置はネットワークを介して加工データをサーバから取得して加工処理を実行する。   According to the above configuration, the position information and the processing data are managed in association with each other in the server on the network, and the imaging data processing device acquires the processing data from the server via the network and executes the processing.

本発明に係る第3の撮像データ加工装置は、上記第1又は第2の撮像データ加工装置であって、前記記憶部若しくは記憶媒体に格納される前記加工データに当該加工データを特定するための加工データ特定情報を対応づけて格納しておくことにより、又は、前記加工データ対応付サーバ若しくは加工データ保持サーバにおいて前記加工データに加工データ特定情報を対応づけて格納しておくことにより、前記撮像データ加工装置によって若しくは前記各サーバの何れかによって取得される前記加工データ特定情報に対応する前記加工データを判別し、当該加工データを用いた前記加工処理を実行することを特徴とする。   A third imaging data processing device according to the present invention is the first or second imaging data processing device for specifying the processing data in the processing data stored in the storage unit or the storage medium. By storing the processing data specifying information in association with each other or by storing the processing data specifying information in association with the processing data in the processing data association server or the processing data holding server, the imaging The processing data corresponding to the processing data specifying information acquired by either a data processing device or each of the servers is determined, and the processing using the processing data is executed.

上記構成によれば、位置情報と加工データとの対応付けに基づく加工データの取得に加えて、加工データ特定情報と加工データとの対応付けに基づく加工データの取得が行われ、当該取得した加工データを利用して撮像データ加工装置によって撮影された撮像データに対する加工処理が行われる。   According to the above configuration, in addition to the acquisition of the processing data based on the association between the position information and the processing data, the processing data is acquired based on the association between the processing data specifying information and the processing data, and the acquired processing Processing is performed on the image data captured by the image data processing apparatus using the data.

本発明に係る第4の撮像データ加工装置は、上記第3の撮像データ加工装置であって、前記加工データ特定情報が時間情報若しくは時期情報であり、前記撮像データ加工装置若しくは前記各サーバの何れかが計時部を備えることにより、前記計時部によって取得される時間若しくは時期情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が気象情報であり、気象情報提供サーバから気象情報を取得することにより若しくは前記撮像データ加工装置が気象観測部を備えており当該気象観測部によって気象情報を取得することにより、前記取得した気象情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が被写体情報であり、前記撮像データ加工装置若しくは前記各サーバの何れかが画像認識部を備えることにより、前記画像認識部によって認識される被写体情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報がイベント情報であり、前記撮像データ加工装置若しくは前記各サーバの何れかが蓄積している前記イベント情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が音声情報であり、前記撮像データ加工装置が音声情報取得部を備えることにより、前記音声情報取得部によって取得される音声情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が数値情報であり、前記撮像データ加工装置若しくは前記各サーバの何れかが数値情報発生部を備えることにより、前記数値情報発生部によって生成される数値情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が方位情報であり、前記撮像データ加工装置若しくは前記各サーバの何れかが方位情報取得部を備えることにより、前記方位情報取得部によって取得される方位情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が地点情報であり、前記撮像データ加工装置若しくは前記各サーバの何れかが地点情報取得部を備えることにより、前記地点情報取得部によって取得される地点情報に対応する前記加工データを用いた加工処理若しくは前記地点情報を用いた加工処理を実行する、ことを特徴とする。   A fourth imaging data processing device according to the present invention is the third imaging data processing device, wherein the processing data specifying information is time information or time information, and either the imaging data processing device or each of the servers is used. By providing the time measuring unit, the processing using the processing data corresponding to the time or time information acquired by the time measuring unit is executed, or the processing data specifying information is weather information, and weather information The processing data corresponding to the acquired weather information is used by acquiring weather information from a providing server or by acquiring the weather information from the imaging data processing apparatus provided with the weather observation unit. The processing data specifying information is subject information, and the imaging data processing device or the previous Any one of the servers includes an image recognition unit, so that the processing using the processing data corresponding to the subject information recognized by the image recognition unit is executed, or the processing data specifying information is event information. Yes, executing the processing using the processing data corresponding to the event information accumulated by either the imaging data processing device or each of the servers, or the processing data specifying information is audio information, When the imaging data processing apparatus includes a voice information acquisition unit, the processing using the processing data corresponding to the voice information acquired by the voice information acquisition unit is executed, or the processing data specifying information is a numerical value. Information, and either the imaging data processing device or each of the servers includes a numerical information generating unit, The processing using the processing data corresponding to the numerical information generated by the report generator is executed, or the processing data specifying information is direction information, and either the imaging data processing device or each of the servers By providing the azimuth information acquisition unit, the processing using the processing data corresponding to the azimuth information acquired by the azimuth information acquisition unit is executed, or the processing data specifying information is point information, and the imaging Either the data processing device or each of the servers includes a point information acquisition unit, so that the processing using the processing data corresponding to the point information acquired by the point information acquisition unit or the processing using the point information is performed. The process is executed.

上記構成によれば、加工データ特定情報として、“時間情報若しくは時期情報”、“気象情報”、“被写体情報”、“イベント情報”、“音声情報”、“数値情報”、“方位情報”、“地点情報”の何れか若しくは複数が「加工データ」と対応付けられ、当該加工データ特定情報と加工データとの対応付けに基づく加工データの取得が行われて撮像データに対する加工処理が実行される。例えば、GPS等を利用した自己位置取得手段を備えるデジタルカメラや携帯電話等において、現在の位置に対応するフレーム情報を用いて“撮影した写真”にフレームが付加され、さらに気象情報を取得(自己位置情報に基づいて気象サーバから該当位置の気象データを取得する等)して当該気象情報に対応する天気アイコン(加工データ)を写真に付加するというような使い方ができる。   According to the above configuration, the processing data specifying information includes “time information or time information”, “weather information”, “subject information”, “event information”, “voice information”, “numerical information”, “azimuth information”, Any one or more of the “point information” is associated with “process data”, the process data is acquired based on the association between the process data specifying information and the process data, and the process for the imaging data is executed. . For example, in a digital camera or mobile phone equipped with self-position acquisition means using GPS or the like, a frame is added to “photographed” using frame information corresponding to the current position, and further weather information is acquired (self For example, the weather data at the corresponding position is acquired from the weather server based on the position information), and a weather icon (processed data) corresponding to the weather information is added to the photograph.

本発明に係る第5の撮像データ加工装置は、上記第1乃至第4の何れか1つの撮像データ加工装置であって、前記撮像データ加工装置が方位取得部及びフォーカス情報取得部を備えることにより、前記自己位置情報と、前記方位取得部によって取得される方位情報と、前記フォーカス情報取得部によって取得されるフォーカス情報とに基づいて、前記撮像データ加工装置若しくは前記各サーバの何れかによって被写体の位置を算出し、当該被写体位置情報に対応する前記加工データを判別し、当該加工データを用いた前記加工処理を実行することを特徴とする。   A fifth imaging data processing device according to the present invention is any one of the first to fourth imaging data processing devices, wherein the imaging data processing device includes an orientation acquisition unit and a focus information acquisition unit. Based on the self-position information, the azimuth information acquired by the azimuth acquisition unit, and the focus information acquired by the focus information acquisition unit, either the imaging data processing device or each server A position is calculated, the processing data corresponding to the subject position information is determined, and the processing using the processing data is executed.

上記構成によれば、自己位置情報と方位情報とフォーカス情報とに基づいて被写体の位置が算出され、当該位置情報に対応する加工データを用いて撮像データに対する加工処理が実行される。   According to the above configuration, the position of the subject is calculated based on the self-position information, the azimuth information, and the focus information, and the processing process for the imaging data is executed using the processing data corresponding to the position information.

本発明に係る第6の撮像データ加工装置は、上記第1乃至第5の何れか1つの撮像データ加工装置であって、前記加工データに対応づける前記位置情報を動的に変化させることを特徴とする。   A sixth imaging data processing apparatus according to the present invention is any one of the first to fifth imaging data processing apparatuses, and dynamically changes the position information associated with the processing data. And

上記構成によれば、加工データに対応づけられる位置情報が動的に変化することとなる。よって、例えば、あるときA地点で撮影した写真に対してある特定のフレームが用いられたとしても、別のときにA地点で撮影した写真に対しては別のフレームが用いられることとなる。   According to the above configuration, the position information associated with the machining data changes dynamically. Thus, for example, even if a certain frame is used for a photograph taken at a point A at a certain time, another frame is used for a photograph taken at a point A at another time.

本発明に係る第7の撮像データ加工装置は、上記第1乃至第6の何れか1つの撮像データ加工装置であって、表示部を備え、前記加工データが前記撮像データに対して重畳させる静止画若しくは動画データ若しくはテキストデータであることにより、撮影時に撮影される画像を前記表示部に表示し、且つ、当該画像に前記加工データによる静止画若しくは動画若しくはテキストを重畳させて前記表示部に表示させることを特徴とする。   A seventh imaging data processing device according to the present invention is any one of the first to sixth imaging data processing devices, comprising a display unit, wherein the processing data is superimposed on the imaging data. By displaying the image, moving image data, or text data, the image captured at the time of shooting is displayed on the display unit, and the still image, moving image, or text based on the processed data is superimposed on the image and displayed on the display unit It is characterized by making it.

上記構成によれば、撮影時に、撮像データ加工装置の表示部に加工データを用いた加工処理後の画像が表示されることとなる。   According to the above configuration, at the time of shooting, the processed image using the processed data is displayed on the display unit of the imaging data processing apparatus.

本発明に係る第8の撮像データ加工装置は、上記第1乃至第7の何れか1つの撮像データ加工装置であって、表示部を備えることにより、当該表示部に前記加工データのうち前記加工処理のために使用されたものを一覧表示すると共に、未だ使用されていない加工データに関する情報も一覧表示させることを特徴とする。   An eighth imaging data processing device according to the present invention is any one of the first to seventh imaging data processing devices, and includes a display unit, whereby the processing unit includes the processing data in the processing data. In addition to displaying a list of items used for processing, information about machining data that has not been used yet is also displayed in a list.

上記構成によれば、撮像データに対する加工処理として使用された加工データの一覧と、位置情報との対応付けによる加工データは存在しているが未だ加工処理に使用されていない加工データに関する情報の一覧とが表示されることとなる。例えば、全て(必ずしも“全て”である必要は無い)の加工データが収められる“台紙帳”のような表示形式にして、使用した加工データ(例えば写真に重畳するフレーム)については順次“台紙帳”の該当欄が埋められていき、使用されていない加工データの欄はデータ名のみの表示やシルエット表示(加工データに関する情報の表示)を行うようにすることができるものである。   According to the above configuration, a list of processing data used as processing for the imaging data and a list of information related to processing data that has processing data associated with position information but is not yet used for processing Will be displayed. For example, a display format such as “mounting book” that stores all (not necessarily “all”) processing data is used, and the processing data (for example, a frame to be superimposed on a photograph) is sequentially used as a “mounting book”. The corresponding column of "" is filled in, and the column of processed data that is not used can be displayed with only the data name or silhouette display (display of information regarding the processed data).

本発明に係る第1の撮像データ加工システムは、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な情報処理装置とサーバとがネットワークを介して接続されて構成される撮像データ加工システムであって、前記情報処理装置が自己位置取得部を備え、前記サーバが位置情報と加工データとの対応付けを行う加工データ対応付サーバであることにより、前記情報処理装置において、前記加工データ対応付サーバから若しくは当該対応付けによって定められる加工データ保持サーバから、前記自己位置取得部によって取得される自己位置情報に対応する前記加工データを取得し、当該取得した加工データによって前記撮影によって得られる撮像データに対する加工処理を実行することを特徴とする。   The first imaging data processing system according to the present invention is an imaging data processing system configured by connecting an information processing apparatus capable of capturing a still image or a moving image and a server via a network by including an image capturing unit. The information processing apparatus includes a self-position acquisition unit, and the server is a processing data correspondence server that associates position information with processing data. Imaging data obtained by imaging by acquiring the processed data corresponding to the self-position information acquired by the self-position acquiring unit from a server or a processed data holding server determined by the association It is characterized by executing the processing for

本発明に係る第2の撮像データ加工システムは、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な情報処理装置とサーバとがネットワークを介して接続されて構成される撮像データ加工システムであって、前記情報処理装置が自己位置取得部を備え、前記サーバが位置情報と加工データとの対応付けを行う加工データ対応付サーバであることにより、前記画像撮影手段による撮影によって得られる撮像データに前記自己位置取得部によって取得される自己位置情報を対応付け、当該対応付けが行われた撮像データと自己位置情報を前記加工データ対応付サーバに対して送信し、当該撮像データと自己位置情報とを受信した加工データ対応付サーバにおいて、前記自己位置情報に対応する前記加工データを用いて前記撮像データに対する加工処理を実行することを特徴とする。   A second imaging data processing system according to the present invention is an imaging data processing system configured by connecting an information processing apparatus capable of capturing a still image or a moving image and a server via a network by including an image capturing unit. The information processing apparatus includes a self-position acquisition unit, and the server is a processing data association server that associates position information with processing data, so that imaging data obtained by photographing by the image photographing unit is obtained. The self-position information acquired by the self-position acquisition unit is associated with the image data and the self-position information for which the association is performed is transmitted to the processing data association server, and the image data and the self-position information are transmitted. In the processing data association server that has received the data, the imaging data is processed using the processing data corresponding to the self-position information. And executes the processing for.

本発明に係る第3の撮像データ加工システムは、上記第1又は第2の撮像データ加工システムであって、前記加工データに当該加工データを特定するための加工データ特定情報を対応づけておくことにより、前記情報処理装置によって取得される前記加工データ特定情報を前記加工データ対応付サーバへ送信してこれに対する応答として得られる前記加工データ特定情報に対応する加工データを使用して前記撮影によって得られる撮像データに対する加工処理を実行する、若しくは、前記情報処理装置によって取得される前記加工データ特定情報と前記自己位置情報と前記撮像データとを対応付けて前記加工データ対応付サーバに対して送信し、当該加工データ対応付サーバにおいて前記自己位置情報と前記加工データ特定情報に対応する前記加工データを用いて前記撮像データに対する加工処理を実行する、又は、前記各サーバの何れかによって取得される前記加工データ特定情報に対応する前記加工データを判別して当該加工データを用いた前記加工処理を実行することを特徴とする。   A third imaging data processing system according to the present invention is the first or second imaging data processing system, wherein processing data specifying information for specifying the processing data is associated with the processing data. The processing data specifying information acquired by the information processing apparatus is transmitted to the processing data correspondence server and obtained by the photographing using the processing data corresponding to the processing data specifying information obtained as a response thereto. The processing data is processed, or the processing data specifying information acquired by the information processing apparatus, the self-location information, and the imaging data are associated with each other and transmitted to the processing data association server. Before the processing data correspondence server corresponds to the self-location information and the processing data specifying information. The processing data is processed using the processing data, or the processing data corresponding to the processing data specifying information acquired by any of the servers is determined and the processing data is used. A process is executed.

本発明に係る第4の撮像データ加工システムは、上記第3の撮像データ加工システムであって、前記加工データ特定情報が時間情報若しくは時期情報であり、前記情報処理装置若しくは前記各サーバの何れかが計時部を備えることにより、前記計時部によって取得される時間若しくは時期情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が気象情報であり、気象情報提供サーバから気象情報を取得することにより若しくは前記情報処理装置が気象観測部を備えており当該気象観測部によって気象情報を取得することにより、前記取得した気象情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が被写体情報であり、前記情報処理装置若しくは前記各サーバの何れかが画像認識部を備えることにより、前記画像認識部によって認識される被写体情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報がイベント情報であり、前記情報処理装置若しくは前記各サーバの何れかが蓄積している前記イベント情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が音声情報であり、前記情報処理装置が音声情報取得部を備えることにより、前記音声情報取得部によって取得される音声情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が数値情報であり、前記情報処理装置若しくは前記各サーバの何れかが数値情報発生部を備えることにより、前記数値情報発生部によって生成される数値情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が方位情報であり、前記情報処理装置若しくは前記各サーバの何れかが方位情報取得部を備えることにより、前記方位情報取得部によって取得される方位情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が地点情報であり、前記情報処理装置若しくは前記各サーバの何れかが地点情報取得部を備えることにより、前記地点情報取得部によって取得される地点情報に対応する前記加工データを用いた加工処理若しくは前記地点情報を用いた加工処理を実行する、ことを特徴とする。   A fourth imaging data processing system according to the present invention is the third imaging data processing system, wherein the processing data specifying information is time information or time information, and is either the information processing apparatus or each of the servers. Is provided with a time measuring unit, thereby executing processing using the processing data corresponding to time or time information acquired by the time measuring unit, or the processing data specifying information is weather information, and providing weather information Processing by using the processing data corresponding to the acquired weather information by acquiring weather information from a server or by acquiring the weather information by the information processing apparatus having a weather observation unit. Execute processing, or the processing data specifying information is subject information, and the information processing apparatus or each server Any one of which includes an image recognizing unit to execute processing using the processed data corresponding to the subject information recognized by the image recognizing unit, or the processed data specifying information is event information, Either the information processing device or each of the servers executes processing using the processing data corresponding to the event information accumulated, or the processing data specifying information is audio information, and the information processing device Is provided with a voice information acquisition unit, to perform processing using the processing data corresponding to the voice information acquired by the voice information acquisition unit, or the processing data identification information is numerical information, One of the information processing device and each of the servers includes a numerical information generation unit, and is generated by the numerical information generation unit. By executing the processing using the processing data corresponding to the value information, or the processing data specifying information is azimuth information, and either the information processing device or each of the servers includes a azimuth information acquisition unit , Execute processing using the processing data corresponding to the orientation information acquired by the orientation information acquisition unit, or the processing data specifying information is point information, and either the information processing device or each of the servers By providing a spot information acquisition unit, the processing using the processing data corresponding to the point information acquired by the point information acquisition unit or the processing using the point information is executed. To do.

本発明に係る第5の撮像データ加工システムは、上記第1乃至第4の何れか1つに記載の撮像データ加工システムであって、前記情報処理装置が方位取得部及びフォーカス情報取得部を備えることにより、前記自己位置情報と、前記方位取得部によって取得される方位情報と、前記フォーカス情報取得部によって取得されるフォーカス情報とに基づいて、前記情報処理装置若しくは前記各サーバの何れかによって被写体の位置を算出し、当該被写体位置情報に対応する前記加工データを判別し、当該加工データを用いた前記加工処理を実行することを特徴とする。   A fifth imaging data processing system according to the present invention is the imaging data processing system according to any one of the first to fourth aspects, wherein the information processing apparatus includes an orientation acquisition unit and a focus information acquisition unit. Thus, based on the self-position information, the azimuth information acquired by the azimuth acquisition unit, and the focus information acquired by the focus information acquisition unit, either the information processing apparatus or each server Is calculated, the processing data corresponding to the subject position information is determined, and the processing using the processing data is executed.

本発明に係る第6の撮像データ加工システムは、第1乃至第5の何れか1つに記載の撮像データ加工システムであって、前記各サーバの何れかにおいて、前記加工データに対応づける前記位置情報を動的に変化させることを特徴とする。   A sixth imaging data processing system according to the present invention is the imaging data processing system according to any one of the first to fifth aspects, wherein the position associated with the processing data in any of the servers. It is characterized by changing information dynamically.

本発明に係る第7の撮像データ加工システムは、第1乃至第6の何れか1つに記載の撮像データ加工システムであって、前記情報処理装置が表示部を備え、当該表示部に前記加工データのうち前記加工処理のために使用されたものを一覧表示すると共に、未だ使用されていない加工データに関する情報も一覧表示させることを特徴とする。   A seventh imaging data processing system according to the present invention is the imaging data processing system according to any one of first to sixth, wherein the information processing apparatus includes a display unit, and the processing unit is provided with the processing unit. A list of data used for the processing is displayed, and information on processing data that has not been used is displayed in a list.

本発明に係る第1の撮像データ加工サーバは、画像撮影手段と自己位置取得部とを備えることにより静止画若しくは動画である撮像データと自己位置情報とを取得することができる情報処理装置と、ネットワークを介して接続されるサーバであって、位置情報と加工データとの対応付けを行うことにより、前記情報処理装置から前記自己位置情報を受信した場合には、当該自己位置情報に対応する前記加工データを前記情報処理装置へ送信することを特徴とする。   The first imaging data processing server according to the present invention includes an image capturing unit and a self-position acquisition unit, and thereby an information processing apparatus capable of acquiring imaging data that is a still image or a moving image and self-position information; A server connected via a network, wherein when the self-position information is received from the information processing apparatus by associating the position information with the processing data, the self-position information corresponding to the self-position information Processing data is transmitted to the information processing apparatus.

本発明に係る第2の撮像データ加工サーバは、画像撮影手段と自己位置取得部とを備えることにより静止画若しくは動画である撮像データに前記自己位置取得部によって取得される自己位置情報を対応付けることができる情報処理装置と、ネットワークを介して接続されるサーバであって、位置情報と加工データとの対応付けを行うことにより、前記情報処理装置から対応付けが行われた撮像データと自己位置情報を受信した際には、当該自己位置情報に対応する前記加工データを用いて前記撮像データに対する加工処理を実行することを特徴とする。   The second imaging data processing server according to the present invention includes an image capturing unit and a self-position acquisition unit, and associates the self-position information acquired by the self-position acquisition unit with imaging data that is a still image or a moving image. Information processing apparatus capable of performing image processing and a server connected via a network, and by associating position information with processed data, imaging data and self-position information associated with each other from the information processing apparatus Is received, the processing data corresponding to the self-position information is used to perform processing on the imaging data.

本発明に係る第3の撮像データ加工サーバは、上記第1又は第2の撮像データ加工サーバであって、前記加工データに当該加工データを特定するための加工データ特定情報を対応づけておくことにより、前記情報処理装置から前記加工データ特定情報を受信した場合には、前記加工データ特定情報に対応する前記加工データを送信する、若しくは、前記加工データ特定情報に対応する前記加工データを用いて前記撮像データに対する加工処理を実行する、又は、前記サーバによって取得される前記加工データ特定情報に対応する前記加工データを判別して当該加工データを用いた前記加工処理を実行することを特徴とする。   A third imaging data processing server according to the present invention is the first or second imaging data processing server, wherein processing data specifying information for specifying the processing data is associated with the processing data. Thus, when the processing data specifying information is received from the information processing apparatus, the processing data corresponding to the processing data specifying information is transmitted, or the processing data corresponding to the processing data specifying information is used. The processing for the imaging data is executed, or the processing data corresponding to the processing data specifying information acquired by the server is determined and the processing using the processing data is executed. .

本発明に係る第4の撮像データ加工サーバは、上記第3の撮像データ加工サーバであって、前記加工データ特定情報が時間情報若しくは時期情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが計時部を備えることにより、前記計時部によって取得される時間若しくは時期情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が気象情報であり、気象情報提供サーバから気象情報を取得することにより若しくは前記情報処理装置が気象観測部を備えており当該気象観測部によって気象情報を取得することにより、前記取得した気象情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が被写体情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが画像認識部を備えることにより、前記画像認識部によって認識される被写体情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報がイベント情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが蓄積している前記イベント情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が音声情報であり、前記情報処理装置が音声情報取得部を備えることにより、前記音声情報取得部によって取得される音声情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が数値情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが数値情報発生部を備えることにより、前記数値情報発生部によって生成される数値情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が方位情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが方位情報取得部を備えることにより、前記方位情報取得部によって取得される方位情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が地点情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが地点情報取得部を備えることにより、前記地点情報取得部によって取得される地点情報に対応する前記加工データを判別する処理若しくは前記地点情報を用いた加工処理を実行する、ことを特徴とする。   A fourth imaging data processing server according to the present invention is the third imaging data processing server, wherein the processing data specifying information is time information or time information, and the information processing apparatus or the imaging data processing server By providing a time measuring unit, a process for determining the processed data corresponding to time or time information acquired by the time measuring unit is executed, or the processed data specifying information is weather information, and a weather information providing server A process for determining the processed data corresponding to the acquired weather information by acquiring weather information or by acquiring the weather information by the information processing apparatus provided with a weather observation unit. Or the processing data specifying information is subject information, and the information processing device or the imaging data is added. When the server includes an image recognition unit, a process of determining the processed data corresponding to the subject information recognized by the image recognition unit is executed, or the processed data specifying information is event information, and the information processing A process for determining the processed data corresponding to the event information stored in the apparatus or the imaging data processing server is executed, or the processed data specifying information is audio information, and the information processing apparatus acquires audio information A processing unit for executing processing for determining the processing data corresponding to the voice information acquired by the voice information acquisition unit, or the processing data specifying information is numerical information, and the information processing device or the When the imaging data processing server includes a numerical information generation unit, the numerical data generation unit generates the numerical data generation unit. The processing for determining the processing data corresponding to the numerical information is executed, or the processing data specifying information is azimuth information, and the information processing apparatus or the imaging data processing server includes a azimuth information acquisition unit. A process for determining the processed data corresponding to the azimuth information acquired by the azimuth information acquiring unit is executed, or the processed data specifying information is point information, and the information processing apparatus or the imaging data processing server performs the point information. By providing an acquisition unit, a process of determining the processing data corresponding to the spot information acquired by the spot information acquisition unit or a processing process using the spot information is executed.

本発明に係る第5の撮像データ加工サーバは、上記第1乃至第4の何れか1つの撮像データ加工サーバであって、前記情報処理装置が方位取得部及びフォーカス情報取得部を備えることにより、前記自己位置情報と、前記方位取得部によって取得される方位情報と、前記フォーカス情報取得部によって取得されるフォーカス情報とに基づいて被写体の位置を算出し、当該被写体位置情報に対応する前記加工データを判別する処理を実行することを特徴とする。   A fifth imaging data processing server according to the present invention is any one of the first to fourth imaging data processing servers, wherein the information processing apparatus includes an orientation acquisition unit and a focus information acquisition unit. The processing data corresponding to the subject position information is calculated by calculating the position of the subject based on the self-position information, the orientation information acquired by the orientation acquisition unit, and the focus information acquired by the focus information acquisition unit. It is characterized in that processing for discriminating is executed.

本発明に係る第6の撮像データ加工サーバは、上記第1乃至第5の何れか1つの撮像データ加工サーバであって、前記加工データに対応づける前記位置情報を動的に変化させることを特徴とする。   A sixth imaging data processing server according to the present invention is any one of the first to fifth imaging data processing servers, and dynamically changes the position information associated with the processing data. And

本発明に係る第7の撮像データ加工サーバは、上記第1乃至第6の何れか1つの撮像データ加工サーバであって、前記情報処理装置が表示部を備え、当該表示部に前記加工データのうち前記加工処理のために使用されたものを一覧表示すると共に、未だ使用されていない加工データに関する情報も一覧表示させるための情報を前記情報処理装置へ送信することを特徴とする。   A seventh imaging data processing server according to the present invention is any one of the first to sixth imaging data processing servers, wherein the information processing apparatus includes a display unit, and the display unit stores the processing data. Among them, the one used for the processing is displayed as a list, and information for displaying a list of information regarding the processing data that has not been used yet is transmitted to the information processing apparatus.

本発明に係る第1の撮像データ加工プログラムは、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な情報処理装置であって、制御部と、記憶部と、自己位置取得部と、を備え、前記記憶部に若しくは前記情報処理装置に対して着脱可能な記憶媒体に位置情報と加工データとが対応付けて格納してある情報処理装置に、前記自己位置取得部によって取得される自己位置情報に対応する加工データの有無を判別するステップと、当該判別の結果加工データがあった場合に当該加工データを用いた前記画像撮影手段による撮影によって得られる撮像データに対する加工処理を行うステップと、を実行させることを特徴とする。   A first imaging data processing program according to the present invention is an information processing apparatus that can capture a still image or a moving image by including an image capturing unit, and includes a control unit, a storage unit, and a self-position acquisition unit. A self-position acquired by the self-position acquisition unit in the information processing apparatus in which the position information and the processing data are stored in association with each other in the storage unit or in a storage medium removable from the information processing apparatus A step of determining the presence or absence of processed data corresponding to the information, and a step of performing processing on imaging data obtained by photographing by the image photographing unit using the processed data when there is processed data as a result of the determination; Is executed.

本発明に係る第2の撮像データ加工プログラムは、画像撮影手段を備えることにより静止画若しくは動画を撮影可能な情報処理装置であって、制御部と、記憶部と、自己位置取得部と、通信部と、を備える情報処理装置に、位置情報と加工データとの対応付けを行う加工データ対応付サーバから前記自己位置取得部によって取得される自己位置情報に対応する前記加工データを前記通信部を介して取得するステップと、当該取得した加工データによって前記画像撮影手段による撮影によって得られる撮像データに対する加工処理を行うステップと、を実行させることを特徴とする。   A second imaging data processing program according to the present invention is an information processing apparatus capable of capturing a still image or a moving image by including an image capturing unit, and includes a control unit, a storage unit, a self-position acquisition unit, and a communication The processing unit corresponding to the self-position information acquired by the self-position acquisition unit from a processing data association server that associates the position information with the processing data. And the step of performing processing on the image data obtained by photographing by the image photographing means by the obtained processing data.

本発明に係る第3の撮像データ加工プログラムは、上記第1又は第2の撮像データ加工プログラムであって、前記記憶部若しくは記憶媒体に格納される前記加工データに当該加工データを特定するための加工データ特定情報を対応づけて格納しておくことにより、又は、前記加工データ対応付サーバ若しくは当該対応付けによって定められる加工データ保持サーバにおいて前記加工データに加工データ特定情報を対応づけて格納しておくことにより、前記情報処理装置によって若しくは前記各サーバの何れかによって取得される前記加工データ特定情報に対応する前記加工データを判別するステップと、当該判別によって得られる加工データを用いて前記加工処理を実行させることを特徴とする。   A third imaging data processing program according to the present invention is the first or second imaging data processing program for specifying the processing data in the processing data stored in the storage unit or the storage medium. By storing the processing data specifying information in association with each other or by storing the processing data specifying information in association with the processing data in the processing data association server or the processing data holding server determined by the association Determining the processing data corresponding to the processing data specifying information acquired by the information processing apparatus or by each of the servers, and using the processing data obtained by the determination Is executed.

本発明に係る第4の撮像データ加工プログラムは、上記第3の撮像データ加工プログラムであって、前記加工データ特定情報が時間情報若しくは時期情報であり、前記情報処理装置若しくは前記各サーバの何れかが計時部を備えることにより、前記計時部によって取得される時間若しくは時期情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が気象情報であり、気象情報提供サーバから気象情報を取得することにより若しくは前記情報処理装置が気象観測部を備えており当該気象観測部によって気象情報を取得することにより、前記取得した気象情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が被写体情報であり、前記情報処理装置若しくは前記各サーバの何れかが画像認識部を備えることにより、前記画像認識部によって認識される被写体情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報がイベント情報であり、前記情報処理装置若しくは前記各サーバの何れかが蓄積している前記イベント情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が音声情報であり、前記情報処理装置が音声情報取得部を備えることにより、前記音声情報取得部によって取得される音声情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が数値情報であり、前記情報処理装置若しくは前記各サーバの何れかが数値情報発生部を備えることにより、前記数値情報発生部によって生成される数値情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が方位情報であり、前記情報処理装置若しくは前記各サーバの何れかが方位情報取得部を備えることにより、前記方位情報取得部によって取得される方位情報に対応する前記加工データを用いた加工処理を実行する、又は、前記加工データ特定情報が地点情報であり、前記情報処理装置若しくは前記各サーバの何れかが地点情報取得部を備えることにより、前記地点情報取得部によって取得される地点情報に対応する前記加工データを用いた加工処理若しくは前記地点情報を用いた加工処理を実行する、ことを特徴とする。   A fourth imaging data processing program according to the present invention is the third imaging data processing program, wherein the processing data specifying information is time information or time information, and is either the information processing apparatus or each of the servers. Is provided with a time measuring unit, thereby executing processing using the processing data corresponding to time or time information acquired by the time measuring unit, or the processing data specifying information is weather information, and providing weather information Processing by using the processing data corresponding to the acquired weather information by acquiring weather information from a server or by acquiring the weather information by the information processing apparatus having a weather observation unit. Or the processing data specifying information is subject information, and the information processing device or each of the devices One of the bars includes an image recognition unit, so that the processing using the processing data corresponding to the subject information recognized by the image recognition unit is executed, or the processing data specifying information is event information. , Execute processing using the processing data corresponding to the event information stored in either the information processing apparatus or each of the servers, or the processing data specifying information is audio information, and the information When the processing apparatus includes a voice information acquisition unit, a processing process using the processing data corresponding to the voice information acquired by the voice information acquisition unit is executed, or the processing data specifying information is numerical information. Any one of the information processing apparatus and each of the servers includes a numerical information generating unit, so that it is generated by the numerical information generating unit. Or the processing data specifying information is orientation information, and either the information processing device or each of the servers includes an orientation information acquisition unit. The processing using the processing data corresponding to the orientation information acquired by the orientation information acquisition unit is executed, or the processing data specifying information is point information, and the information processing device or each server Any one of them includes a point information acquisition unit, and performs processing using the processing data corresponding to the point information acquired by the point information acquisition unit or processing using the point information. And

本発明に係る第5の撮像データ加工プログラムは、上記第1乃至第4の何れか1つの撮像データ加工プログラムであって、前記情報処理装置が方位取得部及びフォーカス情報取得部を備えることにより、前記自己位置情報と前記方位取得部によって取得される方位情報と前記フォーカス情報取得部によって取得されるフォーカス情報とに基づいて前記情報処理装置若しくは前記各サーバの何れかによって被写体の位置を算出するステップと、当該被写体位置情報に対応する前記加工データを判別するステップと、当該判別の結果加工データがあった場合に当該加工データを用いた前記加工処理を実行することを特徴とする。   A fifth imaging data processing program according to the present invention is any one of the first to fourth imaging data processing programs, and the information processing apparatus includes an orientation acquisition unit and a focus information acquisition unit. Calculating the position of the subject by either the information processing apparatus or each of the servers based on the self-position information, the direction information acquired by the direction acquisition unit, and the focus information acquired by the focus information acquisition unit And determining the processing data corresponding to the subject position information, and executing the processing using the processing data when there is processing data as a result of the determination.

本発明に係る第6の撮像データ加工プログラムは、上記第1乃至第5の何れか1つの撮像データ加工プログラムであって、前記加工データに対応づける前記位置情報を動的に変化させるステップを実行させることを特徴とする。   A sixth imaging data processing program according to the present invention is any one of the first to fifth imaging data processing programs, and executes the step of dynamically changing the position information associated with the processing data. It is characterized by making it.

本発明に係る第7の撮像データ加工プログラムは、上記第1乃至第6の何れか1つの撮像データ加工プログラムであって、前記情報処理装置が表示部を備え、前記加工データが前記撮像データに対して重畳させる静止画若しくは動画データ若しくはテキストデータであることにより、撮影時に撮影される画像を前記表示部に表示させるステップと、当該画像に前記加工データによる静止画若しくは動画若しくはテキストを重畳させて前記表示部に表示させるステップと、を実行させることを特徴とする。   A seventh imaging data processing program according to the present invention is any one of the first to sixth imaging data processing programs, wherein the information processing apparatus includes a display unit, and the processing data is included in the imaging data. A still image or moving image data or text data to be superimposed on the image, and a step of displaying an image captured at the time of shooting on the display unit; and a still image or moving image or text based on the processed data is superimposed on the image. And displaying on the display unit.

本発明に係る第8の撮像データ加工プログラムは、上記第1乃至第7の何れか1つの撮像データ加工プログラムであって、前記情報処理装置が表示部を備え、当該表示部に前記加工データのうち前記加工処理のために使用されたものを一覧表示すると共に未だ使用されていない加工データに関する情報も一覧表示させるステップを実行することを特徴とする。   An eighth imaging data processing program according to the present invention is any one of the first to seventh imaging data processing programs, wherein the information processing apparatus includes a display unit, and the display unit stores the processing data. Among them, a step of displaying a list of items used for the processing and displaying information on processing data not yet used is executed.

本発明に係る第1の撮像データ加工サーバプログラムは、画像撮影手段と自己位置取得部とを備えることにより静止画若しくは動画である撮像データと自己位置情報とを取得することができる情報処理装置と、ネットワークを介して接続されるサーバであって、位置情報と加工データとの対応付けを行うサーバに、前記情報処理装置から前記自己位置情報を受信した場合に当該自己位置情報に対応する前記加工データを前記情報処理装置へ送信するステップを実行させることを特徴とする。   An information processing apparatus capable of acquiring imaging data that is a still image or a moving image and self-position information by including an image photographing unit and a self-position acquisition unit, and a first imaging data processing server program according to the present invention The processing corresponding to the self-position information when the self-position information is received from the information processing apparatus to a server connected via a network, which associates the position information with the processing data. The step of transmitting data to the information processing apparatus is executed.

本発明に係る第2の撮像データ加工サーバプログラムは、画像撮影手段と自己位置取得部とを備えることにより静止画若しくは動画である撮像データに前記自己位置取得部によって取得される自己位置情報を対応付けることができる情報処理装置と、ネットワークを介して接続されるサーバであって、位置情報と加工データとの対応付けを行うサーバに、前記情報処理装置から前記対応付けが行われた撮像データと自己位置情報を受信した際に当該自己位置情報に対応する前記加工データがあるか否かを判別するステップと、当該判別の結果加工データがあった場合には当該加工データを用いて前記撮像データに対する加工処理を行うステップと、を実行させることを特徴とする。   The second imaging data processing server program according to the present invention includes image capturing means and a self-position acquisition unit, thereby associating self-position information acquired by the self-position acquisition unit with imaging data that is a still image or a moving image. An information processing apparatus capable of being connected to a server that is connected via a network and that associates position information and processed data with the imaging data that has been associated with the information processing apparatus from the information processing apparatus. A step of determining whether or not there is the processed data corresponding to the self-position information when the position information is received; and when there is processed data as a result of the determination, the processed data is used to Performing the processing step.

本発明に係る第3の撮像データ加工サーバプログラムは、上記第1又は第2の撮像データ加工サーバプログラムであって、前記加工データに当該加工データを特定するための加工データ特定情報を対応づけておくことにより、前記情報処理装置から前記加工データ特定情報を受信した場合には前記加工データ特定情報に対応する前記加工データを送信するステップ若しくは前記加工データ特定情報に対応する前記加工データを用いて前記撮像データに対する加工処理を行うステップを実行させる、又は、前記サーバによって取得される前記加工データ特定情報に対応する前記加工データを判別して当該加工データを用いた前記加工処理を行うステップを実行させることを特徴とする。   A third imaging data processing server program according to the present invention is the first or second imaging data processing server program, wherein processing data specifying information for specifying the processing data is associated with the processing data. When the processing data specifying information is received from the information processing apparatus, the processing data corresponding to the processing data specifying information is transmitted or the processing data corresponding to the processing data specifying information is used. A step of performing processing on the imaging data is executed, or a step of determining the processing data corresponding to the processing data specifying information acquired by the server and performing the processing using the processing data is executed. It is characterized by making it.

本発明に係る第4の撮像データ加工サーバプログラムは、上記第3の撮像データ加工サーバプログラムであって、前記加工データ特定情報が時間情報若しくは時期情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが計時部を備えることにより、前記計時部によって取得される時間若しくは時期情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が気象情報であり、気象情報提供サーバから気象情報を取得することにより若しくは前記情報処理装置が気象観測部を備えており当該気象観測部によって気象情報を取得することにより、前記取得した気象情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が被写体情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが画像認識部を備えることにより、前記画像認識部によって認識される被写体情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報がイベント情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが蓄積している前記イベント情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が音声情報であり、前記情報処理装置が音声情報取得部を備えることにより、前記音声情報取得部によって取得される音声情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が数値情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが数値情報発生部を備えることにより、前記数値情報発生部によって生成される数値情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が方位情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが方位情報取得部を備えることにより、前記方位情報取得部によって取得される方位情報に対応する前記加工データを判別する処理を実行する、又は、前記加工データ特定情報が地点情報であり、前記情報処理装置若しくは前記撮像データ加工サーバが地点情報取得部を備えることにより、前記地点情報取得部によって取得される地点情報に対応する前記加工データを判別する処理若しくは前記地点情報を用いた加工処理を実行する、ことを特徴とする。   A fourth imaging data processing server program according to the present invention is the third imaging data processing server program, wherein the processing data specifying information is time information or time information, and the information processing apparatus or the imaging data processing When the server includes a time measuring unit, a process for determining the processed data corresponding to time or time information acquired by the time measuring unit is executed, or the processed data specifying information is weather information, and weather information is provided. A process of determining the processed data corresponding to the acquired weather information by acquiring weather information from a server or by acquiring the weather information by the information processing apparatus having a weather observation unit. Or the processing data specifying information is subject information, and the information processing apparatus The imaging data processing server includes an image recognition unit, thereby executing processing for determining the processing data corresponding to the subject information recognized by the image recognition unit, or the processing data specifying information is event information. Yes, the information processing device or the imaging data processing server executes a process for determining the processing data corresponding to the event information, or the processing data specifying information is voice information, and the information processing When the apparatus includes a voice information acquisition unit, the process for determining the processing data corresponding to the voice information acquired by the voice information acquisition unit is executed, or the processing data specifying information is numerical information, When the information processing apparatus or the imaging data processing server includes a numerical information generation unit, the numerical information generation The processing for determining the processing data corresponding to the numerical information generated by the unit is executed, or the processing data specifying information is direction information, and the information processing apparatus or the imaging data processing server has the direction information acquisition unit By providing, the process which determines the said process data corresponding to the azimuth | direction information acquired by the said azimuth | direction information acquisition part is performed, or the said process data specific information is point information, and the said information processing apparatus or the said imaging data The processing server includes a point information acquisition unit, and executes processing for determining the processing data corresponding to the point information acquired by the point information acquisition unit or processing using the point information. To do.

本発明に係る第5の撮像データ加工サーバプログラムは、上記第1乃至第4の何れか1つの撮像データ加工サーバプログラムであって、前記情報処理装置が方位取得部及びフォーカス情報取得部を備え、前記自己位置情報と前記方位取得部によって取得される方位情報と前記フォーカス情報取得部によって取得されるフォーカス情報とに基づいて被写体の位置を算出するステップと、当該被写体位置情報に対応する前記加工データを判別するステップと、を実行することを特徴とする。   A fifth imaging data processing server program according to the present invention is any one of the first to fourth imaging data processing server programs, wherein the information processing apparatus includes an orientation acquisition unit and a focus information acquisition unit, Calculating the position of the subject based on the self-position information, the orientation information acquired by the orientation acquisition unit, and the focus information acquired by the focus information acquisition unit; and the processing data corresponding to the subject position information And a step of discriminating.

本発明に係る第6の撮像データ加工サーバプログラムは、上記第1乃至第5の何れか1つの撮像データ加工サーバプログラムであって、前記加工データに対応づける前記位置情報を動的に変化させるステップを実行させることを特徴とする。   A sixth imaging data processing server program according to the present invention is any one of the first to fifth imaging data processing server programs, and dynamically changes the position information associated with the processing data. Is executed.

本発明に係る第7の撮像データ加工サーバプログラムは、上記第1乃至第6の何れか1つの撮像データ加工サーバプログラムであって、前記情報処理装置が表示部を備えており、当該表示部に前記加工データのうち前記加工処理のために使用されたものを一覧表示すると共に未だ使用されていない加工データに関する情報も一覧表示させるための情報を前記情報処理装置へ送信するステップを実行させることを特徴とする。   A seventh imaging data processing server program according to the present invention is any one of the first to sixth imaging data processing server programs, wherein the information processing apparatus includes a display unit, and the display unit includes A step of displaying a list of the processing data used for the processing and sending information to the information processing apparatus for displaying information on the processing data that has not been used yet is executed. Features.

本発明に係る第1の撮像データ加工サービス方法は、特定の場所において撮影が行われた場合に当該撮影された静止画若しくは動画に対して付加的な情報を与えるサービス方法であって、画像撮影手段と自己位置取得部とを備えることにより静止画若しくは動画である撮像データと自己位置情報とを取得することができる情報処理装置から、当該自己位置情報を、位置情報と加工データとの対応付けを行う加工データ対応付サーバへと送信するステップと、これを受信した加工データ対応付サーバ若しくは当該対応付けによって定められる加工データ保持サーバにおいて前記自己位置情報に対応する前記加工データを判別して前記情報処理装置へと送信するステップと、これを受信した情報処理装置において当該加工データを用いて前記撮像データに対する加工処理を行うことで前記撮影された静止画若しくは動画に対して付加的な情報を与えるステップと、からなることを特徴とする。   A first image data processing service method according to the present invention is a service method for providing additional information to a still image or a moving image that has been shot when shooting is performed at a specific location. The self-position information is associated with the position information and the processing data from the information processing apparatus that can acquire the imaging data and the self-position information that are still images or moving images by providing the means and the self-position acquisition unit. Transmitting the processing data to the server with processing data, and determining the processing data corresponding to the self-location information in the processing data correspondence server or the processing data holding server defined by the correspondence, The step of transmitting to the information processing apparatus and the imaging using the processed data in the information processing apparatus that has received the step Wherein the step of providing additional information to the photographed still image or moving image by performing processing for over data, in that it consists of.

本発明に係る第2の撮像データ加工サービス方法は、特定の場所において撮影が行われた場合に当該撮影された静止画若しくは動画に対して付加的な情報を与えるサービス方法であって、画像撮影手段と自己位置取得部とを備えることにより静止画若しくは動画である撮像データに前記自己位置取得部によって取得される自己位置情報を対応付けることができる情報処理装置から、当該対応付けられた撮像データと自己位置情報を、位置情報と加工データとの対応付けを行う加工データ対応付サーバへと送信するステップと、これを受信した加工データ対応付サーバ若しくは当該対応付けによって定められる加工データ保持サーバにおいて当該自己位置情報に対応する前記加工データを判別し、当該加工データを用いて前記受信した撮像データに対する加工処理を行うことで前記撮影された静止画若しくは動画に対して付加的な情報を与えるステップと、からなることを特徴とする。   A second imaging data processing service method according to the present invention is a service method for providing additional information to a captured still image or moving image when imaging is performed at a specific location, The information processing apparatus capable of associating the self-position information acquired by the self-position acquisition unit with the imaging data that is a still image or a moving image by including the means and the self-position acquisition unit; The self-location information is transmitted to the processing data correspondence server that associates the position information with the processing data, and the processing data correspondence server that has received the information or the processing data holding server defined by the correspondence The processing data corresponding to the self-position information is determined, and the received imaging data is used using the processing data. Wherein the step of providing additional information to the photographed still image or moving image by performing processing for, in that it consists of.

本発明に係る第3の撮像データ加工サービス方法は、上記第1又は第2の撮像データ加工サービス方法であって、前記各サーバの何れかにおいて前記加工データに加工データ特定情報を対応づけておくことにより、前記情報処理装置からの情報送信の際に前記加工データ特定情報も送信させこれを受信した前記各サーバの何れかにおいて当該加工データ特定情報に適合する前記加工データを判別させる、又は、前記各サーバの何れかによって取得される前記加工データ特定情報に対応する前記加工データを判別させることを特徴とする。   A third imaging data processing service method according to the present invention is the first or second imaging data processing service method, wherein processing data specifying information is associated with the processing data in any of the servers. Thus, when transmitting information from the information processing apparatus, the processing data specifying information is also transmitted, and the processing data matching the processing data specifying information is determined in any of the servers that have received the information, or The processing data corresponding to the processing data specifying information acquired by any of the servers is discriminated.

本発明に係る第4の撮像データ加工サービス方法は、上記第3の撮像データ加工サービス方法であって、前記加工データ特定情報が時間情報若しくは時期情報であり、前記情報処理装置若しくは前記各サーバの何れかが計時部を備えることにより、前記計時部によって取得される時間若しくは時期情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報が気象情報であり、気象情報提供サーバから気象情報を取得することにより若しくは前記情報処理装置が気象観測部を備えており当該気象観測部によって気象情報を取得することにより、前記取得した気象情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報が被写体情報であり、前記情報処理装置若しくは前記各サーバの何れかが画像認識部を備えることにより、前記画像認識部によって認識される被写体情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報がイベント情報であり、前記情報処理装置若しくは前記各サーバの何れかが蓄積している前記イベント情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報が音声情報であり、前記情報処理装置が音声情報取得部を備えることにより、前記音声情報取得部によって取得される音声情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報が数値情報であり、前記情報処理装置若しくは前記各サーバの何れかが数値情報発生部を備えることにより、前記数値情報発生部によって生成される数値情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報が方位情報であり、前記情報処理装置若しくは前記各サーバの何れかが方位情報取得部を備えることにより、前記方位情報取得部によって取得される方位情報に対応する前記加工データを用いた前記加工処理ステップを実行する、又は、前記加工データ特定情報が地点情報であり、前記情報処理装置若しくは前記各サーバの何れかが地点情報取得部を備えることにより、前記地点情報取得部によって取得される地点情報に対応する前記加工データを用いた前記加工処理ステップ若しくは前記地点情報を用いた前記加工処理ステップを実行する、ことを特徴とする。   A fourth imaging data processing service method according to the present invention is the third imaging data processing service method, wherein the processing data specifying information is time information or time information, and the information processing device or each server Any one of them includes a time measuring unit, so that the processing step using the processing data corresponding to time or time information acquired by the time measuring unit is executed, or the processing data specifying information is weather information. The processing data corresponding to the acquired weather information by acquiring weather information from a weather information providing server, or when the information processing apparatus includes a weather observation unit and acquiring the weather information by the weather observation unit Or the processing data specifying information is subject information, and The information processing apparatus or each of the servers includes an image recognition unit, thereby executing the processing step using the processing data corresponding to the subject information recognized by the image recognition unit, or the processing The data specifying information is event information, and the processing step using the processing data corresponding to the event information stored in either the information processing apparatus or each of the servers is executed, or the processing data The specific information is audio information, and the information processing apparatus includes an audio information acquisition unit, thereby executing the processing step using the processing data corresponding to the audio information acquired by the audio information acquisition unit. Alternatively, the processing data specifying information is numerical information, and either the information processing device or each of the servers is a number. By providing the information generating unit, the processing step using the processing data corresponding to the numerical information generated by the numerical information generating unit is executed, or the processing data specifying information is azimuth information, Either the information processing device or each of the servers includes a direction information acquisition unit, thereby executing the processing step using the processing data corresponding to the direction information acquired by the direction information acquisition unit, or The processed data specifying information is point information, and the information processing device or each of the servers includes a point information acquisition unit, whereby the processing data corresponding to the point information acquired by the point information acquisition unit is The processing step used or the processing step using the point information is executed. To do.

本発明に係る第5の撮像データ加工サービス方法は、上記第1乃至第4の何れか1つの撮像データ加工サービス方法であって、前記情報処理装置が方位取得部及びフォーカス情報取得部を備えることにより、前記自己位置情報と、前記方位取得部によって取得される方位情報と、前記フォーカス情報取得部によって取得されるフォーカス情報とに基づいて、前記情報処理装置若しくは前記各サーバの何れかによって被写体の位置を算出するステップと、当該被写体位置情報に対応する前記加工データを判別して、当該加工データを用いた前記加工処理ステップを実行することを特徴とする。   A fifth imaging data processing service method according to the present invention is any one of the first to fourth imaging data processing service methods, wherein the information processing apparatus includes an orientation acquisition unit and a focus information acquisition unit. Thus, based on the self-position information, the azimuth information acquired by the azimuth acquisition unit, and the focus information acquired by the focus information acquisition unit, either the information processing device or each server A step of calculating a position, and determining the processing data corresponding to the subject position information, and executing the processing step using the processing data.

本発明に係る第6の撮像データ加工サービス方法は、上記第1乃至第5の何れか1つの撮像データ加工サービス方法であって、前記加工データに対応づける前記位置情報を動的に変化させることを特徴とする。   A sixth imaging data processing service method according to the present invention is any one of the first to fifth imaging data processing service methods, wherein the position information associated with the processing data is dynamically changed. It is characterized by.

本発明に係る第7の撮像データ加工サービス方法は、上記第1乃至第6の何れか1つの撮像データ加工サービス方法であって、前記情報処理装置が表示部を備え、当該表示部に前記加工データのうち前記加工処理のために使用されたものを一覧表示すると共に、未だ使用されていない加工データに関する情報も一覧表示させるステップを有することを特徴とする。   A seventh imaging data processing service method according to the present invention is any one of the first to sixth imaging data processing service methods, wherein the information processing apparatus includes a display unit, and the display unit includes the processing unit. The method includes a step of displaying a list of data used for the processing among the data, and displaying a list of information on the processing data that has not been used yet.

本発明に係る第8の撮像データ加工サービス方法は、上記第1乃至第7の何れか1つの撮像データ加工サービス方法であって、前記各サーバの何れかにおいてサービス種別を判別するためのサービス識別情報ごとに位置情報と加工データとを対応付けて管理し、前記情報処理装置に対して利用が許可されているサービスの前記サービス識別情報を保持させることにより、前記情報処理装置からの情報送信の際に前記サービス識別情報も送信させ、これを受信した前記各サーバの何れかにおいて、当該サービス識別情報に適合する前記加工データを判別させることを特徴とする。   An eighth imaging data processing service method according to the present invention is any one of the first to seventh imaging data processing service methods, wherein service identification for determining a service type in any of the servers is performed. For each information, the positional information and the processing data are managed in association with each other, and the service identification information of the service that is permitted to be used by the information processing apparatus is held, thereby transmitting information from the information processing apparatus. At this time, the service identification information is also transmitted, and the processing data matching the service identification information is discriminated at any of the servers that have received the service identification information.

本発明に係る第1の撮像データ加工装置によれば、例えば、GPS等を利用した自己位置取得手段を備えるデジタルカメラや携帯電話等(撮像データ加工装置)において、現在の位置(自己位置情報)に対応するフレーム情報(加工データ)を用いて撮影した写真(撮像データ)にフレームが付加されるというような使い方ができる。よって、GPS等の自己位置取得手段を備える静止画若しくは動画を撮影可能な情報処理装置において新たな利用方法を提供することができる。   According to the first imaging data processing apparatus of the present invention, for example, in a digital camera or a mobile phone (imaging data processing apparatus) provided with a self-position acquisition unit using GPS or the like (imaging data processing apparatus), the current position (self-position information) It can be used such that a frame is added to a photograph (imaging data) taken using frame information (processed data) corresponding to. Therefore, it is possible to provide a new usage method in an information processing apparatus that can capture a still image or a moving image including self-position acquisition means such as GPS.

本発明に係る第3の撮像データ加工装置によれば、位置情報と加工データとの対応付けに基づく加工データの取得に加えて、加工データ特定情報と加工データとの対応付けに基づく加工データの取得が行われ、当該取得した加工データを利用して撮像データ加工装置によって撮影された撮像データに対する加工処理が行われる。例えば、加工データ特定情報として気象情報を用いたとした場合に、GPS等を利用した自己位置取得手段を備えるデジタルカメラや携帯電話等において、現在の位置に対応するフレーム情報を用いて“撮影した写真”にフレームが付加され、さらに気象情報を取得(自己位置情報に基づいて気象サーバから該当位置の気象データを取得する等)して当該気象情報に対応する天気アイコン(加工データ)を写真に付加するというような使い方ができる。よって、ユーザに対して種々のサービス(新たな利用方法)を提供することができる。   According to the third imaging data processing apparatus of the present invention, in addition to the acquisition of the processing data based on the correspondence between the position information and the processing data, the processing data of the processing data based on the correspondence between the processing data specifying information and the processing data Acquisition is performed, and processing is performed on imaging data captured by the imaging data processing apparatus using the acquired processing data. For example, when meteorological information is used as the processing data specifying information, the “photographed photograph” is obtained using the frame information corresponding to the current position in a digital camera or mobile phone equipped with a self-position acquisition means using GPS or the like. A frame is added to ", and weather information is acquired (such as acquiring weather data at the corresponding location from the weather server based on the self-location information), and a weather icon (processed data) corresponding to the weather information is added to the photo You can use it like Therefore, various services (new usage methods) can be provided to the user.

本発明に係る第6の撮像データ加工装置によれば、例えば、あるときA地点で撮影した写真に対してある特定のフレームが用いられたとしても、別のときにA地点で撮影した写真に対しては別のフレームが用いられる(orフレームの付加処理が行われない)ため、同じ場所で写真を撮ると常に同じ結果になるわけではなく、時間・時節に応じて異なる結果が得られることとなる。よって、ユーザに対して種々のサービス(新たな利用方法)を提供することができる。   According to the sixth imaging data processing apparatus of the present invention, for example, even if a certain frame is used for a photograph taken at a point A at a certain time, a photograph taken at a point A at another time is used. On the other hand, because different frames are used (or frame is not added), taking a picture at the same place does not always give the same result, and different results can be obtained according to time and time. It becomes. Therefore, various services (new usage methods) can be provided to the user.

本発明に係る第8の撮像データ加工装置によれば、例えば、全ての加工データが収められる“台紙帳”のような表示形式にして、使用した加工データ(例えばフレーム)については順次“台紙帳”の該当欄が埋められていき、使用されていない加工データの欄はデータ名のみの表示やシルエット表示を行うようにすることができるものである。よって、ユーザの収集意欲を増進させるようなサービスを提供することができる。   According to the eighth imaging data processing apparatus of the present invention, for example, the processing data (for example, a frame) is displayed in a display format such as “mounting book” in which all the processing data is stored. The corresponding column of “” is filled, and the column of processed data that is not used can display only the data name or silhouette. Therefore, it is possible to provide a service that enhances the user's desire to collect.

1 端末装置(情報処理装置、撮像データ加工装置)
2 ネットワーク
3 サービス提供サーバ(加工データ対応付サーバ)
4 コンテンツ提供サーバ(加工データ保持サーバ)
110 制御部
120 カメラ部(画像撮影手段)
130 記憶部
140 通信部
150 GPS受信部(自己位置取得部)
170 表示部
1 Terminal device (information processing device, imaging data processing device)
2 Network 3 Service providing server (server with processing data support)
4 Content provision server (processing data holding server)
110 control unit 120 camera unit (image photographing means)
130 storage unit 140 communication unit 150 GPS reception unit (self-position acquisition unit)
170 Display

Claims (4)

画像撮影手段を備えることにより静止画若しくは動画を撮影可能な撮像データ加工装置であって、表示部と、制御部と、記憶部と、自己位置取得部と、を備え、前記記憶部に若しくは前記撮像データ加工装置に対して着脱可能な記憶媒体に、位置情報と加工データとを対応付けて格納しておくことにより、前記画像撮影手段による撮影によって得られる撮像データに対して、前記自己位置取得部によって取得される自己位置情報に対応する前記加工データを用いた加工処理を実行するものであり、
前記加工データは、対応付けられた位置での過去の写真を加工データとして記憶しているものであり、
当該加工データの取得条件が取得条件テーブルに設定されており、当該取得条件としては、所定の地域を限定して加工データを取得するように管理する地域限定に関する取得条件(以降、「地域限定条件」とする)が設定されているものであり、
前記撮像データ加工装置によって、前記地域限定条件で設定された前記所定の地域内に被写体の位置を算出した場合には、当該被写体位置情報に対応する前記加工データとしての過去の写真の表示処理を実行する
ことを特徴とする撮像データ加工装置。
An imaging data processing apparatus capable of capturing a still image or a moving image by including an image capturing unit, comprising: a display unit, a control unit, a storage unit, and a self-position acquisition unit, and the storage unit or The self-position acquisition is performed with respect to imaging data obtained by imaging by the image imaging unit by storing positional information and processing data in association with each other in a storage medium that is detachable from the imaging data processing apparatus. The processing using the processing data corresponding to the self-location information acquired by the unit is executed,
The processed data is stored as processed data of past photographs at the associated positions,
The acquisition condition of the processing data is set in the acquisition condition table, and the acquisition condition includes an acquisition condition (hereinafter referred to as “region limitation condition”) for managing the region so as to acquire the processing data by limiting a predetermined region. ”)) Is set,
In the case where the position of the subject is calculated within the predetermined area set by the area limitation condition by the imaging data processing device , display processing of past photographs as the processing data corresponding to the subject position information The imaging data processing apparatus characterized by performing.
前記加工データを取得する前記地域限定条件としての所定の地域は、地図座標を持った図形であることを特徴とする請求項1記載の撮像データ加工装置。 The imaging data processing apparatus according to claim 1, wherein the predetermined area as the area limiting condition for acquiring the processed data is a figure having map coordinates . 前記加工データの取得条件である地域限定条件により取得した加工データとしての過去の写真を、実際に撮影した写真と並べて前記表示部に画像生成する
ことを特徴とする請求項1又は2記載の撮像データ加工装置。
The past image as the processing data acquired according to the region limitation condition that is the processing data acquisition condition is generated side by side with the actually taken photo to generate an image on the display unit. 2. The imaging data processing device according to 2.
記加工データがテキストデータであることを特徴とする請求項1乃至3の何れか1つに記載の撮像データ加工装置。
Before Symbol Processing data Gath text imaging data processing apparatus according to any one of claims 1 to 3, characterized in that it is a data.
JP2011208651A 2011-09-26 2011-09-26 Imaging data processing device Expired - Fee Related JP5082005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011208651A JP5082005B2 (en) 2011-09-26 2011-09-26 Imaging data processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011208651A JP5082005B2 (en) 2011-09-26 2011-09-26 Imaging data processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008064495A Division JP5137633B2 (en) 2008-03-13 2008-03-13 Imaging data processing device

Publications (2)

Publication Number Publication Date
JP2012034397A JP2012034397A (en) 2012-02-16
JP5082005B2 true JP5082005B2 (en) 2012-11-28

Family

ID=45847190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011208651A Expired - Fee Related JP5082005B2 (en) 2011-09-26 2011-09-26 Imaging data processing device

Country Status (1)

Country Link
JP (1) JP5082005B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101905648B1 (en) 2012-02-27 2018-10-11 삼성전자 주식회사 Apparatus and method for shooting a moving picture of camera device
EP3595315B1 (en) 2012-04-16 2021-01-13 Samsung Electronics Co., Ltd. Method and apparatus for determining reference picture set of image
KR101990038B1 (en) * 2012-11-13 2019-06-18 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
JP7059576B2 (en) * 2017-11-13 2022-04-26 大日本印刷株式会社 Automatic shooting system and automatic shooting method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239805B2 (en) * 1997-06-02 2001-12-17 船井電機株式会社 Terminal and server for a combined self-portrait creation game device
JP4274656B2 (en) * 1999-12-08 2009-06-10 カシオ計算機株式会社 Camera device and subject name display method
JP4816140B2 (en) * 2006-02-28 2011-11-16 ソニー株式会社 Image processing system and method, image processing apparatus and method, imaging apparatus and method, program recording medium, and program
JP2007258965A (en) * 2006-03-22 2007-10-04 Casio Comput Co Ltd Image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content

Also Published As

Publication number Publication date
JP2012034397A (en) 2012-02-16

Similar Documents

Publication Publication Date Title
US11714523B2 (en) Digital image tagging apparatuses, systems, and methods
JP5438376B2 (en) Imaging apparatus and control method thereof
JP5082005B2 (en) Imaging data processing device
TW200939062A (en) Device, method, and system for displaying recorded data
EP2784666A2 (en) Method and device for displaying service pages for executing applications
JP2009239397A (en) Imaging apparatus, imaging system, control method of imaging apparatus, and control program
JP4680937B2 (en) Sharing meta information media files
JP2005100353A (en) Information display device, method, and program, and positional information service system
CN111680238B (en) Information sharing method, device and storage medium
CN101911072A (en) The method of in collection of data items, searching for
EP2040185B1 (en) User Interface for Selecting a Photo Tag
JP5137633B2 (en) Imaging data processing device
KR20110094970A (en) Method and apparatus for managing tag of multimedia content
JP5458123B2 (en) Imaging data processing device
JP6265621B2 (en) Display control apparatus and program
JP2005150941A (en) Information providing system and method
JP2009224878A5 (en)
WO2018006534A1 (en) Place recommendation method, device, and computer storage medium
JP2006047147A (en) Information providing system
JP2013065165A (en) Image display method and device, image display program, and image display system
KR100866638B1 (en) Apparatus and method for providing position data of image data
KR20110052247A (en) Camera apparatus for providing photograph image, display apparatus for displaying the photograph image and relating image, and methods thereof
JP2009043006A (en) Peripheral information providing system, server and peripheral information providing method
JP6089515B2 (en) Image processing apparatus, image processing method, and program
JP6575888B1 (en) Regional information display system

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20111206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees