JP2013055595A - Terminal device, content display system, program, data structure, and content distribution server - Google Patents
Terminal device, content display system, program, data structure, and content distribution server Download PDFInfo
- Publication number
- JP2013055595A JP2013055595A JP2011193934A JP2011193934A JP2013055595A JP 2013055595 A JP2013055595 A JP 2013055595A JP 2011193934 A JP2011193934 A JP 2011193934A JP 2011193934 A JP2011193934 A JP 2011193934A JP 2013055595 A JP2013055595 A JP 2013055595A
- Authority
- JP
- Japan
- Prior art keywords
- data
- electronic content
- acquisition condition
- condition data
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
この発明は、電子コンテンツを表示する端末装置に関する。 The present invention relates to a terminal device that displays electronic content.
従来、電子コンテンツを表示するものとしては、以下のようなものがある。例えば、特許文献1のシステムは、水族館の魚の画像を撮像して魚の名前をデータベースから読み出し、画像と名前を合成してリアルタイム図鑑を作成するものである。 Conventionally, electronic content is displayed as follows. For example, the system of Patent Document 1 captures an image of an aquarium fish, reads the name of the fish from a database, and synthesizes the image and the name to create a real-time picture book.
特許文献2のシステムは、複数の撮像手段から撮像された画像をリアルタイムに集約してスライドショーを作成するものである。端末は、新たな画像が追加されるたびにスライドショーに用いる画像ファイルを更新する。 The system of Patent Document 2 is to create a slide show by aggregating images taken from a plurality of imaging means in real time. The terminal updates the image file used for the slide show every time a new image is added.
特許文献3のシステムは、通信負荷低減のため、画像を送信する際に、更新画像データのどの領域を送信するかを判断して画像を送信するものである。 In order to reduce the communication load, the system of Patent Literature 3 determines which area of the updated image data is to be transmitted when transmitting an image and transmits the image.
従来のシステムは、いずれも、時間的に変化し得る情報を提供するものではなかった。また、コンテンツ提供者自身が情報収集の整備をすることなく、広く情報を収集し、提供を行うことができるものではなかった。 None of the conventional systems provide information that can change over time. In addition, information providers cannot collect and provide information without providing information collection.
この発明は、コンテンツの目的に合わせて、時間的に変化し得る情報のうち、最新の情報を提供することができる端末装置を提供することを目的とする。 An object of this invention is to provide the terminal device which can provide the newest information among the information which can change temporally according to the objective of a content.
この発明の端末装置は、電子コンテンツを記憶する記憶部と、前記電子コンテンツの内容を表示する表示部と、外部サーバとデータ送受信を行う通信部と、前記記憶部から前記電子コンテンツを読み出し、前記表示部に前記コンテンツの内容を表示させる制御部と、を備えた端末装置であって、前記記憶部に記憶された電子コンテンツは、対象物をセンシングした結果であるセンシングデータの時間的条件または位置的条件を含む取得条件データを含み、前記制御部は、前記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出す処理と、前記取得条件データに合致するセンシングデータを受信し、当該受信したセンシングデータを前記電子コンテンツの内容に含めて前記表示部に表示させることを特徴とする。
本発明における電子コンテンツとは、デジタル化され電子的に記録可能な文書データまたは、文書データと画像データ、映像データ、楽曲データもしくはプログラム等の結合を包含する。この電子コンテンツには、例えば、電子書籍、電子看板データが含まれる。そして、本発明における電子書籍とは、書籍をデジタルデータにし、パソコンや携帯情報端末(PDA)、携帯電話などで読める形にしたものである。電子書籍とWebページの大きな相違点は、電子書籍にはページの概念があり、ページ番号からなる目次の設定が可能であったり、ページめくりという操作が可能であったりするが、Webページでは、ページの概念がなく、目次の設定やページめくりという操作ができないということにある。電子看板データは、ページ数が1ページのみしかないという点が、電子書籍との相違点である。電子看板データは、電子看板というハードウェアの記憶部に記憶されて表示等される。
The terminal device according to the present invention includes a storage unit that stores electronic content, a display unit that displays the content of the electronic content, a communication unit that performs data transmission and reception with an external server, and reads the electronic content from the storage unit, A control unit that displays the content of the content on a display unit, wherein the electronic content stored in the storage unit is a temporal condition or position of sensing data that is a result of sensing an object Including acquisition condition data including a visual condition, and the control unit receives a process of reading the acquisition condition data and displaying sensing data matching the acquisition condition data before displaying the electronic content on the display unit, The received sensing data is included in the contents of the electronic content and displayed on the display unit.
The electronic content in the present invention includes digitized and electronically recordable document data or a combination of document data and image data, video data, music data, or a program. This electronic content includes, for example, an electronic book and electronic signboard data. The electronic book in the present invention is a digital book that can be read by a personal computer, a personal digital assistant (PDA), a mobile phone, or the like. The major difference between an electronic book and a web page is that there is a concept of a page in an electronic book, and it is possible to set a table of contents consisting of page numbers or to turn the page. There is no concept of a page, and operations such as setting a table of contents and turning pages cannot be performed. The electronic signboard data is different from the electronic book in that the number of pages is only one page. The electronic signboard data is stored and displayed in a hardware storage unit called an electronic signboard.
本発明の端末装置は、電子コンテンツの内容を表示する際に外部から受信したセンシングデータを含めて表示する。例えば、電子コンテンツ内に、センシングデータを画像として埋め込むべき領域を定義するために、HTMLでの<IMG>タグを用いる。そして、前記のセンシングデータの取得条件は、HTMLでの<TEXTARE>タグ用いて記述する。この場合、取得条件には、少なくともセンシングデータの情報種別、時間的条件および位置的条件が含まれる。電子書籍の主要なフォーマットには、EPUBとPDFとXMDFと.BOOKがある。本発明では、主としてEPUBフォーマットの最新版であるEPUB3の電子書籍としての電子コンテンツにおけるセンシングデータの取得と表示を中心に説明する。ただし、この説明はEPUBに限定した説明ではなく、他の電子書籍のフォーマットにおいても適用可能な部分が多い。なぜならば、多くの電子書籍フォーマットではHTMLをサポートしているからである。
例えば、電子書籍のコンテンツを構成するHTMLファイルで記述されたTEXTAREA内のデータとして、後述の図4に示す取得条件データをHIDDEN属性のデータとして予め記述しておく。端末装置は、このようにして記述された取得条件データを、JavaScript(登録商標)プログラムでオブジェクトとして読み取りURLに付随したコマンドパラメータに加工し、センシングサーバ3に対して、”location.href “命令用いて、送信することができる(図5参照)。詳しくは、後述する。そして、外部サーバが取得条件データに合致するセンシングデータを抽出し、当該抽出したセンシングデータを、外部サーバ内の所定URLに用意する。端末装置は、外部サーバ内の所定URLに用意されたものを、後述の図2に示す<IMG>タグでのsrc=”url”で示されるurlで示されるアドレス上から画像データとして取得して、表示部に表示する。これにより、当該センシングデータは、電子コンテンツ内に埋め込まれた当該取得条件データに合致するものとして受信される。したがって、コンテンツの目的に合わせた対象物のリアルタイム情報を提供することができる。
The terminal device of the present invention displays the contents of electronic content including sensing data received from the outside. For example, an <IMG> tag in HTML is used to define a region in which sensing data should be embedded as an image in electronic content. The sensing data acquisition conditions are described using <TEXTARE> tags in HTML. In this case, the acquisition conditions include at least the information type of the sensing data, temporal conditions, and positional conditions. The main formats of e-books include EPUB, PDF, XMDF,. There is a book. In the present invention, description will be made mainly on acquisition and display of sensing data in electronic contents as an electronic book of EPUB3 which is the latest version of the EPUB format. However, this description is not limited to EPUB, and there are many parts that can be applied to other electronic book formats. This is because many electronic book formats support HTML.
For example, acquisition condition data shown in FIG. 4 described later is described in advance as HIDDEN attribute data as data in TEXTAREA described in an HTML file constituting the contents of an electronic book. The terminal device reads the acquisition condition data described in this way as an object by the JavaScript (registered trademark) program, processes it into a command parameter attached to the URL, and uses the “location.href” command to the sensing server 3. Can be transmitted (see FIG. 5). Details will be described later. Then, the external server extracts sensing data that matches the acquisition condition data, and prepares the extracted sensing data in a predetermined URL in the external server. The terminal device obtains what is prepared for the predetermined URL in the external server as image data from the address indicated by url indicated by src = “url” in the <IMG> tag shown in FIG. Is displayed on the display. Thereby, the sensing data is received as matching the acquisition condition data embedded in the electronic content. Accordingly, it is possible to provide real-time information on the object in accordance with the purpose of the content.
また、前記記憶部に記憶された電子コンテンツは、前記取得条件データを読み出すトリガとなるイベント記述が含まれ、前記制御部は、前記イベント記述を読み出すことで、前記記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出すことが望ましい。 The electronic content stored in the storage unit includes an event description serving as a trigger for reading out the acquisition condition data, and the control unit reads out the event description so that the electronic content is stored in the display unit. It is desirable to read out the acquisition condition data before displaying it.
例えば、トリガーイベントは、制御部に含まれて動作するイベントハンドラーを拡張することで実現できる。電子コンテンツが電子看板に表示する広告であれば、視線検知イベントを検知するプログラムをイベントハンドラーに追加する事もできるし、電子コンテンツが電子書籍であれば、センシングデータを表示するページの近くのページが閲覧されたということでイベントが発生するようなイベントハンドラーを実装することもできる。これらのイベントハンドラーによるイベントの検知で動作を開始するプログラムをJavaScriptプログラムで組んで、当該JavaScriptプログラムを電子コンテンツに含ませておくことも容易である。この場合、不必要なセンシングデータを無駄に更新することがない。 For example, the trigger event can be realized by extending an event handler that is included in the control unit and operates. If the electronic content is an advertisement to be displayed on an electronic signboard, you can add a program that detects the gaze detection event to the event handler. If the electronic content is an electronic book, a page near the page that displays the sensing data You can also implement an event handler that fires when an event is viewed. It is also easy to assemble a program that starts operation upon detection of an event by these event handlers with a JavaScript program and include the JavaScript program in the electronic content. In this case, unnecessary sensing data is not updated unnecessarily.
また、電子コンテンツが電子書籍である場合、所定のページが閲覧されたことを、トリガとすることが望ましい。電子書籍では、センシングデータを埋め込むべきページの近くのページが閲覧されたとか、当該ページにジャンプする目次の部分がクリックされたというようなイベントを記述しておく。すると、電子書籍の当該ページに記述された取得条件データが読み出しされ、条件に合致するセンシングデータが、センシングサーバに要求され、そのセンシングサーバからの応答として、センシングデータが端末装置に取得される。 In addition, when the electronic content is an electronic book, it is desirable that a predetermined page is browsed as a trigger. In an electronic book, an event is described in which a page near a page in which sensing data is to be embedded is browsed or a table of contents jumping to the page is clicked. Then, the acquisition condition data described on the page of the electronic book is read, sensing data that matches the condition is requested from the sensing server, and sensing data is acquired by the terminal device as a response from the sensing server.
また、端末装置は、視線感知センサを備え、前記制御部は、前記視線感知センサで視線感知した場合に、前記取得条件データを読み出す態様も可能である。 The terminal device may include a line-of-sight sensor, and the control unit may read the acquisition condition data when the line-of-sight sensor senses the line of sight.
例えば端末装置が駅等に設置される電子看板である場合、当該電子看板に視線検知用の画像センサを搭載し、その画像センサが電子看板に近付く人の視線が電子看板に向いている事を検知すると、取得条件データが読み出しされ、センシングデータが受信される。 For example, when the terminal device is an electronic signboard installed at a station or the like, an image sensor for line-of-sight detection is mounted on the electronic signboard, and the line of sight of a person approaching the electronic signboard faces the electronic signboard. When detected, the acquisition condition data is read and sensing data is received.
なお、取得条件データは、端末装置に接続された外部サーバに送信され、当該外部サーバの判断部が、受信した取得条件データに合致するセンシングデータを判断し、当該センシングデータを端末装置に送信する。 The acquisition condition data is transmitted to an external server connected to the terminal device, and the determination unit of the external server determines sensing data that matches the received acquisition condition data, and transmits the sensing data to the terminal device. .
なお、本発明は、記憶部、表示部、通信部、および制御部を備えた端末装置の当該制御部に実行されるプログラム実現可能である。また、本発明は、電子コンテンツのデータ構造としても実現可能である。 Note that the present invention can be realized by a program executed by the control unit of a terminal device including a storage unit, a display unit, a communication unit, and a control unit. The present invention can also be realized as a data structure of electronic content.
この発明によれば、コンテンツの目的に合わせて、時間的に変化し得る情報のうち、最新の情報を提供することができる。 According to the present invention, it is possible to provide the latest information among the information that can change with time in accordance with the purpose of the content.
図1は、本発明の端末装置を用いたコンテンツ表示システムの構成を示すブロック図である。コンテンツ表示システムは、インターネット7を介して接続される端末装置(情報処理装置)1と、コンテンツ提供者サーバ2と、センシングサーバ3と、複数のセンサ(同図の例ではセンサ51〜54の4つ)と、を備えている。 FIG. 1 is a block diagram showing the configuration of a content display system using the terminal device of the present invention. The content display system includes a terminal device (information processing device) 1 connected via the Internet 7, a content provider server 2, a sensing server 3, and a plurality of sensors (in the example of FIG. And).
端末装置1の制御部11は、通信部12およびインターネット7を介してコンテンツ提供者サーバ2から電子コンテンツをダウンロードし、記憶部であるコンテンツDB14に記憶する。制御部11は、コンテンツDB14から電子コンテンツを読み出し、当該電子コンテンツの内容を表示部13に表示する。 The control unit 11 of the terminal device 1 downloads electronic content from the content provider server 2 via the communication unit 12 and the Internet 7 and stores it in the content DB 14 that is a storage unit. The control unit 11 reads the electronic content from the content DB 14 and displays the content of the electronic content on the display unit 13.
センシングサーバ3は、通信部37およびインターネット7を介して、各センサが対象物についてセンシングした結果であるセンシングデータを受信し、センシングデータDB36に記憶する。対象物は、例えば、ホテル、植物園、寺社、レストラン等の観光地である。センサとしては、カメラや温度センサ、湿度センサ等がある。 The sensing server 3 receives sensing data that is a result of sensing each object by the sensors via the communication unit 37 and the Internet 7 and stores the sensing data in the sensing data DB 36. The object is, for example, a tourist spot such as a hotel, a botanical garden, a temple, a restaurant, or the like. Examples of the sensor include a camera, a temperature sensor, and a humidity sensor.
端末装置1の制御部11は、電子コンテンツの内容を表示する際に、当該表示する内容の一部について、センシングサーバ3から取得したセンシングデータを埋め込んで表示する。図2は電子コンテンツのデータ構造の例を示すものである。電子コンテンツは、図2に示すように、例えばHTMLデータからなり、センシングデータを画像として埋め込むべき領域を定義するHTMLタグ<IMG>があり、当該タグには、画像の場所や大きさ等を示す各種のオプションがある。図2はHTMLデータのタグの一例を示しており、属性名称、属性項目値から構成される。なお、制御部11は、センシングサーバ3にセンシングデータを検索させるための検索コマンドおよび検索パラメータを生成する処理を実行し、センシングサーバ3に対するセンシングデータの要求コマンドを送信する。これらの変換プログラムは、一般的にJavaScriptプログラム等で記述されていてもよい。電子コンテンツには、図3に示すように、当該JavaScriptプログラムや、センシングデータを受信できなかったときに表示する(あるいは、センシングデータを受信するまでに暫定的に表示する)画像データが含まれている。 When displaying the content of the electronic content, the control unit 11 of the terminal device 1 embeds and displays the sensing data acquired from the sensing server 3 for a part of the displayed content. FIG. 2 shows an example of the data structure of electronic content. As shown in FIG. 2, the electronic content is composed of, for example, HTML data, and there is an HTML tag <IMG> that defines an area in which sensing data should be embedded as an image, and the tag indicates the location and size of the image. There are various options. FIG. 2 shows an example of a tag of HTML data, which is composed of an attribute name and an attribute item value. The control unit 11 executes a process for generating a search command and a search parameter for causing the sensing server 3 to search for sensing data, and transmits a sensing data request command to the sensing server 3. These conversion programs may be generally described by a JavaScript program or the like. As shown in FIG. 3, the electronic content includes the JavaScript program and image data that is displayed when sensing data cannot be received (or displayed provisionally until sensing data is received). Yes.
センシングデータを電子コンテンツの中に示すためには、センシングデータの時間的条件および位置的条件を含む取得条件データを、当該電子コンテンツの中に含めておく必要がある。図4は、センシングデータの取得条件データのデータ構造の一例を示すものである。この取得条件データは、電子コンテンツを構成するHTMLで記述されたコンテンツにおけるTEXTAREA内に予めHIDDEN属性のデフォルト値として埋め込まれたデータとして実現する事もできる。TEXTAREA内のデータは、TEXTAREAにname属性を定義する事で、JavaScriptプログラムにおけるオブジェクトとして参照可能である。
したがって、HTMLで記述されたコンテンツおよびJavaScriptプログラムを含む電子コンテンツにおいては、図4に示す取得条件データを、JavaScriptプログラムにて操作できる。すなわち、図4に示す取得条件データをJavaScriptプログラムが、HTMLでのTEXTAREAからオブジェクトとして読み取り、読み取った取得条件データを用いて、図5に示すフォーマットでのコマンド文字列を合成して、URL1という文字列変数に入れることが簡単にできる。端末装置1の制御部11は、JavaScriptプログラムが次の命令を実行することで、センシングサーバ3に対して、取得条件データを含むセンシングデータの取得要求コマンドを送信することができる。
location.href = “URL1”;
このことを、さらに詳しく説明する。すなわち、図5に示す検索コマンドでの各コマンドパラメータ(検索パラメータ)を、図4に示す取得条件データによって記述する。図4で示される取得条件データは、XMLタグのタグ名称の部分、<tag_name> </tag_name>と、それに囲まれるタグ値valueからなり、次のような一般形式である。
<tag_name>value</tag_name>
このような一般形式で記述される図4の取得条件の部分を用いて、図5に示すコマンドパラメータの部分を次のように生成する。
tag_name=value
このようなコマンドパラメータ(検索パラメータ)を、URL1の中でつなぐ場合には、”&”で結合していく。これによって、図5に示す検索パラ-メタをURL1という文字列変数の中に生成することができる。そうして、生成されたURL1という文字列変数を用いて、次の命令を実行するのである。
location.href = “URL1”;
図3を参照して、端末装置1およびセンシングサーバ3間のデータの流れと、端末装置1およびセンシングサーバ3の動作を、さらに詳しく説明する。段落0023の説明では、図3において、コンテンツデータを制御部11が読み取って、通信部12を介して、検索コマンドおよび検索パラメータを送信する処理まで説明した。次に、センシングサーバ3の判断部31は、通信部37を介して取得条件データを受信し、センシングデータを提供する前に、取得条件データとセンシングデータ利用契約のマッチング、および、取得条件データとセンシングデータ提供契約のマッチングを行なう。詳しくは、後述する(段落0032を参照)。
判断部31は、上記の2つのマッチングが成立するセンシングデータがあった場合、そのセンシングデータを含むHTMLデータを自動生成して、端末装置1にHTTPプロトコルで送信してもよい。また、該当するセンシングデータを画像データに変換して、それを表示用センシングデータ格納エリア38に保存するという方法も実行できる。その場合、表示用センシングデータ格納エリア38のURLは、図2に示す<IMG>タグで示される画像表示のためのタグの中で、Src=“url”オプションで用いるurlと同じ値になるように設定する。そうすることで、端末装置1の制御部11の動作において、電子コンテンツ内に記述され、図2に示した<IMG>タグの働きで、センシングサーバ3からのセンシングデータを画像として加工したものが、端末装置1の表示部13に表示されることとなる。
In order to show the sensing data in the electronic content, it is necessary to include acquisition condition data including a temporal condition and a positional condition of the sensing data in the electronic content. FIG. 4 shows an example of the data structure of sensing condition acquisition condition data. This acquisition condition data can also be realized as data embedded in advance as a default value of the HIDDEN attribute in TEXTAREA in the content described in HTML constituting the electronic content. The data in TEXTAREA can be referred to as an object in the JavaScript program by defining the name attribute in TEXTAREA.
Therefore, in the content described in HTML and the electronic content including the JavaScript program, the acquisition condition data shown in FIG. 4 can be manipulated by the JavaScript program. That is, the JavaScript program reads the acquisition condition data shown in FIG. 4 as an object from TEXTAREA in HTML, and uses the read acquisition condition data to synthesize a command character string in the format shown in FIG. Can easily be put in a column variable. The control unit 11 of the terminal device 1 can transmit an acquisition request command for sensing data including acquisition condition data to the sensing server 3 by executing the following command in the JavaScript program.
location.href = “URL1”;
This will be described in more detail. That is, each command parameter (search parameter) in the search command shown in FIG. 5 is described by the acquisition condition data shown in FIG. The acquisition condition data shown in FIG. 4 includes a tag name portion of the XML tag, <tag_name></tag_name>, and a tag value value surrounded by the tag name, and has the following general format.
<tag_name> value </ tag_name>
Using the acquisition condition part of FIG. 4 described in such a general format, the command parameter part shown in FIG. 5 is generated as follows.
tag_name = value
When such command parameters (search parameters) are connected in URL1, they are combined with “&”. As a result, the search parameters shown in FIG. 5 can be generated in the character string variable URL1. Then, the next command is executed using the generated character string variable of URL1.
location.href = “URL1”;
With reference to FIG. 3, the data flow between the terminal device 1 and the sensing server 3 and the operations of the terminal device 1 and the sensing server 3 will be described in more detail. In the description of the paragraph 0023, the description has been made up to the processing in which the control unit 11 reads the content data and transmits the search command and the search parameter via the communication unit 12 in FIG. Next, the determination unit 31 of the sensing server 3 receives the acquisition condition data via the communication unit 37, and provides the matching of the acquisition condition data and the sensing data usage contract and the acquisition condition data before providing the sensing data. Match the sensing data provision contract. Details will be described later (see paragraph 0032).
When there is sensing data that satisfies the above two matchings, the determination unit 31 may automatically generate HTML data including the sensing data and transmit the HTML data to the terminal device 1 using the HTTP protocol. Further, a method of converting the corresponding sensing data into image data and storing it in the display sensing data storage area 38 can be executed. In this case, the URL of the display sensing data storage area 38 is set to the same value as the url used in the Src = “url” option in the image display tag indicated by the <IMG> tag shown in FIG. Set to. By doing so, in the operation of the control unit 11 of the terminal device 1, what is described in the electronic content and processed as sensing data from the sensing server 3 by the function of the <IMG> tag shown in FIG. Will be displayed on the display unit 13 of the terminal device 1.
センシングサーバ3は、各地に設置されたセンサが出力するデータや、人が入力したデータを収集するものである。例えば、図1の例では、4つのセンサ51〜54が各地に設置されている。 The sensing server 3 collects data output from sensors installed in various places and data input by a person. For example, in the example of FIG. 1, four sensors 51 to 54 are installed in various places.
センシングサーバ3の提供契約登録部34は、これらセンサの所有者と契約を締結し、各種センサからデータ提供を受け、対価を支払う。センシングデータ提供契約は、インターネット7を介してオンラインで各種センサの所有者と締結される。図6にセンシングデータ提供契約のデータ構造を示す。センシングデータ提供契約のデータは、センシングデータ提供契約DB32に蓄積されている。図6に示すように、センシングデータ提供契約は、センサID毎に締結する。各センシングデータ提供契約は、各データ項目に示すような契約条件となっている。 The provision contract registration unit 34 of the sensing server 3 concludes a contract with the owner of these sensors, receives data provision from various sensors, and pays the consideration. The sensing data provision contract is concluded with the owners of various sensors online via the Internet 7. FIG. 6 shows the data structure of the sensing data provision contract. Sensing data provision contract data is stored in the sensing data provision contract DB 32. As shown in FIG. 6, the sensing data provision contract is concluded for each sensor ID. Each sensing data provision contract has contract conditions as shown in each data item.
センサは、温度、湿度、照度、気圧、加速度、音等を測定するものである場合、映像を取得する監視カメラである場合、携帯端末である場合がある。また、複数のセンサを有するシステムも含まれる。センシングデータ提供契約において、センシングデータを提供可能なデータの制限、信頼度などが決められている。 The sensor may measure temperature, humidity, illuminance, atmospheric pressure, acceleration, sound, etc., may be a surveillance camera that acquires video, or may be a portable terminal. A system having a plurality of sensors is also included. In the sensing data provision contract, restrictions on data that can provide sensing data, reliability, etc. are determined.
また、提供されるセンシングデータには、データを取得した時刻、位置等が付加されていることが望ましい。時刻、位置の付加が困難な場合は、センシングサーバ3とセンサとの間に、時刻、位置を付加する中間ノードを設置する場合や、センサに当該付加機能を追加する。なお、センシングデータの提供条件については、例えば、映像であれば、カメラの所有者が利用する場合は、何ら制限がなく、その他の利用者へ提供する場合は、プライバシや機密事項に配慮し、映像の一部を隠す、あるいは、一部の時間は提供しない、提供者を制限する等の条件を記載してもよい。また、データの提供に関する免責事項、データの信頼性等も付加してもよい。 In addition, it is desirable that the provided sensing data is added with the time, position, and the like when the data is acquired. When it is difficult to add the time and position, an intermediate node for adding the time and position is installed between the sensing server 3 and the sensor, or the additional function is added to the sensor. Regarding the provision conditions of sensing data, for example, if it is a video, there are no restrictions when the camera owner uses it, and when providing it to other users, consider privacy and confidential matters, Conditions such as hiding a part of the video, not providing part of the time, or limiting the provider may be described. Further, disclaimers regarding data provision, data reliability, and the like may be added.
一方、センシングサーバ3の利用契約登録部35は、各種センサの利用者と契約を締結し、各種センサのデータを利用者に提供して対価の支払いを受ける。センシングデータ利用契約は、インターネット7を介してオンラインで各利用者と締結される。本実施形態における利用者とは、コンテンツ提供者である。コンテンツ提供者は、利用契約を締結することで、コンテンツ提供者自身が各地の情報収集を行うための整備をすることなく、コンテンツを提供できるようになる。 On the other hand, the usage contract registration unit 35 of the sensing server 3 concludes a contract with the users of the various sensors, provides the data of the various sensors to the users, and receives payment of the consideration. The sensing data use contract is concluded with each user online via the Internet 7. The user in this embodiment is a content provider. By concluding a usage contract, the content provider can provide the content without the need for the content provider to collect information for each location.
センシングデータ利用契約のデータは、センシングデータ利用契約DB33に蓄積されている。図7にセンシングデータ利用契約のデータ構造を示す。センシングデータ利用契約は、センシングデータを利用するコンテンツ提供者の名称、アプリケーション名、コンテンツの名称、センシングデータを利用する際の対価等が記載されている。 Sensing data usage contract data is stored in the sensing data usage contract DB 33. FIG. 7 shows the data structure of the sensing data use contract. The sensing data use contract describes the name of the content provider who uses the sensing data, the application name, the name of the content, the consideration when using the sensing data, and the like.
センシングデータ利用契約は、センシングサーバ3が取得条件データを受信したときに参照される。図4に示したように、取得条件データには、コンテンツ提供者の名称、アプリケーション名、コンテンツの名称、センシング1回あたりの対価等が記載されている。判断部31は、取得条件データを受信したとき、まずセンシングデータ利用契約DB33を参照し、取得条件データとのマッチングを行う。センシングデータ利用契約と取得条件データとのマッチングは、各属性項目について行われる。基本的には、取得条件データに記載されたコンテンツ提供者の名称、アプリケーション名、コンテンツの名称等が、センシングデータ利用契約に記載されている場合にマッチングしたことになる。 The sensing data use contract is referred to when the sensing server 3 receives the acquisition condition data. As shown in FIG. 4, the acquisition condition data includes the name of the content provider, the application name, the name of the content, the price per sensing, and the like. When receiving the acquisition condition data, the determination unit 31 first refers to the sensing data usage contract DB 33 and performs matching with the acquisition condition data. The matching between the sensing data use contract and the acquisition condition data is performed for each attribute item. Basically, the content provider name, application name, content name, and the like described in the acquisition condition data are matched when they are described in the sensing data use contract.
判断部31は、センシングデータ利用契約と取得条件データとのマッチングが完了すると、次にセンシングデータ提供契約と取得条件データとのマッチングを行う。図4に示したように、取得条件データには、取得条件データID、センシング対象の位置・座標、情報の種別、センシングデータ発生の絶対時刻、センシングデータ発生の相対時刻、センシングデータの位置差の許容値、センシングデータの発生時刻差の許容値等が含まれている。判断部31は、このような取得条件データを受信したとき、センシングデータ提供契約DB32を参照し、取得条件データとのマッチングを行う。センシングデータ提供契約と取得条件データとのマッチングは、各属性項目について行われる。基本的には、取得条件データに記載されたセンシング対象の位置・座標、情報の種別、センシングデータ発生の絶対時刻、センシングデータ発生の相対時刻、センシングデータの位置差の許容値、センシングデータの発生時刻差の許容値等の全ての条件が、センシングデータ提供契約に記載されている場合にマッチングしたことになる。 When the matching between the sensing data use contract and the acquisition condition data is completed, the determination unit 31 next performs the matching between the sensing data provision contract and the acquisition condition data. As shown in FIG. 4, the acquisition condition data includes an acquisition condition data ID, a position / coordinate of a sensing target, an information type, an absolute time of sensing data generation, a relative time of sensing data generation, and a position difference of sensing data. An allowable value, an allowable value of the difference in time of occurrence of sensing data, and the like are included. When the determination unit 31 receives such acquisition condition data, the determination unit 31 refers to the sensing data provision contract DB 32 and performs matching with the acquisition condition data. The matching between the sensing data provision contract and the acquisition condition data is performed for each attribute item. Basically, the position and coordinates of the sensing target described in the acquisition condition data, the type of information, the absolute time of sensing data generation, the relative time of sensing data generation, the tolerance value of the sensing data position difference, and the generation of sensing data All the conditions such as the time difference tolerance are matched when they are described in the sensing data provision contract.
例えば、図4の例では、センシング対象の位置・座標を(34.9854,135.7577)と設定している。すなわち、この例では京都駅の緯度、経度に設定している。この場合、当該コンテンツは、京都駅の情報を取得し、表示するという意図が現れていることになる。そこで、センシングサーバ3の判断部31は、図6に示したセンシングデータ提供契約のデータ構造から、当該条件に合致するものを検索し、合致するものが存在した場合に、当該センサからのセンシングデータをセンシングデータDB36から取得し、端末装置1に提供する。例えば、図6においては、センサID5が条件に合致するため、当該センサID5のデータ(カメラで撮影した映像データ)を端末装置1に提供する。 For example, in the example of FIG. 4, the position and coordinates of the sensing target are set to (34.9854, 135.7577). That is, in this example, the latitude and longitude of Kyoto Station are set. In this case, the content has an intention to acquire and display information about Kyoto Station. Accordingly, the determination unit 31 of the sensing server 3 searches the data structure of the sensing data provision contract shown in FIG. 6 for a match that meets the condition, and if there is a match, the sensing data from the sensor. Is obtained from the sensing data DB 36 and provided to the terminal device 1. For example, in FIG. 6, since the sensor ID 5 matches the condition, data of the sensor ID 5 (video data captured by the camera) is provided to the terminal device 1.
このように、センシングサーバ3は、センシングデータ提供契約に示された条件と取得条件データに示された条件とを照合し、合致し、かつ当該契約における物理的センサが動作可能である場合に、当該物理的センサIDで特定されたセンサからのデータを、取得条件データIDに対応するセンシングデータとして端末装置1に提供する。 In this way, the sensing server 3 collates the conditions indicated in the sensing data provision contract with the conditions indicated in the acquisition condition data, and if they match and the physical sensor in the contract is operable, Data from the sensor specified by the physical sensor ID is provided to the terminal device 1 as sensing data corresponding to the acquisition condition data ID.
コンテンツ提供者(コンテンツ提供者サーバ2の運営者)は、センシングサーバ3の運用者と利用契約登録部35の機能を用いてセンシングデータ利用契約を締結する。そして、締結されたセンシングデータ利用契約は、利用契約DB33に記憶される。また、センサの所有者は、センシングサーバ3の運用者と提供契約登録部34の機能を用いて、センシングデータ提供契約を締結する。そして、締結されたセンシングデータ提供契約は、提供契約DB32に記憶される。判断部31は、端末装置1から受信した取得条件データと提供契約DB32内にあるセンシングデータ提供契約および利用契約DB33内にあるセンシングデータ提供契約とを、属性項目毎にマッチングする。そして、判断部31は、マッチングした結果、条件を満たすセンサが対象物をセンシングした結果であるセンシングデータを取得して、端末装置1に送信する。端末装置1は、電子コンテンツの記述に従って、取得したセンシングデータをコンテンツの内容に埋め込んで表示する。これにより、コンテンツ提供者側においては、電子コンテンツで提供するコンテンツ内の一部領域をセンシングデータによりリアルタイムに変化する情報提供領域と定め、素材として収集したセンシングデータを、所定条件を満足する新しい情報として提供を行うことができる。したがって、従来は、過去に作成された写真や情報を提供するしかなかった電子コンテンツにおいて、リアルタイム性の高い情報を提供することが可能となる。 The content provider (operator of the content provider server 2) concludes a sensing data usage contract with the operator of the sensing server 3 using the function of the usage contract registration unit 35. The concluded sensing data use contract is stored in the use contract DB 33. In addition, the sensor owner concludes a sensing data provision contract with the operator of the sensing server 3 using the function of the provision contract registration unit 34. The concluded sensing data provision contract is stored in the provision contract DB 32. The determination unit 31 matches the acquisition condition data received from the terminal device 1 with the sensing data provision contract in the provision contract DB 32 and the sensing data provision contract in the usage contract DB 33 for each attribute item. Then, as a result of matching, the determination unit 31 acquires sensing data that is a result of sensing a target by a sensor that satisfies a condition, and transmits the sensing data to the terminal device 1. The terminal device 1 embeds the acquired sensing data in the content and displays it according to the description of the electronic content. As a result, the content provider defines a partial area in the content provided by electronic content as an information provision area that changes in real time according to the sensing data, and the sensing data collected as the material is new information that satisfies the predetermined conditions. Can be provided as. Therefore, it is possible to provide information with high real-time property in electronic content that has conventionally only provided photographs and information created in the past.
なお、各種センサからは自動的にデータを送信するようにしてもよいが、提供者が手動で図6に示した各データ項目を入力するようにしてもよい。なお、手動入力する場合には、各データ項目の表現内容にばらつきがある可能性もあるため、提供者は、予め規定された複数のメニューから選択することで手動入力するようにすることが望ましい。また、センサによっては、例えばカメラ内蔵のGPS(Global Positioning System)携帯電話であって、緯度と経度で示される位置情報のGPSからの取得と、カメラによる画像の撮像と、画像撮像の時刻の取得ができて、撮像した画像を位置情報と時刻情報と対にして送信できるもの(以下、GPS携帯電話という。)である場合もある。この場合、前記のGPS携帯電話に、センシングデータ提供契約をセンシングサーバ3と締結するためのソフトウェアを搭載しておき、例えば図6のセンサID=mの行に示される内容からなるセンシングデータ提供契約を締結してもよい。この場合、センシング領域の位置の欄には、「移動体」との記述が入っている。これは、特定の緯度・経度で示される固定位置にセンサが存在しているのではなく、移動可能なセンサであることを示している。もしも、取得条件データで示された条件に該当できるような位置にセンサID=mのセンサが所定時刻内までに移動可能であり、センシングデータ利用契約で示されるようなセンシングデータ種別やデータ量や保証精度や対価などの条件が合致するならば、センサID=mのセンサからのセンシングデータは、センシングサーバ3によって取得され、そのセンシングデータを必要としている端末装置1に送信するようにしてもよい。 The data may be automatically transmitted from various sensors, but the provider may manually input each data item shown in FIG. In the case of manual input, there is a possibility that the expression content of each data item may vary, so it is desirable that the provider manually input by selecting from a plurality of predefined menus. . Also, depending on the sensor, for example, a GPS (Global Positioning System) mobile phone with a built-in camera, acquisition of position information indicated by latitude and longitude from the GPS, imaging of an image by the camera, and acquisition of the time of imaging In some cases, the captured image can be transmitted as a pair of position information and time information (hereinafter referred to as a GPS mobile phone). In this case, software for concluding a sensing data provision contract with the sensing server 3 is installed in the GPS mobile phone, and for example, a sensing data provision contract including the contents shown in the row of sensor ID = m in FIG. May be fastened. In this case, a description of “moving object” is entered in the position field of the sensing area. This indicates that the sensor does not exist at a fixed position indicated by a specific latitude / longitude, but is a movable sensor. If the sensor with sensor ID = m can be moved by a predetermined time to a position that can satisfy the conditions indicated by the acquisition condition data, the sensing data type, data amount, If conditions such as guaranteed accuracy and value are met, sensing data from the sensor with sensor ID = m may be acquired by the sensing server 3 and transmitted to the terminal device 1 that needs the sensing data. .
次に、フローチャートを参照しながら、コンテンツ表示システムの動作について説明する。図8は、端末装置1の動作を示すフローチャートである。まず、端末装置1の制御部11は、コンテンツDB14からコンテンツを読み出し、表示部13に表示する(s11)。なお、コンテンツは定期的に、あるいは、端末装置1の使用者の指示により、コンテンツ提供者サーバ2からダウンロードされる。 Next, the operation of the content display system will be described with reference to a flowchart. FIG. 8 is a flowchart showing the operation of the terminal device 1. First, the control unit 11 of the terminal device 1 reads content from the content DB 14 and displays it on the display unit 13 (s11). The content is downloaded from the content provider server 2 periodically or according to an instruction from the user of the terminal device 1.
制御部11は、読み出した電子コンテンツ内に取得条件データが含まれているか否かを判断する(s12)。取得条件データが含まれていない場合、s11の処理に戻り、コンテンツの読み出し、表示を繰り返す。 The control unit 11 determines whether or not acquisition condition data is included in the read electronic content (s12). If the acquisition condition data is not included, the process returns to s11 to repeat reading and displaying of the content.
取得条件データが含まれていた場合、制御部11は、トリガーイベントが含まれているか否かを確認する(s13)。トリガーイベントが含まれていない場合、上述した取得条件データを含むセンシングデータの取得要求コマンド(すなわち、検索コマンドおよび検索パラメータ)がセンシングサーバ3に送信され(s14)、トリガーイベントが含まれている場合、イベント条件を満たした場合に限り、検索コマンドおよび検索パラメータが送信される(s15)。 When the acquisition condition data is included, the control unit 11 checks whether or not a trigger event is included (s13). When the trigger event is not included, the sensing data acquisition request command (that is, the search command and the search parameter) including the acquisition condition data described above is transmitted to the sensing server 3 (s14), and the trigger event is included. Only when the event condition is satisfied, the search command and the search parameter are transmitted (s15).
図4に示したように、取得条件データには、トリガーイベントの記述が含まれている場合がある。例えば、図4の例では、<トリガーイベント>視線検知</トリガーイベント>という記述が含まれている。これは、端末装置1が駅等に設置された電子看板であり、電子コンテンツが広告である場合において、電子看板である端末装置1に視線検知用の画像センサを搭載していて、当該画像センサが電子看板に近付く人の視線が電子看板に向いている事を検知すると、「視線検知=Yes」となり、取得条件データの送信が行われることになる。
トリガーイベントは、端末装置1の制御部11に含まれて動作するイベントハンドラーを拡張することで実現できる。視線検知イベントを検知するプログラムをイベントハンドラーに追加する事もできるし、センシングデータを表示するページの近くのページが閲覧されたという事でイベントが発生するようなイベントハンドラーを実装することもできる。これらのイベントハンドラーによるイベントの検知で動作を開始するプログラムをJavaScriptプログラムで組んで、当該JavaScriptプログラムを電子コンテンツに含ませておくことも容易である。例えば、電子書籍のフォーマットであるEPUB3ではJavaScriptプログラムもHTMLもサポートしているので、本実施形態にて説明した内容は容易に実現することができる。
As shown in FIG. 4, the acquisition condition data may include a description of the trigger event. For example, the example of FIG. 4 includes a description of <trigger event> gaze detection </ trigger event>. This is an electronic signboard installed at a station or the like, and when the electronic content is an advertisement, an image sensor for line-of-sight detection is mounted on the terminal apparatus 1 that is an electronic signboard. When it is detected that the line of sight of the person approaching the electronic signboard is facing the electronic signboard, “Gaze detection = Yes”, and the acquisition condition data is transmitted.
The trigger event can be realized by extending an event handler that is included in the control unit 11 of the terminal device 1 and operates. You can add a program that detects gaze detection events to the event handler, or you can implement an event handler that generates an event when a page near the page that displays the sensing data is viewed. It is also easy to assemble a program that starts operation upon detection of an event by these event handlers with a JavaScript program and include the JavaScript program in the electronic content. For example, EPUB3, which is an electronic book format, supports both the JavaScript program and HTML, so that the contents described in this embodiment can be easily realized.
また、端末装置1がパーソナルコンピュータや携帯型端末であり、電子コンテンツが電子書籍である場合、当該ページの近くのページが閲覧された、あるいは、当該ページにジャンプする目次の部分がクリックされたと、いうイベントを、上記の<トリガーイベント>に記述しておけば、当該トリガーの発生に基づいて、電子書籍の当該ページに記述された取得条件データの他の部分が、センシングサーバ3に送信される。 In addition, when the terminal device 1 is a personal computer or a portable terminal and the electronic content is an electronic book, when a page near the page is browsed or a part of the table of contents jumping to the page is clicked, If the event is described in <Trigger Event> above, the other part of the acquisition condition data described in the page of the electronic book is transmitted to the sensing server 3 based on the occurrence of the trigger. .
その後、制御部11は、所定時間内にセンシングデータを受信したか否かを判断する(s16)。所定時間内に受信しなかった場合、s11の処理に戻り、コンテンツの読み出し、表示から処理を繰り返す。このとき、センシングデータを埋め込むべき領域には、何も表示しないか、電子コンテンツ内に予め含まれていたデフォルト画像等を表示する。 Thereafter, the control unit 11 determines whether or not sensing data is received within a predetermined time (s16). If not received within the predetermined time, the process returns to the process of s11, and the process is repeated from reading and displaying of the content. At this time, nothing is displayed in the area where the sensing data is to be embedded, or a default image or the like previously included in the electronic content is displayed.
制御部11は、所定時間内にセンシングデータを受信した場合、当該受信したセンシングデータをコンテンツ内の所定の領域に埋め込んで表示する(s17)。 When receiving the sensing data within a predetermined time, the control unit 11 embeds the received sensing data in a predetermined area in the content and displays it (s17).
次に、図9は、センシングサーバ3の動作を示すフローチャートである。まず、センシングサーバ3の判断部31は、端末装置1から取得条件データを含むセンシングデータの取得要求コマンド(検索コマンドおよび検索パラメータ)を受信する(s31)。判断部31は、利用契約DB33を参照し、受信した取得条件データとのマッチングを行う。図4に示したように、取得条件データには、コンテンツ提供者の名称、アプリケーション名、コンテンツの名称等の条件が記載されている。また、図7に示したように、センシングデータ利用契約にもコンテンツ提供者の名称、アプリケーション名、コンテンツの名称等の条件が記載されている。 Next, FIG. 9 is a flowchart showing the operation of the sensing server 3. First, the determination unit 31 of the sensing server 3 receives a sensing data acquisition request command (search command and search parameter) including acquisition condition data from the terminal device 1 (s31). The determination unit 31 refers to the usage contract DB 33 and performs matching with the received acquisition condition data. As shown in FIG. 4, the acquisition condition data describes conditions such as the content provider name, application name, content name, and the like. Further, as shown in FIG. 7, the sensing data use contract also describes conditions such as the name of the content provider, the application name, and the name of the content.
判断部31は、取得条件データを受信したとき、まずセンシングデータ利用契約DB33を参照し、センシングデータ利用契約と取得条件データの各属性項目について、取得条件データに記載された全ての条件が、センシングデータ利用契約に記載されているか否かを判断する。 When receiving the acquisition condition data, the determination unit 31 first refers to the sensing data use contract DB 33, and for each attribute item of the sensing data use contract and the acquisition condition data, all the conditions described in the acquisition condition data are detected. Determine whether it is described in the data usage agreement.
各属性項目について、一致しない項目が存在してマッチングが完了しなかった場合、判断部31は、端末装置1にセンシングデータ該当無し情報を送信する(s33)。 When there is an unmatched item for each attribute item and matching is not completed, the determination unit 31 transmits sensing data non-applicability information to the terminal device 1 (s33).
一方、判断部31は、センシングデータ利用契約と取得条件データとのマッチングが完了すると、次にセンシングデータ提供契約と取得条件データとのマッチングを行い、センシングデータの抽出を行い(s34)、抽出したセンシングデータをURLで指定される表示用センシングデータ格納エリア38に保存する(s35)。例えば、図4の取得条件データの例では、センシング対象の位置・座標を(34.9854,135.7577)と設定しているため、判断部31は、図6に示したセンシングデータ提供契約のデータ構造から、センサID5が条件に合致するため、当該センサID5のデータ(カメラで撮影した映像データ)をセンシングデータとして表示用センシングデータ格納エリア38に保存する。これにより、端末装置1の制御部11は、表示用センシングデータ格納エリア38内の所定URLに用意されたものを、図2に示した<IMG>タグでのsrc=”url”で示されるurlで示されるアドレス上から画像データとして取得して、表示部に表示する。 On the other hand, when the matching between the sensing data use contract and the acquisition condition data is completed, the determination unit 31 next performs the matching between the sensing data provision contract and the acquisition condition data, extracts the sensing data (s34), and extracts the data. The sensing data is stored in the display sensing data storage area 38 specified by the URL (s35). For example, in the example of the acquisition condition data in FIG. 4, since the position and coordinates of the sensing target are set to (34.9854,135.7577), the determination unit 31 uses the data structure of the sensing data provision contract shown in FIG. Since the sensor ID 5 matches the condition, the data of the sensor ID 5 (video data captured by the camera) is stored in the sensing data storage area 38 for display as sensing data. As a result, the control unit 11 of the terminal device 1 uses the URL prepared in the predetermined URL in the display sensing data storage area 38 as indicated by src = “url” in the <IMG> tag shown in FIG. Is acquired as image data from the address indicated by (2) and displayed on the display unit.
また、センシングデータ提供契約のデータに、取得条件データに示された緯度、経度をセンシング領域とした契約データがなかった場合、あるいはセンサが故障している場合があると、判断部31は、GPS携帯電話すなわち、「移動体」となっているセンシングデータ提供契約の契約者に、センシングデータを送信するように依頼する態様とすることも可能である。例えば、契約者に対し、「京都駅コンコースの画像を30分以内に送信してください。」と記載したメールを同報送信する。ここで、メールを受け取った提供者のうち、京都駅コンコースにいた提供者は、GPS携帯電話を用いて京都駅コンコースの様子を撮影し、撮影日時と緯度、経度情報をともにセンシングサーバ3に送信する。当該データは、GPS携帯電話に搭載されたセンシングデータ提供契約の専用アプリケーションで送信されることが望ましい。この場合、当該専用アプリケーションが自動的に撮影時点の緯度、経度情報を取得してセンシングサーバ3に撮影して得た画像データを送信する。このようにして移動体からセンシングデータを提供することも可能である。 Further, if the sensing data provision contract data does not include the contract data having the latitude and longitude indicated in the acquisition condition data as the sensing area, or the sensor may be broken, the determination unit 31 determines that the GPS It is also possible to adopt a mode in which a cellular phone, that is, a contractor of a sensing data provision contract serving as a “mobile body” is requested to transmit sensing data. For example, an email stating “Please send an image of Kyoto Station Concourse within 30 minutes” is sent to the subscriber. Here, among the providers who received the e-mail, the provider who was in the Kyoto Station Concourse took a picture of the Kyoto Station Concourse using a GPS mobile phone, and both the shooting date and time, latitude, and longitude information were detected by the sensing server 3. Send to. The data is preferably transmitted by a dedicated application for sensing data provision contract installed in the GPS mobile phone. In this case, the dedicated application automatically acquires the latitude and longitude information at the time of shooting and transmits the image data obtained by shooting to the sensing server 3. In this way, it is also possible to provide sensing data from a moving body.
判断部31は、表示用センシングデータ格納エリア38に保存すると、ログを出力する(s36)。ログは、センシングサーバ3内の課金DB(不図示)や、課金サーバ等に出力され、蓄積される。当該蓄積されたログは、センシングデータの利用履歴を示したものであり、課金に用いられる。すなわち、センシングデータ利用契約には、利用者としてコンテンツ提供者が記載されているため、課金サーバは、当該ログを参照することで、利用履歴に応じた課金を行うことができる。 The determination part 31 will output a log, if it preserve | saves in the sensing data storage area 38 for a display (s36). The log is output and stored in a charging DB (not shown) in the sensing server 3, a charging server, or the like. The accumulated log indicates the usage history of the sensing data and is used for billing. That is, since the content provider is described as a user in the sensing data use contract, the billing server can perform billing according to the use history by referring to the log.
次に、図10、図11、および図12は、本実施形態のコンテンツ表示システムの応用例を示す図である。図10は、電子コンテンツとして、WEBページを実現する場合の応用例を示す図である。図10、図11、および図12中に示す太矢印は、データの流れを示すものである。 Next, FIG. 10, FIG. 11, and FIG. 12 are diagrams showing application examples of the content display system of the present embodiment. FIG. 10 is a diagram illustrating an application example in the case of realizing a WEB page as electronic content. The thick arrows shown in FIGS. 10, 11, and 12 indicate the flow of data.
この場合、端末装置1は、一般的なパーソナルコンピュータや携帯端末である。図10(A)に示すように、端末装置1は、WEBブラウザを用いて、インターネット7を介してコンテンツ提供者サーバ2のURLにアクセスし、コンテンツを受信する。この場合、コンテンツは、HTMLデータ(あるいはHTMLと互換性を有するデータ)となっており、WEBブラウザで表示することができる。そして、端末装置1は、HTMLデータに含まれるタグオプションとしての取得条件データおよびトリガーイベントに基づいて、インターネット7を介してセンシングサーバ3に取得条件データを送信する。 In this case, the terminal device 1 is a general personal computer or a portable terminal. As shown in FIG. 10A, the terminal device 1 uses the WEB browser to access the URL of the content provider server 2 via the Internet 7 and receives the content. In this case, the content is HTML data (or data compatible with HTML) and can be displayed by a WEB browser. Then, the terminal device 1 transmits the acquisition condition data to the sensing server 3 via the Internet 7 based on the acquisition condition data and the trigger event as tag options included in the HTML data.
すると、図10(B)に示すように、センシングサーバ3は、受信した取得条件データに応じたセンシングデータの抽出を行い、センサ(同図の例ではセンサ51)から取得したセンシングデータ(センサ51からインターネット7を介して都度受信したもの、またはセンシングデータDB36に蓄積したもの)を表示用センシングデータ格納エリア38に保存する。端末装置1は、表示用センシングデータ格納エリア38からセンシングデータを受信し、WEBブラウザ内の所定の領域にセンシングデータを表示する。例えば、この例では、京都市の現在の実際に撮影した映像や、現在の天気(例えば実際に京都市にいるセンサ提供者がテキスト入力したものを天気画像として表示したもの)、現在の実際の気温、現在の実際の湿度等が表示される。 Then, as shown in FIG. 10B, the sensing server 3 extracts the sensing data according to the received acquisition condition data, and acquires the sensing data (sensor 51 in the example of the figure) from the sensor (sensor 51 in the example of the figure). Are received each time via the Internet 7 or accumulated in the sensing data DB 36) are stored in the sensing data storage area 38 for display. The terminal device 1 receives the sensing data from the display sensing data storage area 38, and displays the sensing data in a predetermined area in the WEB browser. For example, in this example, the current actual captured video of Kyoto City, the current weather (for example, the actual text input by the sensor provider in Kyoto City, displayed as a weather image), the current actual image The temperature, current actual humidity, etc. are displayed.
コンテンツ提供者は、コンテンツ利用契約を締結するだけで、コンテンツ提供者自身が各地の実際の映像や天気等の情報収集を行うための整備をすることなく、各地の映像や天気情報を提供できるようになる。また、コンテンツ提供者は、コンテンツ利用契約を締結するだけで、政府機関等の他の気象情報サーバから受信する情報よりも、よりリアルタイム性が高く、精度の高い情報を提供することができる。 Content providers can provide local video and weather information only by concluding content usage contracts, without the need for the content provider to collect actual video and weather information in each region. become. In addition, the content provider can provide highly accurate information with higher real-time characteristics than information received from other weather information servers such as government agencies, etc., only by concluding a content use contract.
次に、図11は、電子書籍の応用例を示す図である。この場合も、端末装置1は、一般的なパーソナルコンピュータや携帯端末である。図11(A)に示すように、端末装置1は、電子書籍ブラウザを用いて、インターネット7を介してコンテンツ提供者サーバ2からコンテンツを受信する。この場合、コンテンツは、電子書籍であるが、上述のHTMLデータに近い構造となっている。そして、端末装置1は、電子書籍に含まれた、タグオプションである取得条件データ、およびトリガーイベントに基づいて、インターネット7を介してセンシングサーバ3に取得条件データを送信する。上述したように、電子書籍ではセンシングデータを埋め込む予定のページの近くのページが閲覧された、あるいは、当該ページにジャンプする目次の部分がクリックされたというようなイベントを、トリガーイベントに記述しておく。 Next, FIG. 11 is a diagram illustrating an application example of an electronic book. Also in this case, the terminal device 1 is a general personal computer or a portable terminal. As shown in FIG. 11A, the terminal device 1 receives content from the content provider server 2 via the Internet 7 using an electronic book browser. In this case, the content is an electronic book, but has a structure close to the above-described HTML data. Then, the terminal device 1 transmits the acquisition condition data to the sensing server 3 via the Internet 7 based on the acquisition condition data that is a tag option and the trigger event included in the electronic book. As described above, in the electronic book, an event such as a page near the page where the sensing data is to be embedded is browsed or a table of contents jumping to the page is clicked is described in the trigger event. deep.
すると、図11(B)に示すように、センシングサーバ3は、受信した取得条件データに応じたセンシングデータの抽出を行い、センサ(同図の例ではセンサ51)から取得したセンシングデータ(センサ51からインターネット7を介して都度受信したもの、またはセンシングデータDB36に蓄積したもの)を表示用センシングデータ格納エリア38に保存する。端末装置1は、表示用センシングデータ格納エリア38からセンシングデータを受信し、電子書籍の所定のページ内の所定の領域にセンシングデータを表示する。これにより、電子書籍の当該ページは新しい情報が表示される。なお、コンテンツが電子書籍である場合、端末装置1における一連の動作を、図2に示したオプションの1つのaltオプションで記述するコメントとして記述しておくことも可能である。また、そのような記述を電子書籍に組み込む機能を、電子書籍自動組版エンジンに装備することも可能である。電子書籍には種々のフォーマットが存在するが、これらのフォーマットの中に条件取得データを記述しておくことで種々のフォーマットに対応することが可能である。 Then, as shown in FIG. 11 (B), the sensing server 3 extracts sensing data according to the received acquisition condition data, and acquires the sensing data (sensor 51 in the example of FIG. 11) from the sensor (sensor 51 in the example of FIG. 11B). Are received each time via the Internet 7 or accumulated in the sensing data DB 36) are stored in the sensing data storage area 38 for display. The terminal device 1 receives the sensing data from the display sensing data storage area 38 and displays the sensing data in a predetermined area in a predetermined page of the electronic book. Thereby, new information is displayed on the page of the electronic book. When the content is an electronic book, a series of operations in the terminal device 1 can be described as a comment described by one alt option of the options shown in FIG. It is also possible to equip an electronic book automatic composition engine with a function for incorporating such a description into an electronic book. There are various formats for electronic books, but it is possible to cope with various formats by describing condition acquisition data in these formats.
次に、図12は、電子看板の応用例を示す図である。この例では、端末装置1は、カラー電子ペーパ、あるいはLCD等を採用した、列車内の中吊り広告、駅待合室での電子看板、駅構内の各所での電子看板である。図12(A)に示すように、端末装置1は、専用のアプリケーションを用いて、インターネット7を介してコンテンツ提供者サーバ2から広告等のコンテンツを受信する。この場合も、コンテンツは、上述のHTMLデータに近い構造となっている。そして、端末装置1は、コンテンツに含まれた、タグオプションである取得条件データ、およびトリガーイベントに基づいて、インターネット7を介してセンシングサーバ3に取得条件データを送信する。 Next, FIG. 12 is a diagram illustrating an application example of the electronic signboard. In this example, the terminal device 1 is a hanging advertisement in a train, an electronic signboard in a station waiting room, or an electronic signboard in various places in a station, using color electronic paper or LCD. As shown in FIG. 12A, the terminal device 1 receives content such as an advertisement from the content provider server 2 via the Internet 7 using a dedicated application. Also in this case, the content has a structure close to the above-described HTML data. Then, the terminal device 1 transmits the acquisition condition data to the sensing server 3 via the Internet 7 based on the acquisition condition data that is a tag option and the trigger event included in the content.
上述したように、電子看板では、トリガーイベントとして、「視線検知」という記述が含まれ、端末装置1に視線検知用の画像センサを搭載していて、当該画像センサが電子看板に近付く人の視線が電子看板に向いている事を検知すると、「視線検知=Yes」となり、取得条件データの送信が行われることになる。 As described above, in the electronic signboard, the description of “line-of-sight detection” is included as a trigger event, the image sensor for line-of-sight detection is mounted on the terminal device 1, and the line-of-sight of a person approaching the electronic signboard When it is detected that is facing the electronic signboard, “line-of-sight detection = Yes”, and acquisition condition data is transmitted.
すると、図12(B)に示すように、センシングサーバ3は、受信した取得条件データに応じたセンシングデータの抽出を行い、センサ(同図の例ではセンサ51)から取得したセンシングデータ(センサ51からインターネット7を介して都度受信したもの、またはセンシングデータDB36に蓄積したもの)を表示用センシングデータ格納エリア38に保存する。端末装置1は、表示用センシングデータ格納エリア38からセンシングデータを受信し、○○温泉の「今日の様子」といった領域上にセンシングデータ(動画)を表示する。この場合、観光地に設置されたカメラや観光地に来訪した提供者のカメラで撮影された動画を、センシングデータとして提供することにより、観光地や商店街などのリアルタイム画像を含んだ広告を、駅や列車内に設置できることになる。 Then, as shown in FIG. 12B, the sensing server 3 extracts the sensing data according to the received acquisition condition data, and acquires the sensing data (sensor 51 in the example of the figure) from the sensor (sensor 51 in the example in the figure). Are received each time via the Internet 7 or accumulated in the sensing data DB 36) are stored in the sensing data storage area 38 for display. The terminal device 1 receives the sensing data from the sensing data storage area 38 for display, and displays the sensing data (moving image) on an area such as “Today's state” of XX hot spring. In this case, advertisements including real-time images such as sightseeing spots and shopping streets can be provided by providing videos taken by the cameras installed at sightseeing spots and the cameras of providers who have visited sightseeing spots as sensing data. It can be installed in a station or train.
1…端末装置
2…コンテンツ提供者サーバ
3…センシングサーバ
7…インターネット
11…制御部
12…通信部
13…表示部
14…コンテンツDB
31…判断部
32…センシングデータ提供契約DB
33…センシングデータ利用契約DB
34…提供契約登録部
35…利用契約登録部
36…センシングデータDB
37…通信部
51,52,53,54…センサ
DESCRIPTION OF SYMBOLS 1 ... Terminal device 2 ... Content provider server 3 ... Sensing server 7 ... Internet 11 ... Control part 12 ... Communication part 13 ... Display part 14 ... Content DB
31 ... Judgment part 32 ... Sensing data provision contract DB
33 ... Sensing data usage contract DB
34 ... Provision contract registration unit 35 ... Usage contract registration unit 36 ... Sensing data DB
37: Communication unit 51, 52, 53, 54 ... Sensor
Claims (13)
前記電子コンテンツの内容を表示する表示部と、
外部サーバとデータ送受信を行う通信部と、
前記記憶部から前記電子コンテンツを読み出し、前記表示部に前記電子コンテンツの内容を表示させる制御部と、
を備えた端末装置であって、
前記記憶部に記憶された電子コンテンツは、時間的に変化し得る情報であるセンシングデータの時間的条件または位置的条件を含む取得条件データを含み、
前記制御部は、前記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出す処理と、
前記取得条件データに合致するセンシングデータを受信し、当該受信したセンシングデータを前記電子コンテンツの内容に含めて前記表示部に表示させることを特徴とする端末装置。 A storage unit for storing electronic content;
A display unit for displaying the contents of the electronic content;
A communication unit that transmits and receives data to and from an external server;
A control unit that reads out the electronic content from the storage unit and displays the content of the electronic content on the display unit;
A terminal device comprising:
The electronic content stored in the storage unit includes acquisition condition data including a temporal condition or a positional condition of sensing data, which is information that can change with time,
The control unit reads the acquisition condition data before displaying the electronic content on the display unit;
Sensing data matching the acquisition condition data is received, and the received sensing data is included in the contents of the electronic content and displayed on the display unit.
前記制御部は、前記イベント記述を読み出すことで、前記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出すことを特徴とする請求項1に記載の端末装置。 The electronic content stored in the storage unit includes an event description serving as a trigger for reading the acquisition condition data,
The terminal device according to claim 1, wherein the control unit reads the acquisition condition data by reading the event description before displaying the electronic content on the display unit.
前記制御部は、前記視線感知センサで視線感知した場合に、前記取得条件データを読み出すことを特徴とする請求項1または請求項2に記載の端末装置。 The terminal device includes a gaze sensor.
The terminal device according to claim 1, wherein the control unit reads the acquisition condition data when the line-of-sight detection sensor senses the line of sight.
前記端末装置は、
電子コンテンツを記憶する記憶部と、
前記電子コンテンツの内容を表示する表示部と、
外部サーバとデータ送受信を行う通信部と、
前記記憶部から前記電子コンテンツを読み出し、前記表示部に前記電子コンテンツの内容を表示させる制御部と、を備え、
前記記憶部に記憶された電子コンテンツは、時間的に変化し得る情報であるセンシングデータの時間的条件または位置的条件を含む取得条件データを含み、
前記制御部は、前記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出し、前記取得条件データを前記外部サーバに送信し、
前記外部サーバは、前記取得条件データを受信する通信部と、
前記取得条件データに合致するセンシングデータを判断し、当該センシングデータを前記端末装置に送信する判断部と、
を備え、
前記端末装置の制御部は、前記取得条件データに合致するセンシングデータを受信し、当該受信したセンシングデータを前記電子コンテンツの内容に含めて前記表示部に表示させることを特徴とするコンテンツ表示システム。 A content display system comprising a terminal device and an external server connected to the terminal device,
The terminal device
A storage unit for storing electronic content;
A display unit for displaying the contents of the electronic content;
A communication unit that transmits and receives data to and from an external server;
A controller that reads out the electronic content from the storage unit and causes the display unit to display details of the electronic content;
The electronic content stored in the storage unit includes acquisition condition data including a temporal condition or a positional condition of sensing data, which is information that can change with time,
The control unit reads the acquisition condition data before displaying the electronic content on the display unit, transmits the acquisition condition data to the external server,
The external server includes a communication unit that receives the acquisition condition data;
Determining sensing data matching the acquisition condition data, and transmitting the sensing data to the terminal device;
With
The control unit of the terminal device receives sensing data that matches the acquisition condition data, and includes the received sensing data in the contents of the electronic content and causes the display unit to display the content display system.
前記電子コンテンツの内容を表示する表示部と、
外部サーバとデータ送受信を行う通信部と、
前記記憶部から前記電子コンテンツを読み出し、前記表示部に前記電子コンテンツの内容を表示させる制御部と、
を備えた端末装置の前記制御部に実行されるプログラムであって、
前記記憶部に記憶された電子コンテンツは、時間的に変化し得る情報であるセンシングデータの時間的条件または位置的条件を含む取得条件データを含み、
前記制御部に、前記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出す処理と、
前記取得条件データに合致するセンシングデータを受信し、当該受信したセンシングデータを前記電子コンテンツの内容に含めて前記表示部に表示させる表示処理と、を実行させることを特徴とするプログラム。 A storage unit for storing electronic content;
A display unit for displaying the contents of the electronic content;
A communication unit that transmits and receives data to and from an external server;
A control unit that reads out the electronic content from the storage unit and displays the content of the electronic content on the display unit;
A program executed by the control unit of a terminal device comprising:
The electronic content stored in the storage unit includes acquisition condition data including a temporal condition or a positional condition of sensing data, which is information that can change with time,
A process of reading the acquisition condition data before displaying the electronic content on the display unit in the control unit;
A program that receives sensing data that matches the acquisition condition data and causes the display unit to display the received sensing data in the contents of the electronic content.
前記制御部に、前記イベント記述を読み出しさせることで、前記電子コンテンツを前記表示部に表示する前に、前記取得条件データを読み出しさせることを特徴とする請求項6に記載のプログラム。 The electronic content stored in the storage unit includes an event description serving as a trigger for reading the acquisition condition data,
The program according to claim 6, wherein the acquisition condition data is read before the electronic content is displayed on the display unit by causing the control unit to read the event description.
前記制御部に、前記視線感知センサで視線感知した場合に、前記取得条件データを読み出しさせることを特徴とする請求項6または請求項7に記載のプログラム。 The terminal device includes a gaze sensor.
The program according to claim 6 or 7, wherein the control unit causes the acquisition condition data to be read when the gaze is sensed by the gaze sensor.
時間的に変化し得る情報であるセンシングデータの、時間的条件および位置的条件を含む取得条件データと、前記取得条件データを読み出すトリガとなるイベント記述と、当該センシングデータの情報の種別と、を含み、
前記情報処理装置に、前記電子コンテンツを表示部に表示する前に、前記取得条件データを読み出す処理と、
当該取得条件データに合致するセンシングデータを、前記電子コンテンツの内容に含めて表示する処理と、を実行させる記述が含まれたことを特徴とするデータ構造。 A data structure of electronic content read to the information processing device,
Sensing data that is information that can change over time, acquisition condition data that includes temporal conditions and positional conditions, an event description that triggers reading of the acquisition condition data, and the type of information of the sensing data Including
A process of reading the acquisition condition data before displaying the electronic content on the display unit in the information processing apparatus;
A data structure including a description for executing processing for displaying sensing data that matches the acquisition condition data included in the contents of the electronic content.
前記電子コンテンツは、配信を受ける情報処理装置に、前記電子コンテンツを表示部に表示する前に、前記取得条件データを読み出す処理と、
当該取得条件データに合致するセンシングデータを、前記電子コンテンツの内容に含めて表示する処理と、を実行させる記述が含まれたことを特徴とするコンテンツ配信サーバ。 A content distribution server that distributes electronic content including acquisition condition data including temporal conditions or positional conditions of sensing data, which is information that can change over time,
The electronic content is a process of reading the acquisition condition data before displaying the electronic content on a display unit on an information processing apparatus that receives distribution;
A content distribution server, comprising: a description for performing processing for displaying sensing data that matches the acquisition condition data included in the contents of the electronic content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011193934A JP2013055595A (en) | 2011-09-06 | 2011-09-06 | Terminal device, content display system, program, data structure, and content distribution server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011193934A JP2013055595A (en) | 2011-09-06 | 2011-09-06 | Terminal device, content display system, program, data structure, and content distribution server |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013055595A true JP2013055595A (en) | 2013-03-21 |
JP2013055595A5 JP2013055595A5 (en) | 2014-04-24 |
Family
ID=48132191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011193934A Pending JP2013055595A (en) | 2011-09-06 | 2011-09-06 | Terminal device, content display system, program, data structure, and content distribution server |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013055595A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5445722B1 (en) * | 2012-09-12 | 2014-03-19 | オムロン株式会社 | Data flow control command generation device and sensor management device |
JPWO2016158120A1 (en) * | 2015-03-31 | 2018-01-25 | フェリカネットワークス株式会社 | Information processing apparatus, information processing method, and program |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124603A (en) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | Information display device and information collecting device |
JP2001125628A (en) * | 1999-10-27 | 2001-05-11 | Nippon Sanso Corp | System monitor device and its recording medium |
JP2001142824A (en) * | 1999-11-12 | 2001-05-25 | Csk Corp | Information distributing system, information distributing server, and recording medium |
JP2001326922A (en) * | 2000-05-16 | 2001-11-22 | Dentsu Inc | Service device and system for broadcast program |
JP2003303128A (en) * | 2002-04-11 | 2003-10-24 | Mitsubishi Electric Corp | Hyper text display system |
JP2004078844A (en) * | 2002-08-22 | 2004-03-11 | Mitsubishi Electric Corp | Hypertext display system |
JP2004164460A (en) * | 2002-11-15 | 2004-06-10 | Hitachi Kokusai Electric Inc | Information display system |
JP2007010970A (en) * | 2005-06-30 | 2007-01-18 | Seiko Epson Corp | Image display device and program for making computer execute image display method |
JP2009059317A (en) * | 2007-09-04 | 2009-03-19 | Dainippon Printing Co Ltd | Server device which distributes advertisement insered in book content |
JP2011077913A (en) * | 2009-09-30 | 2011-04-14 | Nhk Service Center Inc | Apparatus and system for processing information transmission, and computer program to be used therefor |
-
2011
- 2011-09-06 JP JP2011193934A patent/JP2013055595A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1124603A (en) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | Information display device and information collecting device |
JP2001125628A (en) * | 1999-10-27 | 2001-05-11 | Nippon Sanso Corp | System monitor device and its recording medium |
JP2001142824A (en) * | 1999-11-12 | 2001-05-25 | Csk Corp | Information distributing system, information distributing server, and recording medium |
JP2001326922A (en) * | 2000-05-16 | 2001-11-22 | Dentsu Inc | Service device and system for broadcast program |
JP2003303128A (en) * | 2002-04-11 | 2003-10-24 | Mitsubishi Electric Corp | Hyper text display system |
JP2004078844A (en) * | 2002-08-22 | 2004-03-11 | Mitsubishi Electric Corp | Hypertext display system |
JP2004164460A (en) * | 2002-11-15 | 2004-06-10 | Hitachi Kokusai Electric Inc | Information display system |
JP2007010970A (en) * | 2005-06-30 | 2007-01-18 | Seiko Epson Corp | Image display device and program for making computer execute image display method |
JP2009059317A (en) * | 2007-09-04 | 2009-03-19 | Dainippon Printing Co Ltd | Server device which distributes advertisement insered in book content |
JP2011077913A (en) * | 2009-09-30 | 2011-04-14 | Nhk Service Center Inc | Apparatus and system for processing information transmission, and computer program to be used therefor |
Non-Patent Citations (4)
Title |
---|
CSNG200500526006; 内木 哲也・明星 聖子 共著: '情報システム視点からの電子書籍出版に関する考察' 情報処理学会研究報告(2004-IS-88) 第2004巻 第53号, 20040521, p.43-50., 社団法人情報処理学会 * |
CSNG201000106018; 佐藤 龍 外5名著: '移動デジタルサイネージにおけるコンテンツの非同期プリフェッチ' 電子情報通信学会技術研究報告(NS2009-120-NS2009-141) 第109巻 第326号, 20091203, p.101-104., 社団法人電子情報通信学会 The Institute of Electro * |
JPN6015003824; 内木 哲也・明星 聖子 共著: '情報システム視点からの電子書籍出版に関する考察' 情報処理学会研究報告(2004-IS-88) 第2004巻 第53号, 20040521, p.43-50., 社団法人情報処理学会 * |
JPN6015003826; 佐藤 龍 外5名著: '移動デジタルサイネージにおけるコンテンツの非同期プリフェッチ' 電子情報通信学会技術研究報告(NS2009-120-NS2009-141) 第109巻 第326号, 20091203, p.101-104., 社団法人電子情報通信学会 The Institute of Electro * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5445722B1 (en) * | 2012-09-12 | 2014-03-19 | オムロン株式会社 | Data flow control command generation device and sensor management device |
JPWO2016158120A1 (en) * | 2015-03-31 | 2018-01-25 | フェリカネットワークス株式会社 | Information processing apparatus, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5647141B2 (en) | System and method for initiating actions and providing feedback by specifying objects of interest | |
EP2536124B1 (en) | Imaging device, information acquisition system, and program | |
JP5259012B2 (en) | How to generate advertisements triggered by target positions and keywords and tier-based advertisements that users can call | |
US20110119298A1 (en) | Method and apparatus for searching information | |
JP6245718B1 (en) | Information provision system | |
JP4305048B2 (en) | Regional attribute determination method, regional attribute determination device, and regional attribute determination program | |
CN101379369A (en) | Displaying network objects in mobile devices based on geolocation | |
JP2010502993A (en) | Add destination to navigation device | |
JP2012063900A (en) | Store information provision apparatus | |
JP6227835B2 (en) | Terminal device, server device, and program for recording work state by image | |
KR101907002B1 (en) | Apparatus and method for creating and searching location-tagged contents in computing device | |
JP5199226B2 (en) | Information processing apparatus, information processing method, information processing system, and information processing program | |
JP5072464B2 (en) | Image providing apparatus, image providing method, image providing program, and computer-readable recording medium recording the program | |
KR101260425B1 (en) | Cloud-Based AR System | |
JP5891905B2 (en) | Server apparatus, program, and communication system | |
JP2007280290A (en) | Local advertising system | |
KR101870423B1 (en) | Map information providing method using information of geotagging, Computer program for the same, and Recording medium storing computer program for the same | |
JP2020173625A (en) | Program, information processor, information processing method, and information processing system | |
JP2013055595A (en) | Terminal device, content display system, program, data structure, and content distribution server | |
JP2014232907A (en) | Method and system for displaying site page based on present position on portable terminal in desired conditional order | |
KR20110088643A (en) | Collection system for personal information of contents user using mobile terminal and method thereof | |
JP7027047B2 (en) | Calculation device, calculation method and calculation program | |
JP2007323169A (en) | Book purchase support system | |
JP6236029B2 (en) | Information processing system and information processing apparatus | |
KR20150055128A (en) | Advertising Method Using Mobile Device by Advertisement Managing Server and Server for Distributing Program therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140312 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150609 |