JP2007142925A - Motion picture providing system, server, terminal, image providing method, and program - Google Patents

Motion picture providing system, server, terminal, image providing method, and program Download PDF

Info

Publication number
JP2007142925A
JP2007142925A JP2005335514A JP2005335514A JP2007142925A JP 2007142925 A JP2007142925 A JP 2007142925A JP 2005335514 A JP2005335514 A JP 2005335514A JP 2005335514 A JP2005335514 A JP 2005335514A JP 2007142925 A JP2007142925 A JP 2007142925A
Authority
JP
Japan
Prior art keywords
information
image
server
sensor
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005335514A
Other languages
Japanese (ja)
Inventor
Hiroshi Noguchi
弘 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005335514A priority Critical patent/JP2007142925A/en
Publication of JP2007142925A publication Critical patent/JP2007142925A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable amount of distribution image data to be reduced. <P>SOLUTION: Identification information to be transmitted from a sensor in which a mobile object is to be identified by the sensor and sensor information for identifying the sensor which has detected the mobile object are to be received by a sensor information receiving unit 121. Then distribution data are to be transmitted to a mobile communication terminal 103 after being produced at a distribution data producing unit 124 by corresponding location information with unique information indicating the mobile object stored in a game information data base 123, based on the received identification information and the sensor information. Then image data are to be produced at an image processing unit 133 based on the distribution data received at a transmission reception unit 131 and fixed image information which is fixed information previously stored in a storage unit 132, and the produced image data is to be displayed on a display unit 135. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、インターネット等のネットワークを介して動画を配信する動画提供システム、サーバ及び画像提供方法並びに配信された動画を表示するための端末及びプログラムに関する。   The present invention relates to a moving image providing system for distributing moving images via a network such as the Internet, a server, an image providing method, and a terminal and a program for displaying the distributed moving images.

近年、携帯通信端末にてスポーツ等のテレビ放送を観戦することを可能とするために、テレビ放送の地上波アナログ信号やデジタル信号の電波を受信するための専用のチューナが開発され、この専用のチューナを携帯通信端末に搭載することにより、ユーザが任意の場所にて携帯通信端末を用いてテレビ放送を視聴することが可能となっている。   In recent years, dedicated tuners for receiving terrestrial analog signals and digital signals of television broadcasts have been developed in order to be able to watch sports and other television broadcasts on mobile communication terminals. By mounting the tuner on the mobile communication terminal, the user can watch a television broadcast using the mobile communication terminal at an arbitrary place.

また、インターネットプロバイダが有するサーバに蓄積されているテレビ放送等の動画データが、インターネットを介して携帯通信端末に配信されることにより、携帯通信端末にてテレビ放送を視聴することが可能となっている。   Also, video data such as TV broadcasts stored in a server owned by an Internet provider is distributed to the mobile communication terminal via the Internet, so that the TV communication can be viewed on the mobile communication terminal. Yes.

また、動画データとして、ある人物の動きをインターネットを介して配信するために、人物の関節等の各部位にそれぞれ加速度センサを装着し、その加速度センサによって認識された人物の動きの情報を配信する方法が考えられている(例えば、特許文献1参照。)。
特開2002−024571号公報
In addition, in order to distribute a motion of a person as moving image data via the Internet, an acceleration sensor is attached to each part such as a joint of the person, and information on the motion of the person recognized by the acceleration sensor is distributed. A method is considered (for example, refer to Patent Document 1).
JP 2002-024571 A

しかしながら、上述した専用のチューナが搭載された携帯通信端末は、コスト面から考えても高額になってしまい、また、携帯通信端末のサイズが、搭載されたチューナの大きさの分、大きくなってしまうという問題点がある。   However, the above-described portable communication terminal equipped with the dedicated tuner is expensive from the viewpoint of cost, and the size of the portable communication terminal is increased by the size of the installed tuner. There is a problem that.

また、インターネットプロバイダが有するサーバに蓄積されているテレビ放送等の動画データをインターネットを介して携帯通信端末に配信する方法においては、配信されるデータ容量がかなり大きくなってしまい、これによりネットワーク上の帯域をかなり占有してしまうという問題点がある。   In addition, in a method for distributing video data such as TV broadcasts stored in a server owned by an Internet provider to a mobile communication terminal via the Internet, the volume of data to be distributed becomes considerably large, which causes a problem on the network. There is a problem that the band is considerably occupied.

さらに、携帯通信端末の表示画面は2インチ程度で小さく、その小さな画面に表示された動画データは、細かい情報まで読み取ることが困難であるため、読み取ることが困難な細かい情報をインターネットを介して配信しても、配信された情報はあまり意味の無い情報となってしまい、意味の無い情報の配信によって、ネットワーク上の有意義な情報の配信のために使用できる帯域が狭くなってしまうという問題点がある。   Furthermore, since the display screen of the mobile communication terminal is as small as about 2 inches and the moving image data displayed on the small screen is difficult to read down to fine information, fine information that is difficult to read is distributed via the Internet. Even so, the distributed information becomes very meaningless information, and the distribution of meaningless information narrows the bandwidth that can be used for the distribution of meaningful information on the network. is there.

また、特許文献1に記載された方法においては、対象となる人の細かい動きまでもを配信するものであるため、その対象の人の体に多くのセンサを装着しなければならないという問題点がある。   Moreover, in the method described in Patent Document 1, since even the fine movements of the target person are distributed, there is a problem that many sensors must be attached to the body of the target person. is there.

本発明は、上述したような従来の技術が有する問題点に鑑みてなされたものであって、配信される画像データ量を少なく抑えることができる動画提供システム、サーバ、端末、画像提供方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the problems of the conventional techniques as described above, and is a moving image providing system, server, terminal, image providing method, and program capable of reducing the amount of image data to be distributed. The purpose is to provide.

上記目的を達成するために本発明は、
所定の領域内における移動対象物の動画情報を提供する動画提供システムであって、
前記領域内において前記移動対象物を検出するセンサと、
前記センサにて検出された前記移動対象物を示す対象物情報と、前記センサにて前記移動対象物が検出された位置を示す位置情報とを配信するサーバと、
前記サーバから配信されてきた前記対象物情報及び前記位置情報と、該対象物情報に対応づけられた対象物画像情報と、前記領域内における固定画像情報とを用いて動画データを生成し、表示出力する端末とを有する。
In order to achieve the above object, the present invention provides:
A video providing system that provides video information of a moving object in a predetermined area,
A sensor for detecting the moving object in the region;
A server that distributes object information indicating the moving object detected by the sensor and position information indicating a position where the moving object is detected by the sensor;
Generate and display moving image data using the object information and position information distributed from the server, object image information associated with the object information, and fixed image information in the area Output terminal.

また、前記サーバは、前記対象物情報を特定可能な第1の識別情報を該対象物情報と対応づけて管理するとともに、前記位置情報を特定可能な第2の識別情報を該位置情報と対応づけて管理し、前記センサから前記第1の識別情報と前記第2の識別情報とが与えられた場合、前記第1の識別情報によって特定される前記対象物情報と、前記第2の識別情報によって特定される前記位置情報とを配信することを特徴とする。   The server manages the first identification information that can identify the object information in association with the object information, and associates the second identification information that can identify the position information with the position information. When the first identification information and the second identification information are given from the sensor, the object information specified by the first identification information and the second identification information The position information specified by is distributed.

また、前記端末は、1つの対象物情報に対応づけて前記対象物画像情報を複数有し、前記サーバから前記対象物情報が配信されてきた場合、該対象物情報に対応づけられた対象物画像情報のうち指定された対象物画像情報を用いて前記動画データを生成することを特徴とする。   The terminal has a plurality of the object image information associated with one object information, and when the object information is distributed from the server, the object associated with the object information. The moving image data is generated using the specified object image information in the image information.

また、前記サーバは、
前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有し、
前記端末は、
前記対象物情報と前記対象物画像情報とを対応付けて管理するとともに、前記固定画像情報を管理する記憶手段と、
前記位置情報と前記対象物画像情報と前記固定画像情報とを用いて前記動画データを生成する画像処理手段と、
前記動画データを表示する表示手段とを有することを特徴とする。
In addition, the server
Sensor information receiving means for receiving information detected by the sensor;
Distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information;
The terminal
Storage means for managing the object information and the object image information in association with each other, and managing the fixed image information;
Image processing means for generating the moving image data using the position information, the object image information, and the fixed image information;
And display means for displaying the moving image data.

また、前記サーバは、
前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記第1の識別情報と前記対象物情報とを対応付けて管理するとともに、前記第2の識別情報と前記位置情報とを対応付けて管理するデータベースと、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有し、
前記端末は、
前記対象物情報と前記対象物画像情報とを対応付けて管理するとともに、前記固定画像情報を管理する記憶手段と、
前記位置情報と前記対象物画像情報と前記固定画像情報とを用いて前記動画データを生成する画像処理手段と、
前記動画データを表示する表示手段とを有することを特徴とする。
In addition, the server
Sensor information receiving means for receiving information detected by the sensor;
A database that manages the first identification information and the object information in association with each other, and manages the second identification information and the position information in association with each other;
Distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information;
The terminal
Storage means for managing the object information and the object image information in association with each other, and managing the fixed image information;
Image processing means for generating the moving image data using the position information, the object image information, and the fixed image information;
And display means for displaying the moving image data.

また、前記センサは、複数の受信アンテナを有するICタグリーダであることを特徴とする。   The sensor is an IC tag reader having a plurality of receiving antennas.

また、前記センサは、複数のアンテナを有するICタグリーダであり、
前記第1の識別情報は、前記移動対象物に装着されたICタグが有する固有の情報であり、
前記第2の識別情報は、前記アンテナが有する固有の情報であることを特徴とする。
The sensor is an IC tag reader having a plurality of antennas,
The first identification information is unique information that an IC tag attached to the moving object has,
The second identification information is unique information of the antenna.

また、画像を表示する端末へインターネットを介してセンサによって検出された移動対象物の動画情報を配信するサーバであって、
前記センサにて検出された前記移動対象物を示す対象物情報と、前記センサにて前記移動対象物が検出された位置を示す位置情報とを前記端末へ配信する。
Also, a server that distributes moving image information of a moving object detected by a sensor via the Internet to a terminal that displays an image,
Object information indicating the moving object detected by the sensor and position information indicating a position where the moving object is detected by the sensor are distributed to the terminal.

また、前記対象物情報を特定可能な第1の識別情報を該対象物情報と対応づけて管理するとともに、前記位置情報を特定可能な第2の識別情報を該位置情報と対応づけて管理し、前記センサから前記第1の識別情報と前記第2の識別情報とが与えられた場合、前記第1の識別情報によって特定される前記対象物情報と、前記第2の識別情報によって特定される前記位置情報とを配信することを特徴とする。   The first identification information that can identify the object information is managed in association with the object information, and the second identification information that can identify the position information is managed in association with the position information. When the first identification information and the second identification information are given from the sensor, the object information specified by the first identification information and the second identification information are specified. The position information is distributed.

また、前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有することを特徴とする。
A sensor information receiving means for receiving information detected by the sensor;
It has a distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information.

また、前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記第1の識別情報と前記対象物情報とを対応付けて管理するとともに、前記第2の識別情報と前記位置情報とを対応付けて管理するデータベースと、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有することを特徴とする。
A sensor information receiving means for receiving information detected by the sensor;
A database that manages the first identification information and the object information in association with each other, and manages the second identification information and the position information in association with each other;
It has a distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information.

また、前記第1の識別情報は、前記移動対象物に装着されたICタグが有する固有の情報であり、
前記第2の識別情報は、前記ICタグに書き込まれた情報を読み取るICタグリーダが有するアンテナが有する固有の情報であることを特徴とする。
Further, the first identification information is unique information possessed by an IC tag attached to the moving object,
The second identification information is unique information of an antenna included in an IC tag reader that reads information written on the IC tag.

また、インターネットを介してサーバから送信された所定の領域内における移動対象物の対象物情報と位置情報とに基づいて画像を表示する端末であって、
前記サーバから配信されてきた前記対象物情報及び前記位置情報と、該対象物情報に対応づけられた対象物画像情報と、前記領域内における固定画像情報とを用いて動画データを生成し、表示出力する。
Also, a terminal that displays an image based on object information and position information of a moving object within a predetermined area transmitted from a server via the Internet,
Generate and display moving image data using the object information and position information distributed from the server, object image information associated with the object information, and fixed image information in the area Output.

また、1つの対象物情報に対応づけて前記対象物画像情報を複数有し、前記サーバから前記対象物情報が配信されてきた場合、該対象物情報に対応づけられた対象物画像情報のうち指定された対象物画像情報を用いて前記動画データを生成することを特徴とする。   When there is a plurality of the object image information associated with one object information and the object information is distributed from the server, the object image information associated with the object information The moving image data is generated using specified object image information.

また、前記対象物情報と前記対象物画像情報とを対応付けて管理するとともに、前記固定画像情報を管理する記憶手段と、
前記位置情報と前記対象物画像情報と前記固定画像情報とを用いて前記動画データを生成する画像処理手段と、
前記動画データを表示する表示手段とを有することを特徴とする。
A storage unit that manages the object information and the object image information in association with each other, and manages the fixed image information;
Image processing means for generating the moving image data using the position information, the object image information, and the fixed image information;
And display means for displaying the moving image data.

また、配信する動画の移動対象物を検出するセンサ及びデータベースを有し、前記センサによって検出された移動対象物の動画情報を配信するサーバと、該サーバとインターネットを介して接続された端末とを有する動画提供システムにおける動画提供方法であって、
前記サーバにて、前記センサにて検出された前記移動対象物を示す対象物情報と、前記センサにて前記移動対象物が検出された位置を示す位置情報とを配信する処理と、
前記端末にて、前記サーバから配信されてきた前記対象物情報及び前記位置情報と、該対象物情報に対応づけられた対象物画像情報と、前記領域内における固定画像情報とを用いて動画データを生成する処理と、
前記動画データを表示出力する処理とを有する。
In addition, a server and a database that detect a moving object of a moving image to be distributed, a server that distributes moving image information of the moving object detected by the sensor, and a terminal connected to the server via the Internet A video providing method in a video providing system comprising:
In the server, processing for distributing object information indicating the moving object detected by the sensor and position information indicating a position where the moving object is detected by the sensor;
Movie data using the object information and the position information distributed from the server, object image information associated with the object information, and fixed image information in the area at the terminal Processing to generate
And processing for displaying and outputting the moving image data.

また、前記サーバにて、前記対象物情報を特定可能な第1の識別情報を該対象物情報と対応づけて管理する処理と、
前記位置情報を特定可能な第2の識別情報を該位置情報と対応づけて管理する処理と、
前記センサから前記第1の識別情報と前記第2の識別情報とが与えられた場合、前記第1の識別情報によって特定される前記対象物情報と、前記第2の識別情報によって特定される前記位置情報とを配信する処理とを有することを特徴とする。
Further, in the server, a process of managing first identification information capable of specifying the object information in association with the object information;
A process of managing second identification information capable of specifying the position information in association with the position information;
When the first identification information and the second identification information are given from the sensor, the object information identified by the first identification information and the object identified by the second identification information And a process for distributing position information.

また、前記端末にて、1つの対象物情報に対応づけて前記対象物画像情報を複数有し、前記サーバから前記対象物情報が配信されてきた場合、該対象物情報に対応づけられた対象物画像情報のうち指定された対象物画像情報を用いて前記動画データを生成する処理を有することを特徴とする。   In addition, when the terminal has a plurality of the object image information associated with one object information and the object information is distributed from the server, the object associated with the object information It has the process which produces | generates the said moving image data using the target object image information designated among the object image information.

上記のように構成された本発明においては、センサによって所定の領域内において移動対象物が検出され、検出された移動対象物を示す対象物情報と、センサにて移動対象物が検出された位置を示す位置情報とがサーバから配信され、サーバから配信されてきた移動対象物の位置情報と、対象物情報に対応付けられた対象物画像情報と、領域内における固定画像情報とを用いて端末にて動画データが生成され、生成された動画データが端末にて表示出力される。   In the present invention configured as described above, a moving object is detected in a predetermined region by a sensor, object information indicating the detected moving object, and a position at which the moving object is detected by the sensor Is transmitted from the server, the position information of the moving object distributed from the server, the object image information associated with the object information, and the fixed image information in the area. The moving image data is generated at, and the generated moving image data is displayed and output on the terminal.

これにより、対象物の移動の情報のみが配信され、携帯通信端末の小さな表示画面では表示されても認識し辛い細かな動作については配信されないため、携帯通信端末に必要な最低限の画面表示となり、余分なデータの送信によるネットワーク上の帯域の使用を抑えることができる。   As a result, only information on the movement of the object is distributed, and detailed operations that are difficult to recognize even if displayed on the small display screen of the mobile communication terminal are not distributed. The use of bandwidth on the network due to the transmission of extra data can be suppressed.

以上説明したように本発明においては、センサによって所定の領域内において移動対象物を検出し、検出された移動対象物を示す対象物情報と、センサにて移動対象物が検出された位置を示す位置情報とをサーバから配信し、サーバから配信されてきた移動対象物の位置情報と、対象物情報に対応付けられた対象物画像情報と、領域内における固定画像情報とを用いて端末にて動画データを生成し、生成された動画データを端末にて表示出力する構成としたため、配信される画像データ量を少なく抑えることができる。   As described above, in the present invention, a moving object is detected in a predetermined area by a sensor, and object information indicating the detected moving object and a position where the moving object is detected by the sensor are shown. The position information is distributed from the server, and the terminal uses the position information of the moving object distributed from the server, the object image information associated with the object information, and the fixed image information in the area. Since the moving image data is generated and the generated moving image data is displayed and output on the terminal, the amount of image data to be distributed can be reduced.

以下に、本発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の動画提供システムの実施の一形態を示す図である。   FIG. 1 is a diagram showing an embodiment of a moving image providing system according to the present invention.

本形態は図1に示すように、画像配信サーバ102と、携帯通信端末103とがインターネット101を介して接続されており、また、配信する画像の対象物が存在する競技場等には、所定の領域内を移動する動画の対象である移動対象物を検出するためのセンサ104と、その競技場等の音声を集めるマイク105とが設置されており、センサ104及びマイク105が画像配信サーバ102に接続されて構成されている。画像配信サーバ102は、センサ104によって検出された情報に基づいて配信データを生成し、生成された配信データをインターネット101を介して携帯通信端末103へ配信する。携帯通信端末103は、画像配信サーバ102から配信された配信データを受信し、受信された配信データに基づいて動画を表示する。   In this embodiment, as shown in FIG. 1, an image distribution server 102 and a mobile communication terminal 103 are connected via the Internet 101, and a predetermined stadium or the like where an object of an image to be distributed exists. A sensor 104 for detecting a moving object that is an object of a moving image moving in the area of the image and a microphone 105 that collects sound of the stadium are installed. The sensor 104 and the microphone 105 are connected to the image distribution server 102. Connected to and configured. The image distribution server 102 generates distribution data based on the information detected by the sensor 104 and distributes the generated distribution data to the mobile communication terminal 103 via the Internet 101. The mobile communication terminal 103 receives the distribution data distributed from the image distribution server 102 and displays a moving image based on the received distribution data.

画像配信サーバ102は、センサ情報受信部121と、音声情報受信部122と、情報データベース123と、配信データ生成部124と、認証部125とから構成されている。センサ情報受信部121は、センサ104によって検出された情報を受信する。音声情報受信部122は、マイク105によって集められた音声情報を受信する。情報データベース123は、競技場や競技者及び動画提供のサービスを受けることができるユーザの情報を格納する。配信データ生成部124は、センサ情報受信部121にて受信された情報と音声情報受信部122にて受信された情報と情報データベース123に格納された情報とからインターネット101を介して携帯通信端末103へ配信する配信データを生成する。認証部125は、携帯通信端末103の認証を行う。   The image distribution server 102 includes a sensor information receiving unit 121, an audio information receiving unit 122, an information database 123, a distribution data generating unit 124, and an authentication unit 125. The sensor information receiving unit 121 receives information detected by the sensor 104. The voice information receiving unit 122 receives voice information collected by the microphone 105. The information database 123 stores information on the stadium, the athletes, and the users who can receive the service for providing moving images. The distribution data generation unit 124 uses the information received by the sensor information reception unit 121, the information received by the voice information reception unit 122, and the information stored in the information database 123 via the Internet 101. Generate distribution data to be distributed to. The authentication unit 125 authenticates the mobile communication terminal 103.

また、携帯通信端末103は、送受信部131と、記憶部132と、画像処理部133と、操作部134と、表示部135と、音声出力部136とから構成されている。送受信部131は、画像配信サーバ102からインターネット101を介して送信された配信データや音声データを受信する。記憶部132は、携帯通信端末103にて処理を行うプログラムや競技場等の情報を格納する。画像処理部133は、記憶部132に格納されているプログラムによって動作し、送受信部131にて受信された配信データと記憶部132に格納されている競技場等の情報とに基づいて画像データを生成する。操作部134は、画像処理部133によって生成された画像データをどのように表示するかを外部から操作する。表示部135は、画像処理部133によって生成された画像データを操作部134の操作によって表示する。音声出力部136は、送受信部131にて受信された音声データを出力する。   The mobile communication terminal 103 includes a transmission / reception unit 131, a storage unit 132, an image processing unit 133, an operation unit 134, a display unit 135, and an audio output unit 136. The transmission / reception unit 131 receives distribution data and audio data transmitted from the image distribution server 102 via the Internet 101. The storage unit 132 stores information such as a program to be processed by the mobile communication terminal 103 and a stadium. The image processing unit 133 operates according to a program stored in the storage unit 132, and outputs image data based on the distribution data received by the transmission / reception unit 131 and information such as a stadium stored in the storage unit 132. Generate. The operation unit 134 operates from the outside how to display the image data generated by the image processing unit 133. The display unit 135 displays the image data generated by the image processing unit 133 by operating the operation unit 134. The audio output unit 136 outputs the audio data received by the transmission / reception unit 131.

以下に、図1に示した形態が、サッカーの試合の動画を配信するために使用される場合を例に挙げて説明する。ここでは、センサ104としてICタグリーダが使用される場合を例に挙げる。   Hereinafter, a case where the form shown in FIG. 1 is used for distributing a video of a soccer game will be described as an example. Here, a case where an IC tag reader is used as the sensor 104 will be described as an example.

図2は、ICタグリーダが使用された場合の図1に示したセンサ104の構成を示す図である。   FIG. 2 is a diagram showing a configuration of the sensor 104 shown in FIG. 1 when an IC tag reader is used.

図2に示すように図1に示したセンサ104は、ICタグリーダ141と、複数のアンテナ142−1〜141−nとから構成されている。アンテナ142−1〜142−nは、競技場に埋め込まれている。ICタグリーダ141は、アンテナ142−1〜142−nに接続されており、アンテナ142−1〜142−nを介してサッカーの試合を行っている選手やボールを検出し、検出した選手やボールの情報を読み取り、読み取られた情報を画像配信サーバ102へ送信する。   As shown in FIG. 2, the sensor 104 shown in FIG. 1 includes an IC tag reader 141 and a plurality of antennas 142-1 to 141-n. The antennas 142-1 to 142-n are embedded in the playing field. The IC tag reader 141 is connected to the antennas 142-1 to 142-n, detects players and balls playing soccer games via the antennas 142-1 to 142-n, and detects the detected players and balls. The information is read, and the read information is transmitted to the image distribution server 102.

図3は、動画として配信されるサッカーの試合が行われる競技フィールドに取り付けられたアンテナ142−1〜142−nと、選手及びボールに取り付けられたICタグとを示す図である。   FIG. 3 is a diagram showing antennas 142-1 to 142-n attached to a competition field where a soccer game distributed as a moving image is performed, and IC tags attached to players and balls.

図3に示すように、サッカーの競技フィールド201は、ゴールラインと平行に1〜8、さらにタッチラインと平行にA〜Dの複数の同じ大きさのエリアに分けられ、各エリアの中央にはアンテナ142−1〜142−nが埋め込まれている。埋め込まれているアンテナ142−1〜142−nは、図2に示したICタグリーダ141に接続されている。また、同じ大きさに分けられた各エリアの大きさは、ICタグリーダ141がアンテナ142−1〜142−nを介してICタグをそれぞれ検出可能な範囲である。また、選手203−1〜203−mにはICタグ204−1〜204−mがそれぞれ装着されている。ICタグ204−1〜204−mの装着位置については、選手203−1〜203−mが着用しているユニホームでも良いし、選手203−1〜203−mが履いているシューズでも良く、選手203−1〜203−mが試合中に身に着けているものであれば良い。また、試合中に使用されるボール205にもICタグ206が付けられている。   As shown in FIG. 3, the soccer competition field 201 is divided into a plurality of areas of the same size of 1 to 8 parallel to the goal line and A to D parallel to the touch line. Antennas 142-1 to 142-n are embedded. The embedded antennas 142-1 to 142-n are connected to the IC tag reader 141 shown in FIG. The size of each area divided into the same size is a range in which the IC tag reader 141 can detect the IC tag via the antennas 142-1 to 142-n. Further, IC tags 204-1 to 204-m are respectively attached to the players 203-1 to 203-m. As for the mounting positions of the IC tags 204-1 to 204-m, the uniform worn by the players 203-1 to 203-m or the shoes worn by the players 203-1 to 203-m may be used. What is required is that 203-1 to 203-m are worn during the game. An IC tag 206 is also attached to the ball 205 used during the game.

図4は、図3に示した競技フィールド201におけるアンテナ142−1,142−2を介してICタグリーダ141がICタグ204−1〜204−m,206を検出できる範囲を示す図である。   FIG. 4 is a diagram showing a range in which the IC tag reader 141 can detect the IC tags 204-1 to 204-m, 206 via the antennas 142-1, 142-2 in the competition field 201 shown in FIG.

図4に示すように、アンテナ142−1を介してICタグリーダ141がICタグ204−1〜204−m,206を検出できる検出範囲301−1と、アンテナ142−2を介してICタグリーダ141がICタグ204−1〜204−m,206を検出できる検出範囲301−2とは、斜線で示すように重複する部分ができ、且つどちらのアンテナ142−1,142−2を介してもICタグリーダ141がICタグ204−1〜204−m,206を検出できない部分が無いようにアンテナ142−1,142−2が配置される。アンテナ142−1,142−2の双方を介してICタグリーダ141によってICタグ204−1〜204−m,206が同時に検出された場合は、ICタグ204−1〜204−m,206が装着された選手203−1〜203−mまたはボール205が、図4の斜線で示した部分に存在すると判断される。なお、アンテナ142−3〜142−nについても同様である。   As shown in FIG. 4, the IC tag reader 141 can detect the IC tags 204-1 to 204-m, 206 via the antenna 142-1, and the IC tag reader 141 via the antenna 142-2. The detection range 301-2 in which the IC tags 204-1 to 204-m, 206 can be detected has an overlapping portion as shown by hatching, and the IC tag reader can be connected via either antenna 142-1, 142-2. The antennas 142-1 and 142-2 are arranged so that there is no portion where the 141 cannot detect the IC tags 204-1 to 204 -m and 206. When the IC tags 204-1 to 204-m, 206 are simultaneously detected by the IC tag reader 141 via both the antennas 142-1, 142-2, the IC tags 204-1 to 204-m, 206 are attached. It is determined that the players 203-1 to 203-m or the ball 205 exist in the hatched portion of FIG. The same applies to the antennas 142-3 to 142-n.

図5は、図2に示したサッカーの試合の動画を配信する場合の図1に示した情報データベース123の構成例を示す図である。   FIG. 5 is a diagram showing a configuration example of the information database 123 shown in FIG. 1 in the case of distributing the soccer game video shown in FIG.

図1に示した情報データベース123には図3に示すように、フィールド情報1231と、競技者情報1232と、固定画像情報1233と、ユーザ情報1234とが格納されている。フィールド情報1231は、選手203−1〜203−m及びボール205の動画の移動対象物を検出したアンテナ142−1〜142−nを識別するための第2の識別情報である固有のアンテナ番号と、当該移動対象物が検出された位置を示す位置情報であるアンテナ142−1〜142−nが埋め込まれている位置情報とがそれぞれ対応付けられて格納されている情報である。   As shown in FIG. 3, field information 1231, player information 1232, fixed image information 1233, and user information 1234 are stored in the information database 123 shown in FIG. 1. The field information 1231 includes a unique antenna number that is second identification information for identifying the antennas 142-1 to 142-n that have detected the moving objects of the moving images of the players 203-1 to 203-m and the ball 205. , And the position information in which the antennas 142-1 to 142-n, which are position information indicating the position where the moving object is detected, are stored in association with each other.

埋め込まれている位置情報とは、図3に示したように競技フィールド201のゴールラインと平行に1〜8に分け、さらにタッチラインと平行にA〜Dに分け、それらを使って座標として表したものである。例えば図3に示すように、アンテナ142−1が埋め込まれている位置情報はA−1であり、また、アンテナ142−2が埋め込まれている位置情報はA−2であり、また、アンテナ142−nが埋め込まれている位置情報はD−8である。   As shown in FIG. 3, the embedded position information is divided into 1 to 8 in parallel with the goal line of the competition field 201, and further divided into A to D in parallel with the touch line. It is a thing. For example, as shown in FIG. 3, the position information in which the antenna 142-1 is embedded is A-1, and the position information in which the antenna 142-2 is embedded is A-2. The position information in which −n is embedded is D-8.

また、競技者情報1232は、選手203−1〜203−m及びボール205に装着されている第1の識別情報であるICタグ204−1〜204−m,206の固有の番号と、それらが装着されている移動対象物を示す対象物情報である固有の情報とがそれぞれ対応付けられて格納されている情報である。ここで対象物情報とは、選手203−1〜203−mの名前やボール205に付与された固有の番号であっても良い。ここでは、選手203−1にはICタグ204−1が、また、選手203−2にはICタグ204−2が、また、選手203−mにはICタグ204−mが、またボール205にはICタグ206がそれぞれ装着されていることが対応付けからわかる。   In addition, the player information 1232 includes the unique numbers of the IC tags 204-1 to 204-m and 206, which are the first identification information attached to the players 203-1 to 203-m and the ball 205, and This is information that is stored in association with unique information that is object information indicating a mounted moving object. Here, the object information may be a name of the players 203-1 to 203-m or a unique number given to the ball 205. Here, the IC tag 204-1 is attached to the player 203-1, the IC tag 204-2 is attached to the player 203-2, the IC tag 204-m is attached to the player 203-m, and the ball 205 is attached. Indicates that the IC tags 206 are respectively attached.

また、固定画像情報1233は、競技場において動画として配信しない画像、つまり観客スタンドの背景や競技フィールド201自体の画像、競技フィールド201がどのように分けられているかというフィールド情報、選手の情報等の固定的な情報である。選手の情報とは、この試合にエントリーされている選手名や選手の固有の情報であり、上述した競技者情報1232の中の対象物情報のうち、選手の情報がコピーされて格納されてもあっても良い。   The fixed image information 1233 is an image that is not distributed as a moving image in the stadium, that is, the background of the spectator stand, the image of the competition field 201 itself, field information on how the competition field 201 is divided, information on players, etc. It is fixed information. The player information is information specific to the player name and the player entered in the game, and among the object information in the player information 1232 described above, the player information is copied and stored. There may be.

ユーザ情報1234は、この動画提供のサービスを受けることができるユーザの情報であり、ユーザそれぞれのユーザIDとパスワードとが対応付けられて格納されている。   The user information 1234 is information of a user who can receive this moving image providing service, and stores a user ID and a password associated with each user.

以下に、上記のように構成された動画提供システムにおける動画提供方法について説明する。   Hereinafter, a moving image providing method in the moving image providing system configured as described above will be described.

図6は、図2に示した競技フィールド201にて図1に示した動画提供システムが適用された場合における動画提供方法を説明するためのシーケンス図である。   FIG. 6 is a sequence diagram for explaining a moving image providing method when the moving image providing system shown in FIG. 1 is applied to the competition field 201 shown in FIG.

まず最初に、携帯通信端末103の認証処理が行われる。これは、予め登録されたユーザ以外はこの配信サービスを受けることができないようにすることにより、不特定多数のユーザへの配信データによるネットワークの高負荷を避けるためである。試合前の設定された期間に登録されたユーザのみが動画提供サービスを受けることができるように登録できる期間を限定しても良い。また、予め登録されたユーザから登録料を徴収することにより、それが1つのビジネスモデルとなる。   First, authentication processing of the mobile communication terminal 103 is performed. This is for avoiding a high load on the network due to distribution data to an unspecified number of users by making it possible for only users registered in advance to receive this distribution service. You may limit the period which can be registered so that only the user registered in the set period before a game can receive a moving image provision service. Further, by collecting a registration fee from a user registered in advance, it becomes one business model.

携帯通信端末103を所持するユーザによって画像配信サーバ102へ接続するために、操作部134を操作してユーザID及びパスワードが入力されると、入力されたユーザID及びパスワードが認証要求となって送受信部131から送信される(ステップS1)。   In order to connect to the image distribution server 102 by a user possessing the mobile communication terminal 103, when the user ID and password are input by operating the operation unit 134, the input user ID and password become authentication requests and are transmitted and received. It is transmitted from the unit 131 (step S1).

携帯通信端末103から送信された認証要求は、インターネット101を介して画像配信サーバ102にて受信される(ステップS2)。   The authentication request transmitted from the mobile communication terminal 103 is received by the image distribution server 102 via the Internet 101 (step S2).

そして、受信されたユーザID及びパスワードと情報データベース123に格納されているユーザ情報のユーザID及びパスワードとが認証部125にて比較されることにより、認証処理が行われる(ステップS3)。   Then, the authentication unit 125 compares the received user ID and password with the user ID and password of the user information stored in the information database 123, thereby performing an authentication process (step S3).

認証部125にて認証処理が行われると、動画提供が可能かどうかの認証結果が画像配信サーバ102から携帯通信端末103へ送信される(ステップS4)。   When the authentication process is performed by the authentication unit 125, an authentication result indicating whether or not video can be provided is transmitted from the image distribution server 102 to the mobile communication terminal 103 (step S4).

画像配信サーバ102から送信された認証結果は、インターネット101を介して携帯通信端末103の送受信部131にて受信される(ステップS5)。   The authentication result transmitted from the image distribution server 102 is received by the transmission / reception unit 131 of the mobile communication terminal 103 via the Internet 101 (step S5).

認証結果が動画提供が可能であった後、ユーザが携帯通信端末103の操作部134を操作してサッカーの試合の配信要求を入力すると、入力された配信要求が送受信部131から送信され(ステップS6)、インターネット101を介して画像配信サーバ102にて受信される(ステップS7)。   After the authentication result is that video can be provided, when the user operates the operation unit 134 of the mobile communication terminal 103 to input a distribution request for a soccer game, the input distribution request is transmitted from the transmission / reception unit 131 (step S6), received by the image distribution server 102 via the Internet 101 (step S7).

そして、情報データベース123に格納されている固定画像情報1233が読み出され、インターネット101を介して携帯通信端末103へ送信される(ステップS8)。   The fixed image information 1233 stored in the information database 123 is read out and transmitted to the mobile communication terminal 103 via the Internet 101 (step S8).

携帯通信端末103にて固定画像情報が受信されると(ステップS9)、受信された固定画像情報は記憶部132に格納される(ステップS10)。   When the fixed image information is received by the mobile communication terminal 103 (step S9), the received fixed image information is stored in the storage unit 132 (step S10).

ここで、表示部135に表示される選手やボールについては、実際に試合を行っている選手203−1〜203−mや試合に使われているボール205が表示される必要は無く、記憶部132に予め格納されたアニメの3Dキャラクターや選手203−1〜203−mの似顔絵等が表示されるものであっても良い。この場合、3Dキャラクターや選手203−1〜203−mの似顔絵等を、情報データベース123や他のサイトから記憶部132に予めダウンロードしておく必要がある。記憶部132にダウンロードされた3Dキャラクターや選手203−1〜203−mの似顔絵等が操作部134によって選択されて表示部135に表示されても良い。   Here, for the players and balls displayed on the display unit 135, it is not necessary to display the players 203-1 to 203-m actually playing the game and the ball 205 used in the game, and the storage unit An animation 3D character stored in advance in 132, a portrait of the players 203-1 to 203-m, or the like may be displayed. In this case, it is necessary to download in advance the 3D character and the portraits of the players 203-1 to 203-m from the information database 123 or other sites to the storage unit 132. The 3D character downloaded to the storage unit 132 and the portraits of the players 203-1 to 203-m may be selected by the operation unit 134 and displayed on the display unit 135.

選手がどのように表示されるのかが選択できる画面が表示部135に表示され、ユーザによって操作部134が操作されると、選手情報が選択される(ステップS11)。   A screen on which the player can be displayed is displayed on the display unit 135, and when the operation unit 134 is operated by the user, player information is selected (step S11).

図7は、選手を表示する画像を選択するための対象物画像情報が表示された表示部135を示す。   FIG. 7 shows a display unit 135 on which object image information for selecting an image for displaying a player is displayed.

図7に示すように表示部135には、選手を選択するためのウインドウ、及び対象物画像情報であるその選手を表示する画像を選択するためのウインドウとその選手を表示するときに付ける背番号を選択するためのウインドウとが表示される。   As shown in FIG. 7, the display unit 135 has a window for selecting a player, a window for selecting an image for displaying the player as object image information, and a spine number assigned when the player is displayed. A window for selecting is displayed.

選手を選択するためのウインドウに羅列される選手情報は、ステップS10にて格納された情報である。   The player information listed in the window for selecting a player is the information stored in step S10.

それぞれのウインドウにて、カーソルや矢印を使用して選択したい項目が選択される。図7に示した例では、選手203−1の選手の表示画像に、アニメのキャラクターが選択され、背番号は「3」が選択されている。その後、決定キーを選択すれば選手203−1の表示に関する設定は完了する。また、一部の選手を表示したくない場合は、表示したくない選手を選択後、非表示キーを選択すれば、その選手は表示されない。   In each window, an item to be selected is selected using a cursor or an arrow. In the example illustrated in FIG. 7, an animated character is selected as the display image of the player of the player 203-1 and “3” is selected as the spine number. Then, if the determination key is selected, the setting regarding the display of the player 203-1 is completed. Also, if you do not want to display some players, select the players you do not want to display, and then select the hide key, the players will not be displayed.

同様に、選手203−2〜203−mについても表示画像の選択が行われる。   Similarly, display images are selected for the players 203-2 to 203-m.

このように、設定された選手を表示するための画像情報は各選手ごとに指定され、記憶部132に格納される。   Thus, the image information for displaying the set player is designated for each player and stored in the storage unit 132.

なお、図7に示した表示画像を選択するウインドウには、選手の似顔絵以外にアニメのキャラクターが1つだけ表示されているが、多数のアニメのキャラクターが予めダウンロードされて表示され、その中からの選択が可能となっているものであっても良い。   In the window for selecting the display image shown in FIG. 7, only one anime character is displayed in addition to the portrait of the player, but a large number of anime characters are downloaded and displayed in advance. It may be possible to select

また、図7に示すように、背番号を指定し表示させることにより、選手の表示画像は単なる円形の簡単な記号等であっても選手の識別は可能になる。   In addition, as shown in FIG. 7, by specifying and displaying the spine number, it is possible to identify the player even if the display image of the player is a simple simple symbol or the like.

そして、サッカーの試合が開始されると、選手203−1〜203−mにそれぞれ装着されたICタグ204−1〜204−m、及びボール205に付けられたICタグ206が競技フィールド201に埋め込まれたアンテナ142−1〜142−nを介してICタグリーダ141によって検出され、検出されたICタグ204−1〜204−m,206に書き込まれた情報がICタグリーダ141によってアンテナ142−1〜142−nを介して読み出され、読み出された情報がICタグリーダ141から送信され、センサ情報受信部121にて受信される(ステップS12)。   When the soccer game is started, the IC tags 204-1 to 204-m attached to the players 203-1 to 203-m and the IC tag 206 attached to the ball 205 are embedded in the game field 201. The information detected by the IC tag reader 141 via the antennas 142-1 to 142-n and the information written in the detected IC tags 204-1 to 204-m, 206 is transmitted to the antennas 142-1 to 142 by the IC tag reader 141. The read information is transmitted from the IC tag reader 141 and received by the sensor information receiving unit 121 (step S12).

ここで、ICタグ204−1〜204−m,206に書き込まれた情報とは、ICタグ204−1〜204−m,206をそれぞれ識別できる固有の識別情報であり、固有の番号であっても良い。また、それらの情報がどのアンテナ142−1〜142−nを介してICタグリーダ141によって読み取られたかについては、アンテナ142−1〜142−nが固有に有する識別情報がICタグ204−1〜204−m,206の識別情報とともにICタグリーダ141からセンサ情報受信部121へ送信されることにより、センサ情報受信部121にて識別可能である。   Here, the information written in the IC tags 204-1 to 204-m and 206 is unique identification information that can identify the IC tags 204-1 to 204-m and 206, respectively, and is a unique number. Also good. Further, as to which antenna 142-1 to 142-n the information is read by the IC tag reader 141, the identification information inherent to the antennas 142-1 to 142-n is the IC tags 204-1 to 204. The sensor information receiving unit 121 can identify the information by transmitting it from the IC tag reader 141 to the sensor information receiving unit 121 together with the identification information of −m, 206.

その後、センサ情報受信部121にて受信された情報と、情報データベース123に書き込まれたデータとに基づいて、配信データが配信データ生成部124にて生成される(ステップS13)。   Thereafter, distribution data is generated by the distribution data generation unit 124 based on the information received by the sensor information reception unit 121 and the data written in the information database 123 (step S13).

図8は、配信データ生成部124にて生成される配信データの一構成例である。   FIG. 8 is a configuration example of distribution data generated by the distribution data generation unit 124.

図8に示すように配信データ401は、当該配信データが配信される携帯通信端末103の宛先情報と、対象物情報と、位置情報とから構成されている。   As shown in FIG. 8, the distribution data 401 includes destination information, object information, and position information of the mobile communication terminal 103 to which the distribution data is distributed.

例えば、センサ情報受信部121にて受信された情報に、アンテナ142−2を介してICタグリーダ141によって読み取られたICタグ204−1に書き込まれた情報が存在する場合、図5に示した情報データベース123に格納されているフィールド情報1231に基づいて、アンテナ142−2はA−2の位置に埋め込まれているものであると判断され、また、情報データベース123に格納されている競技者情報1232に基づいて、ICタグ204−1は選手203−1に装着されているものであると判断される。   For example, when the information received by the sensor information receiving unit 121 includes information written in the IC tag 204-1 read by the IC tag reader 141 via the antenna 142-2, the information shown in FIG. Based on the field information 1231 stored in the database 123, the antenna 142-2 is determined to be embedded at the position A-2, and the player information 1232 stored in the information database 123 is determined. Based on the above, it is determined that the IC tag 204-1 is attached to the player 203-1.

その結果、選手203−1は競技フィールド201のA−2の位置に存在することが判明し、選手とその選手がいる位置との対応付けデータである配信データが生成される。他の選手203−2〜203−m、及びボール205についても同様に配信データが生成される。   As a result, it is found that the player 203-1 exists at the position A-2 of the competition field 201, and distribution data that is association data between the player and the position where the player is located is generated. Distribution data is similarly generated for the other players 203-2 to 203-m and the ball 205.

このとき、音声情報受信部122にて受信された音声情報が合成されても良い。音声情報については、競技場に設置されたマイク105によって拾われた音声が、画像配信サーバ102へ送信され、画像配信サーバ102の音声情報受信部122にて受信されたものとなる。   At this time, the voice information received by the voice information receiving unit 122 may be synthesized. As for the sound information, the sound picked up by the microphone 105 installed in the stadium is transmitted to the image distribution server 102 and received by the sound information receiving unit 122 of the image distribution server 102.

生成された配信データが、画像配信サーバ102からインターネット101を介して携帯通信端末103へ送信されると(ステップS14)、当該配信データは携帯通信端末103の送受信部131にて受信される(ステップS15)。   When the generated distribution data is transmitted from the image distribution server 102 to the mobile communication terminal 103 via the Internet 101 (step S14), the distribution data is received by the transmission / reception unit 131 of the mobile communication terminal 103 (step S14). S15).

ここで、配信データが画像配信サーバ102からインターネット101を介して携帯通信端末103へ配信される時間間隔は、特に限定しない。配信時間間隔を短くすればそれだけスムーズな動画が配信できるが、インターネット101上の配信データ量が増えてしまい、それに対して、配信時間間隔を長くすればインターネット上の配信データ量が減るが、スムーズな動画表示が実現できないのは言うまでもない。そのため、それらを考慮した配信時間間隔を任意で設定できるようにしておくと良い。   Here, the time interval at which the distribution data is distributed from the image distribution server 102 to the mobile communication terminal 103 via the Internet 101 is not particularly limited. If the delivery time interval is shortened, the smoother video can be delivered. However, the delivery data amount on the Internet 101 increases. On the other hand, if the delivery time interval is lengthened, the delivery data amount on the Internet decreases. Needless to say, it is not possible to achieve a stable video display. Therefore, it is preferable to be able to arbitrarily set a delivery time interval considering them.

送受信部131にて受信された配信データと、記憶部132に格納されている情報とに基づいて画像処理部133にて画像データが生成される(ステップS16)。   Image data is generated by the image processing unit 133 based on the distribution data received by the transmission / reception unit 131 and the information stored in the storage unit 132 (step S16).

図9は、図1に示した画像処理部133において生成される画像データの各要素を示す図である。   FIG. 9 is a diagram showing each element of the image data generated by the image processing unit 133 shown in FIG.

図9に示すように画像処理部133において生成される画像データの各要素は、画像配信サーバ102から送信された配信データに含まれる位置情報「A−2」と、同じく画像配信サーバ102から送信された配信データに含まれる対象物情報「203−1」と、記憶部132に予め格納されている競技場情報と、選手を表示する選手表示画像と、競技場の固定画像とが含まれている。   As shown in FIG. 9, each element of the image data generated in the image processing unit 133 is transmitted from the image distribution server 102 as well as the position information “A-2” included in the distribution data transmitted from the image distribution server 102. Object information “203-1” included in the distributed data, stadium information stored in advance in the storage unit 132, a player display image for displaying the player, and a fixed image of the stadium are included. Yes.

競技場情報は、図3にて説明したように、競技フィールド201を複数のエリアに分けて座標として表したものである。例えば、受信された配信データが選手203−1が競技フィールド201のA−2にいるという情報である場合、A−2という位置が競技フィールド201のどの位置にあたるのかという情報である。これにより選手203−1の画像が競技場のどの位置に表示されるのかが決定される。   As described with reference to FIG. 3, the stadium information is obtained by dividing the competition field 201 into a plurality of areas as coordinates. For example, when the received distribution data is information indicating that the player 203-1 is at A-2 of the competition field 201, the position A-2 corresponds to which position of the competition field 201. Thereby, it is determined at which position on the stadium the image of the player 203-1 is displayed.

表示される選手の画像は図7にて説明したように、対象物情報が選手203−1である選手の表示画像はアニメのキャラクターに予め設定されて記憶部132に格納されているため、対象物表示画像は記憶部132に格納されているアニメのキャラクターになり、背番号は「3」となる。   As shown in FIG. 7, the displayed player image is a player image whose target object information is the player 203-1, which is set in advance as an anime character and stored in the storage unit 132. The object display image is an animation character stored in the storage unit 132, and the spine number is “3”.

このように、他の選手203−2〜203−m、及びボール205についても、記憶部132に予め格納された情報に基づいて、表示する位置と対象物表示画像が決定される。   As described above, the positions to be displayed and the target object display image are also determined for the other players 203-2 to 203 -m and the ball 205 based on the information stored in advance in the storage unit 132.

上述した処理によって得られた画像データに、記憶部132に予め格納されている観客スタンドの背景や競技フィールド201自体の固定画像が合成され、合成された画像データが操作部134の操作によって表示部135にて表示される(ステップS17)。操作部134では、表示部135に表示される画像データの表示角度やクローズアップ等の操作が可能となっている。   A fixed image of the background of the spectator stand and the competition field 201 itself stored in advance in the storage unit 132 is combined with the image data obtained by the above-described processing, and the combined image data is displayed on the display unit by operating the operation unit 134. It is displayed at 135 (step S17). The operation unit 134 can perform operations such as a display angle and close-up of image data displayed on the display unit 135.

図10は、図1に示した表示部135に表示された画面の一例を示す図である。   FIG. 10 is a diagram illustrating an example of a screen displayed on the display unit 135 illustrated in FIG.

図10に示すように表示部135には、サッカーのラインや地面、コーナーの旗等の固定情報は予め格納されている固定画像情報であり、アニメのキャラクター及びボールは、画像配信サーバから送信された配信データに基づいた位置で予め設定された対象物表示画像であり、それらが合成されて表示されている。   As shown in FIG. 10, in the display unit 135, fixed information such as soccer lines, ground, and corner flags is fixed image information stored in advance, and anime characters and balls are transmitted from the image distribution server. The object display images are preset at positions based on the distribution data, and are combined and displayed.

表示される画面の移動やクローズアップについては、表示部135の下方に表示される矢印やアイコンをカーソルで指示することにより、可能となっている。また、試合中に選手の対象物表示画像等を変更したい場合に、現在の設定が変更できるように、表示部135に機能ボタンを表示させておき、その機能ボタンをカーソルによって押下することにより変更可能としても良い。   Movement and close-up of the displayed screen can be performed by pointing an arrow or icon displayed below the display unit 135 with a cursor. Also, if you want to change the player's object display image etc. during the match, display the function button on the display unit 135 so that the current setting can be changed, and change it by pressing the function button with the cursor. It may be possible.

このように、選手203−1〜203−m及びボール205の移動の情報のみが配信され、携帯通信端末103の小さな表示画面では表示されても認識し辛い細かな動作については配信されないため、携帯通信端末103に必要な最低限の画面表示となり、余分なデータの送信によるネットワーク上の帯域の使用を抑えることができる。   In this way, only the movement information of the players 203-1 to 203-m and the ball 205 is distributed, and detailed operations that are difficult to recognize even if displayed on the small display screen of the mobile communication terminal 103 are not distributed. The minimum screen display necessary for the communication terminal 103 is provided, and the use of bandwidth on the network due to transmission of extra data can be suppressed.

また、他の実施の形態として、競馬場で行われているレースの動画が携帯通信端末103に配信される場合を例に挙げる。   Further, as another embodiment, a case where a moving image of a race being performed on a racetrack is distributed to the mobile communication terminal 103 will be described as an example.

図11は、配信される競馬が行われる競馬場の競技フィールドに取り付けられたICタグリーダと、馬に取り付けられたICタグを示す図である。   FIG. 11 is a diagram showing an IC tag reader attached to a competition field of a racetrack where a distributed horse race is performed, and an IC tag attached to the horse.

図11に示すように、競技フィールド501には、馬が疾走するトラックの内側の柵に等間隔でアンテナ502−1〜502−xが取り付けられている。取り付けられているアンテナ502−1〜502−xは、ICタグリーダ(不図示)に接続されており、ICタグリーダは図1に示したセンサ情報受信部121に接続されている。また、馬503−1〜503−yにはICタグ504−1〜504−yがそれぞれ取り付けられている。   As shown in FIG. 11, in the competition field 501, antennas 502-1 to 502-x are attached at equal intervals to a fence inside a track on which a horse runs. The attached antennas 502-1 to 502-x are connected to an IC tag reader (not shown), and the IC tag reader is connected to the sensor information receiving unit 121 shown in FIG. Further, IC tags 504-1 to 504-y are respectively attached to the horses 503-1 to 503-y.

配信データの配信方法については、上述したサッカーの試合の場合と同様である。   About the delivery method of delivery data, it is the same as that of the case of the soccer game mentioned above.

また、サッカーの試合の場合と同様に、表示部135に表示される馬は、実際に競技フィールド501を疾走している馬503−1〜503−yが表示される必要は無く、記憶部132に予め格納されたアニメの馬の絵等が表示されるものであっても良い。この場合、アニメの馬の絵等を、情報データベース123や他のサイトから記憶部132に予めダウンロードしておく必要がある。記憶部132にダウンロードされたアニメの馬の絵が操作部134によって選択されて表示部135に表示されても良い。   Similarly to the case of a soccer game, the horses displayed on the display unit 135 are not necessarily displayed as the horses 503-1 to 503-y that are actually running in the competition field 501, and the storage unit 132. It is also possible to display an animation horse picture or the like stored in advance. In this case, it is necessary to download an animation horse picture or the like from the information database 123 or another site to the storage unit 132 in advance. The animated horse picture downloaded to the storage unit 132 may be selected by the operation unit 134 and displayed on the display unit 135.

図11に示した例では、等間隔に設置されたアンテナ502−1〜502−xを介してICタグリーダによってICタグ504−1〜504−yが読み取られることにより、各馬の速度が検出でき、検出された速度が表示される等の付加価値情報が得られる。   In the example shown in FIG. 11, the speed of each horse can be detected by reading the IC tags 504-1 to 504-y by the IC tag reader through the antennas 502-1 to 502-x installed at equal intervals. Value-added information such as the detected speed being displayed is obtained.

なお、上述して例では、センサとしてICタグ及びICタグリーダを使用した場合を例に挙げて説明したが、これに限らず赤外線センサ等、対象物の動きを認識できるものであれば良い。   In the above-described example, the case where an IC tag and an IC tag reader are used as the sensor has been described as an example. However, the present invention is not limited thereto, and any sensor that can recognize the movement of an object such as an infrared sensor may be used.

また、上述した処理は、その機能を実現するためのプログラムを携帯通信端末103の記憶部132に格納し、この記録部132に格納されたプログラムが画像処理部133によって実行されるものであるため、機能の追加や変更が発生した場合であっても、ハードウェアを交換することなく、ソフトウェアのダウンロードのみで対応が可能となる。記憶部132は、携帯通信端末103が有するメモリであっても良いし、携帯通信端末103に装着でき、且つ移動可能な記憶媒体であっても良い。   In the above-described processing, a program for realizing the function is stored in the storage unit 132 of the mobile communication terminal 103, and the program stored in the recording unit 132 is executed by the image processing unit 133. Even when a function is added or changed, it is possible to cope with it by only downloading the software without replacing the hardware. The storage unit 132 may be a memory included in the mobile communication terminal 103 or a storage medium that can be attached to the mobile communication terminal 103 and is movable.

本発明の動画提供システムの実施の一形態を示す図である。It is a figure which shows one Embodiment of the moving image provision system of this invention. ICタグリーダが使用された場合の図1に示したセンサの構成を示す図である。It is a figure which shows the structure of the sensor shown in FIG. 1 at the time of using an IC tag reader. 動画として配信されるサッカーの試合が行われる競技フィールドに取り付けられたアンテナと、選手及びボールに取り付けられたICタグとを示す図である。It is a figure which shows the antenna attached to the competition field where the soccer game delivered as a moving image is performed, and the IC tag attached to the player and the ball. 図3に示した競技フィールドにおけるアンテナを介してICタグリーダがICタグを検出できる範囲を示す図である。It is a figure which shows the range which an IC tag reader can detect an IC tag via the antenna in the competition field shown in FIG. 図2に示したサッカーの試合の動画を配信する場合の図1に示した情報データベースの構成例を示す図である。It is a figure which shows the structural example of the information database shown in FIG. 1 in the case of distributing the moving image of the soccer game shown in FIG. 図2に示した競技フィールドにて図1に示した動画提供システムが適用された場合における動画提供方法を説明するためのシーケンス図である。It is a sequence diagram for demonstrating the moving image provision method in case the moving image provision system shown in FIG. 1 is applied in the competition field shown in FIG. 選手を表示する画像を選択するための対象物画像情報が表示された表示部を示す。The display part on which the target object image information for selecting the image which displays a player is displayed is shown. 配信データ生成部にて生成される配信データの一構成例である。It is an example of 1 structure of the delivery data produced | generated in a delivery data production | generation part. 図1に示した画像処理部において生成される画像データの各要素を示す図である。It is a figure which shows each element of the image data produced | generated in the image process part shown in FIG. 図1に示した表示部に表示された画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part shown in FIG. 配信される競馬が行われる競馬場の競技フィールドに取り付けられたICタグリーダと、馬に取り付けられたICタグを示す図である。It is a figure which shows the IC tag reader attached to the competition field of the racetrack where the delivered horse race is performed, and the IC tag attached to the horse.

符号の説明Explanation of symbols

101 インターネット
102 画像配信サーバ
103 携帯通信端末
104 センサ
105 マイク
121 センサ情報受信部
122 音声情報受信部
123 情報データベース
124 配信データ生成部
125 認証部
131 送受信部
132 記憶部
133 画像処理部
134 操作部
135 表示部
136 音声出力部
141 ICタグリーダ
142−1〜142−n,502−1〜502−x アンテナ
201,501 競技フィールド
203−1〜203−m 選手
204−1〜204−m,206,504−1〜504−y ICタグ
205 ボール
301−1〜301−2 検出範囲
401 配信データ
503−1〜503−y 馬
1231 フィールド情報
1232 競技者情報
1233 固定画像情報
1234 ユーザ情報
DESCRIPTION OF SYMBOLS 101 Internet 102 Image delivery server 103 Portable communication terminal 104 Sensor 105 Microphone 121 Sensor information receiving part 122 Voice information receiving part 123 Information database 124 Distribution data generation part 125 Authentication part 131 Transmission / reception part 132 Storage part 133 Image processing part 134 Operation part 135 Display Part 136 Audio output part 141 IC tag reader 142-1 to 142-n, 502-1 to 502-x Antenna 201,501 Competition field 203-1 to 203-m Players 204-1 to 204-m, 206, 504-1 ~ 504-y IC tag 205 Ball 301-1-301-2 Detection range 401 Distribution data 503-1 ~ 503-y Horse 1231 Field information 1232 Athlete information 1233 Fixed image information 1234 User information

Claims (19)

所定の領域内における移動対象物の動画情報を提供する動画提供システムであって、
前記領域内において前記移動対象物を検出するセンサと、
前記センサにて検出された前記移動対象物を示す対象物情報と、前記センサにて前記移動対象物が検出された位置を示す位置情報とを配信するサーバと、
前記サーバから配信されてきた前記対象物情報及び前記位置情報と、該対象物情報に対応づけられた対象物画像情報と、前記領域内における固定画像情報とを用いて動画データを生成し、表示出力する端末とを有する動画提供システム。
A video providing system that provides video information of a moving object in a predetermined area,
A sensor for detecting the moving object in the region;
A server that distributes object information indicating the moving object detected by the sensor and position information indicating a position where the moving object is detected by the sensor;
Generate and display moving image data using the object information and position information distributed from the server, object image information associated with the object information, and fixed image information in the area A moving image providing system having a terminal for outputting.
請求項1に記載の動画提供システムにおいて、
前記サーバは、前記対象物情報を特定可能な第1の識別情報を該対象物情報と対応づけて管理するとともに、前記位置情報を特定可能な第2の識別情報を該位置情報と対応づけて管理し、前記センサから前記第1の識別情報と前記第2の識別情報とが与えられた場合、前記第1の識別情報によって特定される前記対象物情報と、前記第2の識別情報によって特定される前記位置情報とを配信することを特徴とする動画提供システム。
The moving image providing system according to claim 1,
The server manages first identification information that can identify the object information in association with the object information, and associates second identification information that can identify the position information with the position information. When the first identification information and the second identification information are given from the sensor, the object information specified by the first identification information and the second identification information are specified. The moving image providing system for distributing the position information to be distributed.
請求項1または請求項2に記載の動画提供システムにおいて、
前記端末は、1つの対象物情報に対応づけて前記対象物画像情報を複数有し、前記サーバから前記対象物情報が配信されてきた場合、該対象物情報に対応づけられた対象物画像情報のうち指定された対象物画像情報を用いて前記動画データを生成することを特徴とする動画提供システム。
In the moving image providing system according to claim 1 or 2,
The terminal has a plurality of the object image information associated with one object information, and when the object information is distributed from the server, the object image information associated with the object information The moving image providing system, wherein the moving image data is generated using the specified object image information.
請求項1に記載の動画提供システムにおいて、
前記サーバは、
前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有し、
前記端末は、
前記対象物情報と前記対象物画像情報とを対応付けて管理するとともに、前記固定画像情報を管理する記憶手段と、
前記位置情報と前記対象物画像情報と前記固定画像情報とを用いて前記動画データを生成する画像処理手段と、
前記動画データを表示する表示手段とを有することを特徴とする動画提供システム。
The moving image providing system according to claim 1,
The server
Sensor information receiving means for receiving information detected by the sensor;
Distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information;
The terminal
Storage means for managing the object information and the object image information in association with each other, and managing the fixed image information;
Image processing means for generating the moving image data using the position information, the object image information, and the fixed image information;
A moving image providing system comprising display means for displaying the moving image data.
請求項2に記載の動画提供システムにおいて、
前記サーバは、
前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記第1の識別情報と前記対象物情報とを対応付けて管理するとともに、前記第2の識別情報と前記位置情報とを対応付けて管理するデータベースと、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有し、
前記端末は、
前記対象物情報と前記対象物画像情報とを対応付けて管理するとともに、前記固定画像情報を管理する記憶手段と、
前記位置情報と前記対象物画像情報と前記固定画像情報とを用いて前記動画データを生成する画像処理手段と、
前記動画データを表示する表示手段とを有することを特徴とする動画提供システム。
The moving image providing system according to claim 2,
The server
Sensor information receiving means for receiving information detected by the sensor;
A database that manages the first identification information and the object information in association with each other, and manages the second identification information and the position information in association with each other;
Distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information;
The terminal
Storage means for managing the object information and the object image information in association with each other, and managing the fixed image information;
Image processing means for generating the moving image data using the position information, the object image information, and the fixed image information;
A moving image providing system comprising display means for displaying the moving image data.
請求項1乃至5のいずれか1項に記載の動画提供システムにおいて、
前記センサは、複数の受信アンテナを有するICタグリーダであることを特徴とする動画提供システム。
The moving image providing system according to any one of claims 1 to 5,
The moving image providing system, wherein the sensor is an IC tag reader having a plurality of receiving antennas.
請求項2または請求項5に記載の動画提供システムにおいて、
前記センサは、複数のアンテナを有するICタグリーダであり、
前記第1の識別情報は、前記移動対象物に装着されたICタグが有する固有の情報であり、
前記第2の識別情報は、前記アンテナが有する固有の情報であることを特徴とする動画提供システム。
In the moving image providing system according to claim 2 or 5,
The sensor is an IC tag reader having a plurality of antennas,
The first identification information is unique information that an IC tag attached to the moving object has,
The moving image providing system, wherein the second identification information is unique information of the antenna.
画像を表示する端末へインターネットを介して、センサによって検出された移動対象物の動画情報を生成するための動画生成情報を配信するサーバであって、
前記センサにて検出された前記移動対象物を示す対象物情報と、前記センサにて前記移動対象物が検出された位置を示す位置情報とを前記端末へ配信するサーバ。
A server that distributes moving image generation information for generating moving image information of a moving object detected by a sensor to a terminal that displays an image via the Internet,
A server that delivers object information indicating the moving object detected by the sensor and position information indicating a position where the moving object is detected by the sensor to the terminal.
請求項8に記載のサーバにおいて、
前記対象物情報を特定可能な第1の識別情報を該対象物情報と対応づけて管理するとともに、前記位置情報を特定可能な第2の識別情報を該位置情報と対応づけて管理し、前記センサから前記第1の識別情報と前記第2の識別情報とが与えられた場合、前記第1の識別情報によって特定される前記対象物情報と、前記第2の識別情報によって特定される前記位置情報とを配信することを特徴とするサーバ。
The server according to claim 8, wherein
Managing the first identification information that can identify the object information in association with the object information, and managing the second identification information that can identify the position information in association with the position information, When the first identification information and the second identification information are given from a sensor, the object information specified by the first identification information and the position specified by the second identification information A server characterized by distributing information.
請求項8に記載のサーバにおいて、
前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有することを特徴とするサーバ。
The server according to claim 8, wherein
Sensor information receiving means for receiving information detected by the sensor;
A server comprising distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information.
請求項9に記載のサーバにおいて、
前記センサにて検出された情報を受信するセンサ情報受信手段と、
前記第1の識別情報と前記対象物情報とを対応付けて管理するとともに、前記第2の識別情報と前記位置情報とを対応付けて管理するデータベースと、
前記対象物情報と前記位置情報とを用いて前記端末へ配信する配信データを生成する配信データ生成手段を有することを特徴とするサーバ。
The server according to claim 9, wherein
Sensor information receiving means for receiving information detected by the sensor;
A database that manages the first identification information and the object information in association with each other, and manages the second identification information and the position information in association with each other;
A server comprising distribution data generation means for generating distribution data to be distributed to the terminal using the object information and the position information.
請求項9または請求項11に記載のサーバにおいて、
前記第1の識別情報は、前記移動対象物に装着されたICタグが有する固有の情報であり、
前記第2の識別情報は、前記ICタグに書き込まれた情報を読み取るICタグリーダが有するアンテナが有する固有の情報であることを特徴とするサーバ。
In the server according to claim 9 or claim 11,
The first identification information is unique information that an IC tag attached to the moving object has,
The server, wherein the second identification information is unique information of an antenna included in an IC tag reader that reads information written on the IC tag.
インターネットを介して、サーバから送信された所定の領域内における移動対象物の対象物情報と位置情報とに基づいて画像を表示する端末であって、
前記サーバから配信されてきた前記対象物情報及び前記位置情報と、該対象物情報に対応づけられた対象物画像情報と、前記領域内における固定画像情報とを用いて動画データを生成し、表示出力する端末。
A terminal that displays an image based on object information and position information of a moving object in a predetermined area transmitted from a server via the Internet,
Generate and display moving image data using the object information and position information distributed from the server, object image information associated with the object information, and fixed image information in the area The terminal to output.
請求項13に記載の端末において、
1つの対象物情報に対応づけて前記対象物画像情報を複数有し、前記サーバから前記対象物情報が配信されてきた場合、該対象物情報に対応づけられた対象物画像情報のうち指定された対象物画像情報を用いて前記動画データを生成することを特徴とする端末。
The terminal according to claim 13,
When there is a plurality of the object image information associated with one object information and the object information is distributed from the server, the object image information specified in the object image information associated with the object information is designated. The moving image data is generated using the target object image information.
請求項13または請求項14に記載の端末において、
前記対象物情報と前記対象物画像情報とを対応付けて管理するとともに、前記固定画像情報を管理する記憶手段と、
前記位置情報と前記対象物画像情報と前記固定画像情報とを用いて前記動画データを生成する画像処理手段と、
前記動画データを表示する表示手段とを有することを特徴とする端末。
The terminal according to claim 13 or 14,
Storage means for managing the object information and the object image information in association with each other, and managing the fixed image information;
Image processing means for generating the moving image data using the position information, the object image information, and the fixed image information;
And a display means for displaying the moving image data.
配信する動画の移動対象物を検出するセンサ及びデータベースを有し、前記センサによって検出された移動対象物の動画情報を生成するための動画生成情報を配信するサーバと、該サーバとインターネットを介して接続された端末とを有する動画提供システムにおける動画提供方法であって、
前記サーバにて、前記センサにて検出された前記移動対象物を示す対象物情報と、前記センサにて前記移動対象物が検出された位置を示す位置情報とを配信する処理と、
前記端末にて、前記サーバから配信されてきた前記対象物情報及び前記位置情報と、該対象物情報に対応づけられた対象物画像情報と、前記領域内における固定画像情報とを用いて動画データを生成する処理と、
前記動画データを表示出力する処理とを有する動画提供方法。
A server for detecting a moving object of a moving image to be distributed and a database; a server for distributing moving image generation information for generating moving image information of the moving object detected by the sensor; and the server and the Internet A video providing method in a video providing system having a connected terminal,
In the server, processing for distributing object information indicating the moving object detected by the sensor and position information indicating a position where the moving object is detected by the sensor;
Movie data using the object information and the position information distributed from the server, object image information associated with the object information, and fixed image information in the area at the terminal Processing to generate
A moving image providing method comprising: processing for displaying and outputting the moving image data.
請求項16に記載の動画提供方法において、
前記サーバにて、前記対象物情報を特定可能な第1の識別情報を該対象物情報と対応づけて管理する処理と、
前記位置情報を特定可能な第2の識別情報を該位置情報と対応づけて管理する処理と、
前記センサから前記第1の識別情報と前記第2の識別情報とが与えられた場合、前記第1の識別情報によって特定される前記対象物情報と、前記第2の識別情報によって特定される前記位置情報とを配信する処理とを有することを特徴とする動画提供方法。
The moving image providing method according to claim 16,
In the server, a process of managing first identification information capable of specifying the object information in association with the object information;
A process of managing second identification information capable of specifying the position information in association with the position information;
When the first identification information and the second identification information are given from the sensor, the object information identified by the first identification information and the object identified by the second identification information A moving image providing method comprising: processing for distributing position information.
請求項16または請求項17に記載の動画提供方法において、
前記端末にて、1つの対象物情報に対応づけて前記対象物画像情報を複数有し、前記サーバから前記対象物情報が配信されてきた場合、該対象物情報に対応づけられた対象物画像情報のうち指定された対象物画像情報を用いて前記動画データを生成する処理を有することを特徴とする動画提供方法。
The moving image providing method according to claim 16 or 17,
When the terminal has a plurality of the object image information associated with one object information and the object information is distributed from the server, the object image associated with the object information A moving image providing method comprising: generating the moving image data using specified object image information in the information.
コンピュータに、
前記コンピュータにて受信された配信データと前記コンピュータに予め格納された固定的な情報である固定画像情報とに基づいて動画データを生成する手順と、
前記動画データを前記コンピュータにて表示する手順とを実行させるためのプログラム。
On the computer,
Generating moving image data based on distribution data received by the computer and fixed image information that is fixed information stored in advance in the computer;
A program for executing the procedure of displaying the moving image data on the computer.
JP2005335514A 2005-11-21 2005-11-21 Motion picture providing system, server, terminal, image providing method, and program Pending JP2007142925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005335514A JP2007142925A (en) 2005-11-21 2005-11-21 Motion picture providing system, server, terminal, image providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005335514A JP2007142925A (en) 2005-11-21 2005-11-21 Motion picture providing system, server, terminal, image providing method, and program

Publications (1)

Publication Number Publication Date
JP2007142925A true JP2007142925A (en) 2007-06-07

Family

ID=38205223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005335514A Pending JP2007142925A (en) 2005-11-21 2005-11-21 Motion picture providing system, server, terminal, image providing method, and program

Country Status (1)

Country Link
JP (1) JP2007142925A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011527527A (en) * 2008-06-18 2011-10-27 リヴゼイ,カール Tag product information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265562A (en) * 1999-12-30 2001-09-28 Nokia Corp Real time communication of sport event
JP2002077840A (en) * 2000-08-30 2002-03-15 Toshiba Corp Communication terminal
JP2002094952A (en) * 2000-07-13 2002-03-29 Sony Corp Digital broadcast signal processing unit and digital broadcast signal transmission method
JP2003289465A (en) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd Imaging system and imaging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265562A (en) * 1999-12-30 2001-09-28 Nokia Corp Real time communication of sport event
JP2002094952A (en) * 2000-07-13 2002-03-29 Sony Corp Digital broadcast signal processing unit and digital broadcast signal transmission method
JP2002077840A (en) * 2000-08-30 2002-03-15 Toshiba Corp Communication terminal
JP2003289465A (en) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd Imaging system and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011527527A (en) * 2008-06-18 2011-10-27 リヴゼイ,カール Tag product information

Similar Documents

Publication Publication Date Title
US10518169B2 (en) Interactive entertainment using a mobile device with object tagging and/or hyperlinking
KR102194222B1 (en) Event enhancement using augmented reality effects
JP4884918B2 (en) Virtual space providing server, virtual space providing system, and computer program
US10272340B2 (en) Media system and method
JP5451304B2 (en) Electronic signboard display control device, electronic signboard display control method, and electronic signboard display control program
CN104066486A (en) Information processing device and information processing system
CN114125483B (en) Event popup display method, device, equipment and medium
JP2000024324A (en) Portable data storage device, game apparatus with image display function and data communication system
CN115920382A (en) Transaction method of derivative entity, related device, equipment and storage medium
CN114302160B (en) Information display method, device, computer equipment and medium
KR20120007590A (en) System for sharing picture of sport, server thereof, terminal thereof, method thereof and computer recordable medium storing the method
US8483435B2 (en) Information processing device, information processing system, information processing method, and information storage medium
KR20110045397A (en) Mobile service method using logo and mobile communication device using the same
JP2007142925A (en) Motion picture providing system, server, terminal, image providing method, and program
KR101943554B1 (en) Method and server for providing sports game information
JP7212721B2 (en) Program, information processing method, information processing apparatus, and system
JP7434202B2 (en) Program, information processing method, information processing device, and system
JP6896932B1 (en) Programs, information processing methods, information processing devices, and systems
CN113658544A (en) Interactive induction system of LED floor tile screen and control method thereof
CN112973116A (en) Virtual scene picture display method and device, computer equipment and storage medium
JP7303845B2 (en) Program, information processing method, information processing apparatus, and system
JP7244768B2 (en) System, Server and Program
JP6849851B2 (en) Shooting system, shooting device and user shooting method
JP6934552B1 (en) Programs, information processing methods, information processing devices, and systems
WO2021044851A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111206