JP7282519B2 - Image processing device or image processing server - Google Patents

Image processing device or image processing server Download PDF

Info

Publication number
JP7282519B2
JP7282519B2 JP2018247191A JP2018247191A JP7282519B2 JP 7282519 B2 JP7282519 B2 JP 7282519B2 JP 2018247191 A JP2018247191 A JP 2018247191A JP 2018247191 A JP2018247191 A JP 2018247191A JP 7282519 B2 JP7282519 B2 JP 7282519B2
Authority
JP
Japan
Prior art keywords
information
player
metadata
server
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018247191A
Other languages
Japanese (ja)
Other versions
JP2020107196A (en
Inventor
武弘 吉田
雄資 白川
裕介 春山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018247191A priority Critical patent/JP7282519B2/en
Publication of JP2020107196A publication Critical patent/JP2020107196A/en
Application granted granted Critical
Publication of JP7282519B2 publication Critical patent/JP7282519B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は撮影や映像モニターのための画像処理装置等に関するものである。 The present invention relates to an image processing apparatus and the like for photographing and video monitoring.

近年、国際化が進み、多くの観光客が日本を訪問するようになっている。また、競技スポーツにおいても、様々な国の選手の撮影機会が大幅に増加している。 In recent years, as internationalization advances, many tourists are visiting Japan. Also, in competitive sports, opportunities for photographing athletes from various countries have increased significantly.

しかしプロカメラマンにとっても、一般の写真を撮影する人にとっても、例えば競技スポーツシーンにおいて多数の選手の中から特定の選手を見つけることは比較的難しい。また、特に競技スポーツにおける競技中は動きが速く複数の選手が交錯し選手のいる場所を見失うことが多々ある。これは、競技スポーツに限らず雑踏の中から特定の人物等を撮影したりモニターしたりする場合でも同じことが言える。 However, it is relatively difficult for both professional photographers and ordinary photographers to find a particular athlete from among a large number of athletes in, for example, a competitive sports scene. In addition, it is often the case that a plurality of athletes move quickly during a competition in a competitive sport, and the location of the athlete is often lost. The same applies not only to competitive sports, but also to the case of photographing or monitoring a specific person in a crowd.

特許文献1には、被写体を複数の方向から撮影するための複数のカメラと、前記複数のカメラのうち対応するカメラによる撮影画像から所定領域を抽出する複数の画像処理装置が記載されている。また、前記複数の画像処理装置により前記複数のカメラによる撮影画像から抽出された所定領域の画像データに基づいて仮想視点画像を生成する画像生成装置が記載されている。
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
Patent Literature 1 describes a plurality of cameras for photographing a subject from a plurality of directions, and a plurality of image processing devices for extracting predetermined regions from images captured by corresponding cameras among the plurality of cameras. Also, an image generation device is described that generates a virtual viewpoint image based on image data of a predetermined region extracted from images captured by the plurality of cameras by the plurality of image processing devices.
Patent Document 2 describes an automatic focus detection device that drives a focus lens based on an AF evaluation value obtained from a captured image and performs automatic focus detection control.

特開2017-211828号公報JP 2017-211828 A 特許第5322629号明細書Patent No. 5322629

しかしながら、スポーツシーンなど、多くの選手が集まっている場合などでは、選手が重なってしまったりして、見失ったりすることがある。また視野から外れることもあり、適切なタイミングで選手を撮影するのはより難しかった。
さらに、最近は、カメラマンが写真を撮影した時のメモを例えば音声で写真に関連付けて残すことが多い。しかし、撮影の意図をメタデータ情報として残した場合に、他のメタデータと連携して残すことができないという欠点があった。また、試合の進み方によっては、カメラマンの撮影時のメモ内容と異なる結果になってしまうことがあった。この場合、カメラマンの撮影の意図とずれたメタデータのメモがそのまま、残ってしまうという課題もあった。
However, in a sports scene where many players are gathered, the players may be overlapped and lost. It also made it more difficult to capture the players at the right time, as they were often out of view.
Furthermore, recently, when a photographer takes a picture, he/she often leaves a memo associated with the picture, for example, by voice. However, there is a drawback that when the intention of shooting is left as metadata information, it cannot be left in cooperation with other metadata. In addition, depending on how the game progresses, the result may differ from the contents of the memos taken by the cameraman. In this case, there is also a problem that the memo of the metadata that is different from the intention of the cameraman's shooting is left as it is.

また、特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、判定結果が分からないと判定の認識に時間をとられてしまうという欠点があった。さらに、撮影したい選手を見つけても、その選手へのフォーカスを合わせた後に、その撮影したい選手を追いかけていかないといけなかった。これは、動きの速いスポーツでは、とても難しく、また、この追いかけることに集中していると、良い写真の撮影ができないということになってしまうという欠点があった。 Moreover, in particular, professional photographers need to immediately send the photographs they have taken to news bureaus or the like. Furthermore, even if I found a player I wanted to shoot, I had to focus on that player and then chase after the player I wanted to shoot. This is very difficult in fast-moving sports, and has the drawback of not being able to take good pictures if you are concentrating on this chasing.

またサーバー側では、全方位の映像、試合や競技のフィールドの各種情報を把握することができ、グランド内外の各種の貴重な情報も入手することができるが、従来のシステムではサーバーの活用が十分でないという問題があった。
同様に、競技場や自宅の端末で競技をモニターしている一般ユーザーにとっても特定の選手を見失ったり競技の状況がわからなくなったりする場合が多かった。同様にカーレースや飛行機レースや競馬などにおいても特定の車両や飛行機や馬などの対象を見失ってしまうことがあった。更には特定の人物を街角で追跡する場合においても雑踏の中にその特定の人物が紛れてしまい見失うことがあった。また、そのような、注目している特定の対象を目視で追いかけることに専念しているとその対象に対する撮影やピント合わせや露出調整などをスムーズにできないという問題があった。
In addition, on the server side, it is possible to grasp omnidirectional video and various information about the game and the field of competition, and it is possible to obtain various valuable information inside and outside the ground, but the conventional system does not make full use of the server. There was a problem that it was not
Similarly, there were many cases in which general users who were monitoring the game on stadiums or home terminals lost track of specific athletes or lost track of the game. Similarly, in car races, airplane races, horse races, and the like, there are times when a specific vehicle, airplane, horse, or the like is lost. Furthermore, when tracking a specific person on a street corner, the specific person may get lost in the crowd and be lost. In addition, there is a problem that if the user is concentrating on visually following such a specific object of interest, shooting, focusing, exposure adjustment, etc. for the object cannot be performed smoothly.

また、プロカメラマンは、メタデータを画像に追加する場合が多いが、作業が煩雑で、時間をとられてしまうとともにメモの内容の正確性が劣る場合があった。さらに、あるタイミングでのメタデータは、時間の経過とともに修正、変更すべきケースがあるが、メタデータの変更が容易にできないという問題があった。
本発明は、上記、課題を解決し、有益な情報をタイムリーに付加でき、適宜修正できる画像処理装置を提供することを目的とする。
Moreover, professional photographers often add metadata to images, but the task is complicated and time-consuming, and the accuracy of the contents of the memos may be poor. Furthermore, there are cases where metadata at a certain timing should be corrected or changed over time, but there is a problem that the metadata cannot be changed easily.
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems and to provide an image processing apparatus capable of adding useful information in a timely manner and correcting it as appropriate.

画像処理装置において、
画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報及び前記サーバーにおいて作成された所定のメタデータを取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づく付加情報または前記メタデータに関する情報を前記表示手段に表示する制御手段、
を有することを特徴とする。
In the image processing device,
display means for displaying an image;
selection means for selecting a specific target from among the images displayed on the display means;
Designation information generation means for generating designation information regarding the specific target selected by the selection means;
transmitting means for transmitting the specified information generated by the specified information generating means to a server;
Acquisition means for acquiring location information of the specific target based on the specified information from the server and predetermined metadata created in the server;
Control means for displaying additional information based on the position information of the specific target acquired by the acquisition means or information related to the metadata on the display means;
characterized by having

本発明によれば、有益な情報をタイムリーに付加でき、適宜修正できる画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus capable of adding useful information in a timely manner and correcting it appropriately.

実施例の画像処理装置を含むシステム全体のブロック図である。1 is a block diagram of an entire system including an image processing apparatus of an embodiment; FIG. サーバー側のブロック図である。It is a block diagram on the server side. 端末側の詳細ブロック図である。3 is a detailed block diagram of the terminal side; FIG. 端末側の詳細ブロック図である。3 is a detailed block diagram of the terminal side; FIG. 端末側の追跡部371の機能構成例を示すブロック図である。3 is a block diagram showing a functional configuration example of a tracking unit 371 on the terminal side; FIG. 注目選手表示開始シーケンスの一例を示す図である。FIG. 10 is a diagram showing an example of a player-of-interest display start sequence; 注目選手表示開始シーケンスの他の例を示す図である。FIG. 13 is a diagram showing another example of a player-of-interest display start sequence; ファイルの構造の例を示す図である。FIG. 4 is a diagram showing an example of a file structure; カメラ側の制御の例を示すフローチャートである。4 is a flow chart showing an example of control on the camera side; カメラ側の着目選手表示追跡制御の例を示すフローチャートである。10 is a flowchart showing an example of player-of-interest display tracking control on the camera side; カメラ側の着目選手表示追跡制御の例を示すフローチャートである。10 is a flowchart showing an example of player-of-interest display tracking control on the camera side; サーバー側における注目選手の検出制御の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a player-of-interest detection control on the server side; FIG. サーバー側における注目選手の検出制御の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a player-of-interest detection control on the server side; FIG. サーバー側における注目選手の検出制御の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a player-of-interest detection control on the server side; FIG. サーバー側における注目選手の検出制御の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a player-of-interest detection control on the server side; FIG. サーバー側における注目選手の検出制御の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a player-of-interest detection control on the server side; FIG. サーバー側における注目選手の検出制御の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a player-of-interest detection control on the server side; FIG. サーバー側におけるトライ判定制御の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of try determination control on the server side; FIG. サーバー側におけるトライ判定制御の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of try determination control on the server side; FIG. トライ有無判定の審判動作を示す図である。FIG. 10 is a diagram showing a refereeing operation for judging whether or not there is a try; サーバー側におけるトライ判定制御の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of try determination control on the server side; FIG. サーバー側におけるトライ判定制御の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of try determination control on the server side; FIG. カメラ等の端末側のトライ判定制御の例を示すフローチャートである。10 is a flowchart showing an example of try determination control on a terminal side such as a camera; カメラ等の端末側の反則判定制御の例を示すフローチャートである。4 is a flowchart showing an example of foul determination control on a terminal side such as a camera;

以下本発明を実施するための形態につき、実施例を用いて説明をする。 Modes for carrying out the present invention will be described below using examples.

最初に実施例1における、撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。図1は実施例の画像処理装置を含むシステム全体のブロック図である。 First, an overview of a system using an image processing device for supporting shooting and video monitoring in Embodiment 1 will be described with reference to FIG. FIG. 1 is a block diagram of the entire system including the image processing apparatus of the embodiment.

図1において、サーバー用の複数台のカメラ(固定カメラやドローンなどを用いた移動カメラ)を有するサーバー(画像処理サーバー)側が、競技場のフィールド全体における注目選手(特定の対象)の位置やゲームの最新の状況をリアルタイムで把握する。そして、サーバーが、個々の観客が持っている端末に対して、例えばカメラ撮影や画像のモニターの際に必要な情報をタイムリーに提供する例を示す。 In Figure 1, the server (image processing server) side, which has multiple cameras for the server (fixed cameras and mobile cameras using drones, etc.), can determine the position of the player of interest (specific target) in the entire field of the stadium and the game. to grasp the latest situation in real time. Then, an example is shown in which the server timely provides necessary information, for example, for camera shooting or image monitoring, to the terminal held by each spectator.

一般にプロカメラマンや一般の写真撮影者がカメラで撮影している角度や視野では分からないあるいは追えない場所が存在することが多い。競技場外にいて撮影をしていない観客にとっても同様である。一方、サーバー側のシステムでは、複数のサーバー用のカメラの映像をもとに全方位の映像、試合のフィールド全体の情報(フィールドの座標情報等)をあらかじめ把握しマッピングができる。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
In general, there are many places that cannot be seen or tracked by the angles and fields of view taken by professional photographers and general photographers. The same is true for spectators outside the stadium who are not filming. On the other hand, in the server-side system, it is possible to grasp and map in advance omnidirectional images and information on the entire game field (field coordinate information, etc.) based on images from multiple server cameras.
Therefore, the server grasps and distributes information that is invisible and difficult for each user to understand, so that the service to the audience can be greatly improved.

即ち、サーバー用の複数台のカメラ(固定カメラや移動カメラ)で、各選手の位置、得点、反則、審判の判断結果、その他の最新状況を追いかけたりすることができる。また大型スクリーンなどに表示され情報を基にして、サーバーで解析したりすることもできる。それにより全体の状況を正確に認識して、プロカメラマンや観客が保有するカメラ端末等やスマートフォンやタブレット等の端末にタイムリーに送信することができる。それにより、観客は競技の最新の状況をタイムリーに把握することが可能となる。特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、カメラの画面を見ているだけでは視野が狭いので競技の全体の状況などが正確に把握しにくい。しかし、本実施例のような構成を用いれば、競技の状況などが速やかに分かるので、報道局などに送る写真の選択を素早く行うことが可能となる。 That is, multiple cameras (fixed cameras and moving cameras) for the server can track the position of each player, scores, fouls, judgment results of referees, and other up-to-date situations. The information displayed on a large screen can also be analyzed by a server. As a result, the overall situation can be accurately recognized and timely transmitted to camera terminals, etc. owned by professional photographers and spectators, as well as terminals such as smartphones and tablets. As a result, the spectators can grasp the latest situation of the competition in a timely manner. In particular, professional photographers need to send the photos they have taken immediately to the news bureau, etc., but it is difficult to accurately grasp the overall situation of the competition just by looking at the camera screen because the field of view is narrow. However, by using the configuration of the present embodiment, the conditions of the game can be known quickly, so that it is possible to quickly select photographs to be sent to the news bureau or the like.

なお、プロカメラマンや観客が用いる端末(画像処理装置)としては、デジタルカメラ、スマートフォン、カメラとスマートフォンなどを接続した構成、タブレットPCあるいはTVなどが考えられる。家庭でインターネットやテレビ放送をPCやTV等の端末(画像処理装置)を通じて競技を見ている観客に対しても同様のサービスを提供することができるので競技などの状況をより正確に把握することができ競技をより楽しむことができる。 Terminals (image processing devices) used by professional photographers and spectators include a digital camera, a smart phone, a configuration in which a camera and a smart phone are connected, a tablet PC, a TV, and the like. A similar service can be provided to spectators who are watching the competition at home through a terminal (image processing device) such as a PC or TV through the Internet or television broadcasting, so that the situation of the competition can be grasped more accurately. You can enjoy the competition more.

図1において、101~103はサーバー用のカメラであり、101(固定設置されたカメラ1)、102(固定設置されたカメラ2)、103(固定設置されたカメラ3)、104(大型スクリーン)、110(サーバー)、111(入力手段)、112(基地局)は、一般のプロカメラマンや観客への情報提供をするための映像取得や音声取得などを行う。サーバー用カメラは、本実施形態では101~103の3台としたが、1台でも複数台でもよい。また、これらのサーバー用カメラは、固定設置されたカメラではなく例えばドローンなどに搭載されたカメラでもよい。映像取得、音声取得に加えて、入力手段から映像以外の入力情報(例えば音声など)も取り込み、一般のプロカメラマンや観客等へのサービスを拡充できる。 In FIG. 1, 101 to 103 are cameras for servers, 101 (fixedly installed camera 1), 102 (fixedly installed camera 2), 103 (fixedly installed camera 3), 104 (large screen). , 110 (server), 111 (input means), and 112 (base station) acquire video and audio for providing information to general professional photographers and spectators. In this embodiment, there are three server cameras 101 to 103, but one or more cameras may be used. Also, these server cameras may be cameras mounted on, for example, drones instead of fixedly installed cameras. In addition to acquiring video and audio, input information other than video (for example, audio) can be taken in from the input means, and services for general professional photographers and spectators can be expanded.

105は有線/無線などによるLANやインターネットであり、106は、入力手段111から出力された情報をサーバー110で入力するための接続線である。107は、基地局112への信号を送受信するための接続線、108は、基地局の無線通信を実行するためのアンテナ部である。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
Reference numeral 105 denotes a wired/wireless LAN or Internet, and 106 denotes a connection line for inputting information output from the input means 111 to the server 110 . Reference numeral 107 denotes a connection line for transmitting/receiving a signal to/from the base station 112, and 108 denotes an antenna section for performing wireless communication with the base station.
That is, the blocks in the 100s are for supporting video shooting by professional photographers and general spectators.

一方、図1において、401(端末1)、402(端末2)、403(端末3)は端末であり、例えばプロカメラマンや観客が撮影やモニターをするための例えばカメラやスマートフォンやタブレットPCやTVなどの映像表示端末装置である。ここで、404(アンテナ)405(アンテナ)、406(アンテナ)は、それぞれ、401(端末1)、202(端末2)、203(端末3)が無線通信するためのアンテナである。 On the other hand, in FIG. 1, 401 (terminal 1), 402 (terminal 2), and 403 (terminal 3) are terminals. It is a video display terminal device such as Here, 404 (antenna), 405 (antenna), and 406 (antenna) are antennas for wireless communication by 401 (terminal 1), 202 (terminal 2), and 203 (terminal 3), respectively.

サーバーが注目選手の位置を検出する際には、例えば端末からサーバー側に注目選手のID情報などを送り、また、サーバー側から端末にその選手に関する位置情報などの各種情報を送る。選手は動いており、競技状況も変化しているので、短時間での注目選手の検出処理が必要になる。よって、ここでの無線通信は、例えば5Gなどを用いる。 When the server detects the position of the player of interest, for example, the terminal sends the ID information of the player of interest to the server side, and the server side sends various information such as the position information of the player to the terminal. Since the players are moving and the game situation is changing, it is necessary to detect the player of interest in a short period of time. Therefore, for wireless communication here, 5G or the like is used, for example.

なお401(端末1)、402(端末2)、403(端末3)はカメラとスマートフォンなどを接続して組み合わせた構成としても良い。図1の右下において、301はスマートフォンであり、主にサーバーとの通信制御を行う。また、このスマートフォンに、アプリケーションソフトウェアをインストールすることで、各種の映像取得サービスを実現する。また、300は(デジタル)カメラであり、主に、プロプロカメラマンや観客が撮影したり画像をモニターしたりする画像処理装置である。ここで、カメラ300はスマートフォン301にUSBあるいはブルートゥース(登録商標)などにより接続されている。320はスマートフォン301が基地局112と無線通信するためのアンテナである。 Note that 401 (terminal 1), 402 (terminal 2), and 403 (terminal 3) may have a configuration in which a camera and a smart phone are connected and combined. In the lower right of FIG. 1, 301 is a smart phone, which mainly controls communication with the server. By installing application software on this smartphone, various video acquisition services can be realized. Reference numeral 300 denotes a (digital) camera, which is an image processing device mainly used by professional photographers and spectators to take pictures and monitor images. Here, the camera 300 is connected to the smartphone 301 via USB, Bluetooth (registered trademark), or the like. An antenna 320 is used by the smartphone 301 to wirelessly communicate with the base station 112 .

なお、端末がスマートフォン等の場合は、サーバーとの映像、制御信号のやりとりを無線で実行するが、端末との通信を実行するための接続は、無線通信と有線通信を適応的に使い分けても良い。例えば、無線通信環境が5Gであれば無線で通信し、無線通信環境がLTEであればデータ量の多い情報は有線で送り、データ量の少ない制御信号は無線で送るといった制御も可能である。さらには、無線通信の回線の混み具合によって、有線通信に切り替えることも可能である。 If the terminal is a smartphone, etc., the exchange of video and control signals with the server is performed wirelessly. good. For example, if the wireless communication environment is 5G, communication is performed wirelessly, and if the wireless communication environment is LTE, information with a large amount of data is sent by wire, and control signals with a small amount of data are sent wirelessly. Furthermore, it is also possible to switch to wired communication depending on how busy the wireless communication line is.

次に、図2はサーバー側の詳細なブロック構成図であり、図2について説明する。図2において、図1と同じ符番は同じ構成を示し説明は省略する。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
Next, FIG. 2 is a detailed block diagram of the server side, and FIG. 2 will be described. In FIG. 2, the same reference numerals as in FIG. 1 indicate the same configuration, and the description thereof is omitted.
201 is an Ethernet (registered trademark) controller, and 204 is a detection unit that detects a play position according to a player's role (so-called position). Here, the roles (positions) of players are set in advance by registration or the like. For example, as a role (position) in the case of rugby, 1 and 3 are props, 2 are hookers, 4 and 5 are locks, 6 and 7 are flanker, 8 is called number 8, 9 is scrum half, 10 is called called a standoff. Also, 11 and 14 are called wings, 12 and 13 are called centers, and 15 is called a fullback.
As for where these players are, during set-pieces, the forwards are often in the attacking front and the backs are in the attacking back.

すなわち、選手の役割(ポジション)に応じて、選手のいる位置が大体決まるので、注目選手の上記役割(ポジション)を把握したうえで、選手を追いかけたほうが、効果的に精度よく選手を追いかけることができる。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
In other words, the player's position is generally determined according to the player's role (position), so it is better to follow the player after grasping the above-mentioned role (position) of the player of interest, and to chase the player more effectively and accurately. can be done.
Usually, the player's role can often be recognized from the uniform number. However, in some cases, the No. 10 player gets injured, the No. 15 player stands off (enters the No. 10 position), the reserve player enters No. 15, and so on. Here, reserve players have uniform numbers from 16 to 23. However, the position is not decided only by the jersey number. Accordingly, the detection unit 204 detects the play position corresponding to the player's preset role, and information on the detected play position is taken into the CPU 211 in the server 110. There may be some changes due to player substitutions.

205は、輪郭情報検出部であり、たとえば、プロカメラマンや観客が端末で映像をモニターしつつ、その位置、角度からカメラの倍率で撮影している時に、サーバー110は注目選手のいる位置を各端末401~403などに知らせる。また、撮影している注目選手の輪郭情報をサーバー110から各端末401~403などに知らせることで、各端末401~403側で、より確実に注目選手を認識することが可能になる。205のブロックで検出した輪郭情報は、CPU211に取り込まれる。 Reference numeral 205 denotes a contour information detection unit. For example, when a professional cameraman or spectator monitors an image on a terminal and takes a picture from that position and angle at the magnification of the camera, the server 110 detects the position of the player of interest. Notify the terminals 401 to 403 and the like. In addition, by notifying the terminals 401 to 403 of the profile information of the captured player of interest from the server 110, the terminals 401 to 403 can recognize the player of interest more reliably. The contour information detected by the block 205 is taken into the CPU 211 .

206は選手の顔認識部であり、注目選手の予め登録された顔写真情報に基づきAI、特に、Deep Learningなどの画像認識技術を用いて映像の中から選手を見つける。顔認識部206で検出した顔認識結果の情報もCPU211に取り込まれる。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
Reference numeral 206 denotes a player's face recognition unit, which finds the player from the video using AI, particularly image recognition technology such as Deep Learning, based on pre-registered facial photograph information of the player of interest. Information on the result of face recognition detected by the face recognition unit 206 is also taken into the CPU 211 .
A player physique recognition unit 207 finds a player based on pre-registered physique photo information of a player of interest using the above-described image recognition technology.

208は選手の背番号検出部であり、前記のような画像認識技術を用いて注目選手の、あらかじめ登録した番号(背番号など)から選手を見つける。なお選手の番号を検出する際はビブスの背中側の番号だけでなく、前側に書かれた番号を検出してもよいことは言うまでもない。209は位置情報作成部であり、カメラ101、102、103等のGPSなどを用いた位置情報とカメラの向きと画角に関する情報から、各カメラの位置と方角と画角を認識する。そして、各カメラからの映像に基づきその選手がいるグラウンド上での絶対的な位置情報を三角測量方式で取得する。この位置情報作成部209は競技場に予め設置された基準位置検出用の基準指標としてのポールや競技フィールドのライン(例えばサイドラインやエンドライン)等の画面内での位置もあらかじめ映像から取得しておいてもよい。 Reference numeral 208 denotes a player's uniform number detection unit, which uses the image recognition technology described above to find a player of interest from a number (such as uniform number) registered in advance. Needless to say, when detecting the player's number, not only the number on the back side of the bibs but also the number written on the front side may be detected. A position information generating unit 209 recognizes the position, direction, and angle of view of each camera from the position information of the cameras 101, 102, 103, etc. using GPS, etc., and the information on the direction and angle of view of the camera. Then, based on the images from each camera, the absolute positional information of the player on the ground is obtained by triangulation. The position information generating unit 209 also acquires positions in the screen such as poles and lines (for example, sidelines and endlines) of the competition field, which are set in advance in the stadium as reference indicators for detecting reference positions, from the video in advance. You can leave it.

そしてそれらを基準座標として競技場における注目選手のフィールドに対する絶対位置を取得するようにしてもよい。
210は各端末401~403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
211はコンピュータとしてのCPU(Central Processing Unit)であり、記憶媒体としてのプログラムメモリ712に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する中央演算処理装置である。
Then, using those coordinates as reference coordinates, the absolute position of the player of interest in the stadium with respect to the field may be acquired.
210 is camera position information for detecting the position of each terminal and the direction and angle of view of the camera of each terminal from the position information, direction information and angle of view information of each terminal sent from each terminal 401 to 403; This is the direction detector.
Reference numeral 211 denotes a CPU (Central Processing Unit) as a computer, which is a central processing unit that executes control shown in the following embodiments based on a control computer program stored in a program memory 712 as a storage medium. .

また、表示制御手段を兼ねており、後述する表示部214に表示する情報を制御する。213はCPU211において参照される各種データを記憶するデータメモリである。データメモリ213には過去の試合情報、過去の選手情報、本日の試合(競技)に関する情報、観客動員数に関する、天候などの情報、注目選手の情報、選手の現在の状況などが格納されている。注目選手の情報の中には顔、背番号、体格などの情報も含まれる。
1101はサーバー110内のデータバスラインである。
It also serves as display control means, and controls information to be displayed on a display unit 214, which will be described later. A data memory 213 stores various data referred to by the CPU 211 . The data memory 213 stores information on past games, information on past players, information on today's game (competition), information on the number of spectators, information on the weather, information on featured players, current situations of players, and the like. . The information on the featured player includes information such as the face, jersey number, and physique.
1101 is a data bus line within the server 110 .

次に、画像処理装置としての端末側(カメラ)の詳細について図3、図4を用いて説明する。図3、図4は端末の構成例を示すブロック図であり、端末の例として(デジタル)カメラ500全体の構成を2つの図面を用いて示す。
図3、図4に示される画像処理装置としての端末側(カメラ)は、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画(写真)が所定のフォーマットで格納される。
Next, details of the terminal side (camera) as an image processing device will be described with reference to FIGS. 3 and 4. FIG. FIG. 3 and FIG. 4 are block diagrams showing configuration examples of a terminal, and show the overall configuration of a (digital) camera 500 as an example of a terminal using two drawings.
The terminal side (camera) as the image processing device shown in FIGS. 3 and 4 is capable of shooting moving images and still images, and recording shooting information. 3 and 4, a CPU (Central Processing Unit) 318, a program memory 319, and a data memory 320 are shown redundantly, but they are the same block and only one is built in each.
In FIG. 3, 301 is an Ethernet (registered trademark) controller. A storage medium 302 stores moving images and still images (photographs) captured by a digital camera in a predetermined format.

303はCCDやCMOSなどの撮像素子としてのイメージセンサーであり、光学像を光信号から電気信号に変換して、さらに、この情報をアナログ情報からデジタルデータに変換して出力する。304は信号処理部であり、イメージセンサー303から出力されるデジタルデータに対してホワイトバランス補正やガンマ補正などの各種補正をして出力するものである。305はセンサー駆動部であり、イメージセンサー303から情報を読み出すための水平垂直ライン駆動やイメージセンサー303がデジタルデータを出力するタイミング等を制御する。 Reference numeral 303 denotes an image sensor such as a CCD or CMOS, which converts an optical image from a light signal to an electric signal, further converts this information from analog information to digital data, and outputs the data. A signal processing unit 304 performs various corrections such as white balance correction and gamma correction on the digital data output from the image sensor 303 and outputs the data. A sensor driving unit 305 controls horizontal and vertical line driving for reading out information from the image sensor 303 and the timing at which the image sensor 303 outputs digital data.

306は操作部入力手段である。デジタルカメラで撮影する際の各種条件を選択したり設定したり、写真撮影するためのトリガー操作、フラッシュを使用するための選択操作、電池を交換する操作などに応じて入力が行われる。また、操作部入力手段306において、注目選手をサーバーからの位置情報に基づきAF(オートフォーカス)するか否かを選択/設定できる。この注目選手をAF(オートフォーカス)するかの選択/設定情報は、操作部入力手段306からバスライン370に出力される。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
Reference numeral 306 denotes operation unit input means. Inputs are made in response to selection and setting of various conditions for photographing with a digital camera, trigger operation for photographing, selection operation for using the flash, battery replacement operation, and the like. Also, in the operation unit input means 306, it is possible to select/set whether or not to perform AF (autofocus) on the player of interest based on the position information from the server. Selection/setting information as to whether or not to AF (autofocus) this player of interest is output from the operation unit input means 306 to the bus line 370 .
Furthermore, in the operation unit input means 306, it is possible to select/set whether or not to automatically track the player of interest based on the position information from the server. Information such as which player is to be designated as a player of interest (specific target) and whether or not automatic tracking of the player of interest is to be executed based on position information from the server is generated by the operation unit input means 306 as selection means. be. That is, the operation unit input means 306 functions as a designation information generation means for generating designation information regarding a specific object.

307は送受信手段として機能する無線通信部であり、プロカメラマンや一般の観客などが持っているカメラ端末が無線でサーバー側と通信をするためのものである。308はデジタルカメラにおける撮影倍率を検出する倍率検出部である。309は操作部出力手段であり、デジタルカメラなどで撮影した画像情報を表示する画像表示部380にメニューや設定情報などのUI情報を表示するためのものである。310は圧縮伸長回路であり、イメージセンサー303からのデジタルデータ(RAWデータ)を信号処理部304で現像処理後、圧縮伸長回路310で圧縮してJPEG画像ファイルやHEIF画像ファイルにするか、あるいは、RAWデータのまま圧縮してRAW画像ファイルにする。一方、RAW画像ファイルをカメラ内で現像処理してJPEG画像ファイルやHEIF画像ファイルを生成する場合に、圧縮されている情報を伸張してRAWデータに戻す処理を行う。 Reference numeral 307 denotes a wireless communication unit that functions as a transmission/reception unit, and is used for wireless communication between camera terminals possessed by professional photographers and general spectators with the server side. A magnification detection unit 308 detects the imaging magnification of the digital camera. Reference numeral 309 denotes an operation unit output unit for displaying UI information such as menus and setting information on an image display unit 380 that displays image information captured by a digital camera or the like. 310 is a compression/decompression circuit. After the digital data (RAW data) from the image sensor 303 is developed by the signal processing unit 304, it is compressed by the compression/decompression circuit 310 into a JPEG image file or HEIF image file, or RAW data is compressed as it is to form a RAW image file. On the other hand, when a RAW image file is developed within the camera to generate a JPEG image file or HEIF image file, processing is performed to decompress the compressed information and return it to RAW data.

311は顔認識部であり、注目選手についてあらかじめサーバーに登録された顔写真情報を参照し、映像の中からその選手をAI、特に、Deep Learning等の技術を用いた画像認識によって見つけるためのものである。顔認識部311で検出した顔認識結果に関する情報は、バスライン370を介してCPU318に取り込まれる。 Reference numeral 311 denotes a face recognition unit, which refers to face photograph information registered in advance in the server for a player of interest, and finds the player in the video by image recognition using AI, particularly, technology such as Deep Learning. is. Information on the result of face recognition detected by face recognition section 311 is taken into CPU 318 via bus line 370 .

312は体格認識部であり、注目選手に関してサーバーに予め登録した体格写真情報を参照して、映像の中から前述のような画像認識技術によってその注目選手を見つける。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
A physique recognition unit 312 refers to the physique photo information registered in advance in the server regarding the player of interest, and finds the player of interest from the video using the above-described image recognition technology.
Reference numeral 313 denotes a player's uniform number detection unit, which finds a player from the uniform number of the player of interest (of course, the number on the front side may also be used) by the above-described image recognition technology. A direction detection unit 314 detects the direction in which the lens of the terminal faces. A position detection unit 315 detects the position information of the terminal using, for example, GPS.

316は端末の電源の状態を検出する電源管理部であり、電源スイッチがオフの状態で電源ボタンの押下を検出したら、端末全体に電源を供給する。318はコンピュータとしてのCPUであり、記憶媒体としてのプログラムメモリ319に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する。また、表示制御手段を兼ねており画像表示部380に表示する画像情報を制御する。なお画像表示部380は液晶や有機ELなどを用いた表示部である。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
A power management unit 316 detects the state of the power supply of the terminal, and supplies power to the entire terminal when it detects that the power button is pressed while the power switch is off. Reference numeral 318 denotes a CPU as a computer, which executes control shown in the following embodiments based on a computer program for control stored in a program memory 319 as a storage medium. It also serves as display control means and controls image information displayed on the image display section 380 . Note that the image display unit 380 is a display unit using liquid crystal, organic EL, or the like.
The data memory 320 is for storing the setting conditions of the digital camera, photographed still images, moving images, and attribute information of the still images and moving images.

図4において、350は撮影レンズユニットであり、固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359、ズームモーター353、絞りモーター356、およびフォーカスモーター360を有する。固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359は撮影光学系を構成する。なお、便宜上351、352、358、359は、それぞれ1枚のレンズとして図示しているが、それぞれ複数のレンズで構成されても良い。また、撮影レンズユニット350は、デジタルカメラに対して着脱可能な交換レンズユニットとして構成されてもよい。 In FIG. 4, 350 is a photographing lens unit which has a fixed 1st group lens 351 , a zoom lens 352 , an aperture 355 , a fixed 3rd group lens 358 , a focus lens 359 , a zoom motor 353 , an aperture motor 356 and a focus motor 360 . A fixed 1st group lens 351, a zoom lens 352, an aperture 355, a fixed 3rd group lens 358, and a focus lens 359 constitute a photographing optical system. For convenience, each of 351, 352, 358, and 359 is illustrated as one lens, but each may be composed of a plurality of lenses. Also, the photographing lens unit 350 may be configured as an interchangeable lens unit that can be attached to and detached from the digital camera.

ズーム制御部354はズームモーター353の動作を制御し、撮影レンズユニット350の焦点距離(画角)を変更する。絞り制御部357は絞りモーター356の動作を制御し、絞り355の開口径を変更する。 A zoom control unit 354 controls the operation of the zoom motor 353 to change the focal length (angle of view) of the photographing lens unit 350 . A diaphragm control unit 357 controls the operation of a diaphragm motor 356 to change the aperture diameter of the diaphragm 355 .

フォーカス制御部361は、イメージセンサー303から得られる1対の焦点検出用信号(A像およびB像)の位相差に基づいて撮影レンズユニット350のデフォーカス量およびデフォーカス方向を算出する。そしてフォーカス制御部361は、デフォーカス量およびデフォーカス方向をフォーカスモーター360の駆動量および駆動方向に変換する。この駆動量および駆動方向に基づいてフォーカス制御部361はフォーカスモーター360の動作を制御し、フォーカスレンズ359を駆動することにより、撮影レンズユニット350の焦点を制御(フォーカス調整)する。 The focus control unit 361 calculates the defocus amount and defocus direction of the photographing lens unit 350 based on the phase difference between the pair of focus detection signals (A image and B image) obtained from the image sensor 303 . The focus control unit 361 then converts the defocus amount and defocus direction into the drive amount and drive direction of the focus motor 360 . The focus control unit 361 controls the operation of the focus motor 360 based on this drive amount and drive direction, and drives the focus lens 359 to control the focus of the photographing lens unit 350 (focus adjustment).

このように、フォーカス制御部361は位相差検出方式の自動焦点(AF)を実施する。なお、フォーカス制御部361は、イメージセンサー303から得られる画像信号のコントラストのピークをサーチするコントラスト検出方式のAFを実行しても良い。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
In this manner, the focus control unit 361 performs phase difference detection autofocus (AF). Note that the focus control unit 361 may perform contrast detection AF that searches for a contrast peak of the image signal obtained from the image sensor 303 .
371 is a tracking unit for tracking the player of interest with the digital camera itself. Tracking here means, for example, moving a frame display surrounding the player of interest within the screen, and focusing or adjusting the exposure on the player of interest tracked by the frame.

ここで、追跡部371について図5を用いて説明する。
図5はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。
Here, the tracking unit 371 will be explained using FIG.
FIG. 5 is a block diagram showing a functional configuration example of the tracking unit 371 of the digital camera. The tracking unit 371 is composed of a matching unit 3710 , a feature extraction unit 3711 and a distance map generation unit 3712 . The feature extraction unit 3711 identifies the image area (subject area) to be tracked based on the position information sent from the server. Then, a feature amount is extracted from the image of this subject area. On the other hand, the collating unit 3710 refers to the extracted feature amount in the captured image of each frame continuously supplied, and searches for an area having a high degree of similarity with the object area of the previous frame as the object area.

なお距離マップ生成部3712において、撮像素子からの1対の視差画像(A像とB像)から被写体までの距離情報を取得し、照合部3710における被写体領域の特定精度を上げることもできる。ただし距離マップ生成部3712は必ずしもなくても構わない。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
Note that the distance map generation unit 3712 can acquire distance information to the subject from a pair of parallax images (images A and B) from the imaging device, and the accuracy of specifying the subject area in the matching unit 3710 can be increased. However, the distance map generator 3712 may not necessarily be provided.
When the matching unit 3710 searches for an area highly similar to the object area as the object area based on the feature amount of the object area in the image supplied from the feature extraction unit 3711, for example, template matching or histogram matching is used. .

次に、図6を用いて注目選手表示開始シーケンスの例について説明する。これは、サーバー110とカメラ500とで行うシーケンスである。図6(A)は、カメラ500側の問いかけ(リクエスト)に対して、サーバー110側が答えるシーケンスの一例を示す図である。そしてサーバー110側はカメラ500側に、注目選手の絶対位置に関する情報を提供する。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。
Next, an example of a player-of-interest display start sequence will be described with reference to FIG. This is the sequence performed by server 110 and camera 500 . FIG. 6A is a diagram showing an example of a sequence in which the server 110 side responds to a question (request) from the camera 500 side. The server 110 side then provides the camera 500 side with information on the absolute position of the player of interest.
The camera 500 notifies the server 110 of attention player designation information (ID information such as uniform number and player name). At that time, the user may touch the position of the player of interest on the screen of the terminal, or may surround the player of interest with the finger while touching the screen with the finger.

あるいはメニューで画面上に複数の選手のリストを表示し、その中の注目選手名をタッチしたりしてもよいし、あるいは画面上に文字入力画面を表示し選手名や選手の背番号を入力してもよい。その際、注目選手の画面上の顔位置をタッチすると顔を画像認識したり背番号を画像認識して選手名や背番号などを送ったりしてもよい。あるいは、画像認識せずに顔画像そのものをサーバーに送って、サーバー側で画像認識してもよい。またこの時あらかじめ決まったパスワードがあればそれもサーバーに送る。サーバー側では、映像を撮影することをサポートするブロックにより、注目選手指定情報(背番号、選手名等のID情報)に基づいて、選手のいる絶対値的な位置に関する情報をカメラに送る。パスワードもカメラから送られてくればそれに応じてカメラに送る情報の内容を変更する。 Alternatively, a list of multiple players may be displayed on the screen using the menu, and the name of the player of interest may be touched. Alternatively, a character input screen may be displayed on the screen and the player's name and player's jersey number may be entered. You may At this time, by touching the face position of the player of interest on the screen, the face may be image-recognized, or the player's uniform number may be image-recognized, and the player's name and uniform number may be sent. Alternatively, the face image itself may be sent to the server without image recognition, and image recognition may be performed on the server side. At this time, if there is a predetermined password, it is also sent to the server. On the server side, information regarding the absolute position of the player is sent to the camera based on the information specifying the player of interest (ID information such as uniform number and player name) by a block that supports image shooting. If a password is also sent from the camera, the contents of the information to be sent to the camera are changed accordingly.

更に図6(A)においては、カメラからサーバーに、プロカメラマンや観客が撮影しているカメラの位置情報、カメラの方角、カメラの倍率などの情報なども送る。サーバー側では、カメラが見ている位置、方角での自由視点映像を作り、さらに、カメラの倍率から、実際のカメラで見えている映像を認識する。この実際にカメラで見えている映像のどの位置に選手がいるかの位置情報、並びに、選手の輪郭情報などをカメラに送る。カメラは、サーバーから送られた位置情報、輪郭情報などをもとに、カメラの表示部の画面で注目選手をより精度高く目立つように表示するとともに注目選手に対してAFやAEを行う。 Further, in FIG. 6A, the camera also sends to the server information such as the position information of the camera used by the professional photographer and the audience, the direction of the camera, the magnification of the camera, and the like. On the server side, a free-viewpoint image is created at the position and direction the camera is looking at, and the image seen by the actual camera is recognized from the magnification of the camera. The positional information indicating where the player is in the image actually seen by the camera, the player's contour information, etc. are sent to the camera. Based on the positional information, contour information, etc. sent from the server, the camera displays the player of interest more accurately and conspicuously on the screen of the display unit of the camera, and performs AF and AE on the player of interest.

注目選手を見つける注目選手表示開始シーケンスの例を簡単に説明したが、さらに継続して選手を追いかけていきたい場合が多い。そこで、次に注目選手の追跡を継続するためのシーケンスについて図6(B)を用いて説明する。図6(B)においては、端末としてのカメラ500から何度も、例えば周期的にサーバー110へ問い合わせ(リクエスト)を行って、選手の位置を継続して認識するものである。図6(B)において、カメラからサーバーに、注目選手表示開始シーケンス(A1、B1、、、)を周期的に送り、サーバーから注目選手表示開始シーケンス(A2、B2、、、)を周期的に受信して、注目選手の位置を認識する動作を何度も繰り返す。 An example of the sequence for starting the display of the player of interest for finding the player of interest has been briefly described, but there are many cases where it is desired to continue chasing the player. Therefore, next, a sequence for continuing tracking of the player of interest will be described with reference to FIG. 6(B). In FIG. 6B, the camera 500 serving as a terminal makes inquiries (requests) to the server 110 many times, for example periodically, to continuously recognize the player's position. In FIG. 6B, the camera periodically sends a player of interest display start sequence (A1, B1, . . . ) to the server, and the server periodically sends a player of interest display start sequence (A2, B2, ..). The operation of receiving and recognizing the position of the player of interest is repeated many times.

更に図7は、カメラ側における注目選手表示開始シーケンスの他の例を示す図であり、カメラ自身でも自動的に注目選手を追跡する方法を示すものである。カメラ500からサーバー110に注目選手のID情報を送って、一旦サーバーから注目選手の位置情報を取得する。取得後にその位置情報を参照して注目選手の位置を絞り込んだ後、カメラ500自身で画像認識によって継続して注目選手を追跡する。その際図4、図5の追跡部371によって追跡を行う。なお、図7の注目選手表示追跡シーケンスにおいては、カメラ500自身が画像認識技術で注目選手を追跡するが、途中で注目選手を見失ったとき(追跡に失敗したとき)には、カメラ側からサーバーに、注目選手の位置情報を再度リクエストする。具体的には、カメラで、注目選手を見失ったときには、カメラからサーバーに、再度注目選手表示開始シーケンス(A1)を送り、サーバーから注目選手表示開始シーケンス(B2)を受信して、注目選手の位置を画面に表示する。そのあと再びカメラ自身が画像認識によって注目選手を追跡する。 Further, FIG. 7 is a diagram showing another example of the player-of-interest display start sequence on the camera side, showing a method of automatically tracking the player-of-interest even by the camera itself. The ID information of the player of interest is sent from the camera 500 to the server 110, and the position information of the player of interest is temporarily obtained from the server. After the position information is obtained and the position of the player of interest is narrowed down by referring to the position information, the camera 500 itself continues to track the player of interest by image recognition. At that time, tracking is performed by the tracking unit 371 shown in FIGS. In the sequence of tracking the display of the player of interest in FIG. 7, the camera 500 itself tracks the player of interest using image recognition technology. , request the location information of the featured player again. Specifically, when the camera loses sight of the player of interest, the camera sends the player of interest display start sequence (A1) to the server again, receives the player of interest display start sequence (B2) from the server, and displays the player of interest. Display the position on the screen. After that, the camera itself tracks the player of interest by image recognition again.

なお、本実施例ではプロカメラマンや観客の撮影アシストのためのサービスの例を説明しているが、リモートカメラ制御に使ってもよい。サーバーからこれらの情報を送ることで、自動パンチルト雲台に搭載したリモートカメラにより、選手を追跡して、決定的瞬間を撮影することも可能である。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。また表示画面外にいる場合に端末が現在見ている角度からどのくらい離れているか(ずれているか)、どのくらい端末を回転しないと注目選手が表示画面内に入らないかなどを矢印の長さや太さや、数字や目盛りなどで表示してもよい。
In this embodiment, an example of a service for assisting professional photographers and spectators in photographing is described, but the service may also be used for remote camera control. By sending this information from the server, it is possible to track the player and capture the decisive moment with the remote camera mounted on the automatic pan-tilt head.
Also, although this embodiment has been described using an example of shooting assist, the terminal may be a home TV. That is, when a spectator watching TV specifies a player of interest, the server may send the positional information of the player of interest to the TV and display the player of interest conspicuously by displaying a frame or the like. Note that the player of interest may be indicated not only by the frame but also by a cursor (for example, an arrow), and the color and brightness of the region of the position of the player of interest may be made different from other portions. When the player of interest is outside the screen of the terminal, an arrow or characters may be used to indicate in which direction the player is out of the screen of the terminal. Also, when you are outside the display screen, how far away from the current viewing angle the terminal is (is it deviated), how much the terminal must be rotated before the player of interest can enter the display screen, etc. , numbers or scales may be used.

更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
なお、本実施例ではカメラマンの撮影アシスト機能を主眼に置いているが、将来的にはこの部分がロボットカメラになっても良い。サーバーからこれだけの情報がもらえれば、カメラマンに代わって、自動雲台に搭載したロボットカメラが、選手を追跡して、決定的瞬間を撮影することも可能である。
Furthermore, when the player of interest is on the screen, the additional information is displayed on the screen, and when the player of interest moves out of the screen, the user is instructed not to indicate that the player is out of the screen with an arrow or the like. can be selected.
Alternatively, if the situation of the game is automatically determined and, for example, when the player of interest has left the bench, even if the player of interest moves off the screen, the fact that the player is off the screen may not be displayed with an arrow or the like. good. If the user can select a mode in which display of additional information is automatically erased or a mode in which display of additional information is not automatically erased, usability is further improved.
In this embodiment, the cameraman's shooting assistance function is the main focus, but in the future, this part may be a robot camera. If you can get this much information from the server, instead of the cameraman, it is possible for the robot camera mounted on the automatic platform to track the athlete and capture the decisive moment.

なお、撮影された静止画像(写真)は、画像処理をした後に圧縮伸長回路310において例えば、JPEGで圧縮した画像ファイルになる。
本実施例では、静止画像(写真)に各種のメタデータを付加して記録する。メタデータとしては、例えば撮影日時、撮影した位置情報(緯度、経度、高度、方向)、撮影した情報(絞り値、露出時間、ISO感度、シャッタースピード、測光方式などが含まれる。更にメタデータとして、レンズ焦点距離、フラッシュの有無、露出補正値、手ブレ補正、色空間等)、撮影したカメラ情報(カメラの機種名、レンズ名)なども含まれる。これらのメタデータは、例えばExif(Exchangeable Image File Format)フォーマットで画像ファイル内に記録される。
Note that the captured still image (photograph) is converted into an image file compressed by JPEG, for example, in the compression/decompression circuit 310 after image processing.
In this embodiment, a still image (photograph) is recorded with various kinds of metadata added thereto. The metadata includes, for example, shooting date and time, shooting location information (latitude, longitude, altitude, direction), shooting information (aperture value, exposure time, ISO sensitivity, shutter speed, photometry method, etc.). , lens focal length, presence/absence of flash, exposure correction value, camera shake correction, color space, etc.), camera information (camera model name, lens name), etc. are also included. These metadata are recorded in the image file in, for example, Exif (Exchangeable Image File Format) format.

図8はファイル構造の例を示す図であり、図8(A)は本実施例における、DCF(Design rule for Camera File system)サムネイルファイルの構造、図8(B)はDCF基本ファイルの構造を示す図である。
図8(A)に示すように、DCFサムネイルファイルは、SOI(Start Of Image)、Exif情報、サムネイルファイル、EOI(End Of Image)等から構成される。一方、図8(B)に示すようにDCF基本ファイルは、SOI、Exif情報、サムネイル、DCF基本主画像、EOI等から構成される。
ここで、SOI(Start Of Image)はJPEGデータの先頭、EOI(End Of Image)はJPEGデータの終端を表している。また、App1(Application marker segment 1)は、Exif情報を記憶する。
FIG. 8 is a diagram showing an example of a file structure. FIG. 8A shows the structure of a DCF (Design rule for Camera File system) thumbnail file in this embodiment, and FIG. 8B shows the structure of a DCF basic file. FIG. 4 is a diagram showing;
As shown in FIG. 8A, the DCF thumbnail file is composed of SOI (Start Of Image), Exif information, thumbnail file, EOI (End Of Image), and the like. On the other hand, as shown in FIG. 8B, the DCF basic file is composed of SOI, Exif information, thumbnails, DCF basic main images, EOI, and the like.
Here, SOI (Start Of Image) represents the beginning of JPEG data, and EOI (End Of Image) represents the end of JPEG data. Also, App1 (Application marker segment 1) stores Exif information.

本実施例では、Exif情報として、選手を撮影した時には、選手名も含めてExif情報として画像ファイルに記憶する。更に対戦カード、試合会場、試合時間、試合での経過時間などを記憶しても良い。
撮影した選手が誰であるかを判断して、データベースから選手固有の詳細情報をメタデータとして記憶することもできる。選手がトライを決めた時に、例えば、その選手の出場タイミング、現在の試合における時間、さらに、選手の試合中の行動記録(「~選手は、スタメンで出場し、前半36分に1トライを決める。」)などをメタデータとして記憶しても良い。
In this embodiment, when a player is photographed, the Exif information including the player name is stored in the image file as Exif information. Furthermore, the match card, match venue, match time, time elapsed in the match, etc. may be stored.
It is also possible to determine who the photographed player is and store detailed information specific to the player from the database as metadata. When a player scores a try, for example, the player's entry timing, the time in the current game, and the player's behavior record during the match .”) may be stored as metadata.

なお、サーバー側は、メタデータ作成手段によって、一般情報(日付け、対戦カード、試合会場、試合時間、撮影時間、試合での経過時間、さらに、選手を撮影した時には、選手名等)、判定情報、試合終了後情報のメタデータを作成する。
本実施例では、静止画像(写真)に対応したメタデータとして、カメラ側は、上記のような一般情報及びカメラマンの音声情報に関するメタデータを格納するものとする。またサーバー側は、すべての情報(一般情報、判定情報、試合終了情報、プロカメラマン音声情報等)を記憶する機能を有する。なお、静止画像(写真)に対応したメタデータとして、カメラ側、サーバー側ともに、すべての情報(一般情報、判定情報、試合終了情報、プロカメラマン音声情報)を格納するようにしてもよい。
In addition, the server side uses the metadata creation means to create general information (date, match card, match venue, match time, shooting time, elapsed time in the match, and if a player is photographed, the name of the player, etc.), judgment Create metadata for information, post-match information.
In this embodiment, it is assumed that the camera stores the above-described general information and metadata about cameraman's voice information as metadata corresponding to still images (photographs). The server side also has a function of storing all information (general information, judgment information, game end information, professional cameraman voice information, etc.). As metadata corresponding to still images (photographs), both the camera side and the server side may store all information (general information, judgment information, game end information, professional cameraman's voice information).

また、本実施例では、写真に対応したメタデータとして、カメラ側は、1枚の写真につき最新のメタデータのみ格納し、サーバー側は、各写真に対するメタデータとして最新のものだけでなく、過去の変更履歴まで含めて記憶しても良い。
また、注目選手の写真に対してだけ上記のようなメタデータを付加して記憶するのではなく、すべての選手の写真に対してメタデータを付加して記憶しても良い。
サーバーは、写真に対して付加された一般情報やカメラマンの音声情報などのメタデータに対して、更に審判などによる判定情報、あるいは、試合終了後の情報を追加することができる。このようにサーバー側でメタデータを追加した時に、カメラに対して、逐一そのことを知らせるようにしても良い。
In this embodiment, as metadata corresponding to photos, the camera stores only the latest metadata for each photo, and the server stores not only the latest metadata for each photo, but also the past metadata. may be stored including the change history of .
Further, instead of adding the above-mentioned metadata to and storing only the photograph of the player of interest, the metadata may be added to and stored with respect to all the photographs of the athletes.
The server can add judgment information by the referee or information after the match to metadata such as general information and cameraman's voice information added to the photograph. When metadata is added on the server side in this way, the camera may be notified of the fact one by one.

また、サーバーは、写真(画像)をカメラ(画像処理装置)から受信した時に、所定のフォトエージェンシー(画像処理装置以外)を宛先として、その写真とメタデータを転送するようにしてもよい。その場合には、その写真のメタデータが変更になった時にその写真とメタデータを一緒にフォトエージェンシーに再送するようにしても良い。
本実施例では、特定の注目選手の写真を撮影した時に、試合の情報、および、この特定選手に関する情報をメタデータとして、サーバーから宛先の一つとしてデバイス端末(カメラ)に送る。更にカメラ(画像処理装置)以外の宛先として予め登録したフォトエージェンシーなどに送る。そして、カメラマンは更に試合開始前に試合情報などの各種メタデータを追加入力し、更に撮影時に、カメラマンの音声情報もメタデータとして撮影画像(写真)に付加する。更にそのメタデータ付きの写真をサーバーに送信すると、サーバー側で、審判などによる判定結果をメタデータとして入力する。
Also, when the server receives a photo (image) from a camera (image processing device), the server may transfer the photo and metadata to a predetermined photo agency (other than the image processing device) as a destination. In that case, when the metadata of the photo is changed, the photo and the metadata may be resent to the photo agency together.
In this embodiment, when a photograph of a specific player of interest is taken, game information and information about the specific player are sent as metadata from the server to the device terminal (camera) as one of the destinations. Further, it is sent to a photo agency or the like registered in advance as a destination other than the camera (image processing device). The cameraman additionally inputs various kinds of metadata such as game information before the start of the game, and also adds the cameraman's voice information as metadata to the captured image (picture) at the time of photographing. Furthermore, when the photo with the metadata is sent to the server, the server inputs the result of judgment by a referee or the like as metadata.

このようなメタデータにより、写真の付加価値があがる。しかもメタデータの追加などが短時間でできるようになり、報道局に付加価値の高い写真を速やかに送れるようになる。
更に、カメラマンの音声によるコメント等の情報を、カメラが認識した情報、サーバーが持っている情報により修正したり、組み合わせたりすることができる。
Such metadata increases the added value of the photograph. In addition, metadata can be added in a short time, and high-value-added photos can be quickly sent to news bureaus.
Furthermore, information such as comments by the voice of the cameraman can be modified or combined with information recognized by the camera and information held by the server.

次に、図7におけるカメラ側の制御フローの例を、図9(A)、(B)、図10のフローチャートを用いて説明する。図9(A)、(B)、図10は、カメラ側における注目選手表示追跡制御フローを表している。
図9(A)においてS101は初期化を表している。S102で写真撮影(静止画撮影)が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
Next, an example of the control flow on the camera side in FIG. 7 will be described using the flow charts of FIGS. 9A, 9B and 10. FIG. 9A, 9B, and 10 show a player-of-interest display tracking control flow on the camera side.
In FIG. 9A, S101 represents initialization. In S102, it is determined whether or not photography (still image photography) has been selected. If photography is selected, the process proceeds to S103, and if photography is not selected, the process proceeds to S101. In S103, camera setting information is obtained. In S104, it is determined whether or not shooting (designation) of the player of interest has been selected. If shooting of the player of interest has been selected, the process proceeds to S105, and if shooting of the player of interest has not been selected, the process proceeds to S110 and performs other processing. do. In step S105, information on the player of interest (ID information of the player of interest, etc.) and a password, if any, are sent from the camera to the server. As a result, the server side detects the position information of the player of interest and transmits it to the camera. In S106, the positional information of the player of interest is received from the server.

S107はサーバーから送られた位置情報を参照しつつカメラ自身で注目選手の追跡を実施する。ここでは、カメラ自身で注目選手について例えば画像認識を行って追跡する。その場合、選手の背番号、選手の顔情報、選手の体格などのいずれかの認識結果あるいはそれらの組み合わせに基づき選手の追跡を行う。すなわち、注目選手の一部または全体の形状を画像認識して追跡する。ただし、ユーザーの撮影ポジションが悪い場合や、カメラの視界が狭い場合や、撮影角度などによっては他の被写体の背後に隠れてしまったりするので見失う可能性があり、見失った場合には再度サーバーに位置情報のリクエストを送ることになる。 In S107, the camera itself tracks the player of interest while referring to the position information sent from the server. Here, for example, the camera itself performs image recognition and tracks the player of interest. In that case, the player is tracked based on the player's jersey number, the player's facial information, the player's physique, or any combination thereof. That is, the shape of a part or the whole of the player of interest is image-recognized and tracked. However, if the user's shooting position is bad, the camera's field of view is narrow, or depending on the shooting angle, it may be hidden behind other subjects, so it may be lost. Send a location request.

S107-2は、注目選手に対する付加情報としてのマーク表示の例を示している。即ち付加情報としては、注目選手を示すカーソルを表示したり注目選手の位置に枠を表示したり、注目選手位置の色や輝度を目立つように変更したり、あるいはそれらの組み合わせにより表示をする。マーク以外にも文字で表示したりしてもよい。そして画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示す付加情報を重畳する。 S107-2 shows an example of mark display as additional information for the player of interest. That is, as the additional information, a cursor indicating the player of interest is displayed, a frame is displayed at the position of the player of interest, the color or brightness of the position of the player of interest is changed so as to stand out, or a combination thereof is displayed. Characters other than the mark may be displayed. Then, in a state in which a live view image from the image sensor is displayed on the image display unit, additional information indicating the position of the player of interest is superimposed.

図9(B)にS107-2のマーク表示のフローの具体例を示しており、S120ではサーバーから受け取った位置情報に基づき、表示部における注目選手の相対位置を計算して求める。S121では画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示すマークなどを画像に重畳する。
なお、上記のようなS107の追跡動作はスキップし、実行しないように選択スイッチでユーザーが選択可能にしてもよい。あるいは、注目選手が画面内にいるときには追跡動作を実行するが画面外に出た場合には追跡動作をしない、というモードを設け、そのモードを選択できるようにしてもよい。更には、競技の状況を自動的に判断し、例えば注目選手がベンチ入りした場合などに、画面外の注目選手の追跡動作(矢印などの付加情報を表示など)を自動的に停止するように制御してもよい。あるいは画面内であるか画面外であるかにかかわらず、注目選手がベンチ入りしたことがサーバー側でわかったら画面における注目選手位置の表示や注目選手に対するオートフォーカスや注目選手に対する自動露光調整を停止するように制御してもよい。
FIG. 9B shows a specific example of the flow of mark display in S107-2. In S120, the relative position of the player of interest on the display unit is calculated based on the position information received from the server. In S121, while the live view image from the image sensor is being displayed on the image display unit, a mark indicating the position of the player of interest is superimposed on the image.
It should be noted that the tracking operation in S107 as described above may be skipped and may be selected by the user with a selection switch so as not to be executed. Alternatively, a mode may be provided in which the tracking action is performed when the player of interest is on the screen, but not when the player is out of the screen, and the mode can be selected. Furthermore, it automatically judges the situation of the competition, for example, when the player of interest enters the bench, automatically stops the tracking operation of the player of interest outside the screen (displaying additional information such as arrows). may be controlled. Alternatively, if the server recognizes that the player of interest has entered the bench regardless of whether it is on the screen or off the screen, the display of the position of the player of interest on the screen, the autofocus on the player of interest, and the automatic exposure adjustment for the player of interest are stopped. may be controlled to

S108では、注目選手の追跡継続がOK(成功している)か否かを判断し、注目選手の追跡継続に成功していれば、S107に戻り、再度注目選手の位置を認識して、注目選手の撮影を継続する。一方、追跡が失敗した場合はS108でNoとなり、S109に進む。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に戻り、注目選手の撮影が継続している場合には、図10のS111に進む。
In S108, it is determined whether or not it is OK (successful) to continue tracking the player of interest. Continue photographing players. On the other hand, if the tracking fails, the result in S108 is No, and the process proceeds to S109.
In S109, it is determined whether or not the shooting of the player of interest is finished. When the shooting of the player of interest is finished, the process returns to S101.

図10のS111において、予め選択した注目選手の撮影が実際に行われたか判断され、注目選手の撮影が実際に行われた場合にはS112に進み、撮影時のカメラマンの音声情報を不図示のマイクから入力する。注目選手の撮影が実際には行われていないとS107に進む。S113において、S112で入力した音声情報を音声認識により文字情報に変換し記憶する。S114において、注目選手のメタデータ(一般情報)をサーバーから入力する。なお、サーバーから取得したメタデータに関する情報(例えば一般情報の中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようにする。あるいはユーザーがメニュー操作で予め設定していた場合には、表示装置の画面に自動的に表示するようにしても良い。なお、その際注目選手の位置情報など他の情報と同時に表示しても良いし、サーバーから取得したメタデータに関する情報だけを選択的に表示しても良い。あるいはS115において、撮影した写真に対して、文字情報に変換された音声情報をメタデータとする。S116において、上記S114、S116等で取得されたメタデータをExif情報として撮影画像(写真)に付加して記録媒体に記録する。S117において、上記のメタデータを付加した写真をサーバーに送り、その後、図9(A)のS107に進む。 In S111 of FIG. 10, it is determined whether or not the pre-selected player of interest has actually been photographed. If the player of interest has actually been photographed, the process advances to S112, where the voice information of the cameraman at the time of photographing is transmitted to the camera operator (not shown). input from the microphone. If the player of interest has not actually been photographed, the process proceeds to S107. At S113, the voice information input at S112 is converted into character information by voice recognition and stored. At S114, metadata (general information) of the player of interest is input from the server. It should be noted that information (for example, contents of general information, etc.) related to metadata acquired from the server can be displayed on the display device on the camera side when the user selects it through a menu operation. Alternatively, if the user has set in advance by operating the menu, it may be automatically displayed on the screen of the display device. In this case, other information such as the position information of the player of interest may be displayed simultaneously, or only information related to metadata acquired from the server may be selectively displayed. Alternatively, in S115, audio information converted into character information for the photographed photograph is used as metadata. In S116, the metadata obtained in S114, S116, etc. is added as Exif information to the captured image (photograph) and recorded in the recording medium. In S117, the photograph with the metadata added is sent to the server, and then the process proceeds to S107 in FIG. 9A.

次に図10の変形例である実施例2について図11のカメラ側の着目選手表示追跡制御フローの例を示すフローチャートを用いて説明する。図11において図10と同じ符番は同じステップを示すので説明は省略する。
実施例2では、撮影時に付加されたメタデータ(文字情報に変換された音声情報等)を、審判の判定情報などのメタデータに置き換える。
即ち、図11のS118において、撮影した写真のメタデータの更新がサーバー側でなされたか否かが判断される。そして、撮影した写真のメタデータの更新があるとS119に進み、撮影時のメタデータ(文字情報に変換された撮影時の音声情報等)を審判の判定情報に置き換える。即ち更新する。また、サーバーから取得したメタデータに関する情報(例えば更新されたメタデータの中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようにする。撮影した写真のメタデータの更新がないと図9(A)のS107に進む。また、S111で注目選手の撮影がなかった場合にはS118に進む。
Next, Example 2, which is a modified example of FIG. 10, will be described with reference to the flowchart of FIG. 11 showing an example of the player-of-interest display tracking control flow on the camera side. In FIG. 11, the same reference numerals as those in FIG. 10 indicate the same steps, so the description is omitted.
In the second embodiment, metadata added at the time of shooting (such as voice information converted into text information) is replaced with metadata such as referee judgment information.
That is, in S118 of FIG. 11, it is determined whether or not the metadata of the photographed photograph has been updated on the server side. If the metadata of the photographed photograph is updated, the process advances to S119 to replace the metadata at the time of photographing (audio information at the time of photographing converted into character information, etc.) with judgment information of the referee. That is, update. In addition, when the user selects information on the metadata acquired from the server (for example, the contents of the updated metadata) on the display device on the camera side by menu operation, it is possible to display it. If the metadata of the photographed photograph is not updated, the process proceeds to S107 in FIG. 9A. In addition, if the player of interest has not been photographed in S111, the process proceeds to S118.

なお、実施例2では、判定情報によりメタデータを書き換えたが、判定情報をメタデータとして写真に追加して記録しても良い。このようにすれば、カメラマンの音声メモなどとともに、審判などの判定情報も写真に対して追加保存できるので、写真に対するいろいろな付加情報が残ることになり、後で写真(画像)の分析や選別をする際に役立つ。
なお、審判などの判定情報をメタデータとして写真に記憶する際に、この判定情報を画面に文字情報として表示しても良い。これによってカメラマンが、撮影した写真に対して、どのような判定がなされたかを画面で確認することができる。例えば具体的には、「~選手は後半5分から出場して、後半35分に、トライ成功と思われたが、判定の結果は、ノートライでした。」などと画面表示することができる。
In the second embodiment, the metadata is rewritten according to the judgment information, but the judgment information may be added to the photograph as metadata and recorded. In this way, along with the cameraman's voice memo, judgment information such as referee's information can be added to the photo, so that various additional information will remain for the photo, and the photo (image) can be analyzed and sorted later. useful when doing
It should be noted that when the judgment information such as referee is stored in the photograph as metadata, the judgment information may be displayed as character information on the screen. This allows the photographer to confirm on the screen what kind of judgment has been made for the photographed photograph. Specifically, for example, it is possible to display on the screen a message such as ``~ The player entered the game in the 5th minute of the second half, and at the 35th minute of the second half, it was thought that the try was a success, but the result of the judgment was a no try''.

同様に、撮影時のカメラマンの音声情報のメタデータと審判の判定情報と、試合後の結果情報のメタデータを写真にメタデータとして付加して記憶するとともに、画面に表示してもよい。
また、例えば、選手がスタメンで試合に出場して、選手交代で退いた時刻、さらに選手交代で試合に出場した時刻などの情報も選手に着目したメタデータとして写真に付加して記憶したり表示したりしても良い。
Similarly, the metadata of the cameraman's voice information at the time of shooting, the judgment information of the referee, and the metadata of the result information after the game may be added to the photograph as metadata, stored, and displayed on the screen.
In addition, for example, information such as the time when a player entered a game as a starting member and left the game as a substitute player, or the time when the player entered the game as a substitute player, is added to the photo and stored or displayed as metadata focusing on the player. You can do it.

以上説明したように、カメラからメタデータ付きの写真をサーバーにアップロードし、その後、サーバー側で、同じ写真に対してメタデータ(判定情報、試合結果情報など)を変更や追加した場合に、カメラ側ではメタデータの変更のみを実行しても良い。
なお、サーバーは、登録された選手などに関する一般的な選手としての情報をデータベースとして保存しているだけでなく、メタデータ化したデータベースとして保存していても良い。
As explained above, if you upload a photo with metadata from the camera to the server, and then change or add metadata (judgment information, match result information, etc.) for the same photo on the server side, the camera The side may perform only metadata changes.
It should be noted that the server may not only store general player information regarding registered players as a database, but may also store such information as a metadata database.

なお、実施例では、サーバー110は、例えば競技フィールド全体の映像を読み取り座標を取得することができるので、プロカメラマンや観客が撮影している画像を分析することができる。それによって、競技フィールドに対してどこから撮影しているかを把握することもできる。すなわちサーバーは、サーバー用の複数台のカメラ(固定カメラや移動カメラ)から競技フィールドの全体の映像をあらかじめ把握しておく。それにより、フィールド内における注目選手の絶対位置情報と、プロカメラマンや観客が端末やデジタルカメラで見ている映像とのマッピングが可能になる。 In addition, in the embodiment, the server 110 can read the image of the entire competition field, for example, and obtain the coordinates, so that the images taken by professional photographers and spectators can be analyzed. Thereby, it is also possible to grasp from where the shooting is being performed with respect to the competition field. In other words, the server grasps in advance an image of the entire playing field from a plurality of server cameras (fixed cameras and moving cameras). As a result, it becomes possible to map the absolute position information of the player of interest on the field and the video that professional photographers and spectators see on terminals and digital cameras.

また、プロカメラマンや観客のカメラ等の端末は、サーバーから選手の絶対位置情報を受信するとこの絶対位置情報と今撮影あるいはモニターしている映像とのマッピングが可能になる。なお、例えばサーバーからの注目選手のフィールド内での絶対位置情報を(X、Y)とする。この絶対位置情報を個々のカメラの位置情報に従い、カメラから見たときの相対的な位置情報(X´、Y´)に変換する必要がある。上記の絶対位置情報から相対位置情報への変換は、S120のようにカメラ側で実施してもよいし、サーバー側で変換した後に個々の端末(カメラなど)に相対位置情報を送ってもよい。 In addition, when a terminal such as a professional cameraman or a spectator's camera receives the player's absolute position information from the server, it becomes possible to map this absolute position information and the image currently being shot or monitored. For example, let (X, Y) be the absolute position information of the player of interest within the field from the server. It is necessary to convert this absolute position information into relative position information (X', Y') when viewed from the camera according to the position information of each camera. The above conversion from absolute position information to relative position information may be performed on the camera side as in S120, or the relative position information may be sent to individual terminals (cameras, etc.) after conversion on the server side. .

カメラ等の端末で上記変換を実行する場合は、サーバーから送られた絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、相対的な位置情報(X´、Y´)に変換する。この相対的な位置情報をもとに、カメラ側の表示画面内での位置情報とする。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
When performing the above conversion on a terminal such as a camera, relative position information (X', Y '). This relative positional information is used as positional information within the display screen of the camera.
On the other hand, when the server performs the above conversion, the server converts the absolute position information (X, Y) into relative position information (X′, Y'). The server sends this relative position information to each camera, and the camera that receives this relative position information converts this relative position information into the position information within the display screen of each camera. and

以上のようにして、プロカメラマンや観客のカメラ等の端末では、注目選手を見失うことが減るので、タイミングを逃さず注目選手の良い写真の撮影が可能になるという効果もある。
上記のような構成によって、カメラマン、あるいは一般観客が保有するカメラでは、注目選手の情報をサーバーに送り、サーバーから取得した情報をもとに注目選手の追跡を実施する。更にこれに合わせて、カメラマン、あるいは、一般観客が保有するカメラ自身でも注目選手の位置を検出することができる。
As described above, it is possible to reduce the possibility of losing sight of the player of interest on the terminals of professional photographers and spectators' cameras.
With the configuration described above, cameras owned by camera operators or general spectators send information on the player of interest to the server, and track the player of interest based on the information obtained from the server. Further, along with this, the position of the player of interest can also be detected by the camera held by the cameraman or by the general spectator.

なお、例えばラグビー競技においては、メタデータとしては、例えば試合開始48時間前の情報、試合開始数時間前の変更情報、試合中の選手の変更などの情報、撮影時の例えばカメラマンの音声コメント情報などが考えられる。更に、審判の判定に関する情報、試合終了時点での試合結果などに関する情報、サーバーがラグビー協会などから入手してくる情報なども考えられる。また、カメラなどのデバイス情報を入手し、このカメラのデバイス情報をサーバーが分析した結果得られる情報、カメラマンなどの撮影者から得られる情報などもある。 For example, in a rugby game, the metadata includes information 48 hours before the start of the match, change information several hours before the start of the match, information such as changes in players during the match, and voice comment information of the cameraman at the time of shooting, for example. etc. can be considered. Further, it is conceivable that information on referee's judgment, information on match results at the end of the match, information that the server obtains from the Rugby Union, etc., are included. In addition, there is information obtained as a result of obtaining device information of a camera or the like and analyzing the device information of the camera by a server, and information obtained from a photographer such as a photographer.

これらのメタデータを統合的にサーバーに蓄積して、必要な情報をカメラに送信する。カメラは、サーバーから取得した情報を、写真のメタデータとして追加する。
サーバーは撮影した選手が誰かを判断して、選手固有の情報をメタデータとして格納することもできる。例えば、その選手の出場タイミング、現在の試合における時間、さらに、選手の動作(「AAA選手は、スタメンで出場し、前半36分に1トライを決める。」)をメタデータとして格納しても良い。
These metadata are collectively stored on the server and the necessary information is sent to the camera. The camera adds the information obtained from the server as metadata to the photo.
The server can also determine who the player has been photographed and store player-specific information as metadata. For example, the player's entry timing, the time in the current match, and the action of the player ("AAA player enters the starting line-up and scores one try in the 36th minute of the first half.") may be stored as metadata. .

次に、図10に示した実施例1に対応した、サーバー側における注目選手の検出制御フローについて図12、図13を用いて説明する。ここでは撮影時に、カメラマンの音声情報をメタデータとして含める場合を説明する。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行い画面の中からその注目選手を探す。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
Next, a control flow for detecting a player of interest on the server side corresponding to the first embodiment shown in FIG. 10 will be described with reference to FIGS. 12 and 13. FIG. Here, a case will be described in which voice information of the cameraman is included as metadata at the time of shooting.
Based on the ID information and the like of the player of interest sent from a terminal such as a camera, the server performs image recognition of the player of interest and searches for the player of interest on the screen. The server detects the player's position information based on the images from multiple cameras for the server (fixed cameras, moving cameras, etc.), and sends the player's position information to professional photographers and spectator camera terminals. . In particular, when a professional cameraman or spectator takes a picture, if there is positional information of the player of interest from the server, the player of interest can be reliably photographed without mistaking the player. Furthermore, information from the server is also important when tracking a player of interest with a camera and losing sight of the player in a blind spot. On the server side, the player's position information is continuously detected based on the images from multiple cameras for the server.

図12は、実施例1に対応した、サーバー側における注目選手の検出制御のメインフローを示す。
図12において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
FIG. 12 shows a main flow of detection control of a player of interest on the server side, corresponding to the first embodiment.
In FIG. 12, initialization is first performed in S201. Next, in S202, it is determined whether or not photography has been selected in the camera, and if photography has been selected, the process advances to S203 to obtain camera setting information. At this time, if there is a password in the setting information of the camera, it is also obtained. If photography is not selected, the process proceeds to S201. In S204, it is determined whether or not shooting (designation) of the player of interest has been selected. If shooting of the player of interest has been selected, the process proceeds to S205. number). If shooting of the player of interest is not selected in S204, the process proceeds to S210 to perform other processing.

S206で、サーバーは、前記注目選手のID情報に基づき、複数のカメラ(固定カメラや移動カメラなど)からの映像に基づき画像認識によって、注目選手を画面内で見つける。S207で、サーバーは、複数のカメラからの映像に基づき注目選手を追跡する。S208で、カメラからの情報により、注目選手の写真撮影(静止画撮影)があるか否かが判断され、注目選手の実際の撮影がある場合はS208-2に進み、注目選手の実際の写真撮影がないと、S205に戻る。
S208-2では、撮影時のメタデータがついている写真をカメラから受信する。ここで、メタデータとしては、カメラマンがシャッターをきった時のカメラマンの音声情報やその他の一般情報などのメタデータが含まれている。
In S206, the server finds the player of interest in the screen by image recognition based on the images from a plurality of cameras (fixed cameras, moving cameras, etc.) based on the ID information of the player of interest. At S207, the server tracks the player of interest based on the images from the multiple cameras. In S208, it is determined whether or not a photograph (still image) of the player of interest has been taken, based on information from the camera. If there is no shooting, the process returns to S205.
In S208-2, the photograph attached with metadata at the time of photographing is received from the camera. Here, the metadata includes metadata such as cameraman's voice information when the cameraman releases the shutter and other general information.

S208-3は、S208-2の写真を予め登録した所定の宛先であるフォトエージェンシーに送る。
これにより、フォトエージェンシーは、撮影されたメタデータ付きの写真を早いタイミングで受け取ることが可能になり、写真情報の活用が可能になる。
S209では、注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS201に戻り、注目選手の撮影が継続している場合には、S205に戻る。そして、再度、サーバーは、カメラマン、あるいは、一般観客の保有するカメラからの情報を認識する。そして、複数のサーバー用のカメラ(固定カメラや移動カメラ)からの情報を探索して、注目選手を見つけて、S207で、継続してサーバーは、複数のカメラからの映像に基づき、注目選手の追跡を実施する。
In step S208-3, the photograph in step S208-2 is sent to the photo agency, which is a predetermined destination registered in advance.
As a result, photo agencies can receive photos with metadata at an early stage, making it possible to utilize photo information.
In S209, it is determined whether or not the shooting of the player of interest has ended. When the shooting of the player of interest ends, the process returns to S201, and when the shooting of the player of interest continues, the process returns to S205. Then, again, the server recognizes information from cameras owned by cameramen or general spectators. Then, information from a plurality of cameras (fixed cameras and moving cameras) for the server is searched to find the player of interest. Carry out tracking.

S202で写真撮影が選択されていない場合には、S211で、メタデータの入力が選択されたか判断され、メタデータの入力が選択されているとS212に進み、メタデータの入力を実施し、メタデータの入力が選択されていないとS201に戻る。
S212でのメタデータの入力は、ラグビーの試合開始前に入力されるものであり、その際のメタデータとしては、例えば試合開始前の情報(48時間前)、試合開始に先立って行われた例えば出場選手の変更(数時間前の情報)などがある。
If photography is not selected in S202, it is determined in S211 whether metadata input has been selected. If data input is not selected, the process returns to S201.
Metadata input in S212 is input before the start of a rugby match. For example, there is a change of participating players (information several hours ago).

これにより、試合の開始前のメタデータ情報は、サーバー側に予め一旦蓄積しておく。そして、カメラマンが実際に撮影を行った時、すなわち、シャッターを切った時に、カメラマンの音声情報とともにメタデータとして、サーバー側で写真に追加することが可能になる。
これにより、カメラマンの音声メモを写真のメタデータとして残すことが可能になるとともに、例えば試合開始前の試合に関する情報などは、カメラマンが、入力しなくてもサーバーにおいて自動的に入力されることになる。従って、カメラマンは撮影や音声メモに集中でき、撮影直後に音声のメタデータ付きの写真を報道局などに送ることが可能になる。
As a result, the metadata information before the start of the match is temporarily accumulated in advance on the server side. Then, when the cameraman actually takes a picture, that is, when the shutter is released, it becomes possible to add the cameraman's voice information and metadata to the picture on the server side.
As a result, it is possible to leave the cameraman's voice memo as metadata of the photo, and for example, information about the game before the start of the game will be automatically entered in the server without the cameraman's input. Become. Therefore, the photographer can concentrate on shooting and voice memo, and can send photos with audio metadata to the press immediately after shooting.

次に上記S206において注目選手を見つけ、S207で追跡するための方法の例について図13を用いて説明する。
図13は背番号情報を用いた注目選手検出制御フローを示す。図13において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの画像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図13のフローを終了する。
Next, an example of a method for finding a player of interest in S206 and tracking him in S207 will be described with reference to FIG.
FIG. 13 shows a target player detection control flow using uniform number information. In FIG. 13, in S401, the server obtains the uniform number from the data memory 213 based on the ID information of the player of interest, searches for this uniform number from the image information of a plurality of cameras for the server by image recognition, Get the position information of the number player. In S402, the absolute position information of the player of interest is obtained by integrating the position information obtained from the images of the plurality of cameras for the server. By synthesizing the information of a plurality of cameras for the server in this way, the accuracy of the absolute position information of a player with a certain uniform number is improved. In S403, the absolute position of the player of interest detected in S402 is transmitted to terminals such as cameras owned by professional photographers and spectators. In S404, it is determined whether or not the player of interest is being tracked. If the player of interest is being tracked, the process returns to S401, and if the player of interest is not being tracked, the flow in FIG.

次に、図カメラマンの音声情報を、審判の判定情報に置き換えてメタデータとする例について図14のフローチャートを用いて説明する。この図14は図11に示したカメラ側の実施例2に対応したサーバー側のフローチャートである。
S201からS207、S208-2、S208-3、S209から212は、図12と同一なので説明を省略する。
S208では、カメラからの情報により、注目選手の実際の撮影があるか、すなわち、シャッターをきることがあるか否かが判断される。そして、注目選手の実際の撮影がある、すなわち、シャッターを切ることがあると、S208-2に進み、注目選手の実際の撮影がない、すなわち、シャッターを切ることがないと、S213に進む。
S213においては、カメラマンの音声情報から入力したときの判定情報がサーバーにあるか否かが判断され、YesであればS214に進み、NoであればS205に進む。
Next, an example of replacing the voice information of the picture cameraman with the judgment information of the referee and using it as metadata will be described with reference to the flowchart of FIG. 14 . This FIG. 14 is a flowchart on the server side corresponding to the second embodiment on the camera side shown in FIG.
Since S201 to S207, S208-2, S208-3, and S209 to 212 are the same as in FIG. 12, their description is omitted.
In S208, it is determined based on the information from the camera whether or not the player of interest is actually photographed, that is, whether or not the shutter is released. If the player of interest is actually photographed, that is, if the shutter is released, the process proceeds to S208-2, and if the player of interest is not actually photographed, that is, the shutter is not released, the process proceeds to S213.
In S213, it is determined whether or not there is determination information in the server when the cameraman's voice information is input. If Yes, the process proceeds to S214, and if No, the process proceeds to S205.

S214は、カメラマンの音声情報のメタデータを、審判の判定情報に変更する。また、メタデータが変更されるので写真の名称を更新する。
このように、試合の開始前に取得されたメタデータは、サーバー側に蓄積しておいて、カメラマンが実際に撮影を行った時に、カメラマンの音声情報をメタデータとして写真に付加して、サーバーに送る。サーバーでは、審判の判定がカメラマンの音声メモと異なるときに自動的にメタデータを書き換えることが可能になる。
S214-2では、S214でのメタデータをカメラに送る。これによってカメラ側では、サーバーから送られたメタデータに関する情報(例えば判定情報の中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようになる。
In S214, the metadata of the cameraman's voice information is changed to the judgment information of the referee. Also, since the metadata is changed, the name of the photo is updated.
In this way, the metadata acquired before the start of the game is accumulated on the server side, and when the cameraman actually takes a picture, the cameraman's voice information is added to the picture as metadata and sent to the server. send to On the server, it will be possible to automatically rewrite the metadata when the referee's judgment differs from the cameraman's voice memo.
In S214-2, the metadata in S214 is sent to the camera. As a result, the camera side can display information (for example, contents of determination information, etc.) related to the metadata sent from the server on the camera side display device when the user selects it by menu operation.

これにより、カメラにおいても、サーバー側のメタデータと同期させることが可能になる。カメラでは、写真(静止画像)は変更せず、写真のメタデータのみ変更する。
次にS214-3において、上記S214でメタデータと名称を変更した写真を、フォトエージェンシーに送り、その後S205に進む。
これにより、フォトエージェンシーは、メタデータが変更になった時に、名称番号が変更された写真として受け取ることが可能になり、写真情報の活用がより高まるとともに、カメラマンの作業が簡略化され、速やかに写真を報道局に送ることが可能になる。
This allows the camera to synchronize with server-side metadata. The camera does not change the photo (still image), only the metadata of the photo.
Next, in S214-3, the photo whose metadata and name have been changed in S214 is sent to the photo agency, and then the process proceeds to S205.
As a result, when the metadata changes, the photo agency will be able to receive the photo with the name and number changed, which will increase the utilization of photo information, simplify the work of photographers, and speed up the process. Photos can be sent to the press.

次に図15は、カメラマンの音声情報と審判の判定情報をともにメタデータとする実施例3に対応したサーバー側のフローチャートである。
S201からS207、S208-2、S208-3、S209から212は、図12と同一なので説明は省略する。
S208では、カメラからの情報により、注目選手の実際の撮影があるか、すなわち、シャッターをきることがあるか否かが判断される。そして、注目選手の実際の撮影がある、すなわち、シャッターを切ることがあると、S208-2に進み、注目選手の実際の撮影がない、すなわち、シャッターを切ることがないと、S215に進む。
S215においては、カメラマンの音声情報を入力した際の判定情報がサーバーにあるか否かが判断され、YesであればS216に進み、NoであればS205に進む。
S216では、カメラマンの音声情報のメタデータに、判定情報のメタデータもともに記憶する。まあ、メタデータが変更されているので写真の名称も変更する。
Next, FIG. 15 is a flowchart on the server side corresponding to Example 3 in which both cameraman's voice information and referee's judgment information are metadata.
Since S201 to S207, S208-2, S208-3, and S209 to 212 are the same as in FIG. 12, their description will be omitted.
In S208, it is determined based on the information from the camera whether or not the player of interest is actually photographed, that is, whether or not the shutter is released. If the player of interest is actually photographed, that is, if the shutter is released, the process proceeds to S208-2, and if the player of interest is not actually photographed, that is, the shutter is not released, the process proceeds to S215.
In S215, it is determined whether or not there is determination information in the server when the voice information of the cameraman was input. If Yes, the process proceeds to S216, and if No, the process proceeds to S205.
In S216, the metadata of the judgment information is stored together with the metadata of the cameraman's voice information. Well, change the name of the photo because the metadata has changed.

これにより、試合の開始前のメタデータ情報は、サーバー側に蓄積しておいて、カメラマンが実際に撮影を行った時のカメラマンの音声情報をメタデータとして、写真に付加するとともに、さらに、審判の判定もメタデータとして記憶することが可能になる。
S216-2では、S216のメタデータをカメラに送る。これによってカメラ側では、サーバーから送られたメタデータに関する情報(例えば判定情報の中身等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようになる。
これにより、カメラにおいて、メタデータを最新のものに更新することが可能になる。カメラでは、写真は変更せず、写真のメタデータのみ変更する。
S216-3は、S216において、変更したメタデータ付きの写真をフォトエージェンシーに送る。
As a result, the metadata information before the start of the game is accumulated on the server side, and the cameraman's voice information when the cameraman actually took the picture is added to the picture as metadata. can also be stored as metadata.
In S216-2, the metadata of S216 is sent to the camera. As a result, the camera side can display information (for example, contents of determination information, etc.) related to the metadata sent from the server on the camera side display device when the user selects it by menu operation.
This enables the camera to update the metadata to the latest one. In the camera, it doesn't change the photo, only the photo's metadata.
S216-3 sends the photo with the modified metadata to the photo agency at S216.

これにより、フォトエージェンシーは、メタデータが変更になった時に、名称が変更された写真として受け取ることが可能になり、写真とメタデータを活用して速やかに出版等をすることができる。またカメラマンの作業は簡略化され、写真を速やかに報道局に送ることができる。 As a result, when the metadata is changed, the photo agency can receive the photo with the changed name, and can quickly publish the photo using the photo and the metadata. It also simplifies the work of photographers and allows them to quickly send photos to the news bureau.

次に図16、図17のフローチャートを用いて、撮影時の情報として、プロカメラマンの音声情報と審判の判定情報と試合の結果情報を併記した情報をメタデータとする例について説明する。
図16において、S209以外は図12と同一なので説明は省略する。
Next, with reference to the flow charts of FIGS. 16 and 17, an example will be described in which metadata is information in which professional cameraman's voice information, referee's decision information, and game result information are written together as information at the time of shooting.
16 are the same as those in FIG. 12 except for S209, so description thereof will be omitted.

S209において注目選手の撮影が終了した場合には図17のS219に進む。S219では、試合が終了したか否かが判断され、試合が終了するとS220に進み、試合が終了していないとS205に進む。
S220では、試合終了後のメタデータがあるか否かが判断され、試合終了後のメタデ
ータがあるとS221に進み、試合終了後のメタデータがないとS201に進む。
S221では、カメラマンが入力した音声情報のメタデータ、判定情報のメタデータ、更に試合終了後のメタデータ情報も追加する。メタデータ変更に伴い写真の名称も変更する。
これにより、カメラマンの音声情報、審判の判定結果、試合終了後の情報もメタデータとして写真に付加することが可能になる。
If the shooting of the player of interest has ended in S209, the process proceeds to S219 in FIG. At S219, it is determined whether or not the match has ended.
In S220, it is determined whether or not there is post-match metadata. If there is post-match metadata, the process proceeds to S221, and if there is no post-match metadata, the process proceeds to S201.
In S221, the metadata of the audio information input by the cameraman, the metadata of the judgment information, and the metadata information after the end of the game are added. Change the name of the photo along with the metadata change.
This makes it possible to add the cameraman's voice information, the judgment result of the referee, and the information after the game as metadata to the photograph.

S221-2では、S221のメタデータをカメラに送る。これによってカメラ側では、サーバーから送られたメタデータに関する情報(例えば判定情報や試合終了情報等)をカメラ側の表示装置でユーザーがメニュー操作で選択した場合には表示できるようになる。
これにより、カメラにおいて、メタデータを最新のものに更新することが可能になる。カメラでは、写真は変更せず、メタデータのみ変更する。
S221-3では、S221のメタデータ付きの写真をフォトエージェンシーに送る。
なお以上の実施例において、カメラからメタデータを有する写真をサーバーにアップロードする際には、カメラ側では写真1枚ずつに対して、メタデータのみを更新していく。一方、サーバー側では、メタデータが更新されたときに写真(撮影画像)のファイルをアップデートしていくので、写真は複数枚となり、写真の名称は更新されていく。
In S221-2, the metadata of S221 is sent to the camera. As a result, the camera side can display information (for example, judgment information, game end information, etc.) related to the metadata sent from the server when the user selects it by operating the menu on the display device of the camera side.
This enables the camera to update the metadata to the latest one. The camera does not change the photo, only the metadata.
At S221-3, the photograph with the metadata of S221 is sent to the photo agency.
In the above embodiment, when photos having metadata are uploaded from the camera to the server, the camera updates only the metadata for each photo. On the server side, on the other hand, when the metadata is updated, the photo (captured image) file is updated, so there are multiple photos, and the photo name is updated.

これにより、カメラマンの音声情報と、審判の判定結果と、試合終了後の試合結果情報をメタデータとして写真に格納することができる。写真の付加価値をより高めることができる。
プロカメラマンや一般観客にとって、ゲームの中での判定は気になるものである。審判は主審1人とタッチジャッジ2人の3人体制で行っている。特に、トライを決めたかに見えたシーンにおいての判定、あるいは、ゲームの中での反則が起きたかの判定など人間の眼だけでは判断ができないことがある。このために、肉眼での判定が難しい場合に審判の判定の手助けとなるビデオ判定(TMO(テレビジョン・マッチ・オフィシャル))を行っている。
As a result, the cameraman's voice information, the judgment result of the referee, and the game result information after the game is over can be stored in the photograph as metadata. It is possible to increase the added value of the photograph.
For professional photographers and general spectators, the judgment in the game is something to worry about. There are three referees, one referee and two touch judges. In particular, there are cases where judgment cannot be made by human eyes alone, such as judgment in a scene where it appears that a try has been scored, or whether or not a foul has occurred in a game. For this reason, video judgment (TMO (television match official)) is used to help referees make judgments when it is difficult to make judgments with the naked eye.

プロカメラマンや一般観客の保有するカメラ等の端末で、トライシーンを撮影した時に、今、撮影した画像は、トライとして認定されたかそれともトライにならなかったかをプロカメラマンや一般観客は即座に知りたい。そのため、複数台のカメラの映像から、その後の判定を追いかけたり、電光掲示板に表示される情報を基にしてサーバーで解析したりして判定を正確に認識する。そして審判の判定結果を、プロカメラマンや一般観客のカメラ等の端末に送信することにより、ユーザーは判定結果をタイムリーに正しく認識することが可能になる。 Professional photographers and general spectators want to know immediately whether the image taken just now was certified as a try or not as a try when shooting a try scene with a terminal such as a camera owned by a professional cameraman or general spectator. . Therefore, the judgment is accurately recognized by tracking the subsequent judgment from the images of multiple cameras and analyzing the information displayed on the electronic bulletin board on the server. By transmitting the referee's decision results to the terminals of professional photographers and general spectators' cameras, etc., users can timely and correctly recognize the decision results.

トライが行われたかどうかの検出方法は複数ある。以下に、具体的に説明する
トライ判定制御フロー(サーバー側)が図18に図示されている。
図18において、S1101は、初期化を表している。ここで、TRYジャッジフラグは、クリアする。S1102では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS1103に進み、写真撮影が選択されていないとS1101に進む。S1103では、カメラの設定情報を入手する。S1104では、複数台のカメラの映像から、試合で使用しているボールを追いかける。
There are multiple ways to detect whether a try has been made. FIG. 18 shows a try determination control flow (on the server side), which will be specifically described below.
In FIG. 18, S1101 represents initialization. Here, the TRY judge flag is cleared. In S1102, it is determined whether or not photography has been selected. If photography has been selected, the process advances to S1103, and if photography has not been selected, the process advances to S1101. In S1103, camera setting information is obtained. In S1104, the ball used in the game is tracked from the images of the multiple cameras.

S1105では、TRYジャッジフラグが0であるか否かが判断され、TRYジャッジフラグが0であるとS1106に進み、TRYジャッジフラグが0でないとS1107に進む。S1106では、トライがあったようであるかが判断され、トライがあったようであるとS1107に進み、トライがあったようでなければS1112に進む。ここで、トライがあったようというのは、選手がボールをトライエリアに持ち込んでいる状態である。例えば、選手は、トライの直前に、ボールを前に落とすノックオンをしているケース、あるいは、守備の選手がトライしようとしているボールに手や体を入れて、グラウンディングを阻止していることもある。すなわち、トライが、確定した状態ではない。S1107は、TRYジャッジフラグに1をセットする。S1108は、トライの有無を判定する。
図19、図20、図21、図22に、トライの判定を行う具体例が図示されており、これらについては後述する。
At S1105, it is determined whether the TRY judge flag is 0 or not. In S1106, it is determined whether or not there is a try. Here, a try is a state in which the player brings the ball into the try area. For example, a player knocks the ball forward just before a try, or a defender puts his hand or body into the ball when he is about to try, preventing him from grounding. be. That is, the try is not in a definite state. S1107 sets 1 to the TRY judge flag. S1108 determines whether or not there is a try.
19, 20, 21, and 22 show specific examples of try determination, which will be described later.

S1109では、S1108の制御にて、トライの有無の判定結果がでたか否かが判断され、トライの有無の判定結果がでると、S1110に進み、トライの有無の判定結果がでていないとS1112に進む。S1110は、TRYジャッジフラグに0をセットする。S1111は、サーバーは、トライがあったか否かの情報をプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。S1112では、ゲームが終了したか否かが判断され、ゲームが終了しているとS1101に進み、ゲームが終了していないとS1104に進む。
以上は、トライの有無を判定する制御である。しかしながら、CPUはこの制御のみを実行するのではなく、例えば、図12等に示した注目選手の検出制御と同時並行して実行しても良い。
In S1109, it is determined whether or not the determination result of the presence or absence of a try is obtained in the control of S1108. proceed to S1110 sets 0 to the TRY judge flag. In S1111, the server sends information as to whether or not there was a try to terminals such as cameras owned by professional photographers and general spectators. In S1112, it is determined whether or not the game has ended. If the game has ended, the process proceeds to S1101, and if the game has not ended, the process proceeds to S1104.
The above is the control for determining whether or not there is a try. However, the CPU may not only execute this control, but may execute it in parallel with, for example, the player-of-interest detection control shown in FIG. 12 and the like.

なお、サーバーが同時並行して実行する制御はこれに限定されず、その他の複数の制御を同時に行っても良い。一方、プロカメラマンや一般観客が保持するカメラ等の端末についても、同様であり、その他の複数の制御を同時に行っても良い。
トライシーンの撮影をした際に、トライが成功したか失敗したかを正しく認識しないといけない。サーバーは、トライが成功したか、あるいは、コンバージョンが成功したかの判定を確認する。ここでは、トライの例で説明を行った。しかしながら、トライに限らず、その他の得点シーンに対しても同様の制御を実行できる。
Note that the control executed concurrently by the server is not limited to this, and a plurality of other controls may be executed simultaneously. On the other hand, the same applies to terminals such as cameras held by professional photographers and general spectators, and a plurality of other controls may be performed simultaneously.
When shooting a try scene, you have to correctly recognize whether the try succeeded or failed. The server confirms the determination of whether the try was successful or the conversion was successful. Here, an example of a trie is used for explanation. However, similar control can be executed not only for tries but also for other scoring scenes.

複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラで、ボールの動きを分析して、ボールがきちんと所定エリア内にグラウンディングされていたか否かを認識する。サーバーは、認識したこのボールの動きからトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバー側でボールの動きからのトライの有無を判定するフローを図19(A)に示す。
図19(A)において、S1201では、サーバーは、複数台のカメラの画像からボールのある場所を検出する。S1202では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをボールの動きから認識する。
Analyze images from multiple cameras, and when there is a play that seems to have resulted in a try, analyze the movement of the ball with multiple cameras to see if the ball was properly grounded within the designated area. recognize whether or not Based on the movement of the ball that has been recognized, the server sends information as to whether or not it was a try, together with player information, to terminals such as cameras owned by professional photographers and general spectators.
FIG. 19(A) shows a flow for judging whether or not there is a try based on the movement of the ball on the server side.
In FIG. 19A, in S1201, the server detects the location of the ball from the images of multiple cameras. In S1202, it is recognized from the movement of the ball whether there is a try in a scene that is considered to be a try from the images of a plurality of cameras.

次に、審判動作からのトライ有無判定フローが図19(B)に示されている。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの映像から、その後の注目選手の周囲にいる審判のルール上の動作を分析し画像認識して、審判の動作からトライであったか否かを認識してもよい。サーバーは、認識したこの審判の動作からトライであったか否かの分析結果に関する情報(動作認識結果)を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
Next, FIG. 19(B) shows a try/non-try determining flow from the referee motion.
Analyze images from multiple cameras, and when there is a play that seems to have resulted in a try, analyze the images from multiple cameras and analyze the behavior of referees around the player of interest according to the rules afterward. It may be recognized whether or not it was a try from the action of the umpire. The server sends information (results of motion recognition) on analysis results as to whether or not a try was scored based on the recognized motions of the referee, together with player information, to terminals such as cameras owned by professional photographers and general spectators.

図19(B)において、S1301では、サーバーは、複数台のカメラの映像からトライ判定をしているような動きの近くの審判の動作を検出する。S1302では、複数台のカメラの映像からトライと思われるシーンでトライがあったかを審判の動作から認識する。
図20には、トライ有無判定の審判動作が、図示されている。図20において、図20(A)は、トライが成立した時に、審判の動作である。図20(B)は、トライが成立しない時の審判の動作である。
In FIG. 19(B), in S1301, the server detects a referee's motion near a try-deciding motion from images of a plurality of cameras. In S1302, it is recognized from the actions of the referee whether there is a try in a scene that is considered to be a try from the images of a plurality of cameras.
FIG. 20 shows the refereeing operation for determining whether or not there is a try. In FIG. 20, FIG. 20(A) shows the referee's action when a try is established. FIG. 20(B) shows the referee's action when a try is not established.

更に、競技場の大型スクリーンに表示される情報からトライの有無を認識するフローについて図21を用いて説明する。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラで、競技場の大型スクリーンに映し出される情報を入力して、このスクリーンの情報からトライであったか否かを認識する。サーバーは、認識したこのスクリーンの情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
Further, a flow for recognizing the presence or absence of a try based on the information displayed on the large screen in the stadium will be described with reference to FIG.
Analyze the images from multiple cameras, and when there is a play that seems to have been a try, input the information projected on the large screen of the stadium with multiple cameras, and use the information on this screen to make a try recognize whether or not it was Based on the information on the recognized screen, the server sends information as to whether or not the try was scored, together with player information, to terminals such as cameras owned by professional photographers and general spectators.

サーバー側における、スクリーン表示の判定結果からのトライの有無を判定するフローを図21(A)に示す。図21(A)において、S1401では、サーバーは、複数台のカメラからの画像からトライのような動きの後のスクリーンに表示される判定結果の情報を検出する。S1402では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される判定結果から認識する。 FIG. 21(A) shows a flow for judging whether or not there is a try based on the screen display judgment result on the server side. In FIG. 21A, in S1401, the server detects determination result information displayed on the screen after a try-like movement from images from a plurality of cameras. In S1402, it is recognized from the judgment result displayed on the screen whether there is a try in a scene that is considered to be a try from images of a plurality of cameras.

次にスクリーンに表示されている得点情報からトライの有無を認識するフローについて図21(B)を用いて説明する。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの画像に基づき、スクリーンに映し出される得点情報を入力して、このスクリーンの得点情報からトライであったか否かを認識する。サーバーは、認識したこのスクリーンの得点情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。トライをすると得点は5点入り、その後のコンバージョンキックが成功すると得点は2点入る。
Next, the flow for recognizing the presence or absence of a try based on the score information displayed on the screen will be described with reference to FIG. 21(B).
Analyze the video from multiple cameras, and when there is a play that seems to have been a try, enter the score information displayed on the screen based on the images from multiple cameras, and use the score information on this screen Recognize whether it was a try or not. Based on the score information on the recognized screen, the server sends information as to whether or not it was a try along with player information to terminals such as cameras owned by professional photographers and general spectators. A try scores 5 points, and a successful conversion kick scores 2 points.

また、ペナルティキック、あるいは、ドロップゴールに成功すると得点は3点入る。トライが行われたと思われる前の得点とトライが行われた後の得点を比較することでトライが成功したかを認識できる。
スクリーンの得点情報からサーバーがトライの有無を判定するフローを図21(B)に示す。
Also, if a penalty kick or a drop goal is successfully scored, 3 points are scored. Comparing the score before the try was supposed to be scored with the score after the try was scored allows us to recognize whether the try was successful.
FIG. 21(B) shows a flow in which the server determines the presence or absence of a try based on the score information on the screen.

図21(B)において、S1501では、サーバーは、複数台のカメラの画像からトライのような動きの後のスクリーンに表示される得点情報を検出する。S1502では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される得点情報の差分から認識する。S1503では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される得点情報の差分から、トライ、コンバージョンキック、ペナルティキック、あるいは、ドロップゴールを認識する。 In FIG. 21B, in S1501, the server detects score information displayed on the screen after a try-like movement from the images of a plurality of cameras. In S1502, it is recognized from the difference in score information displayed on the screen whether there is a try in a scene that is considered to be a try from the images of a plurality of cameras. In S1503, a try, a conversion kick, a penalty kick, or a drop goal is recognized from the difference in score information displayed on the screen as to whether a try was scored in a scene that is considered to be a try based on images from a plurality of cameras.

次にフィールドでアナウンスされる音声情報からトライの有無を認識するフローについて図22を用いて説明する。
複数台のカメラ(固定カメラや移動カメラ)についているマイクから入力される音声情報を分析し、トライが行われたと思われるプレイがあった時には、上記マイクからの音声情報からトライであったか否かを認識する。サーバーは、認識したこの音声情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバーによる、音声情報からトライの有無を判定する具体的なフローを図16に示す。図22において、S1601では、サーバーは、複数台のカメラのマイクからトライのような動きの後の音声情報を検出する。S1602では、複数台のカメラのマイクからトライと思われるシーンでトライがあったかを音声情報に基づき認識する。
Next, a flow for recognizing the presence or absence of a try based on voice information announced in the field will be described with reference to FIG.
Analyze audio information input from microphones attached to multiple cameras (fixed cameras and moving cameras), and when there is a play that seems to have been a try, use the audio information from the above microphones to determine whether it was a try or not. recognize. Based on the recognized voice information, the server sends information as to whether or not it was a try, together with player information, to terminals such as cameras owned by professional photographers and general spectators.
FIG. 16 shows a specific flow for judging whether or not there is a try from voice information by the server. In FIG. 22, in S1601, the server detects audio information after a try-like movement from microphones of a plurality of cameras. In S1602, it is recognized from the microphones of a plurality of cameras whether there is a try in a scene considered to be a try based on audio information.

上記の実施例においてはトライの得点の判断について述べたが、トライの得点に加えて、トライ後のコンバージョンによる得点、ペナルティキックによる得点を考えても良い。
なお、トライが行われたかどうかのサーバー側の検出フローは、図23に図示されているが、トライが行われたかどうかに関するカメラ等の端末側の制御について説明する。
図23はカメラ等の端末側のトライ判定制御フローを示している。図23においてS101からS107-2、S110は、図9のステップと同一であるので説明を省略する。
In the above embodiment, the determination of the score of a try has been described, but in addition to the score of a try, it is also possible to consider the score of a conversion after a try and the score of a penalty kick.
FIG. 23 shows the server-side detection flow of whether or not a try has been made, but the control of a terminal such as a camera regarding whether or not a try has been made will be described.
FIG. 23 shows a try determination control flow on the side of a terminal such as a camera. In FIG. 23, steps S101 to S107-2 and S110 are the same as the steps in FIG. 9, so description thereof will be omitted.

S1620では、注目選手の追跡継続OK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S1621に進む。S1621では、サーバーからトライ判定結果が送られたか否かが判断され、サーバーからトライ判定結果が送られるとS1622に進み、サーバーからトライ判定結果が送られていないとS107に戻り、カメラ自身で注目選手の追跡を継続する。S1622では、カメラの表示部にトライの判定結果を表示する。 At S1620, it is determined whether or not it is OK (successful) to continue tracking the player of interest. In S1621, it is determined whether or not the result of the try decision has been sent from the server. If the result of the try decision has been sent from the server, the process proceeds to S1622. Continue tracking players. In S1622, the try determination result is displayed on the display unit of the camera.

なお、S1620で注目選手の追跡継続に成功していないとS109に進み、注目選手の撮影が終了したか否かを判断し、終了していなければS105に戻る。終了していればS1623に進み、サーバーからトライ判定結果が送られたか否かが判断され、サーバーからトライ判定結果が送られているとS1624に進みカメラ端末の表示部にトライの判定結果を表示する。サーバーからトライ判定結果が送られていないとS101に戻る。
以上により、トライらしき状態になった時に、カメラ端末側に、そのトライに成功したか否かを表示できるようになる。これにより、一般観客、あるいは、カメラマンは、例えば撮影した写真の評価を正しく認識できるようになる。そして、カメラマンは、カメラの表示部を見るだけで、判定について認識できるので、報道機関等に送る写真の選定を適切に行うことができるとともに、次の撮影に向けた準備をいち早くできる。
If it is determined in S1620 that the player of interest has not been successfully continued to be tracked, the process advances to S109 to determine whether or not the shooting of the player of interest has ended. If not, the process returns to S105. If so, the process advances to S1623 to determine whether or not the try decision result has been sent from the server.If the try decision result has been sent from the server, the process advances to S1624 to display the try decision result on the display unit of the camera terminal. do. If the try determination result has not been sent from the server, the process returns to S101.
As described above, it is possible to display whether or not the try is successful on the camera terminal side when a try-like state occurs. As a result, general spectators or photographers, for example, can correctly recognize the evaluation of the photographs taken. Since the cameraman can recognize the judgment just by looking at the display unit of the camera, he can appropriately select photographs to be sent to the news media, etc., and quickly prepare for the next photographing.

反則が起きた時に、複数台のカメラ(固定カメラや移動カメラ)で反則の状況を認識するが、この情報は、プロカメラマンや一般観客の保有するカメラ等の端末にも送られ上記端末で表示される。
ここでは、図24にカメラ側の反則判定制御フローが図示されている。図24はカメラ側でのトライ判定制御フローがベースになっており、カメラ側に反則の状況を表示するためのものである。
図24において、図23とはS7421~S7424のみが異なる。即ち、図23におけるS1621、S1622、S1623、S1624は、S7421、S7422、S7423、S7424に置き換わり、それぞれ、の「トライ判定」が「反則判定」になっている点のみ異なる。
When a foul occurs, multiple cameras (fixed cameras and mobile cameras) recognize the foul situation, but this information is also sent to terminals such as cameras owned by professional photographers and general spectators and displayed on the above terminals. be done.
Here, FIG. 24 shows the foul determination control flow on the camera side. FIG. 24 is based on the try determination control flow on the camera side, and is for displaying foul situations on the camera side.
24 differs from FIG. 23 only in S7421 to S7424. That is, S1621, S1622, S1623, and S1624 in FIG. 23 are replaced with S7421, S7422, S7423, and S7424, and the only difference is that the "try decision" is changed to "foul decision".

以上により、プロカメラマンや一般観客の保有するカメラ等の端末に、反則の状況を表示できるようになるので、プロカメラマンや一般観客は、撮影した写真の状況を正しく認識できるようになる。特に、プロカメラマンは、試合中に、写真を報道機関に送る必要があり、この写真選定にとって、有効な情報になる。
以上のように本実施例によれば、サーバーは、注目選手以外(特定の対象以外)の周囲の情報を分析し、分析結果をカメラ等の画像処理装置に送信するので、カメラ等の端末側ではトライやゴールや反則などの競技のリアルタイムの状況を把握できるようになる。従って、特に、プロカメラマン等は、試合中に、写真を選択してタイムリーに報道機関に送る際に、非常に有益な情報を得ることができる。
As described above, the state of foul play can be displayed on a terminal such as a camera owned by a professional photographer or general spectator, so that the professional photographer or general spectator can correctly recognize the situation of the photographed photograph. In particular, professional photographers need to send photos to the press during the game, which is useful information for photo selection.
As described above, according to this embodiment, the server analyzes the surrounding information of players other than the player of interest (other than the specific target), and transmits the analysis result to an image processing device such as a camera. , you will be able to grasp the real-time situation of the competition such as tries, goals, and fouls. Therefore, in particular, professional photographers and the like can obtain very useful information when selecting photographs and sending them to the news media in a timely manner during a game.

なお、選手の動きをビッグデータとしてサーバーに格納しておいて、このビッグデータをもとに、AIによる選手の動き予測を行っても良い。なお、注目選手は1人だけ指定する例を説明したが、注目選手は複数選手指定しても良い。また、注目選手は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。 It should be noted that the player's movements may be stored in the server as big data, and AI may be used to predict the player's movements based on this big data. Although an example in which only one player is designated as the player to be noticed has been described, a plurality of players may be designated as the player to be noticed. In addition, it is assumed that the player to be noticed can be switched in the middle. All the players who are participating in the game may be selected as featured players. Also, video and images include not only moving images but also still images. In addition, I have explained mainly about chasing and chasing attention players.

しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。また、実施例では選手を追跡する例を用いて説明したが、犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。 However, instead of chasing only the player of interest, information about the player who has the ball or who receives the ball may be transmitted and displayed to the professional cameraman or spectators. In addition, although the example of tracking a player has been described in the embodiment, it goes without saying that the present invention can be applied to a system that tracks a person such as a criminal using a plurality of monitoring cameras. Alternatively, the present invention can be applied not only to a system for tracking a specific vehicle in car racing or the like, but also to a system for tracking a horse in a horse race or the like. In the embodiment, an example in which a player of interest is specified using a camera terminal or the like has been described, but the player of interest may be specified on the server side.

なお、以上の実施例においては、ラグビーを例にして説明したが、その他のスポーツやフィールドワークなどにおいても適用できることは言うまでもない。
なお、サーバー側では、端末装置から送られた写真を、図示しないネットワークを介して、例えば放送局などにも送るようにしても良い。
以上実施例で説明したように、カメラマンは写真撮影に際して様々なデータをメタデータとして追加したいが、そのために写真撮影に集中できない恐れがある。しかし本実施例によればサーバーに写真を送ることによってサーバー側で写真に対する種々のメタデータを追加したり書き換えしたりできるので、カメラマンの撮影時の負荷が大幅に減る。それによってカメラマンは撮影に集中できようになる。また、サーバー側でその写真に関連した一般的情報や試合の判定情報など従来では得られなかった情報を付加することができる。従って、写真一枚一枚の付加価値を高めることができるとともに、後で写真の分析や選別や編集などをする際にも効率をアップすることができる。
In the above embodiment, rugby was used as an example, but it goes without saying that the present invention can also be applied to other sports and field work.
On the server side, the photograph sent from the terminal device may be sent to, for example, a broadcasting station via a network (not shown).
As described in the above embodiments, photographers want to add various data as metadata when taking pictures, but there is a risk that this may prevent them from concentrating on taking pictures. However, according to this embodiment, by sending a photograph to the server, the server can add or rewrite various metadata for the photograph. This allows the photographer to concentrate on shooting. In addition, the server side can add information that could not be obtained in the past, such as general information related to the photo and game judgment information. Therefore, the added value of each photograph can be increased, and efficiency can be improved when analyzing, sorting, and editing the photographs later.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.
Also, a program (software) that implements the functions of the above-described embodiments for part or all of the control in the present invention may be supplied to the imaging device or the information processing device via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the imaging device or information processing device may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

101、102、103・・・・カメラ
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部


101, 102, 103... Cameras 401, 402, 403... Terminal 110... Server 371... Tracking unit 380... Image display unit


Claims (16)

画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象を指定する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記表示手段に表示される画像における前記特定の対象の相対位置又は絶対位置を示す位置情報及び前記サーバーにおいて作成された前記特定の対象の所定のメタデータを取得する取得手段、
前記取得手段によって取得された前記特定の対象の前記位置情報に基づく付加情報または前記所定のメタデータに基づく文字情報を前記表示手段に表示する制御手段、
を有することを特徴とする画像処理装置。
display means for displaying an image;
selection means for selecting a specific target from among the images displayed on the display means;
Designation information generating means for generating designation information designating the specific target selected by the selection means;
transmitting means for transmitting the specified information generated by the specified information generating means to a server;
Acquisition means for acquiring position information indicating the relative position or absolute position of the specific target in the image displayed on the display means from the server and predetermined metadata of the specific target created in the server;
Control means for displaying additional information based on the position information of the specific target acquired by the acquisition means or character information based on the predetermined metadata on the display means;
An image processing device comprising:
前記画像処理装置は撮影された画像を前記送信手段によって前記サーバーに送信することを特徴とする請求項1に記載の画像処理装置。 2. An image processing apparatus according to claim 1, wherein said image processing apparatus transmits the photographed image to said server by said transmitting means. 前記サーバーは前記送信手段によって送信された前記画像に対して前記所定のメタデータを付加することを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein said server adds said predetermined metadata to said image transmitted by said transmitting means. 前記サーバーは前記所定のメタデータを付加した前記画像を所定の宛先に送信することを特徴とする請求項3に記載の画像処理装置。 4. The image processing apparatus according to claim 3, wherein said server transmits said image to which said predetermined metadata is added to a predetermined destination. 前記所定の宛先は前記画像処理装置を含むことを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein said predetermined destination includes said image processing apparatus. 前記所定の宛先は前記画像処理装置以外の宛先を含むことを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein said predetermined destination includes a destination other than said image processing apparatus. 前記画像処理装置においてメタデータを入力するための入力手段を有し、前記送信手段は前記入力手段によって入力されたメタデータを前記サーバーに送信することを特徴とする請求項1から5のいずれか一項に記載の画像処理装置。 6. The image processing apparatus according to any one of claims 1 to 5, further comprising input means for inputting metadata, wherein said transmission means transmits the metadata input by said input means to said server. 1. The image processing device according to item 1. 前記サーバーは前記送信手段によって前記画像処理装置から送信されたメタデータに基づき前記所定のメタデータを作成するメタデータ作成手段を有することを特徴とする請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein said server has metadata creation means for creating said predetermined metadata based on the metadata transmitted from said image processing apparatus by said transmission means. 前記サーバーは前記メタデータ作成手段によって作成された前記所定のメタデータを、前記画像処理装置から送信されたメタデータと置き換えることを特徴とする請求項8に記載の画像処理装置。 9. The image processing apparatus according to claim 8, wherein said server replaces said predetermined metadata created by said metadata creating means with metadata transmitted from said image processing apparatus. 前記入力手段によって入力されるメタデータは音声に関するメタデータを含むことを特徴とする請求項7に記載の画像処理装置。 8. The image processing apparatus according to claim 7, wherein the metadata input by said input means includes metadata relating to audio. 前記入力手段は前記音声を文字に変換してメタデータとすることを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein said input means converts said voice into characters and uses them as metadata. 画像処理装置から送られてくる特定の対象を指定する指定情報を受信する受信手段、
前記受信手段によって受信された前記指定情報に基づき、前記特定の対象を複数のカメラの画像の中から探して前記画像処理装置の表示手段に表示される画像における前記特定の対象の相対位置又は絶対位置を示す位置情報を生成する生成手段、
前記特定の対象の所定のメタデータを作成するメタデータ作成手段、
前記生成手段によって生成された前記特定の対象の位置情報および前記所定のメタデータを前記画像処理装置に送信する送信手段、を有することを特徴とする画像処理サーバー。
Receiving means for receiving designation information for designating a specific object sent from the image processing device;
relative position or absolute position of the specific target in the image displayed on the display means of the image processing device by searching for the specific target from images of a plurality of cameras based on the designation information received by the receiving means; generating means for generating position information indicating a position ;
metadata creation means for creating predetermined metadata of the specific target ;
An image processing server, comprising a transmission unit for transmitting the position information of the specific object and the predetermined metadata generated by the generation unit to the image processing apparatus.
請求項1から11のうちいずれか一項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 11. 請求項13に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。 14. A computer readable storage medium storing the computer program according to claim 13. 請求項12に記載の画像処理サーバーの各手段としてコンピュータを機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing server according to claim 12. 請求項15に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。 16. A computer readable storage medium storing the computer program according to claim 15.
JP2018247191A 2018-12-28 2018-12-28 Image processing device or image processing server Active JP7282519B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018247191A JP7282519B2 (en) 2018-12-28 2018-12-28 Image processing device or image processing server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018247191A JP7282519B2 (en) 2018-12-28 2018-12-28 Image processing device or image processing server

Publications (2)

Publication Number Publication Date
JP2020107196A JP2020107196A (en) 2020-07-09
JP7282519B2 true JP7282519B2 (en) 2023-05-29

Family

ID=71450861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018247191A Active JP7282519B2 (en) 2018-12-28 2018-12-28 Image processing device or image processing server

Country Status (1)

Country Link
JP (1) JP7282519B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114727001B (en) * 2021-01-05 2024-01-19 北京小米移动软件有限公司 Method, device and medium for processing image data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115006A (en) 2004-10-12 2006-04-27 Nippon Telegr & Teleph Corp <Ntt> Individual video image photographing and distributing apparatus, and individual video image photographing and distributing method and program
JP2006146475A (en) 2004-11-18 2006-06-08 Fuji Photo Film Co Ltd Automatic updating method and system for additional information of image data and automatic updating program for additional information of image data
WO2008041629A1 (en) 2006-09-29 2008-04-10 Sony Corporation Reproducing device and method, information generation device and method, data storage medium, data structure, program storage medium, and program
JP2010183302A (en) 2009-02-04 2010-08-19 Sony Corp Video processing device, video processing method, and program
JP2012053776A (en) 2010-09-02 2012-03-15 Ntt Comware Corp Display image search device, display device, display image search system, and display image search method
JP2012063890A (en) 2010-09-14 2012-03-29 Toshiba Corp Annotation device
JP2018169735A (en) 2017-03-29 2018-11-01 富士通株式会社 Video retrieval program and video retrieval method and video information processing equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3122002B2 (en) * 1995-02-16 2001-01-09 松下電器産業株式会社 Interactive information provision device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115006A (en) 2004-10-12 2006-04-27 Nippon Telegr & Teleph Corp <Ntt> Individual video image photographing and distributing apparatus, and individual video image photographing and distributing method and program
JP2006146475A (en) 2004-11-18 2006-06-08 Fuji Photo Film Co Ltd Automatic updating method and system for additional information of image data and automatic updating program for additional information of image data
WO2008041629A1 (en) 2006-09-29 2008-04-10 Sony Corporation Reproducing device and method, information generation device and method, data storage medium, data structure, program storage medium, and program
JP2010183302A (en) 2009-02-04 2010-08-19 Sony Corp Video processing device, video processing method, and program
JP2012053776A (en) 2010-09-02 2012-03-15 Ntt Comware Corp Display image search device, display device, display image search system, and display image search method
JP2012063890A (en) 2010-09-14 2012-03-29 Toshiba Corp Annotation device
JP2018169735A (en) 2017-03-29 2018-11-01 富士通株式会社 Video retrieval program and video retrieval method and video information processing equipment

Also Published As

Publication number Publication date
JP2020107196A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP7132730B2 (en) Information processing device and information processing method
CN106575027B (en) Image pickup apparatus and subject tracking method thereof
KR101680714B1 (en) Method for providing real-time video and device thereof as well as server, terminal device, program, and recording medium
US9648229B2 (en) Image processing device and associated methodology for determining a main subject in an image
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US9712750B2 (en) Display control device and associated methodology of identifying a subject in an image
JP2020086983A (en) Image processing device, image processing method, and program
JP4121974B2 (en) Image capturing system and image capturing method
US20210258496A1 (en) Image processing device, image processing server, image processing method, and storage medium
JP2020042407A (en) Information processor and information processing method and program
JP2014050022A (en) Image processing device, imaging device, and program
US20210258505A1 (en) Image processing apparatus, image processing method, and storage medium
JP7282519B2 (en) Image processing device or image processing server
JP7235098B2 (en) Information distribution device, information distribution method, information distribution program
JP7347731B2 (en) Golf digest creation system, mobile photography unit and digest creation device
JP4121973B2 (en) Scene extraction system and scene extraction method
JP5821699B2 (en) Image processing apparatus, image processing method, and program
JP7289630B2 (en) Image processing device
JP7233887B2 (en) Image processing device
JP2010141764A (en) Imaging apparatus, imaging method, image signal reproducing device, and image signal reproducing method
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP7233886B2 (en) Image processing device
JP6412743B2 (en) Shooting support apparatus, shooting support system, shooting support method, and shooting support program
JP2014123853A (en) Imaging apparatus and image display device
KR101164895B1 (en) A system producing a playing image in runner&#39;s views for the baseball game broadcasting and the recording medium thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R151 Written notification of patent or utility model registration

Ref document number: 7282519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151