JP7305461B2 - IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM - Google Patents

IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM Download PDF

Info

Publication number
JP7305461B2
JP7305461B2 JP2019122252A JP2019122252A JP7305461B2 JP 7305461 B2 JP7305461 B2 JP 7305461B2 JP 2019122252 A JP2019122252 A JP 2019122252A JP 2019122252 A JP2019122252 A JP 2019122252A JP 7305461 B2 JP7305461 B2 JP 7305461B2
Authority
JP
Japan
Prior art keywords
image
trimming
seat
cpu
seats
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019122252A
Other languages
Japanese (ja)
Other versions
JP2021010088A (en
Inventor
友樹 黒田
智宣 平石
潤子 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019122252A priority Critical patent/JP7305461B2/en
Priority to PCT/JP2020/024176 priority patent/WO2020256120A1/en
Priority to CN202080045355.6A priority patent/CN114026842A/en
Publication of JP2021010088A publication Critical patent/JP2021010088A/en
Priority to US17/556,334 priority patent/US20220116551A1/en
Application granted granted Critical
Publication of JP7305461B2 publication Critical patent/JP7305461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像提供システム、画像提供装置、その制御方法、及びプログラムに関する。 The present invention relates to an image providing system, an image providing device, a control method thereof, and a program.

スポーツの試合や、観光施設において楽しんでいるユーザを撮影する需要がある。特許文献1には、観客席にいるユーザが撮影エリアや撮影時刻などの撮影要求を入力すると、入力された撮影要求に基づき、カメラが観客のいるエリアを撮影することが開示されている。 There is a demand for photographing users having fun at sports games and tourist facilities. Japanese Patent Application Laid-Open No. 2004-100001 discloses that when a user sitting in the audience seats inputs a photographing request such as a photographing area and photographing time, a camera photographs the area where the spectators are located based on the inputted photographing request.

特開2007-142896号公報JP 2007-142896 A

特許文献1の方法では、異なる位置に観客がいる場合に、各観客の撮影の要望に応えられない可能性がある。一方で、全ての観客の要望に応えようとすると画像データ量が多くなり、画像の提供を素早く行えなくなってしまう可能性がある。本発明は、このような課題に鑑み、より多くの観客へ素早く画像の提供を行うことができるようにすることを目的とする。 In the method of Patent Document 1, when there are spectators at different positions, there is a possibility that the request for photographing of each spectator cannot be met. On the other hand, when trying to meet the demands of all the spectators, the amount of image data increases, and there is a possibility that images cannot be provided quickly. SUMMARY OF THE INVENTION In view of such problems, it is an object of the present invention to provide images to more spectators quickly.

本発明に係る画像提供システムは、複数の座席のうち撮影対象となる座席に関する情報を取得する取得手段と、前記複数の座席を画角範囲に含めた画像の撮影を撮像装置に指示する指示手段と、前記画像を提供する提供手段と、前記取得手段により取得した情報に基づいて、前記撮像装置に画像を撮影させる撮影間隔を制御する制御手段とを有することを特徴とする。 An image providing system according to the present invention includes acquisition means for acquiring information about a seat to be photographed among a plurality of seats, and instruction means for instructing an image pickup device to photograph an image including the plurality of seats in the angle of view range. , providing means for providing the image, and control means for controlling an imaging interval at which the imaging device is caused to take images based on the information obtained by the obtaining means.

本発明によれば、より多くの観客へ素早く画像の提供を行うことができる。 According to the present invention, images can be quickly provided to a larger number of spectators.

本実施形態における画像提供システムにおける施設配置の例を示す図である。It is a figure which shows the example of facility arrangement|positioning in the image provision system in this embodiment. 本実施形態における画像提供システムのシステム構成例を示す図である。It is a figure which shows the system configuration example of the image provision system in this embodiment. 本実施形態における画像処理装置の構成例を示す図である。1 is a diagram illustrating a configuration example of an image processing apparatus according to an embodiment; FIG. 本実施形態における座席ごとのトリミング位置の設定の例を示す図である。FIG. 5 is a diagram showing an example of setting trimming positions for each seat in this embodiment. 本実施形態における座席ごとのトリミング位置の設定の例を示す図である。FIG. 5 is a diagram showing an example of setting trimming positions for each seat in this embodiment. 本実施形態におけるデータ構造の例を示す図である。It is a figure which shows the example of the data structure in this embodiment. 本実施形態におけるチケット購入処理の例を示すフローチャートである。It is a flow chart which shows an example of ticket purchase processing in this embodiment. 本実施形態における試合前設定の処理の例を示すフローチャートである。It is a flow chart which shows an example of processing of pre-match setting in this embodiment. 本実施形態における試合開始後の処理の例を示すフローチャートである。It is a flowchart which shows the example of the process after the game start in this embodiment. 本実施形態におけるトリミング処理の例を示すフローチャートである。6 is a flow chart showing an example of trimming processing according to the embodiment; 本実施形態におけるグループの人数に応じた座席配置の例を示す図である。It is a figure which shows the example of seat arrangement according to the number of people of the group in this embodiment. 本実施形態における座席配置における座席の関係性を示す図である。It is a figure which shows the relationship of the seat in seat arrangement in this embodiment. 本実施形態におけるトリミング位置の計算方法を格納したデータ構造例を示す図である。It is a figure which shows the example of a data structure which stored the calculation method of the trimming position in this embodiment. 本実施形態におけるトリミング位置の計算方法を格納したデータ構造例を示す図である。It is a figure which shows the example of a data structure which stored the calculation method of the trimming position in this embodiment. 本実施形態におけるトリミング位置の計算例を示す図である。It is a figure which shows the calculation example of the trimming position in this embodiment. 本実施形態において試合の終了後に画像を提供する場合のシステム構成例を示す図である。It is a figure which shows the example of a system configuration|structure in the case of providing an image after the completion|finish of a game in this embodiment. 本実施形態において試合の終了後に画像を提供する場合のシステム構成例を示す図である。It is a figure which shows the example of a system configuration|structure in the case of providing an image after the completion|finish of a game in this embodiment. 本実施形態における撮影一連処理の例を示すフローチャートである。6 is a flow chart showing an example of a series of photographing processes according to the present embodiment; 本実施形態における試合中の撮影一連処理の例を示すフローチャートである。6 is a flow chart showing an example of a series of photographing processes during a game in this embodiment. 本実施形態における試合中の撮影一連処理の他の例を示すフローチャートである。9 is a flow chart showing another example of a series of photographing processes during a match in this embodiment. 本実施形態における試合中の撮影一連処理の他の例を示すフローチャートである。9 is a flow chart showing another example of a series of photographing processes during a match in this embodiment.

以下、本発明の実施形態を図面に基づいて説明する。ただし、以下に示す実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. However, the components described in the embodiments shown below are merely examples, and the scope of the present invention is not intended to be limited to them.

図1は、本実施形態における画像提供システムにおいてリモートコントロール撮影を行うための施設配置の例を示す図である。図1では説明の都合上、野球場を例としているが、スポーツ競技を行うスタジアムや、コンサートを行うためのアリーナ会場など、多数の観客が定位置から観覧できる施設等に対して適応される。 FIG. 1 is a diagram showing an example of facility layout for performing remote control imaging in an image providing system according to this embodiment. In FIG. 1, a baseball stadium is used as an example for convenience of explanation, but it is applicable to facilities where many spectators can view from fixed positions, such as stadiums for sports competitions and arenas for concerts.

図1(a)、(b)、(c)の野球場の例では、撮影指示部101が一塁側の観客席を撮影するためのカメラ102~105に対して同時に撮影指示を行う。本例では説明を簡略化するためにカメラの台数を4台として説明するが、物理的に同時に撮影指示ができる範囲であれば、カメラの台数は任意である。 In the example of the baseball field shown in FIGS. 1A, 1B, and 1C, the photographing instruction unit 101 simultaneously instructs the cameras 102 to 105 for photographing the spectator seats on the first base side. In this example, the number of cameras is assumed to be four for the sake of simplicity of explanation, but the number of cameras is arbitrary as long as it is physically possible to simultaneously issue shooting instructions.

球場などで反対側の観客席の上段から撮影する場合などは、観客(被写体)までの距離が遠い。そのため、焦点距離の大きい望遠レンズを用いたとしても、ある程度の観客が1フレーム内に収まることになるため、座席ごと・グループごとのトリミング処理が必要になってくる。また、焦点距離の大きい望遠レンズは高額であるため、投資を抑えようとすると、焦点距離を大きくすることができず、1フレーム内に収まる人数がより増えるため、トリミング処理の必要性が増すことになる。 When shooting from the upper row of the audience seats on the opposite side of a stadium, etc., the distance to the audience (subject) is long. Therefore, even if a telephoto lens with a large focal length is used, a certain number of spectators will fit within one frame, so trimming processing for each seat and each group is required. Also, telephoto lenses with long focal lengths are expensive, so if you try to reduce investment, you cannot increase the focal length, and the number of people who can fit in one frame increases, so the need for trimming increases. become.

なお、撮影指示に関しては定期的に撮影するインターバル撮影(例えば10秒に1回のレリーズ指示をする、など)と、オペレータの撮影意思に応じて手動撮影できる2つの手段を提供する。 As for the photographing instruction, there are provided two means for performing interval photographing for periodic photographing (for example, issuing a release instruction once every 10 seconds, etc.) and manual photographing according to the operator's intention of photographing.

また、施設によっては競技やイベントを見やすい位置をより高額に設定し、見にくい位置を安価に設定することがあり、複数の券種が存在するのが通例である。図1(a)、(b)、(c)では、グラウンドに近いエリア1、席数が最も多いエリア2、それぞれ区切られた空間となっているエリア3がある例を示している。エリア1では、より近くで観戦をしたいと考えている観客であり、席数が限られているため、何十人という単位ではなく、家族などの少ない人数で特別な時に観戦することが多いエリアである。よって、一緒に来たメンバーのみで思い出に残る画像を提供することが観客の満足度の向上につながる。エリア2では、高い頻度で観戦に来る多くのファンが観戦しているエリアであり、固まって熱意の高いファンが座っている。また、エリア2では体験として試合の観戦に来た観客や、試合自体に高い熱意のない観客など、様々な層の観客が含まれている。よって、観戦中の画像が欲しい観客もいれば、不要だと考える観客もいるエリアであり、観客の意思に応じた画像の提供をすることで観客の満足度が向上する。エリア3は、空間内で観戦を楽しむ様子や、特定の観客が良い表情をしている画像を提供することで顧客の満足度が向上する。以上のようにエリアによって、観客のニーズが異なる。全ての観客のニーズにこたえるためには、撮影した画像を様々なパターンに応じて準備しておくことが求められるが、データ量が多くなるとコストが高くなり、観客が手軽に画像を購入できなくなるという課題もある。また、試合中に観客が観戦している間に画像を提供することで、観客の試合に対する満足度はより向上されるが、画像のデータ量が多いため、購入しない可能性の高い観客の画像データをも処理しようとすると処理に時間がかかり画像の提供に時間を要してしまう。 In addition, depending on the facility, a higher price may be set for a position where it is easy to see a game or event, and a lower price may be set for a position where it is difficult to see, and there are usually multiple types of tickets. FIGS. 1(a), (b), and (c) show an example in which there are an area 1 near the ground, an area 2 with the largest number of seats, and an area 3, each of which is a separated space. Area 1 is for spectators who want to watch the game closer, and because the number of seats is limited, it is an area where a small number of people, such as families, often watch the game on special occasions, rather than in units of dozens of people. is. Therefore, providing a memorable image only by the members who came together leads to an improvement in the audience's satisfaction. Area 2 is an area where many fans who come to watch the game with high frequency are watching the game, and enthusiastic fans are sitting together. In Area 2, there are various types of spectators, such as spectators who have come to watch the game as an experience, and spectators who are not very enthusiastic about the game itself. Therefore, it is an area where some spectators want images of the game while others consider it unnecessary, and providing images according to the spectators' intentions improves the satisfaction of the spectators. Area 3 improves customer satisfaction by providing images of spectators enjoying watching games in the space and images of specific spectators making good expressions. As mentioned above, the needs of the audience differ depending on the area. In order to meet the needs of all spectators, it is necessary to prepare shot images according to various patterns. There is also the issue of Also, by providing images while the spectators are watching the game, the spectators' level of satisfaction with the game can be further improved. If you try to process the data as well, the processing will take a long time, and it will take time to provide the image.

エリア1や3の観客は、撮影画像を購入する可能性が高いと判断できるため、図1(a)ではエリア1を含むより広いエリア2をカメラ102、103の2台でカバーしているが、図1(b)ではエリア1をカメラ104、105の同様2台でカバーしている。その結果、画像に収まる人数がより少なくなり、観客は大きく写るので、トリミング済み画像の解像度が高くなり、より商品性の高い画像を得ることができ購買につなげることができる。なお、エリア3では、エリア1よりさらに狭い範囲を2台のカメラで撮影をすることで、さらにトリミング済み画像の解像度を高くする。エリア3では、より高解像度なトリミング済み画像が取得できるため、撮影した画像の画像解析も可能となる。エリア3では構造上観覧するスペースを含めて複数のスペースがあることが多いため観覧するスペースに所定以上の観客がいることを判断したり、顔の表情を解析してより良い画像を選択したり、などエリア1よりさらに商品性の高い画像を得ることが可能となる。もしくは、エリア1では、常に観客がカメラから撮影可能な位置にいるとは限らないので、1台のカメラで複数の区切られた空間を観測しておき、雲台を使用して観客を撮影可能になったことに応じて特定の空間の撮影をしてもよい。 Since it can be determined that the spectators in areas 1 and 3 are likely to purchase the photographed images, in FIG. , and in FIG. 1B, area 1 is covered by two cameras 104 and 105 as well. As a result, the number of people who can fit in the image is reduced, and the audience appears larger, so the resolution of the trimmed image is increased, and an image with higher commercial value can be obtained, which leads to purchase. In area 3, the resolution of the trimmed image is further increased by photographing a range narrower than area 1 with two cameras. In area 3, a trimmed image with higher resolution can be obtained, so image analysis of the captured image is also possible. In Area 3, there are often multiple spaces including the viewing space due to its structure. , etc., it is possible to obtain an image with higher marketability than area 1. Alternatively, in Area 1, since the spectators are not always in a position where they can be photographed by the cameras, it is possible to observe multiple partitioned spaces with a single camera and photograph the spectators using a pan head. You may shoot a specific space according to the situation.

図1(c)には、撮影指示装置101から各カメラ群へと撮影指示をするための構成図を示している。撮影指示装置101は、図1(c)に示すように複数のカメラ群A~Dに撮影指示が可能である。図1(c)に示す例では、カメラ群Cは外野席の広いエリア4を4台でカバーし、カメラ群Dは外野席の広いエリア5を4台でカバーする。 FIG. 1(c) shows a configuration diagram for giving a photographing instruction from the photographing instruction device 101 to each camera group. The photographing instruction device 101 can issue photographing instructions to a plurality of camera groups A to D as shown in FIG. 1(c). In the example shown in FIG. 1(c), camera group C covers a wide outfield seat area 4 with four cameras, and camera group D covers a wide outfield seat area 5 with four cameras.

カメラ102~105は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサー)等で構成されるカメラユニットである。カメラには、ズームレンズやフォーカスレンズを含むレンズ群(撮影レンズ)、絞り機能を備えるシャッター、撮像素子、撮像素子から出力されるアナログ信号をデジタル信号に変換するA/D変換器、撮像系を覆って汚れや破損を防止するバリアを含む。カメラ内の画像処理部は、カメラで撮像して取得したデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。画像処理部により得られた演算結果に基づいてカメラ内のCPUが露光制御、測距制御、AWB(オートホワイトバランス)処理等を行う。 The cameras 102 to 105 are camera units each composed of an imaging device (imaging sensor) composed of a CCD, a CMOS device, or the like that converts an optical image into an electric signal. A camera consists of a lens group (shooting lens) including a zoom lens and a focus lens, a shutter with an aperture function, an image sensor, an A/D converter that converts the analog signal output from the image sensor into a digital signal, and an imaging system. Includes a barrier to cover and prevent dirt and damage. An image processing unit in the camera performs resizing processing such as predetermined pixel interpolation and reduction, and color conversion processing on data acquired by imaging with the camera. A CPU in the camera performs exposure control, distance measurement control, AWB (auto white balance) processing, etc. based on the calculation results obtained by the image processing unit.

カメラで撮像され、画像処理部で画像処理された表示用の画像データは後述するPC(パーソナルコンピュータ)のディスプレイ04により表示される。カメラで撮像され、A/D変換器によって一度A/D変換されRAMに蓄積されたデジタル信号をD/A変換器でアナログ変換し、ディスプレイ04に逐次転送して表示することで、ライブビュー表示(LV表示)を行える。ライブビューは、静止画の撮影待機状態、動画の撮影待機状態、動画の記録時に表示可能であり、撮像された被写体像がほぼリアルタイムに表示される。 The image data for display imaged by the camera and image-processed by the image processing unit is displayed on the display 04 of a PC (personal computer), which will be described later. A digital signal captured by a camera, A/D converted by an A/D converter, and stored in a RAM is converted to analog by a D/A converter, transferred sequentially to the display 04, and displayed as a live view display. (LV display) can be performed. The live view can be displayed in a still image shooting standby state, a moving image shooting standby state, or when recording a moving image, and the imaged subject image is displayed almost in real time.

CPUは、入力装置06で行われたユーザ操作に基づく撮影準備指示に応じて、AF(オートフォーカス)処理、AE(自動露出)処理、AWB処理等の動作を開始するように、カメラ、画像処理部を制御する。カメラ側のCPUは、撮影指示に応じて、本露光して撮像素子からの信号を読み出し、撮像された画像を画像処理部で画像処理して画像ファイルを生成し、外部のストレージへ記録するまでの一連の撮影処理(本撮影)の動作を制御する。撮影指示は、PC201aの入力装置06に対するユーザ操作によって行うことも、カメラ側のシャッターボタンの押下によって行うこともできる。カメラは、静止画及び動画の撮影が可能である。 The CPU controls the camera and image processing so as to start operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB processing, etc., in response to shooting preparation instructions based on user operations performed with the input device 06. control the department. The CPU on the camera side performs main exposure in response to a photographing instruction, reads the signal from the image sensor, processes the captured image in the image processing section to generate an image file, and records the image in an external storage. control the operation of a series of shooting processes (actual shooting). The shooting instruction can be given by a user operation on the input device 06 of the PC 201a or by pressing the shutter button on the camera side. The camera is capable of taking still images and moving images.

なお、施設によっては構造上撮影するカメラ位置から座席のエリアごとに撮影距離や照度が異なるため、これらの条件によって一度の撮影で多くのエリアをカバーする本実施形態の撮影では、画質に差異がでてくることがある。そこで、画質に応じて値段を変えたり提供枚数を多くしてもよい。また、単にグラウンドに近い席であり、カメラから距離の近い席の画像を高額に設定するのではなく、明るさ等の条件やカメラの台数により画質が良くなる座席を高額に設定するようなケースもある。 Depending on the facility, the shooting distance and illuminance differ depending on the location of the camera to be shot and the area of the seat. Sometimes it comes. Therefore, the price may be changed or the number of sheets provided may be increased according to the image quality. Also, instead of simply setting a high price for seats that are close to the ground and close to the camera, there are cases where high prices are set for seats with better image quality depending on conditions such as brightness and the number of cameras. There is also

図2は、本実施形態における画像提供システムのシステム構成例を示す図である。画像処理装置201は、撮影指示部101と、PC(パーソナルコンピュータ)201aと、画像転送受信部201bと、トリミング部202と、選択・アップロード部203と、ストレージ204、205とを有する。図2において、各処理部101、201a、201b、202、203は1つの画像処理装置201の中に記載しているが、物理的に別の処理装置であっても構わず、処理部の構成が本発明を限定するものではない。 FIG. 2 is a diagram showing a system configuration example of an image providing system according to this embodiment. The image processing apparatus 201 has a shooting instruction unit 101 , a PC (personal computer) 201 a , an image transfer reception unit 201 b , a trimming unit 202 , a selection/upload unit 203 , and storages 204 and 205 . In FIG. 2, the processing units 101, 201a, 201b, 202, and 203 are shown in one image processing device 201, but they may be physically separate processing devices. are not intended to limit the invention.

撮影指示部101は、図1と同様にカメラ102~105に同時に撮影指示を行う。撮影指示に関しては定期的に撮影するインターバル撮影(例えば10秒に1回のレリーズ指示をする、など)と、オペレータの撮影意思に応じて手動撮影できる2つの手段を提供する。 The photographing instruction unit 101 issues photographing instructions to the cameras 102 to 105 at the same time as in FIG. As for the photographing instruction, there are provided two means for performing interval photographing for periodic photographing (for example, issuing a release instruction once every 10 seconds) and manual photographing according to the operator's intention of photographing.

画像転送受信部201bは、カメラ側から転送されてきた、カメラ102~105で撮影された画像の画像データをストレージ204に記録する。画像データの送受信のプロトコルは、FTP(FileTransferProtocol)などを用いる。 The image transfer reception unit 201b records in the storage 204 the image data of the images captured by the cameras 102 to 105, which are transferred from the camera side. FTP (File Transfer Protocol) or the like is used as a protocol for transmitting and receiving image data.

トリミング部202は、カメラ102~105からストレージ204に画像データが転送されたことをトリガーに各画像データに対してトリミング処理を実施して、トリミング済み画像と座席番号をストレージ205に記録する。トリミング処理を行う際に、後述するチケット購入部206から事前に購入されたグループ人数、座席番号、座席配置等の情報を入手して、その情報を基にトリミング処理を実施するが、詳細な処理については図10~図15で後述する。なお、この例では、ストレージ204、205を別のストレージとして示しているが、物理的には同じであっても構わない。 The trimming unit 202 performs trimming processing on each image data with the transfer of the image data from the cameras 102 to 105 to the storage 204 as a trigger, and records the trimmed image and the seat number in the storage 205 . When performing the trimming process, information such as the number of people in the group purchased in advance, the seat number, and the seating arrangement is obtained from the ticket purchase unit 206, which will be described later, and the trimming process is performed based on the information. will be described later with reference to FIGS. 10 to 15. FIG. Although the storages 204 and 205 are shown as separate storages in this example, they may be physically the same.

選択・アップロード部203は、ストレージ205に格納されたトリミング済み画像データと座席番号、及びイベントの日時情報を配信部(配信サーバー)207にアップロードする。撮影指示部101が競技中やイベント中にインターバル撮影を行っている場合には、大量のトリミング済み画像が作成されるため、オペレータは観客が盛り上がった場面を抽出・選択して、画像を配信部207にアップロードできるようにする。選択方法は、例えば、画像の一覧から目視で対象画像を選択しても良いし、特定の時間を入力することで該当時間のデータを抽出できるようにしても良く、選択方法が本発明を限定するものではない。撮影指示部101がオペレータの手動撮影しか行わない場合には、通常観客が盛り上がった場面で撮影指示を行うことになるので、特に選択せずに全画像をアップロード対象としても構わない。 The selection/upload unit 203 uploads the trimmed image data, the seat number, and the date and time information of the event stored in the storage 205 to the distribution unit (distribution server) 207 . When the shooting instruction unit 101 performs interval shooting during a competition or an event, a large number of trimmed images are created. 207 for uploading. As for the selection method, for example, the target image may be visually selected from a list of images, or the data for that time may be extracted by inputting a specific time. not something to do. When the photographing instruction unit 101 only performs manual photographing by the operator, the photographing instruction is normally given in a scene where the audience is excited.

チケット購入部206は、利用者がチケットを購入するための仕組みであり、購入時の処理については図8を用いて後述する。利用者は、購入したい日付と座席数を入力し代金を支払うことで、所望した数の座席番号を入手することになる。 The ticket purchase unit 206 is a mechanism for a user to purchase a ticket, and the processing at the time of purchase will be described later with reference to FIG. The user inputs the desired date and number of seats and pays the price, thereby obtaining the desired number of seat numbers.

配信部207は、利用者が入力したイベント日付と座席番号に基づいて、該当日付の該当座席番号の画像データ群を利用者に提示する。利用者の入力に関しては、利用者がチケットを見て手動で入力しても良いし、チケットにQRコード(登録商標)などを印字して、それをスマートホンで読み取って認識するのでも良く、入力方法が本発明を限定するものではない。また、利用者への画像データ群の提示はスマートホンのアプリケーションで行っても良いし、ブラウザでアクセスするようなWebアプリケーションの形で行っても良く、提示方法についても本発明を限定するものではない。 Based on the event date and seat number input by the user, the distribution unit 207 presents the user with the image data group of the relevant seat number on the relevant date. As for input by the user, the user may manually input by looking at the ticket, or may print a QR code (registered trademark) on the ticket, read it with a smartphone, and recognize it. The input method does not limit the invention. In addition, the image data group may be presented to the user by a smart phone application, or by a web application accessed through a browser. do not have.

図3に、本発明を適用可能な装置の一例としての画像処理装置201の中のPC201a(パーソナルコンピュータ)の構成例を示す。画像処理装置201は、複数の電子機器からなるものでもよいし、一台のPCからなるものでもよい。 FIG. 3 shows an example configuration of a PC 201a (personal computer) in the image processing apparatus 201 as an example of an apparatus to which the present invention can be applied. The image processing apparatus 201 may be composed of a plurality of electronic devices, or may be composed of a single PC.

図3において、内部バス09に対してCPU01、ROM02、RAM03、ディスプレイ04、HDD(ハードディスクドライブ)05、入力装置06、メディアドライブ07、及びI/F(インターフェース)08が接続されている。内部バス09に接続される各部は、内部バス09を介して互いにデータのやりとりを行うことが可能となっている。 3, a CPU 01, a ROM 02, a RAM 03, a display 04, a HDD (hard disk drive) 05, an input device 06, a media drive 07, and an I/F (interface) 08 are connected to an internal bus 09. FIG. Each unit connected to the internal bus 09 can exchange data with each other via the internal bus 09 .

CPU01は、例えばROM02に格納されるプログラムに従い、RAM03をワークメモリとして用いて、PC201aの各部を制御する。ROM02には、画像データや音声データ、その他のデータ、CPU01が動作するための各種プログラムなどが格納される。ROM02は、例えばROMなどの不揮発性メモリで構成される。RAM03は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。 The CPU 01 uses the RAM 03 as a work memory to control each part of the PC 201a according to a program stored in the ROM 02, for example. The ROM 02 stores image data, audio data, other data, various programs for the operation of the CPU 01, and the like. The ROM02 is composed of a non-volatile memory such as a ROM, for example. The RAM 03 is, for example, a RAM (a volatile memory using a semiconductor element, etc.).

ディスプレイ04は、CPU01の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU01は、プログラムに従い表示制御信号を生成し、ディスプレイ04に表示するための映像信号を生成してディスプレイ04に出力するようにPC201aの各部を制御する。ディスプレイ04は出力された映像信号に基づいて映像を表示する。なお、PC201a自体が備える構成としてはディスプレイ04に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ04は外付けのモニタ(テレビなど)で構成してもよい。 The display 04 displays an image, a GUI screen constituting a GUI (Graphical User Interface), etc., under the control of the CPU 01 . The CPU 01 controls each part of the PC 201 a to generate a display control signal according to a program, generate a video signal to be displayed on the display 04 , and output the video signal to the display 04 . A display 04 displays an image based on the output image signal. The configuration of the PC 201a itself includes an interface for outputting a video signal to be displayed on the display 04, and the display 04 may be configured by an external monitor (television, etc.).

HDD105には、各種プログラムやデータ等が記憶される。入力装置06は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、ディスプレイ04に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。メディアドライブ07は、例えば着脱可能な記憶媒体を駆動制御する。I/F08は、PC201aの外部の装置と通信等を行うためのインターフェースである。 The HDD 105 stores various programs, data, and the like. The input device 06 is an input device for accepting user operations, including character information input devices such as keyboards, pointing devices such as mice and touch panels, buttons, dials, joysticks, touch sensors, and touch pads. It should be noted that the touch panel is an input device that is laid flat on the display 04 and outputs coordinate information corresponding to the touched position. The media drive 07 drives and controls, for example, a removable storage medium. The I/F 08 is an interface for communicating with an external device of the PC 201a.

図4及び図5は、本実施形態における座席ごとのトリミング位置の設定例を示す図である。図4には、観客のほぼ正面のカメラから撮影された画像に対してのトリミング位置の設定例を示している。図4(a)に示すように座席ごとにトリミング位置の矩形を定義して、横方向をX軸、縦方向をY軸の座標系と定義して、矩形における左上の頂点位置401及び右下の頂点位置402の座標を後述する図6にあるデータ構造として記憶する。この作業を撮影された画像に含まれている座席ごとに行うことで、図4(b)に示すように全座席のトリミング位置が指定される。ここではトリミング位置の矩形を長方形の矩形として例示をしているが、多角形や楕円での矩形定義など、座標系で表すことのできる矩形であればよく、矩形の形が本発明を限定するものではない。 4 and 5 are diagrams showing examples of setting the trimming position for each seat in this embodiment. FIG. 4 shows an example of setting the trimming position for an image captured by a camera almost in front of the audience. As shown in FIG. 4A, a rectangle of the trimming position is defined for each seat, and the horizontal direction is defined as the X axis and the vertical direction is defined as the Y axis. is stored as a data structure shown in FIG. 6, which will be described later. By performing this operation for each seat included in the photographed image, the trimming positions of all seats are designated as shown in FIG. 4(b). Here, the rectangle at the trimming position is exemplified as a rectangular rectangle, but any rectangle that can be expressed in a coordinate system, such as a polygonal or elliptical rectangle definition, can be used, and the shape of the rectangle limits the present invention. not a thing

図5には、観客のやや斜め上方のカメラから撮影された画像に対してのトリミング位置の設定例を示している。図4に示した例と同様に座席ごとにトリミング位置の矩形を定義して、X軸及びY軸の座標系を定義することで、座席位置が斜めになっていても左上の頂点位置501及び右下の頂点位置502の座標を後述する図6にあるデータ構造として格納することができる。 FIG. 5 shows an example of setting the trimming position for an image captured by a camera slightly obliquely above the audience. Similarly to the example shown in FIG. 4, by defining a rectangle of the trimming position for each seat and defining the coordinate system of the X-axis and Y-axis, even if the seat position is slanted, the upper left vertex position 501 and The coordinates of the lower right vertex position 502 can be stored as a data structure shown in FIG. 6, which will be described later.

図6は、本発明の実施形態における各座席のトリミング位置を格納するデータ構造の例を示す図である。各座席のトリミング位置を格納するデータ構造は、列番号601と座席番号602とカメラ番号603と左上の頂点座標のX座標604と左上の頂点座標のY座
標605と右下の頂点座標のX座標606と右下の頂点座標のY座標607を持つ。デー
タ構造600では、X座標とY座標とを個別のカラムで管理しているが、(X,Y)のよ
うなリスト情報として1つのカラムで管理しても構わない。また、列番号601と座席番号602は、図6では数値データとしているが、アルファベットなどの文字列データでも構わない。座標情報である604~607はピクセル位置を表す数値データが記録されている。
FIG. 6 is a diagram showing an example of a data structure that stores the trimming position of each seat in the embodiment of the invention. The data structure for storing the trimming position of each seat includes a row number 601, a seat number 602, a camera number 603, an X coordinate 604 of the upper left vertex, a Y coordinate 605 of the upper left vertex, and an X coordinate of the lower right vertex. 606 and the Y coordinate 607 of the lower right vertex. In the data structure 600, the X coordinate and the Y coordinate are managed in separate columns, but they may be managed in one column as list information such as (X, Y). Also, although the row number 601 and the seat number 602 are numerical data in FIG. 6, they may be character string data such as alphabets. Coordinate information 604 to 607 record numerical data representing pixel positions.

なお、本実施形態においては、野球の試合を観戦する観客をユーザとして写真を撮影して、グループできた観客の画像をトリミングすることによって画像を提供することを説明する。しかしながら、本実施形態において説明する野球の試合の例は一例であり、その他のスポーツの試合であっても、観光地や演劇などの場所であっても適用可能である。 In the present embodiment, it will be described that an image is provided by taking photographs of spectators watching a baseball game as users and trimming the images of the spectators formed into a group. However, the example of the baseball game described in this embodiment is just an example, and the present invention can be applied to other sports games, sightseeing spots, theater performances, and the like.

本実施形態におけるチケットの購入処理について図7を用いて説明をする。図7は、ユーザがチケットを購入するアプリケーションやインターネットのサイトにおいて、チケットを購入する際の処理の例を示すフローチャートである。この処理は、ROM(不揮発性メモリ)02等に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。 Ticket purchase processing in this embodiment will be described with reference to FIG. FIG. 7 is a flow chart showing an example of processing when a user purchases a ticket in an application or Internet site for purchasing a ticket. This processing is realized by developing a program recorded in a ROM (non-volatile memory) 02 or the like in a RAM (system memory) 03 and executing it by the CPU 01 .

S701では、CPU01は、ユーザからのチケットの購入枚数の入力を受け付ける。
S702では、CPU01は、ユーザから画像購入の意思があるか否かの入力を受け付ける。このS702における入力は、ユーザが画像を購入するか否かを直接購入画面において選択できるようにしてもよいし、チケットと画像購入とがセットになっており、チケットの購入と画像購入の選択が一度にできるようにしてもよい。また、一部の座席は、ユーザが選択をしなくても画像購入がセットになっており、対象となる座席と選択した時点でユーザが画像購入の意思があるものとしてもよい。
In S701, the CPU 01 receives an input of the number of purchased tickets from the user.
In S702, the CPU 01 receives an input as to whether or not the user intends to purchase the image. The input in this S702 may allow the user to select whether or not to purchase the image directly on the purchase screen, or the ticket and image purchase are set, and the ticket purchase and image purchase can be selected. You can do it all at once. Also, some seats may be set with image purchase without the user's selection, and the user may have an intention to purchase the image when the target seat is selected.

S703では、CPU01は、S702における入力において画像購入の意思があるか否かを判定する。ユーザに画像購入の意思があると判定した場合にはS704へ進み、そうでない場合にはS706へ進む。 In S703, the CPU 01 determines whether or not there is an intention to purchase the image in the input in S702. If it is determined that the user intends to purchase the image, the process advances to S704; otherwise, the process advances to S706.

S704では、CPU01は、ユーザにより指定された座席を選択する。このとき、ユーザが代表となる座席を1席選択することで、S701において入力した購入枚数分の座席位置を複数パターン提示することでユーザが容易に座席を選択できるようにしてもよい。また、図10で後述する画像のトリミングの処理においては、ユーザの座席位置の指定に応じてトリミングの範囲を変える。 In S704, the CPU01 selects the seat designated by the user. At this time, the user may select one representative seat to present a plurality of patterns of seat positions corresponding to the number of tickets purchased in S701, thereby allowing the user to easily select a seat. Further, in the image trimming process, which will be described later with reference to FIG. 10, the trimming range is changed according to the designation of the seat position by the user.

S705では、CPU01は、S704において受け付けた情報に基づいてグループ情報を生成する。グループ情報は、代表となる座席とS701において入力された同時購入されたチケットの座席位置とを紐づけた情報である。ユーザが単数であっても、S705においてはグループ情報として座席と紐づけて情報を生成する。なお、グループ情報は、同時購入されなかったチケットに記載の情報をアプリケーションやインターネットのサイトを通して入力することで、他の座席を同じグループに追加できるようにしてもよい。ただし、グループとなる座席は縦又は横に隣り合っていることが望ましい。これは、トリミングする際に、離れた座席同士は、撮影するカメラが異なる可能性があるため、1枚のトリミング範囲に収めきれない可能性があるからである。また、トリミングした画像にグループに含まれない他の座席が多く含まれてしまうと、1人1人のサイズが小さくなってしまう。
S706では、CPU01は、ユーザにより指定された座席を選択する。
In S705, the CPU01 generates group information based on the information received in S704. The group information is information that associates the representative seat with the seat positions of the simultaneously purchased tickets input in S701. Even if there is only one user, in S705 information is generated in association with the seat as group information. As for the group information, other seats may be added to the same group by inputting the information described on the tickets that were not purchased at the same time through an application or Internet site. However, it is desirable that the seats forming the group are adjacent vertically or horizontally. This is because, when trimming, there is a possibility that the images of the distant seats may not be captured by a single trimming range because they may be captured by different cameras. Also, if the trimmed image includes many other seats that are not included in the group, the size of each person is reduced.
In S706, the CPU01 selects the seat designated by the user.

次に、図8を用いて本実施形態における試合開始前の設定の処理について説明をする。図8は、本実施形態における試合開始前設定の処理の例を示すフローチャートである。この処理は、試合の開始前に画像処理装置201により行われる処理を示している。この処理は、試合の前に画像処理装置201の電源オンになり、対象となる試合についての準備を始める指示がシステムのオペレータからされる、もしくは試合の3時間や前日といった所定の時間の前になると開始される。この処理は、ROM(不揮発性メモリ)02等に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。 Next, referring to FIG. 8, the setting process before the start of the game in this embodiment will be described. FIG. 8 is a flow chart showing an example of the pre-game setting process according to the present embodiment. This processing indicates processing performed by the image processing device 201 before the start of the match. In this process, the power of the image processing device 201 is turned on before the game, and an instruction is given from the system operator to start preparations for the target game, or before a predetermined time such as three hours before the game or the day before the game. will start. This processing is realized by developing a program recorded in a ROM (non-volatile memory) 02 or the like in a RAM (system memory) 03 and executing it by the CPU 01 .

S801では、CPU01は、配信部207及びチケット購入部206と接続する。
S802では、CPU01は、チケット購入部206から対象となる試合のチケット情報を取得する。チケット情報には、トリミング処理時に必要な同時に購入されたグループのチケット購入枚数、座席位置、及び座席配置についての情報が含まれる。また、より商品性の高い画像を選択するために、座席の種類に関する情報、内野・外野・VIPにあるのかといったエリアに関する情報、撮影対象となっているエリアの座席か否かの情報、自由席か指定席かの情報等を含むようにしてもよい。さらに、頻繁に試合を観戦しているユーザであるかの情報、ファンクラブに加入しているか否か等の情報も含むようにしてもよい。
In S<b>801 , the CPU 01 connects with the distribution unit 207 and the ticket purchase unit 206 .
In S<b>802 , the CPU 01 acquires the ticket information of the target match from the ticket purchase unit 206 . The ticket information includes information on the number of purchased tickets of a group purchased at the same time, the seat position, and the seat arrangement necessary for the trimming process. In addition, in order to select images with higher commercial value, information on the type of seat, information on the area such as infield, outfield, VIP, information on whether the seat is in the area to be photographed, non-reserved seat or a reserved seat. Furthermore, information on whether or not the user frequently watches matches, information on whether or not the user is a member of a fan club, etc., may also be included.

S803では、CPU01は、S802において取得した情報をもとにトリミングの範囲を算出する。CPU01は、S802で取得したグループの人数や配置パターンを用いて、後述する図13、図14で定義されている人数及びパターンごとのトリミング位置の算出方法を取得し、トリミング範囲を算出する。ここでのトリミング範囲とは、トリミングする矩形の左上の頂点位置のX座標、Y座標、及び右下の頂点位置のX座標、Y座標として、この2つの頂点に囲まれた長方形の矩形のことを指す。ここでは、2つの頂点で定義される長方形の矩形を用いているが、多角形や楕円での矩形定義など、座標系で表すことのできる矩形であればよく、矩形の形が本発明を限定するものではない。 In S803, the CPU 01 calculates the trimming range based on the information acquired in S802. The CPU 01 acquires the trimming position calculation method for each pattern and the number of people defined in FIGS. 13 and 14, which will be described later, using the number of people in the group and the layout pattern acquired in S802, and calculates the trimming range. The trimming range here refers to a rectangular rectangle surrounded by the two vertices as the X and Y coordinates of the upper left vertex of the rectangle to be trimmed and the X and Y coordinates of the lower right vertex. point to Here, a rectangle defined by two vertices is used, but any rectangle that can be represented by a coordinate system, such as a polygon or an ellipse, can be used. not something to do.

図13及び図14は、本実施形態におけるトリミング範囲の算出方法を格納したデータ構造例を示す図である。図13は、図4に示したように観客のほぼ正面から撮影された画像に対する定義の例を示しており、図14は、図5に示したように観客がやや斜めに撮影された画像に対しての定義の例を示している。 13 and 14 are diagrams showing an example of a data structure storing a trimming range calculation method according to this embodiment. FIG. 13 shows an example of definition for an image taken almost from the front of the audience as shown in FIG. 4, and FIG. It shows an example definition for

図13及び図14に示すように、グループの人数1301と座席配置のパターン1302を管理する。また、左上頂点位置のX座標計算方法1303と左上頂点位置のY座標計
算方法1304と右下頂点位置のX座標計算方法1305と右下頂点位置のY座標計算方
法1306とグループ外席の情報1307を管理する。
As shown in FIGS. 13 and 14, the group number 1301 and seat arrangement pattern 1302 are managed. In addition, the X coordinate calculation method 1303 of the upper left vertex position, the Y coordinate calculation method 1304 of the upper left vertex position, the X coordinate calculation method of the lower right vertex position 1305, the Y coordinate calculation method of the lower right vertex position 1306, and the information 1307 of the outside group seat. to manage.

グループの人数1301と座席配置のパターン1302は、チケット購入部206から事前に取得した購入されたグループ人数、座席配置とそれぞれ一致する。座標計算方法1303~1306は、図13及び図14に示した例ではグループ内のいずれかの座席位置のトリミング位置情報を用いているが、具体的なピクセル数の数字や計算式を定義しても構わない。グループ外席の情報1307は、座席配置パターンにおいて、矩形の中には入ってしまうがグループ内の座席として購入されていない座席位置の情報が定義されている。 The group number 1301 and seat arrangement pattern 1302 match the purchased group number and seat arrangement acquired in advance from the ticket purchase unit 206, respectively. In the examples shown in FIGS. 13 and 14, the coordinate calculation methods 1303 to 1306 use the trimming position information of any seat position within the group. I don't mind. The out-of-group seat information 1307 defines information on seat positions that are not purchased as seats within the group, but which fit inside the rectangle in the seating arrangement pattern.

S804では、CPU01は、顔データを準備する。顔データは、S802で取得した情報をもとに、頻繁に試合を観戦しているユーザ、すなわち過去に顔が多く検出された観客、そしてファンクラブに加入している観客の顔データを準備しておく。これにより、撮影した画像の中に、準備した顔データ中の顔と一致されたと判定された観客がいた場合に、特定の観客の画像をデータとして紐づけて集め、特定の観客にまとめて提供することができる。また、ファンクラブに加入している観客は、チケット購入時に毎回画像購入の意思を示さなくても、自動的に画像が収集されることで、試合シーズンの終了後にまとめて振り返えることができる。観客によっては、試合を観戦する頻度が大きく異なるので、1試合の中で、複数の画像が欲しい観客と、1試合1枚でよいが観戦した全ての試合での画像が欲しい観客とがいる可能性がある。よって、上記のように顔データを準備しておくことで、高い頻度で観戦をする観客が毎回画像購入の意思を示すための作業をしなくても、画像を提供することができる。また、画像購入の意思を示すための作業を忘れてしまっても画像を提供することができる。さらに、座席位置の分からない自由席に座ったとしても、特定の観客の画像を集めることができる。なお、S802において取得したチケットの購入時の情報ではなく、観戦チケットの購入とは別途観客が画像を購入するためのプランを設け、プランを選択した場合には、顔データを登録し、観客が観戦した様子を毎回画像として提供できるようにしてもよい。上記のような場合に、顔データを準備しておくことで、試合中にスムーズに観客へ画像を提供することができる。 In S804, the CPU 01 prepares face data. Based on the information acquired in S802, face data is prepared for users who frequently watch matches, that is, spectators whose faces have been detected many times in the past, and spectators who are members of fan clubs. Keep As a result, when there is a spectator whose face is determined to match the face in the prepared face data in the captured image, the images of the specific spectator are linked and collected as data, and collectively provided to the specific spectator. can do. In addition, spectators who have joined the fan club will be able to look back on the game after the match season is over, as the images will be collected automatically, even if they do not indicate their intention to purchase images each time they purchase a ticket. Depending on the spectator, the frequency with which they watch the game varies greatly, so there may be spectators who want multiple images in one game, and spectators who want images from all the games they have watched, although one image per game is sufficient. have a nature. Therefore, by preparing the face data as described above, the image can be provided without requiring the spectators who frequently watch the game to indicate their intention to purchase the image each time. Also, images can be provided even if the user forgets to indicate his or her intention to purchase the images. Furthermore, even if you sit in a non-reserved seat where you do not know the seat position, you can collect images of a specific spectator. It should be noted that, instead of the information obtained at the time of ticket purchase acquired in S802, a plan for the spectator to purchase the image separately from the purchase of the spectator ticket is provided. It may also be possible to provide an image of how the game was watched each time. In the above cases, by preparing face data, it is possible to smoothly provide images to spectators during a game.

S805では、CPU01は、時計の設定をする。
S806では、CPU01は、撮影要因の入力をする。撮影要因とは、10秒や20秒といったインターバル撮影の期間、もしくは観客の歓声が所定以上になったことに応じてといった検出に基づくものでもよい。また、撮影された試合の様子を分析したり、試合データを分析する制御部を用意しておき、試合の点数や、試合の進み具合、選手の位置に応じて、インターバルの間隔を短くしたり、動画の撮影に切り替えるようにしてもよい。また、休憩時間には、インターバル撮影を停止し、休憩時間の応援合戦やクイズといったイベントが発生する時間にはインターバル撮影を開始してもよい。なお、手動による撮影の指示を組み合わせてもよいことは言うまでもない。
In S805, the CPU 01 sets the clock.
In S806, the CPU 01 inputs shooting factors. The shooting factor may be a period of interval shooting such as 10 seconds or 20 seconds, or may be based on detection such as when the cheers of the audience exceed a predetermined level. In addition, we have prepared a control unit that analyzes the state of the game that has been filmed and analyzes the game data. , may be switched to video shooting. Alternatively, the interval shooting may be stopped during the break time and started when an event such as a cheering battle or a quiz occurs during the break time. Needless to say, manual shooting instructions may be combined.

S807では、CPU01は、システムテストとして、カメラを実際に起動して撮影とトリミングの処理を行う。撮影された画像に基づいて、その日の明るさや光の入り具合に応じた撮影条件の設定をしたり、撮影した画像を座席に紐づく座標に基づいてトリミングした際に、対象となる座席を切り取ることができるのかを確認してもよい。なお、座席側に指標となるポイントとなる被写体を置いておき、カメラが撮影した画像の中の被写体が予め定まっている座標にあるか否かを確認してもよい。
S808では、CPU01は、撮影条件をS807のシステムテストに基づいて設定する。
In S807, as a system test, the CPU 01 actually activates the camera to perform shooting and trimming. Based on the captured image, you can set the shooting conditions according to the brightness and lighting conditions of the day, and crop the target seat when trimming the captured image based on the coordinates associated with the seat. You can check if it is possible. It is also possible to place a subject on the side of the seat as an index point and check whether or not the subject in the image captured by the camera is at predetermined coordinates.
In S808, the CPU 01 sets imaging conditions based on the system test in S807.

次に、図9(a)~(c)を用いて試合開始後の処理について説明する。図9(a)~(c)は、本実施形態における試合開始後の処理の例を示すフローチャートである。図9(a)は、画像処理装置201の処理であり、図9(b)は撮影に関する処理であり、図9(c)は、画像をトリミングし配信する処理である。各処理は試合が開始される、もしくは試合の開始前の撮影を開始する前に開始される。この処理は、ROM(不揮発性メモリ)02に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。 Next, processing after the game starts will be described with reference to FIGS. 9(a) to 9(c). FIGS. 9A to 9C are flowcharts showing an example of processing after the start of a match in this embodiment. 9A shows processing of the image processing apparatus 201, FIG. 9B shows processing related to shooting, and FIG. 9C shows processing for trimming and distributing an image. Each process is started before the match starts or before the start of shooting before the start of the match. This processing is realized by developing a program recorded in ROM (non-volatile memory) 02 in RAM (system memory) 03 and executing it by CPU 01 .

S901では、CPU01は、途中チケット情報を取得する。途中チケット情報は、試合の開始後に購入された、もしくは、図8のS802の処理の後に購入されたチケットに関する情報である。この情報は、チケット購入部206より取得してもよいし、チケット購入部206側から定期的、もしくは更新がある度に画像処理装置201へ通知されるようにしてもよい。 In S901, the CPU 01 acquires intermediate ticket information. The midway ticket information is information about tickets purchased after the start of the game or after the process of S802 in FIG. This information may be obtained from the ticket purchase unit 206, or may be notified from the ticket purchase unit 206 to the image processing apparatus 201 periodically or each time there is an update.

S902では、CPU01は、カメラc=1に対応するカメラに関する情報を取得する。S902では、カメラc=1の撮影範囲と対象となる座席に関する情報を取得する。
S903では、CPU01は、現在処理をしようとしているカメラcがカメラの全体数Kよりも大きいか否かを判定し、大きい場合には、全てのカメラに対する処理が終了したとして、S907へ進む。そうでない場合には、S904へ進む。
In S902, the CPU01 acquires information about the camera corresponding to camera c=1. In S902, information about the imaging range of the camera c=1 and the target seat is acquired.
In S903, the CPU 01 determines whether or not the number of cameras c currently being processed is greater than the total number K of cameras. Otherwise, the process proceeds to S904.

S904では、CPU01は、対象となるカメラcの位置から撮影する座席の範囲でのトリミング情報を取得する。
S905では、CPU01は、対象となるカメラcの位置から撮影する座席の範囲での撮影要因を取得する。例えば、チームAとチームBとが対戦している場合には攻めと守りのタイミングとで撮影のインターバル期間を変えたほうがよい場合がある。また、座席の種類によっては、頻度を高く撮影したほうがよい場合もある。よって、カメラの撮影範囲に含まれる座席に応じて、撮影要因を取得することによって、観客に提供しない可能性が高い画像を多く撮影することなく、撮影チャンスを逃さないようにすることができる。なお、S905の撮影要因は、全てのカメラで同じでもよい。
In S<b>904 , the CPU 01 acquires trimming information in the range of seats to be photographed from the position of the target camera c.
In S905, the CPU 01 acquires the shooting factor in the range of the seat to shoot from the position of the target camera c. For example, when team A and team B are playing against each other, it may be better to change the shooting interval period depending on the timing of offense and defense. Also, depending on the type of seat, it may be better to shoot more frequently. Therefore, by acquiring the photographing factors according to the seats included in the photographing range of the camera, it is possible not to photograph many images that are highly likely not to be provided to the audience, and to avoid missing photographing opportunities. Note that the shooting factors in S905 may be the same for all cameras.

新たにチケットが購入されたり、新たに画像購入の意思が観客から示された、すなわち、新たなトリミンググループが発生した場合には、S904、S905において図8のS803,S804の処理を行う。
S906では、CPU01は、S902と同様にカメラc=c+1にして、次のカメラに関する情報を取得する。
When a new ticket is purchased or a new image purchase intention is indicated by the spectator, that is, when a new trimming group is generated, the processing of S803 and S804 in FIG. 8 is performed in S904 and S905.
In S906, the CPU 01 sets camera c=c+1 as in S902, and acquires information about the next camera.

S907では、CPU01は、所定時間が経過したか否かを判定する。所定時間は、S907の判定を図9の処理の開始後初めて行う場合には、S901からの時間、2回目以降の場合は前回S907の判定においてYESと判定してからの時間で計時をする。S907は所定時間おきに途中チケット情報を取得するためのものである。S907においてYESと判定された場合にはS901へ進み、そうでない場合にはS908へ進む。 In S907, the CPU 01 determines whether or not a predetermined time has passed. The predetermined time is the time from S901 when the determination in S907 is performed for the first time after the process of FIG. 9 is started, and the time after the previous determination of YES in S907 when the determination is made for the second time or later. S907 is for obtaining intermediate ticket information at predetermined time intervals. If the determination in S907 is YES, the process proceeds to S901; otherwise, the process proceeds to S908.

S908では、CPU01は、S905で撮影をされた撮影要因があったか否かを判定する。S908においてYESと判定された場合にはS909へ進み、そうでない場合にはS907へ進む。
S909では、CPU01は、カメラ側へ撮影する指示を通知する。
S910では、CPU01は、トリミング情報をトリミング部202に通知する。トリミング情報や撮影要因に関する情報は、所定時間ごとにアップデートされるので、途中でチケットを購入した観客も、試合の途中からトリミング済み画像を得ることができるようになる。
In S908, the CPU 01 determines whether or not there was a shooting factor for shooting in S905. If the determination in S908 is YES, the process proceeds to S909; otherwise, the process proceeds to S907.
In S909, the CPU 01 notifies the camera of an instruction to shoot.
In S910, the CPU 01 notifies the trimming unit 202 of the trimming information. Since the trimming information and the information about shooting factors are updated at predetermined time intervals, even spectators who purchased tickets in the middle of the match can obtain trimmed images from the middle of the match.

S911では、CPU01は、処理を終了するか、すなわち試合が終了し、撮影を終了するか否かを判定する。終了する場合にはS912へ進み、そうでない場合にはS901へ進む。
S912では、CPU01は、カメラへ電源をOFFすることを通知する。
In S911, the CPU 01 determines whether to end the process, that is, whether to end the game and end the shooting. If it is to end, the process proceeds to S912; otherwise, the process proceeds to S901.
In S912, the CPU 01 notifies the camera of turning off the power.

以上説明したように、図9(a)に示した処理においては、トリミング情報をトリミング部202に撮影の指示とほぼ同時に送るので、撮影後に素早く登録されたトリミング処理を実施することができる。トリミング部202では、カメラ側からストレージ204へ画像が送られるときには、トリミングすべきグループについて把握し、トリミング範囲を算出できているので、素早くトリミング処理をし、観客が画像を確認できるようになる。 As described above, in the processing shown in FIG. 9A, the trimming information is sent to the trimming unit 202 almost at the same time as the photographing instruction, so the registered trimming processing can be quickly performed after photographing. When the image is sent from the camera side to the storage 204, the trimming part 202 grasps the group to be trimmed and calculates the trimming range, so that the trimming process is quickly performed and the image can be confirmed by the audience.

次に、図9(b)の撮影に関する処理について説明をする。図9(b)の処理は各カメラにおいて行われる処理である。
S930では、CPU01は、カメラ側が撮影条件を取得するようにする。
S931では、カメラ側で、撮影指示がされたか否かを判定し、撮影指示がされた場合にはS932へ進み、そうでない場合には撮影指示がされるのを待つ。
Next, processing related to photographing in FIG. 9B will be described. The processing in FIG. 9B is processing performed in each camera.
In S930, the CPU 01 causes the camera side to acquire the shooting conditions.
In S931, the camera determines whether or not a photographing instruction has been issued. If a photographing instruction has been issued, the process advances to S932, and if not, the camera waits for a photographing instruction.

S932では、カメラ側で、設定された撮影条件での撮影を行う。
S933では、CPU01は、カメラから画像転送受信部201bへ画像を転送するように制御する。転送された画像データは、ストレージ204に格納される。もしくは、カメラにおいて撮影された画像は逐次ストレージ204へ転送する。
S934では、CPU01は、図9(b)の処理を終了するか否かの判定をする。S934の判定は、図9(a)のS912においてカメラの電源のオフをする指示がきた場合にYESとなる。S934において図9(b)の処理を終了すると判定した場合には図9(b)の処理を終了し、そうでない場合にはS931へ進む。
In S932, the camera performs shooting under the set shooting conditions.
In S933, the CPU 01 controls to transfer the image from the camera to the image transfer reception unit 201b. The transferred image data is stored in the storage 204 . Alternatively, the images captured by the camera are sequentially transferred to the storage 204 .
In S934, the CPU 01 determines whether or not to end the processing of FIG. 9B. The determination in S934 is YES when an instruction to turn off the power of the camera is received in S912 of FIG. 9A. If it is determined in S934 that the process of FIG. 9B is to be ended, the process of FIG. 9B is ended; otherwise, the process proceeds to S931.

次に、図9(c)の画像をトリミングし配信する処理に関する説明をする。
S951では、CPU01は、画像を取得する指示がされたか否かを判定する。画像を取得する指示とは、野球であればホームランがあった時刻や、ファインプレーのあった時刻などのイベント時刻において、図8のS805において設定された時計の時刻をもとに、イベント時刻の前後に撮影された画像を取得する指示である。画像の取得指示は、イベント時刻の発生に応じて行うものとする。なお、イベント時刻でなくても例えば、試合の分析を行い、イベントが発生したことに応じて画像の撮影指示と画像の取得指示とを同時にCPU01が行ってもよい。
Next, processing for trimming and distributing the image in FIG. 9C will be described.
In S951, the CPU 01 determines whether an instruction to acquire an image has been issued. An instruction to acquire an image is an event time such as the time of a home run or the time of a fine play in the case of baseball, based on the clock time set in S805 of FIG. This is an instruction to acquire an image taken at . It is assumed that an image acquisition instruction is issued in response to occurrence of an event time. It should be noted that even if it is not the event time, for example, the game may be analyzed, and the CPU 01 may simultaneously issue an image shooting instruction and an image acquisition instruction in response to the occurrence of an event.

S952では、CPU01は、対象画像をストレージ204から取得する。
S953では、トリミング部202がトリミング情報を取得する。
In S<b>952 , the CPU 01 acquires the target image from the storage 204 .
In S953, the trimming unit 202 acquires trimming information.

S954以降の処理ではトリミングの処理を開始する。
S954では、トリミング部202がn=1の座席の情報を取得する。そして、現在トリミングをしようとしている画像を撮影したカメラの撮影範囲における座席数をmとする。本実施形態においては座席の番号に関して簡単のためにn=1からmまでとしているが、これに限らず、1台のカメラが撮影しており、かつトリミング対象となっている座席のすべてがカバーされれば、実際に球場で使用されている座席と紐づけてもよい。複数のカメラで観客の席をカバーするためには、他のカメラとの撮影の範囲と撮影範囲が被ることがある。2台のカメラから撮影をされている観客であっても、いずれか一方である1台のカメラで撮影された画像からトリミングされた画像が提供される。よって、カメラの撮影範囲とトリミング範囲とは異なることがある。S954では、全てのトリミング範囲の座席数をmとして取得する。トリミング範囲は、試合中に可変としてもよいし、予め球場側で定めておいてもよい。
In the processing after S954, the trimming processing is started.
In S954, the trimming unit 202 acquires the information of n=1 seats. Let m be the number of seats in the shooting range of the camera that shot the image to be trimmed. In the present embodiment, the seat numbers are set from n=1 to m for simplicity, but not limited to this, all seats that are photographed by one camera and are subject to trimming are covered. If so, it may be linked to the seats actually used in the ballpark. In order to cover the seats of the audience with a plurality of cameras, the photographing range and the photographing range of the other cameras may overlap. Even if the spectator is photographed by two cameras, an image trimmed from the image photographed by one of the cameras is provided. Therefore, the photographing range of the camera and the trimming range may differ. In S954, the number of seats in all trimming ranges is acquired as m. The trimming range may be variable during the game, or may be determined in advance by the stadium side.

S955では、CPU01は、トリミングを行うエリアにある座席か否かを判定する。球場では、ネットやポール、屋根等によりカメラの死角になってしまったり、撮影が禁止されているエリアがある可能性がある。また、自由席など観客の位置が分からないエリアにおいては、そもそも座席の位置に対応するトリミングを行わない。よって、このような場合にはS955の判定はNOとする。なお、自由席であっても後述するように顔検出によるトリミングやより広い範囲のトリミングは行うことができる。S955においてYESと判定された場合にはS956へ進み、そうでない場合にはS963へ進む。なお、チケットの購入時や、座席付近いにおいて画像購入ができないエリアであることを観客に示すようにしてもよい。 In S955, the CPU 01 determines whether or not the seat is in the trimming area. In a stadium, there may be areas where cameras are blind spots due to nets, poles, roofs, etc., or where photography is prohibited. Also, in areas such as unreserved seats where the positions of the spectators are unknown, trimming corresponding to the positions of the seats is not performed in the first place. Therefore, in such a case, the determination in S955 is NO. As will be described later, even in non-reserved seats, trimming based on face detection and trimming over a wider range can be performed. If the determination in S955 is YES, the process proceeds to S956; otherwise, the process proceeds to S963. It should be noted that it is possible to indicate to the spectators when purchasing tickets or near the seats that images cannot be purchased in the area.

S956では、CPU01は、現在トリミング対象か否かを判定している座席nがトリミング範囲にある座席数mより小さいか否かを判定する。すなわち、トリミング範囲全ての座席に対して、トリミングをするか否かの判定が終わっていないかを確認する。S956の判定がYESである場合にはS957へ進み、そうでない場合にはS965へ進む。 In S956, the CPU 01 determines whether or not the number of seats n for which it is currently being determined whether or not to be trimmed is smaller than the number of seats m within the trimming range. That is, it is confirmed whether or not the determination of whether or not trimming is to be performed has been completed for all seats in the trimming range. If the determination in S956 is YES, the process proceeds to S957; otherwise, the process proceeds to S965.

S957では、CPU01は、座席nがトリミング対象の座席か否かを判定する。トリミング対象の座席か否かは、図7において観客が画像購入の意思を示したか否かにより決まる。すなわち、S955の判定は、トリミンググループに含まれる座席である場合にはYESとなり、そうでない場合にはNOとなる。 In S957, the CPU 01 determines whether the seat n is a seat to be trimmed. Whether or not the seat is to be trimmed is determined depending on whether or not the spectator indicates the intention to purchase the image in FIG. That is, the determination in S955 is YES if the seat is included in the trimming group, and NO otherwise.

S958では、CPU01は、S952で取得した画像からトリミングを行う元の画像であるトリミング画像を選択する。トリミング画像の選択は、現在対象となっている座席nのトリミンググループの観客の様子に応じて、最も表情が良いものや、前後の画像と比較して動きの大きなものを選択するようにしてもよい。また、トリミンググループごとで選択する画像を変えず、マニュアルで画像を選択したり、トリミング範囲の観客の動きを数値化し、一番大きな動きがあると思われる画像を選択してもよい。 In S958, the CPU 01 selects a trimmed image, which is the original image to be trimmed from the image acquired in S952. As for the selection of the trimmed image, depending on the state of the audience in the trimming group of the currently targeted seat n, it is possible to select the one with the best expression or the one with greater movement compared to the images before and after. good. Alternatively, an image may be manually selected without changing the selected image for each trimming group, or the movement of the spectator within the trimming range may be quantified and the image with the largest movement may be selected.

S959では、CPU01は、トリミング処理を実行する。トリミング処理については、図10を用いて後述する。
S960では、CPU01は、座席n=n+1とする。なお、すでにトリミング処理が実施済みのトリミンググループに含まれている座席nであった場合には、さらにn+1として、まだS957の判定をしていない座席を探していく。
In S959, the CPU01 executes trimming processing. The trimming process will be described later with reference to FIG. 10 .
In S960, the CPU01 sets seat n=n+1. If the seat n is included in the trimming group for which the trimming process has already been performed, the number of seats is set to n+1, and a seat that has not yet been determined in S957 is searched for.

S961、S962で行われる、座席nの観客のグループトリミングに入っていない場合の処理について説明する。本実施形態においては、試合の後に観客が画像を得られるように座席番号と紐づけてエリアでのトリミングを行う。すなわち、グループトリミングのように同時購入した観客が入り、その他の観客が入らないようにトリミング範囲を決めるのではなく、30人や50人といったように予め決められた人数でのトリミングを行う。これにより、トリミングにかかる時間とデータ量を削減することができ、グループトリミングの対象となっている観客には素早く画像の提供ができるようにしつつ、そうでない観客にも後から画像を提供できるようにしている。 The processing performed in S961 and S962 when the group trimming of the audience at seat n is not performed will be described. In this embodiment, area trimming is performed in association with seat numbers so that spectators can obtain images after the match. That is, unlike group trimming, the trimming range is determined so that the spectators who purchase at the same time enter and the other spectators do not enter, but trimming is performed with a predetermined number of people such as 30 or 50 people. This makes it possible to reduce the amount of time and data required for trimming, so that images can be quickly provided to spectators who are subject to group trimming, while images can be provided later to spectators who are not. I have to.

S961では、CPU01は、S958と同様にトリミング画像を選択する。エリアトリミングの場合には、各座席の観客に合わせてトリミング画像を保存しておかないので、座席nの観客に応じたトリミング画像の選択は行わない。エリアトリミングの場合には、手動で画像を選択してもよいし、トリミング範囲にいる観客の動きを数値化して最も動きの大きな数値の画像を選択してもよい。もしくは、予め顔データが準備されていた観客の表情が良い、もしくは動きの大きな画像を選択するようにしてもよい。このように、グループトリミングの対象となっていない観客であっても、画像購入をする可能性の高い観客の表情が良い、もしくは大きく動いている画像を選択することで、将来、画像を購入したより多くの観客の満足度を満たすことができる。それぞれの観客の表情の良い画像を保存しておくと、データ量が多くなりコストアップにつながり、またデータの取り出しも時間を要す。購入の可能性の高い、高い頻度で観戦のする観客を優先的にして画像を選択することで、よりコストが低くさらに素早く画像を提供することができるようになる。なお、顔検出された観客には、例えば10試合や5試合といった所定の数の試合ごとに、対象の観客の画像をまとめて、観客に通知してもよいし、次の試合の観戦時に観客に画像を通知し、購入を促してもよい。さらに、前回の試合で撮影された画像を、次の試合のチケットの購入時に観客に提示することで、どのような画像が撮影されるのかを観客が把握し、画像購入をするか否かの判断をしやすくしてもよい。 In S961, the CPU01 selects a trimmed image as in S958. In the case of area trimming, the trimmed image is not stored according to the audience at each seat, so the trimmed image is not selected according to the audience at seat n. In the case of area trimming, an image may be selected manually, or the movement of the spectators in the trimming range may be quantified and the image with the largest numerical value of movement may be selected. Alternatively, an image with a good facial expression or a large movement of the audience whose face data is prepared in advance may be selected. In this way, even for spectators who are not targeted for group trimming, by selecting images with good facial expressions or large movements of spectators who are likely to purchase images, they will purchase images in the future. It can meet the satisfaction of more audiences. Storing images with good facial expressions of each spectator increases the amount of data, which leads to an increase in cost, and takes time to retrieve the data. By giving priority to spectators who watch the game frequently and who are likely to purchase the images, the images can be provided at a lower cost and more quickly. For the spectators whose faces have been detected, the images of the target spectators may be collectively notified to the spectators after a predetermined number of games, such as 10 or 5 games, for example. may be notified of images and encouraged to purchase. In addition, by presenting the images taken in the previous game to the spectators when purchasing tickets for the next game, the spectators can grasp what kind of images will be taken and decide whether to purchase the images. Make it easier to make decisions.

S962では、CPU01は、エリアトリミングをする。エリアトリミングは上述したように、所定の人数で区切った画像をトリミングする。既に他の座席nに対する処理においてエリアトリミングされた画像に含まれている座席nであった場合には、改めてエリアトリミングをせず、画像のデータ量の削減をする。 In S962, the CPU 01 performs area trimming. As described above, area trimming is performed by trimming an image divided by a predetermined number of people. If the seat n is already included in the image that has been area-trimmed in the processing for another seat n, the data amount of the image is reduced without performing area trimming again.

S963、S964では、S961、S962と同様の処理を実行する。トリミング対象の座席でない自由席であれば、顔検出に基づいた処理を行い、トリミング対象座席でグループトリミング範囲の観客でない場合には、エリアトリミングをしないようにしてもよい。また、一部の熱狂的なファンが固まっていたり、団体の座っている座席においては、エリアトリミングの範囲を広く設けてもよい。例えば、同じ色の服を着ているユーザをトリミング範囲としてもよい。これにより、応援しているチームのユニフォームを着ている団体を一枚に収めることができる。 In S963 and S964, the same processing as in S961 and S962 is executed. If it is a non-reserved seat that is not a trimming target seat, processing based on face detection may be performed, and if the trimming target seat is not a spectator within the group trimming range, area trimming may not be performed. In addition, a wide range of area trimming may be provided in the seats where some enthusiastic fans are concentrated or groups are sitting. For example, users wearing clothes of the same color may be set as the trimming range. As a result, groups wearing the uniform of the team they support can be included in one sheet.

S965では、CPU01は、トリミングした画像の中に、顔データがあったか否かを判定する。顔データがあった場合にはS966へ進み、そうでない場合にはS967へ進む。
S966では、CPU01は、各観客のIDと画像とを結びつけ、観客が観戦中の試合における画像フラグをONにする。画像フラグがONであれば、観客に対して、いつの試合に撮影された画像があるのかを提示することができる。
In S965, the CPU 01 determines whether face data is present in the trimmed image. If there is face data, proceed to S966; otherwise, proceed to S967.
In S966, the CPU 01 associates the ID of each spectator with the image, and turns ON the image flag for the match being watched by the spectator. If the image flag is ON, it is possible to present to the spectators which games have images taken.

S967では、CPU01は、トリミングをした画像を配信部207へアップロードし、グループトリミングの対象となっている観客が画像を閲覧可能にする。なお、グループトリミングの対象となっている観客でなくても、トリミングした画像を提示するようにしてもよい。このとき、グループトリミングの対象外となっている観客にはウォーターマークでサンプルなどの文字をいれる。なお、アップロードしなかった画像データはストレージ204から削除、もしくは画質を落として記録することで、画像の容量を減らし、コストの削減へとつなげる。ただし、試合後、所定期間はS958、S961、S963で選択した画像自体と保存しておいてもよいし、削除をする前に各観客に通知をしてもよい。 In S<b>967 , the CPU 01 uploads the trimmed image to the distribution unit 207 so that the audience targeted for group trimming can view the image. It should be noted that the trimmed image may be presented even to the spectators who are not the target of the group trimming. At this time, the spectators who are not subject to group trimming are watermarked with characters such as samples. Note that image data that has not been uploaded is deleted from the storage 204 or recorded with reduced image quality, thereby reducing the capacity of the image and leading to cost reduction. However, after the game, the images themselves selected in S958, S961, and S963 may be stored for a predetermined period of time, or the images may be notified to each spectator before deletion.

図10は、本実施形態におけるトリミング処理の例を示すフローチャートである。この処理は、ROM(不揮発性メモリ)02に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。 FIG. 10 is a flowchart showing an example of trimming processing in this embodiment. This processing is realized by developing a program recorded in ROM (non-volatile memory) 02 in RAM (system memory) 03 and executing it by CPU 01 .

CPU01は、チケット購入部206から事前に取得した購入されたグループ人数、座席番号、座席配置の情報を読み出す(S1001)。
図11は、本実施形態におけるグループの人数に応じた座席配置の例を示す図である。図11(a)は4人のグループの座席配置例であり、パターン(1)では4人が横並びになっており、パターン(2)では2人ずつ前後に並んでいる。あくまでもパターンは一例であり、パターンの形と人数の組合せが、本発明を限定するものではない。同様に、図11(b)は5人のグループの座席配置の例、図11(c)は6人のグループの座席配置の例である。
The CPU 01 reads information on the number of people in the group, the seat number, and the seat arrangement previously acquired from the ticket purchase unit 206 (S1001).
FIG. 11 is a diagram showing an example of seating arrangements according to the number of people in a group according to this embodiment. FIG. 11A shows an example of the seating arrangement of a group of four people. In pattern (1), four people are lined up side by side, and in pattern (2), two people are lined up in front and back. The pattern is merely an example, and the combination of the shape of the pattern and the number of people does not limit the present invention. Similarly, FIG. 11(b) is an example of seating arrangement for a group of 5 persons, and FIG. 11(c) is an example of seating arrangement for a group of 6 persons.

図12は、本実施形態における座席配置における座席の関係性を示した図である。グループ内で左下の座席位置を基準として、水平方向の座席位置を「番」、垂直方向の座席位置を「列」で表現し、水平方向右側に向かって「番」の数字がインクリメントされ、垂直方向上側に向かって「列」の番号がインクリメントされる。図12は、図11(b)のパターン(2)における座席配置の具体的な例を示したものである。X+2番、Y列にはグループ内の利用者はいないが、矩形をトリミングする際のデータとして必要であるため、図13及び図14のデータ構造においてグループ外席として定義する。 FIG. 12 is a diagram showing the relationship of seats in the seat arrangement in this embodiment. Based on the lower left seat position within the group, the horizontal seat position is expressed as "number", and the vertical seat position is expressed as "column". The "column" number is incremented upwards. FIG. 12 shows a specific example of the seating arrangement in pattern (2) of FIG. 11(b). There are no users in the group in columns X+2 and Y, but they are necessary as data for trimming the rectangle, so they are defined as seats outside the group in the data structures of FIGS.

図10の説明に戻る。
CPU01は、トリミング範囲及びグループ外席情報を取得する(S1002)。なお、事前にトリミング範囲を算出せずにS1001においてトリミング範囲の算出を行ってもよい。
Returning to the description of FIG.
The CPU 01 acquires the trimming range and group outside seat information (S1002). Note that the trimming range may be calculated in S1001 without calculating the trimming range in advance.

CPU01は、S1002で取得したグループ情報にグループ外席の情報が存在していた場合(S1003でYES)、グループ外席に定義されている座席位置のトリミング範囲を灰色の単色で塗り潰す(S1004)。グループ外席の情報が存在していない場合(S1003でNO)には、S1004の処理はスキップする。 When the group information acquired in S1002 includes information on seats outside the group (YES in S1003), the CPU 01 fills in the trimming range of the seat positions defined for seats outside the group with a single gray color (S1004). . If information on seats outside the group does not exist (NO in S1003), the process of S1004 is skipped.

S1004において、グループ外の座席のトリミング位置の全範囲を塗りつぶしてしまうと、一部上下隣のグループ内の座席のトリミング位置と重なっていることがあるため、若干トリミング位置よりも内側を塗り潰すことが望ましい。これは、グループ外の観客が写らないようにするための処理であるが、塗り潰しの方法については本発名を限定するものではない。また、特に肖像権の問題などがなく、利用者の意思としてグループ外の人物が写っていても問題ない場合には、S1004の処理は必要がないケースもある。 In S1004, if the entire range of the trimming positions of the seats outside the group is painted, the trimming positions of the seats in the upper and lower groups may partially overlap. is desirable. This is a process for preventing spectators outside the group from appearing in the picture, but the filling method is not limited to this name. Also, if there is no particular problem with portrait rights, and there is no problem even if a person outside the group is photographed as the user's intention, there is a case where the processing of S1004 is not necessary.

CPU01は、S1002で取得した1303~1306のトリミング位置の計算方法に従い、トリミング位置を確定させる(S1005)。
図15は、本実施形態におけるトリミング位置の計算例を示した図である。図15(a)は、図4に示したように観客のほぼ正面から撮影された画像に対する計算方法の例であり、図15(b)は、図5に示したように観客がやや斜めに撮影された画像に対しての計算方法の例である。図15(a)では単純に左上座席の左上頂点と、右下座席の右下頂点をそれぞれ全体のトリミング位置の頂点として利用している。図15(b)では上下列が若干ずれているため、
左上頂点
X座標=左下座席の左上頂点のX座標
Y座標=左上座席の左上頂点のY座標
右下頂点
X座標=右上座席の右下頂点のX座標
Y座標=右下座席の右下頂点のY座標
が定義されており、この計算方法を用いて左上頂点・右下頂点の座標位置を求める。
The CPU 01 determines the trimming position according to the trimming position calculation method of 1303 to 1306 acquired in S1002 (S1005).
FIG. 15 is a diagram showing a calculation example of the trimming position in this embodiment. FIG. 15(a) is an example of a calculation method for an image taken almost from the front of the audience as shown in FIG. 4, and FIG. It is an example of a calculation method for a photographed image. In FIG. 15A, the upper left vertex of the upper left seat and the lower right vertex of the lower right seat are simply used as the vertices of the overall trimming position. In FIG. 15(b), since the upper and lower rows are slightly misaligned,
Upper left vertex X coordinate = X coordinate of upper left vertex of lower left seat Y coordinate = Y coordinate of upper left vertex of upper left seat Lower right vertex X coordinate = X coordinate of lower right vertex of upper right seat Y coordinate = Lower right vertex of lower right seat A Y coordinate is defined, and the coordinate positions of the upper left vertex and lower right vertex are obtained using this calculation method.

図10の説明に戻る。
CPU01は、S1005で確定したトリミング位置に従い、カメラで撮影した全体画像から該当人数・座席配置に従ったトリミング位置で切り出したトリミング済み画像を生成し、ストレージ205に撮影日付及び座席番号情報と共に格納する(S1006)。
Returning to the description of FIG.
In accordance with the trimming position determined in S1005, the CPU 01 generates a trimmed image cut out from the entire image taken by the camera at the trimming position according to the corresponding number of people and seat arrangement, and stores it in the storage 205 together with the shooting date and seat number information. (S1006).

なお、上述した実施形態において以下のようにシステムを運用することで、観客がより容易に画像の取得をできるようにしてもよい。
・配信サーバへの閲覧要求を、チケットのQRコードの読み取りにする。
・事前にグループ情報を取得するようにしているが、処理を行う度に取得してもよい。この場合、チケット購入システムも常にグループ情報を作り直す必要があり、その都度トリミング部202から取得するので、システム全体としては処理が増える。しかし、例えば、野球の場合当日券の売り上げの割合が多く、試合開始後にグループ情報が多く作成される場合、などには有効である。
In the above-described embodiment, the system may be operated as follows so that the audience can acquire images more easily.
・The viewing request to the delivery server is made to read the QR code of the ticket.
・Although group information is acquired in advance, it may be acquired each time processing is performed. In this case, the ticket purchase system also needs to recreate the group information all the time, and each time it is acquired from the trimming unit 202, the processing of the system as a whole increases. However, for example, in the case of baseball, the proportion of same-day ticket sales is high, and this is effective when a large amount of group information is created after the start of a game.

次に、事前に観客が画像の購入意思を示さなかったが、試合の終了後に画像を購入しようとした場合について図16、図17を用いて説明をする。 Next, a case where the spectator did not indicate the intention to purchase the image in advance, but intends to purchase the image after the game is over will be described with reference to FIGS. 16 and 17. FIG.

図16は、本実施形態における画像提供システムのシステム構成の他の例を示す図である。画像処理装置201は、撮影指示部101と、カメラ102~105、画像転送受信部201bと、選択・アップロード部203と、ストレージ204を持つ。図16において、各処理部101、201b、203、204は1つの画像処理装置201の中に記載しているが、物理的に別の処理装置であっても構わず、処理部の構成が本発明を限定するものではない。同様に、配信部207とトリミング部202も物理的に別の処理装置であってもよい。
撮影処理部101、カメラ102~105、カメラ画像転送受信部201b、及びチケット購入部206については、図2の説明と同様であるため割愛する。
FIG. 16 is a diagram showing another example of the system configuration of the image providing system according to this embodiment. The image processing apparatus 201 has a photographing instruction section 101 , cameras 102 to 105 , an image transfer reception section 201 b , a selection/upload section 203 and a storage 204 . In FIG. 16, the processing units 101, 201b, 203, and 204 are shown in one image processing apparatus 201, but they may be physically separate processing units, and the configuration of the processing units is the same as in the present invention. It is not intended to limit the invention. Similarly, the distribution unit 207 and the trimming unit 202 may be physically separate processing devices.
The photographing processing unit 101, the cameras 102 to 105, the camera image transfer receiving unit 201b, and the ticket purchasing unit 206 are the same as those described in FIG. 2, and therefore are omitted.

選択・アップロード部203は、ストレージ204に撮影画像データが格納されたこととトリガーに、撮影画像データをイベントの日時情報と座席ごとのトリミング位置情報と共に配信部207にアップロードする。ここでの撮影画像データはトリミングされていない高解像のデータであるため、インターバル撮影などで撮影枚数が多くなった場合や、カメラの台数が多くなった場合には、大量のデータが配信部207にアップロードされることになる。後からグループトリミングをしようとした際には、より大量のデータをシステムが保持しなければならない。 Triggered by the fact that the captured image data is stored in the storage 204, the selection/upload unit 203 uploads the captured image data to the distribution unit 207 together with the date and time information of the event and the trimming position information for each seat. The captured image data here is untrimmed, high-resolution data, so if the number of shots increases due to interval shooting, etc., or if the number of cameras increases, a large amount of data will be sent to the distribution unit. 207 will be uploaded. If you later try to group trim, the system will have to hold more data.

なお、ここでは座席ごとのトリミング位置情報を画像処理装置201から配信部207にアップロードしているが、配信部207とトリミング部202で情報を持っても良い。ただし、トリミング位置情報はあくまでもカメラ102~105で撮影される画像に対しての位置情報となるので、画像処理装置201側におけるカメラ102~105の取り付け位置や画角を変更した場合に都度更新が必要となる。そのため、画像処理装置201と配信部207、トリミング部202のシステムがより連携して対応する必要がある。 Although the trimming position information for each seat is uploaded from the image processing apparatus 201 to the distribution unit 207 here, the distribution unit 207 and the trimming unit 202 may have the information. However, since the trimming position information is only position information for the images captured by the cameras 102 to 105, it needs to be updated every time the mounting positions or the angles of view of the cameras 102 to 105 on the image processing apparatus 201 side are changed. necessary. Therefore, the system of the image processing apparatus 201, the distribution unit 207, and the trimming unit 202 needs to work together more.

配信部207は、利用者が入力したイベント日付と座席番号に基づいて、トリミング部202に選択・アップロード部から取得したサムネイル位置情報と座席番号を送信し、トリミング処理を指示して、取得したトリミング済み画像を利用者に提示する。利用者の入力に関しては、図2と同様に利用者がチケットを見て手動で入力しても良いし、チケットにQRコードなどを印字して、それをスマートホンで読み取って認識するのでも、またチケット情報が分からない場合には顔検出でもよい。入力方法は上述の方法に限られない。また、利用者への提示はスマートホンのアプリケーションでも良いし、ブラウザでアクセスするようなWebアプリケーションの形でも良く、提示方法についても本発明を限定するものではない。 The distribution unit 207 transmits the thumbnail position information and the seat number acquired from the selection/upload unit to the trimming unit 202 based on the event date and seat number input by the user, instructs trimming processing, and trims the acquired trimming. Present the finished image to the user. As for input by the user, the user may manually input by looking at the ticket as in FIG. If the ticket information is unknown, face detection may be used. The input method is not limited to the method described above. In addition, presentation to the user may be in the form of a smartphone application or a Web application that can be accessed using a browser, and the presentation method is not limited to the present invention.

トリミング部202は、処理自体は図2と同様である。しかし、利用者が購入を希望する都度にトリミング済み画像を生成することになり、利用者がトリミング済み画像を取得するまでの時間にそのトリミング時間が含まれてしまうため、画像の提供を素早く行うことができない。また、素早く行うためには、より画像処理を高速に実施できる環境が必要となる。 The processing itself of the trimming unit 202 is the same as in FIG. However, the trimmed image is generated every time the user wishes to purchase, and the trimming time is included in the time it takes for the user to obtain the trimmed image. I can't. In addition, in order to perform image processing quickly, an environment is required in which image processing can be performed at a higher speed.

次に、図17においては、画像データをストレージ204に保存している場合について説明をする。図17の処理では、図16とは異なり、配信部207に大量の画像データが送信されることはないが、利用者からの画像購入のトリガーを受けてから画像処理装置201に対象カメラで撮影した画像を要求してアップロードしてもらう。そのため、図16よりも画像取得分だけ時間が長くかかってしまうので、利用者がトリミング済み画像データを取得するのにさらに時間がかかってしまう。
図17は、図16と構成は同じである。
Next, referring to FIG. 17, the case where image data is stored in the storage 204 will be described. Unlike FIG. 16, in the process of FIG. 17, a large amount of image data is not transmitted to the distribution unit 207, but after receiving a trigger to purchase an image from the user, the image processing apparatus 201 receives the image data shot by the target camera. request and upload the image. Therefore, it takes longer than in FIG. 16 to acquire the image, and it takes even longer for the user to acquire the trimmed image data.
FIG. 17 has the same configuration as FIG.

本実施例は、利用者がチケットを購入したことを前提に、次は画像購入の指示を配信部207に行ったところから処理がスタートする(ステップ1)。配信部207は、対象カメラの画像を画像処理装置201へ要求し(ステップ2)、画像処理装置201内においてストレージ204へと画像が要求される(ステップ3)。その後、選択・アップロード部203が画像データを配信部207へ送信(ステップ4)する。このとき、画像データには日付情報、座席ごとのトリミング位置情報とトリミング前の画像データとが含まれるため、データ量が大きくなる。配信部207からトリミング部202へとトリミング指示がされる(ステップ5)と、トリミング部202がトリミングをし、トリミング済みの画像データが配信部207へと配信される(ステップ6)。その後、配信部から画像を購入した観客へとトリミング済みの画像が配信される(ステップ7)。 In this embodiment, it is assumed that the user has purchased a ticket, and the process starts from the point where an image purchase instruction is sent to the distribution unit 207 (step 1). The distribution unit 207 requests the image of the target camera from the image processing device 201 (step 2), and the image is requested from the storage 204 within the image processing device 201 (step 3). After that, the selection/upload section 203 transmits the image data to the distribution section 207 (step 4). At this time, since the image data includes date information, trimming position information for each seat, and image data before trimming, the amount of data increases. When the distribution unit 207 issues a trimming instruction to the trimming unit 202 (step 5), the trimming unit 202 performs trimming, and the trimmed image data is distributed to the distribution unit 207 (step 6). After that, the trimmed image is distributed to the spectators who purchased the image from the distribution unit (step 7).

このように、図17の方法では、事前に観客が画像購入の意思を示していなくても、トリミンググループを対象としたトリミングをした画像を観客に提供することができる。しかし、システム内、装置内におけるやり取りが多く、事前に画像の購入意思のある観客よりも画像の提供にまでに時間を要する可能性がある。なお、観客に画像を提供する際には、座席情報も紐づけて観客に提供することで、観客がSNSに画像をアップロードした際に、画像をみた人がどの位置の座席であればよい画像が撮られるのかを認識することができる。さらに、座席の位置に応じて明るさに関する画像処理を行い、暗い部分や明るい部分に対して適正な画像を提供するようにすることで、広い範囲の観客を同じ画角範囲に含めて撮影をしてもより良い画像を提供することが可能になる。同じ画角内において明るさが所定以上変わるような場合には、RAW画像を取得し、後で画像の加工をしやすくしてもよい。 Thus, with the method of FIG. 17, even if the audience does not show an intention to purchase the image in advance, it is possible to provide the audience with the trimmed image targeted for the trimming group. However, there are many exchanges within the system and within the device, and there is a possibility that it will take longer to provide the image than the spectator who intends to purchase the image in advance. In addition, when providing images to spectators, the seat information is also linked and provided to the spectators, so that when the spectators upload the images to SNS, the images can be viewed in any position according to the seat position of the person viewing the image. can recognize whether is taken. In addition, by performing image processing related to brightness according to the position of the seat and providing appropriate images for dark and bright areas, it is possible to capture a wide range of spectators within the same angle of view. can provide better images. If the brightness changes more than a predetermined amount within the same angle of view, a RAW image may be acquired to facilitate image processing later.

次に、本実施形態における撮影一連処理について図18を用いて説明する。撮影一連処理は、観客席の空席の状態に応じて、撮影する頻度を変更するための処理である。この処理は、ROM(不揮発性メモリ)02に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。この処理は、試合の開始の前であって、観客の情報がより集まっている状態の方がよいので、撮影開始前の10分前や1時間前など、試合までが所定の時間になったら開始するようにする。もしくは、試合の開始直後に開始してもよい。 Next, a series of photographing processes according to this embodiment will be described with reference to FIG. 18 . The series of photographing processes are processes for changing the frequency of photographing according to the vacant seat status of the audience seats. This processing is realized by developing a program recorded in ROM (non-volatile memory) 02 in RAM (system memory) 03 and executing it by CPU 01 . This process should be done before the start of the match, when the spectator information has been collected. let it start. Alternatively, it may start immediately after the start of the match.

S1801では、CPU01は、各カメラの撮影範囲が空席の時の画像を取得する。撮影範囲が空席の時の画像は事前に撮影したものを取得してきてもよいし、試合のたびに撮影を行ってもよい。
S1802では、CPU01は、事前に画像購入意思のある観客情報を取得する。画像購入意思のある観客とは、図7に示したチケット購入処理でトリミング済み画像の購入意思を示した観客のことである。
In S1801, the CPU 01 acquires an image when the shooting range of each camera is empty. An image taken in advance may be obtained when the shooting range is empty, or may be taken at each match.
In S1802, the CPU 01 acquires spectator information who has an image purchase intention in advance. A spectator who intends to purchase an image is a spectator who indicates an intention to purchase a trimmed image in the ticket purchase process shown in FIG.

S1803では、CPU01は、カメラの配置に関する情報を取得し、カメラの撮影範囲にある座席の情報を取得する。また、座席の席種についてもこのとき取得する。
S1804では、CPU01は、S1803において取得した情報と、S1802において取得した観客情報から、撮影対象となる観客がどのくらいいるかの撮影対象割合を算出する。撮影対象割合は、撮影購入意思のある観客の数を座席数で割ったものである。S1804では、各カメラの撮影対象割合を算出する。
In S1803, the CPU 01 acquires information about the arrangement of the cameras, and acquires information on seats within the shooting range of the cameras. The seat type of the seat is also acquired at this time.
In S1804, the CPU 01 calculates the shooting target ratio indicating how many spectators are shooting targets from the information acquired in S1803 and the audience information acquired in S1802. The rate of filming targets is the number of spectators who intend to purchase filming divided by the number of seats. In S1804, the shooting target ratio of each camera is calculated.

S1805では、CPU01は、S1804で算出したカメラn=1の撮影対象の割合を取得する。
S1806では、CPU01は、カメラnの撮影対象、すなわちカメラnの撮影範囲の中にいる画像の購入意思のある観客がいるか否かを判定する。カメラnの撮影対象がいると判定した場合にはS1807へ進み、そうでない場合にはS1809へ進む。
In S1805, the CPU 01 acquires the ratio of the imaging target of the camera n=1 calculated in S1804.
In S1806, the CPU 01 determines whether or not there is an audience member who intends to purchase the image captured by the camera n, that is, the image captured by the camera n. If it is determined that there is an object to be photographed by camera n, the process advances to S1807; otherwise, the process advances to S1809.

S1807では、CPU01は、算出された撮影対象割合に応じて撮影間隔を決定する。例えば、画像の購入意思のある観客が50%以上いる場合には、撮影間隔をT=5秒にし、30%以上いる場合には、撮影間隔をT=10秒にする。撮影枚数が増えるとストレージ204に保存される画像の枚数が増え、観客への画像を提供する速度が遅くなってしまう可能性がある。よって、観客に提供される可能性のある画像の枚数に対して、ストレージ204に保存される画像の枚数、すなわち撮影される画像の枚数を決定することで、画像提供の速度を低下させないようにすることができる。
S1808では、CPU01は、カメラnが設定された撮影間隔において撮影を実施するように撮影間隔Tを設定する。
In S1807, the CPU 01 determines an imaging interval according to the calculated imaging target ratio. For example, if 50% or more of the spectators intend to purchase images, the shooting interval is set to T=5 seconds, and if 30% or more, the shooting interval is set to T=10 seconds. As the number of shots increases, the number of images stored in the storage 204 increases, and there is a possibility that the speed of providing images to the audience will slow down. Therefore, the number of images to be stored in the storage 204, that is, the number of images to be photographed is determined with respect to the number of images that may be provided to the audience so as not to reduce the image providing speed. can do.
In S1808, the CPU 01 sets the shooting interval T so that the camera n performs shooting at the set shooting interval.

S1809では、CPU01は、カメラnの撮影設定を変更する。撮影対象がいない場合には、カメラnは観客の撮影ではなく、例えば試合風景を撮影するカメラとして使用してもよいし、もしくは花火や得点板を撮影するためのカメラとして使用してもよい。もしくは、撮影を行わなくしてもよい。これにより、ストレージ204に保存される画像の枚数を減らすことができる。 In S1809, the CPU 01 changes the shooting settings of the camera n. If there is no object to be photographed, the camera n may be used not for photographing spectators, but for example, as a camera for photographing the scene of a game, or for photographing fireworks or a scoreboard. Alternatively, shooting may not be performed. As a result, the number of images stored in the storage 204 can be reduced.

S1810では、CPU01は、全部のカメラにおいてS1808もしくはS1809の設定がされたか否かの判定をする。全部のカメラへの撮影の設定がされたと判定した場合にはS1811へ進み、そうでない場合にはカメラn=n+1の撮影対象の割合を取得して、S1806へ進む。
S1811では、CPU01は、試合中の撮影一連処理を実行する。試合中の撮影一連処理については、図19を用いて説明する。
In S1810, the CPU 01 determines whether the settings in S1808 or S1809 have been made for all cameras. If it is determined that shooting has been set for all cameras, the process advances to S1811; otherwise, the ratio of shooting targets for camera n=n+1 is acquired, and the process advances to S1806.
In S1811, the CPU 01 executes a series of shooting processes during the game. A series of photographing processes during a match will be described with reference to FIG. 19 .

次に、図19を用いて試合中の撮影一連処理について説明する。図19に示すフローチャートは、図18においてS1811へ進むと開始される。図19に示す処理は試合中でなくても、各カメラnに対する撮影間隔がS1808(S1809)で設定された後であればよい。図19は、直前の図18において設定された撮影間隔を更新するための処理である。試合前には、チケット購入時の情報が分かるが、試合開始後には実際にどのくらい観客が座っているのかということが分かる。この処理は、ROM(不揮発性メモリ)02に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。 Next, a series of photographing processes during a match will be described with reference to FIG. 19 . The flowchart shown in FIG. 19 starts when the process proceeds to S1811 in FIG. The processing shown in FIG. 19 may be performed after the shooting interval for each camera n is set in S1808 (S1809) even if it is not during the game. FIG. 19 shows processing for updating the photographing interval set in FIG. 18 immediately before. Before the game, we know the information at the time of ticket purchase, but after the game starts, we know how many spectators are actually seated. This processing is realized by developing a program recorded in ROM (non-volatile memory) 02 in RAM (system memory) 03 and executing it by CPU 01 .

S1901は、CPU01は、カメラn=1に関するカメラ配置情報、撮影範囲情報、画像購入意思のある観客の情報を取得する。
S1902では、CPU01は、直前に撮影されたカメラnの画像を取得する。
S1903では、CPU01は、S1801で取得した空席時の画像と、S1902で取得した画像とを比較し、観客の座っている領域を判別する。
S1904では、CPU01は、人の領域の割合を算出する。
In S1901, the CPU 01 acquires camera arrangement information, shooting range information, and information on spectators who intend to purchase an image for the camera n=1.
In S1902, the CPU 01 acquires the image of the camera n captured immediately before.
In S1903, the CPU 01 compares the image of empty seats acquired in S1801 with the image acquired in S1902, and determines the area where the audience is seated.
In S1904, the CPU 01 calculates the proportion of the human area.

S1905では、CPU01は、人の増加量に応じて撮影間隔Tを変更する。例えば、チケットの購入情報では、30%の席が埋まる予定であったが、試合開始後や試合開始直前にチケットの購入がされ60%の席が埋まっていた場合には、S1808で設定した撮影間隔Tを10秒から7秒に変更する。試合の開始前後にチケットを購入した観客は、図7において説明をした画像の購入意思に関する処理をしていない可能性が高い。よって、人の増減の割合に応じて、S1808で設定した撮影間隔Tを変更する。なお、S1905においては、S1904において算出された観客の領域の割合に応じて撮影間隔Tを変えてもよいし、自由席はそもそも図8の処理を行わずに、図9のS1904で算出された割合に基づき、撮影間隔Tを設定してもよい。 In S1905, the CPU 01 changes the shooting interval T according to the increase in the number of people. For example, according to the ticket purchase information, 30% of the seats were scheduled to be filled. Change the interval T from 10 seconds to 7 seconds. There is a high possibility that the spectators who purchased tickets before and after the match did not perform the processing regarding the intention to purchase the images described with reference to FIG. 7 . Therefore, the photographing interval T set in S1808 is changed according to the rate of increase or decrease in the number of people. In S1905, the photographing interval T may be changed according to the ratio of the area of the audience calculated in S1904. The shooting interval T may be set based on the ratio.

S1906では、CPU01は、全てのカメラに対して、S1905の設定がされたか否かを判定する。全てのカメラに対して、S1905の処理がされたと判定した場合にはS1907へ進み、そうでない場合にはカメラn=n+1に関するカメラ配置情報、撮影範囲情報、画像購入意思のある観客の情報を取得して、S1902へ進む。 In S1906, the CPU 01 determines whether or not the settings in S1905 have been made for all cameras. If it is determined that the processing of S1905 has been performed for all cameras, the process advances to S1907. If not, the camera arrangement information, shooting range information, and information on spectators who intend to purchase images are acquired for camera n=n+1. and proceed to S1902.

S1907では、CPU01は、所定時間が経過したか否かを判定する。所定時間とは、例えば20分や30分といった時間であり、S1905における撮影間隔Tを更新する間隔である。所定時間が経過したと判定した場合にはS1901へ進み、そうでない場合にはS1908へ進む。
S1908では、CPU01は、図19の処理を終了するか否かを判定する。図19の処理を終了すると判定した場合には終了し、そうでない場合にはS1907へ進む。図19の処理は撮影が終了したことに応じて終了する。
In S1907, the CPU 01 determines whether or not a predetermined time has passed. The predetermined time is, for example, 20 minutes or 30 minutes, and is an interval for updating the imaging interval T in S1905. If it is determined that the predetermined time has passed, the process advances to S1901; otherwise, the process advances to S1908.
In S1908, the CPU 01 determines whether or not to end the processing of FIG. If it is determined to end the processing in FIG. 19, the processing ends, and if not, the process advances to S1907. The processing in FIG. 19 ends when the shooting ends.

以上、説明した実施形態によれば、空席の情報に基づいて撮影間隔Tを変更するので、画像のデータ量を減らしつつ、観客が多くいる場合には撮影機会をより逃さずに画像を提供することができる。それぞれのグループや、観客によって撮影機会は異なるため、一度の撮影において撮影される観客の数が増えるほど、撮影機会はばらつきがでる。よって、観客の数に応じて撮影間隔Tを決定することで、観客が増えた場合には各観客の撮影機会を逃さずに撮影を行うことのできる可能性が向上する。また、観客が減った場合には、データ量を削減することができる。 According to the above-described embodiment, the photographing interval T is changed based on the information of vacant seats, so that the amount of image data can be reduced, and when there are many spectators, images can be provided without missing a photographing opportunity. be able to. Since the shooting opportunities differ depending on each group and the audience, the shooting opportunities increase as the number of the audience filmed in one shooting increases. Therefore, by determining the photographing interval T according to the number of spectators, when the number of spectators increases, the possibility of photographing each spectator without missing a photographing opportunity is improved. Also, when the number of spectators decreases, the amount of data can be reduced.

次に、図19で説明した試合中の撮影一連処理の変形例について図20と図21とを用いてそれぞれ説明をする。図20、図21はそれぞれ、図19に示したフローチャートと同様に、図18に示したS1811へ進むと開始される。この処理は、ROM(不揮発性メモリ)02に記録されたプログラムをRAM(システムメモリ)03に展開してCPU01が実行することで実現する。 20 and 21, a modified example of the series of photographing processes during a game explained with reference to FIG. 19 will be explained. 20 and 21 are started when proceeding to S1811 shown in FIG. 18, similarly to the flowchart shown in FIG. This processing is realized by developing a program recorded in ROM (non-volatile memory) 02 in RAM (system memory) 03 and executing it by CPU 01 .

図20は、顔検出した情報から撮影間隔を変更する変形例を説明したものである。
S2001では、CPU01は、カメラnの撮影した画像から観客の顔検出を行う。S2001の顔検出においては、事前に画像の購入意思を示した観客の顔の検出を行う。
S2002では、CPU01は、顔検出された人数をカウントする。
S2003では、CPU01は、事前に画像の購入意思を示した観客の数と、S2002においてカウントされた顔検出人数の割合を算出する。これによりカメラnの撮影範囲にいる観客のうち、事前に画像の購入意思を示していた観客が実際にどのくらい座っているのかが分かる。
FIG. 20 illustrates a modification in which the photographing interval is changed based on face detection information.
In S2001, the CPU 01 detects the face of the audience from the image captured by the camera n. In the face detection of S2001, the face of the spectator who has indicated the purchase intention of the image in advance is detected.
In S2002, the CPU 01 counts the number of people whose faces have been detected.
In S2003, the CPU 01 calculates the ratio of the number of spectators who indicated their intention to purchase the image in advance and the number of face-detected people counted in S2002. As a result, it is possible to know how many spectators who have indicated their intention to purchase the image in advance are actually sitting among the spectators in the photographing range of the camera n.

S2004では、CPU01は、球団カラー、旗、グッズなどの被写体を示す特定被写体を指定する。特定被写体は購入意思を示した観客が指定できてもよいし、画像の提供をする側が指定できるようにしてもよい。
S2005では、CUP01は、S2001において取得した画像から特定被写体を検出する。
In S2004, the CPU 01 designates a specific subject representing a subject such as team colors, flags, and goods. The specific subject may be specified by the spectator who has indicated the purchase intention, or may be specified by the person who provides the image.
In S2005, CUP01 detects a specific subject from the image acquired in S2001.

S2006では、CPU01は、S2003において算出された顔検出人数の割合に応じて、撮影間隔Tを変更するか、S2005で検出した特定被写体の数に応じて撮影間隔Tを変更する。顔検出の人数に応じて撮影間隔Tを変更するのか、特定被写体の数に応じて撮影間隔Tを変更するのかは購入意思を示した観客が選択できるようにしてもよいし、画像の提供側で設定をするようにしてもよい。例えば、顔検出人数が50%であれば、図18のS1808において設定した撮影間隔Tを2倍の間隔にしてもよい。また、例えば、球団カラーのユニフォームを着ている観客が多い場合には、観客の盛り上がりが高い可能性が高いので、撮影間隔Tを短くすることで、撮影機会を逃す可能性を低減することができる。 In S2006, the CPU 01 changes the shooting interval T according to the ratio of the number of faces detected in S2003, or changes the shooting interval T according to the number of specific subjects detected in S2005. Whether the photographing interval T is to be changed according to the number of people for face detection or the number of specific subjects may be selected by the spectator who has indicated the purchase intention, or the image provider side. You can also set it with For example, if the number of face-detected people is 50%, the photographing interval T set in S1808 of FIG. 18 may be doubled. In addition, for example, when there are many spectators wearing team-colored uniforms, there is a high possibility that the spectators will be very excited. can.

S2007では、CPU01は、S2001の顔検出の結果に基づき、フォーカスを行う座標やズーム量を変更する。これにより、検出された顔の位置に基づき、画像の購入意思のある観客に、より合焦した画像を提供することができる。
以上、説明した実施形態によれば、検出された顔に応じて撮影間隔Tを変更するので、ストレージ204に保存される画像の量を減らすことができる。なお、図20の処理は各カメラに対して行うものである。
In S2007, the CPU 01 changes the coordinates for focus and the zoom amount based on the result of face detection in S2001. This makes it possible to provide a more focused image to spectators who are willing to purchase the image based on the position of the detected face.
According to the embodiments described above, the photographing interval T is changed according to the detected face, so the amount of images stored in the storage 204 can be reduced. Note that the processing in FIG. 20 is performed for each camera.

次に、図21は座席の空席率に基づき撮影条件を変更し、より多くの観客に適した撮影条件での撮影を行えるようにしたものである。野球、サッカーなどの野外スポーツでは、太陽光の入り具合や、屋根の位置により座席の明るさが大きく異なる。このとき、例えば露出などを明るいところに合わせて撮影をすると、暗い領域の観客にとっては適切でない可能性がある。このような場合に、露出に関するISO感度、絞り値、シャッタースピードをより多くの観客に適した設定にするための処理が図21の処理である。 Next, in FIG. 21, the photographing conditions are changed based on the vacant seat rate so that photographing can be performed under photographing conditions suitable for a larger number of spectators. In outdoor sports such as baseball and soccer, the brightness of the seats varies greatly depending on how much sunlight enters and the position of the roof. At this time, for example, if the exposure is adjusted to a bright place, it may not be appropriate for the audience in the dark area. In such a case, the processing shown in FIG. 21 is for setting the ISO sensitivity, aperture value, and shutter speed related to exposure to settings suitable for a greater number of spectators.

S2101では、CPU01は、カメラnの取得画像から予め定められたN個の区画の照度情報を取得する。N個の区画は隣接する4つや6つといった座席からなる区画であり、カメラnの撮影範囲の全ての範囲を含むものとする。カメラnの取得画像はS2101のタイミングで撮影したものであるが、S2101の前に撮影されたものでもよい。 In S2101, the CPU 01 acquires illuminance information of predetermined N sections from the acquired image of the camera n. The N sections are sections composed of adjacent seats, such as four or six, and include the entire imaging range of the camera n. The image acquired by the camera n was captured at the timing of S2101, but may be captured before S2101.

S2102では、CPU01は、判定区画n=1とする。判定区画とはS2102で取得した照度情報に基づき、照度レベル1~4に分ける判定を行う区画のことを示しており、照度1、2、3、4の順番で徐々に暗くなっていく。照度レベルは予め定められた座席においてなりうる照度をレベル分けしたものである。照度レベルは本実施形態において説明する4つでなくてもよく、大きく照度が変わらない場合には2つや3つでもよい。また、照度が変わっても露出に関する撮影設定が変わらない場合には、同じ照度レベルとして幅を持たせてもよい。 In S2102, the CPU 01 sets the determination section n=1. The determination section indicates a section in which determination is made to divide into illuminance levels 1 to 4 based on the illuminance information acquired in S2102, and illuminance 1, 2, 3, and 4 gradually become darker in that order. The illuminance level is obtained by dividing the illuminance that can be at a predetermined seat into levels. The number of illuminance levels may not be four as described in this embodiment, and may be two or three if the illuminance does not change significantly. Also, if the shooting settings related to exposure do not change even if the illuminance changes, the same illuminance level may be given a range.

S2103では、CPU01は、判定区画nの照度情報より、判定区画nが照度レベル1の区画であるか否かを判定する。照度レベル1の区画であると判定した場合にはS2104へ進み、そうでない場合にはS2105へ進む。
S2104では、CPU01は、判定区画nを照度レベル1リストに登録する。
In S2103, the CPU 01 determines whether or not the determination section n is a section with an illuminance level of 1 based on the illuminance information of the determination section n. If it is determined that the section is at illuminance level 1, the process proceeds to S2104; otherwise, the process proceeds to S2105.
In S2104, the CPU 01 registers the determination block n in the illuminance level 1 list.

S2105では、CPU01は、判定区画nの照度情報より、判定区画nが照度レベル2の区画であるか否かを判定する。照度レベル2の区画であると判定した場合にはS2106へ進み、そうでない場合にはS2107へ進む。
S2106では、CPU01は、判定区画nを照度レベル2リストに登録する。
In S2105, the CPU 01 determines whether or not the determination section n is a section with an illuminance level of 2 based on the illuminance information of the determination section n. If it is determined that the section is at illuminance level 2, the process proceeds to S2106; otherwise, the process proceeds to S2107.
In S2106, the CPU 01 registers the determination section n in the illuminance level 2 list.

S2107では、CPU01は、判定区画nの照度情報より、判定区画nが照度レベル3の区画であるか否かを判定する。照度レベル3の区画であると判定した場合にはS2108へ進み、そうでない場合にはS2109へ進む。
S2108では、CPU01は、判定区画nを照度レベル3リストに登録する。
S2109では、CPU01は、判定区画nを照度レベル4リストに登録する。
In S2107, the CPU 01 determines whether or not the determination section n is a section with an illuminance level of 3 based on the illuminance information of the determination section n. If it is determined that the section is at illuminance level 3, the process proceeds to S2108; otherwise, the process proceeds to S2109.
In S2108, the CPU 01 registers the determination section n in the illuminance level 3 list.
In S2109, the CPU 01 registers the determination section n in the illuminance level 4 list.

S2110では、CPU01は、判定区画の全てに対する判定が終了したか否かを判定する。S2110でYESと判定された場合にはS2112へ進み、そうでない場合にはS2111へ進む。
S2111では、CPU01は、判定区画n=n+1にしてS2103へ進む。
S2112では、CPU01は、照度レベル1、2の区画における顔検出人数をカウントする。すなわち、照度レベル1のエリアにいる観客の顔の数と、照度レベル2のエリアにいる観客の顔の数とをそれぞれカウントする。
In S2110, the CPU 01 determines whether or not the determination for all determination partitions has been completed. If YES in S2110, the process proceeds to S2112; otherwise, the process proceeds to S2111.
In S2111, the CPU 01 sets the determination section to n=n+1 and proceeds to S2103.
In S2112, the CPU 01 counts the number of people whose faces are detected in the sections with illuminance levels 1 and 2. FIG. That is, the number of faces of spectators in the area of illuminance level 1 and the number of faces of spectators in the area of illuminance level 2 are counted.

S2113では、CPU01は、照度レベル1の区画には、照度レベル2の区画よりも顔検出された人数が多いか否かを判定する。照度レベル1の区画の方が照度レベル2の区画よりも顔検出された人数が多いと判定された場合にはS2114へ進み、そうでない場合にはS2115へ進む。
S2114では、CPU01は、照度1に合わせた露出に関する撮影設定を撮影設定1とする。
S2115では、CPU01は、照度2に合わせた露出に関する撮影設定を撮影設定1とする。
In S<b>2113 , the CPU 01 determines whether or not there are more people whose faces have been detected in the section with the illuminance level 1 than in the section with the illuminance level 2 . If it is determined that there are more people whose faces have been detected in the section of illuminance level 1 than in the section of illuminance level 2, the process proceeds to S2114; otherwise, the process proceeds to S2115.
In S<b>2114 , the CPU 01 sets shooting setting 1 as the shooting setting related to the exposure that matches the illuminance 1 .
In S<b>2115 , the CPU 01 sets shooting setting 1 as the shooting setting related to the exposure that matches the illuminance 2 .

S2116では、CPU01は、照度レベル3、4の区画の空席画像とカメラnの取得画像と比較して観客の座っている領域を判別する。カメラnの取得画像はS2116においてカメラnで撮影するものであるが、S2116の前に撮影されたものでもよい。
S2117では、CPU01は、照度レベル3、4の区画における人のいる領域の割合を算出する。照度レベル3、4では照度が低いため、人の顔の検出の正確性が照度レベル1、2よりも落ちる可能性がある。よって、顔検出ではなく、画像を比較することによりどのくらいの人が座っているのかを算出する。一方で、照度レベル1、2の場合には、より正確に人の数をカウントするために顔検出を用いる。
In S2116, the CPU 01 compares the vacant seat images of sections with illuminance levels 3 and 4 with the image obtained by the camera n to determine the area where the audience is seated. The acquired image of camera n is the one captured by camera n in S2116, but may be the one captured before S2116.
In S<b>2117 , the CPU 01 calculates the ratio of areas where people are present in the sections with illumination levels 3 and 4 . At illuminance levels 3 and 4, since the illuminance is low, the accuracy of human face detection may be lower than at illuminance levels 1 and 2. Therefore, the number of people sitting is calculated by comparing images instead of face detection. On the other hand, for illumination levels 1 and 2, face detection is used to count people more accurately.

S2118では、CPU01では、照度レベル3の区画は照度レベル4の区画よりも人数が多いか否かを判定する。照度レベル3の区画の方が照度レベル4の区画よりも人数が多いと判定された場合にはS2119へ進み、そうでない場合にはS2120へ進む。
S2119では、CPU01は、照度3に合わせた露出に関する撮影設定を撮影設定2とする。
S2120では、CPU01は、照度4に合わせた露出に関する撮影設定を撮影設定2とする。
In S2118, the CPU 01 determines whether or not the section with the illuminance level 3 has more people than the section with the illuminance level 4. If it is determined that there are more people in the section with illuminance level 3 than in the section with illuminance level 4, the process proceeds to S2119; otherwise, the process proceeds to S2120.
In S<b>2119 , the CPU 01 sets the shooting setting 2 as the shooting setting related to the exposure that matches the illuminance 3 .
In S<b>2120 , the CPU 01 sets the shooting setting related to the exposure adjusted to the illuminance 4 to the shooting setting 2 .

次にS2121からS2129では撮影間隔Tの設定を各照度レベルにいる人数に合わせて行う処理をする。
S2121では、CPU01は、S2112、S2116で取得した照度別人数比率α=(照度レベル1、2の人数)/(照度レベル3,4の人数)を算出する。αの値が1.5以上、すなわち、カメラnの撮影する範囲においては明るい領域の方が暗い領域の1.5倍以上の人がいると判定した場合にはS2122へ進む。1.0≦α<1.5の場合にはS2124へ進み、0.7≦α<1.0の場合にはS2126へ進み、α<0.7の場合にはS2128へ進む。
Next, in steps S2121 to S2129, processing is performed to set the photographing interval T according to the number of people present at each illuminance level.
In S2121, the CPU 01 calculates the ratio α of the number of people by illuminance acquired in S2112 and S2116=(the number of people at illuminance levels 1 and 2)/(the number of people at illuminance levels 3 and 4). If it is determined that the value of α is 1.5 or more, that is, there are 1.5 times more people in the bright area than in the dark area in the range captured by camera n, the process proceeds to S2122. If 1.0≤α<1.5, proceed to S2124; if 0.7≤α<1.0, proceed to S2126; if α<0.7, proceed to S2128.

S2123では、CPU01は、撮影設定1での撮影をT=t1、撮影設定2での撮影をT=t2(>t1)として設定する。例えば、t1は5秒であり、t2は10秒である。
S2125では、CPU01は、撮影設定1での撮影をT=t1、撮影設定2での撮影をT=t3(>t2)として設定する。例えば、t1は5秒であり、t3は15秒である。
In S2123, the CPU 01 sets shooting with shooting setting 1 as T=t1 and shooting with shooting setting 2 as T=t2 (>t1). For example, t1 is 5 seconds and t2 is 10 seconds.
In S2125, the CPU 01 sets shooting with shooting setting 1 as T=t1 and shooting with shooting setting 2 as T=t3 (>t2). For example, t1 is 5 seconds and t3 is 15 seconds.

S2127では、CPU01は、撮影設定1での撮影をT=t4、撮影設定2での撮影をT=t5(<t4)として設定する。例えば、t4は10秒であり、t5は5秒である。
S2129では、CPU01は、撮影設定1での撮影をT=t6(>t4)、撮影設定2での撮影をT=t5として設定する。例えば、t6は15秒であり、t5は5秒である。
In S2127, the CPU 01 sets shooting with shooting setting 1 as T=t4 and shooting with shooting setting 2 as T=t5 (<t4). For example, t4 is 10 seconds and t5 is 5 seconds.
In S2129, the CPU 01 sets shooting with shooting setting 1 as T=t6 (>t4) and shooting with shooting setting 2 as T=t5. For example, t6 is 15 seconds and t5 is 5 seconds.

このように、明るい領域の多くの人がいる場合には、明るい領域の照度に合わせた露出の設定での撮影を、暗い領域の照度に合わせた露出の設定での撮影よりも頻度が高く行うようにする。また、暗い領域の多くの人がいる場合には、暗い領域の照度に合わせた露出の設定での撮影を、明るい領域の照度に合わせた露出の設定での撮影よりも頻度が高く行うようにする。 In this way, when there are many people in a bright area, shooting with an exposure setting that matches the illuminance of the bright area is performed more frequently than shooting with an exposure setting that matches the illuminance of the dark area. make it Also, when there are many people in dark areas, shooting with exposure settings that match the illuminance of dark areas will be performed more frequently than shooting with exposure settings that match the illuminance of bright areas. do.

S2130では、CPU01は、図21の処理を終了するか否かを判定する。図21の処理を終了すると判定した場合には図21の処理を終了し、そうでない場合にはS2101へ進む。 At S2130, the CPU 01 determines whether or not to end the processing of FIG. If it is determined to end the processing in FIG. 21, the processing in FIG. 21 is ended; otherwise, the process advances to S2101.

以上、説明した実施形態においては照度レベルに合わせた撮影設定での撮影頻度を、観客の数に応じて行うので観客がよりよく映っている、すなわち適正な撮影条件で撮影されている、画像を増やすことができる。また、観客の少ない領域では撮影間隔Tを大きくし、撮影頻度を下げるので画像データ量を減らすことができる。 In the above-described embodiments, the frequency of photographing with photographing settings that match the illuminance level is performed according to the number of spectators. can be increased. Also, in areas where there are few spectators, the photographing interval T is increased to reduce the frequency of photographing, so that the amount of image data can be reduced.

<その他の実施形態>
本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical concept or main features.

なお、画像処理装置201が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
Note that the various controls described above that are performed by the image processing apparatus 201 may be performed by one piece of hardware, or may be performed by a plurality of pieces of hardware (for example, a plurality of processors or circuits). Overall control may be performed.
Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

また、上述した実施形態においては、本発明を画像処理装置201に適用した場合を例にして説明したが、これはこの例に限定されず、画像に関する制御が可能な電子機器もしくは複数の電子機器からなるシステムであれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、AI(人口知能)と結び付けて制御を行うことも適用可能であることは言うまでもない。 Further, in the above-described embodiment, the case where the present invention is applied to the image processing apparatus 201 has been described as an example, but this is not limited to this example, and an electronic device or a plurality of electronic devices capable of controlling images It is applicable if it is a system consisting of That is, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers equipped with displays, digital photo frames, music players, game machines, electronic book readers, and the like. It goes without saying that it is also applicable to perform control in conjunction with AI (artificial intelligence).

本発明は、以下の処理を実行することによっても実現される。即ち、上述の実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。 The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

101:撮影指示部 102~105:カメラ 201:画像処理装置 201a:PC(パーソナルコンピュータ) 202:トリミング部 203:選択・アップロード部 204、205:ストレージ 206:チケット購入部 207:配信部 101: photographing instruction unit 102 to 105: camera 201: image processing device 201a: PC (personal computer) 202: trimming unit 203: selection/upload unit 204, 205: storage 206: ticket purchase unit 207: distribution unit

Claims (6)

複数の座席のうち撮影対象となる座席に関する情報を取得する取得手段と、
前記複数の座席を画角範囲に含めた画像の撮影を撮像装置に指示する指示手段と、
前記画像を提供する提供手段と、
前記取得手段により取得した情報に基づいて、前記撮像装置に画像を撮影させる撮影間隔を制御する制御手段とを有することを特徴とする画像提供システム。
Acquisition means for acquiring information about a seat to be photographed among a plurality of seats;
an instruction means for instructing an image capturing device to capture an image including the plurality of seats in a view angle range;
providing means for providing the image;
An image providing system, comprising: control means for controlling a photographing interval at which images are photographed by said imaging device based on the information obtained by said obtaining means.
前記制御手段は、前記取得手段により取得した情報を用いて算出される、前記複数の座席に対する前記撮影対象の割合に基づいて、前記撮影間隔を制御することを特徴とする請求項1記載の画像提供システム。 2. The image according to claim 1, wherein said control means controls said photographing interval based on a ratio of said photographing object to said plurality of seats, which is calculated using the information obtained by said obtaining means. offer system. 前記提供手段は、前記撮影対象に応じてトリミングした画像を提供することを特徴とする請求項1又は2記載の画像提供システム。 3. The image providing system according to claim 1, wherein said providing means provides an image trimmed according to said object to be photographed. 複数の座席のうち撮影対象となる座席に関する情報を取得する取得手段と、
前記複数の座席を画角範囲に含めた画像の撮影を撮像装置に指示する指示手段と、
前記画像を提供する提供手段と、
前記取得手段により取得した情報に基づいて、前記撮像装置に画像を撮影させる撮影間隔を制御する制御手段とを有することを特徴とする画像提供装置。
Acquisition means for acquiring information about a seat to be photographed among a plurality of seats;
an instruction means for instructing an image capturing device to capture an image including the plurality of seats in a view angle range;
providing means for providing the image;
and control means for controlling a shooting interval at which the imaging device takes images based on the information acquired by the acquisition means.
複数の座席のうち撮影対象となる座席に関する情報を取得する取得工程と、
前記複数の座席を画角範囲に含めた画像の撮影を撮像装置に指示する指示工程と、
前記画像を提供する提供工程と、
前記取得工程にて取得した情報に基づいて、前記撮像装置に画像を撮影させる撮影間隔を制御する制御工程とを有することを特徴とする画像提供装置の制御方法。
an acquisition step of acquiring information about a seat to be photographed among the plurality of seats;
an instruction step of instructing an image capturing device to capture an image including the plurality of seats in a view angle range;
a providing step of providing the image;
A control method for an image providing device, comprising: a control step of controlling a photographing interval for allowing the image pickup device to photograph images based on the information obtained in the obtaining step.
複数の座席のうち撮影対象となる座席に関する情報を取得する取得ステップと、
前記複数の座席を画角範囲に含めた画像の撮影を撮像装置に指示する指示ステップと、
前記画像を提供する提供ステップと、
前記取得ステップにて取得した情報に基づいて、前記撮像装置に画像を撮影させる撮影間隔を制御する制御ステップとをコンピュータに実行させるためのプログラム。
an acquisition step of acquiring information about a seat to be photographed among the plurality of seats;
an instruction step of instructing an image capturing device to capture an image including the plurality of seats in a view angle range;
a providing step of providing the image;
A program for causing a computer to execute a control step of controlling a photographing interval at which the imaging device is caused to photograph images based on the information obtained in the obtaining step.
JP2019122252A 2019-06-21 2019-06-28 IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM Active JP7305461B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019122252A JP7305461B2 (en) 2019-06-28 2019-06-28 IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
PCT/JP2020/024176 WO2020256120A1 (en) 2019-06-21 2020-06-19 Image providing system and method for controlling same
CN202080045355.6A CN114026842A (en) 2019-06-21 2020-06-19 Image providing system and control method thereof
US17/556,334 US20220116551A1 (en) 2019-06-21 2021-12-20 Image providing system and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122252A JP7305461B2 (en) 2019-06-28 2019-06-28 IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2021010088A JP2021010088A (en) 2021-01-28
JP7305461B2 true JP7305461B2 (en) 2023-07-10

Family

ID=74198582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122252A Active JP7305461B2 (en) 2019-06-21 2019-06-28 IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7305461B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020085762A1 (en) 2000-11-02 2002-07-04 Image Id Ltd. Mass event image identification
JP2004297363A (en) 2003-03-26 2004-10-21 Toshiba Plant Systems & Services Corp Remote photographing system
JP2007142896A (en) 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
US20110115930A1 (en) 2009-11-17 2011-05-19 Kulinets Joseph M Image management system and method of selecting at least one of a plurality of cameras
JP2012023501A (en) 2010-07-13 2012-02-02 Canon Inc Imaging apparatus, imaging auxiliary system, imaging auxiliary method, image data analysis method, and program
US20150347827A1 (en) 2012-12-19 2015-12-03 Fanpics, Llc Image capture, processing and delivery at group events
WO2016088437A1 (en) 2014-12-04 2016-06-09 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020085762A1 (en) 2000-11-02 2002-07-04 Image Id Ltd. Mass event image identification
JP2004297363A (en) 2003-03-26 2004-10-21 Toshiba Plant Systems & Services Corp Remote photographing system
JP2007142896A (en) 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
US20110115930A1 (en) 2009-11-17 2011-05-19 Kulinets Joseph M Image management system and method of selecting at least one of a plurality of cameras
JP2012023501A (en) 2010-07-13 2012-02-02 Canon Inc Imaging apparatus, imaging auxiliary system, imaging auxiliary method, image data analysis method, and program
US20150347827A1 (en) 2012-12-19 2015-12-03 Fanpics, Llc Image capture, processing and delivery at group events
WO2016088437A1 (en) 2014-12-04 2016-06-09 ソニー株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2021010088A (en) 2021-01-28

Similar Documents

Publication Publication Date Title
US20090103778A1 (en) Composition determining apparatus, composition determining method, and program
JP5418565B2 (en) Image display system, image display apparatus, server, image display method and program
US20150379748A1 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image by synthesizing a plurality of images
CN110581950B (en) Camera, system and method for selecting camera settings
US20220116551A1 (en) Image providing system and method for controlling same
US20210258505A1 (en) Image processing apparatus, image processing method, and storage medium
JP7305461B2 (en) IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
WO2020017354A1 (en) Information processing device, information processing method, and program
JP7366606B2 (en) Image providing system, image providing device, control method and program
US20220417598A1 (en) Image processing device, operation method of image processing device, and operation program of image processing device
JP2021016121A (en) Image provision system
JP7344711B2 (en) System, system control method, program
JP2021002825A (en) Image providing system, image providing device, and control method of the same
WO2020189057A1 (en) Image processing device, image processing method, and program
JP7282519B2 (en) Image processing device or image processing server
WO2020095647A1 (en) Image processing device, image processing server, image processing method, computer program, and storage medium
JP2021016122A (en) Image distribution system, control method for image distribution system, and program therefor
JP2021150832A (en) Image providing system and control method of the same
JP7233886B2 (en) Image processing device
JP7263758B2 (en) Image processing device and image processing method
US20240179266A1 (en) Information processing device, information processing method, and program
JP6550506B2 (en) Recording apparatus, recording method and recording program
WO2023286383A1 (en) Information processing device, information processing method, and program
JP6450879B2 (en) Recording apparatus, recording method, and recording program
JP7233887B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230628

R151 Written notification of patent or utility model registration

Ref document number: 7305461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151