JP7366606B2 - Image providing system, image providing device, control method and program - Google Patents

Image providing system, image providing device, control method and program Download PDF

Info

Publication number
JP7366606B2
JP7366606B2 JP2019122039A JP2019122039A JP7366606B2 JP 7366606 B2 JP7366606 B2 JP 7366606B2 JP 2019122039 A JP2019122039 A JP 2019122039A JP 2019122039 A JP2019122039 A JP 2019122039A JP 7366606 B2 JP7366606 B2 JP 7366606B2
Authority
JP
Japan
Prior art keywords
image
audience
information
seat
trimming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019122039A
Other languages
Japanese (ja)
Other versions
JP2021010079A (en
Inventor
東吉 南
智宣 平石
潤子 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019122039A priority Critical patent/JP7366606B2/en
Priority to PCT/JP2020/024176 priority patent/WO2020256120A1/en
Priority to CN202080045355.6A priority patent/CN114026842A/en
Publication of JP2021010079A publication Critical patent/JP2021010079A/en
Priority to US17/556,334 priority patent/US20220116551A1/en
Application granted granted Critical
Publication of JP7366606B2 publication Critical patent/JP7366606B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像提供システム、画像提供装置、制御方法及びプログラムに関する。 The present invention relates to an image providing system, an image providing device, a control method, and a program.

スポーツの試合や観光施設において楽しんでいるユーザを撮影する需要がある。特許文献1には、観客席にいるユーザが撮影エリアや撮影時刻などの撮影要求を入力すると、入力された撮影要求に基づき、カメラが観客のいるエリアを撮影することが開示されている。 There is a demand for photographing users having fun at sports matches and tourist facilities. Patent Document 1 discloses that when a user in a spectator seat inputs a photographing request such as a photographing area and a photographing time, a camera photographs an area where the audience is present based on the input photographing request.

特開2007-142896号公報Japanese Patent Application Publication No. 2007-142896

特許文献1の方法では、会場内のスクリーンに映し出された画像など、映った観客が特定できない画像については対象の観客に画像を提供できない可能性がある。 In the method of Patent Document 1, there is a possibility that the image cannot be provided to the target audience if the audience cannot be identified, such as an image projected on a screen in the venue.

本発明は、上記の課題に鑑みてなされたものであり、スクリーンに映し出された観客に画像を提供できるようにすることを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to make it possible to provide an image displayed on a screen to an audience.

本発明の画像提供システムは、施設にある複数の座席のいずれかの座席にいる観客を撮影し画像を、前記施設に設置されたスクリーンに表示する表示制御手段と、前記スクリーンに観客の画像を表示する前に用意されている、観客の顔情報と観客ごとの個別情報と観客ごとの座席情報とを取得する取得手段と、前記スクリーンに表示された観客を顔検出し、前記顔情報と照合する照合手段と、前記照合手段により顔情報が一致したとされた場合に、前記スクリーンに表示された前記観客の画像を前記個別情報及び前記座席情報のうちの少なくともいずれかと結び付けるように制御する制御手段と、を有することを特徴とする。 The image providing system of the present invention includes a display control means for displaying an image taken of a spectator in one of a plurality of seats in a facility on a screen installed in the facility , and an image of the spectator on the screen. an acquisition means for acquiring facial information of the audience, individual information for each audience member, and seat information for each audience member prepared before displaying the screen ; Control means to match the image of the audience displayed on the screen with at least one of the individual information and the seat information when the face information is found to match by the matching means and the matching means. It is characterized by having a control means for.

本発明によれば、スクリーンに映し出された観客に画像を提供することができる。 According to the present invention, an image displayed on a screen can be provided to the audience.

本実施形態における画像提供システムを利用する施設配置図である。1 is a layout diagram of a facility that uses the image providing system in this embodiment. 本実施形態における画像提供システムのシステム全体構成図である。FIG. 1 is an overall system configuration diagram of an image providing system according to the present embodiment. 本実施形態における画像処理装置のブロック図である。FIG. 1 is a block diagram of an image processing device in this embodiment. 本実施形態における座席ごとのトリミング位置の設定の例を示す図である。It is a figure which shows the example of the setting of the trimming position for each seat in this embodiment. 本実施形態における座席ごとのトリミング位置の設定の例を示す図である。It is a figure which shows the example of the setting of the trimming position for each seat in this embodiment. 本実施形態におけるデータ構造例を示す図である。It is a figure showing an example of a data structure in this embodiment. 本実施形態におけるチケット購入処理を示すフローチャートである。It is a flowchart showing ticket purchase processing in this embodiment. 本実施形態における試合開始前の設定処理を示すフローチャートである。It is a flowchart which shows the setting process before a game start in this embodiment. 本実施形態における試合開始後の設定処理を示すフローチャートである。It is a flowchart which shows the setting process after a match starts in this embodiment. 本実施形態におけるトリミング処理を示すフローチャートである。It is a flowchart which shows trimming processing in this embodiment. 本実施形態におけるグループの人数に応じた座席配置の例を示す図である。FIG. 3 is a diagram illustrating an example of seat arrangement according to the number of people in a group in this embodiment. 本実施形態における座席配置における座席の関係性を示す図である。FIG. 3 is a diagram showing the relationship between seats in the seat arrangement according to the present embodiment. 本実施形態におけるトリミング位置の計算方法を格納したデータ構造例の図である。FIG. 3 is a diagram of an example data structure storing a method of calculating a trimming position in this embodiment. 本実施形態におけるトリミング位置の計算方法を格納したデータ構造例の図である。FIG. 3 is a diagram of an example data structure storing a method of calculating a trimming position in this embodiment. 本実施形態におけるトリミング位置の計算例を示す図である。It is a figure which shows the calculation example of the trimming position in this embodiment. 本実施形態において試合の終了後に画像を提供する場合のシステム全体構成図である。FIG. 2 is an overall configuration diagram of a system in the case of providing images after the end of a match in this embodiment. 本実施形態において試合の終了後に画像を提供する場合のシステム全体構成図である。FIG. 2 is an overall configuration diagram of a system in the case of providing images after the end of a match in this embodiment. 本実施形態におけるスクリーン用事前登録処理に関するフローチャートである。It is a flowchart regarding screen pre-registration processing in this embodiment. 本実施形態におけるスクリーン用登録者リスト作成処理に関するフローチャートである。It is a flowchart regarding screen registrant list creation processing in this embodiment. 本実施形態におけるスクリーン用画像提供処理に関するフローチャートである。It is a flowchart regarding screen image provision processing in this embodiment.

以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。
図1は、本実施形態における画像提供システムを利用してリモートコントロール撮影を行うための施設配置図である。図1では説明の都合上、野球場を例としているが、スポーツ競技を行うスタジアムや、コンサートを行うためのアリーナ会場など、多数の観客が定位置から観覧できる施設に対して適応される。
Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the scope of the present invention is not intended to be limited thereto.
FIG. 1 is a facility layout diagram for performing remote control photography using the image providing system in this embodiment. For convenience of explanation, FIG. 1 uses a baseball stadium as an example, but it can also be applied to facilities where a large number of spectators can view from a fixed position, such as a stadium for sports competitions or an arena venue for concerts.

図1(a)、(b)、(c)の野球場の例では、撮影指示装置101が一塁側の内野席を撮影するためのカメラ102~105に対して同時に撮影指示を行う。本例では撮影を簡略化するためにカメラの台数を4台として説明するが、物理的に同時に撮影指示ができる範囲であれば、カメラの台数が本発明を限定するものではない。
球場などで反対側の観客席の上段から撮影する場合などは、観客(被写体)までの距離が遠い。そのため、焦点距離の大きい望遠レンズをつけていたとしても、ある程度の観客が1フレーム内に収まることになり、座席ごと・グループごとのトリミング処理が必要になってくる。また、焦点距離の大きい望遠レンズは高額であるため、投資を抑えようとすると、焦点距離を大きくすることができず、より1フレーム内に収まる人数が増えるため、トリミング処理の必要性が増すことになる。
なお、撮影指示に関しては定期的に撮影するインターバル撮影(例えば10秒に1回のレリーズ指示をする)と、オペレータの撮影意思に応じて手動撮影できる2つの手段を提供する。
In the example of the baseball field shown in FIGS. 1A, 1B, and 1C, the photography instruction device 101 simultaneously issues photography instructions to the cameras 102 to 105 for photographing the infield seats on the first base side. In this example, the number of cameras will be described as four in order to simplify photographing, but the present invention is not limited to the number of cameras as long as it is within the range where photographing instructions can be physically given at the same time.
When photographing from the upper rows of spectator seats on the opposite side, such as at a baseball stadium, the distance to the spectators (subjects) is long. Therefore, even if a telephoto lens with a large focal length is attached, a certain amount of the audience will fit within one frame, making it necessary to perform cropping processing for each seat and group. In addition, telephoto lenses with large focal lengths are expensive, so if you try to reduce investment, you will not be able to increase the focal length, and the number of people who can fit in one frame will increase, increasing the need for cropping processing. become.
Regarding photography instructions, two methods are provided: interval photography (for example, issuing a release instruction once every 10 seconds), and manual photography according to the operator's intention.

また、施設によってはより競技やイベントを見やすい位置をより高額に設定し、見にくい位置を安価に設定することがあり、複数の券種が存在するのが通例である。図1(a)、(b)、(c)では、グラウンドに近いエリア1、席数が最も多いエリア2、それぞれ区切られた空間となっているエリア3がある。
エリア1では、より近くで観戦をしたいと考えている観客であり、席数が限られているため、何十人という単位ではなく、家族などの少ない人数で特別な時に観戦することが多いエリアである。よって、一緒に来たメンバーのみで思い出に残る画像を提供することが観客の満足度の向上につながる。
エリア2では、高い頻度で観戦に来る多くのファンが観戦しているエリアであり、固まって熱意の高いファンが座っている。また、エリア2では体験として試合の観戦に来た観客や、試合自体に高い熱意のない観客など、様々な層の観客が含まれている。よって、観戦中の画像が欲しい観客もいれば、不要だと考える観客もいるエリアであり、観客の意思に応じた画像の提供をすることで観客の満足度が向上する。
エリア3は、空間内で楽しむ観戦を楽しむ様子や、特定の観客が良い表情をしている画像を提供することで顧客の満足度が向上する。
Furthermore, depending on the facility, a location where it is easier to see a competition or event may be set at a higher price, and a location where it is harder to see may be set at a lower price, and it is common for there to be multiple ticket types. In FIGS. 1(a), (b), and (c), there are area 1 closest to the ground, area 2 with the largest number of seats, and area 3, each of which is a separate space.
Area 1 is an area where spectators want to watch the game closer, and because the number of seats is limited, they often watch the game on special occasions with a small number of people, such as families, rather than dozens of people. It is. Therefore, providing memorable images with only the members who came together will lead to improved audience satisfaction.
Area 2 is an area where many fans come to watch games with high frequency, and the fans with high enthusiasm are seated together. Furthermore, Area 2 includes spectators from various demographics, including those who came to watch the match as an experience, and those who are not very enthusiastic about the match itself. Therefore, this is an area where some spectators want images of themselves watching the game, while others think it is unnecessary, and providing images according to the wishes of the spectators will improve the satisfaction of the spectators.
Area 3 improves customer satisfaction by providing images of spectators enjoying the game in the space and images of specific spectators making good expressions.

以上のようにエリアによって、観客のニーズが異なる。全ての観客のニーズにこたえるためには、撮影した画像を様々なパターンに応じて準備しておくことが求められるが、データ量が多くなるとコストが高くなり、観客が手軽に画像を購入できなくなるという課題もある。また、試合中に観客が観戦をしている間に画像を提供することで、観客の試合に対する満足度はより向上されるが、画像のデータ量が多い。そのため、購入しない可能性の高い観客までの画像データをも処理しようとすると処理に時間がかかり、画像の提供に時間を要してしまう。 As mentioned above, audience needs differ depending on the area. In order to meet the needs of all audiences, it is necessary to prepare captured images according to various patterns, but the larger the amount of data, the higher the cost and the audience cannot easily purchase images. There is also an issue. Further, by providing images while spectators are watching the game, the satisfaction of the spectators with the game can be further improved, but the amount of image data is large. Therefore, if you try to process the image data of audience members who are unlikely to purchase the product, it will take a long time to process it, and it will take time to provide the images.

エリア1やエリア3の観客は、撮影画像を購入する可能性がより高いと判断できる。そこで、図1(a)では、エリア1をカメラ102及び103の2台でカバーしているが、図1(b)では、エリア1よりも広いエリア2をカメラ104及び105の同様2台でカバーしている。その結果、エリア1の画像に収まる人数の方がより少なくなり、観客はより大きく写るので、トリミング済み画像の解像度が高くなり、より商品性の高い画像を得ることができ、より購買につなげることができる。なお、エリア3では、エリア1よりもさらに狭い範囲を2台のカメラで撮影をすることで、さらにトリミング済み画像の解像度を高くする。エリア3では、より高解像度なトリミング済み画像が取得できるため、撮影した画像の画像解析も可能となる。エリア3では、構造上観覧するスペースを含めて複数のスペースがあることが多いため観覧するスペースに所定以上の観客がいることを判断したり、顔の表情を解析してより良い画像を選択したり、などエリア1よりさらに商品性の高い画像を得ることが可能となる。もしくは、エリア1では、常に観客がカメラから撮影可能な位置にいるとは限らないので、1台のカメラで複数の区切られた空間を観測しておき、雲台を使用して観客を撮影可能になったことに応じて特定の空間の撮影をしてもよい。 It can be determined that the audience in areas 1 and 3 are more likely to purchase the photographed images. Therefore, in FIG. 1(a), area 1 is covered by two cameras 102 and 103, but in FIG. 1(b), area 2, which is wider than area 1, is covered by two cameras 104 and 105. Covered. As a result, the number of people that can fit in the image in area 1 is smaller, and the audience is shown larger, so the resolution of the cropped image is higher, making it possible to obtain an image with higher product quality, which leads to more purchases. I can do it. In addition, in area 3, by photographing an even narrower range than area 1 with two cameras, the resolution of the cropped image is further increased. In area 3, higher-resolution trimmed images can be acquired, so image analysis of the captured images is also possible. In Area 3, there are often multiple spaces including the viewing space due to the structure, so it is necessary to determine if there are more than a certain number of spectators in the viewing space, and to select a better image by analyzing facial expressions. It is possible to obtain an image with even higher marketability than in Area 1. Alternatively, in Area 1, since the audience is not always in a position where the camera can take pictures, it is possible to observe multiple divided spaces with one camera and use a pan head to take pictures of the audience. You may take photos of specific spaces depending on the situation.

図1(c)には、撮影指示装置101から各カメラ群へと撮影指示をするための構成図を示す。撮影指示装置101は、図1(c)に示すように複数のカメラ群AからDへと撮影指示が可能である。カメラ群Cは外野席の広いエリア4を4台でカバーし、カメラ群Dは外野席の広いエリア5を4台でカバーする。 FIG. 1C shows a configuration diagram for issuing a shooting instruction from the shooting instruction device 101 to each camera group. The photographing instruction device 101 is capable of issuing photographing instructions to a plurality of camera groups A to D, as shown in FIG. 1(c). Camera group C covers a wide outfield seating area 4 with four cameras, and camera group D covers a wide outfield seating area 5 with four cameras.

カメラ102~105は、光学像を電気信号に変換するCCDやCMOS素子などで構成される撮像素子(撮像センサ)などで構成されるカメラユニットである。カメラには、ズームレンズやフォーカスレンズを含むレンズ群(撮影レンズ)、絞り機能を備えるシャッター、撮像素子、撮像素子から出力されるアナログ信号をデジタル信号に変換するA/D変換器、撮像系を覆って汚れや破損を防止するバリアを含む。カメラ内の画像処理部は、カメラで撮像して取得したデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。画像処理部により得られた演算結果に基づいてカメラ内のCPUが露光制御、測距制御、AWB(オートホワイトバランス)処理を行う。カメラで撮像され、画像処理部で画像処理された表示用の画像データは後述するPCのディスプレイ04により表示される。カメラで撮像され、A/D変換器によって一度A/D変換されRAMに蓄積されたデジタル信号をD/A変換器でアナログ変換し、ディスプレイ04に逐次転送して表示することで、ライブビュー表示(LV表示)を行える。ライブビューは、静止画の撮影待機状態、動画の撮影待機状態、動画の記録時に表示可能であり、撮像された被写体像がほぼリアルタイムに表示される。CPUは、入力装置06で行われたユーザ操作に基づく撮影準備指示に応じて、AF(オートフォーカス)処理、AE(自動露出)処理、AWB処理などの動作を開始するように、カメラ、画像処理部を制御する。カメラ側のCPUは、撮影指示に応じて、本露光して撮像部素子からの信号を読み出し、撮像された画像を画像処理部で画像処理して画像ファイルを生成し、外部のストレージに記録するまでの一連の撮影処理(本撮影)の動作を開始ように制御する。撮影指示は、PC201aの入力装置06に対するユーザ操作によって行うことも、カメラ側のシャッターボタンの押下によっても行うことができる。カメラは、静止画及び動画の撮影が可能である。 The cameras 102 to 105 are camera units each including an image sensor (imaging sensor) formed of a CCD or CMOS element that converts an optical image into an electrical signal. A camera includes a lens group (taking lens) including a zoom lens and a focus lens, a shutter with an aperture function, an image sensor, an A/D converter that converts an analog signal output from the image sensor into a digital signal, and an imaging system. Contains a barrier to cover and prevent dirt and damage. The image processing unit within the camera performs predetermined pixel interpolation, resizing processing such as reduction, and color conversion processing on data acquired by imaging with the camera. Based on the calculation results obtained by the image processing section, the CPU in the camera performs exposure control, distance measurement control, and AWB (auto white balance) processing. Image data for display captured by the camera and image-processed by the image processing section is displayed on a display 04 of the PC, which will be described later. The digital signal captured by the camera, once A/D converted by the A/D converter, and stored in the RAM is converted to analog by the D/A converter, and is sequentially transferred to the display 04 for display, allowing live view display. (LV display). Live view can be displayed in a still image shooting standby state, a moving image shooting standby state, and when a moving image is being recorded, and the captured subject image is displayed almost in real time. The CPU controls the camera and image processing so as to start operations such as AF (autofocus) processing, AE (automatic exposure) processing, and AWB processing in response to shooting preparation instructions based on user operations performed on the input device 06. control the department. In response to the shooting instruction, the CPU on the camera side performs main exposure, reads out signals from the imaging element, processes the captured image in the image processing unit, generates an image file, and records it in external storage. Control is performed to start the series of photographic processing (actual photographing) up to this point. The photographing instruction can be given by a user operation on the input device 06 of the PC 201a, or by pressing the shutter button on the camera side. The camera can take still images and videos.

なお、施設によっては構造上撮影するカメラ位置から座席のエリアごとに撮影距離や照度が異なるため、これらの条件によって一度の撮影で多くのエリアをカバーする本実施形態の撮影では、画質に差異がでてくることがある。そこで、画質に応じて値段を変えたり、提供枚数を多くしたりしてもよい。また、単にグラウンドに近い席であり、カメラから距離の近い席の画像を高額に設定するのではなく、明るさなどの条件やカメラの台数により画質が良くなる座席を高額に設定するようなケースもある。 Note that depending on the facility, the shooting distance and illuminance differ depending on the structure of the camera and the seat area, so depending on these conditions, there may be differences in image quality when shooting in this embodiment, which covers a large area in one shot. Sometimes it comes out. Therefore, the price may be changed or the number of images provided may be increased depending on the image quality. In addition, instead of simply setting a high price for images of seats that are close to the ground and close to the camera, there are cases where seats that have better image quality depending on conditions such as brightness and the number of cameras are set at a higher price. There is also.

図2は、本実施形態における画像提供システムのシステム全体構成図である。画像処理装置201は、撮影指示部101と、画像転送受信部201bと、トリミング部202と、選択・アップロード部203と、ストレージ204及び205とを備える。
図2において、各部101、201a、201b、202、203、204、205は1つの画像処理装置201の中に記載しているが、物理的に別の処理装置であっても構わず、処理部の構成が本発明を限定するものではない。
FIG. 2 is an overall system configuration diagram of the image providing system in this embodiment. The image processing device 201 includes a photography instruction section 101, an image transfer reception section 201b, a trimming section 202, a selection/upload section 203, and storages 204 and 205.
In FIG. 2, each part 101, 201a, 201b, 202, 203, 204, and 205 is shown in one image processing device 201, but they may be physically separate processing devices. This configuration does not limit the present invention.

撮影指示部101は、図1の撮像指示装置に相当するものであり、カメラ102~105に同時に撮影指示を行う。撮影指示に関しては定期的に撮影するインターバル撮影(例えば10秒に1回のレリーズ指示をする)と、オペレータの撮影意思に応じて手動撮影できる2つの手段を提供する。
画像転送受信部201bは、カメラ102~105で撮影された画像が、カメラ側から転送されてきた画像データをストレージ204に記録する。画像データの送受信のプロトコルは、FTP(FileTransferProtocol)などを用いる。
The photographing instruction unit 101 corresponds to the photographing instruction device shown in FIG. 1, and simultaneously issues photographing instructions to the cameras 102 to 105. Regarding shooting instructions, two methods are provided: interval shooting (for example, issuing a release instruction once every 10 seconds), and manual shooting according to the operator's intention.
The image transfer receiving unit 201b records in the storage 204 image data of images taken by the cameras 102 to 105 transferred from the camera side. As a protocol for transmitting and receiving image data, FTP (File Transfer Protocol) or the like is used.

トリミング部202は、カメラ102~105からストレージ204に画像データが転送されたことをトリガーに、各画像データに対してトリミング処理を実施して、トリミング済み画像と座席番号をストレージ205に記録する。
ここではストレージ204及び205を別のストレージとして表現しているが、物理的には同じでも構わない。
また、トリミング処理を行う際に、後述するチケット購入部206から事前に購入されたグループ人数・座席番号・座席配置を入手して、その情報を基にトリミング処理を実施するが、詳細な処理については図10~15で後述する。
The trimming unit 202 is triggered by the transfer of image data from the cameras 102 to 105 to the storage 204, performs trimming processing on each image data, and records the trimmed image and seat number in the storage 205.
Although the storages 204 and 205 are expressed as separate storages here, they may be physically the same.
In addition, when performing the trimming process, the group number, seat number, and seat arrangement purchased in advance are obtained from the ticket purchasing unit 206, which will be described later, and the trimming process is performed based on that information. will be described later in FIGS. 10 to 15.

選択・アップロード部203は、ストレージ205に格納されたトリミング済み画像データと座席番号、及びイベントの日時情報を配信部207(配信サーバ)にアップロードする。撮影指示部101が競技中やイベント中にインターバル撮影を行っている場合には、大量のトリミング済み画像が作成されるため、オペレータは観客が盛り上がった場面を抽出、選択して、画像を配信部207にアップロードできるようにする。選択方法は不図示であるが、画像の一覧から目視で対象画像を選択してもよいし、特定の時間を入力することで該当時間のデータを抽出できるようにしてもよく、選択方法が本発明を限定するものではない。逆に撮影指示部101がオペレータの手動撮影しか行わない場合は、通常観客が盛り上がった場面で撮影指示を行うことになるので、特に選択せずに全画像をアップロード対象としてもよい。 The selection/upload unit 203 uploads the trimmed image data, seat number, and event date and time information stored in the storage 205 to the distribution unit 207 (distribution server). When the shooting instruction unit 101 performs interval shooting during a competition or event, a large number of trimmed images are created, so the operator extracts and selects the scenes where the audience is excited and sends the images to the distribution unit. 207. Although the selection method is not shown, the target image may be selected visually from a list of images, or data at the corresponding time may be extracted by inputting a specific time. It does not limit the invention. On the other hand, if the photographing instruction unit 101 only performs manual photographing by the operator, the photographing instruction will normally be given at a scene where the audience is excited, so all images may be uploaded without any particular selection.

チケット購入部206は、利用者がチケットを購入するための仕組みであり、購入時の処理については図8を用いて後述する。利用者は、購入したい日付と座席数を入力し代金を支払うことで、所望した数の座席番号を入手することになる。 The ticket purchase unit 206 is a mechanism for a user to purchase a ticket, and the process at the time of purchase will be described later using FIG. 8. The user enters the date and number of seats he or she wishes to purchase and pays to obtain the desired number of seats.

配信部207は、利用者が入力したイベント日付と座席番号をKeyに、該当日付の該当座席番号の画像データ群を利用者に提示する。利用者の入力に関しては、利用者がチケットを見て手動で入力してもよいし、チケットにQRコード(登録商標)などを印字して、それをスマートホンで読み取って認識するのでもよく、入力方法が本発明を限定するものではない。また、利用者への提示はスマートホンのアプリケーションでもよいし、ブラウザでアクセスするようなWebアプリケーションの形でもよく、提示方法についても本発明を限定するものではない。 The distribution unit 207 uses the event date and seat number input by the user as keys, and presents the user with a group of image data of the corresponding seat number on the corresponding date. Regarding user input, the user may look at the ticket and enter it manually, or the user may print a QR code (registered trademark) on the ticket and read and recognize it with a smartphone. The input method does not limit the present invention. Furthermore, the presentation to the user may be in the form of a smartphone application or a web application accessed through a browser, and the present invention is not limited to the presentation method.

図3に、本発明を適用可能な装置の一例としての画像処理装置201の中のPC201a(パーソナルコンピュータ)の構成の一例を示す。画像処理装置201は、複数の電子機器からなるものでもよいし、一台のPCからなるものでもよい。
図3において、内部バス09に対してCPU01、RAM03、ROM02、ディスプレイ04、入力装置06、I/F08が接続されている。内部バス09に接続される各部は、内部バス09を介して互いにデータのやりとりを行うことができるようにされている。
RAM03は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU01は、例えばROM02に格納されるプログラムに従い、RAM03をワークメモリとして用いて、PC201aの各部を制御する。ROM02には、画像データや音声データ、その他のデータ、CPU01が動作するための各種プログラムなどが格納される。ROM02は例えばハードディスク(HD)やROMなどで構成される。
FIG. 3 shows an example of the configuration of a PC 201a (personal computer) in the image processing device 201 as an example of a device to which the present invention can be applied. The image processing device 201 may be composed of a plurality of electronic devices or may be composed of a single PC.
In FIG. 3, a CPU 01, a RAM 03, a ROM 02, a display 04, an input device 06, and an I/F 08 are connected to an internal bus 09. Each unit connected to the internal bus 09 is configured to be able to exchange data with each other via the internal bus 09.
The RAM 03 is, for example, a RAM (volatile memory using a semiconductor element, etc.). The CPU01 controls each part of the PC 201a according to a program stored in the ROM02, for example, using the RAM03 as a work memory. The ROM02 stores image data, audio data, other data, various programs for the CPU01 to operate, and the like. The ROM02 is composed of, for example, a hard disk (HD) or a ROM.

ディスプレイ04は、CPU01の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU01は、プログラムに従い表示制御信号を生成し、ディスプレイ04に表示するための映像信号を生成してディスプレイ04に出力するようにPC201aの各部を制御する。ディスプレイ04は出力された映像信号に基づいて映像を表示する。なお、PC201a自体が備える構成としてはディスプレイ04に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ04は外付けのモニタ(テレビなど)で構成してもよい。
入力装置06は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、ディスプレイ04に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
The display 04 displays images, a GUI screen forming a GUI (Graphical User Interface), etc. under the control of the CPU 01. The CPU01 generates a display control signal according to a program, and controls each part of the PC201a to generate a video signal to be displayed on the display 04 and output it to the display 04. The display 04 displays video based on the output video signal. Note that the PC 201a itself includes an interface for outputting a video signal to be displayed on the display 04, and the display 04 may be an external monitor (such as a television).
The input device 06 is an input device for receiving user operations, including a character information input device such as a keyboard, a pointing device such as a mouse or a touch panel, a button, a dial, a joystick, a touch sensor, a touch pad, and the like. Note that the touch panel is an input device that is configured in a planar manner so as to be superimposed on the display 04, and outputs coordinate information according to a touched position.

図4、図5は、本実施形態における座席ごとのトリミング位置の設定の例を示す図である。
図4には、観客のほぼ正面のカメラから撮影された画像に対してのトリミング位置の設定例を示す。図4(a)のように座席ごとにトリミング位置の矩形を定義して、横方向をX軸、縦方向とY軸の座標系と定義して、左上の頂点位置401と右下の頂点位置402の座標を後述する図6にあるデータ構造として記憶する。
上記の作業を撮影された画像に含まれている座席ごとに指定することで、図4(b)のように全座席のトリミング位置が指定される。ここでは長方形の矩形として例示をしているが、多角形や楕円での矩形定義など、座標系で表すことのできる矩形であればよく、矩形の形が本発明を限定するものではない。
4 and 5 are diagrams showing examples of setting trimming positions for each seat in this embodiment.
FIG. 4 shows an example of setting the trimming position for an image taken from a camera substantially in front of the audience. As shown in Figure 4(a), define a rectangle for the trimming position for each seat, define a coordinate system with the horizontal direction as the X axis and the vertical direction as the Y axis, and set the top left apex position 401 and the bottom right apex position. The coordinates of 402 are stored as a data structure shown in FIG. 6, which will be described later.
By specifying the above operation for each seat included in the photographed image, the trimming positions for all seats are specified as shown in FIG. 4(b). Although a rectangular rectangle is illustrated here, the present invention is not limited to the shape of the rectangle, as long as it can be expressed in a coordinate system, such as a rectangle defined by a polygon or an ellipse.

図5には、観客のやや斜め上方のカメラから撮影された画像に対してのトリミング位置の設定の例を示す。図4の例と同様に座席ごとにトリミング位置の矩形を定義して、X・Y軸の座標系を定義する。これにより、座席位置が斜めになっていても、左上の頂点位置501と右下の頂点位置502の座標を後述する図6にあるデータ構造として格納することができる。 FIG. 5 shows an example of setting the trimming position for an image taken from a camera slightly diagonally above the audience. Similar to the example of FIG. 4, a rectangle for the trimming position is defined for each seat, and a coordinate system of the X and Y axes is defined. As a result, even if the seat position is slanted, the coordinates of the upper left apex position 501 and the lower right apex position 502 can be stored as a data structure shown in FIG. 6, which will be described later.

図6は、本発明の実施形態における各座席のトリミング位置を格納するデータ構造例を示す図である。データ構造600は、列番号601と、座席番号602と、カメラ番号603と、左上の頂点座標のX座標604と、左上の頂点座標のY座標605と、右下の頂点座標のX座標606と、右下の頂点座標のY座標607とを持つ。
データ構造600では、X座標とY座標を個別のカラムと管理しているが、(X,Y)のようなリスト情報として1つのカラムで管理しても構わない。また、列番号601と座席番号602は、図6では数値データとしているが、アルファベットなどの文字列データでも構わない。座標情報である604~607はピクセル位置を表す数値データが記録されている。
なお、本実施形態においては、野球の試合を観戦する観客をユーザとして写真を撮影して、グループできた観客の画像をトリミングすることによって画像を提供することを説明する。しかしながら、本実施形態において説明をする野球の試合の例は一例であり、その他のスポーツの試合であっても、観光地や演劇などの場所であっても適用可能である。
FIG. 6 is a diagram showing an example of a data structure for storing the trimming position of each seat in the embodiment of the present invention. The data structure 600 includes a column number 601, a seat number 602, a camera number 603, an X coordinate 604 of the top left vertex coordinate, a Y coordinate 605 of the top left vertex coordinate, and an X coordinate 606 of the bottom right vertex coordinate. , and the Y coordinate of the lower right vertex coordinate 607.
In the data structure 600, the X coordinate and Y coordinate are managed as separate columns, but they may also be managed in one column as list information such as (X, Y). Furthermore, although the row number 601 and seat number 602 are numerical data in FIG. 6, they may be character string data such as alphabets. In coordinate information 604 to 607, numerical data representing pixel positions is recorded.
In this embodiment, a description will be given of providing images by taking photographs of spectators watching a baseball game as users, and trimming the images of the grouped spectators. However, the example of a baseball game explained in this embodiment is just an example, and the present invention is also applicable to other sports games, tourist spots, theaters, and other places.

図7を用いて、本実施形態におけるチケットの購入処理について説明をする。
図7は、ユーザがチケットを購入するアプリやインターネットのサイトにおいて、チケットを購入する際の処理を示すフローチャートである。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。なお、この処理は、カメラに電源が入り、操作部105へのユーザ操作を受け付け可能になると開始する。
The ticket purchase process in this embodiment will be explained using FIG. 7.
FIG. 7 is a flowchart showing the process when a user purchases a ticket in an application or Internet site where the user purchases a ticket. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01. Note that this process starts when the camera is powered on and can accept user operations on the operation unit 105.

S701では、CPU01は、ユーザからのチケットの購入枚数の入力を受け付ける。
S702では、CPU01は、ユーザから画像購入の意思があるか否かの入力を受け付ける。S702における入力は、ユーザが画像を購入するか否かを直接購入画面において選択をできるようにしてもよいし、チケットと画像購入とがセットになっており、チケットの購入と画像購入の選択が一度にできるようにしてもよい。また、一部の座席は、ユーザが選択をしなくても画像購入がセットになっており、対象となる座席と選択した時点でユーザが画像購入の意思があるとしてもよい。
In S701, the CPU 01 receives an input of the number of purchased tickets from the user.
In S702, the CPU 01 receives an input from the user as to whether or not he/she intends to purchase the image. The input in S702 may be such that the user can directly select whether or not to purchase an image on the purchase screen, or the ticket and image purchase may be set as a set, and the user may select whether to purchase the image or not. You can do it all at once. In addition, some seats may be available for image purchase even if the user does not make a selection, and the user may have an intention to purchase an image at the time of selecting the target seat.

S703では、CPU01は、S702における入力において画像購入の意思があるか否かを判定する。ユーザに画像購入の意思があると判定した場合は、S704へ進み、そうでない場合には、S706へ進む。
S704では、CPU01は、ユーザにより指定された座席を選択する。このとき、ユーザが代表となる座席を1席選択することで、S701で入力した購入枚数分の座席位置を複数パターン提示することでユーザが容易に座席を選択できるようにしてもよい。また、図10で後述する画像のトリミングの処理においては、ユーザの座席位置の指定に応じてトリミングの範囲を変える。
In S703, the CPU 01 determines whether or not there is an intention to purchase the image based on the input in S702. If it is determined that the user has an intention to purchase the image, the process advances to S704; otherwise, the process advances to S706.
In S704, the CPU01 selects the seat specified by the user. At this time, the user may select one representative seat, and the user may easily select a seat by presenting a plurality of seat position patterns corresponding to the number of purchased tickets input in S701. Furthermore, in the image trimming process described later with reference to FIG. 10, the trimming range is changed according to the user's designation of the seat position.

S705では、CPU01は、S704で受け付けた情報に基づいて、グループ情報を生成する。グループ情報においては、代表となる座席とS701で入力された同時購入されたチケットの座席位置と紐づけた情報である。ユーザが単数であっても、S705ではグループ情報として座席と紐づけて情報を生成する。なお、グループ情報は、同時購入されなかったチケットに記載の情報をアプリやインターネットのサイトを通して入力することで、他の座席を同じグループに追加できるようにしてもよい。ただし、グループとなる座席は縦又は横に隣り合っていることが望ましい。これは、トリミングをする際に、離れた座席同士は、撮影するカメラが異なる可能性があるため、1枚のトリミング範囲に収めきれない可能性があるためである。また、トリミングした画像にグループに含まれない他の座席が多く含まれてしまうと、1人1人のサイズが小さくなってしまう。
S706では、CPU01は、ユーザにより指定された座席を選択する。
In S705, the CPU01 generates group information based on the information received in S704. The group information is information that associates the representative seat with the seat position of the tickets purchased at the same time input in S701. Even if there is only one user, information is generated in step S705 in association with the seat as group information. Note that the group information may be such that other seats can be added to the same group by inputting information written on tickets that were not purchased at the same time through an app or an Internet site. However, it is preferable that the seats in a group are adjacent to each other either vertically or horizontally. This is because when trimming, seats that are far apart may be photographed by different cameras, so it may not be possible to fit the images into one trimming range. Furthermore, if the cropped image includes many other seats that are not included in the group, the size of each person will become smaller.
In S706, the CPU01 selects the seat specified by the user.

次に、図8を用いて、本実施形態における試合開始前の設定の処理について説明をする。
図8は、試合開始前の設定処理を示すフローチャートである。この処理は、試合の開始前に画像処理装置201により行われる。この処理は、試合の前に画像処理装置201の電源オンになり、対象となる試合の準備を始める指示がシステムのオペレータからされる、もしくは試合の3時間や前日といった所定の時間の前になると開始される。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。
Next, using FIG. 8, a description will be given of the setting process before the start of the match in this embodiment.
FIG. 8 is a flowchart showing the setting process before the start of the match. This processing is performed by the image processing device 201 before the start of the match. This process is performed when the image processing device 201 is powered on before a match and an instruction is given by the system operator to start preparing for the target match, or before a predetermined time such as 3 hours or the day before the match. will be started. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01.

S801では、CPU01は、配信部207、チケット購入部206と接続をする。
S802では、CPU01は、チケット購入部206から対象となる試合のチケット情報を取得する。チケット情報には、トリミング処理時に必要な同時に購入されたグループのチケット購入枚数・座席位置情報・座席配置についての情報が含まれる。また、より商品性の高い画像を選択するために、次のような情報も含まれる。例えば座席の種類に関する情報(自由席か指定席かなどの情報)である。また、内野・外野・VIPにあるのかといったエリアに関する情報、撮影対象となっているエリアの座席か否かの情報である。また、頻繁に試合を観戦しているユーザであるかの情報、ファンクラブに加入しているか否かなどの情報である。
In S801, the CPU 01 connects with the distribution unit 207 and ticket purchase unit 206.
In S802, the CPU 01 acquires ticket information for the target match from the ticket purchasing unit 206. The ticket information includes information about the number of tickets purchased, seat position information, and seat arrangement for groups purchased at the same time, which are necessary during the trimming process. The following information is also included in order to select images with higher marketability. For example, it is information regarding the type of seat (information such as whether it is a non-reserved seat or a reserved seat). Additionally, there is information regarding the area, such as whether the seat is in the infield, outfield, or VIP area, and whether the seat is in the area to be photographed. The information also includes information on whether the user frequently watches games, information on whether the user is a member of a fan club, and the like.

S803では、CPU01は、S802で取得した情報に基づいて、トリミングの範囲を算出する。S802で取得したグループの人数・配置パターンを用いて、後述する図13、図14で定義されている人数・パターンごとのトリミング位置の算出方法を取得し、トリミング範囲を算出する。ここでのトリミング範囲とは、トリミングする矩形の左上の頂点位置のX・Y座標、及び右下の頂点位置のX・Y座標として、この2つの頂点に囲まれた長方形の矩形のことを指す。ここでは、2つの頂点で定義される長方形の矩形を用いているが、多角形や楕円での矩形定義など、座標系で表すことのできる矩形であればよく、矩形の形が本発明を限定するものではない。 In S803, the CPU 01 calculates the trimming range based on the information acquired in S802. Using the number of people and arrangement pattern of the group acquired in S802, a method for calculating the trimming position for each number of people and pattern defined in FIGS. 13 and 14, which will be described later, is acquired, and the trimming range is calculated. The trimming range here refers to the rectangle surrounded by the X and Y coordinates of the upper left vertex position and the X and Y coordinates of the lower right vertex position of the rectangle to be trimmed. . Although a rectangular rectangle defined by two vertices is used here, any rectangle that can be expressed in a coordinate system may be used, such as a rectangle defined by a polygon or an ellipse, and the shape of the rectangle does not limit the present invention. It's not something you do.

図13、図14は、本実施形態におけるトリミング位置の計算方法を格納したデータ構造例を示す。図13は、図4のように観客のほぼ正面から撮影された画像に対する定義の例、図14は、図5のように観客がやや斜めに撮影された画像に対しての定義の例である。
図13、図14に示すように、グループの人数1301と、座席配置のパターン1302と、左上頂点位置のX座標計算方法1303と、左上頂点位置のY座標計算方法1304と、右下頂点位置のX座標計算方法1305と、右下頂点位置のY座標計算方法1306と、グループ外席の情報1307とを管理する。
グループの人数1301と座席配置のパターン1302は、チケット購入部206から事前に取得した購入されたグループ人数・座席配置と一致する。座標計算方法1303~1306は、図13、図14の例ではグループ内のいずれかの座席位置のトリミング位置情報を用いているが、具体的なピクセル数の数字や計算式を定義しても構わない。グループ外席の情報1307は、座席配置パターンにおいて、矩形の中には入ってしまうがグループ内の座席として購入されていない座席位置の情報が定義されている。
FIGS. 13 and 14 show examples of data structures that store the method of calculating the trimming position in this embodiment. FIG. 13 is an example of the definition for an image taken almost from the front of the audience, as shown in FIG. .
As shown in FIGS. 13 and 14, the number of people in the group 1301, the seating arrangement pattern 1302, the X coordinate calculation method 1303 of the upper left vertex position, the Y coordinate calculation method 1304 of the upper left vertex position, and the lower right vertex position It manages an X coordinate calculation method 1305, a Y coordinate calculation method 1306 of the lower right vertex position, and information 1307 about seats outside the group.
The number of people in the group 1301 and the seating arrangement pattern 1302 match the purchased group number and seating arrangement obtained in advance from the ticket purchasing unit 206. The coordinate calculation methods 1303 to 1306 use the trimming position information of one of the seat positions in the group in the examples of FIGS. 13 and 14, but it is also possible to define a specific number of pixels or a calculation formula. do not have. Information 1307 on seats outside the group is defined as information on seat positions that fit within the rectangle in the seat arrangement pattern but have not been purchased as seats within the group.

図8に説明に戻り、S804では、CPU01は、顔情報である顔データを準備する。顔データは、S802で取得した情報に基づいて、頻繁に試合を観戦しているユーザ、すなわち過去顔が多く検出された観客、そしてファンクラブに加入している観客の顔データを準備しておく。これにより、撮影した画像の中に、顔データ中の顔と一致されたと判定された観客がいた場合に、特定の観客の画像をデータとして紐づけて集め、特定の観客にまとめて提供することができる。また、ファンクラブに加入している観客は、チケット購入時に毎回画像購入の意思を示さなくても、自動的に画像が収集されることで、試合シーズンの終了後にまとめて振り返りをすることができる。観客によっては、試合を観戦する頻度が大きく異なるので、1試合の中で、複数の画像が欲しい観客と、1試合1枚でよいが観戦した全ての試合での画像が欲しい観客とがいる可能性がある。よって、上記のように顔データを準備しておくことで、高い頻度で観戦をする観客が毎回画像購入の意思を示すための作業をしなくても、画像を提供することができる。また、毎回画像購入の意思を示すための作業を忘れてしまっても画像を提供することができる。さらに、座席位置の分からない自由席座ったとしても、特定の観客の画像を集めることができる。なお、S802で取得したチケットの購入時の情報ではなく、観戦チケットの購入とは別途観客が画像を購入するためのプランを設け、プランを選択した場合には、顔データを登録し、観客が観戦した様子を毎回画像として提供できるようにしてもよい。上記のような場合に、顔データを準備しておくことで、試合中にスムーズに観客に画像を提供することができる。 Returning to FIG. 8, in S804, the CPU 01 prepares face data, which is face information. Based on the information acquired in S802, face data is prepared for users who frequently watch matches, that is, for spectators whose faces have been detected frequently in the past, and for spectators who have joined a fan club. . As a result, if there is an audience member in the photographed image whose face is determined to match the face in the face data, the images of the specific audience member can be linked and collected as data and provided to the specific audience member at once. I can do it. In addition, spectators who are members of a fan club can automatically collect images without having to indicate their intention to purchase an image each time they purchase a ticket, allowing them to look back on the game at the end of the season. . Depending on the audience, the frequency with which they watch games varies greatly, so some spectators may want multiple images of a single game, while others may only need one image per game, but may want images of all the games they watched. There is sex. Therefore, by preparing the face data as described above, it is possible to provide images to spectators who frequently attend the game without having to go through the process of indicating their intention to purchase images each time. In addition, even if the user forgets to indicate his or her intention to purchase an image each time, the user can still provide the image. Furthermore, images of specific spectators can be collected even if they are seated in unreserved seats whose seating positions are unknown. Note that instead of the information obtained at the time of ticket purchase obtained in S802, a plan is set up for spectators to purchase images separately from the purchase of spectator tickets, and if the plan is selected, facial data is registered and the spectators It may also be possible to provide an image of the game being watched each time. In the above cases, by preparing face data, images can be smoothly provided to the spectators during the match.

S805では、CPU01は、時計の設定をする。
S806では、CPU01は、撮影要因の入力をする。撮影要因とは、10秒や20秒といったインターバル撮影の期間、もしくは観客の歓声が所定以上になったことに応じてといった検出に基づくものでもよい。また、撮影された試合の様子を分析したり、試合データを分析する制御部を用意しておき、試合の点数や、試合の進み具合、選手の位置に応じて、インターバルの間隔を短くしたり、動画の撮影に切り替えるようにしてもよい。また、休憩時間には、インターバル撮影を停止し、休憩時間の応援合戦やクイズといったイベントが発生する時間にはインターバル撮影を開始してもよい。なお、手動による撮影の指示を組み合わせてもよいことは言うまでもない。
In S805, the CPU01 sets the clock.
In S806, the CPU 01 inputs shooting factors. The shooting factor may be based on an interval shooting period such as 10 seconds or 20 seconds, or based on detection such as when the cheers of the audience exceed a predetermined value. In addition, we have prepared a control unit that analyzes the video of the match and the match data, and can shorten the interval depending on the score of the match, the progress of the match, and the position of the players. , it is also possible to switch to video shooting. Furthermore, interval shooting may be stopped during breaks, and may be started during breaks when events such as cheering contests and quizzes occur. It goes without saying that a manual photographing instruction may also be combined.

S807では、CPU01は、システムテストとして、カメラを実際に起動して撮影とトリミングに処理を行う。撮影された画像に基づいて、その日の明るさや光の入り具合に応じた撮影条件の設定を行い、撮影した画像を座席に紐づく座標に基づいてトリミングした際に、対象となる座席を切り取ることができるのかを確認してもよい。なお、座席側に指標となるポイントとなる被写体を置いておいて、カメラが撮影した画像の中の被写体が予め定まっている座標にあるか否かを確認してもよい。
S808では、CPU01は、撮影条件をS807のシステムテストに基づいて設定する。
In S807, the CPU 01 actually starts up the camera and performs processing for photographing and trimming as a system test. Based on the captured image, the shooting conditions are set according to the brightness and amount of light that day, and when the captured image is cropped based on the coordinates associated with the seat, the target seat is cropped. You can check if it is possible. Note that it is also possible to place an object that serves as an index point on the seat side and check whether or not the object in the image taken by the camera is located at predetermined coordinates.
In S808, the CPU 01 sets imaging conditions based on the system test in S807.

次に、図9を用いて、本実施形態における試合開始後の処理について説明する。
図9は、試合開始後の設定処理を示すフローチャートであり、(a)は画像処理装置201の処理、(b)は撮影に関する処理、(c)は画像をトリミングし、配信する処理を示す。各処理は試合が開始される、もしくは試合の開始前の撮影を開始する前に開始される。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。
Next, with reference to FIG. 9, processing after the start of the match in this embodiment will be described.
FIG. 9 is a flowchart showing the setting process after the start of the match, in which (a) shows the process of the image processing device 201, (b) shows the process related to shooting, and (c) shows the process of trimming and distributing the image. Each process is started before the match starts or before the start of shooting before the start of the match. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01.

図9(a)の画像処理装置201の処理について説明をする。
S901では、CPU01は、途中チケット情報を取得する。途中チケット情報は、試合の開始後の購入された、もしくは、図9のS802の処理の後に購入されたチケットに関する情報である。この情報は、チケット購入部206より取得してもよいし、チケット購入部206側から定期的、もしくは更新がある度に画像処理装置201に通知されるようにしてもよい。
S902では、CPU01は、カメラc=1に対応するカメラに関する情報を取得する。例えばカメラc=1の撮影範囲と対象となる座席に関する情報を取得する。
The processing of the image processing device 201 in FIG. 9(a) will be explained.
In S901, the CPU01 acquires midway ticket information. The mid-game ticket information is information regarding tickets purchased after the start of the match or after the process of S802 in FIG. 9. This information may be acquired from the ticket purchase unit 206, or may be notified to the image processing apparatus 201 from the ticket purchase unit 206 periodically or every time there is an update.
In S902, the CPU01 acquires information regarding the camera corresponding to camera c=1. For example, information regarding the photographing range of camera c=1 and the target seat is acquired.

S903では、CPU01は、現在処理をしようとしているカメラcがカメラの全体数Kよりも大きいか否かを判定し、大きい場合には、全てのカメラに対する処理が終了したとして、S907へ進む。そうでない場合には、S904へ進む。
S904では、CPU01は、対象となるカメラcの位置から撮影する座席の範囲でのトリミング情報を取得する。
In S903, the CPU 01 determines whether the camera c that is currently being processed is larger than the total number K of cameras, and if so, it is determined that the processing for all cameras has been completed and the process proceeds to S907. If not, the process advances to S904.
In S904, the CPU 01 acquires trimming information in the range of the seat to be photographed from the position of the target camera c.

S905では、CPU01は、対象となるカメラcの位置から撮影をする座席の範囲での撮影要因を取得する。例えば、チームAとチームBとが対戦している場合には攻めと守りのタイミングとで撮影のインターバル期間を変えたほうがよい場合がある。また、座席の種類によっては、頻度を高く撮影をしたほうがよい場合もある。よって、カメラの撮影範囲に含まれる座席に応じて、撮影要因を取得することによって、観客に提供しない可能性の高い画像を多く撮影することなく、撮影チャンスを逃さないようにすることができる。なお、S905の撮影要因は、全てのカメラで同じでもよい。
新たにチケットが購入されたり、新たに画像購入の意思が観客から示された、すなわち、新たなトリミンググループが発生したりした場合には、S904、S905において図8のS803、S804の処理を行う。
In S905, the CPU 01 acquires the photographing factors in the range from the position of the target camera c to the seat where the photograph is to be taken. For example, when Team A and Team B are playing against each other, it may be better to change the shooting interval depending on the timing of offense and defense. Also, depending on the type of seat, it may be better to take pictures more frequently. Therefore, by acquiring the shooting factors according to the seats included in the shooting range of the camera, it is possible to avoid missing a shooting opportunity without shooting many images that are likely not to be provided to the audience. Note that the shooting factor in S905 may be the same for all cameras.
When a new ticket is purchased or the audience indicates a new intention to purchase an image, that is, a new trimming group is generated, the processes of S803 and S804 in FIG. 8 are performed in S904 and S905. .

S906では、CPU01は、S902と同様にカメラc=c+1にして、次のカメラに関する情報を取得する。
S907では、CPU01は、所定時間が経過したか否かを判定する。所定時間は、S907の判定を図9の処理の開始後初めて行う場合には、S901からの時間、2回目以降の場合は前回S907の判定においてYesと判定してからの時間で計時をする。S907は、所定時間おきに途中チケット情報を取得するためのものである。S907においてYesと判定された場合は、S901へ進み、そうでない場合は、S908へ進む。
In S906, the CPU 01 sets camera c=c+1 as in S902, and acquires information regarding the next camera.
In S907, the CPU01 determines whether a predetermined time has elapsed. The predetermined time is measured as the time from S901 if the determination in S907 is made for the first time after the start of the process in FIG. S907 is for acquiring en route ticket information at predetermined intervals. If the determination is Yes in S907, the process advances to S901; otherwise, the process advances to S908.

S908では、CPU01は、S905で撮影をされた撮影要因があったか否かを判定する。S908においてYesと判定された場合は、S909へ進み、そうでない場合は、S907へ進む。
S909では、CPU01は、カメラ側に撮影をする指示を通知する。
S910では、CPU01は、トリミング情報をトリミング部202に通知をする。トリミング情報、撮影要因に関する情報は所定時間ごとにアップデートされるので、途中でチケットを購入した観客も、試合の途中からトリミング済み画像を得ることができるようになる。
S911では、CPU01は、処理を終了するか、すなわち試合が終了し、撮影を終了するか否かを判定する。終了する場合には、S912へ進み、そうでない場合には、S901へ進む。
S912では、CPU01は、カメラに電源をOFFすることを通知する。
In S908, the CPU 01 determines whether or not there was a shooting factor that caused the shooting to take place in S905. If the determination is Yes in S908, the process advances to S909; otherwise, the process advances to S907.
In S909, the CPU 01 notifies the camera side of an instruction to take a photograph.
In S910, the CPU 01 notifies the trimming section 202 of trimming information. Since trimming information and information regarding shooting factors are updated at predetermined intervals, even spectators who purchase tickets midway through the match will be able to obtain cropped images from midway through the match.
In S911, the CPU 01 determines whether to end the process, that is, whether to end the match and end the shooting. If the process ends, the process advances to S912; otherwise, the process advances to S901.
In S912, the CPU 01 notifies the camera that the power will be turned off.

以上説明したように、トリミング情報をトリミング部202に撮影の指示とほぼ同時に送るので、撮影後に素早く登録されたトリミング処理を実施することができる。トリミング部202では、カメラ側からストレージ204に画像が送られるときには、トリミングすべきグループについて把握し、トリミング範囲を算出できているので、素早くトリミング処理をし、観客が画像を確認できるようになる。 As explained above, since the trimming information is sent to the trimming unit 202 almost simultaneously with the shooting instruction, the registered trimming process can be executed quickly after shooting. When the image is sent from the camera side to the storage 204, the trimming unit 202 knows the group to be trimmed and can calculate the trimming range, so it can quickly perform the trimming process and allow the audience to check the image.

次に、図9(b)の撮影に関する処理について説明をする。図9(b)の処理は各カメラにおいて行われる処理である。
S930では、CPU01は、カメラ側が撮影条件を取得するようにする。
S931では、カメラ側で、撮影指示がされたか否かを判定し、撮影指示がされた場合には、S932へ進み、そうでない場合には、撮影指示がされるのを待つ。
S932では、カメラ側で、設定された撮影条件での撮影を行う。
S933では、CPU01は、カメラから画像転送受信部201bに画像を転送するように制御するし、転送された画像データはストレージ204に格納される。もしくは、カメラにおいて撮影された画像は逐次ストレージ204に転送する。
S934では、CPU01は、図9(b)の処理を終了するか否かの判定をする。S934の判定は、図9(a)のS912においてカメラの電源のオフをする指示がきた場合にYesとなる。S934において図9(b)の処理を終了すると判定した場合は、図9(b)の処理を終了し、そうでない場合は、S931へ進む。
Next, the processing related to the photographing shown in FIG. 9(b) will be explained. The process shown in FIG. 9(b) is a process performed in each camera.
In S930, the CPU 01 causes the camera side to acquire the shooting conditions.
In S931, the camera side determines whether or not a photographing instruction has been given. If a photographing instruction has been given, the process advances to S932; otherwise, the process waits for a photographing instruction to be given.
In S932, the camera side performs photography under the set photography conditions.
In S933, the CPU 01 controls the camera to transfer the image to the image transfer receiving unit 201b, and the transferred image data is stored in the storage 204. Alternatively, images taken by the camera are sequentially transferred to the storage 204.
In S934, the CPU 01 determines whether to end the process of FIG. 9(b). The determination in S934 becomes Yes if an instruction to turn off the camera power is received in S912 of FIG. 9(a). If it is determined in S934 that the process in FIG. 9(b) is to be ended, the process in FIG. 9(b) is ended; otherwise, the process advances to S931.

次に、図9(c)の画像をトリミングし、配信する処理に関する説明をする。
S951では、CPU01は、画像を取得する指示がされたか否かを判定する。画像を取得する指示とは、野球であればホームランがあった時刻や、ファインプレーのあった時刻などのイベント時刻において、図8のS805において設定された時計の時刻に基づいて、イベント時刻の前後に撮影された画像を取得する指示である。画像の取得指示は、イベント時刻の発生に応じて行うものとする。なお、イベント時刻でなくても例えば、試合の分析を行い、イベントが発生したことに応じて画像の撮影指示と画像の取得指示とを同時にCPU01が行ってもよい。
S952では、CPU01は、対象画像をストレージ204から取得する。
S953では、トリミング部202がトリミング情報を取得する。
S954以降の処理ではトリミングの処理を開始する。
Next, the process of trimming and distributing the image shown in FIG. 9(c) will be explained.
In S951, the CPU 01 determines whether an instruction to acquire an image has been given. In the case of baseball, the instruction to acquire an image refers to an event time such as the time of a home run or the time of a fine play, based on the clock time set in S805 of FIG. This is an instruction to obtain a photographed image. The image acquisition instruction is given in response to the occurrence of an event time. Note that even if it is not the event time, for example, the CPU 01 may perform an analysis of the match and issue an instruction to shoot an image and an instruction to obtain an image at the same time in response to the occurrence of an event.
In S952, the CPU 01 acquires the target image from the storage 204.
In S953, the trimming unit 202 acquires trimming information.
In the processing after S954, trimming processing is started.

S954では、トリミング部202がn=1の座席の情報を取得する。そして、現在トリミングをしようとしている画像を撮影したカメラの撮影範囲における座席数をmとする。本実施形態においては、座席の番号に関して簡単のためにn=1からmまでとするが、これに限らず、1台のカメラが撮影しており、かつトリミング対象となっている座席のすべてがカバーされれば、実際に球場で使用されている座席と紐づけてもよい。複数のカメラで観客の席をカバーするためには、他のカメラとの撮影の範囲と撮影範囲が被ることがある。2台のカメラから撮影をされている観客であっても、いずれか一方である1台のカメラで撮影された画像からトリミングされた画像が提供される。よって、カメラの撮影範囲とトリミング範囲とは異なることがある。S954では、全てのトリミング範囲の座席数をmとして取得する。トリミング範囲は、試合中に可変としてもよいし、予め球場側で定めておいてもよい。 In S954, the trimming unit 202 acquires information about the seat n=1. Then, let m be the number of seats in the photographing range of the camera that photographed the image that is currently being trimmed. In this embodiment, for the sake of simplicity, n = 1 to m for the seat numbers, but this is not the only option. If covered, it may be linked to the seats actually used at the stadium. In order to cover the audience seats with multiple cameras, the shooting range may overlap with that of other cameras. Even if the audience is photographed by two cameras, an image trimmed from the image photographed by one of the cameras is provided. Therefore, the photographing range of the camera and the trimming range may be different. In S954, the number of seats in all the trimming ranges is acquired as m. The trimming range may be variable during the game, or may be determined in advance by the stadium.

S955では、CPU01は、トリミングを行うエリアにある座席か否かを判定する。球場では、ネットやポール、屋根などによりカメラの死角になったり、撮影が禁止されていたりするエリアがある可能性がある。また、自由席など観客の位置が分からないエリアにおいては、そもそも座席の位置に対応するトリミングを行わない。よって、S955の判定はNoとする。なお、自由席であっても後述するように顔検出によるトリミングやより広い範囲のトリミングは行うことができる。S955においてYesと判定された場合は、S956へ進み、そうでない場合はS963へ進む。なお、チケットの購入時や、座席付近いにおいて画像購入ができないエリアであることを観客に示すようにしてもよい。
S956では、CPU01は、現在トリミング対象か否かを判定している座席nがトリミング範囲にある座席数mより小さいか否かを判定する。すなわち、トリミング範囲全ての座席に対して、トリミングをするか否かの判定がし終わっていないかを確認する。S956の判定がYesである場合には、S957へ進み、そうでない場合は、S965へ進む。
In S955, the CPU01 determines whether the seat is in the area to be trimmed. At baseball stadiums, there may be areas where cameras are blind due to nets, poles, roofs, etc., or where photography is prohibited. Furthermore, in areas where the positions of spectators are unknown, such as non-reserved seats, trimming corresponding to the position of the seats is not performed in the first place. Therefore, the determination in S955 is No. Note that even if the seats are non-reserved seats, trimming by face detection or trimming of a wider range can be performed as described later. If the determination is Yes in S955, the process advances to S956; otherwise, the process advances to S963. Note that it may be possible to indicate to the audience that this is an area where image purchases are not possible when purchasing tickets or near the seats.
In S956, the CPU 01 determines whether the seat n currently being determined as a trimming target is smaller than the number m of seats within the trimming range. That is, it is checked whether the determination as to whether or not to perform trimming has been completed for all seats in the trimming range. If the determination in S956 is Yes, the process advances to S957; otherwise, the process advances to S965.

S957では、CPU01は、座席nがトリミング対象の座席か否かを判定する。トリミング対象の座席か否かは、図7において観客が画像購入の意思を示したか否かにより決まる。すなわち、S955の判定は、トリミンググループに含まれる座席である場合にはYesとなり、そうでない場合にはNoとなる。
S958では、CPU01は、S952で取得した画像からトリミングを行う元の画像であるトリミング画像を選択する。トリミング画像の選択は、現在対象となっている座席nのトリミンググループの観客の様子に応じて、最も表情が良いものや、前後の画像と比較して動きの大きなものを選択するようにしてもよい。また、トリミンググループごとで選択する画像を変えず、マニュアルで画像を選択したり、トリミング範囲の観客の動きを数値化し、一番大きな動きがあると思われる画像を選択したりしてもよい。
In S957, the CPU01 determines whether seat n is a seat to be trimmed. Whether the seat is to be trimmed or not is determined depending on whether or not the audience has indicated an intention to purchase the image in FIG. That is, the determination in S955 is Yes if the seat is included in the trimming group, and No otherwise.
In S958, the CPU 01 selects a trimmed image, which is the original image to be trimmed, from the image acquired in S952. The cropped image may be selected depending on the appearance of the audience in the cropping group for seat n, which is currently being targeted, by selecting the one with the best expression or the one with the most movement compared to the previous and subsequent images. good. Alternatively, images may be selected manually without changing the images selected for each trimming group, or the movement of the audience within the trimming range may be quantified and the image that is thought to have the largest movement may be selected.

S959では、CPU01は、トリミング処理を実行する。トリミング処理は、図10を用いて後述する。
S960では、CPU01は、座席n=n+1とする。なお、既にトリミング処理が実施済みのトリミンググループに含まれている座席nであって場合には、さらにn+1として、まだS957の判定をしていない座席を探していく。
S961、S962では、座席nの観客のグループトリミングに入っていない場合の処理について説明をする。本実施形態においては、試合の後に観客が画像を得られるように座席番号と紐づけてエリアでのトリミングを行う。すなわち、グループトリミングのように同時購入した観客が入り、その他の観客が入らないようにトリミング範囲を決めるのではなく、30人や50人といったように予め決められた人数でのトリミングを行う。これにより、トリミングにかかる時間とデータ量を削減することができ、グループトリミングの対象となっている観客には素早く画像の提供ができるようにしつつ、そうでない観客にも後から画像を提供できるようにしている。
In S959, the CPU01 executes trimming processing. The trimming process will be described later using FIG. 10.
In S960, the CPU01 sets seat n=n+1. Note that if seat n is included in a trimming group that has already undergone trimming processing, then n+1 is further set and a search is made for a seat that has not yet undergone the determination in S957.
In S961 and S962, processing when the group trimming of the audience at seat n is not included will be explained. In this embodiment, the area is trimmed in association with the seat number so that the audience can obtain the image after the match. That is, instead of determining the trimming range so that the audience who purchased at the same time enters and other audience members do not enter, as in group trimming, trimming is performed for a predetermined number of people, such as 30 or 50 people. This reduces the time and amount of data required for cropping, making it possible to quickly provide images to audience members targeted for group trimming, while also allowing images to be provided later to audiences who are not eligible for group trimming. I have to.

S961では、CPU01は、S958と同様にトリミング画像を選択する。エリアトリミングの場合には、各座席の観客に合わせてトリミング画像を保存しておかないので、座席nの観客に応じたトリミング画像の選択は行わない。エリアトリミングの場合には、手動で画像を選択してもよいし、トリミング範囲にいる観客の動きを数値化して最も動きの大きな数値の画像を選択してもよい。もしくは、予め顔データが準備されていた観客の表情が良い、もしくは動きの大きな画像を選択するようにしてもよい。このように、グループトリミングの対象となっていない観客であっても、画像購入をする可能性の高い観客の表情が良い、もしくは大きく動いている画像を選択することで、将来、画像を購入したより多くの観客の満足度を満たすことができる。それぞれの観客の表情の良い画像を保存しておくと、データ量が多くなりコストアップにつながり、またデータの取り出しも時間を要する。購入の可能性の高い、高い頻度で観戦のする観客を優先的にして画像を選択することで、よりコストが低くさらに素早く画像を提供することができるようになる。なお、顔検出された観客には、例えば10試合や5試合といった所定の数の試合ごとに、対象の観客の画像をまとめて、観客に通知をしてもよいし、次の試合の観戦時に観客に画像を通知し、購入を促してもよい。さらに、前回の試合で撮影された画像を、次の試合のチケットの購入時に観客に提示することで、どのような画像が撮影されるのかを観客が把握し、画像購入をするか否かの判断をしやすくしてもよい。 In S961, the CPU 01 selects a trimmed image similarly to S958. In the case of area trimming, since trimmed images are not saved in accordance with the audience at each seat, a trimmed image is not selected depending on the audience at seat n. In the case of area trimming, images may be selected manually, or the movement of the audience within the trimming range may be digitized and the image with the largest movement may be selected. Alternatively, an image for which face data has been prepared and shows a good facial expression or a large movement of the audience may be selected. In this way, even if the audience is not subject to group cropping, by selecting images with good facial expressions or large movements of the audience who are likely to purchase the image, it is possible to increase the likelihood of purchasing the image in the future. It can satisfy more audience satisfaction. If images with good facial expressions of each audience member are saved, the amount of data increases, leading to increased costs, and retrieving the data also takes time. By prioritizing images for spectators who are likely to purchase and frequently watch games, images can be provided more quickly and at a lower cost. In addition, for spectators whose faces have been detected, images of the target spectators may be collected and notified after a predetermined number of games, such as 10 games or 5 games, or when watching the next game. You may notify the audience of the image and encourage them to purchase it. Furthermore, by presenting the images taken at the previous game to the spectators when purchasing tickets for the next game, the spectators can understand what kind of images will be taken and decide whether or not to purchase the image. It may be easier to make a decision.

S962では、CPU01は、エリアトリミングをする。エリアトリミングは上述したように、所定の人数で区切った画像をトリミングする。既に他の座席nに対する処理においてエリアトリミングされた画像に含まれている座席nであった場合には、改めてエリアトリミングをせず、画像のデータ量の削減をする。
S963、S964では、S961、S962と同様の処理を実行する。トリミング対象の座席でない自由席であれば、顔検出に基づく処理を行い、トリミング対象座席でグループトリミング範囲の観客でない場合には、エリアトリミングをしないようにしてもよい。また、一部の熱狂的なファンが固まっている座席や、団体の座っている座席においては、エリアトリミングの範囲を広く設けてもよい。例えば同じ色の服を着ているユーザをトリミング範囲としてもよい。これにより、応援しているチームのユニフォームを着ている団体を一枚に収めることができる。
In S962, the CPU01 performs area trimming. As described above, area trimming involves trimming an image divided by a predetermined number of people. If the seat n is included in an image that has already been area trimmed in the process for another seat n, area trimming is not performed again and the data amount of the image is reduced.
In S963 and S964, processing similar to S961 and S962 is executed. If it is an unreserved seat that is not a seat to be trimmed, processing based on face detection may be performed, and if the seat is not a seat to be trimmed and the audience is not within the group trimming range, area trimming may not be performed. Furthermore, the range of area trimming may be widened in seats where some enthusiastic fans are seated or where a group is sitting. For example, users wearing clothes of the same color may be set as the trimming range. This allows groups wearing the uniforms of the team they support to be captured in one photo.

S965では、CPU01は、トリミングした画像の中に、顔データがあったか否かを判定する。顔データがあった場合には、S966へ進み、そうでない場合は、S967へ進む。
S966では、CPU01は、各観客のIDと画像とを結び付け、観客が観戦中の試合における画像フラグをONにする。画像フラグがONであれば、観客に対して、いつの試合に撮影された画像があるのかを提示することができる。
S967では、CPU01は、トリミングをした画像を配信部207にアップロードし、グループトリミングの対象となっている観客が画像を閲覧可能にする。なお、グループトリミングの対象となっている観客でなくても、トリミングした画像を提示するようにしてもよい。このとき、グループトリミングの対象外となっている観客にはウォーターマークでサンプルなどの文字をいれる。なお、アップロードしなかった画像データはストレージ204から削除、もしくは画質を落として記録することで、画像の容量を減らし、コストの削減へとつなげる。ただし、試合後、所定期間はS958、961、963で選択した画像自体と保存しておいてもよいし、削除をする前に各観客に通知をしてもよい。
In S965, the CPU 01 determines whether or not there is face data in the trimmed image. If there is face data, the process advances to S966; otherwise, the process advances to S967.
In S966, the CPU 01 associates each spectator's ID with the image, and turns on the image flag for the match that the spectator is watching. If the image flag is ON, it is possible to present to the audience which game the image was taken for.
In S967, the CPU 01 uploads the cropped image to the distribution unit 207, and makes the image viewable by the audience targeted for group trimming. Note that the trimmed image may be presented even if the audience is not the target of group trimming. At this time, characters such as samples are added with a watermark to the audience who are not subject to group trimming. Note that by deleting the image data that has not been uploaded from the storage 204 or recording it with a reduced image quality, the capacity of the image can be reduced, leading to cost reduction. However, after the match, the images selected in S958, 961, and 963 may be saved for a predetermined period of time, or each spectator may be notified before deletion.

図10は、本実施形態におけるトリミング処理を示すフローチャートである。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。
S1001では、CPU01は、チケット購入部206から事前に取得した購入されたグループ人数・座席番号・座席配置を読み出す。
FIG. 10 is a flowchart showing trimming processing in this embodiment. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01.
In S1001, the CPU 01 reads out the purchased group number, seat number, and seat arrangement obtained in advance from the ticket purchasing unit 206.

図11は、グループの人数に応じた座席配置の例を示す図である。図11(a)は4人のグループの座席配置例であり、パターン(1)では4人が横並びになっており、パターン(2)では2人ずつ前後に並んでいる。あくまでもパターンは一例であり、パターンの形と人数の組合せが、本発明を限定するものではない。同様に、図11(b)は5人のグループの座席配置の例、図11(c)は6人のグループの座席配置の例である。 FIG. 11 is a diagram showing an example of seat arrangement according to the number of people in the group. FIG. 11A shows an example of a seating arrangement for a group of four people. In pattern (1), four people are lined up side by side, and in pattern (2), two people are lined up one behind the other. The pattern is just an example, and the combination of pattern shape and number of participants does not limit the present invention. Similarly, FIG. 11(b) is an example of a seating arrangement for a group of five people, and FIG. 11(c) is an example of a seating arrangement for a group of six people.

図12は、座席配置における座席の関係性を示す図である。グループ内で左下の座席位置を基準として、水平方向の座席位置を「番」、垂直方向の座席位置を「列」で表現し、水平方向右側に向かって「番」の数字がインクリメントされ、垂直方向上側に向かって「列」の番号がインクリメントされる。
図12は、図11(b)のパターン(2)における座席配置の具体的な例を示すものである。X+2番・Y列にはグループ内の利用者はいないが、矩形をトリミングする際のデータとして必要であるため、後述する図13、図14のデータ構造においてグループ外席として定義する。
FIG. 12 is a diagram showing the relationship between seats in the seat arrangement. Based on the lower left seat position in the group, the horizontal seat position is expressed as "ban" and the vertical seat position is expressed as "column", and the "ban" number is incremented towards the right side in the horizontal direction, and the vertical seat position is expressed as "row". The "column" number is incremented in the upward direction.
FIG. 12 shows a specific example of the seat arrangement in pattern (2) of FIG. 11(b). Although there are no users in the group in column X+2 and Y, since this is necessary as data when trimming the rectangle, it is defined as a seat outside the group in the data structure of FIGS. 13 and 14, which will be described later.

図10の説明に戻り、S1002では、CPU01は、トリミング範囲、及びグループ外席情報を取得する。なお、事前にトリミング範囲を算出せずにS1001でトリミング範囲の算出を行ってもよい。
S1003では、CPU01は、S1002で取得したグループ情報にグループ外席の情報が存在するか否かを判定する。グループ外席の情報が存在すると判定した場合は、S1004へ進み、そうでない場合には、S1004をスキップしてS1005へ進む。
S1004では、CPU01は、グループ外席に定義されている座席位置のトリミング範囲を灰色の単色で塗り潰す。グループ外の座席のトリミング位置の全範囲を塗りつぶしてしまうと、一部上下隣のグループ内の座席のトリミング位置と重なっていることがあるため、若干トリミング位置よりも内側を塗り潰すことが望ましい。これは、グループ外の観客が写らないようにするための処理であるが、塗り潰しの方法については本発名を限定するものではない。また、特に肖像権の問題などがなく、利用者の意思としてグループ外の人物が写っていても問題ない場合には、S1004の処理は必要がないケースもある。
S1005では、CPU01は、S1002で取得した座標計算方法1303~1306(トリミング位置の計算方法)に従い、トリミング位置を確定させる。
Returning to the explanation of FIG. 10, in S1002, the CPU 01 acquires the trimming range and out-of-group seat information. Note that the trimming range may be calculated in S1001 without calculating the trimming range in advance.
In S1003, the CPU 01 determines whether information on seats outside the group exists in the group information acquired in S1002. If it is determined that information on seats outside the group exists, the process advances to S1004; otherwise, the process skips S1004 and advances to S1005.
In S1004, the CPU 01 fills in the trimming range of the seat position defined as the seat outside the group with a single gray color. If the entire range of trimming positions of seats outside the group is filled in, some of the trimming positions may overlap with the trimming positions of seats in the adjacent group above and below, so it is desirable to fill in slightly inside the trimming position. This is a process to prevent spectators outside the group from being photographed, but the blackout method is not limited to this name. Furthermore, if there is no particular problem with portrait rights and the user's intention is that there is no problem even if a person outside the group is included in the photo, the process of S1004 may not be necessary.
In S1005, the CPU 01 determines the trimming position according to the coordinate calculation methods 1303 to 1306 (trimming position calculation method) acquired in S1002.

図15は、本実施形態におけるトリミング位置の計算例を示す図である。図15(a)は、図4のように観客のほぼ正面から撮影された画像に対する計算方法の例、図15(b)は、図5のように観客がやや斜めに撮影された画像に対しての計算方法の例である。図15(a)では、単純に左上座席の左上頂点と、右下座席の右下頂点をそれぞれ全体のトリミング位置の頂点として利用する。図15(b)では、上下列が若干ずれているため、次のように左上頂点、右下頂点が定義されており、この計算方法を用いて左上頂点、右下頂点の座標位置を求める。
左上頂点
X座標=左下座席の左上頂点のX座標
Y座標=左上座席の左上頂点のY座標
右下頂点
X座標=右上座席の右下頂点のX座標
Y座標=右下座席の右下頂点のY座標
FIG. 15 is a diagram showing an example of calculating the trimming position in this embodiment. Figure 15(a) is an example of the calculation method for an image taken almost from the front of the audience as shown in Figure 4, and Figure 15(b) is an example of the calculation method for an image taken with the audience slightly diagonally as shown in Figure 5. This is an example of how to calculate. In FIG. 15A, the upper left vertex of the upper left seat and the lower right vertex of the lower right seat are simply used as the vertices of the entire trimming position. In FIG. 15(b), since the upper and lower columns are slightly shifted, the upper left vertex and the lower right vertex are defined as follows, and the coordinate positions of the upper left vertex and the lower right vertex are determined using this calculation method.
Upper left vertex X coordinate = X coordinate of the upper left vertex of the lower left seat Y coordinate = Y coordinate of the upper left vertex of the upper left seat Lower right vertex X coordinate = X coordinate of the lower right vertex of the upper right seat Y coordinate

図10の説明に戻り、S1006では、CPU01は、S1005で確定したトリミング位置に従い、カメラで撮影した全体画像から該当人数・座席配置に従ったトリミング位置で切り出したトリミング済み画像を生成する。CPU01は、トリミング済み画像を、ストレージ205に撮影日付・座席番号情報と共に格納する。
なお、上述した実施形態において以下のようにシステムを運用することで、観客がより容易に画像の取得をできるようにしてもよい。
・配信サーバへの閲覧要求を、チケットのQRコードの読み取りにする。
・事前にグループ情報を取得するようにしているが、処理を行う度に取得してもよい。この場合は、チケット購入システムも常にグループ情報を作り直す必要があり、それを都度トリミング部202から取得するため、システム全体としては処理が増える。ただし、例えば、野球の場合当日券の売り上げの割合が多く、試合開始後にグループ情報が多く作成される場合、などには有効である。
Returning to the explanation of FIG. 10, in S1006, the CPU 01 generates a trimmed image cut out from the entire image taken by the camera at a trimming position according to the number of people and the seating arrangement, according to the trimming position determined in S1005. The CPU 01 stores the trimmed image in the storage 205 together with the photographing date and seat number information.
Note that in the embodiment described above, the system may be operated as follows to allow the audience to acquire images more easily.
・The viewing request to the distribution server is made by reading the QR code of the ticket.
- Group information is acquired in advance, but it may be acquired each time the process is performed. In this case, the ticket purchasing system also needs to constantly recreate the group information, which is acquired from the trimming unit 202 each time, which increases the amount of processing for the system as a whole. However, for example, in the case of baseball, a large percentage of same-day ticket sales are made, and this is effective when a large amount of group information is created after the game starts.

次に、図16、図17を用いて、事前に観客が画像の購入意思を示さなかったが、試合の終了後に画像を購入しようとした場合について説明をする。
図16は、本実施形態において試合の終了後に画像を提供する場合のシステム全体構成図である。画像処理装置201は、撮影指示部101と、カメラ102~105と、画像転送受信部201bと、選択・アップロード部203と、ストレージ204とを備える。
図16において、各部101、201b、203、204は1つの画像処理装置201の中に記載しているが、物理的に別の処理装置であっても構わず、処理部の構成が本発明を限定するものではない。同様に、配信部207とトリミング部202も物理的に別の処理装置であってもよい。
Next, with reference to FIGS. 16 and 17, a case will be described in which a spectator does not indicate an intention to purchase an image in advance, but attempts to purchase an image after the game ends.
FIG. 16 is an overall system configuration diagram for providing images after the match in this embodiment. The image processing device 201 includes a shooting instruction section 101, cameras 102 to 105, an image transfer reception section 201b, a selection/upload section 203, and a storage 204.
In FIG. 16, each unit 101, 201b, 203, and 204 is shown in one image processing device 201, but they may be physically separate processing devices, and the configuration of the processing unit may be different from the present invention. It is not limited. Similarly, the distribution unit 207 and the trimming unit 202 may also be physically separate processing devices.

撮影指示部101、カメラ102~105、画像転送受信部201b、チケット購入部206については、図2の説明と同様であるためその説明を割愛する。
選択・アップロード部203は、ストレージ204に撮影画像データが格納されたこととトリガーに、撮影画像データをイベントの日時情報と座席ごとのトリミング位置情報と共に配信部207にアップロードする。
ここでの撮影画像データはトリミングされていない高解像のデータであるため、インターバル撮影などで撮影枚数が多くなった場合や、カメラの台数が多くなった場合には、大量のデータが配信部207にアップロードされることになる。そのため、後からグループトリミングをしようとした際には、より大量のデータをシステムが保持しなければならない。
なお、ここでは座席ごとのトリミング位置情報を画像処理装置201から配信部207にアップロードしているが、配信部207とトリミング部202で情報を持ってもよい。ただし、トリミング位置情報はあくまでもカメラ102~105で撮影される画像に対しての位置情報となるので、画像処理装置201側におけるカメラ102~105の取り付け位置や画角を変更した場合に都度更新が必要となる。したがって、画像処理装置201と配信部207、トリミング部202のシステムがより連携して対応する必要がある。
The photographing instruction section 101, cameras 102 to 105, image transfer/reception section 201b, and ticket purchase section 206 are the same as those described in FIG. 2, so a description thereof will be omitted.
The selection/upload unit 203 is triggered by the storage of the captured image data in the storage 204, and uploads the captured image data to the distribution unit 207 along with event date and time information and trimming position information for each seat.
The captured image data here is high-resolution data that has not been cropped, so when the number of shots increases due to interval shooting, etc., or when the number of cameras increases, a large amount of data will be sent to the distribution unit. It will be uploaded to 207. Therefore, when attempting group trimming later, the system must hold a larger amount of data.
Note that although the trimming position information for each seat is uploaded from the image processing device 201 to the distribution unit 207 here, the distribution unit 207 and the trimming unit 202 may have the information. However, the trimming position information is only the position information for the images taken by the cameras 102 to 105, so it must be updated each time the mounting position or angle of view of the cameras 102 to 105 on the image processing device 201 side is changed. It becomes necessary. Therefore, the systems including the image processing device 201, the distribution unit 207, and the trimming unit 202 need to cooperate more closely.

配信部207は、利用者が入力したイベント日付と座席番号をKeyに、トリミング部202に選択・アップロード部から取得したサムネイル位置情報と座席番号を送信し、トリミング処理を指示して、取得したトリミング済み画像を利用者に提示する。
利用者の入力に関しては、図2と同様に利用者がチケットを見て手動で入力してもよい。また、チケットにQRコードなどを印字して、それをスマートホンで読み取って認識するのでも、またチケット情報が分からない場合には顔検出でもよく、入力方法は上述の方法に限られない。
また、利用者への提示はスマートホンのアプリケーションでもよいし、ブラウザでアクセスするようなWebアプリケーションの形でもよく、提示方法についても本発明を限定するものではない。
The distribution unit 207 sends the thumbnail position information and seat number obtained from the selection/upload unit to the trimming unit 202 using the event date and seat number input by the user as keys, and instructs the trimming process to display the obtained trimming. Present the completed images to the user.
As for the user's input, the user may look at the ticket and manually enter the information as in FIG. 2. Furthermore, the input method is not limited to the above-mentioned method, such as printing a QR code on the ticket and reading it with a smartphone for recognition, or facial detection if the ticket information is unknown.
Furthermore, the presentation to the user may be in the form of a smartphone application or a web application accessed through a browser, and the present invention is not limited to the presentation method.

トリミング部202は、処理自体は図2と同様であるが、利用者が購入を希望する都度にトリミング済み画像を生成することになる。そのため、利用者がトリミング済み画像を取得するまでの時間にそのトリミング時間が含まれてしまい、画像の提供を素早く行うことができない。また、素早く行うためにはより画像処理を高速に実施できる環境が必要となる。 Although the processing itself is the same as that shown in FIG. 2, the trimming unit 202 generates a trimmed image each time the user wishes to purchase. Therefore, the trimming time is included in the time it takes for the user to obtain the trimmed image, making it impossible to quickly provide the image. In addition, in order to perform image processing quickly, an environment that can perform image processing at high speed is required.

次に、図17を用いて、画像データをストレージ204に保存している場合について説明をする。図17は、試合の終了後に画像を提供する場合のシステム全体構成図及び処理を説明するための図である。図17に示す処理では、図16のケースとは異なり、配信部207に大量の画像データが送信されることはない。ただし、利用者からの画像購入のトリガーを受けてから画像処理装置201に対象カメラで撮影した画像を要求してアップロードしてもらうため、図16のケースよりも画像取得分だけ時間が長くかかってしまう。そのため、利用者がトリミング済み画像データを取得するのにさらに時間がかかってしまう。 Next, a case where image data is stored in the storage 204 will be described using FIG. 17. FIG. 17 is a diagram for explaining the overall system configuration and processing when providing images after the match ends. In the process shown in FIG. 17, unlike the case in FIG. 16, a large amount of image data is not transmitted to the distribution unit 207. However, since the image processing device 201 is requested to upload the image taken by the target camera after receiving a trigger to purchase an image from the user, it takes longer than the case in FIG. 16 to acquire the image. Put it away. Therefore, it takes more time for the user to obtain the cropped image data.

図17に示す例では、利用者がチケットを購入したことを前提に、次は画像購入の指示を配信部207に行ったところから処理がスタートする(ステップ1)。
配信部207は、対象カメラの画像を画像処理装置201に要求し(ステップ2)、画像処理装置201内においてストレージ204へと画像が要求される(ステップ3)。その後、選択・アップロード部203が画像データを配信部207に送信(ステップ4)する。このとき、画像データには日付情報、座席ごとのトリミング位置情報とトリミング前の画像データとが含まれるため、データ量が大きくなる。配信部207からトリミング部202へとトリミング指示がされる(ステップ5)と、トリミング部202がトリミングをし、トリミング済みの画像データが配信部207へと配信される(ステップ6)。その後、配信部から画像を購入した観客へとトリミング済みの画像が配信される(ステップ7)。
In the example shown in FIG. 17, on the premise that the user has purchased a ticket, the process starts when the user instructs the distribution unit 207 to purchase an image (step 1).
The distribution unit 207 requests the image processing device 201 for an image of the target camera (step 2), and requests the image from the storage 204 within the image processing device 201 (step 3). Thereafter, the selection/upload unit 203 transmits the image data to the distribution unit 207 (step 4). At this time, since the image data includes date information, trimming position information for each seat, and image data before trimming, the amount of data becomes large. When the distribution unit 207 issues a trimming instruction to the trimming unit 202 (step 5), the trimming unit 202 performs trimming, and the trimmed image data is distributed to the distribution unit 207 (step 6). Thereafter, the trimmed image is distributed from the distribution unit to the audience who purchased the image (step 7).

このように、図17に示す処理では、事前に観客が画像購入の意思を示していなくても、トリミンググループを対象としたトリミングをした画像を観客に提供することができる。なお、システム内、装置内におけるやり取りが多く、事前に画像の購入意思のある観客よりも画像の提供にまでに時間を要する可能性がある。
観客に画像を提供する際には、座席情報も紐づけて観客に提供することで、観客がSNSに画像をアップロードした際に、画像をみた人がどの位置の座席であればよい画像が撮られるのかを認識することができる。
さらに、座席の位置に応じて明るさに関する画像処理を行い、暗い部分や明るい部分に対して適正な画像を提供するようにすることで、広い範囲の観客を同じ画角範囲に含めて撮影をしてもより良い画像を提供することが可能になる。同じ画角内において明るさが所定以上変わるような場合には、RAW画像を取得し、後で画像の加工をしやすくしてもよい。
In this way, in the process shown in FIG. 17, even if the audience does not indicate an intention to purchase the image in advance, it is possible to provide the audience with an image that has been trimmed for the trimming group. Note that there is a lot of interaction within the system and within the device, and it may take longer to provide the images than if the audience had the intention of purchasing the images in advance.
When providing an image to the audience, seat information is also linked and provided to the audience, so that when the audience uploads the image to SNS, the person viewing the image can take a good image based on which seat position. be able to recognize what is going on.
Furthermore, by performing image processing related to brightness according to the seat position and providing an appropriate image for dark and bright areas, it is possible to capture a wide range of audience members within the same angle of view. This makes it possible to provide even better images. If the brightness varies by more than a predetermined value within the same angle of view, a RAW image may be acquired to facilitate image processing later.

次に、会場のモニタに映りこんだ観客の画像を提供する方法について説明をする。スポーツの試合会場や、水族館などの娯楽施設には大きなスクリーンがあることが多い。また、そのスクリーン上に観客が映りこむイベントがある。このとき、スクリーンに映りこんだ観客に、スクリーンに映った画像を提供するためには、観客を特定する必要がある。しかしながら、顔検出を用いた場合には、観客が何万人もいるスポーツの試合などでは時間がかかってしまう。
本実施形態では、図18~図20を用いて、スクリーンに映りこんだ観客に画像を提供する方法について説明をする。
Next, we will explain how to provide images of the audience reflected on the monitors at the venue. Sports venues and entertainment facilities such as aquariums often have large screens. There are also events where the audience is reflected on the screen. At this time, in order to provide the image reflected on the screen to the audience, it is necessary to identify the audience. However, when face detection is used, it takes a long time for sports games with tens of thousands of spectators.
In this embodiment, a method for providing an image reflected on a screen to an audience will be explained using FIGS. 18 to 20.

図18は、スクリーン用事前登録処理に関するフローチャートである。この処理は、試合の開始前にチケットの販売が開始したことに応じて開始可能である。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。
S1801では、CPU01は、トリミング画像の購入意思がある観客か否かを判定する。トリミング画像の購入意思があると判定した場合は、S1802へ進み、そうでない場合には、S1802をスキップしてS1803へ進む。
S1802では、CPU01は、画像購入者リストに座席番号を登録する。
S1803では、CPU01は、スクリーン画像取得の事前登録がされたか否かを判定する。チケットの購入時に、スクリーンに映った場合にその画像が欲しいか否かを選択可能なようにする。事前登録をすると選択された場合は、S1804へ進み、そうでない場合は、事前登録の処理を終了する。
FIG. 18 is a flowchart regarding screen pre-registration processing. This process can be initiated in response to ticket sales starting prior to the start of the game. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01.
In S1801, the CPU 01 determines whether the audience has the intention of purchasing the trimmed image. If it is determined that the user intends to purchase the trimmed image, the process advances to S1802; otherwise, the process skips S1802 and advances to S1803.
In S1802, the CPU 01 registers the seat number in the image purchaser list.
In S1803, the CPU 01 determines whether advance registration for screen image acquisition has been made. To enable a user to select whether or not he or she wants an image when it appears on a screen when purchasing a ticket. If pre-registration is selected, the process advances to step S1804; otherwise, the pre-registration process ends.

S1804では、CPU01は、座席番号をスクリーン用リストに登録する。なお、画像購入者リストとスクリーン用リストは試合ごとに作られるリストである。
S1805では、CPU01は、顔登録がされたか否かを判定する。S1803で事前登録をすることが選択されると、観客に顔を撮影しておくとより高い確率でスクリーンに映った画像を取得できる旨のガイドを表示する。観客が顔登録すると選択した場合には、S1806において登録者の顔を撮影する。顔登録しないと選択された場合には、S1808へ進む。撮影に関しては、申込端末がスマートホンである場合には、内蔵カメラでその場で撮影してもよいし、事前に撮影されてある画像から選択してもよい。
In S1804, the CPU 01 registers the seat number in the screen list. Note that the image purchaser list and the screen list are created for each match.
In S1805, the CPU 01 determines whether face registration has been performed. If pre-registration is selected in S1803, a guide is displayed informing the audience that if they take a picture of their face, they will have a higher probability of obtaining the image that appears on the screen. If the audience selects to register their face, the face of the registrant is photographed in S1806. If it is selected not to register the face, the process advances to S1808. Regarding photography, if the application terminal is a smartphone, it may be taken on the spot with a built-in camera, or it may be selected from images that have been taken in advance.

S1807では、CPU01は、座席番号と顔データとを紐づけをする。
S1808では、CPU01は、一時的IDを観客に発行し、S1807で紐づけられた情報をスクリーン用リストに登録する。一時的IDは、各試合で事前登録をした観客に配布される個別情報であり、画像の取得に使用される。
以上、説明した実施形態によれば、観客は事前に顔を登録することで、スクリーンに映りこんだ自身の画像を取得しやすくなる。
In S1807, the CPU 01 links the seat number and face data.
In S1808, the CPU 01 issues a temporary ID to the audience, and registers the linked information in the screen list in S1807. The temporary ID is individual information distributed to spectators who have pre-registered for each game, and is used to obtain images.
According to the embodiments described above, by registering their faces in advance, the audience can easily obtain an image of themselves reflected on the screen.

次に、図19を用いて、試合の当日に作成する観客のリストについて説明をする。
図19は、スクリーン用登録者リスト作成処理に関するフローチャートである。この処理は、試合開始後の10分や20分といった限られた時間で行うものである。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。
S1901では、CPU01は、事前作成済みの画像購入リストと、スクリーン用リストを取得しておく。
S1902では、CPU01は、固定IDの保持者である観客が入場したか否かを判定する。固定IDとは、一時的IDと区別するためのものであり、ファンクラブに加入していたり、チームのアプリに登録していたりする観客に配布される個別情報である。固定IDを保持している観客は、観戦の頻度の高い観客であり、何度も来ているので既に顔データがあるものとする。
Next, the spectator list created on the day of the match will be explained using FIG. 19.
FIG. 19 is a flowchart regarding screen registrant list creation processing. This process is performed within a limited time such as 10 or 20 minutes after the start of the match. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01.
In S1901, the CPU 01 acquires an image purchase list and a screen list that have been created in advance.
In S1902, the CPU 01 determines whether a spectator who has a fixed ID has entered the venue. A fixed ID is to be distinguished from a temporary ID, and is individual information distributed to spectators who have joined a fan club or registered with a team app. It is assumed that the spectators who hold the fixed ID are those who attend the games frequently, and because they have come many times, they already have facial data.

S1903では、CPU01は、入場した固定ID保有の観客をスクリーン用リストに登録し、顔データを準備する。
S1904では、CPU01は、トリミング画像購入意思ありの観客の顔データを蓄積する。トリミング画像購入意思ありの観客は、トリミングされた画像から顔データを蓄積する。
S1905では、CPU01は、スクリーン画像取得登録した観客のうち、顔データのない観客の顔データを蓄積する。S1804で登録された位置にいる観客が入るようにトリミングをし、顔データを蓄積する。
In S1903, the CPU 01 registers the spectators with fixed IDs who have entered the screen in the screen list, and prepares face data.
In S1904, the CPU 01 accumulates face data of audience members who have an intention to purchase the trimmed image. Spectators who are willing to purchase the cropped image accumulate face data from the cropped image.
In S1905, the CPU 01 accumulates face data of spectators for whom there is no face data among the spectators registered for screen image acquisition. Trimming is performed to fit the audience at the position registered in S1804, and face data is accumulated.

S1906では、CPU01は、画像購入リストと、スクリーン用リストからイベント被写体リストを作成する。これは、試合の合間において、応援している観客の様子をビデオカメラで撮影し、スクリーンに映した際に使用するリストである。複数のビデオカメラで撮影がされたとしても全ての座席が映し出されるわけではないので、そもそもイベント中にビデオカメラに映りこまない席についてはイベント被写体リストに含めないようにする。例えば、イベント用のビデオカメラの位置から映らない階にある座席や、イベント用のビデオカメラより前にある座席は、イベント被写体リストに含めないようにする。 In S1906, the CPU 01 creates an event subject list from the image purchase list and the screen list. This is a list used when the cheering spectators are filmed with a video camera and shown on a screen between games. Even if multiple video cameras are used to film, not all seats will be shown, so seats that are not captured by the video cameras during the event should not be included in the event subject list. For example, seats on a floor that cannot be seen from the position of the event video camera or seats in front of the event video camera are not included in the event subject list.

S1907では、CPU01は、画像購入リストと、スクリーン用リストから試合中の映り込みリストを作成する。試合中の選手の様子と共に観客が映りこんだ状態でスクリーンに表示されることがある。例えばエリア1の座席の観客は、選手を映した際に一緒に映りこむ可能性が高い。よって、試合中に選手を映し出すためのビデオカメラの撮影範囲となりうる座席を対象として画像購入リストと、スクリーン用リストから試合中の映り込みリストを作成する。 In S1907, the CPU 01 creates a list of reflections during the match from the image purchase list and the screen list. The spectators may be displayed on the screen along with the players during the match. For example, there is a high possibility that spectators seated in area 1 will be seen together with the players when they are shown. Therefore, an image purchase list and a screen list are created for seats that can be photographed by a video camera for showing players during a match, and a list for reflections during the match is created.

以上、説明した実施形態によれば、スクリーンに映った際の画像を欲しい可能性のある観客に絞って、リストを作成するので、顔検出の際の処理負荷を軽減することができ、また、素早く観客に画像を提供することができる。さらに、スクリーンに映し出される際の要因により、異なるリストを作成することで、さらに処理負荷を軽減することができる。 According to the embodiment described above, since a list is created by narrowing down the list to the audience who may want the image displayed on the screen, it is possible to reduce the processing load during face detection, and Images can be quickly provided to the audience. Furthermore, by creating different lists depending on the factors displayed on the screen, the processing load can be further reduced.

次に、図20を用いて画像提供処理について説明する。
図20は、スクリーン用画像提供処理に関するフローチャートである。この処理は、スクリーンに観客が映し出され始めたことに応じて開始される。この処理は、ROM02(不揮発性メモリ)に記録されたプログラムをRAM03(システムメモリ)に展開してCPU01が実行することで実現する。
S2001では、CPU01は、イベント中か否かを判定する。イベント中であると判定した場合は、S2002へ進み、そうでない場合は、S2003へ進む。
S2002では、CPU01は、イベント被写体リストを準備する。
S2003では、CPU01は、試合中の映り込み被写体リストを準備する。
Next, the image providing process will be explained using FIG. 20.
FIG. 20 is a flowchart regarding screen image provision processing. This process is started in response to the audience starting to be displayed on the screen. This process is realized by loading a program recorded in ROM02 (non-volatile memory) into RAM03 (system memory) and executing it by CPU01.
In S2001, the CPU01 determines whether an event is in progress. If it is determined that an event is in progress, the process advances to S2002; otherwise, the process advances to S2003.
In S2002, the CPU 01 prepares an event subject list.
In S2003, the CPU 01 prepares a list of objects reflected during the match.

S2004では、CPU01は、観客を撮影したスクリーン画像を取得する。この画像は、観客を撮影したビデオカメラから取得をしてもよいし、スクリーンの観察用にカメラを設けていてもよい。
S2005では、CPU01は、S2004で取得した画像のうち、メインの被写体の顔を検出する。
S2006では、CPU01は、S2005で検出した顔と、S2002もしくはS2003で準備したリスト内にいるID保持者の顔データとを照合し、一致するか否かを判定する。ID保持者と顔データが一致すると判定した場合は、S2007へ進み、そうでない場合は、S2008へ進む。
In S2004, the CPU 01 acquires a screen image of the audience. This image may be obtained from a video camera that photographs the audience, or a camera may be provided for viewing the screen.
In S2005, the CPU 01 detects the face of the main subject from the image acquired in S2004.
In S2006, the CPU 01 compares the face detected in S2005 with the face data of the ID holders in the list prepared in S2002 or S2003, and determines whether they match. If it is determined that the ID holder and the face data match, the process advances to S2007; otherwise, the process advances to S2008.

S2007では、CPU01は、S2006において顔データが一致したと判定された観客の座席番号、日付と共にスクリーンに映し出された画像をストレージ204に保存し、すぐに観客に配信をする。なお、ここで配信するのは静止画ではなく、動画でもよい。
S2008では、CPU01は、S2005で検出した顔と、S2002もしくはS2003で準備したリスト内にいるトリミング画像の購入意思のあった観客の顔データとが一致するか否かを判定する。トリミング画像の購入意思のあった観客の顔データと、検出された顔とが一致すると判定した場合は、S2009へ進み、そうでない場合は、S2010へ進む。
In S2007, the CPU 01 stores in the storage 204 the image displayed on the screen along with the seat number and date of the audience whose face data was determined to match in S2006, and immediately distributes the image to the audience. Note that what is distributed here may not be a still image, but a video.
In S2008, the CPU 01 determines whether or not the face detected in S2005 matches the face data of the audience members in the list prepared in S2002 or S2003 who had an intention to purchase the trimmed image. If it is determined that the detected face matches the face data of the audience member who intended to purchase the trimmed image, the process advances to S2009; otherwise, the process advances to S2010.

S2009では、CPU01は、S2008で顔データが一致したと判定された観客の撮影時刻前後のトリミング済み画像と共にスクリーンに映し出された画像をストレージ204に保存し、すぐに観客に配信をする。
S2010では、CPU01は、S2005で検出した顔と、S2002もしくはS2003で準備したリスト内にいるスクリーン画像の取得希望者と顔データが一致するか否かを判定する。スクリーン画像の取得希望者と顔データとが一致すると判定した場合は、S2011へ進み、そうでない場合は、図20の処理を終了する。なお、スクリーン上に観客が映りこむイベントが発生したと判定した場合は、再びS2001に進み、処理が行われる。
In S2009, the CPU 01 saves the image displayed on the screen together with the trimmed images before and after the photographing time of the audience whose face data was determined to match in S2008 in the storage 204, and immediately distributes the image to the audience.
In S2010, the CPU 01 determines whether the face detected in S2005 matches the face data of a person who desires to obtain a screen image in the list prepared in S2002 or S2003. If it is determined that the person who wishes to obtain the screen image and the face data match, the process advances to S2011, and if not, the process of FIG. 20 ends. Note that if it is determined that an event in which the audience is reflected on the screen has occurred, the process proceeds to S2001 again and processing is performed.

S2011では、CPU01は、座席番号、日付と共にストレージ204に保存し、観客に配信をする。なお、配信の方法は、トリミング画像の購入希望者へのトリミング済み画像の配信方法とは異なる通知方法でもよいし、同じでもよい。
また、観客に配信をするスクリーンに映し出された画像は、ビデオカメラからの画像でもよいし、スクリーン自体を撮影したものでもよい。
In S2011, the CPU 01 stores the seat number and date in the storage 204, and distributes it to the audience. Note that the distribution method may be a different notification method from the method of distributing the trimmed image to the person who wishes to purchase the trimmed image, or may be the same.
Furthermore, the image displayed on the screen that is distributed to the audience may be an image from a video camera, or may be an image taken from the screen itself.

以上説明した実施形態によれば、スクリーンに映し出された観客の顔検出をしたうえで、その観客に画像を提供する際に、素早くより確実に画像の提供をすることができる。
画像を欲している可能性の高い観客のリストを作成し、さらにイベントごとに映る可能性のある範囲の観客のリストに絞って顔検出された顔との一致を判定するので、より素早く処理を行うことができる。
According to the embodiment described above, when an image is provided to the audience after detecting the face of the audience displayed on the screen, the image can be provided quickly and reliably.
It creates a list of spectators who are likely to want images, and then narrows down the list to a range of spectators who are likely to be imaged for each event to determine matches with detected faces, resulting in faster processing. It can be carried out.

<その他の実施形態>
本発明は、上述した各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
なお、画像処理装置201が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサや回路)が処理を分担することで、装置全体の制御を行ってもよい。
<Other embodiments>
The present invention provides a program that implements one or more functions of each embodiment described above to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device reads the program. This can also be achieved by executing a process. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
The embodiments described above are merely examples of implementation of the present invention, and the technical scope of the present invention should not be construed as limited by these embodiments. That is, the present invention can be implemented in various forms without departing from its technical idea or main features.
Note that the various controls described above as being performed by the image processing device 201 may be performed by a single piece of hardware, or by sharing the processing with multiple pieces of hardware (for example, multiple processors or circuits), the device It is also possible to perform overall control.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
上述した実施形態では、画像提供システムとして説明したが、画像提供装置として構成するようにしてもよい。
また、上述した実施形態においては、本発明を画像処理装置201に適用した場合を例にして説明したが、これはこの例に限定されず、画像に関する制御が可能な電子機器もしくは複数の電子機器からなるシステムであれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、AI(人口知能)と結び付けて制御を行うことも適用可能であることは言うまでもない。
Further, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and the present invention may be applied to various forms without departing from the gist of the present invention. included. Furthermore, each of the embodiments described above is merely one embodiment of the present invention, and it is also possible to combine the embodiments as appropriate.
Although the above-described embodiment has been described as an image providing system, it may also be configured as an image providing device.
Further, in the above-described embodiment, the case where the present invention is applied to the image processing device 201 has been described as an example, but this is not limited to this example, and the present invention is not limited to this example, and the present invention is not limited to this example, and the present invention is not limited to this example. It is applicable to any system consisting of That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, portable image viewers, printer devices with displays, digital photo frames, music players, game machines, electronic book readers, and the like. It goes without saying that it is also applicable to perform control in conjunction with AI (artificial intelligence).

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPUなど)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。 The present invention is also realized by performing the following processing. That is, the software (program) that realizes the functions of the embodiments described above is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (4)

施設にある複数の座席のいずれかの座席にいる観客を撮影し画像を、前記施設に設置されたスクリーンに表示する表示制御手段と、
前記スクリーンに観客の画像を表示する前に用意されている、観客の顔情報と観客ごとの個別情報と観客ごとの座席情報とを取得する取得手段と、
前記スクリーンに表示された観客を顔検出し、前記顔情報と照合する照合手段と、
前記照合手段により顔情報が一致したとされた場合に、前記スクリーンに表示された前記観客の画像を前記個別情報及び前記座席情報のうちの少なくともいずれかと結び付けるように制御する制御手段と、
を有することを特徴とする画像提供システム。
a display control means for displaying an image taken of a spectator in one of a plurality of seats in the facility on a screen installed in the facility ;
acquisition means for acquiring face information of the audience, individual information for each audience, and seat information for each audience, prepared before displaying images of the audience on the screen ;
collation means for detecting the faces of the audience displayed on the screen and collating them with the facial information;
control means for controlling the image of the audience displayed on the screen to be associated with at least one of the individual information and the seat information when the face information is found to match by the matching means;
An image providing system comprising:
施設にある複数の座席のいずれかの座席にいる観客を撮影し画像を、前記施設に設置されたスクリーンに表示する表示制御手段と、
前記スクリーンに観客の画像を表示する前に用意されている、観客の顔情報と観客ごとの個別情報と観客ごとの座席情報とを取得する取得手段と、
前記スクリーンに表示された観客を顔検出し、前記顔情報と照合する照合手段と、
前記照合手段により顔情報が一致したとされた場合に、前記スクリーンに表示された前記観客の画像を前記個別情報及び前記座席情報のうちの少なくともいずれかと結び付けるように制御する制御手段と、
を有することを特徴とする画像提供装置。
a display control means for displaying an image taken of a spectator in one of a plurality of seats in the facility on a screen installed in the facility ;
acquisition means for acquiring face information of the audience, individual information for each audience, and seat information for each audience, prepared before displaying images of the audience on the screen ;
collation means for detecting the faces of the audience displayed on the screen and collating them with the facial information;
control means for controlling the image of the audience displayed on the screen to be associated with at least one of the individual information and the seat information when the face information is found to match by the matching means;
An image providing device comprising:
施設にある複数の座席のいずれかの座席にいる観客を撮影した画像を、前記施設に設置されたスクリーンに表示するステップと、
前記スクリーンに観客の画像を表示する前に用意されている、観客の顔情報と観客ごとの個別情報と観客ごとの座席情報とを取得するステップと、
前記スクリーンに表示された観客を顔検出し、前記顔情報と照合するステップと、
照合により前記顔情報が一致したとされた場合に、前記スクリーンに表示された前記観客の画像を前記個別情報及び前記座席情報のうちの少なくともいずれかと結び付けるステップと、
を有することを特徴とする画像提供システムの制御方法。
displaying an image taken of a spectator in one of a plurality of seats in the facility on a screen installed in the facility;
obtaining face information of the audience, individual information for each audience, and seat information for each audience, which are prepared before displaying images of the audience on the screen;
detecting the faces of the audience displayed on the screen and comparing them with the facial information;
a step of associating the image of the audience displayed on the screen with at least one of the individual information and the seat information if the face information is determined to match through the comparison;
A method for controlling an image providing system, comprising:
施設にある複数の座席のいずれかの座席にいる観客を撮影した画像を、前記施設に設置されたスクリーンに表示する処理と、
前記スクリーンに観客の画像を表示する前に用意されている、観客の顔情報と観客ごとの個別情報と観客ごとの座席情報とを取得する処理と、
前記スクリーンに表示された観客を顔検出し、前記顔情報と照合する処理と、
照合により前記顔情報が一致したとされた場合に、前記スクリーンに表示された前記観客の画像を前記個別情報及び前記座席情報のうちの少なくともいずれかと結び付ける処理と、
をコンピュータに実行させるためのプログラム。
Displaying an image taken of a spectator sitting in one of a plurality of seats in the facility on a screen installed in the facility;
A process for acquiring face information of the audience, individual information for each audience, and seat information for each audience, which is prepared before displaying images of the audience on the screen;
a process of detecting faces of the audience displayed on the screen and comparing them with the face information;
a process of linking the image of the audience displayed on the screen with at least one of the individual information and the seat information if the facial information is determined to match through comparison;
A program that causes a computer to execute
JP2019122039A 2019-06-21 2019-06-28 Image providing system, image providing device, control method and program Active JP7366606B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019122039A JP7366606B2 (en) 2019-06-28 2019-06-28 Image providing system, image providing device, control method and program
PCT/JP2020/024176 WO2020256120A1 (en) 2019-06-21 2020-06-19 Image providing system and method for controlling same
CN202080045355.6A CN114026842A (en) 2019-06-21 2020-06-19 Image providing system and control method thereof
US17/556,334 US20220116551A1 (en) 2019-06-21 2021-12-20 Image providing system and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122039A JP7366606B2 (en) 2019-06-28 2019-06-28 Image providing system, image providing device, control method and program

Publications (2)

Publication Number Publication Date
JP2021010079A JP2021010079A (en) 2021-01-28
JP7366606B2 true JP7366606B2 (en) 2023-10-23

Family

ID=74198565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122039A Active JP7366606B2 (en) 2019-06-21 2019-06-28 Image providing system, image providing device, control method and program

Country Status (1)

Country Link
JP (1) JP7366606B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277760A (en) 2004-03-24 2005-10-06 Sony Corp Monitoring apparatus
JP2012023501A (en) 2010-07-13 2012-02-02 Canon Inc Imaging apparatus, imaging auxiliary system, imaging auxiliary method, image data analysis method, and program
JP2019022186A (en) 2017-07-21 2019-02-07 キヤノン株式会社 Image processing system, imaging apparatus, image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277760A (en) 2004-03-24 2005-10-06 Sony Corp Monitoring apparatus
JP2012023501A (en) 2010-07-13 2012-02-02 Canon Inc Imaging apparatus, imaging auxiliary system, imaging auxiliary method, image data analysis method, and program
JP2019022186A (en) 2017-07-21 2019-02-07 キヤノン株式会社 Image processing system, imaging apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2021010079A (en) 2021-01-28

Similar Documents

Publication Publication Date Title
US8665345B2 (en) Video summary including a feature of interest
US9013604B2 (en) Video summary including a particular person
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
US8275171B2 (en) Composition determining apparatus, composition determining method, and program
US20190289275A1 (en) Information processing apparatus and information processing method
JP2016119508A (en) Method, system and program
JP2014050022A (en) Image processing device, imaging device, and program
US20220116551A1 (en) Image providing system and method for controlling same
JP2007142896A (en) Spectator&#39;s picture offering system, photography camera controller, and program
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP7366606B2 (en) Image providing system, image providing device, control method and program
CN113302906B (en) Image processing apparatus, image processing method, and storage medium
US20220417598A1 (en) Image processing device, operation method of image processing device, and operation program of image processing device
WO2020017354A1 (en) Information processing device, information processing method, and program
JP2021016121A (en) Image provision system
JP7305461B2 (en) IMAGE PROVIDING SYSTEM, IMAGE PROVIDING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP2004363775A (en) Photographing system and method for supplying image distribution
JP7344711B2 (en) System, system control method, program
JP2021002825A (en) Image providing system, image providing device, and control method of the same
JP2006174124A (en) Video distributing and reproducing system, video distribution device, and video reproduction device
JP2021016122A (en) Image distribution system, control method for image distribution system, and program therefor
JP6336807B2 (en) Information processing apparatus and grouping method
JP2017046162A (en) Synthetic moving image creation system, synthetic moving image creation support system and synthetic moving image creation program
JP2004274735A (en) Imaging apparatus and image processing apparatus
JP7263758B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R151 Written notification of patent or utility model registration

Ref document number: 7366606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151