JP2022086371A - Projection control device and projection control method - Google Patents

Projection control device and projection control method Download PDF

Info

Publication number
JP2022086371A
JP2022086371A JP2020198327A JP2020198327A JP2022086371A JP 2022086371 A JP2022086371 A JP 2022086371A JP 2020198327 A JP2020198327 A JP 2020198327A JP 2020198327 A JP2020198327 A JP 2020198327A JP 2022086371 A JP2022086371 A JP 2022086371A
Authority
JP
Japan
Prior art keywords
image
projection
unit
shuttle
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020198327A
Other languages
Japanese (ja)
Inventor
和典 小澤
Kazunori Ozawa
康貴 在原
Yasutaka Arihara
洋 田之上
Hiroshi Tanoue
実 大山
Minoru Oyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020198327A priority Critical patent/JP2022086371A/en
Publication of JP2022086371A publication Critical patent/JP2022086371A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Projection Apparatus (AREA)

Abstract

To improve the visibility of moving objects in watching competitions.SOLUTION: A projection control device includes: a video acquisition unit that acquires game video obtained by shooting the state of a game on the court from an imaging device; an object detection unit that detects an object from the game video; a position detection unit that detects a position of the object on the court based on the game video and the object; a speed calculation unit that calculates speed of the object based on the position of the object; an image generation unit that generates a projection image including a movement trajectory of the object based on the position of the object and the speed of the object; and a projection control unit that controls a projection device so as to project the projection image on the court.SELECTED DRAWING: Figure 3

Description

本発明は、投影制御装置、および投影制御方法に関する。 The present invention relates to a projection control device and a projection control method.

従来、バドミントンなどの球技の観戦において、シャトルを見失わないようにする技術が知られている。例えば、特許文献1には、シャトルを発光させることにより、シャトルの視認性を向上させる技術が開示されている。 Conventionally, when watching a ball game such as badminton, a technique for not losing sight of the shuttle has been known. For example, Patent Document 1 discloses a technique for improving the visibility of a shuttle by causing the shuttle to emit light.

特開2001-87438号公報Japanese Unexamined Patent Publication No. 2001-87438

ところで、バドミントンは、一般的に普及したスポーツであり、プロスポーツとしても行われている。バドミントンのプロの放つスマッシュは、時速500kmにも達するため観客にとって肉眼での視認が困難となる。プロ選手によるバドミントンの試合観戦を楽しむために、試合中のシャトルの視認性を向上させる技術が望まれている。 By the way, badminton is a popular sport and is also used as a professional sport. The professional badminton smash reaches 500 km / h, making it difficult for the audience to see with the naked eye. In order to enjoy watching badminton games by professional players, a technique for improving the visibility of the shuttle during the game is desired.

本発明は、競技の観戦において移動する物体の視認性を向上させることのできる投射制御装置、および投射制御方法を提供することを目的とする。 An object of the present invention is to provide a projection control device and a projection control method capable of improving the visibility of a moving object in watching a competition.

本発明に係る投射制御装置は、撮像装置からコートにおける試合の様子を撮像した試合映像を取得する映像取得部と、前記試合映像からオブジェクトを検出する物体検出部と、前記試合映像と前記オブジェクトとに基づいて、前記コートにおける前記オブジェクトの位置を検出する位置検出部と、前記オブジェクトの位置に基づいて前記オブジェクトの速度を算出する速度算出部と、前記オブジェクトの位置と、前記オブジェクトの速度とに基づいて、前記オブジェクトの移動軌跡を含む投射画像を生成する画像生成部と、前記投射画像を前記コート上に投射するように投射装置を制御する投射制御部と、を備える。 The projection control device according to the present invention includes a video acquisition unit that acquires a game image of a game on a court from an image pickup device, an object detection unit that detects an object from the game video, and the game video and the object. Based on, a position detection unit that detects the position of the object on the court, a speed calculation unit that calculates the speed of the object based on the position of the object, the position of the object, and the speed of the object. Based on this, it includes an image generation unit that generates a projection image including a movement locus of the object, and a projection control unit that controls a projection device so that the projection image is projected onto the coat.

本発明に係る投射制御方法は、撮像装置からコートにおける試合の様子を撮像した試合映像を取得するステップと、前記試合映像からオブジェクトを検出するステップと、前記試合映像と前記オブジェクトとに基づいて、前記コートにおける前記オブジェクトの位置を検出するステップと、前記オブジェクトの位置に基づいて前記オブジェクトの速度を算出する速度算出部と、前記オブジェクトの位置と、前記オブジェクトの速度とに基づいて、前記オブジェクトの移動軌跡を含む投射画像を生成するステップと、前記投射画像を前記コート上に投射するように投射装置を制御するステップと、を含む。 The projection control method according to the present invention is based on a step of acquiring a game image of a game on a court from an image pickup device, a step of detecting an object from the game video, and the game video and the object. A step of detecting the position of the object on the court, a speed calculation unit for calculating the speed of the object based on the position of the object, the position of the object, and the speed of the object. It includes a step of generating a projection image including a movement locus, and a step of controlling a projection device to project the projection image onto the coat.

本発明によれば、競技の観戦において移動する物体の視認性を向上させることができる。 According to the present invention, it is possible to improve the visibility of a moving object when watching a competition.

図1は、第1実施形態に係る投射システムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of a projection system according to the first embodiment. 図2は、第1実施形態に係る投射システムの構成例を説明するための図である。FIG. 2 is a diagram for explaining a configuration example of the projection system according to the first embodiment. 図3は、第1実施形態に係る制御装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the control device according to the first embodiment. 図4は、第1実施形態に係る制御装置の処理の流れの一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the processing flow of the control device according to the first embodiment. 図5は、シャトルの移動軌跡を示す投射画像を生成する方法を説明するための図である。FIG. 5 is a diagram for explaining a method of generating a projected image showing the movement locus of the shuttle. 図6は、投射画像にシャトルの高さを反映させる方法を説明するための図である。FIG. 6 is a diagram for explaining a method of reflecting the height of the shuttle in the projected image. 図7は、投射画像を投射する方法を説明するための図である。FIG. 7 is a diagram for explaining a method of projecting a projected image. 図8は、投射画像を投射する方法を説明するための図である。FIG. 8 is a diagram for explaining a method of projecting a projected image. 図9は、第2実施形態に係る投射システムの処理を説明するための図である。FIG. 9 is a diagram for explaining the processing of the projection system according to the second embodiment. 図10は、第3実施形態に係る投射システムの構成例を説明するための図である。FIG. 10 is a diagram for explaining a configuration example of the projection system according to the third embodiment. 図11は、第3実施形態に係る制御装置の構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of the control device according to the third embodiment. 図12は、第3実施形態に係る制御装置の処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of the processing flow of the control device according to the third embodiment. 図13は、第3実施形態の変形例に係る制御装置の処理の流れの一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the processing flow of the control device according to the modified example of the third embodiment. 図14は、第4実施形態に係る制御装置の処理の流れの一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of the processing flow of the control device according to the fourth embodiment.

以下に、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下に説明する実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited to the embodiments described below.

[第1実施形態]
図1と、図2とを用いて、第1実施形態に係る投射システムの構成例について説明する。図1と、図2とは、第1実施形態に係る投射システムの構成例を説明するための図である。
[First Embodiment]
A configuration example of the projection system according to the first embodiment will be described with reference to FIGS. 1 and 2. 1 and 2 are diagrams for explaining a configuration example of the projection system according to the first embodiment.

図1と、図2とに示すように、投射システム10は、撮像装置12と、投射装置14と、制御装置16とを含む。本実施形態では、投射システム10は、バドミントンの試合の観戦におけるシャトルSの視認性を向上させる場合を例に説明する。この場合、コートC上には、選手P1と、選手P2と、シャトルSとを、含む。 As shown in FIGS. 1 and 2, the projection system 10 includes an image pickup device 12, a projection device 14, and a control device 16. In the present embodiment, the case where the projection system 10 improves the visibility of the shuttle S in watching a badminton game will be described as an example. In this case, the player P1, the player P2, and the shuttle S are included on the court C.

なお、試合として、バドミントンに限定されず、例えば、テニス、卓球、バレーボール、サッカー、および野球などの他の球技であってもよい。また、試合は、ゴルフなどの屋外でのみ行われるスポーツであってもよい。 The game is not limited to badminton, and may be other ball games such as tennis, table tennis, volleyball, soccer, and baseball. Further, the game may be a sport played only outdoors such as golf.

撮像装置12は、コートCの全体を撮像する。撮像装置12は、バドミントンの試合の様子を撮像する。撮像装置12は、例えば、ズーム機能と、パン機能と、チルト機能とを有する。撮像装置12は、例えば、コートCの上部に1台設けられている。撮像装置12は、複数台が設けられていてもよい。 The image pickup apparatus 12 takes an image of the entire coat C. The image pickup device 12 captures the state of the badminton game. The image pickup apparatus 12 has, for example, a zoom function, a pan function, and a tilt function. For example, one image pickup apparatus 12 is provided on the upper part of the coat C. A plurality of image pickup devices 12 may be provided.

投射装置14は、コートC上に投射画像を投射する。投射装置14は、シャトルSの軌跡に関する投射画像をコートC上に投射する。投射装置14は、例えば、コートCの周囲に複数台が設けられる。図1に示す例では、投射装置14の数は「8」であるが、これは本発明を限定するものではない。投射装置14の数は、「8」よりも多くてもよいし、少なくてもよい。図1に示す投射装置14を配置する場所は、例示であり、本発明を限定するものではない。投射装置14は、コートC上の各地点に投射画像を投射できるように配置されていればよい。 The projection device 14 projects a projection image on the coat C. The projection device 14 projects a projection image regarding the trajectory of the shuttle S onto the coat C. For example, a plurality of projection devices 14 are provided around the coat C. In the example shown in FIG. 1, the number of projection devices 14 is "8", but this is not a limitation of the present invention. The number of projection devices 14 may be more or less than "8". The place where the projection device 14 shown in FIG. 1 is arranged is an example and does not limit the present invention. The projection device 14 may be arranged so that a projected image can be projected at each point on the court C.

制御装置16は、撮像装置12と、投射装置14と、を制御する。制御装置16は、撮像装置12を制御して、バドミントンの試合を撮像させる。制御装置16は、バドミントンの試合を撮像した映像を撮像装置12から取得する。制御装置16は、投射装置14を制御して、投射画像をコートC上に投射させる。制御装置16は、撮像装置12から取得したバドミントンの試合の映像に応じた投射画像を生成し、生成した投射画像をコートC上に投射させる。 The control device 16 controls the image pickup device 12 and the projection device 14. The control device 16 controls the image pickup device 12 to image a badminton game. The control device 16 acquires an image of a badminton game from the image pickup device 12. The control device 16 controls the projection device 14 to project the projected image onto the coat C. The control device 16 generates a projected image corresponding to the badminton game image acquired from the image pickup device 12, and projects the generated projected image onto the court C.

具体的には、図2に示すように、制御装置16は、撮像装置12が撮像した映像から、バドミントンの試合で用いられるシャトルSを検出する。制御装置16は、シャトルSの位置と、移動速度と、高さとを検出する。制御装置16は、投射装置14を制御して、シャトルSが検出された位置に投射光Lを投射させることで、コートC上にシャトルSの移動軌跡を示す投射画像を描写させる。 Specifically, as shown in FIG. 2, the control device 16 detects the shuttle S used in the badminton game from the image captured by the image pickup device 12. The control device 16 detects the position of the shuttle S, the moving speed, and the height. The control device 16 controls the projection device 14 to project the projected light L at the position where the shuttle S is detected, thereby drawing a projected image showing the movement trajectory of the shuttle S on the coat C.

[制御装置の構成]
図3を用いて、第1実施形態に係る制御装置の構成について説明する。図3は、第1実施形態に係る制御装置の構成例を示すブロック図である。
[Control device configuration]
The configuration of the control device according to the first embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration example of the control device according to the first embodiment.

図3に示すように、制御装置16は、入力部20と、表示部22と、記憶部24と、通信部26と、制御部(投射制御装置)28と、を備える。 As shown in FIG. 3, the control device 16 includes an input unit 20, a display unit 22, a storage unit 24, a communication unit 26, and a control unit (projection control device) 28.

入力部20は、制御装置に対する各種の操作を受け付ける入力装置である。入力部20は、例えば、ボタン、スイッチ、タッチパネルなどで実現される。 The input unit 20 is an input device that receives various operations on the control device. The input unit 20 is realized by, for example, a button, a switch, a touch panel, or the like.

表示部22は、各種情報を表示する。表示部22は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイである。 The display unit 22 displays various information. The display unit 22 is a display including, for example, a liquid crystal display (LCD) or an organic EL (Electro-Luminescence) display.

記憶部24は、制御部28の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。 The storage unit 24 is a memory that stores various information such as calculation contents and programs of the control unit 28, and is, for example, a RAM (Random Access Memory), a main storage device such as a ROM (Read Only Memory), and an HDD (HDD). Includes at least one of external storage devices such as Hard Disk Drive).

通信部26は、制御装置16と、外部装置との間の通信を行う。通信部26は、例えば、制御装置16と、撮像装置12との間の通信を行う。通信部26は、例えば、制御装置16と、投射装置14との間の通信を行う。 The communication unit 26 communicates between the control device 16 and the external device. The communication unit 26 communicates between the control device 16 and the image pickup device 12, for example. The communication unit 26 communicates between the control device 16 and the projection device 14, for example.

制御部28は、投射システム10の各部の動作を制御する。制御部28は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部24に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部28は、本発明に係るプログラムを動作させるコンピュータである。制御部28は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部28は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。 The control unit 28 controls the operation of each unit of the projection system 10. The control unit 28 is realized by, for example, using a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like to execute a program stored in the storage unit 24 using a RAM or the like as a work area. The control unit 28 is a computer that operates the program according to the present invention. The control unit 28 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 28 may be realized by a combination of hardware and software.

制御部28は、映像取得部30と、物体検出部32と、位置検出部34と、速度検出部36と、高さ検出部38と、画像生成部40と、投射制御部42と、通信制御部44と、を備える。 The control unit 28 includes a video acquisition unit 30, an object detection unit 32, a position detection unit 34, a speed detection unit 36, a height detection unit 38, an image generation unit 40, a projection control unit 42, and communication control. A unit 44 is provided.

映像取得部30は、映像を取得する。映像取得部30は、例えば、撮像装置12が撮像した映像を、通信部26を介して取得する。映像取得部30は、例えば、撮像装置12が撮像したスポーツの試合の映像を取得する。映像取得部30は、例えば、バドミントンの試合を撮像した映像を撮像装置12から取得する。 The video acquisition unit 30 acquires video. The image acquisition unit 30 acquires, for example, the image captured by the image pickup device 12 via the communication unit 26. The image acquisition unit 30 acquires, for example, an image of a sports game captured by the image pickup device 12. The image acquisition unit 30 acquires, for example, an image of a badminton game from the image pickup device 12.

物体検出部32は、映像取得部30が取得した映像からオブジェクトを検出する。物体検出部32は、例えば、記憶部24に記憶された図示しない辞書データを用いて、映像取得部30が取得した映像からオブジェクトを検出する。本実施形態では、物体検出部32は、例えば、オブジェクトとして、バドミントンで使用されるシャトルSを検出する。物体検出部32は、例えば、バドミントンの試合を撮像した映像から選手を検出する。 The object detection unit 32 detects an object from the image acquired by the image acquisition unit 30. The object detection unit 32 detects an object from the video acquired by the video acquisition unit 30, for example, using dictionary data (not shown) stored in the storage unit 24. In the present embodiment, the object detection unit 32 detects, for example, the shuttle S used in badminton as an object. The object detection unit 32 detects a player from, for example, an image of a badminton game.

位置検出部34は、映像取得部30が取得した映像に含まれるオブジェクトの位置を検出する。位置検出部34は、映像取得部30が取得した映像に基づいて、映像取得部30が取得した映像に含まれるオブジェクトの位置を検出する。 The position detection unit 34 detects the position of the object included in the image acquired by the image acquisition unit 30. The position detection unit 34 detects the position of an object included in the image acquired by the image acquisition unit 30 based on the image acquired by the image acquisition unit 30.

速度検出部36は、映像取得部30が取得した映像に含まれるオブジェクトの速度を検出する。速度検出部36は、映像取得部30が取得した映像に基づいて、映像取得部30が取得した映像に含まれるオブジェクトの速度を検出する。 The speed detection unit 36 detects the speed of an object included in the video acquired by the video acquisition unit 30. The speed detection unit 36 detects the speed of an object included in the video acquired by the video acquisition unit 30 based on the video acquired by the video acquisition unit 30.

高さ検出部38は、映像取得部30が取得した映像に含まれるオブジェクトの地面(床面)からの高さを検出する。高さ検出部38は、映像取得部30が取得した映像に基づいて、映像取得部30が取得した映像に含まれるオブジェクトの地面からの高さを検出する。 The height detection unit 38 detects the height of the object included in the image acquired by the image acquisition unit 30 from the ground (floor surface). The height detection unit 38 detects the height of the object included in the image acquired by the image acquisition unit 30 from the ground based on the image acquired by the image acquisition unit 30.

画像生成部40は、投射画像を生成する。画像生成部40は、例えば、位置検出部34と、速度検出部36と、高さ検出部38とのそれぞれの算出結果に基づいて、投射画像を生成する。 The image generation unit 40 generates a projected image. The image generation unit 40 generates a projection image based on the calculation results of the position detection unit 34, the speed detection unit 36, and the height detection unit 38, for example.

投射制御部42は、投射装置14を制御して、投射画像を投射させる。投射制御部42は、投射装置14を制御して、画像生成部40が生成した投射画像を投射させる。 The projection control unit 42 controls the projection device 14 to project a projected image. The projection control unit 42 controls the projection device 14 to project the projection image generated by the image generation unit 40.

通信制御部44は、通信部26を制御して、制御装置16と、外部装置との間の通信を制御する。通信制御部44は、通信部26を制御して、制御装置16と、撮像装置12との間の通信を制御する。通信制御部44は、通信部26を制御して、制御装置16と、投射装置14との間の通信を制御する。 The communication control unit 44 controls the communication unit 26 to control the communication between the control device 16 and the external device. The communication control unit 44 controls the communication unit 26 to control the communication between the control device 16 and the image pickup device 12. The communication control unit 44 controls the communication unit 26 to control the communication between the control device 16 and the projection device 14.

[処理内容]
図4を用いて、第1実施形態に係る制御装置の処理の流れについて説明する。図4は、第1実施形態に係る制御装置の処理の流れの一例を示すフローチャートである。
[Processing content]
A flow of processing of the control device according to the first embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing an example of the processing flow of the control device according to the first embodiment.

まず、制御部28は、映像を取得する(ステップS10)。具体的には、映像取得部30は、例えば、撮像装置12が撮像した図1に示すようなバドミントンの試合の映像を、撮像装置12から取得する。そして、ステップS12に進む。 First, the control unit 28 acquires an image (step S10). Specifically, the image acquisition unit 30 acquires, for example, an image of a badminton game as shown in FIG. 1 captured by the image pickup device 12 from the image pickup device 12. Then, the process proceeds to step S12.

制御部28は、シャトルSを検出する(ステップS12)。具体的には、物体検出部32は、例えば、映像取得部30が取得した映像に対し、記憶部24に記憶された図示しない辞書データを用いて物体認識処理を行い、シャトルSを検出する。そして、ステップS14に進む。 The control unit 28 detects the shuttle S (step S12). Specifically, the object detection unit 32 performs object recognition processing on the video acquired by the video acquisition unit 30, using dictionary data (not shown) stored in the storage unit 24, and detects the shuttle S. Then, the process proceeds to step S14.

制御部28は、シャトルSの位置を検出する(ステップS14)。具体的には、位置検出部34は、例えば、映像取得部30が取得したコートCの映像における、物体検出部32が検出したシャトルSの位置を検出する。そして、ステップS16に進む。 The control unit 28 detects the position of the shuttle S (step S14). Specifically, the position detection unit 34 detects the position of the shuttle S detected by the object detection unit 32 in the image of the coat C acquired by the image acquisition unit 30, for example. Then, the process proceeds to step S16.

制御部28は、シャトルSの速度を検出する(ステップS16)。具体的には、速度検出部36は、例えば、映像取得部30が取得した映像のフレームごとに位置検出部34が検出したシャトルSの位置に基づいて、シャトルSの移動距離を算出することで、シャトルSの速度を検出する。そして、ステップS18に進む。 The control unit 28 detects the speed of the shuttle S (step S16). Specifically, the speed detection unit 36 calculates, for example, the moving distance of the shuttle S based on the position of the shuttle S detected by the position detection unit 34 for each frame of the image acquired by the image acquisition unit 30. , Detects the speed of the shuttle S. Then, the process proceeds to step S18.

制御部28は、シャトルSの地面からの高さを検出する(ステップS18)。具体的には、高さ検出部38は、例えば、映像取得部30が取得したコートC上のネットNの高さに基づいて、シャトルSの地面からの高さを検出する。より具体的には、高さ検出部38は、例えば、映像取得部30が取得した映像における高さが一定であるネットNと、シャトルSの映像における大きさとを比較することで、シャトルSの高さを検出する。そして、ステップS20に進む。 The control unit 28 detects the height of the shuttle S from the ground (step S18). Specifically, the height detection unit 38 detects the height of the shuttle S from the ground based on, for example, the height of the net N on the court C acquired by the image acquisition unit 30. More specifically, the height detection unit 38 compares, for example, the net N in which the height in the image acquired by the image acquisition unit 30 is constant with the size in the image of the shuttle S, so that the height detection unit 38 of the shuttle S can be used. Detect height. Then, the process proceeds to step S20.

制御部28は、投射画像を生成する(ステップS20)。具体的には、画像生成部40は、例えば、位置検出部34が検出した位置と、速度検出部36が検出したシャトルSの速度とに基づいて、シャトルSの移動軌跡を示す投射画像を生成する。画像生成部40は、例えば、シャトルSの軌跡を示す投射画像に、高さ検出部38が検出したシャトルSの高さを反映させてもよい。 The control unit 28 generates a projected image (step S20). Specifically, the image generation unit 40 generates a projection image showing the movement trajectory of the shuttle S, for example, based on the position detected by the position detection unit 34 and the speed of the shuttle S detected by the speed detection unit 36. do. For example, the image generation unit 40 may reflect the height of the shuttle S detected by the height detection unit 38 in the projected image showing the trajectory of the shuttle S.

図5と、図6とを用いて、投射画像を生成する方法を説明する。図5は、シャトルSの移動軌跡を示す投射画像を生成する方法を説明するための図である。図6は、投射画像にシャトルSの高さを反映させる方法を説明するための図である。 A method of generating a projected image will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram for explaining a method of generating a projected image showing the movement locus of the shuttle S. FIG. 6 is a diagram for explaining a method of reflecting the height of the shuttle S in the projected image.

図5に示すように、地点52に位置していたシャトルSが、t秒後に地点54に移動したとする。この場合、地点52から地点54までのシャトルSの移動速度がv[m/s]である場合、移動軌跡tr1は、vt[m]となる。画像生成部40は、コートC上の各地点においてシャトルSの移動軌跡を示す投射画像を生成することで、例えば、選手P1がシャトルSを打ち返してから選手P2のコート上に到達するまでの投射画像を生成する。投射制御部42は、投射装置14を制御して、地点52から地点54に渡って投射光Lを投射させることで、コートC上に移動軌跡tr1を示す投射画像を描写させる。 As shown in FIG. 5, it is assumed that the shuttle S located at the point 52 moves to the point 54 after t seconds. In this case, when the moving speed of the shuttle S from the point 52 to the point 54 is v [m / s], the moving locus tr1 is vt [m]. The image generation unit 40 generates a projection image showing the movement trajectory of the shuttle S at each point on the court C, so that, for example, the projection from the time when the player P1 hits the shuttle S back to the time when the player P2 reaches the court. Generate an image. The projection control unit 42 controls the projection device 14 to project the projection light L from the point 52 to the point 54, thereby drawing a projection image showing the movement locus tr1 on the coat C.

図6に示すように、本実施形態では、シャトルSの高さはネットNの高さに基づいて、地面からの高さに応じてエリアAR1と、エリアAR2と、エリアAR3との3つのエリアに区分けされる。ネットNの高さは、例えば、h=1.55[m]である。 As shown in FIG. 6, in the present embodiment, the height of the shuttle S is based on the height of the net N, and has three areas of area AR1, area AR2, and area AR3 according to the height from the ground. It is divided into. The height of the net N is, for example, h = 1.55 [m].

エリアAR1は、例えば、地面からの高さが0[m]以上0.725[m]未満の範囲である。すなわち、エリアAR1は、地面からの高さが0[m]以上ネットNの半分の高さ未満の範囲である。エリアAR2は、例えば、地面からの高さが0.725[m]以上2.275[m]未満の範囲である。すなわち、エリアAR2は、地面からの高さがネットNの半分の高さ以上ネットNの1.5倍までの高さ未満の範囲である。エリアAR3は、例えば、地面からの高さが2.275[m]以上の範囲である。すなわち、エリアAR3は、地面からの高さがネットNの1.5倍以上の高さの範囲である。 Area AR1 is, for example, a range in which the height from the ground is 0 [m] or more and less than 0.725 [m]. That is, the area AR1 is in a range where the height from the ground is 0 [m] or more and less than half the height of the net N. Area AR2 is, for example, a range in which the height from the ground is 0.725 [m] or more and less than 2.275 [m]. That is, the area AR2 is in a range in which the height from the ground is at least half the height of the net N and less than 1.5 times the height of the net N. Area AR3 is, for example, in a range where the height from the ground is 2.275 [m] or more. That is, the area AR3 is in a range where the height from the ground is 1.5 times or more the height of the net N.

画像生成部40は、シャトルSの地面からの高さがエリアAR1の範囲内である場合には、例えば、赤色の投射画像を生成する。画像生成部40は、シャトルSの地面からの高さがエリアAR2の範囲内である場合には、例えば、緑色の投射画像を生成する。画像生成部40は、シャトルSの地面からの高さがエリアAR3の範囲内である場合には、例えば、青色の投射画像を生成する。 When the height of the shuttle S from the ground is within the range of the area AR1, the image generation unit 40 generates, for example, a red projected image. When the height of the shuttle S from the ground is within the range of the area AR2, the image generation unit 40 generates, for example, a green projected image. When the height of the shuttle S from the ground is within the range of the area AR3, the image generation unit 40 generates, for example, a blue projection image.

図4に戻る。ステップS20の後、制御部28は、投射画像を投射する(ステップS22)。具体的には、投射制御部42は、投射装置14を制御して、ステップS20で生成された投射画像をコートC上に投射させる。 Return to FIG. After step S20, the control unit 28 projects a projected image (step S22). Specifically, the projection control unit 42 controls the projection device 14 to project the projection image generated in step S20 onto the coat C.

図7と、図8とを用いて、投射画像を投射する方法について説明する。図7と、図8とは、投射画像を投射する方法を説明するための図である。 A method of projecting a projected image will be described with reference to FIGS. 7 and 8. 7 and 8 are diagrams for explaining a method of projecting a projected image.

図7は、バドミントンのコートCにおいて、選手P1と、選手P2とが試合をしている様子を示している。例えば、選手P1が、シャトルSを地点56から地点58まで打ち返したとする。この場合、画像生成部40は、地点56から地点58の範囲に投射するための投射画像IM1を生成する。画像生成部40は、例えば、全体にわたって同じ色で投射画像IM1を生成する。投射制御部42は、投射装置14を制御して、地点56から地点58までのシャトルSの移動軌跡を示す投射画像IM1を、コートC上に投射する。投射画像IM1は、例えば、流星のように尾を引く画像である。すなわち、投射画像IM1は、シャトルSの打点の位置から到達点に向かって徐々に幅が太くなる画像である。投射画像IM1は、バドミントンの試合の観客、およびバドミントンの試合をテレビで視聴している視聴者に視認可能な画像である。 FIG. 7 shows how player P1 and player P2 are playing a match on court C of badminton. For example, suppose player P1 hits Shuttle S back from point 56 to point 58. In this case, the image generation unit 40 generates a projection image IM1 for projecting from the point 56 to the range of the point 58. The image generation unit 40, for example, generates a projected image IM1 with the same color throughout. The projection control unit 42 controls the projection device 14 to project a projection image IM1 showing the movement locus of the shuttle S from the point 56 to the point 58 on the coat C. The projected image IM1 is, for example, an image that has a tail like a meteor. That is, the projected image IM1 is an image in which the width gradually increases from the position of the hitting point of the shuttle S toward the reaching point. The projected image IM1 is an image visible to the audience of the badminton game and the viewer watching the badminton game on television.

図8に示すように、画像生成部40は、シャトルSの高さに応じて色を変化させた投射画像IM1Aを生成してもよい。投射画像IM1Aは、領域R1と、領域R2と、領域R3とを有する。領域R1と、領域R2と、領域R3において、シャトルSの地面からの高さは異なる。そのため、領域R1と、領域R2と、領域R3とは、それぞれ、色が異なる。例えば、領域R1は青色、領域R2は緑色、領域R3は赤色である。投射制御部42は、投射装置14を制御して、領域R1と、領域R2と、領域R3とのそれぞれの領域で色の異なる投射画像IM1Aを、コートC上に投射する。 As shown in FIG. 8, the image generation unit 40 may generate a projected image IM1A whose color is changed according to the height of the shuttle S. The projected image IM1A has a region R1, a region R2, and a region R3. The height of the shuttle S from the ground is different in the area R1, the area R2, and the area R3. Therefore, the colors of the region R1, the region R2, and the region R3 are different from each other. For example, the region R1 is blue, the region R2 is green, and the region R3 is red. The projection control unit 42 controls the projection device 14 to project the projection image IM1A having different colors in the regions R1, the region R2, and the region R3 on the coat C.

図4に戻る。ステップS22の後、制御部28は、試合は継続しているか否かを判定する(ステップS24)。例えば、物体検出部32は、選手P1と、選手P2との間で、シャトルSの移動があることを演出した場合に、試合は継続していると判定する。試合が継続していると判定された場合(ステップS24;Yes)、ステップS10に進む。試合が継続していると判定されなかった場合(ステップS24;No)、図4の処理を終了する。 Return to FIG. After step S22, the control unit 28 determines whether or not the match is continuing (step S24). For example, the object detection unit 32 determines that the match is continuing when the movement of the shuttle S is produced between the player P1 and the player P2. If it is determined that the match is continuing (step S24; Yes), the process proceeds to step S10. If it is not determined that the match is continuing (step S24; No), the process of FIG. 4 ends.

上述のとおり、第1実施形態は、バドミントンの試合において、シャトルSの移動軌跡を示す投射画像を、コートC上に投射する。第1実施形態は、バドミントンの試合会場で試合を観戦している観客、およびテレビなどで試合を観戦している視聴者は、シャトルSの位置及びシャトルSの軌道を把握することができる。第1実施形態は、バドミントンの試合の視認性を向上させることができるので、ユーザがバドミントンの試合観戦を楽しむことができる。 As described above, in the first embodiment, in the badminton game, a projected image showing the movement trajectory of the shuttle S is projected on the court C. In the first embodiment, a spectator watching a game at a badminton game venue and a viewer watching a game on a television or the like can grasp the position of the shuttle S and the trajectory of the shuttle S. In the first embodiment, the visibility of the badminton game can be improved, so that the user can enjoy watching the badminton game.

[第2実施形態]
図9を用いて、第2実施形態に係る投射システムの処理について説明する。図9は、第2実施形態に係る投射システムの処理を説明するための図である。なお、第2実施形態に係る投射システム10の構成は、図1から図3に示す投射システム10の構成と同一なので、説明を省略する。
[Second Embodiment]
The processing of the projection system according to the second embodiment will be described with reference to FIG. 9. FIG. 9 is a diagram for explaining the processing of the projection system according to the second embodiment. Since the configuration of the projection system 10 according to the second embodiment is the same as the configuration of the projection system 10 shown in FIGS. 1 to 3, the description thereof will be omitted.

第2実施形態では、制御装置16は、投射装置14を制御して、現在のショットと、その前のショットとの2本の投射画像をコートC上に投射する。 In the second embodiment, the control device 16 controls the projection device 14 to project two projection images, the current shot and the previous shot, onto the coat C.

図9に示すように、例えば、選手P1がシャトルSを打ち、そのシャトルSを選手P2が打ち返したとする。この場合、画像生成部40は、選手P1が打ったシャトルSの移動軌道に基づいて、投射画像IM1を生成する。画像生成部40は、選手P2が打ち返したシャトルSの移動軌道に基づいて、投射画像IM2を生成する。 As shown in FIG. 9, for example, it is assumed that the player P1 hits the shuttle S and the player P2 hits the shuttle S back. In this case, the image generation unit 40 generates the projected image IM1 based on the moving trajectory of the shuttle S struck by the player P1. The image generation unit 40 generates the projected image IM2 based on the moving trajectory of the shuttle S hit back by the player P2.

投射制御部42は、投射装置14を制御して、投射画像IM1をコートC上に投射する。投射制御部42は、投射画像IM1がコートC上に投射された状態で、投射装置14を制御して、投射画像IM2をコートC上に投射する。すなわち、投射制御部42は、投射画像IM1と、投射画像IM2との2つの投射画像をコートC上に投射する。 The projection control unit 42 controls the projection device 14 to project the projection image IM1 onto the coat C. The projection control unit 42 controls the projection device 14 in a state where the projection image IM1 is projected onto the coat C to project the projection image IM2 onto the coat C. That is, the projection control unit 42 projects two projection images, the projection image IM1 and the projection image IM2, on the coat C.

投射画像IM1と、投射画像IM2とは、それぞれ、流星のように尾を引く画像である。すなわち、投射画像IM1と、投射画像IM2とは、シャトルSの打点の位置から到達点に向かって徐々に幅が太くなる画像である。これにより、投射画像IM1と、投射画像IM2とは、シャトルSの進行方向を示す画像となっているので、選手P1と、選手P2とのいずれの選手が打ったシャトルSの移動軌跡を示す画像であるかを把握可能な画像となっている。 The projected image IM1 and the projected image IM2 are images that have a tail like a meteor, respectively. That is, the projected image IM1 and the projected image IM2 are images in which the width gradually increases from the position of the hitting point of the shuttle S toward the reaching point. As a result, since the projected image IM1 and the projected image IM2 are images showing the traveling direction of the shuttle S, an image showing the movement locus of the shuttle S struck by either the player P1 or the player P2. It is an image that can be grasped.

上述のとおり、第2実施形態は、バドミントンの試合において、現在のショットのシャトルSの移動軌跡を示す投射画像と、その前のショットのシャトルSの移動軌跡を示す投射画像との2つの投射画像を、コートC上に投射する。これにより、第2実施形態は、選手P1と、選手P2とのラリーの様子を示す投射画像を投射することができるので、バドミントンの試合の視認性をより向上させることができる。 As described above, in the second embodiment, in a badminton game, two projection images, a projection image showing the movement locus of the shuttle S of the current shot and a projection image showing the movement locus of the shuttle S of the previous shot. Is projected onto the coat C. Thereby, in the second embodiment, since the projection image showing the state of the rally between the player P1 and the player P2 can be projected, the visibility of the badminton game can be further improved.

[第3実施形態]
図10を用いて、第3実施形態に係る投射システムの構成例について説明する。図10は、第3実施形態に係る投射システムの構成例を説明するための図である。
[Third Embodiment]
A configuration example of the projection system according to the third embodiment will be described with reference to FIG. 10. FIG. 10 is a diagram for explaining a configuration example of the projection system according to the third embodiment.

図10に示すように、第3実施形態に係る投射システム10Aは、撮像装置12と、投射装置14と、制御装置16Aとを含む。 As shown in FIG. 10, the projection system 10A according to the third embodiment includes an image pickup device 12, a projection device 14, and a control device 16A.

第3実施形態では、制御装置16Aは、選手P1または選手P2と、シャトルSとの位置関係を判定する。制御装置16Aは、投射装置14を制御して投射画像をコートC上に投射する際に、複数の投射装置14のうち、投射光Lが選手P1および選手P2に遮られることによって投射画像が欠けることのないように投射画像を投射できる投射装置14を選択する。つまり、制御装置16Aは、選手P1および選手P2に邪魔にならないように投射画像を投射できる投射装置14を選択する。制御装置16Aは、選択された投射装置14を制御して、コートC上に投射画像を投射する。 In the third embodiment, the control device 16A determines the positional relationship between the athlete P1 or the athlete P2 and the shuttle S. When the control device 16A controls the projection device 14 to project the projection image onto the court C, the projection image is lacking because the projection light L is blocked by the athlete P1 and the athlete P2 among the plurality of projection devices 14. A projection device 14 capable of projecting a projection image is selected so as not to occur. That is, the control device 16A selects a projection device 14 capable of projecting a projection image so as not to interfere with the athlete P1 and the athlete P2. The control device 16A controls the selected projection device 14 to project a projection image on the coat C.

[制御装置]
図11を用いて、第3実施形態に係る制御装置の構成について説明する。図11は、第3実施形態に係る制御装置の構成例を示すブロック図である。
[Control device]
The configuration of the control device according to the third embodiment will be described with reference to FIG. FIG. 11 is a block diagram showing a configuration example of the control device according to the third embodiment.

図11に示すように、制御装置16Aは、制御部28Aが投射装置選択部46を備える点で、図3に示す制御装置16とは異なる。 As shown in FIG. 11, the control device 16A is different from the control device 16 shown in FIG. 3 in that the control unit 28A includes the projection device selection unit 46.

物体検出部32aは、選手P1と、選手P2と、シャトルSとを検出する。物体検出部32aは、例えば、記憶部24に記憶された辞書データを用いて、選手P1と、選手P2と、シャトルSとを検出する。物体検出部32aは、検出された選手P1と、選手P2と、シャトルSとの位置関係を判定する。物体検出部32aは、検出された選手P1と、選手P2と、シャトルSと、投射装置14との位置関係を判定する。 The object detection unit 32a detects the athlete P1, the athlete P2, and the shuttle S. The object detection unit 32a detects the player P1, the player P2, and the shuttle S by using, for example, the dictionary data stored in the storage unit 24. The object detection unit 32a determines the positional relationship between the detected athlete P1, the athlete P2, and the shuttle S. The object detection unit 32a determines the positional relationship between the detected athlete P1, the athlete P2, the shuttle S, and the projection device 14.

投射装置選択部46は、複数の投射装置14のうち、投射画像を投射するために用いる投射装置14を選択する。投射装置選択部46は、例えば、物体検出部32aによる選手P1と、選手P2と、シャトルSと、投射装置14との位置関係の判定結果に基づいて、投射画像を投射するために用いる投射装置14を選択する。 The projection device selection unit 46 selects the projection device 14 used for projecting the projected image from the plurality of projection devices 14. The projection device selection unit 46 is, for example, a projection device used to project a projection image based on the determination result of the positional relationship between the athlete P1, the athlete P2, the shuttle S, and the projection device 14 by the object detection unit 32a. Select 14.

[処理内容]
図12を用いて、第3実施形態に係る制御装置の処理内容について説明する。図12は、第3実施形態に係る制御装置の処理の流れの一例を示すフローチャートである。
[Processing content]
The processing content of the control device according to the third embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing an example of the processing flow of the control device according to the third embodiment.

ステップS30からステップS40の処理は、ステップS10からステップS20の処理と同一なので、説明を省略する。 Since the processing from step S30 to step S40 is the same as the processing from step S10 to step S20, the description thereof will be omitted.

ステップS40の後、制御部28Aは、選手P1と、選手P2と、シャトルSとの位置関係を判定する(ステップS42)。具体的には、物体検出部32aは、映像取得部30が取得した映像に対して、記憶部24に記憶された図示しない辞書データを用いて物体認識処理を行うことで、選手P1と、選手P2と、シャトルSとの位置関係を判定する。そして、ステップS44に進む。 After step S40, the control unit 28A determines the positional relationship between the player P1, the player P2, and the shuttle S (step S42). Specifically, the object detection unit 32a performs object recognition processing on the image acquired by the image acquisition unit 30 using dictionary data (not shown) stored in the storage unit 24, whereby the player P1 and the player The positional relationship between P2 and the shuttle S is determined. Then, the process proceeds to step S44.

制御部28Aは、投射装置14を選択する(ステップS44)。具体的には、投射装置選択部46は、複数の投射装置14のうち、物体検出部32aが判定した選手P1と、選手P2と、シャトルSとの位置関係に基づいて、選手P1および選手P2の邪魔にならないように投射画像を投射することのできる投射装置14を選択する。そして、ステップS46に進む。 The control unit 28A selects the projection device 14 (step S44). Specifically, the projection device selection unit 46 has the player P1 and the player P2 based on the positional relationship between the player P1 determined by the object detection unit 32a, the player P2, and the shuttle S among the plurality of projection devices 14. Select a projection device 14 capable of projecting a projection image so as not to interfere with the above. Then, the process proceeds to step S46.

ステップS46と、ステップS48との処理は、図4に示すステップS22と、ステップS24との処理と同一なので、説明を省略する。 Since the processing of step S46 and step S48 is the same as the processing of step S22 and step S24 shown in FIG. 4, the description thereof will be omitted.

上述のとおり、第3実施形態は、選手P1と、選手P2と、シャトルSとの位置関係に応じて、投射装置14を切り替えて、投射画像を投射する。これにより、第3実施形態は、選手P1と、選手P2との邪魔にならないように、適切に投射画像をコート上に投射することができる。 As described above, in the third embodiment, the projection device 14 is switched according to the positional relationship between the player P1, the player P2, and the shuttle S to project a projected image. Thereby, in the third embodiment, the projected image can be appropriately projected on the court so as not to interfere with the player P1 and the player P2.

[第3実施形態の変形例]
次に、第3実施形態の変形例について説明する。
[Modified example of the third embodiment]
Next, a modification of the third embodiment will be described.

第3実施形態の変形例では、選手P1と、選手P2と、シャトルSとの位置関係に応じて、選手P1と、選手P2邪魔にならないように投射画像を投射するタイミングを制御して、投射画像を投射する点で、第3実施形態とは異なる。第3実施形態の変形例に係る制御装置の構成は、図11に示す制御装置16Aの構成と同一なので説明を省略する。 In the modified example of the third embodiment, the timing of projecting the projected image is controlled so as not to interfere with the player P1 and the player P2 according to the positional relationship between the player P1 and the player P2 and the shuttle S. It differs from the third embodiment in that an image is projected. Since the configuration of the control device according to the modified example of the third embodiment is the same as the configuration of the control device 16A shown in FIG. 11, the description thereof will be omitted.

[処理内容]
図13を用いて、第3実施形態の変形例に係る制御装置の処理内容について説明する。図13は、第3実施形態の変形例に係る制御装置の処理の流れの一例を示すフローチャートである。
[Processing content]
With reference to FIG. 13, the processing content of the control device according to the modified example of the third embodiment will be described. FIG. 13 is a flowchart showing an example of the processing flow of the control device according to the modified example of the third embodiment.

ステップS50からステップS62の処理は、図12に示すステップS30からステップS42の処理と同一なので、説明を省略する。 Since the processing from step S50 to step S62 is the same as the processing from step S30 to step S42 shown in FIG. 12, the description thereof will be omitted.

ステップS62の後、投射画像を投射するタイミングを調整する(ステップS64)。具体的には、投射制御部42は、物体検出部32aが判定した選手P1と、選手P2と、シャトルSとの位置関係に基づいて、選手P1および選手P2の邪魔にならないように投射画像を投射するタイミングを調整する。例えば、投射制御部42は、投射画像を投射すると選手P1および選手P2の邪魔になると判定した場合には、タイミングを遅らせて投射画像を投射するように、投射装置14を制御する。そして、ステップS66に進む。 After step S62, the timing of projecting the projected image is adjusted (step S64). Specifically, the projection control unit 42 displays a projection image so as not to interfere with the player P1 and the player P2 based on the positional relationship between the player P1 determined by the object detection unit 32a, the player P2, and the shuttle S. Adjust the projection timing. For example, the projection control unit 42 controls the projection device 14 so as to delay the timing and project the projection image when it is determined that the projection of the projection image interferes with the athlete P1 and the athlete P2. Then, the process proceeds to step S66.

ステップS66と、ステップS68との処理は、図4に示すステップS22と、ステップS24との処理と同一なので、説明を省略する。 Since the processing of step S66 and step S68 is the same as the processing of step S22 and step S24 shown in FIG. 4, the description thereof will be omitted.

上述のとおり、第3実施形態の変形例は、選手P1と、選手P2と、シャトルSとの位置関係に応じて、投射画像を投射するタイミングを調整する。これにより、第3実施形態の変形例は、選手P1と、選手P2との邪魔にならないように、適切に投射画像をコート上に投射することができる。 As described above, in the modified example of the third embodiment, the timing of projecting the projected image is adjusted according to the positional relationship between the player P1, the player P2, and the shuttle S. Thereby, in the modified example of the third embodiment, the projected image can be appropriately projected on the court so as not to interfere with the player P1 and the player P2.

[第4実施形態]
次に、第4実施形態について説明する。
[Fourth Embodiment]
Next, the fourth embodiment will be described.

第4実施形態は、選手P1または選手P2がショットでポイントを取ったか否かを判定する。第4実施形態は、選手P1または選手P2がポイントを取ったと判定した場合には、そのショットについての投射画像を強調して生成し、コートC上に投射する。第4実施形態に係る制御装置の構成は、図3に示す制御装置16の構成と同一なので説明を省略する。 The fourth embodiment determines whether or not the player P1 or the player P2 has scored a point on the shot. In the fourth embodiment, when it is determined that the player P1 or the player P2 has scored a point, the projected image of the shot is emphasized and generated, and the projected image is projected on the court C. Since the configuration of the control device according to the fourth embodiment is the same as the configuration of the control device 16 shown in FIG. 3, the description thereof will be omitted.

[処理内容]
図14を用いて、第4実施形態に係る制御装置の処理内容について説明する。図14は、第4実施形態に係る制御装置の処理の流れの一例を示すフローチャートである。
[Processing content]
The processing content of the control device according to the fourth embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing an example of the processing flow of the control device according to the fourth embodiment.

ステップS70からステップS78の処理は、それぞれ、図4に示すステップS10からステップS18の処理と同一なので、説明を省略する。 Since the processes of steps S70 to S78 are the same as the processes of steps S10 to S18 shown in FIG. 4, the description thereof will be omitted.

ステップS78の後、制御部28は、ポイントが入ったか否かを判定する(ステップS80)。例えば、選手P1または選手P2がシャトルSを打った後、高さ検出部38によりシャトルSの高さが地面と同じであると判定された場合に、ポイントが入ったと判定する。また、例えば、物体検出部32が、シャトルSがネットNに引っかかったことを検出した場合に、ポイントが入ったと判定する。ポイントが入っていないと判定された場合(ステップS80;No)、ステップS82に進む。ポイントが入ったと判定された場合(ステップS80;Yes)、ステップS86に進む。 After step S78, the control unit 28 determines whether or not a point has been entered (step S80). For example, after the player P1 or the player P2 hits the shuttle S, when the height detection unit 38 determines that the height of the shuttle S is the same as the ground, it is determined that a point has been entered. Further, for example, when the object detection unit 32 detects that the shuttle S is caught in the net N, it determines that the point has been entered. If it is determined that no points have been entered (step S80; No), the process proceeds to step S82. If it is determined that a point has been entered (step S80; Yes), the process proceeds to step S86.

ステップS82と、ステップS84との処理は、それぞれ、図4に示すステップS22と、ステップS24との処理と同一なので、説明を省略する。 Since the processing of step S82 and step S84 is the same as the processing of step S22 and step S24 shown in FIG. 4, respectively, the description thereof will be omitted.

ステップS80でYesと判定された場合、制御部28は、強調した投射画像を生成する(ステップS86)。具体的には、画像生成部40は、ポイントが入っていない場合の投射画像よりも強調した投射画像を生成する。画像生成部40は、例えば、投射画像にエフェクトをかけるエフェクト処理を行う。画像生成部40は、例えば、エフェクト処理を行い、複数色を有する投射画像を生成したり、時間の経過に応じて色が変化する投射画像を投射したり、点滅したりする投射画像を生成したりする。画像生成部40は、その他のエフェクトをかけた投射画像を生成してもよい。そして、ステップS88に進む。 If it is determined to be Yes in step S80, the control unit 28 generates an emphasized projected image (step S86). Specifically, the image generation unit 40 generates a projection image that is emphasized more than the projection image when no point is included. The image generation unit 40 performs, for example, an effect process for applying an effect to a projected image. The image generation unit 40 performs effect processing, for example, to generate a projection image having a plurality of colors, to project a projection image whose color changes with the passage of time, or to generate a projection image that blinks. Or something. The image generation unit 40 may generate a projected image to which other effects are applied. Then, the process proceeds to step S88.

制御部28は、強調した投射画像を投射する(ステップS86)。具体的には、投射制御部42は、投射装置14を制御して、ステップS86で生成されたエフェクトがかけられた投射画像をコートC上に投射する。そして、ステップS90に進む。 The control unit 28 projects the emphasized projection image (step S86). Specifically, the projection control unit 42 controls the projection device 14 to project the projection image to which the effect generated in step S86 is applied on the coat C. Then, the process proceeds to step S90.

ステップS90の処理は、図4に示すステップS24の処理と同一なので、説明を省略する。 Since the process of step S90 is the same as the process of step S24 shown in FIG. 4, the description thereof will be omitted.

上述のとおり、第4実施形態は、バドミントンの試合において、ポイントが入った場合に、ポイントを入れたショットのシャトルSの移動軌跡を強調した投射画像を投射する。
これにより、第4実施形態は、バドミントンの試合会場で試合を観戦している観客、およびテレビなどで試合を観戦している視聴者は、スマッシュなどの速いショットでポイントが入ったことを把握することができる。その結果、第4実施形態は、バドミントンの試合の視認性を向上させることができるので、ユーザがバドミントンの試合観戦をより楽しむことができる。
As described above, in the fourth embodiment, when a point is entered in a badminton game, a projected image emphasizing the movement trajectory of the shuttle S of the shot in which the point is entered is projected.
As a result, in the fourth embodiment, the spectators watching the game at the badminton game venue and the viewers watching the game on TV or the like grasp that points have been scored by a fast shot such as a smash. be able to. As a result, the fourth embodiment can improve the visibility of the badminton game, so that the user can enjoy watching the badminton game more.

以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited to the contents of these embodiments. Further, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, that is, those in a so-called equal range. Further, the above-mentioned components can be combined as appropriate. Further, various omissions, replacements or changes of the components can be made without departing from the gist of the above-described embodiment.

10 投射システム
12 撮像装置
14 投射装置
16 制御装置
20 入力部
22 表示部
24 記憶部
26 通信部
28 制御部
30 映像取得部
32 物体検出部
34 位置検出部
36 速度検出部
38 高さ検出部
40 画像生成部
42 投射制御部
44 通信制御部
46 投射装置選択部
10 Projection system 12 Imaging device 14 Projection device 16 Control device 20 Input unit 22 Display unit 24 Storage unit 26 Communication unit 28 Control unit 30 Image acquisition unit 32 Object detection unit 34 Position detection unit 36 Speed detection unit 38 Height detection unit 40 Image Generation unit 42 Projection control unit 44 Communication control unit 46 Projection device selection unit

Claims (5)

撮像装置からコートにおける試合の様子を撮像した試合映像を取得する映像取得部と、
前記試合映像からオブジェクトを検出する物体検出部と、
前記試合映像と前記オブジェクトとに基づいて、前記コートにおける前記オブジェクトの位置を検出する位置検出部と、
前記オブジェクトの位置に基づいて前記オブジェクトの速度を算出する速度算出部と、
前記オブジェクトの位置と、前記オブジェクトの速度とに基づいて、前記オブジェクトの移動軌跡を含む投射画像を生成する画像生成部と、
前記投射画像を前記コート上に投射するように投射装置を制御する投射制御部と、
を備える、投射制御装置。
An image acquisition unit that acquires a match image of a match on the court from an image pickup device,
An object detection unit that detects an object from the game video,
A position detection unit that detects the position of the object on the court based on the game image and the object.
A speed calculation unit that calculates the speed of the object based on the position of the object,
An image generation unit that generates a projection image including a movement trajectory of the object based on the position of the object and the speed of the object.
A projection control unit that controls the projection device so that the projection image is projected onto the coat.
A projection control device.
前記試合映像に基づいて、前記オブジェクトの高さを算出する高さ算出部を備え、
前記画像生成部は、前記オブジェクトの高さに応じた前記投射画像を生成する、
請求項1に記載の投射制御装置。
A height calculation unit for calculating the height of the object based on the game video is provided.
The image generation unit generates the projected image according to the height of the object.
The projection control device according to claim 1.
前記物体検出部は、前記オブジェクトと、前記コート上の選手との位置関係を検出し、
前記投射制御部は、複数の投射装置を制御可能であり、前記オブジェクトと、前記コート上の選手との位置関係に応じて、投射された前記投射画像を欠けないように投射可能な投射装置を前記複数の投射装置から選択し、選択された前記投射装置を制御し、前記投射画像を前記コート上に投射する、
請求項1または2に記載の投射制御装置。
The object detection unit detects the positional relationship between the object and the player on the court, and determines the positional relationship between the object and the player on the court.
The projection control unit can control a plurality of projection devices, and can project the projected image according to the positional relationship between the object and the player on the court so as not to chip the projected image. Select from the plurality of projection devices, control the selected projection device, and project the projection image onto the coat.
The projection control device according to claim 1 or 2.
前記試合映像は、バドミントンの試合映像であり、
前記オブジェクトは、バドミントンシャトルである、
請求項1から3のいずれか1項に記載の投射制御装置。
The game video is a badminton game video,
The object is a badminton shuttle,
The projection control device according to any one of claims 1 to 3.
撮像装置からコートにおける試合の様子を撮像した試合映像を取得するステップと、
前記試合映像からオブジェクトを検出するステップと、
前記試合映像と前記オブジェクトとに基づいて、前記コートにおける前記オブジェクトの位置を検出するステップと、
前記オブジェクトの位置に基づいて前記オブジェクトの速度を算出する速度算出部と、
前記オブジェクトの位置と、前記オブジェクトの速度とに基づいて、前記オブジェクトの移動軌跡を含む投射画像を生成するステップと、
前記投射画像を前記コート上に投射するように投射装置を制御するステップと、
を含む、投射制御方法。
The step of acquiring the game image that captured the state of the game on the court from the image pickup device,
The step of detecting an object from the match video and
A step of detecting the position of the object on the court based on the game image and the object,
A speed calculation unit that calculates the speed of the object based on the position of the object,
A step of generating a projection image including a movement trajectory of the object based on the position of the object and the velocity of the object.
A step of controlling the projection device to project the projected image onto the coat,
Projection control methods, including.
JP2020198327A 2020-11-30 2020-11-30 Projection control device and projection control method Pending JP2022086371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020198327A JP2022086371A (en) 2020-11-30 2020-11-30 Projection control device and projection control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020198327A JP2022086371A (en) 2020-11-30 2020-11-30 Projection control device and projection control method

Publications (1)

Publication Number Publication Date
JP2022086371A true JP2022086371A (en) 2022-06-09

Family

ID=81893987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020198327A Pending JP2022086371A (en) 2020-11-30 2020-11-30 Projection control device and projection control method

Country Status (1)

Country Link
JP (1) JP2022086371A (en)

Similar Documents

Publication Publication Date Title
US20140301600A1 (en) True space tracking of axisymmetric object flight using diameter measurement
US11745077B1 (en) System and method for a user adaptive training and gaming platform
CN107018355A (en) Message processing device, information processing method and computer-readable recording medium
US10742864B2 (en) Controlling cameras in sports events
CN103106404A (en) Apparatus, method and system
US20160212385A1 (en) Real-Time Sports Advisory System Using Ball Trajectory Prediction
WO2021020160A1 (en) Information processing apparatus, information processing method, and program
US20060199626A1 (en) In-game shot aiming indicator
JP2001353358A (en) Game apparatus and information storage medium
US20230276098A1 (en) Method, apparatus and computer program product for presenting a sporting event
RU2606583C2 (en) Method and apparatus for determining position of sporting projectile within scene
JP6898415B2 (en) Methods, systems and computer programs for measuring ball rotation
JP2018089119A (en) Game control device, game system and program
JP2012101026A (en) Program, information storage medium, game device, and server system
GB2246056A (en) Video display system for a video game
JP2022086371A (en) Projection control device and projection control method
US10776929B2 (en) Method, system and non-transitory computer-readable recording medium for determining region of interest for photographing ball images
KR102454801B1 (en) Apparatus, method and recording medium storing command for determining video for sports broadcasting
KR20050079893A (en) System for training of sports posture
JP2018089121A (en) Game control device, game system and program
JP2018089120A (en) Game control device, game system and program
JP2002320776A (en) Program for controlling execution of game, and game device carrying out the program
KR102551386B1 (en) Virtual sports device providing sight protection images
KR102551388B1 (en) Virtual sports device providing sight improvement images
JPH10320591A (en) Picture generating device and information storage medium