WO2020095647A1 - 画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体 - Google Patents
画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体 Download PDFInfo
- Publication number
- WO2020095647A1 WO2020095647A1 PCT/JP2019/040874 JP2019040874W WO2020095647A1 WO 2020095647 A1 WO2020095647 A1 WO 2020095647A1 JP 2019040874 W JP2019040874 W JP 2019040874W WO 2020095647 A1 WO2020095647 A1 WO 2020095647A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- player
- image processing
- information
- server
- specific target
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
Definitions
- the present invention relates to an image processing device and the like for shooting and video monitors.
- Patent Document 1 describes a plurality of cameras for shooting a subject from a plurality of directions, and a plurality of image processing devices for extracting a predetermined region from an image taken by a corresponding camera among the plurality of cameras. Further, there is described an image generation device that generates a virtual viewpoint image based on image data of a predetermined area extracted from images captured by the plurality of cameras by the plurality of image processing devices. Patent Document 2 describes an automatic focus detection device that drives a focus lens based on an AF evaluation value acquired from a captured image to perform automatic focus detection control.
- the server side can grasp omnidirectional video, various information on the field of the game and competition, and various valuable information inside and outside the ground can be obtained, but the conventional system does not fully utilize the server. There was a problem that was not.
- Display means for displaying images
- Selecting means for selecting a specific object from the image displayed on the display means
- Designation information generation means for generating designation information relating to the specific target selected by the selection means
- Transmitting means for transmitting the designated information generated by the designated information generating means to a server
- Acquisition means for acquiring the position information of the specific target based on the designation information from the server
- Control means for displaying additional information on the display means based on the position information of the specific target acquired by the acquisition means.
- the user specifies a specific target object, it is possible to easily know where the specific target is on the screen, for example, when the user monitors or shoots the specific target. It becomes difficult to lose sight of the specific target.
- the server (image processing server) side having a plurality of cameras (moving cameras using fixed cameras and drones) for the server is the position of the focused player (specific target) and the game in the entire field of the stadium. Understand the latest situation in real time. Then, an example will be shown in which the server provides, to a terminal owned by each spectator, timely information necessary for, for example, camera photographing and image monitoring.
- the situation of the competition and the like can be quickly known, so that it becomes possible to quickly select the photograph to be sent to the news agency.
- a terminal image processing device
- a digital camera, a smartphone, a configuration in which a camera and a smartphone are connected, a tablet PC, a TV, or the like can be considered. Since the same service can be provided to spectators watching the competition at home via the Internet or television broadcasting through terminals (image processing devices) such as PCs and TVs, it is possible to grasp the situation of the competition more accurately. You can enjoy the competition more.
- 101 to 103 are server cameras, 101 (fixed camera 1), 102 (fixed camera 2), 103 (fixed 3), 104 (large screen), 110 (server), 111 (input means), 112 (base station) perform image acquisition and audio acquisition for providing information to general professional photographers and spectators.
- three server cameras 101 to 103 are used, but one or a plurality of server cameras may be used.
- these server cameras may be cameras installed in, for example, a drone, instead of fixed cameras.
- input information other than video can be captured from the input means, and services for general professional photographers and spectators can be expanded.
- Reference numeral 105 is a wired / wireless LAN or the Internet, and 106 is a connection line for inputting the information output from the input unit 111 to the server 110.
- Reference numeral 107 is a connection line for transmitting / receiving a signal to / from the base station 112, and reference numeral 108 is an antenna unit for executing wireless communication of the base station. That is, the blocks in the 100s are blocks for supporting video shooting by professional photographers and general spectators.
- 401 (terminal 1), 402 (terminal 2), 403 (terminal 3) are terminals, such as cameras, smartphones, tablet PCs, and TVs for shooting and monitoring by professional photographers and spectators.
- 404 (antenna) 405 (antenna) and 406 (antenna) are antennas for 401 (terminal 1), 202 (terminal 2) and 203 (terminal 3) to perform wireless communication, respectively.
- the server detects the position of the player of interest for example, the terminal sends ID information of the player of interest to the server side, and the server side sends various information such as position information regarding the player to the terminal. Since the players are moving and the competition situation is changing, it is necessary to detect the player of interest in a short time. Therefore, for example, 5G is used for the wireless communication here.
- 401 terminal 1
- 402 terminal 2
- 403 terminal 3
- 301 is a smartphone, which mainly controls communication with a server. Also, by installing application software on this smartphone, various video acquisition services will be realized.
- reference numeral 300 is a (digital) camera, which is an image processing apparatus that is mainly used by a professional professional photographer or an audience to monitor an image.
- the camera 300 is connected to the smartphone 301 via USB or Bluetooth (registered trademark).
- 320 is an antenna for the smartphone 301 to wirelessly communicate with the base station 112.
- the video and control signals are exchanged with the server wirelessly, but the connection for executing communication with the terminal may be adaptively selected from wireless communication and wired communication. good.
- the wireless communication environment is 5G, it is possible to perform wireless communication, and if the wireless communication environment is LTE, it is possible to send information with a large amount of data by wire and send a control signal with a small amount of data by wireless. Furthermore, it is possible to switch to wired communication depending on the congestion level of wireless communication lines.
- Reference numeral 201 is an Ethernet (registered trademark) controller
- 204 is a detection unit that detects a play position according to the role (so-called position) of the player.
- the role (position) of the player is set in advance by registration or the like.
- 1 and 3 are props
- 2 are hookers
- 4 and 5 are rocks
- 6 and 7 are flankers
- 8 is called number 8
- 9 is scrum half
- 10 is Called the standoff.
- 11 and 14 are called wings
- 12 and 13 are called centers
- 15 is called a fullback. In the places where these players are, the forward is often in front of the attack and the backs are often behind in the attack, such as in set play.
- the position of a player is generally determined according to the role (position) of the player, so it is more effective and accurate to follow the player after understanding the role (position) of the noted player.
- the reserve player's uniform numbers are 16 to 23.
- the position is not fixed only by the uniform number. Therefore, the detection unit 204 detects the play position of the player according to the preset role, and the information of the detected play position is fetched by the CPU 211 in the server 110.
- the preset role is the competition. It may change due to changes in players.
- Reference numeral 205 denotes a contour information detection unit, for example, when a professional photographer or a spectator monitors an image on a terminal and shoots at a magnification of the camera from the position and angle of the image, the server 110 determines the position of the attention player. Notify the terminals 401 to 403. Further, by notifying the terminals 401 to 403 and the like of the contour information of the attention player being photographed from the server 110, it becomes possible for each of the terminals 401 to 403 to recognize the attention player more reliably.
- the contour information detected by the block 205 is fetched by the CPU 211.
- Reference numeral 206 denotes a player's face recognition unit, which finds a player in an image using AI, in particular, an image recognition technique such as Deep Learning based on pre-registered face photograph information of the player of interest. Information on the face recognition result detected by the face recognition unit 206 is also fetched by the CPU 211. A player's physique recognition unit 207 finds the player using the image recognition technique as described above based on the physique photo information registered in advance of the noted player.
- Numeral 208 is a player's jersey number detection unit, which finds a player from the number (registration number, etc.) of a noted player registered in advance using the image recognition technology described above. Needless to say, when detecting the player's number, not only the number on the back side of the bibs but also the number written on the front side may be detected.
- a position information creation unit 209 recognizes the position, direction and angle of view of each camera from the position information of the cameras 101, 102, 103 and the like using GPS and the information on the direction and angle of view of the camera. Then, based on the video from each camera, absolute position information on the ground where the athlete is is acquired by the triangulation method.
- the position information creation unit 209 also acquires in advance the positions on the screen such as poles and lines of the competition field (for example, side lines and end lines) as reference indexes for detecting reference positions that are installed in advance in the stadium. You may keep it. Then, using these as reference coordinates, the absolute position of the noted player with respect to the field in the stadium may be acquired.
- Reference numeral 210 denotes camera position information for detecting the position of each terminal and the direction and angle of view of the camera of each terminal from position information, direction information, and angle information of each terminal sent from each terminal 401 to 403. It is a direction detector.
- Reference numeral 211 denotes a CPU (Central Processing Unit) as a computer, which is a central processing unit that executes control shown in the following embodiments based on a control computer program stored in a program memory 712 as a storage medium. .. It also serves as a display control unit and controls information displayed on the display unit 214 described later.
- a data memory 213 stores various data referred to by the CPU 211.
- the data memory 213 stores past match information, past player information, information about today's match (competition), information about the number of spectators, weather, etc., information about the player of interest, the current situation of the player, etc. ..
- the information about the player of interest also includes information such as face, uniform number, and physique.
- 1101 is a data bus line in the server 110.
- FIGS. 3 and 4 are block diagrams showing a configuration example of a terminal, and the configuration of the entire digital camera 500 is shown using two drawings as an example of the terminal.
- the digital camera shown in FIGS. 3 and 4 is capable of shooting moving images and still images and recording shooting information.
- a CPU (Central Processing Unit) 318, a program memory 319, and a data memory 320 are shown redundantly, but these are the same block and only one is incorporated therein.
- reference numeral 301 is an Ethernet (registered trademark) controller.
- a storage medium 302 stores moving images and still images captured by a digital camera in a predetermined format.
- Numeral 303 is an image sensor as an image sensor such as CCD or CMOS, which converts an optical image from an optical signal into an electrical signal and further converts this information from analog information into digital data and outputs it.
- a signal processing unit 304 performs various corrections such as white balance correction and gamma correction on digital data output from the image sensor 303 and outputs the digital data.
- a sensor driving unit 305 controls horizontal and vertical line driving for reading information from the image sensor 303, timing at which the image sensor 303 outputs digital data, and the like.
- Reference numeral 306 is an operation unit input means. Input is made in response to selection and setting of various conditions for shooting with a digital camera, a trigger operation for shooting, a selection operation for using a flash, an operation for replacing a battery, and the like. Further, in the operation unit input means 306, it is possible to select / set whether or not to perform AF (autofocus) on the player of interest based on the position information from the server. The selection / setting information as to whether AF (autofocus) is performed on the noted player is output from the operation unit input unit 306 to the bus line 370.
- the operation unit input means 306 it is possible to select / set whether or not to automatically track the player of interest based on the position information from the server.
- Information such as which player is designated as the target player (specific target) and whether or not the automatic tracking of the target player is executed based on the position information from the server is generated by the operation unit input unit 306 as the selection unit. It That is, the operation unit input unit 306 functions as a designation information generation unit that generates designation information regarding a specific target.
- a magnification detection unit 308 detects the photographing magnification of the digital camera.
- An operation unit output unit 309 is for displaying UI information such as a menu and setting information on the image display unit 380 that displays image information captured by a digital camera or the like.
- Reference numeral 310 denotes a compression / expansion circuit, which develops the digital data (RAW data) from the image sensor 303 by the signal processing unit 304 and then compresses it by the compression / expansion circuit 310 into a JPEG image file or a HEIF image file, or The raw data is compressed as it is to form a raw image file.
- RAW data digital data
- Reference numeral 311 is a face recognition unit that refers to face photograph information registered in advance on the server for the player of interest and finds the player in the video by AI, in particular, image recognition using a technique such as Deep Learning. Is. Information regarding the face recognition result detected by the face recognition unit 311 is fetched by the CPU 318 via the bus line 370.
- Reference numeral 312 denotes a physique recognition unit, which refers to physique photo information registered in advance with the server regarding the player of interest and finds the player of interest in the video by the image recognition technique as described above.
- a player's jersey number detection unit 313 finds a player from the player's jersey number of the player of interest (of course, the number on the front side) by the image recognition technique as described above.
- a direction detector 314 detects the direction in which the lens of the terminal is facing.
- a position detection unit 315 detects the position information of the terminal using, for example, GPS.
- a power management unit 316 detects the power status of the terminal, and supplies power to the entire terminal when the pressing of the power button is detected while the power switch is off.
- 318 is a CPU as a computer, which executes the control shown in the following embodiments based on a control computer program stored in a program memory 319 as a storage medium. It also serves as display control means and controls the image information displayed on the image display unit 380.
- the image display unit 380 is a display unit using liquid crystal, organic EL, or the like.
- the data memory 320 is for storing the setting conditions of the digital camera, and for storing the photographed still image and moving image, and further, the attribute information of the still image and moving image.
- reference numeral 350 denotes a taking lens unit, which has a fixed first group lens 351, a zoom lens 352, an aperture 355, a fixed third group lens 358, a focus lens 359, a zoom motor 353, an aperture motor 356, and a focus motor 360.
- the fixed first group lens 351, the zoom lens 352, the diaphragm 355, the fixed third group lens 358, and the focus lens 359 form a photographing optical system.
- each of the lenses 351, 352, 358, and 359 is illustrated as a single lens for the sake of convenience, each of them may be formed of a plurality of lenses.
- the taking lens unit 350 may be configured as an interchangeable lens unit that can be attached to and detached from the digital camera.
- the zoom controller 354 controls the operation of the zoom motor 353 and changes the focal length (angle of view) of the taking lens unit 350.
- the diaphragm control unit 357 controls the operation of the diaphragm motor 356 and changes the aperture diameter of the diaphragm 355.
- the focus control unit 361 calculates the defocus amount and the defocus direction of the taking lens unit 350 based on the phase difference between the pair of focus detection signals (A image and B image) obtained from the image sensor 303. Then, the focus control unit 361 converts the defocus amount and the defocus direction into the drive amount and the drive direction of the focus motor 360. The focus control unit 361 controls the operation of the focus motor 360 based on the driving amount and the driving direction, and drives the focus lens 359 to control the focus of the photographing lens unit 350 (focus adjustment).
- the focus control unit 361 performs the phase-difference detection type automatic focus (AF).
- the focus control unit 361 may perform contrast detection AF in which the contrast peak of the image signal obtained from the image sensor 303 is searched.
- Reference numeral 371 is a tracking unit for tracking the player of interest with the digital camera itself. The tracking here means, for example, moving a frame display surrounding the player of interest on the screen, and focusing or exposing the player of interest tracked by the frame.
- FIG. 5A is a sequence in which the server 110 side answers an inquiry (request) from the camera 500 side. Then, the server 110 side provides the camera 500 side with information regarding the absolute position of the player of interest. The camera 500 notifies the server 110 of attention player designation information (ID information such as a uniform number and a player name). At that time, the user may touch the position of the player of interest on the screen of the terminal, or may surround the player of interest with his / her finger while touching the screen with his / her finger.
- ID information such as a uniform number and a player name
- the face position on the screen of the player of interest is touched, the face may be image-recognized or the player's number may be recognized to send the player's name or player's number.
- the face image itself may be sent to the server without image recognition, and the image may be recognized on the server side. At this time, if there is a predetermined password, it will also be sent to the server.
- FIG. 5B shows another different attention player display start sequence.
- the camera notifies the server of the position information of the camera, the direction of the camera, the magnification of the camera, the attention player designation information (back number, player name designation), which is being photographed by the professional cameraman or the general public.
- a free viewpoint image is created from the position information of the camera, the direction of the camera, and the magnification of the camera.
- the player designation information jersey number, player name designation
- the position information of the position where the player is actually seen on the camera and the contour information of the player photographed by the camera are also included.
- the camera Based on the position information, contour information and the like sent from the server, the camera displays the player of interest on the screen of the display unit of the camera so as to stand out with high accuracy and performs AF and AE on the player of interest.
- the server may send the contour information of the building as contour information to the camera.
- the attention player display start sequence for finding the attention player is briefly described, the terminal side often wants to continuously chase the athlete. Therefore, the attention player display tracking sequence will be described with reference to FIG. 6A, the camera 500 as a terminal repeatedly inquires (requests) to the server 110, for example, periodically to continuously recognize the position of the player.
- the position information of the player is sent from the camera 500 to the server 110, and the ID information of the player of interest is sent so that the camera once views the player of interest.
- the camera periodically sends the player-of-interest display start sequence (A1, B1, ...) To the server, and periodically receives the player-of-interest display start sequence (A2, B2, ...) From the server. Then, the operation of recognizing the position of the noted player is repeated many times.
- the camera 500 sends the ID information of the player of interest to the server 110, and temporarily acquires the position information of the player of interest from the server. After that, after referring to the position information, the camera is brought into the field of view of the player of interest, and then the camera 500 itself continuously tracks the player of interest by image recognition.
- the camera 500 itself tracks an attention player by image recognition with respect to the attention player display tracking sequence of FIG. 6B. , The position information of the player of interest is requested.
- FIG. 7B shows a case where the server 110 further estimates that there is a high possibility that the camera 500 will lose sight of the attention player with respect to the attention player display tracking sequence of FIG. 6B.
- the push-type control for notifying the positional information of the player of interest without waiting for the request from the camera 500 when the tracking is estimated to fail.
- professional photographers and general spectators can continuously detect where the focused player is on the display unit of the camera, which is very easy to use, and for example, miss a shutter chance is greatly reduced.
- the player may not be visible from the outside (so-called blind spot) at a mall, rack, scrum, etc., or it may not be visible from a certain camera direction. And so on.
- the terminal may be a home TV. That is, when the spectator watching the TV specifies the player of interest, the server may send the position information of the player of interest to the TV to display the player of interest in a framed manner or the like.
- the cursor for example, an arrow
- the direction in which the player shifts with respect to the screen of the terminal may be displayed by arrows or characters.
- S101 represents initialization. It is determined whether or not photography is selected in S102. If photography is selected, the process proceeds to S103, and if photography is not selected, the process proceeds to S101. In S103, the setting information of the camera is obtained. In S104, it is determined whether or not shooting (designation) of the player of interest is selected. If shooting of the player of interest is selected, the process proceeds to step S105. If shooting of the player of interest is not selected, the process proceeds to step S110, and other processing is performed. To do. In step S105, if there is a player information of the player of interest (ID information of the player of interest) and a password, the password is sent from the camera to the server. As a result, the server side detects the position information of the player of interest and sends it to the camera. In S106, the position information of the player of interest is received from the server.
- ID information of the player of interest ID information of the player of interest
- password is sent from the camera to the server.
- the server side detects the position information of
- the camera itself tracks the player of interest while referring to the position information sent from the server.
- image recognition is performed by the camera itself to track the player of interest.
- the player is tracked based on the recognition result of any one of the player's uniform number, the player's face information, the physique of the player, or a combination thereof. That is, a part or the whole shape of the player of interest is image-recognized and tracked.
- the user's shooting position is poor, the field of view of the camera is narrow, or it is hidden behind other subjects depending on the shooting angle etc., there is a possibility that you may lose sight of it, and if you lose sight of it, it will be returned to the server again. You will be sending a location request.
- S107-2 shows an example of a mark display as additional information for the player of interest. That is, as the additional information, a cursor indicating the player of interest is displayed, a frame is displayed at the position of the player of interest, the color or brightness of the position of the player of interest is conspicuously changed, or a combination thereof is displayed. You may display in characters other than the mark. Then, in the state where the live view image from the image sensor is displayed on the image display unit, the additional information indicating the position is superimposed on the player of interest.
- FIG. 8B shows an example of the flow of S107-2 for displaying a mark, which will be described later.
- the user may select with the selection switch so that the tracking operation in S107 as described above is skipped and not executed.
- a mode may be provided in which the tracking operation is performed when the player of interest is in the screen, but the tracking operation is not performed when the player is out of the screen, and the mode can be selected.
- it automatically determines the competition situation and automatically stops the tracking operation (display additional information such as arrows) of the focused player outside the screen, for example, when the focused player enters the bench. You may control.
- the server knows that the target player has entered the bench, the display of the position of the target player on the screen, autofocus for the target player, and automatic exposure adjustment for the target player are stopped. It may be controlled to do so.
- S108 it is determined whether or not the continuous tracking of the player of interest is OK (successful). If the continuous tracking of the player of interest is successful, the process proceeds to S107 to continue the tracking of the player of interest by the camera itself. If it is carried out and tracking of the player of interest has not succeeded, the process proceeds to S109.
- S109 it is determined whether or not the shooting of the noted player is finished, and when the shooting of the noted player is finished, the process proceeds to S101. If the shooting of the noted player is continued, the process proceeds to S105, the information of the noted player is sent to the server again, the information of the noted player is received from the server in S106, and the position of the noted player is recognized again. , Continue shooting the featured players. That is, if the tracking is unsuccessful, the result of S108 is No. In that case, if the tracking is continued, the process returns to S105 to request the server for the position information.
- FIG. 8B shows a focused player mark display control flow on the camera side.
- the relative position of the player of interest on the display is calculated and obtained.
- additional information indicating a position or the like is superimposed on the player of interest while the live view image from the image sensor is displayed on the image display unit.
- the server 110 since the server 110 reads the video of the entire competition field and obtains the coordinates, for example, the video captured by the professional photographer or the spectator can be used to understand where the competition field is captured. You can also do it.
- the server grasps the entire video of the competition field in advance from a plurality of cameras (fixed camera and moving camera) for the server.
- a terminal such as a professional photographer or a camera of a spectator receives the absolute position information of the player from the server, it becomes possible to map the absolute position information and the image currently being shot or monitored.
- the absolute position information of the player of interest from the server in the field is (X, Y). It is necessary to convert this absolute position information into relative position information (X ', Y') when viewed from the camera according to the position information of each camera.
- the conversion from the absolute position information to the relative position information may be performed on the camera side as in S120, or the relative position information may be sent to each terminal (camera or the like) after conversion on the server side. ..
- the relative position information (X ′, Y) is calculated from the absolute position information (X, Y) sent from the server according to the position information using the GPS of each camera. ⁇ ). Based on this relative position information, position information on the display screen on the camera side is used.
- the server performs the conversion, the server follows the absolute position information (X, Y) according to the position information of each camera using GPS or the like, and the relative position information (X ′, Y '). The server sends this relative position information to each camera, and the camera that receives this relative position information sends this relative position information to the position information on the display screen of each camera. And
- FIG. 9 shows another example of the focused player display tracking control flow on the terminal side such as a camera.
- S101, S102, S103, S104, S105, S106, S107, S107-2, and S110 are the same controls as in FIG. 8, and description thereof will be omitted.
- S131 it is determined whether or not the tracking continuation of the attention player is OK (successful). If the tracking continuation of the attention player is successful, the process proceeds to S134, and the tracking continuation of the attention player is not successful. , S132.
- S132 it is determined whether or not the shooting of the noted player is finished, and when the shooting of the noted player is finished, the process proceeds to S133. If the shooting of the player of interest continues, the process proceeds to S105, the information of the player of interest is sent to the server again, the information of the player of interest is received from the server in S106, and the position of the player of interest is recognized again. Continue shooting the players of interest.
- S133 it is determined whether or not the position of the player of interest from the server has been detected. If the position of the player of interest from the server has been detected, the process proceeds to S106, and the position of the player of interest from the server has not been detected. Proceed to S101.
- FIG. 10 is a block diagram showing a functional configuration example of the tracking unit 371 of the digital camera.
- the tracking unit 371 includes a collation unit 3710, a feature extraction unit 3711, and a distance map generation unit 3712.
- the feature extraction unit 3711 identifies the image area (subject area) to be tracked based on the position information sent from the server.
- the collation unit 3710 refers to the extracted feature amount in the continuously supplied captured images of individual frames, and searches for a region having a high degree of similarity to the subject region of the previous frame as a subject region.
- the distance map generation unit 3712 can acquire distance information from the pair of parallax images (A image and B image) from the image sensor to the subject, and can improve the accuracy of identifying the subject region in the matching unit 3710.
- the distance map generation unit 3712 is not always necessary.
- template matching or histogram matching is used, for example. ..
- the server performs image recognition of the player of interest based on the ID information of the player of interest sent from a terminal such as a camera.
- the server detects the player's position information based on the images from the multiple cameras for the server (fixed camera, moving camera, etc.) and sends the player's position information to professional cameramen and camera terminals of the audience. ..
- the server side continues to detect the player's position information based on the images from the multiple cameras for the server.
- the ID information of the player of interest is sent to the server, and the player of interest is tracked based on the position information acquired from the server.
- the terminal itself such as a camera owned by a professional photographer or a general audience can detect the position of the player of interest.
- FIG. 11 shows a main flow of detection control of a player of interest on the server side.
- initialization is performed in S201.
- step S202 it is determined whether or not photography is selected by the camera. When photography is selected, the process proceeds to step S203, and camera setting information is obtained. At this time, if there is a password in the setting information of the camera, it is also obtained. If photography is not selected, the process proceeds to S201.
- step S204 it is determined whether or not shooting (designation) of the noted player has been selected. If shooting of the noted player has been selected, the process proceeds to S205, in which the server determines the ID information (for example, player name, profile) of the noted player from the camera. Number). If shooting of the player of interest is not selected in S204, the process proceeds to S210 and other processing is performed.
- ID information for example, player name, profile
- the server finds the player of interest on the screen by image recognition based on the images from the plurality of cameras (fixed camera, moving camera, etc.) based on the ID information of the player of interest.
- the server tracks the player of interest based on the images from the plurality of cameras.
- S209 it is determined whether or not the shooting of the player of interest is finished.
- the process returns to S201.
- the server again searches for information from the cameras (fixed camera and moving camera) for the plurality of servers based on the ID information of the player of interest, finds the player of interest, and in S207, continuously searches from the plurality of cameras. Based on the video of, the attention player is tracked.
- FIG. 12 shows an attention player detection control flow by the server using the uniform number information.
- the server obtains the uniform number from the data memory 213 based on the ID information of the player of interest, searches for the uniform number from the image information of the plurality of cameras for the server, and recognizes the uniform number. Get the position information of the player with the number.
- the absolute position information of the player of interest is acquired by further integrating the position information acquired from the images of the plurality of cameras for the server.
- the absolute position of the player of interest detected in S402 is transmitted to a terminal such as a camera owned by a professional photographer or a spectator.
- a terminal such as a camera owned by a professional photographer or a spectator.
- the image of at least one of the multiple cameras for the server is used to find the player's uniform number, and the size, angle, and background (competition field) information that is visible. By inputting, it is also possible to acquire the position information of the player of interest. Also, using the images from multiple cameras for the server, you can similarly find the player's uniform number and enter the size, angle, and background (field) information you are seeing. Thereby, the accuracy of the position information of the player of interest can be improved.
- FIG. 1 An example of another detection method for detecting the position of the player of interest will be described with reference to FIG.
- the player himself / herself has a built-in position sensor in clothing such as a uniform, or that the player wears the position sensor on his / her arm, waist, leg, etc. using a belt or the like.
- the information from this position sensor is wirelessly transmitted to the server side by the communication means so that the server (a plurality of cameras on the side) recognizes the signal from the player's position sensor, and the position information is generated, and the server generates the information.
- the server a plurality of cameras on the side
- Fig. 13 shows a specific control flow of the player detection control using the position sensor information on the server side.
- the server receives and acquires the position sensor information of the player of interest with a plurality of cameras.
- Each of the plurality of cameras includes a detection unit that receives a radio wave from the position sensor, detects the direction of the received radio wave, and the level of the received radio wave to obtain position sensor information.
- the position sensor information also includes the direction of the received radio wave and the level of the received radio wave.
- the absolute position of the player of interest is detected based on the position sensor information from the plurality of cameras.
- the absolute position of the player of interest is transmitted to the camera.
- at least one of the plurality of cameras (fixed camera or moving camera) detects the information from the position sensor held by the player in addition to the acquisition of the image and the sound. It has a detection means of.
- the one camera among the plurality of cameras can receive the information from the position sensor of the player, and can recognize the direction of the received radio wave and the level of the received radio wave. In this way, the position of the player can be detected based on the detection result of only one, but in this example, the position sensor information of the player can be recognized by a plurality of cameras. Then, the position information of the player is analyzed more accurately by integrating the information on the direction of the radio wave receiving the sensor information of the player of interest in the plurality of cameras and the level of the received radio wave.
- FIG. 14 shows a focused player detection control flow using face recognition information on the server side.
- the server has means for detecting the face information of the player based on the images from the cameras for the plurality of servers. Then, the server compares the face information taken in the past of the players registered as members of the match with the plurality of photos based on the face information detected from the plurality of server cameras, and uses, for example, AI. Face recognition is performed to detect a player of interest.
- the server acquires a plurality of face information of the attention player from the data memory 213 based on the ID information of the attention player, and uses the images of the plurality of cameras for the server to detect the face information of the player of the face information. Get location information.
- multiple cameras for the server find a player corresponding to the face information of the player of interest, and enter the size, angle, and background (field) information of the player you are watching, The position information can be acquired more accurately.
- the absolute position of the noted player is detected based on the position information of the noted player acquired from the images of the plurality of cameras in S501.
- the absolute position information of the player of interest detected in S502 is transmitted to the camera owned by the professional cameraman or the general audience.
- the data memory 213 of the server stores a plurality of physique image information of players who have been registered as members of the match in the past. Further, the server has means for detecting physique information of the player based on images from a plurality of cameras for the server. Then, the server compares the physique information detected from the plurality of cameras for the server with the physique image information of the plurality of previously photographed physiques of the players who are registered as members in the match using, for example, AI, To detect.
- Fig. 15 shows a specific control flow for detecting a player of interest using physique (body shape) recognition information in the server.
- the server obtains a plurality of physique image information from the data memory 213 based on the ID information of the player of interest, and uses the image information of the plurality of cameras for the server to determine the position information of the player of this physique. To get.
- I found a player corresponding to the physique image of the player of interest, and found the size, angle, and background (field) of the player.
- the position information of the player of interest can be acquired.
- the position information of the player of interest can be acquired.
- the accuracy of the position information of the player of interest can be improved based on the physique information.
- the absolute position of the player of interest is detected based on the position information of the player of this physique information acquired in S601.
- the absolute position of the player of interest detected in S602 is transmitted to the camera terminal held by the professional cameraman or the general audience.
- the player position sensor information, uniform number recognition, face recognition, physique recognition, etc. have been explained above, but information such as uniforms (design, color), shoes, athlete's hairstyle, athlete's movement, etc. can also be recognized by image recognition. You may raise the recognition accuracy of the player.
- FIG. 16 shows a supplementary detection method for the player of interest, which is a flow for performing detection based on the basic role (so-called position) of the player of interest in the playing field.
- the data memory 213 of the server stores information on the role (position) of each player in the competition field. Further, since the position based on the role of the player also changes depending on the position of the ball, this information is also stored.
- the server detects the current position of the ball from the images of multiple cameras and recognizes the match situation (whether the player is attacking or defending). Based on this information, it becomes easier to detect the rough position of the player. That is, the position of the player is estimated from the role by judging from the game situation, paying attention to the role of the player. This is mainly determined by the server.
- Fig. 16 shows an example of a focused player detection control flow that considers the role of players.
- the server detects ball position information based on images from a plurality of cameras. From this position information of the ball, the rough position of the player is estimated. Further, according to the role of the player such as forward and backs (the player's role is recognized by the uniform number), the area for searching the player is recognized by the face information.
- the server obtains a plurality of face information of the player of interest from the data memory 213, compares the face information of the player with the video information of the plurality of cameras, and obtains the position information of the player of the face information.
- step S703 the absolute position of the target player is detected based on the position information of the target player acquired from the images of the plurality of cameras in step S702.
- step S704 the absolute position of the player of interest detected in S703 is transmitted to the camera owned by the professional photographer or the general audience.
- step S705 it is determined whether or not the tracking of the noted player is continued. If the tracking of the noted player is continued, the process proceeds to S701, and if the tracking of the noted player is not continued, the flow of FIG. 16 is ended.
- the situation of the match (whether a certain team is attacking or defending) was judged according to the position of the ball, but for example, the control based on the situation of the match is not limited to the position of the ball. For example, if one team fouls, the other team will be given a penalty kick. In this case, the team with the penalty kick is more likely to move forward than the current ball position. Therefore, it is possible to perform control based on the game situation in which it is predicted that the player will move forward. You may predict the position of the ball from the foul.
- the position information of the player of interest is notified to the professional cameraman and the general spectator in a timely manner. be able to.
- the professional photographer and the general audience can successively recognize the position of the player of interest, and can surely capture the good play of the player of interest.
- FIGS. 17 (A) to (D) an example of a display method for displaying position information of a player of interest on a camera held by a professional photographer or a general audience will be described with reference to FIGS. 17 (A) to (D).
- the position information of the player of interest is sent from the server
- the position of the player of interest is added as additional information.
- the mark, cursor, arrow, frame, etc. are superimposed and displayed.
- the direction in which the player of interest is directed is displayed in the peripheral portion of the screen of the display unit.
- FIG. 17 (A) shows a display example of the position information of the player of interest with respect to the video on the camera display unit.
- Reference numeral 3201 represents a display portion of the camera. If the player of interest is off the display screen of the display unit and is on the right side of the display screen, a right arrow is displayed around the right side of the screen of the display unit 3202. If the player of interest is out of the display area and is on the lower side of the display screen, a downward arrow is displayed around the lower side of the screen of the display unit, as indicated by 3203.
- a left arrow is displayed around the left side of the display screen, such as 3204. If the player of interest is out of the display area and is on the upper side of the display screen, an upper arrow is displayed around the upper side of the screen of the display unit as in 3205.
- an arrow in the diagonally right upward direction is displayed around the diagonally right upward direction in the screen, for example, as shown in FIG. Therefore, as shown in FIG. 17 (B), it can be seen that the player of interest is in the diagonally upper right direction.
- FIG. 17C is a diagram showing an example in which the direction of movement and the length of the arrow indicate the movement amount of the focused player entering the shooting area.
- Reference numeral 3401 represents a display unit of the camera.
- a right arrow is displayed around the right side of the screen of the display unit as in 3402.
- a lower arrow is displayed around the lower side of the screen of the display unit as in 3403.
- a left arrow is displayed around the left side of the screen of the display unit as in 3404.
- an upper arrow is displayed around the upper side of the screen of the display unit as in 3405.
- the length of the arrow indicates how far the focused player deviates (is displaced) from the screen, that is, how much the camera should be rotated before the focused player is shown. As the position of the player of interest deviates from the field of view on the screen, the length of the arrow becomes longer. In FIG. 17C, since the arrow on the right side indicated by 3402 is relatively short, it can be seen that the player of interest enters the shooting area even if the camera is moved rightward by a relatively small angle.
- the player of interest enters the shooting area even if the angle at which the camera is rotated upward is relatively small.
- the lower arrow shown at 3403 has a medium length, and it can be seen that the player of interest enters the shooting area if the camera is rotated a little larger than the angles at 3402 and 3405.
- the arrow on the left side indicated by 3404 is relatively long, it can be understood that the player of interest enters the shooting area by rotating the camera toward the player of interest by an angle larger than the rotation angle of 3403. This makes it easier for professional photographers and general spectators to put the player of interest in the shooting area (in the display screen), so that the player can shoot without missing the shutter opportunity of the player of interest.
- FIG. 17D is a diagram showing an example of changing the thickness of the arrow while keeping the length of the arrow constant. That is, if the rotation angle from the area currently being photographed is large, that is, if the rotation angle of the camera for allowing the player of interest to enter the area to be photographed is large, the arrow should be thickened. Is also good.
- Reference numeral 3601 represents a display portion of the camera. Here, if the player of interest is out of the display area and is on the right side of the display screen, a right arrow is displayed on the right side peripheral portion within the screen of the display unit as indicated by 3602.
- a downward arrow is displayed on the lower peripheral portion of the screen of the display unit as indicated by 3603. If the player of interest is out of the display area and is on the left side of the display screen, a left arrow is displayed on the left side peripheral portion within the screen of the display unit as indicated by 3604.
- an arrow on the upper side is displayed on the upper peripheral portion in the screen of the display unit like 3605.
- the thickness of the arrow indicates the rotation angle of the camera. The larger the rotation angle, the thicker the arrow.
- the arrow indicated by 3603 and the arrow on the left side indicated by 3604 are relatively thicker than the arrows indicated by 3602 and 3605, and therefore the player of interest cannot enter the shooting area unless relatively rotated. I understand. With such a display, it becomes possible for a professional photographer or a general audience to immediately find a missed attention player, and a good play of the attention player can be photographed without missing a photo opportunity.
- the direction and amount of deviation from the screen of the player of interest are displayed with the arrow and its length and thickness, but this is not a limitation.
- a character may be displayed simply as "there is outside the upper right corner of the screen.”
- a warning may be displayed only by sound or blinking.
- it may be displayed as "shifted to the right” or "shifted 20 degrees to the right in the horizontal direction", or a needle that rotates in the direction of the player of interest, such as a compass, is displayed at the edge of the screen. It may be displayed, or the amount of deviation from the screen may be displayed in the corner of the screen using numbers or scales.
- FIG. 18 is a diagram showing an example of a focused player display tracking control flow on the camera side.
- steps other than the steps with the same reference numerals as those in FIG. 8, that is, steps other than S3300 are the same steps as in FIG.
- the camera itself tracks the player of interest.
- an arrow indicating the direction is displayed on the display unit. The detailed flow of this S3300 is shown in FIG.
- the camera receives the absolute position information of the player of interest from the server.
- the camera converts the absolute position information of the player of interest into relative position information based on the position, direction, magnification, etc. taken by this camera.
- the information of the player of interest is displayed on the display unit based on the information of the relative position viewed from the camera.
- the arrow indicating the position of the player of interest is not displayed on the display unit of the camera. Instead, a mark such as a frame indicating the position of the player of interest is displayed.
- the position of the player of interest on the periphery of the display unit of the camera is indicated by an arrow.
- FIG. 20 is a diagram showing a flow for performing the display as shown in FIG. 17C in S3300 of FIG.
- S3311, S3515, and S3517 are the same steps as in FIG. 19, so description thereof will be omitted.
- S3516 the position of the player of interest is indicated by an arrow on the periphery of the screen of the display unit of the camera.
- the length of the arrow is changed according to the angle to be rotated in order to enter the display screen of the camera. The larger the rotation angle of the camera, the longer the arrow.
- FIG. 21 is a diagram showing a flow for performing the display as shown in FIG. 17D in S3300 of FIG. 21, steps S3311 to S3515 and S3517 are the same as those in FIGS. 19 and 20, and thus the description thereof will be omitted.
- step S3716 the position of the player of interest is represented by an arrow on the peripheral portion of the screen of the camera display, and the thickness of the arrow is changed according to the angle to rotate to enter the display screen of the camera. The larger the rotation angle of the camera, the thicker the arrow.
- the explanation has been given with the example of one focused player, but there may be multiple focused players.
- the attention player can be switched on the way. All players who have participated in the match as players of interest may be used. Further, video and images include not only moving images but also still images.
- I have mainly explained the pursuit and tracking of attention players. However, instead of chasing only the attention player, information about the player who has the ball or receives the ball may be transmitted to the professional cameraman or the spectator and displayed. Further, in the embodiment, the example of tracking the player has been described, but it goes without saying that the invention can be applied to a system for tracking a person such as a criminal using a plurality of surveillance cameras.
- the server detects ball position information based on images from a plurality of cameras.
- the rough position of the player is estimated from the position information of the ball.
- player roles such as forward and backs (starting member players recognize player roles based on their uniform numbers. Reserve players can identify player information already registered and their uniform numbers and their numbers in today's match. Depending on the role of the player, the name, uniform number, and role of the reserve player are recognized.)
- the area for searching the player of face information is recognized.
- the server recognizes a plurality of face information of the attention player including the reserve player, and acquires the position information of the player of the face information from the video information of the plurality of cameras.
- the reserved player can be input by inputting the visible size, angle, and background (field) information. It is possible to obtain the position information of the noted player including In S1003, the absolute position of the noted player including the reserve player is detected based on this input information.
- S1004 the absolute position of the player of interest detected in S1003 is transmitted to the camera terminal owned by the professional photographer or the general public.
- S1005 it is determined whether or not the tracking of the noted player is continued. If the tracking of the noted player is continued, the process proceeds to S1006, and if the tracking of the noted player is not continued, the flow of FIG. 22 is ended.
- S1006 it is determined whether a temporary exit foul has been performed. If there is a temporary exit foul, the process proceeds to S1007. If there is no temporary exit foul, the process proceeds to S1005.
- step S1007 it is determined whether or not the offense for temporary exit was a red card. If it is a red card foul, the procedure proceeds to S1008, and if it is not a red card foul, the procedure proceeds to S1009. The process proceeding to S1009 is a case where the Simbin's foul is being performed.
- step S1008 the server recognizes the player who received the red card, removes the player from the members participating in the match, and updates the participating player information list.
- the server recognizes the player who has received the Shinbin, and updates the player information list that is participating for about 10 minutes (10 minutes is a guideline) from the member participating in the match.
- the player who received Shinbin will return to the field, update the list of participating player information.
- the player who received the shinbin returns to the field, the list of participating player information is updated, and the process proceeds to S1001.
- the role of the player position, and the situation of the match (whether a certain team is attacking or defending) was judged according to the position of the ball. For example, as a control based on the situation of the match (competition situation) Is not limited to the position of the ball.
- the other team is given a penalty kick.
- the team with the penalty kick is more likely to move forward than the current ball position. Therefore, it is possible to perform control based on the game situation in which it is predicted that the player will move forward. You may predict the position of the ball from the foul.
- the server may detect that a player has committed an offense and is leaving the field by recognizing it with a plurality of cameras.
- it may be detected from the foul information displayed on the large screen.
- the professional photographer or the spectator can predict the position of the next ball if the determination situation is known in real time. Further, by displaying the information on this foul on the display unit of the camera, the camera terminal side can predict the position of the next possible ball by looking at this display and take a better photo of the photo opportunity.
- the referee consists of one referee and two touch judges.
- video judgment TMO (television match official) is performed to assist the judgment of the referee when it is difficult to judge with the naked eye.
- the professional photographer or the general public wants to know immediately whether the captured image was certified as a trial or not. .. Therefore, the judgment is accurately recognized by following the judgment from the images of a plurality of cameras or by analyzing the information on the server based on the information displayed on the electronic bulletin board. Then, by transmitting the judgment result of the referee to a terminal such as a camera of a professional photographer or a general audience, the user can correctly recognize the judgment result in a timely manner.
- S1101 represents initialization.
- the TRY judge flag is cleared.
- S1102 it is determined whether or not photography is selected. If photography is selected, the process proceeds to S1103. If photography is not selected, the process proceeds to S1101.
- S1103 the setting information of the camera is obtained.
- S1104 the balls used in the match are tracked from the images of the plurality of cameras.
- step S1107 the TRY judge flag is set to 1.
- step S1108 it is determined whether or not there is a try. 24 (A), (B), FIG. 25 (A), (B), and FIG. 26 show specific examples of determining the try, which will be described later.
- step S1109 in the control of S1108, it is determined whether or not the determination result of the presence / absence of a try is obtained.
- the process proceeds to S1110, and if the determination result of the presence / absence of a try is not obtained, S1112 Proceed to.
- step S1110 the TRY judge flag is set to 0.
- the server sends information on whether or not there was a try to a terminal such as a camera owned by a professional cameraman or a general audience.
- S1112 it is determined whether or not the game is over. If the game is over, the process proceeds to S1101, and if the game is not over, the process proceeds to S1104.
- the above is the control for determining the presence / absence of a try.
- the CPU may execute not only this control but also the detection control of the player of interest shown in FIG.
- the control executed by the server in parallel is not limited to this, and a plurality of other controls may be executed simultaneously.
- terminals such as cameras held by professional photographers and general spectators, and a plurality of other controls may be simultaneously performed.
- FIG. 24A shows a flow of determining whether or not there is a try from the movement of the ball on the server side.
- the server detects a place where the ball exists from the images of the plurality of cameras.
- the trial presence / absence determination flow from the referee operation is shown in FIG.
- the action of the referee around the attention player after that is analyzed from the images of the multiple cameras and the image is analyzed.
- the server sends information (motion recognition result) regarding the analysis result of whether or not the motion of this recognized referee is a try (motion recognition result) to a terminal such as a camera owned by a professional cameraman or a general audience together with player information.
- a terminal such as a camera owned by a professional cameraman or a general audience together with player information.
- the server detects a referee's motion near a motion that makes a try determination from the images of a plurality of cameras.
- S1302 whether or not there is a try in a scene considered to be a try from the images of the plurality of cameras is recognized from the referee's action.
- FIG. 31 illustrates the referee operation for determining whether or not there is a try.
- FIG. 31 (A) shows the referee's operation when the try is established.
- FIG. 31B shows the referee's operation when the try is not established. Further, a flow of recognizing the presence or absence of a try from the information displayed on the large screen of the stadium will be described with reference to FIG. When there is a play that seems to have been attempted by analyzing the images of multiple cameras, enter the information displayed on the large screen of the stadium with multiple cameras and try from this screen information. Recognize whether or not
- the server sends information indicating whether or not it was a try from the recognized information on this screen to a terminal such as a camera owned by a professional cameraman or a general audience together with player information.
- FIG. 25A shows a flow on the server side for judging the presence / absence of a try from the judgment result of screen display.
- the server detects information of the determination result displayed on the screen after the movement such as the try from the images from the plurality of cameras.
- it is recognized from the determination result displayed on the screen whether or not there is a try in a scene considered to be a try from the images of the plurality of cameras.
- FIG. 25B shows a flow in which the server determines whether or not there is a try from the score information on the screen.
- the server detects the score information displayed on the screen after the movement like a try from the images of the plurality of cameras.
- it is recognized from the difference between the score information displayed on the screen whether or not there is a try in a scene considered to be a try from the images of the plurality of cameras.
- a try, a conversion kick, a penalty kick, or a drop goal is recognized from the difference in the score information displayed on the screen as to whether or not there is a try in a scene considered to be a try from the images of the plurality of cameras.
- FIG. 26 shows a specific flow of determining the presence / absence of a try from the voice information by the server.
- the server detects audio information after a try-like movement from the microphones of a plurality of cameras.
- the microphones of the plurality of cameras recognize whether or not there is a try in a scene considered to be a try based on the voice information.
- the score by the conversion after the try and the score by the penalty kick may be considered in addition to the score of the try.
- the detection flow on the server side as to whether or not a try has been performed is shown in FIG. 23, but the control on the terminal side such as a camera regarding whether or not a try has been made will be described.
- FIG. 27 shows a try determination control flow on the side of a terminal such as a camera.
- S101 to S107-2, S109, and S110 are the same as the steps in FIG. 9, so description thereof will be omitted.
- S1620 it is determined whether or not the tracking of the noted player is OK (successful). If the tracking of the noted player has succeeded, the process proceeds to S1621.
- S1621 it is determined whether or not the try determination result is sent from the server. When the try determination result is sent from the server, the process proceeds to S1622. When the try determination result is not sent from the server, the process returns to S107 and the camera itself pays attention. Continue tracking players.
- S1622 the try determination result is displayed on the display unit of the camera.
- step S109 determines whether or not the shooting of the player of interest has finished. If not, the process returns to step S105. If it is finished, the process proceeds to S1623, it is determined whether or not the try determination result is sent from the server, and if the try determination result is sent from the server, the process proceeds to S1624 and the try determination result is displayed on the display unit of the camera terminal. To do. If the try determination result is not sent from the server, the process returns to S101. As described above, when it becomes a try-like state, it becomes possible to display on the camera terminal side whether or not the try is successful.
- the general audience or the cameraman can correctly recognize the evaluation of the photographed picture, for example. Then, the cameraman can recognize the determination just by looking at the display section of the camera, so that the photographer can appropriately select the photograph to be sent to the news media and the like, and can quickly prepare for the next photographing. Next, the judgment of a player's foul play will be described. Depending on the level of penalty in the foul, the advantage given to the opponent team also changes. If the foul play is heavy, you will be given a yellow card and become a shinbin, and you will not be able to participate in the game for 10 minutes.
- FIG. 28 shows a control flow of a player's foul judgment on the server side, which explains an example of a method for detecting whether a foul has been performed.
- S1701 represents initialization.
- the judge flag is cleared.
- step S1702 it is determined whether or not photography is selected. If photography is selected, the process advances to step S1703 to obtain camera setting information. If photography is not selected, the process returns to S1701.
- step S1704 a plurality of cameras chase all the players participating in the match.
- S1705 it is determined whether or not the judge flag is 0. When the judge flag is 0, the process proceeds to S1706, and when the judge flag is not 0, the process proceeds to S7107.
- step S1706 it is determined whether the player has a foul, and if the player seems to have a foul, the process proceeds to S1707 and the judge flag is set to 1. If the player does not seem to be foul, the process proceeds to S1712.
- the process proceeds to S1712.
- there was a possibility of foul play here because it seems that there was a foul on the player, because the player may or may not be a foul, depending on how he tackles the opponent's player, how he hits it, etc. Refers to.
- step S1708 it is determined whether there is a foul by the player. 29A and 29B show a specific example of a flow for determining a player's foul play, which will be described in detail later.
- S1709 in the control of S1708, it is determined whether or not the determination result of presence / absence of an offense of the player is obtained.
- the process proceeds to S1710, and the determination result of presence / absence of an infringement of the player. If not, go to S1712.
- the judge flag is set to 0.
- the server sends information on whether or not there is a foul to the player and, if there is a foul, information on the foul level to a terminal such as a camera owned by a professional photographer or a general audience.
- S1712 it is determined whether or not the game is over. If the game is over, the process proceeds to S1701, and if the game is not over, the process proceeds to S1704.
- the above is the control to judge the presence or absence of foul play.
- the flow does not execute only this control, and other plural controls may be executed simultaneously or in parallel.
- the terminal side such as a camera held by a professional photographer or a general audience, and the terminal side may perform a plurality of controls simultaneously or in parallel.
- the server sends the information indicating whether or not it is a foul from the recognized motion of the referee together with the player information to a terminal such as a camera owned by a professional cameraman or a general audience.
- a terminal such as a camera owned by a professional cameraman or a general audience.
- FIG. 29 (A) An example of a player's foul judgment flow from the referee action on the server side is shown in FIG.
- the server detects a referee's motion such as a foul action of a player from the images of a plurality of cameras.
- the referee's action is used to recognize from the images of the plurality of cameras whether or not there is a player's foul in a scene that seems to be a player's foul.
- a flow for recognizing the presence or absence of a foul rule from the voice information announced in the field will be described with reference to FIG. If there is a play that seems to have been an offense by analyzing the voice information input from the microphones attached to multiple cameras, analyze the voice information from the above microphones to see if it was an offense from the voice information. Recognize.
- FIG. 29B shows a flow on the server side for judging the foul play of the player from the voice information.
- the server detects the voice information after the player's fake movement from the microphones of the plurality of cameras.
- the microphones of the plurality of cameras determine whether there is a player's foul in a scene considered to be a player's foul, and if the player has a foul, the level of the foul is recognized from the audio information.
- the server analyzes the surrounding information other than the player of interest (other than the specific target) and transmits the analysis result to the image processing device such as the camera. Then you will be able to grasp the real-time situation of the competition such as tries, goals and fouls. Therefore, in particular, a professional photographer or the like can obtain very useful information when selecting a photo and sending it to the news media in a timely manner during a match.
- the player's movements may be stored in the server as big data, and AI's movement prediction may be performed based on this big data.
- a plurality of attention players may be designated.
- attention players can be switched on the way. All players who have participated in the match as players of interest may be used. Further, video and images include not only moving images but also still images. In addition, I have mainly explained the pursuit and tracking of attention players. However, instead of chasing only the attention player, information about the player who has the ball or receives the ball may be transmitted to the professional cameraman or the spectator and displayed.
- the example of tracking the player has been described, but it goes without saying that the invention can be applied to a system for tracking a person such as a criminal using a plurality of surveillance cameras. Alternatively, it can be applied not only to a person but also to a system for tracking a specific vehicle in car racing or the like, or a system for tracking a horse in horse racing or the like.
- the server may be allowed to specify the player of interest.
- FIG. 32 shows an example of a player detection control flow including reserve players in that case.
- the server detects ball position information from images of a plurality of cameras. The rough position of the player of interest is estimated from the position information of the ball.
- player roles such as forwards and backs (starting member players recognize player roles by their uniform numbers. For reserved players, the player information already registered and the uniform numbers of players in today's match)
- the area, in which the face information player is searched is recognized according to the name, the uniform number, and the role of the reserve player.
- the server recognizes the face information of the attention player including the reserve player in the area recognized in S801, inputs the video information of a plurality of cameras, and acquires the position information of the player of this face information. To do.
- the image of each camera among the multiple cameras can be input by inputting the visible size, angle, and background (field) information. It is possible to acquire the position information of the attention player including the reserve player. In the same way, if you find the face information of the player of interest including the reserve player in the images of multiple cameras, you can enter the size of the visible face, the angle, and the information of the background (field). The accuracy of the position information of the player of interest including the player is improved.
- the absolute position of the noted player is detected based on the position of the noted player from the video information of the plurality of cameras detected in S802.
- the absolute position of the player of interest detected in S803 is transmitted to the camera terminal held by the professional cameraman or the general audience.
- the situation of the match or competition (whether a certain team is attacking or defending) was judged according to the position of the ball.
- the position of the ball Not limited to. For example, if one team fouls, the other team will be given a penalty kick. In this case, in the match, the team that got the penalty kick is more likely to move forward than the current ball position. Therefore, it is possible to perform control based on the game situation in which it is predicted that the player will move forward. In this way, the position of the ball may be predicted from the situation of foul play.
- FIG. 33 shows a focused player detection control flow including a reserved player using face recognition information considering the role (position) of the player at the time of player change.
- S905 it is determined whether or not the tracking of the noted player is continued. If the tracking of the noted player is continued, the process proceeds to S906, and if the tracking of the noted player is not continued, this control is ended. In S906, it is determined whether a player change has been performed. If there is a player change, the process proceeds to S907, and if there is no player change, the process proceeds to S901. In S907, the server recognizes the player change and updates the information list of the players participating in the match.
- the situation of the match (whether a certain team is attacking or defending) was judged according to the position of the ball, but for example, the control based on the situation of the match is not limited to the position of the ball. For example, if one team violates, a penalty kick is given to the other team. In this case, the team with the penalty kick is more likely to move forward than the current ball position. Therefore, it is possible to perform control based on the game situation in which it is predicted that the player will move forward. In this way, the position of the ball may be predicted from the situation of foul play. Further, regarding the player change in S906, for example, the server may detect that the player is leaving the field and that the player is entering the field by recognizing with a plurality of cameras.
- the server sends this information to a camera terminal owned by a professional photographer or a general audience. Athletes who are considered Shinbin will not be able to participate in the match for 10 minutes.
- the player change information is recognized from the images of a plurality of cameras, and the information of the players leaving the field and the players entering the field (including the positions of these players) is recognized.
- the server sends the information to a camera terminal owned by a professional photographer or a general audience. Athletes who enter the field at the time of player substitution chase from where to enter, and at the same time, they notify the camera terminals owned by professional photographers and general spectators.
- a player of interest is registered in advance, a mark of where the player of interest is placed is shown on the display unit of the camera, and the focus adjustment (AF) is automatically performed on the player of interest. ..
- AF focus adjustment
- FIG. 34 illustrates a display unit on the camera side in AF (autofocus) for a player of interest.
- AF autofocus
- the camera performs AF (autofocus) on the player of interest.
- the image viewed by the photographer on the display unit of the camera is as shown in FIG. 34B, and since the player of interest is AF (autofocused), it is possible to take a picture without missing a photo opportunity. At this time, the exposure adjustment may be automatically performed on the noted player.
- FIGS. 35 and 36 show a flow of AF of the noted player in the noted player display tracking control on the camera side.
- the camera itself tracks the player of interest based on the position information of the player of interest.
- the marked player is marked on the display unit, and then the focused player is subjected to AF (autofocus).
- step S3808 it is determined whether or not the tracking of the player of interest has succeeded. If the tracking of the player of interest has succeeded, the process proceeds to step S3807 to continue tracking the player of interest with the camera itself. If the tracking continuation of is not successful, the process proceeds to S109.
- FIG. 36 shows the details of the flow of S3807.
- the camera receives the absolute position information of the player of interest from the server.
- the camera converts the absolute position information of the player of interest into relative position information based on the position, direction, magnification, etc. taken by this camera.
- the information of the player of interest is displayed on the display unit based on the information of the relative position viewed from the camera.
- information is input from the operation unit input unit 906, and it is determined whether or not a mode for executing AF (autofocus) of the player of interest based on position information from the server is selected.
- step S3815 If AF (auto focus) of the player of interest is selected, the process advances to step S3816. If AF (auto focus) of the player of interest is not selected, AF or AE is performed according to the frame displayed in the center of the display screen of the camera regardless of the position information of the player of interest. I shall.
- a known method may be applied to the AF (autofocus) method in S3815, and a description thereof will be omitted. Further, in step S3815, the exposure of the player of interest may be adjusted. In S3816, it is determined whether or not the tracking of the noted player is continued. If the tracking of the noted player is continued, the process proceeds to S3811, and if the tracking of the noted player is completed, the flow of FIG. 36 is ended.
- FIG. 37 shows a display example of the camera display unit during automatic chasing.
- 3901 represents the display unit of the camera.
- seven players A, B, C, D, E, F, G, and H are in the shooting area for cameras of professional photographers and general spectators.
- the player of interest is K, who is out of the shooting area of the camera.
- FIG. 3902 represents the zoom-out state of the camera display unit when the automatic chase mode is ON.
- the camera is automatically set to the wide-angle side by the zoom function, and the player K of interest is controlled so as to enter the shooting area.
- FIG. 38 is a diagram showing a more specific display example.
- FIG. 38 (A) when the live view image from the image sensor is displayed, the arrow indicates that the player of interest is outside the display screen. Displayed and shown in the direction of the arrow.
- FIG. 38B shows the case where the zoom becomes wide by the automatic chase mode.
- the position of the player of interest is also displayed with an arrow on the screen. In this way, the focused player comes into the display screen, so that the situation of the competition can be easily grasped, and the image desired by the user can be easily obtained.
- 39 and 40 show a focused player display tracking control flow on the camera side, that is, a flow in the automatic chase mode of the focused player.
- the same reference numerals as those in FIG. 8 indicate the same steps, and the description thereof will be omitted.
- the camera itself tracks the player of interest.
- the automatic chasing mode is selected by the operation unit, the chasing of the player of interest is performed automatically, and when the automatic chasing mode is not selected, the automatic chasing is not performed.
- the camera terminal owned by a professional photographer or the general public automatically tracks the player of interest.When no player is in the camera area, the zoom ratio is automatically adjusted so that the player zooms out and the player enters the screen of the camera display. Control. Details of the control in S4007 are shown in FIG. 40 and will be described later.
- S4008 it is determined whether or not the tracking of the noted player has succeeded (OK or not). If the tracking of the noted player has succeeded, the process proceeds to S4007 to continuously track the noted player with the camera itself. If it is determined that the tracking of the player of interest has not succeeded, the process proceeds to S109. Details of S4007 will be described below with reference to FIG. In FIG. 40, in S4011, the camera receives the absolute position information of the player of interest from the server. In step S4012, the camera converts the absolute position information of the player of interest into relative position information based on the position, direction, magnification, etc. captured by this camera.
- step S4013 the information of the player of interest is displayed on the display unit based on the information of the relative position viewed from this camera.
- step S4014 it is determined whether or not the player of interest is outside the area photographed by the camera. If the player of interest is outside the area imaged by the camera (outside the display image), the process proceeds to step S4015. If it is inside the area of the player imaged by the camera (inside the display image), the process proceeds to step S4018.
- step S4015 information from the operation unit input unit 906 is input, and it is determined whether or not the user has selected the automatic chase mode of the player of interest.
- step S4016 If the player's automatic chasing mode is selected, the process proceeds to step S4016. If the player's automatic chasing mode is not selected, the process proceeds to step S4018. In S4016, zooming out is performed to the wide-angle side until the player of interest is displayed on the display unit of the camera. In S4017, AF (autofocus) of the player of interest is executed. At this time, AE is also performed so that the noted player has an appropriate exposure. In S4018, it is determined whether or not the tracking of the noted player is continued. If the tracking of the noted player is continued, the process proceeds to S4011. If the tracking of the noted player is completed, the flow of FIG. 40 is ended.
- the server reads the video of the entire competition field and at the same time understands where the video is being taken from the video taken by professional photographers and the general public.
- the server can map the position information of the field and the video seen by professional photographers and general spectators.
- the camera of a professional photographer or a general audience receives the absolute position information of the player of interest from the server, it becomes possible to map this absolute position information and the video that is being shot. That is, the camera of the professional photographer or the general audience can recognize the player of interest and can take timely photographs.
- the zoom is set to the wide-angle side so that the player of interest enters inside the area shot by the camera. Furthermore, since the camera automatically adjusts the focus and exposure of the player of interest, the camera of the professional photographer or the general public can quickly and surely capture an image in which the player of interest is in focus. Further, in addition to AF (auto focus), AE (Automatic Exposure: automatic exposure adjustment) is automatically executed, so that an optimum image can be obtained without waiting for user adjustment. Note that only AE may be performed without AF. Further, the user may selectively turn off one of the AF and AE controls by a selection switch (not shown).
- the server may grasp the current situation in the field and predict what may happen next. Then, the server notifies this prediction information to the camera terminal owned by the professional photographer or the general audience. This prediction information is displayed on the camera terminals owned by professional photographers and general spectators. By looking at this information, professional photographers and general spectators can more reliably obtain a photo opportunity.
- FIG. 41 shows a focused player substitution detection control flow in which the substitution timing of the athlete is predicted from the reserve situation of the athlete in the reserve.
- S4109 it is determined whether or not the attention player is continuously tracked. If the attention player is continuously tracked, the process proceeds to S4107, and if the attention player is not continuously tracked, the process proceeds to S4110. In S4110, it is determined whether or not the shooting of the noted player is completed. If the shooting of the focused player is completed, the process proceeds to S4111, and if the shooting of the focused player is not completed, the process proceeds to S206. In S4111, it is determined whether there is a movement of the reserve player. If there is a movement of the reserve player, the process proceeds to S201, and if there is no movement of the reserve player, the process proceeds to S4108.
- the server acquires position sensor information of the player of interest from a plurality of cameras.
- the plurality of cameras each include detection means for receiving radio waves from the position sensor, detecting the direction of the received radio waves, the level of the received radio waves, and outputting as position sensor information.
- the absolute position of the player of interest is detected from the position sensor information from a plurality of cameras.
- information on the absolute position of the player of interest is transmitted to the camera terminal owned by the professional cameraman or the general audience.
- S4205 it is determined whether or not the tracking of the noted player is continued. If the tracking of the noted player is continued, the process proceeds to S4201, and if the tracking of the noted player is not continued, the flow of FIG. 42 is ended.
- the reserve player recognition control flow of S4108 is shown in FIG. In FIG. 43, in S4301, the server acquires the position sensor information of the reserve player with a plurality of cameras. The position sensor information also includes the direction of the received radio wave and the level of the received radio wave.
- the absolute position of the reserve player is detected from the position sensor information of multiple cameras.
- attention is paid to the movement of the reserve player.
- pay attention to the movement of the noted player if it is a reserve.
- it is determined whether or not there is a movement of the reserve player. If there is a movement of the reserve player, the flow of FIG. 43 ends, and if there is no movement of the reserve player, the process proceeds to S4301.
- the substitution of the player may be predicted based on statistical data such that the possibility of the substitution of the pitcher increases when the player is hit.
- the movement of the player may be stored in the server as big data, and the movement of the player may be predicted by AI based on this big data.
- the number of the attention player is one, but the attention player may be a plurality of players.
- the attention player can be switched on the way.
- the video includes not only a moving image but also a still image.
- the position of the player of interest can be displayed on the terminal side of the camera or the like in a timely manner, so that the spectator or the cameraman does not miss a photo opportunity when shooting the player of interest. be able to.
- the embodiment has been described by using the example of tracking a rugby player or the like, it may be another athlete or is applied to a system for tracking a person such as a specific criminal using a plurality of surveillance cameras or the like. It goes without saying that you can do it. Alternatively, it can be applied not only to a person but also to a system for tracking a specific vehicle in car racing or the like, or a system for tracking a horse in horse racing or the like.
- the server may be allowed to specify the player of interest.
- a program (software) that implements a part or all of the control according to the present invention to realize the functions of the above-described embodiments may be supplied to the imaging device or the information processing device via a network or various storage media. Then, the computer (or the CPU, MPU, or the like) in the imaging device or the information processing device may read out and execute the program. In that case, the program and the storage medium storing the program constitute the present invention. (Cross-reference of related applications)
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
プロカメラマンや一般の観客が、映像を取得する際に、特定の対象の位置情報をタイムリーに表示できるようにする。 画像処理装置において、画像を表示する表示手段、前記表示手段に表示された画像の中から特定の対象を選択する選択手段、前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
Description
本発明は撮影や映像モニターのための画像処理装置等に関するものである。
近年、国際化が進み、多くの観光客が日本を訪問するようになっている。また、競技スポーツにおいても、様々な国の選手の撮影機会が大幅に増加している。
しかしプロカメラマンにとっても、一般の写真を撮影する人にとっても、例えば競技スポーツシーンにおいて多数の選手の中から特定の選手を見つけることは比較的難しい。また、特に競技スポーツにおける競技中は動きが速く複数の選手が交錯し選手のいる場所を見失うことが多々ある。これは、競技スポーツに限らず雑踏の中から特定の人物等を撮影したりモニターしたりする場合でも同じことが言える。
しかしプロカメラマンにとっても、一般の写真を撮影する人にとっても、例えば競技スポーツシーンにおいて多数の選手の中から特定の選手を見つけることは比較的難しい。また、特に競技スポーツにおける競技中は動きが速く複数の選手が交錯し選手のいる場所を見失うことが多々ある。これは、競技スポーツに限らず雑踏の中から特定の人物等を撮影したりモニターしたりする場合でも同じことが言える。
特許文献1には、被写体を複数の方向から撮影するための複数のカメラと、前記複数のカメラのうち対応するカメラによる撮影画像から所定領域を抽出する複数の画像処理装置が記載されている。また、前記複数の画像処理装置により前記複数のカメラによる撮影画像から抽出された所定領域の画像データに基づいて仮想視点画像を生成する画像生成装置が記載されている。
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
しかしながら、スポーツシーンなど、多くの選手が集まっている場合などでは、選手が重なってしまったりして、見失ったりすることがある。また視野から外れることもあり、適切なタイミングで選手を撮影するのはより難しかった。
また、特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、判定結果が分からないと判定の認識に時間をとられてしまうという欠点があった。
また、特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、判定結果が分からないと判定の認識に時間をとられてしまうという欠点があった。
さらに、撮影したい選手を見つけても、その選手へのフォーカスを合わせた後に、その撮影したい選手を追いかけていかないといけなかった。これは、動きの速いスポーツでは、とても難しく、また、この追いかけることに集中していると、良い写真の撮影ができないということになってしまうという欠点があった。
またサーバー側では、全方位の映像、試合や競技のフィールドの各種情報を把握することができ、グランド内外の各種の貴重な情報も入手することができるが、従来のシステムではサーバーの活用が十分でないという問題があった。
またサーバー側では、全方位の映像、試合や競技のフィールドの各種情報を把握することができ、グランド内外の各種の貴重な情報も入手することができるが、従来のシステムではサーバーの活用が十分でないという問題があった。
同様に、競技場や自宅の端末で競技をモニターしている一般ユーザーにとっても特定の選手を見失ったり競技の状況がわからなくなったりする場合が多かった。同様にカーレースや飛行機レースや競馬などにおいても特定の車両や飛行機や馬などの対象を見失ってしまうことがあった。更には特定の人物を街角で追跡する場合においても雑踏の中にその特定の人物が紛れてしまい見失うことがあった。また、そのような、注目している特定の対象を目視で追いかけることに専念しているとその対象に対する撮影やピント合わせや露出調整などをスムーズにできないという問題があった。
本発明は、上記、課題を解決し、撮影者や観察者にとって有益な情報をタイムリーに表示できる画像処理装置を提供することを目的とする。
本発明は、上記、課題を解決し、撮影者や観察者にとって有益な情報をタイムリーに表示できる画像処理装置を提供することを目的とする。
画像処理装置において、
画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
本発明によれば、ユーザーが、狙った特定の対象を指定すれば、その特定の対象が画面のどこにいるかが簡単にわかりユーザーが例えばその特定の対象をモニターしたり撮影したりする場合などにおいてその特定の対象を見失いにくくなる。
以下本発明を実施するための形態につき、実施例を用いて説明をする。
最初に撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。
最初に撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。
図1において、サーバー用の複数台のカメラ(固定カメラやドローンなどを用いた移動カメラ)を有するサーバー(画像処理サーバー)側が、競技場のフィールド全体における注目選手(特定の対象)の位置やゲームの最新の状況をリアルタイムで把握する。そして、サーバーが、個々の観客が持っている端末に対して、例えばカメラ撮影や画像のモニターの際に必要な情報をタイムリーに提供する例を示す。
一般にプロカメラマンや一般の写真撮影者がカメラで撮影している角度や視野では分からないあるいは追えない場所が存在することが多い。競技場外にいて撮影をしていない観客にとっても同様である。一方、サーバー側のシステムでは、複数のサーバー用のカメラの映像をもとに全方位の映像、試合のフィールド全体の情報(フィールドの座標情報等)をあらかじめ把握しマッピングができる。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
即ち、サーバー用の複数台のカメラ(固定カメラや移動カメラ)で、各選手の位置、得点、反則、審判の判断結果、その他の最新状況を追いかけたりすることができる。また大型スクリーンなどに表示され情報を基にして、サーバーで解析したりすることもできる。それにより全体の状況を正確に認識して、プロカメラマンや観客が保有するカメラ端末等やスマートフォンやタブレット等の端末にタイムリーに送信することができる。それにより、観客は競技の最新の状況をタイムリーに把握することが可能となる。特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、カメラの画面を見ているだけでは視野が狭いので競技の全体の状況などが正確に把握しにくい。
しかし、本実施例のような構成を用いれば、競技の状況などが速やかに分かるので、報道局などに送る写真の選択を素早く行うことが可能となる。
なお、プロカメラマンや観客が用いる端末(画像処理装置)としては、デジタルカメラ、スマートフォン、カメラとスマートフォンなどを接続した構成、タブレットPCあるいはTVなどが考えられる。家庭でインターネットやテレビ放送をPCやTV等の端末(画像処理装置)を通じて競技を見ている観客に対しても同様のサービスを提供することができるので競技などの状況をより正確に把握することができ競技をより楽しむことができる。
なお、プロカメラマンや観客が用いる端末(画像処理装置)としては、デジタルカメラ、スマートフォン、カメラとスマートフォンなどを接続した構成、タブレットPCあるいはTVなどが考えられる。家庭でインターネットやテレビ放送をPCやTV等の端末(画像処理装置)を通じて競技を見ている観客に対しても同様のサービスを提供することができるので競技などの状況をより正確に把握することができ競技をより楽しむことができる。
図1において、101~103はサーバー用のカメラであり、101(固定設置されたカメラ1)、102(固定設置されたカメラ2)、103(固定設置された3)、104(大型スクリーン)、110(サーバー)、111(入力手段)、112(基地局)は、一般のプロカメラマンや観客への情報提供をするための映像取得や音声取得などを行う。サーバー用カメラは、本実施形態では101~103の3台としたが、1台でも複数台でもよい。また、これらのサーバー用カメラは、固定設置されたカメラではなく例えばドローンなどに搭載されたカメラでもよい。映像取得、音声取得に加えて、入力手段から映像以外の入力情報(例えば音声など)も取り込み、一般のプロカメラマンや観客等へのサービスを拡充できる。
105は有線/無線などによるLANやインターネットであり、106は、入力手段111から出力された情報をサーバー110で入力するための接続線である。107は、基地局112への信号を送受信するための接続線、108は、基地局の無線通信を実行するためのアンテナ部である。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
一方、図1において、401(端末1)、402(端末2)、403(端末3)は端末であり、例えばプロカメラマンや観客が撮影やモニターをするための例えばカメラやスマートフォンやタブレットPCやTVなどの映像表示端末装置である。ここで、404(アンテナ)405(アンテナ)、406(アンテナ)は、それぞれ、401(端末1)、202(端末2)、203(端末3)が無線通信するためのアンテナである。
サーバーが注目選手の位置を検出する際には、例えば端末からサーバー側に注目選手のID情報などを送り、また、サーバー側から端末にその選手に関する位置情報などの各種情報を送る。選手は動いており、競技状況も変化しているので、短時間での注目選手の検出処理が必要になる。よって、ここでの無線通信は、例えば5Gなどを用いる。
サーバーが注目選手の位置を検出する際には、例えば端末からサーバー側に注目選手のID情報などを送り、また、サーバー側から端末にその選手に関する位置情報などの各種情報を送る。選手は動いており、競技状況も変化しているので、短時間での注目選手の検出処理が必要になる。よって、ここでの無線通信は、例えば5Gなどを用いる。
なお401(端末1)、402(端末2)、403(端末3)はカメラとスマートフォンなどを接続して組み合わせた構成としても良い。図1の右下において、301はスマートフォンであり、主にサーバーとの通信制御を行う。また、このスマートフォンに、アプリケーションソフトウェアをインストールすることで、各種の映像取得サービスを実現する。また、300は(デジタル)カメラであり、主に、プロプロカメラマンや観客が撮影したり画像をモニターしたりする画像処理装置である。ここで、カメラ300はスマートフォン301にUSBあるいはブルートゥース(登録商標)などにより接続されている。320はスマートフォン301が基地局112と無線通信するためのアンテナである。
なお、端末がスマートフォン等の場合は、サーバーとの映像、制御信号のやりとりを無線で実行するが、端末との通信を実行するための接続は、無線通信と有線通信を適応的に使い分けても良い。例えば、無線通信環境が5Gであれば無線で通信し、無線通信環境がLTEであればデータ量の多い情報は有線で送り、データ量の少ない制御信号は無線で送るといった制御も可能である。さらには、無線通信の回線の混み具合によって、有線通信に切り替えることも可能である。
次に、図2を用いてサーバー側の詳細なブロック構成を説明する。図2において、図1と同じ符番は同じ構成を示し説明は省略する。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
すなわち、選手の役割(ポジション)に応じて、選手のいる位置が大体決まるので、注目選手の上記役割(ポジション)を把握したうえで、選手を追いかけたほうが、効果的に精度よく選手を追いかけることができる。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
205は、輪郭情報検出部であり、たとえば、プロカメラマンや観客が端末で映像をモニターしつつ、その位置、角度からカメラの倍率で撮影している時に、サーバー110は注目選手のいる位置を各端末401~403などに知らせる。また、撮影している注目選手の輪郭情報をサーバー110から各端末401~403などに知らせることで、各端末401~403側で、より確実に注目選手を認識することが可能になる。205のブロックで検出した輪郭情報は、CPU211に取り込まれる。
206は選手の顔認識部であり、注目選手の予め登録された顔写真情報に基づきAI、特に、Deep Learningなどの画像認識技術を用いて映像の中から選手を見つける。顔認識部206で検出した顔認識結果の情報もCPU211に取り込まれる。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
208は選手の背番号検出部であり、前記のような画像認識技術を用いて注目選手の、あらかじめ登録した番号(背番号など)から選手を見つける。なお選手の番号を検出する際はビブスの背中側の番号だけでなく、前側に書かれた番号を検出してもよいことは言うまでもない。209は位置情報作成部であり、カメラ101、102、103等のGPSなどを用いた位置情報とカメラの向きと画角に関する情報から、各カメラの位置と方角と画角を認識する。そして、各カメラからの映像に基づきその選手がいるグラウンド上での絶対的な位置情報を三角測量方式で取得する。
この位置情報作成部209は競技場に予め設置された基準位置検出用の基準指標としてのポールや競技フィールドのライン(例えばサイドラインやエンドライン)等の画面内での位置もあらかじめ映像から取得しておいてもよい。そしてそれらを基準座標として競技場における注目選手のフィールドに対する絶対位置を取得するようにしてもよい。
210は各端末401~403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
210は各端末401~403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
211はコンピュータとしてのCPU(Central Processing Unit)であり、記憶媒体としてのプログラムメモリ712に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する中央演算処理装置である。また、表示制御手段を兼ねており、後述する表示部214に表示する情報を制御する。213はCPU211において参照される各種データを記憶するデータメモリである。データメモリ213には過去の試合情報、過去の選手情報、本日の試合(競技)に関する情報、観客動員数に関する、天候などの情報、注目選手の情報、選手の現在の状況などが格納されている。注目選手の情報の中には顔、背番号、体格などの情報も含まれる。
1101はサーバー110内のデータバスラインである。
1101はサーバー110内のデータバスラインである。
次に、画像処理装置としての端末側の詳細について図3、図4を用いて説明する。図3、図4は端末の構成例を示すブロック図であり、端末の例としてデジタルカメラ500全体の構成を2つの図面を用いて示す。
図3、図4に示されるデジタルカメラは、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画が所定のフォーマットで格納される。
図3、図4に示されるデジタルカメラは、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画が所定のフォーマットで格納される。
303はCCDやCMOSなどの撮像素子としてのイメージセンサーであり、光学像を光信号から電気信号に変換して、さらに、この情報をアナログ情報からデジタルデータに変換して出力する。304は信号処理部であり、イメージセンサー303から出力されるデジタルデータに対してホワイトバランス補正やガンマ補正などの各種補正をして出力するものである。305はセンサー駆動部であり、イメージセンサー303から情報を読み出すための水平垂直ライン駆動やイメージセンサー303がデジタルデータを出力するタイミング等を制御する。
306は操作部入力手段である。デジタルカメラで撮影する際の各種条件を選択したり設定したり、撮影するためのトリガー操作、フラッシュを使用するための選択操作、電池を交換する操作などに応じて入力が行われる。また、操作部入力手段306において、注目選手をサーバーからの位置情報に基づきAF(オートフォーカス)するか否かを選択/設定できる。この注目選手をAF(オートフォーカス)するかの選択/設定情報は、操作部入力手段306からバスライン370に出力される。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
307は送受信手段として機能する無線通信部であり、プロカメラマンや一般の観客などが持っているカメラ端末が無線でサーバー側と通信をするためのものである。308はデジタルカメラにおける撮影倍率を検出する倍率検出部である。309は操作部出力手段であり、デジタルカメラなどで撮影した画像情報を表示する画像表示部380にメニューや設定情報などのUI情報を表示するためのものである。310は圧縮伸長回路であり、イメージセンサー303からのデジタルデータ(RAWデータ)を信号処理部304で現像処理後、圧縮伸長回路310で圧縮してJPEG画像ファイルやHEIF画像ファイルにするか、あるいは、RAWデータのまま圧縮してRAW画像ファイルにする。
一方、RAW画像ファイルをカメラ内で現像処理してJPEG画像ファイルやHEIF画像ファイルを生成する場合に、圧縮されている情報を伸張してRAWデータに戻す処理を行う。
311は顔認識部であり、注目選手についてあらかじめサーバーに登録された顔写真情報を参照し、映像の中からその選手をAI、特に、Deep Learning等の技術を用いた画像認識によって見つけるためのものである。顔認識部311で検出した顔認識結果に関する情報は、バスライン370を介してCPU318に取り込まれる。
311は顔認識部であり、注目選手についてあらかじめサーバーに登録された顔写真情報を参照し、映像の中からその選手をAI、特に、Deep Learning等の技術を用いた画像認識によって見つけるためのものである。顔認識部311で検出した顔認識結果に関する情報は、バスライン370を介してCPU318に取り込まれる。
312は体格認識部であり、注目選手に関してサーバーに予め登録した体格写真情報を参照して、映像の中から前述のような画像認識技術によってその注目選手を見つける。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
316は端末の電源の状態を検出する電源管理部であり、電源スイッチがオフの状態で電源ボタンの押下を検出したら、端末全体に電源を供給する。318はコンピュータとしてのCPUであり、記憶媒体としてのプログラムメモリ319に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する。また、表示制御手段を兼ねており画像表示部380に表示する画像情報を制御する。なお画像表示部380は液晶や有機ELなどを用いた表示部である。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
図4において、350は撮影レンズユニットであり、固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359、ズームモーター353、絞りモーター356、およびフォーカスモーター360を有する。固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359は撮影光学系を構成する。なお、便宜上レンズ351、352、358、359は、それぞれ1枚のレンズとして図示しているが、それぞれ複数のレンズで構成されても良い。
また、撮影レンズユニット350は、デジタルカメラに対して着脱可能な交換レンズユニットとして構成されてもよい。
ズーム制御部354はズームモーター353の動作を制御し、撮影レンズユニット350の焦点距離(画角)を変更する。絞り制御部357は絞りモーター356の動作を制御し、絞り355の開口径を変更する。
ズーム制御部354はズームモーター353の動作を制御し、撮影レンズユニット350の焦点距離(画角)を変更する。絞り制御部357は絞りモーター356の動作を制御し、絞り355の開口径を変更する。
フォーカス制御部361は、イメージセンサー303から得られる1対の焦点検出用信号(A像およびB像)の位相差に基づいて撮影レンズユニット350のデフォーカス量およびデフォーカス方向を算出する。そしてフォーカス制御部361は、デフォーカス量およびデフォーカス方向をフォーカスモーター360の駆動量および駆動方向に変換する。この駆動量および駆動方向に基づいてフォーカス制御部361はフォーカスモーター360の動作を制御し、フォーカスレンズ359を駆動することにより、撮影レンズユニット350の焦点を制御(フォーカス調整)する。
このように、フォーカス制御部361は位相差検出方式の自動焦点(AF)を実施する。なお、フォーカス制御部361は、イメージセンサー303から得られる画像信号のコントラストのピークをサーチするコントラスト検出方式のAFを実行しても良い。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
次に、図5を用いて注目選手表示開始シーケンスの例について説明する。これは、サーバー110とカメラ500とで行うシーケンスである。図5(A)は、カメラ500側の問いかけ(リクエスト)に対して、サーバー110側が答えるシーケンスである。そしてサーバー110側はカメラ500側に、注目選手の絶対位置に関する情報を提供する。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。
あるいはメニューで画面上に複数の選手のリストを表示し、その中の注目選手名をタッチしたりしてもよいし、あるいは画面上に文字入力画面を表示し選手名や選手の背番号を入力してもよい。
その際、注目選手の画面上の顔位置をタッチすると顔を画像認識したり背番号を画像認識して選手名や背番号などを送ったりしてもよい。あるいは、画像認識せずに顔画像そのものをサーバーに送って、サーバー側で画像認識してもよい。またこの時あらかじめ決まったパスワードがあればそれもサーバーに送る。
その際、注目選手の画面上の顔位置をタッチすると顔を画像認識したり背番号を画像認識して選手名や背番号などを送ったりしてもよい。あるいは、画像認識せずに顔画像そのものをサーバーに送って、サーバー側で画像認識してもよい。またこの時あらかじめ決まったパスワードがあればそれもサーバーに送る。
サーバー側では、映像を撮影することをサポートするブロックにより、注目選手指定情報(背番号、選手名等のID情報)に基づいて、選手のいる絶対値的な位置に関する情報をカメラに送る。パスワードもカメラから送られてくればそれに応じてカメラに送る情報の内容を変更する。
図5(B)に別の異なる注目選手表示開始シーケンスを示す。カメラからサーバーには、今、プロカメラマンや一般観客が撮影しているカメラの位置情報、カメラの方角、カメラの倍率、注目選手指定情報(背番号、選手名指定)を通知する。
図5(B)に別の異なる注目選手表示開始シーケンスを示す。カメラからサーバーには、今、プロカメラマンや一般観客が撮影しているカメラの位置情報、カメラの方角、カメラの倍率、注目選手指定情報(背番号、選手名指定)を通知する。
サーバー側では、カメラの位置情報、カメラの方角、カメラの倍率から自由視点映像を作り出す。そして注目選手指定情報(背番号、選手名指定)に基づいて、実際にカメラで見えている映像のどの位置に選手がいるかの位置情報と、カメラに撮影されている選手の輪郭情報も一緒にカメラに送る。
カメラは、サーバーから送られた位置情報、輪郭情報などをもとに、カメラの表示部の画面で注目選手をより精度高く目立つように表示するとともに注目選手に対してAFやAEを行う。
カメラは、サーバーから送られた位置情報、輪郭情報などをもとに、カメラの表示部の画面で注目選手をより精度高く目立つように表示するとともに注目選手に対してAFやAEを行う。
なお、注目選手指定情報(背番号、選手名指定)を通知する代わりに、例えば注目する建物などを指定した場合には、サーバーは輪郭情報としてその建物の輪郭情報をカメラに送っても良い。
注目選手を見つける注目選手表示開始シーケンスの例を簡単に説明したが、端末側は、継続して選手を追いかけていきたい場合が多い。そこで、注目選手表示追跡シーケンスについて図6(A)を用いて説明する。図6(A)においては、端末としてのカメラ500から何度も、例えば周期的にサーバー110へ問い合わせ(リクエスト)を行って、選手の位置を継続して認識するものである。
注目選手を見つける注目選手表示開始シーケンスの例を簡単に説明したが、端末側は、継続して選手を追いかけていきたい場合が多い。そこで、注目選手表示追跡シーケンスについて図6(A)を用いて説明する。図6(A)においては、端末としてのカメラ500から何度も、例えば周期的にサーバー110へ問い合わせ(リクエスト)を行って、選手の位置を継続して認識するものである。
図6(A)において、選手の位置情報を、カメラ500からサーバー110に注目選手のID情報を送って、一度、カメラで注目選手を視野に入れる。その後も継続して上記の「注目選手のカメラ表示開始」を繰り返すことで「注目選手のカメラ表示追跡」を実現できる。具体的には、カメラからサーバーに、注目選手表示開始シーケンス(A1、B1、、、)を周期的に送り、サーバーから注目選手表示開始シーケンス(A2、B2、、、)を周期的に受信して、注目選手の位置を認識する動作を何度も繰り返す。
更に図6(B)では選手の位置情報は、カメラ500からサーバー110に注目選手のID情報を送って、一旦サーバーから注目選手の位置情報を取得する。その後その位置情報を参照してカメラで注目選手を視野に入れたあと、カメラ500自身で画像認識によって継続して注目選手を追跡するものである。図7(A)は、図6(B)の注目選手表示追跡シーケンスに対して、更に、カメラ500自身が画像認識で注目選手を追跡するが、そのあと見失ったときに、デバイス側からサーバーに、注目選手の位置情報をリクエストするものである。
具体的には、カメラで、注目選手を見失ったときには、カメラからサーバーに、注目選手表示開始シーケンス(A1)を送り、サーバーから注目選手表示開始シーケンス(A2)を受信して、注目選手の位置を認識する。図7(B)は、図6(B)の注目選手表示追跡シーケンスに対して更に、サーバー110で、カメラ500が注目選手を見失う可能性が高いと推測した場合を示す。
つまり追跡に失敗すると推測したときに、カメラ500からのリクエストを待たずに、注目選手の位置情報を通知するPushタイプの制御を示すものである。これにより、プロカメラマンや一般観客は、継続して、注目選手がカメラの表示部上で、どこにいるかを検出でき、とても使いやすく、例えばシャッターチャンスを逃すことが大幅に減る。ここで、プロカメラマンや一般観客が注目選手を見失うケースとしては、選手が、モール、ラック、スクラムなどで、外側から見えなくなるケース(いわゆる死角に入る場合)や、あるカメラの方向からは見えないなどがありうる。
なお、本実施例ではプロカメラマンや観客の撮影アシストのためのサービスの例を説明しているが、リモートカメラ制御に使ってもよい。サーバーからこれらの情報を送ることで、自動パンチルト雲台に搭載したリモートカメラにより、選手を追跡して、決定的瞬間を撮影することも可能である。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。
また表示画面外にいる場合に端末が現在見ている角度からどのくらい離れているか(ずれているか)、どのくらい端末を回転しないと注目選手が表示画面内に入らないかなどを矢印の長さや太さや、数字や目盛りなどで表示してもよい。
更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
次に、図7におけるカメラ側での制御シーケンスの詳細を、図8(A)、(B)を用いて説明する。図8(A)、(B)は、カメラ側における注目選手表示追跡制御フローを表している。
次に、図7におけるカメラ側での制御シーケンスの詳細を、図8(A)、(B)を用いて説明する。図8(A)、(B)は、カメラ側における注目選手表示追跡制御フローを表している。
図8(A)においてにおいてS101は初期化を表している。S102で写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
S107はサーバーから送られた位置情報を参照しつつカメラ自身で注目選手の追跡を実施する。ここでは、カメラ自身で注目選手について例えば画像認識を行って追跡する。その場合、選手の背番号、選手の顔情報、選手の体格などのいずれかの認識結果あるいはそれらの組み合わせに基づき選手の追跡を行う。すなわち、注目選手の一部または全体の形状を画像認識して追跡する。ただし、ユーザーの撮影ポジションが悪い場合や、カメラの視界が狭い場合や、撮影角度などによっては他の被写体の背後に隠れてしまったりするので見失う可能性があり、見失った場合には再度サーバーに位置情報のリクエストを送ることになる。
S107-2は、注目選手に対する付加情報としてのマーク表示の例を示している。即ち付加情報としては、注目選手を示すカーソルを表示したり注目選手の位置に枠を表示したり、注目選手位置の色や輝度を目立つように変更したり、あるいはそれらの組み合わせにより表示をする。マーク以外にも文字で表示したりしてもよい。そして画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示す付加情報を重畳する。
図8(B)にマークを表示するS107-2のフローの例を示しており、これについては後述する。なお、上記のようなS107の追跡動作はスキップして実行しないように選択スイッチでユーザーが選択可能にしてもよい。あるいは、注目選手が画面内にいるときには追跡動作を実行するが画面外に出た場合には追跡動作をしない、というモードを設け、そのモードを選択できるようにしてもよい。更には、競技の状況を自動的に判断し、例えば注目選手がベンチ入りした場合などに、画面外の注目選手の追跡動作(矢印などの付加情報を表示など)を自動的に停止するように制御してもよい。
あるいは画面内であるか画面外であるかにかかわらず、注目選手がベンチ入りしたことがサーバー側でわかったら画面における注目選手位置の表示や注目選手に対するオートフォーカスや注目選手に対する自動露光調整を停止するように制御してもよい。
S108では、注目選手の追跡継続がOK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S107に進み更に継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないとS109に進む。
S108では、注目選手の追跡継続がOK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S107に進み更に継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないとS109に進む。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に進む。注目選手の撮影が継続している場合には、S105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。即ち、追跡が失敗した場合はS108でNoとなり、その場合追跡を継続するならS105に戻ってサーバーに位置情報のリクエストを行う。
図8(B)は、カメラ側における注目選手マーク表示制御フローを表している。S120では注目選手の表示部における相対位置を計算して求める。S121では画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置等を示す付加情報を重畳する。
以上の実施例では、サーバー110は、例えば競技フィールド全体の映像を読み取り座標を取得しているので、プロカメラマンや観客が撮影している映像から、競技フィールドに対してどこから撮影しているかを把握することもできる。
以上の実施例では、サーバー110は、例えば競技フィールド全体の映像を読み取り座標を取得しているので、プロカメラマンや観客が撮影している映像から、競技フィールドに対してどこから撮影しているかを把握することもできる。
すなわちサーバーは、サーバー用の複数台のカメラ(固定カメラや移動カメラ)から競技フィールドの全体の映像をあらかじめ把握しておく。それにより、フィールド内における注目選手の絶対位置情報と、プロカメラマンや観客が端末やデジタルカメラで見ている映像とのマッピングが可能になる。
また、プロカメラマンや観客のカメラ等の端末は、サーバーから選手の絶対位置情報を受信するとこの絶対位置情報と今撮影あるいはモニターしている映像とのマッピングが可能になる。
また、プロカメラマンや観客のカメラ等の端末は、サーバーから選手の絶対位置情報を受信するとこの絶対位置情報と今撮影あるいはモニターしている映像とのマッピングが可能になる。
なお、例えばサーバーからの注目選手のフィールド内での絶対位置情報を(X、Y)とする。この絶対位置情報を個々のカメラの位置情報に従い、カメラから見たときの相対的な位置情報(X´、Y´)に変換する必要がある。上記の絶対位置情報から相対位置情報への変換は、S120のようにカメラ側で実施してもよいし、サーバー側で変換した後に個々の端末(カメラなど)に相対位置情報を送ってもよい。
カメラ等の端末で上記変換を実行する場合は、サーバーから送られた絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、相対的な位置情報(X´、Y´)に変換する。この相対的な位置情報をもとに、カメラ側の表示画面内での位置情報とする。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
以上のようにして、プロカメラマンや観客のカメラ等の端末では、注目選手を見失うことが減るので、タイミングを逃さず注目選手の良い写真の撮影が可能になる。
なお、図7に基づいたカメラ側での制御シーケンスの他の例を図9に示す。図9はカメラ等の端末側の注目選手表示追跡制御フローの他の例を表している。図9において、S101、S102、S103、S104、S105、S106、S107、S107-2、S110は、図8と同一の制御であり説明は省略する。
なお、図7に基づいたカメラ側での制御シーケンスの他の例を図9に示す。図9はカメラ等の端末側の注目選手表示追跡制御フローの他の例を表している。図9において、S101、S102、S103、S104、S105、S106、S107、S107-2、S110は、図8と同一の制御であり説明は省略する。
S131では、注目選手の追跡継続がOK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S134に進み、注目選手の追跡継続に成功していないと、S132に進む。S132では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS133に進む。注目選手の撮影が継続している場合にはS105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。S133では、サーバーからの注目選手の位置を検出したか否かが判断され、サーバーからの注目選手の位置を検出しているとS106に進み、サーバーからの注目選手の位置を検出していないとS101に進む。
S134では、サーバーからの注目選手の位置を検出したか否かが判断され、サーバーからの注目選手の位置を検出しているとS106に進み、サーバーからの注目選手の位置を検出していないとS107に進む。
次に、デジタルカメラの追跡部371について図10を用いて説明する。
図10はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。
次に、デジタルカメラの追跡部371について図10を用いて説明する。
図10はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。
そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。なお距離マップ生成部3712により撮像素子からの1対の視差画像(A像とB像)から被写体までの距離情報を取得し、照合部3710における被写体領域の特定精度を上げることもできる。ただし距離マップ生成部3712は必ずしもなくても構わない。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
次に、サーバー側における注目選手の検出制御フローについて図11、図12を用いて説明する。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行う。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行う。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。
特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
プロカメラマンや一般観客が保有するカメラ等の端末では、注目選手のID情報をサーバーに送り、サーバーから取得した位置情報をもとに注目選手の追跡を実施する。同時に、プロカメラマンや一般観客の保有するカメラ等の端末自身でも注目選手の位置を検出することができる。
図11はサーバー側における注目選手の検出制御のメインフローを示す。
図11において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
図11において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
S206で、サーバーは、前記注目選手のID情報に基づき、複数のカメラ(固定カメラや移動カメラなど)からの映像に基づき画像認識によって、注目選手を画面内で見つける。S207で、サーバーは、複数のカメラからの映像に基づき注目選手を追跡する。S208で、注目選手の追跡継続がOK(成功している)か否かを判断し、注目選手の追跡継続に成功していれば、S207に戻り、複数のカメラからの情報に基づき注目選手の追跡を継続する。S208で注目選手の追跡継続に成功していない場合はS209に進む。
S209で注目選手の撮影が終了か否か判断し、注目選手の撮影が終了するとS201に戻り、S209で注目選手の撮影が継続している場合には、S206に戻る。そして再度、サーバーは、注目選手のID情報に基づき、複数のサーバー用のカメラ(固定カメラや移動カメラ)からの情報を探索して、注目選手を見つけ、S207で、継続して複数のカメラからの映像に基づき、注目選手の追跡を行う。
次に上記SS206において注目選手を見つけ、S207で追跡するための方法の例について図12を用いて説明する。
図12は背番号情報を用いたサーバーによる注目選手検出制御フローを示す。図12において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの映像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。
図12は背番号情報を用いたサーバーによる注目選手検出制御フローを示す。図12において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの映像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。
このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図12のフローを終了する。
なお、サーバー用の複数台のカメラの中のすくなくとも1台のカメラからの映像を用いて、注目選手の背番号を見つけ、見えている大きさ、角度、さらには、背景(競技フィールド)の情報を入力することにより、注目選手の位置情報を取得することもできる。またサーバー用の複数台のカメラからの映像を用いて、同様に、注目選手の背番号を見つけられるようにし、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報の精度を高めることができる。
次に注目選手の位置を検出するための他の検出方法の例について図13を用いて説明する。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報をサーバー側へ通信手段により無線で送ることで選手の位置センサーからの信号をサーバー(側の複数のカメラ等)が認識して、位置情報を生成し、サーバーからプロカメラマンや一般観客が保有するカメラへ知らせる。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報をサーバー側へ通信手段により無線で送ることで選手の位置センサーからの信号をサーバー(側の複数のカメラ等)が認識して、位置情報を生成し、サーバーからプロカメラマンや一般観客が保有するカメラへ知らせる。
サーバー側による、位置センサー情報を用いた具体的な注目選手検出制御フローを図13に示す。図13において、S301は、サーバーは、複数台のカメラで、注目選手の位置センサー情報を受信して取得する。前記複数台のカメラには位置センサーからの電波を受信し、受信している電波の方向、受信している電波のレベルを検出して位置センサー情報として取得するための検出手段がそれぞれ含まれている。位置センサー情報の中には、受信している電波の方向、受信している電波のレベルも含まれている。
S302で複数台のカメラからの位置センサー情報に基づき注目選手を絶対位置を検出する。S303で注目選手の絶対位置をカメラに送信する。S304で、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS301に進み、注目選手の追跡が継続していないとこの制御を終了する。
この例の場合には、複数台のカメラ(固定カメラや移動カメラ)の中の少なくとも1台は、画像、音声の取得に加えて、選手が保有している位置センサーからの情報を検出するための検出手段を有する。
この例の場合には、複数台のカメラ(固定カメラや移動カメラ)の中の少なくとも1台は、画像、音声の取得に加えて、選手が保有している位置センサーからの情報を検出するための検出手段を有する。
複数台のカメラの中の上記の1台のカメラによって、選手の位置センサーからの情報を受信し、受信している電波の方向、さらには、受信している電波のレベルを認識できる。
このように1台だけの検出結果に基づき選手の位置を検出することもできるが、この例では選手の位置センサー情報を、複数台のカメラでそれぞれ認識できるようにしている。そして複数台のカメラにおける注目選手のセンサー情報を受信している電波の方向、受信している電波のレベルの情報を総合して、より正確に選手の位置情報を分析する。
このように1台だけの検出結果に基づき選手の位置を検出することもできるが、この例では選手の位置センサー情報を、複数台のカメラでそれぞれ認識できるようにしている。そして複数台のカメラにおける注目選手のセンサー情報を受信している電波の方向、受信している電波のレベルの情報を総合して、より正確に選手の位置情報を分析する。
次にサーバー側での顔認識情報を用いた注目選手検出制御フローを図14に示す。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の過去に撮影した顔情報が複数枚格納されている。さらに、サーバーは、複数台のサーバー用のカメラからの映像をもとに選手の顔情報を検出する手段を有する。そしてサーバーは、前記複数台のサーバー用カメラから検出した顔情報をもとに、試合にメンバー登録されている選手の過去に撮影した顔情報を複数枚の写真と比較して例えばAIを用いて顔認識し、注目選手を検出する。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の過去に撮影した顔情報が複数枚格納されている。さらに、サーバーは、複数台のサーバー用のカメラからの映像をもとに選手の顔情報を検出する手段を有する。そしてサーバーは、前記複数台のサーバー用カメラから検出した顔情報をもとに、試合にメンバー登録されている選手の過去に撮影した顔情報を複数枚の写真と比較して例えばAIを用いて顔認識し、注目選手を検出する。
図14において、S501は、サーバーは注目選手のID情報に基づき注目選手の複数の顔情報をデータメモリ213から取得し、サーバー用の複数台のカメラの映像を用いて、この顔情報の選手の位置情報を取得する。サーバー用の複数台のカメラの中の1台のカメラの映像を用いて、注目選手の顔情報に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報を取得できる。サーバー用の複数台のカメラで、同様に、注目選手の顔情報に対応した選手を見つけ、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報をより精度よく取得できる。
S502では、S501にて複数のカメラの映像から取得された注目選手の位置情報に基づき注目選手の絶対位置を検出する。S503では、S502で検出した注目選手の絶対位置情報をプロカメラマンや一般観客が保有するカメラに対して送信する。S504では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS501に進み、注目選手の追跡が継続していないとこの制御を終了する。
次に体格(体形)を用いて選手位置を検出する方法について図15を用いて説明する。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の、過去に撮影した体格画像情報が複数枚格納されている。また、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の体格情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した体格情報と、試合にメンバー登録されている選手の、過去に撮影した複数枚の体格画像情報と例えばAIを用いて比較して、選手を検出する。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の、過去に撮影した体格画像情報が複数枚格納されている。また、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の体格情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した体格情報と、試合にメンバー登録されている選手の、過去に撮影した複数枚の体格画像情報と例えばAIを用いて比較して、選手を検出する。
サーバーにおける、体格(体形)認識情報を用いた具体的な注目選手検出制御フローを図15に示す。図15において、S601で、サーバーは注目選手のID情報に基づき複数の体格画像情報をデータメモリ213から取得し、サーバー用の複数台のカメラの映像情報を用いて、この体格の選手の位置情報を取得する。サーバー用の複数台のカメラの中の1台のカメラからの映像を用いて、注目選手の体格画像に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を取得することにより、注目選手の位置情報を取得できる。
サーバー用の複数台のカメラの映像から、同様に、注目選手の体格画像に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を取得することにより、注目選手の位置情報を取得できる。これらの複数台のカメラの情報を総合することによって、体格情報に基づき注目選手の位置情報の精度を向上できる。
S602では、S601にて取得した、この体格情報の選手の位置情報に基づき注目選手の絶対位置を検出する。
S602では、S601にて取得した、この体格情報の選手の位置情報に基づき注目選手の絶対位置を検出する。
S603では、S602で検出した注目選手の絶対位置をプロカメラマンや一般観客が保有するカメラ端末に対して送信する。S604では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS601に進み、注目選手の追跡が継続していないと図15の制御を終了する。
以上、選手の位置センサー情報、背番号認識、顔認識、体格認識等について説明したが、更にユニフォーム(デザイン、色)、シューズ、選手の髪型、選手の動きなどの情報についても画像認識して注目選手の認識精度を上げても良い。
以上、選手の位置センサー情報、背番号認識、顔認識、体格認識等について説明したが、更にユニフォーム(デザイン、色)、シューズ、選手の髪型、選手の動きなどの情報についても画像認識して注目選手の認識精度を上げても良い。
次に図16は、注目選手の検出方法の補助的な検出方法であり、注目選手の競技フィールドにおける基本的な役割(所謂ポジション)に基づく検出をするためのフローである。
サーバーのデータメモリ213には、各選手の競技フィールドにおける役割(ポジション)の情報が格納されている。さらに、ボールがある位置に従って、選手の役割に基づく位置も変わってくるので、この情報も合わせて格納してある。
サーバーのデータメモリ213には、各選手の競技フィールドにおける役割(ポジション)の情報が格納されている。さらに、ボールがある位置に従って、選手の役割に基づく位置も変わってくるので、この情報も合わせて格納してある。
サーバーは複数台のカメラの映像からボールの現在ある位置を検出して、試合状況(攻撃している状態であるかあるいは守備をしている状態であるかの状況)を認識する。この情報をもとにして、選手のおおまかな位置を検出しやすくなる。すなわち、ゲーム状況からの判断し、選手の役割に注目して、役割からの選手のいる場所の推定をしていく。これは、サーバー側での判断が主体となる。
選手の役割を考慮した注目選手検出制御フローの例を図16に示す。図16において、S701で、サーバーは、複数台のカメラの映像に基づき、ボールの位置情報を検出する。このボールの位置情報から選手のいる大まかな位置を推定する。さらに、フォワード、バックスなどの選手の役割(背番号で選手の役割を認識する。)に応じて、顔情報で選手をサーチするエリアを認識する。S702で、サーバーは注目選手の複数の顔情報をデータメモリ213から取得し、複数台のカメラの映像情報と比較して、この顔情報の選手の位置情報を取得する。
S703では、S702にて複数のカメラの映像から取得された注目選手の位置情報に基づき注目選手の絶対位置を検出する。S704で、S703で検出した注目選手の絶対位置をプロカメラマンや一般観客が保有するカメラに対して送信する。S705では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS701に進み、注目選手の追跡が継続していないと図16のフローを終了する。
ここでは、ボールの位置に応じて、試合の状況(あるチームが攻撃しているか守備をしているか)を判断したが、たとえば、試合状況に基づいた制御としては、ボールの位置に限定されない。たとえば、あるチームが反則をすると相手のチームに、ペナルティキックなどが与えられる。この場合、試合は、ペナルティキックを得たチームは、今のボールの位置より、前進する可能性が高い。よって、この前進することを予測した試合状況に基づいた制御が可能になる。ボールの位置を反則ということから予測しても良い。
このように、本実施例によれば、カメラで撮影をしている時や観客が端末で試合観戦などをしているときに、注目選手の位置情報をプロカメラマンや一般観客にタイムリーに知らせることができる。これにより、プロカメラマンや一般観客は、注目選手のいる位置を逐次認識できて、注目選手の好プレイを確実に撮影できる。
次にプロカメラマンや一般観客が保持するカメラに注目選手の位置情報を表示する際の表示方法の例について図17(A)~(D)を用いて説明する。
本実施例では、カメラ等の端末の画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、サーバーから注目選手の位置情報が送られてきたら、注目選手の位置に付加情報としてのマークやカーソルや矢印や枠などを重畳表示する。ここで、注目選手が、前記画像表示部の画面外にいる場合には、表示部の画面内の周辺部に、どちらの方向に注目選手がいるかを表示する。この表示を見ることにより、プロカメラマンや一般観客が保持するカメラ等の端末の画面を見れば、どちらの方向にカメラを向ければ、撮影エリアの中に、注目選手が画面に入るかを速やかに認識できるようになる。
本実施例では、カメラ等の端末の画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、サーバーから注目選手の位置情報が送られてきたら、注目選手の位置に付加情報としてのマークやカーソルや矢印や枠などを重畳表示する。ここで、注目選手が、前記画像表示部の画面外にいる場合には、表示部の画面内の周辺部に、どちらの方向に注目選手がいるかを表示する。この表示を見ることにより、プロカメラマンや一般観客が保持するカメラ等の端末の画面を見れば、どちらの方向にカメラを向ければ、撮影エリアの中に、注目選手が画面に入るかを速やかに認識できるようになる。
図17(A)に、カメラ表示部での映像に対する注目選手の位置情報の表示例が図示されている。3201はカメラの表示部を表している。ここで、注目選手が、表示部の表示画面から外れていて、表示画面の右側にいるのであれば、3202のように表示部の画面内の右側周辺に右側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3203のように表示部の画面内の下側周辺に下側の矢印を表示する。
また、注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば3204のように表示部の画面内の左側周辺に左側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3205のように表示部の画面内の上側周辺に上側の矢印を表示する。なお右斜め上方向に注目選手がいる場合には、例えば図17(B)のように画面内の右斜め上方向の周辺に右斜め上方向の矢印を表示する。従って図17(B)に示すように、注目選手は、右斜め上の方向にいることがわかる。
これらの矢印は、プロカメラマンや一般観客にとって、注目選手の撮影をする時に、どちらの方向にカメラを動かせば、注目選手をカメラの撮影のエリアに入れることができるかを知らせることができるものである。これにより、プロカメラマンや一般観客は、注目選手を一旦見失ってもすぐに、撮影画面内に入れることができ、注目選手の絶好のシャッターチャンスを逃すことなく撮影できる。
次に図17(C)は、どちらにどれだけ動かすと注目選手が撮影エリアに入ってくるかを矢印の向きと矢印の長さで表示する例を示す図である。3401は、カメラの表示部を表している。
ここで、注目選手が、表示エリアから外れていて、表示画面の右側にいるのであれば、3402のように表示部の画面内の右側周辺に右側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3403のように表示部の画面内の下側周辺に下側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば、3404のように表示部の画面内の左側周辺に左側の矢印を表示する。
ここで、注目選手が、表示エリアから外れていて、表示画面の右側にいるのであれば、3402のように表示部の画面内の右側周辺に右側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3403のように表示部の画面内の下側周辺に下側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば、3404のように表示部の画面内の左側周辺に左側の矢印を表示する。
注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3405のように表示部の画面内の上側周辺に上側の矢印を表示する。しかも上記において、矢印の長さで画面に対して注目選手がどのくらい外れているか(ずれているか)、即ちカメラをどのくらい回転しないと注目選手が映らないかを表している。注目選手の位置が画面の視野からずれているほど、矢印の長さが長くなっている。
図17(C)においては、3402に示した右側の矢印は比較的短いので、カメラを右方向に比較的小さい角度動かしただけでも注目選手が撮影エリアに入ることがわかる。
図17(C)においては、3402に示した右側の矢印は比較的短いので、カメラを右方向に比較的小さい角度動かしただけでも注目選手が撮影エリアに入ることがわかる。
同様に、3405に示した上側の矢印は比較的短いので、カメラを上側に回転させる角度は比較的小さくても注目選手が撮影エリアに入ることがわかる。一方、3403に示した下側の矢印は、中くらいの長さなので、3402、3405での角度より大きめにカメラを回転すれば注目選手が撮影エリアに入ることがわかる。更に3404に示した左側の矢印は比較的長いので、3403での回転角度より大きめの角度だけカメラを注目選手の方向に回転すれば注目選手が撮影エリアに入ることがわかる。
これにより、プロカメラマンや一般観客にとって、注目選手を撮影エリア(表示画面内)に入れやすくなり、注目選手のシャッターチャンスを逃すことなく撮影できるようになる。
これにより、プロカメラマンや一般観客にとって、注目選手を撮影エリア(表示画面内)に入れやすくなり、注目選手のシャッターチャンスを逃すことなく撮影できるようになる。
次に、図17(D)は矢印の長さは一定にして矢印の太さを変える例を示す図である。すなわち、今、撮影しているエリアからの回転角度が大きい場合、すなわち、注目選手を撮影のエリアに入るようにするためのカメラの回転角度が大きい場合には、矢印の太さを太くしても良い。3601は、カメラの表示部を表している。ここで、注目選手が、表示エリアから外れていて、表示画面の右側にいるのであれば、3602のように表示部の画面内の右側周辺部に右側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3603のように表示部の画面内の下側周辺部に下側の矢印を表示する。また、注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば、3604のように表示部の画面内の左側周辺部に左側の矢印を表示する。
また、注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3605のように表示部の画面内の上側周辺部に上側の矢印を表示する。更に、上記において、矢印の太さでカメラの回転角度を表している。回転すべき角度が大きいほど、矢印の太さが太くなっている。図17(D)においては、3602や3605に示した矢印より3603に示した矢印や3604に示した左側の矢印は、比較的太いので、比較的大きく回転しないと注目選手が撮影エリアに入らないことがわかる。
このような表示により、プロカメラマンや一般観客にとって、見失った注目選手をすぐに、見つけ出すことが可能になり、注目選手の好プレイをシャッターチャンスを逃すことなく撮影できる。
このような表示により、プロカメラマンや一般観客にとって、見失った注目選手をすぐに、見つけ出すことが可能になり、注目選手の好プレイをシャッターチャンスを逃すことなく撮影できる。
なお、以上の例では矢印やその長さや太さで注目選手の画面からのずれの方向やずれ量を表示したが、これに限らない。例えば矢印の代わりに文字で単に「画面右上斜め外に存在します。」などのように画面内に存在しないことだけを表示してもよい。その場合音や点滅などによって警告表示するだけでもよい。あるいは「右方向にずれています。」「水平方向に右に20度ずれています。」などと表示してもよいし、画面の端にコンパスのように注目選手のいる方向を回転する針が表示するようにしたり、どの程度画面からずれているかを数字や目盛りを使って画面の隅に表示したりしてもよい。
即ち目盛りを表示し、その目盛りのどの位置にカーソルがあるかによってずれ量を表示したり、ずれ量に応じて目盛りに沿ってバーの長さが変化するように表示したりしてもよい。
次に図18は、カメラ側における注目選手表示追跡制御フローの一例を示した図である。
図18において、図8と同じ符番のステップすなわちS3300以外は図8と同じステップなので説明は省略する。S3300は、カメラ自身で注目選手の追跡を実施する。ここで、注目選手がカメラで撮影しているエリアの外にいった時には、その方向を示す矢印が表示部に表示される。このS3300における詳細なフローを図19に示す。
次に図18は、カメラ側における注目選手表示追跡制御フローの一例を示した図である。
図18において、図8と同じ符番のステップすなわちS3300以外は図8と同じステップなので説明は省略する。S3300は、カメラ自身で注目選手の追跡を実施する。ここで、注目選手がカメラで撮影しているエリアの外にいった時には、その方向を示す矢印が表示部に表示される。このS3300における詳細なフローを図19に示す。
図19において、S3311で、カメラは、サーバーから注目選手の絶対位置情報を受信する。S3312で、カメラは、注目選手の絶対位置情報をこのカメラで撮影している位置、方向、倍率などに基づき相対位置情報に変換する。S3313で、カメラから見た相対位置の情報を基に、注目選手の情報を表示部に表示する。S3314では、注目選手が、カメラの現時点での撮影エリアの外、すなわちカメラの表示部の画面外であるか否かが判断され、外側であればS3316に進み、画面内であるとS3315に進む。
S3315では、カメラの表示部に、注目選手のいる位置を示す矢印の表示をしない。代わりに注目選手の位置を示す枠などのマークを表示する。S3316では、カメラの表示部の周辺部に注目選手のいる位置を矢印で表す。S3317では、注目選手の追跡が継続されているか否かが判断され、注目選手の追跡が継続されているとS3311に進み、注目選手の追跡が終了しているとS3300のフローを終了する。
図20は、図18のS3300において、図17(C)のような表示をするためのフローを示す図である。図20において、S3311からS3515、S3517は、図19と同じステップなので説明を省略する。S3516では、カメラの表示部の画面内の周辺部に、注目選手のいる位置を矢印で表す。ここで、カメラの表示画面内にいれるために回転するべき角度に応じて、矢印の長さを変える。カメラの回転角度が大きいほど矢印を長くする。
図21は、図18のS3300において、図17(D)のような表示をするためのフローを示す図である。図21において、S3311からS3515、S3517は、図19、図20と同じなので説明を省略する。S3716では、カメラの表示部の画面内の周辺部に、注目選手のいる位置を矢印で表すとともに、カメラの表示画面内にいれるために回転すべき角度に応じて、矢印の太さを変える。カメラの回転角度が大きいほど矢印を太くする。
なお、注目選手は1人の例で、説明したが、注目選手は複数選手であっても良い。また、注目選手は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。また、実施例では選手を追跡する例を用いて説明したが、犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。
あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。
次に注目選手が、反則をしたかどうかを検出するフローの説明を図22に基づき行う。
次に注目選手が、反則をしたかどうかを検出するフローの説明を図22に基づき行う。
図22のフローでは、複数台のカメラの映像に基づき、例えばラグビーにおけるシンビンなどの反則を判定して、一時的退出する選手の情報も検出して、サーバーは、この情報をプロカメラマンや一般観客の保有するカメラ等の端末に送る。なお、シンビンとみなされた選手は、10分間、試合に出られなくなる。選手が反則をした場合、反則の重さによっても異なるが、即座に退場というレッドカードに対して、10分間試合に出場できないシンビンという反則は、選手が少なくとも一時的にフィールドからでていくものである。
注目選手が反則をしたかを検出する注目選手検出制御フロー(サーバー側)が図22に示されている。
注目選手が反則をしたかを検出する注目選手検出制御フロー(サーバー側)が図22に示されている。
図22において、S1001で、サーバーは、複数台のカメラの映像に基づきボールの位置情報を検出する。このボールのある位置情報から選手のいる大まかな位置を推定する。さらに、フォワード、バックスなどの選手の役割(スターテイングメンバーの選手は背番号で選手の役割を認識する。リザーブ選手は、すでに登録されている選手情報と今日の試合での選手の背番号とその選手の役割により、リザーブ選手の名前、背番号、役割を認識する。)に応じて、顔情報の選手をサーチするエリアを認識する。S1002で、サーバーはリザーブ選手を含めた注目選手の複数の顔情報を認識し、複数台のカメラの映像情報から、この顔情報の選手の位置情報を取得する。
複数台のカメラの中の1台のカメラの映像から、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報を取得できる。
複数台のカメラの映像から、同様に、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報を高精度で取得できる。S1003では、この入力情報をベースにリザーブ選手を含めた注目選手の絶対位置を検出する。
複数台のカメラの映像から、同様に、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報を高精度で取得できる。S1003では、この入力情報をベースにリザーブ選手を含めた注目選手の絶対位置を検出する。
S1004は、S1003で検出した注目選手の絶対位置をプロカメラマンや一般観客が保有するカメラ端末に対して送信する。S1005では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS1006に進み、注目選手の追跡が継続していないと図22のフローを終了する。S1006では、一時退場の反則が行われたかを判断され、一時退場の反則があれば、S1007に進み、一時退場の反則がなければ、S1005に進む。
S1007では、一時退場の反則はレッドカードであったか否かが判断され、レッドカードの反則であれば、S1008に進み、レッドカードの反則でなければ、S1009に進む。S1009に進むのは、シンビンの反則が行われているケースである。S1008は、サーバーは、レッドカードをもらった選手を認識し、試合に出場しているメンバーから外し、出場している選手情報一覧をアップデートする。
S1009で、サーバーは、シンビンをもらった選手を認識し、試合に出場しているメンバーから約10分間(10分間は目安である。)外して出場している選手情報一覧をアップデートする。ここで、シンビンをもらった選手がフィールドに戻ることを認識して、出場している選手情報一覧をアップデートする。ここで、シンビンをもらった選手がフィールドに戻ることを認識して、出場している選手情報一覧をアップデートしS1001に進む。
なお、選手の役割=ポジションとしてボールの位置に応じて、試合の状況(あるチームが攻撃しているか守備をしているか)を判断したが、たとえば、試合状況(競技状況)に基づいた制御としては、ボールの位置に限定されない。
なお、選手の役割=ポジションとしてボールの位置に応じて、試合の状況(あるチームが攻撃しているか守備をしているか)を判断したが、たとえば、試合状況(競技状況)に基づいた制御としては、ボールの位置に限定されない。
たとえば、あるチームが反則をすると相手のチームに、ペナルティキックなどが与えられる。この場合、試合は、ペナルティキックを得たチームは、今のボールの位置より、前進する可能性が高い。よって、この前進することを予測した試合状況に基づいた制御が可能になる。ボールの位置を反則ということから予測しても良い。
さらに、S1006での少なくとも一時退場の反則については、たとえば、サーバーは、選手が反則を起こし、フィールドから出ていくことを複数台のカメラで認識して検出してもよい。
それ以外にも、審判他のコールを音声情報として認識して検出する方法がある。また、大型スクリーンに表示される反則情報から検出するようにしてもよい。
以上のように、プロカメラマンや観客は、判定状況がリアルタイムでわかれば、次のボールの位置を予測することも可能になる。またこの反則の情報をカメラの表示部に表示すれば、カメラ端末側では、この表示を見ることで、次に考えられるボールの位置を予測でき、より良いシャッターチャンスの写真を撮ることができる。
それ以外にも、審判他のコールを音声情報として認識して検出する方法がある。また、大型スクリーンに表示される反則情報から検出するようにしてもよい。
以上のように、プロカメラマンや観客は、判定状況がリアルタイムでわかれば、次のボールの位置を予測することも可能になる。またこの反則の情報をカメラの表示部に表示すれば、カメラ端末側では、この表示を見ることで、次に考えられるボールの位置を予測でき、より良いシャッターチャンスの写真を撮ることができる。
プロカメラマンや一般観客にとって、ゲームの中での判定は気になるものである。審判は主審1人とタッチジャッジ2人の3人体制で行っている。特に、トライを決めたかに見えたシーンにおいての判定、あるいは、ゲームの中での反則が起きたかの判定など人間の眼だけでは判断ができないことがある。このために、肉眼での判定が難しい場合に審判の判定の手助けとなるビデオ判定(TMO(テレビジョン・マッチ・オフィシャル))を行っている。
プロカメラマンや一般観客の保有するカメラ等の端末で、トライシーンを撮影した時に、今、撮影した画像は、トライとして認定されたかそれともトライにならなかったかをプロカメラマンや一般観客は即座に知りたい。そのため、複数台のカメラの映像から、その後の判定を追いかけたり、電光掲示板に表示される情報を基にしてサーバーで解析したりして判定を正確に認識する。そして審判の判定結果を、プロカメラマンや一般観客のカメラ等の端末に送信することにより、ユーザーは判定結果をタイムリーに正しく認識することが可能になる。
トライが行われたかどうかの検出方法は、複数ある。以下に、具体的に説明する
トライ判定制御フロー(サーバー側)が図23に図示されている。
図23において、S1101は、初期化を表している。ここで、TRYジャッジフラグは、クリアする。S1102では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS1103に進み、写真撮影が選択されていないとS1101に進む。S1103では、カメラの設定情報を入手する。S1104では、複数台のカメラの映像から、試合で使用しているボールを追いかける。
トライ判定制御フロー(サーバー側)が図23に図示されている。
図23において、S1101は、初期化を表している。ここで、TRYジャッジフラグは、クリアする。S1102では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS1103に進み、写真撮影が選択されていないとS1101に進む。S1103では、カメラの設定情報を入手する。S1104では、複数台のカメラの映像から、試合で使用しているボールを追いかける。
S1105では、TRYジャッジフラグが0であるか否かが判断され、TRYジャッジフラグが0であるとS1106に進み、TRYジャッジフラグが0でないとS1107に進む。S1106では、トライがあったようであるかが判断され、トライがあったようであるとS1107に進み、トライがあったようでなければS1112に進む。ここで、トライがあったようというのは、選手がボールをトライエリアに持ち込んでいる状態である。
例えば、選手は、トライの直前に、ボールを前に落とすノックオンをしているケース、あるいは、守備の選手がトライしようとしているボールに手や体を入れて、グラウンディングを阻止していることもある。すなわち、トライが、確定した状態ではない。S1107は、TRYジャッジフラグに1をセットする。S1108は、トライの有無を判定する。
図24(A)、(B)、図25(A)、(B)、図26に、トライの判定を行う具体例が図示されており、これについては後述する。
図24(A)、(B)、図25(A)、(B)、図26に、トライの判定を行う具体例が図示されており、これについては後述する。
S1109では、S1108の制御にて、トライの有無の判定結果がでたか否かが判断され、トライの有無の判定結果がでると、S1110に進み、トライの有無の判定結果がでていないとS1112に進む。S1110は、TRYジャッジフラグに0をセットする。S1111は、サーバーは、トライがあったか否かの情報をプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。S1112では、ゲームが終了したか否かが判断され、ゲームが終了しているとS1101に進み、ゲームが終了していないとS1104に進む。
以上は、トライの有無を判定する制御である。しかしながら、CPUはこの制御のみを実行するのではなく、例えば、図11に示した注目選手の検出制御と同時並行して実行しても良い。
なお、サーバーが同時並行して実行する制御はこれに限定されず、その他の複数の制御を同時に行っても良い。一方、プロカメラマンや一般観客が保持するカメラ等の端末についても、同様であり、その他の複数の制御を同時に行っても良い。
なお、サーバーが同時並行して実行する制御はこれに限定されず、その他の複数の制御を同時に行っても良い。一方、プロカメラマンや一般観客が保持するカメラ等の端末についても、同様であり、その他の複数の制御を同時に行っても良い。
トライシーンの撮影をした際に、トライが成功したか失敗したかを正しく認識しないといけない。サーバーは、トライが成功したか、あるいは、コンバージョンが成功したかの判定を確認する。ここでは、トライの例で説明を行った。しかしながら、トライに限らず、その他の得点シーンに対しても同様の制御を実行できる。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラで、ボールの動きを分析して、ボールがきちんと所定エリア内にグラウンディングされていたか否かを認識する。サーバーは、認識したこのボールの動きからトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバー側でボールの動きからのトライの有無を判定するフローを図24(A)に示す。
サーバー側でボールの動きからのトライの有無を判定するフローを図24(A)に示す。
図24(A)において、S1201では、サーバーは、複数台のカメラの画像からボールのある場所を検出する。S1202では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをボールの動きから認識する。
次に、審判動作からのトライ有無判定フローが図24(B)に示されている。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの映像から、その後の注目選手の周囲にいる審判のルール上の動作を分析し画像認識して、審判の動作からトライであったか否かを認識してもよい。
次に、審判動作からのトライ有無判定フローが図24(B)に示されている。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの映像から、その後の注目選手の周囲にいる審判のルール上の動作を分析し画像認識して、審判の動作からトライであったか否かを認識してもよい。
サーバーは、認識したこの審判の動作からトライであったか否かの分析結果に関する情報(動作認識結果)を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
図24(B)において、S1301では、サーバーは、複数台のカメラの映像からトライ判定をしているような動きの近くの審判の動作を検出する。S1302では、複数台のカメラの映像からトライと思われるシーンでトライがあったかを審判の動作から認識する。
図24(B)において、S1301では、サーバーは、複数台のカメラの映像からトライ判定をしているような動きの近くの審判の動作を検出する。S1302では、複数台のカメラの映像からトライと思われるシーンでトライがあったかを審判の動作から認識する。
図31には、トライ有無判定の審判動作が、図示されている。図31(A)は、トライが成立した時に、審判の動作である。図31(B)は、トライが成立しない時の審判の動作である。
更に、競技場の大型スクリーンに表示される情報からトライの有無を認識するフローについて図25を用いて説明する。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラで、競技場の大型スクリーンに映し出される情報を入力して、このスクリーンの情報からトライであったか否かを認識する。
更に、競技場の大型スクリーンに表示される情報からトライの有無を認識するフローについて図25を用いて説明する。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラで、競技場の大型スクリーンに映し出される情報を入力して、このスクリーンの情報からトライであったか否かを認識する。
サーバーは、認識したこのスクリーンの情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバー側における、スクリーン表示の判定結果からのトライの有無を判定するフローを図25(A)に示す。図25(A)において、S1401では、サーバーは、複数台のカメラからの画像からトライのような動きの後のスクリーンに表示される判定結果の情報を検出する。S1402では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される判定結果から認識する。
サーバー側における、スクリーン表示の判定結果からのトライの有無を判定するフローを図25(A)に示す。図25(A)において、S1401では、サーバーは、複数台のカメラからの画像からトライのような動きの後のスクリーンに表示される判定結果の情報を検出する。S1402では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される判定結果から認識する。
次にスクリーンに表示されている得点情報からトライの有無を認識するフローについて図25(B)を用いて説明する。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの画像に基づき、スクリーンに映し出される得点情報を入力して、このスクリーンの得点情報からトライであったか否かを認識する。サーバーは、認識したこのスクリーンの得点情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
複数台のカメラの映像を分析して、トライが行われたと思われるプレイがあった時には、複数台のカメラの画像に基づき、スクリーンに映し出される得点情報を入力して、このスクリーンの得点情報からトライであったか否かを認識する。サーバーは、認識したこのスクリーンの得点情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
トライをすると得点は5点入り、その後のコンバージョンキックが成功すると得点は2点入る。また、ペナルティキック、あるいは、ドロップゴールに成功すると得点は3点入る。トライが行われたと思われる前の得点とトライが行われた後の得点を比較することでトライが成功したかを認識できる。
スクリーンの得点情報からサーバーがトライの有無を判定するフローを図25(B)に示す。
スクリーンの得点情報からサーバーがトライの有無を判定するフローを図25(B)に示す。
図25(B)において、S1501では、サーバーは、複数台のカメラの画像からトライのような動きの後のスクリーンに表示される得点情報を検出する。S1502では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される得点情報の差分から認識する。S1503では、複数台のカメラの画像からトライと思われるシーンでトライがあったかをスクリーンに表示される得点情報の差分から、トライ、コンバージョンキック、ペナルティキック、あるいは、ドロップゴールを認識する。
次にフィールドでアナウンスされる音声情報からトライの有無を認識するフローについて図26を用いて説明する。
複数台のカメラ(固定カメラや移動カメラ)についているマイクから入力される音声情報を分析し、トライが行われたと思われるプレイがあった時には、上記マイクからの音声情報からトライであったか否かを認識する。サーバーは、認識したこの音声情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
複数台のカメラ(固定カメラや移動カメラ)についているマイクから入力される音声情報を分析し、トライが行われたと思われるプレイがあった時には、上記マイクからの音声情報からトライであったか否かを認識する。サーバーは、認識したこの音声情報からトライであったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバーによる、音声情報からトライの有無を判定する具体的なフローを図26に示す。図26において、S1601では、サーバーは、複数台のカメラのマイクからトライのような動きの後の音声情報を検出する。S1602では、複数台のカメラのマイクからトライと思われるシーンでトライがあったかを音声情報に基づき認識する。
上記の実施例においてはトライの得点の判断について述べたが、トライの得点に加えて、トライ後のコンバージョンによる得点、ペナルティキックによる得点を考えても良い。
なお、トライが行われたかどうかのサーバー側の検出フローは、図23に図示されているが、トライが行われたかどうかに関するカメラ等の端末側の制御について説明する。
上記の実施例においてはトライの得点の判断について述べたが、トライの得点に加えて、トライ後のコンバージョンによる得点、ペナルティキックによる得点を考えても良い。
なお、トライが行われたかどうかのサーバー側の検出フローは、図23に図示されているが、トライが行われたかどうかに関するカメラ等の端末側の制御について説明する。
図27はカメラ等の端末側のトライ判定制御フローを示している。図27においてS101からS107-2、S109、S110は、図9のステップと同一であるので説明を省略する。
S1620では、注目選手の追跡継続OK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S1621に進む。S1621では、サーバーからトライ判定結果が送られたか否かが判断され、サーバーからトライ判定結果が送られるとS1622に進み、サーバーからトライ判定結果が送られていないとS107に戻り、カメラ自身で注目選手の追跡を継続する。S1622では、カメラの表示部にトライの判定結果を表示する。
S1620では、注目選手の追跡継続OK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S1621に進む。S1621では、サーバーからトライ判定結果が送られたか否かが判断され、サーバーからトライ判定結果が送られるとS1622に進み、サーバーからトライ判定結果が送られていないとS107に戻り、カメラ自身で注目選手の追跡を継続する。S1622では、カメラの表示部にトライの判定結果を表示する。
なお、S1620で注目選手の追跡継続に成功していないとS109に進み、注目選手の撮影が終了したか否かを判断し、終了していなければS105に戻る。終了していればS1623に進み、サーバーからトライ判定結果が送られたか否かが判断され、サーバーからトライ判定結果が送られているとS1624に進みカメラ端末の表示部にトライの判定結果を表示する。サーバーからトライ判定結果が送られていないとS101に戻る。
以上により、トライらしき状態になった時に、カメラ端末側に、そのトライに成功したか否かを表示できるようになる。
以上により、トライらしき状態になった時に、カメラ端末側に、そのトライに成功したか否かを表示できるようになる。
これにより、一般観客、あるいは、カメラマンは、例えば撮影した写真の評価を正しく認識できるようになる。そして、カメラマンは、カメラの表示部を見るだけで、判定について認識できるので、報道機関等に送る写真の選定を適切に行うことができるとともに、次の撮影に向けた準備をいち早くできる。
次に、選手の反則の判断について説明する。反則におけるペナルティのレベルによって、相手チームに与えられるアドバンテージも変わってくる。反則が重いとイエローカードをもらい、シンビンとなり、試合に10分間出場できなくなる。
次に、選手の反則の判断について説明する。反則におけるペナルティのレベルによって、相手チームに与えられるアドバンテージも変わってくる。反則が重いとイエローカードをもらい、シンビンとなり、試合に10分間出場できなくなる。
さらに、反則が重いとレッドカードをもらい、即座の退場になる。複数台のカメラによって、サーバーが、これらの反則を認識して、プロカメラマンや一般観客の保有するカメラ等の端末に情報を送り、カメラからプロカメラマンや一般観客に反則情報を選手情報とともに通知することは重要である。
反則が行われたかどうかの検出方法の例を説明する
サーバー側での選手の反則判定の制御フローを図28に示す。
反則が行われたかどうかの検出方法の例を説明する
サーバー側での選手の反則判定の制御フローを図28に示す。
図28において、S1701は初期化を表している。ここで、ジャッジフラグをクリアする。S1702では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS1703に進みカメラの設定情報を入手する。写真撮影が選択されていないとS1701に戻る。S1704では、複数台のカメラで、試合に出場している選手全員を追いかける。S1705では、ジャッジフラグが0であるか否かが判断され、ジャッジフラグが0であるとS1706に進み、ジャッジフラグが0でないとS7107に進む。
S1706では、選手に反則があったようであるかが判断され、選手に反則があったようであるとS1707に進みジャッジフラグに1をセットする。選手に反則があったようでないとS1712に進む。ここで、選手に反則があったようというのは、選手が相手の選手へのタックルのしかた、当たり方などによっても、反則になったりならなかったりするので、ここでは反則の可能性がある場合を指す。また、選手の反則があった場合でも反則にはレベルがある。すなわち、ここではまだ選手の反則のレベルが、確定した状態ではない。S1708は、選手の反則の有無を判定する。図29(A)、(B)に選手の反則の判定を行うフローの具体例を示し詳細は後述する。
S1709では、S1708の制御にて、選手の反則の有無の判定結果がでたか否かが判断され、選手の反則の有無の判定結果がでると、S1710に進み、選手の反則の有無の判定結果がでていないとS1712に進む。S1710ではジャッジフラグに0をセットする。S1711では、サーバーは、選手に反則があったか否かの情報と反則があった場合に反則のレベルの情報をプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
S1712では、ゲームが終了したか否かが判断され、ゲームが終了しているとS1701に進み、ゲームが終了していないとS1704に進む。
S1712では、ゲームが終了したか否かが判断され、ゲームが終了しているとS1701に進み、ゲームが終了していないとS1704に進む。
以上は、選手反則の有無を判定する制御である。しかしながら、フローはこの制御のみを実行するのではなく、その他の複数の制御を同時あるいは並行して行っても良い。一方、プロカメラマンや一般観客が保持するカメラ等の端末側についても、同様であり、端末側でも複数の制御を同時あるいは並行して行っても良い。
複数台のカメラの映像を分析して、反則が行われたと思われるプレイがあった時には、複数台のカメラで、その後の審判の動作を分析して、審判の動作から反則であったか否かを認識する。サーバーは、認識したこの審判の動作から反則であったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバー側における、審判動作からの選手の反則判定フローの例を図29(A)に示す。図29(A)において、S1801では、サーバーは、複数台のカメラの映像から選手の反則のような動きの審判の動作を検出する。
サーバー側における、審判動作からの選手の反則判定フローの例を図29(A)に示す。図29(A)において、S1801では、サーバーは、複数台のカメラの映像から選手の反則のような動きの審判の動作を検出する。
S1802では、複数台のカメラの映像から選手の反則と思われるシーンで選手の反則があったかを審判の動作から認識する。
次に、図29(B)を用いてフィールドでアナウンスされる音声情報から反則の有無を認識するフローの例につき説明する。
複数台のカメラについているマイクから入力される音声情報を分析して、反則が行われたと思われるプレイがあった時には、上記マイクからの音声情報を分析して、音声情報から反則であったか否かを認識する。
次に、図29(B)を用いてフィールドでアナウンスされる音声情報から反則の有無を認識するフローの例につき説明する。
複数台のカメラについているマイクから入力される音声情報を分析して、反則が行われたと思われるプレイがあった時には、上記マイクからの音声情報を分析して、音声情報から反則であったか否かを認識する。
そしてサーバーは、認識したこの音声情報から反則であったか否かの情報を選手情報とともにプロカメラマンや一般観客の保有するカメラ等の端末に対して送る。
サーバー側における、音声情報からの選手の反則を判定するフローを図29(B)に示す。図29(B)において、S1901では、サーバーは、複数台のカメラのマイクから選手の反則のような動きの後の音声情報を検出する。S1902では、複数台のカメラのマイクから選手の反則と思われるシーンで選手の反則があったかと、選手に反則があった場合、その反則のレベルを音声情報から認識する。
サーバー側における、音声情報からの選手の反則を判定するフローを図29(B)に示す。図29(B)において、S1901では、サーバーは、複数台のカメラのマイクから選手の反則のような動きの後の音声情報を検出する。S1902では、複数台のカメラのマイクから選手の反則と思われるシーンで選手の反則があったかと、選手に反則があった場合、その反則のレベルを音声情報から認識する。
反則が起きた時に、複数台のカメラ(固定カメラや移動カメラ)で反則の状況を認識するが、この情報は、プロカメラマンや一般観客の保有するカメラ等の端末にも送られ上記端末で表示される。
ここでは、図30にカメラ側の反則判定制御フローが図示されており、カメラ側でのトライ判定制御フローがベースになっており、カメラ側に反則の状況を表示する。
図30において、図27とはS7421~S7424のみが異なる。即ち、図27におけるS1621、S1622、S1623、S1624は、S7421、S7422、S7423、S7424に置き換わり、それぞれ、の「トライ判定」が「反則判定」になっている点のみ異なる。
ここでは、図30にカメラ側の反則判定制御フローが図示されており、カメラ側でのトライ判定制御フローがベースになっており、カメラ側に反則の状況を表示する。
図30において、図27とはS7421~S7424のみが異なる。即ち、図27におけるS1621、S1622、S1623、S1624は、S7421、S7422、S7423、S7424に置き換わり、それぞれ、の「トライ判定」が「反則判定」になっている点のみ異なる。
以上のように本実施例によれば、サーバーは、注目選手以外(特定の対象以外)の周囲の情報を分析し、分析結果をカメラ等の画像処理装置に送信するので、カメラ等の端末側ではトライやゴールや反則などの競技のリアルタイムの状況を把握できるようになる。従って、特に、プロカメラマン等は、試合中に、写真を選択してタイムリーに報道機関に送る際に、非常に有益な情報を得ることができる。なお、選手の動きをビッグデータとしてサーバーに格納しておいて、このビッグデータをもとに、AIによる選手の動き予測を行っても良い。なお、注目選手は1人だけ指定する例を説明したが、注目選手は複数選手指定しても良い。
また、注目選手は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。
また、実施例では選手を追跡する例を用いて説明したが、犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。
なお、選手の顔認識をする時に、更に、リザーブ選手も含めた選手の役割に着目して判断すれば、サーバーでの選手の検出を短時間化、さらに、リザーブ選手をも含めた選手の検出の精度向上することができる。
なお、選手の顔認識をする時に、更に、リザーブ選手も含めた選手の役割に着目して判断すれば、サーバーでの選手の検出を短時間化、さらに、リザーブ選手をも含めた選手の検出の精度向上することができる。
その場合の、リザーブ選手を含めた選手検出制御フローの例を図32に示す。
図32において、S801では、サーバーは、複数台のカメラの映像からボールの位置情報を検出する。このボールのある位置情報から注目選手のいる大まかな位置を推定する。さらに、フォワード、バックスなどの選手の役割(スターテイングメンバーの選手は背番号で選手の役割を認識する。リザーブ選手については、すでに登録されている選手情報と今日の試合での選手の背番号とその選手の役割により、リザーブ選手の名前、背番号、役割を認識する。)に応じて、顔情報の選手をサーチするエリアを認識する。
図32において、S801では、サーバーは、複数台のカメラの映像からボールの位置情報を検出する。このボールのある位置情報から注目選手のいる大まかな位置を推定する。さらに、フォワード、バックスなどの選手の役割(スターテイングメンバーの選手は背番号で選手の役割を認識する。リザーブ選手については、すでに登録されている選手情報と今日の試合での選手の背番号とその選手の役割により、リザーブ選手の名前、背番号、役割を認識する。)に応じて、顔情報の選手をサーチするエリアを認識する。
S802では、S801にて認識されたエリアについて、サーバーはリザーブ選手を含めた注目選手の顔情報を認識し、複数台のカメラの映像情報を入力して、この顔情報の選手の位置情報を取得する。
複数台のカメラの中の各カメラの映像は、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報を取得できる。また複数台のカメラの映像で、同様に、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報の精度が向上する。
複数台のカメラの中の各カメラの映像は、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報を取得できる。また複数台のカメラの映像で、同様に、リザーブ選手を含めた注目選手の顔情報を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、リザーブ選手を含めた注目選手の位置情報の精度が向上する。
S803では、S802で検出した複数台のカメラの映像情報から注目選手の位置に基づき、注目選手の絶対位置を検出する。S804で、S803で検出した注目選手の絶対位置をプロカメラマンや一般観客が保有するカメラ端末に対して送信する。
S805では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS801に進み、注目選手の追跡が継続していないと図32のフローを終了する。
S805では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS801に進み、注目選手の追跡が継続していないと図32のフローを終了する。
ここでもボールの位置に応じて、試合や競技の状況(あるチームが攻撃しているか守備をしているか)を判断したが、たとえば、試合(競技)状況に基づいた制御としては、ボールの位置に限定されない。たとえば、あるチームが反則をすると相手のチームに、ペナルティキックなどが与えられる。この場合、試合では、ペナルティキックを得たチームが、現在のボール位置より、前進する可能性が高い。よって、この前進することを予測した試合状況に基づいた制御が可能になる。このようにボールの位置を反則という状況から予測しても良い。
複数台のサーバー用カメラの映像に基づき、選手交代の情報を認識して、フィールドから出ていく選手とフィールドに入る選手(これらの選手のポジションも含む)の情報を認識してもよい。そして、サーバーは、これらの情報をプロカメラマンや一般観客が保有するカメラ端末に送る。選手交代の時にフィールドに入る選手は、どこの位置から入っていくかを追いかけて、同時に、プロカメラマンや一般観客が保有するカメラ端末に通知する。
図33を用いて、リザーブ選手の検出制御をベースにして、選手交代での選手検出を補助する方法を説明する。選手交代時における選手の役割(ポジション)を考慮した顔認識情報を用いたリザーブ選手を含めた着目選手検出制御フローを図33に示す。
図33を用いて、リザーブ選手の検出制御をベースにして、選手交代での選手検出を補助する方法を説明する。選手交代時における選手の役割(ポジション)を考慮した顔認識情報を用いたリザーブ選手を含めた着目選手検出制御フローを図33に示す。
図33において、図32と同じ符番は同じステップを示すので説明は省略する。
S905では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS906に進み、注目選手の追跡が継続していないとこの制御を終了する。S906では、選手交代が行われたかが判断され、選手交代があれば、S907に進み、選手交代がなければ、S901に進む。S907は、サーバーは、選手交代を認識し、試合に出場している選手情報一覧をアップデートする。
S905では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS906に進み、注目選手の追跡が継続していないとこの制御を終了する。S906では、選手交代が行われたかが判断され、選手交代があれば、S907に進み、選手交代がなければ、S901に進む。S907は、サーバーは、選手交代を認識し、試合に出場している選手情報一覧をアップデートする。
ここでは、ボールの位置に応じて、試合の状況(あるチームが攻撃しているか守備をしているか)を判断したが、たとえば、試合状況に基づいた制御としては、ボールの位置に限定されない。例えば、あるチームが反則をすると相手のチームに、ペナルティキックなどが与えられる。この場合、試合は、ペナルティキックを得たチームは、今のボールの位置より、前進する可能性が高い。よって、この前進することを予測した試合状況に基づいた制御が可能になる。このようにボールの位置を反則という状況から予測しても良い。さらに、S906での選手交代については、たとえば、サーバーは、選手がフィールドから出ていくことと選手がフィールドに入ることを複数台のカメラで認識して検出してもよい。
これ以外にも、審判他のコールを音声情報として認識して検出する方法がある。また、大型スクリーンに表示される選手交代情報から検出する方法がある。さらには、大型スクリーンに表示されているメンバー一覧から検出するようにしてもよい。
注目選手の検出の際に、さらに、複数台のサーバー用のカメラの映像から、シンビンなどの反則をして、一時的退出する選手の情報も検出してもよい。
注目選手の検出の際に、さらに、複数台のサーバー用のカメラの映像から、シンビンなどの反則をして、一時的退出する選手の情報も検出してもよい。
そして、サーバーは、この情報をプロカメラマンや一般観客が保有するカメラ端末に送る。シンビンとみなされた選手は、10分間、試合に出られなくなる。
図33の例では、複数台のカメラの映像から、選手交代の情報を認識して、フィールドから出ていく選手とフィールドに入る選手(これらの選手のポジションも含む)の情報を認識する。そして、サーバーは、これらの情報をプロカメラマンや一般観客が保有するカメラ端末に送る。選手交代の際にフィールドに入る選手は、どこの位置から入っていくかを追いかけて、同時に、プロカメラマンや一般観客が保有するカメラ端末に通知している。
図33の例では、複数台のカメラの映像から、選手交代の情報を認識して、フィールドから出ていく選手とフィールドに入る選手(これらの選手のポジションも含む)の情報を認識する。そして、サーバーは、これらの情報をプロカメラマンや一般観客が保有するカメラ端末に送る。選手交代の際にフィールドに入る選手は、どこの位置から入っていくかを追いかけて、同時に、プロカメラマンや一般観客が保有するカメラ端末に通知している。
しかし、選手がフィールドから出るのは、選手交代以外にもある。選手が反則をした場合、反則の重さによっても異なるが、即座に退場というレッドカード、10分間試合に出場できないシンビンという反則は、選手が少なくとも一時的にフィールドからでていくものである。そこで次にリザーブ選手の把握をベースにして、選手交代での選手検出、反則をした選手検出を補助する方法については図22のような着目選手検出制御フローを用いて行う。
本実施例では、注目選手を事前に登録して、カメラの表示部において、注目選手をどこにいるかのマークをつけて表示部に示し、さらに、この注目選手に自動的にフォーカス調整(AF)する。これにより、プロカメラマンや一般観客は、注目選手を速やかに撮影できるというメリットがある。
図34には、注目選手へのAF(オートフォーカス)におけるカメラ側の表示部が図示されている。図34において、注目選手は、図34(A)の真ん中で、ハンドオフをしている選手が登録されている。カメラは、注目選手にAF(オートフォーカス)を行う。撮影者が、カメラの表示部で見る映像は、図34(B)となり、注目選手にAF(オートフォーカス)されているので、シャッターチャンスを逃さない撮影が可能になる。なお、このとき注目選手に対して露出調整を自動的に行ってもよい。
次に図35、図36には、カメラ側での着目選手表示追跡制御における注目選手のAFのフローが示されている。図8と同じ符番は同じステップを示し説明は省略する。
図35において、S3807では、注目選手の位置情報に基づき、カメラ自身で注目選手の追跡を実施する。その際、注目選手には、表示部にマークを付けた上で、注目選手へのAF(オートフォーカス)をする。S3808では、注目選手の追跡継続に成功しているか否かが判断され、注目選手の追跡継続に成功していれば、S3807に進み継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないと、S109に進む。
図35において、S3807では、注目選手の位置情報に基づき、カメラ自身で注目選手の追跡を実施する。その際、注目選手には、表示部にマークを付けた上で、注目選手へのAF(オートフォーカス)をする。S3808では、注目選手の追跡継続に成功しているか否かが判断され、注目選手の追跡継続に成功していれば、S3807に進み継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないと、S109に進む。
図36はS3807のフローの詳細を示す。図36において、S3811では、カメラは、サーバーから注目選手の絶対位置情報を受信する。S3812では、カメラは、注目選手の絶対位置情報をこのカメラで撮影している位置、方向、倍率などに基づき、相対位置情報に変換する。S3813では、このカメラから見た相対位置の情報を基に、注目選手の情報を表示部に表示する。S3814では、操作部入力手段906からの情報を入力して、注目選手のAF(オートフォーカス)をサーバーからの位置情報に基づいて実行するモードが選択されているか否かが判断される。
そして注目選手のAF(オートフォーカス)が選択されているとS3815に進み、注目選手のAF(オートフォーカス)が選択されていないとS3816に進む。なお、注目選手のAF(オートフォーカス)が選択されていない場合には、注目選手の位置情報にかかわらず、カメラの表示画面内の中央などに表示されている枠に合わせてAFやAEを行うものとする。
なおS3815におけるAF(オートフォーカス)の方法は周知の方法を適用すればよく説明は省略する。またこのS3815において注目選手に対する露出調整も行ってもよい。S3816では、注目選手の追跡が継続されているか否かが判断され、注目選手の追跡が継続されているとS3811に進み、注目選手の追跡が終了していると図36のフローを終了する。
以上の制御によって、プロカメラマンや一般観客のカメラ端末では、注目選手の認識が可能になるだけでなく注目選手へのAFやAEも速やかに実行されるのでタイムリーな写真撮影が可能になる。
以上の制御によって、プロカメラマンや一般観客のカメラ端末では、注目選手の認識が可能になるだけでなく注目選手へのAFやAEも速やかに実行されるのでタイムリーな写真撮影が可能になる。
なお、カメラ側で、注目選手自動追いかけモードを選択する手段を設けることも可能である。ここで、注目選手自動追いかけモードを選択されていると、カメラは、自動的なズーム機能により表示部の画面に注目選手が入る。従ってプロカメラマンや一般観客にとっては、更に使いやすくなる。
図37には、自動追いかけ時のカメラ表示部の表示例が示されている。
図37において、3901は、カメラの表示部を表している。3901においては、プロカメラマンや一般観客のカメラには、A、B、C、D、E、F、G、Hの7名の選手が撮影のエリアに入っている。ここで、注目選手は、Kであるが、カメラの撮影エリアから外れている。
図37には、自動追いかけ時のカメラ表示部の表示例が示されている。
図37において、3901は、カメラの表示部を表している。3901においては、プロカメラマンや一般観客のカメラには、A、B、C、D、E、F、G、Hの7名の選手が撮影のエリアに入っている。ここで、注目選手は、Kであるが、カメラの撮影エリアから外れている。
3902は、自動追いかけモードがONになっている場合のカメラ表示部のズームアウト状態を表している。カメラは、ズーム機能により、自動的に広角側になり、注目選手Kも撮影のエリアに入るように制御される。図38は更に具体的な表示例を示す図であり、図38(A)ではイメージセンサーからのライブビュー画像を表示している状態において、注目選手が表示画面外にいることを、矢印を重畳表示し矢印の方向で示す。そして自動追いかけモードによってズームがワイドになった場合を図38(B)に示す。ここでは画面内に矢印で注目選手の位置も表示している。このように注目選手が表示画面内に入るようになるので競技の状況が把握しやすくなるとともに、ユーザーの撮りたい画像を容易に得ることができる。
図39、図40には、カメラ側の着目選手表示追跡制御フロー、即ち注目選手の自動追いかけモード時のフローが示されている。
図39において図8と同じ符番は同じステップを示し説明は省略する。図39において、S4007では、カメラ自身で注目選手の追跡を実施する。なお、操作部により自動追いかけモードが選択されている時には、注目選手の自動追いかけを実施し、選択されていない場合には自動追いかけは行わない。プロカメラマンや一般観客が保有するカメラ端末での注目選手の自動追いかけは、カメラのエリア内に選手がいない時に、ズームアウトしてカメラの表示部の画面内に選手が入るようにズーム倍率を自動制御する。このS4007の制御の詳細は図40に示されており後述する。
図39において図8と同じ符番は同じステップを示し説明は省略する。図39において、S4007では、カメラ自身で注目選手の追跡を実施する。なお、操作部により自動追いかけモードが選択されている時には、注目選手の自動追いかけを実施し、選択されていない場合には自動追いかけは行わない。プロカメラマンや一般観客が保有するカメラ端末での注目選手の自動追いかけは、カメラのエリア内に選手がいない時に、ズームアウトしてカメラの表示部の画面内に選手が入るようにズーム倍率を自動制御する。このS4007の制御の詳細は図40に示されており後述する。
S4008では、注目選手の追跡継続に成功しているか否か(OKか否か)が判断され、注目選手の追跡継続に成功していれば、S4007に進み継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないと、S109に進む。
次にS4007の詳細を図40に基づき説明する。図40において、S4011でカメラは、サーバーから注目選手の絶対位置情報を受信する。S4012でカメラは、注目選手の絶対位置情報をこのカメラで撮影している位置、方向、倍率などからの相対位置情報に変換する。
次にS4007の詳細を図40に基づき説明する。図40において、S4011でカメラは、サーバーから注目選手の絶対位置情報を受信する。S4012でカメラは、注目選手の絶対位置情報をこのカメラで撮影している位置、方向、倍率などからの相対位置情報に変換する。
S4013でこのカメラから見た相対位置の情報を基に、注目選手の情報を表示部に表示する。S4014で注目選手がカメラで撮影しているエリアの外であるか否かが判断される。注目選手がカメラで撮影しているエリアの外側(表示画像外)であるとS4015に進み、注目選手がカメラで撮影しているエリアの内側(表示画像内)であるとS4018に進む。S4015では、操作部入力手段906からの情報を入力して、注目選手の自動追いかけモードがユーザーによって選択されているか否かが判断される。
注目選手の自動追いかけモードが選択されているとS4016に進み、注目選手の自動追いかけモードが選択されていないとS4018に進む。S4016では、カメラの表示部に着目選手が表示されるまで、広角側にズームアウトさせる。S4017は、注目選手のAF(オートフォーカス)を実行する。このとき注目選手が適正露光になるようにAEも実行する。S4018では、注目選手の追跡が継続されているか否かが判断され、注目選手の追跡が継続されているとS4011に進み、注目選手の追跡が終了していると図40のフローを終了する。
以上のように、サーバーにより、競技フィールド全体の映像を読み取るとともに、プロカメラマンや一般観客が撮影している映像から、どこから撮影しているかを把握する。サーバーは、複数台のカメラからフィールドの全体の映像をつかんでおくことで、フィールドの位置情報とプロカメラマンや一般観客が見ている映像とのマッピングが可能になる。また、プロカメラマンや一般観客のカメラは、サーバーから注目選手の絶対位置情報を受信するとこの絶対位置情報と今撮影している映像とのマッピングが可能になる。すなわち、プロカメラマンや一般観客のカメラは、注目選手の認識が可能になり、タイムリーな写真撮影が可能になる。
ここで、カメラの撮影しているエリアに、着目選手がいない時には、ズームを広角側にして、注目選手がカメラの撮影しているエリア内部に入るように制御する。さらに、カメラは、注目選手にフォーカスや露出を自動的に調整するので、プロカメラマンや一般観客のカメラは、速やかにかつ確実に注目選手にピントがあった映像を撮影可能になる。
さらに、AF(オートフォーカス)に加えて、AE(Automatic Exposure:自動露出調整)を自動的に実行しているのでユーザーの調整を待たずに最適な画像が得られる。なお、AFをせずにAEだけをしてもよい。更にユーザーは不図示の選択スイッチによって上記AFやAEの一方の制御を選択的にオフできるようにしてもよい。
さらに、AF(オートフォーカス)に加えて、AE(Automatic Exposure:自動露出調整)を自動的に実行しているのでユーザーの調整を待たずに最適な画像が得られる。なお、AFをせずにAEだけをしてもよい。更にユーザーは不図示の選択スイッチによって上記AFやAEの一方の制御を選択的にオフできるようにしてもよい。
以上のように、ラグビーやサッカーなどの競技では、選手が予測し難しいステップを踏んで相手をかわしたりするので、注目選手を追いかけ続けることが非常に難しい。本実施例によれば、そのような場合でも追いかけ続けることができる、もしくは、たとえ注目選手を見失っても、すぐに再検出/再追跡することができるというメリットがある。さらに、ラグビーやサッカーなどの競技では、ボールを持っている選手がつぎつぎと入れ替わる。そのとき、カメラマンが撮影したい注目選手もつぎつぎと入れ替わることになる。この場合には、例えば、ボールを保有する選手を追いかけていく方法もある。
サーバーは、フィールドでの現状を把握して、次に起こりうることを予測するようにしてもよい。そしてサーバーは、プロカメラマンや一般観客が保有するカメラ端末に、この予測の情報を通知する。プロカメラマンや一般観客が保有するカメラ端末には、この予測情報を表示する。プロカメラマンや一般観客は、この情報を見ることにより、シャッターチャンスをより確実に得ることができる。
予測機能の一具体例として、選手交代の先読みをする場合について説明する。
サーバーは、複数台のサーバー用カメラで、試合の状況(競技状況)を判断(分析)して、次に何が起きるかを先読みして、これに基づく情報をプロカメラマンや一般観客が保有するカメラ端末に発信する。ラグビーにおいては、選手が怪我をした場合などでは、選手交代の可能性は高くなる。そこでリザーブの選手の準備状況から選手の交代タイミングを予測した着目選手交代検出制御フローを図41に示す。
サーバーは、複数台のサーバー用カメラで、試合の状況(競技状況)を判断(分析)して、次に何が起きるかを先読みして、これに基づく情報をプロカメラマンや一般観客が保有するカメラ端末に発信する。ラグビーにおいては、選手が怪我をした場合などでは、選手交代の可能性は高くなる。そこでリザーブの選手の準備状況から選手の交代タイミングを予測した着目選手交代検出制御フローを図41に示す。
図41において、図11と同じ符番は同じステップなので説明は省略する。S4107では注目選手を追跡する。具体的なフローは図42を用いて後述する。4108では、リザーブ選手の認識をする。S4108の詳細は図43で後述する。S4109では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS4107に進み、注目選手の追跡が継続していないとS4110に進む。S4110では、注目選手の撮影が終了しているか否かが判断され、注目選手の撮影が終了しているとS4111に進み、注目選手の撮影が終了していないとS206に進む。S4111では、リザーブ選手の動きがあるか否かが判断され、リザーブ選手の動きがあるとS201に進み、リザーブ選手の動きがないとS4108に進む。
次に、S4107のフローについて図42を用いて説明する。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報をサーバー側へ通信手段により無線で送ることで選手の位置センサーからの信号をサーバーが認識して、位置情報を生成し、サーバーからプロカメラマンや観客が保有するカメラ等の端末へ知らせる。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報をサーバー側へ通信手段により無線で送ることで選手の位置センサーからの信号をサーバーが認識して、位置情報を生成し、サーバーからプロカメラマンや観客が保有するカメラ等の端末へ知らせる。
図42において、S4201では、サーバーは、複数台のカメラから、注目選手の位置センサー情報を取得する。前記複数台のカメラには位置センサーからの電波を受信し、受信している電波の方向、受信している電波のレベルを検出して位置センサー情報として出力するための検出手段がそれぞれ含まれている。S4202では、複数台のカメラからの位置センサー情報から注目選手を絶対位置を検出する。S4203では、注目選手の絶対位置の情報をプロカメラマンや一般観客が保有するカメラ端末に送信する。S4204では、注目選手が怪我しているか否かが判断され、注目選手が怪我しているとS4206に進み、注目選手が怪我をしていることをデータメモリ213等の記憶手段に記憶する。
注目選手が怪我していないとS4205に進む。S4205では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS4201に進み、注目選手の追跡が継続していないと図42のフローを終了する。
S4108のリザーブ選手認識制御フローを図43に示す。
図43において、S4301では、サーバーは、複数台のカメラで、リザーブ選手の位置センサー情報を取得する。位置センサー情報の中には、受信している電波の方向、受信している電波のレベルも含まれている。
S4108のリザーブ選手認識制御フローを図43に示す。
図43において、S4301では、サーバーは、複数台のカメラで、リザーブ選手の位置センサー情報を取得する。位置センサー情報の中には、受信している電波の方向、受信している電波のレベルも含まれている。
S4302では、複数台のカメラの位置センサー情報からリザーブ選手の絶対位置を検出する。S4303では、リザーブ選手の動きに着目する。特に注目選手がリザーブの場合にはその動きに注目する。S4304では、リザーブ選手の動きがあるか否かが判断され、リザーブ選手の動きがあると図43のフローを終了し、リザーブ選手の動きがないとS4301に進む。
プレイの予測として、インターセプトなどにも対応できると、シャッターチャンスを確実なものにできるようになる。すなわち、予期しない選手の動きに対応して、プロカメラマンや一般観客が撮影できるようになれば価値の高い写真が撮れる。
また、例えば野球においては、打ち込まれたときに、投手交代の可能性は高くなるなどの統計データを基に、選手の交代を予測しても良い。
選手の動きをビッグデータとしてサーバーに格納しておいて、このビッグデータをもとに、AIにより選手の動き予測を行っても良い。
また、例えば野球においては、打ち込まれたときに、投手交代の可能性は高くなるなどの統計データを基に、選手の交代を予測しても良い。
選手の動きをビッグデータとしてサーバーに格納しておいて、このビッグデータをもとに、AIにより選手の動き予測を行っても良い。
以上において、注目選手は1人の例で、説明したが、注目選手は複数選手でも良い。また、注目選手は、途中で切り替えができるものとする。
また以上において、映像には、動画だけでなくて、静止画も含むものとする。
以上の実施例では、カメラ等の端末側に、注目選手の位置をタイムリーに表示できるようになるので、観客、あるいは、カメラマンは、注目選手の撮影をする際にシャッターチャンスを逃すことなく行うことができる。
また以上において、映像には、動画だけでなくて、静止画も含むものとする。
以上の実施例では、カメラ等の端末側に、注目選手の位置をタイムリーに表示できるようになるので、観客、あるいは、カメラマンは、注目選手の撮影をする際にシャッターチャンスを逃すことなく行うことができる。
なお、注目選手の指定は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。
また、実施例ではラグビー選手などを追跡する例を用いて説明したが、他のスポーツ選手であってもよいし、特定の犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。
また例えばオリンピック、ワールドカップなどの国際的な競技などにおいては、一部の観客やスポンサー等に特権が与えられたりする場合が多いが、実施例ではこのような特権や契約レベルによって、付加価値の提供レベルを変更できる。これらのレベル別のコントロールは、パスワードの入力などにより実現でき、特別な契約をしたプロカメラマンはパスワードの入力により、グランド内外の価値の高い映像や各種情報を獲得して、より良い写真撮影が可能になる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
(関連出願の相互参照)
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
(関連出願の相互参照)
本出願は、先に出願された、2018年11月7日に出願された日本特許出願第2018-209469号、第2018-209480号、第2018-209494号の利益を主張するものである。また、これらの日本特許出願のそれぞれの内容は本明細書において参照によりその全体が本明細書に組み込まれる。
101、102、103・・・・カメラ
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部
Claims (53)
- 画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする画像処理装置。 - 前記制御手段は、前記位置情報に基づき前記表示手段の表示画面内における前記特定の対象の位置を前記付加情報として表示することを特徴とする請求項1項に記載の画像処理装置。
- 前記サーバーは、映像の中の前記特定の対象を認識し、認識結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1または2に記載の画像処理装置。
- 前記サーバーは、前記特定の対象を画像認識して認識結果に基づき位置情報を生成して前記画像処理装置に送信することを特徴とする請求項2に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が有する位置センサーからの信号を認識した結果に基づき前記特定の対象の位置情報を生成することを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
- 前記付加情報は枠、カーソル、色や輝度の異なる領域の少なくとも一つを含む
ことを特徴とする請求項5に記載の画像処理装置。 - 前記付加情報は前記特定の対象が画面外にいる場合には画面から見てどの方向にいるかを示すものであることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを示すものであることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを矢印の長さまたは太さによって示すものであることを特徴とする請求項8に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを数字または目盛りによって示すものであることを特徴とする請求項8に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が装着している番号、前記特定の対象の一部または全体の形状を画像認識することを特徴とする請求項4に記載の画像処理装置。
- 前記サーバーは、複数のカメラの映像の中の前記特定の対象を画像認識した結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
- 前記特定の対象の位置情報をサーバーから取得した後に、前記特定の対象の追跡を実行する追跡手段を更に有することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
- 前記送信手段は、前記追跡手段による追跡が失敗したときには、前記サーバーへ位置情報の送信をリクエストすることを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
- 前記サーバーは、前記画像処理装置が前記特定の対象の追跡に失敗すると予測する場合には、前記画像処理装置からの前記リクエストを待たずに、前記特定の対象の位置情報を画像処理装置に通知することを特徴とする請求項14に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が存在するフィールド全体の映像をあらかじめ取得し、前記位置情報を生成することを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
- 前記サーバーは前記フィールドにおける前記特定の対象の位置情報に基づき、前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項16に記載の画像処理装置。
- 前記サーバーは前記フィールドにおける前記特定の対象の第1の位置情報を前記画像処理装置に送信し、前記画像処理装置は前記第1の位置情報に基づき前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項17に記載の画像処理装置。
- 前記選択手段は複数の特定の対象を選択することを特徴とする請求項1から請求項18のいずれか1項に記載の画像処理装置。
- 前記表示手段に表示される画像は撮像手段によって得られたライブビュー画像であり、前記ライブビュー画像に前記位置情報に基づく前記付加情報が重畳表示されることを特徴とする請求項1から19のいずれか1項に記載の画像処理装置。
- 画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づき前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき、前記特定の対象の位置が前記表示手段の画面外に存在する場合に前記画面から外れていることを表示する制御手段、を有することを特徴とする画像処理装置。 - 前記制御手段は、前記特定の対象が前記表示手段の画面外に存在する場合には前記画面に対して外れている方向を表示することを特徴とする請求項21に記載の画像処理装置。
- 前記制御手段は、前記特定の対象が前記表示手段の画面外に存在する場合には前記画面に対してどのくらい外れているかを表示することを特徴とする請求項21または22に記載の画像処理装置。
- 前記サーバーは、カメラからの映像を分析して、前記特定の対象の動作を認識して動作認識結果を生成して前記画像処理装置に送信することを特徴とする請求項1から23のいずれか1項に記載の画像処理装置。
- 前記動作認識結果は所定のスポーツにおける前記特定の対象による所定のルール上の動作を判定した結果を含むことを特徴とする請求項24に記載の画像処理装置。
- 前記動作認識結果は所定のスポーツにおける得点に関する動作の認識結果を含むことを特徴とする請求項24に記載の画像処理装置。
- 前記動作認識結果は所定のスポーツにおける反則に関する動作の認識結果を含むことを特徴とする請求項24に記載の画像処理装置。
- 前記サーバーはカメラからの映像に基づき、前記特定の対象以外の周囲の情報を分析して分析結果を前記画像処理装置に送信することを特徴とする請求項1から請求項27のいずれか1項に記載の画像処理装置。
- 前記サーバーは、映像を分析して、前記特定の対象以外の対象の動作を認識した結果に基づき動作認識結果を生成して前記画像処理装置に送信することを特徴とする請求項28に記載の画像処理装置。
- 前記動作認識結果は所定の競技における審判の動作に関する認識結果を含むことを特徴とする請求項29に記載の画像処理装置。
- 前記サーバーは、映像に伴う音声に基づき前記特定の対象以外の周囲の情報を分析して分析結果を前記画像処理装置に送信することを特徴とする請求項1から請求項30のいずれか1項に記載の画像処理装置。
- 前記選択手段は、表示手段に表示された画像の中からユーザーが特定の対象の画像を選択することによって画像認識によって前記特定の対象を選択することを特徴とする請求項1から請求項31のいずれか1項に記載の画像処理装置。
- 前記指定情報生成手段は選択手段によって選択された前記特定の対象の画像を画像認識した結果に基づき前記特定の対象に関する指定情報を生成することを特徴とする請求項32に記載の画像処理装置。
- 前記サーバーは、複数台のカメラからの映像の中の所定の基準指標に基づき、前記特定の対象の位置に関する情報を生成して前記画像処理装置に送信することを特徴とする請求項1から33のいずれか1項に記載の画像処理装置。
- 前記基準指標は競技場にあらかじめ設けられたポールまたはラインを含むことを特徴とする請求項34に記載の画像処理装置。
- 前記制御手段は、前記取得手段によって取得された前記特定の対象の位置情報に基づき前記特定の対象の露出調整またはフォーカス調整の少なくとも一方を制御することを特徴とする請求項1から35のいずれか1項に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が有する位置センサーからの信号を認識し、認識した結果に基づき前記特定の対象の位置情報を生成することを特徴とする請求項1から36のいずれか1項に記載の画像処理装置。
- 前記特定の対象は所定の競技における特定の選手であって、前記特定の選手の予め設定された役割から前記特定の選手のいる位置を推定する推定手段を有することを特徴とする請求項1から37のいずれか1項に記載の画像処理装置。
- 前記推定手段は、リザーブ選手の役割も参照して前記特定の選手の位置を推定することを特徴とする請求項38に記載の画像処理装置。
- 前記推定手段は競技状況を分析した結果に基づき前記特定の選手の位置を推定することを特徴とする請求項38または39に記載の画像処理装置。
- 前記推定手段は選手交代を認識して前記特定の選手の位置を推定することを特徴とする請求項38から40のいずれか1項に記載の画像処理装置。
- 前記制御手段は、前記特定の対象の露出調整またはフォーカス調整の少なくとも一方を前記取得手段によって取得された前記特定の対象の位置情報に基づき制御するモードと、前記取得手段によって取得された前記特定の対象の位置情報に基づかずに制御するモードとを選択可能であることを特徴とする請求項1から41のいずれか1項に記載の画像処理装置。
- 前記制御手段は、前記特定の対象の位置が前記表示手段の表示画面外にある場合に前記付加情報を表示するモードと表示しないモードを選択可能であることを特徴とする請求項1から42項のいずれか1項に記載の画像処理装置。
- 前記特定の対象は所定の競技における特定の選手であって、前記制御手段は、競技状況を分析した結果に基づき、前記付加情報を表示するモードと表示しないモードを選択可能であることを特徴とする請求項1から43のいずれか1項に記載の画像処理装置。
- 前記制御手段は、前記特定の対象の位置が前記表示手段の画面外にある場合に前記追跡手段を動作させるか否かを選択可能であることを特徴とする請求項13に記載の画像処理装置。
- 前記特定の対象は所定の競技における特定の選手であって、前記制御手段は、競技状況に基づき、前記追跡手段を動作させるか否かを選択可能としたことを特徴とする請求項13に記載の画像処理装置。
- 画像を表示する表示ステップ、
前記表示ステップにより表示された画像の中から特定の対象を選択する選択ステップ、
前記選択ステップによって選択された前記特定の対象に関する指定情報を生成する指定情報生成ステップ、
前記指定情報生成ステップによって生成された前記指定情報をサーバーに送信する送信ステップ、
前記サーバーが前記指定情報に基づき生成した前記特定の対象の位置情報を、前記サーバーから取得する取得ステップ、
前記取得ステップで取得された前記特定の対象の位置情報に基づき前記特定の対象の露出調整またはフォーカス調整の少なくとも一方を制御する制御ステップ、
を有することを特徴とする画像処理方法。 - 画像処理装置から送られてくる特定の対象に関する指定情報を受信する受信手段、
前記受信手段によって受信された指定情報に基づき、前記特定の対象を映像の中から探して前記特定の対象の位置に関するデータを生成するとともに、映像を分析して、前記特定の対象の動作を認識して動作認識結果を生成する生成手段、
前記生成手段によって生成された前記特定の対象の位置情報と前記動作認識結果に関する情報を前記画像処理装置に送信する送信手段、を有することを特徴とする画像処理サーバー。 - 画像処理装置から送られてくる特定の対象に関する指定情報を受信する受信手段、
前記受信手段によって受信された指定情報に基づき、前記特定の対象を映像の中から探して前記特定の対象の位置に関するデータを生成する生成手段、
前記生成手段によって生成された前記特定の対象の位置に関するデータを前記画像処理装置に送信する送信手段、を有することを特徴とする画像処理サーバー。 - 請求項1から46のうちいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項50に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
- 請求項48または49に記載の画像処理サーバーの各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項52に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201980088091.XA CN113273171A (zh) | 2018-11-07 | 2019-10-17 | 图像处理装置、图像处理服务器、图像处理方法、计算机程序和存储介质 |
US17/307,582 US20210258496A1 (en) | 2018-11-07 | 2021-05-04 | Image processing device, image processing server, image processing method, and storage medium |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-209494 | 2018-11-07 | ||
JP2018-209480 | 2018-11-07 | ||
JP2018209469A JP7289630B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
JP2018209480A JP7233886B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
JP2018209494A JP7233887B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
JP2018-209469 | 2018-11-07 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/307,582 Continuation US20210258496A1 (en) | 2018-11-07 | 2021-05-04 | Image processing device, image processing server, image processing method, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020095647A1 true WO2020095647A1 (ja) | 2020-05-14 |
Family
ID=70612398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/040874 WO2020095647A1 (ja) | 2018-11-07 | 2019-10-17 | 画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210258496A1 (ja) |
CN (1) | CN113273171A (ja) |
WO (1) | WO2020095647A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501582B2 (en) * | 2019-12-01 | 2022-11-15 | Active Track, Llc | Artificial intelligence-based timing, imaging, and tracking system for the participatory athletic event market |
CN111246115A (zh) * | 2020-02-20 | 2020-06-05 | 深圳市昊一源科技有限公司 | 无线传输系统及发射控制装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP2009010967A (ja) * | 2001-09-28 | 2009-01-15 | Fujifilm Corp | 撮影支援装置 |
JP2010198104A (ja) * | 2009-02-23 | 2010-09-09 | Nec Corp | 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法 |
JP2012209943A (ja) * | 2011-03-29 | 2012-10-25 | Sony Corp | アノテーション方法、アノテーション装置、および携帯電話機 |
JP2013168854A (ja) * | 2012-02-16 | 2013-08-29 | Nikon Corp | 撮影装置、サーバ装置及び管理システム |
WO2016017121A1 (ja) * | 2014-07-28 | 2016-02-04 | パナソニックIpマネジメント株式会社 | 拡張現実表示システム、端末装置および拡張現実表示方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2400513B (en) * | 2003-03-14 | 2005-10-05 | British Broadcasting Corp | Video processing |
JP4591586B2 (ja) * | 2008-09-22 | 2010-12-01 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US10616663B2 (en) * | 2012-07-02 | 2020-04-07 | Russell Brands, Llc | Computer-implemented capture of live sporting event data |
JP2014078910A (ja) * | 2012-10-12 | 2014-05-01 | Sony Corp | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
JP6337431B2 (ja) * | 2013-08-28 | 2018-06-06 | 株式会社ニコン | システム、サーバ、電子機器およびプログラム |
US10091411B2 (en) * | 2014-06-17 | 2018-10-02 | Lg Electronics Inc. | Mobile terminal and controlling method thereof for continuously tracking object included in video |
US20160182814A1 (en) * | 2014-12-19 | 2016-06-23 | Microsoft Technology Licensing, Llc | Automatic camera adjustment to follow a target |
JP6611536B2 (ja) * | 2015-09-28 | 2019-11-27 | キヤノン株式会社 | リモート支援システム、情報処理装置、画像処理装置、それらの制御方法、及びプログラム |
WO2017134706A1 (ja) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 映像表示方法及び映像表示装置 |
US11348255B2 (en) * | 2017-06-05 | 2022-05-31 | Track160, Ltd. | Techniques for object tracking |
US10536622B2 (en) * | 2018-05-15 | 2020-01-14 | Sony Corporation | Camera depth prediction using generative adversarial network |
-
2019
- 2019-10-17 CN CN201980088091.XA patent/CN113273171A/zh active Pending
- 2019-10-17 WO PCT/JP2019/040874 patent/WO2020095647A1/ja active Application Filing
-
2021
- 2021-05-04 US US17/307,582 patent/US20210258496A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009010967A (ja) * | 2001-09-28 | 2009-01-15 | Fujifilm Corp | 撮影支援装置 |
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP2010198104A (ja) * | 2009-02-23 | 2010-09-09 | Nec Corp | 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法 |
JP2012209943A (ja) * | 2011-03-29 | 2012-10-25 | Sony Corp | アノテーション方法、アノテーション装置、および携帯電話機 |
JP2013168854A (ja) * | 2012-02-16 | 2013-08-29 | Nikon Corp | 撮影装置、サーバ装置及び管理システム |
WO2016017121A1 (ja) * | 2014-07-28 | 2016-02-04 | パナソニックIpマネジメント株式会社 | 拡張現実表示システム、端末装置および拡張現実表示方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210258496A1 (en) | 2021-08-19 |
CN113273171A (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10848662B2 (en) | Image processing device and associated methodology for determining a main subject in an image | |
KR101680714B1 (ko) | 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체 | |
CN106575027B (zh) | 摄像装置及其被摄体跟踪方法 | |
CN103369234B (zh) | 服务器、客户终端和系统 | |
US8730335B2 (en) | Imaging apparatus and imaging system | |
JP4835898B2 (ja) | 映像表示方法および映像表示装置 | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4121974B2 (ja) | 画像撮影システムおよび画像撮影方法 | |
JP2008005208A (ja) | スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム | |
WO2020095647A1 (ja) | 画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体 | |
US20210258505A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2014050022A (ja) | 画像処理装置、撮像装置、およびプログラム | |
WO2021200184A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP7235098B2 (ja) | 情報配信装置、情報配信方法、情報配信プログラム | |
JP7282519B2 (ja) | 画像処理装置または画像処理サーバー | |
JP7233886B2 (ja) | 画像処理装置 | |
JP7289630B2 (ja) | 画像処理装置 | |
JP7233887B2 (ja) | 画像処理装置 | |
CN111586281B (zh) | 景别处理方法及装置 | |
JP2017022650A (ja) | 撮影システム、携帯機器、撮像装置、カメラ選択方法及びプログラム | |
JP2008098755A (ja) | 撮像装置および方法 | |
JP7524762B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP2014123853A (ja) | 撮影機器、画像表示装置 | |
JP7479829B2 (ja) | 制御装置、撮像装置、撮像システム、制御方法、および、プログラム | |
WO2023074431A1 (ja) | 撮像制御装置、撮像装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19882580 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19882580 Country of ref document: EP Kind code of ref document: A1 |