WO2020095648A1 - 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 - Google Patents
画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 Download PDFInfo
- Publication number
- WO2020095648A1 WO2020095648A1 PCT/JP2019/040876 JP2019040876W WO2020095648A1 WO 2020095648 A1 WO2020095648 A1 WO 2020095648A1 JP 2019040876 W JP2019040876 W JP 2019040876W WO 2020095648 A1 WO2020095648 A1 WO 2020095648A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- player
- information
- server
- image processing
- position information
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 55
- 238000003860 storage Methods 0.000 title claims description 7
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000003672 processing method Methods 0.000 title claims 2
- 239000003086 colorant Substances 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 52
- 230000008569 process Effects 0.000 description 42
- 238000001514 detection method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000002860 competitive effect Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006308 Hooker rearrangement reaction Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/08—Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
- G03B7/091—Digital circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Definitions
- the present invention relates to an image processing device and the like for shooting and video monitors.
- Patent Document 1 describes a plurality of cameras for shooting a subject from a plurality of directions, and a plurality of image processing devices for extracting a predetermined region from an image taken by a corresponding camera among the plurality of cameras. Further, there is described an image generation device that generates a virtual viewpoint image based on image data of a predetermined area extracted from images captured by the plurality of cameras by the plurality of image processing devices. Patent Document 2 describes an automatic focus detection device that drives a focus lens based on an AF evaluation value acquired from a captured image to perform automatic focus detection control.
- the server side can grasp omnidirectional video, various information on the field of the game and competition, and various valuable information inside and outside the ground can be obtained, but the conventional system does not fully utilize the server.
- a general user who monitors a game at a stadium or a terminal at home often loses sight of a particular player or loses the game situation.
- a target such as a specific vehicle, an airplane, or a horse may be lost.
- even when a specific person is tracked on a street corner the specific person may be lost in the crowd because of being confused.
- An object of the present invention is to solve the above problems and to provide an image processing apparatus capable of timely displaying valuable information for a photographer or an observer in accordance with a password.
- Display means for displaying images, Selecting means for selecting a specific object from the image displayed on the display means, Designation information generation means for generating designation information relating to the specific target selected by the selection means, Transmitting means for transmitting the designated information generated by the designated information generating means and a predetermined password to a server; Acquisition means for acquiring from the server the position information of the specific target generated by the server based on the designation information and the password, It is characterized by further comprising control means for displaying on the display means additional information based on the position information of the specific object acquired by the acquisition means.
- the present invention by designating a specific target and inputting a password, information such as where the specific target is on the screen can be easily obtained, and the user can monitor or photograph the specific target, for example. It is possible to provide a very convenient service in cases such as when
- FIG. 1 is a block diagram of an entire system including an image processing device according to an embodiment. It is a detailed block diagram of a server side. It is a detailed block diagram on the terminal side. It is a detailed block diagram on the terminal side. It is a figure which shows an example of an attention player display start sequence. It is a figure which shows an example of an attention player display tracking sequence. It is a figure which shows an attention player display tracking control flow in a camera side. It is a figure which shows the other example of an attention player display tracking control flow by the camera side. It is a block diagram which shows the functional structural example of the tracking part 371 of a digital camera. It is a figure which shows the detection control flow of the attention player on the server side.
- the server (image processing server) side having a plurality of cameras (moving cameras using fixed cameras and drones) for the server is the position of the focused player (specific target) and the game in the entire field of the stadium. Understand the latest situation in real time. Then, an example will be shown in which the server provides, to a terminal owned by each spectator, timely information necessary for, for example, camera photographing and image monitoring.
- the server it is possible to track the position, score, foul, judgment result of the referee, and other latest status of each player by using multiple cameras (fixed camera and moving camera) for the server. It can also be analyzed by the server based on the information displayed on a large screen. As a result, the entire situation can be accurately recognized and timely transmitted to camera terminals and the like owned by professional photographers and spectators and terminals such as smartphones and tablets. As a result, the spectator can grasp the latest situation of the competition in a timely manner. In particular, a professional photographer needs to send the photograph taken immediately to the news agency, but it is difficult to accurately grasp the overall situation of the competition because the field of view is narrow only by looking at the screen of the camera. However, if the configuration of the present embodiment is used, the situation of the competition and the like can be quickly known, so that it becomes possible to quickly select the photograph to be sent to the news agency.
- terminals image processing devices
- digital cameras smartphones
- configurations in which cameras and smartphones are connected tablet PCs, TVs, etc.
- terminals image processing devices
- Since the same service can be provided to spectators watching the competition at home via the Internet or television broadcasting through terminals (image processing devices) such as PCs and TVs, it is possible to grasp the situation of the competition more accurately. You can enjoy the competition more.
- 101 to 103 are server cameras, 101 (fixed camera 1), 102 (fixed camera 2), 103 (fixed camera 3), 104 (large screen). , 110 (server), 111 (input means), 112 (base station) perform image acquisition and sound acquisition for providing information to general professional photographers and spectators.
- server server
- 111 input means
- 112 base station
- three server cameras 101 to 103 are used, but one or a plurality of server cameras may be used.
- these server cameras may be cameras installed in, for example, a drone, instead of fixed cameras.
- input information other than video can be captured from the input means, and services for general professional photographers and spectators can be expanded.
- Reference numeral 105 is a wired / wireless LAN or the Internet, and 106 is a connection line for inputting the information output from the input unit 111 to the server 110.
- Reference numeral 107 is a connection line for transmitting / receiving a signal to / from the base station 112, and reference numeral 108 is an antenna unit for executing wireless communication of the base station. That is, the blocks in the 100s are blocks for supporting video shooting by professional photographers and general spectators.
- 401 (terminal 1), 402 (terminal 2), 403 (terminal 3) are terminals, such as cameras, smartphones, tablet PCs, and TVs for shooting and monitoring by professional photographers and spectators. Is a video display terminal device such as.
- 404 (antenna) 405 (antenna) and 406 (antenna) are antennas for 401 (terminal 1), 202 (terminal 2) and 203 (terminal 3) to perform wireless communication, respectively.
- the terminal When the server detects the position of the player of interest, for example, the terminal sends ID information of the player of interest to the server side, and the server side sends various information such as position information regarding that player to the terminal. Since the players are moving and the competition situation is changing, it is necessary to detect the player of interest in a short time. Therefore, for example, 5G is used for the wireless communication here.
- 401 terminal 1
- 402 terminal 2
- 403 terminal 3
- 301 is a smartphone, which mainly controls communication with a server. Also, by installing application software on this smartphone, various video acquisition services will be realized.
- a (digital) camera 300 is an image processing apparatus that is mainly used by a professional photographer or a spectator to monitor an image.
- the camera 300 is connected to the smartphone 301 via USB or Bluetooth (registered trademark).
- 320 is an antenna for the smartphone 301 to wirelessly communicate with the base station 112.
- the video and control signals are exchanged with the server wirelessly, but the connection for executing communication with the terminal may be adaptively selected from wireless communication and wired communication. good.
- the wireless communication environment is 5G, it is possible to perform wireless communication, and if the wireless communication environment is LTE, it is possible to send information with a large amount of data by wire and send a control signal with a small amount of data by wireless. Furthermore, it is possible to switch to wired communication depending on the congestion level of wireless communication lines.
- Reference numeral 201 is an Ethernet (registered trademark) controller
- 204 is a detection unit that detects a play position according to the role (so-called position) of the player.
- the role (position) of the player is set in advance by registration or the like.
- 1 and 3 are props
- 2 are hookers
- 4 and 5 are rocks
- 6 and 7 are flankers
- 8 is called number 8
- 9 is scrum half
- 10 is Called the standoff.
- 11 and 14 are called wings
- 12 and 13 are called centers
- 15 is called a fullback. In the places where these players are, the forward is often in front of the attack and the backs are often behind in the attack, such as in set play.
- the position of a player is generally determined according to the role (position) of the player, so it is more effective and accurate to follow the player after understanding the role (position) of the noted player.
- the reserve player's uniform numbers are 16 to 23.
- the position is not fixed only by the uniform number. Therefore, the detection unit 204 detects the play position of the player according to the preset role, and the information of the detected play position is fetched by the CPU 211 in the server 110.
- the preset role is the competition. It may change due to changes in players.
- Reference numeral 205 denotes a contour information detection unit, for example, when a professional photographer or a spectator monitors an image on a terminal and shoots at a magnification of the camera from the position and angle of the image, the server 110 determines the position of the attention player. Notify the terminals 401 to 403. Further, by notifying the terminals 401 to 403 and the like of the contour information of the attention player being photographed from the server 110, it becomes possible for each of the terminals 401 to 403 to recognize the attention player more reliably.
- the contour information detected by the block 205 is fetched by the CPU 211.
- Reference numeral 206 denotes a player's face recognition unit, which finds a player in an image using AI, in particular, an image recognition technique such as Deep Learning based on pre-registered face photograph information of the player of interest. Information on the face recognition result detected by the face recognition unit 206 is also fetched by the CPU 211. A player's physique recognition unit 207 finds the player using the image recognition technique as described above based on the physique photo information registered in advance of the noted player.
- Reference numeral 208 denotes a player's jersey number detection unit, which finds a player from the number (such as jersey number) of the noted player registered in advance by using the image recognition technique described above. Needless to say, when detecting the player's number, not only the number on the back side of the bibs but also the number written on the front side may be detected.
- a position information creation unit 209 recognizes the position, direction and angle of view of each camera from the position information of the cameras 101, 102, 103 and the like using GPS and the information on the direction and angle of view of the camera. Then, based on the video from each camera, absolute position information on the ground where the athlete is is acquired by the triangulation method.
- the position information creation unit 209 also acquires in advance the positions on the screen such as poles and lines of the competition field (for example, side lines and end lines) as reference indexes for detecting reference positions that are installed in advance in the stadium. You may keep it. Then, using these as reference coordinates, the absolute position of the noted player with respect to the field in the stadium may be acquired.
- Reference numeral 210 denotes camera position information for detecting the position of each terminal and the direction and angle of view of the camera of each terminal from position information, direction information, and angle information of each terminal sent from each terminal 401 to 403. It is a direction detector.
- Reference numeral 211 denotes a CPU (Central Processing Unit) as a computer, which is a central processing unit that executes control shown in the following embodiments based on a control computer program stored in a program memory 712 as a storage medium. .. It also serves as a display control unit and controls information displayed on the display unit 214 described later.
- a data memory 213 stores various data referred to by the CPU 211.
- the data memory 213 stores past match information, past player information, information about today's match (competition), information about the number of spectators, weather, etc., information about the player of interest, the current situation of the player, etc. ..
- the information about the player of interest also includes information such as face, uniform number, and physique.
- 1101 is a data bus line in the server 110.
- FIGS. 3 and 4 are block diagrams showing an example of the configuration of a terminal.
- the overall configuration of the (digital) camera 500 is shown using two drawings.
- the digital camera shown in FIGS. 3 and 4 is capable of shooting moving images and still images and recording shooting information.
- a CPU (Central Processing Unit) 318, a program memory 319, and a data memory 320 are shown redundantly, but these are the same block and only one is incorporated therein.
- reference numeral 301 is an Ethernet (registered trademark) controller.
- a storage medium 302 stores moving images and still images captured by a digital camera in a predetermined format.
- Numeral 303 is an image sensor as an image sensor such as CCD or CMOS, which converts an optical image from an optical signal into an electrical signal and further converts this information from analog information into digital data and outputs it.
- a signal processing unit 304 performs various corrections such as white balance correction and gamma correction on digital data output from the image sensor 303 and outputs the digital data.
- a sensor driving unit 305 controls horizontal and vertical line driving for reading information from the image sensor 303, timing at which the image sensor 303 outputs digital data, and the like.
- Reference numeral 306 is an operation unit input means. Input is made in response to selection and setting of various conditions for shooting with a digital camera, a trigger operation for shooting, a selection operation for using a flash, an operation for replacing a battery, and the like. Further, in the operation unit input means 306, it is possible to select / set whether or not to perform AF (autofocus) on the player of interest based on position information from the server. The selection / setting information as to whether AF (autofocus) is performed on the noted player is output from the operation unit input unit 306 to the bus line 370. Further, the operation unit input means 306 can select / set whether or not to automatically track the player of interest based on the position information from the server.
- the operation unit input unit 306 functions as a designation information generation unit that generates designation information regarding a specific target.
- a magnification detection unit 308 detects the photographing magnification of the digital camera.
- An operation unit output unit 309 is for displaying UI information such as a menu and setting information on the image display unit 380 that displays image information captured by a digital camera or the like.
- Reference numeral 310 denotes a compression / expansion circuit, which develops the digital data (RAW data) from the image sensor 303 by the signal processing unit 304 and then compresses it by the compression / expansion circuit 310 into a JPEG image file or a HEIF image file, or The raw data is compressed as it is to form a raw image file.
- RAW data digital data
- Reference numeral 310 denotes a compression / expansion circuit, which develops the digital data (RAW data) from the image sensor 303 by the signal processing unit 304 and then compresses it by the compression / expansion circuit 310 into a JPEG image file or a HEIF image file, or The raw data is compressed as it is to form a raw image file.
- RAW image file is developed in the camera to generate a JPEG image file or a HEIF image file
- a process of decompressing the compressed information and returning it to RAW data is performed.
- Reference numeral 311 is a face recognition unit, which refers to face photograph information registered in advance on the server for the player of interest and finds the player in the video by AI, in particular, image recognition using a technique such as Deep Learning. Is. Information regarding the face recognition result detected by the face recognition unit 311 is fetched by the CPU 318 via the bus line 370.
- Reference numeral 312 denotes a physique recognition unit, which refers to physique photo information registered in advance with the server regarding the player of interest and finds the player of interest in the video by the image recognition technique as described above.
- a player's jersey number detection unit 313 finds a player from the player's jersey number of the player of interest (of course, the number on the front side) by the image recognition technique as described above.
- a direction detector 314 detects the direction in which the lens of the terminal is facing.
- a position detection unit 315 detects the position information of the terminal using, for example, GPS.
- a power management unit 316 detects the power status of the terminal, and supplies power to the entire terminal when the pressing of the power button is detected while the power switch is off.
- 318 is a CPU as a computer, which executes the control shown in the following embodiments based on a control computer program stored in a program memory 319 as a storage medium. It also serves as display control means and controls the image information displayed on the image display unit 380.
- the image display unit 380 is a display unit using liquid crystal, organic EL, or the like.
- the data memory 320 is for storing the setting conditions of the digital camera, and for storing the photographed still image and moving image, and further, the attribute information of the still image and moving image.
- reference numeral 350 denotes a taking lens unit, which has a fixed first group lens 351, a zoom lens 352, an aperture 355, a fixed third group lens 358, a focus lens 359, a zoom motor 353, an aperture motor 356, and a focus motor 360.
- the fixed first group lens 351, the zoom lens 352, the diaphragm 355, the fixed third group lens 358, and the focus lens 359 form a photographing optical system.
- each of the lenses 351, 352, 358, and 359 is illustrated as a single lens for the sake of convenience, each of them may be formed of a plurality of lenses.
- the taking lens unit 350 may be configured as an interchangeable lens unit that can be attached to and detached from the digital camera.
- the zoom control unit 354 controls the operation of the zoom motor 353 and changes the focal length (angle of view) of the taking lens unit 350.
- the diaphragm control unit 357 controls the operation of the diaphragm motor 356 and changes the aperture diameter of the diaphragm 355.
- the focus control unit 361 calculates the defocus amount and the defocus direction of the taking lens unit 350 based on the phase difference between the pair of focus detection signals (A image and B image) obtained from the image sensor 303. Then, the focus control unit 361 converts the defocus amount and the defocus direction into the drive amount and the drive direction of the focus motor 360. The focus control unit 361 controls the operation of the focus motor 360 based on the driving amount and the driving direction, and drives the focus lens 359 to control the focus of the photographing lens unit 350 (focus adjustment). In this way, the focus control unit 361 performs the phase-difference detection type automatic focus (AF). Note that the focus control unit 361 may perform contrast detection AF in which the contrast peak of the image signal obtained from the image sensor 303 is searched.
- Reference numeral 371 is a tracking unit for tracking the player of interest with the digital camera itself. The tracking here means, for example, moving a frame display surrounding the player of interest on the screen, and focusing or exposing the player of interest tracked by the frame.
- FIG. 5A is a sequence in which the server 110 side answers an inquiry (request) from the camera 500 side. Then, the server 110 side provides the camera 500 side with information regarding the absolute position of the player of interest. The camera 500 notifies the server 110 of attention player designation information (ID information such as a uniform number and a player name). At that time, the user may touch the position of the player of interest on the screen of the terminal, or may surround the player of interest with his / her finger while touching the screen with his / her finger.
- ID information such as a uniform number and a player name
- the face position on the screen of the player of interest is touched, the face may be image-recognized or the player's number may be recognized to send the player's name or player's number.
- the face image itself may be sent to the server without image recognition, and the image may be recognized on the server side. At this time, if there is a predetermined password, it will also be sent to the server.
- a block that supports capturing an image sends information about the absolute position of the player to the camera based on the player specification information (ID information such as the player's number and player name). If the password is also sent from the camera, the content of the information sent to the camera will be changed accordingly.
- ID information such as the player's number and player name
- the camera sends information to the server such as the position information of the camera photographed by the professional photographer or the audience, the direction of the camera, and the magnification of the camera.
- the server side On the server side, a free-viewpoint image is made in the position and direction the camera is looking at, and the image seen by the actual camera is recognized from the magnification of the camera.
- Position information about the position of the player in the image actually seen by the camera, contour information of the player, and the like are sent to the camera.
- the camera Based on the position information, contour information and the like sent from the server, the camera displays the player of interest on the screen of the display unit of the camera so as to stand out with high accuracy and performs AF and AE on the player of interest.
- the camera 500 serving as a terminal repeatedly inquires (requests) the server 110, for example, periodically to continuously recognize the position of the player.
- the focused player display start sequence (A1, B1, ...) Is periodically sent from the camera to the server, and the focused player display start sequence (A2, B2, ...) is periodically sent from the server.
- the operation of receiving and recognizing the position of the player of interest is repeated many times.
- FIG. 6 shows a method of automatically tracking the attention player with the camera itself.
- the camera 500 sends the ID information of the player of interest to the server 110, and temporarily acquires the position information of the player of interest from the server. After the acquisition, after narrowing down the position of the player of interest by referring to the position information, the camera 500 itself continuously tracks the player of interest by image recognition.
- the camera 500 itself tracks the attention player by the image recognition technology. However, when the attention player is lost on the way (when the tracking is unsuccessful), from the camera side to the server, Request the position information of the player of interest again.
- the camera sends the attention player display start sequence (A1) again to the server, receives the attention player display start sequence (B2) from the server, Display position on screen. After that, the camera again tracks the player of interest by image recognition.
- the terminal may be a home TV. That is, when the spectator watching the TV specifies the player of interest, the server may send the position information of the player of interest to the TV to display the player of interest in a framed manner or the like.
- the cursor for example, an arrow
- the direction in which the player shifts with respect to the screen of the terminal may be displayed by arrows or characters.
- the additional information is controlled to be displayed on the screen, and when the player of interest moves to the outside of the screen, the user does not display that the player is outside the screen with an arrow or the like. May be selectable.
- the player of interest moves to the outside of the screen and the player of interest moves out of the screen by automatically judging the competition situation and the player of interest goes down to the bench, etc. Good. If the user can select the mode in which the additional information is automatically erased and the mode in which it is not erased, the usability is further improved.
- S101 represents initialization. It is determined whether or not photography is selected in S102. If photography is selected, the process proceeds to S103, and if photography is not selected, the process proceeds to S101. In S103, the setting information of the camera is obtained. In S104, it is determined whether or not shooting (designation) of the player of interest is selected. If shooting of the player of interest is selected, the process proceeds to step S105. If shooting of the player of interest is not selected, the process proceeds to step S110, and other processing is performed. To do.
- step S105 if there is a player information of the player of interest (ID information of the player of interest) and a password, the password is sent from the camera to the server.
- ID information of the player of interest ID information of the player of interest
- the server side detects the position information of the player of interest and sends it to the camera.
- the position information of the player of interest is received from the server.
- the camera itself tracks the player of interest while referring to the position information sent from the server.
- image recognition is performed by the camera itself to track the player of interest.
- the player is tracked based on the recognition result of any one of the player's uniform number, the player's face information, the physique of the player, or a combination thereof. That is, a part or the whole shape of the player of interest is image-recognized and tracked.
- the user's shooting position is poor, the field of view of the camera is narrow, or it is hidden behind other subjects depending on the shooting angle etc., there is a possibility that you may lose sight of it, and if you lose sight of it, it will be returned to the server again. You will be sending a location request.
- S107-2 shows an example of mark display as additional information for the player of interest. That is, as the additional information, a cursor indicating the player of interest is displayed, a frame is displayed at the position of the player of interest, the color or brightness of the position of the player of interest is conspicuously changed, or a combination thereof is displayed. You may display in characters other than the mark. Then, in the state where the live view image from the image sensor is displayed on the image display unit, the additional information indicating the position is superimposed on the player of interest.
- FIG. 7B shows an example of the flow of S107-2 for displaying a mark, which will be described later.
- the user may select with the selection switch so that the tracking operation in S107 as described above is skipped and not executed.
- a mode may be provided in which the tracking operation is performed when the player of interest is in the screen, but the tracking operation is not performed when the player is out of the screen, and the mode can be selected.
- it automatically determines the competition situation and automatically stops the tracking operation (display additional information such as arrows) of the focused player outside the screen, for example, when the focused player enters the bench. You may control.
- the server knows that the target player has entered the bench, the display of the position of the target player on the screen, autofocus for the target player, and automatic exposure adjustment for the target player are stopped. It may be controlled to do so.
- S108 it is determined whether or not the continuous tracking of the player of interest is OK (successful). If the continuous tracking of the player of interest is successful, the process proceeds to S107 to continue the tracking of the player of interest by the camera itself. If it is carried out and tracking of the player of interest has not succeeded, the process proceeds to S109. In S109, it is determined whether or not the shooting of the noted player is completed, and when the shooting of the noted player is completed, the process proceeds to S101. If the shooting of the noted player is continued, the process proceeds to S105, the information of the noted player is sent to the server again, the information of the noted player is received from the server in S106, and the position of the noted player is recognized again. , Continue shooting the featured players.
- FIG. 7B shows an example of the flow of displaying the player mark of interest in S107-2 on the camera side.
- the relative position of the player of interest on the display is calculated and calculated based on the position information received from the server.
- a mark indicating a position or the like is superimposed on the player of interest while the live view image from the image sensor is being displayed on the image display unit.
- the server 110 reads the video of the entire competition field and obtains the coordinates, for example, the video captured by the professional photographer or the spectator can be used to understand where the competition field is captured. You can also do it. That is, the server grasps the entire video of the competition field in advance from a plurality of cameras (fixed camera and moving camera) for the server. As a result, it becomes possible to map the absolute position information of the player of interest in the field and the image viewed by the professional cameraman or the audience with the terminal or the digital camera. Also, when a terminal such as a professional photographer or a camera of a spectator receives the absolute position information of the player from the server, it becomes possible to map the absolute position information and the image currently being shot or monitored.
- the absolute position information of the player of interest from the server in the field is (X, Y). It is necessary to convert this absolute position information into relative position information (X ', Y') when viewed from the camera according to the position information of each camera.
- the conversion from the absolute position information to the relative position information may be performed on the camera side as in S120, or the relative position information may be sent to each terminal (camera or the like) after conversion on the server side. ..
- the relative position information (X ′, Y) is calculated from the absolute position information (X, Y) sent from the server according to the position information using the GPS of each camera. ⁇ ). Based on this relative position information, position information on the display screen on the camera side is used.
- the server performs the conversion, the server follows the absolute position information (X, Y) according to the position information of each camera using GPS or the like, and the relative position information (X ′, Y '). The server sends this relative position information to each camera, and the camera that receives this relative position information sends this relative position information to the position information on the display screen of each camera. And
- FIG. 8 shows another example of the focused player display tracking control flow on the terminal side such as a camera.
- S101, S102, S103, S104, S105, S106, S107, S107-2, and S110 are the same controls as those in FIG. 7, and description thereof will be omitted.
- S131 of FIG. 8 it is determined whether or not the tracking continuation of the attention player is OK (successful). If the tracking continuation of the attention player is successful, the process proceeds to S134, and the tracking continuation of the attention player is succeeded. If not, the process proceeds to S132. In S132, it is determined whether or not the shooting of the noted player is finished, and when the shooting of the noted player is finished, the process proceeds to S133. If the shooting of the player of interest continues, the process proceeds to S105, the information of the player of interest is sent to the server again, the information of the player of interest is received from the server in S106, and the position of the player of interest is recognized again. Continue shooting the players of interest.
- S133 it is determined whether or not the position of the player of interest from the server has been detected. If the position of the player of interest from the server has been detected, the process proceeds to S106, and the position of the player of interest from the server has not been detected. Proceed to S101. In S134, it is determined whether or not the position of the noted player has been detected from the server, and if the position of the noted player from the server has been detected, the process proceeds to S106, and if the position of the noted player from the server has not been detected, S107. Proceed to.
- FIG. 9 is a block diagram showing a functional configuration example of the tracking unit 371 of the digital camera.
- the tracking unit 371 includes a collation unit 3710, a feature extraction unit 3711, and a distance map generation unit 3712.
- the feature extraction unit 3711 identifies the image area (subject area) to be tracked based on the position information sent from the server. Then, the feature amount is extracted from the image of the subject region.
- the collation unit 3710 refers to the extracted feature amount in the continuously supplied captured images of individual frames, and searches for a region having a high degree of similarity to the subject region of the previous frame as a subject region.
- the distance map generation unit 3712 can acquire distance information from the pair of parallax images (A image and B image) from the image sensor to the subject, and can improve the accuracy of identifying the subject region in the matching unit 3710.
- the distance map generation unit 3712 is not always necessary.
- the matching unit 3710 searches for a region having a high similarity to the subject region as the subject region based on the feature amount of the subject region in the image supplied from the feature extraction unit 3711, template matching or histogram matching is used, for example. ..
- the server performs image recognition of the player of interest based on the ID information of the player of interest sent from a terminal such as a camera.
- the server detects the player's position information based on the images from the multiple cameras for the server (fixed camera, moving camera, etc.) and sends the player's position information to professional cameramen and camera terminals of the audience. ..
- the server performs image recognition of the player of interest based on the ID information of the player of interest sent from a terminal such as a camera.
- the server detects the player's position information based on the images from the multiple cameras for the server (fixed camera, moving camera, etc.) and sends the player's position information to professional cameramen and camera terminals of the audience. ..
- the server performs image recognition of the player of interest based on the ID information of the player of interest sent from a terminal such as a camera.
- the server detects the player's position information based on the images from the multiple cameras for the server (fixed camera, moving camera, etc.) and
- the information from the server is also important when the player loses sight of a player who becomes a blind spot while the camera is tracking the player of interest.
- the server side continues to detect the player's position information based on the images from the multiple cameras for the server.
- FIG. 10 shows a main flow of control for detecting a player of interest on the server side.
- initialization is first performed in S201.
- step S202 it is determined whether or not photography is selected by the camera. When photography is selected, the process proceeds to step S203, and camera setting information is obtained. At this time, if there is a password in the setting information of the camera, it is also obtained. If photography is not selected, the process proceeds to S201.
- step S204 it is determined whether or not shooting (designation) of the noted player has been selected. If shooting of the noted player has been selected, the process proceeds to S205, in which the server determines the ID information (for example, player name, profile) of the noted player from the camera. Number). If shooting of the player of interest is not selected in S204, the process proceeds to S210 and other processing is performed.
- ID information for example, player name, profile
- the server finds the player of interest on the screen by image recognition based on the images from the plurality of cameras (fixed camera, moving camera, etc.) based on the ID information of the player of interest.
- the server tracks the player of interest based on the images from the plurality of cameras.
- S209 it is determined whether or not the shooting of the player of interest is finished.
- the process returns to S201.
- the server again searches for information from the cameras (fixed camera and moving camera) for the plurality of servers based on the ID information of the player of interest, finds the player of interest, and in S207, continuously searches from the plurality of cameras. Based on the video of, the attention player is tracked.
- FIG. 11 shows an attention player detection control flow using the uniform number information.
- the server obtains the uniform number from the data memory 213 based on the ID information of the player of interest, searches for the uniform number from the video information of the plurality of cameras for the server, and then recognizes the uniform number. Get the position information of the player with the number.
- the absolute position information of the player of interest is acquired by further integrating the position information acquired from the images of the plurality of cameras for the server.
- the absolute position of the player of interest detected in S402 is transmitted to a terminal such as a camera owned by a professional photographer or a spectator.
- a terminal such as a camera owned by a professional photographer or a spectator.
- the image of at least one of the multiple cameras for the server is used to find the player's uniform number, and the size, angle, and background (competition field) information that is visible. By inputting, it is also possible to acquire the position information of the player of interest. Also, using the images from multiple cameras for the server, you can similarly find the player's uniform number and enter the size, angle, and background (field) information you are seeing. Thereby, the accuracy of the position information of the player of interest can be improved.
- FIG. 12 is a diagram showing another example of the attention player detection control flow on the server side, showing an example of tracking control of the attention player outside the field, such as a locker room, which the audience cannot see.
- S2011 it is determined whether or not the player of interest is in the field. If the player is in the field, the process proceeds to S2012. If not, the process proceeds to S2013.
- S2012 represents the tracking of the player of interest in the field.
- An example of tracking control of a player of interest in the field will be described with reference to FIGS. 13 to 16.
- An example of tracking control of a player of interest outside the field in S2013 of FIG. 12 will be described with reference to FIGS. 17 (A) to 17 (D).
- Tracking of the player of interest in the field of S2012 and tracking in the field of S2013 is performed in the pair of FIG. 13 and FIG. 17A, the pair of FIG. 14 and FIG. 17B, and the pair of FIG. 15 and FIG. It is controlled by the pair of C) and the pair of FIG. 16 and FIG.
- FIG. 13 shows the attention player detection control flow in the field in S2012 using the position sensor information by the server side
- FIG. 17A shows the attention player detection control flow out of the field in S2013 using the position sensor information.
- the server recognizes the signal from the player's position sensor, generates position information, and notifies the terminal such as a professional cameraman or a camera owned by the spectator from the server. ..
- the information in the field can be viewed by a general audience without a password. Therefore, if the player is in the field, the position information of the player may be sent without the password setting. However, if the password is not set, the location and the image outside the field, such as the position information that the user is in the locker room and the image inside the locker room, are not sent. If no password is set, the noted player only notifies the camera that he is out of the field.
- the password is obtained in advance based on a contract or the like, is input at a terminal such as a camera owned by a professional photographer or a spectator, and is sent from the camera terminal to the server together with the designation information of the player of interest.
- the server changes the transmission content to the camera terminal according to the input of the password from the camera terminal.
- the server acquires the position sensor information of the player of interest from the plurality of cameras for the server.
- the position sensor information also includes the direction of the radio wave from the position sensor and the intensity level of the received radio wave.
- the absolute position of the player of interest is detected from the position sensor information of the plurality of cameras for the server.
- the absolute position of the player of interest is transmitted to a terminal such as a camera owned by a professional photographer or a spectator.
- At least one of the plurality of cameras (fixed camera or moving camera) for the server receives information from the position sensor possessed by the athlete in addition to the acquisition of the image and sound. It has a detector for detecting.
- Each of the plurality of cameras for the server can receive information from the position sensor of the player and recognize the direction of the received radio wave and further the level of the received radio wave.
- the player's position sensor information can be recognized by a plurality of servers. Then, the position information of the players is analyzed more accurately by integrating the position sensor information from the multiple cameras for the server.
- FIG. 17A is a diagram showing a specific control flow for detecting an attention player outside the field using position sensor information on the server side.
- the server acquires the position sensor information of the player of interest with one or several cameras in the locker room.
- the absolute position of the player of interest is detected based on the position sensor information from several cameras in the locker room.
- step S2504 the fact that the player of interest is out of the field is transmitted to the camera.
- step S2505 the absolute position of the player of interest (for example, being in the locker room) is transmitted to the camera.
- step S2506 for example, an image with blur or mosaic in the locker room of the player of interest is transmitted to the camera.
- the video of the player of interest is sent as information other than the position information of the player of interest, but profile information or comment information by a commentator may be sent instead of or together with the video.
- step S2507 it is determined whether the player of interest is not in the locker room. If the player of interest is in the locker room, the process proceeds to step S2501. If the player of interest is not in the locker room, this control ends.
- FIG. 14 shows a control flow for detecting a noticed player in the field using the player's jersey number information (including the number before the bibs) on the server side.
- FIG. 17B shows a control flow for detecting the player of interest outside the field using the uniform number information on the server side.
- the server has means to detect the player's jersey number based on the images from multiple cameras (fixed camera or moving camera) for the server. From the server to the terminal such as cameras owned by professional photographers and spectators. , Make sure to give information that associates the uniform number with the player's position information.
- the server acquires the uniform number from the data memory 213 based on the ID information of the player of interest. Then, the position information of the player with this uniform number is acquired by image recognition based on the images from a plurality of cameras (fixed camera or moving camera) for the server.
- the absolute position of the player of interest is detected based on the position information of the player with the uniform number based on the images from the plurality of cameras acquired in step S2201.
- the absolute position of the player of interest detected in S2202 is transmitted to a terminal such as a camera owned by a professional photographer or a spectator.
- FIG. 17 (B) is obtained by replacing S2501 in FIG. 17 (A) with S2601. That is, in S2601, the server acquires the player's uniform number from the data memory 213 based on the ID information of the player of interest, and acquires the position information of the player of this uniform number from the images of several cameras in the locker room. Then, it progresses to S2502.
- FIG. 15 shows the control flow for detecting the player of interest in the field using the face recognition information on the server side.
- FIG. 17C shows a flowchart of the attention player detection control flow outside the field using the face recognition information by the server side.
- the data memory 213 of the server stores a plurality of pieces of face information taken in the past of all players registered as members in the match.
- the server has means for detecting face information of the player based on images from a plurality of cameras for the server. Then, the server detects a player by comparing face information detected from a plurality of cameras for the server with a plurality of face images taken in the past of the player who is registered as a member in the match using, for example, AI. ..
- the server acquires the face information of the player of interest from the data memory 213 based on the ID information of the player of interest, and uses the video information of the plurality of cameras for the server to determine the position of the player of this face information. Get information. Using a video from one of the multiple cameras for the server to find a player corresponding to the face information of the player of interest, the size, angle, and background (field) information that is visible By inputting, it is possible to acquire the position information of the player of interest. Similarly, using multiple cameras for the server, find a player corresponding to the face information of the player of interest, and enter the size, angle, and background (field) information of the player you are watching, The position information can be acquired more accurately.
- step S2302 the absolute position of the target player is detected based on the position information of the target player acquired in step S2301.
- the absolute position of the player of interest detected in step S2302 is transmitted to a terminal such as a camera owned by a professional photographer or a spectator.
- step S2304 it is determined whether or not the player of interest is in the field. If the player of interest is in the field, the process proceeds to S2301. If the player of interest is not in the field, this control is ended.
- S2501 in FIG. 17A is replaced with S2701.
- the server acquires the face information of the player of interest from the data memory 213 based on the ID information of the player of interest, and acquires the position information of the player corresponding to this face information from the images of several cameras in the locker room. After that, the process proceeds to S2502.
- FIG. 16 shows a control flow for detecting a player of interest in the field using the physique recognition information on the server side.
- FIG. 17D shows a control flow for detecting an attention player outside the field using the physique recognition information on the server side.
- the data memory 213 of the server stores a plurality of physique image information of players who have been registered as members of the match in the past.
- the server has means for detecting physique information of the player based on images from a plurality of cameras for the server. Then, the server compares the physique information detected from the plurality of cameras for the server with the physique image information of the plurality of previously photographed physiques of the players who are registered as members in the match using, for example, AI, To detect.
- the server acquires physique image information from the data memory 213 based on the ID information of the player of interest, and acquires the position information of the player of this physique using the video information of the plurality of cameras for the server. To do. Using the video from one of the multiple cameras for the server, I found a player corresponding to the physique image of the player of interest, and found the size, angle, and background (field) of the player. By acquiring the information, the position information of the player of interest can be acquired. Similarly, when a player corresponding to the physique image of the player of interest is found from the images of the multiple cameras for the server, by obtaining the size, angle, and background (field) information that is visible, The position information of the player of interest can be acquired more accurately. In S2402, the absolute position of the player of interest is detected based on the position information of the player of this physique information acquired in S2401.
- the absolute position of the player of interest detected in S2402 is transmitted to a terminal such as a camera owned by a professional photographer or an audience.
- a terminal such as a camera owned by a professional photographer or an audience.
- S2501 in FIG. 17A is replaced with S2801.
- the server obtains the physique image information of the noted player from the data memory 213 based on the ID information of the noted player, and inputs the position information of the player of this physique from the images of several cameras in the locker room. Then, it progresses to S2502.
- a bench, another waiting room, a training room, a medical office, a lobby, or the like may be used.
- a blurred image of the player of interest is sent to a terminal such as a camera, but the image is not sent, and various other information (for example, You may send the profile of the player to watch, comments from commentators, etc.).
- the server is set in advance according to the password. Then, an example has been described in which, if a password is entered, information that cannot be viewed by a camera terminal or the like without password entry, such as information that there is a player of interest in the waiting room or locker room, is sent to the camera terminal. At that time, an example was explained in which the image of the player of interest in the waiting room or locker room was blurred or mosaiced and sent to a terminal such as a camera for which a password was entered. However, the presence or absence of the password may be set, and a plurality of levels of passwords may be set, and the content of information that the camera terminal or the like can receive may be changed according to the level of the input password.
- the control on the server side with respect to the camera terminal in which the password is input has been described.
- the control on the camera terminal side will be described.
- the camera terminal that has entered the password is notified of where the player of interest is outside the field when the player is not in the field. For example, for a terminal such as a camera, the server says “*** player is now in the locker room.” Or "*** player is now moving from the locker room to the field.” Information is sent and displayed on the terminal such as the camera for which the password is entered.
- a video with blur or mosaic of the player of interest in the locker room is displayed in part of the camera as picture-in-picture.
- a professional photographer who has a password and some spectators can know where the player of interest is and see the image of the player even when the player of interest is not in the field. Therefore, a professional photographer or the like has a high possibility of taking a good photograph without missing a photo opportunity. For example, even when multiple competitions are in progress at the same time in the field, such as in the Olympics, you can easily find out where the attention athletes who are missing in the field are now, and take good timely shots. Can provide differentiated services to do.
- information such as "the player is moving to the competition venue by bus” can be displayed on the camera terminal such as a professional photographer who has input the password, which is a very convenient service.
- the location information is sent as absolute location information, but the information detected by the server is sent only to specific cameramen or terminals such as cameras owned by a specific audience. It is also possible to notify. This may be applied to individual camera terminals, or may be sent to terminals such as cameras owned by cameramen or spectators in a specific area within the stadium. At that time, the server may send relative position information to those camera terminals.
- FIG. 18 shows a sequence of converting from an absolute position in the competition field to a relative position on the terminal side such as a camera.
- the server 1801 detects the absolute position of the player of interest from the information from a plurality of cameras (fixed cameras and moving cameras) for the server.
- the server sends the absolute position information of the player of interest to the camera terminal 1802 of the spectator, for example.
- the absolute position information sent from the server is converted into relative position information when viewed on the display unit of the camera terminal according to the position information of the terminal such as the camera of the spectator, Based on this information, the position information of the player of interest is displayed on the display unit.
- FIG. 19 shows a flow of converting an absolute position into a relative position by the server.
- the server 1801 acquires the position information of each target player from the images of a plurality of cameras for the server, and detects the absolute position of each target player.
- Each specific camera terminal detects the position information of each camera terminal by GPS or the like, and sends the position information of each camera terminal 1803 from the camera terminal 1803 to the server 1801.
- the server 1801 performs a calculation to convert into relative position information when viewed at each camera terminal position based on the absolute position information of each attention player specified by each camera terminal 1803 and the position information of each camera terminal, and this The relative position information is sent to each camera terminal.
- Each camera terminal 1803 displays the position of the player of interest on the display unit of each camera terminal based on the relative position information received from the server 1801 as viewed by this camera terminal.
- S2901 represents initialization.
- S2902 it is determined whether or not photography is selected. If photography is selected, the process proceeds to S2903, and if photography is not selected, the process proceeds to S2901. In step S2903, camera setting information is acquired.
- step S2904 the information taken from the audience seats is sent to the server. Based on this information, the server optimizes the software for conversion.
- step S2905 the software for converting the image viewed from the audience seat and the absolute position of the field is downloaded from the server.
- step S2906 the software downloaded in S2905 is installed in the camera terminal.
- step S2907 the default absolute position information of the specific player sent from the server is received and converted into relative position information by the software.
- step S2908 a mark such as a frame or an arrow is displayed at the position of the specific player based on the detected relative position information. At this time, the live view image from the image sensor is displayed on the image display unit, and the mark is displayed in a superimposed manner on the live view image.
- step S2909 of FIG. 21 it is determined whether or not the shooting of the player of interest designated by the camera terminal has been selected. If shooting of the player of interest is selected, the process proceeds to step S2911. If shooting of the player of interest is not selected, the process proceeds to step S2910, and other processing is performed, and then the process proceeds to step S2901.
- the attention player information is sent from the camera to the server.
- the absolute position information of the player of interest is received from the server.
- step S2913 the absolute position information of the player of interest received from the server is converted into relative position information from the seat position of the camera terminal by the software, and the relative position information is displayed on the display unit of the camera terminal with a mark such as a frame or an arrow.
- the position of the player of interest can be sequentially displayed.
- S2914 it is determined whether or not the shooting (or monitor) of the player of interest is finished, and when the shooting (or monitor) of the player of interest is finished, the process proceeds to S2901. If the shooting (or monitor) of the target player is continued in S2914, the process proceeds to S2911, the information of the target player is sent to the server again, and the absolute position information of the target player is received from the server in S2912. To continue shooting.
- FIG. 22 shows another example of the flow for displaying and tracking a player of interest by converting relative position information from absolute position information on the camera terminal side.
- the seat information of the spectator is used to convert the absolute position to the relative position.
- the same reference numerals as those in FIGS. 20 and 21 indicate the same steps, and the description thereof will be omitted.
- seat information of the spectator seat in which the spectator is currently seated is input.
- a seat number, a QR code (registered trademark) assigned to the seat, or the like may be read by the spectator's camera, or the seat information itself may be input by a touch panel or a key.
- step S3001 the seat information of the spectator seat input in step S3004 is transmitted to the server.
- the server optimizes the software for converting the absolute position into the relative position based on the seat position information.
- step S3002 the conversion software optimized based on the seat information of the spectators is downloaded from the server.
- FIG. 23 shows another example of the attention player display tracking control flow on the camera side.
- a spectator holds a terminal such as a camera to photograph a competition field and the like and sends the photographed information to the server.
- the server converts the absolute position information of the player of interest in the field based on this shooting information into the relative position on the display screen of the camera terminal owned by the spectator, and then sends it to the camera.
- a mark indicating a position such as a frame or an arrow is superimposed on the image on the display unit based on the relative position information from the server without downloading the software. Therefore, there is an advantage that the position of the player can be easily recognized on the camera terminal side.
- the same reference numerals as those in FIGS. 20 and 21 indicate the same steps, and thus the description thereof will be omitted.
- the information captured from the seat of the viewer who is currently sitting is sent to the server.
- the server recognizes the default absolute position of a specific player with multiple cameras for the server.
- the image captured by the spectator is received, and based on this, the absolute position information of the specific player is converted into relative position information for viewing with a terminal such as a camera held by the spectator at the spectator seat.
- the relative position information of the specific player sent from the server is received, and the position of the specific player is displayed on a terminal such as a camera based on the information. After that, the process advances to step S2909 in FIG.
- the position of the player of interest can be displayed in a timely manner on the terminal side of the camera, etc., so that the spectators and professional photographers will not lose sight of the player of interest, and can reliably capture important moments.
- the description has been given with the example of one focused player, but there may be a plurality of focused players.
- the attention player can be switched on the way. All players who have participated in the match as players of interest may be used. Further, video and images include not only moving images but also still images.
- the example of tracking the player has been described, but it goes without saying that the invention can be applied to a system for tracking a person such as a criminal using a plurality of surveillance cameras. Alternatively, it can be applied not only to a person but also to a system for tracking a specific vehicle in car racing or the like, or a system for tracking a horse in horse racing or the like.
- the server may be allowed to specify the player of interest.
- a computer program that realizes a part or all of the control in the present invention for the functions of the above-described embodiments may be supplied to the image processing apparatus or the like via a network or various storage media. Then, the computer (or the CPU, MPU, or the like) in the image processing apparatus or the like may read out and execute the program. In that case, the program and the storage medium storing the program constitute the present invention. (Cross-reference of related applications)
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
プロカメラマンや一般の観客が、映像を取得する際に、パスワードに応じた特定の対象の位置情報をタイムリーに表示できるようにする。 画像処理装置において、画像を表示する表示手段、前記表示手段に表示された前記画像の中から特定の対象を選択する選択手段、前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、前記指定情報生成手段によって生成された前記指定情報と所定のパスワードをサーバーに送信する送信手段、前記サーバーが前記指定情報と前記パスワードに基づき生成した前記特定の対象の位置情報を、前記サーバーから取得する取得手段、前記取得手段によって取得された前記特定の対象の前記位置情報に基づく付加情報を前記表示手段に表示する制御手段、を有する。
Description
本発明は撮影や映像モニターのための画像処理装置等に関するものである。
近年、国際化が進み、多くの観光客が日本を訪問するようになっている。また、競技スポーツにおいても、様々な国の選手の撮影機会が大幅に増加している。
しかしプロカメラマンにとっても、一般の写真を撮影する人にとっても、例えば競技スポーツシーンにおいて多数の選手の中から特定の選手を見つけることは比較的難しい。また、特に競技スポーツにおける競技中は動きが速く複数の選手が交錯し選手のいる場所を見失うことが多々ある。これは、競技スポーツに限らず雑踏の中から特定の人物等を撮影したりモニターしたりする場合でも同じことが言える。
特許文献1には、被写体を複数の方向から撮影するための複数のカメラと、前記複数のカメラのうち対応するカメラによる撮影画像から所定領域を抽出する複数の画像処理装置が記載されている。また、前記複数の画像処理装置により前記複数のカメラによる撮影画像から抽出された所定領域の画像データに基づいて仮想視点画像を生成する画像生成装置が記載されている。
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
しかしながら、スポーツシーンなど、多くの選手が集まっている場合などでは、選手が重なってしまったりして、見失ったりすることがある。また視野から外れることもあり、適切なタイミングで選手を撮影するのは難しかった。
また、特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、判定結果が分からないと判定の認識に時間をとられてしまうという欠点があった。さらに、撮影したい選手を見つけても、その選手へのフォーカスを合わせた後に、その撮影したい選手を追いかけていかないといけなかった。これは、動きの速いスポーツでは、とても難しく、また、この追いかけることに集中していると、良い写真の撮影ができないということになってしまうという欠点があった。
またサーバー側では、全方位の映像、試合や競技のフィールドの各種情報を把握することができ、グランド内外の各種の貴重な情報も入手することができるが、従来のシステムではサーバーの活用が十分でないという問題があった。
同様に、競技場や自宅の端末で競技をモニターしている一般ユーザーにとっても特定の選手を見失ったり競技の状況がわからなくなったりする場合が多かった。同様にカーレースや飛行機レースや競馬などにおいても特定の車両や飛行機や馬などの対象を見失ってしまうことがあった。更には特定の人物を街角で追跡する場合においても雑踏の中にその特定の人物が紛れてしまい見失うことがあった。また、そのような、注目している特定の対象を目視で追いかけることに専念しているとその対象に対する撮影やピント合わせや露出調整などをスムーズにできないという問題があった。
本発明は、上記、課題を解決し、パスワードに応じて、撮影者や観察者にとって価値のある情報をタイムリーに表示できる画像処理装置を提供することを目的とする。
同様に、競技場や自宅の端末で競技をモニターしている一般ユーザーにとっても特定の選手を見失ったり競技の状況がわからなくなったりする場合が多かった。同様にカーレースや飛行機レースや競馬などにおいても特定の車両や飛行機や馬などの対象を見失ってしまうことがあった。更には特定の人物を街角で追跡する場合においても雑踏の中にその特定の人物が紛れてしまい見失うことがあった。また、そのような、注目している特定の対象を目視で追いかけることに専念しているとその対象に対する撮影やピント合わせや露出調整などをスムーズにできないという問題があった。
本発明は、上記、課題を解決し、パスワードに応じて、撮影者や観察者にとって価値のある情報をタイムリーに表示できる画像処理装置を提供することを目的とする。
画像処理装置において、
画像を表示する表示手段、
前記表示手段に表示された前記画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報と所定のパスワードをサーバーに送信する送信手段、
前記サーバーが前記指定情報と前記パスワードに基づき生成した前記特定の対象の位置情報を、前記サーバーから取得する取得手段、
前記取得手段によって取得された前記特定の対象の前記位置情報に基づく付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
画像を表示する表示手段、
前記表示手段に表示された前記画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報と所定のパスワードをサーバーに送信する送信手段、
前記サーバーが前記指定情報と前記パスワードに基づき生成した前記特定の対象の位置情報を、前記サーバーから取得する取得手段、
前記取得手段によって取得された前記特定の対象の前記位置情報に基づく付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
本発明によれば、特定の対象を指定するとともにパスワードを入力すれば、その特定の対象が画面のどこにいるかという情報等が簡単に入手でき、ユーザーが例えばその特定の対象をモニターしたり撮影したりする場合などにおいて非常に便利なサービスを提供することができる。
以下本発明を実施するための形態につき、実施例を用いて説明をする。
最初に撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。
最初に撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。
図1において、サーバー用の複数台のカメラ(固定カメラやドローンなどを用いた移動カメラ)を有するサーバー(画像処理サーバー)側が、競技場のフィールド全体における注目選手(特定の対象)の位置やゲームの最新の状況をリアルタイムで把握する。そして、サーバーが、個々の観客が持っている端末に対して、例えばカメラ撮影や画像のモニターの際に必要な情報をタイムリーに提供する例を示す。
一般にプロカメラマンや一般の写真撮影者がカメラで撮影している角度や視野では分からないあるいは追えない場所が存在することが多い。競技場外にいて撮影をしていない観客にとっても同様である。一方、サーバー側のシステムでは、複数のサーバー用のカメラの映像をもとに全方位の映像、試合のフィールド全体の情報(フィールドの座標情報等)をあらかじめ把握しマッピングができる。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
即ち、サーバー用の複数台のカメラ(固定カメラや移動カメラ)で、各選手の位置、得点、反則、審判の判断結果、その他の最新状況を追いかけたりすることができる。また大型スクリーンなどに表示され情報を基にして、サーバーで解析したりすることもできる。それにより全体の状況を正確に認識して、プロカメラマンや観客が保有するカメラ端末等やスマートフォンやタブレット等の端末にタイムリーに送信することができる。それにより、観客は競技の最新の状況をタイムリーに把握することが可能となる。特に、プロカメラマンは、撮影した写真をすぐに、報道局などに送る必要があるが、カメラの画面を見ているだけでは視野が狭いので競技の全体の状況などが正確に把握しにくい。しかし、本実施例のような構成を用いれば、競技の状況などが速やかに分かるので、報道局などに送る写真の選択を素早く行うことが可能となる。
なお、プロカメラマンや観客が用いる端末(画像処理装置)としては、デジタルカメラ、スマートフォン、カメラとスマートフォンなどを接続した構成、タブレットPCあるいはTVなどが考えられる。家庭でインターネットやテレビ放送をPCやTV等の端末(画像処理装置)を通じて競技を見ている観客に対しても同様のサービスを提供することができるので競技などの状況をより正確に把握することができ競技をより楽しむことができる。
図1において、101~103はサーバー用のカメラであり、101(固定設置されたカメラ1)、102(固定設置されたカメラ2)、103(固定設置されたカメラ3)、104(大型スクリーン)、110(サーバー)、111(入力手段)、112(基地局)は、一般のプロカメラマンや観客への情報提供をするための映像取得や音声取得などを行う。サーバー用カメラは、本実施形態では101~103の3台としたが、1台でも複数台でもよい。また、これらのサーバー用カメラは、固定設置されたカメラではなく例えばドローンなどに搭載されたカメラでもよい。映像取得、音声取得に加えて、入力手段から映像以外の入力情報(例えば音声など)も取り込み、一般のプロカメラマンや観客等へのサービスを拡充できる。
105は有線/無線などによるLANやインターネットであり、106は、入力手段111から出力された情報をサーバー110で入力するための接続線である。107は、基地局112への信号を送受信するための接続線、108は、基地局の無線通信を実行するためのアンテナ部である。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
105は有線/無線などによるLANやインターネットであり、106は、入力手段111から出力された情報をサーバー110で入力するための接続線である。107は、基地局112への信号を送受信するための接続線、108は、基地局の無線通信を実行するためのアンテナ部である。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
一方、図1において、401(端末1)、402(端末2)、403(端末3)は端末であり、例えばプロカメラマンや観客が撮影やモニターをするための例えばカメラやスマートフォンやタブレットPCやTVなどの映像表示端末装置である。ここで、404(アンテナ)405(アンテナ)、406(アンテナ)は、それぞれ、401(端末1)、202(端末2)、203(端末3)が無線通信するためのアンテナである。
サーバーが注目選手の位置を検出する際には、例えば端末からサーバー側に注目選手のID情報などを送り、また、サーバー側から端末にその選手に関する位置情報などの各種情報を送る。選手は動いており、競技状況も変化しているので、短時間での注目選手の検出処理が必要になる。よって、ここでの無線通信は、例えば5Gなどを用いる。
なお401(端末1)、402(端末2)、403(端末3)はカメラとスマートフォンなどを接続して組み合わせた構成としても良い。図1の右下において、301はスマートフォンであり、主にサーバーとの通信制御を行う。また、このスマートフォンに、アプリケーションソフトウェアをインストールすることで、各種の映像取得サービスを実現する。また、300は(デジタル)カメラであり、主に、プロカメラマンや観客が撮影したり画像をモニターしたりする画像処理装置である。ここで、カメラ300はスマートフォン301にUSBあるいはブルートゥース(登録商標)などにより接続されている。320はスマートフォン301が基地局112と無線通信するためのアンテナである。
なお、端末がスマートフォン等の場合は、サーバーとの映像、制御信号のやりとりを無線で実行するが、端末との通信を実行するための接続は、無線通信と有線通信を適応的に使い分けても良い。例えば、無線通信環境が5Gであれば無線で通信し、無線通信環境がLTEであればデータ量の多い情報は有線で送り、データ量の少ない制御信号は無線で送るといった制御も可能である。さらには、無線通信の回線の混み具合によって、有線通信に切り替えることも可能である。
次に、図2を用いてサーバー側の詳細なブロック構成を説明する。図2において、図1と同じ符番は同じ構成を示し説明は省略する。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
すなわち、選手の役割(ポジション)に応じて、選手のいる位置が大体決まるので、注目選手の上記役割(ポジション)を把握したうえで、選手を追いかけたほうが、効果的に精度よく選手を追いかけることができる。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
205は、輪郭情報検出部であり、たとえば、プロカメラマンや観客が端末で映像をモニターしつつ、その位置、角度からカメラの倍率で撮影している時に、サーバー110は注目選手のいる位置を各端末401~403などに知らせる。また、撮影している注目選手の輪郭情報をサーバー110から各端末401~403などに知らせることで、各端末401~403側で、より確実に注目選手を認識することが可能になる。205のブロックで検出した輪郭情報は、CPU211に取り込まれる。
206は選手の顔認識部であり、注目選手の予め登録された顔写真情報に基づきAI、特に、Deep Learningなどの画像認識技術を用いて映像の中から選手を見つける。顔認識部206で検出した顔認識結果の情報もCPU211に取り込まれる。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
208は選手の背番号検出部であり、前記のような画像認識技術を用いて注目選手の、あらかじめ登録した番号(背番号など)から選手を見つける。なお選手の番号を検出する際はビブスの背中側の番号だけでなく、前側に書かれた番号を検出してもよいことは言うまでもない。209は位置情報作成部であり、カメラ101、102、103等のGPSなどを用いた位置情報とカメラの向きと画角に関する情報から、各カメラの位置と方角と画角を認識する。そして、各カメラからの映像に基づきその選手がいるグラウンド上での絶対的な位置情報を三角測量方式で取得する。この位置情報作成部209は競技場に予め設置された基準位置検出用の基準指標としてのポールや競技フィールドのライン(例えばサイドラインやエンドライン)等の画面内での位置もあらかじめ映像から取得しておいてもよい。そしてそれらを基準座標として競技場における注目選手のフィールドに対する絶対位置を取得するようにしてもよい。
210は各端末401~403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
210は各端末401~403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
211はコンピュータとしてのCPU(Central Processing Unit)であり、記憶媒体としてのプログラムメモリ712に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する中央演算処理装置である。また、表示制御手段を兼ねており、後述する表示部214に表示する情報を制御する。213はCPU211において参照される各種データを記憶するデータメモリである。データメモリ213には過去の試合情報、過去の選手情報、本日の試合(競技)に関する情報、観客動員数に関する、天候などの情報、注目選手の情報、選手の現在の状況などが格納されている。注目選手の情報の中には顔、背番号、体格などの情報も含まれる。
1101はサーバー110内のデータバスラインである。
1101はサーバー110内のデータバスラインである。
次に、画像処理装置としての端末側の詳細について図3、図4を用いて説明する。図3、図4は端末の構成例を示すブロック図であり、端末の例として(デジタル)カメラ500全体の構成を2つの図面を用いて示す。
図3、図4に示されるデジタルカメラは、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画が所定のフォーマットで格納される。
図3、図4に示されるデジタルカメラは、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画が所定のフォーマットで格納される。
303はCCDやCMOSなどの撮像素子としてのイメージセンサーであり、光学像を光信号から電気信号に変換して、さらに、この情報をアナログ情報からデジタルデータに変換して出力する。304は信号処理部であり、イメージセンサー303から出力されるデジタルデータに対してホワイトバランス補正やガンマ補正などの各種補正をして出力するものである。305はセンサー駆動部であり、イメージセンサー303から情報を読み出すための水平垂直ライン駆動やイメージセンサー303がデジタルデータを出力するタイミング等を制御する。
306は操作部入力手段である。デジタルカメラで撮影する際の各種条件を選択したり設定したり、撮影するためのトリガー操作、フラッシュを使用するための選択操作、電池を交換する操作などに応じて入力が行われる。また、操作部入力手段306において、注目選手をサーバーからの位置情報に基づきAF(オートフォーカス)するか否かを選択/設定できる。この注目選手をAF(オートフォーカス)するかの選択/設定情報は、操作部入力手段306からバスライン370に出力される。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
307は送受信手段として機能する無線通信部であり、プロカメラマンや一般の観客などが持っているカメラ端末が無線でサーバー側と通信をするためのものである。308はデジタルカメラにおける撮影倍率を検出する倍率検出部である。309は操作部出力手段であり、デジタルカメラなどで撮影した画像情報を表示する画像表示部380にメニューや設定情報などのUI情報を表示するためのものである。310は圧縮伸長回路であり、イメージセンサー303からのデジタルデータ(RAWデータ)を信号処理部304で現像処理後、圧縮伸長回路310で圧縮してJPEG画像ファイルやHEIF画像ファイルにするか、あるいは、RAWデータのまま圧縮してRAW画像ファイルにする。一方、RAW画像ファイルをカメラ内で現像処理してJPEG画像ファイルやHEIF画像ファイルを生成する場合に、圧縮されている情報を伸張してRAWデータに戻す処理を行う。
311は顔認識部であり、注目選手についてあらかじめサーバーに登録された顔写真情報を参照し、映像の中からその選手をAI、特に、Deep Learning等の技術を用いた画像認識によって見つけるためのものである。顔認識部311で検出した顔認識結果に関する情報は、バスライン370を介してCPU318に取り込まれる。
312は体格認識部であり、注目選手に関してサーバーに予め登録した体格写真情報を参照して、映像の中から前述のような画像認識技術によってその注目選手を見つける。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
316は端末の電源の状態を検出する電源管理部であり、電源スイッチがオフの状態で電源ボタンの押下を検出したら、端末全体に電源を供給する。318はコンピュータとしてのCPUであり、記憶媒体としてのプログラムメモリ319に記憶された制御用のコンピュータプログラムに基づいて、以下の実施例に示す制御を実行する。また、表示制御手段を兼ねており画像表示部380に表示する画像情報を制御する。なお画像表示部380は液晶や有機ELなどを用いた表示部である。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
図4において、350は撮影レンズユニットであり、固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359、ズームモーター353、絞りモーター356、およびフォーカスモーター360を有する。固定1群レンズ351、ズームレンズ352、絞り355、固定3群レンズ358、フォーカスレンズ359は撮影光学系を構成する。なお、便宜上レンズ351、352、358、359は、それぞれ1枚のレンズとして図示しているが、それぞれ複数のレンズで構成されても良い。また、撮影レンズユニット350は、デジタルカメラに対して着脱可能な交換レンズユニットとして構成されてもよい。
ズーム制御部354はズームモーター353の動作を制御し、撮影レンズユニット350の焦点距離(画角)を変更する。絞り制御部357は絞りモーター356の動作を制御し、絞り355の開口径を変更する。
フォーカス制御部361は、イメージセンサー303から得られる1対の焦点検出用信号(A像およびB像)の位相差に基づいて撮影レンズユニット350のデフォーカス量およびデフォーカス方向を算出する。そしてフォーカス制御部361は、デフォーカス量およびデフォーカス方向をフォーカスモーター360の駆動量および駆動方向に変換する。この駆動量および駆動方向に基づいてフォーカス制御部361はフォーカスモーター360の動作を制御し、フォーカスレンズ359を駆動することにより、撮影レンズユニット350の焦点を制御(フォーカス調整)する。このように、フォーカス制御部361は位相差検出方式の自動焦点(AF)を実施する。なお、フォーカス制御部361は、イメージセンサー303から得られる画像信号のコントラストのピークをサーチするコントラスト検出方式のAFを実行しても良い。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
次に、図5を用いて注目選手表示開始シーケンスの例について説明する。これは、サーバー110とカメラ500とで行うシーケンスである。図5(A)は、カメラ500側の問いかけ(リクエスト)に対して、サーバー110側が答えるシーケンスである。そしてサーバー110側はカメラ500側に、注目選手の絶対位置に関する情報を提供する。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。あるいはメニューで画面上に複数の選手のリストを表示し、その中の注目選手名をタッチしたりしてもよいし、あるいは画面上に文字入力画面を表示し選手名や選手の背番号を入力してもよい。その際、注目選手の画面上の顔位置をタッチすると顔を画像認識したり背番号を画像認識して選手名や背番号などを送ったりしてもよい。あるいは、画像認識せずに顔画像そのものをサーバーに送って、サーバー側で画像認識してもよい。またこの時あらかじめ決まったパスワードがあればそれもサーバーに送る。サーバー側では、映像を撮影することをサポートするブロックにより、注目選手指定情報(背番号、選手名等のID情報)に基づいて、選手のいる絶対値的な位置に関する情報をカメラに送る。パスワードもカメラから送られてくればそれに応じてカメラに送る情報の内容を変更する。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。あるいはメニューで画面上に複数の選手のリストを表示し、その中の注目選手名をタッチしたりしてもよいし、あるいは画面上に文字入力画面を表示し選手名や選手の背番号を入力してもよい。その際、注目選手の画面上の顔位置をタッチすると顔を画像認識したり背番号を画像認識して選手名や背番号などを送ったりしてもよい。あるいは、画像認識せずに顔画像そのものをサーバーに送って、サーバー側で画像認識してもよい。またこの時あらかじめ決まったパスワードがあればそれもサーバーに送る。サーバー側では、映像を撮影することをサポートするブロックにより、注目選手指定情報(背番号、選手名等のID情報)に基づいて、選手のいる絶対値的な位置に関する情報をカメラに送る。パスワードもカメラから送られてくればそれに応じてカメラに送る情報の内容を変更する。
更に図5(A)においては、カメラからサーバーに、プロカメラマンや観客が撮影しているカメラの位置情報、カメラの方角、カメラの倍率などの情報なども送る。サーバー側では、カメラが見ている位置、方角での自由視点映像を作り、さらに、カメラの倍率から、実際のカメラで見えている映像を認識する。この実際にカメラで見えている映像のどの位置に選手がいるかの位置情報、並びに、選手の輪郭情報などをカメラに送る。カメラは、サーバーから送られた位置情報、輪郭情報などをもとに、カメラの表示部の画面で注目選手をより精度高く目立つように表示するとともに注目選手に対してAFやAEを行う。
注目選手を見つける注目選手表示開始シーケンスの例を簡単に説明したが、さらに継続して選手を追いかけていきたい場合が多い。そこで、次に注目選手の追跡を継続するためのシーケンスについて図5(B)を用いて説明する。図5(B)においては、端末としてのカメラ500から何度も、例えば周期的にサーバー110へ問い合わせ(リクエスト)を行って、選手の位置を継続して認識するものである。図5(B)において、カメラからサーバーに、注目選手表示開始シーケンス(A1、B1、、、)を周期的に送り、サーバーから注目選手表示開始シーケンス(A2、B2、、、)を周期的に受信して、注目選手の位置を認識する動作を何度も繰り返す。
更に図6は、カメラ自身でも自動的に注目選手を追跡する方法を示すものである。カメラ500からサーバー110に注目選手のID情報を送って、一旦サーバーから注目選手の位置情報を取得する。取得後にその位置情報を参照して注目選手の位置を絞り込んだ後、カメラ500自身で画像認識によって継続して注目選手を追跡する。図6の注目選手表示追跡シーケンスにおいては、カメラ500自身が画像認識技術で注目選手を追跡するが、途中で注目選手を見失ったとき(追跡に失敗したとき)には、カメラ側からサーバーに、注目選手の位置情報を再度リクエストする。具体的には、カメラで、注目選手を見失ったときには、カメラからサーバーに、再度注目選手表示開始シーケンス(A1)を送り、サーバーから注目選手表示開始シーケンス(B2)を受信して、注目選手の位置を画面に表示する。そのあと再びカメラ自身が画像認識によって注目選手を追跡する。
なお、本実施例ではプロカメラマンや観客の撮影アシストのためのサービスの例を説明しているが、リモートカメラ制御に使ってもよい。サーバーからこれらの情報を送ることで、自動パンチルト雲台に搭載したリモートカメラにより、選手を追跡して、決定的瞬間を撮影することも可能である。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。また表示画面外にいる場合に端末が現在見ている角度からどのくらい離れているか(ずれているか)、どのくらい端末を回転しないと注目選手が表示画面内に入らないかなどを矢印の長さや太さや、数字や目盛りなどで表示してもよい。
更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。また表示画面外にいる場合に端末が現在見ている角度からどのくらい離れているか(ずれているか)、どのくらい端末を回転しないと注目選手が表示画面内に入らないかなどを矢印の長さや太さや、数字や目盛りなどで表示してもよい。
更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
次に、図6におけるカメラ側での制御シーケンスの例を、図7(A)、(B)を用いて説明する。図7(A)、(B)は、カメラ側における注目選手表示追跡制御フローを表している。
図7(A)においてS101は初期化を表している。S102で写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
図7(A)においてS101は初期化を表している。S102で写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
S107はサーバーから送られた位置情報を参照しつつカメラ自身で注目選手の追跡を実施する。ここでは、カメラ自身で注目選手について例えば画像認識を行って追跡する。その場合、選手の背番号、選手の顔情報、選手の体格などのいずれかの認識結果あるいはそれらの組み合わせに基づき選手の追跡を行う。すなわち、注目選手の一部または全体の形状を画像認識して追跡する。ただし、ユーザーの撮影ポジションが悪い場合や、カメラの視界が狭い場合や、撮影角度などによっては他の被写体の背後に隠れてしまったりするので見失う可能性があり、見失った場合には再度サーバーに位置情報のリクエストを送ることになる。S107-2は、注目選手に対する付加情報としてのマーク表示の例を示している。即ち付加情報としては、注目選手を示すカーソルを表示したり注目選手の位置に枠を表示したり、注目選手位置の色や輝度を目立つように変更したり、あるいはそれらの組み合わせにより表示をする。マーク以外にも文字で表示したりしてもよい。そして画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示す付加情報を重畳する。
図7(B)にマークを表示するS107-2のフローの例を示しており、これについては後述する。なお、上記のようなS107の追跡動作はスキップして実行しないように選択スイッチでユーザーが選択可能にしてもよい。あるいは、注目選手が画面内にいるときには追跡動作を実行するが画面外に出た場合には追跡動作をしない、というモードを設け、そのモードを選択できるようにしてもよい。更には、競技の状況を自動的に判断し、例えば注目選手がベンチ入りした場合などに、画面外の注目選手の追跡動作(矢印などの付加情報を表示など)を自動的に停止するように制御してもよい。あるいは画面内であるか画面外であるかにかかわらず、注目選手がベンチ入りしたことがサーバー側でわかったら画面における注目選手位置の表示や注目選手に対するオートフォーカスや注目選手に対する自動露光調整を停止するように制御してもよい。
S108では、注目選手の追跡継続がOK(成功している)か否かが判断され、注目選手の追跡継続に成功していれば、S107に進み更に継続してカメラ自身で注目選手の追跡を実施し、注目選手の追跡継続に成功していないとS109に進む。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に進む。注目選手の撮影が継続している場合には、S105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。即ち、追跡が失敗した場合はS108でNoとなり、その場合追跡を継続するならS105に戻ってサーバーに位置情報のリクエストを行う。
図7(B)は、カメラ側におけるS107-2の注目選手マーク表示のフロー例を示している。S120ではサーバーから受け取った位置情報に基づき、表示部における注目選手の相対位置を計算して求める。S121では画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示すマークなどを重畳する。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に進む。注目選手の撮影が継続している場合には、S105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。即ち、追跡が失敗した場合はS108でNoとなり、その場合追跡を継続するならS105に戻ってサーバーに位置情報のリクエストを行う。
図7(B)は、カメラ側におけるS107-2の注目選手マーク表示のフロー例を示している。S120ではサーバーから受け取った位置情報に基づき、表示部における注目選手の相対位置を計算して求める。S121では画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置を示すマークなどを重畳する。
以上の実施例では、サーバー110は、例えば競技フィールド全体の映像を読み取り座標を取得しているので、プロカメラマンや観客が撮影している映像から、競技フィールドに対してどこから撮影しているかを把握することもできる。すなわちサーバーは、サーバー用の複数台のカメラ(固定カメラや移動カメラ)から競技フィールドの全体の映像をあらかじめ把握しておく。それにより、フィールド内における注目選手の絶対位置情報と、プロカメラマンや観客が端末やデジタルカメラで見ている映像とのマッピングが可能になる。
また、プロカメラマンや観客のカメラ等の端末は、サーバーから選手の絶対位置情報を受信するとこの絶対位置情報と今撮影あるいはモニターしている映像とのマッピングが可能になる。なお、例えばサーバーからの注目選手のフィールド内での絶対位置情報を(X、Y)とする。この絶対位置情報を個々のカメラの位置情報に従い、カメラから見たときの相対的な位置情報(X´、Y´)に変換する必要がある。上記の絶対位置情報から相対位置情報への変換は、S120のようにカメラ側で実施してもよいし、サーバー側で変換した後に個々の端末(カメラなど)に相対位置情報を送ってもよい。
また、プロカメラマンや観客のカメラ等の端末は、サーバーから選手の絶対位置情報を受信するとこの絶対位置情報と今撮影あるいはモニターしている映像とのマッピングが可能になる。なお、例えばサーバーからの注目選手のフィールド内での絶対位置情報を(X、Y)とする。この絶対位置情報を個々のカメラの位置情報に従い、カメラから見たときの相対的な位置情報(X´、Y´)に変換する必要がある。上記の絶対位置情報から相対位置情報への変換は、S120のようにカメラ側で実施してもよいし、サーバー側で変換した後に個々の端末(カメラなど)に相対位置情報を送ってもよい。
カメラ等の端末で上記変換を実行する場合は、サーバーから送られた絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、相対的な位置情報(X´、Y´)に変換する。この相対的な位置情報をもとに、カメラ側の表示画面内での位置情報とする。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
以上のようにして、プロカメラマンや観客のカメラ等の端末では、注目選手を見失うことが減るので、タイミングを逃さず注目選手の良い写真の撮影が可能になる。
なお、図8はカメラ等の端末側の注目選手表示追跡制御フローの他の例を表している。図8において、S101、S102、S103、S104、S105、S106、S107、S107-2、S110は、図7と同一の制御であり説明は省略する。
なお、図8はカメラ等の端末側の注目選手表示追跡制御フローの他の例を表している。図8において、S101、S102、S103、S104、S105、S106、S107、S107-2、S110は、図7と同一の制御であり説明は省略する。
図8のS131では、注目選手の追跡継続がOK(成功している)か否かを判断し、注目選手の追跡継続に成功していれば、S134に進み、注目選手の追跡継続に成功していないと、S132に進む。S132では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS133に進む。注目選手の撮影が継続している場合にはS105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。S133では、サーバーからの注目選手の位置を検出したか否かが判断され、サーバーからの注目選手の位置を検出しているとS106に進み、サーバーからの注目選手の位置を検出していないとS101に進む。S134では、サーバーから注目選手の位置を検出したか否かが判断され、サーバーからの注目選手の位置を検出しているとS106に進み、サーバーからの注目選手の位置を検出していないとS107に進む。
次に、デジタルカメラの追跡部371について図9を用いて説明する。
図9はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。なお距離マップ生成部3712により撮像素子からの1対の視差画像(A像とB像)から被写体までの距離情報を取得し、照合部3710における被写体領域の特定精度を上げることもできる。ただし距離マップ生成部3712は必ずしもなくても構わない。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
図9はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。なお距離マップ生成部3712により撮像素子からの1対の視差画像(A像とB像)から被写体までの距離情報を取得し、照合部3710における被写体領域の特定精度を上げることもできる。ただし距離マップ生成部3712は必ずしもなくても構わない。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
次に、サーバー側における注目選手の検出制御フローについて図10、図11を用いて説明する。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行う。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行う。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
図10はサーバー側における注目選手の検出制御のメインフローを示す。
図10において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
図10において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
S206で、サーバーは、前記注目選手のID情報に基づき、複数のカメラ(固定カメラや移動カメラなど)からの映像に基づき画像認識によって、注目選手を画面内で見つける。S207で、サーバーは、複数のカメラからの映像に基づき注目選手を追跡する。S208で、注目選手の追跡継続がOK(成功している)か否かを判断し、注目選手の追跡継続に成功していれば、S207に戻り、複数のカメラからの情報に基づき注目選手の追跡を継続する。S208で注目選手の追跡継続に成功していない場合はS209に進む。
S209で注目選手の撮影が終了か否か判断し、注目選手の撮影が終了するとS201に戻り、S209で注目選手の撮影が継続している場合には、S206に戻る。そして再度、サーバーは、注目選手のID情報に基づき、複数のサーバー用のカメラ(固定カメラや移動カメラ)からの情報を探索して、注目選手を見つけ、S207で、継続して複数のカメラからの映像に基づき、注目選手の追跡を行う。
次に上記S206において注目選手を見つけ、S207で追跡するための方法の例について図11を用いて説明する。
図11は背番号情報を用いた注目選手検出制御フローを示す。図11において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの画像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図11のフローを終了する。
図11は背番号情報を用いた注目選手検出制御フローを示す。図11において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの画像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図11のフローを終了する。
なお、サーバー用の複数台のカメラの中のすくなくとも1台のカメラからの映像を用いて、注目選手の背番号を見つけ、見えている大きさ、角度、さらには、背景(競技フィールド)の情報を入力することにより、注目選手の位置情報を取得することもできる。またサーバー用の複数台のカメラからの映像を用いて、同様に、注目選手の背番号を見つけられるようにし、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報の精度を高めることができる。
次に図12は、サーバー側の注目選手検出制御フローの他の例を示す図であり、観客が見ることができない、例えば、ロッカールームなどのフィールド外での注目選手の追跡制御例を示している。図10と同じ符番のステップは同じステップを示すので説明を省略する。
図12において、S2011で注目選手がフィールド内にいるか否かが判断され、フィールド内にいればS2012に進み、フィールド内にいなければS2013に進む。S2012は、フィールド内での注目選手の追跡を表している。フィールド内での注目選手の追跡制御の例を図13~図16を用いて説明する。また、図12のS2013のフィールド外での注目選手の追跡制御の例を図17(A)~図17(D)を用いて説明する。
図12において、S2011で注目選手がフィールド内にいるか否かが判断され、フィールド内にいればS2012に進み、フィールド内にいなければS2013に進む。S2012は、フィールド内での注目選手の追跡を表している。フィールド内での注目選手の追跡制御の例を図13~図16を用いて説明する。また、図12のS2013のフィールド外での注目選手の追跡制御の例を図17(A)~図17(D)を用いて説明する。
なお、注目選手のS2012のフィールド内での追跡とS2013のフィールド外での追跡は、図13と図17(A)のペア、図14と図17(B)のペア、図15と図17(C)のペア、図16と図17(D)のペアにより制御される。
最初に、サーバー側による、位置センサー情報を用いたS2012のフィールド内の注目選手検出制御フローを図13に示し、位置センサー情報を用いたS2013のフィールド外の注目選手検出制御フローを図17(A)に示す。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報を通信手段により送信することで選手の位置センサーからの信号をサーバーが認識して、位置情報を生成し、サーバーからプロカメラマンや観客が保有するカメラ等の端末へ知らせる。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報を通信手段により送信することで選手の位置センサーからの信号をサーバーが認識して、位置情報を生成し、サーバーからプロカメラマンや観客が保有するカメラ等の端末へ知らせる。
ここで、フィールド内での情報はパスワードのない一般観客も見ることができるので、選手がフィールド内にいれば、パスワード設定がなくても選手の位置情報を送るようにしてもよい。しかしながら、パスワードの設定が行われないとフィールド外の所在場所や映像等、例えばロッカールームなどにいるという位置情報やロッカールーム内での映像等は送らない。パスワードの設定がないと注目選手はフィールド外にいることのみをカメラに通知するものとする。
パスワードは、予め契約などに基づき取得され、プロカメラマンや観客が保有するカメラ等の端末で入力されて、注目選手の指定情報とともに、カメラ端末からサーバーに送られるものである。サーバーは、カメラ端末からのパスワードの入力に従い、カメラ端末への送信内容を変更する。
パスワードは、予め契約などに基づき取得され、プロカメラマンや観客が保有するカメラ等の端末で入力されて、注目選手の指定情報とともに、カメラ端末からサーバーに送られるものである。サーバーは、カメラ端末からのパスワードの入力に従い、カメラ端末への送信内容を変更する。
図13において、S2101で、サーバーは、サーバー用の複数台のカメラから、注目選手の位置センサー情報を取得する。位置センサー情報の中には、位置センサーからの電波の方向、受信電波の強度レベルも含まれている。S2102では、サーバー用の複数台のカメラの位置センサー情報から注目選手を絶対位置を検出する。S2103では、注目選手の絶対位置をプロカメラマンや観客が保有するカメラ等の端末に送信する。S2104では、注目選手はフィールド内にいないか否かが判断され、注目選手がフィールド内にいるとS2101に進み、注目選手がフィールド内にいないと図13の制御を終了する。
この例の場合には、サーバー用の複数台のカメラ(固定カメラや移動カメラ)の中の少なくとも1台は、画像、音声の取得に加えて、選手が保有している位置センサーからの情報を検出するための検出器を有する。サーバー用の複数台のカメラの中の、各カメラによって、選手の位置センサーからの情報を受信し、受信電波の方向、さらには、受信電波のレベルを認識できる。しかしこの実施例では選手の位置センサー情報を、サーバー用の複数台のカメラでそれぞれ認識できるようにしている。そしてサーバー用の複数台のカメラによる位置センサー情報を総合して、より正確に選手の位置情報を分析している。
次に図17(A)はサーバー側における、位置センサー情報を用いた具体的なフィールド外の注目選手検出制御フローを示す図である。図17(A)において、S2501で、サーバーは、ロッカールームの1台または数台のカメラで、注目選手の位置センサー情報を取得する。S2502で、ロッカールームの数台のカメラからの位置センサー情報に基づき注目選手を絶対位置を検出する。S2503で、プロカメラマンや観客のカメラからパスワードの入力があったか否かが判断される。そしてプロカメラマンや観客のカメラからパスワードの入力が行われていればS2505に進み、プロカメラマンや観客のカメラからパスワードの入力が行われていなければS2504に進む。S2504は、注目選手はフィールドの外にいることをカメラに送信する。S2505は、注目選手の絶対位置(例えばロッカールームにいるということ)をカメラに送信する。S2506では、注目選手のロッカールーム内での例えばぼかしやモザイクをいれた映像をカメラに送信する。ここで、注目選手の位置情報以外の情報として注目選手の映像を送る例を示したが、映像の代わりにあるいは映像と一緒に例えばプロフィール情報や解説者によるコメント情報などを送ってもよい。S2507では、注目選手はロッカールームにいないか否かが判断され、注目選手がロッカールームにいるとS2501に進み、注目選手がロッカールームにいないとこの制御を終了する。
次にサーバー側による、注目選手の背番号情報(ビブスの前の番号も含む。)を用いたフィールド内の注目選手検出制御フローを図14に示す。またサーバー側による、背番号情報を用いたフィールド外の注目選手検出制御フローを図17(B)に示す。
サーバーは、サーバー用の複数台のカメラ(固定カメラや移動カメラ)からの映像をもとに選手の背番号を検出する手段を有し、サーバーからプロカメラマンや観客が保有するカメラ等の端末に、背番号と選手の位置情報を対応させた情報を知らせるようにする。
サーバーは、サーバー用の複数台のカメラ(固定カメラや移動カメラ)からの映像をもとに選手の背番号を検出する手段を有し、サーバーからプロカメラマンや観客が保有するカメラ等の端末に、背番号と選手の位置情報を対応させた情報を知らせるようにする。
図14において、S2201では、サーバーは注目選手のID情報に基づき背番号をデータメモリ213から取得する。そして、サーバー用の複数台のカメラ(固定カメラや移動カメラ)からの映像に基づき画像認識により、この背番号の選手の位置情報を取得する。S2202では、S2201にて取得された複数のカメラからの映像による背番号の選手の位置情報に基づき注目選手の絶対位置を検出する。S2203では、S2202で検出した注目選手の絶対位置をプロカメラマンや観客が保有するカメラ等の端末に対して送信する。S2204では、注目選手はフィールド内にいないか否かが判断され、注目選手がフィールド内にいるとS2201に進み、注目選手がフィールド内にいないと図14の制御を終了する。
一方、図17(B)は図17(A)のS2501をS2601に置き換えたものである。即ちS2601において、サーバーは注目選手のID情報に基づき注目選手の背番号をデータメモリ213から取得し、ロッカールームの数台のカメラの映像から、この背番号の選手の位置情報を取得する。そのあとS2502に進む。
次にサーバー側による、顔認識情報を用いたフィールド内の注目選手検出制御フローを図15に示す。また、サーバー側による、顔認識情報を用いたフィールド外の注目選手検出制御フロー図17(C)に示す。
サーバーのデータメモリ213には、試合にメンバー登録されている全選手の、過去に撮影した顔情報が複数枚格納されている。さらに、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の顔情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した顔情報と、試合にメンバー登録されている選手の過去に撮影した複数枚の顔画像と例えばAIを用い比較して、選手を検出する。
サーバーのデータメモリ213には、試合にメンバー登録されている全選手の、過去に撮影した顔情報が複数枚格納されている。さらに、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の顔情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した顔情報と、試合にメンバー登録されている選手の過去に撮影した複数枚の顔画像と例えばAIを用い比較して、選手を検出する。
図15において、S2301で、サーバーは注目選手のID情報に基づき注目選手の顔情報をデータメモリ213から取得し、サーバー用の複数台のカメラの映像情報を用いて、この顔情報の選手の位置情報を取得する。サーバー用の複数台のカメラの中の1台のカメラの映像を用いて、注目選手の顔情報に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報を取得できる。サーバー用の複数台のカメラで、同様に、注目選手の顔情報に対応した選手を見つけ、見えている大きさ、角度、さらには、背景(フィールド)の情報を入力することにより、注目選手の位置情報をより精度よく取得できる。S2302で、S2301にて取得された注目選手の位置情報に基づき注目選手の絶対位置を検出する。S2303は、S2302で検出した注目選手の絶対位置をプロカメラマンや観客が保有するカメラ等の端末に対して送信する。S2304では、注目選手はフィールド内にいないか否かが判断され、注目選手がフィールド内にいるとS2301に進み、注目選手がフィールド内にいないとこの制御を終了する。
図17(C)は図17(A)のS2501をS2701に置き換えたものである。S2701において、サーバーは注目選手のID情報に基づき注目選手の顔情報をデータメモリ213から取得し、ロッカールームの数台のカメラの映像から、この顔情報に対応する選手の位置情報を取得する。そのあとでS2502に進む。
次にサーバー側による、体格認識情報を用いたフィールド内の注目選手検出制御フローを図16に示す。またサーバー側による、体格認識情報を用いたフィールド外の注目選手検出制御フローを図17(D)に示す。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の、過去に撮影した体格画像情報が複数枚格納されている。また、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の体格情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した体格情報と、試合にメンバー登録されている選手の、過去に撮影した複数枚の体格画像情報と例えばAIを用いて比較して、選手を検出する。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の、過去に撮影した体格画像情報が複数枚格納されている。また、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の体格情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した体格情報と、試合にメンバー登録されている選手の、過去に撮影した複数枚の体格画像情報と例えばAIを用いて比較して、選手を検出する。
図16において、S2401で、サーバーは注目選手のID情報に基づき体格画像情報をデータメモリ213から取得し、サーバー用の複数台のカメラの映像情報を用いて、この体格の選手の位置情報を取得する。サーバー用の複数台のカメラの中の1台のカメラからの映像を用いて、注目選手の体格画像に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を取得することにより、注目選手の位置情報を取得できる。サーバー用の複数台のカメラの映像から、同様に、注目選手の体格画像に対応した選手を見つけると、見えている大きさ、角度、さらには、背景(フィールド)の情報を取得することにより、注目選手の位置情報をより精度よく取得できる。S2402で、S2401にて取得した、この体格情報の選手の位置情報に基づき注目選手の絶対位置を検出する。
S2403で、S2402で検出した注目選手の絶対位置をプロカメラマンや観客が保有するカメラ等の端末に対して送信する。S2404で、注目選手はフィールド内にいないか否かが判断され、注目選手がフィールド内にいるとS2401に進み、注目選手がフィールド内にいないとこの制御を終了する。
図17(D)は図17(A)のS2501をS2801に置き換えたものである。S2801において、サーバーは注目選手のID情報に基づき注目選手の体格画像情報をデータメモリ213から取得し、ロッカールームの数台のカメラの映像から、この体格の選手の位置情報を入力する。そのあとS2502に進む。
なお、以上の実施例においてロッカールームの例を用いて説明したが、それ以外にも例えばベンチやその他の控室やトレーニングルームや医務室やロビーなどでもよいことは言うまでもない。また、それらの場所に注目選手がいる場合に例えば図17(A)のS2506では注目選手のぼかした映像をカメラ等の端末に送っているが、映像は送らず、それ以外の各種情報(例えば注目選手のプロフィールや解説者のコメント等)を送ってよい。
なお、以上の実施例においてロッカールームの例を用いて説明したが、それ以外にも例えばベンチやその他の控室やトレーニングルームや医務室やロビーなどでもよいことは言うまでもない。また、それらの場所に注目選手がいる場合に例えば図17(A)のS2506では注目選手のぼかした映像をカメラ等の端末に送っているが、映像は送らず、それ以外の各種情報(例えば注目選手のプロフィールや解説者のコメント等)を送ってよい。
また、上記では、サーバーは、あらかじめパスワードに応じた設定がされている。そして、パスワードが入力されれば、パスワード入力をしていないカメラ端末等では見ることができない情報、例えば、控室やロッカールーム等に注目選手がいるという情報などをカメラ端末に送る例を説明した。その際に控室やロッカールームの中にいる注目選手の映像をぼかしたり、モザイクをかけたりしてパスワード入力したカメラ等の端末に送る例を説明した。しかしながら、パスワードの有無だけはなく、複数レベルのパスワードを設定し、入力されるパスワードのレベルに応じて、カメラ端末等が受け取れる情報の内容を変更しても良い。
以上は、パスワードを入力したカメラ端末に対する、サーバー側の制御について説明をしたが、次にカメラ端末側の制御について説明する。
位置情報通知サービスとしては、パスワードを入力したカメラ端末には、注目選手が、フィールドにいない時に、フィールド外のどこにいるかを通知する。例えば、カメラ等の端末に対して、サーバーから「***選手は、今、ロッカールームにいます。」とか、「***選手は、今、ロッカールームからフィールドに移動中です。」などの情報を送信し、パスワード入力したカメラ等の端末に表示する。
位置情報通知サービスとしては、パスワードを入力したカメラ端末には、注目選手が、フィールドにいない時に、フィールド外のどこにいるかを通知する。例えば、カメラ等の端末に対して、サーバーから「***選手は、今、ロッカールームにいます。」とか、「***選手は、今、ロッカールームからフィールドに移動中です。」などの情報を送信し、パスワード入力したカメラ等の端末に表示する。
また、ロッカールームにいる注目選手のぼかしやモザイクを入れた映像を、カメラの一部にピクチャーインピクチャーなどで表示する。
これにより、パスワードを持ったプロカメラマンや一部の観客は、注目選手がフィールドにいない場合でも、どこにいるかがわかり、また、その選手の映像を見ることも可能になる。従って、プロカメラマン等は、シャッターチャンスを逃さない良い写真を撮影できる可能性が高くなる。
例えばオリンピックのように、フィールド内で、同時に複数の競技が進行している場合などにおいても、今、フィールドに見当たらない注目選手がどこにいるのかを簡単に知ることができ、タイムリーに良い撮影をするための差別化されたサービスを提供できる。
これにより、パスワードを持ったプロカメラマンや一部の観客は、注目選手がフィールドにいない場合でも、どこにいるかがわかり、また、その選手の映像を見ることも可能になる。従って、プロカメラマン等は、シャッターチャンスを逃さない良い写真を撮影できる可能性が高くなる。
例えばオリンピックのように、フィールド内で、同時に複数の競技が進行している場合などにおいても、今、フィールドに見当たらない注目選手がどこにいるのかを簡単に知ることができ、タイムリーに良い撮影をするための差別化されたサービスを提供できる。
また、ロッカールーム等に限らず、「選手がバスで競技会場に向かって移動中」などの情報もプロカメラマン等のパスワード入力したカメラ端末に表示できるので非常に便利なサービスとなる。
また本実施例では、プロカメラマンや観客が見ている映像の中に、注目選手がカメラ等の端末の画面内や画面外のどこにいるかを例えば矢印や文字などで知らせることができるので、注目選手を見失うことがなくなり貴重なシャッターチャンスを逃しにくくなる。
なおサーバーから複数のカメラ端末に位置情報をブロードキャストで送る場合は、絶対的な位置情報で送るが、サーバーが検出した情報を特定のカメラマン、あるいは、特定の観客が保有するカメラ等の端末だけに通知することも可能である。これは、個別のカメラ端末に対してもありえるし、競技場内の特定のエリアのカメラマンや観客が保有するカメラ等の端末に対して送るようにしても良い。その際には、サーバーはそれらのカメラ端末に対して相対位置情報を送ってもよい。
また本実施例では、プロカメラマンや観客が見ている映像の中に、注目選手がカメラ等の端末の画面内や画面外のどこにいるかを例えば矢印や文字などで知らせることができるので、注目選手を見失うことがなくなり貴重なシャッターチャンスを逃しにくくなる。
なおサーバーから複数のカメラ端末に位置情報をブロードキャストで送る場合は、絶対的な位置情報で送るが、サーバーが検出した情報を特定のカメラマン、あるいは、特定の観客が保有するカメラ等の端末だけに通知することも可能である。これは、個別のカメラ端末に対してもありえるし、競技場内の特定のエリアのカメラマンや観客が保有するカメラ等の端末に対して送るようにしても良い。その際には、サーバーはそれらのカメラ端末に対して相対位置情報を送ってもよい。
フィールドでの絶対位置情報と相対位置情報の変換シーケンスの例を図18、図19に示す。
サーバーがブロードキャストによって絶対的な位置情報を送る場合には、各プロカメラマンや各観客が保有するカメラ等の端末において、絶対的な位置情報から相対的な位置情報への変換を行う。
サーバーがブロードキャストによって絶対的な位置情報を送る場合には、各プロカメラマンや各観客が保有するカメラ等の端末において、絶対的な位置情報から相対的な位置情報への変換を行う。
図18では、カメラ等の端末側で競技フィールドにおける絶対位置から相対位置に変換するシーケンスを示す。図18において、サーバー1801は、サーバー用の複数台のカメラ(固定カメラや移動カメラ)からの情報より、注目選手の絶対位置を検出する。サーバーは例えば観客のカメラ端末1802に、注目選手の絶対位置情報を送る。観客のカメラ端末1802では、サーバーから送られた絶対位置情報から、観客のカメラ等の端末の位置情報等に応じて、このカメラ端末の表示部で見たときの相対位置情報に変換して、この情報をもとに、表示部に注目選手の位置情報を表示する。
次にサーバーが、それぞれの特定のカメラ端末の位置情報を受信し、サーバー側で絶対的な位置情報から相対的な位置情報に変換した後に、カメラ端末へそれぞれの相対位置情報を送る例について図19を用いて説明する。
図19は、サーバーで絶対位置を相対位置に変換するフローを示す。図19において、サーバー1801は、サーバー用の複数台のカメラの映像等からそれぞれの注目選手の位置情報を取得し、それぞれの注目選手の絶対位置を検出する。それぞれの特定のカメラ端末は各カメラ端末の位置情報をGPS等で検出し、カメラ端末1803からサーバー1801へ各カメラ端末1803の位置情報を送る。サーバー1801は各カメラ端末1803から指定された各注目選手の絶対位置情報と各カメラ端末の位置情報とに基づき、各カメラ端末位置で見たときの相対位置情報に変換する計算をして、この相対位置情報を各カメラ端末に送る。各カメラ端末1803は、サーバー1801から受信したこのカメラ端末で見たときの相対位置情報をもとに、各カメラ端末の表示部に注目選手の位置を表示する。
図19は、サーバーで絶対位置を相対位置に変換するフローを示す。図19において、サーバー1801は、サーバー用の複数台のカメラの映像等からそれぞれの注目選手の位置情報を取得し、それぞれの注目選手の絶対位置を検出する。それぞれの特定のカメラ端末は各カメラ端末の位置情報をGPS等で検出し、カメラ端末1803からサーバー1801へ各カメラ端末1803の位置情報を送る。サーバー1801は各カメラ端末1803から指定された各注目選手の絶対位置情報と各カメラ端末の位置情報とに基づき、各カメラ端末位置で見たときの相対位置情報に変換する計算をして、この相対位置情報を各カメラ端末に送る。各カメラ端末1803は、サーバー1801から受信したこのカメラ端末で見たときの相対位置情報をもとに、各カメラ端末の表示部に注目選手の位置を表示する。
なお、カメラ端末の位置が固定の場合と移動する場合とが存在するが、例えば観客席からの観戦では、カメラ端末位置はほぼ固定のケースとなる。このため、ある観客席から見える映像は、決まってくるので、サーバーで検知した注目選手の絶対位置情報から観客の保有するカメラ等の端末から見た相対位置情報を作り出すサービスは非常に価値がある。
カメラ端末側で、絶対的な位置情報から相対的な位置情報へ変換するためには、事前に、観客席から見た映像とフィールドの絶対位置の変換を可能にするソフトウエアをダウンロードしておくことが望ましい。そして、そのカメラ端末のGPS位置情報を取得するか観客席からの映像を取得してマッチングして相対的な位置情報を作成する。
図20、図21に、カメラ端末側で絶対位置情報から相対位置情報変換して注目選手の表示や追跡を行うためのフローの一例を示す。
図20において、S2901は、初期化を表している。S2902では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS2903に進み、写真撮影が選択されていないとS2901に進む。S2903ではカメラの設定情報を入手する。S2904では観客席から撮影した情報をサーバーに送る。この情報に基づき変換用のソフトウエアをサーバーが最適化する。S2905では、観客席から見た映像とフィールドの絶対位置の変換をするための上記ソフトウエアをサーバーからダウンロードする。S2906では、S2905でダウンロードしたソフトウエアをカメラ端末にインストールする。S2907において、サーバーから送られるデフォルトの特定選手の絶対位置情報を受信し、前記ソフトウエアで、相対位置情報に変換する。S2908において、検出した相対位置情報を基に、前記特定選手の位置に枠や矢印などのマークの表示を行う。なお、このとき画像表示部にはイメージセンサーからのライブビュー画像を表示しており、上記マークはライブビュー画像に重畳表示される。
図20、図21に、カメラ端末側で絶対位置情報から相対位置情報変換して注目選手の表示や追跡を行うためのフローの一例を示す。
図20において、S2901は、初期化を表している。S2902では、写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS2903に進み、写真撮影が選択されていないとS2901に進む。S2903ではカメラの設定情報を入手する。S2904では観客席から撮影した情報をサーバーに送る。この情報に基づき変換用のソフトウエアをサーバーが最適化する。S2905では、観客席から見た映像とフィールドの絶対位置の変換をするための上記ソフトウエアをサーバーからダウンロードする。S2906では、S2905でダウンロードしたソフトウエアをカメラ端末にインストールする。S2907において、サーバーから送られるデフォルトの特定選手の絶対位置情報を受信し、前記ソフトウエアで、相対位置情報に変換する。S2908において、検出した相対位置情報を基に、前記特定選手の位置に枠や矢印などのマークの表示を行う。なお、このとき画像表示部にはイメージセンサーからのライブビュー画像を表示しており、上記マークはライブビュー画像に重畳表示される。
次に図21のS2909では、カメラ端末で指定した注目選手の撮影が選択されたか否かが判断される。注目選手の撮影が選択されるとS2911に進み、注目選手の撮影が選択されていないとS2910に進みその他の処理をしてからS2901に進む。S2911では、注目選手情報をカメラからサーバーに送る。S2912では、サーバーから注目選手の絶対位置情報等を受けとる。S2913では、サーバーから受信した注目選手の絶対位置情報を、前記ソフトウエアで、カメラ端末の座席位置からの相対位置情報に変換してカメラ端末の表示部に枠や矢印等のマークで表示する。すなわち、注目選手の位置を逐次表示することができる。S2914では、注目選手の撮影(やモニター)が終了したか否かが判断され、注目選手の撮影(やモニター)が終了するとS2901に進む。S2914で注目選手の撮影(やモニター)が継続している場合には、S2911に進み、再度、注目選手の情報をサーバーに送り、S2912で、注目選手の絶対位置情報をサーバーから受け取り、注目選手の撮影を継続する。
次に、図22にカメラ端末側で絶対位置情報から相対位置情報変換して注目選手の表示や追跡を行うためのフローの他の例を示す。図22においては観客の座席情報を用いて絶対位置から相対位置に変換する。図22において図20、図21と同じ符番は同じステップを示すので説明は省略する。
図22において、S3000で、今、観客が着席している観客席の座席情報を入力する。ここでの入力方法は、観客のカメラで座席の番号や座席に付与されたQRコード(登録商標)等を読み取ってもよく、また、座席情報そのものをタッチパネル入力やキー入力しても良い。S3001では、S3004で入力した入力した観客席の座席情報をサーバーへ送信する。この座席位置情報に基づき絶対位置を相対位置に変換するためのソフトウエアの最適化がサーバー側で行われる。S3002で、観客席の座席情報に基づき最適化された変換ソフトウエアをサーバーからダウンロードする。
図22において、S3000で、今、観客が着席している観客席の座席情報を入力する。ここでの入力方法は、観客のカメラで座席の番号や座席に付与されたQRコード(登録商標)等を読み取ってもよく、また、座席情報そのものをタッチパネル入力やキー入力しても良い。S3001では、S3004で入力した入力した観客席の座席情報をサーバーへ送信する。この座席位置情報に基づき絶対位置を相対位置に変換するためのソフトウエアの最適化がサーバー側で行われる。S3002で、観客席の座席情報に基づき最適化された変換ソフトウエアをサーバーからダウンロードする。
次に図23は、カメラ側における注目選手表示追跡制御フローの他の例を示す。図23においては観客が保有するカメラ等の端末によって競技フィールドなどの撮影を行いこの撮影した情報をサーバーに送る。サーバーでは、この撮影情報に基づきフィールドにおける注目選手の絶対位置情報を、観客が保有しているカメラ端末での表示画面での相対位置に変換してからカメラに送る。これにより、カメラ端末においては、ソフトウエアをダウンロードしなくても、サーバーからの相対位置情報に基づき表示部に枠や矢印等の位置を示すマークが画像に重畳される。従って、カメラ端末側で選手のいる位置を簡便に認識できるというメリットがある。
図23において図20、図21と同じ符番は同じステップを示すので説明を省略する。図23において、S3100で、今、座っている観客席から撮影した情報をサーバーへ送る。サーバーでは、サーバー用の複数台のカメラで、デフォルトの特定選手の絶対位置を認識する。そして、観客の撮影した映像を受信し、これに基づき、前記特定選手の絶対位置情報を、観客席で観客が保有するカメラ等の端末で見るための相対位置情報に変換する。S3101では、サーバーから送られてきた前記特定選手の相対位置情報を受信し、それに基づきカメラ等の端末で前記特定選手の位置を表示する。そのあと図21のステップS2909に進む。
以上のように、カメラ等の端末側に、注目選手の位置をタイムリーに表示できるようになるので、観客やプロカメラマンは、注目選手を見失うことがなくなり、大事な瞬間の撮影を確実にできるようになる。
なお、注目選手は1人の例で、説明したが、注目選手は複数選手でも良い。また、注目選手は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。また、実施例では選手を追跡する例を用いて説明したが、犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。
なお、注目選手は1人の例で、説明したが、注目選手は複数選手でも良い。また、注目選手は、途中で切り替えができるものとする。注目選手として、試合に出場している選手全員でも良い。また、映像や画像としては、動画だけでなくて、静止画も含むものとする。また、注目選手を追い追跡することをメインに説明をしてきた。しかしながら、注目選手だけを追いかけないで、ボールを持っている、あるいは、ボールを受ける選手についての情報をプロカメラマンや観客に送信し表示させるようにしてもよい。また、実施例では選手を追跡する例を用いて説明したが、犯人などの人物を複数の監視カメラなどを使って追跡するシステムに適用できることは言うまでもない。あるいは人物に限らずカーレーシングなどにおいて特定の車などを追跡するシステムや競馬等において馬を追跡するシステムに適用することもできる。なお、実施例では注目選手をカメラ端末などで指定する例を説明したが、サーバー側が注目選手を指定できるようにしてもよい。
しかも国際的な競技などにおいては、一部の観客やスポンサー等に特権が与えられたりする場合が多いが、本実施例ではこのような特権や契約レベルによって、サーバーからカメラ等の端末への付加価値の提供レベルを変更できる。これらのレベル別のコントロールは、パスワードの入力などにより実現でき、特別な契約をしたプロカメラマン等はパスワードの入力により、グランド内外の価値の高い映像や各種情報を獲得して、より商品価値の高い写真撮影が可能になる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
また、本発明における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
(関連出願の相互参照)
また、本発明における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
(関連出願の相互参照)
本出願は、先に出願された、2018年11月7日に出願された日本特許出願第2018-209518号の利益を主張するものである。また、これらの日本特許出願のそれぞれの内容は本明細書において参照によりその全体が本明細書に組み込まれる。
101、102、103・・・・(サーバー用の)カメラ
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部
Claims (24)
- 画像を表示する表示手段、
前記表示手段に表示された前記画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報と所定のパスワードをサーバーに送信する送信手段、
前記サーバーが前記指定情報と前記パスワードに基づき生成した前記特定の対象の位置情報を、前記サーバーから取得する取得手段、
前記取得手段によって取得された前記特定の対象の前記位置情報に基づく付加情報を前記表示手段に表示する制御手段、を有することを特徴とする画像処理装置。 - 前記制御手段は、前記位置情報に基づき前記表示手段の表示画面内における前記特定の対象の位置を前記付加情報として表示することを特徴とする請求項1項に記載の画像処理装置。
- 前記サーバーは、カメラからの映像の中の前記特定の対象を認識した結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1または2に記載の画像処理装置。
- 前記サーバーは、前記特定の対象を画像認識した結果に基づき位置情報を生成して前記画像処理装置に送信することを特徴とする請求項2に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が有する位置センサーからの信号を認識した結果に基づき前記特定の対象の位置情報を生成することを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
- 前記付加情報は枠、カーソル、色や輝度の異なる領域の少なくとも一つを含むことを特徴とする請求項5に記載の画像処理装置。
- 前記付加情報は前記特定の対象が画面外にいる場合には画面から見てどの方向にいるかを示すものであることを特徴とする請求項6に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを示すものであることを特徴とする請求項7に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを矢印の長さまたは太さによって示すものであることを特徴とする請求項8に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを数字または目盛りによって示すものであることを特徴とする請求項8に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が装着している番号、前記特定の対象の一部または全体の形状を画像認識することを特徴とする請求項4に記載の画像処理装置。
- 前記サーバーは、複数のカメラからの映像の中の前記特定の対象を画像認識した結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
- 前記取得手段によって前記特定の対象の位置情報を取得した後に、前記特定の対象の追跡を行う追跡手段を有することを特徴とする請求項1から請求項12のいずれか1項に記載の画像処理装置。
- 前記追跡手段は、前記特定の対象の位置情報をサーバーから取得後に、前記特定の対象の追跡を実行し、追跡に失敗したときには、前記サーバーへ位置情報の送信をリクエストすることを特徴とする請求項13に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が存在するフィールド全体の映像をあらかじめ取得し、前記位置情報の生成に用いることを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
- 前記サーバーは前記フィールドにおける前記特定の対象の位置情報に基づき、前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項15に記載の画像処理装置。
- 前記サーバーは前記フィールドにおける前記特定の対象の第1の位置情報を前記画像処理装置に送信し、前記画像処理装置は前記第1の位置情報に基づき前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項15に記載の画像処理装置。
- 前記選択手段は複数の特定の対象を選択することを特徴とする請求項1から請求項17のいずれか1項に記載の画像処理装置。
- 前記サーバーは前記パスワードと前記指定情報に基づき前記画像処理装置に前記特定の対象の位置情報以外の情報も送ることを特徴とする請求項1から請求項18のいずれか1項に記載の画像処理装置。
- 前記パスワードは複数のレベルを有し、前記サーバーは前記パスワードのレベルと前記指定情報に基づき前記画像処理装置に送る前記特定の対象の情報を変更することを特徴とする請求項1から請求項19のいずれか1項に記載の画像処理装置。
- 更に、絶対的な位置情報から相対的な位置情報へ変換するソフトウエアをダウンロードするダウンロード手段を有することを特徴とする請求項1から請求項20のいずれか1項に記載の画像処理装置。
- 画像を表示する表示ステップ、
前記表示ステップにより表示された画像の中から特定の対象を選択する選択ステップ、
前記選択ステップによって選択された前記特定の対象に関する指定情報を生成する指定情報生成ステップ、
前記指定情報生成ステップによって生成された前記指定情報と所定のパスワードをサーバーに送信する送信ステップ、
前記サーバーが前記パスワードと前記指定情報に基づき生成した前記特定の対象の位置情報を、前記サーバーから取得する取得ステップ、
前記取得ステップで取得された前記特定の対象の位置情報に基づき付加情報を表示させる制御ステップ、を有することを特徴とする画像処理方法。 - 請求項1から21のうちいずれか一項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項23に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201980088199.9A CN113302906B (zh) | 2018-11-07 | 2019-10-17 | 图像处理设备、图像处理方法和存储介质 |
US17/307,836 US20210258505A1 (en) | 2018-11-07 | 2021-05-04 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-209518 | 2018-11-07 | ||
JP2018209518A JP7301521B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/307,836 Continuation US20210258505A1 (en) | 2018-11-07 | 2021-05-04 | Image processing apparatus, image processing method, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020095648A1 true WO2020095648A1 (ja) | 2020-05-14 |
Family
ID=70611269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/040876 WO2020095648A1 (ja) | 2018-11-07 | 2019-10-17 | 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210258505A1 (ja) |
JP (1) | JP7301521B2 (ja) |
CN (1) | CN113302906B (ja) |
WO (1) | WO2020095648A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112351330A (zh) * | 2020-10-26 | 2021-02-09 | 深圳Tcl新技术有限公司 | 显示设备的留言方法、显示设备及计算机可读存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116095465B (zh) * | 2022-05-25 | 2023-10-20 | 荣耀终端有限公司 | 录像方法、装置及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003199032A (ja) * | 2001-09-28 | 2003-07-11 | Fuji Photo Film Co Ltd | 画像識別装置、注文処理装置及び画像識別方法 |
JP2005190285A (ja) * | 2003-12-26 | 2005-07-14 | Canon Sales Co Inc | 認証サーバ、情報サーバ、クライアント、認証方法、認証システム、プログラム、記録媒体 |
JP2009282805A (ja) * | 2008-05-23 | 2009-12-03 | Hannama Corp | 画像変化検出装置、画像変化検出方法、及びプログラム |
JP2010034699A (ja) * | 2008-07-25 | 2010-02-12 | Toshiba Corp | 放送送信装置および放送受信装置および放送送受信システム |
WO2013021643A1 (ja) * | 2011-08-11 | 2013-02-14 | パナソニック株式会社 | 放送通信連携システム、データ生成装置及び受信装置 |
JP2015046756A (ja) * | 2013-08-28 | 2015-03-12 | 株式会社ニコン | システム、サーバ、電子機器およびプログラム |
JP2015225529A (ja) * | 2014-05-28 | 2015-12-14 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2016123069A (ja) * | 2014-12-25 | 2016-07-07 | パナソニックIpマネジメント株式会社 | 映像配信方法、映像受信方法、サーバ及び端末装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7301569B2 (en) * | 2001-09-28 | 2007-11-27 | Fujifilm Corporation | Image identifying apparatus and method, order processing apparatus, and photographing system and method |
JP2003289465A (ja) * | 2002-03-28 | 2003-10-10 | Fuji Photo Film Co Ltd | 撮影システム及び撮影方法 |
GB2400513B (en) * | 2003-03-14 | 2005-10-05 | British Broadcasting Corp | Video processing |
JP4591586B2 (ja) * | 2008-09-22 | 2010-12-01 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
JP5133967B2 (ja) | 2009-11-16 | 2013-01-30 | ルネサスエレクトロニクス株式会社 | Euv露光方法 |
US11049374B2 (en) * | 2016-12-22 | 2021-06-29 | Nec Corporation | Tracking support apparatus, terminal, tracking support system, tracking support method and program |
-
2018
- 2018-11-07 JP JP2018209518A patent/JP7301521B2/ja active Active
-
2019
- 2019-10-17 CN CN201980088199.9A patent/CN113302906B/zh active Active
- 2019-10-17 WO PCT/JP2019/040876 patent/WO2020095648A1/ja active Application Filing
-
2021
- 2021-05-04 US US17/307,836 patent/US20210258505A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003199032A (ja) * | 2001-09-28 | 2003-07-11 | Fuji Photo Film Co Ltd | 画像識別装置、注文処理装置及び画像識別方法 |
JP2005190285A (ja) * | 2003-12-26 | 2005-07-14 | Canon Sales Co Inc | 認証サーバ、情報サーバ、クライアント、認証方法、認証システム、プログラム、記録媒体 |
JP2009282805A (ja) * | 2008-05-23 | 2009-12-03 | Hannama Corp | 画像変化検出装置、画像変化検出方法、及びプログラム |
JP2010034699A (ja) * | 2008-07-25 | 2010-02-12 | Toshiba Corp | 放送送信装置および放送受信装置および放送送受信システム |
WO2013021643A1 (ja) * | 2011-08-11 | 2013-02-14 | パナソニック株式会社 | 放送通信連携システム、データ生成装置及び受信装置 |
JP2015046756A (ja) * | 2013-08-28 | 2015-03-12 | 株式会社ニコン | システム、サーバ、電子機器およびプログラム |
JP2015225529A (ja) * | 2014-05-28 | 2015-12-14 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2016123069A (ja) * | 2014-12-25 | 2016-07-07 | パナソニックIpマネジメント株式会社 | 映像配信方法、映像受信方法、サーバ及び端末装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112351330A (zh) * | 2020-10-26 | 2021-02-09 | 深圳Tcl新技术有限公司 | 显示设备的留言方法、显示设备及计算机可读存储介质 |
CN112351330B (zh) * | 2020-10-26 | 2023-06-23 | 深圳Tcl新技术有限公司 | 显示设备的留言方法、显示设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2020077954A (ja) | 2020-05-21 |
CN113302906A (zh) | 2021-08-24 |
US20210258505A1 (en) | 2021-08-19 |
JP7301521B2 (ja) | 2023-07-03 |
CN113302906B (zh) | 2023-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106575027B (zh) | 摄像装置及其被摄体跟踪方法 | |
JP6460105B2 (ja) | 撮影方法、撮影システムおよび端末装置 | |
WO2018030206A1 (ja) | カメラワーク生成方法及び映像処理装置 | |
CN103369234B (zh) | 服务器、客户终端和系统 | |
CN108259921B (zh) | 一种基于场景切换的多角度直播系统及切换方法 | |
EP2059029B1 (en) | Image composition determining apparatus, image composition determining method and program | |
US9025044B2 (en) | Imaging device, display method, and computer-readable recording medium | |
WO2008029803A1 (fr) | Système de partage de vidéo, système de support d'imagerie et caméra | |
JP2014168126A (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20210258505A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2005286394A (ja) | 画像撮影システムおよび画像撮影方法 | |
US20210258496A1 (en) | Image processing device, image processing server, image processing method, and storage medium | |
CN110581950B (zh) | 相机、选择相机设置的系统和方法 | |
US20210360307A1 (en) | Information distribution apparatus, information distribution method, and information distribution program | |
JP6950793B2 (ja) | 電子機器およびプログラム | |
JP2014033265A (ja) | 撮像装置、撮像方法およびプログラム | |
JP7282519B2 (ja) | 画像処理装置または画像処理サーバー | |
US10841453B2 (en) | Image file creation apparatus, image file creation method, recording medium storing image file creation program, and content creation system | |
CN111279352B (zh) | 通过投球练习的三维信息获取系统及摄像头参数算出方法 | |
JP7233887B2 (ja) | 画像処理装置 | |
JP7289630B2 (ja) | 画像処理装置 | |
JP7233886B2 (ja) | 画像処理装置 | |
JP2017022650A (ja) | 撮影システム、携帯機器、撮像装置、カメラ選択方法及びプログラム | |
JP2015037219A (ja) | 撮像装置、撮像方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19882796 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19882796 Country of ref document: EP Kind code of ref document: A1 |