WO2020137274A1 - 動画タグ付け装置および動画タグ付け方法 - Google Patents

動画タグ付け装置および動画タグ付け方法 Download PDF

Info

Publication number
WO2020137274A1
WO2020137274A1 PCT/JP2019/045533 JP2019045533W WO2020137274A1 WO 2020137274 A1 WO2020137274 A1 WO 2020137274A1 JP 2019045533 W JP2019045533 W JP 2019045533W WO 2020137274 A1 WO2020137274 A1 WO 2020137274A1
Authority
WO
WIPO (PCT)
Prior art keywords
tag information
moving image
terminal device
time
video
Prior art date
Application number
PCT/JP2019/045533
Other languages
English (en)
French (fr)
Inventor
淳 小口
学 阪口
Original Assignee
Run.Edge株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Run.Edge株式会社 filed Critical Run.Edge株式会社
Priority to US17/417,689 priority Critical patent/US20220238140A1/en
Priority to EP19901935.7A priority patent/EP3905701A4/en
Publication of WO2020137274A1 publication Critical patent/WO2020137274A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to a moving image tagging device and a moving image tagging method that attaches (tags) a tag and/or a comment input to a moving image while looking at the moving image shooting target instead of the moving image.
  • video is taken using a smartphone, tablet, capture device, etc., and the video is used to instruct and analyze athletes.
  • the captured moving image data may be tagged for a specific scene such as a score scene.
  • a coach or the like who gives guidance to the player searches for a desired scene from the tagged video and gives feedback to the player.
  • the analyst searches the desired scene from the tagged video and creates an analysis report.
  • the tagging work can be done only after the video is shot, and the tagging has to be done by one person, so it takes a long time for the tagging, so the coach and the analyst are in charge.
  • coaches and analysts must provide feedback to players and create analysis reports by associating what they feel or notice during the game or practice with the scenes of the video shot, If someone else has tagged you, finding the scene also takes time.
  • the coach or the person in charge of analysis sees the video after tagging, there is a risk that he or she may forget what he/she perceived from the scene actually seen.
  • the coaches and analysts can tag the videos themselves in real time, what they feel or notice from the scene they actually see, the above problems will be solved.
  • uploading the video data to the server via the communication network causes the server to play the video (live distribution) due to video processing such as encoding and communication time. Is several tens of seconds behind the actual time (absolute time).
  • the moving image data to be captured does not include data relating to absolute time, and is the elapsed time from the shooting start time. It only contains data about the relative time associated with the number of frames. Therefore, tagging cannot be performed by combining (synchronizing) the shooting time of a moving image with the tagging time of the tag having the absolute time of the scene actually seen.
  • the present invention has been made in view of the above circumstances, and a tag and/or a comment that is input while looking at a moving image capturing target, not a moving image, is added to the moving image by setting the time correctly.
  • a moving image tagging device and a moving image tagging method capable of (tagging).
  • the present invention obtains moving image data shot by a first terminal device from the first terminal device and obtains a shooting start time when the shooting of the moving image data is started.
  • the tag information is acquired from the second terminal device, The tag information generation time based on the tag information acquisition unit that acquires the tag information generation time when the tag information is generated, and the shooting start time and the elapsed time from the shooting start of the moving image data stored in the storage unit.
  • an image processing unit that adds the tag information to the moving image data at a timing synchronized with the moving image tagging device.
  • the tag information acquisition means may be configured to be able to acquire tag information from a plurality of the second terminal devices.
  • the moving image data acquired from the first terminal device is not transmitted to the second terminal device when the second terminal device is displaying a screen for generating the tag information. May be.
  • the moving picture tagging device further comprises a video distribution means for distributing a tagged moving picture in which the tag information is added to the moving picture data, and the photographing start time acquired by the moving picture data acquisition means is distributed from the video distribution means. There is a case where it is configured not to be included in the tagged moving image data.
  • the moving image tagging device taps the tag information on the display screen of the third terminal device when delivering the moving image data with tag in which the tag information is added to the moving image data to the third terminal device. Then, there may be a case where the video distribution means for distributing the tagged moving image data including the timing synchronized with the tag information generation time corresponding to the tag information to the third terminal device.
  • tag information may be acquired from a plurality of the second terminal devices.
  • the moving image data acquired from the first terminal device is used for the second step. It may not be sent to the terminal device.
  • the moving image tagging method further includes a fifth step of delivering tagged moving image data in which the tag information is added to the moving image data, and the photographing start time acquired in the first step is set in the fifth step. It may not be included in the tagged moving image data to be distributed.
  • the tag information is tapped on the screen of the third terminal device while delivering the tagged moving image data in which the tag information is added to the moving image data to the third terminal device. Then, there may be a sixth step of delivering the tagged moving image data including the timing synchronized with the tag information generation time corresponding to the tag information to the third terminal device.
  • the moving picture data is acquired from the first terminal device, and the shooting start time is acquired and stored in the storage unit. Based on the elapsed time from the start of shooting, the time difference of the playback time of the video data from the actual time is corrected, and the tag information is added to the video data at the timing correctly matched with the tag information generation time acquired by the tag information acquisition means. Can be granted. Therefore, while the operator views the real scene, which is the target of the moving image shooting, not the moving image of the moving image, the tag information including the tag and/or the comment input by the second terminal device is displayed in the live image distributed in real time. Video data can be tagged with the correct time.
  • FIG. 1 is a block diagram showing a preferred embodiment of a schematic configuration of a video tagging system including a video tagging device of the present invention. It is explanatory drawing which shows schematically one suitable embodiment of the method of tagging a moving image data with a tag and/or a comment in the moving image tagging system and moving image tagging method including the moving image tagging device of this invention. It is a figure which shows schematically one suitable embodiment of the display screen at the time of reproducing the tagged moving image tagged in the moving image tagging system and the moving image tagging method including the moving image tagging device of this invention. It is a flowchart which shows one suitable embodiment of the flow of a process in the moving image tagging system and moving image tagging method containing the moving image tagging device of this invention.
  • FIG. 1 is a block diagram showing the overall configuration of a video tagging system 1 including a video tagging device 4 of this embodiment.
  • the configuration for realizing the video tagging system 1 of the present embodiment includes a first terminal device 2, a second terminal device 3, a server that is the video tagging device 4, and a communication network 5. Although only one second terminal device 3 is shown in the figure, a plurality of second terminal devices 3 may be included. It may also include a third terminal device 30 (see FIG. 3) having the same configuration as the second terminal device 3.
  • the first terminal device 2 includes a control unit 21, a communication unit 22, and a display unit 23 as main components.
  • the control unit 21 includes a photographing unit 211 that photographs a real scene and creates moving image data 421.
  • the control unit 21 controls the communication unit 22 to enable communication with the server 4, the second terminal device 3, the third terminal device 30, and other devices (not shown) via the communication network 5. ..
  • the communication unit 22 mainly uploads the moving image data 421 to the server 4 and stores the shooting start time 422 of the moving image data 421 in the storage unit 42 of the server 4 in order to store the data of the shooting start time 422. Is used for the purpose of transmitting to the server 4.
  • the control unit 21 controls the display unit 23 to display an image such as a moving image during shooting on the display screen (not shown) of the display unit 23.
  • a portable information terminal device such as a camera-equipped smartphone, a camera-equipped tablet terminal, or a capture device having a photographing function can be used.
  • the moving image data 421 is captured by the image capturing means 211 at a frame rate of, for example, 30 fps or 60 fps, and is composed of a plurality of time-sequential frames 71 (see FIG. 2). Each frame 71 is associated with a frame time represented by the elapsed time from the start of shooting.
  • the second terminal device 3 includes a control unit 31, a storage unit 32, an input unit 33, a communication unit 34, and a display unit 35 as main components.
  • the control unit 31 specifically generates the tag information 423 including the tag and/or the comment together with the data of the tag information generation time 424 indicating the time when the tag and/or the comment is added, in a method described later.
  • the information generating means 311 is included.
  • the storage means 32 includes, for example, the program 321 stored by installation.
  • the control means 31 reads the program 321 from the storage means 32, and the program 321 causes the control means 31, which is a computer, to execute the tag information generation means 311.
  • the input unit 33 notifies the control unit 31 that the tag buttons 61, 62, 63, 64 shown in FIG. 2 have been pressed on the second terminal device 3, or controls the input data by inputting a comment. It is for transmitting to the means 31.
  • the input means 33 includes, for example, an input key displayed on the touch panel screen, and receives characters etc. input using the input key.
  • the input unit 33 further causes the control unit 31 to read the program 321, thereby giving an input instruction to cause the control unit 31 to execute a function corresponding to the operation.
  • the tag information generation means 311 is made to recognize the fact.
  • the input unit 33 may include an input key of a keyboard included in a mobile computer or the like. Further, the input means 33 may be one that is input by voice, converted into character data, and transmitted to the control means 31.
  • the control unit 31 controls the communication unit 34 to enable communication with the server 4, the first terminal device 2, the third terminal device 30, and other devices (not shown) via the communication network 5. ..
  • the control means 31 controls the display means 35 to display the application screen, the software screen, etc. generated by the program 321 on the display screen 60 (see FIG. 2) of the display means 35.
  • the display means 35 and the input means 33 constitute the above-mentioned touch panel screen, and the input means 33 by a transparent electrode is arranged on the display screen of the display means 35.
  • On the touch panel screen when the input means 33 is touch-operated on the input keys or buttons displayed on the display means 35, an operation signal corresponding to the touch operation is sent from the input means 33 to the control means 31.
  • the second terminal device 3 is a device that includes the communication unit 34 and can start an application or software by executing the program 321, and for example, a portable information terminal device such as a smartphone, a tablet terminal, or a mobile computer can be used. it can. For example, when performing analysis, a desktop personal computer or the like can be used as the second terminal device 3 that reproduces and displays the tagged moving image data 426.
  • the first terminal device 2 serves as the input means 33 in order to allow the first terminal device 2 which is a photographing terminal device to have the function of the second terminal device 3 which is a tagging terminal device.
  • the tag information generating means 311 may be provided, it is usually preferable that the first terminal device 2 and the second terminal device 3 are different devices.
  • the server 4 which is the video tagging device of the present invention, includes a control unit 41, a storage unit 42, and a communication unit 43 as main components in the present embodiment.
  • the control unit 41 includes a moving image data acquisition unit 411, a tag information acquisition unit 412, an image processing unit 413, and a video distribution unit 414.
  • the control unit 41 controls the communication unit 43 to communicate with the first terminal device 2, the second terminal device 3, the third terminal device 30, and other devices (not shown) via the communication network 5. enable.
  • the communication unit 43 mainly receives the moving image data 421 transmitted from the first terminal device 2 and uploads the moving image to the server 4, or the second terminal device 3 or the third terminal device 30 or the like. It is used to send tagged video data 426.
  • the moving image data acquisition unit 411 of the control unit 41 stores the moving image data 421 uploaded from the first terminal device 2 and the moving image shooting start time 422 data of the moving image acquired by transmission from the first terminal device 2 or the like. 42 memorize. Particularly with respect to the shooting start time 422, the moving image data acquisition unit 411 uses the time counting unit (not shown) incorporated in the control unit 21 of the first terminal device 2 as the shooting start time 422 when the shooting of the moving image data 421 is started. When acquired based on the counted time data, the acquired photographing start time 422 is stored in the storage means 42.
  • the image processing means 413 of the control means 41 is specifically synchronized with the tag information generation time 424 based on the shooting start time 422 read from the storage means 42 and the elapsed time from the shooting start of the moving image data by the method described later.
  • Tag-added moving image data 426 that adds the tag information 423 to the moving image data 421 at a timing is created and stored in the storage unit 42.
  • the video distribution means 414 of the control means 41 controls the communication means 43 to use the tagged moving image data 426 generated by the image processing means 413 for video distribution of the second terminal device 3 or the third terminal device 30, for example. Video distribution to terminal devices.
  • the storage unit 42 of the server 4 includes a program 427 stored by installation, for example.
  • the hardware configuration of the server 4 is a so-called general one, and the control means 41, which is a computer, includes a central processing unit (CPU) and is stored in a storage means 42 such as a ROM (Read Only Memory) or a hard disk.
  • Program 427 is executed.
  • the program 427 causes the control unit 41, which is a computer, to execute the moving image data acquisition unit 411, the tag information acquisition unit 412, the image processing unit 413, and the video distribution unit 414.
  • the communication network 5 is a communication infrastructure such as the Internet.
  • Video distribution by the video distribution means 414 of the server 4, particularly live distribution in which the tagged moving image data 426 is distributed as a video in real time will be described with reference to FIG.
  • the first terminal device 2 starts shooting at 18:55.
  • the control unit 21 of the first terminal device 2 controls the communication unit 22 to upload the moving image data 421 to the server 4 via the communication network 5.
  • the control unit 41 of the server 4 controls the communication unit 43 to receive the moving image data 421 and store it in the storage unit 42. During this time, several tens of seconds (usually about 15 to 30 seconds) have elapsed since the moving image shooting was started depending on the time during which the image processing such as encoding of the moving image data 421 is performed and the communication time.
  • the delay time varies depending on the specifications of the first terminal device 2 and the server 4, the environment and the situation of the communication network 5, and the like, so that a specific delay time is predicted or estimated, and the specific delay time is synchronized with the time. It is not possible to set it as a delay time.
  • the control means 21 of the first terminal device 2 is started at the start of uploading the moving picture data 421 from the first terminal device 2 to the server 4.
  • the time data counted by the time measuring means (not shown) incorporated in the above is set as the shooting start time 422 when the shooting of the moving image data 421 by the first terminal device 2 is started and is uploaded together with the moving image data 421.
  • the moving image data acquisition unit 411 included in the control unit 41 of the server 4 stores the time data of the shooting start time 422 in the storage unit 42.
  • the image processing means 413 sets the start time of the moving image data 421 stored in the storage means 42 as the shooting start time 422 stored in the storage means 42.
  • the video distribution means 414 starts the distribution at time T 0 , and at this time T 0 , 18:55, which is the time when the photographing is actually started, is set.
  • the line designated as TL is a timeline showing the passage of time of the live image to be distributed, and the time described in the parentheses of the timeline TL is the absolute time linked to the moving image data 421.
  • the time described in these parentheses is, for example, 15 to 30 seconds later than the time when the video at the time described in the parentheses is actually delivered.
  • the method of acquiring the shooting start time 422 is not particularly limited as long as the absolute time when the shooting of the video data 421 is started can be acquired.
  • the shooting start time 422 may be acquired from time data counted by a time counting unit (not shown) incorporated in the control unit 41 of the server 4.
  • the moving image data acquisition means 411 of the control means 41 separately receives, for example, that the shooting has started from the first terminal device 2, and the time data by the timekeeping means of the server 4 at that time is stored in the first terminal device 2. It is stored in the storage unit 42 as the shooting start time 422 when the shooting of the moving image data 421 by the is started.
  • the shooting start time 422 may be acquired from time data counted by other time measuring means (not shown).
  • the moving image data 421 captured by the first terminal device 2 does not include the data regarding the above-described absolute time (the time described in the parentheses of the timeline TL), but the relative time that is the elapsed time from the capturing start time 422. It only contains data. That is, as described above, each frame 71 of the moving image data 421 is associated with the frame time represented by the elapsed time from the start of shooting. Therefore, by adding the frame time to the shooting start time 422 stored in the storage unit 42 of the server 4, the actual time (absolute time) at which each frame 71 was shot can be calculated. In the example of FIG.
  • the frame time which is the elapsed time up to T 1 which is the game start time
  • the game start time is 19:00 by adding 5 minutes, which is the same time, to 18:55. In this way, the time at which the image was actually captured can be attached to the moving image data 421 that does not have an absolute time.
  • the image processing means 413 of the server 4 adds the moving picture time thus calculated, that is, the actual photographing time (absolute time) data to the moving picture data 421 stored in the storage means 42, and stores it in the storage means 42. It may be allowed to.
  • the given actual photographing time (absolute time) data can be used as the identification information 425 of each frame 71 by correlating the time as a moving picture time with each frame 71.
  • the size of the frame 71 shown in FIG. 2 is a schematic representation, and the relationship between the position of the frame 71 and the position indicating time is different from the actual one.
  • the line designated as TR is a timeline showing the actual time, for example, the elapsed time of the actual game.
  • the game start time is 19:00.
  • the worker A having the second terminal device 3 which is a device different from the first terminal device 2 capturing the moving image data 421 is The input means 33 is operated on the application or software display screen 60 displayed on the display means 35 of the terminal device 3 to tag tags and/or comments.
  • the worker A does not operate the input means 33 of the second terminal device 3 while watching the live image of the moving image data 421 distributed in real time, but the actual game being actually performed.
  • the input means 33 of the second terminal device 3 is operated while watching the scene. Therefore, the coach or the person in charge of analysis can use the second terminal device 3 to tag in real time what he/she has noticed or noticed from the scene actually seen.
  • a worker B different from the worker A operates the input means 33 of the second terminal device 3′ in the same manner as the worker A, and the tag and/or Comments are tagged.
  • the worker C operates the input means 33 of the second terminal device 3 ′′ to tag tags and/or comments.
  • the worker A is a coach
  • the worker B is a defense analyst
  • the worker C is an offense analyst.
  • a plurality of workers A, B, and C each simultaneously use the second terminal devices 3, 3', 3'' to tag tags and/or comments. It can be carried out.
  • the tag since the tag is added by itself, the tagged moving image data 426 distributed from the video distribution means 414 to the second terminal device 3 via the communication network 5 is displayed on the display means 35, and the desired scene is searched from there. When you do, you can easily search.
  • the tag information acquisition unit 412 incorporated in the control unit 41 of the server 4 can acquire the tag information from each of the plurality of second terminal devices 3, 3′, 3′′ via the communication network 5. It is composed.
  • each worker A, B, C can tag at the wrong timing while watching the live image from the second terminal device 3, 3', 3'' owned by himself, not from the scene of the actual game.
  • display means 60, 60', 60'' for tagging for generating tag information as shown in FIG. 2 is displayed on at least the second terminal device 3, 3', 3'' side.
  • the server 4 While being displayed on 35, the server 4 is arranged so that the moving image data 421 acquired from the first terminal device 2 is not distributed to these second terminal devices 3, 3 ′, 3 ′′ via the communication network 5. It constitutes the video distribution means 414 on the side.
  • the moving image tagging device 4 of the present embodiment when the workers A, B and C operate the second terminal devices 3, 3 ′, 3 ′′ owned by them to tag tags and/or comments.
  • the operation of the video tagging system 1 including is specifically described.
  • the control means 31 reads the program 321 stored in the storage means 32 and activates the application or software.
  • "Tag1" buttons 61, 61', 61", “tag2" buttons 62, 62', 62", “tag3” buttons 63, 63' which can be pressed from the input means 33 when adding tags.
  • Tag buttons including 63" and “tag4" buttons 64, 64', 64", and “Comment” fields 65, 65', 65” that allow you to enter comments when adding comments, and tags And/or "registration” buttons 66, 66', 66'' that can be pressed when deciding to add a comment are displayed on the display means 35.
  • the control unit 31 selects the “tag1” button 61 by the instruction of the program 321.
  • the tag information generation means 311 is made to recognize the fact.
  • the control means 31 instructs “tag1” to be input by the program 321.
  • the tag information generating means 311 is caused to recognize the instruction to tag the moving image data 421.
  • the control unit 31 controls the communication unit 34 to send an instruction to tag the moving image data 421 with “tag1” to the server 4 via the communication network 5.
  • the control means 31 adds the tag information generation time 424 to which the notification that the “registration” button 66 has been pressed is transmitted to the instruction and transmits it.
  • the tag information generation time 424 may be a time of an absolute time which is time data counted by a time measuring means (not shown) incorporated in the control means 31 of the second terminal device 3.
  • the tag information acquisition unit 412 of the server 4 receives the tag information 423 including the tag information generation time 424 or the tag information 423 transmitted together with the tag information generation time 424 together with the tag information generation time 424 from the second terminal device 3. get.
  • the control means 31 When tagging the moving picture data 421 with two or more pieces of tag information 423 at the same time, for example, when tagging the moving picture data 421 sent from the first terminal device 2 with the moving picture data 421 sent from the first terminal device 2 at the same time, the control means 31 notifies the control means 31 that the “tag2” button 62 has been pressed by the input means 33. The tag information generating unit 321 is caused to recognize that the “tag2” button 62 has been selected by the instruction of the program 321.
  • the control means 31 causes the program 321 Command causes the tag information generation means 311 to recognize an instruction to tag “tag1” and “tag2” with the moving image data 421.
  • the control unit 31 controls the communication unit 34 to transmit an instruction to tag the moving image data 421 with “tag1” and “tag2” to the server 4 via the communication network 5.
  • the control means 31 adds the tag information generation time 424 to which the notification that the “registration” button 66 has been pressed is transmitted to the instruction and transmits it.
  • the tag information generation time 424 may be a time of an absolute time which is time data counted by a time measuring means (not shown) incorporated in the control means 31 of the second terminal device 3.
  • the tag information acquisition unit 412 of the server 4 receives the tag information 423 including the tag information generation time 424 or the tag information 423 transmitted together with the tag information generation time 424 together with the tag information generation time 424 from the second terminal device 3. get.
  • the instruction to perform may be transmitted. That is, when the pressing of the “tag1” button 61, for example, is transmitted to the control means 31 by the input means 33, the control means 31 issues an instruction to tag the moving image data 421 with “tag1” by the instruction of the program 321.
  • the tag information generation means 311 is made to recognize it.
  • the control unit 31 controls the communication unit 34 to send an instruction to tag the moving image data 421 with “tag1” to the server 4 via the communication network 5.
  • the control means 31 adds the tag information generation time 424 to which the notification that the “tag1” button 61 has been pressed is transmitted to the instruction and transmits it.
  • the tag information generation time 424 may be a time of an absolute time which is time data counted by a time measuring means (not shown) incorporated in the control means 31 of the second terminal device 3.
  • the tag information acquisition unit 412 of the server 4 receives the tag information 423 including the tag information generation time 424 or the tag information 423 transmitted together with the tag information generation time 424 together with the tag information generation time 424 from the second terminal device 3. get.
  • the control means 31 when the input means 33 informs the control means 31 that a text is input in the “Comment” field 65, the control means 31 causes the “Comment” field 65 to be instructed by the command of the program 321.
  • the tag information generation means 311 is made to recognize that a character has been input.
  • the control means 31 When it is transmitted to the control means 31 that the “registration” button 66 has been pressed by the input means 33 in a state where characters have been input in the “Comment” field 65, the control means 31 causes a “Comment
  • the tag information generation means 311 is caused to recognize the instruction to tag the moving image data 421 with the comment input in the field 65.
  • the control unit 31 controls the communication unit 34 to transmit an instruction to tag the comment input in the “Comment” field 65 to the moving image data 421 to the server 4 via the communication network 5. At that time, the control means 31 adds the tag information generation time 424 to which the notification that the “registration” button 66 has been pressed is transmitted to the instruction and transmits it.
  • the tag information generation time 424 may be a time of an absolute time which is time data counted by a time measuring means (not shown) incorporated in the control means 31 of the second terminal device 3.
  • the tag information acquisition unit 412 of the server 4 receives the tag information 423 including the tag information generation time 424 or the tag information 423 transmitted together with the tag information generation time 424 together with the tag information generation time 424 from the second terminal device 3. get.
  • the method of acquiring the tag information generation time 424 is not particularly limited as long as the absolute time when the tag information 423 is registered can be acquired.
  • the tag information generation time 424 may be acquired from time data counted by a time counting unit (not shown) incorporated in the control unit 41 of the server 4.
  • the tag information acquisition unit 412 of the control unit 41 registers the time data by the time counting unit of the server 4 when the tag information 423 is received from the second terminal device 3, for example, in the tag information 423 registered by the second terminal device 3.
  • the stored tag information generation time 424 is stored in the storage means 42.
  • the tag information generation time 424 may be acquired from time data counted by other time measuring means (not shown).
  • the tag information acquisition unit 412 of the control unit 41 receives the instruction to control the communication unit 43 to tag the video data 421 with a tag such as “tag1” and/or a comment, and the tag information generation time 424.
  • the image processing means 413 for the moving image data 421 stored in the storage means 42, the identification information 425 which is the actual photographing time (absolute time) data added to the frame 71 as the moving image time, and the received tag information.
  • Tag information 423 including a tag such as “tag1” and/or a comment is added to the frame 71 whose generation time 424 matches.
  • the video distribution unit 414 controls the communication unit 43 to add tagged video data 426 such that tags such as “tag1” and/or comments are added at the timing when the video time and the tag information generation time 424 are properly synchronized.
  • tags such as “tag1” and/or comments are added at the timing when the video time and the tag information generation time 424 are properly synchronized.
  • the tag information generation time 424 of the tag information 423 including the tag and/or the comment is synchronized with the identification information 425 including the moving image time calculated based on the moving image shooting start time 422 stored in the storage unit 42.
  • Tag information 423 including tags and/or comments can be added to the moving image data 421 stored in the storage means 42 at a timing.
  • the video distribution unit 414 that distributes the tagged moving image data 426 in which the tag information 423 is added to the moving image data 421 is acquired by the moving image data acquisition unit 411 from, for example, the first terminal device 2 at the shooting start time 422. It may not be included in the tagged moving image data 426 to be distributed.
  • the contents of “tag1” to “tag4” may be different for each second terminal device 3, 3′, 3′′. ..
  • the worker A is the coach
  • the worker B is the defense analyst
  • the worker C is the offense analyst
  • the contents required by each person and frequently used are included in the respective tags. Can be set.
  • FIG. 2 and FIG. 3 show the case where there are four tags “tag1” to “tag4”, the number of tags is not particularly limited.
  • the video delivery means 414 of the server 4 is delivering the tagged moving image data 426 with the tag information 423 to the second terminal device 3 or the third terminal device 30, while the second terminal device 3 or the third terminal device is being delivered.
  • the tag information 423 is tapped on the display screen 81 of 30, the tagged moving image data 426 including the timing synchronized with the tag information generation time 424 corresponding to the tag information 423 is displayed on the second terminal device 3 or the third terminal device 3. It can be distributed to the terminal device 30 and reproduced on the display screen 81. The distribution and reproduction of the tagged moving image data 426 will be described below.
  • FIG. 3 is a diagram schematically showing a preferred embodiment of the display screen 81 when playing the tagged moving image data 426.
  • the video distribution terminal device for reproducing the tagged moving image data 426 is, for example, the second terminal device 3 or the third terminal device 30, or a device capable of installing and executing an application or software. ..
  • a screen 82 for displaying, for example, an image of a game, which is a shooting target, is provided.
  • the operation buttons 83 displayed on the display screen 81 allow operations such as playback, pause, fast forward, fast rewind, next scene playback, previous scene playback, and playback speed change. It is possible.
  • the timeline TL is set as the vertical axis, and the tags 84 and/or comments 85 are displayed in the order of the given times.
  • the display area 86 shows that the worker A registered the “tag1” button 61 and the “tag2” button 62 at the time 19:15, and simultaneously registered the “Comment” 65.
  • the display area 86 including the tag information 423 is tap-operated, the video from the time 19:15 of the video is reproduced.
  • the reproduction may be performed, for example, a predetermined time (for example, 5 seconds before) or a predetermined number of frames before the tagged time 19:15.
  • the display area 87 indicates that the worker B has registered the “tag1” button 61′, the “tag3” button 63′, and the “tag2” button 62′ at the time 20:10, and simultaneously registered the “Comment” 65′. ..
  • the display area 88 shows that the worker C registers the "tag4" button 64" at 20:20 and simultaneously registers the "Comment” 65".
  • the operation when the second terminal device 3 is used as the display device when playing the tagged moving image data 426 will be described.
  • the third terminal device 30 has the same configuration as the second terminal device 3, and even when the third terminal device 30 is used as a display device when playing a tagged moving image with a tag, the second terminal device 30 It operates in the same way as when 3 is used.
  • the control means 31 controls the communication means 34 by the instruction of the program 321.
  • An instruction to reproduce the tagged moving image data 426 at the time corresponding to the display area 86 is transmitted to the server 4 via the communication network 5.
  • the control unit 41 of the server 4 controls the communication unit 43 to receive an instruction to reproduce the tagged moving image data 426 from the time when the tag is added.
  • the video distribution unit 414 acquires the data of the reproduction time instructed from the tagged moving image data 426 stored in the storage unit 42.
  • the control unit 41 of the server 4 controls the communication unit 43 to deliver the tagged moving image data 426 reproduced from the instructed reproduction time to the second terminal device 3 via the communication network 5.
  • the control means 31 of the second terminal device 3 controls the communication means 34 to receive the distributed tagged moving image data 426.
  • the control means 31 controls the display means 35 according to the instruction of the program 321, and displays the tagged moving image data 426 reproduced from the instructed reproduction time on the display screen 60.
  • the playing time when playing the tagged moving image data 426 from the tagged desired time is not particularly limited, but can be limited to a certain time, for example.
  • the reproduction time may be set to a predetermined time (for example, 5 seconds), or images up to the tag next to the reproduced tag may be reproduced.
  • different reproduction times may be set for each tag content (for example, “tag1” to “tag4”) so that the reproduction time has an appropriate length for the scene corresponding to each tag content.
  • the reproduction time can be set, for example, by the video distribution means 414 of the server 4.
  • the order of displaying the tags 84 and/or the comments 85 may be the order of match time as shown in FIG. 3, or may be sorted by the content of the assigned tags 84 or sorted by the assigned operator. It may be in order.
  • the application or software that reproduces the tagged moving image data 426 which is realized by the program 321 stored in the storage unit 32 of the second terminal device 3, is the same application or software that tags the moving image data 421. , Or another independent application or software.
  • the control means 41 of the server 4 controls the communication means 43 to establish communication with the first terminal device 2, and in the next step S2, the actual game is performed in the first terminal device 2.
  • the moving image data 421 created by shooting the scene is acquired from the first terminal device 2 and the time data of the shooting start time 422 of the moving image data 421 is acquired.
  • the control means 41 causes the storage means 42 to store and store the acquired moving image data 421 and time data of the shooting start time 422, respectively.
  • control means 41 controls the communication means 43 in step S11 to establish communication with the plurality of second terminal devices 3, 3', 3'', and in the next step S12, the second
  • the tag information is generated. It is determined whether or not the data of the generation time 424 has been transmitted.
  • the control unit 41 proceeds to step S13 and acquires this, and the tag information 423 acquired in the next step S14
  • the time data of the tag information generation time 424 is stored and saved in the storage means 42, respectively.
  • the series of steps S11 to S14 are repeated until the distribution of the moving image data 421 sent from the first terminal device 2 is completed, and various procedures acquired from all the second terminal devices 3, 3', 3'' are obtained.
  • the tag information 423 and the data of the tag information generation time 424 are accumulated in the storage means 42.
  • control is performed.
  • the means 41 enables the video distribution means 414 to distribute the tagged moving picture data 426 even while the moving picture data is being uploaded from the first terminal device 2.
  • step S21 the image processing unit 413 incorporated in the control unit 41, based on the time data of the shooting start time 422 read from the storage unit 42 and the elapsed time from the shooting start of the moving image data 421, the tag At the timing synchronized with the information generation time 424, the tag information generation time 424 and the tag information 423 associated with the tag information 423 are added to the specific frame 71 of the video data 421 to generate the tagged video data 426, which is In step S22, it is stored and stored in the storage means 42. Then, in step S31, the video distribution means 414 incorporated in the control means 41 controls the communication means 43 to establish communication with, for example, the third terminal device 30 which has received the distribution request for the tagged moving image data 426. Then, in the next step S32, the tagged moving image data 426 read from the third storage means 42 is distributed to the terminal device 30 via the communication network 5.
  • the video distribution unit 414 determines whether the tag information 423 is tapped on the display screen 81 of the third terminal device 30 in step S33. Whether or not there is a reproduction instruction transmitted from the third terminal device 30.
  • the video distribution unit 414 then proceeds to step S34. Based on the tag information generation time 424 corresponding to the tag information 423, for example, the tagged moving image data 426 from the time when the tag information 423 is added is distributed to the third terminal device 30 and is reproduced and displayed on the display unit 35. ..
  • the second terminal device 3 when the second terminal device 3 is displaying the screen for generating the tag information 423 in step S13, the second moving image data 421 acquired from the first terminal device 2 is displayed.
  • the control means 41 controls the communication means 43 so as not to transmit to the terminal device 3.
  • the moving image data 421 acquired from the first terminal device 2 is not displayed on the display means 35 of the second terminal device 3.
  • the tagged moving image data 426 distributed to the third terminal device 30 in step S32 does not include the time data of the shooting start time 422 acquired in step S2.
  • the photographer uses the first terminal device 2 to photograph, for example, a moving image of a game, and the captured moving image data 421 is transmitted to the server 4.
  • the photographing start time 422 at which the photographing is started is transmitted from the first terminal device 2 to the server 4 at the same time when the photographing is started and the transmission is started.
  • the method of acquiring the shooting start time 422 is not limited to this.
  • a worker such as a coach or an analyst who inputs tags and/or comments using the second terminal device 3 inputs tags and/or comments while watching the actual scene of the match being played.
  • the input tag and/or comment is added to the live video image of the game at any time in real time by the video tagging system 1 including the video tagging device 4 and the video tagging method described in the embodiment. Attached. Therefore, since the tagged video data 426 is created in real time, the director, the coach, and the analyst can select a desired tag from the tagged video data 426 tagged during the match or during the half time. You can give feedback to the players while playing the scene video. Also, what the coach or analyst etc. felt or noticed from the scene actually seen is added to the tagged video data 426 as tags and/or comments, so that accurate feedback can be given to the players. It is possible to carry out an accurate analysis.
  • examples corresponding to the contents of “tag1” to “tag4” in the present embodiment are “goal”, “shoot”, “pass”, “clear”, “saving”, “tackle”,
  • the contents of the event such as “Physical” and the contents representing the evaluation such as “GOOD” and “BAD” can be cited.
  • an operator such as a coach may use the “shoot” button and the “GOOD” button on the display screen 60 of the second terminal device 2.
  • the tag information 423 of "shoot” and “GOOD” is added to the tag corresponding to the time when a worker such as a coach looks at the actual scene and inputs the tag in the live image. Attached.
  • tag information 423 of “shoot” and “GOOD” is displayed corresponding to the time when a worker such as a coach looks at an actual scene and inputs a tag.
  • the tagged moving image data 426 is reproduced from the time when the tag information 423 was input, based on the tag information generation time 424 associated with the tag information 423. Incidentally, it is possible to input only the tag of the content of the event or only the tag of the content showing the evaluation.
  • the photographer uses the first terminal device 2 to photograph, for example, a scene of a match, and the photographed moving image data 421 is transmitted to the server 4.
  • the photographing start time 422 at which the photographing is started is transmitted from the first terminal device 2 to the server 4 at the same time when the photographing is started and the transmission is started.
  • the method of acquiring the shooting start time 422 is not limited to this.
  • a worker such as a coach or an analyst who inputs tags and/or comments using the second terminal device 3 inputs tags and/or comments while watching the actual scene of the match being played.
  • the input tag and/or comment is added to the live video image of the game at any time in real time by the video tagging system 1 including the video tagging device 4 and the video tagging method described in the embodiment. Attached. Therefore, since the tagged video data 426 is created in real time, the director, the coach, and the analyst can select the desired tagged video from the tagged video even during the game or in the shooting inning. You can give feedback to the players while playing the video of the tag scene. Also, what the coach or analyst etc. felt or noticed from the scene actually seen is added to the tagged video data 426 as tags and/or comments, so that accurate feedback can be given to the players. It is possible to carry out an accurate analysis.
  • coaches such as a batting coach, a pitcher coach, an infield defensive coach, an outfield defensive coach, a running base coach, a battery coach, and a training coach.
  • the analysts are also often divided into charge, pitcher, and defense.
  • such a plurality of coaches and analysts can add tag information 423 including tags and/or comments to the video data 421, so that each person can be specialized and specialized. Be able to provide specific guidance and analysis.
  • the pitch type of the pitch is “straight”, the course is “in high”, and the result is “strike”, the worker such as the coach determines that the second terminal device 3
  • "straight", "in high” and “strike” tags are tagged.
  • tags such as “straight”, “in high” and “strike” are displayed corresponding to the time when a worker such as a coach looks at the actual scene and inputs the tag.
  • the tagged moving image data 426 is reproduced from the time when the tag information 423 was input, based on the tag information generation time 424 associated with the tag information 423. Incidentally, it is possible to input only the tag of the content of the event or only the tag of the content showing the evaluation.
  • tags and/or comments may be added not only to the team to which the worker belongs but also to the event related to the other team.
  • the moving picture tagging system 1 and the moving picture tagging method including the moving picture tagging device 4 of the present embodiment can be used not only for group ball games as in the first and second embodiments but also for practice and analysis of athletics, for example, individual competitions such as hurdles. It is applicable.
  • the photographer uses the first terminal device 2 to photograph, for example, a scene in which a player is flying a hurdle, and the photographed moving image data 421 is transmitted to the server 4.
  • the photographing start time 422 at which the photographing is started is transmitted from the first terminal device 2 to the server 4 at the same time when the photographing is started and the transmission is started.
  • the method of acquiring the shooting start time 422 is not limited to this.
  • an operator such as a coach who inputs a tag and/or a comment using the second terminal device 3 inputs a tag and/or a comment while watching an actual scene in which the hurdle is flying.
  • the input tag and/or comment is added to a live image of a scene shooting a hurdle by the video tagging system 1 including the video tagging device 4 and the video tagging method described in the embodiment.
  • Real-time tagged from time to time Therefore, since the tagged video data 426 is created in real time, the coach plays the video of the desired tag scene from the tagged video data 426 immediately after the player finishes running, while the player plays the video. You can give us feedback.
  • the contents of events such as “hurdle”, “interval”, “start”, “GOOD” and “BAD”.
  • "interval” means traveling between two hurdles. For example, if a player beats a hurdle when he or she flies over the hurdle, an operator such as a coach continuously inputs the “hurdle” button and the “BAD” button on the display screen 60 of the second terminal device 3. By doing so, the tags of “hurdle” and “BAD” are tagged to the live video corresponding to the time when a worker such as a coach looks at the actual scene and inputs the tag.
  • tags of "hurdle” and "BAD” are displayed corresponding to the time when a worker such as a coach looks at an actual scene and inputs a tag, and the display area thereof is displayed.
  • the tagged moving image data 426 is played back from the time when the tag was input.
  • the coach can play back the tagged moving image data 426 corresponding to the scene in which the hurdle has been defeated immediately after the player finishes running, and feed back the improvement points of the form to the player.
  • the video tagging device 4 acquires the video data 421 captured by the first terminal device 2 from the first terminal device 2 and starts capturing the video data 421.
  • the time 422 when the moving image data acquisition unit 411 that stores the moving image data 421 and the shooting start time 422 in the storage unit 42 and the tag information 423 including the tag and/or the comment are generated in the second terminal device 3,
  • the tag information 423 is acquired from the second terminal device 3 and the tag information generation time 424 at which the tag information 423 is generated is acquired, and the photographing start time 422 stored in the storage unit 42 and
  • An image processing unit 413 that adds tag information 423 to the moving image data 421 at a timing synchronized with the tag information generation time 424 based on the elapsed time from the start of shooting the moving image data 421.
  • the moving image tagging method acquires moving image data 421 shot by the first terminal device 2 from the first terminal device 2 and also obtains a shooting start time 422 when the shooting of the moving image data 421 is started.
  • the photographing start time 422 and the photographing start of the moving image data 421 stored in the storage unit 42 are started.
  • the moving image data 421 is acquired from the first terminal device 2, and the image capturing start time 422, which is an absolute time, is acquired and stored in the storage unit 42, so that the image capturing start time 422 and the moving image data 421 are captured.
  • the tag to the video data 421 at the timing correctly adjusted to the tag information generation time 424 acquired by the tag information acquisition means 412.
  • Information 423 can be added to create tagged video data 426. Therefore, while watching the actual scene where the worker shoots the moving image instead of the moving image, the tag information 423 including the tag and/or the comment input by the second terminal device 3 is delivered in real time.
  • the video data 421 of a video (actually delivered with a delay of several tens of seconds as described above) can be correctly timed and tagged.
  • the tag information acquisition means 412 can be configured to be able to acquire the tag information 423 from the plurality of second terminal devices 3, 3 ′, 3 ′′.
  • the tag information 423 from the plurality of second terminal devices 3, 3 ′, 3 ′′ can be acquired in the third step.
  • the tag information 423 generated by each of the second terminal devices 3 is accurately set to the video data 421 of the live video delivered in real time while the plurality of workers are watching the actual scene, and the tag is set. You can attach it and share it easily.
  • the video tagging device 4 of the present embodiment when the second terminal device 3 is displaying the screen for generating the tag information 423, the video data 421 acquired from the first terminal device 2 is used as the second terminal device. It is possible to adopt a configuration in which the data is not transmitted to No.
  • the moving image data 421 acquired from the first terminal device 2 is displayed. It is possible to prevent the transmission to the second terminal device 3.
  • the video tagging device 4 of the present exemplary embodiment further includes a video delivery unit 414 for delivering the tagged video data 426 in which the tag information 423 is added to the video data 421, and the shooting start time 422 acquired by the video data acquisition unit 411.
  • the tagged moving image data 426 distributed from the video distribution means 414 may not be included.
  • the moving image tagging method further includes a fifth step of delivering the tagged moving image data 426 in which the tag information 423 is added to the moving image data 421, and the shooting start time 422 acquired in the first step is changed to the fifth step. It is possible not to include in the tagged moving image data 426 distributed in step.
  • the tagged video data 426 can be delivered as it is from the video delivery means 414 without embedding extra information of the shooting start time 422 in the tagged video data 426.
  • the video tagging device 4 of the present embodiment when the video data 426 with tag in which the tag information 423 is added to the video data 421 is being distributed to the third terminal device 30, on the display screen 81 of the third terminal device 30.
  • the video distribution means 414 that distributes the tagged moving image data 426 including the timing synchronized with the tag information generation time 424 corresponding to the tag information 423 to the third terminal device 30. Further provisions can be made.
  • the moving image tagging method of the present exemplary embodiment displays the tagged moving image data 426 in which the tag information 423 is added to the moving image data 421 on the display screen 81 of the third terminal device 30 when delivering to the third terminal device 30.
  • the tag information 423 is tapped, it further has a sixth step of delivering the tagged moving image data 426 including the timing synchronized with the tag information generation time 424 corresponding to the tag information 423 to the third terminal device 30. be able to.
  • the tag information 423 is tapped on the display screen 81 while watching the tagged moving image data 426 on the third terminal device 30, the tagged moving image data 426 related to the tag information 423 is displayed as an image. It is distributed from the distribution means 414 to the third terminal device 30, and the video is reproduced on the third terminal device 30. Therefore, even during a match, half time, in the middle of inning, etc., it is possible to retrieve the scene video and look back at the desired scene with a simple tap operation.
  • the moving image tagging system and the moving image tagging method including the moving image tagging device of the present invention can be used for not only soccer, baseball and athletics (hurdle game) described above but also ball games such as rugby, American football, basketball and volleyball. Of course, it can be applied to practice and analysis such as figure skating, dance, and gymnastics.
  • the present invention is not limited to sports, but can be applied to plays, performances, lectures, speech contests, and various other presentations.
  • the moving picture tagging system and the moving picture tagging method including the moving picture tagging device of the present invention can be realized by using a portable information terminal device such as a smartphone or a tablet terminal, so that it is easy to introduce and use. Since the method is simple, it can be actively used by not only professionals but also amateur workers. For example, parents often shoot and record children's games and demonstrations for practical use, but if you can tag videos in real time while shooting, you can repeat playback and rewind after recording. However, the burden on the parent such as searching for a desired scene is reduced, and it can be greatly useful for improving the ability of the child.
  • the moving picture tagging system and the moving picture tagging method including the moving picture tagging device of the present invention can be used for the actual performance of a game or a demonstration, and can also be used for the practice for the real life.
  • Video Tagging System 2 1st Terminal Device 3 2nd Terminal Device 3 11 Tag Information Generation Means 30 3rd Terminal Device 4 Video Tagging Device (Server) 41 Control means 411 Video data acquisition means 412 Tag information acquisition means 413 Image processing means 414 Video delivery means 42 Storage means 421 Video data 422 Shooting start time 423 Tag information 424 Tag information generation time 425 Identification information 426 Tagged video data 427 Program 43 Communication means 5 Communication network 71 Frame 84 Tag 85 Comment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

映像ではなく動画の撮影対象を見ながら付与されたタグおよび/またはコメントを時刻を合せて動画にタグ付けすることができる動画タグ付け装置を提供する。 動画タグ付け装置4が、第1端末装置2で撮影された動画データ421を第1端末装置2から取得するとともにこの動画データの撮影を開始した撮影開始時刻422を取得すると動画データ421および撮影開始時刻422を記憶手段42に記憶させる動画データ取得手段411と、第2端末装置3でタグおよび/またはコメントを含むタグ情報423が生成されるとこのタグ情報423を前記第2端末装置3から取得するとともに当該タグ情報423が生成されたタグ情報生成時刻424を取得するタグ情報取得手段412と、記憶手段42に記憶された撮影開始時刻422および動画データ421の撮影開始からの経過時間に基づきタグ情報生成時刻424に同期したタイミングで動画データ421にタグ情報423を付与する画像処理手段413とを備える。

Description

動画タグ付け装置および動画タグ付け方法
 本発明は、動画の映像ではなく動画の撮影対象を見ながら入力されたタグおよび/またはコメントを動画に付与(タグ付け)する動画タグ付け装置および動画タグ付け方法に関する。
 従来、例えばスポーツの試合や練習において、スマートフォンやタブレット、キャプチャデバイス等を用いて動画を撮影し、その映像を用いて選手への指導や分析が行われている。この際、撮影した動画データに、例えば得点シーン等の特定のシーンに対して、タグ付けが行われる場合がある。選手の指導を行うコーチ等は、タグが付いた映像から所望のシーンを検索して選手にフィードバックを行う。分析担当者は、タグが付いた映像から所望のシーンを検索して分析レポートを作成する。
 従来の動画にタグ付けする方法としては、動画データをパーソナルコンピュータ等に取込み、その動画を再生しながら、シーンごとにタグ付けが行われることが多い。このような方法の中で、例えば特許文献1では、イベントが発生する時刻データとそのイベントの種類を示す情報の対を含むメタデータを別途作成して、タグが付加されていない撮影済みの動画に当該メタデータを付与することで、動画タグ付けを行うことが提案されている。
特開2008-5010号公報
 上記のような従来の動画タグ付け方法では、動画の撮影後にしかタグ付けの作業が行えない上に、タグ付けを一人で行わなければならず、タグ付けに時間がかかるので、コーチや分析担当者等がタグ付き動画を見ることができるようになるまで時間がかかる問題があった。また、コーチや分析担当者等は、試合中や練習中に感じたことや気づいたことを撮影された動画のシーンと関連付けて選手にフィードバックしたり分析レポートを作成したりしなければならないが、他の人がタグ付けを行った場合には、そのシーンを見つけることにも時間がかかる。さらに、コーチや分析担当者等が、タグ付け後に動画を見ても、実際に見たシーンから感じたことや気づいたことを忘れてしまう虞もある。
 コーチや分析担当者等が実際に見たシーンから感じたことや気づいたことをリアルタイムで自ら動画にタグ付けすることができれば、上記の問題は解決する。しかしながら、動画を撮影するデバイスとタグ付けを行うデバイスとが異なる場合、通信網を介してサーバに動画データをアップロードすると、エンコード等の映像処理や通信時間により、サーバによる動画の再生(ライブ配信)は現実の時刻(絶対時間)より数十秒遅れる。そして、特許文献1に記載のタグが付加されていない撮影済みの動画がそうであるように、撮影される動画データは、絶対時間に関するデータを含まず、撮影開始時刻からの経過時間となる、フレーム数に対応付けられた相対時間に関するデータを含むのみである。したがって、動画の撮影時刻と、実際に見たシーンの絶対時間を有するタグの付与時刻とを合わせて(同期させて)タグ付けを行うことはできない。
 リアルタイムで動画データにタグ付けをしようとする場合、従来の方法とは異なり、タグ付けをしようとする時点で、特許文献1に記載されるような例えば特徴量シーケンス情報が付加されたメタデータは存在しない。したがって、リアルタイムで動画データにタグ付けをする場合、特許文献1のように、メタデータに付加されている特徴量シーケンス情報と未タグ付け動画の特徴量シーケンス情報とを照合して、イベントタイムタグの時刻が未タグ付け動画データのどの時刻に最もマッチするかを検出し、オフセット時間を自動で与える方法は採用することができない。
 本発明は、このような事情に鑑みてなされたものであり、動画の映像ではなく動画の撮影対象を見ながら入力されたタグおよび/またはコメントを時刻を合わせて動画に正しく時刻を合せて付与(タグ付け)することができる動画タグ付け装置および動画タグ付け方法を提供する。
 本発明はかかる課題を解決するため、第1端末装置で撮影された動画データを当該第1端末装置から取得するとともに、この動画データの撮影を開始した撮影開始時刻を取得すると、前記動画データおよび前記撮影開始時刻を記憶手段に記憶させる動画データ取得手段と、第2端末装置でタグおよび/またはコメントを含むタグ情報が生成されると、このタグ情報を前記第2端末装置から取得するとともに、当該タグ情報が生成されたタグ情報生成時刻を取得するタグ情報取得手段と、前記記憶手段に記憶された前記撮影開始時刻および前記動画データの撮影開始からの経過時間に基づき、前記タグ情報生成時刻に同期したタイミングで前記動画データに前記タグ情報を付与する画像処理手段と、を備える動画タグ付け装置を提供する。
 前記動画タグ付け装置では、前記タグ情報取得手段は、複数の前記第2端末装置からのタグ情報を取得可能な構成とする場合がある。
 前記動画タグ付け装置では、前記第2端末装置が前記タグ情報を生成するための画面を表示させているときには、前記第1端末装置から取得した前記動画データを当該第2端末装置に送信しない構成とする場合がある。
 前記動画タグ付け装置は、前記動画データに前記タグ情報を付与したタグ付き動画を配信する映像配信手段をさらに備え、前記動画データ取得手段が取得した前記撮影開始時刻を、前記映像配信手段から配信する前記タグ付き動画データに含めない構成とする場合がある。
 前記動画タグ付け装置は、前記動画データに前記タグ情報を付与したタグ付き動画データを第3端末装置に配信しているときに、前記第3端末装置の表示画面上で前記タグ情報がタップ操作されると、そのタグ情報に対応する前記タグ情報生成時刻に同期したタイミングを含むタグ付き動画データを、当該第3端末装置に配信する映像配信手段をさらに備える場合がある。
 また、本発明は、第1端末装置で撮影された動画データを当該第1端末装置から取得するとともに、この動画データの撮影を開始した撮影開始時刻を取得する第1ステップと、前記動画データおよび前記撮影開始時刻を記憶手段に記憶する第2ステップと、第2端末装置でタグおよび/またはコメントを含むタグ情報が生成されると、このタグ情報を前記第2端末装置から取得するとともに、当該タグ情報が生成されたタグ情報生成時刻を取得する第3ステップと、前記記憶手段に記憶された前記撮影開始時刻および前記動画データの撮影開始からの経過時間に基づき、前記タグ情報生成時刻に同期したタイミングで前記動画データに前記タグ情報を付与する第4ステップと、を含む動画タグ付け方法を提供する。
 前記動画タグ付け方法において、前記第3ステップでは、複数の前記第2端末装置からのタグ情報が取得可能である場合がある。
 前記動画タグ付け方法において、前記第3ステップで、前記第2端末装置が前記タグ情報を生成するための画面を表示させているときには、前記第1端末装置から取得した前記動画データを当該第2端末装置に送信しない場合がある。
 前記動画タグ付け方法において、前記動画データに前記タグ情報を付与したタグ付き動画データを配信する第5ステップをさらに有し、前記第1ステップで取得した前記撮影開始時刻を、前記第5ステップで配信する前記タグ付き動画データに含めない場合がある。
 前記動画タグ付け方法において、前記動画データに前記タグ情報を付与したタグ付き動画データを第3端末装置に配信しているときに、前記第3端末装置の画面上で前記タグ情報がタップ操作されると、そのタグ情報に対応する前記タグ情報生成時刻に同期したタイミングを含むタグ付き動画データを、当該第3端末装置に配信する第6ステップをさらに有する場合がある。
 本発明の動画タグ付け装置および動画タグ付け方法によれば、第1端末装置から動画データを取得するとともに、撮影開始時刻を取得して記憶手段に記憶させることで、この撮影開始時刻と動画データの撮影開始からの経過時間に基づき、現実の時刻に対する動画データの再生時刻のずれを補正して、タグ情報取得手段により取得したタグ情報生成時刻に正しく合せたタイミングで、動画データにタグ情報を付与することができる。そのため、作業者が動画の映像ではなく動画の撮影対象である現実のシーンを見ながら、第2端末装置で入力されたタグおよび/またはコメントを含むタグ情報を、リアルタイムで配信されるライブ映像の動画データに、正しく時刻を合せてタグ付することができる。
本発明の動画タグ付け装置を含む動画タグ付けシステムの概略構成の好適な一実施形態を示すブロック図である。 本発明の動画タグ付け装置を含む動画タグ付けシステムおよび動画タグ付け方法において、タグおよび/またはコメントを動画データにタグ付けする方法の好適な一実施形態を概略的に示す説明図である。 本発明の動画タグ付け装置を含む動画タグ付けシステムおよび動画タグ付け方法において、タグ付けされたタグ付き動画を再生する際の表示画面の好適な一実施形態を概略的に示す図である。 本発明の動画タグ付け装置を含む動画タグ付けシステムおよび動画タグ付け方法において、処理の流れの好適な一実施形態を示すフローチャートである。
 以下、図面を参照して、本発明の動画タグ付け装置および動画タグ付け方法の好ましい実施形態について説明する。
 図1は本実施形態の動画タグ付け装置4を含む動画タグ付けシステム1の全体構成を示すブロック図である。
 本実施形態の動画タグ付けシステム1を実現するための構成として、第1端末装置2、第2端末装置3、動画タグ付け装置4であるサーバおよび通信網5が含まれる。図中、第2端末装置3は1つであるが、複数の第2端末装置3を含むこともできる。また、第2端末装置3と同様の構成の第3端末装置30(図3を参照)を含むこともできる。
 第1端末装置2は、主要な構成要素として、制御手段21と、通信手段22と、表示手段23とを備える。制御手段21は、現実のシーンを撮影して動画データ421を作成する撮影手段211を含む。制御手段21は、通信手段22を制御することにより、通信網5を介してサーバ4や第2端末装置3、第3端末装置30、その他のデバイス(図示せず)との通信を可能にする。通信手段22は、本実施形態では主に、動画データ421をサーバ4にアップロードしたり、動画データ421の撮影開始時刻422をサーバ4の記憶手段42に記憶させるために、撮影開始時刻422のデータをサーバ4に送信したりする目的で使用される。制御手段21は、表示手段23を制御することにより、表示手段23の表示画面(図示せず)に、撮影中の動画等の映像を表示させる。第1端末装置2は、例えば、撮影機能を備えたカメラ付きスマートフォンやカメラ付きタブレット端末、キャプチャデバイス等の携帯型情報端末装置を使用することができる。
 動画データ421は、例えば30fpsや60fps等のフレームレートで撮影手段211により撮影され、時系列に連続する複数のフレーム71(図2を参照)で構成される。各フレーム71には、撮影開始からの経過時間で表されるフレーム時間が対応付けられている。
 第2端末装置3は、主要な構成要素として、制御手段31と、記憶手段32と、入力手段33と、通信手段34と、表示手段35とを備える。制御手段31は、具体的には後述する方法で、例えばタグおよび/またはコメントが付与された時刻を示すタグ情報生成時刻424のデータとともに、タグおよび/またはコメントを含むタグ情報423を生成するタグ情報生成手段311を含む。
 記憶手段32は、例えばインストールにより記憶されるプログラム321を含む。
 制御手段31は、記憶手段32からプログラム321を読み取り、プログラム321は、コンピュータである制御手段31にタグ情報生成手段311を実行させる。入力手段33は、第2端末装置3で、図2に示すタグボタン61,62,63,64が押されたことを制御手段31に伝達したり、コメントを入力して入力されたデータを制御手段31に伝達したりするためのものである。
 入力手段33は、例えばタッチパネル画面に表示された入力キーを含み、当該入力キーを使用して入力された文字等を受け付ける。入力手段33はさらに、例えばタッチパネル画面をタップする等の操作が行われると、制御手段31がプログラム321を読み取ることによりその操作に対応する機能を制御手段31に実行させる入力指示を行う。例えば、作業者が表示画面に表示されたボタンを押した場合、入力手段33により当該ボタンが押されたことが制御手段31に伝達され、制御手段31は、プログラム321の指令により当該ボタンが選択されたことをタグ情報生成手段311に認識させる。入力手段33は、モバイルコンピュータ等が備えるキーボードの入力キーを含んでもよい。また、入力手段33は、音声により入力し、文字データに変換して制御手段31に伝達するものであってもよい。
 制御手段31は、通信手段34を制御することにより、通信網5を介してサーバ4や第1端末装置2、第3端末装置30、その他のデバイス(図示せず)との通信を可能にする。
 制御手段31は、表示手段35を制御することにより、表示手段35の表示画面60(図2を参照)に、プログラム321で生成されたアプリ画面やソフトウェア画面等を表示させる。表示手段35と入力手段33は前述のタッチパネル画面を構成しており、表示手段35の表示画面上に透明電極による入力手段33が配設される。タッチパネル画面では、表示手段35に表示された入力キーやボタン等の上で入力手段33をタッチ操作すると、それに応じた操作信号が入力手段33から制御手段31に送出される構成となっている。
 第2端末装置3は、通信手段34を備え、プログラム321の実行によりアプリやソフトウェアを起動可能なデバイスであり、例えば、スマートフォンやタブレット端末、モバイルコンピュータ等の携帯型情報端末装置を使用することができる。例えば分析を行う場合等には、タグ付き動画データ426を再生して表示する第2端末装置3として、デスクトップ型のパーソナルコンピュータ等を使用することもできる。
 構成上可能であれば、撮影用端末デバイスである第1端末装置2に、タグ付け用端末デバイスである第2端末装置3の機能を持たせるために、第1端末装置2が入力手段33とタグ情報生成手段311とを有するようにしてもよいが、通常は、第1端末装置2と第2端末装置3とは異なるデバイスとすることが好ましい。
 本発明の動画タグ付け装置であるサーバ4は、本実施形態では、主要な構成要素として、制御手段41と、記憶手段42と、通信手段43とを備える。制御手段41は、動画データ取得手段411と、タグ情報取得手段412と、画像処理手段413と、映像配信手段414とを含む。制御手段41は、通信手段43を制御することにより、通信網5を介して第1端末装置2や第2端末装置3、第3端末装置30、その他のデバイス(図示せず)との通信を可能にする。通信手段43は、本実施形態では主に、第1端末装置2から送信された動画データ421を受信してサーバ4に動画をアップロードしたり、第2端末装置3や第3端末装置30等にタグ付き動画データ426を送信したりする目的で使用される。制御手段41の動画データ取得手段411は、第1端末装置2からアップロードされた動画データ421、および、第1端末装置2からの送信等により取得された動画の撮影開始時刻422のデータを記憶手段42に記憶させる。特に撮影開始時刻422に関しては、動画データ取得手段411は、動画データ421の撮影を開始した撮影開始時刻422を例えば第1端末装置2の制御手段21に組み込まれた計時手段(図示せず)がカウントする時刻データに基づき取得すると、取得した撮影開始時刻422を記憶手段42に記憶させる。制御手段41の画像処理手段413は、具体的には後述する方法で、記憶手段42から読み出した撮影開始時刻422および動画データの撮影開始からの経過時間に基づき、タグ情報生成時刻424に同期したタイミングで動画データ421にタグ情報423を付与するようなタグ付き動画データ426を作成し、記憶手段42に記憶させる。制御手段41の映像配信手段414は、通信手段43を制御して、画像処理手段413で生成されたタグ付き動画データ426を、例えば第2端末装置3や第3端末装置30等の映像配信用端末デバイスに向けて映像配信する。
 サーバ4の記憶手段42は、例えばインストールにより記憶されるプログラム427を含む。サーバ4のハードウェア構成は、いわゆる一般的なものであって、コンピュータである制御手段41が中央演算処理装置(CPU)を備え、ROM(Read Only Memory)やハードディスク等の記憶手段42に記憶されたプログラム427を実行する。プログラム427は、コンピュータである制御手段41に、動画データ取得手段411、タグ情報取得手段412、画像処理手段413および映像配信手段414を実行させる。
 通信網5はインターネット等の通信インフラである。
 サーバ4の映像配信手段414による映像配信、特にリアルタイムにタグ付き動画データ426を映像として配信するライブ配信について、図2を参照しながら説明する。
 最初に、第1端末装置2により、18:55の時刻に撮影が開始される。第1端末装置2の制御手段21は、通信手段22を制御して、通信網5を介してサーバ4に動画データ421をアップロードする。サーバ4の制御手段41は、通信手段43を制御して動画データ421を受信し、記憶手段42に記憶させる。この間に、動画データ421のエンコード等の映像処理が行われる時間と、通信時間とにより、動画撮影が開始されてから数十秒(通常15~30秒程度)が経過している。この遅れ時間は、第1端末装置2およびサーバ4のスペックや、通信網5の環境および状況等により異なるので、特定の遅れ時間を予測または推定し、その特定の遅れ時間を、時刻を同期するためのずれ時間として設定することはできない。
 本実施形態の動画タグ付け装置4を含む動画タグ付けシステム1および動画タグ付け方法では、第1端末装置2からサーバ4への動画データ421のアップロード開始時に、第1端末装置2の制御手段21に組み込まれた計時手段(図示せず)がカウントする時刻データを、第1端末装置2による動画データ421の撮影を開始した撮影開始時刻422として、その動画データ421と一緒にアップロードする。サーバ4の制御手段41が有する動画データ取得手段411は、この撮影開始時刻422の時刻データを記憶手段42に記憶させる。画像処理手段413は、記憶手段42に記憶された動画データ421の開始時刻を、記憶手段42に記憶された撮影開始時刻422とする。映像配信手段414による配信開始はT時点であるが、このT時点に、実際に撮影が開始された時刻である18:55が設定される。TLとした線は配信されるライブ映像の時間経過を示すタイムラインであり、タイムラインTLの括弧内に記載された時刻が、動画データ421にひも付けられた絶対時間である。これらの括弧内に記載された時刻は、括弧内に記載された時刻の映像が実際に配信される時刻よりも、例えば15~30秒程度遅れた時刻になる。
 撮影開始時刻422の取得方法は、動画データ421の撮影を開始した絶対時間を取得できるものであれば、特に限定されない。例えば、サーバ4の制御手段41に組み込まれた計時手段(図示せず)がカウントする時刻データから撮影開始時刻422を取得してもよい。この場合、制御手段41の動画データ取得手段411は、例えば撮影が開始されたことを第1端末装置2から別途受信し、その時点のサーバ4の計時手段による時刻データを、第1端末装置2による動画データ421の撮影を開始した撮影開始時刻422として、記憶手段42に記憶させる。また、その他の計時手段(図示せず)がカウントする時刻データから撮影開始時刻422を取得してもよい。
 第1端末装置2により撮影される動画データ421は、上述の絶対時間(タイムラインTLの括弧内に記載された時刻)に関するデータを含まず、撮影開始時刻422からの経過時間となる相対時間に関するデータを含むのみである。すなわち、上述のように、動画データ421の各フレーム71には、撮影開始からの経過時間で表されるフレーム時間が対応付けられている。したがって、サーバ4の記憶手段42に記憶された撮影開始時刻422に当該フレーム時間を加算することで、各フレーム71が撮影された実際の時刻(絶対時間)を算出することができる。図2の例で説明すると、配信開始時点であるTの時刻が撮影開始時刻422の18:55であるのに対し、試合開始時点であるTまでの経過時間であるフレーム時間が例えば5分である場合に、18:55に同じ時間である5分を加算して、試合開始時刻が19:00であると算出することができる。このようにして、絶対時間を持たない動画データ421に、実際に撮影された時刻をひも付けることができる。
 サーバ4の画像処理手段413は、記憶手段42に記憶された動画データ421に、このようにして算出された動画時刻、すなわち実際の撮影時刻(絶対時間)データを付与し、記憶手段42に記憶させるようにしてもよい。例えば、付与された実際の撮影時刻(絶対時間)データは、その時刻が動画時刻として各フレーム71に対応付けられ、各フレーム71の識別情報425として使用されることができる。
 尚、図2中、図示したフレーム71の大きさは模式的に表したものであり、フレーム71の位置と時刻を示す位置との関係は、実際のものとは異なる。
 図2中、TRとした線は現実の時間、例えば現実の試合の時間経過を示すタイムラインである。ここでは、試合開始時刻を19:00としている。タイムラインTR上に次に記載されている時刻19:15に、動画データ421を撮影している第1端末装置2とは異なるデバイスである第2端末装置3を有する作業者Aが、第2端末装置3の表示手段35に表示されたアプリまたはソフトウェアの表示画面60上で入力手段33を操作して、タグおよび/またはコメントのタグ付けを行っている。このとき、作業者Aは、リアルタイムで配信されている動画データ421のライブ映像を見ながら第2端末装置3の入力手段33への操作を行うのではなく、実際に行われている現実の試合のシーンを見ながら第2端末装置3の入力手段33への操作を行う。したがって、コーチや分析担当者等が第2端末装置3を利用して、実際に見たシーンから感じたことや気づいたことをリアルタイムで自らタグ付けすることができる。
 タイムラインTR上の時刻20:10には、作業者Aと異なる作業者Bが、作業者Aと同様に、第2端末装置3’の入力手段33への操作を行って、タグおよび/またはコメントのタグ付けを行っている。同様に、時刻20:20には、作業者Cが、第2端末装置3’’の入力手段33への操作を行って、タグおよび/またはコメントのタグ付けを行っている。例えば、作業者Aはコーチ、作業者Bはディフェンス分析担当者、作業者Cはオフェンス分析担当者である。各担当により着目すべき点が異なるが、複数の作業者A,BおよびCがそれぞれ自ら同時に第2端末装置3,3’,3’’を利用して、タグおよび/またはコメントのタグ付けを行うことができる。さらに、自らタグ付けを行うので、通信網5を介して映像配信手段414から第2端末装置3に配信されるタグ付き動画データ426を表示手段35に表示させて、そこから所望のシーンを検索する際に、容易に検索することができる。
 このように、サーバ4の制御手段41に組み込まれたタグ情報取得手段412は、通信網5を介して、複数の第2端末装置3,3’,3’’からのタグ情報をそれぞれ取得できる構成となっている。また、各作業者A,B,Cが現実の試合のシーンからではなく、自身が保有する第2端末装置3,3’,3’’でライブ映像を見ながら、誤ったタイミングでタグ付けが行われるのを防ぐために、少なくとも第2端末装置3,3’,3’’側で図2に示すようなタグ情報を生成するタグ付け用の表示画面60,60’,60’’を表示手段35に表示させている間は、第1端末装置2から取得した動画データ421を、これらの第2端末装置3,3’,3’’に通信網5を介して配信しないように、サーバ4側の映像配信手段414を構成している。
 作業者A,BおよびCがそれぞれの保有する第2端末装置3,3’,3’’を操作してタグおよび/またはコメントのタグ付けを行う際の、本実施形態の動画タグ付け装置4を含む動画タグ付けシステム1の動作について具体的に説明する。
 第2端末装置3,3’,3’’の表示画面60,60’,60’’には、制御手段31が、記憶手段32に記憶されたプログラム321を読み出して、アプリまたはソフトウェアを起動し、タグを付与する際に入力手段33から押すことのできる「tag1」ボタン61,61’,61’’、「tag2」ボタン62,62’,62’’、「tag3」ボタン63,63’,63’’および「tag4」ボタン64,64’,64’’を含むタグボタンと、コメントを付与する際にコメントを入力することのできる「Comment」欄65,65’,65’’と、タグおよび/またはコメントの付与を決定する際に押すことのできる「登録」ボタン66,66’,66’’とを表示手段35に表示させている。
 第2端末装置3において、入力手段33により例えば「tag1」ボタン61が押されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により「tag1」ボタン61が選択されたことをタグ情報生成手段311に認識させる。「tag1」ボタン61が選択された状態で入力手段33により「登録」ボタン66が押されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により、「tag1」を動画データ421にタグ付けする指示をタグ情報生成手段311に認識させる。制御手段31は、通信手段34を制御して、「tag1」を動画データ421にタグ付けする指示を、通信網5を介してサーバ4に送信する。その際、制御手段31は、「登録」ボタン66が押されたことが伝達されたタグ情報生成時刻424を指示に付加して送信する。タグ情報生成時刻424は第2端末装置3の制御手段31に組み込まれた計時手段(図示せず)がカウントする時刻データである絶対時間の時刻とすることができる。サーバ4のタグ情報取得手段412は、タグ情報生成時刻424を含むタグ情報423を、または、タグ情報生成時刻424とともに送信されるタグ情報423をタグ情報生成時刻424とともに、第2端末装置3から取得する。
 タグ情報423を2つ以上同時に動画データ421にタグ付けする場合、例えば「tag1」および「tag2」を、第1端末装置2から送られてくる動画データ421に同時に動画にタグ付けする場合は、「tag1」ボタン61が選択されたことがタグ情報生成手段311に認識された後、入力手段33により「tag2」ボタン62が押されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により「tag2」ボタン62が選択されたことをタグ情報生成手段321に認識させる。「tag1」ボタン61および「tag2」ボタン62の両方が選択された状態で入力手段33により「登録」ボタン66が押されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により、「tag1」および「tag2」を動画データ421にタグ付けする指示をタグ情報生成手段311に認識させる。制御手段31は、通信手段34を制御して、「tag1」および「tag2」を動画データ421にタグ付けする指示を、通信網5を介してサーバ4に送信する。その際、制御手段31は、「登録」ボタン66が押されたことが伝達されたタグ情報生成時刻424を指示に付加して送信する。タグ情報生成時刻424は第2端末装置3の制御手段31に組み込まれた計時手段(図示せず)がカウントする時刻データである絶対時間の時刻とすることができる。サーバ4のタグ情報取得手段412は、タグ情報生成時刻424を含むタグ情報423を、または、タグ情報生成時刻424とともに送信されるタグ情報423をタグ情報生成時刻424とともに、第2端末装置3から取得する。
 動画データ421にタグ付けする指示を送信するための入力を簡便にする目的で、「登録」ボタン66を押すことなく、「tag1」ボタン61等のタグボタンを押すと同時に動画データ421にタグ付けする指示が送信されるようにしてもよい。すなわち、入力手段33により例えば「tag1」ボタン61が押されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により「tag1」を動画データ421にタグ付けする指示をタグ情報生成手段311に認識させる。制御手段31は、通信手段34を制御して、「tag1」を動画データ421にタグ付けする指示を、通信網5を介してサーバ4に送信する。その際、制御手段31は、「tag1」ボタン61が押されたことが伝達されたタグ情報生成時刻424を指示に付加して送信する。タグ情報生成時刻424は第2端末装置3の制御手段31に組み込まれた計時手段(図示せず)がカウントする時刻データである絶対時間の時刻とすることができる。サーバ4のタグ情報取得手段412は、タグ情報生成時刻424を含むタグ情報423を、または、タグ情報生成時刻424とともに送信されるタグ情報423をタグ情報生成時刻424とともに、第2端末装置3から取得する。
 第2端末装置3において、入力手段33により例えば「Comment」欄65にテキストが入力されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により「Comment」欄65に文字が入力されたことをタグ情報生成手段311に認識させる。「Comment」欄65に文字が入力された状態で入力手段33により「登録」ボタン66が押されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により、「Comment」欄65に入力されたコメントを動画データ421にタグ付けする指示をタグ情報生成手段311に認識させる。制御手段31は、通信手段34を制御して、「Comment」欄65に入力されたコメントを動画データ421にタグ付けする指示を、通信網5を介してサーバ4に送信する。その際、制御手段31は、「登録」ボタン66が押されたことが伝達されたタグ情報生成時刻424を指示に付加して送信する。タグ情報生成時刻424は第2端末装置3の制御手段31に組み込まれた計時手段(図示せず)がカウントする時刻データである絶対時間の時刻とすることができる。サーバ4のタグ情報取得手段412は、タグ情報生成時刻424を含むタグ情報423を、または、タグ情報生成時刻424とともに送信されるタグ情報423をタグ情報生成時刻424とともに、第2端末装置3から取得する。
 タグ情報生成時刻424の取得方法は、タグ情報423が登録された絶対時間を取得できるものであれば、特に限定されない。例えば、サーバ4の制御手段41に組み込まれた計時手段(図示せず)がカウントする時刻データからタグ情報生成時刻424を取得してもよい。この場合、制御手段41のタグ情報取得手段412は、例えばタグ情報423を第2端末装置3から受信した時点のサーバ4の計時手段による時刻データを、第2端末装置3によりタグ情報423が登録されたタグ情報生成時刻424として、記憶手段42に記憶させる。また、その他の計時手段(図示せず)がカウントする時刻データからタグ情報生成時刻424を取得してもよい。
 制御手段41のタグ情報取得手段412が、通信手段43を制御して、「tag1」等のタグおよび/またはコメントを動画データ421にタグ付けする指示、および、タグ情報生成時刻424を受信した後、画像処理手段413は、記憶手段42に記憶された動画データ421に対して、動画時刻としてフレーム71に付与された実際の撮影時刻(絶対時間)データである識別情報425と、受信したタグ情報生成時刻424とが一致するフレーム71に、「tag1」等のタグおよび/またはコメントを含むタグ情報423を付与する。映像配信手段414は、通信手段43を制御して、「tag1」等のタグおよび/またはコメントが、動画時刻とタグ情報生成時刻424とが適切に同期したタイミングで付与されたタグ付き動画データ426を、通信網5を介して、第2端末装置3や第3端末装置30(図3を参照)等に向けて配信可能にする。このようにして、記憶手段42に記憶された動画の撮影開始時刻422に基づき算出した動画時刻を含む識別情報425に、タグおよび/またはコメントを含むタグ情報423のタグ情報生成時刻424を同期したタイミングで、記憶手段42に記憶される動画データ421に、タグおよび/またはコメントを含んだタグ情報423を付与することができる。動画データ421にタグ情報423を付与したタグ付き動画データ426を配信する映像配信手段414は、動画データ取得手段411が例えば第1端末装置2から取得した撮影開始時刻422を、映像配信手段414から配信するタグ付き動画データ426に含めないようにしてもよい。
 第2端末装置3,3’,3’’が複数である場合、「tag1」~「tag4」の内容は、第2端末装置3,3’,3’’ごとに異なる内容とすることもできる。例えば、上記のように、作業者Aがコーチ、作業者Bがディフェンス分析担当者、作業者Cがオフェンス分析担当者である場合、各担当が必要とし、使用頻度の高い内容をそれぞれのタグに設定することができる。図2および図3ではタグが「tag1」~「tag4」の4つである場合を示しているが、タグの数は特に限定されない。
 サーバ4の映像配信手段414は、タグ情報423を付与したタグ付き動画データ426を第2端末装置3や第3端末装置30に配信しているときに、第2端末装置3や第3端末装置30の表示画面81上でタグ情報423がタップ操作されると、そのタグ情報423に対応するタグ情報生成時刻424に同期したタイミングを含むタグ付き動画データ426を、第2端末装置3や第3端末装置30に配信して、表示画面81に再生させることができる。以下、タグ付き動画データ426の配信および再生について説明する。
 図3は、タグ付けされたタグ付き動画データ426を再生する際の表示画面81の好適な一実施形態を概略的に示す図である。タグ付けされたタグ付き動画データ426を再生する映像配信用端末デバイスは、例えば第2端末装置3や第3端末装置30であり、またはアプリやソフトウェアをインストールして実行することができる装置である。表示画面81の例えば上方には、撮影の対象である例えば試合の映像を表示する画面82が設けられる。映像の再生に対しては、表示画面81に表示された操作ボタン群83により、再生や一時停止、早送り、早戻し、次のシーンの再生、前のシーンの再生、再生速度変更等の操作が可能である。
 表示画面81の例えば下方には、タイムラインTLを縦軸として、タグ84および/またはコメント85が、付与された時刻の順に表示されている。表示領域86は、作業者Aが時刻19:15に「tag1」ボタン61および「tag2」ボタン62を登録し、同時に「Comment」65を登録したことを示す。タグ情報423を含む当該表示領域86をタップ操作すると、動画の時刻19:15からの映像が再生される。利便性の向上を目的として、タグ付けされた時刻19:15の例えば所定の時間前(例えば5秒前)または所定のフレーム数前から再生するようにしてもよい。表示領域87は、作業者Bが時刻20:10に「tag1」ボタン61’、「tag3」ボタン63’および「tag2」ボタン62’を登録し、同時に「Comment」65’を登録したことを示す。表示領域88は作業者Cが時刻20:20に「tag4」ボタン64’’を登録し、同時に「Comment」65’’を登録したことを示す。タグ情報423を含む表示領域87および表示領域88をタップ操作した場合も、表示領域86をタップ操作した場合と同様にして対応する時刻の映像が再生される。
 タグ付けされたタグ付き動画データ426を再生する際の表示装置として第2端末装置3を使用した場合の動作を説明する。第3端末装置30は、第2端末装置3と同様の構成を有し、タグ付けされたタグ付き動画を再生する際の表示装置として第3端末装置30を使用した場合も、第2端末装置3を使用した場合と同様に動作する。第2端末装置3において、入力手段33により例えば表示領域86がタップ操作されたことが制御手段31に伝達されると、制御手段31は、プログラム321の指令により、通信手段34を制御して、表示領域86に対応する時刻のタグ付き動画データ426を再生する指示を、通信網5を介してサーバ4に送信する。サーバ4の制御手段41は、通信手段43を制御して、タグが付与された時刻からタグ付き動画データ426を再生する指示を受信する。映像配信手段414は、記憶手段42に記憶されたタグ付き動画データ426から指示された再生時刻のデータを取得する。サーバ4の制御手段41は、通信手段43を制御して、指示された再生時刻から再生されるタグ付き動画データ426を、通信網5を介して、第2端末装置3に向けて配信する。第2端末装置3の制御手段31は、通信手段34を制御して、配信されたタグ付き動画データ426を受信する。制御手段31は、プログラム321の指令により、表示手段35を制御して、指示した再生時刻から再生されるタグ付き動画データ426を表示画面60に表示させる。
 タグ付けされた所望の時刻からタグ付き動画データ426を再生する際の再生時間は、特に限定されないが、例えば一定の時間に制限することもできる。例えば、再生時間を所定の時間(例えば5秒)に設定してもよいし、再生したタグの次のタグまでの映像を再生するようにしてもよい。また、それぞれのタグの内容に対応するシーンに適切な長さの再生時間となるように、タグの内容(例えば「tag1」~「tag4」)ごとに、異なる再生時間を設定してもよい。再生時間は、例えばサーバ4の映像配信手段414が設定するように構成することができる。
 タグ84および/またはコメント85を表示する順序は、図3のように試合時間順であってもよいし、付与されたタグ84の内容によってソートしたり、付与した作業者によってソートして並び替えた順であってもよい。
 第2端末装置3の記憶手段32に記憶されたプログラム321により実現される、タグ付き動画データ426を再生するアプリまたはソフトウェアは、動画データ421にタグ付けを行うアプリまたはソフトウェアと同一のアプリまたはソフトウェアであってもよいし、独立した別のアプリまたはソフトウェアであってもよい。
 本実施形態のサーバ4が実行する動画タグ付け方法の流れについて、図4の本発明の動画タグ付け方法の好適な一実施形態を示すフローチャートを用いて説明する。
 最初のステップS1では、サーバ4の制御手段41が通信手段43を制御して、第1端末装置2との間で通信を確立させ、次のステップS2において、第1端末装置2で実際の試合のシーンを撮影して作成された動画データ421を当該第1端末装置2から取得するとともに、この動画データ421の撮影開始時刻422の時刻データを取得する。制御手段41はステップS3において、取得した動画データ421と撮影開始時刻422の時刻データを、それぞれ記憶手段42に記憶保存させる。
 それとは別に、制御手段41はステップS11で通信手段43を制御して、複数の第2端末装置3,3’,3’’との間で通信を確立させ、次のステップS12において、第2端末装置3,3’,3’’の何れかから、前述したタグ情報423のデータと、第2端末装置3,3’,3’’からタグ情報生成時刻424を取得する場合にはタグ情報生成時刻424のデータとが送信されたか否かを判断する。タグ情報423と、必要に応じてタグ情報生成時刻424の時刻データとが送信されると、制御手段41はステップS13に移行してこれを取得し、次のステップS14で取得したタグ情報423とタグ情報生成時刻424の時刻データを、それぞれ記憶手段42に記憶保存させる。ステップS11~S14の一連の手順は、第1端末装置2から送られてくる動画データ421の配信が終了するまで繰り返され、全ての第2端末装3,3’,3’’から取得した様々なタグ情報423とタグ情報生成時刻424のデータとが、記憶手段42に蓄積されていく。
 前述のステップS3で動画データ421と撮影開始時刻422の時刻データが記憶手段42に記憶され、またステップS14でタグ情報423とタグ情報生成時刻424のデータが記憶手段42に記憶されると、制御手段41は第1端末装置2からアップロードで動画データを取得している最中であっても、映像配信手段414によるタグ付き動画データ426の配信を可能にする。
 具体的にはステップS21において、制御手段41に組み込まれた画像処理手段413が、記憶手段42から読み出した撮影開始時刻422の時刻データと、動画データ421の撮影開始からの経過時間に基づき、タグ情報生成時刻424に同期したタイミングで、そのタグ情報生成時刻424とひも付けられたタグ情報423を、動画データ421の特定のフレーム71に付与したタグ付き動画データ426を生成し、これを次のステップS22で記憶手段42に記憶保存させる。その後、ステップS31において、制御手段41に組み込まれた映像配信手段414は通信手段43を制御して、タグ付き動画データ426の配信リクエストを受けた例えば第3端末装置30との間で通信を確立させ、次のステップS32において、その第3記憶手段42から読み出したタグ付き動画データ426を、通信網5を介して端末装置30に配信する。
 こうして第3端末装置30にタグ付き動画データ426が配信されている最中に、映像配信手段414はステップS33において、第3端末装置30の表示画面81上でタグ情報423がタップ操作されたか否かを、当該第3端末装置30から送信される再生指示の有無に基づいて判断する。ここで第3端末装置30の表示画面81上で、特定のタグ情報423についてタップ操作があり、第3端末装置30から再生の指示が送信されると、次に映像配信手段414はステップS34において、そのタグ情報423に対応するタグ情報生成時刻424に基づき、例えば当該タグ情報423が付与された時刻からのタグ付き動画データ426を第3端末装置30に配信し、表示手段35に再生表示させる。
 上述したサーバ4の一連の手順では、ステップS13で第2端末装置3がタグ情報423を生成するための画面を表示させているときに、第1端末装置2から取得した動画データ421を第2端末装置3に送信しないように、制御手段41が通信手段43を制御する。これにより第2端末装置3の表示手段35には、第1端末装置2から取得した動画データ421が表示されない。また、ステップS32で第3端末装置30に配信されるタグ付き動画データ426には、ステップS2で取得した撮影開始時刻422の時刻データを含めないようにする。
 本実施形態の動画タグ付け装置4を含む動画タグ付けシステム1および動画タグ付け方法を応用することができる実施例について説明する。下記実施例において、第1端末装置2、第2端末装置3、第3端末装置30およびサーバ4の各構成要素の具体的な動作は、上記の実施形態で述べた通りである。
<サッカー>
 サッカーの試合は、例えば前半45分と、後半45分とで行われ、試合時間が非常に長い。さらに、試合中、タグおよび/またはコメントを付与したいイベントも非常に多い。したがって、録画した動画を再生しながら一人でタグ付けを行う従来の方法では、監督やコーチ、分析担当者がタグ付けされた動画データを見られるようになるのは、通常、試合の翌日であった。
 本実施例では、撮影者が第1端末装置2を用いて例えば試合の動画を撮影するとともに、撮影した動画データ421がサーバ4に送信される。動画データ421を送信する際、例えば、撮影が開始され送信が始まると同時に、撮影を開始した撮影開始時刻422が第1端末装置2からサーバ4に送信される。尚、撮影開始時刻422の取得方法はこれに限定されない。一方、第2端末装置3を用いてタグおよび/またはコメントを入力するコーチや分析担当者等の作業者が、行われている試合の実際のシーンを見ながらタグおよび/またはコメントを入力する。入力されたタグおよび/またはコメントは、実施形態で説明した動画タグ付け装置4を含む動画タグ付けシステム1および動画タグ付け方法により、試合を撮影しているライブ映像に対して、リアルタイムで随時タグ付けされる。したがって、リアルタイムでタグ付き動画データ426が作成されるので、監督やコーチ、分析担当者は、試合中や、ハーフタイムの最中に、タグ付けされたタグ付き動画データ426から、所望のタグのシーンの映像を再生しながら、選手にフィードバックすることができる。また、コーチや分析担当者等が実際に見たシーンから感じたことや気づいたことが、タグおよび/またはコメントとしてタグ付き動画データ426に付与されているので、選手に対して的確なフィードバックを行ったり、的確な分析を行ったりすることができる。
 例えばサッカーチームでは、ディフェンスやオフェンス、ゴールキーパー等の各ポジションを担当する複数のコーチが存在する場合がある。またフィジカル担当のコーチやトレーナーが存在する場合もある。分析担当者も、ディフェンス担当とオフェンス担当に分かれていることが多い。本実施例では、そのような複数のコーチやトレーナー、分析担当者が、それぞれタグおよび/またはコメントを含んだタグ情報423を動画データ421に付与することができるので、各担当に特化してより専門的な指導や分析を行うことができる。
 本実施例において、本実施形態の「tag1」~「tag4」の内容に対応する例としては、「ゴール」や、「シュート」、「パス」、「クリア」、「セービング」、「タックル」、「フィジカル」等のイベントの内容や、「GOOD」や「BAD」といった評価を表す内容等が挙げられる。例えば、選手がシュートを放ち、そのシュートの評価が良いものであったと判断される場合には、コーチ等の作業者が、第2端末装置2の表示画面60で、「シュート」ボタンおよび「GOOD」ボタンを続けて入力することにより、ライブ映像に対し、コーチ等の作業者が実際のシーンを見てタグを入力した時刻に対応して、「シュート」および「GOOD」のタグ情報423がタグ付けされる。タグ付き動画データ426を再生する表示画面81では、コーチ等の作業者が実際のシーンを見てタグを入力した時刻に対応して「シュート」および「GOOD」のタグ情報423が表示され、その表示領域がタップ操作されると、タグ情報423にひも付けられたタグ情報生成時刻424に基づき、タグ情報423が入力された時刻からタグ付き動画データ426が再生される。尚、イベントの内容のタグのみ、または、評価を表す内容のタグのみを入力することもできる。
<野球>
 野球の試合では、従来、早い場合であっても、例えば1イニングが終了した時点で、人手によって区切られた1イニング分の撮影した動画データを再生しながら、その動画データにタグ付けを行っていた。また、実施例1のサッカーの場合と同様に、試合時間は非常に長く、さらに、試合中、タグおよび/またはコメントを付与したいイベントも非常に多い。したがって、録画した動画データを再生しながら一人でタグ付けを行う従来の方法では、監督やコーチ、分析担当者がタグ付けされた動画データを見られるようになるまで時間がかかっていた。
 本実施例では、撮影者が第1端末装置2を用いて例えば試合のシーンを撮影するとともに、撮影した動画データ421がサーバ4に送信される。動画データ421を送信する際、例えば、撮影が開始され送信が始まると同時に、撮影を開始した撮影開始時刻422が第1端末装置2からサーバ4に送信される。尚、撮影開始時刻422の取得方法はこれに限定されない。一方、第2端末装置3を用いてタグおよび/またはコメントを入力するコーチや分析担当者等の作業者が、行われている試合の実際のシーンを見ながらタグおよび/またはコメントを入力する。入力されたタグおよび/またはコメントは、実施形態で説明した動画タグ付け装置4を含む動画タグ付けシステム1および動画タグ付け方法により、試合を撮影しているライブ映像に対して、リアルタイムで随時タグ付けされる。したがって、リアルタイムでタグ付き動画データ426が作成されるので、監督やコーチ、分析担当者は、試合途中や撮影しているイニングの途中であっても、タグ付けされたタグ付き動画から、所望のタグのシーンの映像を再生しながら、選手にフィードバックすることができる。また、コーチや分析担当者等が実際に見たシーンから感じたことや気づいたことが、タグおよび/またはコメントとしてタグ付き動画データ426に付与されているので、選手に対して的確なフィードバックを行ったり、的確な分析を行ったりすることができる。
 例えば野球チームでは、打撃コーチや、投手コーチ、内野守備コーチ、外野守備コーチ、走塁コーチ、バッテリーコーチ、トレーニングコーチ等、複数のコーチが存在する場合がある。分析担当者も、打撃や投手、守備等の各担当に分かれていることが多い。本実施例では、そのような複数のコーチや分析担当者が、それぞれタグおよび/またはコメントを含んだタグ情報423を、動画データ421に付与することができるので、各担当に特化してより専門的な指導や分析を行うことができる。
 本実施例において、本実施形態の「tag1」~「tag4」の内容に対応する例としては、「ヒット」や、「ホームラン」等の打撃に関するイベントの内容や、「ストレート」、「カーブ」、「インハイ」、「アウトロー」等の投球に関するイベントの内容、および、「ストライク」や「ボール」、「GOOD」、「BAD」といった評価を表す内容等が挙げられる。例えば、投手が投球し、その投球の球種が「ストレート」で、コースが「インハイ」であり、結果が「ストライク」であった場合には、コーチ等の作業者が、第2端末装置3の表示画面60で、「ストレート」ボタン、「インハイ」ボタンおよび「ストライク」ボタンを続けて入力することにより、ライブ映像に対し、コーチ等の作業者が実際のシーンを見てタグを入力した時刻に対応して、「ストレート」、「インハイ」および「ストライク」のタグがタグ付けされる。タグ付き動画データ426を再生する表示画面81では、コーチ等の作業者が実際のシーンを見てタグを入力した時刻に対応して「ストレート」、「インハイ」および「ストライク」のタグが表示され、その表示領域がタップ操作されると、タグ情報423にひも付けられたタグ情報生成時刻424に基づき、タグ情報423が入力された時刻からタグ付き動画データ426が再生される。尚、イベントの内容のタグのみ、または、評価を表す内容のタグのみを入力することもできる。
 実施例1および実施例2では、作業者の所属するチームだけではなく、相手方のチームに関するイベントに対しても、タグおよび/またはコメントを付与してもよい。
<陸上(ハードル競技)>
 本実施形態の動画タグ付け装置4を含む動画タグ付けシステム1および動画タグ付け方法は、実施例1および2のような団体球技の他、陸上、例えばハードル競技といった個人競技の練習や分析にも応用可能である。
 本実施例では、撮影者が第1端末装置2を用いて例えば選手がハードルを飛んでいるシーンを撮影するとともに、撮影した動画データ421がサーバ4に送信される。動画データ421を送信する際、例えば、撮影が開始され送信が始まると同時に、撮影を開始した撮影開始時刻422が第1端末装置2からサーバ4に送信される。尚、撮影開始時刻422の取得方法はこれに限定されない。一方、第2端末装置3を用いてタグおよび/またはコメントを入力するコーチ等の作業者が、ハードルを飛んでいる実際のシーンを見ながらタグおよび/またはコメントを入力する。入力されたタグおよび/またはコメントは、実施形態で説明した動画タグ付け装置4を含む動画タグ付けシステム1および動画タグ付け方法により、ハードルを飛んでいるシーンを撮影しているライブ映像に対して、リアルタイムで随時タグ付けされる。したがって、リアルタイムでタグ付き動画データ426が作成されるので、コーチは、選手が走り終えた直後に、タグ付けされたタグ付き動画データ426から、所望のタグのシーンの映像を再生しながら、選手にフィードバックすることができる。
 本実施例において、本実施形態の「tag1」~「tag4」の内容に対応する例としては、「ハードル」や、「インターバル」、「スタート」等のイベントの内容や、「GOOD」や「BAD」といった評価を表す内容等が挙げられる。例えば「インターバル」とは、2つのハードル間の走行を意味する。例えば、選手がハードルを飛ぶときにハードルを倒してしまった場合には、コーチ等の作業者が、第2端末装置3の表示画面60で、「ハードル」ボタンおよび「BAD」ボタンを続けて入力することにより、ライブ映像に対し、コーチ等の作業者が実際のシーンを見てタグを入力した時刻に対応して、「ハードル」および「BAD」のタグがタグ付けされる。タグ付き動画データ426を再生する表示画面81では、コーチ等の作業者が実際のシーンを見てタグを入力した時刻に対応して「ハードル」および「BAD」のタグが表示され、その表示領域がタップ操作されると、タグが入力された時刻からタグ付き動画データ426が再生される。コーチは、選手が走り終えた直後に、ハードルを倒してしまったシーンに対応するタグ付き動画データ426を再生し、フォームの改善点等を選手にフィードバックすることができる。尚、イベントの内容のタグのみ、または、評価を表す内容のタグのみを入力することもできる。
 以上のように、本実施形態の動画タグ付け装置4は、第1端末装置2で撮影された動画データ421を第1端末装置2から取得するとともに、この動画データ421の撮影を開始した撮影開始時刻422を取得すると、動画データ421および撮影開始時刻422を記憶手段42に記憶させる動画データ取得手段411と、第2端末装置3でタグおよび/またはコメントを含むタグ情報423が生成されると、このタグ情報423を第2端末装置3から取得するとともに、当該タグ情報423が生成されたタグ情報生成時刻424を取得するタグ情報取得手段412と、記憶手段42に記憶された撮影開始時刻422および動画データ421の撮影開始からの経過時間に基づき、タグ情報生成時刻424に同期したタイミングで動画データ421にタグ情報423を付与する画像処理手段413と、を備える。
 本実施形態の動画タグ付け方法は、第1端末装置2で撮影された動画データ421を第1端末装置2から取得するとともに、この動画データ421の撮影を開始した撮影開始時刻422を取得する第1ステップと、動画データ421および撮影開始時刻422を記憶手段42に記憶する第2ステップと、第2端末装置3でタグおよび/またはコメントを含むタグ情報423が生成されると、このタグ情報423を第2端末装置3から取得するとともに、当該タグ情報423が生成されたタグ情報生成時刻424を取得する第3ステップと、記憶手段42に記憶された撮影開始時刻422および動画データ421の撮影開始からの経過時間に基づき、タグ情報生成時刻424に同期したタイミングで動画データ421にタグ情報423を付与する第4ステップと、を含む。
 これらの場合、第1端末装置2から動画データ421を取得するとともに、絶対時間である撮影開始時刻422を取得して記憶手段42に記憶させることで、この撮影開始時刻422と動画データ421の撮影開始からの経過時間に基づき、現実の時刻に対する動画データ421の再生時刻のずれを補正して、タグ情報取得手段412により取得したタグ情報生成時刻424に正しく合せたタイミングで、動画データ421にタグ情報423を付与し、タグ付き動画データ426を作成することができる。そのため、作業者が動画の映像ではなく動画の撮影対象である現実のシーンを見ながら、第2端末装置3で入力されたタグおよび/またはコメントを含むタグ情報423を、リアルタイムで配信されるライブ映像(実際には上記のように数十秒遅れて配信される)の動画データ421に、正しく時刻を合せてタグ付けすることができる。
 本実施形態の動画タグ付け装置4では、タグ情報取得手段412は、複数の第2端末装置3,3’,3’’からのタグ情報423を取得可能な構成とすることができる。
 本実施形態の動画タグ付け方法では、第3ステップにおいて、複数の第2端末装置3,3’,3’’からのタグ情報423が取得可能とすることができる。
 これらの場合、複数の作業者が現実のシーンを見ながら、それぞれの第2端末装置3で生成したタグ情報423を、リアルタイムで配信されるライブ映像の動画データ421に、正しく時刻を合せてタグ付けして簡単に共有することが可能になる。
 本実施形態の動画タグ付け装置4では、第2端末装置3がタグ情報423を生成するための画面を表示させているときには、第1端末装置2から取得した動画データ421を当該第2端末装置3に送信しない構成とすることができる。
 本実施形態の動画タグ付け方法では、第3ステップにおいて、第2端末装置3がタグ情報423を生成するための画面を表示させているときには、第1端末装置2から取得した動画データ421を当該第2端末装置3に送信しないようにすることができる。
 これらの場合、少なくとも作業者が第2端末装置3を利用してタグ情報423を生成する場合に、その第2端末装置3に対して動画データ421を送信しないようにすれば、現実のシーンではなく第2端末装置3でライブ映像を見ながら誤ったタイミングで動画データ421にタグ付けが行われるのを防ぐことができる。
 本実施形態の動画タグ付け装置4は、動画データ421にタグ情報423を付与したタグ付き動画データ426を配信する映像配信手段414をさらに備え、動画データ取得手段411が取得した撮影開始時刻422を、映像配信手段414から配信するタグ付き動画データ426に含めない構成とすることができる。
 本実施形態の動画タグ付け方法は、動画データ421にタグ情報423を付与したタグ付き動画データ426を配信する第5ステップをさらに有し、第1ステップで取得した撮影開始時刻422を、第5ステップで配信するタグ付き動画データ426に含めないようにすることができる。
 これらの場合、余計な撮影開始時刻422の情報をタグ付き動画データ426に埋め込むことなく、映像配信手段414からタグ付き動画データ426をそのまま配信することができる。
 本実施形態の動画タグ付け装置4では、動画データ421にタグ情報423を付与したタグ付き動画データ426を第3端末装置30に配信しているときに、第3端末装置30の表示画面81上でタグ情報423がタップ操作されると、そのタグ情報423に対応するタグ情報生成時刻424に同期したタイミングを含むタグ付き動画データ426を、当該第3端末装置30に配信する映像配信手段414をさらに備えることができる。
 本実施形態の動画タグ付け方法は、動画データ421にタグ情報423を付与したタグ付き動画データ426を第3端末装置30に配信しているときに、第3端末装置30の表示画面81上でタグ情報423がタップ操作されると、そのタグ情報423に対応するタグ情報生成時刻424に同期したタイミングを含むタグ付き動画データ426を、当該第3端末装置30に配信する第6ステップをさらに有することができる。
 これらの場合、第3端末装置30でタグ付き動画データ426を視聴しているときに、表示画面81上でタグ情報423をタップ操作すると、そのタグ情報423に関連するタグ付き動画データ426が映像配信手段414から第3端末装置30に配信され、第3端末装置30で映像が再生される。したがって、試合中やハーフタイム、イニングの途中等であってもシーン映像を検索して、簡単なタップ操作で見たい場面を振り返ることができる。
 以上、本発明を実施形態に基づいて説明したが、本発明は種々の変形実施をすることができる。例えば、上記の実施例で述べた例はあくまでも一例であり、本発明はその他種々の用途に活用可能である。
 例えば、本発明の動画タグ付け装置を含む動画タグ付けシステムおよび動画タグ付け方法は、上記で述べたサッカー、野球および陸上(ハードル競技)の他、ラグビーやアメリカンフットボール、バスケットボール、バレーボール等の球技はもちろん、フィギュアスケートやダンス、体操等の練習や分析にも応用可能である。その他、スポーツに限られず、演劇や演奏、講演、弁論大会、その他の種々の発表会等にも応用可能である。
 本発明の動画タグ付け装置を含む動画タグ付けシステムおよび動画タグ付け方法は、スマートフォンやタブレット端末等の携帯型情報端末装置を使用して実現することができるので導入が容易であり、かつ、使用方法も簡便であるので、プロのみならずアマチュアの作業者も積極的に利用することができる。例えば、親が子供の試合や実演を撮影録画して練習に活用することがよく行われているが、撮影しながらリアルタイムで動画にタグ付けすることができれば、録画後に再生や巻き戻し等を繰り返しながら所望のシーンを探すといった親の負担が減るとともに、子供の実力向上に大いに役立つことができる。尚、本発明の動画タグ付け装置を含む動画タグ付けシステムおよび動画タグ付け方法は、試合や実演の本番に利用することもできるし、本番に向けた練習に利用することもできる。
 1 動画タグ付けシステム
 2 第1端末装置
 3 第2端末装置
 311 タグ情報生成手段
 30 第3端末装置
 4 動画タグ付け装置(サーバ)
 41 制御手段
 411 動画データ取得手段
 412 タグ情報取得手段
 413 画像処理手段
 414 映像配信手段
 42 記憶手段
 421 動画データ
 422 撮影開始時刻
 423 タグ情報
 424 タグ情報生成時刻
 425 識別情報
 426 タグ付き動画データ
 427 プログラム
 43 通信手段
 5 通信網
 71 フレーム
 84 タグ
 85 コメント
 

Claims (10)

  1.  第1端末装置で撮影された動画データを当該第1端末装置から取得するとともに、この動画データの撮影を開始した撮影開始時刻を取得すると、前記動画データおよび前記撮影開始時刻を記憶手段に記憶させる動画データ取得手段と、
     第2端末装置でタグおよび/またはコメントを含むタグ情報が生成されると、このタグ情報を前記第2端末装置から取得するとともに、当該タグ情報が生成されたタグ情報生成時刻を取得するタグ情報取得手段と、
     前記記憶手段に記憶された前記撮影開始時刻および前記動画データの撮影開始からの経過時間に基づき、前記タグ情報生成時刻に同期したタイミングで前記動画データに前記タグ情報を付与する画像処理手段と、
     を備える動画タグ付け装置。
  2.  前記タグ情報取得手段は、複数の前記第2端末装置からのタグ情報を取得可能な構成とした請求項1に記載の動画タグ付け装置。
  3.  前記第2端末装置が前記タグ情報を生成するための画面を表示させているときには、前記第1端末装置から取得した前記動画データを当該第2端末装置に送信しない構成とした請求項1または2に記載の動画タグ付け装置。
  4.  前記動画データに前記タグ情報を付与したタグ付き動画を配信する映像配信手段をさらに備え、
     前記動画データ取得手段が取得した前記撮影開始時刻を、前記映像配信手段から配信する前記タグ付き動画データに含めない構成とした請求項1~3の何れか一つに記載の動画タグ付け装置。
  5.  前記動画データに前記タグ情報を付与したタグ付き動画データを第3端末装置に配信しているときに、前記第3端末装置の表示画面上で前記タグ情報がタップ操作されると、そのタグ情報に対応する前記タグ情報生成時刻に同期したタイミングを含むタグ付き動画データを、当該第3端末装置に配信する映像配信手段をさらに備えた請求項1~3の何れか一つに記載の動画タグ付け装置。
  6.  第1端末装置で撮影された動画データを当該第1端末装置から取得するとともに、この動画データの撮影を開始した撮影開始時刻を取得する第1ステップと、
     前記動画データおよび前記撮影開始時刻を記憶手段に記憶する第2ステップと、
     第2端末装置でタグおよび/またはコメントを含むタグ情報が生成されると、このタグ情報を前記第2端末装置から取得するとともに、当該タグ情報が生成されたタグ情報生成時刻を取得する第3ステップと、
     前記記憶手段に記憶された前記撮影開始時刻および前記動画データの撮影開始からの経過時間に基づき、前記タグ情報生成時刻に同期したタイミングで前記動画データに前記タグ情報を付与する第4ステップと、
     を含む動画タグ付け方法。
  7.  前記第3ステップでは、複数の前記第2端末装置からのタグ情報が取得可能である請求項6に記載の動画タグ付け方法。
  8.  前記第3ステップで、前記第2端末装置が前記タグ情報を生成するための画面を表示させているときには、前記第1端末装置から取得した前記動画データを当該第2端末装置に送信しない請求項6または7に記載の動画タグ付け方法。
  9.  前記動画データに前記タグ情報を付与したタグ付き動画データを配信する第5ステップをさらに有し、
     前記第1ステップで取得した前記撮影開始時刻を、前記第5ステップで配信する前記タグ付き動画データに含めない請求項6~8の何れか一つに記載の動画タグ付け方法。
  10.  前記動画データに前記タグ情報を付与したタグ付き動画データを第3端末装置に配信しているときに、前記第3端末装置の画面上で前記タグ情報がタップ操作されると、そのタグ情報に対応する前記タグ情報生成時刻に同期したタイミングを含むタグ付き動画データを、当該第3端末装置に配信する第6ステップをさらに有する請求項6~8の何れか一つに記載の動画タグ付け方法。
     
PCT/JP2019/045533 2018-12-27 2019-11-21 動画タグ付け装置および動画タグ付け方法 WO2020137274A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/417,689 US20220238140A1 (en) 2018-12-27 2019-11-21 Video tagging device and video tagging method
EP19901935.7A EP3905701A4 (en) 2018-12-27 2019-11-21 APPARATUS FOR MARKING MOVING PICTURES AND METHOD FOR MARKING MOVING PICTURES

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-244485 2018-12-27
JP2018244485A JP7154998B2 (ja) 2018-12-27 2018-12-27 動画タグ付け装置および動画タグ付け方法

Publications (1)

Publication Number Publication Date
WO2020137274A1 true WO2020137274A1 (ja) 2020-07-02

Family

ID=71127963

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/045533 WO2020137274A1 (ja) 2018-12-27 2019-11-21 動画タグ付け装置および動画タグ付け方法

Country Status (4)

Country Link
US (1) US20220238140A1 (ja)
EP (1) EP3905701A4 (ja)
JP (1) JP7154998B2 (ja)
WO (1) WO2020137274A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113209640A (zh) * 2021-07-09 2021-08-06 腾讯科技(深圳)有限公司 解说的生成方法、装置、设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005010A (ja) 2006-06-20 2008-01-10 Matsushita Electric Ind Co Ltd 動画編集方法
JP2008048091A (ja) * 2006-08-14 2008-02-28 United Portal:Kk 動画タグ付けプログラム、動画タグシステム、及び動画配信方法
JP2010287974A (ja) * 2009-06-10 2010-12-24 Sharp Corp 携帯電話及びプログラム
JP2016220158A (ja) * 2015-05-26 2016-12-22 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びタギングプログラム
JP2017005559A (ja) * 2015-06-12 2017-01-05 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びプログラム
JP2017011668A (ja) * 2015-06-24 2017-01-12 株式会社Jvcケンウッド スコアブック作成装置、スコアブック作成システム、スコアブック作成方法、プログラム、撮像装置および再生方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090085791A (ko) * 2008-02-05 2009-08-10 삼성전자주식회사 멀티미디어 컨텐츠 서비스 장치 및 방법, 이를 포함하는멀티미디어 컨텐츠 서비스 제공시스템
US8849879B2 (en) * 2010-07-30 2014-09-30 Avaya Inc. System and method for aggregating and presenting tags
US11520741B2 (en) * 2011-11-14 2022-12-06 Scorevision, LLC Independent content tagging of media files
WO2014064817A1 (ja) * 2012-10-25 2014-05-01 富士通株式会社 情報処理端末、同期制御方法および同期制御プログラム
EP3306495B1 (en) * 2016-10-04 2023-07-12 Joaquin Sufuentes Method and system for associating recorded videos with highlight and event tags to facilitate replay services

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005010A (ja) 2006-06-20 2008-01-10 Matsushita Electric Ind Co Ltd 動画編集方法
JP2008048091A (ja) * 2006-08-14 2008-02-28 United Portal:Kk 動画タグ付けプログラム、動画タグシステム、及び動画配信方法
JP2010287974A (ja) * 2009-06-10 2010-12-24 Sharp Corp 携帯電話及びプログラム
JP2016220158A (ja) * 2015-05-26 2016-12-22 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びタギングプログラム
JP2017005559A (ja) * 2015-06-12 2017-01-05 株式会社Jvcケンウッド タギング装置、タギングシステム、タギング方法及びプログラム
JP2017011668A (ja) * 2015-06-24 2017-01-12 株式会社Jvcケンウッド スコアブック作成装置、スコアブック作成システム、スコアブック作成方法、プログラム、撮像装置および再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3905701A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113209640A (zh) * 2021-07-09 2021-08-06 腾讯科技(深圳)有限公司 解说的生成方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
US20220238140A1 (en) 2022-07-28
EP3905701A1 (en) 2021-11-03
JP7154998B2 (ja) 2022-10-18
JP2020107991A (ja) 2020-07-09
EP3905701A4 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
US9583144B2 (en) System and method for creating a sports video
US20190267041A1 (en) System and method for generating probabilistic play analyses from sports videos
US20180301169A1 (en) System and method for generating a highlight reel of a sporting event
US10269390B2 (en) Game video processing systems and methods
US9652459B2 (en) Independent content tagging of media files
US11520741B2 (en) Independent content tagging of media files
US20110275045A1 (en) Video Overlay Sports Motion Analysis
CN112533003B (zh) 一种视频处理系统、装置、方法
KR20110017258A (ko) 사용자 참여형 피트니스 강좌시스템 및 이를 이용한 피트니스 훈련방법
US20210069550A1 (en) Autonomous athlete data correlation
US11875567B2 (en) System and method for generating probabilistic play analyses
US20140287391A1 (en) Method and system for training athletes
TW201536039A (zh) 資料處理方法及裝置
TW201540065A (zh) 擷取方法及裝置(一)
US10623688B1 (en) Event capture and distribution system and method
US20020126318A1 (en) Method for information processing comprising scorecard preparation system for baseball, automatic editing system and motion analysis system
US11998828B2 (en) Method and system for presenting game-related information
WO2020137274A1 (ja) 動画タグ付け装置および動画タグ付け方法
JP2014004045A (ja) 映像配信装置、映像配信システム、映像配信方法、プログラム
US20150120023A1 (en) Entertainment content fitness gaming system
KR20230091747A (ko) 야구 경기의 스케줄링 정보를 통한 경기 영상 자동 획득 및 메이킹 시스템
US20170099363A1 (en) Electronic virtual sports scoreboard system that provides event alerts, video highlights and statistics to social media and other web-based distributions systems with minimal effort required of the scorekeeper
US20140180450A1 (en) Video and audio evaluation method and system
WO2020154425A1 (en) System and method for generating probabilistic play analyses from sports videos
KR20020055574A (ko) 화상의 자동검색시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19901935

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019901935

Country of ref document: EP

Effective date: 20210727