WO2019070011A1 - 移動体追跡装置及び移動体追跡方法 - Google Patents

移動体追跡装置及び移動体追跡方法 Download PDF

Info

Publication number
WO2019070011A1
WO2019070011A1 PCT/JP2018/037131 JP2018037131W WO2019070011A1 WO 2019070011 A1 WO2019070011 A1 WO 2019070011A1 JP 2018037131 W JP2018037131 W JP 2018037131W WO 2019070011 A1 WO2019070011 A1 WO 2019070011A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile
ball
candidate
moving
tracking
Prior art date
Application number
PCT/JP2018/037131
Other languages
English (en)
French (fr)
Inventor
優麻 片山
純子 上田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP18864304.3A priority Critical patent/EP3694205B1/en
Priority to JP2019547001A priority patent/JP7246005B2/ja
Priority to US16/753,135 priority patent/US11638068B2/en
Publication of WO2019070011A1 publication Critical patent/WO2019070011A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Definitions

  • the present disclosure relates to a mobile tracking device and a mobile tracking method.
  • Non-Patent Document 1 discloses a multi-view three-dimensional ball tracking system which calculates a three-dimensional (hereinafter referred to as “3D”) position of a ball using moving image frames of respective viewpoints shot volleyball.
  • an erroneous object may be targeted for tracking, and tracking of a ball may fail.
  • a ball is blocked or out of a video frame taken by two cameras out of four cameras, or an object similar to the ball near the ball of a video frame (such as a human head) If there is, etc., it is easy to fail to track the ball.
  • an object (a reserve ball) being misidentified has almost the same features as the object to be traced, so tracking failure occurs. It is difficult to fix it automatically. Therefore, there has been a demand for a system that allows the user to easily correct the tracking target.
  • Non-Patent Document 1 does not disclose means for correcting a tracking target.
  • Non-limiting embodiments of the present disclosure contribute to the provision of a mobile tracking device and a mobile tracking method capable of correcting a tracking target if tracking of a ball game mobile fails.
  • a mobile tracking device is a mobile tracking device for tracking a mobile for ball games, and a video receiving unit for receiving a moving image frame of a ball game captured by a plurality of cameras at different positions.
  • a mobile object candidate extraction unit that extracts mobile object candidates using the plurality of moving image frames;
  • a mobile object selection unit that displays the mobile object candidates and receives selection of a mobile object to be tracked from the user;
  • FIG. 7 is a diagram showing an example of displaying ball candidates in the order of height in the ball candidate display area according to the first embodiment.
  • 10 is a flowchart of processing for displaying ball candidates in height order in the ball candidate display area according to the first embodiment.
  • 6 is a flowchart showing an example of a primary ball candidate extraction process according to the first embodiment. 6 is a flowchart illustrating an example of height order display processing of secondary ball candidates according to the first embodiment.
  • FIG. 9 is a diagram showing an example of displaying ball candidates in the ball candidate display area according to the second embodiment in order of likelihood.
  • 16 is a flowchart of processing for displaying ball candidates in the ball candidate display area according to the second embodiment in order of likelihood.
  • 12 is a flowchart showing an example of likelihood order display processing of secondary ball candidates according to the second embodiment.
  • FIG. 14 is a diagram showing an example of reducing the number of displayed ball candidates using a ball trajectory according to a third embodiment.
  • 15 is a flowchart illustrating an example of processing of reducing the number of displayed ball candidates using a ball trajectory according to a third embodiment.
  • Embodiment 1 Mobile Tracking System First, the outline of a mobile tracking system will be described with reference to FIG.
  • the mobile tracking system 1 is a system for tracking a ball, which is an example of a ball game mobile.
  • a ball in volleyball which is one of ball games, will be described as an example of a moving object.
  • the mobile tracking system 1 is applicable to various ball games such as table tennis, basketball, tennis, rugby, American football or badminton.
  • the moving object to be tracked by the moving object tracking system 1 is not limited to the ball, and may be, for example, a badminton shuttle.
  • the mobile tracking system 1 includes a plurality of cameras 3, a display device 4, an operating device 5, and a mobile tracking device 10.
  • the plurality of cameras 3 are installed at different positions.
  • each camera 3 is installed at a position where it is possible to shoot the court from different heights (angle of view).
  • FIG. 1 illustrates the case where the number of cameras 3 is four, the present embodiment is not limited to this, and the number of cameras 3 may be two or more.
  • the mobile tracking system 1 receives an input of the correct tracking target using the main moving image frame shot by one camera 3 and the result It is for extracting the candidate image of the same tracking object from the moving image frame which another camera 3 imaged using.
  • each camera 3 is connected to the mobile tracking device 10, and transmits to the mobile tracking device 10 a moving image frame obtained by photographing the state of the ball game.
  • the camera 3 and the mobile tracking device 10 may be connected by wire or wirelessly.
  • the display device 4 is connected to the mobile tracking device 10 and displays an image output from the mobile tracking device 10.
  • the display device 4 is, for example, a liquid crystal display device or an organic EL display device.
  • the controller device 5 is connected to the mobile object tracking device 10 and inputs operation information by the user to the mobile object tracking device 10.
  • the operating device 5 is, for example, a keyboard, a mouse, a microphone, and / or a touch panel.
  • the controller device 5 and the display device 4 may be an integrated device.
  • the moving body tracking device 10 tracks the ball used in the ball game from the moving image frame captured by each camera 3 and displays the tracking result of the ball (for example, the trajectory of the ball) on the display device 4.
  • the mobile tracking device 10 includes a video receiving unit 101, a mobile identifying unit 102, a mobile tracking unit 103, a mobile position output unit 104, a mobile candidate extracting unit 105, and a mobile selecting unit 106. Prepare.
  • the image receiving unit 101 receives moving image frames transmitted from the cameras 3A to 3D, and inputs the moving image frames to the moving object identification unit 102 and the moving object selection unit 106.
  • the video frame is, for example, MP4, H.264. H.264. It may be a frame image such as H.265 or Motion JPEG.
  • the moving body identification unit 102 identifies the object of the ball to be tracked from the moving image frame of each of the cameras 3A to 3D input from the video reception unit 101, and the position of the ball in three-dimensional space (hereinafter referred to as "3D position") Identify).
  • the moving body identification unit 102 identifies the object and 3D position of the ball to be tracked by the method of Non-Patent Document 1.
  • the 3D position of the ball may be represented by coordinates (x, y, z) in a three-dimensional space.
  • the mobile tracking unit 103 tracks the 3D position of the ball identified by the mobile identifying unit 102. That is, the mobile tracking unit 103 records temporal changes in the 3D position of the ball. For example, the mobile tracking unit 103 tracks the 3D position of the ball by the method of Non-Patent Document 1.
  • the moving body position output unit 104 outputs the tracking result (for example, the trajectory of the ball) of the 3D position of the ball to the display device 4.
  • the moving body candidate extraction unit 105 extracts ball candidates from the moving image frames of the cameras 3A to 3D input from the video reception unit 101.
  • the ball candidate is an object that is presumed to be a tracking target ball. The details of the process of the mobile body candidate extraction unit 105 will be described later (see FIG. 7).
  • the moving object selection unit 106 generates a UI (hereinafter referred to as “ball selection UI”) 200 (see FIG. 3) for correcting the tracking target, and displays the UI on the display device 4.
  • the user can correct the tracking target by operating the ball selection UI 200 via the operation device 5 when the moving body identification unit 102 has an error in the tracking target.
  • the details of the processing of the mobile unit selection unit 106 will be described later (see FIGS. 6 and 8).
  • the mobile object selection unit 106 displays the ball selection UI 200, for example, in any of the following cases.
  • A1 When the user notices that the tracking target is wrong and performs a predetermined operation.
  • A2 When the mobile body candidate extraction unit 105 can not extract a ball candidate.
  • A3) When all the ball candidates extracted by the moving body candidate extraction unit 105 have a likelihood smaller than a predetermined threshold.
  • the likelihood of a ball candidate is an index indicating the possibility that the ball candidate is a correct ball as a tracking target. The details of the method of calculating the likelihood of the ball candidate will be described later.
  • A4) When the moving object tracking unit 103 determines that the trajectory of the ball to be tracked is abnormal.
  • the case where it is determined to be abnormal is, for example, the case where the trajectory of the ball to be tracked is greatly deviated from the trajectory of a typical ball in volleyball.
  • the ball selection UI 200 has a moving image frame display area 201 and a ball candidate display area 202.
  • a moving picture frame of one camera 3 selected by the user (hereinafter referred to as "main moving picture frame") is displayed.
  • balls candidate display area 202 images of ball candidates captured in moving image frames other than the main moving image frame are displayed.
  • FIG. 3 shows an example in which the user selects a moving image frame of the camera 3A.
  • the mobile object selection unit 106 is optimal based on the 2D likelihood before the frame determined to have caused the erroneous tracking.
  • the main video frame may be selected automatically.
  • the moving body selecting unit 106 updates the main video frame to a screen with high 2D likelihood at a constant frame interval, or the 2D likelihood of the main video frame is It may be automatically switched to another main moving image frame when it becomes less than a predetermined threshold.
  • a user who is not yet familiar with the operation can easily use the mobile object tracking device 10 by turning on the setting for automatically selecting the appropriate main moving image frame in this manner.
  • the moving object selection unit 106 displays the main moving image frame 203 selected in S11 in the moving image frame display area 201.
  • the moving object selection unit 106 calculates the search axis 301 (see FIG. 5) in the 3D space according to the 2D position (coordinates) of the correct ball in the main moving image frame 203 specified in S13.
  • the search axis 301 is, as shown in FIG. 5, the position (coordinates) in 3D space of the camera 3A that captured the main moving image frame 203, and the position (coordinates) in 3D space of the 2D position of the correct ball specified in S13.
  • an axis connecting the The position (coordinates) in the 3D space of the camera 3A may be input by the user, or may be automatically set from the detection result using a sensor or the like.
  • the moving body selection unit 106 extracts ball candidate images included in each search range 302A to 302G (see FIG. 5) including points on the search axis 301 from moving image frames other than the main moving image frame 203. , And the ball candidate display area 202.
  • FIG. 3 shows an example in which ball candidate images 206 extracted from moving image frames of the cameras 3B, 3C, and 3D are displayed in the ball candidate display area 202.
  • the moving body selection unit 106 collectively displays the ball candidate images 206 corresponding to the same 3D position as one group 207, and the ball candidate image 206 correct as a tracking target in group units.
  • the ball candidate image 206 corresponding to the same search range 302 will be described as being approximate to the ball candidate image 206 corresponding to the same 3D position, but the ball candidate image 206 is analyzed in more detail to obtain an accurate 3D position May be calculated.
  • the objects are not shown in the ball candidate image 206 captured by a part of the cameras 3 at heights of 515 cm, 785 cm, and 1025 cm. This is because even if the same 3D position is photographed, the object may not be photographed due to the presence of an obstacle or the like.
  • objects captured by all the cameras 3 are not necessarily the correct balls. For example, in the search range of height 155 cm in FIG. 3, the correct ball is not photographed. Therefore, even if the object is not found in some of the cameras 3, the moving body selection unit 106 sets the ball candidate image 206 at the same 3D position as a correction candidate when a relatively high likelihood is calculated. It displays collectively in the group 207. The details of the ball candidate image extraction process will be described later.
  • the moving body selecting unit 106 outputs information (for example, 3D coordinates or an object ID) for identifying the ball candidate selected in S16 to the moving body specifying unit 102.
  • the user corrects the tracking target to the correct ball by performing the two operations shown in S13 and S15 on the ball selection UI 200. can do.
  • the mobile tracking device 10 groups and presents images (ball candidate images) of 3D positions with high likelihood of being correct balls based on the position specified in S13.
  • the user can check ball candidates at the same 3D position from the viewpoints of the other cameras (cameras 3B to 3C), and can easily determine whether or not the ball is a correct ball.
  • the mobile tracking device 10 the user can collectively designate the correct 3D positions of the balls in the cameras 3B to 3C in group units in S15. Therefore, compared with the case where the user visually confirms the correct ball candidate from the entire image of all the cameras 3 and performs the operation of specifying the 3D position, the mobile tracking device 10 selects the correct ball. It is possible to reduce the time and effort.
  • the mobile tracking device 10 can extract and display an image around a correction candidate having a high likelihood as the ball candidate image 206, and arrange the display order of the extracted ball candidate images 206 as described later. can do. Therefore, the user using the mobile tracking device 10 can easily confirm the correction candidate.
  • the mobile object selection unit 106 automatically selects a candidate with the highest 3D likelihood if the operation is not performed for a predetermined time (S16) and the ball display is in the order of likelihood described later. Good. Thereby, it can be expected that the user's operation burden can be alleviated, and the user can quickly shift to the next operation when there is only one candidate. That is, when tracking fails in the mobile tracking device 10, the user can easily and quickly (in a short time) correct the tracking target.
  • the moving body selection unit 106 can rearrange the ball candidate images 206 displayed in the ball candidate display area 202 under various conditions. Next, a method of arranging and displaying the ball candidate images 206 in order of height of the 3D position will be described.
  • the moving body selection unit 106 extracts ball candidate images captured in each of the search ranges 302A to 302G including the point on the search axis 301 from the moving image frame captured at a viewpoint different from that of the main moving image frame. For example, as shown in FIG. 5, the moving object selection unit 106 sets a plurality of search ranges 302A ⁇ in which the centers on the search axis 301 in each moving image frame other than the main moving image frame are set to be different in the height direction. Each ball candidate is extracted from 302G, and the images of the extracted ball candidates are arranged in the order of the height of the 3D position of the ball and displayed in the ball candidate display area 202. In addition, the moving body selecting unit 106 collectively displays the images of ball candidates estimated to be the same object extracted from the same search range 302 of the moving image frame of each camera 3 as one group.
  • the moving body selection unit 106 may extract one ball candidate from one search range 302. For example, in FIG. 5, since two ball candidates 303A and 303B exist in one search range 302C, the mobile object selection unit 106 extracts one ball candidate 303A having a higher likelihood and the ball candidate It is displayed in the display area 202. As a result, the number of candidates to be displayed can be limited to one with a high likelihood, so the time and effort of confirmation by the user can be reduced.
  • both of the ball candidates 303A and 303B may be extracted as ball candidates.
  • both ball candidates 303A and 303B have higher likelihood than ball candidates in other search range 302, it is better to extract both ball candidates than to extract one of the ball candidates, There is a high possibility that the correct ball candidate can be extracted.
  • the moving body selection unit 106 calculates a search axis 301 in 3D space corresponding to the 2D position of the ball selected from the main moving image frame (S101).
  • the moving body selection unit 106 sets the search axis height (variable) to 0 (initial value) (S102).
  • the search axis height corresponds to the height position of the central point of the search range 302.
  • the moving body selection unit 106 determines whether the search axis height is less than a predetermined maximum ball reaching point (S103).
  • the maximum ball reaching point differs depending on the ball game item. For example, in the case of volleyball, according to the rules, it is necessary to secure a height of 12.5 m or more from the court to the ceiling. That is, since the ball maximum reaching point assumed by the rules of the ball game is 12.5 m, this value is used. Although the height exceeding the rule may be set as the highest ball reaching point, the process takes more time as the highest ball reaching point is set higher. Therefore, it is preferable to use the regular height as the highest ball reaching point in view of the balance between the processing speed and the tracking range. In addition, when it can not image
  • the mobile object selection unit 106 executes a process of displaying the secondary ball candidates in order of height (S110). The description of the secondary ball candidate's order-of-height display process will be described later (see FIG. 8).
  • the mobile body candidate extraction unit 105 executes primary ball candidate extraction processing (S104) in the search range 302 corresponding to the search axis height.
  • S104 primary ball candidate extraction processing
  • the moving body selection unit 106 determines whether there is a ball candidate (referred to as “secondary ball candidate”) whose 3D likelihood exceeds the first threshold among the primary ball candidates (S105).
  • the first threshold is different for each imaging environment.
  • the first threshold may be set based on an average value of 3D likelihoods when tracking of the ball is successful in the shooting environment. This makes it possible to exclude mobiles that are unlikely to be correctly tracked. That is, it is possible to suppress extraction of an inappropriate one as a candidate for correction.
  • the mobile object selection unit 106 proceeds to the process of S109.
  • the moving body selection unit 106 determines whether there are a plurality of secondary ball candidates (S106).
  • the mobile object selection unit 106 proceeds to the process of S108.
  • the moving body selection unit 106 selects a secondary ball candidate having the highest 3D likelihood (S107), and proceeds to the process of S108.
  • the moving body selection unit 106 stores the 3D coordinates of the secondary ball candidate in the ball candidate table (not shown). In addition, the moving body selection unit 106 extracts an image of a portion where the secondary ball candidate is photographed (referred to as “ball candidate image”) from each moving image frame other than the main moving image frame, and stores it in the ball candidate table (S108) ).
  • ball candidate image an image of a portion where the secondary ball candidate is photographed
  • the moving body selection unit 106 adds the predetermined value ⁇ to the search axis height (S109), and returns to S103.
  • the predetermined value ⁇ may be set so that the search ranges 302 corresponding to different search axis heights partially overlap.
  • the predetermined value ⁇ may be a value corresponding to the radius of the ball. In the volleyball example, since the diameter of the game ball is 21 cm, the predetermined value ⁇ is approximately 11 cm.
  • secondary ball candidates are extracted from each search range 302 up to the highest reaching point, and stored in the ball candidate table.
  • the moving body candidate extraction unit 105 calculates 3D coordinates of the primary ball candidate included in the search range 302 corresponding to the search axis height of the loop processing (S103 to S109) in FIG. 6 (S201).
  • the moving body candidate extraction unit 105 converts the 3D coordinates of the primary ball candidate into 2D coordinates in each of the moving image frames of the four cameras 3A, 3B, 3C, and 3D (S202).
  • the moving body candidate extraction unit 105 digitizes the tintness of the ball of the primary ball candidate using the predetermined sample image in each of the moving image frames of the four cameras 3A, 3B, 3C, and 3D.
  • the calculated value (hereinafter referred to as "color likelihood") is calculated (S203).
  • the color likelihood is calculated using the correct ball sample image. For example, a color histogram is calculated, and the color likelihood is calculated by comparing the histograms of the ball candidate and the sample image.
  • the moving body candidate extraction unit 105 calculates the difference with the past frame image (for example, the previous frame image), the difference with the background image, or the moving image frame of each of the four cameras 3A, 3B, 3C, 3D. Using the difference between the motion of the dynamic background model from which characteristic motions have been eliminated by using a plurality of frame images, and whether or not the object has moved in 2D coordinates corresponding to the primary ball candidate Hereinafter, the "motion likelihood" is calculated (S204).
  • the moving body candidate extraction unit 105 uses the color likelihood calculated in S203 and the motion likelihood calculated in S204 in each of the moving image frames to determine the likelihood of the primary ball candidate in each moving image frame (“ The 2D likelihood is calculated (S205).
  • the mobile body candidate extraction unit 105 specifies three moving image frames in descending order of 2D likelihood among the four moving image frames, integrates information of the specified three moving image frames, and generates a first order in 3D coordinates.
  • the likelihood of the ball candidate (referred to as "3D likelihood") is calculated (S206). For example, the mobile body candidate extraction unit 105 multiplies and normalizes the three identified 2D likelihoods to calculate a 3D likelihood.
  • the calculation method of 3D likelihood is not restricted to what was mentioned above.
  • the priority when calculating the 3D likelihood may be variable according to the 2D likelihood of each camera 3.
  • the mobile object candidate extraction unit 105 determines that the 2D likelihood of the camera 3A is the camera when performing multiplication and normalization.
  • the weighting may be performed such that the 3D likelihood is reflected in preference to the 3D 2D likelihood.
  • information of moving image frames from three cameras is used for calculation of 3D likelihood in descending order of 2D likelihood, but two units whose 2D likelihood exceeds a predetermined threshold value Information of a video frame from a camera may be used for calculation of 3D likelihood.
  • the reason why the information from the two cameras is used to calculate the 3D likelihood is because the information from at least two cameras is necessary to calculate the 3D position.
  • 3D likelihood may be calculated using information from more than two or three cameras.
  • the number of cameras whose 2D likelihood exceeds a predetermined threshold is less than 2
  • the 3D likelihood of the primary ball candidate existing in the search range 302 may be regarded as zero. .
  • the 3D position is calculated as 2D This is because it is necessary to use information from cameras with low likelihood.
  • various methods can be considered, such as reflecting both the threshold value and the weighting, as a method of calculating the 3D likelihood.
  • the 3D likelihood is used to narrow down or rank the ball candidates existing in the search range 302, if a result that can be evaluated on the same basis between the search ranges 302 is obtained, the 3D likelihood is There is no limitation on the calculation method.
  • 3D likelihood is calculated for each of the primary ball candidates present in the search range 302 corresponding to the search axis height.
  • the moving body selection unit 106 determines whether the number of secondary ball candidates is greater than a predetermined N (N is an integer of 1 or more) (S301).
  • the moving object selection unit 106 proceeds to S303.
  • the moving object selection unit 106 leaves N secondary ball candidates in the ball candidate table in descending order of 3D likelihood, and the other 2 The next ball candidate is excluded from the ball candidate table (S302).
  • the moving body selection unit 106 rearranges the secondary ball candidate images remaining in the ball candidate table in descending order of the height direction (z-axis direction) of the 3D coordinates, and displays them in the ball candidate display area 202 (S303).
  • N or less secondary ball candidate images are displayed in the ball candidate display area 202 side by side in the descending order of the height direction of the 3D coordinates.
  • all ball image candidates may be displayed without being limited to N. If there are a large number of similar objects in the shooting environment, narrowing the ball image candidates to N may result in the loss of the correct ball candidate, so all ball image candidates may be displayed. .
  • N is a value for setting an upper limit on the number of candidates displayed in the ball candidate display area 202, and various factors such as the size of the ball candidate display area 202, the resolution, or the proficiency of the user performing correction
  • the appropriate value of N differs depending on. Therefore, the value of N does not have to be a fixed value, and may be a value that can be changed at any time according to a user's instruction or the like.
  • the mobile tracking device 10 displays the main image frame in the moving image frame display area 201, and in the ball candidate display area 202, the ball candidate image 206 extracted from the image frame other than the main image frame. Arrange in order of height of 3D position and display. Then, when the user designates the correct ball position as the tracking target from the main image frame and selects the correct ball candidate image 206 as the tracking target from the ball candidate images 206 arranged in the order of height of the 3D position, the moving object The tracking device 10 corrects the tracking target to the selected ball candidate.
  • the user can easily correct the tracking target simply by performing operations on the moving image frame display area 201 and the ball candidate display area 202.
  • the user can quickly search the ball candidate display area 202 for the correct ball candidate image 206 as a tracking target with reference to the height of the ball.
  • the user can quickly correct the tracking target error in the mobile tracking device 10.
  • Second Embodiment In the second embodiment, an example in which ball candidates are displayed in order of likelihood will be described. In the second embodiment, the points different from the first embodiment will be described, and the description of the points common to the first embodiment will be omitted.
  • the moving object selection unit 106 sets the balls from a plurality of search ranges 302 set on the search axis 301 so that the centers differ from each other in the height direction in each moving image frame other than the main moving image frame.
  • the candidates are extracted, and the images of the extracted ball candidates are arranged in descending order of 3D likelihood of the ball and displayed in the ball candidate display area 202.
  • the moving object selection unit 106 extracts a predetermined number of ball candidates from the entire search range 302A to 302G in descending order of 3D likelihood.
  • the mobile object selection unit 106 has two ball candidates 303A and 303B in one search range 302C, but if any 3D likelihood is high compared to the other, FIG. Unlike the case of the above, the images of both ball candidates 303A and 303B are displayed in the ball candidate display area 202.
  • FIG. 10 differs from FIG. 6 in the processing when the search axis height is equal to or higher than the ball maximum arrival point (S103: NO) and the processing when the secondary ball candidate exists (S105: YES), The other processing is the same. Therefore, different processing will be described below.
  • the moving body selection unit 106 executes a likelihood ball display process for secondary ball candidates ( S111). A description of the likelihood order display process of the secondary ball candidate will be described later (see FIG. 11).
  • the moving object selection unit 106 performs the same processing as S108 in FIG. 6, and proceeds to S109. That is, in FIG. 10, compared with FIG. 6, all secondary balls whose 3D likelihood exceeds the first threshold are not limited to one secondary ball candidate in the search range 302 corresponding to the search axis height. The candidates are stored in the ball candidate table.
  • the mobile unit selecting unit 106 executes the following process instead of the process of S303 of FIG. That is, the moving body selection unit 106 rearranges the secondary ball candidate images stored in the ball candidate table in the order of 3D likelihood and displays the secondary ball candidate images in the ball candidate display area 202 (S304).
  • N or less secondary ball candidate images are displayed in the ball candidate display area 202 in the order of high 3D likelihood.
  • the mobile tracking device 10 displays the main image frame in the moving image frame display area 201, and in the ball candidate display area 202, the ball candidate image extracted from the image frame other than the main image frame is 3D. Arrange in descending order of likelihood. Then, when the user designates the correct ball position as the tracking object from the main image frame and selects the correct ball candidate image as the tracking object from the ball candidate images arranged in descending order of 3D likelihood, the mobile object tracking device 10 corrects the tracking target to the selected ball candidate.
  • the user can quickly search the ball candidate display area 202 for a correct ball candidate image as a tracking target with reference to the likelihood of the ball. Therefore, the user can quickly correct the tracking target error in the mobile tracking device 10.
  • the moving body selection unit 106 limits the search range 302 in the present moving image frame using the trajectory of the ball calculated using the previous moving image frames. For example, in FIG. 12, although a plurality of ball candidates exist in the search range 302A to 302G, since the ball draws the trajectory 501 of the fall in the moving image frames up to the previous time, the moving object selection unit 106 Are limited to search ranges 302C, 302D, and 302E located at the ball drop destination in the current moving image frame. Then, the moving object selection unit 106 arranges the ball candidate images 206 included in the limited search ranges 302C, 302D, and 302E in the order of high 3D likelihood and displays them in the ball candidate display area 202 as in the second embodiment. Do.
  • the number of ball candidate images displayed in the ball candidate display area 202 is reduced as compared with FIG. Can be searched by time).
  • the moving body selection unit 106 calculates the estimated position of the ball in the current moving image frame from the trajectory of the ball calculated using the moving image frame until the previous time, and is separated from the calculated estimated position of the ball by a predetermined distance or more
  • the secondary ball candidates included in the search range 302 are excluded from the ball candidate table (S300).
  • the process of reducing the number of displayed ball candidates by using the ball trajectory at the stage of selecting the secondary ball candidate image to be displayed in the ball candidate display area 202 has been described. May be used to reduce the number of ball candidates displayed.
  • the moving body selection unit 106 excludes the search range 302 which is separated from the estimated position of the ball in the present moving image frame by a predetermined amount or more from the search range 302 targeted for the primary ball candidate extraction process (S104) in FIG. You may Thus, the number of loop processes (S103 to S109) in FIG. 10 can be reduced.
  • the moving object tracking device 10 arranges and displays ball candidate images in descending order of 3D likelihood as in the second embodiment, but as in the first embodiment, in descending order of 3D positions. It may be displayed side by side.
  • the search range 302 separated from the trajectory of the ball by a predetermined distance or more is excluded from the target of the ball extraction process, but the mobile tracking device 10 sets the search range 302 based on the trajectory of the ball. You may If the trajectory of the ball can be accurately tracked, the ball is likely to exist near the intersection of the trajectory (including the estimated position in the current moving image frame) and the search axis 301. Therefore, by setting the search range 302 to include the intersection, the possibility of accurately extracting the ball candidate is increased.
  • the search range 302 separated by a predetermined distance or more from the trajectory of the ball is excluded from the target of the ball extraction processing, but the mobile tracking device 10 performed the ball extraction processing for each search range 302 Later, ball candidates at 3D positions separated by a predetermined distance or more from the ball trajectory may be excluded from the display targets.
  • the number of loop processes (S103 to S109) in FIG. 10 is not reduced, but the display content is recalculated when the trajectory is not considered. There is no need to do. That is, when switching the display content, the result of the ball extraction process for each search range 302 can be reused. This is useful in situations where it is difficult to predict the trajectory, for example tracking a rugby ball just before it bounces on the ground.
  • the process of excluding the ball candidate at the 3D position away from the trajectory of the ball by a predetermined distance or more from the display target is not limited to the process of step S300 in FIG.
  • a weight is added to the 3D likelihood of the found ball candidate as the distance between the trajectory and the search range 302 is shorter, etc., even if the process of step S300 is omitted, It is possible to leave a near ball candidate. Further, in this case, even if the ball candidate deviates from the trajectory, it remains as a display target if the 3D likelihood is high. Therefore, even if it is difficult to predict the trajectory, there is a high possibility that the correct ball candidate can be extracted.
  • the moving object tracking device 10 displays the main image frame in the moving image frame display area 201, and in the ball candidate display area 202, the ball candidate image extracted from the image frame other than the main image frame It narrows down based on the locus
  • the mobile tracking device 10 may be equipped with the function which concerns on two or more embodiment among these embodiments.
  • the mobile tracking device 10 has the functions according to the first to third embodiments, and displays the order of height of ball candidates and the order of likelihood in the ball candidate display area 202 on the ball selection UI 200 shown in FIG.
  • a display method switching button may be provided to switch or reduce the number of ball candidates displayed in the ball candidate display area 202 using a ball trajectory.
  • the mobile tracking device 10 may display moving image frames of the cameras 3A to 3D side by side, and provide a multi-screen selection UI 600 for selecting the correct ball as a tracking target.
  • a multi-screen selection UI 600 for selecting the correct ball as a tracking target.
  • the mobile tracking device 10 performs tracking You can recognize the correct ball as a target. This method is not suitable for quick correction because the user's operation is more time-consuming compared with the method of the above embodiment, but the mobile object tracking device 10 recognizes the tracking target ball with high accuracy. Can. Therefore, the ball selection UI 200 shown in FIG.
  • the multi-screen selection UI 600 shown in FIG. 14 may be provided with a recognition method switching button for switching to the multi-screen selection UI 600 shown in FIG. 14. Then, for example, when a correct ball candidate image does not exist in the ball candidate display area 202 as a tracking target due to, for example, a large movement of the ball, when the user presses the recognition method switching button, the mobile object tracking device 10
  • the mobile tracking device 10 is applicable also to another ball game.
  • the ball game includes those using a ball of a special shape such as rugby, or a moving body other than a ball such as badminton or hockey.
  • ball games include those with strong play side such as air hockey.
  • the ball game in the present specification refers to a competition in which the user competes for the score obtained by moving the moving object according to a predetermined rule, and the shape of the moving object to be tracked does not necessarily have to be spherical.
  • color likelihoods and motion likelihoods are exemplified as the likelihoods used for calculation of 2D likelihoods and 3D likelihoods, but other likelihoods such as shape likelihoods may be used. It is also good.
  • the form likelihood can be calculated by, for example, evaluating whether or not a ball-sized circular thing is present in a moving image frame.
  • the 2D likelihood is calculated using a plurality of types of likelihoods, but one type of likelihood may be used.
  • one type of likelihood may be used.
  • the accuracy of the calculation result of the likelihood decreases, the load of the calculation processing is reduced, which is useful when the mobile tracking device 10 is configured by a low-spec computer or the like.
  • the likelihood mentioned in each above-mentioned embodiment is only an example.
  • the likelihood is merely a criterion used to narrow down secondary ball candidates and to rearrange the display order in the second and third embodiments. That is, as long as reliable results are obtained, similar processing may be performed using a likelihood different from any of shape, color, and motion.
  • the search range is calculated according to the procedure of calculating the search axis and defining the search range around each of the plurality of points on the search axis.
  • a range including the position and having a width of a predetermined value ⁇ in the main moving image frame is set, and a columnar region in a three-dimensional space corresponding to the range is specified (superimposed).
  • the search range can also be set even in the procedure of dividing.
  • the search range is not spherical but has a shape in which the columnar region is divided perpendicularly to the axis. That is, as long as it is possible to set a range in the three-dimensional space to be projected near the position designated by the user in the main moving image frame, there is no limitation on how to set the search range.
  • a spherical range of radius ⁇ is set as the search range, but the shape of the search range does not have to be spherical.
  • the movement of the moving object is a competition such as bowling or curling without height, or there is little movement with height difference, narrowing the width in the height direction of the search range, There is a possibility that the amount of calculation can be reduced without deteriorating the accuracy much.
  • the presence or absence of a ball candidate is evaluated for each of a plurality of search ranges, but one search range may be used to evaluate the presence or absence of a ball candidate.
  • one search range may be used to evaluate the presence or absence of a ball candidate. For example, if it is possible to predict with high accuracy which point on the search axis the mobile body is located, there is a possibility that the correct tracking target can be found by evaluating only one search range including that point high.
  • the search range is set based on the intersection of the trajectory of the ball and the search axis can be considered.
  • the moving image for tracking the moving object may be recorded, or may be captured and reproduced in real time. According to the above-described embodiments, since the mobile unit to be tracked can be easily corrected, quick correction can be performed in either case. In addition, when using a moving image captured in real time, in order to make the correction work easy, it is possible to pause during correction, fast-forward after correction is completed, and follow the actual scene. .
  • the object to be tracked is not limited to a moving body such as a ball, but may be applied to tracking of a person such as an athlete.
  • the height limit for human movement is low, so it is possible to reduce the amount of calculation by narrowing the search range.
  • the functions of the mobile tracking device 10 described in the above embodiments can be realized by a computer program.
  • FIG. 15 is a diagram showing a hardware configuration of a computer that realizes the functions of the mobile tracking device 10 by a program.
  • the computer 2100 includes an input device 2101 (corresponding to the operation device 5) such as a keyboard or a mouse or a touch pad, an output device 2102 (corresponding to the display device 4) such as a display or a speaker, a CPU (central processing unit) 2103 Read Only Memory) 2104, RAM (Random Access Memory) 2105, a storage device 2106 such as a hard disk drive or a solid state drive (SSD), a digital versatile disk read only memory (DVD-ROM) or a universal serial bus (USB) memory
  • a reader 2107 for reading information from a recording medium, and a transmitter / receiver 2108 for communicating via a network are provided, and each unit is connected by a bus 2109.
  • the reading device 2107 reads the program from the recording medium storing the program for realizing the function of each of the above-described devices, and causes the storage device 2106 to store the program.
  • the transmission / reception device 2108 communicates with a server device connected to the network, and stores in the storage device 2106 a program for realizing the functions of the respective devices downloaded from the server device.
  • the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, sequentially reads out the instruction included in the program from the RAM 2105, and executes the function, whereby the functions of the respective devices are realized.
  • Each function block employed in the description of the above embodiments may typically be implemented as an LSI constituted by an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include some or all. Although an LSI is used here, it may be called an IC, a system LSI, a super LSI, or an ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • a programmable field programmable gate array FPGA
  • a reconfigurable processor that can reconfigure connection and setting of circuit cells in the LSI may be used.
  • the present invention can be applied to a mobile tracking apparatus that detects and tracks a mobile from a video of a sports competition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

球技用の移動体(例えばボール)の追跡に失敗した場合に、追跡対象を素早く修正すること。球技用の移動体を追跡する移動体追跡装置が、異なる位置にある複数のカメラがそれぞれ撮影した球技の動画フレームを受信する映像受信部と、複数の動画フレームを用いて移動体の候補を抽出する移動体候補抽出部と、移動体の候補を表示して、追跡対象の移動体の選択をユーザから受け付ける移動体選択部と、追跡対象の移動体を追跡する移動体追跡部と、を備え、移動体選択部がユーザから追跡対象の移動体の選択を受け付けた場合、移動体追跡部が追跡対象を当該ユーザに選択された移動体に修正する。

Description

移動体追跡装置及び移動体追跡方法
 本開示は、移動体追跡装置及び移動体追跡方法に関する。
 従来から、異なる視点のカメラで撮影した球技の動画フレームを用いて、ボール等の球技用の移動体を追跡する装置が知られている。例えば、非特許文献1には、バレーボールを撮影した各視点の動画フレームを用いて、ボールの3次元(以下「3D」という)位置を算出するマルチビュー3次元ボール追跡システムが開示されている。
 非特許文献1に開示されている技術では、誤ったオブジェクトを追跡対象としてしまい、ボールの追跡に失敗することがある。例えば、4台のカメラ中、2台のカメラが撮影した動画フレームにおいてボールが遮蔽又はフレームアウトされている場合、又は、動画フレームのボールの付近に当該ボールに類似する物体(人の頭など)が存在する場合などに、ボールの追跡に失敗しやすい。ユーザには、このようにボールの追跡に失敗した場合に、追跡対象を修正したいというニーズがある。特に、偶然撮影されてしまった予備のボールを追跡対象のボールと誤認してしまう場合、誤認されているオブジェクト(予備のボール)は追跡対象とほぼ同一の特徴を備えているため、追跡の失敗を自動で修正することは難しい。そのため、ユーザが容易に追跡対象を修正できるシステムが求められていた。
Xina CHENG, Norikazu IKOMA, Masaaki HONDA and Takeshi IKENAGA "Multi-view 3D Ball Tracking with Abrupt Motion Adaptive System Model, Anti-occlusion Observation and Spatial Density based Recovery in Sports Analysis", IEICE TRANS. FUNDAMENTALS, VOL.E94-A, NO.1 JANUARY 2011
 しかしながら、非特許文献1には、追跡対象を修正する手段が開示されていない。
 本開示の非限定的な実施例は、球技用の移動体の追跡に失敗した場合に追跡対象を修正することができる移動体追跡装置及び移動体追跡方法の提供に資する。
 本開示の一態様に係る移動体追跡装置は、球技用の移動体を追跡する移動体追跡装置であって、異なる位置にある複数のカメラがそれぞれ撮影した球技の動画フレームを受信する映像受信部と、前記複数の動画フレームを用いて移動体候補を抽出する移動体候補抽出部と、前記移動体候補を表示して、追跡対象の移動体の選択をユーザから受け付ける移動体選択部と、前記追跡対象の移動体を追跡する移動体追跡部と、を備え、前記移動体選択部が前記ユーザから前記追跡対象の移動体の選択を受け付けた場合、前記移動体追跡部は、前記追跡対象の移動体を、前記ユーザに選択された移動体に修正する。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示の一態様によれば、球技用の移動体の追跡に失敗した場合に追跡対象を修正することができる。
 本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
移動体追跡システムの概要を示す図。 移動体追跡装置の構成例を示す図。 ボール選択UIの例を示す図。 ボール選択UIの使用例を説明するためのシーケンス図。 実施の形態1に係るボール候補表示領域にボール候補を高さ順に表示する例を示す図。 実施の形態1に係るボール候補表示領域にボール候補を高さ順に表示する処理のフローチャート。 実施の形態1に係る1次ボール候補抽出処理の例を示すフローチャート。 実施の形態1に係る2次ボール候補の高さ順表示処理の例を示すフローチャート。 実施の形態2に係るボール候補表示領域にボール候補を尤度順に表示する例を示す図。 実施の形態2に係るボール候補表示領域にボール候補を尤度順に表示する処理のフローチャート。 実施の形態2に係る2次ボール候補の尤度順表示処理の例を示すフローチャート。 実施の形態3に係るボールの軌跡を用いてボール候補の表示数を減らす例を示す図。 実施の形態3に係るボールの軌跡を用いてボール候補の表示数を減らす処理の例を示すフローチャート。 各カメラの動画フレームからボールを選択するUIの例を示す図。 本開示の実施の形態に係るハードウェア構成の例を示す図。
 以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 また、同種の要素を区別して説明する場合には、「カメラ3A」、「カメラ3B」のように参照符号を使用し、同種の要素を区別しないで説明する場合には、「カメラ3」のように参照符号のうちの共通番号のみを使用することがある。
 (実施の形態1)
 <移動体追跡システム>
 まず、図1を参照して、移動体追跡システムの概要について説明する。
 移動体追跡システム1は、球技用の移動体の一例であるボールを追跡するためのシステムである。本実施の形態では、球技の1つであるバレーボールにおけるボールを移動体の例として説明する。ただし、移動体追跡システム1は、卓球、バスケットボール、テニス、ラグビー、アメリカンフットボール又はバドミントンなど、様々な球技に適用可能である。また、移動体追跡システム1が追跡対象とする移動体は、ボールに限られず、例えば、バドミントンのシャトルなどであってもよい。
 移動体追跡システム1は、複数のカメラ3と、表示装置4と、操作装置5と、移動体追跡装置10と、を備える。
 複数のカメラ3は、それぞれ異なる位置に設置される。例えば、バレーボールの場合、各カメラ3は、高所からコートを異なる視点(画角)で撮影できる位置に設置される。なお、図1では、カメラ3の台数が4台の場合を例示しているが、本実施の形態はこれに限られず、カメラ3の台数は2台以上であればよい。カメラ3の最小の台数が2台である理由は、後述するように、移動体追跡システム1は、1つのカメラ3の撮影したメイン動画フレームを用いて正しい追跡対象の入力を受け付け、その結果を用いて他のカメラ3が撮影した動画フレームから同じ追跡対象の候補画像を抽出するためである。また、各カメラ3は、移動体追跡装置10に接続されており、球技の状況を撮影した動画フレームを、移動体追跡装置10に送信する。カメラ3と移動体追跡装置10とは、有線又は無線の何れで接続されてもよい。
 表示装置4は、移動体追跡装置10に接続されており、移動体追跡装置10から出力される画像を表示する。表示装置4は、例えば、液晶ディスプレイ装置又は有機ELディスプレイ装置等である。
 操作装置5は、移動体追跡装置10に接続されており、ユーザによる操作情報を、移動体追跡装置10に入力する。操作装置5は、例えば、キーボード、マウス、マイク及び/又はタッチパネル等である。なお、操作装置5及び表示装置4は一体型の装置であってもよい。
 移動体追跡装置10は、各カメラ3で撮影された動画フレームから、球技で用いられるボールを追跡し、そのボールの追跡結果(例えばボールの軌跡)を表示装置4に表示する。
 <移動体追跡装置>
 次に、図2を参照して、移動体追跡装置10の詳細について説明する。
 移動体追跡装置10は、映像受信部101と、移動体特定部102と、移動体追跡部103と、移動体位置出力部104と、移動体候補抽出部105、移動体選択部106と、を備える。
 映像受信部101は、各カメラ3A~3Dから送信される動画フレームを受信し、移動体特定部102及び移動体選択部106に入力する。動画フレームは、例えば、MP4、H.264、H.265、又は、Motion JPEG等のフレーム画像であってよい。
 移動体特定部102は、映像受信部101から入力された各カメラ3A~3Dの動画フレームから、追跡対象のボールのオブジェクトを特定し、当該ボールの3次元空間における位置(以下「3D位置」という)を特定する。例えば、移動体特定部102は、非特許文献1の方法によって、追跡対象のボールのオブジェクト及び3D位置を特定する。なお、ボールの3D位置は、3次元空間の座標(x,y,z)で表されてよい。
 移動体追跡部103は、移動体特定部102で特定されたボールの3D位置を追跡する。すなわち、移動体追跡部103は、ボールの3D位置の時間的変化を記録する。例えば、移動体追跡部103は、非特許文献1の方法によってボールの3D位置を追跡する。
 移動体位置出力部104は、ボールの3D位置の追跡結果(例えばボールの軌跡)を、表示装置4に出力する。
 移動体候補抽出部105は、映像受信部101から入力された各カメラ3A~3Dの動画フレームから、ボール候補を抽出する。ボール候補とは、追跡対象のボールと推測されるオブジェクトである。なお、移動体候補抽出部105の処理の詳細については後述する(図7参照)。
 移動体選択部106は、追跡対象を修正するためのUI(以下「ボール選択UI」という)200(図3参照)を生成し、表示装置4に表示する。ユーザは、移動体特定部102が追跡対象を誤っている場合に、操作装置5を介してボール選択UI200を操作することにより、追跡対象を修正することができる。なお、移動体選択部106の処理の詳細については、後述する(図6及び図8参照)。
 移動体選択部106は、例えば、次の何れかの場合に、ボール選択UI200を表示する。
 (A1)ユーザが、追跡対象が誤っていることに気づき、所定の操作を行った場合。
 (A2)移動体候補抽出部105がボール候補を抽出できない場合。
 (A3)移動体候補抽出部105が抽出したボール候補の何れもが所定の閾値未満の尤度である場合。ボール候補の尤度とは、当該ボール候補が、追跡対象として正しいボールである可能性を示す指標である。なお、ボール候補の尤度の算出方法の詳細については後述する。
 (A4)移動体追跡部103が、追跡対象のボールの軌跡が異常であると判定した場合。異常と判定する場合とは、例えば、追跡対象のボールの軌跡が、バレーボールにおける典型的なボールの軌跡から大きく外れている場合等である。
 <ボール選択UI>
 次に、図3及び図4を参照して、ボール選択UI200とその使用例について説明する。
 ボール選択UI200は、図3に示すように、動画フレーム表示領域201と、ボール候補表示領域202とを有する。
 動画フレーム表示領域201には、ユーザによって選択された1つのカメラ3の動画フレーム(以下「メイン動画フレーム」という)が表示される。
 ボール候補表示領域202には、メイン動画フレーム以外の動画フレームに撮影されているボール候補の画像が表示される。
 次に、図4を参照して、ボール選択UI200の使用方法について説明する。
 (S11)ユーザは、各カメラ3A~3Dの動画フレームのうち、ボールが良く撮影されている1つのカメラ3の動画フレームを選択する。図3は、ユーザが、カメラ3Aの動画フレームを選択した場合の例である。
 なお、ボール選択UI200を表示する条件が上述の(A2)~(A4)の場合、移動体選択部106は、誤追跡が発生したと判断されたフレーム以前の2D尤度に基づいて、最適なメイン動画フレームを自動で選択してもよい。または、実際の操作上、画面の切り替わりが激しい場合、移動体選択部106は、メイン動画フレームを、一定のフレーム間隔で2D尤度の高い画面に更新したり、メイン動画フレームの2D尤度が所定の閾値以下となった場合に他のメイン動画フレームに自動で切り換えたりしてもよい。まだ操作に慣れていないユーザは、このように適切なメイン動画フレームを自動で選択する設定をオンにすることにより、当該移動体追跡装置10を容易に利用することができる。
 (S12)移動体選択部106は、S11で選択されたメイン動画フレーム203を、動画フレーム表示領域201に表示する。
 (S13)ユーザは、選択カーソル204を移動させて、動画フレーム表示領域201に表示されたメイン動画フレーム203の中から、追跡対象として正しいボールの位置を指定(クリック又はタッチ等)する。
 (S14)移動体選択部106は、S13で指定された、メイン動画フレーム203における正しいボールの2D位置(座標)に応じて、3D空間における探索軸301(図5参照)を算出する。探索軸301とは、図5に示すように、メイン動画フレーム203を撮影したカメラ3Aの3D空間における位置(座標)と、S13で指定された正しいボールの2D位置の3D空間における位置(座標)とを結ぶ軸線である。なお、カメラ3Aの3D空間における位置(座標)は、ユーザによって入力されてもよいし、センサ等を用いた検出結果から自動で設定されてもよい。
 (S15)移動体選択部106は、メイン動画フレーム203以外の動画フレームから、探索軸301上の点を含む各探索範囲302A~302G(図5参照)に含まれているボール候補画像を抽出し、ボール候補表示領域202に表示する。図3は、カメラ3B、3C、3Dの動画フレームからそれぞれ抽出されたボール候補画像206を、ボール候補表示領域202に表示した例である。
 このとき、移動体選択部106は、図3に示すように、同じ3D位置に対応するボール候補画像206については1つのグループ207としてまとめて表示し、グループ単位で追跡対象として正しいボール候補画像206を選択できるようにする。ここでは、同じ探索範囲302に対応するボール候補画像206を同じ3D位置に対応するボール候補画像206であると近似して説明するが、ボール候補画像206をより詳細に解析して正確な3D位置を算出してもよい。
 なお、図3の例において、高さ515cm、785cm、1025cmには、一部のカメラ3が撮影したボール候補画像206にオブジェクトが映っていない。これは、同一の3D位置を撮影したとしても、障害物の存在などにより、オブジェクトを撮影できない場合があるためである。実際の環境では、すべてのカメラ3から撮影できたオブジェクトが、必ずしも正しいボールであるとは限らない。例えば、図3における高さ155cmの探索範囲には、正しいボールは撮影されていない。そのため、移動体選択部106は、一部のカメラ3でオブジェクトが見つからない場合であっても、比較的高い尤度が算出されている場合、同じ3D位置のボール候補画像206を、修正候補としてグループ207にまとめて表示する。なお、ボール候補画像の抽出処理の詳細については後述する。
 (S16)ユーザは、選択カーソル205を移動させて、ボール候補表示領域202の中から、追跡対象として正しいボール候補画像206のグループ207を選択する。
 (S17)移動体選択部106は、S16で選択されたボール候補を識別するための情報(例えば3D座標又はオブジェクトID等)を、移動体特定部102に出力する。
 (S18)移動体特定部102は、追跡対象を、S17で出力されたボール候補に修正する。
 このように、移動体追跡装置10において追跡対象が誤っている場合に、ユーザは、ボール選択UI200に対して上記S13とS15に示す2回の操作を行うことにより、追跡対象を正しいボールに修正することができる。
 すなわち、移動体追跡装置10は、S13において指定された位置をもとに正しいボールである尤度の高い3D位置の画像(ボール候補画像)をグループ分けして提示する。これにより、ユーザは同じ3D位置におけるボール候補を他のカメラ(カメラ3B~3C)の視点から確認することができ、正しいボールであるか否かを容易に判断することができる。
 また、移動体追跡装置10では、ユーザは、S15にてカメラ3B~3Cにおける正しいボールの3D位置をグループ単位で一括指定できる。そのため、ユーザがすべてのカメラ3の映像全体から正しいボール候補を目視で確認し、その3D位置を指定する作業を行う場合と比較して、移動体追跡装置10は、正しいボールを選択するユーザの手間を低減することができる。
 また、移動体追跡装置10は、尤度の高い修正候補周辺の画像をボール候補画像206として抽出して表示することができ、また、後述する通り、抽出したボール候補画像206の表示順を整列することができる。したがって、移動体追跡装置10を利用するユーザは、修正候補の確認を容易に行うことができる。
 なお、移動体選択部106は、一定時間(S16)の操作がなされず、かつ、後述する尤度順でのボール表示であった場合、最も3D尤度の高い候補を自動で選択してもよい。これにより、ユーザーの操作負担が軽減されることが期待でき、また、候補が1つのみの場合に、ユーザが素早く次の動作に移行することができる。すなわち、ユーザは、移動体追跡装置10において追跡が失敗した場合に、簡単に素早く(短時間で)、追跡対象を修正することができる。
 移動体選択部106は、ボール候補表示領域202に表示するボール候補画像206を、様々な条件で並び替えることができる。次に、ボール候補画像206を3D位置の高さ順に並べて表示する方法について説明する。
 <ボール候補を高さ順に表示する例>
 次に、図5を参照して、ボール候補表示領域202にボール候補画像を高さ順に表示する例について説明する。
 移動体選択部106は、メイン動画フレームとは別の視点で撮影された動画フレームから、探索軸301上の点を含む各探索範囲302A~302Gに撮影されているボール候補画像を抽出する。例えば、移動体選択部106は、図5に示すように、メイン動画フレーム以外の各動画フレームにおける、探索軸301上の中心が高さ方向に互いに異なるように設定された複数の探索範囲302A~302Gからそれぞれボール候補を抽出し、それら抽出したボール候補の画像を、ボールの3D位置の高さ順に並べてボール候補表示領域202に表示する。また、移動体選択部106は、各カメラ3の動画フレームの同じ探索範囲302から抽出した同じオブジェクトと推定されるボール候補の画像を、1つのグループとしてまとめて表示する。
 なお、移動体選択部106は、1つの探索範囲302から1つのボール候補を抽出するとしてよい。例えば、図5において、1つの探索範囲302Cに2つのボール候補303A、303Bが存在しているので、移動体選択部106は、尤度の高い方の1つのボール候補303Aを抽出し、ボール候補表示領域202に表示する。これにより、表示する候補の数を尤度の高いものに限定することができるので、ユーザによる確認の手間を低減できる。
 また、ボール候補303A、303Bの両方をボール候補として抽出してもよい。例えば、ボール候補303A、303Bの両方が他の探索範囲302のボール候補よりも高い尤度である場合は、何れか一方のボール候補を抽出するよりも、両方のボール候補を抽出する方が、正しいボール候補を抽出できる可能性が高い。
 <ボール候補を高さ順に表示する処理フロー>
 次に、図6から図8のフローチャートを参照して、ボール候補を3D位置の高さ順にボール候補表示領域202に表示する処理の例について説明する。本処理は、ユーザが、メイン動画フレームの中から、追跡対象として正しいボールの位置を指定(つまり図4のS13を実行)した後に実行される。
 まず、移動体選択部106は、メイン動画フレームの中から選択されたボールの2D位置に対応する、3D空間における探索軸301を算出する(S101)。
 次に、移動体選択部106は、探索軸高(変数)を0(初期値)に設定する(S102)。この検索軸高が、探索範囲302の中心点の高さ位置に相当する。
 次に、移動体選択部106は、探索軸高が所定のボール最高到達点未満であるか否かを判定する(S103)。ボール最高到達点は、球技の種目によって異なる。例えば、バレーボールの場合、規則により、コートから天井までの高さを12.5m以上確保する必要がある。すなわち、球技の規則が想定しているボール最高到達点が12.5mであるので、この値を使用する。なお、規則を上回る高さをボール最高到達点としてもよいが、ボール最高到達点を高く設定するほど処理に時間がかかる。よって、処理速度と追跡範囲のバランスの観点から、規則通りの高さをボール最高到達点として使用することが好ましい。なお、ボールの最高到達点までが画像内に含まれるように撮影することができない場合、移動体選択部106は、キャリブレーション等で撮影可能範囲内での最高到達点を算出し、その値を用いてもよい。
 探索軸高がボール最高到達点以上の場合(S103:NO)、移動体選択部106は、2次ボール候補の高さ順表示処理を実行する(S110)。なお、2次ボール候補の高さ順表示処理の説明については後述する(図8参照)。
 探索軸高がボール最高到達点未満の場合(S103:YES)、移動体候補抽出部105は、探索軸高に対応する探索範囲302における1次ボール候補抽出処理(S104)を実行する。なお、1次ボール候補抽出処理の説明については後述するが(図7参照)、当該処理により、各ループ処理(S103~S109)における探索軸高に対応する探索範囲302に含まれる1次ボール候補とその3D尤度が算出される。
 次に、移動体選択部106は、1次ボール候補のうち3D尤度が第1閾値を超えるボール候補(「2次ボール候補」という)が存在するか否かを判定する(S105)。なお、第1閾値は、撮影環境毎に異なる。例えば、第1閾値は、その撮影環境において、ボールの追跡に成功したときの3D尤度の平均値に基づいて設定されてよい。これにより、正しい追跡対象である可能性の低い移動体を除外することができる。つまり、修正の候補として不適切なものが抽出されることを抑制することができる。
 2次ボール候補が存在しない場合(S105:NO)、移動体選択部106は、S109の処理へ進む。
 2次ボール候補が存在する場合(S105:YES)、移動体選択部106は、2次ボール候補が複数存在するか否かを判定する(S106)。
 2次ボール候補が1つしか存在しない場合(S106:NO)、移動体選択部106は、S108の処理へ進む。
 2次ボール候補が複数存在する場合(S106:YES)、移動体選択部106は、3D尤度が最も高い2次ボール候補を選択し(S107)、S108の処理へ進む。
 移動体選択部106は、2次ボール候補の3D座標をボール候補テーブル(図示せず)に格納する。また、移動体選択部106は、メイン動画フレーム以外の各動画フレームから2次ボール候補が撮影されている部分の画像(「ボール候補画像」という)を抽出し、ボール候補テーブルに格納する(S108)。
 次に、移動体選択部106は、探索軸高に所定値αを加算し(S109)、S103へ戻る。所定値αは、互いに異なる探索軸高に対応する探索範囲302が一部重複するように設定されてよい。例えば、所定値αは、ボールの半径に応じた値であってよい。バレーボールの例では、競技用のボールの直径は21cmであるため、所定値αは約11cmとなる。
 以上の処理により、最高到達点までの各探索範囲302から2次ボール候補が抽出され、ボール候補テーブルに格納される。
 次に、図7のフローチャートを参照して、図6における1次ボール候補抽出処理(S104)の例について説明する。
 まず、移動体候補抽出部105は、図6のループ処理(S103~S109)の探索軸高に対応する探索範囲302に含まれる、1次ボール候補の3D座標を算出する(S201)。
 次に、移動体候補抽出部105は、1次ボール候補の3D座標を、4つのカメラ3A、3B、3C、3Dの動画フレームのそれぞれにおける2D座標に変換する(S202)。
 次に、移動体候補抽出部105は、4台のカメラ3A、3B、3C、3Dの動画フレームのそれぞれにおいて、所定のサンプル画像を用いて、1次ボール候補のボールの色味らしさを数値化した値(以下「色尤度」という)を算出する(S203)。なお、競技の種類や大会主催者の意向などにより使用するボールの色や模様が替わるため、正しいボールのサンプル画像を用いて色尤度を算出する。例えば、色ヒストグラムを算出し、ボール候補とサンプル画像のヒストグラムを比較することにより、色尤度を算出する。
 次に、移動体候補抽出部105は、4台のカメラ3A、3B、3C、3Dの動画フレームのそれぞれにおいて、過去のフレーム画像(例えば前フレーム画像)との差分、背景画像との差分、または、複数のフレーム画像を用いて特徴的な動きを排除した動的背景モデルとの動きの差分を用いて、1次ボール候補に相当する2D座標で物体が動いたか否かを数値化した値(以下「動き尤度」という)を算出する(S204)。
 次に、移動体候補抽出部105は、動画フレームのそれぞれにおいて、S203で算出した色尤度とS204で算出した動き尤度とを用いて、各動画フレームにおける1次ボール候補の尤度(「2D尤度」という)を算出する(S205)。
 次に、移動体候補抽出部105は、4つの動画フレームのうち、2D尤度の高い順に3つの動画フレームを特定し、当該特定した3つの動画フレームの情報を統合し、3D座標における1次ボール候補の尤度(「3D尤度」という)を算出する(S206)。例えば、移動体候補抽出部105は、その特定した3つの2D尤度を乗算及び正規化して、3D尤度を算出する。
 なお、3D尤度の算出方法は上述したものに限られない。例えば、各カメラ3の2D尤度に応じて3D尤度を算出する際の優先度を可変にしてもよい。一例として、カメラ3Aの2D尤度が極めて高く、カメラ3Bの2D尤度が比較的低い場合、移動体候補抽出部105は、乗算及び正規化を行う際に、カメラ3Aの2D尤度がカメラ3Bの2D尤度よりも優先的に3D尤度に反映されるよう、重み付けを行ってもよい。
 また、上述の算出方法では、2D尤度の高い順に3台のカメラからの動画フレームの情報を3D尤度の算出に用いているが、2D尤度が所定の閾値を超えている2台のカメラからの動画フレームの情報を、3D尤度の算出に用いてもよい。ここで、3D尤度の算出に2台のカメラからの情報を用いている理由は、3D位置の算出に少なくとも2台のカメラからの情報が必要なためである。多数のカメラが存在する場合は、2台又は3台のカメラに限らず、より多くのカメラからの情報を用いて3D尤度を算出してもよい。また、2D尤度が所定の閾値を超えているカメラの台数が2台未満の場合には、その探索範囲302に存在する1次ボール候補の3D尤度を、ゼロと見做してもよい。上述の通り、3D位置の算出には少なくとも2台のカメラからの情報が必要であるため、2D尤度が閾値未満のカメラの台数が2台未満の場合に3D位置を算出しようとすると、2D尤度の低いカメラからの情報を使わざるを得なくなるためである。
 また、3D尤度の算出方法としては、閾値と重み付けの両方を反映するなど、様々なものが考えられる。後述する通り、3D尤度は、探索範囲302に存在するボール候補の絞り込み又は順位付けに使用されるため、探索範囲302間で同じ基準で評価できる結果が得られるのであれば、3D尤度の算出方法は問わない。
 以上の処理により、探索軸高に対応する探索範囲302に存在する1次ボール候補のそれぞれについて、3D尤度が算出される。
 次に、図8のフローチャートを参照して、図6における2次ボール候補の高さ順表示処理(S110)の例について説明する。
 まず、移動体選択部106は、2次ボール候補の数が所定のN個(Nは1以上の整数)よりも多いか否かを判定する(S301)。
 2次ボール候補の数がN個以下である場合(S301:NO)、移動体選択部106は、S303へ進む。
 2次ボール候補の数がN個よりも多い場合(S301:YES)、移動体選択部106は、3D尤度の高い順にN個の2次ボール候補をボール候補テーブルに残し、それ以外の2次ボール候補をボール候補テーブルから除外する(S302)。
 次に、移動体選択部106は、ボール候補テーブルに残っている2次ボール候補画像を、3D座標の高さ方向(z軸方向)の高い順に並び替えて、ボール候補表示領域202に表示する(S303)。
 以上の処理により、N個以下の2次ボール候補画像が、3D座標の高さ方向の高い順に並んでボール候補表示領域202に表示される。
 なお、上述以外の方法として、ボール画像候補をN個に絞らず全て表示してもよい。撮影環境上、類似する物体が多数存在するような場合は、ボール画像候補をN個に絞ると、正しいボール候補が失われてしまう恐れがあるため、全てのボール画像候補を表示させてもよい。
 また、Nはボール候補表示領域202に表示する候補の数に上限を設けるための値であり、ボール候補表示領域202の広さ、解像度、又は、修正を行うユーザの習熟度など、様々な要因によって適切なNの値は異なる。そのため、Nの値は固定値である必要はなく、ユーザの指示などに応じて随時変更可能な値であってよい。
 <実施の形態1の効果>
 実施の形態1では、移動体追跡装置10は、動画フレーム表示領域201にメイン画像フレームを表示し、ボール候補表示領域202に、メイン画像フレーム以外の画像フレームから抽出されたボール候補画像206を、3D位置の高さ順に並べて表示する。そして、ユーザが、メイン画像フレームから、追跡対象として正しいボールの位置を指定し、3D位置の高さ順に並べられたボール候補画像206から、追跡対象として正しいボール候補画像206を選択すると、移動体追跡装置10は、追跡対象をその選択されたボール候補に修正する。
 これにより、ユーザは、動画フレーム表示領域201と、ボール候補表示領域202とに対して操作を行うだけで、簡単に追跡対象を修正することができる。また、ユーザは、ボール候補表示領域202から、ボールの高さを参考に、追跡対象として正しいボール候補画像206を素早く探すことができる。よって、ユーザは、移動体追跡装置10における追跡対象の誤りを素早く修正することができる。
 (実施の形態2)
 実施の形態2では、ボール候補を尤度順に表示する例について説明する。なお、実施の形態2では、実施の形態1と相違する点について説明し、実施の形態1と共通する点については説明を省略する。
 <ボール候補を尤度順に表示>
 まず、図9を参照して、ボール候補表示領域202にボール候補を尤度順に表示する例について説明する。
 移動体選択部106は、図9に示すように、メイン動画フレーム以外の各動画フレームにおける、探索軸301上に中心が高さ方向に互いに異なるように設定された複数の探索範囲302からそれぞれボール候補を抽出し、それら抽出したボール候補の画像を、ボールの3D尤度の高い順に並べてボール候補表示領域202に表示する。
 このとき、移動体選択部106は、全探索範囲302A~302Gから3D尤度の高い順に、所定数のボール候補を抽出する。例えば、図9において、移動体選択部106は、1つの探索範囲302Cに2つのボール候補303A、303Bが存在しているが、何れの3D尤度も他と比較して高いならば、図5の場合とは異なり、両方のボール候補303A、303Bの画像を、ボール候補表示領域202に表示する。
 <ボール候補を尤度順に表示する処理フロー>
 次に、図10及び図11のフローチャートを参照して、ボール候補を尤度順にボール候補表示領域202に表示する処理について説明する。本処理は、図6の場合と同様、ユーザが、メイン動画フレームの中から、追跡対象として正しいボールの位置を指定(つまり図4のS13を実行)した後に実行される。
 図10は、図6と比較して、探索軸高がボール最高到達点以上の場合(S103:NO)の処理と、2次ボール候補が存在する場合(S105:YES)の処理とが異なり、それ以外の処理は同じである。そこで、以下では、異なる処理について説明する。
 移動体選択部106は、探索軸高がボール最高到達点以上の場合(S103:NO)、すなわち2次ボール候補の抽出が完了した場合、2次ボール候補の尤度順表示処理を実行する(S111)。なお、2次ボール候補の尤度順表示処理の説明については後述する(図11参照)。
 また、移動体選択部106は、2次ボール候補が存在する場合(S105:YES)、図6のS108と同様の処理を行い、S109に進む。すなわち、図10では、図6と比較して、探索軸高に対応する探索範囲302内において1つの2次ボール候補に限定せずに、3D尤度が第1閾値を超える全ての2次ボール候補を、ボール候補テーブルに格納する。
 以上の処理により、最高到達点までの各探索範囲302において、3D尤度が第1閾値を超える2次ボール候補が抽出され、ボール候補テーブルに格納される。
 次に、図11のフローチャートを参照して、図10における2次ボール候補の尤度順表示処理(S111)について説明する。
 移動体選択部106は、図8のS303の処理に代えて、次の処理を実行する。すなわち、移動体選択部106は、ボール候補テーブルに格納されている2次ボール候補画像を、3D尤度の高さ順に並び替えて、ボール候補表示領域202に表示する(S304)。
 以上の処理により、N個以下の2次ボール候補画像が、3D尤度の高い順に並んでボール候補表示領域202に表示される。
 <実施の形態2の効果>
 実施の形態2では、移動体追跡装置10は、動画フレーム表示領域201にメイン画像フレームを表示し、ボール候補表示領域202に、メイン画像フレーム以外の画像フレームから抽出されたボール候補画像を、3D尤度の高い順に並べて表示する。そして、ユーザが、メイン画像フレームから、追跡対象として正しいボールの位置を指定し、3D尤度の高い順に並べられたボール候補画像から、追跡対象として正しいボール候補画像を選択すると、移動体追跡装置10は、追跡対象をその選択されたボール候補に修正する。
 これにより、ユーザは、ボール候補表示領域202から、ボールの尤度を参考に、追跡対象として正しいボール候補画像を素早く探すことができる。よって、ユーザは、移動体追跡装置10における追跡対象の誤りを、素早く修正することができる。
 (実施の形態3)
 実施の形態3では、前回までの動画フレームにおけるボールの軌跡を用いて、ボール候補の表示数を減らす例について説明する。なお、実施の形態3では、実施の形態2と相違する点について説明し、実施の形態2と共通する点については説明を省略する。
 <ボールの軌跡を用いてボール候補の表示数を減らして表示>
 まず、図12を参照して、ボールの軌跡を用いてボール候補数を減らし、ボール候補表示領域202に表示する例について説明する。
 移動体選択部106は、前回までの動画フレームを用いて算出されるボールの軌跡を用いて、今回の動画フレームにおける探索範囲302を限定する。例えば、図12において、探索範囲302A~302Gに複数のボール候補が存在しているが、前回までの動画フレームにおいてボールが落下の軌跡501を描いているので、移動体選択部106は、探索範囲を、今回の動画フレームにおけるボールの落下先に位置する探索範囲302C、302D、302Eに限定する。そして、移動体選択部106は、その限定した探索範囲302C、302D、302Eに含まれるボール候補画像206を、実施の形態2と同様に、3D尤度の高い順に並べてボール候補表示領域202に表示する。
 これにより、図12に示すように、図9と比較して、ボール候補表示領域202に表示されるボール候補画像の数が減るので、ユーザは、追跡対象として正しいボール候補を、より素早く(短時間で)探すことができる。
 <ボールの軌跡を用いてボール候補の表示数を減らして表示する処理フロー>
 次に、図13のフローチャートを参照して、ボールの軌跡を用いて、ボール候補の数を減らしてボール候補表示領域202に表示する処理の例について説明する。
 図13は、図11と比較して、S301の処理の前に、次の処理を実行する点が相違する。すなわち、移動体選択部106は、前回まで動画フレームを用いて算出されたボールの軌跡から、今回の動画フレームにおけるボールの推定位置を算出し、その算出したボールの推定位置から所定以上離れている探索範囲302に含まれる2次ボール候補を、ボール候補テーブルから除外する(S300)。
 以上の処理により、図9と比較して少ない数の2次ボール候補画像が、3D尤度の高い順に並んでボール候補表示領域202に表示される。
 <実施の形態3の変形例>
 なお、上述では、ボール候補表示領域202に表示する2次ボール候補画像を選択する段階で、ボールの軌跡を用いてボール候補の表示数を減らす処理について説明したが、別の段階でボールの軌跡を用いてボール候補の表示数を減らしてもよい。例えば、移動体選択部106は、今回の動画フレームにおけるボールの推定位置から所定以上離れている探索範囲302を、図10における1次ボール候補抽出処理(S104)の対象とする探索範囲302から除外してもよい。これにより、図10におけるループ処理(S103~S109)の回数を減らすことができる。
 また、図12では、移動体追跡装置10は、ボール候補画像を実施の形態2と同様に3D尤度の高い順に並べて表示しているが、実施の形態1と同様に、3D位置の高い順に並べて表示してもよい。
 また、図13のS300では、ボールの軌跡から所定以上離れた探索範囲302をボール抽出処理の対象から除外しているが、移動体追跡装置10は、ボールの軌跡に基づいて探索範囲302を設定してもよい。ボールの軌跡が正確に追跡できているのであれば、ボールは(今回の動画フレームにおける推定位置まで含めた)軌跡と探索軸301の交点付近に存在する可能性が高い。そのため、この交点を含むような探索範囲302を設定することで、ボール候補を正確に抽出できる可能性が高まる。
 また、図13のS300では、ボールの軌跡から所定以上離れた探索範囲302をボール抽出処理の対象から除外しているが、移動体追跡装置10は、各探索範囲302についてボール抽出処理を行った後で、ボールの軌跡から所定以上離れた3D位置のボール候補を表示対象から除外してもよい。この場合、ボールの軌跡から所定以上離れたボール候補も抽出するため、図10におけるループ処理(S103~S109)の回数は減らないが、表示内容を、軌跡を考慮しないものに切り替える場合に再計算を行う必要がない。つまり、表示内容の切り替えの際に、各探索範囲302についてのボール抽出処理の結果を再利用することができる。これは、例えば地面で跳ねる直前のラグビーボールの追跡など、軌跡を予測しにくい状況で有益である。
 また、ボールの軌跡から所定以上離れた3D位置のボール候補を表示対象から除外する処理は、図13のステップS300の処理に限られない。例えば、軌跡と探索範囲302との距離が近いほど、見つかったボール候補の3D尤度に大きな重みを付加するなどとすれば、ステップS300の処理を省略しても、ステップS302の処理において軌跡に近いボール候補を残すことができる。また、この場合、軌跡から外れたボール候補であっても、3D尤度が高ければ表示対象に残る。そのため、軌跡の予測が難しい場合であっても、正しいボール候補を抽出することができる可能性が高まる。
 <実施の形態3の効果>
 実施の形態3では、移動体追跡装置10は、動画フレーム表示領域201にメイン画像フレームを表示し、ボール候補表示領域202に、メイン画像フレーム以外の画像フレームから抽出されたボール候補画像を、前回までの動画フレームから算出されるボールの軌跡に基づいて絞り込み、ボール候補の3D尤度の高い順に並べて表示する。
 これにより、ユーザは、少ない数のボール候補画像から、追跡対象として正しいボール候補を素早く探すことができる。よって、ユーザは、移動体追跡装置10の追跡対象の誤りを、素早く修正することができる。
 以上、幾つかの実施の形態について説明したが、移動体追跡装置10は、これらの実施の形態のうち、2つ以上の実施の形態に係る機能を備えてもよい。例えば、移動体追跡装置10は、実施の形態1から3に係る機能を備え、図3に示すボール選択UI200に、ボール候補表示領域202におけるボール候補の高さ順と尤度順との表示を切り換えたり、ボール候補表示領域202におけるボール候補の表示数をボールの軌跡を用いて減らしたりするための表示方法切替ボタンを設けてもよい。
 また、移動体追跡装置10は、図14に示すように、各カメラ3A~3Dの動画フレームを並べて表示し、追跡対象として正しいボールを選択するための多画面選択UI600を提供してもよい。例えば、ユーザが、多画面選択UI600の各動画フレームにおいて、選択カーソル601A、601B、601C、601Dを操作して、追跡対象のボールの位置を指定(クリック)すると、移動体追跡装置10は、追跡対象として正しいボールを認識することができる。この方法は、上述の実施の形態の方法と比較して、ユーザの操作の手間が多いため、素早い修正には向かないが、移動体追跡装置10が高い精度で追跡対象のボールを認識することができる。そこで、図3に示すボール選択UI200に、図14に示す多画面選択UI600に切り替えるための認識方法切替ボタンを設けてもよい。そして、例えばボールのぶれが大きい等により、ボール候補表示領域202に追跡対象として正しいボール候補画像が存在しない場合に、ユーザが当該認識方法切替ボタンを押下すると、移動体追跡装置10は、図14に示す多画面選択UI600を表示してもよい。
 また、上述の各実施の形態では、バレーボールを例に説明したが、移動体追跡装置10は他の球技にも応用できる。ここで、球技とは、ラグビーなどの特殊な形状のボール、バドミントン又はホッケーなどの球以外の移動体を使用するものも含む。また、球技には、エアホッケーなどの遊戯的な側面が強いものも含む。すなわち、本明細書における球技は、移動体を所定のルールで動かすことによって獲得される点数等を競う競技を指すものであり、追跡対象となる移動体の形状も必ずしも球状である必要はない。
 また、上述の各実施の形態では、高さの違いを基準に複数の探索範囲を設けているが、奥行き又は水平方向の違いを基準に複数の探索範囲を設けてもよい。例えば、ボウリング又はカーリングなど、移動体が定められた平面を移動する球技を、当該平面とほぼ同じ高さから撮影する場合、探索軸の高さはほぼ一定になってしまう。その結果、高さの違いを基準にすると、探索範囲を設けること自体が困難となる。この場合は、高さとは異なる基準で探索範囲を設定することが有益である。奥行き又は水平方向の違いを基準に探索範囲を設ける場合における動作の詳細な説明は、上述の各実施の形態において、高さを奥行き又は水平位置などに読み替えればよいので、省略する。
 上述の各実施の形態では、2D尤度および3D尤度の算出に用いる尤度として、色尤度と動き尤度を例として挙げているが、形尤度など、他の尤度を用いてもよい。形尤度は、バレーボールの場合、動画フレーム内にボール大の円形のものが存在するか否かを評価することなどで計算することができる。
 また、上記の各実施の形態では、複数種類の尤度を用いて2D尤度を算出しているが、使用する尤度は一種類であってもよい。この場合、尤度の計算結果の精度は低下するが、計算処理の負荷は軽くなるので、低スペックのコンピュータなどで移動体追跡装置10が構成されている場合に有益である。
 また、上述の各実施の形態で挙げた尤度は一例に過ぎない。上述した各実施の形態において、尤度は、2次ボール候補の絞り込み、および、実施の形態2および3における表示順の並べ替えに用いる基準に過ぎない。すなわち、信頼できる結果が得られるのであれば、形・色・動きの何れとも異なる尤度を用いて同様の処理を行っても構わない。
 上述の各実施の形態では、探索軸を算出し、探索軸上の複数の点のそれぞれ周囲に探索範囲を定める手順で探索範囲を設定している。しかし、探索範囲の設定方法は他にも様々なものが考えられる。例えば、ユーザからの位置の指定を受けると、メイン動画フレームにおいて当該位置を含み所定値αの幅を持つ範囲を設定し、その範囲に対応する3次元空間における柱状の領域を特定して(重畳させつつ)分割する手順でも、探索範囲を設定することができる。この場合、探索範囲は球状のものではなく、柱状領域を軸に対して垂直に分割した形状となる。すなわち、メイン動画フレームにおいてユーザの指定した位置の近傍に投影されるような3次元空間における範囲を設定できるのであれば、探索範囲の定め方は問わない。
 上述の各実施の形態では、探索範囲として半径αの球状の範囲を設定しているが、探索範囲の形状は必ずしも球状である必要はない。例えば、移動体の動きが、ボウリング又はカーリングのように高さを伴わない、または高低差のある移動が少ないような競技のものであれば、探索範囲の高さ方向の幅を狭めることにより、精度をあまり劣化させずに計算量を削減できる可能性がある。また、上述した、柱状領域を軸に対して垂直に分割したときの探索範囲のように、探索範囲の設定の仕方によっては、球状でない探索範囲を用いることも考えられる。すなわち、移動体が探索範囲内に含まれる可能性が高く、計算量が非現実的なものにならない限り、探索範囲の形状は問わない。
 上述の各実施の形態では、複数の探索範囲それぞれについてボール候補の有無を評価しているが、ボール候補の有無を評価する探索範囲を1つとしてもよい。例えば、移動体が探索軸上のどの点の近傍に存在するかを高精度に予測することができる場合、その点を含む探索範囲を1つ評価するだけで正しい追跡対象が発見できる可能性が高い。このような状況の具体例としては、実施の形態3の変形例のように、ボールの軌跡と探索軸との交点に基づいて探索範囲を設定する場合などが考えられる。なお、1つの探索範囲のみを用いる場合は、移動体の位置が予測と多少ずれていても探索範囲に含まれるよう、探索範囲を、移動体の大きさよりも広めに設定することが望ましい。
 上述の各実施の形態において、移動体の追跡を行う動画は、録画済みのものであってもよいし、リアルタイムで撮影されて再生されているものであってもよい。上述の各実施の形態によれば、追跡対象の移動体の修正を容易に行うことができるので、どちらの場合であっても素早い修正を行うことができる。なお、リアルタイムで撮影されている動画を使用する場合は、修正の作業を容易にするため、修正中は一時停止し、修正が完了した後に早送りを行って実際の場面に追従させるものとしてもよい。
 上述の各実施の形態において、追跡する対象をボール等の移動体に限定せず、競技選手等の人間の追跡にも適用してもよい。ボールと違い、人間の移動については高さの限度は低いため、探索範囲を狭めることにより、計算量を少なくすることも可能である。
 また、上述の実施の形態において説明してきた移動体追跡装置10の機能は、コンピュータプログラムにより実現され得る。
 図15は、移動体追跡装置10の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ2100は、キーボード又はマウス、タッチパッドなどの入力装置2101(操作装置5に相当)、ディスプレイ又はスピーカーなどの出力装置2102(表示装置4に相当)、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105、ハードディスク装置又はSSD(Solid State Drive)などの記憶装置2106、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備え、各部はバス2109により接続される。
 そして、読取装置2107は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置2106に記憶させる。
 そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各装置の機能が実現される。
 上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
 本特許出願は2017年10月5日に出願した日本国特許出願第2017-194958号に基づきその優先権を主張するものであり、日本国特許出願第2017-194958号の全内容を本願に援用する。
 本発明は、スポーツ競技を撮影した映像から移動体を検出及び追跡する移動体追跡装置に適用することができる。
 1 移動体追跡システム
 3A、3B、3C、3D カメラ
 4 表示装置
 5 操作装置
 10 移動体追跡装置
 101 映像受信部
 102 移動体特定部
 103 移動体追跡部
 104 移動体位置出力部
 105 移動体候補抽出部
 106 移動体選択部
 200 ボール選択UI

Claims (13)

  1.  球技用の移動体を追跡する移動体追跡装置であって、
     異なる位置にある複数のカメラがそれぞれ撮影した球技の動画フレームを受信する映像受信部と、
     前記複数の動画フレームを用いて移動体候補を抽出する移動体候補抽出部と、
     前記移動体候補を表示して、追跡対象の移動体の選択をユーザから受け付ける移動体選択部と、
     前記追跡対象の移動体を追跡する移動体追跡部と、を備え、
     前記移動体選択部が前記ユーザから前記追跡対象の移動体の選択を受け付けた場合、前記移動体追跡部は、前記追跡対象の移動体を、前記ユーザに選択された移動体に修正する、
     移動体追跡装置。
  2.  前記移動体選択部は、
     1つのカメラが撮影した動画フレームを表示して、前記追跡対象の移動体の位置の指定を前記ユーザから受け付け、
     前記移動体候補抽出部は、
     前記指定された位置に対応する3次元空間の領域に存在する移動体候補を抽出し、
     他のカメラが撮影した動画フレームの、前記抽出された移動体候補の存在する3次元空間の位置に対応する部分から移動体候補画像を抽出し、
     前記移動体選択部は、
     前記移動体候補画像を表示して、前記追跡対象の移動体の選択を前記ユーザから受け付ける、
     請求項1に記載の移動体追跡装置。
  3.  前記移動体候補抽出部は、
     前記指定された位置に対応する3次元空間の領域に存在する複数の移動体候補を抽出し、
     前記移動体選択部は、
     前記3次元空間における各移動体候補の位置の高さの順に、当該各移動体候補の移動体候補画像を表示する、
     請求項2に記載の移動体追跡装置。
  4.  前記移動体候補抽出部は、
     前記指定された位置に対応する3次元空間の領域に存在する複数の移動体候補を抽出し、
     前記移動体選択部は、
     各移動体候補の前記追跡対象の移動体である尤度の高さの順に、当該各移動体候補の移動体候補画像を表示する、
     請求項2に記載の移動体追跡装置。
  5.  前記移動体選択部は、
     前記移動体候補抽出部によって各カメラの動画フレームから抽出された同じ3次元空間の位置に対応する移動体候補画像をグルーピングして表示する、
     請求項2に記載の移動体追跡装置。
  6.  前記移動体選択部は、
     前記移動体候補抽出部によって各カメラの動画フレームから抽出された同じ3次元空間の位置に対応する移動体候補画像をグルーピングし、そのグルーピングされた単位で、前記追跡対象の移動体の選択を前記ユーザから受け付ける、
     請求項2に記載の移動体追跡装置。
  7.  前記移動体候補抽出部は、
     前記指定された位置および前記追跡対象の移動体が移動した軌跡に基づいて、前記移動体候補を抽出する3次元空間の領域を限定する、
     請求項2に記載の移動体追跡装置。
  8.  前記指定された位置に対応する3次元空間の領域は、前記指定された位置に基づいて算出される、前記3次元空間における探索軸上の点を含む探索範囲から構成される、
     請求項2に記載の移動体追跡装置。
  9.  前記移動体候補抽出部は、
     前記探索範囲内に前記追跡対象の移動体が存在する尤度を、前記他のカメラが撮影した動画フレームの前記探索範囲に対応する部分の画像に基づいて算出し、
     前記算出された尤度に基づいて、前記他のカメラが撮影した動画フレームの前記探索範囲に対応する部分から前記移動体候補画像を抽出するか否かを決定する、
     請求項8に記載の移動体追跡装置。
  10.  複数の探索範囲は、それぞれ、前記探索軸上の異なる点を含み、
     前記移動体候補抽出部は、
     前記探索範囲毎に、前記尤度の算出と、当該算出された尤度に基づく前記移動体候補画像の抽出の可否の決定とを行う、
     請求項9に記載の移動体追跡装置。
  11.  前記移動体候補抽出部は、
     前記尤度が所定の閾値を超える移動体候補を、前記追跡対象の移動体候補に抽出する、
     請求項10に記載の移動体追跡装置。
  12.  前記移動体候補抽出部は、
     1つの探索範囲に複数の移動体候補が存在する場合、前記尤度の最も高い移動体候補を抽出する、
     請求項9に記載の移動体追跡装置。
  13.  球技用の移動体を追跡する移動体追跡方法であって、
     異なる位置にある複数のカメラがそれぞれ撮影した球技の動画フレームを受信し、
     前記複数の動画フレームを用いて移動体候補を抽出し、
     前記移動体候補を表示して、追跡対象の移動体の選択をユーザから受け付け、
     前記追跡対象の移動体を追跡し、
     前記ユーザから前記追跡対象の移動体の選択を受け付けた場合、前記追跡対象を当該ユーザに選択された移動体に修正する、
     移動体追跡方法。
PCT/JP2018/037131 2017-10-05 2018-10-04 移動体追跡装置及び移動体追跡方法 WO2019070011A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18864304.3A EP3694205B1 (en) 2017-10-05 2018-10-04 Mobile entity tracking device and method for tracking mobile entity
JP2019547001A JP7246005B2 (ja) 2017-10-05 2018-10-04 移動体追跡装置及び移動体追跡方法
US16/753,135 US11638068B2 (en) 2017-10-05 2018-10-04 Mobile entity tracking device and method for tracking mobile entity

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-194958 2017-10-05
JP2017194958 2017-10-05

Publications (1)

Publication Number Publication Date
WO2019070011A1 true WO2019070011A1 (ja) 2019-04-11

Family

ID=65994902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037131 WO2019070011A1 (ja) 2017-10-05 2018-10-04 移動体追跡装置及び移動体追跡方法

Country Status (4)

Country Link
US (1) US11638068B2 (ja)
EP (1) EP3694205B1 (ja)
JP (1) JP7246005B2 (ja)
WO (1) WO2019070011A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7330708B2 (ja) * 2019-01-28 2023-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN113382182B (zh) * 2021-08-12 2021-11-09 江西省天轴通讯有限公司 一种直播画面控制方法、装置、存储介质及设备
CN117241133B (zh) * 2023-11-13 2024-02-06 武汉益模科技股份有限公司 基于非固定位置的多工序同时作业的视觉报工方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2007233798A (ja) * 2006-03-02 2007-09-13 Nippon Hoso Kyokai <Nhk> 映像オブジェクト追跡装置および映像オブジェクト追跡プログラム
JP2007274543A (ja) * 2006-03-31 2007-10-18 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP2009251940A (ja) * 2008-04-07 2009-10-29 Sony Corp 情報処理装置および方法、並びにプログラム
JP2013503504A (ja) * 2009-08-31 2013-01-31 トレイス オプティクス ピーティワイ リミテッド 複数のカメラの相対制御のための方法及び装置
WO2016021121A1 (ja) * 2014-08-05 2016-02-11 パナソニック株式会社 修正確認方法および修正確認装置
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
JP2017194958A (ja) 2016-04-07 2017-10-26 ザ・ボーイング・カンパニーThe Boeing Company 乗客と航空交通管理機関との情報共有のためのコンピュータ遂行式方法及びシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112015005258A2 (pt) * 2012-09-13 2017-07-04 Nec Corp sistema de processamento de imagem, método de processamento de imagem e programa
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
WO2015087172A2 (en) * 2013-12-09 2015-06-18 Playsight Interactive Ltd. Controlling cameras in sport events
US9836852B2 (en) * 2013-12-21 2017-12-05 Qualcomm Incorporated System and method to stabilize display of an object tracking box
EP3179444B1 (en) * 2014-08-04 2021-02-17 Panasonic Corporation Moving body tracking method and moving body tracking device
JP6924932B2 (ja) 2015-11-13 2021-08-25 パナソニックIpマネジメント株式会社 移動体追跡方法、移動体追跡装置、およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2007233798A (ja) * 2006-03-02 2007-09-13 Nippon Hoso Kyokai <Nhk> 映像オブジェクト追跡装置および映像オブジェクト追跡プログラム
JP2007274543A (ja) * 2006-03-31 2007-10-18 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP2009251940A (ja) * 2008-04-07 2009-10-29 Sony Corp 情報処理装置および方法、並びにプログラム
JP2013503504A (ja) * 2009-08-31 2013-01-31 トレイス オプティクス ピーティワイ リミテッド 複数のカメラの相対制御のための方法及び装置
WO2016021121A1 (ja) * 2014-08-05 2016-02-11 パナソニック株式会社 修正確認方法および修正確認装置
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
JP2017194958A (ja) 2016-04-07 2017-10-26 ザ・ボーイング・カンパニーThe Boeing Company 乗客と航空交通管理機関との情報共有のためのコンピュータ遂行式方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XINA CHENGNORIKAZU IKOMAMASAAKI HONDATAKESHI IKENAGA: "Multi-view 3D Ball Tracking with Abrupt Motion Adaptive System Model, Anti-occlusion Observation and Spatial Density based Recovery in Sports Analysis", IEICE TRANS. FUNDAMENTALS, vol. E94-A, no. 1, January 2011 (2011-01-01)

Also Published As

Publication number Publication date
EP3694205B1 (en) 2024-03-06
US20200259996A1 (en) 2020-08-13
EP3694205A1 (en) 2020-08-12
JP7246005B2 (ja) 2023-03-27
EP3694205A4 (en) 2020-08-12
JPWO2019070011A1 (ja) 2020-11-05
US11638068B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
CN112154482B (zh) 球类运动影像分析装置及球类运动影像分析方法
TWI448318B (zh) 虛擬高爾夫模擬裝置及其使用之感測裝置與感測方法
TWI537872B (zh) 辨識二維影像產生三維資訊之方法
JP7246005B2 (ja) 移動体追跡装置及び移動体追跡方法
US10726620B2 (en) Image processing apparatus, image processing method, and storage medium
RU2606583C2 (ru) Способ и устройство для определения положения спортивного снаряда на площадке
CN112070795A (zh) 运动员跟踪方法及系统
US11354849B2 (en) Information processing apparatus, information processing method and storage medium
Moshayedi et al. Kinect based virtual referee for table tennis game: TTV (Table Tennis Var System)
US20190147604A1 (en) Image processing method and information processing apparatus
JP7113336B2 (ja) プレイ分析装置、及び、プレイ分析方法
JP7113335B2 (ja) プレイ分析装置、及び、プレイ分析方法
JPWO2017187723A1 (ja) 動画分割方法、動画分割装置および動画処理システム
JP5155841B2 (ja) 得点可能性定量化装置及び得点可能性定量化プログラム
JP2015217122A (ja) 画像報知装置、撮像装置、画像報知方法及び画像報知プログラム
US10853952B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10957051B2 (en) Motion video segmenting method, motion video segmenting device, and motion video processing system
WO2020071092A1 (ja) プレイ分析装置、及び、プレイ分析方法
JP7429887B2 (ja) 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム
CN116433767B (zh) 目标对象检测方法、装置、电子设备以及存储介质
JP7296546B2 (ja) プレイ分析装置、及び、プレイ分析方法
US20210090278A1 (en) Information processing apparatus, shape data generation method, and storage medium
KR20180090155A (ko) 좌표값을 이용한 당구게임의 득점 자동계산 시스템
JP2022059405A (ja) トラッキング装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18864304

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019547001

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018864304

Country of ref document: EP

Effective date: 20200506