JP6704606B2 - Judgment system and judgment method - Google Patents

Judgment system and judgment method Download PDF

Info

Publication number
JP6704606B2
JP6704606B2 JP2018157774A JP2018157774A JP6704606B2 JP 6704606 B2 JP6704606 B2 JP 6704606B2 JP 2018157774 A JP2018157774 A JP 2018157774A JP 2018157774 A JP2018157774 A JP 2018157774A JP 6704606 B2 JP6704606 B2 JP 6704606B2
Authority
JP
Japan
Prior art keywords
target person
information
play
skeleton
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018157774A
Other languages
Japanese (ja)
Other versions
JP2020031406A (en
Inventor
伸平 相原
伸平 相原
みのり 澤田
みのり 澤田
栄夫 小倉
栄夫 小倉
雄大 吉田
雄大 吉田
Original Assignee
独立行政法人日本スポーツ振興センター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 独立行政法人日本スポーツ振興センター filed Critical 独立行政法人日本スポーツ振興センター
Priority to JP2018157774A priority Critical patent/JP6704606B2/en
Publication of JP2020031406A publication Critical patent/JP2020031406A/en
Application granted granted Critical
Publication of JP6704606B2 publication Critical patent/JP6704606B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、判定システム、及び判定方法に関する。 The present invention relates to a determination system and a determination method.

近年、スポーツにおいて、プレーを記録及び管理することが必要とされており、プレーを判定する判定システムが求められている。また、カメラなどにより撮像した画像情報から生成した対象人物の移動軌跡の特徴から対象人物の行動を判定する技術が知られている(例えば、特許文献1を参照)。 In recent years, in sports, it is necessary to record and manage play, and a determination system for determining play is required. There is also known a technique of determining the behavior of the target person from the characteristics of the movement trajectory of the target person generated from image information captured by a camera or the like (for example, see Patent Document 1).

特開2011−100175号公報JP, 2011-100175, A

しかしながら、プレーを判定する判定システムに、上述したような行動を判定する技術を適用しようとすると、例えば、画像情報内で選手同士が重なった場合に対応するために、複数の方向から撮像した複数の画像情報を処理する必要がある。また、使用画像情報内に複数の選手が存在する場合には、複数の選手に対応した移動軌跡を生成する必要がある。そのため、従来の判定システムでは、処理負荷が高く、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことが困難であった。 However, if an attempt is made to apply the above-described technique for determining a behavior to a determination system for determining a play, for example, in order to deal with the case where the players overlap each other in the image information, a plurality of images captured from a plurality of directions are captured. Image information needs to be processed. In addition, when there are a plurality of players in the used image information, it is necessary to generate movement loci corresponding to the plurality of players. Therefore, in the conventional determination system, the processing load is high, and it is difficult to accurately determine the play of the target person while suppressing the processing load.

本発明は、上記問題を解決すべくなされたもので、その目的は、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる判定システム、及び判定方法を提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a determination system and a determination method capable of highly accurately performing a play determination of a target person while suppressing a processing load. ..

上記問題を解決するために、本発明の一態様は、少なくとも物体の形状及び位置情報を検出可能な検出装置と、前記検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する骨格推定部と、前記検出装置が検出した検出情報に基づいて、前記対象人物の移動軌跡を生成する軌跡生成部と、過去の前記対象人物の移動軌跡と前記対象人物の骨格又は関節とに基づいて前記対象人物の動作及び行動を示す前記対象人物のプレーを判定するように生成された判定器と、前記骨格推定部が推定した前記対象人物の骨格又は関節と、前記軌跡生成部が生成した前記対象人物の移動軌跡とに基づいて、前記対象人物のプレーを判定するプレー判定部とを備え、前記検出装置には、レーザレーダ装置及び撮像装置が含まれ、前記骨格推定部は、前記レーザレーダ装置が検出した前記対象人物の輪郭と、前記撮像装置が撮像した前記対象人物を含む画像情報とに基づいて、前記対象人物の骨格又は関節を推定し、前記軌跡生成部は、レーザレーダ装置による検出に基づく対象エリアにおける前記対象人物の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記対象人物の位置情報である第2位置情報とを相互に補完して、前記対象人物の位置情報を補正し、補正した前記対象人物の位置情報に基づいて、前記対象人物の移動軌跡を生成することを特徴とする判定システムである。 In order to solve the above problems, one embodiment of the present invention estimates a skeleton or a joint of a target person based on at least a detection device capable of detecting shape and position information of an object and the detection information detected by the detection device. A skeleton estimation unit, a trajectory generation unit that generates a movement trajectory of the target person based on the detection information detected by the detection device, a past movement trajectory of the target person, and a skeleton or joint of the target person. A determiner generated so as to determine the play of the target person that indicates the motion and behavior of the target person based on the above, a skeleton or joint of the target person estimated by the skeleton estimation unit, and the trajectory generation unit And a play determination unit that determines the play of the target person based on the movement trajectory of the target person , the detection device includes a laser radar device and an imaging device, the skeleton estimation unit, Based on the contour of the target person detected by the laser radar device and image information including the target person captured by the imaging device, the skeleton or joint of the target person is estimated, and the trajectory generation unit is a laser radar. The first position information, which is the position information of the target person in the target area based on the detection by the device, and the second position information, which is the position information of the target person in the target area based on the image information, are mutually complemented. The determination system is characterized in that position information of the target person is corrected, and a movement locus of the target person is generated based on the corrected position information of the target person .

また、本発明の一態様は、上記の判定システムにおいて、前記軌跡生成部は、前記検出情報に基づいて、前記対象人物の周辺に存在する対象物の移動軌跡を生成し、前記プレー判定部は、前記判定器を利用して、前記対象人物の移動軌跡と、前記対象人物の骨格又は関節と、前記対象物の移動軌跡とから前記対象人物のプレーを判定することを特徴とする。 Further, according to an aspect of the present invention, in the above determination system, the trajectory generation unit generates a movement trajectory of an object existing around the target person based on the detection information, and the play determination unit is The play of the target person is determined from the movement track of the target person, the skeleton or joint of the target person, and the movement track of the target person by using the determiner.

また、本発明の一態様は、上記の判定システムにおいて、前記第1位置情報に対応する前記画像情報における部分画像に基づいて、前記対象人物を識別し、識別した前記対象人物に対して、当該対象人物を識別する識別情報を付与する識別処理部を備え、前記軌跡生成部は、前記識別処理部が付与した前記識別情報と対応付けて、前記対象人物の移動軌跡を生成することを特徴とする。 Further, according to an aspect of the present invention, in the above determination system, the target person is identified based on a partial image in the image information corresponding to the first position information, and the identified target person is An identification processing unit for providing identification information for identifying a target person, wherein the trajectory generation unit is configured to generate a movement trajectory of the target person in association with the identification information provided by the identification processing unit. To do.

また、本発明の一態様は、骨格推定部が、少なくとも物体の形状及び位置情報を検出可能な検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する骨格推定ステップと、軌跡生成部が、前記検出装置が検出した検出情報に基づいて、前記対象人物の移動軌跡を生成する軌跡生成ステップと、プレー判定部が、過去の前記対象人物の移動軌跡と、前記対象人物の骨格又は関節とに基づいて前記対象人物の動作及び行動を示す前記対象人物のプレーを判定するように生成された判定器と、前記骨格推定部が推定した前記対象人物の骨格又は関節と、前記軌跡生成部が生成した前記対象人物の移動軌跡とに基づいて、前記対象人物のプレーを判定するプレー判定ステップとを含み、前記検出装置には、レーザレーダ装置及び撮像装置が含まれ、前記骨格推定ステップにおいて、骨格推定部が、前記レーザレーダ装置が検出した前記対象人物の輪郭と、前記撮像装置が撮像した前記対象人物を含む画像情報とに基づいて、前記対象人物の骨格又は関節を推定し、前記軌跡生成ステップにおいて、前記軌跡生成部が、レーザレーダ装置による検出に基づく対象エリアにおける前記対象人物の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記対象人物の位置情報である第2位置情報とを相互に補完して、前記対象人物の位置情報を補正し、補正した前記対象人物の位置情報に基づいて、前記対象人物の移動軌跡を生成することを特徴とする判定方法である。 Further, according to one aspect of the present invention, a skeleton estimating step of estimating a skeleton or a joint of the target person based on detection information detected by a detection device capable of detecting at least the shape and position information of the object, A locus generation unit generates a movement locus of the target person based on the detection information detected by the detection device, and a play determination unit includes a movement locus of the target person in the past and the movement of the target person. A determiner that is generated to determine the play of the target person that indicates the motion and behavior of the target person based on a skeleton or joint; a skeleton or joint of the target person estimated by the skeleton estimating unit; on the basis of the moving track of the object person trajectory generation unit is generated, the saw including a play determining step of determining the play of the target person, the detection device is included laser radar apparatus and an imaging apparatus, wherein In the skeleton estimating step, the skeleton estimating unit determines the skeleton or joint of the target person based on the contour of the target person detected by the laser radar device and the image information including the target person captured by the imaging device. In the trajectory generating step, the trajectory generating unit estimates the first position information that is position information of the target person in the target area based on detection by the laser radar device, and the target in the target area based on the image information. Compensating the position information of the target person by mutually complementing with the second position information that is the position information of the person, and generating a movement locus of the target person based on the corrected position information of the target person. Is a determination method.

本発明によれば、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。 According to the present invention, it is possible to highly accurately determine the play of the target person while suppressing the processing load.

第1の実施形態による位置追跡システムの一例を示すブロック図である。It is a block diagram which shows an example of the position tracking system by 1st Embodiment. 第1の実施形態におけるレーザレーダ装置及び撮像装置の設置例を示す図である。It is a figure which shows the installation example of the laser radar apparatus and imaging device in 1st Embodiment. 第1の実施形態における対象物情報記憶部のデータ例を示す図である。It is a figure which shows the data example of the target object information storage part in 1st Embodiment. 第1の実施形態における移動軌跡記憶部のデータ例を示す図である。It is a figure which shows the example of data of the movement track storage part in 1st Embodiment. 第1の実施形態における対象物軌跡記憶部のデータ例を示す図である。It is a figure which shows the data example of the target object locus|storage part in 1st Embodiment. 第1の実施形態における移動軌跡の生成処理の一例を説明する図である。It is a figure explaining an example of generation processing of a movement locus in a 1st embodiment. 第1の実施形態における3次元座標の算出処理の一例を説明する図である。It is a figure explaining an example of calculation processing of three-dimensional coordinates in a 1st embodiment. 第1の実施形態における対象人物の識別処理の一例を説明する図である。It is a figure explaining an example of identification processing of the target person in a 1st embodiment. 第1の実施形態による位置追跡システムの動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of the position tracking system by a 1st embodiment. 第2の実施形態によるプレー判定システムの一例を示すブロック図である。It is a block diagram which shows an example of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation|movement of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの変形例における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in the modification of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの別の変形例を示す図である。It is a figure which shows another modification of the play determination system by 2nd Embodiment.

以下、本発明の実施形態による位置追跡システム(位置計測システム)及びプレー判定システムについて、図面を参照して説明する。 Hereinafter, a position tracking system (position measuring system) and a play determination system according to embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態による位置追跡システム1の一例を示すブロック図である。
図1に示すように、位置追跡システム1は、情報処理装置10と、レーザレーダ装置20と、撮像装置30とを備える。位置追跡システム1は、位置計測システムの一例である。
[First Embodiment]
FIG. 1 is a block diagram showing an example of a position tracking system 1 according to the first embodiment.
As shown in FIG. 1, the position tracking system 1 includes an information processing device 10, a laser radar device 20, and an imaging device 30. The position tracking system 1 is an example of a position measuring system.

レーザレーダ装置20(検出装置の一例)は、対象エリアにレーザ光(例えば、近赤外線などのレーザ光)を照射して、物体からの反射光に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出するライダ装置である。ここで、対象エリアは、例えば、スポーツを行う競技場であるコート、試合場、等である。レーザレーダ装置20は、物体からの反射光に基づいて、対象エリア内の物体を検出し、物体までの距離及び方向の他に、例えば、物体の輪郭、物体の表面の形状などの各種情報を検出する。レーザレーダ装置20は、例えば、レーザ光の照射から物体に反射した反射光を受光するまでのレーザ光の移動時間から物体までの距離を検出するTOF(Time of Flight)方式により、物体までの距離を検出する。レーザレーダ装置20は、検出した検出情報を、情報処理装置10に出力する。 The laser radar device 20 (an example of a detection device) irradiates a target area with laser light (for example, laser light such as near-infrared rays) and includes at least a distance and a direction to the object based on reflected light from the object. It is a lidar device that detects detection information. Here, the target area is, for example, a court, a stadium, or the like, which is a stadium for playing sports. The laser radar device 20 detects an object in the target area based on the reflected light from the object, and in addition to the distance and direction to the object, various information such as the contour of the object and the shape of the surface of the object. To detect. The laser radar device 20 uses, for example, a TOF (Time of Flight) method that detects the distance to the object from the moving time of the laser light from the irradiation of the laser light to the reception of the reflected light reflected by the object. To detect. The laser radar device 20 outputs the detected detection information to the information processing device 10.

撮像装置30は、例えば、カメラ装置などであり、対象エリアを含む画像を撮像する。撮像装置30は、撮像した画像を表す画像情報を、情報処理装置10に出力する。
なお、説明の都合上、図1において、1台のレーザレーダ装置20及び1台の撮像装置30を記載しているが、位置追跡システム1は、複数のレーザレーダ装置20及び複数の撮像装置30を備えてもよい。
The imaging device 30 is, for example, a camera device, and captures an image including the target area. The imaging device 30 outputs image information representing the captured image to the information processing device 10.
For convenience of explanation, one laser radar device 20 and one imaging device 30 are shown in FIG. 1, but the position tracking system 1 includes a plurality of laser radar devices 20 and a plurality of imaging devices 30. May be provided.

図2は、本実施形態におけるレーザレーダ装置20及び撮像装置30の設置例を示す図である。
図2に示すように、対象エリアであるコートAR1における対象物(例えば、選手PL1)などの3次元位置座標を検出できるように、複数のレーザレーダ装置20及び複数の撮像装置30が配置されている。本実施形態では、3次元位置座標を、例えば、コートAR1の平面を直交するX軸及びY軸とし、高さ方向をZ軸として表すものとする。
FIG. 2 is a diagram showing an installation example of the laser radar device 20 and the imaging device 30 in the present embodiment.
As shown in FIG. 2, a plurality of laser radar devices 20 and a plurality of imaging devices 30 are arranged so that the three-dimensional position coordinates of an object (for example, a player PL1) in the court AR1, which is an object area, can be detected. There is. In the present embodiment, the three-dimensional position coordinates are, for example, the X axis and the Y axis that are orthogonal to the plane of the coat AR1, and the height direction is the Z axis.

情報処理装置10は、例えば、PC(パーソナルコンピュータ)などのコンピュータ装置である。情報処理装置10は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像情報とに基づいて、対象エリアにおける対象物の位置情報を生成し、生成した位置情報に基づいて、対象物の移動軌跡を生成する。ここで、対象物は、例えば、選手やプレーヤなどの対象人物、及びボールやラケット、ネット、ゴールなどの用具を示す対象物体などである。
また、情報処理装置10は、記憶部11と、制御部12とを備える。
The information processing device 10 is, for example, a computer device such as a PC (personal computer). The information processing device 10 generates position information of the target object in the target area based on the detection information detected by the laser radar device 20 and the image information captured by the imaging device 30, and based on the generated position information, Generate a movement trajectory of the object. Here, the target object is, for example, a target person such as a player or a player, and a target object indicating a tool such as a ball, a racket, a net, or a goal.
The information processing device 10 also includes a storage unit 11 and a control unit 12.

記憶部11は、情報処理装置10の各種処理に利用する情報を記憶する。記憶部11は、レーダ検出記憶部111と、画像情報記憶部112と、対象物情報記憶部113と、移動軌跡記憶部114と、対象物軌跡記憶部115とを備える。 The storage unit 11 stores information used for various processes of the information processing device 10. The storage unit 11 includes a radar detection storage unit 111, an image information storage unit 112, an object information storage unit 113, a movement trajectory storage unit 114, and an object trajectory storage unit 115.

レーダ検出記憶部111は、レーザレーダ装置20が検出した検出情報と、時刻情報とを対応付けて記憶する。レーダ検出記憶部111には、後述するデータ取得部121によって、レーザレーダ装置20から取得された検出情報が、撮像装置30が撮像した画像情報と同期されて記憶される。 The radar detection storage unit 111 stores the detection information detected by the laser radar device 20 and the time information in association with each other. In the radar detection storage unit 111, the detection information acquired from the laser radar device 20 by the data acquisition unit 121 described later is stored in synchronization with the image information captured by the imaging device 30.

画像情報記憶部112は、撮像装置30が撮像した画像情報と、時刻情報とを対応付けて記憶する。画像情報記憶部112には、後述するデータ取得部121によって、撮像装置30から取得された画像情報が、レーザレーダ装置20が検出した検出情報と同期されて記憶される。 The image information storage unit 112 stores the image information captured by the image capturing apparatus 30 and the time information in association with each other. The image information storage unit 112 stores the image information acquired from the imaging device 30 by the data acquisition unit 121 described later in synchronization with the detection information detected by the laser radar device 20.

対象物情報記憶部113は、人物や物体である対象物を識別するための情報を記憶する。なお、ここでの対象物には、対象人物も含まれる。ここで、図3を参照して、対象物情報記憶部113が記憶するデータ例について説明する。
図3は、本実施形態における対象物情報記憶部113のデータ例を示す図である。
図3に示すように、対象物情報記憶部113は、例えば、「対象物名」と、「特徴量情報」とを対応付けて記憶する。
The target object information storage unit 113 stores information for identifying a target object that is a person or an object. Note that the target person here also includes a target person. Here, an example of data stored in the object information storage unit 113 will be described with reference to FIG.
FIG. 3 is a diagram showing an example of data in the target object information storage unit 113 in this embodiment.
As illustrated in FIG. 3, the target object information storage unit 113 stores, for example, the “target object name” and the “feature amount information” in association with each other.

ここで、「対象物名」は、対象物の名称などであり、対象物を識別する識別情報である。また、「特徴量情報」は、例えば、画像情報から対象物を識別するための特徴量を示しており、例えば、対象物を判定するための形状、色、サイズ、画像パターンなどである。また、「特徴量情報」は、対象物が特定の選手などの対象人物である場合に、顔認識のための特徴量やユニフォームなどの着衣の特徴量などであってもよい。
図3に示す例では、対象物情報記憶部113には、「対象物名」が“選手A”と、当該“選手A”の特徴量情報とが対応付けられて記憶されており、「対象物名」が“ボール”と、当該“ボール”の特徴量情報とが対応付けられて記憶されている。
Here, the “object name” is a name of the object or the like and is identification information for identifying the object. Further, the “feature amount information” indicates, for example, a feature amount for identifying the target object from the image information, and is, for example, a shape, a color, a size, an image pattern or the like for determining the target object. In addition, the “feature amount information” may be a feature amount for face recognition, a feature amount of clothing such as a uniform, and the like when the object is a target person such as a specific player.
In the example illustrated in FIG. 3, the “object name” is stored in the object information storage unit 113 in association with “player A” and the feature amount information of the “player A”. The “object name” is stored in association with the “ball” and the feature amount information of the “ball”.

図1の説明に戻り、移動軌跡記憶部114は、検出された物体の移動軌跡情報を記憶する。移動軌跡記憶部114は、例えば、検出された物体の識別情報と、時刻情報と、3次元位置座標とを対応付けて記憶する。ここで、図4を参照して、移動軌跡記憶部114が記憶するデータ例について説明する。 Returning to the description of FIG. 1, the movement trajectory storage unit 114 stores the movement trajectory information of the detected object. The movement track storage unit 114 stores, for example, identification information of the detected object, time information, and three-dimensional position coordinates in association with each other. Here, with reference to FIG. 4, an example of data stored in the movement track storage unit 114 will be described.

図4は、本実施形態における移動軌跡記憶部114のデータ例を示す図である。
図4に示すように、移動軌跡記憶部114は、「識別ID」と、「時刻」と、「座標」とを対応付けて記憶する。ここで、「識別ID」は、例えば、レーザレーダ装置20によって検出された物体を識別する識別情報であり、「時刻」は、時刻情報を示す。なお、時刻情報には、日付情報が含まれていてもよい。また、「座標」は、3次元位置座標であり、例えば、図2に示すような対象エリアにおける2次元座標である。
図4に示す例では、「識別ID」が“ID1”の移動軌跡が、「時刻」と「座標」とに対応付けられて記憶されていることを示している。
FIG. 4 is a diagram showing an example of data in the movement locus storage unit 114 in this embodiment.
As shown in FIG. 4, the movement locus storage unit 114 stores the “identification ID”, the “time”, and the “coordinates” in association with each other. Here, the “identification ID” is, for example, identification information for identifying an object detected by the laser radar device 20, and the “time” indicates time information. Note that the time information may include date information. The “coordinates” are three-dimensional position coordinates, for example, two-dimensional coordinates in the target area as shown in FIG.
The example shown in FIG. 4 indicates that the movement locus with the “identification ID” of “ID1” is stored in association with the “time” and the “coordinates”.

再び、図1の説明に戻り、対象物軌跡記憶部115は、後述する識別処理部123が識別した対象物の識別情報と、当該対象物の移動軌跡とを対応付けて記憶する。ここで、図5を参照して、本実施形態における対象物軌跡記憶部115が記憶するデータ例について説明する。 Returning to the description of FIG. 1 again, the object trajectory storage unit 115 stores the identification information of the object identified by the identification processing unit 123, which will be described later, and the movement trajectory of the object in association with each other. Here, with reference to FIG. 5, an example of data stored in the object trajectory storage unit 115 in the present embodiment will be described.

図5は、本実施形態における対象物軌跡記憶部115のデータ例を示す図である。
図5において、対象物軌跡記憶部115は、「対象物名」と、「時刻」と、「座標」とを対応付けて記憶する。ここで、「時刻」と「座標」とを対応付けた情報は、上述した移動軌跡に相当する。
図5に示す例では、「対象物名」が“選手A”に対応する移動軌跡が、「時刻」と「座標」とに対応付けられて記憶されていることを示している。なお、図5に示す例では、「対象物名」は、“選手A”であり、対象人物に対応する移動軌跡を示しているが、対象物軌跡記憶部115には、例えば、ボールやバットなどの用具(対象物体)に対応する移動軌跡を記憶するようにしてもよい。
FIG. 5 is a diagram showing an example of data in the object trajectory storage unit 115 in this embodiment.
In FIG. 5, the object trajectory storage unit 115 stores “object name”, “time”, and “coordinate” in association with each other. Here, the information in which the “time” and the “coordinates” are associated with each other corresponds to the above-described movement trajectory.
The example shown in FIG. 5 indicates that the movement locus whose “object name” corresponds to “player A” is stored in association with “time” and “coordinates”. Note that, in the example shown in FIG. 5, the “object name” is “player A” and indicates the movement trajectory corresponding to the object person, but the object trajectory storage unit 115 stores, for example, a ball or a bat. The movement locus corresponding to the tool (target object) such as may be stored.

再び、図1の説明に戻り、制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、情報処理装置10を統括的に制御する。制御部12は、例えば、レーザレーダ装置20が検出した検出情報に基づく対象エリアにおける対象物の位置情報(第1位置情報)と、撮像装置30が撮像した画像情報に基づく対象エリアにおける対象物の位置情報(第2位置情報)と、を相互に補完して、対象物の移動軌跡を生成する。
制御部12は、データ取得部121と、画像処理部122と、識別処理部123と、軌跡生成部124とを備える。
Returning to the description of FIG. 1 again, the control unit 12 is, for example, a processor including a CPU (Central Processing Unit) and controls the information processing apparatus 10 in a centralized manner. The control unit 12, for example, position information (first position information) of the target object in the target area based on the detection information detected by the laser radar device 20 and the target object in the target area based on the image information captured by the imaging device 30. The position information (second position information) and the position information (second position information) are mutually complemented to generate a movement trajectory of the object.
The control unit 12 includes a data acquisition unit 121, an image processing unit 122, an identification processing unit 123, and a trajectory generation unit 124.

データ取得部121(取得部の一例)は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。データ取得部121は、レーザレーダ装置20から取得した検出情報と、時刻情報とを対応付けて、レーダ検出記憶部111に記憶させる。また、データ取得部121は、撮像装置30から取得した画像情報と、時刻情報とを対応付けて、画像情報記憶部112に記憶させる。データ取得部121は、レーダ検出記憶部111と、画像情報記憶部112とに時刻情報を付与することにより、検出情報と画像情報とを同期させる。 The data acquisition unit 121 (an example of an acquisition unit) acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. The data acquisition unit 121 stores the detection information acquired from the laser radar device 20 and the time information in the radar detection storage unit 111 in association with each other. Further, the data acquisition unit 121 stores the image information acquired from the imaging device 30 and the time information in the image information storage unit 112 in association with each other. The data acquisition unit 121 synchronizes the detection information and the image information by adding time information to the radar detection storage unit 111 and the image information storage unit 112.

画像処理部122は、データ取得部121が取得した画像情報に基づいて、各種画像処理を実行する。画像処理部122は、例えば、画像情報に基づいて、対象エリアにおける対象物の位置情報(第2位置情報)を生成する。ここでの対象エリアにおける位置情報は、例えば、対象物の重心の座標情報である。また、画像処理部122は、例えば、レーザレーダ装置20が検出した物体に対応する部分画像を画像情報から抽出し、当該部分画像に対して、対象物情報記憶部113が記憶する特徴量に基づいて、対象物を識別する画像認識処理を実行する。画像処理部122は、例えば、特徴量による顔認識処理や特徴量によるパターン認識処理などを実行する。 The image processing unit 122 executes various image processes based on the image information acquired by the data acquisition unit 121. The image processing unit 122 generates position information (second position information) of the target object in the target area based on the image information, for example. The position information in the target area here is, for example, coordinate information of the center of gravity of the target object. Further, the image processing unit 122 extracts, for example, a partial image corresponding to the object detected by the laser radar device 20 from the image information, and based on the feature amount stored in the object information storage unit 113 for the partial image. Then, the image recognition process for identifying the object is executed. The image processing unit 122 executes, for example, face recognition processing based on the feature amount, pattern recognition processing based on the feature amount, and the like.

識別処理部123は、データ取得部121が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。識別処理部123は、例えば、レーザレーダ装置20が検出した物体の輪郭に基づいて、画像情報における部分画像を抽出し、抽出した部分画像に基づいて、物体を対象物として識別する。具体的に、識別処理部123は、画像処理部122に、物体の輪郭に基づいて、部分画像を抽出させるとともに、部分画像に対する顔認識などの画像処理を実行させる。識別処理部123は、画像処理部122による画像処理の結果に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。 The identification processing unit 123 identifies the object as a target object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the data acquisition unit 121, and identifies the identified target object. On the other hand, identification information for identifying the object is added. The identification processing unit 123 extracts, for example, a partial image in the image information based on the contour of the object detected by the laser radar device 20, and identifies the object as an object based on the extracted partial image. Specifically, the identification processing unit 123 causes the image processing unit 122 to extract a partial image based on the contour of the object and to perform image processing such as face recognition on the partial image. The identification processing unit 123 identifies an object as an object based on the result of the image processing by the image processing unit 122, and adds identification information for identifying the object to the identified object.

軌跡生成部124(位置計測部の一例)は、レーザレーダ装置20が検出した検出情報(例えば、物体までの距離及び方向)に基づいて、対象エリアにおける対象物の位置情報(第1位置情報)を生成する。軌跡生成部124は、生成した第1位置情報と上述した第2位置情報とに基づいて、対象物が移動した対象物の移動軌跡を生成する。すなわち、軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報に基づいて、対象物の移動軌跡を生成する。ここで、図6を参照して、軌跡生成部124による第1位置情報と、第2位置情報とを相互に補完して移動軌跡を生成する処理について説明する。 The trajectory generation unit 124 (an example of a position measurement unit), based on the detection information (for example, the distance and direction to the object) detected by the laser radar device 20, the position information (first position information) of the target object in the target area. To generate. The locus generation unit 124 generates a movement locus of the object on which the object has moved based on the generated first position information and the above-described second position information. That is, the trajectory generation unit 124 mutually complements the first position information and the second position information, corrects the position information of the target object, and moves the target object based on the corrected position information of the target object. Generate a trajectory. Here, with reference to FIG. 6, a process of generating a movement locus by mutually complementing the first position information and the second position information by the locus generation unit 124 will be described.

図6は、本実施形態における移動軌跡の生成処理の一例を説明する図である。
図6(a)は、レーザレーダ装置20が検出した検出情報に基づく位置座標(第1位置情報)を示している。また、図6(b)は、撮像装置30が撮像した画像情報に基づく位置座標(第2位置情報)を示している。ここでは、図6(a)に示す位置座標(第1位置情報)を黒丸で示し、図6(b)に示す位置座標(第2位置情報)を白丸で示している。また、時刻t1〜t21は、各位置座標を検出した際の時刻情報を示している。なお、この例では、説明を簡略化するために、位置座標をXY軸の2次元座標で説明する。
FIG. 6 is a diagram illustrating an example of the movement trajectory generation processing according to the present embodiment.
FIG. 6A shows position coordinates (first position information) based on the detection information detected by the laser radar device 20. In addition, FIG. 6B illustrates position coordinates (second position information) based on image information captured by the image capturing device 30. Here, the position coordinates (first position information) shown in FIG. 6A are shown by black circles, and the position coordinates (second position information) shown in FIG. 6B are shown by white circles. Times t1 to t21 indicate time information when each position coordinate is detected. In addition, in this example, in order to simplify the description, the position coordinates are described as two-dimensional coordinates on the XY axes.

レーザレーダ装置20は、処理負荷をかけずに正確な位置情報を計測可能であるが、サンプリング周波数が低いため、図6(a)に示す位置座標(第1位置情報)は、断続的な検出になる。また、画像情報は、連続して撮像可能であるため、図6(b)に示す位置座標(第2位置情報)は、連続的な検出になる。但し、位置座標(第2位置情報)は、画像情報から位置座標を検出する際の処理負荷が大きく、精度は、位置座標(第1位置情報)に比べて劣る。 The laser radar device 20 can measure accurate position information without imposing a processing load, but since the sampling frequency is low, the position coordinates (first position information) shown in FIG. 6A are intermittently detected. become. Further, since the image information can be continuously captured, the position coordinates (second position information) shown in FIG. 6B are continuously detected. However, the position coordinate (second position information) has a large processing load when detecting the position coordinate from the image information, and its accuracy is inferior to that of the position coordinate (first position information).

また、図6(c)は、図6(a)に示す位置座標(第1位置情報)と、図6(b)に示す位置座標(第2位置情報)と重ね合わせた状態を示している。また、図6(d)は、図6(a)に示す位置座標(第1位置情報)と、図6(b)に示す位置座標(第2位置情報)とを相互に補完した軌跡を示している。すなわち、軌跡生成部124は、検出情報に基づく位置座標(第1位置情報)と、画像情報に基づく位置座標(第2位置情報)とを相互に補完して、対象物の位置座標を生成し、最終的に、図6(d)の移動軌跡L0に示すような移動軌跡を生成する。軌跡生成部124は、生成した移動軌跡を、例えば、図4に示すように、物体の識別情報と、時刻情報と、3次元位置座標とを対応付けて、移動軌跡記憶部114に記憶させる。なお、ここでの識別情報は、検出された物体に所定に規則で付与した識別IDである。
なお、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける検出情報に基づく3次元座標と、画像情報に基づく3次元座標とが一致するように配置されている。
Further, FIG. 6C shows a state in which the position coordinates (first position information) shown in FIG. 6A and the position coordinates (second position information) shown in FIG. 6B are superimposed. .. Further, FIG. 6D shows a locus in which the position coordinates (first position information) shown in FIG. 6A and the position coordinates (second position information) shown in FIG. 6B are mutually complemented. ing. That is, the trajectory generation unit 124 mutually complements the position coordinates (first position information) based on the detection information and the position coordinates (second position information) based on the image information to generate the position coordinates of the target object. Finally, the movement locus as shown by the movement locus L0 in FIG. 6D is generated. The locus generation unit 124 stores the generated movement locus in the movement locus storage unit 114 in association with the identification information of the object, the time information, and the three-dimensional position coordinates, as shown in FIG. 4, for example. The identification information here is an identification ID given to the detected object by a predetermined rule.
The laser radar device 20 and the imaging device 30 are arranged so that the three-dimensional coordinates based on the detection information in the target area and the three-dimensional coordinates based on the image information match.

また、軌跡生成部124は、検出情報に基づく第1位置情報に基づいて対象エリアの平面上の位置情報を補正し、画像情報に基づく第2位置情報に基づいて対象エリアの高さ方向の位置情報を補正して、平面上の位置情報及び高さ方向の位置情報を含む3次元座標(3次元位置情報)を生成するようにしてもよい。ここで、図7を参照して、本実施形態による3次元座標の算出処理の一例について説明する。 Further, the trajectory generation unit 124 corrects the position information on the plane of the target area based on the first position information based on the detection information, and the position in the height direction of the target area based on the second position information based on the image information. The information may be corrected to generate three-dimensional coordinates (three-dimensional position information) including position information on the plane and position information in the height direction. Here, an example of the three-dimensional coordinate calculation process according to the present embodiment will be described with reference to FIG. 7.

図7は、本実施形態における3次元座標の算出処理の一例を説明する図である。
図7において、画像G1は、撮像装置30が撮像した画像情報を示している。ここで、コートAR2は、バレーボールのコートであり、プレーヤPL2が、ボールB1を打とうとしているものとする。このような場合、画像G1からプレーヤPL2が、ジャンプしているのか否かを判定することは困難である。
FIG. 7 is a diagram illustrating an example of a three-dimensional coordinate calculation process according to this embodiment.
In FIG. 7, an image G1 indicates image information captured by the image capturing device 30. Here, it is assumed that the court AR2 is a volleyball court and the player PL2 is about to hit the ball B1. In such a case, it is difficult to determine from the image G1 whether or not the player PL2 is jumping.

そのため、軌跡生成部124は、正確なプレーヤPL2の3次元座標を生成するために、レーザレーダ装置20が検出した検出情報に基づいて、プレーヤPL2のコートAR2におけるXY平面上の位置PT1の座標(x1,y1)を算出する。そして、軌跡生成部124は、撮像装置30が撮像した画像情報(画像G1)上のプレーヤPL2の位置から、プレーヤPL2の高さ方向(Z軸方向)の位置座標(z1)を算出し、プレーヤPL2の3次元座標(x1,y1,z1)を生成する。 Therefore, in order to generate accurate three-dimensional coordinates of the player PL2, the trajectory generation unit 124, based on the detection information detected by the laser radar device 20, coordinates of the position PT1 on the XY plane on the court AR2 of the player PL2 ( x1, y1) is calculated. Then, the trajectory generation unit 124 calculates the position coordinate (z1) in the height direction (Z-axis direction) of the player PL2 from the position of the player PL2 on the image information (image G1) imaged by the imaging device 30, and the player. Three-dimensional coordinates (x1, y1, z1) of PL2 are generated.

なお、軌跡生成部124は、プレーヤPL2の位置座標(z1)を算出し、ネットNT、ポール(P1、P2)、及びコートAR2のラインLNなどと、プレーヤPL2との画面上の位置関係から、プレーヤPL2の位置座標(z1)を算出する。また、レーザレーダ装置20と、撮像装置30とは、コートAR2内のネットNT、ポール(P1、P2)、及びラインLNの位置関係から、検出情報に基づく3次元座標と、画像情報に基づく3次元座標とが一致するように配置されている。また、軌跡生成部124は、上述した処理において、第1位置情報及び第2位置情報に基づいて対象エリアの平面上の位置情報を補正するようにしてもよい。 The locus generation unit 124 calculates the position coordinates (z1) of the player PL2, and from the positional relationship on the screen between the player PL2 and the net NT, the poles (P1, P2), the line LN of the court AR2, and the like. The position coordinate (z1) of the player PL2 is calculated. Further, the laser radar device 20 and the image pickup device 30 are configured to detect three-dimensional coordinates based on the detection information and three-dimensional coordinates based on the image information from the positional relationship between the net NT, the poles (P1, P2) and the line LN in the court AR2. It is arranged so that it matches the dimensional coordinates. In addition, the trajectory generation unit 124 may correct the position information on the plane of the target area based on the first position information and the second position information in the above-described processing.

また、軌跡生成部124は、生成した対象エリアにおける対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。すなわち、軌跡生成部124は、移動軌跡記憶部114が記憶する物体の移動軌跡を読み出し、当該物体の移動軌跡と、識別処理部123が付与した当該物体の識別情報とを対応付けて、対象物の移動軌跡として、対象物軌跡記憶部115に記憶させる。具体的に、軌跡生成部124は、例えば、図5に示すように、対象物の識別情報(「対象物名」)と、時刻情報(「時刻」)と、3次元位置座標(「座標」)とを対応付けて、移動軌跡記憶部114に記憶させる。 Further, the trajectory generation unit 124 generates the movement trajectory of the target object by associating the position information of the target object in the generated target area with the identification information provided by the identification processing unit 123. That is, the locus generation unit 124 reads the movement locus of the object stored in the movement locus storage unit 114, associates the movement locus of the object with the identification information of the object provided by the identification processing unit 123, and associates the object with the target locus. It is stored in the object trajectory storage unit 115 as the movement trajectory of the. Specifically, the trajectory generation unit 124, for example, as illustrated in FIG. 5, identification information of an object (“object name”), time information (“time”), and three-dimensional position coordinates (“coordinates”). ) Are associated with each other and stored in the movement locus storage unit 114.

なお、識別処理部123は、対象人物を対象物として識別する場合に、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別する。すなわち、識別処理部123は、画像処理部122に識別を依頼し、画像処理部122は、対象物情報記憶部113が記憶する対象人物の顔又は着衣の特徴量に基づいて、対象人物を識別する。識別処理部123は、画像処理部122に画像認識させた結果に基づいて対象人物を識別する。
ここで、図8を参照して、識別処理部123による対象人物の識別処理について説明する。
When identifying the target person as the target object, the identification processing unit 123 identifies the target person based on image recognition of the face or clothing of the target person. That is, the identification processing unit 123 requests the image processing unit 122 for identification, and the image processing unit 122 identifies the target person based on the feature amount of the face or clothing of the target person stored in the target object information storage unit 113. To do. The identification processing unit 123 identifies the target person based on the result of image recognition by the image processing unit 122.
Here, the identification process of the target person by the identification processing unit 123 will be described with reference to FIG. 8.

図8は、本実施形態における対象人物の識別処理の一例を説明する図である。
図8において、プレーヤPL3(選手B)とプレーヤPL4(選手A)とがコートAR3を交差して走った場合に対象人物を認識する処理について説明する。
FIG. 8 is a diagram illustrating an example of target person identification processing according to the present embodiment.
A process of recognizing a target person when the player PL3 (player B) and the player PL4 (player A) run across the court AR3 in FIG. 8 will be described.

図8(a)に示すように、プレーヤPL3(選手B)とプレーヤPL4(選手A)とがコートAR3を交差した場合に、軌跡生成部124は、レーザレーダ装置20によって検出された物体に識別ID(例えば、ID1〜ID4)を付与するとともに、図8(b)に示すように、各物体の移動軌跡を生成する。図8(b)において、横軸が時間を示し、縦軸が、各物体の識別IDを示している。 As shown in FIG. 8A, when the player PL3 (player B) and the player PL4 (player A) cross the court AR3, the trajectory generation unit 124 identifies the object detected by the laser radar device 20. IDs (for example, ID1 to ID4) are given, and a movement locus of each object is generated as shown in FIG. 8B. In FIG. 8B, the horizontal axis represents time and the vertical axis represents the identification ID of each object.

また、グラフ内の○印(丸印)及び×印(バツ印)は、識別処理部123が、画像処理部122に物体の識別を依頼した時刻を示している。また、○印(丸印)は、画像処理部122によって、識別IDを付与した物体(プレーヤPL3又はプレーヤPL4)が識別できたことを示し、×印(バツ印)は、識別IDを付与した物体の識別に失敗したことを示している。識別処理部123は、識別IDを付与した物体の識別に失敗した場合に、一定間隔後に、画像処理部122に物体の識別の依頼を再度行い、物体が認識できた場合には、以降の当該識別IDを付与した物体の識別の依頼を行わない。これにより、識別処理部123は、物体の識別のための処理負荷を低減している。なお、軌跡生成部124は、生成した移動軌跡を、上述した図4に示すように、移動軌跡記憶部114に記憶させる。 Further, the circles (circles) and the crosses (crosses) in the graph indicate the times when the identification processing unit 123 requests the image processing unit 122 to identify the object. Further, a circle (circle) indicates that the object (player PL3 or player PL4) to which the identification ID is assigned can be identified by the image processing unit 122, and a cross (cross) indicates the identification ID. It indicates that the identification of the object has failed. When the identification processing unit 123 fails to identify the object to which the identification ID is added, after a certain interval, the identification processing unit 123 requests the image processing unit 122 to identify the object again. No request is made to identify the object with the identification ID. As a result, the identification processing unit 123 reduces the processing load for identifying the object. The locus generation unit 124 stores the generated movement locus in the movement locus storage unit 114 as illustrated in FIG. 4 described above.

また、識別処理部123は、各移動軌跡に対して、物体(プレーヤPL3又はプレーヤPL4)を検出した位置の部分画像と、対象物情報記憶部113が記憶する特徴量とに基づいて、物体(プレーヤPL3又はプレーヤPL4)を識別し、物体(プレーヤPL3又はプレーヤPL4)に対象物名を付与する。識別処理部123は、例えば、8(c)に示すように、プレーヤPL3に“選手B”を付与し、プレーヤPL4に“選手A”を付与する。軌跡生成部124は、図8(d)に示すように、識別処理部123が付与した対象物名と、移動軌跡記憶部114が記憶する移動軌跡とを対応付ける。 Further, the identification processing unit 123, based on the partial image of the position at which the object (player PL3 or player PL4) is detected and the feature amount stored in the object information storage unit 113 for each movement trajectory, The player PL3 or player PL4) is identified and the object name (player PL3 or player PL4) is given. For example, as illustrated in 8(c), the identification processing unit 123 assigns “player B” to the player PL3 and “player A” to the player PL4. As shown in FIG. 8D, the trajectory generation unit 124 associates the object name given by the identification processing unit 123 with the movement trajectory stored in the movement trajectory storage unit 114.

図8(c)及び(d)において、“選手A”の移動軌跡が、移動軌跡L1であり、“選手B”の移動軌跡が、移動軌跡L2である。軌跡生成部124は、 “選手A”、“選手B”などの対象物名を付与した移動軌跡を、例えば、図5に示すように、対象物軌跡記憶部115に記憶させる。 In FIGS. 8C and 8D, the movement track of "player A" is the movement track L1, and the movement track of "player B" is the movement track L2. The locus generation unit 124 stores a movement locus with object names such as “player A” and “player B” stored in the object locus storage unit 115, as shown in FIG. 5, for example.

次に、図面を参照して、本実施形態による位置追跡システム1の動作について説明する。
図9は、本実施形態による位置追跡システム1の動作の一例を示すフローチャートである。なお、この図において、レーザレーダ装置20は、定常的に検出情報を検出し、撮像装置30は、定常的に画像情報を撮像するものとする。
Next, the operation of the position tracking system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 9 is a flowchart showing an example of the operation of the position tracking system 1 according to this embodiment. In this figure, the laser radar device 20 constantly detects the detection information, and the imaging device 30 constantly picks up the image information.

図9において、位置追跡システム1の情報処理装置10は、まず、レーザレーダ装置20の検出情報と、画像情報とを取得し、同期させる(ステップS101)。情報処理装置10のデータ取得部121は、レーザレーダ装置20から検出情報を取得するとともに、撮像装置30から画像情報を取得する。データ取得部121は、レーザレーダ装置20から取得した検出情報と、時刻情報とを対応付けて、レーダ検出記憶部111に記憶させる。また、データ取得部121は、撮像装置30から取得した画像情報と、時刻情報とを対応付けて、画像情報記憶部112に記憶させる。 In FIG. 9, the information processing device 10 of the position tracking system 1 first acquires and synchronizes the detection information of the laser radar device 20 and the image information (step S101). The data acquisition unit 121 of the information processing device 10 acquires the detection information from the laser radar device 20 and the image information from the imaging device 30. The data acquisition unit 121 stores the detection information acquired from the laser radar device 20 and the time information in the radar detection storage unit 111 in association with each other. Further, the data acquisition unit 121 stores the image information acquired from the imaging device 30 and the time information in the image information storage unit 112 in association with each other.

次に、情報処理装置10は、レーザデータ装置の検出情報と、画像情報とに基づいて、対象エリアにおける位置情報を生成する(ステップS102)。情報処理装置10の軌跡生成部124は、レーザレーダ装置20が検出した検出情報(例えば、物体までの距離及び方向)に基づいて、検出した物体(対象物)の対象エリアにおける位置情報(第1位置情報)を生成する。また、画像処理部122は、例えば、画像情報に基づいて、対象エリアにおける物体(対象物)の位置情報(第2位置情報)を生成する。ここで、第1位置情報及び第2位置情報は、例えば、対象物の重心の3次元座標である。軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の3次元座標を補正して生成する。 Next, the information processing device 10 generates position information in the target area based on the detection information of the laser data device and the image information (step S102). The locus generation unit 124 of the information processing device 10 uses the detection information (for example, the distance and direction to the object) detected by the laser radar device 20 to detect the position information (first position) of the detected object (target object) in the target area. Position information) is generated. The image processing unit 122 also generates position information (second position information) of the object (target object) in the target area based on the image information, for example. Here, the first position information and the second position information are, for example, three-dimensional coordinates of the center of gravity of the object. The locus generation unit 124 mutually complements the first position information and the second position information to correct and generate the three-dimensional coordinates of the object.

次に、情報処理装置10は、位置情報に対応する部分画像を切り出し、部分画像を画像認識して、識別情報を付与する(ステップS103)。情報処理装置10の識別処理部123は、画像処理部122に、上述した第1位置情報の物体の位置に対応する画像情報における部分画像を抽出させる。識別処理部123は、画像処理部122に、抽出した部分画像と、対象物情報記憶部113が記憶する特徴量に基づいて、対象物を識別させて、識別した対象物に対して、当該対象物を識別する識別情報を付与する。 Next, the information processing device 10 cuts out a partial image corresponding to the position information, performs image recognition on the partial image, and adds identification information (step S103). The identification processing unit 123 of the information processing device 10 causes the image processing unit 122 to extract the partial image in the image information corresponding to the position of the object of the first position information described above. The identification processing unit 123 causes the image processing unit 122 to identify the target object based on the extracted partial image and the feature amount stored in the target object information storage unit 113, and the target object is identified with respect to the identified target object. Identification information for identifying an object is added.

次に、情報処理装置10は、位置情報に基づいて、識別情報を付与した対象物の移動軌跡を生成する(ステップS104)。軌跡生成部124は、生成した対象物の3次元座標と、識別処理部123が付与した識別情報と、時刻情報とを対応付けて、対象物の移動軌跡を生成する。軌跡生成部124は、例えば、図5に示すように、対象物の3次元座標と、対象物の識別情報と、時刻情報とを対応付けて、対象物の移動軌跡として、移動軌跡記憶部114に記憶させる。ステップS104の処理後に、軌跡生成部124は、処理を終了する。 Next, the information processing device 10 generates a movement locus of the object to which the identification information is added, based on the position information (step S104). The trajectory generation unit 124 associates the generated three-dimensional coordinates of the target object, the identification information provided by the identification processing unit 123, and the time information to generate a movement trajectory of the target object. For example, as shown in FIG. 5, the trajectory generation unit 124 associates the three-dimensional coordinates of the object, the identification information of the object, and the time information with each other, and defines the movement trajectory storage unit 114 as the movement trajectory of the object. To memorize. After the processing of step S104, the trajectory generation unit 124 ends the processing.

以上説明したように、本実施形態による位置追跡システム1(位置計測システム)は、レーザレーダ装置20(検出装置)と、撮像装置30と、データ取得部121(取得部)と、軌跡生成部124(位置計測部)とを備える。レーザレーダ装置20は、対象エリアにレーザ光を照射して、物体からの反射光に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する。撮像装置30は、対象エリアを含む画像を撮像する。データ取得部121は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。軌跡生成部124は、データ取得部121が取得した検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、データ取得部121が取得した画像情報に基づく対象エリアにおける物体の位置情報である第2位置情報とを補完して、対象物の位置情報を生成する。軌跡生成部124は、生成した対象物の位置情報に基づいて、対象物が移動した対象物の移動軌跡を生成する。 As described above, the position tracking system 1 (position measurement system) according to the present embodiment includes the laser radar device 20 (detection device), the imaging device 30, the data acquisition unit 121 (acquisition unit), and the trajectory generation unit 124. (Position measuring unit). The laser radar device 20 irradiates a target area with laser light, and detects detection information including at least the distance and direction to the object based on the reflected light from the object. The imaging device 30 captures an image including the target area. The data acquisition unit 121 acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. The trajectory generation unit 124 includes the first position information, which is the position information of the object in the target area based on the detection information acquired by the data acquisition unit 121, and the position information of the object in the target area based on the image information acquired by the data acquisition unit 121. And position information of the target object is generated by complementing the second position information. The trajectory generation unit 124 generates a movement trajectory of the object on which the object has moved based on the generated position information of the object.

これにより、本実施形態による位置追跡システム1は、処理負荷をかけずに正確な位置情報を計測可能であるが、サンプリング周波数が低いため断続的な検出になるレーザレーダ装置20と、処理負荷が大きい上、位置情報の精度は劣るが連続して画像を撮像可能な撮像装置30とを併用することで、処理負荷を抑えつつ、対象物の位置を高精度に計測することができる。本実施形態による位置追跡システム1は、例えば、撮像装置30の画像情報のみでは困難な3次元における正確な位置座標の計測を、レーザレーダ装置20を併用することで実現することができる。よって、本実施形態による位置追跡システム1は、処理負荷を抑えつつ、対象物の位置を高精度に追跡することができる。 As a result, the position tracking system 1 according to the present embodiment can measure accurate position information without imposing a processing load, but the laser radar device 20 that is intermittently detected due to the low sampling frequency and the processing load. In addition to being large, the accuracy of the position information is inferior, but by using together with the imaging device 30 capable of continuously capturing images, it is possible to measure the position of the object with high accuracy while suppressing the processing load. The position tracking system 1 according to the present embodiment can realize accurate three-dimensional position coordinate measurement, which is difficult only with the image information of the imaging device 30, by using the laser radar device 20 together. Therefore, the position tracking system 1 according to the present embodiment can track the position of the object with high accuracy while suppressing the processing load.

また、本実施形態では、軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報に基づいて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、レーザレーダ装置20の検出情報に基づく第1位置情報と、撮像装置30の画像情報に基づく第2位置情報とを相互に補完することにより、例えば、複雑な背景や外部環境に影響されることなく、頑健、且つ、高精度な対象物の位置計測を行うことができる。本実施形態による位置追跡システム1は、例えば、図8に示すように、対象物が重なった場合であっても、正確に移動軌跡を生成することができる。
Further, in the present embodiment, the trajectory generation unit 124 mutually complements the first position information and the second position information, corrects the position information of the target object, and based on the corrected position information of the target object. , Generate a movement trajectory of the object.
As a result, the position tracking system 1 according to the present embodiment mutually complements the first position information based on the detection information of the laser radar device 20 and the second position information based on the image information of the imaging device 30, for example, Therefore, it is possible to perform the robust and highly accurate position measurement of the object without being affected by the complicated background or the external environment. For example, as shown in FIG. 8, the position tracking system 1 according to the present embodiment can accurately generate the movement trajectory even when the objects overlap each other.

また、本実施形態による位置追跡システム1は、相互に補完することにより、高精度に位置情報を検出するために、画像処理のための処理負荷が大きい撮像装置30の数を多くする必要がなく、例えば、処理負荷を抑えてリアルタイム処理が可能になる。また、本実施形態による位置追跡システム1では、例えば、対象物にマーカーなどの付属物を取り付ける必要がなく、システム構成をシステム(簡略)にすることができる。 In addition, the position tracking system 1 according to the present embodiment complements each other to detect position information with high accuracy, so that it is not necessary to increase the number of imaging devices 30 that have a large processing load for image processing. For example, real-time processing can be performed while suppressing the processing load. Further, in the position tracking system 1 according to the present embodiment, for example, it is not necessary to attach an accessory such as a marker to an object, and the system configuration can be a system (simplified).

また、本実施形態では、軌跡生成部124は、第1位置情報に基づいて対象エリアの平面上の位置情報を補正し、第2位置情報に基づいて対象エリアの高さ方向の位置情報を補正して、平面上の位置情報及び高さ方向の位置情報を含む3次元位置情報を生成し、生成した3次元位置情報に基づいて、対象物の軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、例えば、図7に示すように、画像情報からでは計測困難な高さ方向(Z軸方向)の正確な位置を画像情報から計測できるとともに、レーザレーダ装置20により奥行き方向(XY軸方向)の正確な位置を計測できる。そのため、本実施形態による位置追跡システム1は、より高精度に対象物の軌跡を生成することができる。
Further, in the present embodiment, the trajectory generation unit 124 corrects the position information on the plane of the target area based on the first position information, and corrects the position information in the height direction of the target area based on the second position information. Then, the three-dimensional position information including the position information on the plane and the position information in the height direction is generated, and the trajectory of the object is generated based on the generated three-dimensional position information.
As a result, the position tracking system 1 according to the present embodiment can measure an accurate position in the height direction (Z-axis direction), which is difficult to measure from image information from image information, as shown in FIG. The radar device 20 can measure an accurate position in the depth direction (XY axis direction). Therefore, the position tracking system 1 according to the present embodiment can generate the trajectory of the target object with higher accuracy.

また、本実施形態では、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける第1位置情報と、第2位置情報とが一致するように配置されている。
これにより、本実施形態による位置追跡システム1は、さらに高精度に対象物の位置を計測することができる。
In addition, in the present embodiment, the laser radar device 20 and the imaging device 30 are arranged such that the first position information and the second position information in the target area match.
Thereby, the position tracking system 1 according to the present embodiment can measure the position of the target object with higher accuracy.

また、本実施形態による位置追跡方法(位置計測方法)は、レーザレーダ装置20(検出装置)と、撮像装置30とを備える位置追跡システム1(位置計測システム)の位置追跡方法であって、取得ステップと、軌跡生成ステップ(位置計測ステップ)とを含む。取得ステップにおいて、データ取得部121が、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。軌跡生成ステップ(位置計測ステップ)において、軌跡生成部124(位置計測部)が、取得ステップによって取得された検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、取得ステップによって取得された画像情報に基づく対象エリアにおける物体の位置情報である第2位置情報とを補完して、対象物の位置情報を生成し、生成した対象物の位置情報に基づいて、対象物が移動した対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡方法は、上述した位置追跡システム1と同様の効果を奏し、処理負荷を抑えつつ、対象物の位置を高精度に計測することができる。
The position tracking method (position measuring method) according to the present embodiment is a position tracking method of the position tracking system 1 (position measuring system) including the laser radar device 20 (detecting device) and the imaging device 30, and is acquired. And a trajectory generation step (position measurement step). In the acquisition step, the data acquisition unit 121 acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. In the trajectory generation step (position measurement step), the trajectory generation unit 124 (position measurement unit) acquires the first position information, which is the position information of the object in the target area based on the detection information acquired in the acquisition step, and the acquisition step. The position information of the target object is generated by complementing the second position information that is the position information of the object in the target area based on the generated image information, and the target object moves based on the generated position information of the target object. Generate a movement trajectory of the object.
As a result, the position tracking method according to the present embodiment has the same effects as the position tracking system 1 described above, and it is possible to measure the position of the object with high accuracy while suppressing the processing load.

また、本実施形態による位置追跡システム1は、レーザレーダ装置20と、撮像装置30と、データ取得部121と、識別処理部123と、軌跡生成部124とを備える。データ取得部121は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。識別処理部123は、画像処理部122を利用して、データ取得部121が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。軌跡生成部124は、検出情報と、画像情報とに基づいて生成した対象エリアにおける対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。 The position tracking system 1 according to the present embodiment also includes a laser radar device 20, an imaging device 30, a data acquisition unit 121, an identification processing unit 123, and a trajectory generation unit 124. The data acquisition unit 121 acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. The identification processing unit 123 uses the image processing unit 122 to target the object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the data acquisition unit 121. The identification information for identifying the target object is added to the identified target object. The trajectory generation unit 124 associates the position information of the target object in the target area generated based on the detection information and the image information with the identification information provided by the identification processing unit 123, and generates the movement trajectory of the target object. To do.

これにより、本実施形態による位置追跡システム1は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報と用いることで、高精度に対象物を識別することができる。本実施形態による位置追跡システム1は、例えば、検出された物体の位置に対応する部分画像に対して、識別処理を行うため、画像情報の全体に対して識別処理を行う場合に比べて、背景等のノイズが低減されるとともに、大幅に処理負荷を抑えることができる。よって、本実施形態による位置追跡システム1は、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。 As a result, the position tracking system 1 according to the present embodiment can identify the object with high accuracy by using the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. it can. The position tracking system 1 according to the present embodiment performs identification processing on a partial image corresponding to the position of a detected object, for example, and therefore, compared to the case of performing identification processing on the entire image information, the background It is possible to significantly reduce the processing load as well as to reduce noise such as. Therefore, the position tracking system 1 according to the present embodiment can accurately track the position of the measurement target while suppressing the processing load.

また、本実施形態では、レーザレーダ装置20の検出情報には、物体の輪郭が含まれる。識別処理部123は、画像処理部122を利用して、レーザレーダ装置20が検出した物体の輪郭に基づいて、画像情報における部分画像を抽出し、抽出した部分画像に基づいて、物体を対象物として識別する。
これにより、本実施形態による位置追跡システム1は、例えば、物体の輪郭に沿って部分画像を画像情報から切り出すことで、背景等のノイズをさらに除去することができ、画像処理による対象物の認識精度をさらに向上させることができる。
Further, in the present embodiment, the detection information of the laser radar device 20 includes the contour of the object. The identification processing unit 123 uses the image processing unit 122 to extract a partial image in the image information based on the contour of the object detected by the laser radar device 20, and based on the extracted partial image, target the object to the target object. Identify as.
Thereby, the position tracking system 1 according to the present embodiment can further remove noise such as background by cutting out a partial image from the image information along the contour of the object, and recognize the object by image processing. The accuracy can be further improved.

また、本実施形態では、対象物には、対象人物が含まれる。識別処理部123は、対象人物を対象物として識別する場合に、画像処理部122を利用して、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別する。
これにより、本実施形態による位置追跡システム1は、例えば、選手やプレーヤなどの対象人物を適切に識別することができる。
Further, in the present embodiment, the target includes a target person. When identifying the target person as the target object, the identification processing unit 123 uses the image processing unit 122 to identify the target person based on image recognition of the face or clothing of the target person.
Thereby, the position tracking system 1 according to the present embodiment can appropriately identify a target person such as a player or a player.

また、本実施形態では、軌跡生成部124は、検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、画像情報に基づく対象エリアにおける対象物の位置情報である第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、計測対象物の位置をより高精度に追跡することができる。
In addition, in the present embodiment, the trajectory generation unit 124 has the first position information, which is the position information of the object in the target area based on the detection information, and the second position information, which is the position information of the target object in the target area based on the image information. Are mutually complemented to correct the position information of the target object, and the corrected position information of the target object and the identification information provided by the identification processing unit 123 are associated with each other to generate a movement trajectory of the target object.
As a result, the position tracking system 1 according to the present embodiment can track the position of the measurement target object with higher accuracy.

また、本実施形態による位置追跡方法は、対象エリアにレーザ光を照射して、物体からの反射光に基づいて、レーザレーダ装置20と、撮像装置30とを備える位置追跡システム1の位置追跡方法であって、取得ステップと、識別処理ステップと、軌跡生成ステップとを含む。取得ステップにおいて、データ取得部121が、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。識別処理ステップにおいて、識別処理部123が、画像処理部122を利用して、取得ステップによって取得された検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。軌跡生成ステップにおいて、軌跡生成部124が、検出情報と、画像情報とに基づいて生成した対象エリアにおける対象物の位置情報と、識別処理ステップによって付与された識別情報とを対応付けて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡方法は、位置追跡システム1と同様の効果を奏し、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。
Further, the position tracking method according to the present embodiment irradiates a target area with laser light, and based on the reflected light from the object, the position tracking method of the position tracking system 1 including the laser radar device 20 and the imaging device 30. That is, it includes an acquisition step, an identification processing step, and a trajectory generation step. In the acquisition step, the data acquisition unit 121 acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. In the identification processing step, the identification processing unit 123 uses the image processing unit 122 to correspond to the position of the object detected based on the detection information acquired in the acquisition step, based on the partial image in the image information, An object is identified as an object, and identification information for identifying the object is added to the identified object. In the trajectory generation step, the trajectory generation unit 124 associates the position information of the target object in the target area generated based on the detection information and the image information with the identification information provided by the identification processing step to associate the target object. Generates the movement locus of.
As a result, the position tracking method according to the present embodiment has the same effects as the position tracking system 1, and it is possible to accurately track the position of the measurement target while suppressing the processing load.

[第2の実施形態]
次に、図面を参照して、第2の実施形態によるプレー判定システム1aについて説明する。
本実施形態では、上述した位置追跡システム1を含み、対象人物の移動軌跡と、対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するプレー判定システム1aについて説明する。
[Second Embodiment]
Next, a play determination system 1a according to the second embodiment will be described with reference to the drawings.
In the present embodiment, a play determination system 1a that includes the position tracking system 1 described above and determines the play of the target person that indicates the motion and behavior of the target person based on the movement trajectory of the target person and the skeleton and joints of the target person. Will be described.

図10は、本実施形態によるプレー判定システム1aの一例を示すブロック図である。
図10に示すように、プレー判定システム1a(判定システムの一例)は、情報処理装置10aと、レーザレーダ装置20と、撮像装置30とを備える。
なお、この図において、図1と同一の構成には同一の符号を付与し、その説明を省略する。また、本実施形態において、レーザレーダ装置20及び撮像装置30は、少なくとも物体の形状及び位置情報を検出可能な検出装置の一例である。
FIG. 10 is a block diagram showing an example of the play determination system 1a according to the present embodiment.
As shown in FIG. 10, the play determination system 1a (an example of a determination system) includes an information processing device 10a, a laser radar device 20, and an imaging device 30.
In this figure, the same components as those in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted. Further, in the present embodiment, the laser radar device 20 and the imaging device 30 are an example of a detection device capable of detecting at least the shape and position information of the object.

情報処理装置10aは、例えば、PCなどのコンピュータ装置である。情報処理装置10aは、上述した第1の実施形態の情報処理装置10と同様に、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像情報とに基づいて、対象エリアにおける対象物の位置情報を生成し、生成した位置情報に基づいて、対象物の移動軌跡を生成する。また、情報処理装置10aは、画像情報から対象人物の骨格及び関節を推定し、対象人物の骨格及び関節と、対象物の移動軌跡とから対象人物のプレーを判定する。ここで、プレーとは、例えば、スポーツにおける対象人物の動作及び行動を示す。
また、情報処理装置10aは、記憶部11aと、制御部12aとを備える。
The information processing device 10a is, for example, a computer device such as a PC. The information processing device 10a, like the information processing device 10 of the first embodiment described above, targets in the target area based on the detection information detected by the laser radar device 20 and the image information captured by the imaging device 30. The position information of the object is generated, and the movement locus of the object is generated based on the generated position information. Further, the information processing device 10a estimates the skeleton and joints of the target person from the image information, and determines the play of the target person from the skeletons and joints of the target person and the movement trajectory of the target person. Here, the play means, for example, a motion and a behavior of a target person in sports.
Further, the information processing device 10a includes a storage unit 11a and a control unit 12a.

記憶部11aは、情報処理装置10aの各種処理に利用する情報を記憶する。記憶部11aは、レーダ検出記憶部111と、画像情報記憶部112と、対象物情報記憶部113と、移動軌跡記憶部114と、対象物軌跡記憶部115と、骨格関節情報記憶部116と、判定器情報記憶部117と、判定結果記憶部118とを備える。 The storage unit 11a stores information used for various processes of the information processing device 10a. The storage unit 11a includes a radar detection storage unit 111, an image information storage unit 112, an object information storage unit 113, a movement trajectory storage unit 114, an object trajectory storage unit 115, a skeletal joint information storage unit 116, and The determining device information storage unit 117 and the determination result storage unit 118 are provided.

骨格関節情報記憶部116は、後述する骨格推定部125が推定した骨格関節情報を記憶する。骨格関節情報記憶部116は、例えば、対象人物の識別情報と、時刻情報と、骨格及び関節を示す骨格関節情報とを対応付けて記憶する。ここで、骨格関節情報とは、例えば、骨格及び関節の3次元位置座標などである。 The skeletal joint information storage unit 116 stores skeletal joint information estimated by the skeleton estimating unit 125 described later. The skeletal joint information storage unit 116 stores, for example, the identification information of the target person, the time information, and the skeletal joint information indicating the skeleton and the joint in association with each other. Here, the skeletal joint information is, for example, three-dimensional position coordinates of the skeleton and the joint.

判定器情報記憶部117は、プレーを判定するための判定器の情報を記憶する。判定器情報記憶部117は、例えば、過去の対象人物の移動軌跡と対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように機械学習された学習結果などを判定器の情報として記憶する。ここで、機械学習には、例えば、決定木学習、ニューラルネットワーク、サポートベクターマシン(SVM)、各種回帰モデル、ディープラーニング(深層学習)などが含まれる。また、判定器の情報には、各種重み付け情報、ルール情報、各種パラメータなどが含まれる。
また、プレー判定には、プレーの種別の他に、プレーの成否、出来栄え、点数判定などが含まれる。
The determiner information storage unit 117 stores information on a determiner for determining play. The determiner information storage unit 117 is machine-learned so as to determine the play of the target person, which indicates the motion and behavior of the target person, based on the past trajectory of the target person and the skeleton and joints of the target person, for example. The result and the like are stored as information of the determiner. Here, the machine learning includes, for example, decision tree learning, neural networks, support vector machines (SVM), various regression models, deep learning (deep learning), and the like. Further, the information of the determiner includes various weighting information, rule information, various parameters, and the like.
In addition to the type of play, the play determination includes success/failure of the play, performance, score determination, and the like.

判定結果記憶部118は、後述するプレー判定部126が判定した判定結果を記憶する。判定結果記憶部118は、例えば、対象人物の識別情報と、時刻情報と、プレー判定結果とを対応付けて記憶する。 The determination result storage unit 118 stores the determination result determined by the play determination unit 126 described later. The determination result storage unit 118 stores, for example, the identification information of the target person, the time information, and the play determination result in association with each other.

制御部12aは、例えば、CPUなどを含むプロセッサであり、情報処理装置10aを統括的に制御する。制御部12aは、上述した第1の実施形態の制御部12と同様の処理を実行するとともに、例えば、対象人物のプレーを判定する。
制御部12aは、データ取得部121と、画像処理部122と、識別処理部123と、軌跡生成部124と、骨格推定部125と、プレー判定部126と、プレー評価部127とを備える。
The control unit 12a is, for example, a processor including a CPU and controls the information processing apparatus 10a in a centralized manner. The control unit 12a executes the same process as the control unit 12 of the first embodiment described above, and determines, for example, the play of the target person.
The control unit 12a includes a data acquisition unit 121, an image processing unit 122, an identification processing unit 123, a trajectory generation unit 124, a skeleton estimation unit 125, a play determination unit 126, and a play evaluation unit 127.

骨格推定部125は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、推定した骨格及び関節を示す骨格関節情報と、対象人物の識別情報と、時刻情報と対応付けて骨格関節情報記憶部116に記憶させる。なお、骨格推定部125は、例えば、既存の骨格トラッキング技術を利用して、対象人物の骨格及び関節を推定する。なお、骨格推定部125は、骨格及び関節の他に、対象人物の目線を推定するようにしてもよい。この場合、骨格関節情報には、目線を示す情報を含めてもよい。また、骨格推定部125は、対象人物の骨格及び関節のうちの一方を推定するようにしてもよい。 The skeleton estimation unit 125 estimates the skeleton and joints of the target person based on the detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30). The skeleton estimation unit 125 estimates the skeleton and joints of the target person based on the contour of the target person detected by the laser radar device 20 and the image information including the target person imaged by the imaging device 30. The skeleton estimation unit 125 stores the estimated skeleton and skeletal joint information in association with the skeletal joint information, the identification information of the target person, and the time information in the skeletal joint information storage unit 116. The skeleton estimating unit 125 estimates the skeleton and joints of the target person using, for example, an existing skeleton tracking technique. The skeleton estimating unit 125 may estimate the line of sight of the target person in addition to the skeleton and joints. In this case, the skeletal joint information may include information indicating the line of sight. Further, the skeleton estimating unit 125 may estimate one of the skeleton and the joint of the target person.

画像処理部122及び識別処理部123は、第1の実施形態と同様であるため、ここではその説明を省略する。なお、識別処理部123は、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別できない場合に、部分画像に基づいて、対象人物の骨格又は関節(対象人物の骨格及び関節、或いは、対象人物の骨格及び関節のうちの一方)を推定し、推定した骨格又は関節と、予め定められた対象人物の骨格又は関節の特徴とに基づいて、対象人物を識別するようにしてもよい。すなわち、対象物情報記憶部113が、例えば、対象人物の骨格又は関節の特徴量を予め記憶しており、識別処理部123は、上述した骨格推定部125が推定した骨格又は関節と、対象物情報記憶部113が記憶する対象人物の骨格又は関節の特徴量とに基づいて、対象人物を識別するようにしてもよい。 The image processing unit 122 and the identification processing unit 123 are the same as those in the first embodiment, and therefore their description is omitted here. If the target person cannot be identified based on the image recognition of the face or clothing of the target person, the identification processing unit 123 determines the skeleton or joint of the target person (skeleton and joint of the target person, or One of the skeleton and the joint of the target person) may be estimated, and the target person may be identified based on the estimated skeleton or joint and a predetermined feature of the skeleton or joint of the target person. That is, the target object information storage unit 113 stores, for example, the feature amount of the skeleton or joint of the target person in advance, and the identification processing unit 123 determines the skeleton or joint estimated by the skeleton estimating unit 125 described above and the target object. The target person may be identified based on the feature amount of the skeleton or joint of the target person stored in the information storage unit 113.

軌跡生成部124は、第1の実施形態と同様であるため、ここではその説明を省略する。すなわち、軌跡生成部124は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。
なお、本実施形態における軌跡生成部124は、対象人物の移動軌跡の他に、対象人物の周辺の物体の移動軌跡、骨格及び関節の移動軌跡、対象人物の手や足などの身体の一部の移動軌跡、等を生成するようにしてもよい。
The locus generation unit 124 is the same as that in the first embodiment, and therefore its description is omitted here. That is, the trajectory generation unit 124 generates the movement trajectory of the target person based on the detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30).
In addition to the movement trajectory of the target person, the trajectory generation unit 124 in the present embodiment also includes movement trajectories of objects around the target person, movement trajectories of skeletons and joints, and parts of the body such as the hands and feet of the target person. May be generated.

プレー判定部126は、骨格推定部125が推定した対象人物の骨格及び関節と、軌跡生成部124が生成した対象人物の移動軌跡と、対象人物のプレーを判定する判定器とに基づいて、対象人物のプレーを判定する。ここで、判定器は、過去の対象人物の移動軌跡と対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成されており、例えば、機械学習などで生成されている。プレー判定部126は、判定器情報記憶部117が記憶する判定器情報による判定器を利用して、対象人物の骨格及び関節と、対象人物の移動軌跡とから、対象人物のプレーを判定する。 The play determination unit 126 is based on the skeleton and joints of the target person estimated by the skeleton estimation unit 125, the movement trajectory of the target person generated by the trajectory generation unit 124, and a determiner that determines the play of the target person. Determine the play of a person. Here, the determiner is generated so as to determine the play of the target person, which indicates the motion and behavior of the target person, based on the past movement trajectory of the target person and the skeleton and joints of the target person. It is generated by learning. The play determination unit 126 uses the determiner based on the determiner information stored in the determiner information storage unit 117 to determine the play of the target person from the skeleton and joints of the target person and the movement trajectory of the target person.

ここで、対象人物のプレーは、例えば、バレーボールにおけるプレーヤのレシーブ、アタック、サーブ、ブロックなどやバスケットボールにおけるスクリーンプレーなどである。また、プレー判定部126は、例えば、バレーボールにおけるプレーを判定する場合に、対象人物の骨格及び関節及び対象人物の移動軌跡の他に、ボールなどの用具移動軌跡、すなわち、対象人物の周辺に存在する対象物の移動軌跡に基づいて、対象人物のプレーを判定してもよい。この場合、軌跡生成部124は、対象人物の周辺に存在する対象物(例えば、ボール)の移動軌跡を生成し、プレー判定部126は、判定器を利用して、対象人物の移動軌跡、骨格及び関節と、対象物の移動軌跡(例えば、ボール)とから対象人物のプレーを判定する。 Here, the play of the target person is, for example, a player's receive, attack, serve, block, etc. in volleyball or screen play in basketball. In addition, for example, when determining a play in volleyball, the play determination unit 126 exists in the vicinity of the target person's skeleton and joints and the movement path of the object such as a ball, in addition to the movement trajectory of the target person. The play of the target person may be determined based on the movement trajectory of the target object. In this case, the trajectory generation unit 124 generates a movement trajectory of an object (for example, a ball) existing around the target person, and the play determination unit 126 uses the determination device to determine the movement trajectory and skeleton of the target person. Also, the play of the target person is determined from the joint and the movement trajectory of the target (for example, the ball).

また、プレー判定部126は、例えば、バスケットボールにおけるスクリーンプレーを判定する場合に、対象人物の周辺の人物の移動軌跡に基づいて、対象人物のプレーを判定してもよい。この場合、軌跡生成部124は、対象人物の周辺に存在する対象物(例えば、周辺の人物)の移動軌跡を生成し、プレー判定部126は、判定器を利用して、対象人物の移動軌跡、骨格及び関節と、対象物(例えば、周辺の人物)の移動軌跡とから対象人物のプレーを判定する。
プレー判定部126は、判定したプレーを示す情報を判定結果として、対象人物と時刻情報と対応付けて、判定結果記憶部118に記憶させる。
In addition, for example, when determining screen play in basketball, the play determination unit 126 may determine the play of the target person based on the movement trajectory of the person around the target person. In this case, the trajectory generation unit 124 generates a movement trajectory of an object (for example, a person in the vicinity) existing around the target person, and the play determination unit 126 uses the determination device to determine the movement trajectory of the target person. , The play of the target person is determined from the skeleton and joints and the movement trajectory of the target object (for example, a person in the vicinity).
The play determination unit 126 stores the information indicating the determined play as a determination result in the determination result storage unit 118 in association with the target person and the time information.

プレー評価部127は、プレー判定部126が判定したプレーの判定結果に基づいて、プレーの評価を行う。プレー評価部127は、例えば、プレーの判定結果から、例えば、トレイニング中のジャンプなどのプレーの実行回数を集計し、トレイニングの効果、効率、オーバートレーニングなどの評価を行う。また、プレー評価部127は、例えば、プレーの判定結果に基づいて、試合などに実行したプレーを集計し、プレーの集計結果に基づいて、試合内容を評価する。 The play evaluation unit 127 evaluates the play based on the play determination result determined by the play determination unit 126. For example, the play evaluation unit 127 totals the number of times of execution of a play such as a jump during training from the play determination result, and evaluates the effect of training, efficiency, overtraining, and the like. In addition, the play evaluation unit 127 totalizes the plays executed in the match based on the play determination result, and evaluates the match content based on the total result of the play.

次に、図面を参照して、本実施形態によるプレー判定システム1aの動作について説明する。
図11は、本実施形態によるプレー判定システム1aの動作の一例を示すフローチャートである。なお、この図において、レーザレーダ装置20は、定常的に検出情報を検出し、撮像装置30は、定常的に画像情報を撮像するものとする。
図11に示すステップS201からステップS203までの処理は、図9に示すステップS101からステップS103までの処理と同様であるため、ここではその説明を省略する。
Next, the operation of the play determination system 1a according to the present embodiment will be described with reference to the drawings.
FIG. 11 is a flowchart showing an example of the operation of the play determination system 1a according to this embodiment. In this figure, the laser radar device 20 constantly detects the detection information, and the imaging device 30 constantly picks up the image information.
Since the processing from step S201 to step S203 shown in FIG. 11 is the same as the processing from step S101 to step S103 shown in FIG. 9, the description thereof is omitted here.

ステップS204において、情報処理装置10aは、検出情報及び画像情報に基づいて骨格及び関節を推定する。情報処理装置10aの骨格推定部125は、例えば、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、推定した骨格及び関節を示す骨格関節情報と、対象人物の識別情報と、時刻情報と対応付けて骨格関節情報記憶部116に記憶させる。 In step S204, the information processing device 10a estimates the skeleton and the joint based on the detection information and the image information. The skeleton estimating unit 125 of the information processing device 10a determines the skeleton and joint of the target person based on, for example, the contour of the target person detected by the laser radar device 20 and the image information including the target person captured by the imaging device 30. presume. The skeleton estimation unit 125 stores the estimated skeleton and skeletal joint information in association with the skeletal joint information, the identification information of the target person, and the time information in the skeletal joint information storage unit 116.

次に、情報処理装置10aは、位置情報に基づいて、識別情報を付与した計測対象物の移動軌跡を生成する(ステップS205)。情報処理装置10aの軌跡生成部124は、図9に示すステップS104と同様に、生成した対象物の3次元座標と、識別処理部123が付与した識別情報と、時刻情報とを対応付けて、対象物の移動軌跡を生成する。 Next, the information processing device 10a generates a movement trajectory of the measurement target to which the identification information is added, based on the position information (step S205). The locus generation unit 124 of the information processing device 10a associates the generated three-dimensional coordinates of the target object, the identification information provided by the identification processing unit 123, and the time information with each other, as in step S104 illustrated in FIG. Generate a movement trajectory of the object.

次に、情報処理装置10aは、移動軌跡の特徴量と、骨格及び関節とに基づいて、プレー判定を行う(ステップS206)。情報処理装置10aのプレー判定部126は、判定器情報記憶部117が記憶する判定器情報による判定器を利用して、対象人物の骨格及び関節と、対象人物の移動軌跡の特徴量とから、対象人物のプレーを判定する。プレー判定部126は、プレーの判定結果を、判定結果記憶部118に記憶させる。 Next, the information processing device 10a makes a play determination based on the feature amount of the movement trajectory and the skeleton and joint (step S206). The play determination unit 126 of the information processing device 10a uses the determiner based on the determiner information stored in the determiner information storage unit 117 to determine, from the skeleton and the joint of the target person and the feature amount of the movement trajectory of the target person, Determine the play of the target person. The play determination unit 126 stores the determination result of the play in the determination result storage unit 118.

次に、情報処理装置10aは、プレー判定が終了であるか否かを判定する(ステップS207)。情報処理装置10aは、プレー判定が終了である場合(ステップS207:YES)に、処理をステップS208に進める。また、情報処理装置10aは、プレー判定が終了でない場合(ステップS207:NO)に、処理をステップS201に戻し、ステップS201からステップS207の処理を繰り返す。 Next, the information processing device 10a determines whether or not the play determination is finished (step S207). When the play determination is finished (step S207: YES), the information processing device 10a advances the process to step S208. When the play determination is not finished (step S207: NO), the information processing apparatus 10a returns the process to step S201 and repeats the processes from step S201 to step S207.

ステップS208において、情報処理装置10aは、プレー判定結果を評価する。情報処理装置10aのプレー評価部127は、プレー判定部126が判定したプレーの判定結果に基づいて、プレーの評価を行う。プレー判定部126は、ステップS208の処理後に、処理を終了する。
なお、上述した例では、骨格推定部125が、対象人物の骨格及び関節を推定し、プレー判定部126が、対象人物の移動軌跡と、対象人物の骨格及び関節の位置とから、プレーを判定する例を説明したが、骨格推定部125が対象人物の骨格及び関節のいずれか一方を推定し、対象人物の移動軌跡と、対象人物の骨格及び関節の位置のいずれか一方とからプレーを判定するようにしてもよい。
In step S208, the information processing device 10a evaluates the play determination result. The play evaluation unit 127 of the information processing device 10a evaluates the play based on the play determination result determined by the play determination unit 126. The play determination unit 126 ends the process after the process of step S208.
In the example described above, the skeleton estimation unit 125 estimates the skeleton and joints of the target person, and the play determination unit 126 determines the play based on the movement trajectory of the target person and the positions of the skeletons and joints of the target person. However, the skeleton estimating unit 125 estimates one of the skeleton and joints of the target person, and determines the play based on the movement trajectory of the target person and one of the positions of the skeleton and joints of the target person. You may do so.

以上説明したように、本実施形態によるプレー判定システム1a(判定システム)は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)と、骨格推定部125と、軌跡生成部124と、プレー判定部126とを備える。検出装置(例えば、レーザレーダ装置20及び撮像装置30)は、少なくとも物体の形状及び位置情報を検出可能である。骨格推定部125は、検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する。軌跡生成部124は、検出装置が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。プレー判定部126は、判定器と、骨格推定部125が推定した対象人物の骨格又は関節と、軌跡生成部124が生成した対象人物の移動軌跡とに基づいて、対象人物のプレーを判定する。ここで、判定器は、過去の対象人物の移動軌跡と、対象人物の骨格又は関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成されている。 As described above, the play determination system 1a (determination system) according to the present embodiment includes the detection device (for example, the laser radar device 20 and the imaging device 30), the skeleton estimation unit 125, the trajectory generation unit 124, and the play determination. And a section 126. The detection device (for example, the laser radar device 20 and the imaging device 30) can detect at least the shape and position information of the object. The skeleton estimation unit 125 estimates the skeleton or joint of the target person based on the detection information detected by the detection device. The trajectory generation unit 124 generates a trajectory of the target person based on the detection information detected by the detection device. The play determination unit 126 determines the play of the target person based on the determiner, the skeleton or joint of the target person estimated by the skeleton estimation unit 125, and the movement trajectory of the target person generated by the trajectory generation unit 124. Here, the determiner is generated to determine the play of the target person, which indicates the motion and behavior of the target person, based on the past trajectory of the target person and the skeleton or joint of the target person.

これにより、本実施形態によるプレー判定システム1aは、対象人物の骨格又は関節と、対象人物の移動軌跡とに基づいて、プレーを判定するため、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。また、本実施形態によるプレー判定システム1aでは、利用者の負担なく、例えば、選手のプレー、位置、時刻、プレーの成否、出来栄え、点数判定、等を自動にて記録することができる。すなわち、本実施形態によるプレー判定システム1aは、スポーツ競技のスコアを自動で記録することができる。 As a result, the play determination system 1a according to the present embodiment determines the play based on the skeleton or joint of the target person and the movement trajectory of the target person, so that the processing load is suppressed and the play of the target person is performed with high accuracy. A decision can be made. Further, in the play determination system 1a according to the present embodiment, for example, the player's play, position, time, success or failure of play, performance, score determination, etc. can be automatically recorded without burdening the user. That is, the play determination system 1a according to the present embodiment can automatically record the score of the sports competition.

また、本実施形態では、軌跡生成部124は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の周辺に存在する対象物の移動軌跡を生成する。プレー判定部126は、判定器を利用して、対象人物の移動軌跡と、対象人物の骨格又は関節と、対象物の移動軌跡とから対象人物のプレーを判定する。
これにより、本実施形態によるプレー判定システム1aは、例えば、ボールやラケットなどの用具である対象物の移動軌跡を用いることで、プレー判定の精度を向上させることができる。
In addition, in the present embodiment, the trajectory generation unit 124 generates the movement trajectory of the target object existing around the target person based on the detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30). To do. The play determination unit 126 determines the play of the target person from the movement trajectory of the target person, the skeleton or joint of the target person, and the movement trajectory of the target person using the determiner.
As a result, the play determination system 1a according to the present embodiment can improve the precision of the play determination by using the movement trajectory of the object, which is a tool such as a ball or a racket.

例えば、バレーボールにおいて、ボールなどの対象物の移動軌跡を判定器に利用して、プレー判定することにより、本実施形態によるプレー判定システム1aは、例えば、レシーブ、アタック、サーブ、ブロック等を判定することができる。
また、例えば、バスケットにおいて、対象人物の周囲の人物の移動軌跡を判定器に利用して、プレー判定することにより、本実施形態によるプレー判定システム1aは、例えば、スクリーンプレーなどを精度よく判定することができる。
また、例えば、テニスにおいて、対象人物の骨格と、対象人物、ボール及びラケットの移動軌跡とを判定器に利用して、プレー判定することにより、テニスのショット種別(例えば、バックハンド、フォアハンド、スマッシュ、スライスなど)、ボール(例えば、スピード、スピン種別、回転数など)、ショットの成否、等を判定することができる。
For example, in a volleyball, the play determination system 1a according to the present embodiment determines, for example, a receive, an attack, a serve, a block, etc. by using the movement trajectory of an object such as a ball as a determiner to determine the play. be able to.
Further, for example, in the basket, the play determination system 1a according to the present embodiment accurately determines screen play, for example, by using the movement trajectory of the person around the target person as a determiner to determine the play. be able to.
Further, for example, in tennis, by using the skeleton of the target person and the movement trajectory of the target person, the ball, and the racket as a determiner, the play determination is performed to determine the tennis shot type (for example, backhand, forehand, smash). , A slice, etc.), a ball (eg, speed, spin type, number of revolutions, etc.), success or failure of a shot, and the like.

また、本実施形態では、検出装置には、レーザレーダ装置20及び撮像装置30が含まれる。骨格推定部125は、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格又は関節を推定する。軌跡生成部124は、レーザレーダ装置20による検出に基づく対象エリアにおける対象人物の位置情報である第1位置情報と、画像情報に基づく対象エリアにおける対象人物の位置情報である第2位置情報とを相互に補完して、対象人物の位置情報を補正し、補正した対象人物の位置情報に基づいて、対象人物の移動軌跡を生成する。 Further, in the present embodiment, the detection device includes the laser radar device 20 and the imaging device 30. The skeleton estimation unit 125 estimates the skeleton or joint of the target person based on the contour of the target person detected by the laser radar device 20 and the image information including the target person imaged by the imaging device 30. The trajectory generation unit 124 generates first position information that is position information of the target person in the target area based on detection by the laser radar device 20, and second position information that is position information of the target person in the target area based on image information. Complementing each other, the position information of the target person is corrected, and the movement trajectory of the target person is generated based on the corrected position information of the target person.

これにより、本実施形態によるプレー判定システム1aは、レーザレーダ装置20の検出情報に基づく第1位置情報と、撮像装置30の画像情報に基づく第2位置情報とを相互に補完することにより、処理負荷を抑えつつ、対象物の位置計測を行うことができる。よって、本実施形態によるプレー判定システム1aは、さらに高精度に対象人物のプレー判定を行うことができる。 Thereby, the play determination system 1a according to the present embodiment complements the first position information based on the detection information of the laser radar device 20 and the second position information based on the image information of the imaging device 30 to perform processing. The position of the object can be measured while suppressing the load. Therefore, the play determination system 1a according to the present embodiment can perform the play determination of the target person with higher accuracy.

また、本実施形態によるプレー判定システム1aは、レーザレーダ装置20の検出情報に基づく第1位置情報に対応する画像情報における部分画像に基づいて、対象人物を識別し、識別した対象人物に対して、当該対象人物を識別する識別情報を付与する識別処理部123を備える。軌跡生成部124は、識別処理部123が付与した識別情報と対応付けて、対象人物の移動軌跡を生成する。
これにより、本実施形態によるプレー判定システム1aは、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報と用いることで、高精度に対象物を識別することができ、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。よって、本実施形態によるプレー判定システム1aは、さらに高精度に対象人物のプレー判定を行うことができる。
Further, the play determination system 1a according to the present embodiment identifies the target person based on the partial image in the image information corresponding to the first position information based on the detection information of the laser radar device 20, and identifies the identified target person. An identification processing unit 123 for providing identification information for identifying the target person. The locus generation unit 124 generates the movement locus of the target person in association with the identification information provided by the identification processing unit 123.
As a result, the play determination system 1a according to the present embodiment can accurately identify an object by using the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. Therefore, the position of the measurement target can be tracked with high accuracy while suppressing the processing load. Therefore, the play determination system 1a according to the present embodiment can perform the play determination of the target person with higher accuracy.

また、本実施形態によるプレー判定システム1aでは、撮像装置30では、高精度に取得することが困難位置情報を、レーザレーダ装置20と併用することにより、高精度に位置情報を検出することができる。そのため、本実施形態によるプレー判定システム1aは、判定可能なプレーの種類を広げることができ、様々な競技やゲームの分析に応用することができる。また、本実施形態によるプレー判定システム1aは、撮像装置30では、複雑、且つ、高い処理負荷を必要とするプレー判定において、レーザレーダ装置20と併用することにより、判定速度及び判定精度を向上させることができる。 In the play determination system 1a according to the present embodiment, the image pickup device 30 can detect the position information with high accuracy by using the position information that is difficult to obtain with high accuracy together with the laser radar device 20. .. Therefore, the play determination system 1a according to the present embodiment can broaden the types of play that can be determined, and can be applied to analysis of various competitions and games. Further, the play determination system 1a according to the present embodiment improves the determination speed and the determination accuracy by being used in combination with the laser radar device 20 in the play determination that requires a complicated and high processing load in the imaging device 30. be able to.

また、本実施形態では、識別処理部123は、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別できない場合に、部分画像に基づいて、対象人物の骨格又は関節を推定し、推定した骨格又は関節と、予め定められた対象人物の骨格又は関節の特徴とに基づいて、対象人物を識別する。
これにより、本実施形態によるプレー判定システム1aは、さらに高精度に対象物を識別することができる。
Further, in the present embodiment, when the target person cannot be identified based on the image recognition of the face or clothing of the target person, the identification processing unit 123 estimates and estimates the skeleton or joint of the target person based on the partial image. The target person is identified based on the skeleton or joint and the predetermined characteristics of the skeleton or joint of the target person.
As a result, the play determination system 1a according to the present embodiment can identify the object with higher accuracy.

また、本実施形態では、軌跡生成部124は、レーザレーダ装置20の検出情報に基づいて対象エリアの平面上の位置情報を生成し、撮像装置30の画像情報に基づいて対象エリアの高さ方向の位置情報を生成して、平面上の位置情報及び高さ方向の位置情報を含む3次元位置情報を生成し、生成した3次元位置情報に基づいて、対象物(対象人物)の軌跡を生成する。
これにより、本実施形態によるプレー判定システム1aは、正確な位置を計測できるため、例えば、ジャンプの伴うプレー判定を高精度に行うことができ、判定可能なプレーの種類をさらに広げることができる。
Further, in the present embodiment, the trajectory generation unit 124 generates position information on the plane of the target area based on the detection information of the laser radar device 20, and the height direction of the target area based on the image information of the imaging device 30. Position information is generated, three-dimensional position information including position information on a plane and position information in the height direction is generated, and a trajectory of an object (target person) is generated based on the generated three-dimensional position information. To do.
As a result, the play determination system 1a according to the present embodiment can measure an accurate position, so that the play determination involving a jump can be performed with high accuracy, and the types of play that can be determined can be further expanded.

また、本実施形態によるプレー判定システム1aは、プレーを評価するプレー評価部127を備える。
これにより、本実施形態によるプレー判定システム1aは、例えば、各選手の練習中の走行距離、ジャンプ回数や高さ、プレー動作を評価することができ、オーバートレーニング等の管理を一元的に行うことができる。
Further, the play determination system 1a according to the present embodiment includes a play evaluation unit 127 that evaluates a play.
As a result, the play determination system 1a according to the present embodiment can evaluate, for example, the mileage of each player during the practice, the number of jumps or the height, and the play action, and perform the management such as overtraining in a unified manner. You can

また、本実施形態による判定方法は、骨格推定ステップと、軌跡生成ステップと、プレー判定ステップとを含む。骨格推定ステップにおいて、骨格推定部125が、少なくとも物体の形状及び位置情報を検出可能な検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する。軌跡生成ステップにおいて、軌跡生成部124が、検出装置が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。プレー判定ステップにおいて、プレー判定部126が、過去の対象人物の移動軌跡と、対象人物の骨格又は関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成された判定器と、骨格推定部125が推定した対象人物の骨格又は関節と、軌跡生成部124が生成した対象人物の移動軌跡とに基づいて、対象人物のプレーを判定する。
これにより、本実施形態による判定方法は、上述したプレー判定システム1aと同様の効果を奏し、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。
Further, the determination method according to the present embodiment includes a skeleton estimation step, a trajectory generation step, and a play determination step. In the skeleton estimating step, the skeleton estimating unit 125 estimates the skeleton or joint of the target person based on at least the detection information detected by the detection device capable of detecting the shape and position information of the object. In the locus generation step, the locus generation unit 124 generates the movement locus of the target person based on the detection information detected by the detection device. In the play determination step, the play determination unit 126 is generated so as to determine the play of the target person indicating the motion and action of the target person based on the past movement trajectory of the target person and the skeleton or joint of the target person. The play of the target person is determined based on the determiner, the skeleton or joint of the target person estimated by the skeleton estimation unit 125, and the movement trajectory of the target person generated by the trajectory generation unit 124.
As a result, the determination method according to the present embodiment has the same effect as that of the above-described play determination system 1a, and can perform the play determination of the target person with high accuracy while suppressing the processing load.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、位置追跡システム1(プレー判定システム1a)が備えるレーザレーダ装置20及び撮像装置30の数は、上記の各実施形態に限定されるものではなく、他の台数を備えるようにしてもよい。
It should be noted that the present invention is not limited to each of the above-described embodiments, and can be modified within a range not departing from the spirit of the present invention.
For example, the numbers of the laser radar devices 20 and the imaging devices 30 included in the position tracking system 1 (play determination system 1a) are not limited to those in the above embodiments, and other numbers may be included.

上記の各実施形態において、情報処理装置10(10a)は、1台の装置である例を説明したが、これに限定されるものではなく、複数台の装置で構成されてもよい。また、情報処理装置10(10a)は、記憶部11(11a)の一部又は全部を、外部装置が備えるようにしてもよい。また、この場合、外部装置は、ネットワークを介して、情報処理装置10(10a)に接続可能な記憶装置であってもよい。また、情報処理装置10(10a)は、制御部12(12a)の一部の機能を、外部装置が備えるようにしてもよい。 In each of the above-described embodiments, the information processing device 10 (10a) has been described as an example of one device. However, the information processing device 10 (10a) is not limited to this, and may be composed of a plurality of devices. Further, in the information processing device 10 (10a), an external device may include part or all of the storage unit 11 (11a). Further, in this case, the external device may be a storage device connectable to the information processing device 10 (10a) via the network. Further, in the information processing device 10 (10a), an external device may include a part of the functions of the control unit 12 (12a).

また、上記の各実施形態において、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する検出装置の一例として、レーザレーダ装置20を用いる例を説明したが、これに限定されるものではない。例えば、検出装置は、光波、電波、又は音波を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出するものであってもよい。ここで、波動とは、例えば、レーザー光などの光波、電波、超音波などの音波、等の空間を伝播する波である。 In each of the above embodiments, a laser radar device is used as an example of a detection device that irradiates a target area with a wave and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object. Although the example using 20 has been described, the present invention is not limited to this. For example, the detection device may irradiate a light wave, a radio wave, or a sound wave to detect detection information including at least a distance and a direction to the object based on a reflected wave from the object. Here, the wave is a wave that propagates in space, such as a light wave such as a laser beam, a radio wave, a sound wave such as an ultrasonic wave, or the like.

上記の第2の実施形態において、プレー判定部126は、対象人物の移動軌跡と、骨格及び関節の位置と、対象人物の周辺に存在する対象物の移動軌跡とからプレーを判定する例を説明したが、これに限定されるものではない。プレー判定部126は、例えば、骨格及び関節の移動軌跡、ポールやネット、コートのラインなど周辺の対象物との位置関係、対象人物の手や足などの身体の一部の移動軌跡などに基づいて、プレーを判定するようにしてもよい。また、プレー判定部126は、対象人物の移動軌跡と、骨格及び関節の位置とのいずれか一方から、プレーを判定するようにしてもよい。
また、プレー判定部126が判定するプレーは、例えば、サッカーのゴール、テニスやバレーボールなどのラインイン又はラインアウト、柔道などの技の名前、等であってもよい。また、プレー判定部126は、プレー判定として、プレーの成否(例えば、バスケットボールのシュート成功・失敗)、出来栄え・点数(例えば、体操競技の採点)、等を判定するようにしてもよい。
In the above-described second embodiment, an example in which the play determination unit 126 determines the play based on the movement trajectory of the target person, the positions of the skeleton and the joint, and the movement trajectory of the target object existing around the target person. However, the present invention is not limited to this. The play determination unit 126 is based on, for example, movement trajectories of skeletons and joints, positional relationships with surrounding objects such as poles, nets, and coat lines, and trajectories of part of the body such as the hands and feet of the target person. Then, the play may be determined. The play determination unit 126 may determine the play based on one of the movement trajectory of the target person and the positions of the skeleton and joints.
The play determined by the play determination unit 126 may be, for example, a soccer goal, a line-in or line-out of tennis or volleyball, the name of a technique such as judo, or the like. Further, the play determination unit 126 may determine, as the play determination, success or failure of the play (for example, basketball success/failure), performance/score (for example, gymnastics score).

また、上記の各実施形態において、対象エリアが、例えば、スポーツを行う競技場であるコート、試合場、等である例を説明したが、これに限定されるものではない。情報処理装置10(10a)が適用される対象エリアは、例えば、スケート等の氷上リンク、スキージャンプやハーフパイプ等の雪上の競技場所、競泳やアーティスティックスイミング等のプールなどであってもよいし、その他の競技を行う場所であってもよい。 Further, in each of the above-described embodiments, an example in which the target area is, for example, a court that is a stadium for playing sports, a game field, or the like has been described, but the present invention is not limited to this. The target area to which the information processing device 10 (10a) is applied may be, for example, an ice rink such as skating, a competition place on snow such as ski jumps and half pipes, and a pool such as a swimming race and artistic swimming. , It may be a place for other competitions.

また、上記の各実施形態において、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける第1位置情報と、第2位置情報とが一致するように配置するキャリブレーション処理は、以下のように行ってもよい。
例えば、コートを使用する競技においては、コートラインに再帰性反射材で作成した有色のシール等を用いることで、レーザレーダ装置20及び撮像装置30のキャリブレーション処理を同時に行うようにしてもよい。この場合、上記シール等をネットポールや、ゴールポール等、競技中に位置が固定されている用具に張り付けて利用するようにしてもよい。
Further, in each of the above-described embodiments, the laser radar device 20 and the imaging device 30 are arranged so that the first position information and the second position information in the target area match each other. You may go to
For example, in a competition using a court, a calibration process of the laser radar device 20 and the imaging device 30 may be performed at the same time by using a colored sticker made of a retroreflective material on the court line. In this case, the seal or the like may be attached to a tool such as a net pole or a goal pole whose position is fixed during the competition for use.

また、情報処理装置10(10a)の位置計測の処理は、上記の各実施形態に限定されるものではなく、競技種目や目的によって、以下のように変更されてもよい。
例えば、情報処理装置10(10a)の軌跡生成部124は、通常時には、レーザレーダ装置20による第1位置情報を主として、画像情報に基づく第2位置情報で補完して位置計測を行う。そして、車いすバスケやウィルチェアラグビー競技に使用する際には、選手がボールを抱え込む動作が多く、レーザレーダ装置20による第1位置情報の検出が困難であることが考えられる。このような場合には、軌跡生成部124は、画像情報に基づく第2位置情報が主として、レーザレーダ装置20による第1位置情報で補完するようにしてもよい。
The position measurement process of the information processing device 10 (10a) is not limited to the above-described embodiments, and may be changed as follows depending on the sporting event or purpose.
For example, the trajectory generation unit 124 of the information processing device 10 (10a) normally performs the position measurement by complementing the first position information by the laser radar device 20 with the second position information based on the image information. When used in a wheelchair basketball or wheelchair rugby competition, it is considered that the player often holds the ball and it is difficult for the laser radar device 20 to detect the first position information. In such a case, the locus generation unit 124 may supplement the second position information based on the image information mainly with the first position information by the laser radar device 20.

また、上述したように、レーザレーダ装置20は、精度良くリアルタイムでの位置検出が可能であるが、サンプリング周波数が低いため、断片的な位置情報となる。これに対して、画像情報に基づく位置検出では、連続した位置情報の検出が可能であるが、処理負荷が高く時間がかかる。そこで、軌跡生成部124は、リアルタイムでの位置検出を重視する場合は、レーザレーダ装置20による第1位置情報を主として、画像情報に基づく第2位置情報で補完する割合、頻度、等を減らすようにしてもよい。また、軌跡生成部124は、例えば、位置検出の精度を重視する場合は、画像情報に基づく第2位置情報で補完する割合、頻度、等を増やすようにしてもよい。
このように、軌跡生成部124は、競技種目や目的に応じて、第1位置情報と第2位置情報の間の補完方法を変更してもよい。
Further, as described above, the laser radar device 20 can accurately detect the position in real time, but since the sampling frequency is low, the position information becomes fragmentary. On the other hand, in position detection based on image information, continuous position information can be detected, but the processing load is high and it takes time. Therefore, when placing importance on real-time position detection, the trajectory generation unit 124 mainly reduces the ratio, frequency, etc. of complementing the first position information by the laser radar device 20 with the second position information based on the image information. You can In addition, for example, when importance is attached to the accuracy of position detection, the trajectory generation unit 124 may increase the ratio, frequency, etc. of complementation with the second position information based on the image information.
In this way, the trajectory generation unit 124 may change the complementing method between the first position information and the second position information according to the sporting event or the purpose.

また、上記の各実施形態において、情報処理装置10(10a)は、生成した移動軌跡を、様々な視線、向きに変換して、表示部(不図示)などに表示するようにしてもよい。例えば、軌跡生成部124は、野球のキャッチャーやサッカーのキーパの目線に移動軌跡を変換して表示させるようにしてもよいし、バレーボールやテニス、バドミントンなどでサーブを受ける選手目線でのボールやシャトルの軌道に移動軌跡を変換して、表示させるようにしてもよい。 Further, in each of the above-described embodiments, the information processing device 10 (10a) may convert the generated movement trajectory into various lines of sight and directions and display the same on a display unit (not shown) or the like. For example, the locus generation unit 124 may convert the movement locus into the line of sight of a baseball catcher or a soccer keeper, and may display the locus, or a ball or shuttle from the line of sight of a player who is served in volleyball, tennis, badminton, or the like. Alternatively, the movement locus may be converted to the locus and displayed.

また、上記の各実施形態において、情報処理装置10(10a)は、自転車のトラック競技、スピードスケートなど、屋内競技において、移動物体の軌道を取得したい場合に、簡易な設備で対応することができる。また、陸上の中長距離での速度計測において、コーナー付近は選手が重なった場合など、映像だけでは判別し難く、従来技術では、何台もカメラが必要となる状況で、キャリブレーションが困難である。情報処理装置10(10a)は、このような場合であっても、簡易な設備で移動軌跡を取得することができる。 Further, in each of the above-described embodiments, the information processing device 10 (10a) can cope with a simple facility when it is desired to acquire the trajectory of a moving object in an indoor competition such as a bicycle track competition or speed skating. .. In addition, when measuring speed on medium and long distances on land, it is difficult to distinguish from the video alone, such as when the players overlap in the vicinity of the corner.In the conventional technology, it is difficult to calibrate because many cameras are required. is there. Even in such a case, the information processing device 10 (10a) can acquire the movement trajectory with simple equipment.

また、上記の各実施形態の情報処理装置10(10a)を使用することで、報道カメラなどの操作において、以下のことに対応することができる。
例えば、当該選手、もしくはボールのみを常に追従撮影するようにカメラを操作することができる。また、人間の目では追えない程の速さで移動するボールやシャトルなどが目立つように映像加工することができる。
Further, by using the information processing device 10 (10a) of each of the above-described embodiments, the following can be dealt with in the operation of the news camera and the like.
For example, the camera can be operated so that the player or the ball is always followed and photographed. In addition, it is possible to process images so that a ball, shuttle, or the like that moves at a speed that human eyes cannot follow is noticeable.

また、上記の各実施形態において、情報処理装置10(10a)は、位置情報と移動軌跡とを利用することで、スキージャンプにおける移動軌跡及び飛行距離の計測や、陸上、競泳、スピードスケート、等の記録測定を行うようにしてもよい。 Further, in each of the above-described embodiments, the information processing device 10 (10a) uses the position information and the movement locus to measure the movement locus and flight distance in a ski jump, land, swimming, speed skating, and the like. The recording measurement may be performed.

また、上記の第2の実施形態において、プレー判定部126は、位置情報及び移動軌跡、骨格・関節の動き、及び周辺領域の軌跡から、プレー判定として、以下の処理を行ってもよい。
例えば、プレー判定部126は、サッカーなどのセットプレー時のフォーメーションの変化を通知するようにしてもよいし、アーチェリー等のフォームのみで的に当たる成功率を予測するようにしてもよい。また、プレー判定部126は、アーチェリー、ウェイトリフティング等のフォームのみでコンディション、疲れ具合を推定するようにしてもよい。また、プレー判定部126は、バスケットのスクリーンプレー、バレーボールのブロック等、ボールを保持していない選手のプレーを判定するようにしてもよいし、陸上競技において、骨格・関節の動きからピッチとストライドとを自動計測するようにしてもよい。
Further, in the second embodiment described above, the play determination unit 126 may perform the following processing as play determination from the position information, the movement trajectory, the skeleton/joint movement, and the trajectory of the peripheral area.
For example, the play determination unit 126 may notify a change in formation during set play such as soccer, or may predict the success rate to be hit only by a form such as archery. Further, the play determination unit 126 may estimate the condition and the degree of tiredness only with forms such as archery and weight lifting. Further, the play determination unit 126 may determine the play of a player who does not hold the ball, such as basket screen play and volleyball block play. And may be automatically measured.

また、上記の第2の実施形態において、プレー評価部127は、プレー判定結果と、過去の移動軌跡とに基づいて、技や競技の成功率を予測するようにしてもよい。プレー評価部127は、例えば、フィギュアスケートのジャンプや体操の技などの成功率を予測するようにしてもよい。また、プレー評価部127は、例えば、ウェイトリフティングにおいて、バーベルの軌跡と骨格・関節の動きから、成功率を予測するようにしてもよい。これによりフォームを適切に管理することができる。 Further, in the above-described second embodiment, the play evaluation unit 127 may predict the success rate of the technique or the competition based on the play determination result and the past movement trajectory. The play evaluation unit 127 may predict the success rate of, for example, a jump of figure skating or a technique of gymnastics. Further, the play evaluation unit 127 may predict the success rate from the trajectory of the barbell and the movement of the skeleton/joint in weight lifting, for example. This allows the form to be properly managed.

また、上記の第2の実施形態において、プレー評価部127は、対象物の位置、識別された各種対象物の軌跡、及び評価データを可視化するようにしてもよい。プレー評価部127は、図12に示すような表示画面(画像G2)を表示するようにしてもよい。 Further, in the above-described second embodiment, the play evaluation unit 127 may visualize the position of the target object, the trajectories of various identified target objects, and the evaluation data. The play evaluation unit 127 may display a display screen (image G2) as shown in FIG.

図12は、第2の実施形態によるプレー判定システム1aの変形例における表示画面の一例を示す図である。
プレー評価部127は、可視化アプリケーションとして、画像G2に示すように、以下に示すような各種情報を表示部(不図示)に表示させる。
プレー評価部127は、可視化アプリケーションとして、例えば、1つの映像もしくは、映像内の時間範囲を指定することで、当該部分の映像及び、位置のデータ、及び不随する評価データを表示する。また、画像G2において、映像、位置データ、及び評価データは、表示/非表示の選択が可能である。
FIG. 12 is a diagram showing an example of a display screen in a modified example of the play determination system 1a according to the second embodiment.
As a visualization application, the play evaluation unit 127 causes the display unit (not shown) to display various information as shown below, as shown in the image G2.
The play evaluation unit 127 displays, as a visualization application, one image or a time range within the image, for example, the image of the part, the position data, and the accompanying evaluation data. In the image G2, the video, position data, and evaluation data can be displayed/hidden.

また、プレー評価部127は、可視化アプリケーションにおいて、位置データとして、選手やボール、ラケットなど用具の対象エリアにおける位置の移動を表示するとともに、位置データには、識別された識別情報(例えば、識別ID)を表示する。また、プレー評価部127は、可視化アプリケーションの機能として、例えば、映像と位置データは時刻同期されて表示させる、評価データとして、選手ごとのトラッキングデータ(追跡した移動軌跡)を表示させる、選手のジャンプ回数や高さ、最高スピード、スプリント回数等の統計データを表示させる、などの処理を実行する。 Further, the play evaluation unit 127 displays the movement of the position of the equipment such as the player, the ball, and the racket in the target area as the position data in the visualization application, and the position data includes the identified identification information (for example, the identification ID). ) Is displayed. Further, the play evaluation unit 127 has, as the function of the visualization application, for example, the video and the position data are displayed in time synchronization, and the tracking data (tracked movement track) for each player is displayed as the evaluation data. Perform processing such as displaying statistical data such as the number of times, height, maximum speed, and number of sprints.

また、プレー評価部127は、可視化アプリケーションの機能として、例えば、スピード曲線であれば、映像と位置データ、グラフ中の点データを連動させて表示させる、選手別のデータの他に、チーム別の統計データを表示させる、グラフ等の統計表示以外に、表によるテーブルを表示させる、などの処理を実行する。また、プレー評価部127は、可視化アプリケーションの機能として、例えば、評価データには、ボールやラケットなど用具のデータを表示させてもよいし、例えば、ボールのスピード、回転数、スピン種別や、ラケットのスピード、ショット種別、インパクト位置、ショットパワーのデータなどを表示させてもよい。 In addition, as a function of the visualization application, the play evaluation unit 127, for example, in the case of a speed curve, displays video and position data and point data in the graph in association with each other. Processes such as displaying statistical data, displaying a table by a table in addition to displaying statistics such as graphs are executed. As a function of the visualization application, the play evaluation unit 127 may display data of equipment such as a ball and a racket in the evaluation data. For example, the speed of the ball, the number of revolutions, the spin type, and the racket. The speed, shot type, impact position, shot power data, etc. may be displayed.

次に、図13を参照して、プレー判定システム1aにおける映像と評価データを可視化する別の変形例について説明する。
また、図13は、第2の実施形態によるプレー判定システム1aの別の変形例を示す図である。
Next, with reference to FIG. 13, another modification of visualizing an image and evaluation data in the play determination system 1a will be described.
FIG. 13 is a diagram showing another modification of the play determination system 1a according to the second embodiment.

この図において、プレー判定システム1aは、バレーのコートAR4の上部に設置されたスクリーン40(表示部の一例)を備えている。情報処理装置10aは、スクリーン40に撮像装置30が撮像した映像を表示させるとともに、プレーに付随する評価データを重ねて表示させる(図13の画像G3)。情報処理装置10aは、例えば、バレーボールであれば、画像G3に示すように、アタックの打点高、球速、球角度等を表示させる。また、情報処理装置10aは、映像上に重ねる評価データの内容及び表示位置をユーザが指定できるものとする。また、複数台の撮像装置30を使用して計測する場合には、情報処理装置10aは、どの撮像装置30の映像をスクリーン40に表示させるかを、ユーザが指定できるものとする。また、表示部の一例として、スクリーン40を用いる例を説明するが、コートAR4の周辺に設置された表示装置であれば、他のディスプレイ、スクリーン、表示装置、等であってもよい。 In this figure, the play determination system 1a includes a screen 40 (an example of a display unit) installed above the court AR4 in the valley. The information processing device 10a displays the image captured by the image capturing device 30 on the screen 40 and displays the evaluation data associated with the play in an overlapping manner (image G3 in FIG. 13). For example, in the case of volleyball, the information processing apparatus 10a displays the hitting height of the attack, the ball speed, the ball angle, etc., as shown in the image G3. Further, the information processing device 10a is assumed to allow the user to specify the content and display position of the evaluation data to be superimposed on the video. Further, when the measurement is performed using a plurality of image pickup devices 30, the information processing device 10a can specify which image pickup device 30 the image of the image pickup device 30 is to be displayed on the screen 40. Further, although an example in which the screen 40 is used will be described as an example of the display unit, another display, screen, display device, or the like may be used as long as it is a display device installed around the coat AR4.

なお、評価データの表示には、計測、及び判定処理を要するため、スクリーン40に表示される映像は、リアルタイムより遅延して再生される場合がある。その場合、情報処理装置10aは、評価データの表示の遅延時間、及び評価データの表示を維持する時間を、ユーザが設定できるようにしてもよい。この場合、例えば、アタック練習で遅延時間を5秒と設定され、複数人の選手が次々にアタックした場合、自分がアタックした後に、スクリーン40で今の自分の評価データやフォームを確認することができる。
また、例えば、フォーメーション練習を行う際に、遅延時間を20秒と設定し、レシーブ、トス、及びアタックの一連のプレーを、プレー後にスクリーン40等のディスプレイで確認することができる。
Since the display of the evaluation data requires measurement and determination processing, the image displayed on the screen 40 may be reproduced with a delay from real time. In that case, the information processing apparatus 10a may allow the user to set a delay time for displaying the evaluation data and a time for maintaining the display of the evaluation data. In this case, for example, when the delay time is set to 5 seconds in the attack practice, and a plurality of players attack one after another, it is possible to check the current evaluation data and form on the screen 40 after the attack by oneself. it can.
Further, for example, when performing formation practice, the delay time is set to 20 seconds, and a series of plays of receive, toss, and attack can be confirmed on the display such as the screen 40 after the play.

また、上記の第2の実施形態において、情報処理装置10aは、プレー評価部127によって生成及び蓄積された評価データを、ユーザの指定によって、テキストデータ、又はCSVファイル、等により外部に出力させるようにしてもよい。この場合、評価データは、例えば、1試合でのアタックの打点高の推移、アタック時のブロックの枚数と成功率、1日の練習におけるジャンプの回数及び高さ、等である。プレー判定システム1aでは、これらの評価データを外部に出力することにより、アナリストやコーチが、出力されたデータからゲーム分析やトレーニング評価を効率良く行うことができる。 In addition, in the second embodiment, the information processing device 10a outputs the evaluation data generated and accumulated by the play evaluation unit 127 to the outside by text data, a CSV file, or the like according to the user's designation. You can In this case, the evaluation data is, for example, the transition of the hitting point height in one game, the number of blocks and the success rate at the time of the attack, the number of jumps and the height during practice in one day, and the like. In the play determination system 1a, by outputting these evaluation data to the outside, the analyst and the coach can efficiently perform the game analysis and the training evaluation from the output data.

なお、上述した位置追跡システム1及びプレー判定システム1aが備える各構成は、内部に、コンピュータシステムを有している。そして、上述した位置追跡システム1及びプレー判定システム1aが備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した位置追跡システム1及びプレー判定システム1aが備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each of the components included in the position tracking system 1 and the play determination system 1a described above has a computer system inside. Then, a program for realizing the functions of the components of the position tracking system 1 and the play determination system 1a described above is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read into the computer system. By executing the above, the processing in each configuration included in the position tracking system 1 and the play determination system 1a described above may be performed. Here, “reading and executing a program recorded in a recording medium on a computer system” includes installing the program in the computer system. The “computer system” mentioned here includes an OS and hardware such as peripheral devices.
Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に位置追跡システム1及びプレー判定システム1aが備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The recording medium also includes a recording medium provided inside or outside accessible from the distribution server for distributing the program. It should be noted that the programs are divided into a plurality of programs and downloaded at different timings, and then combined by the respective configurations of the position tracking system 1 and the play determination system 1a, and the distribution server that distributes each of the divided programs is different. May be. Further, the "computer-readable recording medium" holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that serves as a server or a client when the program is transmitted via a network. It also includes things. Further, the program may be for realizing a part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, some or all of the above-described functions may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the functions described above may be individually implemented as a processor, or part or all of the functions may be integrated and implemented as a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when a technology for forming an integrated circuit that replaces the LSI appears due to the progress of semiconductor technology, an integrated circuit according to the technology may be used.

1…位置追跡システム、1a…プレー判定システム、10,10a…情報処理装置、11,11a…記憶部、12,12a…制御部、20…レーザレーダ装置、30…撮像装置、40…スクリーン、111…レーダ検出記憶部、112…画像情報記憶部、113…対象物情報記憶部、114…移動軌跡記憶部、115…対象物軌跡記憶部、116…骨格関節情報記憶部、117…判定器情報記憶部、118…判定結果記憶部、121…データ取得部、122…画像処理部、123…識別処理部、124…軌跡生成部、125…骨格推定部、126…プレー判定部、127…プレー評価部 DESCRIPTION OF SYMBOLS 1... Position tracking system, 1a... Play determination system, 10, 10a... Information processing device, 11, 11a... Storage part, 12, 12a... Control part, 20... Laser radar device, 30... Imaging device, 40... Screen, 111 ... radar detection storage unit 112, image information storage unit 113, target object information storage unit 114, movement locus storage unit 115, target locus storage unit 116, skeletal joint information storage unit 117, decision unit information storage Part, 118... Judgment result storage part, 121... Data acquisition part, 122... Image processing part, 123... Identification processing part, 124... Locus generation part, 125... Skeleton estimation part, 126... Play determination part, 127... Play evaluation part

Claims (4)

少なくとも物体の形状及び位置情報を検出可能な検出装置と、
前記検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する骨格推定部と、
前記検出装置が検出した検出情報に基づいて、前記対象人物の移動軌跡を生成する軌跡生成部と、
過去の前記対象人物の移動軌跡と、前記対象人物の骨格又は関節とに基づいて前記対象人物の動作及び行動を示す前記対象人物のプレーを判定するように生成された判定器と、前記骨格推定部が推定した前記対象人物の骨格又は関節と、前記軌跡生成部が生成した前記対象人物の移動軌跡とに基づいて、前記対象人物のプレーを判定するプレー判定部と
を備え
前記検出装置には、レーザレーダ装置及び撮像装置が含まれ、
前記骨格推定部は、前記レーザレーダ装置が検出した前記対象人物の輪郭と、前記撮像装置が撮像した前記対象人物を含む画像情報とに基づいて、前記対象人物の骨格又は関節を推定し、
前記軌跡生成部は、レーザレーダ装置による検出に基づく対象エリアにおける前記対象人物の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記対象人物の位置情報である第2位置情報とを相互に補完して、前記対象人物の位置情報を補正し、補正した前記対象人物の位置情報に基づいて、前記対象人物の移動軌跡を生成する
とを特徴とする判定システム。
A detection device capable of detecting at least the shape and position information of the object,
Based on the detection information detected by the detection device, a skeleton estimation unit that estimates the skeleton or joint of the target person,
A trajectory generation unit that generates a movement trajectory of the target person based on the detection information detected by the detection device,
A determiner generated to determine the play of the target person, which indicates the motion and action of the target person, based on the past movement trajectory of the target person and the skeleton or joint of the target person, and the skeleton estimation A skeleton or joint of the target person estimated by the section, and a play determination unit that determines the play of the target person based on the movement trajectory of the target person generated by the trajectory generation unit ,
The detection device includes a laser radar device and an imaging device,
The skeleton estimating unit estimates the skeleton or joint of the target person based on the contour of the target person detected by the laser radar device and image information including the target person imaged by the imaging device,
The trajectory generation unit includes first position information that is position information of the target person in the target area based on detection by the laser radar device, and second position information that is position information of the target person in the target area based on the image information. Information is mutually complemented to correct the position information of the target person, and a movement locus of the target person is generated based on the corrected position information of the target person.
Determination system, wherein a call.
前記軌跡生成部は、前記検出情報に基づいて、前記対象人物の周辺に存在する対象物の移動軌跡を生成し、
前記プレー判定部は、前記判定器を利用して、前記対象人物の移動軌跡と、前記対象人物の骨格又は関節と、前記対象物の移動軌跡とから前記対象人物のプレーを判定する
ことを特徴とする請求項1に記載の判定システム。
The trajectory generation unit generates a movement trajectory of an object existing around the object person based on the detection information,
The play determination unit determines the play of the target person from the movement trajectory of the target person, the skeleton or joint of the target person, and the movement trajectory of the target person using the determiner. The determination system according to claim 1.
前記第1位置情報に対応する前記画像情報における部分画像に基づいて、前記対象人物を識別し、識別した前記対象人物に対して、当該対象人物を識別する識別情報を付与する識別処理部を備え、
前記軌跡生成部は、前記識別処理部が付与した前記識別情報と対応付けて、前記対象人物の移動軌跡を生成する
ことを特徴とする請求項1又は請求項2に記載の判定システム。
An identification processing unit that identifies the target person based on the partial image in the image information corresponding to the first position information, and adds identification information for identifying the target person to the identified target person. ,
The determination system according to claim 1 or 2 , wherein the trajectory generation unit generates a movement trajectory of the target person in association with the identification information provided by the identification processing unit.
骨格推定部が、少なくとも物体の形状及び位置情報を検出可能な検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する骨格推定ステップと、
軌跡生成部が、前記検出装置が検出した検出情報に基づいて、前記対象人物の移動軌跡を生成する軌跡生成ステップと、
プレー判定部が、過去の前記対象人物の移動軌跡と、前記対象人物の骨格又は関節とに基づいて前記対象人物の動作及び行動を示す前記対象人物のプレーを判定するように生成された判定器と、前記骨格推定部が推定した前記対象人物の骨格又は関節と、前記軌跡生成部が生成した前記対象人物の移動軌跡とに基づいて、前記対象人物のプレーを判定するプレー判定ステップと
を含み、
前記検出装置には、レーザレーダ装置及び撮像装置が含まれ、
前記骨格推定ステップにおいて、骨格推定部が、前記レーザレーダ装置が検出した前記対象人物の輪郭と、前記撮像装置が撮像した前記対象人物を含む画像情報とに基づいて、前記対象人物の骨格又は関節を推定し、
前記軌跡生成ステップにおいて、前記軌跡生成部が、レーザレーダ装置による検出に基づく対象エリアにおける前記対象人物の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記対象人物の位置情報である第2位置情報とを相互に補完して、前記対象人物の位置情報を補正し、補正した前記対象人物の位置情報に基づいて、前記対象人物の移動軌跡を生成する
とを特徴とする判定方法。
A skeleton estimating step, which estimates a skeleton or joint of the target person, based on detection information detected by a detection device capable of detecting at least the shape and position information of the object,
A trajectory generation unit, a trajectory generation step of generating a movement trajectory of the target person based on the detection information detected by the detection device,
A determiner generated so that the play determination unit determines the play of the target person indicating the motion and action of the target person based on the past movement trajectory of the target person and the skeleton or joint of the target person. And a play determination step of determining the play of the target person based on the skeleton or joint of the target person estimated by the skeleton estimation unit and the movement trajectory of the target person generated by the trajectory generation unit. See
The detection device includes a laser radar device and an imaging device,
In the skeleton estimating step, the skeleton estimating unit, based on the contour of the target person detected by the laser radar device and the image information including the target person captured by the imaging device, the skeleton or joint of the target person. And estimate
In the trajectory generating step, the trajectory generator causes the position information of the target person in the target area based on detection by the laser radar device to be first position information, and the position of the target person in the target area based on the image information. The second position information, which is information, is mutually complemented to correct the position information of the target person, and a movement locus of the target person is generated based on the corrected position information of the target person.
Judgment wherein a call.
JP2018157774A 2018-08-24 2018-08-24 Judgment system and judgment method Active JP6704606B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157774A JP6704606B2 (en) 2018-08-24 2018-08-24 Judgment system and judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157774A JP6704606B2 (en) 2018-08-24 2018-08-24 Judgment system and judgment method

Publications (2)

Publication Number Publication Date
JP2020031406A JP2020031406A (en) 2020-02-27
JP6704606B2 true JP6704606B2 (en) 2020-06-03

Family

ID=69622948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157774A Active JP6704606B2 (en) 2018-08-24 2018-08-24 Judgment system and judgment method

Country Status (1)

Country Link
JP (1) JP6704606B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7429887B2 (en) * 2020-03-09 2024-02-09 パナソニックIpマネジメント株式会社 Ball game video analysis device, ball game video analysis method, and computer program
JP7419969B2 (en) 2020-05-27 2024-01-23 富士通株式会社 Generation method, generation program, and information processing device
JP7488704B2 (en) 2020-06-18 2024-05-22 日本放送協会 Haptic metadata generating device, video-haptic linking system, and program
KR102304641B1 (en) * 2020-12-15 2021-09-24 (주)나노아이티 Artificial intelligence Taekwondo Poomsae reading and education system
CN112822460B (en) * 2021-02-01 2023-02-03 深圳市瑞驰文体发展有限公司 Billiard game video monitoring method and system
EP4300948A4 (en) * 2021-04-05 2024-05-22 Fujitsu Ltd Information processing program, device, and method
WO2024079782A1 (en) * 2022-10-11 2024-04-18 日本電信電話株式会社 Person identification device, method, and program
KR102619792B1 (en) * 2023-05-19 2024-01-03 주식회사 에이아이비즈 System and method for judging martial arts using image information based on artificial intelligence

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3614935B2 (en) * 1995-06-20 2005-01-26 オリンパス株式会社 3D image measuring device
JP5145986B2 (en) * 2008-02-05 2013-02-20 日産自動車株式会社 Object detection apparatus and distance measuring method
JP6249706B2 (en) * 2013-09-30 2017-12-20 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2020031406A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
JP6704606B2 (en) Judgment system and judgment method
JP6596804B1 (en) Position tracking system and position tracking method
US20200098113A1 (en) Stereoscopic image capture with performance outcome prediction in sporting environments
US9025021B2 (en) System and methods for translating sports tracking data into statistics and performance measurements
US10886017B2 (en) Analysis system and analysis method
US20100030350A1 (en) System and Method for Analyzing Data From Athletic Events
KR102205639B1 (en) Golf ball tracking system
CN105745695B (en) Method, analyzer and the system assessed automatically for the progress to exercise motion
US20090298588A1 (en) Method of automatically detecting offside in Soccer using fixed and wireless sensors and central server
US20200346091A1 (en) Device for calculating flight information of ball, method of calculating flight information of ball, and computing-device-readable recording medium having the method recorded therein
JP6677319B2 (en) Sports motion analysis support system, method and program
KR20210100723A (en) System and method for calculating from ball flight data an acquired stroke performance metric taking into account predetermined offline information
Kempe et al. Smart data scouting in professional soccer: Evaluating passing performance based on position tracking data
JP6760610B2 (en) Position measurement system and position measurement method
EP3588377A1 (en) Method, system and computer program for automatic refereeing
JP4533037B2 (en) Offside line detection device and program thereof
US10001563B2 (en) Tracking and virtual reconstruction of activities
RU2599699C1 (en) Method of detecting and analysing competition game activities of athletes
US11103760B2 (en) Line fault detection systems and method for determining whether a sport gaming device has bounced off an area of a sports field
Monier et al. A computer vision based tracking system for indoor team sports
Krzeszowski et al. Monocular tracking of human motion in evaluation of hurdle clearance
JP7054950B1 (en) Position measurement system and position measurement method
Chakraborty et al. Deep Learning-Based Prediction of Football Players’ Performance During Penalty Shootout
Lenik et al. The Analysis of Basketball Free Throw Trajectory using PSO Algorithm.
Buote et al. Quantifying motion and ‘T’dominance of elite squash players

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200423

R150 Certificate of patent or registration of utility model

Ref document number: 6704606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350