JP2020030190A - Position tracking system and position tracking method - Google Patents

Position tracking system and position tracking method Download PDF

Info

Publication number
JP2020030190A
JP2020030190A JP2018157773A JP2018157773A JP2020030190A JP 2020030190 A JP2020030190 A JP 2020030190A JP 2018157773 A JP2018157773 A JP 2018157773A JP 2018157773 A JP2018157773 A JP 2018157773A JP 2020030190 A JP2020030190 A JP 2020030190A
Authority
JP
Japan
Prior art keywords
information
target
image
unit
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018157773A
Other languages
Japanese (ja)
Other versions
JP6596804B1 (en
Inventor
伸平 相原
Shimpei Aihara
伸平 相原
みのり 澤田
Minori Sawada
みのり 澤田
栄夫 小倉
Shigeo Ogura
栄夫 小倉
雄大 吉田
Yuta Yoshida
雄大 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nat Agency For Advancement Of Sports & Health
National Agency For Advancement Of Sports & Health
Original Assignee
Nat Agency For Advancement Of Sports & Health
National Agency For Advancement Of Sports & Health
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nat Agency For Advancement Of Sports & Health, National Agency For Advancement Of Sports & Health filed Critical Nat Agency For Advancement Of Sports & Health
Priority to JP2018157773A priority Critical patent/JP6596804B1/en
Application granted granted Critical
Publication of JP6596804B1 publication Critical patent/JP6596804B1/en
Publication of JP2020030190A publication Critical patent/JP2020030190A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a position tracking system and a position tracking method, capable of highly accurately tracking a position of a measurement object while suppressing a processing load.SOLUTION: A position tracking system comprises: a detecting device which irradiates an object area with waves and detects detection information containing at least a distance to an object and a direction on the basis of a reflection wave from the object; an imaging device which captures an image containing the object area; an acquisition unit which acquires and synchronizes the detection information detected by the detecting device and image information representing the image captured by the imaging device; an identification processing unit which identifies the object as a measurement object on the basis of a partial image in the image information corresponding to a position of the object detected on the basis of the detection information acquired by the acquisition unit, and imparts identification information for identifying the measurement object to the identified measurement object; and a trajectory generation unit which associates position information on the measurement object in the object area generated on the basis of the detection information and the image information with identification information imparted by the identification processing unit, to generate a movement trajectory of the measurement object.SELECTED DRAWING: Figure 1

Description

本発明は、位置追跡システム、及び位置追跡方法に関する。   The present invention relates to a position tracking system and a position tracking method.

近年、スポーツにおいて、人物や物体などの計測対象物の位置を計測し、計測対象物の位置を追跡する位置追跡システムが知られている(例えば、特許文献1を参照)。このような位置追跡システムでは、複数のカメラから撮像された画像に基づいて、測定対象物の位置を計測していた。   2. Description of the Related Art In recent years, in sports, a position tracking system that measures the position of a measurement target such as a person or an object and tracks the position of the measurement target is known (for example, see Patent Literature 1). In such a position tracking system, the position of the measurement target is measured based on images captured by a plurality of cameras.

特開2013−58132号公報JP 2013-58132 A

しかしながら、上述した従来の位置追跡システムでは、画像から測定対象物の位置を検出しているため、例えば、測定対象物が重なった際に測定対象物の位置を検出するためにより多くのカメラで画像を撮像する必要があった。そのため、従来の位置追跡システムでは、画像処理による位置計測の処理負荷が高く、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することが困難であった。   However, in the conventional position tracking system described above, since the position of the measurement target is detected from the image, for example, when the measurement target overlaps, the image is detected by more cameras to detect the position of the measurement target. Need to be imaged. Therefore, in the conventional position tracking system, the processing load of position measurement by image processing is high, and it is difficult to track the position of the measurement target with high accuracy while suppressing the processing load.

本発明は、上記問題を解決すべくなされたもので、その目的は、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる位置追跡システム、及び位置追跡方法を提供することにある。   The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a position tracking system and a position tracking method capable of tracking a position of a measurement target with high accuracy while suppressing a processing load. It is in.

上記問題を解決するために、本発明の一態様は、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、前記対象エリアを含む画像を撮像する撮像装置と、前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得部と、前記取得部が取得した前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理部と、前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成部とを備えることを特徴とする位置追跡システムである。   In order to solve the above problem, an embodiment of the present invention provides a detection device which irradiates a target area with a wave and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object. An imaging device that captures an image including the target area; an acquisition unit that acquires and synchronizes the detection information detected by the detection device and image information representing an image captured by the imaging device; Corresponding to the position of the object detected based on the detection information obtained by the unit, based on the partial image in the image information, to identify the object as a measurement object, for the identified measurement object An identification processing unit that provides identification information for identifying the measurement target object, the detection information, and the position information of the measurement target object in the target area generated based on the image information, In association with the identification information whose serial identification processor has given a position tracking system, characterized in that it comprises a trajectory generator for generating a movement trajectory of the measurement object.

本発明の一態様は、上記の位置追跡システムにおいて、前記検出情報には、前記物体の輪郭が含まれ、前記識別処理部は、前記検出装置が検出した前記物体の輪郭に基づいて、前記画像情報における前記部分画像を抽出し、抽出した前記部分画像に基づいて、前記物体を計測対象物として識別することを特徴とする。   One aspect of the present invention is the position tracking system, wherein the detection information includes an outline of the object, and the identification processing unit performs the image processing based on the outline of the object detected by the detection device. The method is characterized in that the partial image in information is extracted, and the object is identified as a measurement target based on the extracted partial image.

本発明の一態様は、上記の位置追跡システムにおいて、前記計測対象物には、対象人物が含まれ、前記識別処理部は、前記対象人物を前記計測対象物として識別する場合に、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別することを特徴とする。   One aspect of the present invention is the position tracking system, wherein the measurement target includes a target person, and the identification processing unit is configured to identify the target person as the measurement target when the target person is identified as the measurement target. The target person is identified based on image recognition of the face or clothes.

本発明の一態様は、上記の位置追跡システムにおいて、前記識別処理部は、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別できない場合に、前記部分画像に基づいて、前記対象人物の骨格又は関節を推定し、推定した前記骨格又は前記関節と、予め定められた前記対象人物の骨格又は関節の特徴とに基づいて、前記対象人物を識別することを特徴とする。   One aspect of the present invention is the above-mentioned position tracking system, wherein the identification processing unit, when the target person cannot be identified based on image recognition of the face or clothes of the target person, based on the partial image, A skeleton or a joint of a target person is estimated, and the target person is identified based on the estimated skeleton or the joint and predetermined characteristics of the skeleton or joint of the target person.

本発明の一態様は、上記の位置追跡システムにおいて、前記軌跡生成部は、前記検出情報に基づく前記対象エリアにおける前記物体の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記計測対象物の位置情報である第2位置情報とを相互に補完して、前記計測対象物の位置情報を補正し、補正した前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成することを特徴とする。   One aspect of the present invention is the position tracking system, wherein the trajectory generation unit is configured to: first position information that is position information of the object in the target area based on the detection information; and the target area based on the image information. The second position information, which is the position information of the measurement object, is complemented with each other to correct the position information of the measurement object, and the corrected position information of the measurement object and the identification processing unit are added. The moving trajectory of the measurement object is generated in association with the identification information.

本発明の一態様は、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、前記対象エリアを含む画像を撮像する撮像装置とを備える位置追跡システムの位置追跡方法であって、取得部が、前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得ステップと、識別処理部が、前記取得ステップによって取得された前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理ステップと、軌跡生成部が、前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理ステップによって付与された前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成ステップとを含むことを特徴とする位置追跡方法である。   One embodiment of the present invention provides a detection device that irradiates a wave to a target area and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object, and an image including the target area. An imaging device for capturing an image of the position tracking system of a position tracking system comprising an imaging device, wherein the acquisition unit acquires the detection information detected by the detection device and image information representing an image captured by the imaging device. An acquisition step of synchronizing, and the identification processing unit measures the object based on a partial image in the image information corresponding to the position of the object detected based on the detection information acquired in the acquisition step. An identification processing step of assigning identification information for identifying the measurement target object to the measurement target object identified as an object; A trajectory for generating a movement trajectory of the measurement target by associating position information of the measurement target in the target area generated based on the image information with the identification information given in the identification processing step And a generating step.

本発明によれば、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。   ADVANTAGE OF THE INVENTION According to this invention, the position of a measuring object can be tracked with high precision, suppressing a processing load.

第1の実施形態による位置追跡システムの一例を示すブロック図である。It is a block diagram showing an example of a position tracking system by a 1st embodiment. 第1の実施形態におけるレーザレーダ装置及び撮像装置の設置例を示す図である。FIG. 2 is a diagram illustrating an example of installation of a laser radar device and an imaging device according to the first embodiment. 第1の実施形態における対象物情報記憶部のデータ例を示す図である。FIG. 5 is a diagram illustrating an example of data in an object information storage unit according to the first embodiment. 第1の実施形態における移動軌跡記憶部のデータ例を示す図である。FIG. 5 is a diagram illustrating an example of data in a movement trajectory storage unit according to the first embodiment. 第1の実施形態における対象物軌跡記憶部のデータ例を示す図である。FIG. 5 is a diagram illustrating an example of data in an object trajectory storage unit according to the first embodiment. 第1の実施形態における移動軌跡の生成処理の一例を説明する図である。FIG. 6 is a diagram illustrating an example of a movement trajectory generation process according to the first embodiment. 第1の実施形態における3次元座標の算出処理の一例を説明する図である。FIG. 4 is a diagram illustrating an example of a process of calculating three-dimensional coordinates according to the first embodiment. 第1の実施形態における対象人物の識別処理の一例を説明する図である。FIG. 5 is a diagram illustrating an example of target person identification processing according to the first embodiment. 第1の実施形態による位置追跡システムの動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation of the position tracking system according to the first embodiment. 第2の実施形態によるプレー判定システムの一例を示すブロック図である。It is a block diagram showing an example of a play judging system by a 2nd embodiment. 第2の実施形態によるプレー判定システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの変形例における表示画面の一例を示す図である。It is a figure showing an example of the display screen in the modification of the play judging system by a 2nd embodiment. 第2の実施形態によるプレー判定システムの別の変形例を示す図である。It is a figure showing another modification of the play judging system by a 2nd embodiment.

以下、本発明の実施形態による位置追跡システム(位置計測システム)及びプレー判定システムについて、図面を参照して説明する。   Hereinafter, a position tracking system (position measurement system) and a play determination system according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態による位置追跡システム1の一例を示すブロック図である。
図1に示すように、位置追跡システム1は、情報処理装置10と、レーザレーダ装置20と、撮像装置30とを備える。位置追跡システム1は、位置計測システムの一例である。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of a position tracking system 1 according to the first embodiment.
As shown in FIG. 1, the position tracking system 1 includes an information processing device 10, a laser radar device 20, and an imaging device 30. The position tracking system 1 is an example of a position measurement system.

レーザレーダ装置20(検出装置の一例)は、対象エリアにレーザ光(例えば、近赤外線などのレーザ光)を照射して、物体からの反射光に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出するライダ装置である。ここで、対象エリアは、例えば、スポーツを行う競技場であるコート、試合場、等である。レーザレーダ装置20は、物体からの反射光に基づいて、対象エリア内の物体を検出し、物体までの距離及び方向の他に、例えば、物体の輪郭、物体の表面の形状などの各種情報を検出する。レーザレーダ装置20は、例えば、レーザ光の照射から物体に反射した反射光を受光するまでのレーザ光の移動時間から物体までの距離を検出するTOF(Time of Flight)方式により、物体までの距離を検出する。レーザレーダ装置20は、検出した検出情報を、情報処理装置10に出力する。   The laser radar device 20 (an example of a detection device) irradiates a target area with laser light (for example, laser light such as near-infrared light) and includes at least a distance and a direction to the object based on reflected light from the object. This is a lidar device that detects detection information. Here, the target area is, for example, a court, a stadium, which is a stadium for sports. The laser radar device 20 detects an object in the target area based on the reflected light from the object, and, in addition to the distance and direction to the object, various information such as, for example, the contour of the object and the shape of the surface of the object. To detect. For example, the laser radar device 20 uses a TOF (Time of Flight) method that detects the distance to the object from the movement time of the laser light from the irradiation of the laser light to the reception of the reflected light reflected by the object, and the distance to the object. Is detected. The laser radar device 20 outputs the detected detection information to the information processing device 10.

撮像装置30は、例えば、カメラ装置などであり、対象エリアを含む画像を撮像する。撮像装置30は、撮像した画像を表す画像情報を、情報処理装置10に出力する。
なお、説明の都合上、図1において、1台のレーザレーダ装置20及び1台の撮像装置30を記載しているが、位置追跡システム1は、複数のレーザレーダ装置20及び複数の撮像装置30を備えてもよい。
The imaging device 30 is, for example, a camera device, and captures an image including the target area. The imaging device 30 outputs image information representing the captured image to the information processing device 10.
Although one laser radar device 20 and one imaging device 30 are shown in FIG. 1 for convenience of description, the position tracking system 1 includes a plurality of laser radar devices 20 and a plurality of imaging devices 30. May be provided.

図2は、本実施形態におけるレーザレーダ装置20及び撮像装置30の設置例を示す図である。
図2に示すように、対象エリアであるコートAR1における対象物(例えば、選手PL1)などの3次元位置座標を検出できるように、複数のレーザレーダ装置20及び複数の撮像装置30が配置されている。本実施形態では、3次元位置座標を、例えば、コートAR1の平面を直交するX軸及びY軸とし、高さ方向をZ軸として表すものとする。
FIG. 2 is a diagram illustrating an installation example of the laser radar device 20 and the imaging device 30 in the present embodiment.
As shown in FIG. 2, a plurality of laser radar devices 20 and a plurality of imaging devices 30 are arranged so as to detect three-dimensional position coordinates of an object (for example, a player PL1) on the court AR1, which is an object area. I have. In the present embodiment, the three-dimensional position coordinates are, for example, represented by the X-axis and the Y-axis orthogonal to the plane of the court AR1, and the height direction is represented by the Z-axis.

情報処理装置10は、例えば、PC(パーソナルコンピュータ)などのコンピュータ装置である。情報処理装置10は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像情報とに基づいて、対象エリアにおける対象物の位置情報を生成し、生成した位置情報に基づいて、対象物の移動軌跡を生成する。ここで、対象物は、例えば、選手やプレーヤなどの対象人物、及びボールやラケット、ネット、ゴールなどの用具を示す対象物体などである。
また、情報処理装置10は、記憶部11と、制御部12とを備える。
The information processing device 10 is, for example, a computer device such as a PC (personal computer). The information processing device 10 generates position information of the target in the target area based on the detection information detected by the laser radar device 20 and the image information captured by the imaging device 30, and based on the generated position information, Generate a movement trajectory of the object. Here, the target object is, for example, a target person such as a player or a player, and a target object indicating a tool such as a ball, a racket, a net, and a goal.
The information processing device 10 includes a storage unit 11 and a control unit 12.

記憶部11は、情報処理装置10の各種処理に利用する情報を記憶する。記憶部11は、レーダ検出記憶部111と、画像情報記憶部112と、対象物情報記憶部113と、移動軌跡記憶部114と、対象物軌跡記憶部115とを備える。   The storage unit 11 stores information used for various processes of the information processing device 10. The storage unit 11 includes a radar detection storage unit 111, an image information storage unit 112, an object information storage unit 113, a movement trajectory storage unit 114, and an object trajectory storage unit 115.

レーダ検出記憶部111は、レーザレーダ装置20が検出した検出情報と、時刻情報とを対応付けて記憶する。レーダ検出記憶部111には、後述するデータ取得部121によって、レーザレーダ装置20から取得された検出情報が、撮像装置30が撮像した画像情報と同期されて記憶される。   The radar detection storage unit 111 stores detection information detected by the laser radar device 20 and time information in association with each other. In the radar detection storage unit 111, detection information acquired from the laser radar device 20 by a data acquisition unit 121 described later is stored in synchronization with image information captured by the imaging device 30.

画像情報記憶部112は、撮像装置30が撮像した画像情報と、時刻情報とを対応付けて記憶する。画像情報記憶部112には、後述するデータ取得部121によって、撮像装置30から取得された画像情報が、レーザレーダ装置20が検出した検出情報と同期されて記憶される。   The image information storage unit 112 stores image information captured by the imaging device 30 and time information in association with each other. The image information storage unit 112 stores the image information acquired from the imaging device 30 by the data acquisition unit 121 described later in synchronization with the detection information detected by the laser radar device 20.

対象物情報記憶部113は、人物や物体である対象物を識別するための情報を記憶する。なお、ここでの対象物には、対象人物も含まれる。ここで、図3を参照して、対象物情報記憶部113が記憶するデータ例について説明する。
図3は、本実施形態における対象物情報記憶部113のデータ例を示す図である。
図3に示すように、対象物情報記憶部113は、例えば、「対象物名」と、「特徴量情報」とを対応付けて記憶する。
The object information storage unit 113 stores information for identifying an object that is a person or an object. Note that the target object here also includes the target person. Here, an example of data stored in the target information storage unit 113 will be described with reference to FIG.
FIG. 3 is a diagram illustrating an example of data in the object information storage unit 113 according to the present embodiment.
As illustrated in FIG. 3, the target information storage unit 113 stores, for example, “target name” and “feature amount information” in association with each other.

ここで、「対象物名」は、対象物の名称などであり、対象物を識別する識別情報である。また、「特徴量情報」は、例えば、画像情報から対象物を識別するための特徴量を示しており、例えば、対象物を判定するための形状、色、サイズ、画像パターンなどである。また、「特徴量情報」は、対象物が特定の選手などの対象人物である場合に、顔認識のための特徴量やユニフォームなどの着衣の特徴量などであってもよい。
図3に示す例では、対象物情報記憶部113には、「対象物名」が“選手A”と、当該“選手A”の特徴量情報とが対応付けられて記憶されており、「対象物名」が“ボール”と、当該“ボール”の特徴量情報とが対応付けられて記憶されている。
Here, the “object name” is a name of the object, and is identification information for identifying the object. The “feature amount information” indicates, for example, a feature amount for identifying a target from image information, and includes, for example, a shape, a color, a size, and an image pattern for determining the target. In addition, when the object is a target person such as a specific player, the “feature amount information” may be a feature amount for face recognition or a feature amount of clothing such as a uniform.
In the example illustrated in FIG. 3, the “target name” is stored in the target information storage unit 113 in association with “player A” and the feature amount information of the “player A”. The “ball name” is stored in association with “ball” and feature amount information of the “ball”.

図1の説明に戻り、移動軌跡記憶部114は、検出された物体の移動軌跡情報を記憶する。移動軌跡記憶部114は、例えば、検出された物体の識別情報と、時刻情報と、3次元位置座標とを対応付けて記憶する。ここで、図4を参照して、移動軌跡記憶部114が記憶するデータ例について説明する。   Returning to the description of FIG. 1, the movement trajectory storage unit 114 stores the movement trajectory information of the detected object. The movement trajectory storage unit 114 stores, for example, identification information of the detected object, time information, and three-dimensional position coordinates in association with each other. Here, an example of data stored in the movement trajectory storage unit 114 will be described with reference to FIG.

図4は、本実施形態における移動軌跡記憶部114のデータ例を示す図である。
図4に示すように、移動軌跡記憶部114は、「識別ID」と、「時刻」と、「座標」とを対応付けて記憶する。ここで、「識別ID」は、例えば、レーザレーダ装置20によって検出された物体を識別する識別情報であり、「時刻」は、時刻情報を示す。なお、時刻情報には、日付情報が含まれていてもよい。また、「座標」は、3次元位置座標であり、例えば、図2に示すような対象エリアにおける2次元座標である。
図4に示す例では、「識別ID」が“ID1”の移動軌跡が、「時刻」と「座標」とに対応付けられて記憶されていることを示している。
FIG. 4 is a diagram illustrating an example of data in the movement locus storage unit 114 according to the present embodiment.
As shown in FIG. 4, the movement trajectory storage unit 114 stores “identification ID”, “time”, and “coordinates” in association with each other. Here, “identification ID” is, for example, identification information for identifying an object detected by the laser radar device 20, and “time” indicates time information. Note that the time information may include date information. “Coordinates” are three-dimensional position coordinates, for example, two-dimensional coordinates in a target area as shown in FIG.
The example illustrated in FIG. 4 indicates that the movement trajectory whose “identification ID” is “ID1” is stored in association with “time” and “coordinate”.

再び、図1の説明に戻り、対象物軌跡記憶部115は、後述する識別処理部123が識別した対象物の識別情報と、当該対象物の移動軌跡とを対応付けて記憶する。ここで、図5を参照して、本実施形態における対象物軌跡記憶部115が記憶するデータ例について説明する。   Returning again to the description of FIG. 1, the target trajectory storage unit 115 stores the identification information of the target identified by the identification processing unit 123 described later and the movement trajectory of the target in association with each other. Here, an example of data stored in the object locus storage unit 115 in the present embodiment will be described with reference to FIG.

図5は、本実施形態における対象物軌跡記憶部115のデータ例を示す図である。
図5において、対象物軌跡記憶部115は、「対象物名」と、「時刻」と、「座標」とを対応付けて記憶する。ここで、「時刻」と「座標」とを対応付けた情報は、上述した移動軌跡に相当する。
図5に示す例では、「対象物名」が“選手A”に対応する移動軌跡が、「時刻」と「座標」とに対応付けられて記憶されていることを示している。なお、図5に示す例では、「対象物名」は、“選手A”であり、対象人物に対応する移動軌跡を示しているが、対象物軌跡記憶部115には、例えば、ボールやバットなどの用具(対象物体)に対応する移動軌跡を記憶するようにしてもよい。
FIG. 5 is a diagram illustrating an example of data in the object locus storage unit 115 according to the present embodiment.
In FIG. 5, the object locus storage unit 115 stores “object name”, “time”, and “coordinates” in association with each other. Here, the information in which “time” and “coordinate” are associated with each other corresponds to the above-described movement locus.
The example illustrated in FIG. 5 indicates that the movement trajectory in which the “object name” corresponds to “player A” is stored in association with “time” and “coordinates”. In the example illustrated in FIG. 5, the “target name” is “player A” and indicates a movement trajectory corresponding to the target person. For example, a moving trajectory corresponding to a tool (target object) such as a moving object may be stored.

再び、図1の説明に戻り、制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、情報処理装置10を統括的に制御する。制御部12は、例えば、レーザレーダ装置20が検出した検出情報に基づく対象エリアにおける対象物の位置情報(第1位置情報)と、撮像装置30が撮像した画像情報に基づく対象エリアにおける対象物の位置情報(第2位置情報)と、を相互に補完して、対象物の移動軌跡を生成する。
制御部12は、データ取得部121と、画像処理部122と、識別処理部123と、軌跡生成部124とを備える。
Returning to the description of FIG. 1 again, the control unit 12 is a processor including, for example, a CPU (Central Processing Unit), and controls the information processing apparatus 10 in an integrated manner. For example, the control unit 12 controls the position information (first position information) of the target in the target area based on the detection information detected by the laser radar device 20 and the position information of the target in the target area based on the image information captured by the imaging device 30. The position information (second position information) and the position information (second position information) are complemented with each other to generate a movement trajectory of the target object.
The control unit 12 includes a data acquisition unit 121, an image processing unit 122, an identification processing unit 123, and a trajectory generation unit 124.

データ取得部121(取得部の一例)は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。データ取得部121は、レーザレーダ装置20から取得した検出情報と、時刻情報とを対応付けて、レーダ検出記憶部111に記憶させる。また、データ取得部121は、撮像装置30から取得した画像情報と、時刻情報とを対応付けて、画像情報記憶部112に記憶させる。データ取得部121は、レーダ検出記憶部111と、画像情報記憶部112とに時刻情報を付与することにより、検出情報と画像情報とを同期させる。   The data acquisition unit 121 (an example of an acquisition unit) acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. The data acquisition unit 121 stores the detection information acquired from the laser radar device 20 and the time information in the radar detection storage unit 111 in association with each other. Further, the data acquisition unit 121 stores the image information acquired from the imaging device 30 and the time information in the image information storage unit 112 in association with each other. The data acquisition unit 121 synchronizes the detection information with the image information by adding time information to the radar detection storage unit 111 and the image information storage unit 112.

画像処理部122は、データ取得部121が取得した画像情報に基づいて、各種画像処理を実行する。画像処理部122は、例えば、画像情報に基づいて、対象エリアにおける対象物の位置情報(第2位置情報)を生成する。ここでの対象エリアにおける位置情報は、例えば、対象物の重心の座標情報である。また、画像処理部122は、例えば、レーザレーダ装置20が検出した物体に対応する部分画像を画像情報から抽出し、当該部分画像に対して、対象物情報記憶部113が記憶する特徴量に基づいて、対象物を識別する画像認識処理を実行する。画像処理部122は、例えば、特徴量による顔認識処理や特徴量によるパターン認識処理などを実行する。   The image processing unit 122 performs various types of image processing based on the image information acquired by the data acquisition unit 121. The image processing unit 122 generates position information (second position information) of the target in the target area based on the image information, for example. The position information in the target area here is, for example, coordinate information of the center of gravity of the target object. Further, the image processing unit 122 extracts, for example, a partial image corresponding to the object detected by the laser radar device 20 from the image information, and based on the feature amount stored in the object information storage unit 113 for the partial image. Then, an image recognition process for identifying an object is executed. The image processing unit 122 performs, for example, a face recognition process using a feature amount, a pattern recognition process using a feature amount, and the like.

識別処理部123は、データ取得部121が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。識別処理部123は、例えば、レーザレーダ装置20が検出した物体の輪郭に基づいて、画像情報における部分画像を抽出し、抽出した部分画像に基づいて、物体を対象物として識別する。具体的に、識別処理部123は、画像処理部122に、物体の輪郭に基づいて、部分画像を抽出させるとともに、部分画像に対する顔認識などの画像処理を実行させる。識別処理部123は、画像処理部122による画像処理の結果に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。   The identification processing unit 123 identifies the object as an object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the data acquisition unit 121, and assigns the identified object to the identified object. On the other hand, identification information for identifying the object is given. The identification processing unit 123 extracts, for example, a partial image in the image information based on the contour of the object detected by the laser radar device 20, and identifies the object as a target based on the extracted partial image. Specifically, the identification processing unit 123 causes the image processing unit 122 to extract a partial image based on the contour of the object and execute image processing such as face recognition on the partial image. The identification processing unit 123 identifies an object as a target object based on the result of the image processing performed by the image processing unit 122, and adds identification information for identifying the target object to the identified target object.

軌跡生成部124(位置計測部の一例)は、レーザレーダ装置20が検出した検出情報(例えば、物体までの距離及び方向)に基づいて、対象エリアにおける対象物の位置情報(第1位置情報)を生成する。軌跡生成部124は、生成した第1位置情報と上述した第2位置情報とに基づいて、対象物が移動した対象物の移動軌跡を生成する。すなわち、軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報に基づいて、対象物の移動軌跡を生成する。ここで、図6を参照して、軌跡生成部124による第1位置情報と、第2位置情報とを相互に補完して移動軌跡を生成する処理について説明する。   The trajectory generation unit 124 (an example of a position measurement unit) is based on detection information (for example, distance and direction to the object) detected by the laser radar device 20, and the position information (first position information) of the target in the target area. Generate The trajectory generation unit 124 generates a movement trajectory of the object on which the object has moved based on the generated first position information and the above-described second position information. That is, the trajectory generation unit 124 corrects the position information of the target by complementing the first position information and the second position information with each other, and moves the target based on the corrected position information of the target. Generate a trajectory. Here, with reference to FIG. 6, a description will be given of processing performed by the trajectory generation unit 124 to generate the movement trajectory by mutually complementing the first position information and the second position information.

図6は、本実施形態における移動軌跡の生成処理の一例を説明する図である。
図6(a)は、レーザレーダ装置20が検出した検出情報に基づく位置座標(第1位置情報)を示している。また、図6(b)は、撮像装置30が撮像した画像情報に基づく位置座標(第2位置情報)を示している。ここでは、図6(a)に示す位置座標(第1位置情報)を黒丸で示し、図6(b)に示す位置座標(第2位置情報)を白丸で示している。また、時刻t1〜t21は、各位置座標を検出した際の時刻情報を示している。なお、この例では、説明を簡略化するために、位置座標をXY軸の2次元座標で説明する。
FIG. 6 is a diagram illustrating an example of a movement trajectory generation process according to the present embodiment.
FIG. 6A shows position coordinates (first position information) based on the detection information detected by the laser radar device 20. FIG. 6B shows position coordinates (second position information) based on image information captured by the imaging device 30. Here, the position coordinates (first position information) shown in FIG. 6A are indicated by black circles, and the position coordinates (second position information) shown in FIG. 6B are indicated by white circles. Times t1 to t21 indicate time information when each position coordinate is detected. In this example, to simplify the description, the position coordinates will be described using two-dimensional coordinates on the XY axes.

レーザレーダ装置20は、処理負荷をかけずに正確な位置情報を計測可能であるが、サンプリング周波数が低いため、図6(a)に示す位置座標(第1位置情報)は、断続的な検出になる。また、画像情報は、連続して撮像可能であるため、図6(b)に示す位置座標(第2位置情報)は、連続的な検出になる。但し、位置座標(第2位置情報)は、画像情報から位置座標を検出する際の処理負荷が大きく、精度は、位置座標(第1位置情報)に比べて劣る。   The laser radar device 20 can measure accurate position information without applying a processing load. However, since the sampling frequency is low, the position coordinates (first position information) shown in FIG. become. Further, since image information can be continuously captured, the position coordinates (second position information) shown in FIG. 6B are continuously detected. However, the position coordinates (second position information) have a large processing load when detecting the position coordinates from the image information, and the accuracy is inferior to the position coordinates (first position information).

また、図6(c)は、図6(a)に示す位置座標(第1位置情報)と、図6(b)に示す位置座標(第2位置情報)と重ね合わせた状態を示している。また、図6(d)は、図6(a)に示す位置座標(第1位置情報)と、図6(b)に示す位置座標(第2位置情報)とを相互に補完した軌跡を示している。すなわち、軌跡生成部124は、検出情報に基づく位置座標(第1位置情報)と、画像情報に基づく位置座標(第2位置情報)とを相互に補完して、対象物の位置座標を生成し、最終的に、図6(d)の移動軌跡L0に示すような移動軌跡を生成する。軌跡生成部124は、生成した移動軌跡を、例えば、図4に示すように、物体の識別情報と、時刻情報と、3次元位置座標とを対応付けて、移動軌跡記憶部114に記憶させる。なお、ここでの識別情報は、検出された物体に所定に規則で付与した識別IDである。
なお、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける検出情報に基づく3次元座標と、画像情報に基づく3次元座標とが一致するように配置されている。
FIG. 6C shows a state in which the position coordinates (first position information) shown in FIG. 6A and the position coordinates (second position information) shown in FIG. 6B are superimposed. . FIG. 6D shows a trajectory in which the position coordinates (first position information) shown in FIG. 6A and the position coordinates (second position information) shown in FIG. 6B are mutually complemented. ing. That is, the trajectory generating unit 124 generates the position coordinates of the target object by mutually complementing the position coordinates (first position information) based on the detection information and the position coordinates (second position information) based on the image information. Finally, a movement trajectory as shown by a movement trajectory L0 in FIG. 6D is generated. The trajectory generation unit 124 causes the generated trajectory to be stored in the trajectory storage unit 114 in association with the identification information of the object, the time information, and the three-dimensional position coordinates, for example, as illustrated in FIG. Here, the identification information is an identification ID given to the detected object by a predetermined rule.
The laser radar device 20 and the imaging device 30 are arranged such that the three-dimensional coordinates based on the detection information in the target area and the three-dimensional coordinates based on the image information match.

また、軌跡生成部124は、検出情報に基づく第1位置情報に基づいて対象エリアの平面上の位置情報を補正し、画像情報に基づく第2位置情報に基づいて対象エリアの高さ方向の位置情報を補正して、平面上の位置情報及び高さ方向の位置情報を含む3次元座標(3次元位置情報)を生成するようにしてもよい。ここで、図7を参照して、本実施形態による3次元座標の算出処理の一例について説明する。   Further, the trajectory generation unit 124 corrects the position information on the plane of the target area based on the first position information based on the detection information, and positions the target area in the height direction based on the second position information based on the image information. The information may be corrected to generate three-dimensional coordinates (three-dimensional position information) including position information on the plane and position information in the height direction. Here, an example of a process of calculating three-dimensional coordinates according to the present embodiment will be described with reference to FIG.

図7は、本実施形態における3次元座標の算出処理の一例を説明する図である。
図7において、画像G1は、撮像装置30が撮像した画像情報を示している。ここで、コートAR2は、バレーボールのコートであり、プレーヤPL2が、ボールB1を打とうとしているものとする。このような場合、画像G1からプレーヤPL2が、ジャンプしているのか否かを判定することは困難である。
FIG. 7 is a diagram illustrating an example of a process of calculating three-dimensional coordinates according to the present embodiment.
In FIG. 7, an image G1 indicates image information captured by the imaging device 30. Here, it is assumed that the court AR2 is a volleyball court, and the player PL2 is about to hit the ball B1. In such a case, it is difficult to determine whether or not the player PL2 is jumping from the image G1.

そのため、軌跡生成部124は、正確なプレーヤPL2の3次元座標を生成するために、レーザレーダ装置20が検出した検出情報に基づいて、プレーヤPL2のコートAR2におけるXY平面上の位置PT1の座標(x1,y1)を算出する。そして、軌跡生成部124は、撮像装置30が撮像した画像情報(画像G1)上のプレーヤPL2の位置から、プレーヤPL2の高さ方向(Z軸方向)の位置座標(z1)を算出し、プレーヤPL2の3次元座標(x1,y1,z1)を生成する。   Therefore, in order to generate accurate three-dimensional coordinates of the player PL2, the trajectory generating unit 124 uses the coordinates of the position PT1 on the XY plane on the court AR2 of the player PL2 based on the detection information detected by the laser radar device 20 ( x1, y1) is calculated. Then, the trajectory generation unit 124 calculates the position coordinates (z1) in the height direction (Z-axis direction) of the player PL2 from the position of the player PL2 on the image information (image G1) captured by the imaging device 30 and The three-dimensional coordinates (x1, y1, z1) of PL2 are generated.

なお、軌跡生成部124は、プレーヤPL2の位置座標(z1)を算出し、ネットNT、ポール(P1、P2)、及びコートAR2のラインLNなどと、プレーヤPL2との画面上の位置関係から、プレーヤPL2の位置座標(z1)を算出する。また、レーザレーダ装置20と、撮像装置30とは、コートAR2内のネットNT、ポール(P1、P2)、及びラインLNの位置関係から、検出情報に基づく3次元座標と、画像情報に基づく3次元座標とが一致するように配置されている。また、軌跡生成部124は、上述した処理において、第1位置情報及び第2位置情報に基づいて対象エリアの平面上の位置情報を補正するようにしてもよい。   The trajectory generation unit 124 calculates the position coordinates (z1) of the player PL2, and calculates the position coordinates (z1) of the net NT, the poles (P1, P2), the line LN of the court AR2, and the like, and the positional relationship of the player PL2 on the screen. The position coordinates (z1) of the player PL2 are calculated. In addition, the laser radar device 20 and the imaging device 30 determine the three-dimensional coordinates based on the detection information and the three-dimensional coordinates based on the image information based on the positional relationship between the net NT, the poles (P1, P2), and the line LN in the court AR2. They are arranged so that their dimensional coordinates match. In addition, in the above-described processing, the trajectory generation unit 124 may correct the position information on the plane of the target area based on the first position information and the second position information.

また、軌跡生成部124は、生成した対象エリアにおける対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。すなわち、軌跡生成部124は、移動軌跡記憶部114が記憶する物体の移動軌跡を読み出し、当該物体の移動軌跡と、識別処理部123が付与した当該物体の識別情報とを対応付けて、対象物の移動軌跡として、対象物軌跡記憶部115に記憶させる。具体的に、軌跡生成部124は、例えば、図5に示すように、対象物の識別情報(「対象物名」)と、時刻情報(「時刻」)と、3次元位置座標(「座標」)とを対応付けて、移動軌跡記憶部114に記憶させる。   In addition, the trajectory generation unit 124 generates a movement trajectory of the target by associating the generated position information of the target in the target area with the identification information given by the identification processing unit 123. In other words, the trajectory generation unit 124 reads the trajectory of the object stored in the trajectory storage unit 114, associates the trajectory of the object with the identification information of the object given by the identification processing unit 123, and Is stored in the object locus storage unit 115 as the movement locus of the object. Specifically, for example, as shown in FIG. 5, the trajectory generation unit 124 determines the identification information of the object (“object name”), the time information (“time”), and the three-dimensional position coordinates (“coordinates”). ) Are stored in the movement trajectory storage unit 114 in association with each other.

なお、識別処理部123は、対象人物を対象物として識別する場合に、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別する。すなわち、識別処理部123は、画像処理部122に識別を依頼し、画像処理部122は、対象物情報記憶部113が記憶する対象人物の顔又は着衣の特徴量に基づいて、対象人物を識別する。識別処理部123は、画像処理部122に画像認識させた結果に基づいて対象人物を識別する。
ここで、図8を参照して、識別処理部123による対象人物の識別処理について説明する。
When identifying the target person as the target, the identification processing unit 123 identifies the target person based on image recognition of the face or clothes of the target person. That is, the identification processing unit 123 requests the image processing unit 122 to perform identification, and the image processing unit 122 identifies the target person based on the feature amount of the face or clothes of the target person stored in the target information storage unit 113. I do. The identification processing unit 123 identifies a target person based on the result of the image processing unit 122 performing image recognition.
Here, the identification processing of the target person by the identification processing unit 123 will be described with reference to FIG.

図8は、本実施形態における対象人物の識別処理の一例を説明する図である。
図8において、プレーヤPL3(選手B)とプレーヤPL4(選手A)とがコートAR3を交差して走った場合に対象人物を認識する処理について説明する。
FIG. 8 is a diagram illustrating an example of the target person identification processing according to the present embodiment.
In FIG. 8, a process of recognizing the target person when the player PL3 (player B) and the player PL4 (player A) run across the court AR3 will be described.

図8(a)に示すように、プレーヤPL3(選手B)とプレーヤPL4(選手A)とがコートAR3を交差した場合に、軌跡生成部124は、レーザレーダ装置20によって検出された物体に識別ID(例えば、ID1〜ID4)を付与するとともに、図8(b)に示すように、各物体の移動軌跡を生成する。図8(b)において、横軸が時間を示し、縦軸が、各物体の識別IDを示している。   As shown in FIG. 8A, when the player PL3 (player B) and the player PL4 (player A) cross the court AR3, the trajectory generator 124 identifies the object detected by the laser radar device 20 as an object. IDs (for example, ID1 to ID4) are given, and a moving trajectory of each object is generated as shown in FIG. In FIG. 8B, the horizontal axis represents time, and the vertical axis represents the identification ID of each object.

また、グラフ内の○印(丸印)及び×印(バツ印)は、識別処理部123が、画像処理部122に物体の識別を依頼した時刻を示している。また、○印(丸印)は、画像処理部122によって、識別IDを付与した物体(プレーヤPL3又はプレーヤPL4)が識別できたことを示し、×印(バツ印)は、識別IDを付与した物体の識別に失敗したことを示している。識別処理部123は、識別IDを付与した物体の識別に失敗した場合に、一定間隔後に、画像処理部122に物体の識別の依頼を再度行い、物体が認識できた場合には、以降の当該識別IDを付与した物体の識別の依頼を行わない。これにより、識別処理部123は、物体の識別のための処理負荷を低減している。なお、軌跡生成部124は、生成した移動軌跡を、上述した図4に示すように、移動軌跡記憶部114に記憶させる。   In the graph, ○ (circle) and X (cross) indicate the time at which the identification processing unit 123 requests the image processing unit 122 to identify the object. A circle (circle) indicates that the object (player PL3 or player PL4) to which the identification ID has been assigned can be identified by the image processing unit 122, and a cross (cross) indicates that the identification ID has been assigned. Indicates that the identification of the object failed. When the identification processing unit 123 fails to identify the object to which the identification ID has been assigned, after a predetermined interval, requests the image processing unit 122 to identify the object again. It does not request identification of the object to which the identification ID has been assigned. Thereby, the identification processing unit 123 reduces the processing load for identifying the object. The trajectory generation unit 124 stores the generated trajectory in the trajectory storage unit 114 as shown in FIG.

また、識別処理部123は、各移動軌跡に対して、物体(プレーヤPL3又はプレーヤPL4)を検出した位置の部分画像と、対象物情報記憶部113が記憶する特徴量とに基づいて、物体(プレーヤPL3又はプレーヤPL4)を識別し、物体(プレーヤPL3又はプレーヤPL4)に対象物名を付与する。識別処理部123は、例えば、8(c)に示すように、プレーヤPL3に“選手B”を付与し、プレーヤPL4に“選手A”を付与する。軌跡生成部124は、図8(d)に示すように、識別処理部123が付与した対象物名と、移動軌跡記憶部114が記憶する移動軌跡とを対応付ける。   Further, the identification processing unit 123 determines the object (the player PL3 or the player PL4) based on the partial image of the position where the object (the player PL3 or the player PL4) is detected, and the feature ( The player (PL3 or PL4) is identified, and a target object name is given to the object (player PL3 or PL4). The identification processing unit 123 assigns “player B” to the player PL3 and “player A” to the player PL4, for example, as shown in 8 (c). The trajectory generation unit 124 associates the target object name given by the identification processing unit 123 with the trajectory stored in the trajectory storage unit 114, as shown in FIG.

図8(c)及び(d)において、“選手A”の移動軌跡が、移動軌跡L1であり、“選手B”の移動軌跡が、移動軌跡L2である。軌跡生成部124は、 “選手A”、“選手B”などの対象物名を付与した移動軌跡を、例えば、図5に示すように、対象物軌跡記憶部115に記憶させる。   8C and 8D, the movement locus of “player A” is the movement locus L1, and the movement locus of “player B” is the movement locus L2. The trajectory generation unit 124 causes the target trajectory storage unit 115 to store the movement trajectory to which the target names such as “player A” and “player B” are given, for example, as illustrated in FIG.

次に、図面を参照して、本実施形態による位置追跡システム1の動作について説明する。
図9は、本実施形態による位置追跡システム1の動作の一例を示すフローチャートである。なお、この図において、レーザレーダ装置20は、定常的に検出情報を検出し、撮像装置30は、定常的に画像情報を撮像するものとする。
Next, an operation of the position tracking system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 9 is a flowchart illustrating an example of the operation of the position tracking system 1 according to the present embodiment. In this figure, it is assumed that the laser radar device 20 constantly detects the detection information, and the imaging device 30 constantly captures the image information.

図9において、位置追跡システム1の情報処理装置10は、まず、レーザレーダ装置20の検出情報と、画像情報とを取得し、同期させる(ステップS101)。情報処理装置10のデータ取得部121は、レーザレーダ装置20から検出情報を取得するとともに、撮像装置30から画像情報を取得する。データ取得部121は、レーザレーダ装置20から取得した検出情報と、時刻情報とを対応付けて、レーダ検出記憶部111に記憶させる。また、データ取得部121は、撮像装置30から取得した画像情報と、時刻情報とを対応付けて、画像情報記憶部112に記憶させる。   9, first, the information processing apparatus 10 of the position tracking system 1 acquires detection information of the laser radar apparatus 20 and image information and synchronizes them (step S101). The data acquisition unit 121 of the information processing device 10 acquires detection information from the laser radar device 20 and acquires image information from the imaging device 30. The data acquisition unit 121 stores the detection information acquired from the laser radar device 20 and the time information in the radar detection storage unit 111 in association with each other. Further, the data acquisition unit 121 stores the image information acquired from the imaging device 30 and the time information in the image information storage unit 112 in association with each other.

次に、情報処理装置10は、レーザデータ装置の検出情報と、画像情報とに基づいて、対象エリアにおける位置情報を生成する(ステップS102)。情報処理装置10の軌跡生成部124は、レーザレーダ装置20が検出した検出情報(例えば、物体までの距離及び方向)に基づいて、検出した物体(対象物)の対象エリアにおける位置情報(第1位置情報)を生成する。また、画像処理部122は、例えば、画像情報に基づいて、対象エリアにおける物体(対象物)の位置情報(第2位置情報)を生成する。ここで、第1位置情報及び第2位置情報は、例えば、対象物の重心の3次元座標である。軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の3次元座標を補正して生成する。   Next, the information processing device 10 generates position information in the target area based on the detection information of the laser data device and the image information (Step S102). The trajectory generation unit 124 of the information processing device 10 detects position information (first information) of the detected object (target) in the target area based on the detection information (for example, the distance and direction to the object) detected by the laser radar device 20. Position information). Further, the image processing unit 122 generates position information (second position information) of the object (target) in the target area based on the image information, for example. Here, the first position information and the second position information are, for example, three-dimensional coordinates of the center of gravity of the target object. The trajectory generator 124 complements the first position information and the second position information, and corrects and generates the three-dimensional coordinates of the object.

次に、情報処理装置10は、位置情報に対応する部分画像を切り出し、部分画像を画像認識して、識別情報を付与する(ステップS103)。情報処理装置10の識別処理部123は、画像処理部122に、上述した第1位置情報の物体の位置に対応する画像情報における部分画像を抽出させる。識別処理部123は、画像処理部122に、抽出した部分画像と、対象物情報記憶部113が記憶する特徴量に基づいて、対象物を識別させて、識別した対象物に対して、当該対象物を識別する識別情報を付与する。   Next, the information processing apparatus 10 cuts out a partial image corresponding to the position information, performs image recognition on the partial image, and adds identification information (step S103). The identification processing unit 123 of the information processing device 10 causes the image processing unit 122 to extract a partial image in the image information corresponding to the position of the object in the first position information described above. The identification processing unit 123 causes the image processing unit 122 to identify an object based on the extracted partial image and the feature amount stored in the object information storage unit 113, and The identification information for identifying the object is given.

次に、情報処理装置10は、位置情報に基づいて、識別情報を付与した対象物の移動軌跡を生成する(ステップS104)。軌跡生成部124は、生成した対象物の3次元座標と、識別処理部123が付与した識別情報と、時刻情報とを対応付けて、対象物の移動軌跡を生成する。軌跡生成部124は、例えば、図5に示すように、対象物の3次元座標と、対象物の識別情報と、時刻情報とを対応付けて、対象物の移動軌跡として、移動軌跡記憶部114に記憶させる。ステップS104の処理後に、軌跡生成部124は、処理を終了する。   Next, the information processing device 10 generates a movement trajectory of the target to which the identification information is added based on the position information (Step S104). The trajectory generation unit 124 generates a movement trajectory of the object by associating the generated three-dimensional coordinates of the object, the identification information given by the identification processing unit 123, and the time information. For example, as shown in FIG. 5, the trajectory generation unit 124 associates the three-dimensional coordinates of the target object, the identification information of the target object, and the time information, and sets the movement trajectory storage unit 114 as the movement trajectory of the target object. To memorize. After the processing in step S104, the trajectory generation unit 124 ends the processing.

以上説明したように、本実施形態による位置追跡システム1(位置計測システム)は、レーザレーダ装置20(検出装置)と、撮像装置30と、データ取得部121(取得部)と、軌跡生成部124(位置計測部)とを備える。レーザレーダ装置20は、対象エリアにレーザ光を照射して、物体からの反射光に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する。撮像装置30は、対象エリアを含む画像を撮像する。データ取得部121は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。軌跡生成部124は、データ取得部121が取得した検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、データ取得部121が取得した画像情報に基づく対象エリアにおける物体の位置情報である第2位置情報とを補完して、対象物の位置情報を生成する。軌跡生成部124は、生成した対象物の位置情報に基づいて、対象物が移動した対象物の移動軌跡を生成する。   As described above, the position tracking system 1 (position measurement system) according to the present embodiment includes the laser radar device 20 (detection device), the imaging device 30, the data acquisition unit 121 (acquisition unit), and the trajectory generation unit 124. (Position measurement unit). The laser radar device 20 irradiates the target area with laser light, and detects detection information including at least the distance and direction to the object based on the reflected light from the object. The imaging device 30 captures an image including the target area. The data acquisition unit 121 acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. The trajectory generation unit 124 includes first position information that is position information of the object in the target area based on the detection information acquired by the data acquisition unit 121 and position information of the object in the target area based on the image information acquired by the data acquisition unit 121 And the position information of the target object is generated. The trajectory generation unit 124 generates a movement trajectory of the target object based on the generated position information of the target object.

これにより、本実施形態による位置追跡システム1は、処理負荷をかけずに正確な位置情報を計測可能であるが、サンプリング周波数が低いため断続的な検出になるレーザレーダ装置20と、処理負荷が大きい上、位置情報の精度は劣るが連続して画像を撮像可能な撮像装置30とを併用することで、処理負荷を抑えつつ、対象物の位置を高精度に計測することができる。本実施形態による位置追跡システム1は、例えば、撮像装置30の画像情報のみでは困難な3次元における正確な位置座標の計測を、レーザレーダ装置20を併用することで実現することができる。よって、本実施形態による位置追跡システム1は、処理負荷を抑えつつ、対象物の位置を高精度に追跡することができる。   As a result, the position tracking system 1 according to the present embodiment can measure accurate position information without applying a processing load. However, the laser radar device 20 that performs intermittent detection due to a low sampling frequency and a processing load By using together with the imaging device 30 that is large and has low accuracy of the position information but can continuously capture images, the position of the target object can be measured with high accuracy while suppressing the processing load. The position tracking system 1 according to the present embodiment can realize, for example, accurate measurement of three-dimensional position coordinates, which is difficult with only the image information of the imaging device 30, by using the laser radar device 20 together. Therefore, the position tracking system 1 according to the present embodiment can track the position of the target object with high accuracy while suppressing the processing load.

また、本実施形態では、軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報に基づいて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、レーザレーダ装置20の検出情報に基づく第1位置情報と、撮像装置30の画像情報に基づく第2位置情報とを相互に補完することにより、例えば、複雑な背景や外部環境に影響されることなく、頑健、且つ、高精度な対象物の位置計測を行うことができる。本実施形態による位置追跡システム1は、例えば、図8に示すように、対象物が重なった場合であっても、正確に移動軌跡を生成することができる。
In the present embodiment, the trajectory generating unit 124 corrects the position information of the target by complementing the first position information and the second position information with each other, and based on the corrected position information of the target. , To generate a movement locus of the object.
Thereby, the position tracking system 1 according to the present embodiment mutually complements the first position information based on the detection information of the laser radar device 20 and the second position information based on the image information of the imaging device 30, for example, In addition, a robust and highly accurate position measurement of an object can be performed without being affected by a complicated background or an external environment. The position tracking system 1 according to the present embodiment can accurately generate a movement trajectory, for example, even when objects overlap as shown in FIG.

また、本実施形態による位置追跡システム1は、相互に補完することにより、高精度に位置情報を検出するために、画像処理のための処理負荷が大きい撮像装置30の数を多くする必要がなく、例えば、処理負荷を抑えてリアルタイム処理が可能になる。また、本実施形態による位置追跡システム1では、例えば、対象物にマーカーなどの付属物を取り付ける必要がなく、システム構成をシステム(簡略)にすることができる。   In addition, the position tracking system 1 according to the present embodiment complements each other, so that it is not necessary to increase the number of imaging devices 30 having a large processing load for image processing in order to detect position information with high accuracy. For example, real-time processing can be performed while suppressing the processing load. Further, in the position tracking system 1 according to the present embodiment, for example, it is not necessary to attach an accessory such as a marker to the target object, and the system configuration can be simplified (system).

また、本実施形態では、軌跡生成部124は、第1位置情報に基づいて対象エリアの平面上の位置情報を補正し、第2位置情報に基づいて対象エリアの高さ方向の位置情報を補正して、平面上の位置情報及び高さ方向の位置情報を含む3次元位置情報を生成し、生成した3次元位置情報に基づいて、対象物の軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、例えば、図7に示すように、画像情報からでは計測困難な高さ方向(Z軸方向)の正確な位置を画像情報から計測できるとともに、レーザレーダ装置20により奥行き方向(XY軸方向)の正確な位置を計測できる。そのため、本実施形態による位置追跡システム1は、より高精度に対象物の軌跡を生成することができる。
Further, in the present embodiment, the trajectory generation unit 124 corrects the position information on the plane of the target area based on the first position information, and corrects the position information in the height direction of the target area based on the second position information. Then, three-dimensional position information including the position information on the plane and the position information in the height direction is generated, and the trajectory of the object is generated based on the generated three-dimensional position information.
Thereby, the position tracking system 1 according to the present embodiment can measure an accurate position in the height direction (Z-axis direction), which is difficult to measure from image information, from the image information, as shown in FIG. An accurate position in the depth direction (XY axis direction) can be measured by the radar device 20. Therefore, the position tracking system 1 according to the present embodiment can generate the trajectory of the target with higher accuracy.

また、本実施形態では、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける第1位置情報と、第2位置情報とが一致するように配置されている。
これにより、本実施形態による位置追跡システム1は、さらに高精度に対象物の位置を計測することができる。
In the present embodiment, the laser radar device 20 and the imaging device 30 are arranged such that the first position information and the second position information in the target area match.
Thereby, the position tracking system 1 according to the present embodiment can measure the position of the target with higher accuracy.

また、本実施形態による位置追跡方法(位置計測方法)は、レーザレーダ装置20(検出装置)と、撮像装置30とを備える位置追跡システム1(位置計測システム)の位置追跡方法であって、取得ステップと、軌跡生成ステップ(位置計測ステップ)とを含む。取得ステップにおいて、データ取得部121が、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。軌跡生成ステップ(位置計測ステップ)において、軌跡生成部124(位置計測部)が、取得ステップによって取得された検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、取得ステップによって取得された画像情報に基づく対象エリアにおける物体の位置情報である第2位置情報とを補完して、対象物の位置情報を生成し、生成した対象物の位置情報に基づいて、対象物が移動した対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡方法は、上述した位置追跡システム1と同様の効果を奏し、処理負荷を抑えつつ、対象物の位置を高精度に計測することができる。
The position tracking method (position measurement method) according to the present embodiment is a position tracking method of the position tracking system 1 (position measurement system) including the laser radar device 20 (detection device) and the imaging device 30. And a trajectory generation step (position measurement step). In the acquisition step, the data acquisition unit 121 acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. In the trajectory generation step (position measurement step), the trajectory generation unit 124 (position measurement unit) acquires the first position information, which is the position information of the object in the target area based on the detection information acquired in the acquisition step, and the acquisition step. The position information of the target object is generated by complementing the second position information that is the position information of the object in the target area based on the generated image information, and the target object moves based on the generated position information of the target object. Generate a movement trajectory of the object.
Accordingly, the position tracking method according to the present embodiment has the same effect as the above-described position tracking system 1, and can measure the position of the target with high accuracy while suppressing the processing load.

また、本実施形態による位置追跡システム1は、レーザレーダ装置20と、撮像装置30と、データ取得部121と、識別処理部123と、軌跡生成部124とを備える。データ取得部121は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。識別処理部123は、画像処理部122を利用して、データ取得部121が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。軌跡生成部124は、検出情報と、画像情報とに基づいて生成した対象エリアにおける対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。   The position tracking system 1 according to the present embodiment includes a laser radar device 20, an imaging device 30, a data acquisition unit 121, an identification processing unit 123, and a trajectory generation unit 124. The data acquisition unit 121 acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. The identification processing unit 123 uses the image processing unit 122 to identify the object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the data acquisition unit 121. And assigns identification information for identifying the identified object to the identified object. The trajectory generation unit 124 generates a movement trajectory of the target object by associating the position information of the target object in the target area generated based on the detection information and the image information with the identification information given by the identification processing unit 123. I do.

これにより、本実施形態による位置追跡システム1は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報と用いることで、高精度に対象物を識別することができる。本実施形態による位置追跡システム1は、例えば、検出された物体の位置に対応する部分画像に対して、識別処理を行うため、画像情報の全体に対して識別処理を行う場合に比べて、背景等のノイズが低減されるとともに、大幅に処理負荷を抑えることができる。よって、本実施形態による位置追跡システム1は、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。   Thus, the position tracking system 1 according to the present embodiment can identify a target object with high accuracy by using the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. it can. The position tracking system 1 according to the present embodiment performs, for example, an identification process on a partial image corresponding to the position of a detected object. And the like, and the processing load can be greatly reduced. Therefore, the position tracking system 1 according to the present embodiment can track the position of the measurement target with high accuracy while suppressing the processing load.

また、本実施形態では、レーザレーダ装置20の検出情報には、物体の輪郭が含まれる。識別処理部123は、画像処理部122を利用して、レーザレーダ装置20が検出した物体の輪郭に基づいて、画像情報における部分画像を抽出し、抽出した部分画像に基づいて、物体を対象物として識別する。
これにより、本実施形態による位置追跡システム1は、例えば、物体の輪郭に沿って部分画像を画像情報から切り出すことで、背景等のノイズをさらに除去することができ、画像処理による対象物の認識精度をさらに向上させることができる。
In the present embodiment, the detection information of the laser radar device 20 includes the contour of the object. The identification processing unit 123 extracts a partial image in the image information based on the contour of the object detected by the laser radar device 20 using the image processing unit 122, and extracts the object based on the extracted partial image. Identify as
Thereby, the position tracking system 1 according to the present embodiment can further remove noise such as a background by cutting out a partial image from the image information along the contour of the object, and recognize the object by image processing. Accuracy can be further improved.

また、本実施形態では、対象物には、対象人物が含まれる。識別処理部123は、対象人物を対象物として識別する場合に、画像処理部122を利用して、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別する。
これにより、本実施形態による位置追跡システム1は、例えば、選手やプレーヤなどの対象人物を適切に識別することができる。
In the present embodiment, the target object includes the target person. When identifying the target person as the target, the identification processing unit 123 uses the image processing unit 122 to identify the target person based on image recognition of the face or clothes of the target person.
Thereby, the position tracking system 1 according to the present embodiment can appropriately identify a target person such as a player or a player, for example.

また、本実施形態では、軌跡生成部124は、検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、画像情報に基づく対象エリアにおける対象物の位置情報である第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、計測対象物の位置をより高精度に追跡することができる。
Further, in the present embodiment, the trajectory generation unit 124 includes first position information that is position information of the object in the target area based on the detection information and second position information that is position information of the object in the target area based on the image information. Are complemented with each other, the position information of the object is corrected, and the corrected position information of the object is associated with the identification information given by the identification processing unit 123 to generate a movement locus of the object.
Accordingly, the position tracking system 1 according to the present embodiment can track the position of the measurement target with higher accuracy.

また、本実施形態による位置追跡方法は、対象エリアにレーザ光を照射して、物体からの反射光に基づいて、レーザレーダ装置20と、撮像装置30とを備える位置追跡システム1の位置追跡方法であって、取得ステップと、識別処理ステップと、軌跡生成ステップとを含む。取得ステップにおいて、データ取得部121が、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。識別処理ステップにおいて、識別処理部123が、画像処理部122を利用して、取得ステップによって取得された検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。軌跡生成ステップにおいて、軌跡生成部124が、検出情報と、画像情報とに基づいて生成した対象エリアにおける対象物の位置情報と、識別処理ステップによって付与された識別情報とを対応付けて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡方法は、位置追跡システム1と同様の効果を奏し、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。
Further, the position tracking method according to the present embodiment irradiates a target area with laser light, and based on reflected light from an object, a position tracking method of the position tracking system 1 including the laser radar device 20 and the imaging device 30. And includes an acquisition step, an identification processing step, and a trajectory generation step. In the acquisition step, the data acquisition unit 121 acquires and synchronizes the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. In the identification processing step, the identification processing unit 123 uses the image processing unit 122, based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired in the acquisition step, The object is identified as a target, and identification information for identifying the target is added to the identified target. In the trajectory generation step, the trajectory generation unit 124 associates the position information of the target in the target area generated based on the detection information and the image information with the identification information given in the identification processing step, and Is generated.
Thus, the position tracking method according to the present embodiment has the same effect as the position tracking system 1, and can track the position of the measurement target with high accuracy while suppressing the processing load.

[第2の実施形態]
次に、図面を参照して、第2の実施形態によるプレー判定システム1aについて説明する。
本実施形態では、上述した位置追跡システム1を含み、対象人物の移動軌跡と、対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するプレー判定システム1aについて説明する。
[Second embodiment]
Next, a play determination system 1a according to a second embodiment will be described with reference to the drawings.
In the present embodiment, the play determination system 1a includes the above-described position tracking system 1 and determines the play of the target person indicating the motion and behavior of the target person based on the movement trajectory of the target person and the skeleton and joints of the target person. Will be described.

図10は、本実施形態によるプレー判定システム1aの一例を示すブロック図である。
図10に示すように、プレー判定システム1a(判定システムの一例)は、情報処理装置10aと、レーザレーダ装置20と、撮像装置30とを備える。
なお、この図において、図1と同一の構成には同一の符号を付与し、その説明を省略する。また、本実施形態において、レーザレーダ装置20及び撮像装置30は、少なくとも物体の形状及び位置情報を検出可能な検出装置の一例である。
FIG. 10 is a block diagram illustrating an example of the play determination system 1a according to the present embodiment.
As shown in FIG. 10, the play determination system 1a (an example of a determination system) includes an information processing device 10a, a laser radar device 20, and an imaging device 30.
In this figure, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted. In the present embodiment, the laser radar device 20 and the imaging device 30 are examples of a detection device that can detect at least shape and position information of an object.

情報処理装置10aは、例えば、PCなどのコンピュータ装置である。情報処理装置10aは、上述した第1の実施形態の情報処理装置10と同様に、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像情報とに基づいて、対象エリアにおける対象物の位置情報を生成し、生成した位置情報に基づいて、対象物の移動軌跡を生成する。また、情報処理装置10aは、画像情報から対象人物の骨格及び関節を推定し、対象人物の骨格及び関節と、対象物の移動軌跡とから対象人物のプレーを判定する。ここで、プレーとは、例えば、スポーツにおける対象人物の動作及び行動を示す。
また、情報処理装置10aは、記憶部11aと、制御部12aとを備える。
The information processing device 10a is, for example, a computer device such as a PC. The information processing apparatus 10a, similar to the information processing apparatus 10 according to the above-described first embodiment, determines a target in the target area based on detection information detected by the laser radar device 20 and image information captured by the imaging device 30. The position information of the object is generated, and the movement locus of the object is generated based on the generated position information. Further, the information processing apparatus 10a estimates the skeleton and joints of the target person from the image information, and determines the play of the target person from the skeleton and joints of the target person and the movement locus of the target object. Here, the play indicates, for example, the action and behavior of the target person in sports.
Further, the information processing device 10a includes a storage unit 11a and a control unit 12a.

記憶部11aは、情報処理装置10aの各種処理に利用する情報を記憶する。記憶部11aは、レーダ検出記憶部111と、画像情報記憶部112と、対象物情報記憶部113と、移動軌跡記憶部114と、対象物軌跡記憶部115と、骨格関節情報記憶部116と、判定器情報記憶部117と、判定結果記憶部118とを備える。   The storage unit 11a stores information used for various processes of the information processing device 10a. The storage unit 11a includes a radar detection storage unit 111, an image information storage unit 112, an object information storage unit 113, a movement trajectory storage unit 114, an object trajectory storage unit 115, a skeletal joint information storage unit 116, It includes a determiner information storage unit 117 and a determination result storage unit 118.

骨格関節情報記憶部116は、後述する骨格推定部125が推定した骨格関節情報を記憶する。骨格関節情報記憶部116は、例えば、対象人物の識別情報と、時刻情報と、骨格及び関節を示す骨格関節情報とを対応付けて記憶する。ここで、骨格関節情報とは、例えば、骨格及び関節の3次元位置座標などである。   The skeletal joint information storage unit 116 stores skeletal joint information estimated by a skeleton estimating unit 125 described later. The skeletal joint information storage unit 116 stores, for example, identification information of the target person, time information, and skeletal joint information indicating a skeleton and a joint in association with each other. Here, the skeletal joint information is, for example, three-dimensional position coordinates of the skeleton and the joint.

判定器情報記憶部117は、プレーを判定するための判定器の情報を記憶する。判定器情報記憶部117は、例えば、過去の対象人物の移動軌跡と対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように機械学習された学習結果などを判定器の情報として記憶する。ここで、機械学習には、例えば、決定木学習、ニューラルネットワーク、サポートベクターマシン(SVM)、各種回帰モデル、ディープラーニング(深層学習)などが含まれる。また、判定器の情報には、各種重み付け情報、ルール情報、各種パラメータなどが含まれる。
また、プレー判定には、プレーの種別の他に、プレーの成否、出来栄え、点数判定などが含まれる。
The determiner information storage unit 117 stores information of a determiner for determining play. The determiner information storage unit 117 performs, for example, learning performed by machine learning so as to determine the play of the target person indicating the motion and behavior of the target person based on the past movement trajectory of the target person and the skeleton and joints of the target person. The result and the like are stored as information of the determiner. Here, the machine learning includes, for example, decision tree learning, a neural network, a support vector machine (SVM), various regression models, deep learning (deep learning), and the like. The information of the determiner includes various weighting information, rule information, various parameters, and the like.
In addition, the play determination includes, in addition to the type of play, success or failure of the play, performance, score determination, and the like.

判定結果記憶部118は、後述するプレー判定部126が判定した判定結果を記憶する。判定結果記憶部118は、例えば、対象人物の識別情報と、時刻情報と、プレー判定結果とを対応付けて記憶する。   The determination result storage unit 118 stores the determination result determined by the play determination unit 126 described later. The determination result storage unit 118 stores, for example, the identification information of the target person, the time information, and the play determination result in association with each other.

制御部12aは、例えば、CPUなどを含むプロセッサであり、情報処理装置10aを統括的に制御する。制御部12aは、上述した第1の実施形態の制御部12と同様の処理を実行するとともに、例えば、対象人物のプレーを判定する。
制御部12aは、データ取得部121と、画像処理部122と、識別処理部123と、軌跡生成部124と、骨格推定部125と、プレー判定部126と、プレー評価部127とを備える。
The control unit 12a is, for example, a processor including a CPU and the like, and controls the information processing apparatus 10a in a comprehensive manner. The control unit 12a performs the same processing as the control unit 12 of the first embodiment described above, and determines, for example, the play of the target person.
The control unit 12a includes a data acquisition unit 121, an image processing unit 122, an identification processing unit 123, a trajectory generation unit 124, a skeleton estimation unit 125, a play determination unit 126, and a play evaluation unit 127.

骨格推定部125は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、推定した骨格及び関節を示す骨格関節情報と、対象人物の識別情報と、時刻情報と対応付けて骨格関節情報記憶部116に記憶させる。なお、骨格推定部125は、例えば、既存の骨格トラッキング技術を利用して、対象人物の骨格及び関節を推定する。なお、骨格推定部125は、骨格及び関節の他に、対象人物の目線を推定するようにしてもよい。この場合、骨格関節情報には、目線を示す情報を含めてもよい。また、骨格推定部125は、対象人物の骨格及び関節のうちの一方を推定するようにしてもよい。   The skeleton estimating unit 125 estimates the skeleton and joints of the target person based on the detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30). The skeleton estimating unit 125 estimates the skeleton and joints of the target person based on the contour of the target person detected by the laser radar device 20 and image information including the target person captured by the imaging device 30. The skeleton estimation unit 125 causes the skeleton joint information storage unit 116 to store the skeleton and joint information indicating the estimated skeleton and joint, the identification information of the target person, and the time information in association with each other. The skeleton estimating unit 125 estimates the skeleton and joints of the target person using, for example, existing skeleton tracking technology. The skeleton estimating unit 125 may estimate the line of sight of the target person in addition to the skeleton and the joint. In this case, the skeletal joint information may include information indicating a line of sight. Further, the skeleton estimating unit 125 may estimate one of the skeleton and the joint of the target person.

画像処理部122及び識別処理部123は、第1の実施形態と同様であるため、ここではその説明を省略する。なお、識別処理部123は、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別できない場合に、部分画像に基づいて、対象人物の骨格又は関節(対象人物の骨格及び関節、或いは、対象人物の骨格及び関節のうちの一方)を推定し、推定した骨格又は関節と、予め定められた対象人物の骨格又は関節の特徴とに基づいて、対象人物を識別するようにしてもよい。すなわち、対象物情報記憶部113が、例えば、対象人物の骨格又は関節の特徴量を予め記憶しており、識別処理部123は、上述した骨格推定部125が推定した骨格又は関節と、対象物情報記憶部113が記憶する対象人物の骨格又は関節の特徴量とに基づいて、対象人物を識別するようにしてもよい。   The image processing unit 122 and the identification processing unit 123 are the same as those in the first embodiment, and a description thereof will not be repeated. When the target person cannot be identified based on the image recognition of the face or clothes of the target person, the identification processing unit 123 determines the skeleton or joint of the target person (the skeleton and joints of the target person, or One of the skeleton and the joint of the target person) may be estimated, and the target person may be identified based on the estimated skeleton or joint and predetermined characteristics of the skeleton or the joint of the target person. That is, the object information storage unit 113 stores, for example, the feature amount of the skeleton or joint of the target person in advance, and the identification processing unit 123 stores the skeleton or joint estimated by the skeleton estimation unit 125 described above, The target person may be identified based on the feature amount of the target person's skeleton or joint stored in the information storage unit 113.

軌跡生成部124は、第1の実施形態と同様であるため、ここではその説明を省略する。すなわち、軌跡生成部124は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。
なお、本実施形態における軌跡生成部124は、対象人物の移動軌跡の他に、対象人物の周辺の物体の移動軌跡、骨格及び関節の移動軌跡、対象人物の手や足などの身体の一部の移動軌跡、等を生成するようにしてもよい。
The trajectory generation unit 124 is the same as in the first embodiment, and a description thereof will not be repeated. That is, the trajectory generation unit 124 generates a movement trajectory of the target person based on the detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30).
Note that, in addition to the movement trajectory of the target person, the trajectory generation unit 124 according to the present embodiment includes a movement trajectory of an object around the target person, a trajectory of a skeleton and a joint, and a part of a body such as a hand or a foot of the target person. May be generated.

プレー判定部126は、骨格推定部125が推定した対象人物の骨格及び関節と、軌跡生成部124が生成した対象人物の移動軌跡と、対象人物のプレーを判定する判定器とに基づいて、対象人物のプレーを判定する。ここで、判定器は、過去の対象人物の移動軌跡と対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成されており、例えば、機械学習などで生成されている。プレー判定部126は、判定器情報記憶部117が記憶する判定器情報による判定器を利用して、対象人物の骨格及び関節と、対象人物の移動軌跡とから、対象人物のプレーを判定する。   The play determination unit 126 determines the target person's play based on the skeleton and joints of the target person estimated by the skeleton estimation unit 125, the movement trajectory of the target person generated by the trajectory generation unit 124, and a determinator that determines play of the target person. The play of the person is determined. Here, the determiner is generated so as to determine the play of the target person indicating the motion and action of the target person based on the past movement trajectory of the target person and the skeleton and joints of the target person. It is generated by learning. The play determination unit 126 determines play of the target person from the skeleton and joints of the target person and the movement trajectory of the target person, using a determiner based on the determiner information stored in the determiner information storage unit 117.

ここで、対象人物のプレーは、例えば、バレーボールにおけるプレーヤのレシーブ、アタック、サーブ、ブロックなどやバスケットボールにおけるスクリーンプレーなどである。また、プレー判定部126は、例えば、バレーボールにおけるプレーを判定する場合に、対象人物の骨格及び関節及び対象人物の移動軌跡の他に、ボールなどの用具移動軌跡、すなわち、対象人物の周辺に存在する対象物の移動軌跡に基づいて、対象人物のプレーを判定してもよい。この場合、軌跡生成部124は、対象人物の周辺に存在する対象物(例えば、ボール)の移動軌跡を生成し、プレー判定部126は、判定器を利用して、対象人物の移動軌跡、骨格及び関節と、対象物の移動軌跡(例えば、ボール)とから対象人物のプレーを判定する。   Here, the play of the target person is, for example, a player's receive, attack, serve, block, or the like in volleyball, or screen play in basketball. In addition, for example, when determining play in volleyball, the play determination unit 126 determines, in addition to the skeleton and joints of the target person and the movement trajectory of the target person, a tool movement trajectory such as a ball, The play of the target person may be determined based on the movement trajectory of the target object. In this case, the trajectory generation unit 124 generates a movement trajectory of an object (for example, a ball) around the target person, and the play determination unit 126 uses a determination unit to determine the movement trajectory and skeleton of the target person. Then, the play of the target person is determined from the joint and the movement locus of the target object (for example, a ball).

また、プレー判定部126は、例えば、バスケットボールにおけるスクリーンプレーを判定する場合に、対象人物の周辺の人物の移動軌跡に基づいて、対象人物のプレーを判定してもよい。この場合、軌跡生成部124は、対象人物の周辺に存在する対象物(例えば、周辺の人物)の移動軌跡を生成し、プレー判定部126は、判定器を利用して、対象人物の移動軌跡、骨格及び関節と、対象物(例えば、周辺の人物)の移動軌跡とから対象人物のプレーを判定する。
プレー判定部126は、判定したプレーを示す情報を判定結果として、対象人物と時刻情報と対応付けて、判定結果記憶部118に記憶させる。
Further, for example, when determining a screen play in a basketball, the play determination unit 126 may determine the play of the target person based on the movement trajectory of a person around the target person. In this case, the trajectory generation unit 124 generates a movement trajectory of an object (for example, a nearby person) existing around the target person, and the play determination unit 126 uses a determination unit to determine the movement trajectory of the target person. The play of the target person is determined from the skeleton, the joint, and the movement locus of the target object (for example, a nearby person).
The play determination unit 126 stores information indicating the determined play as the determination result in the determination result storage unit 118 in association with the target person and the time information.

プレー評価部127は、プレー判定部126が判定したプレーの判定結果に基づいて、プレーの評価を行う。プレー評価部127は、例えば、プレーの判定結果から、例えば、トレイニング中のジャンプなどのプレーの実行回数を集計し、トレイニングの効果、効率、オーバートレーニングなどの評価を行う。また、プレー評価部127は、例えば、プレーの判定結果に基づいて、試合などに実行したプレーを集計し、プレーの集計結果に基づいて、試合内容を評価する。   The play evaluation unit 127 evaluates play based on the play determination result determined by the play determination unit 126. The play evaluation unit 127, for example, totals the number of times of execution of a play such as a jump during training from the determination result of the play, and evaluates the effect, efficiency, overtraining, and the like of the training. Further, the play evaluation unit 127, for example, tallies the plays performed in a game or the like based on the determination result of the play, and evaluates the content of the game based on the tallied result of the play.

次に、図面を参照して、本実施形態によるプレー判定システム1aの動作について説明する。
図11は、本実施形態によるプレー判定システム1aの動作の一例を示すフローチャートである。なお、この図において、レーザレーダ装置20は、定常的に検出情報を検出し、撮像装置30は、定常的に画像情報を撮像するものとする。
図11に示すステップS201からステップS203までの処理は、図9に示すステップS101からステップS103までの処理と同様であるため、ここではその説明を省略する。
Next, the operation of the play determination system 1a according to the present embodiment will be described with reference to the drawings.
FIG. 11 is a flowchart illustrating an example of the operation of the play determination system 1a according to the present embodiment. In this figure, it is assumed that the laser radar device 20 constantly detects the detection information, and the imaging device 30 constantly captures the image information.
Since the processing from step S201 to step S203 shown in FIG. 11 is the same as the processing from step S101 to step S103 shown in FIG. 9, the description thereof is omitted here.

ステップS204において、情報処理装置10aは、検出情報及び画像情報に基づいて骨格及び関節を推定する。情報処理装置10aの骨格推定部125は、例えば、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、推定した骨格及び関節を示す骨格関節情報と、対象人物の識別情報と、時刻情報と対応付けて骨格関節情報記憶部116に記憶させる。   In step S204, the information processing device 10a estimates a skeleton and a joint based on the detection information and the image information. The skeleton estimating unit 125 of the information processing device 10a, for example, determines the skeleton and joints of the target person based on the contour of the target person detected by the laser radar device 20 and image information including the target person captured by the imaging device 30. presume. The skeleton estimation unit 125 causes the skeleton joint information storage unit 116 to store the skeleton and joint information indicating the estimated skeleton and joint, the identification information of the target person, and the time information in association with each other.

次に、情報処理装置10aは、位置情報に基づいて、識別情報を付与した計測対象物の移動軌跡を生成する(ステップS205)。情報処理装置10aの軌跡生成部124は、図9に示すステップS104と同様に、生成した対象物の3次元座標と、識別処理部123が付与した識別情報と、時刻情報とを対応付けて、対象物の移動軌跡を生成する。   Next, the information processing device 10a generates a movement locus of the measurement target to which the identification information is added based on the position information (Step S205). The trajectory generation unit 124 of the information processing device 10a associates the generated three-dimensional coordinates of the target object, the identification information given by the identification processing unit 123, and the time information, as in step S104 illustrated in FIG. Generate a trajectory of the object.

次に、情報処理装置10aは、移動軌跡の特徴量と、骨格及び関節とに基づいて、プレー判定を行う(ステップS206)。情報処理装置10aのプレー判定部126は、判定器情報記憶部117が記憶する判定器情報による判定器を利用して、対象人物の骨格及び関節と、対象人物の移動軌跡の特徴量とから、対象人物のプレーを判定する。プレー判定部126は、プレーの判定結果を、判定結果記憶部118に記憶させる。   Next, the information processing device 10a makes a play determination based on the feature amount of the movement trajectory and the skeleton and the joint (step S206). The play determination unit 126 of the information processing apparatus 10a uses a determiner based on the determiner information stored in the determiner information storage unit 117 to determine the skeleton and joints of the target person and the feature amount of the movement trajectory of the target person. The play of the target person is determined. The play determination unit 126 causes the determination result storage unit 118 to store the determination result of the play.

次に、情報処理装置10aは、プレー判定が終了であるか否かを判定する(ステップS207)。情報処理装置10aは、プレー判定が終了である場合(ステップS207:YES)に、処理をステップS208に進める。また、情報処理装置10aは、プレー判定が終了でない場合(ステップS207:NO)に、処理をステップS201に戻し、ステップS201からステップS207の処理を繰り返す。   Next, the information processing device 10a determines whether or not the play determination has been completed (Step S207). If the play determination has been completed (step S207: YES), the information processing device 10a advances the process to step S208. If the play determination has not been completed (step S207: NO), the information processing device 10a returns the process to step S201, and repeats the processes from step S201 to step S207.

ステップS208において、情報処理装置10aは、プレー判定結果を評価する。情報処理装置10aのプレー評価部127は、プレー判定部126が判定したプレーの判定結果に基づいて、プレーの評価を行う。プレー判定部126は、ステップS208の処理後に、処理を終了する。
なお、上述した例では、骨格推定部125が、対象人物の骨格及び関節を推定し、プレー判定部126が、対象人物の移動軌跡と、対象人物の骨格及び関節の位置とから、プレーを判定する例を説明したが、骨格推定部125が対象人物の骨格及び関節のいずれか一方を推定し、対象人物の移動軌跡と、対象人物の骨格及び関節の位置のいずれか一方とからプレーを判定するようにしてもよい。
In step S208, the information processing device 10a evaluates the play determination result. The play evaluation unit 127 of the information processing device 10a evaluates the play based on the play determination result determined by the play determination unit 126. After the processing in step S208, the play determination unit 126 ends the processing.
In the example described above, the skeleton estimating unit 125 estimates the skeleton and joints of the target person, and the play determination unit 126 determines play based on the movement trajectory of the target person and the positions of the skeleton and joints of the target person. However, the skeleton estimating unit 125 estimates one of the skeleton and the joint of the target person, and determines the play from the movement trajectory of the target person and one of the positions of the skeleton and the joint of the target person. You may make it.

以上説明したように、本実施形態によるプレー判定システム1a(判定システム)は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)と、骨格推定部125と、軌跡生成部124と、プレー判定部126とを備える。検出装置(例えば、レーザレーダ装置20及び撮像装置30)は、少なくとも物体の形状及び位置情報を検出可能である。骨格推定部125は、検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する。軌跡生成部124は、検出装置が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。プレー判定部126は、判定器と、骨格推定部125が推定した対象人物の骨格又は関節と、軌跡生成部124が生成した対象人物の移動軌跡とに基づいて、対象人物のプレーを判定する。ここで、判定器は、過去の対象人物の移動軌跡と、対象人物の骨格又は関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成されている。   As described above, the play determination system 1a (determination system) according to the present embodiment includes a detection device (for example, the laser radar device 20 and the imaging device 30), a skeleton estimation unit 125, a trajectory generation unit 124, and a play determination. A part 126. The detection device (for example, the laser radar device 20 and the imaging device 30) can detect at least the shape and position information of the object. The skeleton estimation unit 125 estimates the skeleton or joint of the target person based on the detection information detected by the detection device. The trajectory generation unit 124 generates a trajectory of the target person based on the detection information detected by the detection device. The play determination unit 126 determines the play of the target person based on the determiner, the skeleton or joint of the target person estimated by the skeleton estimation unit 125, and the movement trajectory of the target person generated by the trajectory generation unit 124. Here, the determiner is generated so as to determine the play of the target person indicating the motion and action of the target person based on the past movement trajectory of the target person and the skeleton or joint of the target person.

これにより、本実施形態によるプレー判定システム1aは、対象人物の骨格又は関節と、対象人物の移動軌跡とに基づいて、プレーを判定するため、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。また、本実施形態によるプレー判定システム1aでは、利用者の負担なく、例えば、選手のプレー、位置、時刻、プレーの成否、出来栄え、点数判定、等を自動にて記録することができる。すなわち、本実施形態によるプレー判定システム1aは、スポーツ競技のスコアを自動で記録することができる。   Accordingly, the play determination system 1a according to the present embodiment determines play based on the skeleton or joint of the target person and the movement trajectory of the target person. A determination can be made. Further, the play determination system 1a according to the present embodiment can automatically record, for example, a player's play, position, time, success or failure of play, performance, score determination, and the like without any burden on the user. That is, the play determination system 1a according to the present embodiment can automatically record the score of the sports competition.

また、本実施形態では、軌跡生成部124は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の周辺に存在する対象物の移動軌跡を生成する。プレー判定部126は、判定器を利用して、対象人物の移動軌跡と、対象人物の骨格又は関節と、対象物の移動軌跡とから対象人物のプレーを判定する。
これにより、本実施形態によるプレー判定システム1aは、例えば、ボールやラケットなどの用具である対象物の移動軌跡を用いることで、プレー判定の精度を向上させることができる。
Further, in the present embodiment, the trajectory generation unit 124 generates a movement trajectory of an object existing around the target person based on detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30). I do. The play determination unit 126 determines play of the target person from the movement trajectory of the target person, the skeleton or joints of the target person, and the movement trajectory of the target object, using a determination unit.
Thus, the play determination system 1a according to the present embodiment can improve the accuracy of play determination by using the movement trajectory of an object such as a ball or a racket.

例えば、バレーボールにおいて、ボールなどの対象物の移動軌跡を判定器に利用して、プレー判定することにより、本実施形態によるプレー判定システム1aは、例えば、レシーブ、アタック、サーブ、ブロック等を判定することができる。
また、例えば、バスケットにおいて、対象人物の周囲の人物の移動軌跡を判定器に利用して、プレー判定することにより、本実施形態によるプレー判定システム1aは、例えば、スクリーンプレーなどを精度よく判定することができる。
また、例えば、テニスにおいて、対象人物の骨格と、対象人物、ボール及びラケットの移動軌跡とを判定器に利用して、プレー判定することにより、テニスのショット種別(例えば、バックハンド、フォアハンド、スマッシュ、スライスなど)、ボール(例えば、スピード、スピン種別、回転数など)、ショットの成否、等を判定することができる。
For example, in a volleyball, the play determination system 1a according to the present embodiment determines a play, an attack, a serve, a block, and the like, for example, by performing a play determination using a movement locus of an object such as a ball as a determiner. be able to.
In addition, for example, in the basket, the play determination system 1a according to the present embodiment accurately determines, for example, screen play by performing play determination using the movement locus of a person around the target person as a determiner. be able to.
In addition, for example, in tennis, the play determination is performed by using the skeleton of the target person and the movement trajectories of the target person, the ball, and the racket as a determiner, thereby determining the type of tennis shot (for example, backhand, forehand, smash). , Slice, etc.), a ball (eg, speed, spin type, rotation speed, etc.), success or failure of a shot, and the like.

また、本実施形態では、検出装置には、レーザレーダ装置20及び撮像装置30が含まれる。骨格推定部125は、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格又は関節を推定する。軌跡生成部124は、レーザレーダ装置20による検出に基づく対象エリアにおける対象人物の位置情報である第1位置情報と、画像情報に基づく対象エリアにおける対象人物の位置情報である第2位置情報とを相互に補完して、対象人物の位置情報を補正し、補正した対象人物の位置情報に基づいて、対象人物の移動軌跡を生成する。   In the present embodiment, the detection device includes the laser radar device 20 and the imaging device 30. The skeleton estimating unit 125 estimates the skeleton or joint of the target person based on the contour of the target person detected by the laser radar device 20 and image information including the target person captured by the imaging device 30. The trajectory generation unit 124 converts first position information that is position information of the target person in the target area based on the detection by the laser radar device 20 and second position information that is position information of the target person in the target area based on the image information. Complementing each other, the position information of the target person is corrected, and the movement trajectory of the target person is generated based on the corrected target person position information.

これにより、本実施形態によるプレー判定システム1aは、レーザレーダ装置20の検出情報に基づく第1位置情報と、撮像装置30の画像情報に基づく第2位置情報とを相互に補完することにより、処理負荷を抑えつつ、対象物の位置計測を行うことができる。よって、本実施形態によるプレー判定システム1aは、さらに高精度に対象人物のプレー判定を行うことができる。   As a result, the play determination system 1a according to the present embodiment complements the first position information based on the detection information of the laser radar device 20 and the second position information based on the image information of the imaging device 30 with each other to perform processing. The position of the object can be measured while suppressing the load. Therefore, the play determination system 1a according to the present embodiment can perform the play determination of the target person with higher accuracy.

また、本実施形態によるプレー判定システム1aは、レーザレーダ装置20の検出情報に基づく第1位置情報に対応する画像情報における部分画像に基づいて、対象人物を識別し、識別した対象人物に対して、当該対象人物を識別する識別情報を付与する識別処理部123を備える。軌跡生成部124は、識別処理部123が付与した識別情報と対応付けて、対象人物の移動軌跡を生成する。
これにより、本実施形態によるプレー判定システム1aは、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報と用いることで、高精度に対象物を識別することができ、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。よって、本実施形態によるプレー判定システム1aは、さらに高精度に対象人物のプレー判定を行うことができる。
Further, the play determination system 1a according to the present embodiment identifies the target person based on the partial image in the image information corresponding to the first position information based on the detection information of the laser radar device 20. And an identification processing unit 123 for assigning identification information for identifying the target person. The trajectory generation unit 124 generates a movement trajectory of the target person in association with the identification information given by the identification processing unit 123.
Accordingly, the play determination system 1a according to the present embodiment can identify a target object with high accuracy by using the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. Thus, the position of the measurement target can be tracked with high accuracy while suppressing the processing load. Therefore, the play determination system 1a according to the present embodiment can perform the play determination of the target person with higher accuracy.

また、本実施形態によるプレー判定システム1aでは、撮像装置30では、高精度に取得することが困難位置情報を、レーザレーダ装置20と併用することにより、高精度に位置情報を検出することができる。そのため、本実施形態によるプレー判定システム1aは、判定可能なプレーの種類を広げることができ、様々な競技やゲームの分析に応用することができる。また、本実施形態によるプレー判定システム1aは、撮像装置30では、複雑、且つ、高い処理負荷を必要とするプレー判定において、レーザレーダ装置20と併用することにより、判定速度及び判定精度を向上させることができる。   In the play determination system 1a according to the present embodiment, the imaging device 30 can detect position information with high accuracy by using the position information that is difficult to obtain with high accuracy in combination with the laser radar device 20. . Therefore, the play determination system 1a according to the present embodiment can broaden the types of play that can be determined, and can be applied to analysis of various games and games. The play determination system 1a according to the present embodiment improves the determination speed and the determination accuracy by using the imaging device 30 in combination with the laser radar device 20 in a play determination that requires a complicated and high processing load. be able to.

また、本実施形態では、識別処理部123は、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別できない場合に、部分画像に基づいて、対象人物の骨格又は関節を推定し、推定した骨格又は関節と、予め定められた対象人物の骨格又は関節の特徴とに基づいて、対象人物を識別する。
これにより、本実施形態によるプレー判定システム1aは、さらに高精度に対象物を識別することができる。
Further, in the present embodiment, when the target person cannot be identified based on the image recognition of the face or clothes of the target person, the identification processing unit 123 estimates the skeleton or joint of the target person based on the partial image and estimates The target person is identified based on the determined skeleton or joint and predetermined characteristics of the target person's skeleton or joint.
Thereby, the play determination system 1a according to the present embodiment can identify the target with higher accuracy.

また、本実施形態では、軌跡生成部124は、レーザレーダ装置20の検出情報に基づいて対象エリアの平面上の位置情報を生成し、撮像装置30の画像情報に基づいて対象エリアの高さ方向の位置情報を生成して、平面上の位置情報及び高さ方向の位置情報を含む3次元位置情報を生成し、生成した3次元位置情報に基づいて、対象物(対象人物)の軌跡を生成する。
これにより、本実施形態によるプレー判定システム1aは、正確な位置を計測できるため、例えば、ジャンプの伴うプレー判定を高精度に行うことができ、判定可能なプレーの種類をさらに広げることができる。
In the present embodiment, the trajectory generation unit 124 generates position information on the plane of the target area based on the detection information of the laser radar device 20, and based on the image information of the imaging device 30, the height direction of the target area. To generate three-dimensional position information including position information on a plane and position information in a height direction, and generate a trajectory of an object (target person) based on the generated three-dimensional position information. I do.
As a result, the play determination system 1a according to the present embodiment can accurately measure a position, so that a play determination involving a jump can be performed with high accuracy, for example, and the types of play that can be determined can be further expanded.

また、本実施形態によるプレー判定システム1aは、プレーを評価するプレー評価部127を備える。
これにより、本実施形態によるプレー判定システム1aは、例えば、各選手の練習中の走行距離、ジャンプ回数や高さ、プレー動作を評価することができ、オーバートレーニング等の管理を一元的に行うことができる。
The play determination system 1a according to the present embodiment includes a play evaluation unit 127 that evaluates play.
Thereby, the play determination system 1a according to the present embodiment can evaluate, for example, the mileage, the number of jumps, the height, and the play motion of each player during the practice, and perform the unified management of overtraining and the like. Can be.

また、本実施形態による判定方法は、骨格推定ステップと、軌跡生成ステップと、プレー判定ステップとを含む。骨格推定ステップにおいて、骨格推定部125が、少なくとも物体の形状及び位置情報を検出可能な検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する。軌跡生成ステップにおいて、軌跡生成部124が、検出装置が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。プレー判定ステップにおいて、プレー判定部126が、過去の対象人物の移動軌跡と、対象人物の骨格又は関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成された判定器と、骨格推定部125が推定した対象人物の骨格又は関節と、軌跡生成部124が生成した対象人物の移動軌跡とに基づいて、対象人物のプレーを判定する。
これにより、本実施形態による判定方法は、上述したプレー判定システム1aと同様の効果を奏し、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。
The determination method according to the present embodiment includes a skeleton estimation step, a trajectory generation step, and a play determination step. In the skeleton estimation step, the skeleton estimation unit 125 estimates the skeleton or joint of the target person based on at least detection information detected by a detection device capable of detecting shape and position information of the object. In the trajectory generation step, the trajectory generation unit 124 generates a trajectory of the target person based on the detection information detected by the detection device. In the play determination step, the play determination unit 126 is generated so as to determine the play of the target person indicating the motion and behavior of the target person based on the past movement trajectory of the target person and the skeleton or joint of the target person. The play of the target person is determined based on the determiner, the skeleton or joint of the target person estimated by the skeleton estimating unit 125, and the movement trajectory of the target person generated by the trajectory generation unit 124.
Accordingly, the determination method according to the present embodiment has the same effect as the above-described play determination system 1a, and can perform the play determination of the target person with high accuracy while suppressing the processing load.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、位置追跡システム1(プレー判定システム1a)が備えるレーザレーダ装置20及び撮像装置30の数は、上記の各実施形態に限定されるものではなく、他の台数を備えるようにしてもよい。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, the numbers of the laser radar devices 20 and the imaging devices 30 included in the position tracking system 1 (play determination system 1a) are not limited to the above embodiments, and may include other numbers.

上記の各実施形態において、情報処理装置10(10a)は、1台の装置である例を説明したが、これに限定されるものではなく、複数台の装置で構成されてもよい。また、情報処理装置10(10a)は、記憶部11(11a)の一部又は全部を、外部装置が備えるようにしてもよい。また、この場合、外部装置は、ネットワークを介して、情報処理装置10(10a)に接続可能な記憶装置であってもよい。また、情報処理装置10(10a)は、制御部12(12a)の一部の機能を、外部装置が備えるようにしてもよい。   In each of the above embodiments, the example in which the information processing device 10 (10a) is a single device has been described, but the information processing device 10 (10a) is not limited thereto, and may be configured with a plurality of devices. In the information processing device 10 (10a), a part or all of the storage unit 11 (11a) may be provided in an external device. In this case, the external device may be a storage device that can be connected to the information processing device 10 (10a) via a network. Further, the information processing device 10 (10a) may be configured such that an external device has a part of the function of the control unit 12 (12a).

また、上記の各実施形態において、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する検出装置の一例として、レーザレーダ装置20を用いる例を説明したが、これに限定されるものではない。例えば、検出装置は、光波、電波、又は音波を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出するものであってもよい。ここで、波動とは、例えば、レーザー光などの光波、電波、超音波などの音波、等の空間を伝播する波である。   In each of the above embodiments, a laser radar device is used as an example of a detection device that irradiates a wave to a target area and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object. Although the example using 20 has been described, the present invention is not limited to this. For example, the detection device may be a device that irradiates a light wave, a radio wave, or a sound wave, and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object. Here, the wave is a wave propagating in space such as a light wave such as a laser beam, a radio wave, or a sound wave such as an ultrasonic wave.

上記の第2の実施形態において、プレー判定部126は、対象人物の移動軌跡と、骨格及び関節の位置と、対象人物の周辺に存在する対象物の移動軌跡とからプレーを判定する例を説明したが、これに限定されるものではない。プレー判定部126は、例えば、骨格及び関節の移動軌跡、ポールやネット、コートのラインなど周辺の対象物との位置関係、対象人物の手や足などの身体の一部の移動軌跡などに基づいて、プレーを判定するようにしてもよい。また、プレー判定部126は、対象人物の移動軌跡と、骨格及び関節の位置とのいずれか一方から、プレーを判定するようにしてもよい。
また、プレー判定部126が判定するプレーは、例えば、サッカーのゴール、テニスやバレーボールなどのラインイン又はラインアウト、柔道などの技の名前、等であってもよい。また、プレー判定部126は、プレー判定として、プレーの成否(例えば、バスケットボールのシュート成功・失敗)、出来栄え・点数(例えば、体操競技の採点)、等を判定するようにしてもよい。
In the above-described second embodiment, an example will be described in which the play determination unit 126 determines play from the movement trajectory of the target person, the positions of the skeleton and joints, and the movement trajectory of the target object around the target person. However, the present invention is not limited to this. The play determination unit 126 is based on, for example, a movement trajectory of a skeleton and a joint, a positional relationship with a nearby target such as a pole, a net, and a court line, and a movement trajectory of a part of a body such as a hand or a foot of the target person. Thus, play may be determined. The play determination unit 126 may determine the play from one of the movement trajectory of the target person and the positions of the skeleton and the joint.
The play determined by the play determination unit 126 may be, for example, a soccer goal, a line-in or line-out such as tennis or volleyball, a name of a technique such as judo, or the like. Further, the play determination unit 126 may determine, as play determination, success or failure of the play (for example, success / failure of a basketball shot), performance / score (for example, scoring for gymnastics), and the like.

また、上記の各実施形態において、対象エリアが、例えば、スポーツを行う競技場であるコート、試合場、等である例を説明したが、これに限定されるものではない。情報処理装置10(10a)が適用される対象エリアは、例えば、スケート等の氷上リンク、スキージャンプやハーフパイプ等の雪上の競技場所、競泳やアーティスティックスイミング等のプールなどであってもよいし、その他の競技を行う場所であってもよい。   Further, in each of the above-described embodiments, an example has been described in which the target area is, for example, a court, a stadium, which is a stadium where sports are performed, but the present invention is not limited to this. The target area to which the information processing device 10 (10a) is applied may be, for example, an ice rink such as a skate, a competition place on the snow such as a ski jump or a half pipe, or a pool such as a swimming race or an artistic swimming. , Or other places where competitions are held.

また、上記の各実施形態において、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける第1位置情報と、第2位置情報とが一致するように配置するキャリブレーション処理は、以下のように行ってもよい。
例えば、コートを使用する競技においては、コートラインに再帰性反射材で作成した有色のシール等を用いることで、レーザレーダ装置20及び撮像装置30のキャリブレーション処理を同時に行うようにしてもよい。この場合、上記シール等をネットポールや、ゴールポール等、競技中に位置が固定されている用具に張り付けて利用するようにしてもよい。
In each of the above embodiments, the calibration processing in which the laser radar device 20 and the imaging device 30 are arranged so that the first position information and the second position information in the target area match each other is as follows. You may go to.
For example, in a competition using a court, the calibration process of the laser radar device 20 and the imaging device 30 may be performed simultaneously by using a colored seal or the like made of a retroreflective material on the court line. In this case, the seal or the like may be attached to a tool such as a net pole or a goal pole whose position is fixed during the competition and used.

また、情報処理装置10(10a)の位置計測の処理は、上記の各実施形態に限定されるものではなく、競技種目や目的によって、以下のように変更されてもよい。
例えば、情報処理装置10(10a)の軌跡生成部124は、通常時には、レーザレーダ装置20による第1位置情報を主として、画像情報に基づく第2位置情報で補完して位置計測を行う。そして、車いすバスケやウィルチェアラグビー競技に使用する際には、選手がボールを抱え込む動作が多く、レーザレーダ装置20による第1位置情報の検出が困難であることが考えられる。このような場合には、軌跡生成部124は、画像情報に基づく第2位置情報が主として、レーザレーダ装置20による第1位置情報で補完するようにしてもよい。
Further, the processing of the position measurement of the information processing device 10 (10a) is not limited to each of the above embodiments, and may be changed as follows depending on an event or purpose.
For example, the trajectory generation unit 124 of the information processing device 10 (10a) measures the position by complementing the first position information mainly by the laser radar device 20 with the second position information based on the image information. Then, when used in a wheelchair basketball or a wheelchair rugby competition, the player often holds the ball, and it may be difficult for the laser radar device 20 to detect the first position information. In such a case, the trajectory generation unit 124 may mainly complement the second position information based on the image information with the first position information from the laser radar device 20.

また、上述したように、レーザレーダ装置20は、精度良くリアルタイムでの位置検出が可能であるが、サンプリング周波数が低いため、断片的な位置情報となる。これに対して、画像情報に基づく位置検出では、連続した位置情報の検出が可能であるが、処理負荷が高く時間がかかる。そこで、軌跡生成部124は、リアルタイムでの位置検出を重視する場合は、レーザレーダ装置20による第1位置情報を主として、画像情報に基づく第2位置情報で補完する割合、頻度、等を減らすようにしてもよい。また、軌跡生成部124は、例えば、位置検出の精度を重視する場合は、画像情報に基づく第2位置情報で補完する割合、頻度、等を増やすようにしてもよい。
このように、軌跡生成部124は、競技種目や目的に応じて、第1位置情報と第2位置情報の間の補完方法を変更してもよい。
Further, as described above, the laser radar device 20 can accurately detect a position in real time, but since the sampling frequency is low, the position information becomes fragmentary. On the other hand, in position detection based on image information, continuous position information can be detected, but the processing load is high and it takes time. Therefore, when emphasis is placed on real-time position detection, the trajectory generation unit 124 reduces the ratio, frequency, and the like of complementing the first position information mainly by the laser radar device 20 with the second position information based on image information. It may be. In addition, when importance is attached to the accuracy of position detection, for example, the trajectory generation unit 124 may increase the ratio, frequency, and the like, complemented by the second position information based on the image information.
In this way, the trajectory generation unit 124 may change the method of complementing between the first position information and the second position information according to the event or purpose.

また、上記の各実施形態において、情報処理装置10(10a)は、生成した移動軌跡を、様々な視線、向きに変換して、表示部(不図示)などに表示するようにしてもよい。例えば、軌跡生成部124は、野球のキャッチャーやサッカーのキーパの目線に移動軌跡を変換して表示させるようにしてもよいし、バレーボールやテニス、バドミントンなどでサーブを受ける選手目線でのボールやシャトルの軌道に移動軌跡を変換して、表示させるようにしてもよい。   Further, in each of the above embodiments, the information processing device 10 (10a) may convert the generated movement trajectory into various lines of sight and directions and display it on a display unit (not shown). For example, the trajectory generation unit 124 may convert the movement trajectory into a line of sight of a baseball catcher or a soccer keeper, and may display the trajectory. The trajectory may be converted to a trajectory and displayed.

また、上記の各実施形態において、情報処理装置10(10a)は、自転車のトラック競技、スピードスケートなど、屋内競技において、移動物体の軌道を取得したい場合に、簡易な設備で対応することができる。また、陸上の中長距離での速度計測において、コーナー付近は選手が重なった場合など、映像だけでは判別し難く、従来技術では、何台もカメラが必要となる状況で、キャリブレーションが困難である。情報処理装置10(10a)は、このような場合であっても、簡易な設備で移動軌跡を取得することができる。   Further, in each of the above embodiments, the information processing apparatus 10 (10a) can cope with a case where it is desired to acquire the trajectory of a moving object in an indoor competition such as a bicycle track competition or a speed skating with simple equipment. . In addition, in speed measurement on medium and long distances on land, it is difficult to determine only by video, such as when players are overlapping near the corner, and with the conventional technology, calibration is difficult in situations where many cameras are required. is there. Even in such a case, the information processing apparatus 10 (10a) can acquire the movement trajectory with simple equipment.

また、上記の各実施形態の情報処理装置10(10a)を使用することで、報道カメラなどの操作において、以下のことに対応することができる。
例えば、当該選手、もしくはボールのみを常に追従撮影するようにカメラを操作することができる。また、人間の目では追えない程の速さで移動するボールやシャトルなどが目立つように映像加工することができる。
In addition, by using the information processing apparatus 10 (10a) of each of the above embodiments, the following can be handled in the operation of the news camera or the like.
For example, the camera can be operated so that the player or only the ball is always tracked and photographed. Also, the image processing can be performed so that a ball or shuttle moving at a speed that cannot be followed by human eyes is conspicuous.

また、上記の各実施形態において、情報処理装置10(10a)は、位置情報と移動軌跡とを利用することで、スキージャンプにおける移動軌跡及び飛行距離の計測や、陸上、競泳、スピードスケート、等の記録測定を行うようにしてもよい。   In each of the above embodiments, the information processing device 10 (10a) uses the position information and the movement trajectory to measure the movement trajectory and flight distance in ski jumping, land, swimming, speed skating, and the like. May be performed.

また、上記の第2の実施形態において、プレー判定部126は、位置情報及び移動軌跡、骨格・関節の動き、及び周辺領域の軌跡から、プレー判定として、以下の処理を行ってもよい。
例えば、プレー判定部126は、サッカーなどのセットプレー時のフォーメーションの変化を通知するようにしてもよいし、アーチェリー等のフォームのみで的に当たる成功率を予測するようにしてもよい。また、プレー判定部126は、アーチェリー、ウェイトリフティング等のフォームのみでコンディション、疲れ具合を推定するようにしてもよい。また、プレー判定部126は、バスケットのスクリーンプレー、バレーボールのブロック等、ボールを保持していない選手のプレーを判定するようにしてもよいし、陸上競技において、骨格・関節の動きからピッチとストライドとを自動計測するようにしてもよい。
In the second embodiment, the play determination unit 126 may perform the following processing as the play determination from the position information and the movement trajectory, the movement of the skeleton / joint, and the trajectory of the surrounding area.
For example, the play determination unit 126 may notify a change in formation during a set play such as soccer, or may predict a success rate of hitting only with a form such as archery. Further, the play determination unit 126 may estimate the condition and the degree of fatigue only with a form such as archery or weight lifting. The play determination unit 126 may determine the play of a player who does not hold the ball, such as basketball play, volleyball block, and the like, and in athletics, pitch and stride based on movement of the skeleton and joints. May be automatically measured.

また、上記の第2の実施形態において、プレー評価部127は、プレー判定結果と、過去の移動軌跡とに基づいて、技や競技の成功率を予測するようにしてもよい。プレー評価部127は、例えば、フィギュアスケートのジャンプや体操の技などの成功率を予測するようにしてもよい。また、プレー評価部127は、例えば、ウェイトリフティングにおいて、バーベルの軌跡と骨格・関節の動きから、成功率を予測するようにしてもよい。これによりフォームを適切に管理することができる。   In the second embodiment, the play evaluation unit 127 may predict a success rate of a technique or a game based on a play determination result and a past movement locus. The play evaluation unit 127 may predict, for example, a success rate of a figure skating jump or gymnastics technique. Further, for example, in the weight lifting, the play evaluation unit 127 may predict the success rate from the trajectory of the barbell and the movement of the skeleton / joint. Thereby, the form can be appropriately managed.

また、上記の第2の実施形態において、プレー評価部127は、対象物の位置、識別された各種対象物の軌跡、及び評価データを可視化するようにしてもよい。プレー評価部127は、図12に示すような表示画面(画像G2)を表示するようにしてもよい。   In the second embodiment, the play evaluation unit 127 may visualize the position of the target, the trajectories of the identified various targets, and the evaluation data. The play evaluation section 127 may display a display screen (image G2) as shown in FIG.

図12は、第2の実施形態によるプレー判定システム1aの変形例における表示画面の一例を示す図である。
プレー評価部127は、可視化アプリケーションとして、画像G2に示すように、以下に示すような各種情報を表示部(不図示)に表示させる。
プレー評価部127は、可視化アプリケーションとして、例えば、1つの映像もしくは、映像内の時間範囲を指定することで、当該部分の映像及び、位置のデータ、及び不随する評価データを表示する。また、画像G2において、映像、位置データ、及び評価データは、表示/非表示の選択が可能である。
FIG. 12 is a diagram illustrating an example of a display screen in a modification of the play determination system 1a according to the second embodiment.
The play evaluation unit 127 causes the display unit (not shown) to display various types of information as described below as a visualization application, as shown in an image G2.
As a visualization application, for example, by specifying one video or a time range in the video, the play evaluation unit 127 displays the video, the position data, and the accompanying evaluation data of the portion. In the image G2, display / non-display of the video, the position data, and the evaluation data can be selected.

また、プレー評価部127は、可視化アプリケーションにおいて、位置データとして、選手やボール、ラケットなど用具の対象エリアにおける位置の移動を表示するとともに、位置データには、識別された識別情報(例えば、識別ID)を表示する。また、プレー評価部127は、可視化アプリケーションの機能として、例えば、映像と位置データは時刻同期されて表示させる、評価データとして、選手ごとのトラッキングデータ(追跡した移動軌跡)を表示させる、選手のジャンプ回数や高さ、最高スピード、スプリント回数等の統計データを表示させる、などの処理を実行する。   In the visualization application, the play evaluation unit 127 displays the movement of the position of the player, the ball, the racket, or the like in the target area as the position data, and the position data includes the identified identification information (for example, the identification ID). ) Is displayed. In addition, the play evaluation unit 127 includes, as functions of the visualization application, for example, displaying the video and the position data in synchronization with each other, displaying tracking data (tracked movement locus) for each player as evaluation data, and jumping the player. Processing such as displaying statistical data such as the number of times, the height, the maximum speed, and the number of sprints is executed.

また、プレー評価部127は、可視化アプリケーションの機能として、例えば、スピード曲線であれば、映像と位置データ、グラフ中の点データを連動させて表示させる、選手別のデータの他に、チーム別の統計データを表示させる、グラフ等の統計表示以外に、表によるテーブルを表示させる、などの処理を実行する。また、プレー評価部127は、可視化アプリケーションの機能として、例えば、評価データには、ボールやラケットなど用具のデータを表示させてもよいし、例えば、ボールのスピード、回転数、スピン種別や、ラケットのスピード、ショット種別、インパクト位置、ショットパワーのデータなどを表示させてもよい。   Further, the play evaluation unit 127 includes, as a function of the visualization application, for example, in the case of a speed curve, video and position data, and point data in a graph are displayed in association with each other. Processing such as displaying statistical data, displaying a table as a table in addition to displaying statistics such as graphs, and the like is executed. The play evaluation unit 127 may display equipment data such as a ball and a racket in the evaluation data as a function of the visualization application. For example, the play evaluation unit 127 may display the speed, the number of revolutions, the spin type, and the racket of the ball. Speed, shot type, impact position, shot power data, etc. may be displayed.

次に、図13を参照して、プレー判定システム1aにおける映像と評価データを可視化する別の変形例について説明する。
また、図13は、第2の実施形態によるプレー判定システム1aの別の変形例を示す図である。
Next, another modified example of visualizing the video and the evaluation data in the play determination system 1a will be described with reference to FIG.
FIG. 13 is a diagram showing another modification of the play determination system 1a according to the second embodiment.

この図において、プレー判定システム1aは、バレーのコートAR4の上部に設置されたスクリーン40(表示部の一例)を備えている。情報処理装置10aは、スクリーン40に撮像装置30が撮像した映像を表示させるとともに、プレーに付随する評価データを重ねて表示させる(図13の画像G3)。情報処理装置10aは、例えば、バレーボールであれば、画像G3に示すように、アタックの打点高、球速、球角度等を表示させる。また、情報処理装置10aは、映像上に重ねる評価データの内容及び表示位置をユーザが指定できるものとする。また、複数台の撮像装置30を使用して計測する場合には、情報処理装置10aは、どの撮像装置30の映像をスクリーン40に表示させるかを、ユーザが指定できるものとする。また、表示部の一例として、スクリーン40を用いる例を説明するが、コートAR4の周辺に設置された表示装置であれば、他のディスプレイ、スクリーン、表示装置、等であってもよい。   In this figure, the play determination system 1a includes a screen 40 (an example of a display unit) installed above the valley court AR4. The information processing device 10a displays the video imaged by the imaging device 30 on the screen 40, and also displays the evaluation data accompanying the play in a superimposed manner (image G3 in FIG. 13). For example, in the case of a volleyball, the information processing device 10a displays an attack hitting height, a ball speed, a ball angle, and the like as shown in an image G3. In addition, the information processing device 10a allows the user to specify the content and display position of the evaluation data to be superimposed on the video. When measurement is performed using a plurality of imaging devices 30, the information processing device 10 a can specify which imaging device 30 displays an image on the screen 40 by a user. In addition, an example in which the screen 40 is used as an example of the display unit will be described. However, any other display, screen, display device, or the like may be used as long as the display device is installed around the court AR4.

なお、評価データの表示には、計測、及び判定処理を要するため、スクリーン40に表示される映像は、リアルタイムより遅延して再生される場合がある。その場合、情報処理装置10aは、評価データの表示の遅延時間、及び評価データの表示を維持する時間を、ユーザが設定できるようにしてもよい。この場合、例えば、アタック練習で遅延時間を5秒と設定され、複数人の選手が次々にアタックした場合、自分がアタックした後に、スクリーン40で今の自分の評価データやフォームを確認することができる。
また、例えば、フォーメーション練習を行う際に、遅延時間を20秒と設定し、レシーブ、トス、及びアタックの一連のプレーを、プレー後にスクリーン40等のディスプレイで確認することができる。
In addition, since the display of the evaluation data requires measurement and determination processing, the video displayed on the screen 40 may be reproduced later than real time. In that case, the information processing apparatus 10a may allow the user to set a delay time for displaying the evaluation data and a time for maintaining the display of the evaluation data. In this case, for example, if the delay time is set to 5 seconds in the attack practice, and a plurality of players attack one after another, it is possible to check their own evaluation data and form on the screen 40 after the attack. it can.
Further, for example, when performing formation practice, the delay time is set to 20 seconds, and a series of plays of receive, toss, and attack can be confirmed on a display such as the screen 40 after play.

また、上記の第2の実施形態において、情報処理装置10aは、プレー評価部127によって生成及び蓄積された評価データを、ユーザの指定によって、テキストデータ、又はCSVファイル、等により外部に出力させるようにしてもよい。この場合、評価データは、例えば、1試合でのアタックの打点高の推移、アタック時のブロックの枚数と成功率、1日の練習におけるジャンプの回数及び高さ、等である。プレー判定システム1aでは、これらの評価データを外部に出力することにより、アナリストやコーチが、出力されたデータからゲーム分析やトレーニング評価を効率良く行うことができる。   In the second embodiment, the information processing apparatus 10a outputs the evaluation data generated and stored by the play evaluation unit 127 to the outside by text data or a CSV file according to a user's specification. It may be. In this case, the evaluation data includes, for example, the transition of the hit point height of the attack in one game, the number and the success rate of the blocks at the time of the attack, the number and the height of the jumps in the practice in one day, and the like. In the play determination system 1a, by outputting these evaluation data to the outside, an analyst or a coach can efficiently perform a game analysis or a training evaluation from the output data.

なお、上述した位置追跡システム1及びプレー判定システム1aが備える各構成は、内部に、コンピュータシステムを有している。そして、上述した位置追跡システム1及びプレー判定システム1aが備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した位置追跡システム1及びプレー判定システム1aが備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each of the components included in the position tracking system 1 and the play determination system 1a has a computer system therein. Then, a program for realizing the functions of the components provided in the position tracking system 1 and the play determination system 1a is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system. Then, the processing in each configuration of the position tracking system 1 and the play determination system 1a described above may be performed by executing the processing. Here, "to make the computer system read and execute the program recorded on the recording medium" includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices.
Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, a WAN, a LAN, and a dedicated line. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に位置追跡システム1及びプレー判定システム1aが備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The recording medium also includes an internal or external recording medium accessible from the distribution server for distributing the program. It should be noted that the program is divided into a plurality of parts, and after being downloaded at different timings, the configuration combined with each configuration provided in the position tracking system 1 and the play determination system 1a, and the distribution server that distributes each of the divided programs is different. You may. Further, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) in a computer system serving as a server or a client when the program is transmitted via a network. Shall be included. Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Further, some or all of the above functions may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the above-described functions may be individually formed into a processor, or a part or all of the functions may be integrated into a processor. The method of circuit integration is not limited to an LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where a technology for forming an integrated circuit that replaces the LSI appears due to the advance of the semiconductor technology, an integrated circuit based on the technology may be used.

1…位置追跡システム、1a…プレー判定システム、10,10a…情報処理装置、11,11a…記憶部、12,12a…制御部、20…レーザレーダ装置、30…撮像装置、40…スクリーン、111…レーダ検出記憶部、112…画像情報記憶部、113…対象物情報記憶部、114…移動軌跡記憶部、115…対象物軌跡記憶部、116…骨格関節情報記憶部、117…判定器情報記憶部、118…判定結果記憶部、121…データ取得部、122…画像処理部、123…識別処理部、124…軌跡生成部、125…骨格推定部、126…プレー判定部、127…プレー評価部   DESCRIPTION OF SYMBOLS 1 ... Position tracking system, 1a ... Play determination system, 10, 10a ... Information processing device, 11, 11a ... Storage part, 12, 12a ... Control part, 20 ... Laser radar device, 30 ... Imaging device, 40 ... Screen, 111 ... Radar detection storage unit, 112 ... Image information storage unit, 113 ... Object information storage unit, 114 ... Moving trajectory storage unit, 115 ... Object trajectory storage unit, 116 ... Skeletal joint information storage unit, 117 ... Determiner information storage Unit, 118: determination result storage unit, 121: data acquisition unit, 122: image processing unit, 123: identification processing unit, 124: trajectory generation unit, 125: skeleton estimation unit, 126: play determination unit, 127: play evaluation unit

Claims (6)

対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、
前記対象エリアを含む画像を撮像する撮像装置と、
前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得部と、
前記取得部が取得した前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理部と、
前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成部と
を備えることを特徴とする位置追跡システム。
By irradiating the target area with a wave, based on the reflected wave from the object, a detection device that detects at least detection information including a distance and a direction to the object,
An imaging device that captures an image including the target area;
An acquisition unit that acquires and synchronizes the detection information detected by the detection device and image information representing an image captured by the imaging device,
Corresponding to the position of the object detected based on the detection information obtained by the obtaining unit, based on the partial image in the image information, the object is identified as a measurement target, the identified measurement target object On the other hand, an identification processing unit that gives identification information for identifying the measurement object,
The detection information and the position information of the measurement target in the target area generated based on the image information, and the identification information given by the identification processing unit are associated with each other, and the movement locus of the measurement target is And a trajectory generation unit that generates the position tracking system.
前記検出情報には、前記物体の輪郭が含まれ、
前記識別処理部は、前記検出装置が検出した前記物体の輪郭に基づいて、前記画像情報における前記部分画像を抽出し、抽出した前記部分画像に基づいて、前記物体を計測対象物として識別する
ことを特徴とする請求項1に記載の位置追跡システム。
The detection information includes a contour of the object,
The identification processing unit extracts the partial image in the image information based on a contour of the object detected by the detection device, and identifies the object as a measurement target based on the extracted partial image. The position tracking system according to claim 1, wherein:
前記計測対象物には、対象人物が含まれ、
前記識別処理部は、前記対象人物を前記計測対象物として識別する場合に、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別する
ことを特徴とする請求項1又は請求項2に記載の位置追跡システム。
The measurement object includes a target person,
The said identification processing part, when identifying the said target person as the said measurement target object, identifies the said target person based on the image recognition of the face or the clothing of the said target person. The said person is characterized by the above-mentioned. 3. The position tracking system according to 2.
前記識別処理部は、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別できない場合に、前記部分画像に基づいて、前記対象人物の骨格又は関節を推定し、推定した前記骨格又は前記関節と、予め定められた前記対象人物の骨格又は関節の特徴とに基づいて、前記対象人物を識別する
ことを特徴とする請求項3に記載の位置追跡システム。
The identification processing unit, when the target person cannot be identified based on the image recognition of the face or clothes of the target person, estimates the skeleton or joint of the target person based on the partial image, and estimates the estimated skeleton. 4. The position tracking system according to claim 3, wherein the target person is identified based on the joint and a predetermined characteristic of a skeleton or a joint of the target person. 5.
前記軌跡生成部は、前記検出情報に基づく前記対象エリアにおける前記物体の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記計測対象物の位置情報である第2位置情報とを相互に補完して、前記計測対象物の位置情報を補正し、補正した前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の位置追跡システム。
The trajectory generation unit is configured to include first position information that is position information of the object in the target area based on the detection information, and second position information that is position information of the measurement target in the target area based on the image information. And the position information of the measurement object is corrected, and the corrected position information of the measurement object is associated with the identification information given by the identification processing unit, and the measurement object is corrected. The position tracking system according to any one of claims 1 to 4, wherein the movement trajectory is generated.
対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、前記対象エリアを含む画像を撮像する撮像装置とを備える位置追跡システムの位置追跡方法であって、
取得部が、前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得ステップと、
識別処理部が、前記取得ステップによって取得された前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理ステップと、
軌跡生成部が、前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理ステップによって付与された前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成ステップと
を含むことを特徴とする位置追跡方法。
By irradiating a wave to the target area, based on a reflected wave from the object, a detection device that detects detection information including at least the distance and direction to the object, and an imaging device that captures an image including the target area A location tracking method for a location tracking system comprising:
An acquisition unit configured to acquire and synchronize the detection information detected by the detection device with image information representing an image captured by the imaging device;
An identification processing unit that identifies the object as a measurement target based on a partial image in the image information corresponding to a position of the object detected based on the detection information acquired in the acquiring step, An identification processing step of assigning identification information for identifying the measurement object to the measurement object,
The trajectory generation unit associates the detection information and the position information of the measurement target in the target area generated based on the image information with the identification information given by the identification processing step, A trajectory generation step of generating a movement trajectory of the measurement target.
JP2018157773A 2018-08-24 2018-08-24 Position tracking system and position tracking method Active JP6596804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157773A JP6596804B1 (en) 2018-08-24 2018-08-24 Position tracking system and position tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157773A JP6596804B1 (en) 2018-08-24 2018-08-24 Position tracking system and position tracking method

Publications (2)

Publication Number Publication Date
JP6596804B1 JP6596804B1 (en) 2019-10-30
JP2020030190A true JP2020030190A (en) 2020-02-27

Family

ID=68383190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157773A Active JP6596804B1 (en) 2018-08-24 2018-08-24 Position tracking system and position tracking method

Country Status (1)

Country Link
JP (1) JP6596804B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215116A1 (en) * 2021-04-05 2022-10-13 富士通株式会社 Information processing program, device, and method
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system
WO2024039168A1 (en) * 2022-08-16 2024-02-22 한화비전 주식회사 Method for monitoring guest usage status by using at least one camera, and device supporting same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242016A (en) * 2020-01-10 2020-06-05 深圳数联天下智能科技有限公司 Clothes management method, control device, wardrobe and computer-readable storage medium
CN116703983B (en) * 2023-06-14 2023-12-19 石家庄铁道大学 Combined shielding target detection and target tracking method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352988A (en) * 2004-06-14 2005-12-22 Univ Of Tokyo Image extracting apparatus
WO2011070650A1 (en) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP2012163495A (en) * 2011-02-08 2012-08-30 Hitachi Ltd Sensor integration system and sensor integration method
JP2016148935A (en) * 2015-02-10 2016-08-18 株式会社デンソー Traveling locus selection system and traveling locus selection method
JP2017040530A (en) * 2015-08-19 2017-02-23 株式会社日立製作所 Moving body measurement system
JP2018055427A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
CN108152808A (en) * 2017-11-23 2018-06-12 安徽四创电子股份有限公司 A kind of circumference intelligent predicting method for early warning based on millimetre-wave radar

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352988A (en) * 2004-06-14 2005-12-22 Univ Of Tokyo Image extracting apparatus
WO2011070650A1 (en) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP2012163495A (en) * 2011-02-08 2012-08-30 Hitachi Ltd Sensor integration system and sensor integration method
JP2016148935A (en) * 2015-02-10 2016-08-18 株式会社デンソー Traveling locus selection system and traveling locus selection method
JP2017040530A (en) * 2015-08-19 2017-02-23 株式会社日立製作所 Moving body measurement system
JP2018055427A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
CN108152808A (en) * 2017-11-23 2018-06-12 安徽四创电子股份有限公司 A kind of circumference intelligent predicting method for early warning based on millimetre-wave radar

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215116A1 (en) * 2021-04-05 2022-10-13 富士通株式会社 Information processing program, device, and method
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system
WO2024039168A1 (en) * 2022-08-16 2024-02-22 한화비전 주식회사 Method for monitoring guest usage status by using at least one camera, and device supporting same

Also Published As

Publication number Publication date
JP6596804B1 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
JP6704606B2 (en) Judgment system and judgment method
JP6596804B1 (en) Position tracking system and position tracking method
US11049258B2 (en) Stereoscopic image capture with performance outcome prediction in sporting environments
US20200334838A1 (en) Determining x,y,z,t biomechanics of moving actor with multiple cameras
US10886017B2 (en) Analysis system and analysis method
JP5799442B2 (en) Virtual golf simulation apparatus and method
KR102205639B1 (en) Golf ball tracking system
US20100030350A1 (en) System and Method for Analyzing Data From Athletic Events
US12002222B2 (en) Device for calculating flight information of ball, method of calculating flight information of ball, and computing-device-readable recording medium having the method recorded therein
CN105745695B (en) Method, analyzer and the system assessed automatically for the progress to exercise motion
US11850498B2 (en) Kinematic analysis of user form
JP6677319B2 (en) Sports motion analysis support system, method and program
Foina et al. Player Tracker-a tool to analyze sport players using RFID
Peacock et al. Is there a sweet spot on the foot in Australian football drop punt kicking?
JP6760610B2 (en) Position measurement system and position measurement method
RU2599699C1 (en) Method of detecting and analysing competition game activities of athletes
US11103760B2 (en) Line fault detection systems and method for determining whether a sport gaming device has bounced off an area of a sports field
JP7054950B1 (en) Position measurement system and position measurement method
Monier et al. A computer vision based tracking system for indoor team sports
Chakraborty et al. Deep Learning-Based Prediction of Football Players’ Performance During Penalty Shootout
Krzeszowski et al. Monocular tracking of human motion in evaluation of hurdle clearance
US20220343649A1 (en) Machine learning for basketball rule violations and other actions
US12002214B1 (en) System and method for object processing with multiple camera video data using epipolar-lines
Buote et al. Quantifying motion and ‘T’dominance of elite squash players
WO2022056315A1 (en) System and method for capture and analysis of sporting performance data and broadcast of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190913

R150 Certificate of patent or registration of utility model

Ref document number: 6596804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350