JP6596804B1 - Position tracking system and position tracking method - Google Patents

Position tracking system and position tracking method Download PDF

Info

Publication number
JP6596804B1
JP6596804B1 JP2018157773A JP2018157773A JP6596804B1 JP 6596804 B1 JP6596804 B1 JP 6596804B1 JP 2018157773 A JP2018157773 A JP 2018157773A JP 2018157773 A JP2018157773 A JP 2018157773A JP 6596804 B1 JP6596804 B1 JP 6596804B1
Authority
JP
Japan
Prior art keywords
information
image
target
target person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018157773A
Other languages
Japanese (ja)
Other versions
JP2020030190A (en
Inventor
伸平 相原
みのり 澤田
栄夫 小倉
雄大 吉田
Original Assignee
独立行政法人日本スポーツ振興センター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 独立行政法人日本スポーツ振興センター filed Critical 独立行政法人日本スポーツ振興センター
Priority to JP2018157773A priority Critical patent/JP6596804B1/en
Application granted granted Critical
Publication of JP6596804B1 publication Critical patent/JP6596804B1/en
Publication of JP2020030190A publication Critical patent/JP2020030190A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】処理負荷を抑えつつ、計測対象物の位置を高精度に追跡する。【解決手段】位置追跡システムは、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する検出装置と、対象エリアを含む画像を撮像する撮像装置と、検出装置が検出した検出情報と、撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得部と、取得部が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を計測対象物として識別し、識別した計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理部と、検出情報と、画像情報とに基づいて生成した対象エリアにおける計測対象物の位置情報と、識別処理部が付与した識別情報とを対応付けて、計測対象物の移動軌跡を生成する軌跡生成部とを備える。【選択図】図1An object of the present invention is to accurately track the position of a measurement object while suppressing a processing load. A position tracking system irradiates a target area with a wave and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object, and an image including the target area An acquisition unit that acquires and synchronizes detection information detected by the detection device, image information representing an image captured by the imaging device, and detection information acquired by the acquisition unit An identification processing unit that identifies an object as a measurement object based on a partial image in image information corresponding to the position of the object, and provides identification information for identifying the measurement object to the identified measurement object; The position trajectory of the measurement object in the target area generated based on the detection information and the image information is associated with the identification information given by the identification processing unit to generate a movement trajectory of the measurement object And a trajectory generation unit. [Selection] Figure 1

Description

本発明は、位置追跡システム、及び位置追跡方法に関する。   The present invention relates to a position tracking system and a position tracking method.

近年、スポーツにおいて、人物や物体などの計測対象物の位置を計測し、計測対象物の位置を追跡する位置追跡システムが知られている(例えば、特許文献1を参照)。このような位置追跡システムでは、複数のカメラから撮像された画像に基づいて、測定対象物の位置を計測していた。   In recent years, in sports, a position tracking system that measures the position of a measurement target such as a person or an object and tracks the position of the measurement target is known (see, for example, Patent Document 1). In such a position tracking system, the position of the measurement object is measured based on images taken from a plurality of cameras.

特開2013−58132号公報JP 2013-58132 A

しかしながら、上述した従来の位置追跡システムでは、画像から測定対象物の位置を検出しているため、例えば、測定対象物が重なった際に測定対象物の位置を検出するためにより多くのカメラで画像を撮像する必要があった。そのため、従来の位置追跡システムでは、画像処理による位置計測の処理負荷が高く、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することが困難であった。   However, in the conventional position tracking system described above, the position of the measurement object is detected from the image. For example, when the measurement object is overlapped, the position of the measurement object is detected by more cameras. It was necessary to image. Therefore, in the conventional position tracking system, the processing load of position measurement by image processing is high, and it is difficult to track the position of the measurement object with high accuracy while suppressing the processing load.

本発明は、上記問題を解決すべくなされたもので、その目的は、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる位置追跡システム、及び位置追跡方法を提供することにある。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a position tracking system and a position tracking method capable of tracking the position of a measurement object with high accuracy while suppressing processing load. There is.

上記問題を解決するために、本発明の一態様は、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、前記対象エリアを含む画像を撮像する撮像装置と、前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得部と、前記取得部が取得した前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理部と、前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成部とを備えることを特徴とする位置追跡システムである。   In order to solve the above-described problem, an aspect of the present invention provides a detection device that irradiates a target area with a wave and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object. An acquisition unit that acquires and synchronizes the imaging device that captures an image including the target area, the detection information detected by the detection device, and image information that represents the image captured by the imaging device, and the acquisition The object is identified as a measurement object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the unit, and the identified measurement object An identification processing unit for providing identification information for identifying the measurement object, position information of the measurement object in the target area generated based on the detection information, and the image information; In association with the identification information whose serial identification processor has given a position tracking system, characterized in that it comprises a trajectory generator for generating a movement trajectory of the measurement object.

本発明の一態様は、上記の位置追跡システムにおいて、前記検出情報には、前記物体の輪郭が含まれ、前記識別処理部は、前記検出装置が検出した前記物体の輪郭に基づいて、前記画像情報における前記部分画像を抽出し、抽出した前記部分画像に基づいて、前記物体を計測対象物として識別することを特徴とする。   According to an aspect of the present invention, in the position tracking system, the detection information includes a contour of the object, and the identification processing unit is configured to detect the image based on the contour of the object detected by the detection device. The partial image in the information is extracted, and the object is identified as a measurement target based on the extracted partial image.

本発明の一態様は、上記の位置追跡システムにおいて、前記計測対象物には、対象人物が含まれ、前記識別処理部は、前記対象人物を前記計測対象物として識別する場合に、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別することを特徴とする。   One aspect of the present invention is the position tracking system, wherein the measurement target includes a target person, and the identification processing unit identifies the target person when the target person is identified as the measurement target. The target person is identified based on the image recognition of the face or clothes.

本発明の一態様は、上記の位置追跡システムにおいて、前記識別処理部は、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別できない場合に、前記部分画像に基づいて、前記対象人物の骨格又は関節を推定し、推定した前記骨格又は前記関節と、予め定められた前記対象人物の骨格又は関節の特徴とに基づいて、前記対象人物を識別することを特徴とする。   According to an aspect of the present invention, in the position tracking system, the identification processing unit can identify the target person based on the image recognition of the target person's face or clothes, based on the partial image, A target person's skeleton or joint is estimated, and the target person is identified based on the estimated skeleton or joint and a predetermined characteristic of the target person's skeleton or joint.

本発明の一態様は、上記の位置追跡システムにおいて、前記軌跡生成部は、前記検出情報に基づく前記対象エリアにおける前記物体の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記計測対象物の位置情報である第2位置情報とを相互に補完して、前記計測対象物の位置情報を補正し、補正した前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成することを特徴とする。   One aspect of the present invention is the position tracking system, wherein the trajectory generation unit includes first position information that is position information of the object in the target area based on the detection information, and the target area based on the image information. The position information of the measurement object is corrected by mutually complementing the second position information, which is the position information of the measurement object, and the corrected position information of the measurement object is provided by the identification processing unit The movement trajectory of the measurement object is generated in association with the identification information.

本発明の一態様は、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、前記対象エリアを含む画像を撮像する撮像装置とを備える位置追跡システムの位置追跡方法であって、取得部が、前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得ステップと、識別処理部が、前記取得ステップによって取得された前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理ステップと、軌跡生成部が、前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理ステップによって付与された前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成ステップとを含むことを特徴とする位置追跡方法である。   According to one embodiment of the present invention, a detection device that irradiates a target area with waves and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object, and an image including the target area A position tracking method of a position tracking system including an image pickup device that picks up an image, wherein the acquisition unit acquires the detection information detected by the detection device and image information representing an image picked up by the image pickup device. The acquisition step to synchronize, and the identification processing unit measures the object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the acquisition step. An identification processing step for identifying the object to be measured, and adding identification information for identifying the object to be measured to the identified object to be measured; A trajectory for generating a movement trajectory of the measurement object by associating the position information of the measurement target in the target area generated based on the image information with the identification information given by the identification processing step. A position tracking method including a generation step.

本発明によれば、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。   According to the present invention, it is possible to track the position of the measurement object with high accuracy while suppressing the processing load.

第1の実施形態による位置追跡システムの一例を示すブロック図である。It is a block diagram which shows an example of the position tracking system by 1st Embodiment. 第1の実施形態におけるレーザレーダ装置及び撮像装置の設置例を示す図である。It is a figure which shows the example of installation of the laser radar apparatus and imaging device in 1st Embodiment. 第1の実施形態における対象物情報記憶部のデータ例を示す図である。It is a figure which shows the example of data of the target object information storage part in 1st Embodiment. 第1の実施形態における移動軌跡記憶部のデータ例を示す図である。It is a figure which shows the example of data of the movement locus | trajectory memory | storage part in 1st Embodiment. 第1の実施形態における対象物軌跡記憶部のデータ例を示す図である。It is a figure which shows the example of data of the target object locus | trajectory memory | storage part in 1st Embodiment. 第1の実施形態における移動軌跡の生成処理の一例を説明する図である。It is a figure explaining an example of the production | generation process of the movement locus | trajectory in 1st Embodiment. 第1の実施形態における3次元座標の算出処理の一例を説明する図である。It is a figure explaining an example of the calculation process of the three-dimensional coordinate in 1st Embodiment. 第1の実施形態における対象人物の識別処理の一例を説明する図である。It is a figure explaining an example of the identification process of the object person in 1st Embodiment. 第1の実施形態による位置追跡システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the position tracking system by 1st Embodiment. 第2の実施形態によるプレー判定システムの一例を示すブロック図である。It is a block diagram which shows an example of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの変形例における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in the modification of the play determination system by 2nd Embodiment. 第2の実施形態によるプレー判定システムの別の変形例を示す図である。It is a figure which shows another modification of the play determination system by 2nd Embodiment.

以下、本発明の実施形態による位置追跡システム(位置計測システム)及びプレー判定システムについて、図面を参照して説明する。   Hereinafter, a position tracking system (position measurement system) and a play determination system according to embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態による位置追跡システム1の一例を示すブロック図である。
図1に示すように、位置追跡システム1は、情報処理装置10と、レーザレーダ装置20と、撮像装置30とを備える。位置追跡システム1は、位置計測システムの一例である。
[First Embodiment]
FIG. 1 is a block diagram showing an example of a position tracking system 1 according to the first embodiment.
As illustrated in FIG. 1, the position tracking system 1 includes an information processing device 10, a laser radar device 20, and an imaging device 30. The position tracking system 1 is an example of a position measurement system.

レーザレーダ装置20(検出装置の一例)は、対象エリアにレーザ光(例えば、近赤外線などのレーザ光)を照射して、物体からの反射光に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出するライダ装置である。ここで、対象エリアは、例えば、スポーツを行う競技場であるコート、試合場、等である。レーザレーダ装置20は、物体からの反射光に基づいて、対象エリア内の物体を検出し、物体までの距離及び方向の他に、例えば、物体の輪郭、物体の表面の形状などの各種情報を検出する。レーザレーダ装置20は、例えば、レーザ光の照射から物体に反射した反射光を受光するまでのレーザ光の移動時間から物体までの距離を検出するTOF(Time of Flight)方式により、物体までの距離を検出する。レーザレーダ装置20は、検出した検出情報を、情報処理装置10に出力する。   The laser radar device 20 (an example of a detection device) irradiates a target area with laser light (for example, laser light such as near infrared rays) and includes at least a distance and a direction to the object based on reflected light from the object. It is a lidar device that detects detection information. Here, the target area is, for example, a court or a game arena where sports are performed. The laser radar device 20 detects an object in the target area based on the reflected light from the object, and in addition to the distance and direction to the object, for example, various information such as the contour of the object and the shape of the surface of the object. To detect. The laser radar device 20 uses, for example, a distance to an object by a time of flight (TOF) system that detects the distance from the moving time of the laser light from the irradiation of the laser light to the reception of the reflected light reflected by the object. Is detected. The laser radar device 20 outputs the detected detection information to the information processing device 10.

撮像装置30は、例えば、カメラ装置などであり、対象エリアを含む画像を撮像する。撮像装置30は、撮像した画像を表す画像情報を、情報処理装置10に出力する。
なお、説明の都合上、図1において、1台のレーザレーダ装置20及び1台の撮像装置30を記載しているが、位置追跡システム1は、複数のレーザレーダ装置20及び複数の撮像装置30を備えてもよい。
The imaging device 30 is a camera device, for example, and captures an image including a target area. The imaging device 30 outputs image information representing the captured image to the information processing device 10.
For convenience of explanation, FIG. 1 shows one laser radar device 20 and one imaging device 30, but the position tracking system 1 includes a plurality of laser radar devices 20 and a plurality of imaging devices 30. May be provided.

図2は、本実施形態におけるレーザレーダ装置20及び撮像装置30の設置例を示す図である。
図2に示すように、対象エリアであるコートAR1における対象物(例えば、選手PL1)などの3次元位置座標を検出できるように、複数のレーザレーダ装置20及び複数の撮像装置30が配置されている。本実施形態では、3次元位置座標を、例えば、コートAR1の平面を直交するX軸及びY軸とし、高さ方向をZ軸として表すものとする。
FIG. 2 is a diagram illustrating an installation example of the laser radar device 20 and the imaging device 30 in the present embodiment.
As shown in FIG. 2, a plurality of laser radar devices 20 and a plurality of imaging devices 30 are arranged so that a three-dimensional position coordinate such as an object (for example, player PL1) on a court AR1 that is a target area can be detected. Yes. In the present embodiment, for example, the three-dimensional position coordinates are represented as an X axis and a Y axis orthogonal to the plane of the coat AR1, and a height direction as the Z axis.

情報処理装置10は、例えば、PC(パーソナルコンピュータ)などのコンピュータ装置である。情報処理装置10は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像情報とに基づいて、対象エリアにおける対象物の位置情報を生成し、生成した位置情報に基づいて、対象物の移動軌跡を生成する。ここで、対象物は、例えば、選手やプレーヤなどの対象人物、及びボールやラケット、ネット、ゴールなどの用具を示す対象物体などである。
また、情報処理装置10は、記憶部11と、制御部12とを備える。
The information processing apparatus 10 is a computer apparatus such as a PC (personal computer), for example. The information processing apparatus 10 generates position information of the target object in the target area based on the detection information detected by the laser radar apparatus 20 and the image information captured by the imaging apparatus 30, and based on the generated position information, A movement trajectory of the object is generated. Here, the target object is, for example, a target person such as a player or a player, and a target object indicating tools such as a ball, a racket, a net, or a goal.
Further, the information processing apparatus 10 includes a storage unit 11 and a control unit 12.

記憶部11は、情報処理装置10の各種処理に利用する情報を記憶する。記憶部11は、レーダ検出記憶部111と、画像情報記憶部112と、対象物情報記憶部113と、移動軌跡記憶部114と、対象物軌跡記憶部115とを備える。   The storage unit 11 stores information used for various processes of the information processing apparatus 10. The storage unit 11 includes a radar detection storage unit 111, an image information storage unit 112, an object information storage unit 113, a movement locus storage unit 114, and an object locus storage unit 115.

レーダ検出記憶部111は、レーザレーダ装置20が検出した検出情報と、時刻情報とを対応付けて記憶する。レーダ検出記憶部111には、後述するデータ取得部121によって、レーザレーダ装置20から取得された検出情報が、撮像装置30が撮像した画像情報と同期されて記憶される。   The radar detection storage unit 111 stores detection information detected by the laser radar device 20 and time information in association with each other. In the radar detection storage unit 111, detection information acquired from the laser radar device 20 by a data acquisition unit 121 described later is stored in synchronization with image information captured by the imaging device 30.

画像情報記憶部112は、撮像装置30が撮像した画像情報と、時刻情報とを対応付けて記憶する。画像情報記憶部112には、後述するデータ取得部121によって、撮像装置30から取得された画像情報が、レーザレーダ装置20が検出した検出情報と同期されて記憶される。   The image information storage unit 112 stores image information captured by the imaging device 30 and time information in association with each other. In the image information storage unit 112, image information acquired from the imaging device 30 by a data acquisition unit 121 described later is stored in synchronization with detection information detected by the laser radar device 20.

対象物情報記憶部113は、人物や物体である対象物を識別するための情報を記憶する。なお、ここでの対象物には、対象人物も含まれる。ここで、図3を参照して、対象物情報記憶部113が記憶するデータ例について説明する。
図3は、本実施形態における対象物情報記憶部113のデータ例を示す図である。
図3に示すように、対象物情報記憶部113は、例えば、「対象物名」と、「特徴量情報」とを対応付けて記憶する。
The object information storage unit 113 stores information for identifying an object that is a person or an object. Note that the target object includes a target person. Here, an example of data stored in the object information storage unit 113 will be described with reference to FIG.
FIG. 3 is a diagram illustrating a data example of the object information storage unit 113 in the present embodiment.
As illustrated in FIG. 3, the object information storage unit 113 stores “object name” and “feature amount information” in association with each other, for example.

ここで、「対象物名」は、対象物の名称などであり、対象物を識別する識別情報である。また、「特徴量情報」は、例えば、画像情報から対象物を識別するための特徴量を示しており、例えば、対象物を判定するための形状、色、サイズ、画像パターンなどである。また、「特徴量情報」は、対象物が特定の選手などの対象人物である場合に、顔認識のための特徴量やユニフォームなどの着衣の特徴量などであってもよい。
図3に示す例では、対象物情報記憶部113には、「対象物名」が“選手A”と、当該“選手A”の特徴量情報とが対応付けられて記憶されており、「対象物名」が“ボール”と、当該“ボール”の特徴量情報とが対応付けられて記憶されている。
Here, the “object name” is the name of the object and is identification information for identifying the object. “Feature amount information” indicates, for example, a feature amount for identifying an object from image information, and includes, for example, a shape, a color, a size, and an image pattern for determining the object. Further, the “feature information” may be a feature for face recognition or a clothing feature such as a uniform when the target is a target person such as a specific player.
In the example illustrated in FIG. 3, the “object name” is stored in the object information storage unit 113 in association with “player A” and the feature amount information of the “player A”. The “object name” is “ball” and the feature amount information of the “ball” is stored in association with each other.

図1の説明に戻り、移動軌跡記憶部114は、検出された物体の移動軌跡情報を記憶する。移動軌跡記憶部114は、例えば、検出された物体の識別情報と、時刻情報と、3次元位置座標とを対応付けて記憶する。ここで、図4を参照して、移動軌跡記憶部114が記憶するデータ例について説明する。   Returning to the description of FIG. 1, the movement trajectory storage unit 114 stores the movement trajectory information of the detected object. The movement trajectory storage unit 114 stores, for example, the detected object identification information, time information, and three-dimensional position coordinates in association with each other. Here, an example of data stored in the movement locus storage unit 114 will be described with reference to FIG.

図4は、本実施形態における移動軌跡記憶部114のデータ例を示す図である。
図4に示すように、移動軌跡記憶部114は、「識別ID」と、「時刻」と、「座標」とを対応付けて記憶する。ここで、「識別ID」は、例えば、レーザレーダ装置20によって検出された物体を識別する識別情報であり、「時刻」は、時刻情報を示す。なお、時刻情報には、日付情報が含まれていてもよい。また、「座標」は、3次元位置座標であり、例えば、図2に示すような対象エリアにおける2次元座標である。
図4に示す例では、「識別ID」が“ID1”の移動軌跡が、「時刻」と「座標」とに対応付けられて記憶されていることを示している。
FIG. 4 is a diagram illustrating an example of data in the movement trajectory storage unit 114 in the present embodiment.
As illustrated in FIG. 4, the movement trajectory storage unit 114 stores “identification ID”, “time”, and “coordinates” in association with each other. Here, “identification ID” is identification information for identifying an object detected by the laser radar device 20, for example, and “time” indicates time information. The time information may include date information. “Coordinates” are three-dimensional position coordinates, for example, two-dimensional coordinates in a target area as shown in FIG.
In the example shown in FIG. 4, it is shown that the movement locus with “ID 1” as “ID” is stored in association with “time” and “coordinates”.

再び、図1の説明に戻り、対象物軌跡記憶部115は、後述する識別処理部123が識別した対象物の識別情報と、当該対象物の移動軌跡とを対応付けて記憶する。ここで、図5を参照して、本実施形態における対象物軌跡記憶部115が記憶するデータ例について説明する。   Returning to the description of FIG. 1 again, the object trajectory storage unit 115 stores the identification information of the object identified by the identification processing unit 123 described later in association with the movement trajectory of the object. Here, with reference to FIG. 5, the data example which the target locus | trajectory memory | storage part 115 in this embodiment memorize | stores is demonstrated.

図5は、本実施形態における対象物軌跡記憶部115のデータ例を示す図である。
図5において、対象物軌跡記憶部115は、「対象物名」と、「時刻」と、「座標」とを対応付けて記憶する。ここで、「時刻」と「座標」とを対応付けた情報は、上述した移動軌跡に相当する。
図5に示す例では、「対象物名」が“選手A”に対応する移動軌跡が、「時刻」と「座標」とに対応付けられて記憶されていることを示している。なお、図5に示す例では、「対象物名」は、“選手A”であり、対象人物に対応する移動軌跡を示しているが、対象物軌跡記憶部115には、例えば、ボールやバットなどの用具(対象物体)に対応する移動軌跡を記憶するようにしてもよい。
FIG. 5 is a diagram illustrating a data example of the object locus storage unit 115 in the present embodiment.
In FIG. 5, the object trajectory storage unit 115 stores “object name”, “time”, and “coordinates” in association with each other. Here, the information in which “time” and “coordinates” are associated with each other corresponds to the above-described movement locus.
In the example illustrated in FIG. 5, the movement trajectory corresponding to the “object name” “player A” is stored in association with “time” and “coordinates”. In the example shown in FIG. 5, the “object name” is “player A” and indicates a movement locus corresponding to the object person, but the object locus storage unit 115 stores, for example, a ball or bat. A movement trajectory corresponding to a tool (target object) may be stored.

再び、図1の説明に戻り、制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、情報処理装置10を統括的に制御する。制御部12は、例えば、レーザレーダ装置20が検出した検出情報に基づく対象エリアにおける対象物の位置情報(第1位置情報)と、撮像装置30が撮像した画像情報に基づく対象エリアにおける対象物の位置情報(第2位置情報)と、を相互に補完して、対象物の移動軌跡を生成する。
制御部12は、データ取得部121と、画像処理部122と、識別処理部123と、軌跡生成部124とを備える。
Returning to the description of FIG. 1 again, the control unit 12 is a processor including, for example, a CPU (Central Processing Unit), and controls the information processing apparatus 10 in an integrated manner. The control unit 12, for example, the position information (first position information) of the target object in the target area based on the detection information detected by the laser radar device 20 and the target area in the target area based on the image information captured by the imaging device 30. The position information (second position information) is complemented with each other to generate a movement trajectory of the object.
The control unit 12 includes a data acquisition unit 121, an image processing unit 122, an identification processing unit 123, and a locus generation unit 124.

データ取得部121(取得部の一例)は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。データ取得部121は、レーザレーダ装置20から取得した検出情報と、時刻情報とを対応付けて、レーダ検出記憶部111に記憶させる。また、データ取得部121は、撮像装置30から取得した画像情報と、時刻情報とを対応付けて、画像情報記憶部112に記憶させる。データ取得部121は、レーダ検出記憶部111と、画像情報記憶部112とに時刻情報を付与することにより、検出情報と画像情報とを同期させる。   The data acquisition unit 121 (an example of an acquisition unit) acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. The data acquisition unit 121 stores the detection information acquired from the laser radar device 20 and the time information in the radar detection storage unit 111 in association with each other. In addition, the data acquisition unit 121 stores the image information acquired from the imaging device 30 and the time information in the image information storage unit 112 in association with each other. The data acquisition unit 121 synchronizes detection information and image information by adding time information to the radar detection storage unit 111 and the image information storage unit 112.

画像処理部122は、データ取得部121が取得した画像情報に基づいて、各種画像処理を実行する。画像処理部122は、例えば、画像情報に基づいて、対象エリアにおける対象物の位置情報(第2位置情報)を生成する。ここでの対象エリアにおける位置情報は、例えば、対象物の重心の座標情報である。また、画像処理部122は、例えば、レーザレーダ装置20が検出した物体に対応する部分画像を画像情報から抽出し、当該部分画像に対して、対象物情報記憶部113が記憶する特徴量に基づいて、対象物を識別する画像認識処理を実行する。画像処理部122は、例えば、特徴量による顔認識処理や特徴量によるパターン認識処理などを実行する。   The image processing unit 122 executes various image processes based on the image information acquired by the data acquisition unit 121. For example, the image processing unit 122 generates position information (second position information) of the object in the target area based on the image information. The position information in the target area here is, for example, coordinate information of the center of gravity of the target object. Further, the image processing unit 122 extracts, for example, a partial image corresponding to the object detected by the laser radar device 20 from the image information, and based on the feature amount stored in the object information storage unit 113 for the partial image. Then, an image recognition process for identifying the object is executed. The image processing unit 122 executes, for example, face recognition processing based on feature amounts, pattern recognition processing based on feature amounts, and the like.

識別処理部123は、データ取得部121が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。識別処理部123は、例えば、レーザレーダ装置20が検出した物体の輪郭に基づいて、画像情報における部分画像を抽出し、抽出した部分画像に基づいて、物体を対象物として識別する。具体的に、識別処理部123は、画像処理部122に、物体の輪郭に基づいて、部分画像を抽出させるとともに、部分画像に対する顔認識などの画像処理を実行させる。識別処理部123は、画像処理部122による画像処理の結果に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。   The identification processing unit 123 identifies the object as a target based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the data acquisition unit 121, and identifies the identified target. On the other hand, identification information for identifying the object is given. For example, the identification processing unit 123 extracts a partial image in the image information based on the contour of the object detected by the laser radar device 20, and identifies the object as a target based on the extracted partial image. Specifically, the identification processing unit 123 causes the image processing unit 122 to extract a partial image based on the contour of the object and execute image processing such as face recognition on the partial image. The identification processing unit 123 identifies an object as a target based on the result of the image processing performed by the image processing unit 122, and gives identification information for identifying the target to the identified target.

軌跡生成部124(位置計測部の一例)は、レーザレーダ装置20が検出した検出情報(例えば、物体までの距離及び方向)に基づいて、対象エリアにおける対象物の位置情報(第1位置情報)を生成する。軌跡生成部124は、生成した第1位置情報と上述した第2位置情報とに基づいて、対象物が移動した対象物の移動軌跡を生成する。すなわち、軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報に基づいて、対象物の移動軌跡を生成する。ここで、図6を参照して、軌跡生成部124による第1位置情報と、第2位置情報とを相互に補完して移動軌跡を生成する処理について説明する。   The trajectory generation unit 124 (an example of a position measurement unit) is based on detection information (for example, distance and direction to the object) detected by the laser radar device 20, and position information (first position information) of the target in the target area. Is generated. The trajectory generation unit 124 generates a movement trajectory of the object to which the object has moved based on the generated first position information and the above-described second position information. That is, the trajectory generation unit 124 complements the first position information and the second position information, corrects the position information of the object, and moves the object based on the corrected position information of the object. Generate a trajectory. Here, with reference to FIG. 6, a process for generating a movement locus by mutually complementing the first position information and the second position information by the locus generation unit 124 will be described.

図6は、本実施形態における移動軌跡の生成処理の一例を説明する図である。
図6(a)は、レーザレーダ装置20が検出した検出情報に基づく位置座標(第1位置情報)を示している。また、図6(b)は、撮像装置30が撮像した画像情報に基づく位置座標(第2位置情報)を示している。ここでは、図6(a)に示す位置座標(第1位置情報)を黒丸で示し、図6(b)に示す位置座標(第2位置情報)を白丸で示している。また、時刻t1〜t21は、各位置座標を検出した際の時刻情報を示している。なお、この例では、説明を簡略化するために、位置座標をXY軸の2次元座標で説明する。
FIG. 6 is a diagram for explaining an example of a movement locus generation process in the present embodiment.
FIG. 6A shows position coordinates (first position information) based on detection information detected by the laser radar device 20. FIG. 6B shows position coordinates (second position information) based on image information captured by the imaging device 30. Here, the position coordinates (first position information) shown in FIG. 6A are indicated by black circles, and the position coordinates (second position information) shown in FIG. 6B are indicated by white circles. Times t1 to t21 indicate time information when each position coordinate is detected. In this example, in order to simplify the description, the position coordinates will be described using two-dimensional coordinates on the XY axes.

レーザレーダ装置20は、処理負荷をかけずに正確な位置情報を計測可能であるが、サンプリング周波数が低いため、図6(a)に示す位置座標(第1位置情報)は、断続的な検出になる。また、画像情報は、連続して撮像可能であるため、図6(b)に示す位置座標(第2位置情報)は、連続的な検出になる。但し、位置座標(第2位置情報)は、画像情報から位置座標を検出する際の処理負荷が大きく、精度は、位置座標(第1位置情報)に比べて劣る。   Although the laser radar device 20 can measure accurate position information without applying a processing load, since the sampling frequency is low, the position coordinates (first position information) shown in FIG. become. Further, since the image information can be continuously captured, the position coordinates (second position information) shown in FIG. 6B are continuously detected. However, the position coordinates (second position information) have a large processing load when detecting the position coordinates from the image information, and the accuracy is inferior to the position coordinates (first position information).

また、図6(c)は、図6(a)に示す位置座標(第1位置情報)と、図6(b)に示す位置座標(第2位置情報)と重ね合わせた状態を示している。また、図6(d)は、図6(a)に示す位置座標(第1位置情報)と、図6(b)に示す位置座標(第2位置情報)とを相互に補完した軌跡を示している。すなわち、軌跡生成部124は、検出情報に基づく位置座標(第1位置情報)と、画像情報に基づく位置座標(第2位置情報)とを相互に補完して、対象物の位置座標を生成し、最終的に、図6(d)の移動軌跡L0に示すような移動軌跡を生成する。軌跡生成部124は、生成した移動軌跡を、例えば、図4に示すように、物体の識別情報と、時刻情報と、3次元位置座標とを対応付けて、移動軌跡記憶部114に記憶させる。なお、ここでの識別情報は、検出された物体に所定に規則で付与した識別IDである。
なお、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける検出情報に基づく3次元座標と、画像情報に基づく3次元座標とが一致するように配置されている。
FIG. 6C shows a state where the position coordinates (first position information) shown in FIG. 6A and the position coordinates (second position information) shown in FIG. . FIG. 6D shows a locus in which the position coordinates (first position information) shown in FIG. 6A and the position coordinates (second position information) shown in FIG. ing. That is, the trajectory generation unit 124 generates the position coordinates of the target object by mutually complementing the position coordinates (first position information) based on the detection information and the position coordinates (second position information) based on the image information. Finally, a movement locus as shown by a movement locus L0 in FIG. 6D is generated. The trajectory generation unit 124 stores the generated movement trajectory in the movement trajectory storage unit 114 in association with object identification information, time information, and three-dimensional position coordinates, for example, as shown in FIG. The identification information here is an identification ID given to the detected object according to a predetermined rule.
Note that the laser radar device 20 and the imaging device 30 are arranged so that the three-dimensional coordinates based on the detection information in the target area coincide with the three-dimensional coordinates based on the image information.

また、軌跡生成部124は、検出情報に基づく第1位置情報に基づいて対象エリアの平面上の位置情報を補正し、画像情報に基づく第2位置情報に基づいて対象エリアの高さ方向の位置情報を補正して、平面上の位置情報及び高さ方向の位置情報を含む3次元座標(3次元位置情報)を生成するようにしてもよい。ここで、図7を参照して、本実施形態による3次元座標の算出処理の一例について説明する。   Further, the trajectory generation unit 124 corrects the position information on the plane of the target area based on the first position information based on the detection information, and the position in the height direction of the target area based on the second position information based on the image information. The information may be corrected to generate three-dimensional coordinates (three-dimensional position information) including position information on the plane and position information in the height direction. Here, with reference to FIG. 7, an example of the calculation process of the three-dimensional coordinate by this embodiment is demonstrated.

図7は、本実施形態における3次元座標の算出処理の一例を説明する図である。
図7において、画像G1は、撮像装置30が撮像した画像情報を示している。ここで、コートAR2は、バレーボールのコートであり、プレーヤPL2が、ボールB1を打とうとしているものとする。このような場合、画像G1からプレーヤPL2が、ジャンプしているのか否かを判定することは困難である。
FIG. 7 is a diagram for explaining an example of the calculation process of the three-dimensional coordinates in the present embodiment.
In FIG. 7, an image G <b> 1 indicates image information captured by the imaging device 30. Here, it is assumed that the court AR2 is a volleyball court and the player PL2 is about to hit the ball B1. In such a case, it is difficult to determine whether or not the player PL2 is jumping from the image G1.

そのため、軌跡生成部124は、正確なプレーヤPL2の3次元座標を生成するために、レーザレーダ装置20が検出した検出情報に基づいて、プレーヤPL2のコートAR2におけるXY平面上の位置PT1の座標(x1,y1)を算出する。そして、軌跡生成部124は、撮像装置30が撮像した画像情報(画像G1)上のプレーヤPL2の位置から、プレーヤPL2の高さ方向(Z軸方向)の位置座標(z1)を算出し、プレーヤPL2の3次元座標(x1,y1,z1)を生成する。   Therefore, the trajectory generation unit 124 generates coordinates of the position PT1 on the XY plane in the court AR2 of the player PL2 based on the detection information detected by the laser radar device 20 in order to generate accurate three-dimensional coordinates of the player PL2. x1, y1) is calculated. Then, the trajectory generation unit 124 calculates the position coordinate (z1) in the height direction (Z-axis direction) of the player PL2 from the position of the player PL2 on the image information (image G1) captured by the imaging device 30. The three-dimensional coordinates (x1, y1, z1) of PL2 are generated.

なお、軌跡生成部124は、プレーヤPL2の位置座標(z1)を算出し、ネットNT、ポール(P1、P2)、及びコートAR2のラインLNなどと、プレーヤPL2との画面上の位置関係から、プレーヤPL2の位置座標(z1)を算出する。また、レーザレーダ装置20と、撮像装置30とは、コートAR2内のネットNT、ポール(P1、P2)、及びラインLNの位置関係から、検出情報に基づく3次元座標と、画像情報に基づく3次元座標とが一致するように配置されている。また、軌跡生成部124は、上述した処理において、第1位置情報及び第2位置情報に基づいて対象エリアの平面上の位置情報を補正するようにしてもよい。   The trajectory generation unit 124 calculates the position coordinate (z1) of the player PL2, and from the positional relationship between the net NT, the poles (P1, P2), the line LN of the court AR2, and the player PL2 on the screen, The position coordinate (z1) of the player PL2 is calculated. Further, the laser radar device 20 and the imaging device 30 are based on the positional relationship among the net NT, the poles (P1, P2), and the line LN in the court AR2, and the three-dimensional coordinates based on the detection information and the image information 3 They are arranged so that their dimensional coordinates coincide. Further, the trajectory generation unit 124 may correct the position information on the plane of the target area based on the first position information and the second position information in the above-described processing.

また、軌跡生成部124は、生成した対象エリアにおける対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。すなわち、軌跡生成部124は、移動軌跡記憶部114が記憶する物体の移動軌跡を読み出し、当該物体の移動軌跡と、識別処理部123が付与した当該物体の識別情報とを対応付けて、対象物の移動軌跡として、対象物軌跡記憶部115に記憶させる。具体的に、軌跡生成部124は、例えば、図5に示すように、対象物の識別情報(「対象物名」)と、時刻情報(「時刻」)と、3次元位置座標(「座標」)とを対応付けて、移動軌跡記憶部114に記憶させる。   In addition, the trajectory generation unit 124 generates a movement trajectory of the target object by associating the position information of the target object in the generated target area with the identification information given by the identification processing unit 123. That is, the trajectory generation unit 124 reads the movement trajectory of the object stored in the movement trajectory storage unit 114, associates the movement trajectory of the object with the identification information of the object given by the identification processing unit 123, and Is stored in the object trajectory storage unit 115. Specifically, for example, as illustrated in FIG. 5, the trajectory generation unit 124 includes identification information of an object (“object name”), time information (“time”), and three-dimensional position coordinates (“coordinates”). Are associated with each other and stored in the movement trajectory storage unit 114.

なお、識別処理部123は、対象人物を対象物として識別する場合に、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別する。すなわち、識別処理部123は、画像処理部122に識別を依頼し、画像処理部122は、対象物情報記憶部113が記憶する対象人物の顔又は着衣の特徴量に基づいて、対象人物を識別する。識別処理部123は、画像処理部122に画像認識させた結果に基づいて対象人物を識別する。
ここで、図8を参照して、識別処理部123による対象人物の識別処理について説明する。
In addition, the identification process part 123 identifies a target person based on the image recognition of a target person's face or clothes, when identifying a target person as a target object. That is, the identification processing unit 123 requests the image processing unit 122 to perform identification, and the image processing unit 122 identifies the target person based on the feature amount of the target person's face or clothing stored in the target object information storage unit 113. To do. The identification processing unit 123 identifies the target person based on the result of causing the image processing unit 122 to recognize the image.
Here, with reference to FIG. 8, the identification processing of the target person by the identification processing unit 123 will be described.

図8は、本実施形態における対象人物の識別処理の一例を説明する図である。
図8において、プレーヤPL3(選手B)とプレーヤPL4(選手A)とがコートAR3を交差して走った場合に対象人物を認識する処理について説明する。
FIG. 8 is a diagram illustrating an example of target person identification processing in the present embodiment.
In FIG. 8, a process of recognizing the target person when the player PL3 (player B) and the player PL4 (player A) run across the court AR3 will be described.

図8(a)に示すように、プレーヤPL3(選手B)とプレーヤPL4(選手A)とがコートAR3を交差した場合に、軌跡生成部124は、レーザレーダ装置20によって検出された物体に識別ID(例えば、ID1〜ID4)を付与するとともに、図8(b)に示すように、各物体の移動軌跡を生成する。図8(b)において、横軸が時間を示し、縦軸が、各物体の識別IDを示している。   As shown in FIG. 8A, when the player PL3 (player B) and the player PL4 (player A) cross the court AR3, the trajectory generator 124 identifies the object detected by the laser radar device 20. While giving ID (for example, ID1-ID4), as shown in FIG.8 (b), the movement locus | trajectory of each object is produced | generated. In FIG. 8B, the horizontal axis indicates time, and the vertical axis indicates the identification ID of each object.

また、グラフ内の○印(丸印)及び×印(バツ印)は、識別処理部123が、画像処理部122に物体の識別を依頼した時刻を示している。また、○印(丸印)は、画像処理部122によって、識別IDを付与した物体(プレーヤPL3又はプレーヤPL4)が識別できたことを示し、×印(バツ印)は、識別IDを付与した物体の識別に失敗したことを示している。識別処理部123は、識別IDを付与した物体の識別に失敗した場合に、一定間隔後に、画像処理部122に物体の識別の依頼を再度行い、物体が認識できた場合には、以降の当該識別IDを付与した物体の識別の依頼を行わない。これにより、識別処理部123は、物体の識別のための処理負荷を低減している。なお、軌跡生成部124は、生成した移動軌跡を、上述した図4に示すように、移動軌跡記憶部114に記憶させる。   Also, a circle (circle) and a cross (cross) in the graph indicate times when the identification processing unit 123 requests the image processing unit 122 to identify an object. In addition, a circle (circle) indicates that the object (player PL3 or player PL4) to which the identification ID is assigned can be identified by the image processing unit 122, and an x (cross) indicates that the identification ID is assigned. This indicates that object identification has failed. When the identification processing unit 123 fails to identify the object to which the identification ID is assigned, the identification processing unit 123 requests the image processing unit 122 to identify the object again after a certain interval, and when the object can be recognized, The request for identifying the object to which the identification ID is assigned is not performed. Thereby, the identification processing unit 123 reduces the processing load for identifying the object. The trajectory generation unit 124 stores the generated movement trajectory in the movement trajectory storage unit 114 as shown in FIG. 4 described above.

また、識別処理部123は、各移動軌跡に対して、物体(プレーヤPL3又はプレーヤPL4)を検出した位置の部分画像と、対象物情報記憶部113が記憶する特徴量とに基づいて、物体(プレーヤPL3又はプレーヤPL4)を識別し、物体(プレーヤPL3又はプレーヤPL4)に対象物名を付与する。識別処理部123は、例えば、8(c)に示すように、プレーヤPL3に“選手B”を付与し、プレーヤPL4に“選手A”を付与する。軌跡生成部124は、図8(d)に示すように、識別処理部123が付与した対象物名と、移動軌跡記憶部114が記憶する移動軌跡とを対応付ける。   In addition, the identification processing unit 123, for each movement trajectory, based on the partial image at the position where the object (player PL3 or player PL4) is detected and the feature amount stored in the object information storage unit 113, Player PL3 or player PL4) is identified, and an object name is assigned to the object (player PL3 or player PL4). For example, as shown in FIG. 8C, the identification processing unit 123 gives “player B” to the player PL3 and gives “player A” to the player PL4. As illustrated in FIG. 8D, the trajectory generation unit 124 associates the object name provided by the identification processing unit 123 with the movement trajectory stored in the movement trajectory storage unit 114.

図8(c)及び(d)において、“選手A”の移動軌跡が、移動軌跡L1であり、“選手B”の移動軌跡が、移動軌跡L2である。軌跡生成部124は、 “選手A”、“選手B”などの対象物名を付与した移動軌跡を、例えば、図5に示すように、対象物軌跡記憶部115に記憶させる。   8C and 8D, the movement locus of “player A” is the movement locus L1, and the movement locus of “player B” is the movement locus L2. The trajectory generation unit 124 stores the movement trajectory to which the object names such as “player A” and “player B” are assigned in the object trajectory storage unit 115 as shown in FIG. 5, for example.

次に、図面を参照して、本実施形態による位置追跡システム1の動作について説明する。
図9は、本実施形態による位置追跡システム1の動作の一例を示すフローチャートである。なお、この図において、レーザレーダ装置20は、定常的に検出情報を検出し、撮像装置30は、定常的に画像情報を撮像するものとする。
Next, the operation of the position tracking system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 9 is a flowchart showing an example of the operation of the position tracking system 1 according to the present embodiment. In this figure, it is assumed that the laser radar device 20 steadily detects detection information, and the imaging device 30 steadily captures image information.

図9において、位置追跡システム1の情報処理装置10は、まず、レーザレーダ装置20の検出情報と、画像情報とを取得し、同期させる(ステップS101)。情報処理装置10のデータ取得部121は、レーザレーダ装置20から検出情報を取得するとともに、撮像装置30から画像情報を取得する。データ取得部121は、レーザレーダ装置20から取得した検出情報と、時刻情報とを対応付けて、レーダ検出記憶部111に記憶させる。また、データ取得部121は、撮像装置30から取得した画像情報と、時刻情報とを対応付けて、画像情報記憶部112に記憶させる。   In FIG. 9, the information processing apparatus 10 of the position tracking system 1 first acquires and synchronizes the detection information of the laser radar apparatus 20 and the image information (step S101). The data acquisition unit 121 of the information processing device 10 acquires detection information from the laser radar device 20 and acquires image information from the imaging device 30. The data acquisition unit 121 stores the detection information acquired from the laser radar device 20 and the time information in the radar detection storage unit 111 in association with each other. In addition, the data acquisition unit 121 stores the image information acquired from the imaging device 30 and the time information in the image information storage unit 112 in association with each other.

次に、情報処理装置10は、レーザデータ装置の検出情報と、画像情報とに基づいて、対象エリアにおける位置情報を生成する(ステップS102)。情報処理装置10の軌跡生成部124は、レーザレーダ装置20が検出した検出情報(例えば、物体までの距離及び方向)に基づいて、検出した物体(対象物)の対象エリアにおける位置情報(第1位置情報)を生成する。また、画像処理部122は、例えば、画像情報に基づいて、対象エリアにおける物体(対象物)の位置情報(第2位置情報)を生成する。ここで、第1位置情報及び第2位置情報は、例えば、対象物の重心の3次元座標である。軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の3次元座標を補正して生成する。   Next, the information processing device 10 generates position information in the target area based on the detection information of the laser data device and the image information (step S102). The trajectory generation unit 124 of the information processing apparatus 10 is based on the detection information (for example, the distance and direction to the object) detected by the laser radar device 20, and the position information (first object) in the target area of the detected object (target object). Position information). Further, the image processing unit 122 generates position information (second position information) of an object (target object) in the target area based on the image information, for example. Here, the first position information and the second position information are, for example, three-dimensional coordinates of the center of gravity of the object. The trajectory generation unit 124 complements the first position information and the second position information and corrects and generates the three-dimensional coordinates of the object.

次に、情報処理装置10は、位置情報に対応する部分画像を切り出し、部分画像を画像認識して、識別情報を付与する(ステップS103)。情報処理装置10の識別処理部123は、画像処理部122に、上述した第1位置情報の物体の位置に対応する画像情報における部分画像を抽出させる。識別処理部123は、画像処理部122に、抽出した部分画像と、対象物情報記憶部113が記憶する特徴量に基づいて、対象物を識別させて、識別した対象物に対して、当該対象物を識別する識別情報を付与する。   Next, the information processing apparatus 10 cuts out a partial image corresponding to the position information, recognizes the partial image, and gives identification information (step S103). The identification processing unit 123 of the information processing apparatus 10 causes the image processing unit 122 to extract a partial image in the image information corresponding to the position of the object in the first position information described above. The identification processing unit 123 causes the image processing unit 122 to identify the target based on the extracted partial image and the feature amount stored in the target information storage unit 113, and for the identified target, Identification information for identifying an object is given.

次に、情報処理装置10は、位置情報に基づいて、識別情報を付与した対象物の移動軌跡を生成する(ステップS104)。軌跡生成部124は、生成した対象物の3次元座標と、識別処理部123が付与した識別情報と、時刻情報とを対応付けて、対象物の移動軌跡を生成する。軌跡生成部124は、例えば、図5に示すように、対象物の3次元座標と、対象物の識別情報と、時刻情報とを対応付けて、対象物の移動軌跡として、移動軌跡記憶部114に記憶させる。ステップS104の処理後に、軌跡生成部124は、処理を終了する。   Next, the information processing apparatus 10 generates a movement locus of the object to which the identification information is given based on the position information (Step S104). The trajectory generation unit 124 generates a movement trajectory of the target object by associating the generated three-dimensional coordinates of the target object with the identification information provided by the identification processing unit 123 and the time information. For example, as illustrated in FIG. 5, the trajectory generation unit 124 associates the three-dimensional coordinates of the target object, the identification information of the target object, and the time information, and uses the movement trajectory storage unit 114 as a movement trajectory of the target object. Remember me. After the process of step S104, the trajectory generation unit 124 ends the process.

以上説明したように、本実施形態による位置追跡システム1(位置計測システム)は、レーザレーダ装置20(検出装置)と、撮像装置30と、データ取得部121(取得部)と、軌跡生成部124(位置計測部)とを備える。レーザレーダ装置20は、対象エリアにレーザ光を照射して、物体からの反射光に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する。撮像装置30は、対象エリアを含む画像を撮像する。データ取得部121は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。軌跡生成部124は、データ取得部121が取得した検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、データ取得部121が取得した画像情報に基づく対象エリアにおける物体の位置情報である第2位置情報とを補完して、対象物の位置情報を生成する。軌跡生成部124は、生成した対象物の位置情報に基づいて、対象物が移動した対象物の移動軌跡を生成する。   As described above, the position tracking system 1 (position measurement system) according to the present embodiment includes the laser radar device 20 (detection device), the imaging device 30, the data acquisition unit 121 (acquisition unit), and the trajectory generation unit 124. (Position measuring unit). The laser radar device 20 irradiates the target area with laser light, and detects detection information including at least the distance and direction to the object based on the reflected light from the object. The imaging device 30 captures an image including the target area. The data acquisition unit 121 acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. The trajectory generation unit 124 includes first position information that is position information of an object in the target area based on the detection information acquired by the data acquisition unit 121, and position information of the object in the target area based on the image information acquired by the data acquisition unit 121. The position information of the object is generated by complementing the second position information. The trajectory generation unit 124 generates a movement trajectory of the target object to which the target object has moved based on the generated position information of the target object.

これにより、本実施形態による位置追跡システム1は、処理負荷をかけずに正確な位置情報を計測可能であるが、サンプリング周波数が低いため断続的な検出になるレーザレーダ装置20と、処理負荷が大きい上、位置情報の精度は劣るが連続して画像を撮像可能な撮像装置30とを併用することで、処理負荷を抑えつつ、対象物の位置を高精度に計測することができる。本実施形態による位置追跡システム1は、例えば、撮像装置30の画像情報のみでは困難な3次元における正確な位置座標の計測を、レーザレーダ装置20を併用することで実現することができる。よって、本実施形態による位置追跡システム1は、処理負荷を抑えつつ、対象物の位置を高精度に追跡することができる。   As a result, the position tracking system 1 according to the present embodiment can measure accurate position information without applying a processing load. However, since the sampling frequency is low, the laser radar device 20 that performs intermittent detection and the processing load are low. In addition to being large, the accuracy of the position information is inferior, but the position of the object can be measured with high accuracy while suppressing the processing load by using together with the imaging device 30 capable of continuously capturing images. The position tracking system 1 according to the present embodiment can realize, for example, accurate measurement of position coordinates in three dimensions, which is difficult with only the image information of the imaging device 30, by using the laser radar device 20 together. Therefore, the position tracking system 1 according to the present embodiment can track the position of the object with high accuracy while suppressing the processing load.

また、本実施形態では、軌跡生成部124は、第1位置情報と、第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報に基づいて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、レーザレーダ装置20の検出情報に基づく第1位置情報と、撮像装置30の画像情報に基づく第2位置情報とを相互に補完することにより、例えば、複雑な背景や外部環境に影響されることなく、頑健、且つ、高精度な対象物の位置計測を行うことができる。本実施形態による位置追跡システム1は、例えば、図8に示すように、対象物が重なった場合であっても、正確に移動軌跡を生成することができる。
Further, in the present embodiment, the trajectory generation unit 124 complements the first position information and the second position information to correct the position information of the object, and based on the corrected position information of the object. The movement trajectory of the object is generated.
Thereby, the position tracking system 1 according to the present embodiment complements the first position information based on the detection information of the laser radar device 20 and the second position information based on the image information of the imaging device 30, for example. Thus, robust and highly accurate position measurement of an object can be performed without being affected by a complicated background or external environment. For example, as shown in FIG. 8, the position tracking system 1 according to the present embodiment can accurately generate a movement trajectory even when objects overlap.

また、本実施形態による位置追跡システム1は、相互に補完することにより、高精度に位置情報を検出するために、画像処理のための処理負荷が大きい撮像装置30の数を多くする必要がなく、例えば、処理負荷を抑えてリアルタイム処理が可能になる。また、本実施形態による位置追跡システム1では、例えば、対象物にマーカーなどの付属物を取り付ける必要がなく、システム構成をシステム(簡略)にすることができる。   In addition, the position tracking system 1 according to the present embodiment does not need to increase the number of imaging devices 30 with a large processing load for image processing in order to detect position information with high accuracy by complementing each other. For example, real-time processing can be performed with a reduced processing load. Further, in the position tracking system 1 according to the present embodiment, for example, it is not necessary to attach an accessory such as a marker to an object, and the system configuration can be made a system (simplified).

また、本実施形態では、軌跡生成部124は、第1位置情報に基づいて対象エリアの平面上の位置情報を補正し、第2位置情報に基づいて対象エリアの高さ方向の位置情報を補正して、平面上の位置情報及び高さ方向の位置情報を含む3次元位置情報を生成し、生成した3次元位置情報に基づいて、対象物の軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、例えば、図7に示すように、画像情報からでは計測困難な高さ方向(Z軸方向)の正確な位置を画像情報から計測できるとともに、レーザレーダ装置20により奥行き方向(XY軸方向)の正確な位置を計測できる。そのため、本実施形態による位置追跡システム1は、より高精度に対象物の軌跡を生成することができる。
In the present embodiment, the trajectory generation unit 124 corrects position information on the plane of the target area based on the first position information, and corrects position information in the height direction of the target area based on the second position information. Then, three-dimensional position information including position information on the plane and position information in the height direction is generated, and a trajectory of the object is generated based on the generated three-dimensional position information.
As a result, the position tracking system 1 according to the present embodiment can measure an accurate position in the height direction (Z-axis direction) that is difficult to measure from image information, as shown in FIG. The radar device 20 can measure an accurate position in the depth direction (XY axis direction). Therefore, the position tracking system 1 according to the present embodiment can generate the trajectory of the object with higher accuracy.

また、本実施形態では、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける第1位置情報と、第2位置情報とが一致するように配置されている。
これにより、本実施形態による位置追跡システム1は、さらに高精度に対象物の位置を計測することができる。
In the present embodiment, the laser radar device 20 and the imaging device 30 are arranged so that the first position information and the second position information in the target area match.
Thereby, the position tracking system 1 according to the present embodiment can measure the position of the object with higher accuracy.

また、本実施形態による位置追跡方法(位置計測方法)は、レーザレーダ装置20(検出装置)と、撮像装置30とを備える位置追跡システム1(位置計測システム)の位置追跡方法であって、取得ステップと、軌跡生成ステップ(位置計測ステップ)とを含む。取得ステップにおいて、データ取得部121が、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。軌跡生成ステップ(位置計測ステップ)において、軌跡生成部124(位置計測部)が、取得ステップによって取得された検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、取得ステップによって取得された画像情報に基づく対象エリアにおける物体の位置情報である第2位置情報とを補完して、対象物の位置情報を生成し、生成した対象物の位置情報に基づいて、対象物が移動した対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡方法は、上述した位置追跡システム1と同様の効果を奏し、処理負荷を抑えつつ、対象物の位置を高精度に計測することができる。
The position tracking method (position measurement method) according to the present embodiment is a position tracking method of a position tracking system 1 (position measurement system) including a laser radar device 20 (detection device) and an imaging device 30, and is acquired. A step and a locus generation step (position measurement step). In the acquisition step, the data acquisition unit 121 acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. In the trajectory generation step (position measurement step), the trajectory generation unit 124 (position measurement unit) acquires the first position information that is the position information of the object in the target area based on the detection information acquired in the acquisition step, and the acquisition step. The position information of the object is generated by complementing the second position information, which is the position information of the object in the target area based on the image information, and the object is moved based on the position information of the generated object. A movement trajectory of the object is generated.
Thereby, the position tracking method according to the present embodiment has the same effect as the position tracking system 1 described above, and can measure the position of the object with high accuracy while suppressing the processing load.

また、本実施形態による位置追跡システム1は、レーザレーダ装置20と、撮像装置30と、データ取得部121と、識別処理部123と、軌跡生成部124とを備える。データ取得部121は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。識別処理部123は、画像処理部122を利用して、データ取得部121が取得した検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。軌跡生成部124は、検出情報と、画像情報とに基づいて生成した対象エリアにおける対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。   Further, the position tracking system 1 according to the present embodiment includes a laser radar device 20, an imaging device 30, a data acquisition unit 121, an identification processing unit 123, and a locus generation unit 124. The data acquisition unit 121 acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. The identification processing unit 123 uses the image processing unit 122 to detect the object based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the data acquisition unit 121. And identifying information for identifying the object is given to the identified object. The trajectory generation unit 124 generates a movement trajectory of the target object by associating the position information of the target object in the target area generated based on the detection information and the image information with the identification information given by the identification processing unit 123. To do.

これにより、本実施形態による位置追跡システム1は、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報と用いることで、高精度に対象物を識別することができる。本実施形態による位置追跡システム1は、例えば、検出された物体の位置に対応する部分画像に対して、識別処理を行うため、画像情報の全体に対して識別処理を行う場合に比べて、背景等のノイズが低減されるとともに、大幅に処理負荷を抑えることができる。よって、本実施形態による位置追跡システム1は、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。   Thereby, the position tracking system 1 according to the present embodiment can identify the object with high accuracy by using the detection information detected by the laser radar device 20 and the image information representing the image captured by the imaging device 30. it can. Since the position tracking system 1 according to the present embodiment performs, for example, the identification process on the partial image corresponding to the detected position of the object, compared to the case where the identification process is performed on the entire image information, And the like, and the processing load can be greatly reduced. Therefore, the position tracking system 1 according to the present embodiment can track the position of the measurement object with high accuracy while suppressing the processing load.

また、本実施形態では、レーザレーダ装置20の検出情報には、物体の輪郭が含まれる。識別処理部123は、画像処理部122を利用して、レーザレーダ装置20が検出した物体の輪郭に基づいて、画像情報における部分画像を抽出し、抽出した部分画像に基づいて、物体を対象物として識別する。
これにより、本実施形態による位置追跡システム1は、例えば、物体の輪郭に沿って部分画像を画像情報から切り出すことで、背景等のノイズをさらに除去することができ、画像処理による対象物の認識精度をさらに向上させることができる。
In the present embodiment, the detection information of the laser radar device 20 includes the contour of the object. The identification processing unit 123 uses the image processing unit 122 to extract a partial image in the image information based on the contour of the object detected by the laser radar device 20, and based on the extracted partial image, the object is detected as a target. Identify as.
Thereby, the position tracking system 1 according to the present embodiment can further remove noise such as background by cutting out a partial image from the image information along the contour of the object, and recognizes the object by image processing. The accuracy can be further improved.

また、本実施形態では、対象物には、対象人物が含まれる。識別処理部123は、対象人物を対象物として識別する場合に、画像処理部122を利用して、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別する。
これにより、本実施形態による位置追跡システム1は、例えば、選手やプレーヤなどの対象人物を適切に識別することができる。
In the present embodiment, the target object includes a target person. When identifying the target person as an object, the identification processing unit 123 uses the image processing unit 122 to identify the target person based on the image recognition of the target person's face or clothes.
Thereby, the position tracking system 1 according to the present embodiment can appropriately identify a target person such as a player or a player.

また、本実施形態では、軌跡生成部124は、検出情報に基づく対象エリアにおける物体の位置情報である第1位置情報と、画像情報に基づく対象エリアにおける対象物の位置情報である第2位置情報とを相互に補完して、対象物の位置情報を補正し、補正した対象物の位置情報と、識別処理部123が付与した識別情報とを対応付けて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡システム1は、計測対象物の位置をより高精度に追跡することができる。
In the present embodiment, the trajectory generation unit 124 includes first position information that is position information of an object in the target area based on detection information, and second position information that is position information of the target object in the target area based on image information. Are mutually corrected, the position information of the target is corrected, and the corrected position information of the target is associated with the identification information given by the identification processing unit 123 to generate a movement trajectory of the target.
Thereby, the position tracking system 1 according to the present embodiment can track the position of the measurement object with higher accuracy.

また、本実施形態による位置追跡方法は、対象エリアにレーザ光を照射して、物体からの反射光に基づいて、レーザレーダ装置20と、撮像装置30とを備える位置追跡システム1の位置追跡方法であって、取得ステップと、識別処理ステップと、軌跡生成ステップとを含む。取得ステップにおいて、データ取得部121が、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報とを取得して同期させる。識別処理ステップにおいて、識別処理部123が、画像処理部122を利用して、取得ステップによって取得された検出情報に基づいて検出された物体の位置に対応する、画像情報における部分画像に基づいて、物体を対象物として識別し、識別した対象物に対して、当該対象物を識別する識別情報を付与する。軌跡生成ステップにおいて、軌跡生成部124が、検出情報と、画像情報とに基づいて生成した対象エリアにおける対象物の位置情報と、識別処理ステップによって付与された識別情報とを対応付けて、対象物の移動軌跡を生成する。
これにより、本実施形態による位置追跡方法は、位置追跡システム1と同様の効果を奏し、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。
In addition, the position tracking method according to the present embodiment irradiates a target area with laser light, and the position tracking method of the position tracking system 1 including the laser radar device 20 and the imaging device 30 based on the reflected light from the object. The method includes an acquisition step, an identification processing step, and a trajectory generation step. In the acquisition step, the data acquisition unit 121 acquires and synchronizes detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. In the identification processing step, the identification processing unit 123 uses the image processing unit 122, based on the partial image in the image information corresponding to the position of the object detected based on the detection information acquired in the acquisition step. An object is identified as an object, and identification information for identifying the object is given to the identified object. In the trajectory generation step, the trajectory generation unit 124 associates the position information of the target object in the target area generated based on the detection information and the image information with the identification information given in the identification processing step, and The movement trajectory of is generated.
Thereby, the position tracking method according to the present embodiment has the same effect as the position tracking system 1, and can track the position of the measurement object with high accuracy while suppressing the processing load.

[第2の実施形態]
次に、図面を参照して、第2の実施形態によるプレー判定システム1aについて説明する。
本実施形態では、上述した位置追跡システム1を含み、対象人物の移動軌跡と、対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するプレー判定システム1aについて説明する。
[Second Embodiment]
Next, a play determination system 1a according to the second embodiment will be described with reference to the drawings.
The present embodiment includes the position tracking system 1 described above, and a play determination system 1a that determines the play of the target person indicating the action and action of the target person based on the movement trajectory of the target person and the skeleton and joints of the target person. Will be described.

図10は、本実施形態によるプレー判定システム1aの一例を示すブロック図である。
図10に示すように、プレー判定システム1a(判定システムの一例)は、情報処理装置10aと、レーザレーダ装置20と、撮像装置30とを備える。
なお、この図において、図1と同一の構成には同一の符号を付与し、その説明を省略する。また、本実施形態において、レーザレーダ装置20及び撮像装置30は、少なくとも物体の形状及び位置情報を検出可能な検出装置の一例である。
FIG. 10 is a block diagram showing an example of the play determination system 1a according to the present embodiment.
As illustrated in FIG. 10, the play determination system 1a (an example of a determination system) includes an information processing device 10a, a laser radar device 20, and an imaging device 30.
In this figure, the same components as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. In the present embodiment, the laser radar device 20 and the imaging device 30 are an example of a detection device that can detect at least the shape and position information of an object.

情報処理装置10aは、例えば、PCなどのコンピュータ装置である。情報処理装置10aは、上述した第1の実施形態の情報処理装置10と同様に、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像情報とに基づいて、対象エリアにおける対象物の位置情報を生成し、生成した位置情報に基づいて、対象物の移動軌跡を生成する。また、情報処理装置10aは、画像情報から対象人物の骨格及び関節を推定し、対象人物の骨格及び関節と、対象物の移動軌跡とから対象人物のプレーを判定する。ここで、プレーとは、例えば、スポーツにおける対象人物の動作及び行動を示す。
また、情報処理装置10aは、記憶部11aと、制御部12aとを備える。
The information processing apparatus 10a is a computer apparatus such as a PC, for example. Similar to the information processing apparatus 10 of the first embodiment described above, the information processing apparatus 10a is configured to detect a target in a target area based on detection information detected by the laser radar apparatus 20 and image information captured by the imaging apparatus 30. Object position information is generated, and a movement trajectory of the object is generated based on the generated position information. Further, the information processing apparatus 10a estimates the skeleton and joints of the target person from the image information, and determines the play of the target person from the skeleton and joints of the target person and the movement trajectory of the target object. Here, “play” indicates, for example, the movement and action of the target person in sports.
The information processing apparatus 10a includes a storage unit 11a and a control unit 12a.

記憶部11aは、情報処理装置10aの各種処理に利用する情報を記憶する。記憶部11aは、レーダ検出記憶部111と、画像情報記憶部112と、対象物情報記憶部113と、移動軌跡記憶部114と、対象物軌跡記憶部115と、骨格関節情報記憶部116と、判定器情報記憶部117と、判定結果記憶部118とを備える。   The storage unit 11a stores information used for various processes of the information processing apparatus 10a. The storage unit 11a includes a radar detection storage unit 111, an image information storage unit 112, an object information storage unit 113, a movement locus storage unit 114, an object locus storage unit 115, a skeletal joint information storage unit 116, The determination device information storage unit 117 and the determination result storage unit 118 are provided.

骨格関節情報記憶部116は、後述する骨格推定部125が推定した骨格関節情報を記憶する。骨格関節情報記憶部116は、例えば、対象人物の識別情報と、時刻情報と、骨格及び関節を示す骨格関節情報とを対応付けて記憶する。ここで、骨格関節情報とは、例えば、骨格及び関節の3次元位置座標などである。   The skeletal joint information storage unit 116 stores the skeletal joint information estimated by the skeleton estimation unit 125 described later. The skeletal joint information storage unit 116 stores, for example, target person identification information, time information, and skeletal joint information indicating the skeleton and joints in association with each other. Here, the skeletal joint information is, for example, three-dimensional position coordinates of the skeleton and joints.

判定器情報記憶部117は、プレーを判定するための判定器の情報を記憶する。判定器情報記憶部117は、例えば、過去の対象人物の移動軌跡と対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように機械学習された学習結果などを判定器の情報として記憶する。ここで、機械学習には、例えば、決定木学習、ニューラルネットワーク、サポートベクターマシン(SVM)、各種回帰モデル、ディープラーニング(深層学習)などが含まれる。また、判定器の情報には、各種重み付け情報、ルール情報、各種パラメータなどが含まれる。
また、プレー判定には、プレーの種別の他に、プレーの成否、出来栄え、点数判定などが含まれる。
The determiner information storage unit 117 stores information on determiners for determining play. The discriminator information storage unit 117 is machine-learned learning so as to determine the play of the target person indicating the action and action of the target person based on, for example, the movement trajectory of the target person in the past and the skeleton and joints of the target person. The result and the like are stored as information of the determiner. Here, the machine learning includes, for example, decision tree learning, neural network, support vector machine (SVM), various regression models, deep learning (deep learning), and the like. The information on the determiner includes various weighting information, rule information, various parameters, and the like.
In addition to the play type, the play determination includes success / failure of the play, performance, score determination, and the like.

判定結果記憶部118は、後述するプレー判定部126が判定した判定結果を記憶する。判定結果記憶部118は、例えば、対象人物の識別情報と、時刻情報と、プレー判定結果とを対応付けて記憶する。   The determination result storage unit 118 stores a determination result determined by a play determination unit 126 described later. The determination result storage unit 118 stores, for example, target person identification information, time information, and a play determination result in association with each other.

制御部12aは、例えば、CPUなどを含むプロセッサであり、情報処理装置10aを統括的に制御する。制御部12aは、上述した第1の実施形態の制御部12と同様の処理を実行するとともに、例えば、対象人物のプレーを判定する。
制御部12aは、データ取得部121と、画像処理部122と、識別処理部123と、軌跡生成部124と、骨格推定部125と、プレー判定部126と、プレー評価部127とを備える。
The control unit 12a is, for example, a processor including a CPU and the like, and comprehensively controls the information processing apparatus 10a. The control unit 12a performs the same process as the control unit 12 of the first embodiment described above, and determines, for example, the play of the target person.
The control unit 12a includes a data acquisition unit 121, an image processing unit 122, an identification processing unit 123, a trajectory generation unit 124, a skeleton estimation unit 125, a play determination unit 126, and a play evaluation unit 127.

骨格推定部125は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、推定した骨格及び関節を示す骨格関節情報と、対象人物の識別情報と、時刻情報と対応付けて骨格関節情報記憶部116に記憶させる。なお、骨格推定部125は、例えば、既存の骨格トラッキング技術を利用して、対象人物の骨格及び関節を推定する。なお、骨格推定部125は、骨格及び関節の他に、対象人物の目線を推定するようにしてもよい。この場合、骨格関節情報には、目線を示す情報を含めてもよい。また、骨格推定部125は、対象人物の骨格及び関節のうちの一方を推定するようにしてもよい。   The skeleton estimation unit 125 estimates the skeleton and joints of the target person based on detection information detected by the detection devices (for example, the laser radar device 20 and the imaging device 30). The skeleton estimation unit 125 estimates the skeleton and joints of the target person based on the contour of the target person detected by the laser radar device 20 and image information including the target person imaged by the imaging device 30. The skeleton estimation unit 125 causes the skeleton joint information storage unit 116 to store the skeleton joint information indicating the estimated skeleton and joint, the identification information of the target person, and the time information in association with each other. Note that the skeleton estimation unit 125 estimates the skeleton and joints of the target person using, for example, an existing skeleton tracking technique. Note that the skeleton estimation unit 125 may estimate the eye of the target person in addition to the skeleton and the joint. In this case, the skeletal joint information may include information indicating the eye line. Further, the skeleton estimation unit 125 may estimate one of the skeleton and joints of the target person.

画像処理部122及び識別処理部123は、第1の実施形態と同様であるため、ここではその説明を省略する。なお、識別処理部123は、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別できない場合に、部分画像に基づいて、対象人物の骨格又は関節(対象人物の骨格及び関節、或いは、対象人物の骨格及び関節のうちの一方)を推定し、推定した骨格又は関節と、予め定められた対象人物の骨格又は関節の特徴とに基づいて、対象人物を識別するようにしてもよい。すなわち、対象物情報記憶部113が、例えば、対象人物の骨格又は関節の特徴量を予め記憶しており、識別処理部123は、上述した骨格推定部125が推定した骨格又は関節と、対象物情報記憶部113が記憶する対象人物の骨格又は関節の特徴量とに基づいて、対象人物を識別するようにしてもよい。   Since the image processing unit 122 and the identification processing unit 123 are the same as those in the first embodiment, descriptions thereof are omitted here. Note that the identification processing unit 123, when the target person cannot be identified based on the image recognition of the target person's face or clothes, based on the partial image, the target person's skeleton or joint (the target person's skeleton and joint, or One of the skeleton and joints of the target person may be estimated, and the target person may be identified based on the estimated skeleton or joint and the predetermined characteristics of the skeleton or joint of the target person. That is, the target object information storage unit 113 stores, for example, the feature amount of the target person's skeleton or joint in advance, and the identification processing unit 123 includes the skeleton or joint estimated by the skeleton estimation unit 125 and the target object. The target person may be identified based on the skeleton or joint feature quantity of the target person stored in the information storage unit 113.

軌跡生成部124は、第1の実施形態と同様であるため、ここではその説明を省略する。すなわち、軌跡生成部124は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。
なお、本実施形態における軌跡生成部124は、対象人物の移動軌跡の他に、対象人物の周辺の物体の移動軌跡、骨格及び関節の移動軌跡、対象人物の手や足などの身体の一部の移動軌跡、等を生成するようにしてもよい。
Since the locus generation unit 124 is the same as that of the first embodiment, the description thereof is omitted here. That is, the trajectory generation unit 124 generates a movement trajectory of the target person based on detection information detected by the detection devices (for example, the laser radar device 20 and the imaging device 30).
In addition to the movement trajectory of the target person, the trajectory generation unit 124 according to the present embodiment includes a movement trajectory of an object around the target person, a movement trajectory of the skeleton and joints, and a part of the body such as the hand and foot of the target person. Or the like may be generated.

プレー判定部126は、骨格推定部125が推定した対象人物の骨格及び関節と、軌跡生成部124が生成した対象人物の移動軌跡と、対象人物のプレーを判定する判定器とに基づいて、対象人物のプレーを判定する。ここで、判定器は、過去の対象人物の移動軌跡と対象人物の骨格及び関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成されており、例えば、機械学習などで生成されている。プレー判定部126は、判定器情報記憶部117が記憶する判定器情報による判定器を利用して、対象人物の骨格及び関節と、対象人物の移動軌跡とから、対象人物のプレーを判定する。   The play determination unit 126 is based on the skeleton and joints of the target person estimated by the skeleton estimation unit 125, the movement trajectory of the target person generated by the trajectory generation unit 124, and the determiner that determines the play of the target person. Determine the play of a person. Here, the determination device is generated so as to determine the play of the target person indicating the action and behavior of the target person based on the movement trajectory of the target person in the past and the skeleton and joints of the target person. It is generated by learning. The play determination unit 126 determines the play of the target person from the skeleton and joints of the target person and the movement trajectory of the target person using the determination unit based on the determination unit information stored in the determination unit information storage unit 117.

ここで、対象人物のプレーは、例えば、バレーボールにおけるプレーヤのレシーブ、アタック、サーブ、ブロックなどやバスケットボールにおけるスクリーンプレーなどである。また、プレー判定部126は、例えば、バレーボールにおけるプレーを判定する場合に、対象人物の骨格及び関節及び対象人物の移動軌跡の他に、ボールなどの用具移動軌跡、すなわち、対象人物の周辺に存在する対象物の移動軌跡に基づいて、対象人物のプレーを判定してもよい。この場合、軌跡生成部124は、対象人物の周辺に存在する対象物(例えば、ボール)の移動軌跡を生成し、プレー判定部126は、判定器を利用して、対象人物の移動軌跡、骨格及び関節と、対象物の移動軌跡(例えば、ボール)とから対象人物のプレーを判定する。   Here, the play of the target person is, for example, a player's receive, attack, serve, block or the like in volleyball or a screen play in basketball. In addition, for example, when determining play in volleyball, the play determination unit 126 is present in the movement trajectory of a tool such as a ball in addition to the skeleton and joints of the target person and the movement trajectory of the target person, that is, around the target person. The play of the target person may be determined based on the movement trajectory of the target object. In this case, the trajectory generation unit 124 generates a movement trajectory of an object (for example, a ball) existing around the target person, and the play determination unit 126 uses the determiner to move the target person's movement trajectory and skeleton. The play of the target person is determined from the joint and the movement trajectory (for example, a ball) of the target object.

また、プレー判定部126は、例えば、バスケットボールにおけるスクリーンプレーを判定する場合に、対象人物の周辺の人物の移動軌跡に基づいて、対象人物のプレーを判定してもよい。この場合、軌跡生成部124は、対象人物の周辺に存在する対象物(例えば、周辺の人物)の移動軌跡を生成し、プレー判定部126は、判定器を利用して、対象人物の移動軌跡、骨格及び関節と、対象物(例えば、周辺の人物)の移動軌跡とから対象人物のプレーを判定する。
プレー判定部126は、判定したプレーを示す情報を判定結果として、対象人物と時刻情報と対応付けて、判定結果記憶部118に記憶させる。
In addition, for example, when determining the screen play in basketball, the play determination unit 126 may determine the play of the target person based on the movement trajectory of the persons around the target person. In this case, the trajectory generation unit 124 generates a movement trajectory of an object (for example, a peripheral person) existing around the target person, and the play determination unit 126 uses the determination unit to move the target person. The play of the target person is determined from the skeleton and joints and the movement trajectory of the target object (for example, a nearby person).
The play determination unit 126 stores information indicating the determined play as a determination result in the determination result storage unit 118 in association with the target person and time information.

プレー評価部127は、プレー判定部126が判定したプレーの判定結果に基づいて、プレーの評価を行う。プレー評価部127は、例えば、プレーの判定結果から、例えば、トレイニング中のジャンプなどのプレーの実行回数を集計し、トレイニングの効果、効率、オーバートレーニングなどの評価を行う。また、プレー評価部127は、例えば、プレーの判定結果に基づいて、試合などに実行したプレーを集計し、プレーの集計結果に基づいて、試合内容を評価する。   The play evaluation unit 127 evaluates the play based on the play determination result determined by the play determination unit 126. The play evaluation unit 127, for example, counts the number of executions of a play such as a jump during training from the play determination result, and evaluates the training effect, efficiency, overtraining, and the like. In addition, the play evaluation unit 127, for example, totals the plays executed in the game based on the play determination result, and evaluates the game content based on the play total result.

次に、図面を参照して、本実施形態によるプレー判定システム1aの動作について説明する。
図11は、本実施形態によるプレー判定システム1aの動作の一例を示すフローチャートである。なお、この図において、レーザレーダ装置20は、定常的に検出情報を検出し、撮像装置30は、定常的に画像情報を撮像するものとする。
図11に示すステップS201からステップS203までの処理は、図9に示すステップS101からステップS103までの処理と同様であるため、ここではその説明を省略する。
Next, the operation of the play determination system 1a according to the present embodiment will be described with reference to the drawings.
FIG. 11 is a flowchart showing an example of the operation of the play determination system 1a according to the present embodiment. In this figure, it is assumed that the laser radar device 20 steadily detects detection information, and the imaging device 30 steadily captures image information.
Since the processing from step S201 to step S203 shown in FIG. 11 is the same as the processing from step S101 to step S103 shown in FIG. 9, the description thereof is omitted here.

ステップS204において、情報処理装置10aは、検出情報及び画像情報に基づいて骨格及び関節を推定する。情報処理装置10aの骨格推定部125は、例えば、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格及び関節を推定する。骨格推定部125は、推定した骨格及び関節を示す骨格関節情報と、対象人物の識別情報と、時刻情報と対応付けて骨格関節情報記憶部116に記憶させる。   In step S204, the information processing apparatus 10a estimates a skeleton and a joint based on the detection information and the image information. For example, the skeleton estimation unit 125 of the information processing device 10a calculates the skeleton and joints of the target person based on the contour of the target person detected by the laser radar device 20 and the image information including the target person captured by the imaging device 30. presume. The skeleton estimation unit 125 causes the skeleton joint information storage unit 116 to store the skeleton joint information indicating the estimated skeleton and joint, the identification information of the target person, and the time information in association with each other.

次に、情報処理装置10aは、位置情報に基づいて、識別情報を付与した計測対象物の移動軌跡を生成する(ステップS205)。情報処理装置10aの軌跡生成部124は、図9に示すステップS104と同様に、生成した対象物の3次元座標と、識別処理部123が付与した識別情報と、時刻情報とを対応付けて、対象物の移動軌跡を生成する。   Next, the information processing apparatus 10a generates a movement trajectory of the measurement object to which the identification information is added based on the position information (Step S205). The trajectory generation unit 124 of the information processing device 10a associates the generated three-dimensional coordinates of the target object, the identification information provided by the identification processing unit 123, and time information, as in step S104 illustrated in FIG. A movement trajectory of the object is generated.

次に、情報処理装置10aは、移動軌跡の特徴量と、骨格及び関節とに基づいて、プレー判定を行う(ステップS206)。情報処理装置10aのプレー判定部126は、判定器情報記憶部117が記憶する判定器情報による判定器を利用して、対象人物の骨格及び関節と、対象人物の移動軌跡の特徴量とから、対象人物のプレーを判定する。プレー判定部126は、プレーの判定結果を、判定結果記憶部118に記憶させる。   Next, the information processing apparatus 10a performs play determination based on the feature amount of the movement locus, the skeleton, and the joint (step S206). The play determination unit 126 of the information processing device 10a uses the determination device based on the determination device information stored in the determination device information storage unit 117, and uses the skeleton and joints of the target person and the feature amount of the movement trajectory of the target person. Determine the play of the target person. The play determination unit 126 stores the determination result of play in the determination result storage unit 118.

次に、情報処理装置10aは、プレー判定が終了であるか否かを判定する(ステップS207)。情報処理装置10aは、プレー判定が終了である場合(ステップS207:YES)に、処理をステップS208に進める。また、情報処理装置10aは、プレー判定が終了でない場合(ステップS207:NO)に、処理をステップS201に戻し、ステップS201からステップS207の処理を繰り返す。   Next, the information processing apparatus 10a determines whether or not the play determination is complete (step S207). If the play determination is finished (step S207: YES), the information processing apparatus 10a advances the process to step S208. If the play determination is not complete (step S207: NO), the information processing apparatus 10a returns the process to step S201 and repeats the processes from step S201 to step S207.

ステップS208において、情報処理装置10aは、プレー判定結果を評価する。情報処理装置10aのプレー評価部127は、プレー判定部126が判定したプレーの判定結果に基づいて、プレーの評価を行う。プレー判定部126は、ステップS208の処理後に、処理を終了する。
なお、上述した例では、骨格推定部125が、対象人物の骨格及び関節を推定し、プレー判定部126が、対象人物の移動軌跡と、対象人物の骨格及び関節の位置とから、プレーを判定する例を説明したが、骨格推定部125が対象人物の骨格及び関節のいずれか一方を推定し、対象人物の移動軌跡と、対象人物の骨格及び関節の位置のいずれか一方とからプレーを判定するようにしてもよい。
In step S208, the information processing apparatus 10a evaluates the play determination result. The play evaluation unit 127 of the information processing apparatus 10a evaluates the play based on the play determination result determined by the play determination unit 126. The play determination unit 126 ends the process after the process of step S208.
In the example described above, the skeleton estimation unit 125 estimates the skeleton and joints of the target person, and the play determination unit 126 determines play from the movement trajectory of the target person and the positions of the skeleton and joints of the target person. However, the skeleton estimation unit 125 estimates one of the skeleton and joints of the target person, and determines play based on the movement trajectory of the target person and the position of the skeleton and joints of the target person. You may make it do.

以上説明したように、本実施形態によるプレー判定システム1a(判定システム)は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)と、骨格推定部125と、軌跡生成部124と、プレー判定部126とを備える。検出装置(例えば、レーザレーダ装置20及び撮像装置30)は、少なくとも物体の形状及び位置情報を検出可能である。骨格推定部125は、検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する。軌跡生成部124は、検出装置が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。プレー判定部126は、判定器と、骨格推定部125が推定した対象人物の骨格又は関節と、軌跡生成部124が生成した対象人物の移動軌跡とに基づいて、対象人物のプレーを判定する。ここで、判定器は、過去の対象人物の移動軌跡と、対象人物の骨格又は関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成されている。   As described above, the play determination system 1a (determination system) according to the present embodiment includes the detection device (for example, the laser radar device 20 and the imaging device 30), the skeleton estimation unit 125, the trajectory generation unit 124, and the play determination. Part 126. The detection device (for example, the laser radar device 20 and the imaging device 30) can detect at least the shape and position information of the object. The skeleton estimation unit 125 estimates the skeleton or joint of the target person based on the detection information detected by the detection device. The trajectory generation unit 124 generates a movement trajectory of the target person based on the detection information detected by the detection device. The play determination unit 126 determines the play of the target person based on the determiner, the skeleton or joint of the target person estimated by the skeleton estimation unit 125, and the movement trajectory of the target person generated by the trajectory generation unit 124. Here, the determiner is generated so as to determine the play of the target person indicating the action and action of the target person based on the past movement trajectory of the target person and the skeleton or joint of the target person.

これにより、本実施形態によるプレー判定システム1aは、対象人物の骨格又は関節と、対象人物の移動軌跡とに基づいて、プレーを判定するため、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。また、本実施形態によるプレー判定システム1aでは、利用者の負担なく、例えば、選手のプレー、位置、時刻、プレーの成否、出来栄え、点数判定、等を自動にて記録することができる。すなわち、本実施形態によるプレー判定システム1aは、スポーツ競技のスコアを自動で記録することができる。   As a result, the play determination system 1a according to the present embodiment determines play based on the skeleton or joint of the target person and the movement trajectory of the target person. Judgment can be made. Further, in the play determination system 1a according to the present embodiment, for example, the player's play, position, time, success / failure of play, performance, score determination, etc. can be automatically recorded without any burden on the user. That is, the play determination system 1a according to the present embodiment can automatically record the score of a sports competition.

また、本実施形態では、軌跡生成部124は、検出装置(例えば、レーザレーダ装置20及び撮像装置30)が検出した検出情報に基づいて、対象人物の周辺に存在する対象物の移動軌跡を生成する。プレー判定部126は、判定器を利用して、対象人物の移動軌跡と、対象人物の骨格又は関節と、対象物の移動軌跡とから対象人物のプレーを判定する。
これにより、本実施形態によるプレー判定システム1aは、例えば、ボールやラケットなどの用具である対象物の移動軌跡を用いることで、プレー判定の精度を向上させることができる。
Further, in the present embodiment, the trajectory generation unit 124 generates a movement trajectory of an object existing around the target person based on detection information detected by the detection device (for example, the laser radar device 20 and the imaging device 30). To do. The play determination unit 126 determines the play of the target person from the movement trajectory of the target person, the skeleton or joint of the target person, and the movement trajectory of the target object using a determination device.
Thereby, the play determination system 1a according to the present embodiment can improve the accuracy of play determination by using the movement trajectory of an object which is a tool such as a ball or a racket.

例えば、バレーボールにおいて、ボールなどの対象物の移動軌跡を判定器に利用して、プレー判定することにより、本実施形態によるプレー判定システム1aは、例えば、レシーブ、アタック、サーブ、ブロック等を判定することができる。
また、例えば、バスケットにおいて、対象人物の周囲の人物の移動軌跡を判定器に利用して、プレー判定することにより、本実施形態によるプレー判定システム1aは、例えば、スクリーンプレーなどを精度よく判定することができる。
また、例えば、テニスにおいて、対象人物の骨格と、対象人物、ボール及びラケットの移動軌跡とを判定器に利用して、プレー判定することにより、テニスのショット種別(例えば、バックハンド、フォアハンド、スマッシュ、スライスなど)、ボール(例えば、スピード、スピン種別、回転数など)、ショットの成否、等を判定することができる。
For example, in volleyball, the play determination system 1a according to the present embodiment determines, for example, a receive, an attack, a serve, a block, and the like by making a play determination using a movement trajectory of an object such as a ball as a determiner. be able to.
In addition, for example, in the basket, the play determination system 1a according to the present embodiment accurately determines, for example, screen play by making a play determination using the movement trajectory of the person around the target person as a determination device. be able to.
Further, for example, in tennis, by using the skeleton of the target person and the movement trajectory of the target person, the ball, and the racket as a determiner, and making a play determination, a tennis shot type (eg, backhand, forehand, smash) , Slices, etc.), balls (for example, speed, spin type, rotation speed, etc.), success or failure of shots, and the like can be determined.

また、本実施形態では、検出装置には、レーザレーダ装置20及び撮像装置30が含まれる。骨格推定部125は、レーザレーダ装置20が検出した対象人物の輪郭と、撮像装置30が撮像した対象人物を含む画像情報とに基づいて、対象人物の骨格又は関節を推定する。軌跡生成部124は、レーザレーダ装置20による検出に基づく対象エリアにおける対象人物の位置情報である第1位置情報と、画像情報に基づく対象エリアにおける対象人物の位置情報である第2位置情報とを相互に補完して、対象人物の位置情報を補正し、補正した対象人物の位置情報に基づいて、対象人物の移動軌跡を生成する。   In the present embodiment, the detection device includes the laser radar device 20 and the imaging device 30. The skeleton estimation unit 125 estimates the skeleton or joint of the target person based on the contour of the target person detected by the laser radar device 20 and the image information including the target person imaged by the imaging device 30. The trajectory generation unit 124 includes first position information that is position information of the target person in the target area based on detection by the laser radar device 20, and second position information that is position information of the target person in the target area based on image information. Complementing each other, the position information of the target person is corrected, and the movement trajectory of the target person is generated based on the corrected position information of the target person.

これにより、本実施形態によるプレー判定システム1aは、レーザレーダ装置20の検出情報に基づく第1位置情報と、撮像装置30の画像情報に基づく第2位置情報とを相互に補完することにより、処理負荷を抑えつつ、対象物の位置計測を行うことができる。よって、本実施形態によるプレー判定システム1aは、さらに高精度に対象人物のプレー判定を行うことができる。   Accordingly, the play determination system 1a according to the present embodiment performs processing by mutually complementing the first position information based on the detection information of the laser radar device 20 and the second position information based on the image information of the imaging device 30. The position of the object can be measured while suppressing the load. Therefore, the play determination system 1a according to the present embodiment can perform the target person's play determination with higher accuracy.

また、本実施形態によるプレー判定システム1aは、レーザレーダ装置20の検出情報に基づく第1位置情報に対応する画像情報における部分画像に基づいて、対象人物を識別し、識別した対象人物に対して、当該対象人物を識別する識別情報を付与する識別処理部123を備える。軌跡生成部124は、識別処理部123が付与した識別情報と対応付けて、対象人物の移動軌跡を生成する。
これにより、本実施形態によるプレー判定システム1aは、レーザレーダ装置20が検出した検出情報と、撮像装置30が撮像した画像を表す画像情報と用いることで、高精度に対象物を識別することができ、処理負荷を抑えつつ、計測対象物の位置を高精度に追跡することができる。よって、本実施形態によるプレー判定システム1aは、さらに高精度に対象人物のプレー判定を行うことができる。
Further, the play determination system 1a according to the present embodiment identifies a target person based on the partial image in the image information corresponding to the first position information based on the detection information of the laser radar device 20, and for the identified target person And an identification processing unit 123 for providing identification information for identifying the target person. The trajectory generation unit 124 generates a movement trajectory of the target person in association with the identification information given by the identification processing unit 123.
Thereby, the play determination system 1a according to the present embodiment can identify an object with high accuracy by using detection information detected by the laser radar device 20 and image information representing an image captured by the imaging device 30. It is possible to track the position of the measurement object with high accuracy while suppressing the processing load. Therefore, the play determination system 1a according to the present embodiment can perform the target person's play determination with higher accuracy.

また、本実施形態によるプレー判定システム1aでは、撮像装置30では、高精度に取得することが困難位置情報を、レーザレーダ装置20と併用することにより、高精度に位置情報を検出することができる。そのため、本実施形態によるプレー判定システム1aは、判定可能なプレーの種類を広げることができ、様々な競技やゲームの分析に応用することができる。また、本実施形態によるプレー判定システム1aは、撮像装置30では、複雑、且つ、高い処理負荷を必要とするプレー判定において、レーザレーダ装置20と併用することにより、判定速度及び判定精度を向上させることができる。   In the play determination system 1a according to the present embodiment, the imaging apparatus 30 can detect position information with high accuracy by using position information that is difficult to acquire with high accuracy in combination with the laser radar device 20. . Therefore, the play determination system 1a according to the present embodiment can expand the types of play that can be determined, and can be applied to analysis of various competitions and games. In addition, the play determination system 1a according to the present embodiment improves the determination speed and the determination accuracy by using the imaging apparatus 30 together with the laser radar apparatus 20 in the determination of the play that requires a complicated and high processing load. be able to.

また、本実施形態では、識別処理部123は、対象人物の顔又は着衣の画像認識に基づいて対象人物を識別できない場合に、部分画像に基づいて、対象人物の骨格又は関節を推定し、推定した骨格又は関節と、予め定められた対象人物の骨格又は関節の特徴とに基づいて、対象人物を識別する。
これにより、本実施形態によるプレー判定システム1aは、さらに高精度に対象物を識別することができる。
In the present embodiment, the identification processing unit 123 estimates the skeleton or joint of the target person based on the partial image when the target person cannot be identified based on the image recognition of the target person's face or clothes. The target person is identified based on the skeleton or joint and the characteristics of the target person's skeleton or joint.
Thereby, the play determination system 1a according to the present embodiment can identify the object with higher accuracy.

また、本実施形態では、軌跡生成部124は、レーザレーダ装置20の検出情報に基づいて対象エリアの平面上の位置情報を生成し、撮像装置30の画像情報に基づいて対象エリアの高さ方向の位置情報を生成して、平面上の位置情報及び高さ方向の位置情報を含む3次元位置情報を生成し、生成した3次元位置情報に基づいて、対象物(対象人物)の軌跡を生成する。
これにより、本実施形態によるプレー判定システム1aは、正確な位置を計測できるため、例えば、ジャンプの伴うプレー判定を高精度に行うことができ、判定可能なプレーの種類をさらに広げることができる。
In the present embodiment, the locus generation unit 124 generates position information on the plane of the target area based on the detection information of the laser radar device 20, and the height direction of the target area based on the image information of the imaging device 30. Position information is generated, three-dimensional position information including position information on the plane and position information in the height direction is generated, and a trajectory of the target (target person) is generated based on the generated three-dimensional position information. To do.
Thereby, since the play determination system 1a according to the present embodiment can measure an accurate position, for example, a play determination with a jump can be performed with high accuracy, and the types of play that can be determined can be further expanded.

また、本実施形態によるプレー判定システム1aは、プレーを評価するプレー評価部127を備える。
これにより、本実施形態によるプレー判定システム1aは、例えば、各選手の練習中の走行距離、ジャンプ回数や高さ、プレー動作を評価することができ、オーバートレーニング等の管理を一元的に行うことができる。
The play determination system 1a according to this embodiment includes a play evaluation unit 127 that evaluates play.
Thereby, the play determination system 1a according to the present embodiment can evaluate, for example, the mileage during practice, the number of jumps and the height, and the play operation of each player, and perform management such as overtraining in an integrated manner. Can do.

また、本実施形態による判定方法は、骨格推定ステップと、軌跡生成ステップと、プレー判定ステップとを含む。骨格推定ステップにおいて、骨格推定部125が、少なくとも物体の形状及び位置情報を検出可能な検出装置が検出した検出情報に基づいて、対象人物の骨格又は関節を推定する。軌跡生成ステップにおいて、軌跡生成部124が、検出装置が検出した検出情報に基づいて、対象人物の移動軌跡を生成する。プレー判定ステップにおいて、プレー判定部126が、過去の対象人物の移動軌跡と、対象人物の骨格又は関節とに基づいて対象人物の動作及び行動を示す対象人物のプレーを判定するように生成された判定器と、骨格推定部125が推定した対象人物の骨格又は関節と、軌跡生成部124が生成した対象人物の移動軌跡とに基づいて、対象人物のプレーを判定する。
これにより、本実施形態による判定方法は、上述したプレー判定システム1aと同様の効果を奏し、処理負荷を抑えつつ、高精度に対象人物のプレー判定を行うことができる。
The determination method according to the present embodiment includes a skeleton estimation step, a trajectory generation step, and a play determination step. In the skeleton estimation step, the skeleton estimation unit 125 estimates the skeleton or joint of the target person based on detection information detected by at least a detection device that can detect the shape and position information of the object. In the trajectory generation step, the trajectory generation unit 124 generates a movement trajectory of the target person based on the detection information detected by the detection device. In the play determination step, the play determination unit 126 is generated so as to determine the play of the target person indicating the action and action of the target person based on the past movement trajectory of the target person and the skeleton or joint of the target person. The play of the target person is determined based on the determination unit, the skeleton or joint of the target person estimated by the skeleton estimation unit 125, and the movement trajectory of the target person generated by the trajectory generation unit 124.
Thereby, the determination method according to the present embodiment has the same effect as the above-described play determination system 1a, and can perform the play determination of the target person with high accuracy while suppressing the processing load.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、位置追跡システム1(プレー判定システム1a)が備えるレーザレーダ装置20及び撮像装置30の数は、上記の各実施形態に限定されるものではなく、他の台数を備えるようにしてもよい。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, the number of the laser radar devices 20 and the imaging devices 30 included in the position tracking system 1 (play determination system 1a) is not limited to the above embodiments, and may include other numbers.

上記の各実施形態において、情報処理装置10(10a)は、1台の装置である例を説明したが、これに限定されるものではなく、複数台の装置で構成されてもよい。また、情報処理装置10(10a)は、記憶部11(11a)の一部又は全部を、外部装置が備えるようにしてもよい。また、この場合、外部装置は、ネットワークを介して、情報処理装置10(10a)に接続可能な記憶装置であってもよい。また、情報処理装置10(10a)は、制御部12(12a)の一部の機能を、外部装置が備えるようにしてもよい。   In each of the above-described embodiments, the information processing apparatus 10 (10a) has been described as an example of a single apparatus. However, the present invention is not limited to this, and may be configured by a plurality of apparatuses. Further, the information processing apparatus 10 (10a) may be configured such that an external device includes part or all of the storage unit 11 (11a). In this case, the external device may be a storage device that can be connected to the information processing apparatus 10 (10a) via a network. Further, the information processing apparatus 10 (10a) may be configured such that an external device has a part of the functions of the control unit 12 (12a).

また、上記の各実施形態において、対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出する検出装置の一例として、レーザレーダ装置20を用いる例を説明したが、これに限定されるものではない。例えば、検出装置は、光波、電波、又は音波を照射して、物体からの反射波に基づいて、少なくとも物体までの距離及び方向を含む検出情報を検出するものであってもよい。ここで、波動とは、例えば、レーザー光などの光波、電波、超音波などの音波、等の空間を伝播する波である。   In each of the above embodiments, a laser radar device is an example of a detection device that irradiates a target area with waves and detects detection information including at least the distance and direction to the object based on the reflected wave from the object. Although the example using 20 was demonstrated, it is not limited to this. For example, the detection device may irradiate light waves, radio waves, or sound waves, and detect detection information including at least the distance and direction to the object based on the reflected wave from the object. Here, the wave is a wave propagating in a space such as a light wave such as a laser beam, a radio wave, a sound wave such as an ultrasonic wave, and the like.

上記の第2の実施形態において、プレー判定部126は、対象人物の移動軌跡と、骨格及び関節の位置と、対象人物の周辺に存在する対象物の移動軌跡とからプレーを判定する例を説明したが、これに限定されるものではない。プレー判定部126は、例えば、骨格及び関節の移動軌跡、ポールやネット、コートのラインなど周辺の対象物との位置関係、対象人物の手や足などの身体の一部の移動軌跡などに基づいて、プレーを判定するようにしてもよい。また、プレー判定部126は、対象人物の移動軌跡と、骨格及び関節の位置とのいずれか一方から、プレーを判定するようにしてもよい。
また、プレー判定部126が判定するプレーは、例えば、サッカーのゴール、テニスやバレーボールなどのラインイン又はラインアウト、柔道などの技の名前、等であってもよい。また、プレー判定部126は、プレー判定として、プレーの成否(例えば、バスケットボールのシュート成功・失敗)、出来栄え・点数(例えば、体操競技の採点)、等を判定するようにしてもよい。
In the second embodiment described above, the play determination unit 126 describes an example in which play is determined from the movement trajectory of the target person, the positions of the skeleton and joints, and the movement trajectory of the target existing around the target person. However, the present invention is not limited to this. The play determination unit 126 is based on, for example, the movement trajectory of the skeleton and joints, the positional relationship with surrounding objects such as poles, nets, and court lines, the movement trajectory of a part of the body such as the hand and foot of the target person, and the like. The play may be determined. In addition, the play determination unit 126 may determine play from either the movement trajectory of the target person or the position of the skeleton or joint.
The play determined by the play determination unit 126 may be, for example, a soccer goal, a line-in or line-out such as tennis or volleyball, a name of a technique such as judo. In addition, the play determination unit 126 may determine success / failure of play (for example, success / failure of basketball shot), performance / score (for example, scoring of gymnastics), and the like as play determination.

また、上記の各実施形態において、対象エリアが、例えば、スポーツを行う競技場であるコート、試合場、等である例を説明したが、これに限定されるものではない。情報処理装置10(10a)が適用される対象エリアは、例えば、スケート等の氷上リンク、スキージャンプやハーフパイプ等の雪上の競技場所、競泳やアーティスティックスイミング等のプールなどであってもよいし、その他の競技を行う場所であってもよい。   Moreover, in each said embodiment, although the target area demonstrated the example which is a court, a game field, etc. which are sports fields which perform a sport, for example, it is not limited to this. The target area to which the information processing apparatus 10 (10a) is applied may be, for example, an ice rink such as skates, a competition place on snow such as a ski jump or a half pipe, a swimming pool such as swimming or artistic swimming, or the like. It may be a place for other competitions.

また、上記の各実施形態において、レーザレーダ装置20と、撮像装置30とは、対象エリアにおける第1位置情報と、第2位置情報とが一致するように配置するキャリブレーション処理は、以下のように行ってもよい。
例えば、コートを使用する競技においては、コートラインに再帰性反射材で作成した有色のシール等を用いることで、レーザレーダ装置20及び撮像装置30のキャリブレーション処理を同時に行うようにしてもよい。この場合、上記シール等をネットポールや、ゴールポール等、競技中に位置が固定されている用具に張り付けて利用するようにしてもよい。
Further, in each of the above embodiments, the calibration process in which the laser radar device 20 and the imaging device 30 are arranged so that the first position information and the second position information in the target area coincide with each other is as follows. You may go to
For example, in a competition using a court, the laser radar device 20 and the imaging device 30 may be calibrated simultaneously by using a colored sticker or the like created with a retroreflective material on the court line. In this case, the seal or the like may be used by being attached to a tool whose position is fixed during the competition, such as a net pole or a goal pole.

また、情報処理装置10(10a)の位置計測の処理は、上記の各実施形態に限定されるものではなく、競技種目や目的によって、以下のように変更されてもよい。
例えば、情報処理装置10(10a)の軌跡生成部124は、通常時には、レーザレーダ装置20による第1位置情報を主として、画像情報に基づく第2位置情報で補完して位置計測を行う。そして、車いすバスケやウィルチェアラグビー競技に使用する際には、選手がボールを抱え込む動作が多く、レーザレーダ装置20による第1位置情報の検出が困難であることが考えられる。このような場合には、軌跡生成部124は、画像情報に基づく第2位置情報が主として、レーザレーダ装置20による第1位置情報で補完するようにしてもよい。
Further, the position measurement process of the information processing apparatus 10 (10a) is not limited to the above-described embodiments, and may be changed as follows depending on the competition item and purpose.
For example, the trajectory generation unit 124 of the information processing apparatus 10 (10a) performs position measurement in the normal state by supplementing mainly the first position information from the laser radar apparatus 20 with the second position information based on the image information. And when using it for a wheelchair basketball or a wheelchair rugby game, it is thought that it is difficult for the player to carry the ball and to detect the first position information by the laser radar device 20. In such a case, the locus generation unit 124 may supplement the second position information based on the image information mainly with the first position information from the laser radar device 20.

また、上述したように、レーザレーダ装置20は、精度良くリアルタイムでの位置検出が可能であるが、サンプリング周波数が低いため、断片的な位置情報となる。これに対して、画像情報に基づく位置検出では、連続した位置情報の検出が可能であるが、処理負荷が高く時間がかかる。そこで、軌跡生成部124は、リアルタイムでの位置検出を重視する場合は、レーザレーダ装置20による第1位置情報を主として、画像情報に基づく第2位置情報で補完する割合、頻度、等を減らすようにしてもよい。また、軌跡生成部124は、例えば、位置検出の精度を重視する場合は、画像情報に基づく第2位置情報で補完する割合、頻度、等を増やすようにしてもよい。
このように、軌跡生成部124は、競技種目や目的に応じて、第1位置情報と第2位置情報の間の補完方法を変更してもよい。
Further, as described above, the laser radar device 20 can accurately detect the position in real time, but the position information becomes fragmentary because the sampling frequency is low. In contrast, in position detection based on image information, continuous position information can be detected, but the processing load is high and time is required. Therefore, when emphasizing position detection in real time, the trajectory generation unit 124 mainly reduces the ratio, frequency, etc. of complementing the first position information by the laser radar device 20 with the second position information based on the image information. It may be. In addition, for example, when importance is placed on position detection accuracy, the trajectory generation unit 124 may increase the ratio, frequency, and the like that are supplemented with the second position information based on the image information.
As described above, the trajectory generation unit 124 may change a complementing method between the first position information and the second position information according to the competition item and the purpose.

また、上記の各実施形態において、情報処理装置10(10a)は、生成した移動軌跡を、様々な視線、向きに変換して、表示部(不図示)などに表示するようにしてもよい。例えば、軌跡生成部124は、野球のキャッチャーやサッカーのキーパの目線に移動軌跡を変換して表示させるようにしてもよいし、バレーボールやテニス、バドミントンなどでサーブを受ける選手目線でのボールやシャトルの軌道に移動軌跡を変換して、表示させるようにしてもよい。   In each of the above embodiments, the information processing apparatus 10 (10a) may convert the generated movement trajectory into various lines of sight and orientations and display them on a display unit (not shown) or the like. For example, the trajectory generation unit 124 may convert the movement trajectory to the baseball catcher or soccer keeper's line of sight, and display the movement trajectory. The movement trajectory may be converted into the trajectory and displayed.

また、上記の各実施形態において、情報処理装置10(10a)は、自転車のトラック競技、スピードスケートなど、屋内競技において、移動物体の軌道を取得したい場合に、簡易な設備で対応することができる。また、陸上の中長距離での速度計測において、コーナー付近は選手が重なった場合など、映像だけでは判別し難く、従来技術では、何台もカメラが必要となる状況で、キャリブレーションが困難である。情報処理装置10(10a)は、このような場合であっても、簡易な設備で移動軌跡を取得することができる。   Further, in each of the above-described embodiments, the information processing apparatus 10 (10a) can cope with a simple facility when it is desired to acquire the trajectory of a moving object in indoor competition such as bicycle track competition and speed skating. . In addition, when measuring speeds at medium and long distances on land, it is difficult to discriminate by video alone, such as when players overlap in the vicinity of the corner. With the conventional technology, calibration is difficult in situations where many cameras are required. is there. Even in such a case, the information processing apparatus 10 (10a) can acquire the movement locus with simple equipment.

また、上記の各実施形態の情報処理装置10(10a)を使用することで、報道カメラなどの操作において、以下のことに対応することができる。
例えば、当該選手、もしくはボールのみを常に追従撮影するようにカメラを操作することができる。また、人間の目では追えない程の速さで移動するボールやシャトルなどが目立つように映像加工することができる。
In addition, by using the information processing apparatus 10 (10a) of each of the above embodiments, the following can be handled in the operation of a news camera or the like.
For example, the camera can be operated so as to always follow and photograph only the player or the ball. In addition, it is possible to process an image so that a ball or shuttle moving at a speed that cannot be followed by human eyes is conspicuous.

また、上記の各実施形態において、情報処理装置10(10a)は、位置情報と移動軌跡とを利用することで、スキージャンプにおける移動軌跡及び飛行距離の計測や、陸上、競泳、スピードスケート、等の記録測定を行うようにしてもよい。   In each of the above embodiments, the information processing apparatus 10 (10a) uses the position information and the movement trajectory to measure the movement trajectory and the flight distance in ski jumps, land, swimming, speed skating, etc. The recording measurement may be performed.

また、上記の第2の実施形態において、プレー判定部126は、位置情報及び移動軌跡、骨格・関節の動き、及び周辺領域の軌跡から、プレー判定として、以下の処理を行ってもよい。
例えば、プレー判定部126は、サッカーなどのセットプレー時のフォーメーションの変化を通知するようにしてもよいし、アーチェリー等のフォームのみで的に当たる成功率を予測するようにしてもよい。また、プレー判定部126は、アーチェリー、ウェイトリフティング等のフォームのみでコンディション、疲れ具合を推定するようにしてもよい。また、プレー判定部126は、バスケットのスクリーンプレー、バレーボールのブロック等、ボールを保持していない選手のプレーを判定するようにしてもよいし、陸上競技において、骨格・関節の動きからピッチとストライドとを自動計測するようにしてもよい。
In the second embodiment, the play determination unit 126 may perform the following processing as the play determination from the position information and the movement locus, the movement of the skeleton / joint, and the locus of the surrounding area.
For example, the play determination unit 126 may notify a change in formation at the time of set play such as soccer, or may predict a success rate that is hit only by a form such as archery. In addition, the play determination unit 126 may estimate the condition and the degree of fatigue only with a form such as archery or weight lifting. Further, the play determination unit 126 may determine the play of a player who does not hold the ball, such as a basket screen play, a volleyball block, or the like. May be automatically measured.

また、上記の第2の実施形態において、プレー評価部127は、プレー判定結果と、過去の移動軌跡とに基づいて、技や競技の成功率を予測するようにしてもよい。プレー評価部127は、例えば、フィギュアスケートのジャンプや体操の技などの成功率を予測するようにしてもよい。また、プレー評価部127は、例えば、ウェイトリフティングにおいて、バーベルの軌跡と骨格・関節の動きから、成功率を予測するようにしてもよい。これによりフォームを適切に管理することができる。   In the second embodiment, the play evaluation unit 127 may predict the success rate of the technique or the competition based on the play determination result and the past movement trajectory. The play evaluation unit 127 may predict the success rate of, for example, a figure skating jump or a gymnastic technique. Further, for example, in the weight lifting, the play evaluation unit 127 may predict the success rate from the trajectory of the barbell and the movement of the skeleton / joint. This makes it possible to manage the form appropriately.

また、上記の第2の実施形態において、プレー評価部127は、対象物の位置、識別された各種対象物の軌跡、及び評価データを可視化するようにしてもよい。プレー評価部127は、図12に示すような表示画面(画像G2)を表示するようにしてもよい。   In the second embodiment described above, the play evaluation unit 127 may visualize the position of the object, the trajectory of the various objects identified, and the evaluation data. The play evaluation unit 127 may display a display screen (image G2) as shown in FIG.

図12は、第2の実施形態によるプレー判定システム1aの変形例における表示画面の一例を示す図である。
プレー評価部127は、可視化アプリケーションとして、画像G2に示すように、以下に示すような各種情報を表示部(不図示)に表示させる。
プレー評価部127は、可視化アプリケーションとして、例えば、1つの映像もしくは、映像内の時間範囲を指定することで、当該部分の映像及び、位置のデータ、及び不随する評価データを表示する。また、画像G2において、映像、位置データ、及び評価データは、表示/非表示の選択が可能である。
FIG. 12 is a diagram illustrating an example of a display screen in a modification of the play determination system 1a according to the second embodiment.
The play evaluation unit 127 displays various information as shown below on the display unit (not shown) as a visualization application, as shown in the image G2.
The play evaluation unit 127 displays, as a visualization application, for example, one image or a time range in the image, thereby displaying the image of the part, position data, and inadequate evaluation data. In addition, in the image G2, video / position data and evaluation data can be displayed / not displayed.

また、プレー評価部127は、可視化アプリケーションにおいて、位置データとして、選手やボール、ラケットなど用具の対象エリアにおける位置の移動を表示するとともに、位置データには、識別された識別情報(例えば、識別ID)を表示する。また、プレー評価部127は、可視化アプリケーションの機能として、例えば、映像と位置データは時刻同期されて表示させる、評価データとして、選手ごとのトラッキングデータ(追跡した移動軌跡)を表示させる、選手のジャンプ回数や高さ、最高スピード、スプリント回数等の統計データを表示させる、などの処理を実行する。   Further, the play evaluation unit 127 displays the movement of the position in the target area of the equipment such as the player, the ball, and the racket as the position data in the visualization application, and the position data includes the identified identification information (for example, the identification ID). ) Is displayed. In addition, the play evaluation unit 127 has a function of the visualization application, for example, video and position data are displayed in time synchronization, and tracking data (tracked movement trajectory) for each player is displayed as evaluation data. Processing such as displaying statistical data such as the number of times, height, maximum speed, and number of sprints is executed.

また、プレー評価部127は、可視化アプリケーションの機能として、例えば、スピード曲線であれば、映像と位置データ、グラフ中の点データを連動させて表示させる、選手別のデータの他に、チーム別の統計データを表示させる、グラフ等の統計表示以外に、表によるテーブルを表示させる、などの処理を実行する。また、プレー評価部127は、可視化アプリケーションの機能として、例えば、評価データには、ボールやラケットなど用具のデータを表示させてもよいし、例えば、ボールのスピード、回転数、スピン種別や、ラケットのスピード、ショット種別、インパクト位置、ショットパワーのデータなどを表示させてもよい。   In addition, as a function of the visualization application, for example, in the case of a speed curve, the play evaluation unit 127 displays video, position data, and point data in the graph in conjunction with each other, in addition to player-specific data. In addition to displaying statistical data and displaying statistics such as graphs, processing such as displaying a table based on a table is executed. Further, the play evaluation unit 127 may display the data of equipment such as a ball and a racket as the evaluation application function as the function of the visualization application, for example, the speed, the number of rotations, the spin type, the racket, etc. The speed, shot type, impact position, shot power data, etc. may be displayed.

次に、図13を参照して、プレー判定システム1aにおける映像と評価データを可視化する別の変形例について説明する。
また、図13は、第2の実施形態によるプレー判定システム1aの別の変形例を示す図である。
Next, with reference to FIG. 13, another modified example of visualizing video and evaluation data in the play determination system 1a will be described.
Moreover, FIG. 13 is a figure which shows another modification of the play determination system 1a by 2nd Embodiment.

この図において、プレー判定システム1aは、バレーのコートAR4の上部に設置されたスクリーン40(表示部の一例)を備えている。情報処理装置10aは、スクリーン40に撮像装置30が撮像した映像を表示させるとともに、プレーに付随する評価データを重ねて表示させる(図13の画像G3)。情報処理装置10aは、例えば、バレーボールであれば、画像G3に示すように、アタックの打点高、球速、球角度等を表示させる。また、情報処理装置10aは、映像上に重ねる評価データの内容及び表示位置をユーザが指定できるものとする。また、複数台の撮像装置30を使用して計測する場合には、情報処理装置10aは、どの撮像装置30の映像をスクリーン40に表示させるかを、ユーザが指定できるものとする。また、表示部の一例として、スクリーン40を用いる例を説明するが、コートAR4の周辺に設置された表示装置であれば、他のディスプレイ、スクリーン、表示装置、等であってもよい。   In this figure, the play determination system 1a includes a screen 40 (an example of a display unit) installed on the upper part of a valley court AR4. The information processing device 10a displays the video imaged by the imaging device 30 on the screen 40 and displays the evaluation data associated with the play in an overlapping manner (image G3 in FIG. 13). For example, in the case of volleyball, the information processing apparatus 10a displays an attack hitting height, a ball speed, a ball angle, and the like as shown in an image G3. Further, it is assumed that the information processing apparatus 10a can specify the content and display position of evaluation data to be overlaid on the video. Further, when measurement is performed using a plurality of imaging devices 30, the information processing device 10 a can specify which imaging device 30 video is to be displayed on the screen 40. Moreover, although the example which uses the screen 40 is demonstrated as an example of a display part, if it is a display apparatus installed in the circumference | surroundings of the coat AR4, another display, a screen, a display apparatus, etc. may be sufficient.

なお、評価データの表示には、計測、及び判定処理を要するため、スクリーン40に表示される映像は、リアルタイムより遅延して再生される場合がある。その場合、情報処理装置10aは、評価データの表示の遅延時間、及び評価データの表示を維持する時間を、ユーザが設定できるようにしてもよい。この場合、例えば、アタック練習で遅延時間を5秒と設定され、複数人の選手が次々にアタックした場合、自分がアタックした後に、スクリーン40で今の自分の評価データやフォームを確認することができる。
また、例えば、フォーメーション練習を行う際に、遅延時間を20秒と設定し、レシーブ、トス、及びアタックの一連のプレーを、プレー後にスクリーン40等のディスプレイで確認することができる。
In addition, since display of evaluation data requires measurement and determination processing, the video displayed on the screen 40 may be reproduced with a delay from real time. In this case, the information processing apparatus 10a may allow the user to set the delay time for displaying the evaluation data and the time for maintaining the display of the evaluation data. In this case, for example, if the delay time is set to 5 seconds in the attack practice, and a plurality of players attack one after another, the user can check the current evaluation data and form on the screen 40 after the attack. it can.
Further, for example, when performing the formation practice, the delay time is set to 20 seconds, and a series of play of receive, toss, and attack can be confirmed on the display such as the screen 40 after the play.

また、上記の第2の実施形態において、情報処理装置10aは、プレー評価部127によって生成及び蓄積された評価データを、ユーザの指定によって、テキストデータ、又はCSVファイル、等により外部に出力させるようにしてもよい。この場合、評価データは、例えば、1試合でのアタックの打点高の推移、アタック時のブロックの枚数と成功率、1日の練習におけるジャンプの回数及び高さ、等である。プレー判定システム1aでは、これらの評価データを外部に出力することにより、アナリストやコーチが、出力されたデータからゲーム分析やトレーニング評価を効率良く行うことができる。   In the second embodiment, the information processing apparatus 10a causes the evaluation data generated and accumulated by the play evaluation unit 127 to be output to the outside as text data, CSV file, or the like according to the user's specification. It may be. In this case, the evaluation data includes, for example, the transition of the hit point height of the attack in one game, the number of blocks and the success rate at the time of the attack, the number of jumps and the height in the practice of the day, and the like. In the play determination system 1a, by outputting these evaluation data to the outside, an analyst and a coach can efficiently perform game analysis and training evaluation from the output data.

なお、上述した位置追跡システム1及びプレー判定システム1aが備える各構成は、内部に、コンピュータシステムを有している。そして、上述した位置追跡システム1及びプレー判定システム1aが備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した位置追跡システム1及びプレー判定システム1aが備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each of the components included in the position tracking system 1 and the play determination system 1a described above has a computer system inside. And the program for implement | achieving the function of each structure with which the position tracking system 1 and the play determination system 1a which were mentioned above are provided is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system. The processing in each configuration provided in the position tracking system 1 and the play determination system 1a described above may be performed by executing. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices.
Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に位置追跡システム1及びプレー判定システム1aが備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. It should be noted that after the program is divided into a plurality of parts and downloaded at different timings, the structure incorporated in each structure included in the position tracking system 1 and the play determination system 1a and the distribution server that distributes each of the divided programs are different. May be. Furthermore, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Moreover, you may implement | achieve part or all of the function mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each function described above may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

1…位置追跡システム、1a…プレー判定システム、10,10a…情報処理装置、11,11a…記憶部、12,12a…制御部、20…レーザレーダ装置、30…撮像装置、40…スクリーン、111…レーダ検出記憶部、112…画像情報記憶部、113…対象物情報記憶部、114…移動軌跡記憶部、115…対象物軌跡記憶部、116…骨格関節情報記憶部、117…判定器情報記憶部、118…判定結果記憶部、121…データ取得部、122…画像処理部、123…識別処理部、124…軌跡生成部、125…骨格推定部、126…プレー判定部、127…プレー評価部   DESCRIPTION OF SYMBOLS 1 ... Position tracking system, 1a ... Play determination system, 10, 10a ... Information processing apparatus, 11, 11a ... Memory | storage part, 12, 12a ... Control part, 20 ... Laser radar apparatus, 30 ... Imaging device, 40 ... Screen, 111 ... radar detection storage unit, 112 ... image information storage unit, 113 ... object information storage unit, 114 ... movement locus storage unit, 115 ... object locus storage unit, 116 ... skeletal joint information storage unit, 117 ... determiner information storage 118: Determination result storage unit, 121 ... Data acquisition unit, 122 ... Image processing unit, 123 ... Identification processing unit, 124 ... Trajectory generation unit, 125 ... Skeletal estimation unit, 126 ... Play determination unit, 127 ... Play evaluation unit

Claims (6)

対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、
前記対象エリアを含む画像を撮像する撮像装置と、
前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得部と、
前記取得部が取得した前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理部と、
前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成部と
を備えることを特徴とする位置追跡システム。
A detection device that irradiates a target area with waves and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object;
An imaging device that captures an image including the target area;
An acquisition unit that acquires and synchronizes the detection information detected by the detection device and image information representing an image captured by the imaging device;
The object is identified as a measurement object based on a partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the acquisition unit, and the identified measurement object On the other hand, an identification processing unit for providing identification information for identifying the measurement object;
The movement trajectory of the measurement object is obtained by associating the position information of the measurement object in the target area generated based on the detection information and the image information with the identification information given by the identification processing unit. A position tracking system comprising: a locus generation unit that generates
前記検出情報には、前記物体の輪郭が含まれ、
前記識別処理部は、前記検出装置が検出した前記物体の輪郭に基づいて、前記画像情報における前記部分画像を抽出し、抽出した前記部分画像に基づいて、前記物体を計測対象物として識別する
ことを特徴とする請求項1に記載の位置追跡システム。
The detection information includes an outline of the object,
The identification processing unit extracts the partial image in the image information based on the contour of the object detected by the detection device, and identifies the object as a measurement target based on the extracted partial image. The position tracking system according to claim 1.
前記計測対象物には、対象人物が含まれ、
前記識別処理部は、前記対象人物を前記計測対象物として識別する場合に、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別する
ことを特徴とする請求項1又は請求項2に記載の位置追跡システム。
The measurement object includes a target person,
The said identification process part identifies the said target person based on the image recognition of the said target person's face or clothes, when identifying the said target person as the said measurement target object. 2. The position tracking system according to 2.
前記識別処理部は、前記対象人物の顔又は着衣の画像認識に基づいて前記対象人物を識別できない場合に、前記部分画像に基づいて、前記対象人物の骨格又は関節を推定し、推定した前記骨格又は前記関節と、予め定められた前記対象人物の骨格又は関節の特徴とに基づいて、前記対象人物を識別する
ことを特徴とする請求項3に記載の位置追跡システム。
The identification processing unit estimates the skeleton or joint of the target person based on the partial image when the target person cannot be identified based on image recognition of the face or clothing of the target person, and the estimated skeleton The position tracking system according to claim 3, wherein the target person is identified based on the joint and a predetermined skeleton or joint characteristic of the target person.
前記軌跡生成部は、前記検出情報に基づく前記対象エリアにおける前記物体の位置情報である第1位置情報と、前記画像情報に基づく前記対象エリアにおける前記計測対象物の位置情報である第2位置情報とを相互に補完して、前記計測対象物の位置情報を補正し、補正した前記計測対象物の位置情報と、前記識別処理部が付与した前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の位置追跡システム。
The trajectory generation unit includes first position information that is position information of the object in the target area based on the detection information, and second position information that is position information of the measurement target in the target area based on the image information. Are mutually corrected, the position information of the measurement object is corrected, the corrected position information of the measurement object is associated with the identification information provided by the identification processing unit, and the measurement object The position tracking system according to any one of claims 1 to 4, wherein a movement trajectory is generated.
対象エリアに波動を照射して、物体からの反射波に基づいて、少なくとも前記物体までの距離及び方向を含む検出情報を検出する検出装置と、前記対象エリアを含む画像を撮像する撮像装置とを備える位置追跡システムの位置追跡方法であって、
取得部が、前記検出装置が検出した前記検出情報と、前記撮像装置が撮像した画像を表す画像情報とを取得して同期させる取得ステップと、
識別処理部が、前記取得ステップによって取得された前記検出情報に基づいて検出された前記物体の位置に対応する、前記画像情報における部分画像に基づいて、前記物体を計測対象物として識別し、識別した前記計測対象物に対して、当該計測対象物を識別する識別情報を付与する識別処理ステップと、
軌跡生成部が、前記検出情報と、前記画像情報とに基づいて生成した前記対象エリアにおける前記計測対象物の位置情報と、前記識別処理ステップによって付与された前記識別情報とを対応付けて、前記計測対象物の移動軌跡を生成する軌跡生成ステップと
を含むことを特徴とする位置追跡方法。
A detection device that irradiates a target area with waves and detects detection information including at least a distance and a direction to the object based on a reflected wave from the object, and an imaging device that captures an image including the target area A position tracking method for a position tracking system comprising:
An acquisition step in which an acquisition unit acquires and synchronizes the detection information detected by the detection device and image information representing an image captured by the imaging device;
An identification processing unit identifies the object as a measurement target based on a partial image in the image information corresponding to the position of the object detected based on the detection information acquired by the acquisition step, and performs identification. An identification processing step for providing identification information for identifying the measurement object to the measurement object;
A trajectory generation unit associates the position information of the measurement object in the target area generated based on the detection information and the image information, and the identification information given by the identification processing step, A position tracking method comprising: a locus generation step for generating a movement locus of a measurement object.
JP2018157773A 2018-08-24 2018-08-24 Position tracking system and position tracking method Active JP6596804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157773A JP6596804B1 (en) 2018-08-24 2018-08-24 Position tracking system and position tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157773A JP6596804B1 (en) 2018-08-24 2018-08-24 Position tracking system and position tracking method

Publications (2)

Publication Number Publication Date
JP6596804B1 true JP6596804B1 (en) 2019-10-30
JP2020030190A JP2020030190A (en) 2020-02-27

Family

ID=68383190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157773A Active JP6596804B1 (en) 2018-08-24 2018-08-24 Position tracking system and position tracking method

Country Status (1)

Country Link
JP (1) JP6596804B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242016A (en) * 2020-01-10 2020-06-05 深圳数联天下智能科技有限公司 Clothes management method, control device, wardrobe and computer-readable storage medium
CN116703983A (en) * 2023-06-14 2023-09-05 石家庄铁道大学 Combined shielding target detection and target tracking method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4300948A4 (en) * 2021-04-05 2024-05-22 Fujitsu Limited Information processing program, device, and method
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system
KR20240023738A (en) * 2022-08-16 2024-02-23 한화비전 주식회사 Method for monitoring usage statu of a guest using at least one camera and apparatus for supporting the same

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590546B2 (en) * 2004-06-14 2010-12-01 国立大学法人 東京大学 Image extraction device
WO2011070650A1 (en) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP5617100B2 (en) * 2011-02-08 2014-11-05 株式会社日立製作所 Sensor integration system and sensor integration method
JP6536064B2 (en) * 2015-02-10 2019-07-03 株式会社デンソー Travel locus selection device, travel locus selection method
JP6681682B2 (en) * 2015-08-19 2020-04-15 株式会社日立製作所 Mobile object measuring system and mobile object measuring method
JP6384534B2 (en) * 2016-09-29 2018-09-05 マツダ株式会社 Vehicle target detection system
CN108152808A (en) * 2017-11-23 2018-06-12 安徽四创电子股份有限公司 A kind of circumference intelligent predicting method for early warning based on millimetre-wave radar

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242016A (en) * 2020-01-10 2020-06-05 深圳数联天下智能科技有限公司 Clothes management method, control device, wardrobe and computer-readable storage medium
CN116703983A (en) * 2023-06-14 2023-09-05 石家庄铁道大学 Combined shielding target detection and target tracking method
CN116703983B (en) * 2023-06-14 2023-12-19 石家庄铁道大学 Combined shielding target detection and target tracking method

Also Published As

Publication number Publication date
JP2020030190A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
JP6704606B2 (en) Judgment system and judgment method
JP6596804B1 (en) Position tracking system and position tracking method
US11049258B2 (en) Stereoscopic image capture with performance outcome prediction in sporting environments
US9025021B2 (en) System and methods for translating sports tracking data into statistics and performance measurements
US10886017B2 (en) Analysis system and analysis method
AU2018404876B2 (en) Golf ball tracking system
CN105745695B (en) Method, analyzer and the system assessed automatically for the progress to exercise motion
WO2010014223A2 (en) System and method for analyzing data from athletic events
US20200346091A1 (en) Device for calculating flight information of ball, method of calculating flight information of ball, and computing-device-readable recording medium having the method recorded therein
US11850498B2 (en) Kinematic analysis of user form
US20150005084A1 (en) Two-environment game play system
JP6677319B2 (en) Sports motion analysis support system, method and program
JP6760610B2 (en) Position measurement system and position measurement method
US11103760B2 (en) Line fault detection systems and method for determining whether a sport gaming device has bounced off an area of a sports field
JP7054950B1 (en) Position measurement system and position measurement method
Monier et al. A computer vision based tracking system for indoor team sports
Chakraborty et al. Deep Learning-Based Prediction of Football Players’ Performance During Penalty Shootout
Krzeszowski et al. Monocular tracking of human motion in evaluation of hurdle clearance
EP4325443A1 (en) Data processing apparatus and method
EP4325448A1 (en) Data processing apparatus and method
US20220343649A1 (en) Machine learning for basketball rule violations and other actions
WO2022056315A1 (en) System and method for capture and analysis of sporting performance data and broadcast of the same
Zaman Comprehensive Study on Sports Technology
Sekkas et al. MobiXeyes: Real-time stereo vision technology for racket sports

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190913

R150 Certificate of patent or registration of utility model

Ref document number: 6596804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350