JP2021128691A - Multi-modal action recognition method, apparatus, and program - Google Patents

Multi-modal action recognition method, apparatus, and program Download PDF

Info

Publication number
JP2021128691A
JP2021128691A JP2020024394A JP2020024394A JP2021128691A JP 2021128691 A JP2021128691 A JP 2021128691A JP 2020024394 A JP2020024394 A JP 2020024394A JP 2020024394 A JP2020024394 A JP 2020024394A JP 2021128691 A JP2021128691 A JP 2021128691A
Authority
JP
Japan
Prior art keywords
person
behavior
posture
contact
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020024394A
Other languages
Japanese (ja)
Other versions
JP7283852B2 (en
Inventor
和之 田坂
Kazuyuki Tasaka
和之 田坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020024394A priority Critical patent/JP7283852B2/en
Publication of JP2021128691A publication Critical patent/JP2021128691A/en
Application granted granted Critical
Publication of JP7283852B2 publication Critical patent/JP7283852B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a multi-modal action recognition method, an apparatus, and a program that recognize a relation between a posture of a person and a behavior of an object in association with a modal of a contact action of the person to the object.SOLUTION: An posture estimation unit 104 estimates a posture of a person based on joint points extracted from a camera image. A sensor signal acquisition unit 105 acquires a sensor signal changing according to movement of an object 2. A behavior estimation unit 106 estimates a behavior of the object based on the sensor signal. A contact modal estimation unit 107 estimates a contact action modal such as a timing when the person contacts the object and a position on the object where the person contacts. An action recognition unit 108 recognizes a causal relation between the posture of the person and a behavior of the object based on a relation between the posture of the person and the behavior of the object synchronized with time.SELECTED DRAWING: Figure 3

Description

本発明は、マルチモーダル情報に基づいてユーザの行動を認識する方法、装置およびプログラムに係り、特に、カメラ画像から推定した人物の姿勢および当該人物が取り扱う物体の挙動をマルチモーダル情報として行動認識を行うマルチモーダル行動認識方法、装置およびプログラムに関する。 The present invention relates to a method, a device and a program for recognizing a user's behavior based on multimodal information, and in particular, recognizes the behavior of a person estimated from a camera image and the behavior of an object handled by the person as multimodal information. Multimodal behavior recognition methods, devices and programs to be performed.

特許文献1には、姿勢推定装置のプロセッサがスポーツ映像中に存在する選手の姿勢を推定する方法として、ユーザによって入力された情報に基づいて得られる情報であって、推定対象の試合のスポーツ映像中に存在する特定選手の関節位置を指定する参照姿勢情報を受け取り、参照姿勢情報を用いて、推定対象のスポーツ映像中に存在する特定選手以外の選手である推定対象選手の姿勢を推定する技術が開示されている。 Patent Document 1 describes information obtained based on information input by a user as a method for estimating the posture of a player existing in a sports image by a processor of a posture estimation device, and is a sports image of a game to be estimated. A technique for estimating the posture of an estimated target player who is a player other than the specific player existing in the sports image to be estimated by receiving the reference posture information that specifies the joint position of the specific player existing in the sport image. Is disclosed.

特許文献2には、ゴルフスイング中のゴルファーの関節がヘッドスピードに与える影響を算出するために、ゴルファーによるクラブのスイング中のゴルファーの身体の所定部位の位置座標データおよびクラブの所定部位の位置座標データを取得し、スイング中のゴルファーの地面反力データを取得し、ゴルファーの身体の所定部位の位置座標データおよびクラブの所定部位の位置座標データと、取得された地面反力データと、剛体リンクモデルとに基づき、ゴルファーの関節ごとの関節トルクを算出し、算出されたゴルファーの関節ごとの関節トルクおよびスイング中のゴルファーの動作により生じた力の、クラブのヘッドスピードに対する寄与をゴルファーの関節ごとに算出する技術が開示されている。 In Patent Document 2, in order to calculate the influence of the golfer's joint during the golf swing on the head speed, the position coordinate data of a predetermined part of the golfer's body during the swing of the club by the golfer and the position coordinate of the predetermined part of the club. The data is acquired, the ground reaction force data of the golfer during the swing is acquired, the position coordinate data of the predetermined part of the golfer's body, the position coordinate data of the predetermined part of the club, the acquired ground reaction force data, and the rigid body link. Based on the model, the joint torque for each golfer's joint is calculated, and the contribution of the calculated joint torque for each joint of the golfer and the force generated by the movement of the golfer during the swing to the head speed of the club is calculated for each golfer's joint. The technology to calculate is disclosed.

特許6589144号公報Japanese Patent No. 6589144 特開2019-110990号公報JP-A-2019-110990

特許文献2は、ゴルフクラブの挙動(クラブのヘッドスピード)をゴルファーの姿勢(関節トルク)と関連付けて分析するが、ゴルファーはゴルフクラブをスイングの開始から終了まで保持し続ける。そのため、ゴルファーがゴルフクラブに接触した(グリップを握った)タイミングにおけるゴルファーの姿勢や接触位置といった接触行動の態様が、その後のスイングに与える影響は無視できてしまう。 Patent Document 2 analyzes the behavior of a golf club (club head speed) in relation to the posture (joint torque) of the golfer, but the golfer keeps the golf club from the start to the end of the swing. Therefore, the influence of the contact behavior such as the golfer's posture and contact position at the timing when the golfer touches the golf club (holds the grip) on the subsequent swing can be ignored.

これに対して、サッカーや野球のようなボール競技では、プレーヤがボールに接触行動したときの姿勢やボールへの接触位置に応じてボールの挙動が変化し、ゲーム展開に大きな影響を与える。したがって、人物の姿勢と物体の挙動との関係を接触行動の態様と関連付けて認識することが重要となる。 On the other hand, in ball games such as soccer and baseball, the behavior of the ball changes according to the posture when the player makes contact with the ball and the position of contact with the ball, which greatly affects the development of the game. Therefore, it is important to recognize the relationship between the posture of a person and the behavior of an object in relation to the mode of contact behavior.

本発明の目的は、上記の技術課題を解決し、人物の姿勢と物体の挙動との関係を人物の物体に対する接触行動の態様と関連付けて認識するマルチモーダル行動認識方法、装置およびプログラムを提供することにある。 An object of the present invention is to solve the above technical problems and provide a multimodal behavior recognition method, device and program for recognizing the relationship between a person's posture and the behavior of an object in relation to the mode of contact behavior of the person with respect to the object. There is.

上記の目的を達成するために、本発明は、人物のカメラ映像および物体の挙動を検知するセンサ信号をマルチモーダル情報として行動認識を行うマルチモーダル行動認識装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention has the following configuration in a multimodal behavior recognition device that recognizes behavior by using a camera image of a person and a sensor signal for detecting the behavior of an object as multimodal information. There is a feature.

(1) カメラ映像に基づいて人物の姿勢を推定する手段と、物体の動きに応じて変化するセンサ信号を取得する手段と、前記センサ信号に基づいて物体の挙動を推定する手段と、時刻同期させた人物の姿勢と物体の挙動との関係に基づいて、物体に対して接触行動する人物の姿勢と当該物体の挙動との因果関係を認識する手段とを具備した。 (1) Time synchronization between means for estimating the posture of a person based on a camera image, means for acquiring a sensor signal that changes according to the movement of an object, and means for estimating the behavior of an object based on the sensor signal. Based on the relationship between the posture of the person and the behavior of the object, the means for recognizing the causal relationship between the posture of the person who makes contact with the object and the behavior of the object is provided.

(2) 人物が物体に接触したタイミングを推定する手段を更に具備し、人物が物体に接触したタイミングにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識するようにした。 (2) The means for estimating the timing when the person touches the object is further provided, and the causal relationship between the posture of the person at the timing when the person touches the object and the behavior of the object after the timing is recognized.

(3) 人物が接触した物体上の位置を推定する手段を更に具備し、人物の姿勢、物体の挙動および人物が接触した物体上の位置の因果関係を認識するようにした。 (3) The means for estimating the position on the object in contact with the person is further provided, and the causal relationship between the posture of the person, the behavior of the object, and the position on the object in contact with the person is recognized.

(4) 人物が物体に接触したタイミングを推定する手段と、人物が接触した物体上の位置を推定する手段とを更に具備し、人物が物体に接触したタイミングにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置の因果関係を認識するようにした。 (4) Further provided with a means for estimating the timing when the person touches the object and a means for estimating the position on the object where the person touches, the posture of the person at the timing when the person touches the object, and after that timing. The behavior of the object and the causal relationship of the position on the object that the person touches are recognized.

本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.

(1) 時刻同期させた人物の姿勢と物体の挙動との関係に基づいて、物体に対して接触行動する人物の姿勢と当該物体の挙動との因果関係を認識するので、サッカーや野球のように、プレーヤがボールに接触行動したときの姿勢やボールへの接触位置等の態様に応じてボールの挙動が変化し、ゲーム展開に大きな影響を与える分野の行動認識において、人物の姿勢と物体の挙動との関係を接触行動の態様と関連付けて認識できるようになる。 (1) Based on the relationship between the time-synchronized attitude of the person and the behavior of the object, the causal relationship between the attitude of the person who makes contact with the object and the behavior of the object is recognized, so that it is similar to soccer or baseball. In addition, in behavior recognition in a field where the behavior of the ball changes according to the posture when the player touches the ball and the position of contact with the ball, which has a great influence on the development of the game, the posture of the person and the object It becomes possible to recognize the relationship with the behavior in relation to the mode of the contact behavior.

(2) 人物が物体に接触したタイミングを推定し、人物が物体に接触したタイミングにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識するようにしたので、人物の姿勢と物体の挙動との関係が、人物が物体に接触したタイミングTに依存する場合に、人物が物体に接触したタイミングTにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識できるようになる。 (2) Since the timing when the person touches the object is estimated and the causal relationship between the posture of the person at the timing when the person touches the object and the behavior of the object after the timing is recognized, the posture of the person and the object are recognized. When the relationship with the behavior of the person depends on the timing T when the person touches the object, the causal relationship between the posture of the person at the timing T when the person touches the object and the behavior of the object after the timing can be recognized. Become.

(3) 人物が接触した物体上の位置を推定し、人物の姿勢、物体の挙動および人物が接触した物体上の位置の因果関係を認識するようにしたので、人物の姿勢と物体の挙動との関係が、人物が接触した物体上の位置Pに依存する場合に、人物の姿勢、物体の挙動および人物が接触した物体上の位置Pの因果関係を認識できるようになる。 (3) Since the position on the object that the person touched was estimated and the causal relationship between the posture of the person, the behavior of the object, and the position on the object that the person touched was recognized, the posture of the person and the behavior of the object When the relationship of is dependent on the position P on the object in contact with the person, the posture of the person, the behavior of the object, and the causal relationship of the position P on the object in contact with the person can be recognized.

(4) 人物が物体に接触したタイミング、および人物が接触した物体上の位置を推定し、人物が物体に接触したタイミングにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置の因果関係を認識するようにしたので、人物の姿勢と物体の挙動との関係が、人物が物体に接触したタイミングTおよび人物が接触した物体上の位置Pのいずれにも依存する場合にも、人物が物体に接触したタイミングTにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置Pの因果関係を認識できるようになる。 (4) Estimate the timing when the person touches the object and the position on the object where the person touches, the posture of the person at the timing when the person touches the object, the behavior of the object after that timing, and the object where the person touches. Since the causal relationship of the position of is recognized, the relationship between the posture of the person and the behavior of the object depends on both the timing T when the person touches the object and the position P on the object where the person touches. In addition, it becomes possible to recognize the posture of the person at the timing T when the person touches the object, the behavior of the object after the timing, and the causal relationship of the position P on the object where the person touches.

本発明が適用される行動認識システムの構成を示した図である。It is a figure which showed the structure of the behavior recognition system to which this invention is applied. サッカーボールに内蔵されたセンサシステムの機能ブロック図である。It is a functional block diagram of the sensor system built in the soccer ball. マルチモーダル行動認識システムの機能ブロック図である。It is a functional block diagram of a multimodal behavior recognition system. インサイドキックのタイミングにおける姿勢推定の結果を示した図である。It is a figure which showed the result of the posture estimation at the timing of an inside kick. 本発明を適用したマルチモーダル行動認識手順のフローチャートである。It is a flowchart of the multimodal behavior recognition procedure to which this invention is applied.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明が適用される行動認識システムの構成を示した図であり、カメラ画像に基づいて推定した人物の姿勢、および検知した物体の挙動、をマルチモーダル情報として処理し、物体に接触行動する人物の姿勢と当該物体の挙動との因果関係を認識する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration of a behavior recognition system to which the present invention is applied. The posture of a person estimated based on a camera image and the behavior of a detected object are processed as multimodal information and applied to the object. Recognize the causal relationship between the posture of a person who makes contact and the behavior of the object.

本実施形態では、人物の姿勢およびサッカーボールの挙動を推定し、人物がサッカーボールに対して接触行動したときの姿勢とその後のサッカーボールの挙動との因果関係を認識する場合を例にして説明する。 In the present embodiment, a case where the posture of the person and the behavior of the soccer ball are estimated and the causal relationship between the posture when the person makes contact with the soccer ball and the subsequent behavior of the soccer ball is recognized as an example. do.

マルチモーダル行動認識システムは、カメラおよび通信機能を備えたローカル端末1と、各種の動きセンサおよび通信機能を内蔵してローカル端末1等へセンサ信号を送信する物体2と、ローカル端末1と例えばWi-Fi、無線基地局BSおよびネットワークNW経由で通信し、ローカル端末1から取得した情報に基づいてマルチモーダル行動認識を実行する行動認識サーバ3とを主要な構成としている。なお、ローカル端末1の処理能力が十分に高く、ローカル端末1のみでマルチモーダル行動認識を実行できれば行動認識サーバ3は省略しても良い。 The multimodal behavior recognition system includes a local terminal 1 having a camera and a communication function, an object 2 having various motion sensors and a communication function built-in to transmit a sensor signal to the local terminal 1 and the like, and the local terminal 1 and, for example, Wi. -The main configuration is a behavior recognition server 3 that communicates via Fi, a radio base station BS, and a network NW, and executes multimodal behavior recognition based on information acquired from a local terminal 1. If the processing capacity of the local terminal 1 is sufficiently high and the multimodal action recognition can be executed only by the local terminal 1, the action recognition server 3 may be omitted.

図2は、前記サッカーボール2に内蔵されたセンサシステム20の構成を示した機能ブロック図であり、3軸加速度センサ201、3軸ジャイロセンサ202、3軸磁気センサ203および各センサの出力信号を処理する制御部204、各センサおよび制御部204に電力を供給するバッテリ205ならびにBluetooth(登録商標)等の無線通信インタフェース206を主要な構造としている。 FIG. 2 is a functional block diagram showing the configuration of the sensor system 20 built in the soccer ball 2, and displays the 3-axis acceleration sensor 201, the 3-axis gyro sensor 202, the 3-axis magnetic sensor 203, and the output signals of each sensor. The main structure is a control unit 204 for processing, a battery 205 for supplying power to each sensor and the control unit 204, and a wireless communication interface 206 such as Bluetooth (registered trademark).

前記各センサ201,202,203により所定のサンプリング周期で計測された3軸方向の加速度、3軸方向の角速度および3軸方向の地磁気は、その計測時刻情報と共にリアルタイムあるいは一時記憶された後に一括して、無線通信インタフェース206からローカル端末1等へ送信される。 The acceleration in the three-axis direction and the angular velocity in the three-axis direction and the geomagnetism in the three-axis direction measured by the sensors 201, 202, and 203 in a predetermined sampling cycle are collectively stored in real time or temporarily together with the measurement time information. Then, it is transmitted from the wireless communication interface 206 to the local terminal 1 and the like.

図3は、前記ローカル端末1および行動認識サーバ3が協働して実現するマルチモーダル行動認識システム100の主要部の構成を示した機能ブロック図であり、カメラ101、人物領域抽出部102、関節点抽出部103、姿勢推定部104、センサ信号取得部105、挙動推定部106、接触態様推定部107および行動認識部108を主要な構成としている。各構成はローカル端末1および行動認識サーバ3に分散して実装しても良いし、ローカル端末1のみに実装しても良い。 FIG. 3 is a functional block diagram showing the configuration of the main part of the multimodal action recognition system 100 realized by the local terminal 1 and the action recognition server 3 in cooperation with each other, and is a camera 101, a person area extraction unit 102, and a joint. The main components are the point extraction unit 103, the posture estimation unit 104, the sensor signal acquisition unit 105, the behavior estimation unit 106, the contact mode estimation unit 107, and the behavior recognition unit 108. Each configuration may be distributedly implemented in the local terminal 1 and the action recognition server 3, or may be implemented only in the local terminal 1.

このようなローカル端末1および行動認識サーバ3は、CPU、メモリ、インタフェースおよびこれらを接続するバス等を備えた汎用のコンピュータやモバイル端末に、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部をハードウェア化またはプログラム化した専用機や単能機としても構成できる。本実施形態では、ローカル端末1をスマートフォンやタブレット端末で代用する場合を例にして説明する。 Such a local terminal 1 and an action recognition server 3 implement an application (program) that realizes each function described later on a general-purpose computer or mobile terminal equipped with a CPU, a memory, an interface, a bus connecting them, and the like. It can be configured by. Alternatively, it can be configured as a dedicated machine or a single-purpose machine in which a part of the application is made into hardware or programmed. In the present embodiment, a case where the local terminal 1 is substituted by a smartphone or a tablet terminal will be described as an example.

カメラ101は、物体(本実施形態では、サッカーボール)2に接触する人物の動画を撮影し、そのカメラ画像をフレーム単位で出力する。人物領域抽出部102は、カメラ映像の各フレーム画像から人物領域を抽出する。人物領域の抽出には、例えばSSD (Single Shot Multibox Detector) を用いることができる。 The camera 101 captures a moving image of a person in contact with an object (soccer ball in the present embodiment) 2 and outputs the camera image in frame units. The person area extraction unit 102 extracts a person area from each frame image of the camera image. For example, SSD (Single Shot Multibox Detector) can be used to extract the person area.

関節点抽出部103は、フレーム画像の人物領域から、予め抽出対象として登録されている関節点を抽出する。関節点の抽出には既存の関節点抽出技術 (Cascaded Pyramid Network) を用いることができる。姿勢推定部104は、抽出した関節点に基づいて人物の姿勢を推定する。 The joint point extraction unit 103 extracts the joint points registered in advance as extraction targets from the person area of the frame image. The existing articulated point extraction technology (Cascaded Pyramid Network) can be used to extract the articulated points. The posture estimation unit 104 estimates the posture of the person based on the extracted joint points.

センサ信号取得部105は、人物が取り扱う物体2に実装されたセンサシステム20から、その動きに応じて変化するセンサ信号を取得する。本実施形態では、物体2から加速度センサ信号、モーションセンサ信号および地磁気センサ信号を取得する。 The sensor signal acquisition unit 105 acquires a sensor signal that changes according to the movement of the sensor system 20 mounted on the object 2 handled by the person. In the present embodiment, the acceleration sensor signal, the motion sensor signal, and the geomagnetic sensor signal are acquired from the object 2.

挙動推定部106は、前記センサ信号取得部105が取得したセンサ信号に基づいて物体の挙動を推定する。回転方向検知部106aは物体の回転方向を検知する。回転速度検知部106bは物体の回転速度を検知する。移動方向検知部106cは物体の移動方向を検知する。移動速度検知部106dは物体の移動速度を検知する。加速度検知部106eは物体の加速度を検知する。高度検知部106fは物体の高度を検知する。 The behavior estimation unit 106 estimates the behavior of the object based on the sensor signal acquired by the sensor signal acquisition unit 105. The rotation direction detection unit 106a detects the rotation direction of the object. The rotation speed detection unit 106b detects the rotation speed of the object. The movement direction detection unit 106c detects the movement direction of the object. The moving speed detection unit 106d detects the moving speed of the object. The acceleration detection unit 106e detects the acceleration of the object. The altitude detection unit 106f detects the altitude of the object.

接触態様推定部107は、接触タイミング推定部107aおよび接触位置推定部107bを含む。接触タイミング推定部107aは、物体2の動きに基づいて人物が当該物体2に接触したタイミングTを推定する。本実施形態では、人物がサッカーボール2をキックしたタイミングを推定する。接触位置推定部107bは、物体2の挙動に基づいて人物が接触した物体上の位置Pを推定する。本実施形態では、人物が蹴ったサッカーボール上の位置を推定する。なお、前記接触位置Pには人物が物体に接触した際の当該人物の部位の位置を含めてもよい。 The contact mode estimation unit 107 includes a contact timing estimation unit 107a and a contact position estimation unit 107b. The contact timing estimation unit 107a estimates the timing T when a person contacts the object 2 based on the movement of the object 2. In the present embodiment, the timing at which a person kicks the soccer ball 2 is estimated. The contact position estimation unit 107b estimates the position P on the object in contact with the person based on the behavior of the object 2. In the present embodiment, the position on the soccer ball kicked by the person is estimated. The contact position P may include the position of the part of the person when the person comes into contact with the object.

行動認識部108は、時刻同期部108a、接触時姿勢推定部108bおよび姿勢/接触関係認識部108cを含み、前記接触位置P、前記接触タイミングT以降のサッカーボールの挙動および前記接触タイミングTにおける人物の姿勢に基づいて、当該人物の姿勢とサッカーボール2の挙動との因果関係を認識する。 The action recognition unit 108 includes a time synchronization unit 108a, a posture estimation unit 108b at the time of contact, and a posture / contact relationship recognition unit 108c, and includes the contact position P, the behavior of the soccer ball after the contact timing T, and the person at the contact timing T. The causal relationship between the posture of the person concerned and the behavior of the soccer ball 2 is recognized based on the posture of the soccer ball 2.

前記時刻同期部108aは、人物の姿勢推定時刻と物体の挙動推定時刻とを同期させる。前記接触時姿勢推定部108bは、人物が物体に接触した接触タイミングTにおける人物の姿勢を推定する。本実施形態では、人物がサッカーボール2を蹴ったときの姿勢が推定される。姿勢/接触関係認識部108cは、人物がサッカーボール2に接触したタイミングTにおける人物の姿勢、当該タイミングT以降の物体の挙動および人物が接触した物体上の位置Pの因果関係を認識する。 The time synchronization unit 108a synchronizes the posture estimation time of the person and the behavior estimation time of the object. The contact posture estimation unit 108b estimates the posture of the person at the contact timing T when the person contacts the object. In the present embodiment, the posture when a person kicks the soccer ball 2 is estimated. The posture / contact relationship recognition unit 108c recognizes the posture of the person at the timing T when the person contacts the soccer ball 2, the behavior of the object after the timing T, and the causal relationship of the position P on the object with which the person contacts.

図4は、インサイドキックの接触タイミング(キックタイミング)におけるプレーヤの姿勢推定の結果を示した図であり、人物の右足FRの姿勢(指先と踵とを結ぶ骨格Fsで代表できる)が地面に対して略平行となっており、骨格FSの中心位置でボールと接触している。 Figure 4 is a graph showing the results of a player pose estimation in contact timing inside Kick (Kick timing), (can be represented by skeleton Fs connecting the finger and heel) attitude of the right foot F R of a person on the ground On the other hand, it is almost parallel and is in contact with the ball at the center position of the skeleton F S.

このとき、接触位置(キック位置)がボール側面やや上部かつ骨格FSの中心位置と推定され、接触タイミング以降のボールの挙動として、滑りの無い順回転が推定されていれば、右足FRが地面に対して略平行となる姿勢でサッカーボール2の側面やや上部をキックすることが好ましいインサイドキックの方法であると認識できる。 At this time, if the contact position (kick position) is estimated to be slightly above the side of the ball and the center position of the skeleton F S , and if the forward rotation without slippage is estimated as the behavior of the ball after the contact timing, the right foot F R is It can be recognized that it is a preferable inside kick method to kick the side surface and the upper part of the soccer ball 2 in a posture substantially parallel to the ground.

これに対して、接触位置はサッカーボール2の側面やや上部かつ骨格FSの中心位置と推定されるが、プレーヤの右足FRが地面に対して略平行ではなく、接触タイミング以降のボールの挙動に滑りや逆回転が含まれると推定されると、右足FRが地面に対して略平行とならない姿勢でのインサイドキックは、たとえキック位置が適正であっても望ましいインサイドキックではないと認識できる。 On the other hand, the contact position is presumed to be slightly above the side surface of the soccer ball 2 and the center position of the skeleton F S , but the player's right foot F R is not substantially parallel to the ground, and the behavior of the ball after the contact timing. When it is estimated that include slip and reverse rotation, the inside kick in a posture in which the right foot F R is not substantially parallel to the ground can even recognize a kick position is not a desired inside kick be appropriate ..

図5は、本発明を適用したマルチモーダル行動認識の手順を示したフローチャートであり、ステップS1では、フレーム画像ごとに人物の姿勢が関節点に基づいて推定される。ステップS2では、サッカーボール2から、その動きに応じて変化するセンサ信号が取得される。ステップS3では、サッカーボール2から取得したセンサ信号に基づいて人物のボール2に対する接触タイミングTおよび接触位置Pが推定される。 FIG. 5 is a flowchart showing a procedure of multimodal behavior recognition to which the present invention is applied. In step S1, the posture of a person is estimated based on a joint point for each frame image. In step S2, a sensor signal that changes according to the movement of the soccer ball 2 is acquired from the soccer ball 2. In step S3, the contact timing T and the contact position P of the person with respect to the ball 2 are estimated based on the sensor signal acquired from the soccer ball 2.

ステップS4では、当該接触タイミングT以降のボールの挙動が、サッカーボール2から取得したセンサ信号の時系列に基づいて推定される。本実施形態では、サッカーボール2の回転方向、回転速度、移動方向、移動速度、加速度、高度に基づいてサッカーボール2の挙動が推定される。 In step S4, the behavior of the ball after the contact timing T is estimated based on the time series of the sensor signals acquired from the soccer ball 2. In the present embodiment, the behavior of the soccer ball 2 is estimated based on the rotation direction, rotation speed, movement direction, movement speed, acceleration, and altitude of the soccer ball 2.

ステップS5では、前記接触タイミングTにおける人物の姿勢(キック姿勢)、キック位置Pおよびキック後のボールの挙動に基づいて、人物のキック姿勢とその後のボールの挙動との因果関係が認識される。 In step S5, a causal relationship between the kick posture of the person and the subsequent behavior of the ball is recognized based on the posture (kick posture) of the person at the contact timing T, the kick position P, and the behavior of the ball after the kick.

本実施形態によれば、サッカーや野球のように、プレーヤがボールに接触行動したときの姿勢やボールへの接触位置等の態様に応じてボールの挙動が変化し、ゲーム展開に大きな影響を与える分野の行動認識において、人物の姿勢と物体の挙動との関係を接触行動の態様と関連付けて認識できるようになる。 According to the present embodiment, as in soccer and baseball, the behavior of the ball changes according to the posture when the player makes contact with the ball, the position of contact with the ball, and the like, which has a great influence on the development of the game. In behavior recognition in the field, it becomes possible to recognize the relationship between the posture of a person and the behavior of an object in relation to the mode of contact behavior.

なお、上記の実施形態ではインサイドキックにおける人物の姿勢と物体の挙動との因果関係を、キックする足の姿勢と関連付けて認識するものとして説明したが、本発明はこれのみに限定されるものではなく、他の骨格の姿勢と対応付けてもよい。 In the above embodiment, the causal relationship between the posture of the person and the behavior of the object in the inside kick has been described as being recognized in relation to the posture of the kicking foot, but the present invention is not limited to this. Instead, it may be associated with the posture of another skeleton.

また、上記の実施形態ではパスを行う人物の姿勢とボールの挙動との因果関係を認識するものとして説明したが、パスを受ける人物の姿勢とボールの挙動との因果関係を認識するようにしても良い。 Further, in the above embodiment, the causal relationship between the posture of the person making the pass and the behavior of the ball has been described, but the causal relationship between the posture of the person receiving the pass and the behavior of the ball is recognized. Is also good.

さらに、上記の実施形態では人物がボールに直接接触する場合を例にして説明したが、実質的に人物と一体化している用具(バット、スティック、ゴルフクラブ等)がボールに接触する場合にも同様に適用できる。 Further, in the above embodiment, the case where the person comes into direct contact with the ball has been described as an example, but there is also a case where a tool (bat, stick, golf club, etc.) substantially integrated with the person comes into contact with the ball. It can be applied in the same way.

一方、上記の実施形態では、人物が物体に接触したタイミングTおよび人物が接触した物体上の位置Pを推定し、人物が物体に接触したタイミングTにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置Pの因果関係を認識するものとして説明したが、本発明はこれのみに限定されるものではない。 On the other hand, in the above embodiment, the timing T when the person touches the object and the position P on the object where the person touches are estimated, the posture of the person at the timing T when the person touches the object, and the behavior of the object after the timing. And, although it has been described as recognizing the causal relationship of the position P on the object in contact with the person, the present invention is not limited to this.

例えば、人物の姿勢と物体の挙動との関係が、人物が接触した物体上の位置に依存せず、人物が物体に接触したタイミングTのみに依存するのであれば、前記接触位置推定部107bを省略し、前記行動認識部108は、人物が物体に接触したタイミングTにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識するようにしても良い。 For example, if the relationship between the posture of a person and the behavior of an object does not depend on the position on the object that the person has contacted, but only the timing T at which the person has contacted the object, the contact position estimation unit 107b may be used. Omitted, the action recognition unit 108 may recognize the causal relationship between the posture of the person at the timing T when the person comes into contact with the object and the behavior of the object after the timing.

さらに、人物の姿勢と物体の挙動との関係が、人物が物体に接触したタイミングTに依存せず、人物が接触した物体上の位置Pのみに依存するのであれば、前記接触タイミング推定部107aを省略し、前記行動認識部108は、人物の姿勢、物体の挙動および人物が接触した物体上の位置Pの因果関係を認識するようにしても良い。 Further, if the relationship between the posture of the person and the behavior of the object does not depend on the timing T when the person touches the object, but only the position P on the object in which the person touches, the contact timing estimation unit 107a May be omitted, and the action recognition unit 108 may recognize the posture of the person, the behavior of the object, and the causal relationship of the position P on the object in contact with the person.

さらに、人物の姿勢と物体の挙動との関係が、人物が物体に接触したタイミングTおよび人物が接触した物体上の位置Pのいずれにも依存しないのであれば、前記接触タイミング推定部107aおよび接触位置推定部107bをいずれも省略し、前記行動認識部108は、人物の姿勢と物体の挙動と因果関係のみを認識するようにしても良い。 Further, if the relationship between the posture of the person and the behavior of the object does not depend on either the timing T when the person contacts the object or the position P on the object where the person contacts, the contact timing estimation unit 107a and the contact. The position estimation unit 107b may be omitted, and the behavior recognition unit 108 may recognize only the posture of the person, the behavior of the object, and the causal relationship.

1…ローカル端末,2…サッカーボール,3…行動認識サーバ,101…カメラ,102…人物領域抽出部,103…関節点抽出部,104…姿勢推定部,105…センサ信号取得部,106…挙動推定部,107…接触態様推定部,108…行動認識部,201…3軸加速度センサ,202…3軸ジャイロセンサ,203…3軸地磁気センサ,204…制御部,205…バッテリ,206…無線通信インタフェース 1 ... local terminal, 2 ... soccer ball, 3 ... action recognition server, 101 ... camera, 102 ... person area extraction unit, 103 ... joint point extraction unit, 104 ... attitude estimation unit, 105 ... sensor signal acquisition unit, 106 ... behavior Estimating unit, 107 ... Contact mode estimation unit, 108 ... Behavior recognition unit, 201 ... 3-axis acceleration sensor, 202 ... 3-axis gyro sensor, 203 ... 3-axis geomagnetic sensor, 204 ... Control unit, 205 ... Battery, 206 ... Wireless communication interface

Claims (14)

人物のカメラ映像および物体の挙動を検知するセンサ信号をマルチモーダル情報として行動認識を行うマルチモーダル行動認識装置において、
カメラ映像に基づいて人物の姿勢を推定する手段と、
物体の動きに応じて変化するセンサ信号を取得する手段と、
前記センサ信号に基づいて物体の挙動を推定する手段と、
時刻同期させた人物の姿勢と物体の挙動との関係に基づいて、物体に対して接触行動する人物の姿勢と当該物体の挙動との因果関係を認識する手段とを具備したことを特徴とするマルチモーダル行動認識装置。
In a multimodal behavior recognition device that recognizes behavior by using a camera image of a person and a sensor signal that detects the behavior of an object as multimodal information.
A means of estimating the posture of a person based on camera images,
A means of acquiring a sensor signal that changes according to the movement of an object,
A means for estimating the behavior of an object based on the sensor signal, and
Based on the relationship between the time-synchronized posture of the person and the behavior of the object, it is characterized by providing a means for recognizing the causal relationship between the posture of the person who makes contact with the object and the behavior of the object. Multimodal behavior recognition device.
人物が物体に接触したタイミングを推定する手段を更に具備し、
前記因果関係を認識する手段は、人物が物体に接触したタイミングにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識することを特徴とする請求項1に記載のマルチモーダル行動認識装置。
Further equipped with a means for estimating the timing when a person comes into contact with an object,
The multimodal behavior recognition according to claim 1, wherein the means for recognizing the causal relationship recognizes a causal relationship between the posture of the person at the timing when the person comes into contact with the object and the behavior of the object after the timing. Device.
人物が接触した物体上の位置を推定する手段を更に具備し、
前記因果関係を認識する手段は、人物の姿勢、物体の挙動および人物が接触した物体上の位置の因果関係を認識することを特徴とする請求項1に記載のマルチモーダル行動認識装置。
Further equipped with a means for estimating the position on the object in contact with the person,
The multimodal behavior recognition device according to claim 1, wherein the means for recognizing the causal relationship recognizes the causal relationship between the posture of the person, the behavior of the object, and the position on the object in contact with the person.
人物が物体に接触したタイミングを推定する手段と、
人物が接触した物体上の位置を推定する手段とを更に具備し、
前記因果関係を認識する手段は、人物が物体に接触したタイミングにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置の因果関係を認識することを特徴とする請求項1に記載のマルチモーダル行動認識装置。
A means of estimating when a person touches an object,
Further provided with a means for estimating the position on the object in contact with the person,
The means for recognizing the causal relationship is characterized by recognizing the causal relationship of the posture of the person at the timing when the person comes into contact with the object, the behavior of the object after the timing, and the position on the object with which the person comes into contact. The multimodal behavior recognition device according to 1.
前記物体の挙動を推定する手段は、前記物体の回転方向、回転速度、移動方向、移動速度、加速度および高度の少なくとも一つを推定することを特徴とする請求項1ないし4のいずれかに記載のマルチモーダル行動認識装置。 The means for estimating the behavior of the object according to any one of claims 1 to 4, wherein at least one of the rotation direction, the rotation speed, the movement direction, the movement speed, the acceleration and the altitude of the object is estimated. Multimodal behavior recognition device. 前記センサ信号が、3軸の加速度センサ信号、3軸のジャイロセンサ信号および3軸の地磁気センサ信号のうち少なくとも一つを含むことを特徴とする請求項5に記載のマルチモーダル行動認識装置。 The multimodal behavior recognition device according to claim 5, wherein the sensor signal includes at least one of a three-axis acceleration sensor signal, a three-axis gyro sensor signal, and a three-axis geomagnetic sensor signal. コンピュータが人物のカメラ映像および物体の挙動を検知するセンサ信号をマルチモーダル情報として行動認識を行うマルチモーダル行動認識方法において、
カメラ映像に基づいて人物の姿勢を推定し、
物体の動きに応じて変化するセンサ信号を取得し、
前記センサ信号に基づいて物体の挙動を推定し、
時刻同期させた人物の姿勢と物体の挙動との関係に基づいて、物体に対して接触行動する人物の姿勢と当該物体の挙動との因果関係を認識することを特徴とするマルチモーダル行動認識方法。
In a multimodal behavior recognition method in which a computer recognizes a person's camera image and a sensor signal for detecting the behavior of an object as multimodal information.
Estimate the posture of the person based on the camera image,
Acquires a sensor signal that changes according to the movement of an object,
The behavior of the object is estimated based on the sensor signal,
A multimodal behavior recognition method characterized by recognizing a causal relationship between the posture of a person who makes contact with an object and the behavior of the object based on the relationship between the posture of the person and the behavior of the object synchronized in time. ..
人物が物体に接触したタイミングを更に推定し、
人物が物体に接触したタイミングにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識することを特徴とする請求項7に記載のマルチモーダル行動認識方法。
Further estimate the timing when a person touches an object,
The multimodal behavior recognition method according to claim 7, wherein the causal relationship between the posture of the person at the timing when the person comes into contact with the object and the behavior of the object after the timing is recognized.
人物が接触した物体上の位置を更に推定し、
人物の姿勢、物体の挙動および人物が接触した物体上の位置の因果関係を認識することを特徴とする請求項7に記載のマルチモーダル行動認識方法。
Further estimate the position on the object that the person touches,
The multimodal behavior recognition method according to claim 7, wherein the causal relationship between the posture of the person, the behavior of the object, and the position on the object in contact with the person is recognized.
人物が物体に接触したタイミングおよび人物が接触した物体上の位置を更に推定し、
人物が物体に接触したタイミングにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置の因果関係を認識することを特徴とする請求項7に記載のマルチモーダル行動認識方法。
Further estimating the timing when the person touches the object and the position on the object where the person touches,
The multimodal behavior recognition method according to claim 7, wherein the posture of the person at the timing when the person touches the object, the behavior of the object after the timing, and the causal relationship of the position on the object with which the person touches are recognized. ..
人物のカメラ映像および物体の挙動を検知するセンサ信号をマルチモーダル情報として行動認識を行うマルチモーダル行動認識プログラムにおいて、
カメラ映像に基づいて人物の姿勢を推定する手順と、
物体の動きに応じて変化するセンサ信号を取得する手順と、
前記センサ信号に基づいて物体の挙動を推定する手順と、
時刻同期させた人物の姿勢と物体の挙動との関係に基づいて、物体に対して接触行動する人物の姿勢と当該物体の挙動との因果関係を認識する手順と、
をコンピュータに実行させるマルチモーダル行動認識プログラム。
In a multimodal behavior recognition program that recognizes behavior by using a camera image of a person and a sensor signal that detects the behavior of an object as multimodal information.
The procedure for estimating the posture of a person based on the camera image,
The procedure for acquiring sensor signals that change according to the movement of an object,
The procedure for estimating the behavior of an object based on the sensor signal, and
Based on the relationship between the time-synchronized posture of the person and the behavior of the object, the procedure for recognizing the causal relationship between the posture of the person who makes contact with the object and the behavior of the object, and
A multimodal behavior recognition program that lets a computer execute.
人物が物体に接触したタイミングを推定する手順を更に含み、
前記因果関係を認識する手順では、人物が物体に接触したタイミングにおける人物の姿勢と当該タイミング以降の物体の挙動との因果関係を認識することを特徴とする請求項11に記載のマルチモーダル行動認識プログラム。
It also includes a procedure for estimating when a person touches an object.
The multimodal behavior recognition according to claim 11, wherein in the procedure for recognizing a causal relationship, the causal relationship between the posture of the person at the timing when the person comes into contact with the object and the behavior of the object after the timing is recognized. program.
人物が接触した物体上の位置を推定する手順を更に含み、
前記因果関係を認識する手順では、人物の姿勢、物体の挙動および人物が接触した物体上の位置の因果関係を認識することを特徴とする請求項11に記載のマルチモーダル行動認識プログラム。
It also includes a procedure for estimating the position on an object that a person has come into contact with.
The multimodal behavior recognition program according to claim 11, wherein the procedure for recognizing a causal relationship recognizes a causal relationship between the posture of a person, the behavior of an object, and the position of a person in contact with the object.
人物が物体に接触したタイミングを推定する手順と、
人物が接触した物体上の位置を推定する手順とを更に含み、
前記因果関係を認識する手順では、人物が物体に接触したタイミングにおける人物の姿勢、当該タイミング以降の物体の挙動および人物が接触した物体上の位置の因果関係を認識することを特徴とする請求項11に記載のマルチモーダル行動認識プログラム。
The procedure for estimating the timing when a person touches an object,
It also includes a procedure for estimating the position on an object that a person has come into contact with.
The procedure for recognizing a causal relationship is characterized in recognizing a causal relationship between the posture of the person at the timing when the person comes into contact with the object, the behavior of the object after the timing, and the position on the object with which the person comes into contact. The multimodal behavior recognition program according to 11.
JP2020024394A 2020-02-17 2020-02-17 MULTIMODAL ACTION RECOGNITION METHOD, APPARATUS AND PROGRAM Active JP7283852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020024394A JP7283852B2 (en) 2020-02-17 2020-02-17 MULTIMODAL ACTION RECOGNITION METHOD, APPARATUS AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020024394A JP7283852B2 (en) 2020-02-17 2020-02-17 MULTIMODAL ACTION RECOGNITION METHOD, APPARATUS AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2021128691A true JP2021128691A (en) 2021-09-02
JP7283852B2 JP7283852B2 (en) 2023-05-30

Family

ID=77488753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024394A Active JP7283852B2 (en) 2020-02-17 2020-02-17 MULTIMODAL ACTION RECOGNITION METHOD, APPARATUS AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7283852B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270508A (en) * 2004-03-26 2005-10-06 Sri Sports Ltd Diagnostic system for golf swing
JP2012510873A (en) * 2008-12-05 2012-05-17 ナイキ インターナショナル リミテッド System and method for athletic performance monitoring in a team competition environment
JP2012221074A (en) * 2011-04-06 2012-11-12 Sony Corp Operation device
WO2015098251A1 (en) * 2013-12-24 2015-07-02 ソニー株式会社 Information processing device, recording medium, and information processing method
JP2015536710A (en) * 2012-10-25 2015-12-24 ナイキ イノベイト シーブイ System and method for monitoring athletic performance in a team sports environment
WO2017010154A1 (en) * 2015-07-13 2017-01-19 ソニー株式会社 Information processing apparatus, information processing method, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005270508A (en) * 2004-03-26 2005-10-06 Sri Sports Ltd Diagnostic system for golf swing
JP2012510873A (en) * 2008-12-05 2012-05-17 ナイキ インターナショナル リミテッド System and method for athletic performance monitoring in a team competition environment
JP2012221074A (en) * 2011-04-06 2012-11-12 Sony Corp Operation device
JP2015536710A (en) * 2012-10-25 2015-12-24 ナイキ イノベイト シーブイ System and method for monitoring athletic performance in a team sports environment
WO2015098251A1 (en) * 2013-12-24 2015-07-02 ソニー株式会社 Information processing device, recording medium, and information processing method
WO2017010154A1 (en) * 2015-07-13 2017-01-19 ソニー株式会社 Information processing apparatus, information processing method, and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KDDI株式会社: "5G時代を見据えた先端テクノロジー スポーツ行動認識AI×IoTボールでアスリートを育成・支援", [ONLINE], JPN7023000791, 7 October 2019 (2019-10-07), ISSN: 0005002619 *
石井孝幸: "KDDIのCEATECブースでサッカーのフォーム判定、センサー内蔵ボールとAIにより分析", [ONLINE], JPN7023000790, 15 October 2019 (2019-10-15), ISSN: 0005002620 *

Also Published As

Publication number Publication date
JP7283852B2 (en) 2023-05-30

Similar Documents

Publication Publication Date Title
US20190108391A1 (en) Information processing device, information processing method, and program
JP6484858B2 (en) Image processing apparatus and image processing method
US10894186B2 (en) Real time golf swing training aid
US11875697B2 (en) Real time sports motion training aid
JP7377225B2 (en) Sports training aid with motion detector
US8555205B2 (en) System and method utilized for human and machine interface
US20150358770A1 (en) Electronic device and computer-readable computer program product
JP2015156882A (en) Motion analysis device and motion analysis system
US10888735B2 (en) Calibration of initial orientation and position of sports equipment and body segments for inertial sensors
KR20160097582A (en) Data processing method for providing information on analysis of user's athletic motion and analysis device of user's athletic motion using the same, and data processing method for providing information on analysis of user's golf swing and golf swing analysis device for the same
JP2015205072A (en) Information processing device, information processing method and computer program
WO2016033717A1 (en) Combined motion capturing system
JP2021128691A (en) Multi-modal action recognition method, apparatus, and program
WO2016035464A1 (en) Analysis method, system and analysis device
US11273354B2 (en) Real time sports motion training aid
JPWO2015170703A1 (en) Motion detection program, object motion detection apparatus and method
CN117119418A (en) Signal interaction system and method based on intelligent table tennis service robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R150 Certificate of patent or registration of utility model

Ref document number: 7283852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150