JP5766623B2 - Motion analysis apparatus, method, and program - Google Patents

Motion analysis apparatus, method, and program Download PDF

Info

Publication number
JP5766623B2
JP5766623B2 JP2012005286A JP2012005286A JP5766623B2 JP 5766623 B2 JP5766623 B2 JP 5766623B2 JP 2012005286 A JP2012005286 A JP 2012005286A JP 2012005286 A JP2012005286 A JP 2012005286A JP 5766623 B2 JP5766623 B2 JP 5766623B2
Authority
JP
Japan
Prior art keywords
mhi
template
frame
collation
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012005286A
Other languages
Japanese (ja)
Other versions
JP2013145453A (en
Inventor
弾 三上
弾 三上
聡貴 木村
聡貴 木村
柏野 邦夫
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012005286A priority Critical patent/JP5766623B2/en
Publication of JP2013145453A publication Critical patent/JP2013145453A/en
Application granted granted Critical
Publication of JP5766623B2 publication Critical patent/JP5766623B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、動作分析装置、方法、及びプログラムに係り、特に、アピアランス(物体・人体などの見え方)に基づいて物体や人体などの動作を分析する動作分析装置、方法、及びプログラムに関する。   The present invention relates to a motion analysis device, method, and program, and more particularly, to a motion analysis device, method, and program for analyzing motions of an object, a human body, and the like based on appearance (appearance of an object / human body).

物体や人体などの動作の分析は、コンピュータビジョンと呼ばれる技術分野において極めて重要である。そのための手法の一つとしてアピアランスに基づく方法が広く用いられている。中でも、Motion History Image(MHI)に基づく手法は、実装の簡便さなどから極めて広く利用されている(例えば、非特許文献1参照)。   Analysis of the motion of an object or a human body is extremely important in a technical field called computer vision. For this purpose, a method based on appearance is widely used. Among them, the technique based on Motion History Image (MHI) is very widely used due to the ease of mounting and the like (for example, see Non-Patent Document 1).

MHIは、物体の動きを表現する画像であり、各画素の画素値として、近い時間に動きがあると明るい値が与えられ、動きがないと次第に暗くなっていく。具体的には、時系列に連続するフレーム画像(映像)において、最近のフレーム(処理対象のフレーム)において輝度変化が認識された部分に対応する画素には、明るい輝度値が与えられ、時間の経過と共にその輝度値が暗くなっていく画像である。暗くなる程度はDecayingパラメータにより定められる。   MHI is an image representing the motion of an object, and as a pixel value of each pixel, a bright value is given if there is a motion in a near time, and it gradually becomes dark if there is no motion. Specifically, in a frame image (video) continuous in time series, a bright luminance value is given to a pixel corresponding to a portion in which a luminance change is recognized in a recent frame (frame to be processed), It is an image whose luminance value becomes darker as time passes. The degree of darkening is determined by the Decaying parameter.

MHIは、ノイズに強い手法であり、検索対象となる動作を1枚のMHIにより表現し(テンプレートMHI)、テンプレートMHIと照合対象の映像から作成されたMHIとの照合により、検索対象の動作が発生している箇所を同定する試みが行われている。   MHI is a technique that is resistant to noise. The operation to be searched is expressed by one MHI (template MHI), and the operation of the search target is made by matching the template MHI with the MHI created from the video to be checked. Attempts have been made to identify where it is occurring.

Bobick et al., "The recognition of human movement using temporal templates", IEEE TPAMI, 23(3), pp.257-267, 2001.Bobick et al., "The recognition of human movement using temporal templates", IEEE TPAMI, 23 (3), pp.257-267, 2001.

バイオメカニクス分野では、特定の動作(例えばピッチングフォーム)の分析を目標とし、例えば、一連の動作内での状態(姿勢など)がどのような時間発展で生じるのか、また、一連の動作の異なる試行(トライアル)において、各姿勢が検出される位置のトライアル毎の違いなどを分析したいという要求がある。   In the biomechanics field, the goal is to analyze a specific movement (for example, pitching form). For example, the time evolution of a state (posture, etc.) within a series of movements, and different trials of a series of movements In (Trial), there is a request to analyze the difference between positions where each posture is detected for each trial.

しかしながら、従来の手法では、MHIはパラメータにより定まる一定時間の動作の履歴を保持した1枚の画像であるため、テンプレートMHIによる照合では、テンプレートMHIと最も類似した時刻が得られるのみである。そのため、動作内での状態の時間発展、すなわち、前回のトライアルにおける動作よりゆっくりした動きをしたであるとか、動作内のある時点まではゆっくりした動きをしたが、その後、素早い動きをしたといった、動作中の状態がどのように時間的に遷移したか、ということを分析することができない、という問題がある。同様に、その動作中の状態が、前回のトライアル時と比べてどのような位置関係の場所で起きているか、ということを分析することができない、という問題がある。   However, in the conventional method, the MHI is a single image that holds a history of operation for a certain period of time determined by parameters, and therefore, the most similar time to the template MHI can be obtained by collation using the template MHI. Therefore, the time evolution of the state in motion, that is, it moved more slowly than in the previous trial, or moved slowly until a certain point in the motion, but then moved quickly, There is a problem that it is not possible to analyze how the operating state has transited in time. Similarly, there is a problem in that it is impossible to analyze what positional relationship the operating state occurs compared to the time of the previous trial.

本発明は上記問題点に鑑みてなされたものであり、同一動作の異なるトライアルにおいて、トライアル間での動きの相違を分析することができる動作分析装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an operation analysis apparatus, method, and program capable of analyzing a difference in motion between trials in different trials of the same operation. To do.

上記目的を達成するために、本発明の動作分析装置は、時系列に連続した複数のフレーム画像からなる照合用映像に基づいて、前記複数のフレーム画像毎に、照合用映像内の物体または人体の動きの履歴を各画素の画素値の変化で表したMotion History Image(MHI)を照合用MHIとして作成する作成手段と、前記作成手段により作成されたフレーム画像毎の照合用MHI各々と、分析対象の動作を表すテンプレート用映像から作成されたフレーム毎のMHIをテンプレートMHIとして時系列に並べた時系列テンプレートMHIとを照合し、前記照合用MHIの各々と最も類似する前記テンプレートMHIが前記時系列テンプレートMHIの何番目のテンプレートMHIであるかを示す情報、及び前記照合用MHIにおける前記テンプレートMHIの位置を照合結果として出力する照合手段と、を含んで構成されている。 In order to achieve the above object, the motion analysis apparatus of the present invention provides an object or a human body in a collation video for each of the plurality of frame images based on a collation video composed of a plurality of frame images continuous in time series. Creation means for creating a Motion History Image (MHI) representing the movement history of each pixel by a change in the pixel value of each pixel as a matching MHI , each of the matching MHI created by the creating means for each frame image, the MHI for each frame created from template image representing the operation to be analyzed against a time series template MHI obtained by arranging in time series as a template MHI, the template MHI most similar to each of the matching MHI said what number of templates MHI information indicating whether the time series template MHI, and the matching MH Is configured to include a, a collating means for outputting as a position matching result of the template MHI in.

本発明の動作分析装置によれば、作成手段が、時系列に連続した複数のフレーム画像からなる照合用映像に基づいて、複数のフレーム画像毎に、照合用映像内の物体または人体の動きの履歴を各画素の画素値の変化で表したMotion History Image(MHI)を照合用MHIとして作成する。画素値は、例えば、輝度値や色情報などとすることができる。画素値の変化としては、例えば、最近動きが認識された画素は明るい輝度値を与え、動きが認識されない画素は時間の経過と共に輝度値を暗くするなどして、映像内の物体または人体の動きの履歴を表現する。   According to the motion analysis apparatus of the present invention, the creation unit is configured to detect the motion of an object or a human body in the collation video for each of the plurality of frame images based on the collation video including a plurality of frame images continuous in time series. A Motion History Image (MHI) representing the history as a change in the pixel value of each pixel is created as a matching MHI. The pixel value can be, for example, a luminance value or color information. As a change in pixel value, for example, a pixel whose movement has recently been recognized gives a bright luminance value, and a pixel whose movement has not been recognized darkens its luminance value over time. Express the history of.

そして、照合手段が、作成手段により作成されたフレーム画像毎の照合用MHI各々と、分析対象の動作を表すテンプレート用映像から作成されたフレーム毎のMHIをテンプレートMHIとして時系列に並べた時系列テンプレートMHIとを照合し、照合用MHIの各々と最も類似する前記テンプレートMHIが時系列テンプレートMHIの何番目のテンプレートMHIであるかを示す情報、及び照合用MHIにおけるテンプレートMHIの位置を照合結果として出力する。 When the collation unit arranges each of the collation MHI created by the creation unit for each frame image and the MHI for each frame created from the template video representing the operation to be analyzed as a template MHI in time series Matching with the sequence template MHI, the information indicating which template MHI the template MHI most similar to each of the matching MHI is the template MHI of the time series template MHI , and the matching result of the position of the template MHI in the matching MHI Output as.

このように、フレーム画像毎のテンプレートMHIを時系列に並べた時系列テンプレートMHIと、フレーム画像毎に作成された照合用MHIとを照合して、最も類似するテンプレートMHI及びその位置を得るため、同一動作の異なるトライアルにおいて、動作中の状態の時間的遷移や位置関係などのトライアル間での動きの相違を分析することができる。   Thus, in order to obtain the most similar template MHI and its position by collating the time-series template MHI in which the template MHI for each frame image is arranged in time series with the matching MHI created for each frame image, In different trials of the same operation, it is possible to analyze the difference in motion between trials such as temporal transition and positional relationship of the state during operation.

また、前記照合用MHI及び前記テンプレートMHIは、各画素の画素値が第1画素値から第2画素値の範囲で表され、かつ処理対象のフレーム画像において動きが認識された部分に対応する画素の画素値を前記第1画素値とし、動きが認識されなかった部分に対応する画素の画素値を、時間の経過と共に徐々に前記第2画素値へ変化させたMHIであって、前記フレーム画像毎に、前記第2画素値へ変化させる程度を異ならせた複数のMHIを含むことができる。   Further, the matching MHI and the template MHI are pixels corresponding to a portion in which a pixel value of each pixel is expressed in a range from a first pixel value to a second pixel value and a motion is recognized in a frame image to be processed. The pixel value of the first pixel value, and the pixel value of the pixel corresponding to the portion in which no motion is recognized is gradually changed to the second pixel value over time, and the frame image A plurality of MHIs having different degrees of change to the second pixel value may be included.

このように、フレーム画像毎のMHIにおいて、画素値の変化の程度を異ならせた複数のMHIを作成することで、動作の中で動きの速度が変化する場合にも対応した、適切なMHIを得ることができる。   In this way, by creating a plurality of MHIs with different degrees of change in pixel values in the MHI for each frame image, an appropriate MHI corresponding to the case where the speed of movement changes during the operation can be obtained. Can be obtained.

また、本発明の動作分析方法は、作成手段と、照合手段とを含む動作分析装置における動作分析方法であって、前記作成手段は、時系列に連続した複数のフレーム画像からなる照合用映像に基づいて、前記複数のフレーム画像毎に、照合用映像内の物体または人体の動きの履歴を各画素の画素値の変化で表したMotionHistoryImage(MHI)を照合用MHIとして作成し、前記照合手段は、前記作成手段により作成されたフレーム画像毎の照合用MHI各々と、分析対象の動作を表すテンプレート用映像から作成されたフレーム毎のMHIをテンプレートMHIとして時系列に並べた時系列テンプレートMHIとを照合し、前記照合用MHIの各々と最も類似する前記テンプレートMHIが前記時系列テンプレートMHIの何番目のテンプレートMHIであるかを示す情報、及び前記照合用MHIにおける前記テンプレートMHIの位置を照合結果として出力する方法である。 Further, the motion analysis method of the present invention is a motion analysis method in a motion analysis apparatus including a creation means and a collation means, wherein the creation means generates a collation video composed of a plurality of frame images continuous in time series. Based on this, for each of the plurality of frame images, a Motion History Image (MHI) that represents a history of movement of an object or a human body in a matching video as a change in pixel value of each pixel is created as a matching MHI. A time-series template MHI in which each of the matching MHIs for each frame image created by the creating means and the MHI for each frame created from the template video representing the operation to be analyzed are arranged in time series as a template MHI; matches, the template MHI is the time series template MH most similar to each of the matching MHI What number of templates MHI information indicating whether, and a method for outputting the position of the template MHI in the collation MHI as the collation result.

また、本発明の動作分析プログラムは、コンピュータを、上記の動作分析装置を構成する各手段として機能させるためのプログラムである。   The behavior analysis program of the present invention is a program for causing a computer to function as each means constituting the behavior analysis device.

以上説明したように、本発明の動作分析装置、方法、及びプログラムによれば、フレーム画像毎のテンプレートMHIを時系列に並べた時系列テンプレートMHIと、フレーム画像毎に作成された照合用MHIとを照合して、最も類似するテンプレートMHI及びその位置を得るため、同一動作の異なるトライアルにおいて、トライアル間での動きの相違を分析することができる、という効果が得られる。   As described above, according to the motion analysis apparatus, method, and program of the present invention, the time-series template MHI in which the template MHI for each frame image is arranged in time series, the matching MHI created for each frame image, In order to obtain the most similar template MHI and its position, it is possible to analyze the difference in motion between trials in different trials of the same operation.

第1及び第2の実施の形態の動作分析装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the operation | movement analyzer of 1st and 2nd embodiment. 第1の実施の形態の動作分析装置におけるテンプレート設定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the template setting process routine in the operation | movement analysis apparatus of 1st Embodiment. 第1の実施の形態における各時刻のMHI作成方法を説明するための図である。It is a figure for demonstrating the MHI preparation method of each time in 1st Embodiment. 時系列テンプレートMHIシーケンスの一例を示す図である。It is a figure which shows an example of a time series template MHI sequence. 第1の実施の形態の動作分析装置におけるテンプレート照合処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the template collation process routine in the operation | movement analysis apparatus of 1st Embodiment. 照合結果の一例を示す図である。It is a figure which shows an example of a collation result. Decayingパラメータの相違によるMHIの相違を説明するための図である。It is a figure for demonstrating the difference in MHI by the difference in a Decaying parameter. 第2の実施の形態における各時刻のマルチタイムスケールMHI作成方法を説明するための図である。It is a figure for demonstrating the multi time scale MHI preparation method of each time in 2nd Embodiment. テンプレート領域の情報の他の設定方法を説明するための図である。It is a figure for demonstrating the other setting method of the information of a template area | region.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

第1の実施の形態に係る動作分析装置10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述するテンプレート設定処理ルーチン及びテンプレート照合処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、テンプレート設定部20及びテンプレート照合部40を含んだ構成で表すことができる。   The motion analysis apparatus 10 according to the first embodiment stores a CPU (Central Processing Unit), a RAM (Random Access Memory), and a program for executing a template setting processing routine and a template matching processing routine described later. It is comprised with the computer provided with ROM (Read Only Memory). This computer can be functionally represented by a configuration including a template setting unit 20 and a template matching unit 40 as shown in FIG.

テンプレート設定部20は、設定部22を含んだ構成で表すことができる。また、テンプレート照合部40は、MHI作成部42及び照合部44を含んだ構成で表すことができる。   The template setting unit 20 can be represented by a configuration including the setting unit 22. The template collation unit 40 can be represented by a configuration including an MHI creation unit 42 and a collation unit 44.

設定部22は、分析対象の動作を表すテンプレート用の映像を入力とし、テンプレート領域記憶部24に記憶されたテンプレート領域の情報に基づいて、その領域に対応したMHI画像によるテンプレートMHIを作成して、テンプレート記憶部30に記憶する。後述するように、各時刻におけるMHI画像によるテンプレートMHIが時系列に作成されるため、以下では、時系列に作成された複数のテンプレートMHIを「時系列テンプレートMHIシーケンス」と呼ぶ。   The setting unit 22 receives a template video representing the operation to be analyzed, and creates a template MHI based on the MHI image corresponding to the region based on the template region information stored in the template region storage unit 24. And stored in the template storage unit 30. As will be described later, since the template MHI based on the MHI image at each time is created in time series, the plurality of templates MHI created in time series are hereinafter referred to as “time series template MHI sequences”.

入力されるテンプレート用の映像は、分析対象の動作を表す映像(時系列に連続した複数フレームの画像)であり、予め記憶装置に記憶された映像ファイルから入力してもよいし、カメラで撮影された映像を入力してもよい。また、映像の各フレームには、フレーム番号tが付与されており、フレーム番号tのフレームは時刻tのフレームであることを示す。   The template video that is input is a video that represents the operation to be analyzed (images of a plurality of frames that are continuous in time series), and may be input from a video file stored in advance in a storage device, or shot with a camera. The recorded video may be input. Each frame of the video is assigned a frame number t, which indicates that the frame with the frame number t is a frame at time t.

時系列テンプレートMHIシーケンスは、テンプレート用の映像における各時刻のフレーム画像から各時刻におけるMHIを作成して、時系列に並べることにより作成する。具体的には、時刻tにおけるMHIの画素(x,y)での画素値H(x,y,t)を、下記(1)式により求める。なお、ここでは、MHIの画素値として0(暗い)〜255(明るい)の値を与える場合について説明する。   The time-series template MHI sequence is created by creating MHI at each time from the frame images at each time in the template video and arranging them in time series. Specifically, the pixel value H (x, y, t) at the pixel (x, y) of MHI at time t is obtained by the following equation (1). Here, a case where a value of 0 (dark) to 255 (bright) is given as the pixel value of MHI will be described.

ここで、gはDecayingパラメータであり、動きが認識されない画素について、時間の経過と共にその輝度値を暗くする際の暗くする程度を示すパラメータである。ここでは、MHIの画素値として0〜255の256階調を用いるため、g=4ということは、256/4=64フレーム分の情報により構成されるMHIと言える。同様にg=16では、16フレーム分、64では4フレーム分の情報から構成されるMHIとなる。   Here, g is a Decaying parameter, which is a parameter indicating a degree of darkening when a luminance value of a pixel whose motion is not recognized is darkened over time. Here, since 256 gradations from 0 to 255 are used as the MHI pixel value, g = 4 can be said to be MHI composed of information for 256/4 = 64 frames. Similarly, when g = 16, the MHI is composed of information for 16 frames, and 64 is information for 4 frames.

D(x,y,t)は、入力された映像における時刻tのフレーム内の画素(x,y)に物体または動きが存在するかを判定する関数である。例えば、背景差分やフレーム間差分の閾値処理などを利用することができ、
D(x,y,t)=TH(I(x,y,t)−I(x,y,t−1))
などを用いることができる。ここで、I(x,y,t)は、時刻tのフレーム内の画素(x,y)の画素値をあらわす。また、TH(a)は、aを閾値処理により二値化する関数であり、例えば、aが閾値以上であれば、画素(x,y)に物体または動きが存在すると判定して“1”を返し、aが閾値未満であれば、画素(x,y)に物体または動きが存在しないと判定して“0”を返す関数である。閾値の設定方法は予め定めておくものとする。常に一定の閾値を用いることも可能であるし、大津の二値化法のように、クラス間分散÷クラス内分散を最大化する閾値を動的に設定しても構わない。
D (x, y, t) is a function for determining whether an object or motion exists in the pixel (x, y) in the frame at time t in the input video. For example, threshold processing of background difference or interframe difference can be used,
D (x, y, t) = TH (I (x, y, t) −I (x, y, t−1))
Etc. can be used. Here, I (x, y, t) represents the pixel value of the pixel (x, y) in the frame at time t. TH (a) is a function for binarizing a by threshold processing. For example, if a is equal to or greater than the threshold, it is determined that an object or a motion exists in the pixel (x, y) and “1”. If a is less than the threshold, it is determined that there is no object or motion in the pixel (x, y), and “0” is returned. The threshold setting method is determined in advance. A constant threshold value can always be used, and a threshold value that maximizes the inter-class variance / intra-class variance may be set dynamically as in the binarization method of Otsu.

テンプレート領域の情報は、入力されたテンプレート用の映像の中で時系列テンプレートMHIシーケンスを作成するために用いるフレームを示す情報として、テンプレート作成開始フレーム番号及びテンプレート作成終了フレーム番号を含む。また、テンプレートとして切り出す領域を示す情報として、テンプレート位置及び大きさを含む。このようなテンプレート領域の情報が、テンプレート領域記憶部24に予め記憶されている。設定部22では、作成された各時刻のテンプレートMHIから、このテンプレート領域の情報が示す部分を切り出して、各部分(切り出されたテンプレートMHI)にユニークなテンプレート番号を付与して、時系列テンプレートMHIシーケンスとしてテンプレート記憶部30に記憶する。   The template area information includes a template creation start frame number and a template creation end frame number as information indicating a frame used for creating a time-series template MHI sequence in the input template video. Further, the information indicating the region to be cut out as a template includes the template position and size. Such template area information is stored in advance in the template area storage unit 24. The setting unit 22 cuts out the part indicated by the information in the template area from the created template MHI at each time, assigns a unique template number to each part (cut out template MHI), and sets the time-series template MHI. Stored in the template storage unit 30 as a sequence.

MHI作成部42は、照合用の映像を入力とし、探索範囲記憶部46に記憶された探索範囲の情報に基づいて、その範囲に対応した照合用MHIを作成し、時刻t毎に照合用MHIを更新する。   Based on the search range information stored in the search range storage unit 46, the MHI creation unit 42 creates a verification MHI corresponding to the range and inputs the verification MHI every time t. Update.

入力される照合用映像は、予め記憶装置に記憶された映像ファイルから入力してもよいし、カメラで撮影された映像を入力してもよい。また、映像の各フレームには、フレーム番号tが付与されている。   The collation video to be input may be input from a video file stored in advance in a storage device, or a video shot by a camera may be input. A frame number t is assigned to each frame of the video.

各時刻tの照合用MHIは、設定部22と同様に、MHIの画素(x,y)での画素値H(x,y,t)を(1)式により求めることにより作成または更新する。   Similar to the setting unit 22, the matching MHI at each time t is created or updated by obtaining the pixel value H (x, y, t) at the pixel (x, y) of the MHI using the equation (1).

探索範囲の情報は、作成された照合用MHIからテンプレートMHIとの照合を行うための範囲を定めたものであり、画像中の(空間的な)範囲を示す位置及び大きさなどである。探索範囲は矩形である必要はない。また、照合用MHI全体を探索範囲とする場合には、探索範囲を予め定めておく必要はない。   The search range information defines a range for collation with the template MHI from the created collation MHI, and includes a position and size indicating a (spatial) range in the image. The search range need not be rectangular. Further, when the entire matching MHI is used as the search range, it is not necessary to determine the search range in advance.

照合部44は、MHI作成部42で作成され、探索範囲で切り出された照合用MHIを入力とし、探索範囲内の照合領域とテンプレート記憶部30に記憶された時系列テンプレートMHIシーケンスとを照合して、最も類似するテンプレートMHIのテンプレート番号、及び照合領域の位置を出力する。   The collation unit 44 collates the collation area in the search range with the time-series template MHI sequence stored in the template storage unit 30 using the collation MHI created by the MHI creation unit 42 and cut out in the search range. The template number of the most similar template MHI and the position of the collation area are output.

より具体的には、探索範囲内をテンプレートMHIと同サイズの探索枠で走査しながら、探索枠内の照合用MHIを照合領域として抽出する。抽出された各位置における照合領域と時系列テンプレートMHIシーケンスの各テンプレートMHIとを比較し、例えば、画像間のユークリッド距離などを用いて最も類似するテンプレートMHIのテンプレート番号を取得する。また、その照合領域を抽出した際の探索枠の位置を取得する。探索枠の位置は、例えば、探索枠のいずれかの角や中心の座標位置(水平方向位置及び垂直方向位置)とすることができる。なお、テンプレートMHIと照合領域との比較は、上記の画像間のユークリッド距離に限定されず、画像同志を比較する方法及び距離尺度として従来既知の手法を適用することができる。   More specifically, the matching MHI in the search frame is extracted as a matching area while scanning the search range with a search frame having the same size as the template MHI. The collation region at each extracted position is compared with each template MHI of the time-series template MHI sequence, and the template number of the most similar template MHI is obtained using, for example, the Euclidean distance between images. Further, the position of the search frame when the collation area is extracted is acquired. The position of the search frame can be, for example, the coordinate position (horizontal position and vertical position) of any corner or center of the search frame. The comparison between the template MHI and the collation area is not limited to the Euclidean distance between the images, and a conventionally known method can be applied as a method for comparing images and a distance scale.

次に、図2を参照して、第1の実施の形態の動作分析装置10において実行されるテンプレート設定処理ルーチンについて説明する。   Next, a template setting processing routine executed in the motion analysis apparatus 10 of the first embodiment will be described with reference to FIG.

ステップ100で、テンプレート領域記憶部24に記憶されたテンプレート領域の情報(テンプレート作成開始フレーム番号t、テンプレート作成終了フレーム番号t、テンプレート位置及び大きさ)を読み出す。 In step 100, information on the template area (template creation start frame number t S , template creation end frame number t E , template position and size) stored in the template area storage unit 24 is read.

次に、ステップ102で、テンプレート用映像から時系列に沿って時刻t(フレーム番号t)の1フレームを読み込む。最初に読み込むフレームは、フレーム番号tのフレームより所定フレーム前(例えば、1フレーム前)のフレームとする。 Next, in step 102, one frame at time t (frame number t) is read from the template video in time series. Frame initially reads, from the frame of the frame number t S a predetermined frame before (e.g., 1 frame before) the frame.

次に、ステップ104で、時刻tのテンプレートMHIを作成する。具体的には、図3に示すように、時刻tのフレーム(入力画像)と1時刻遅れ(t−1)のフレームとの差分をとるなどして、時刻tのフレーム内の各画素(x,y)に物体または動きが存在するか否かを示す2値化を行う。そして、(1)式に従って、動きが存在する画素の画素値を255にすると共に、動きが存在しないと判定された画素の画素値を、1時刻遅れのフレームのMHIの画素値からgだけ暗くしたMHIを作成する。   Next, in step 104, a template MHI at time t is created. Specifically, as shown in FIG. 3, each pixel (x) in the frame at time t is obtained by taking the difference between the frame at time t (input image) and the frame at one time delay (t−1). , Y) is binarized to indicate whether an object or motion exists. Then, according to the formula (1), the pixel value of the pixel having the motion is set to 255, and the pixel value of the pixel determined to have no motion is darkened by g from the MHI pixel value of the frame delayed by one time. Create the MHI.

次に、ステップ106で、上記ステップ102で読み込んだフレームのフレーム番号tが、上記ステップ100で読み出したテンプレート作成開始フレーム番号t以上、かつテンプレート作成終了フレーム番号t以下か否かを判定する。t≦t≦tの場合には、ステップ108へ移行し、上記ステップ104で作成したテンプレートMHIから、上記ステップ100で読み出したテンプレート領域の情報が示すテンプレート位置及び大きさのテンプレート領域を切り出して、時刻tのテンプレートMHIとしてユニークなテンプレート番号を付与して、テンプレート記憶部30に記憶する。そして、ステップ102へ戻り、次のフレームを読み込んで、処理を繰り返す。 Next, in step 106, it is determined whether or not the frame number t of the frame read in step 102 is not less than the template creation start frame number t S read in step 100 and not more than the template creation end frame number t E. . If t S ≦ t ≦ t E, the process proceeds to step 108, and the template area having the template position and size indicated by the template area information read in step 100 is extracted from the template MHI created in step 104. Thus, a unique template number is assigned as the template MHI at time t and stored in the template storage unit 30. Then, the process returns to step 102, the next frame is read, and the process is repeated.

一方、上記ステップ106で、t<tまたはt>tと判定された場合には、ステップ110へ移行し、現在のフレーム番号tがテンプレート作成終了フレーム番号tを超えたか否かを判定する。t≦tの場合には、ステップ102へ戻り、次のフレームを読み込んで、処理を繰り返す。t>tの場合には、テンプレート設定処理を終了する。 On the other hand, if it is determined in step 106 that t <t S or t> t E , the process proceeds to step 110 to determine whether or not the current frame number t exceeds the template creation end frame number t E. To do. If t ≦ t E , the process returns to step 102, the next frame is read, and the process is repeated. If t> t E , the template setting process is terminated.

これにより、テンプレート記憶部30に、t〜tの各時刻tにおけるテンプレートMHIが時系列に並んだ時系列テンプレートMHIシーケンスが記憶された状態となる。図4に時系列テンプレートMHIシーケンスの例を示す。図4の例は、投手がボールを投げる動作に関する時系列テンプレートMHIシーケンスであり、各画像の下の数値はテンプレート番号を示している。 As a result, the template storage unit 30 stores a time-series template MHI sequence in which the templates MHI at each time t from t S to t E are arranged in time series. FIG. 4 shows an example of the time series template MHI sequence. The example of FIG. 4 is a time-series template MHI sequence related to the action of the pitcher throwing the ball, and the numerical value below each image indicates the template number.

次に、図5を参照して、第1の実施の形態の動作分析装置10において実行されるテンプレート照合処理ルーチンについて説明する。   Next, with reference to FIG. 5, a template matching process routine executed in the motion analysis apparatus 10 according to the first embodiment will be described.

ステップ120で、探索範囲記憶部46に記憶された探索範囲の情報(画像中の(空間的な)範囲を示す位置及び大きさ)を読み出す。次に、ステップ122で、照合用映像から時系列に沿って時刻t(フレーム番号t)の1フレームを読み込む。   In step 120, information on the search range (position and size indicating a (spatial) range in the image) stored in the search range storage unit 46 is read. Next, in step 122, one frame at time t (frame number t) is read from the verification video in time series.

次に、ステップ124で、上記テンプレート設定処理のステップ104と同様に、時刻tの照合用MHIを作成する。2フレーム目以降の処理の場合には、1フレーム目で作成した照合用MHIを更新することにより、時刻tの照合用MHIとする。   Next, in step 124, a matching MHI at time t is created as in step 104 of the template setting process. In the second and subsequent frames, the verification MHI created in the first frame is updated to obtain the verification MHI at time t.

次に、ステップ126で、上記ステップ124で作成または更新された照合用MHIから、上記ステップ120で読み出した探索範囲を切り出し、後段の処理(ステップ130)へ受け渡す。   Next, in step 126, the search range read in step 120 is extracted from the matching MHI created or updated in step 124, and transferred to the subsequent process (step 130).

次に、ステップ128で、照合用映像が終了したか否かを判定し、終了していない場合には、ステップ122へ戻り、次のフレームを読み込んで、処理を繰り返す。照合用映像が終了した場合には、ステップ130へ移行する。   Next, in step 128, it is determined whether or not the verification video has ended. If not, the process returns to step 122, the next frame is read, and the process is repeated. If the verification video is completed, the process proceeds to step 130.

ステップ130では、上記ステップ126で照合用MHI切り出された各時刻tにおける探索範囲内各々をテンプレートMHIと同サイズの探索枠で走査しながら、探索枠内の照合用MHIを照合領域として抽出する。照合用MHIの各位置において抽出された照合領域各々と時系列テンプレートMHIシーケンスの各テンプレートMHIとを比較し、最も類似するテンプレートMHIのテンプレート番号を取得する。また、その照合領域を抽出した際の探索枠の位置を取得する。   In step 130, the matching MHI in the search frame is extracted as a matching region while scanning each of the search ranges at each time t cut out in the matching MHI in step 126 with a search frame having the same size as the template MHI. Each collation area extracted at each position of the collation MHI is compared with each template MHI of the time-series template MHI sequence, and the template number of the most similar template MHI is obtained. Further, the position of the search frame when the collation area is extracted is acquired.

次に、ステップ132で、上記ステップ130での照合結果を出力して、テンプレート照合処理を終了する。   Next, in step 132, the collation result in step 130 is output, and the template collation process is terminated.

図6に、照合結果の一例を示す。図6上部は確認用の映像表示であり、図6下部が照合結果を示している。図6下部の3つの図は、左から、照合領域と最も類似するテンプレートMHIのテンプレート番号、その照合領域が抽出された水平方向位置、及び垂直方向位置を示しており、いずれも横軸が時間である。図6に示す通り、時系列テンプレートMHIシーケンス中のどのテンプレートMHIに最も類似しているか、また、その状態がどの時刻に、どの場所(画像上の位置)で現れたかを可視化することができる。より具体的には、図6左図からは、動作中の状態がどのように時間的に遷移したかということを分析することができる、図6中央図及び右図からは、異なるトライアル間での位置関係の相違等を分析することができる。   FIG. 6 shows an example of the collation result. The upper part of FIG. 6 is a video display for confirmation, and the lower part of FIG. 6 shows the collation result. The three figures at the bottom of FIG. 6 show, from the left, the template number of the template MHI most similar to the collation area, the horizontal position from which the collation area was extracted, and the vertical position. It is. As shown in FIG. 6, it is possible to visualize which template MHI in the time-series template MHI sequence is most similar, and at what time and in which place (position on the image) the state has appeared. More specifically, from the left diagram in FIG. 6, it is possible to analyze how the operating state transitions in time. From the middle diagram and the right diagram in FIG. 6, between different trials. It is possible to analyze the difference in the positional relationship between the two.

以上説明したように、第1の実施の形態の動作分析装置によれば、各時刻のテンプレートMHIを時系列に並べた時系列テンプレートMHIシーケンスを作成しておき、照合用映像の各時刻において作成された照合用MHIと最も類似するテンプレートMHI及びその位置を得るため、同一動作の異なるトライアルにおいて、トライアル間での動きの相違を分析することができる。   As described above, according to the motion analysis apparatus of the first embodiment, a time-series template MHI sequence in which the templates MHI of each time are arranged in time series is created, and created at each time of the collation video. In order to obtain the template MHI most similar to the matching MHI and the position thereof, the difference in motion between trials can be analyzed in different trials of the same operation.

次に、第2の実施の形態について説明する。なお、第2の実施の形態の動作分析装置について、第1の実施の形態の動作分析装置10と同様の部分については、同一符号を付して、詳細な説明を省略する。   Next, a second embodiment will be described. In addition, about the operation | movement analyzer of 2nd Embodiment, about the part similar to the operation | movement analyzer 10 of 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図1に示すように、第2の実施の形態に係る動作分析装置210は、テンプレート設定部220及びテンプレート照合部240を含み、テンプレート設定部220は、設定部222を含んだ構成で表すことができ、また、テンプレート照合部240は、MHI作成部242及び照合部244を含んだ構成で表すことができる。   As shown in FIG. 1, the motion analysis apparatus 210 according to the second embodiment includes a template setting unit 220 and a template matching unit 240, and the template setting unit 220 can be expressed by a configuration including a setting unit 222. Further, the template matching unit 240 can be represented by a configuration including an MHI creating unit 242 and a matching unit 244.

ここで、第2の実施の形態で用いるMHIの原理について説明する。   Here, the principle of MHI used in the second embodiment will be described.

MHIは、オブジェクトの動きの速度により適切なDecayingパラメータが異なる。動きが速い場合に、小さなDecayingパラメータを用いると、時間分解能の極めて小さいMHIとなってしまう。一方、動きが遅い場合に、大きなDecayingパラメータを用いると、動きがほとんど検出されないMHIとなってしまう。これを第1の実施の形態のように時系列に拡張する場合、動作の中で動きの速度が変化するため単一のDecayingパラメータにより適切なMHIを得ることが困難な場合もある。   MHI has different appropriate Decaying parameters depending on the speed of movement of the object. When the motion is fast, using a small Decaying parameter results in an MHI with extremely small time resolution. On the other hand, if a large Decaying parameter is used when the motion is slow, the motion becomes an MHI where almost no motion is detected. When this is expanded in time series as in the first embodiment, it may be difficult to obtain an appropriate MHI with a single Decaying parameter because the speed of movement changes during the operation.

この例を、図7を参照して説明する。図7は、投球動作を表すMHIの例であり、30fps(フレーム/秒)の映像を対象とした処理結果である。詳細には、時刻1,2,・・・,5,・・・,10,・・・,20において、Decayingパラメータd(τ)=4,16,64とした場合の各MHIを示している。図7の上段は、映像内のその時刻におけるフレーム画像を示している。例えば、Decayingパラメータd(τ)=4では、時刻2,5,10のMHIは極めて類似する。d(τ)=64では、時刻2,5,10で得られるMHIに大きな違いが確認できる。しかし、d(τ)=64、時刻10の場合のMHIを見ると、動き(画素値が明るい画素)がほとんど含まれておらず、動きを検出することが困難になることが想像される。   This example will be described with reference to FIG. FIG. 7 is an example of MHI representing a pitching operation, and shows a processing result for an image of 30 fps (frame / second). Specifically, each MHI is shown when Decaying parameter d (τ) = 4, 16, 64 at times 1, 2,..., 5,. . The upper part of FIG. 7 shows a frame image at that time in the video. For example, with the Decaying parameter d (τ) = 4, the MHI at times 2, 5, and 10 are very similar. When d (τ) = 64, a large difference can be confirmed in the MHI obtained at times 2, 5, and 10. However, when the MHI in the case of d (τ) = 64 and time 10 is seen, it is imagined that motion (pixels with bright pixel values) is hardly included and it is difficult to detect the motion.

そこで、第1の実施の形態で用いた各時刻におけるテンプレートMHI及び照合用MHIを、異なる複数のDecayingパラメータにより生成した複数のMHIをセットにした新しいMHIに拡張し、上記の問題を解決する。第2の実施の形態では、このように拡張されたMHIを、「マルチタイムスケールMHI」と呼ぶ。以下、各部について詳述する。   Therefore, the template MHI and the matching MHI at each time used in the first embodiment are expanded to a new MHI that is a set of a plurality of MHIs generated by a plurality of different Decaying parameters to solve the above problem. In the second embodiment, the extended MHI is referred to as “multi-time scale MHI”. Hereinafter, each part is explained in full detail.

設定部222は、第1の実施の形態の設定部22と同様に、テンプレート用の映像を入力とし、テンプレート領域記憶部24に記憶されたテンプレート領域の情報に基づいて、時系列テンプレートMHIシーケンスを作成する。ただし、各時刻のテンプレートMHIは、上記原理に従って、マルチタイムスケールMHIとして作成する。具体的には、マルチタイムスケールMHIを、mH(x,y,t)={H1(x,y,t),・・・,HN(x,y,t)}とし、下記(2)式により求める。   Similar to the setting unit 22 of the first embodiment, the setting unit 222 receives a template video and inputs a time-series template MHI sequence based on the template area information stored in the template area storage unit 24. create. However, the template MHI for each time is created as a multi-time scale MHI according to the above principle. Specifically, the multi-time scale MHI is set to mH (x, y, t) = {H1 (x, y, t),..., HN (x, y, t)}, and the following equation (2) Ask for.

ここで、Nは予め定めたタイムスケール数であり、d(1),d(2),・・・,d(N)は、各タイムスケールにおけるDecayingパラメータである。設定部222では、作成された各時刻のタイムスケール毎のテンプレートMHIから、テンプレート領域の情報が示す部分を切り出して、各部分(切り出されたテンプレートMHI)にユニークなテンプレート番号を付与して、時系列テンプレートMHIシーケンスとしてテンプレート記憶部30に記憶する。   Here, N is a predetermined number of time scales, and d (1), d (2),..., D (N) are Decaying parameters in each time scale. The setting unit 222 cuts out the portion indicated by the template area information from the created template MHI for each time scale at each time, and assigns a unique template number to each portion (cutout template MHI). Stored in the template storage unit 30 as a sequence template MHI sequence.

MHI作成部242は、第1の実施の形態のMHI作成部42と同様に、照合用の映像を入力とし、探索範囲記憶部46に記憶された探索範囲の情報に基づいて、その範囲に対応した照合用MHIを作成し、時刻t毎に照合用MHIを更新する。ただし、各時刻の照合用MHIは、上記原理に従って、(2)式により、マルチタイムスケールMHIとして作成または更新する。   Similar to the MHI creation unit 42 according to the first embodiment, the MHI creation unit 242 receives an image for verification and corresponds to the range based on the search range information stored in the search range storage unit 46. The matching MHI is created, and the matching MHI is updated every time t. However, the MHI for collation at each time is created or updated as a multi-time scale MHI according to the equation (2) according to the above principle.

照合部244は、第1の実施の形態の照合部44と同様に、MHI作成部42で作成され、探索範囲で切り出された照合用MHIを入力とし、探索範囲内の照合領域とテンプレート記憶部30に記憶された時系列テンプレートMHIシーケンスとを照合して、最も類似するテンプレートMHIのテンプレート番号、及び照合領域の位置を出力する。照合領域と各テンプレートMHIとを比較する際には、Decayingパラメータが同一の画像同士を比較する。   Similar to the collation unit 44 of the first embodiment, the collation unit 244 receives the collation MHI created by the MHI creation unit 42 and cut out in the search range, and the collation area in the search range and the template storage unit 30 is collated with the time-series template MHI sequence stored in 30, and the template number of the most similar template MHI and the position of the collation area are output. When comparing the collation area and each template MHI, images having the same Decaying parameter are compared.

第2の実施の形態の動作分析装置210におけるテンプレート設定処理及びテンプレート照合処理は、第1の実施の形態の動作分析装置10におけるテンプレート設定処理及びテンプレート照合処理においてMHIを作成する点に替えて、マルチタイムスケールMHIを作成する点が異なるだけであるので、図8を参照して、マルチタイムスケールMHIの作成方法について説明する。   The template setting process and the template matching process in the behavior analysis apparatus 210 of the second embodiment are replaced with the point that the MHI is created in the template setting process and the template matching process in the behavior analysis apparatus 10 of the first embodiment. Since only the point of creating the multi-time scale MHI is different, a method of creating the multi-time scale MHI will be described with reference to FIG.

まず、時刻tのフレーム(入力画像)と1時刻遅れ(t−1)のフレームとの差分をとるなどして、時刻tのフレーム内の各画素(x,y)に物体または動きが存在するか否かを示す2値化を行う。これがD(x,y,t)に相当する。そして、(2)式に従って、動きが存在する画素(D(x,y,t)=1の画素)の画素値を255にすると共に、動きが存在しないと判定された画素(D(x,y,t)=0の画素)の画素値を、Decayingパラメータ=d(1)として作成された1時刻遅れのフレームのMHIの画素値からd(1)だけ暗くしたMHI1を作成する。また、動きが存在する画素(D(x,y,t)=1の画素)の画素値を255にすると共に、動きが存在しないと判定された画素(D(x,y,t)=0の画素)の画素値を、Decayingパラメータ=d(2)として作成された1時刻遅れのフレームのMHIの画素値からd(2)だけ暗くしたMHI2を作成する。同様に、タイムスケール毎にMHINまで作成する。すなわち、時刻tについてDecayingパラメータが異なるN個のMHIを作成する。   First, an object or a motion exists in each pixel (x, y) in the frame at time t by taking a difference between the frame at time t (input image) and the frame with one time delay (t−1). Binarization is performed to indicate whether or not. This corresponds to D (x, y, t). Then, according to equation (2), the pixel value of a pixel in which motion exists (pixel of D (x, y, t) = 1) is set to 255, and a pixel (D (x, MHI1 is created by darkening the pixel value of y, t) = 0) by d (1) from the MHI pixel value of the one-time-delayed frame created as Decaying parameter = d (1). In addition, the pixel value of a pixel in which motion exists (pixel of D (x, y, t) = 1) is set to 255, and a pixel determined to have no motion (D (x, y, t) = 0) MHI2 is created by darkening the pixel value of d) by d (2) from the MHI pixel value of the frame delayed by one time created with the Decaying parameter = d (2). Similarly, MHIN is created for each time scale. That is, N MHIs having different Decaying parameters at time t are created.

以上説明したように、第2の実施の形態の動作分析処理装置によれば、時系列に並んだ複数のマルチタイムスケールMHIを時系列テンプレートMHIシーケンスとして作成しておき、照合用映像の各時刻においてもマルチタイムスケールMHIにより照合用MHIを作成して、最も類似するテンプレートMHI及びその位置を得るため、同一動作の異なるトライアルにおいて、トライアル間での動きの相違をより詳細に分析することができる。   As described above, according to the motion analysis processing device of the second embodiment, a plurality of time-series multi-time scales MHI are created as a time-series template MHI sequence, and each time of the collation video is displayed. In order to obtain the most similar template MHI and its position by creating a matching MHI using the multi-time scale MHI, it is possible to analyze the difference in motion between trials in different trials of the same operation in more detail. .

なお、上記第1及び第2の実施の形態では、予めテンプレート領域記憶部24に記憶したテンプレート領域の情報を用いて、テンプレート領域を切り出す場合について説明したが、入力されたテンプレート用映像を確認しながら、マウス操作等によって、テンプレート作成開始フレーム、終了フレーム、テンプレート位置及び大きさ等を指定してもよい。この例を図9に示す。   In the first and second embodiments described above, the template area is cut out using the template area information stored in advance in the template area storage unit 24. However, the input template video is confirmed. However, the template creation start frame, end frame, template position, size, and the like may be designated by a mouse operation or the like. An example of this is shown in FIG.

図9のインタフェースでは、入力された映像が表示される映像再生ウィンドウ50の横に、テンプレート作成開始ボタン52、テンプレート作成終了ボタン54、映像再生ボタン56、コマ送りボタン58が配置されている。このようなインタフェースにおいては、マウスのクリック、キーボードの矢印キーなどを用いて、映像再生ボタン56を選択することにより、映像再生ウィンドウ50に映像を表示する。コマ送りボタン58を選択して、映像を1フレームずつコマ送りしながら、テンプレート作成開始フレームが表示されたところで、テンプレート作成開始ボタン52を選択する。引き続き映像を1フレームずつコマ送りしながら、各フレームにおいて、マウス等の操作により映像再生ウィンドウ50上でテンプレートMHIとして切り出す部分、すなわちテンプレート位置及び大きさを指定する。そして、テンプレート作成終了フレームが表示されたところで、テンプレート作成終了ボタン54を選択する。このように、映像を再生及び確認しながら、テンプレート領域の情報を指定することができる。   In the interface of FIG. 9, a template creation start button 52, a template creation end button 54, a video playback button 56, and a frame advance button 58 are arranged beside a video playback window 50 in which an input video is displayed. In such an interface, a video is displayed in the video playback window 50 by selecting the video playback button 56 using a mouse click, an arrow key on the keyboard, or the like. The frame creation start button 52 is selected, and the template creation start button 52 is selected when the template creation start frame is displayed while the frame is advanced frame by frame. While continuing to advance the video frame by frame, the portion to be cut out as the template MHI on the video playback window 50 by the operation of the mouse or the like in each frame, that is, the template position and size are designated. When the template creation end frame is displayed, the template creation end button 54 is selected. In this way, the template area information can be specified while reproducing and checking the video.

また、上記実施の形態では、MHIの各画素を明るい輝度値から時間の経過と共に暗くすることにより動きの履歴を表現する場合について説明したが、暗い輝度値から徐々に暗くしたり、ある色(例えば赤色)から徐々に他の色(例えば青色)に変化させたりすることにより、動きの履歴を表現するようにしてもよい。   In the above embodiment, the case where the history of movement is expressed by darkening each pixel of the MHI from the bright luminance value as time elapses has been described. However, the darkness value gradually becomes darker or a certain color ( For example, the movement history may be expressed by gradually changing from red to another color (for example, blue).

また、上記実施の形態では、テンプレート設定部とテンプレート照合部とを同一のコンピュータで構成する場合について説明したが、別々のコンピュータで構成するようにしてもよい。   Moreover, although the case where the template setting part and the template collation part were comprised with the same computer was demonstrated in the said embodiment, you may make it comprise with a separate computer.

また、本発明は、上記実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

また、上述の動作分析装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   In addition, the above-described motion analysis apparatus includes a computer system, but the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

10、210 動作分析装置
20、220 テンプレート設定部
22、222 設定部
24 テンプレート領域記憶部
30 テンプレート記憶部
40、240 テンプレート照合部
42、242 MHI作成部
44、244 照合部
46 探索範囲記憶部
10, 210 Motion analysis device 20, 220 Template setting unit 22, 222 Setting unit 24 Template area storage unit 30 Template storage unit 40, 240 Template collation unit 42, 242 MHI creation unit 44, 244 Collation unit 46 Search range storage unit

Claims (4)

時系列に連続した複数のフレーム画像からなる照合用映像に基づいて、前記複数のフレーム画像毎に、照合用映像内の物体または人体の動きの履歴を各画素の画素値の変化で表したMotion History Image(MHI)を照合用MHIとして作成する作成手段と、
前記作成手段により作成されたフレーム画像毎の照合用MHI各々と、分析対象の動作を表すテンプレート用映像から作成されたフレーム毎のMHIをテンプレートMHIとして時系列に並べた時系列テンプレートMHIとを照合し、前記照合用MHIの各々と最も類似する前記テンプレートMHIが前記時系列テンプレートMHIの何番目のテンプレートMHIであるかを示す情報、及び前記照合用MHIにおける前記テンプレートMHIの位置を照合結果として出力する照合手段と、
を含む動作分析装置。
Based on a collation image made up of a plurality of frame images that are continuous in time series, for each of the plurality of frame images, a motion that represents the movement history of an object or a human body in the image for collation as a change in the pixel value of each pixel. Creating means for creating a History Image (MHI) as a matching MHI;
And each of the matching MHI for each frame image created by the creating means, and a time series template MHI which are arranged in time series MHI for each frame created from template image representing the operation to be analyzed as a template MHI Collation and information indicating the number of the template MHI of the time-series template MHI that is most similar to each of the collation MHIs , and the position of the template MHI in the collation MHI as a collation result Collation means to output;
A motion analysis device including:
前記照合用MHI及び前記テンプレートMHIは、各画素の画素値が第1画素値から第2画素値の範囲で表され、かつ処理対象のフレーム画像において動きが認識された部分に対応する画素の画素値を前記第1画素値とし、動きが認識されなかった部分に対応する画素の画素値を、時間の経過と共に徐々に前記第2画素値へ変化させたMHIであって、前記フレーム画像毎に、前記第2画素値へ変化させる程度を異ならせた複数のMHIを含む請求項1記載の動作分析装置。   In the matching MHI and the template MHI, the pixel value of each pixel is expressed in the range of the first pixel value to the second pixel value, and the pixel corresponding to the portion in which the motion is recognized in the frame image to be processed MHI in which the value is the first pixel value, and the pixel value of the pixel corresponding to the portion in which no motion is recognized is gradually changed to the second pixel value over time, for each frame image The motion analysis apparatus according to claim 1, further comprising a plurality of MHIs having different degrees of change to the second pixel value. 作成手段と、照合手段とを含む動作分析装置における動作分析方法であって、
前記作成手段は、時系列に連続した複数のフレーム画像からなる照合用映像に基づいて、前記複数のフレーム画像毎に、照合用映像内の物体または人体の動きの履歴を各画素の画素値の変化で表したMotion History Image(MHI)を照合用MHIとして作成し、
前記照合手段は、前記作成手段により作成されたフレーム画像毎の照合用MHI各々と、分析対象の動作を表すテンプレート用映像から作成されたフレーム毎のMHIをテンプレートMHIとして時系列に並べた時系列テンプレートMHIとを照合し、前記照合用MHIの各々と最も類似する前記テンプレートMHIが前記時系列テンプレートMHIの何番目のテンプレートMHIであるかを示す情報、及び前記照合用MHIにおける前記テンプレートMHIの位置を照合結果として出力する
動作分析方法。
A motion analysis method in a motion analysis apparatus including a creation unit and a verification unit,
The creation means, based on a collation video consisting of a plurality of frame images continuous in time series, for each of the plurality of frame images, the history of the movement of the object or human body in the collation video is the pixel value of each pixel Create a Motion History Image (MHI) expressed as a change as a matching MHI,
When the collating unit arranges each of the collating MHI created by the creating unit for each frame image and the MHI for each frame created from the template video representing the operation to be analyzed as a template MHI in time series The template MHI is collated, information indicating which template MHI of the time-series template MHI is the template MHI most similar to each of the collating MHI , and the template MHI in the collating MHI A motion analysis method that outputs the position as a verification result.
コンピュータを、請求項1または請求項2記載の動作分析装置を構成する各手段として機能させるための動作分析プログラム。   An operation analysis program for causing a computer to function as each means constituting the operation analysis apparatus according to claim 1.
JP2012005286A 2012-01-13 2012-01-13 Motion analysis apparatus, method, and program Active JP5766623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012005286A JP5766623B2 (en) 2012-01-13 2012-01-13 Motion analysis apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012005286A JP5766623B2 (en) 2012-01-13 2012-01-13 Motion analysis apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013145453A JP2013145453A (en) 2013-07-25
JP5766623B2 true JP5766623B2 (en) 2015-08-19

Family

ID=49041225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012005286A Active JP5766623B2 (en) 2012-01-13 2012-01-13 Motion analysis apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5766623B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022142A (en) * 2006-07-11 2008-01-31 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for detecting pitching event, and computer-readable recording medium
JP4929460B2 (en) * 2006-12-28 2012-05-09 国立大学法人九州工業大学 Motion recognition method
JP4906588B2 (en) * 2007-05-18 2012-03-28 日本放送協会 Specific operation determination device, reference data generation device, specific operation determination program, and reference data generation program
US8483431B2 (en) * 2008-05-27 2013-07-09 Samsung Electronics Co., Ltd. System and method for estimating the centers of moving objects in a video sequence

Also Published As

Publication number Publication date
JP2013145453A (en) 2013-07-25

Similar Documents

Publication Publication Date Title
US20180211104A1 (en) Method and device for target tracking
JP5221436B2 (en) Facial feature point detection apparatus and program
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
US20200380279A1 (en) Method and apparatus for liveness detection, electronic device, and storage medium
EP2905724B1 (en) Object detection system and method
JP6970553B2 (en) Image processing device, image processing method
WO2018025831A1 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
KR102106135B1 (en) Apparatus and method for providing application service by using action recognition
JP5675233B2 (en) Information processing apparatus, recognition method thereof, and program
US20140071042A1 (en) Computer vision based control of a device using machine learning
JP5703194B2 (en) Gesture recognition apparatus, method thereof, and program thereof
JP2008537815A (en) Pose estimation based on critical point analysis
KR20140002007A (en) Information processing device, information processing method, and recording medium
JP2007034525A (en) Information processor, information processing method and computer program
JP6334767B1 (en) Information processing apparatus, program, and information processing method
WO2021090771A1 (en) Method, apparatus and system for training a neural network, and storage medium storing instructions
CN108520263B (en) Panoramic image identification method and system and computer storage medium
JP6052533B2 (en) Feature amount extraction apparatus and feature amount extraction method
CN110910426A (en) Action process and action trend identification method, storage medium and electronic device
US10546406B2 (en) User generated character animation
JP5766623B2 (en) Motion analysis apparatus, method, and program
CN116994049A (en) Full-automatic flat knitting machine and method thereof
JP6613687B2 (en) Image processing apparatus, image processing method, and program
JP2017033556A (en) Image processing method and electronic apparatus
Siam et al. Human computer interaction using marker based hand gesture recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150617

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5766623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150