JP2013016171A - Method, device, and program for identifying human behavior cycle and recognizing human behavior - Google Patents
Method, device, and program for identifying human behavior cycle and recognizing human behavior Download PDFInfo
- Publication number
- JP2013016171A JP2013016171A JP2012147136A JP2012147136A JP2013016171A JP 2013016171 A JP2013016171 A JP 2013016171A JP 2012147136 A JP2012147136 A JP 2012147136A JP 2012147136 A JP2012147136 A JP 2012147136A JP 2013016171 A JP2013016171 A JP 2013016171A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- motion
- human
- video
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、人体動作のコンピュータ認識に関する。 The present invention relates to computer recognition of human body motion.
人体動作認識技術は、広く応用されており、益々注目されている。当該技術を用いて、ビデオから人々に注目される動作を迅速に検出することができる。人体動作認識技術はビデオモニター(銀行、病院、工場などの環境)やヒューマンコンピュータインタラクション(仮想ゲームなどのシーン)やスポーツの教則などの分野に応用可能である。 Human body motion recognition technology has been widely applied and is attracting more and more attention. Using this technology, it is possible to quickly detect movements of interest from the video. Human body motion recognition technology can be applied to fields such as video monitors (banks, hospitals, factories, etc.), human computer interactions (scenes such as virtual games), and sports rules.
人体動作認識技術について、現在、種々の実現方法が提案されており、そのうちの時間的・空間的特徴に基づく実現方法は盛んに研究されており、しかも有効な方法である。この種類の方法において、時間的・空間的特徴によって現在のフレーム及び隣接する複数のフレームの情報を示し、その後、時間的・空間的特徴を利用して人体動作の認識を実現する。時間的・空間的特徴を抽出する処理においては、すべての動画ビデオに対して同一長さの人体動作周期を設定する。 Various realization methods for human body motion recognition technology have been proposed, and realization methods based on temporal and spatial features have been actively studied and are effective methods. In this type of method, information on a current frame and a plurality of adjacent frames is shown by temporal and spatial features, and then recognition of human body motion is realized by using temporal and spatial features. In the process of extracting temporal / spatial features, a human body motion cycle having the same length is set for all moving images.
しかしながら、動作や個体には差異があるため、時間的・空間的特徴により実現された人体動作の認識率を高めることが必要とされる。このため、時間的・空間的特徴を抽出し、より正確な人体動作認識が実現できるよう、異なる動作や異なる個体に対して、適合した人体動作周期を特定可能とする技術の発展が望まれている。 However, since there are differences in motion and individuals, it is necessary to increase the recognition rate of human motion realized by temporal and spatial characteristics. For this reason, it is desirable to develop technology that can identify suitable human motion cycles for different motions and different individuals so that temporal and spatial features can be extracted and more accurate human motion recognition can be realized. Yes.
本発明に関する幾つかの局面に対する基本的な理解を提供するために、以下に、本発明に関する簡単な概要が示される。この概要は、本発明についての網羅的な概要ではないことを理解すべきである。したがって、概要は、本発明のキーポイントまたは重要部分を特定することを意図せず、本発明の技術的範囲を限定することも意図するものではない。この概要の記載の目的は、単に簡単化した形式で幾つかの概念を提供し、後述のより詳しい説明の導入を提供することにある。 The following presents a simplified summary of the invention in order to provide a basic understanding of some aspects of the invention. It should be understood that this summary is not an exhaustive overview of the invention. Accordingly, the summary is not intended to identify key points or critical parts of the invention, nor is it intended to limit the scope of the invention. The purpose of this summary is to provide some concepts in a simplified form and to provide an introduction to the more detailed description that follows.
実施例は、ビデオにおける人体動作周期を特定し、ビデオにおける人体動作を特定する方法、装置、及びプログラムを提供することを目的とする。 Embodiments are intended to provide a method, an apparatus, and a program for specifying a human motion cycle in a video and specifying a human motion in a video.
上記の目的を実現するために、本発明の一側面は、ビデオにおける人体動作周期を特定する方法を提供し、当該方法は、探索範囲内の各フレームの人体領域を複数の人体部分に区分する処理と、現在のフレームにおける各人体部分の局所動作周期を特定する処理と、前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する処理とを含む。 In order to achieve the above object, one aspect of the present invention provides a method for identifying a human motion cycle in a video, and the method divides a human body region of each frame within a search range into a plurality of human body parts. Processing, processing for specifying a local motion cycle of each human body part in the current frame, and processing for specifying a human motion cycle in the current frame based on the local motion cycle.
本発明の一局面によれば、ビデオにおける人体動作を認識する方法を提供し、当該方法は、前記方法に基づいてビデオにおける人体動作周期を特定する処理と、前記人体動作周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する処理とを含む。 According to one aspect of the present invention, a method for recognizing human motion in a video is provided, the method identifying a human motion cycle in the video based on the method, and a time based on the human motion cycle. A process of extracting spatial features and recognizing human motion in the video.
以下に、図面を参照しながら本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明は、以下の図面を参照した説明によってより良い理解を得ることができる。なお、すべての図面において同一または類似の符号は、同一または類似する要素を示す。図面は以下の詳細な説明とともに本明細書に含まれ、本明細書の一部が形成され、そして、本発明の好適な実施例をさらに例示することや本発明の原理とメリットとを説明するために用いられる。 The present invention can be better understood by the following description with reference to the drawings. In all the drawings, the same or similar reference numerals indicate the same or similar elements. The drawings are included herein with the following detailed description, formed a part of this specification, and further illustrate preferred embodiments of the invention and illustrate the principles and advantages of the invention. Used for.
以下に、図面を参照しながら本発明の実施例を説明する。説明を明瞭にし、かつ簡単にするために、明細書においては、実際の実施形態のすべての特徴を説明するわけではない。しかしながら、実際の実施例の開発過程において、開発者の具体的な目標を達成できるよう、実施形態において特定される決定事項が数多く存在し得る。例えば、システム及び業務に関する制限条件が設定された場合、これらの制限条件は、実施形態によって変更される可能性があることを理解すべきである。また、開発作業は、通常非常に複雑且つ時間がかかるものであるが、本開示内容に係る当業者にとっては、このような開発作業は、通常行われる業務の範囲であることをさらに理解すべきである。 Embodiments of the present invention will be described below with reference to the drawings. In the interest of clarity and simplicity, not all features of an actual embodiment are described in the specification. However, in the course of developing an actual example, there can be many decisions that are identified in the embodiment so that the specific goals of the developer can be achieved. For example, it is to be understood that when restriction conditions regarding the system and the business are set, these restriction conditions may be changed depending on the embodiment. Also, although development work is usually very complex and time consuming, it should be further understood by those skilled in the art according to the present disclosure that such development work is within the scope of the work normally performed. It is.
ここで、さらに、不必要な細部の説明で本発明が不明瞭になってしまうことを防止するために、図面においては、本発明に係る実施例に密接に関係する装置構造及び/または処理ステップのみが示され、本発明にあまり関係しない他の細部が省略されている点に留意すべきである。 Here, further, in order to prevent the present invention from being obscured by unnecessary details, in the drawings, the device structure and / or processing steps closely related to the embodiments of the present invention are illustrated. It should be noted that only other details are shown and other details not relevant to the present invention are omitted.
図1は、本発明の一実施例によるビデオにおける人体動作周期を特定する方法のフローチャートを示す。 FIG. 1 shows a flowchart of a method for identifying a human motion cycle in a video according to an embodiment of the present invention.
図1に示す人体動作周期を特定する方法は、人体動作の周期性によりビデオにおける人体動作周期を特定することができる。 The method for specifying the human motion cycle shown in FIG. 1 can specify the human motion cycle in the video based on the periodicity of the human motion.
具体的には、人体動作は一般的に周期性を有するものである。このため、動作周期が終了すると、人体の各部分のいずれも動作開始時の姿勢に戻る。従って、ビデオにおける人体の各部分の動作周期に基づいてビデオにおける人体動作周期を特定することができる。 Specifically, the human body motion generally has periodicity. For this reason, when the motion cycle ends, each part of the human body returns to the posture at the start of motion. Accordingly, it is possible to specify the human body motion cycle in the video based on the motion cycle of each part of the human body in the video.
図1に示すように、ステップS102において、ビデオにおける人体領域を区分して複数の人体部分を形成することができる。 As shown in FIG. 1, in step S102, a human body region in a video can be divided to form a plurality of human body parts.
具体的には、所定の探索範囲内の各フレームに対して人体領域を区分することができる。これにより、各フレームから複数の人体部分を取得することができる。 Specifically, the human body region can be divided for each frame within a predetermined search range. Thereby, a plurality of human body parts can be acquired from each frame.
次に、ステップS104において、現在のフレームにおける、各人体部分の局所動作周期を特定することができる。 Next, in step S104, the local motion period of each human body part in the current frame can be specified.
具体的には、現在のフレームにおける各人体部分の動きベクトルに基づいて前記各部分の局所動作周期を特定することができる。 Specifically, the local motion period of each part can be specified based on the motion vector of each human body part in the current frame.
次に、ステップS106において、現在のフレームにおける複数の人体部分の局所動作周期に基づいてビデオにおける、現在フレームの人体動作周期を特定することができる。 Next, in step S106, the human motion period of the current frame in the video can be identified based on the local motion periods of the plurality of human body parts in the current frame.
具体的には、現在のフレームにおける複数の人体部分の局所動作周期のうち最大の局所動作周期を、ビデオにおける現在のフレームの人体動作周期として特定することができる。 Specifically, the maximum local motion period among the local motion periods of a plurality of human body parts in the current frame can be specified as the human body motion period of the current frame in the video.
これにより、上記の人体動作周期性を利用した、人体部分に基づくビデオにおける人体動作周期の特定方法は、人体動作の周期性に基づいて、ビデオにおける人体動作周期を正確に特定することができる。 Thus, the human body motion cycle identification method for video based on the human body part using the human body motion periodicity can accurately identify the human body motion cycle in the video based on the periodicity of the human body motion.
前記のビデオにおける人体動作周期を特定する方法において、異なる応用場面または異なるニーズに応じて異なる探索範囲を設けることができる。 In the method for identifying the human body motion period in the video, different search ranges can be provided according to different application scenes or different needs.
本発明の一実施例において、前記探索範囲は、現在のフレームからの後の所定の第1の時間長さの時間帯におけるフレームであっても良い。なお、前記第1の時間長さは一つの人体動作を十分に含み得る時間の長さであり、経験値または具体的な応用場面により、前記第1の時間長さを合理的に設定することができる。 In an embodiment of the present invention, the search range may be a frame in a time zone having a predetermined first time length after the current frame. In addition, the first time length is a length of time that can sufficiently include one human body motion, and the first time length is set rationally according to experience values or specific application scenes. Can do.
上述の探索範囲は、単に例示的なものであり、本発明を限定するものではない。その他の態様で探索範囲を設定してもよい。 The above search range is merely exemplary and does not limit the present invention. The search range may be set in other manners.
本発明の他の一実施例において、前記探索範囲は、現在のフレームから前の所定の第2の時間長さの時間帯におけるフレームであっても良い。なお、前記第2の時間長さは、一つの人体動作を十分に含み得る時間の長さであり、経験値または具体的な応用場面により、前記第2の時間長さを合理的に設定することができる。 In another embodiment of the present invention, the search range may be a frame in a time zone having a predetermined second time length before the current frame. The second time length is a length of time that can sufficiently include one human body motion, and the second time length is set rationally according to experience values or specific application scenes. be able to.
また、第2の時間長さは第1の時間長さと同一であってもよく、第1の時間長さと異なってもよい。 The second time length may be the same as the first time length or may be different from the first time length.
上記の方法において、フレームにおける人体領域を複数の人体部分に区分する処理は、各種の適切な技術手段によって実現可能である。 In the above method, the process of dividing the human body region in the frame into a plurality of human body parts can be realized by various appropriate technical means.
図2は、本発明の一実施例によるフレームにおける人体領域を複数の人体部分に区分する処理のフローチャートを示す。 FIG. 2 is a flowchart illustrating a process of dividing a human body region in a frame into a plurality of human body parts according to an embodiment of the present invention.
図2に示すように、ステップS202において、フレームにおける人体領域の輪郭線を抽出することができる。 As shown in FIG. 2, in step S202, the outline of the human body region in the frame can be extracted.
任意の既知のエッジ抽出方法を用いてフレームにおける人体領域の輪郭線を抽出することができる。 Any known edge extraction method can be used to extract the contour of the human body region in the frame.
例えば、cannyアルゴリズムを採用してフレームにおける人体領域の輪郭線を抽出することができる。 For example, the canny algorithm can be adopted to extract the outline of the human body region in the frame.
なお、cannyアルゴリズムは、画像処理分野において慣用されているエッジ抽出方法である。cannyアルゴリズムについての詳細は、canny,J.により発表された、「A Computational Approach To Edge Detection」という文書(IEEE Trans.Pattern Analysis and Machine Intelligence,8:679−714,1986を参照)を参照することができる。当該文書の内容のすべてはここで援用され、明細書を簡潔・明瞭にするために説明を省略する。 The canny algorithm is an edge extraction method commonly used in the image processing field. For more information on the canny algorithm, see the document “A Computational Approach To Edge Detection” published by canny, J. (see IEEE Trans. Pattern Analysis and Machine Intelligence, 8: 679- 7). Can do. The entire contents of this document are incorporated herein and the description is omitted for the sake of brevity and clarity.
次に、ステップS204において、抽出した人体領域の輪郭線に基づいて輪郭線上の連結点を特定することができる。 Next, in step S204, a connection point on the contour line can be specified based on the extracted contour line of the human body region.
なお、前記連結点は、輪郭線上で二つの異なる人体部分を連結したものであっても良い。例えば、腕と肢体の連結点などがある。 In addition, the said connection point may connect the two different human body parts on the outline. For example, there are connection points between arms and limbs.
具体的には、輪郭線上で二つの異なる人体部分を連結した領域は、一般的に凹状の谷の形状を示す。このため、輪郭線上の連結点が凹状の谷の最低点に位置すべきであることが考えられる。従って、凹状の谷の最低点を特定することで連結点を特定することができる。 Specifically, a region where two different human body parts are connected on the contour line generally shows a concave valley shape. For this reason, it is conceivable that the connecting point on the contour line should be located at the lowest point of the concave valley. Therefore, the connection point can be specified by specifying the lowest point of the concave valley.
例えば、腕と肢体との連結箇所は輪郭線上で凹状の谷が現れる。当該凹状の谷の最低点は、特定しようとする連結点(即ち、腕と肢体とが接した連結点)である可能性が高い。 For example, a concave valley appears on the contour line at the connection point between the arm and the limb. There is a high possibility that the lowest point of the concave valley is a connection point to be specified (that is, a connection point where an arm and a limb contact each other).
本発明の一実施例において、輪郭線上の各画素点の曲率を算出することで人体輪郭線上の連結点を特定することができる。 In one embodiment of the present invention, the connecting point on the human body contour can be specified by calculating the curvature of each pixel point on the contour.
次に、ステップS206において、連結点に基づいて人体領域を複数の人体部分に分割することができる。 Next, in step S206, the human body region can be divided into a plurality of human body parts based on the connection points.
具体的には、連結点を特定した後に、人間特有の幾つかの情報(例えば、頭の形状は円形に近似し、四肢の形状は矩形に近似するなど)により、人体の分割を行うことができる。これにより、複数の人体部分を取得することができる。 Specifically, after specifying the connection point, the human body can be divided by some human-specific information (for example, the head shape approximates a circle and the limb shape approximates a rectangle). it can. Thereby, a plurality of human body parts can be acquired.
上記の輪郭線上の連結点に基づいて人体を複数の人体部分に区分する具体的な技術の詳細については、RafaelC.GonzalezとRichard E.Woodsにより創作された「デジタル画像処理」(電子工業出版社、2002)を参照することができ、その内容のすべてはここで援用され、明細書を簡潔・明瞭にするために説明を省略する。 For details of a specific technique for dividing a human body into a plurality of human body parts based on the connection points on the contour line, see “Digital Image Processing” created by Rafael C. Gonzalez and Richard E. Woods (Electronic Industry Publishing Co., Ltd.). 2002), the entire contents of which are hereby incorporated by reference and omitted for the sake of brevity and clarity.
このように、図2に示す実施例により、フレームにおける人体領域を複数の人体部分に効率よく正確に区分することができる。 As described above, according to the embodiment shown in FIG. 2, the human body region in the frame can be efficiently and accurately divided into a plurality of human body parts.
図2に示す実施例は、単に例示的なものである。本発明は、これに限定されない。例えば、その他の既知の人体区分方法(例えば、領域による方法等)を採用してフレームにおける人体領域を複数の人体部分に区分することもできる。 The embodiment shown in FIG. 2 is merely exemplary. The present invention is not limited to this. For example, other known human body segmentation methods (for example, a method using a region) may be employed to segment a human body region in a frame into a plurality of human body parts.
上記の方法において、人体を複数の人体部分に分割した後に、さらに、各人体部分の局所動作周期をそれぞれ特定することができる。 In the above method, after the human body is divided into a plurality of human body parts, the local motion period of each human body part can be further specified.
図3は、本発明の一実施例による、人体部分の局所動作周期を特定するフローチャートを示す。 FIG. 3 shows a flow chart for identifying a local motion period of a human body part according to one embodiment of the present invention.
図3に示すように、ステップS302において、人体部分の動きベクトルを算出することができる。 As shown in FIG. 3, in step S302, the motion vector of the human body part can be calculated.
なお、前記動きベクトルは、人体部分の動き速度及び方向を示すパラメータであっても良い。 The motion vector may be a parameter indicating the motion speed and direction of the human body part.
人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出することができる。 The motion vector of the human body part can be calculated based on the motion of all or some of the pixels in the human body part.
本発明の一実施例において、人体部分における一部の画素の動きに基づいて、人体部分全体の動きベクトルを取得することができる。 In one embodiment of the present invention, the motion vector of the entire human body part can be obtained based on the motion of some pixels in the human body part.
例えば、前記人体部分が頭である場合に、まず特徴画素(例えば、目、鼻、口の位置に対応する画素)の動きに基づいて、これらの特徴画素の動きベクトルをそれぞれ算出することができる。 For example, when the human body part is the head, first, based on the movement of feature pixels (for example, pixels corresponding to the positions of eyes, nose, and mouth), the motion vectors of these feature pixels can be calculated respectively. .
具体的には、特徴画素の二つの隣接しているフレーム(例えば、前のフレームまたは次のフレーム)の間での位置の差により、各特徴画素の動きベクトルを取得することができる。 Specifically, the motion vector of each feature pixel can be acquired from the difference in position between two adjacent frames (for example, the previous frame or the next frame) of the feature pixel.
その後に、人体部分の各特徴画素の動きベクトルの和を求めることにより、前記人体部分の動きベクトルを取得することができる。 Thereafter, the motion vector of the human body part can be obtained by calculating the sum of the motion vectors of the feature pixels of the human body part.
上記例示的な説明において、一部の特徴画素に基づいて人体部分の動きベクトルを算出したが、本発明は、これに限定されず、その他の変形例を利用することができる。 In the above exemplary description, the motion vector of the human body part is calculated based on some feature pixels. However, the present invention is not limited to this, and other modifications can be used.
例えば、本発明の他の実施例において、人体部分におけるすべての画素の動きベクトルを算出した後に、すべての動きベクトルの和を求めることにより、前記人体部分の動きベクトルを取得することもできる。 For example, in another embodiment of the present invention, the motion vector of the human body part can be obtained by calculating the motion vector of all the pixels in the human body part and then calculating the sum of all the motion vectors.
図3に戻り、次に、ステップS304において、人体部分の動きベクトルに基づいて探索範囲内で人体動作の動作終了フレームを探索することができる。 Returning to FIG. 3, next, in step S <b> 304, the motion end frame of the human body motion can be searched within the search range based on the motion vector of the human body portion.
人体動作の動作終了フレームを探索できた場合に、ステップS306において、現在のフレームと動作終了フレームとの間の時間長さを、人体部分の局所動作周期として特定することができる。 When the motion end frame of the human body motion can be searched, in step S306, the time length between the current frame and the motion end frame can be specified as the local motion cycle of the human body portion.
また、探索範囲内で動作終了フレームを探索できなかった場合に、ステップS308において、所定の第3の時間長さを、前記人体部分の局所動作周期として特定することができる。 If the motion end frame cannot be searched within the search range, the predetermined third time length can be specified as the local motion cycle of the human body part in step S308.
なお、前記第3の時間長さは、一つの完全の人体動作を十分に含み得る時間の長さであり、経験値または異なる応用場面に基づいて、前記第3の時間長さを合理的に設定することができる。 The third time length is a length of time that can sufficiently include one complete human body motion, and the third time length can be reasonably determined based on experience values or different application situations. Can be set.
これにより、現在のフレームにおける人体部分毎の局所動作周期を特定することができる。 Thereby, the local motion period for every human body part in the current frame can be specified.
上記の実施例において、探索範囲内で人体部分の動作終了フレームを探索する処理は、前記の人体部分の動きベクトルにより実現することができる。 In the above embodiment, the process of searching for the motion end frame of the human body part within the search range can be realized by the motion vector of the human body part.
本発明の一実施例において、探索範囲内で、各フレームにおける前記人体部分の動きベクトルの、ベクトルの和をゼロに近似させるフレームを探索して人体部分の動作終了フレームを特定することができる。 In one embodiment of the present invention, the motion end frame of the human body part can be identified by searching for a frame that approximates the vector sum of the motion vectors of the human body part in each frame within the search range.
具体的には、例えば、ビデオフレームシーケンスにおける人体動作周期をリアルタイムで特定する場合に、現在のフレームを起点とし、所定の探索範囲内で、前方向にフレームにおける人体部分の動きベクトルを順に累積することができる。 Specifically, for example, when the human motion cycle in the video frame sequence is specified in real time, the motion vector of the human body part in the frame is accumulated in the forward direction in the predetermined search range starting from the current frame. be able to.
動きベクトルの累積値がゼロに近くなることが発見された場合(例えば、累積値が所定の第1の閾値よりも小さい時)、動きベクトルの累積値が第1の閾値より小さくなる時のフレームを、人体部分の動作終了フレームとして特定することができる。 When it is found that the accumulated value of the motion vector is close to zero (for example, when the accumulated value is smaller than a predetermined first threshold value), the frame when the accumulated value of the motion vector becomes smaller than the first threshold value Can be specified as the motion end frame of the human body part.
なお、前記第1の閾値は、経験値または実際の応用場面に基づいて予め設定されたゼロに近い値である。 The first threshold value is a value close to zero set in advance based on experience values or actual application scenes.
一方、所定の探索範囲内において、動きベクトルの累積値が第1の閾値より小さくなることが最後まで見いだせない場合には、前記所定の探索範囲内において前記動作終了フレームを探索できなかったと判定できる。 On the other hand, if it cannot be found until the end that the accumulated value of the motion vectors is smaller than the first threshold within the predetermined search range, it can be determined that the operation end frame cannot be searched within the predetermined search range. .
これにより、探索範囲内で人体部分の動作終了フレームを探索する処理を実現することができる。 As a result, it is possible to realize a process of searching for the motion end frame of the human body part within the search range.
上述のビデオフレームシーケンスにおける人体動作周期をリアルタイムに特定する場合(前へ順に探索する場合)を例に説明したが、以上の記載は、単に例示的なものである。本発明はこれに限定されない。 Although the case where the human body motion cycle in the above-described video frame sequence is specified in real time (when searching in order forward) has been described as an example, the above description is merely illustrative. The present invention is not limited to this.
例えば、本発明の他の実施例において、例えば、既存のビデオに対して分析を行って、ビデオフレームシーケンスにおける人体動作周期を特定する場合に、現在のフレームを起点として、所定の探索範囲内で後ろ方向にフレームにおける人体部分の動きベクトルを順に累積して、人体部分の動作終了フレームを特定してもよい。 For example, in another embodiment of the present invention, for example, when analyzing an existing video and specifying a human body motion cycle in a video frame sequence, the current frame is used as a starting point within a predetermined search range. The motion end frame of the human body part may be specified by sequentially accumulating the motion vectors of the human body part in the frame in the backward direction.
これにより、探索範囲内で人体部分の動作終了フレームを探索する処理を実現することもできる。 Accordingly, it is possible to realize a process of searching for the motion end frame of the human body part within the search range.
上記実施例における、ビデオにおける人体動作周期を特定する方法により、本発明は、ビデオにおける人体動作を認識する方法をさらに提供する。 According to the method for identifying the human motion period in the video in the above embodiment, the present invention further provides a method for recognizing the human motion in the video.
図4は、本発明の一実施例によるビデオにおける人体動作を認識する方法のフローチャートを示す。 FIG. 4 shows a flowchart of a method for recognizing human motion in a video according to an embodiment of the present invention.
図4に示されるように、ステップS402において、ビデオにおける人体動作周期を特定することができる。 As shown in FIG. 4, in step S402, the human body motion cycle in the video can be specified.
例えば、任意の上記実施例の方法を採用してビデオにおける人体動作周期を特定してもよい。 For example, the human body motion cycle in the video may be specified by adopting the method of any of the above embodiments.
次に、ステップ404において、特定した人体動作周期に基づいて人体動作を認識することができる。 Next, in step 404, the human body motion can be recognized based on the identified human body motion cycle.
具体的には、特定した人体動作周期に基づいて時間的・空間的特徴を抽出し、時間的・空間的特徴に基づいて人体動作を認識することができる。 Specifically, temporal / spatial features can be extracted based on the specified human body motion cycle, and human body motions can be recognized based on the temporal / spatial features.
上記の人体動作認識方法において、異なる動作や異なる個体に適応した人体動作周期を特定する。これにより、時間的・空間的特徴をより正確に抽出することができ、より正確な人体動作認識を実現することができる。 In the human motion recognition method described above, a human motion cycle adapted to different motions or different individuals is specified. Thereby, temporal and spatial features can be extracted more accurately, and more accurate human body motion recognition can be realized.
上記の方法に対応し、本発明の実施例は、方法に対応する装置を同様に提供する。 Corresponding to the above method, embodiments of the present invention similarly provide an apparatus corresponding to the method.
図5は、本発明の一実施例によるビデオにおける人体動作周期を特定する装置のブロック図を示す。 FIG. 5 shows a block diagram of an apparatus for identifying a human motion cycle in a video according to an embodiment of the present invention.
図5に示されるように、ビデオにおける人体動作周期を特定する装置500は、人体部分区分部502と、局部動作周期特定部504と、人体動作周期特定部506とを含んでも良い。
As shown in FIG. 5, an
人体部分区分部502は、ビデオにおける人体領域を区分し、複数の人体部分を形成することができる。
The human body
具体的には、人体部分区分部502は、所定の探索範囲内の各フレームに対して人体領域の区分を行うことができる。これにより、各フレームから複数の人体部分を取得してもよい。
Specifically, the human body
局部動作周期特定部504は、現在のフレームにおける各人体部分の局所動作周期を特定することができる。
The local operation
具体的には、局部動作周期特定部504は、現在のフレームにおける各人体部分の動きベクトルに基づいて前記各部分の局所動作周期を特定することができる。
Specifically, the local operation
人体動作周期特定部506は、現在のフレームにおける複数の人体部分の局所動作周期に基づいて、ビデオにおける現在のフレームの人体動作周期を特定することができる。
The human body motion
具体的には、人体動作周期特定部506は、現在フレームにおける複数の人体部分の局所動作周期のうち最大の局所動作周期を、ビデオにおける現在のフレームの人体動作周期として特定することができる。
Specifically, the human body motion
これにより、上記の人体動作周期性を利用した、人体部分に基づいてビデオにおける人体動作周期を特定する装置により、人体動作の周期性に基づいてビデオにおける人体動作周期を正確に特定することができる。 Accordingly, the human body motion cycle in the video can be accurately identified based on the periodicity of the human body motion by the device that identifies the human body motion cycle in the video based on the human body part using the above human body motion periodicity. .
上記のビデオにおける人体動作周期を特定する方法において、異なる応用場面または異なる要求に応じて異なる探索範囲を設定することができる。 In the above-described method for identifying the human body motion period in the video, different search ranges can be set according to different application scenes or different requirements.
本発明の一実施例において、前記探索範囲は、現在のフレームからの後の所定の第1の時間長さの時間帯におけるフレームであっても良い。なお、前記第1の時間長さは、一つの人体動作を十分に含む時間長さであってもよく、経験値または具体的な応用場面に応じて前記第1の時間長さを合理的に設定することができる。 In an embodiment of the present invention, the search range may be a frame in a time zone having a predetermined first time length after the current frame. The first time length may be a time length sufficiently including one human body motion, and the first time length is rationally determined according to an experience value or a specific application scene. Can be set.
上述の探索範囲は、単に例示的なものであり、本発明はこれに限定されず、その他の方式で探索範囲を設定することもできる。 The above-described search range is merely illustrative, and the present invention is not limited to this, and the search range can be set by other methods.
本発明の他の実施例において、前記探索範囲は、現在のフレームからの前の所定の第2の時間長さの時間帯におけるフレームであってもよい。なお、前記第2の時間長さは、一つの人体動作を十分に含む時間長さであってもよく、経験値または具体的な応用場面に応じて前記第2の時間長さを合理的に設定することができる。 In another embodiment of the present invention, the search range may be a frame in a time zone having a predetermined second time length from the current frame. The second time length may be a time length sufficiently including one human body motion, and the second time length is reasonably determined according to an experience value or a specific application situation. Can be set.
また、第2の時間長さは、第1の時間長さと同一であってもよく、第1の時間長さと異なっても良い。 Further, the second time length may be the same as the first time length or may be different from the first time length.
上記の装置において、人体部分区分部は、種々の適切な技術手段によって、フレームにおける人体領域を複数の人体部分に区分することができる。 In the above apparatus, the human body part segmenting unit can segment the human body region in the frame into a plurality of human body parts by various appropriate technical means.
図6に本発明の一実施例による人体部分区分部のブロック図を示す。 FIG. 6 is a block diagram of a human body partial section according to an embodiment of the present invention.
図6に示されるように、人体部分区分部600は、輪郭抽出部602と、連結点抽出部604と、分割部606とを含んでも良い。
As shown in FIG. 6, the human body
輪郭抽出部602は、任意の公知のエッジ抽出方法によって、フレームにおける人体領域の輪郭線を抽出することができる。
The
例えば、cannyアルゴリズムを採用してフレームにおける人体領域の輪郭線を抽出することができる。 For example, the canny algorithm can be adopted to extract the outline of the human body region in the frame.
連結点抽出部604は、抽出された人体領域の輪郭線に基づいて、さらに輪郭線上の連結点を特定することができる。
The connection
具体的には、輪郭線上で二つの異なる人体部分を連結する領域は、一般的に凹状の谷の形状で現れる。輪郭線上の連結点が凹状の谷の最低点に位置すべきであることを考慮し、凹状の谷の最低点を特定することによって連結点を特定することができる。 Specifically, a region connecting two different human body parts on the contour line generally appears in the shape of a concave valley. Considering that the connecting point on the contour line should be located at the lowest point of the concave valley, the connecting point can be specified by specifying the lowest point of the concave valley.
本発明の一実施例において、輪郭線上の各画素点の曲率を算出する方式で人体輪郭線上の連結点を特定することができる。 In one embodiment of the present invention, a connection point on a human body contour line can be specified by a method of calculating a curvature of each pixel point on the contour line.
分割部606は、連結点に基づいて人体領域をさらに複数の人体部分に分割することができる。
The dividing
具体的には、連結点を特定した後に、人間特有な幾つかの情報(例えば、頭の形状は円形に近似し、四肢の形状は矩形に近似するなど)に基づいて人の分割を行うことにより、複数の人体部分を取得することができる。 Specifically, after identifying the connection points, human division is performed based on some human-specific information (for example, the shape of the head approximates a circle and the shape of the extremities approximates a rectangle). Thus, a plurality of human body parts can be acquired.
以上の図6に示す人体部分区分部を利用した実施例は、単に例示的なものであり、本発明はこれに限定されず、例えば、人体部分区分部は、その他の公知の人体区分方法(例えば、領域に基づく方法等)を採用してフレームにおける人体領域を複数の人体部分に区分することもできる。 The above-described embodiment using the human body segmentation unit shown in FIG. 6 is merely illustrative, and the present invention is not limited to this. For example, the human body segmentation unit may include other known human body segmentation methods ( For example, a region-based method or the like may be employed to divide a human body region in a frame into a plurality of human body parts.
上記の装置において、人体部分区分部が人体を複数の人体部分に分割した後に、局所動作周期特定部が、各人体部分の局部動作周期をそれぞれ特定することができる。 In the above apparatus, after the human body part division unit divides the human body into a plurality of human body parts, the local operation period specifying unit can specify the local operation period of each human body part.
図7に本発明の一実施例による局所動作周期特定部のブロック図を示す。 FIG. 7 shows a block diagram of a local operation period specifying unit according to an embodiment of the present invention.
図7に示されるように、局部動作周期特定部700は、動きベクトル算出部702と、動作終了フレーム探索部704と、時間長さ特定部706とを含むことができる。
As shown in FIG. 7, the local motion
動きベクトル算出部702は、人体部分の動きベクトルを算出することができる。
The motion
動きベクトル算出部702は、人体部分におけるすべてまたは一部の画素の動きに基づいて、前記人体部分の動きベクトルを算出することができる。
The motion
本発明の一実施例において、動きベクトル算出部702は、人体部分における一部の画素の動きに基づいて、人体部分全体の動きベクトルを取得することができる。
In an embodiment of the present invention, the motion
例えば、前記人体部分が頭部であれば、動きベクトル算出部は、まず特徴画素(例えば、目や鼻や口の位置に対応する画素)に基づいて、これらの特徴画素の動きベクトルをそれぞれ算出することができる。 For example, if the human body part is the head, the motion vector calculation unit first calculates the motion vectors of these feature pixels based on the feature pixels (for example, pixels corresponding to the positions of the eyes, nose, and mouth). can do.
具体的には、動きベクトル算出部702は、特徴画素の二つの隣接するフレーム(例えば、前のフレームまたは次のフレーム)の間での位置の差により、各特徴画素の動きベクトルを取得することができる。
Specifically, the motion
その後、人体部分の各特徴画素の動きベクトルの和を求めることによって、前記人体部分の動きベクトルを取得することができる。 Thereafter, the motion vector of the human body part can be obtained by calculating the sum of the motion vectors of the feature pixels of the human body part.
以上の例示的な記載において一部の特徴画素に基づいて人体部分の動きベクトルを算出したが、本発明はこれに限定されず、その他の変形例を採用することができる。 In the above exemplary description, the motion vector of the human body part is calculated based on some feature pixels. However, the present invention is not limited to this, and other modifications can be adopted.
例えば、本発明の他の実施例において、動きベクトル算出部702は、人体部分におけるすべての画素の動きベクトルを算出した後に、すべての動きベクトルの和を求めることによって、人体部分の動きベクトルを取得することもできる。
For example, in another embodiment of the present invention, the motion
動作終了フレーム探索部704は、動きベクトル算出部により算出された人体部分の動きベクトルに基づいて、探索範囲内で人体動作の動作終了フレームを探索することができる。
The motion end
動作終了フレーム探索部704が人体動作の動作終了フレームを探索できた場合に、時間長さ特定部706は、現在のフレームと動作終了フレームとの間の時間長さを人体部分の局所動作周期として特定することができる。
When the motion end
また、動作終了フレーム探索部704が探索範囲内で動作終了フレームを探索できなかった場合に、時間長さ特定部706は所定の第3の時間長さを、前記人体部分の局所動作周期として特定することができる。
In addition, when the motion end
なお、前記第3の時間長さは、一つの完全な人体動作を十分に含み得る時間の長さであり、経験値または異なる応用場面に基づいて、前記第3の時間長さを合理的に設定することができる。 The third time length is a length of time that can sufficiently include one complete human body motion, and the third time length can be reasonably determined based on experience values or different application scenes. Can be set.
これにより、局所動作周期特定部700は、現在のフレームにおける各人体部分の局所動作周期を特定することができる。
Thereby, the local motion
上記の実施例において、動作終了フレーム探索部における、探索範囲内で人体部分の動作終了フレームを探索する処理は、前記人体部分の動きベクトルに基づいて実現することができる。 In the above embodiment, the process of searching for the motion end frame of the human body part within the search range in the motion end frame search unit can be realized based on the motion vector of the human body part.
本発明の一実施例において、動作終了フレーム探索部は、探索範囲内で、前記人体部分の動きベクトルの、ベクトルの和をゼロに近似させるフレームを探索することによって、人体部分の動作終了フレームを特定することができる。 In one embodiment of the present invention, the motion end frame search unit searches for a motion end frame of the human body part by searching for a frame that approximates a vector sum of motion vectors of the human body part within the search range. Can be identified.
具体的には、動作終了フレーム探索部は、例えば、ビデオフレームシーケンスにおける人体動作周期をリアルタイムで特定する場合に、現在のフレームを起点とし、所定の探索範囲内で前方向にフレームにおける人体部分の動きベクトルを順に累積する。 Specifically, for example, when the human body motion cycle in the video frame sequence is specified in real time, the motion end frame search unit starts from the current frame and moves the human body part in the frame forward in a predetermined search range. The motion vectors are accumulated in order.
動作終了フレーム探索部は、動きベクトルの累積値がゼロに近くなることを発見した場合(例えば、累積値が所定の第1の閾値よりも小さい時)、動きベクトルの累積値が第1の閾値より小さくなる時のフレームを、人体部分の動作終了フレームとして特定することができる。 When the motion end frame search unit finds that the cumulative value of the motion vector is close to zero (for example, when the cumulative value is smaller than a predetermined first threshold value), the cumulative value of the motion vector is the first threshold value. The frame when it becomes smaller can be specified as the motion end frame of the human body part.
なお、前記第1の閾値は、経験値または実際の応用場面により予め設定されたゼロに近い値であっても良い。 The first threshold value may be an experience value or a value close to zero set in advance by an actual application scene.
一方、動作終了フレーム探索部は、所定の探索範囲内において、動きベクトルの累積値が第1の閾値より小さくなることが最後まで見つからない場合には、前記所定の探索範囲内において前記動作終了フレームを探索できなかったと判定できる。 On the other hand, if the motion end frame search unit does not find that the cumulative motion vector value is smaller than the first threshold within the predetermined search range until the end, the motion end frame search unit within the predetermined search range. It can be determined that the search was not successful.
これにより、動作終了フレーム探索部は、探索範囲内で人体部分の動作終了フレームを探索する処理を実現することができる。 Thereby, the motion end frame search unit can realize a process of searching for a motion end frame of the human body part within the search range.
以上の記載にてビデオフレームシーケンスにおける人体動作周期をリアルタイムに特定する場合(前方向に順に探索する場合)を例に動作終了フレーム探索部の操作を説明したが、以上の記載は、単に例示的なものである。本発明はこれに限定されない。 In the above description, the operation of the motion end frame search unit has been described by taking as an example the case where the human motion cycle in the video frame sequence is specified in real time (when searching forward in order), but the above description is merely illustrative It is a thing. The present invention is not limited to this.
例えば、本発明の他の実施例において、例えば、既存のビデオに対して分析を行ってビデオフレームシーケンスにおける人体動作周期を特定する場合に、動作終了フレーム探索部は、現在のフレームを起点とし、所定の探索範囲内で後ろ方向にフレームにおける人体部分の動きベクトルを順に累積し、人体部分の動作終了フレームを探索してもよい。 For example, in another embodiment of the present invention, for example, when analyzing an existing video and specifying a human body motion cycle in a video frame sequence, the motion end frame search unit starts from the current frame, Within the predetermined search range, the motion vector of the human body part in the frame may be accumulated in order backward to search for the motion end frame of the human body part.
これにより、動作終了フレーム探索部は、探索範囲内で人体部分の動作終了フレームに対する探索を実現することもできる。 Accordingly, the motion end frame search unit can also realize a search for the motion end frame of the human body part within the search range.
上記の実施例におけるビデオにおける人体動作周期を特定する装置により、本発明は、ビデオにおける人体動作を認識する装置をさらに提供することができる。 According to the apparatus for identifying the human body motion period in the video in the above embodiment, the present invention can further provide an apparatus for recognizing the human body motion in the video.
図8に、本発明の一実施例によるビデオにおける人体動作を認識する装置のブロック図を示す。 FIG. 8 is a block diagram of an apparatus for recognizing human motion in a video according to an embodiment of the present invention.
図に示されるように、本発明の実施例によるビデオにおける人体動作を認識する装置800は、人体動作周期特定部802と認識部804とを含むことができる。
As shown in the figure, an
人体動作周期特定部802は、ビデオにおける人体動作周期を特定することができる。
The human body motion
例えば、人体動作周期特定部802は、任意の上記実施例の人体動作周期を特定する装置を含み、ビデオにおける人体動作周期を特定することができる。
For example, the human body motion
認識部804は、特定した人体動作周期に基づいて人体動作を認識することができる。
The
具体的には、認識部804は、特定した人体動作周期に基づいて時間的・空間的特徴を抽出し、時間的・空間的特徴に基づいて人体動作を認識することができる。
Specifically, the recognizing
上記の人体動作を認識する装置は、異なる動作や異なる個体に対して、適切に人体動作周期を特定することができる。これにより、時間的・空間的特徴をより正確に抽出することができ、さらにより正確な人体動作認識を実現することができる。 The apparatus for recognizing the human body motion can appropriately specify the human body motion cycle for different motions or different individuals. Thereby, temporal and spatial features can be extracted more accurately, and more accurate human body motion recognition can be realized.
前記のビデオにおける人体動作周期を特定する装置、前記のビデオにおける人体動作を認識する装置及びこれに含まれる要素についての技術の詳細は、上述の方法に係る説明を参照することによって理解できる。明細書を明瞭にするために、ここでは、不要な説明を省略する。 The technical details of the device for identifying the human motion cycle in the video, the device for recognizing the human motion in the video, and the elements included in the device can be understood by referring to the description of the method. In order to clarify the specification, unnecessary explanation is omitted here.
また、本願に記載の各種の例示及び実施例は、いずれも例示的なものである。本発明はこれらに限定されないことを理解すべきである。本明細書において、「第1」、「第2」等の記述は、単に本発明を明確に説明するために、説明において区別するためのものである。従って、いずれの事項も限定的な意味を持っていると解すべきではない。 In addition, the various examples and examples described in the present application are all illustrative. It should be understood that the present invention is not limited thereto. In the present specification, descriptions such as “first”, “second” and the like are merely used for distinction in the description in order to clearly explain the present invention. Therefore, it should not be understood that any matter has a limited meaning.
上記装置における各構成モジュールやユニットはソフトウェア、ファームウェア、ハードウェアまたはこれらの組合せで実現することができる。実現するために使用可能な具体的な手段または方式は、当業者に熟知されるものであるため、ここでは説明しない。ソフトウェア又はファームウェアにより実現される場合に、記憶媒体又はネットワークから専用のハードウェア構成を有するコンピュータ(例えば図9に示された汎用のコンピュータ900)へ当該ソフトウェアを構成するプログラムをインストールしてもよい。当該コンピュータは、各種のプログラムがインストールされている場合に、各機能を実行することができる。
Each component module and unit in the apparatus can be realized by software, firmware, hardware, or a combination thereof. Specific means or schemes that can be used to implement are well known to those skilled in the art and will not be described here. When implemented by software or firmware, a program constituting the software may be installed from a storage medium or a network to a computer having a dedicated hardware configuration (for example, the general-
図9において、中央処理装置(CPU)901は、読取専用メモリ(ROM)902に記憶されたプログラム又は記憶部908からランダムアクセスメモリ(RAM)903にロードされたプログラムに基づいて各種の処理を実行する。RAM903には、必要に応じてCPU901が各種の処理等を実行するために必要なデータも記憶されている。CPU901、ROM902及びRAM903はバス904を介して互いに接続されている。入力/出力インタフェース905もバス904に接続されている。
In FIG. 9, a central processing unit (CPU) 901 executes various processes based on a program stored in a read-only memory (ROM) 902 or a program loaded from a
入力部906(キーボード、マウス等を含む)、出力部907(ディスプレイ、例えばブラウン管(CRT)、液晶ディスプレイ(LCD)等、スピーカ等を含む)、記憶部908(ハードディスク等を含む)、及び通信部909(ネットワークインターフェースカード、例えばLANカード、モデム等を含む)は、入力/出力インタフェース905に接続されている。通信部909は、ネットワーク、例えばインターネットを経由して通信処理を実行する。必要に応じて、入力/出力インタフェース905にはドライバ910も接続されている。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等のような取り外し可能な媒体911は、必要に応じてドライバ910に装着される。これにより、読み出されたコンピュータプログラムは必要に応じて記憶部908にインストールされる。
Input unit 906 (including keyboard, mouse, etc.), output unit 907 (display, including cathode ray tube (CRT), liquid crystal display (LCD), etc., speaker), storage unit 908 (including hard disk, etc.), and communication unit 909 (including a network interface card such as a LAN card, a modem, etc.) is connected to the input /
ソフトウェアで前記一連の処理を実現する場合に、ネットワーク、例えばインターネット、又は記憶媒体、例えば取外し可能な媒体911からソフトウェアを構成するプログラムをインストールする。
When the series of processing is realized by software, a program constituting the software is installed from a network, for example, the Internet, or a storage medium, for example, a
このような記憶媒体は、図9に示される。その中にプログラムが記憶されており、プログラムは、デバイスから読み出され伝送されてもよいと当業者は理解すべきである。取り外し可能な媒体911として、例えば、磁気ディスク(フロッピディスク(登録商標)含む)、光ディスク(コンパクトディスクリードオンリーメモリ(CD−ROM)やディジタルヴァーサタイルディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標)を含む)及び半導体メモリを含む。または、記憶媒体は、ROM902であってもよい。或いは、記憶部908に含まれるハードディスクであって、プログラムが記憶されており、且つこれらを含むデバイスと共にユーザに提供されるハードディスクなどであっても良い。
Such a storage medium is shown in FIG. A person skilled in the art should understand that a program is stored therein and that the program may be read from the device and transmitted. Examples of the
本発明は、機械で読み取り可能なコマンドコードが記憶されたプログラム製品を更に提供する。前記コマンドコードは、機械で読取られて実行される際に、本発明の実施例による方法を実行することができる。 The present invention further provides a program product in which machine-readable command codes are stored. When the command code is read and executed by a machine, the method according to an embodiment of the present invention can be executed.
加えて、前記の機械で読み取り可能なコマンドコードが記憶されたプログラム製品を搭載する記憶媒体も本発明の開示に含まれる。前記記憶媒体は、フロッピディスク、光ディスク、光磁気ディスク、メモリカード、メモリスティック等を含むが、これらに限定されない。 In addition, a storage medium on which a program product storing a command code readable by the machine is mounted is also included in the disclosure of the present invention. Examples of the storage medium include, but are not limited to, floppy disks, optical disks, magneto-optical disks, memory cards, and memory sticks.
最後に、さらに説明すべき点は、用語「含む」、「有する」、又は如何なる他の同義語も、非排他的な意味で用いられ、一連の要素を含むプロセス、方法、物又は装置がこれらの要素を含むだけではなく、明確に列挙されていない他の要素を含み得る。加えて、このようなプロセス、方法、物又は装置の固有の要素も含む。また、更なる限定のない場合に、用語「一つの…を含む」により限定された要素は、前記要素を含むプロセス、方法、物又は装置において更に別の同一の要素が存在することを排除しない。 Finally, it should be further explained that the terms “include”, “have”, or any other synonym are used in a non-exclusive sense, and a process, method, article or device that includes a series of elements As well as other elements not explicitly listed. In addition, it includes the unique elements of such a process, method, article or device. Also, unless otherwise limited, an element defined by the term “including one ...” does not exclude the presence of another identical element in a process, method, article, or apparatus that includes the element. .
以上、図面を参照しながら本発明の実施例を詳細に説明したが、上述の実施形態は、単に本発明を説明するためのものであり、本発明を限定するものではないと理解すべきである。当業者にとって、本発明の精神及び範囲を逸脱しない限り、上記実施形態に対して各種の修正や変更を行うことができる。従って、本発明の範囲は、特許請求の範囲及びその均等物によって限定される。 As mentioned above, although the Example of this invention was described in detail, referring drawings, it should be understood that the above-mentioned embodiment is only for demonstrating this invention, and does not limit this invention. is there. For those skilled in the art, various modifications and changes can be made to the above embodiment without departing from the spirit and scope of the present invention. Accordingly, the scope of the invention is limited by the claims and their equivalents.
以上の実施例に関し、更に以下の付記を開示する。
(付記1)
探索範囲内の各フレームの人体領域を複数の人体部分に区分し、
現在のフレームにおける各人体部分の局所動作周期を特定し、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する、
処理を含むビデオにおける人体動作周期を特定する方法。
(付記2)
前記探索範囲は、現在のフレームからの、後の第1の時間長さまたは前の第2の時間長さの時間帯におけるフレームであることを特徴とする付記1に記載のビデオにおける人体動作周期を特定する方法。
(付記3)
探索範囲内の各フレームの人体領域を複数の人体部分に区分する処理は、
フレームにおける人体領域の輪郭線を抽出し、
輪郭線に基づいて人体領域の連結点を特定し、
連結点に基づいて人体領域を複数の人体部分に分割する、
処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記4)
現在のフレームにおける各人体部分の局所動作周期を特定する処理は、
前記人体部分の動きベクトルを算出し、
前記探索範囲内において前記人体部分の動作終了フレームを探索し、
前記動作終了フレームを探索できた場合に、前記動作終了フレームと前記現在のフレームとの間の時間長さを、前記人体部分の局所動作周期として特定する、
処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記5)
前記探索範囲内において前記人体部分の動作終了フレームを探索する処理は、前記探索範囲内において、前記人体部分の動きベクトルの和を第1の閾値よりも小さくすることが可能なフレームを、前記動作終了フレームとして探索する処理を含むことを特徴とする技術的案4に記載のビデオにおける人体動作周期を特定する方法。
(付記6)
前記人体部分の動きベクトルを算出する処理は、前記人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出する処理を含むことを特徴とする付記4に記載のビデオにおける人体動作周期を特定する方法。
(付記7)
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する処理は、前記複数の人体部分の局所動作周期のうち最大の局所動作周期を、人体動作周期として特定する処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記8)
付記1ないし7の何れかに記載の方法に基づいてビデオにおける人体動作周期を特定し、
前記人体動作周期に基づいて時間的・空間的特徴を抽出して、ビデオにおける人体動作を認識する処理を含むことを特徴とするビデオにおける人体動作を認識する方法。
(付記9)
探索範囲内の各フレームの人体領域を複数の人体部分に区分する人体部分区分部と、
現在のフレームにおける各人体部分の局所動作周期を特定する局所動作周期特定部と、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する人体動作周期特定部と、を含むビデオにおける人体動作周期を特定する装置。
(付記10)
前記探索範囲は、現在のフレームからの、後の第1の時間長さまたは前の第2の時間長さの時間帯におけるフレームであることを特徴とする付記9に記載のビデオにおける人体動作周期を特定する装置。
(付記11)
前記人体部分区分部は、
フレームにおける人体領域の輪郭線を抽出する輪郭抽出部と、
輪郭線に基づいて人体領域の連結点を特定する連結点抽出部と、
連結点に基づいて人体領域を複数の人体部分に分割する分割部とを含むことを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記12)
前記局所動作周期特定部は、
前記人体部分の動きベクトルを算出する動きベクトル算出部と、
前記探索範囲内において前記人体部分の動作終了フレームを探索する動作終了フレーム探索部と、
前記動作終了フレームを探索できた場合に、前記動作終了フレームと前記現在のフレームとの間の時間長を、前記人体部分の局所動作周期として特定する時間長さ特定部とを含むことを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記13)
前記動作終了フレーム探索部は、さらに、前記探索範囲内において、前記人体部分の動きベクトルの和を第1の閾値よりも小さくすることが可能なフレームを、前記動作終了フレームとして探索することを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記14)
前記動きベクトル算出部は、さらに、前記人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出することを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記15)
前記人体動作周期特定部は、さらに、前記複数の人体部分の局所動作周期のうち最大の局所動作周期を特定し、前記最大の局所動作周期を人体動作周期として特定することを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記16)
付記9ないし15の何れかに記載の装置を備えたビデオにおける人体動作周期を特定する人体動作周期特定部と、
前記人体動作周期に基づいて時間的・空間的特徴を抽出して、ビデオにおける人体動作を認識する認識部と、を含むことを特徴とするビデオにおける人体動作を認識する装置。
(付記17)
付記1ないし8のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
In addition to the above examples, the following additional notes are disclosed.
(Appendix 1)
Dividing the human body region of each frame within the search range into multiple human body parts,
Identify the local motion period of each human body part in the current frame,
Identifying a human motion period in a current frame based on the local motion period;
A method for identifying a human motion cycle in a video including processing.
(Appendix 2)
The human body motion cycle in the video according to claim 1, wherein the search range is a frame in a time zone of a later first time length or a previous second time length from a current frame. How to identify.
(Appendix 3)
The process of dividing the human body region of each frame within the search range into a plurality of human body parts is as follows:
Extract the outline of the human body area in the frame,
Identify the connecting points of human body regions based on contour lines,
Dividing the human body region into a plurality of human body parts based on the connection points;
The method of specifying a human body motion cycle in a video as set forth in appendix 2, characterized by including a process.
(Appendix 4)
The process of identifying the local motion period of each human body part in the current frame is
Calculating a motion vector of the human body part;
Search the motion end frame of the human body part within the search range,
When the motion end frame can be searched, the time length between the motion end frame and the current frame is specified as a local motion period of the human body part.
The method of specifying a human body motion cycle in a video as set forth in appendix 2, characterized by including a process.
(Appendix 5)
In the search range, the process of searching for the motion end frame of the human body part includes a frame in which the sum of motion vectors of the human body part can be made smaller than a first threshold in the search range. 5. The method for specifying a human body motion cycle in a video according to the technical plan 4, which includes a process of searching as an end frame.
(Appendix 6)
The video according to claim 4, wherein the process of calculating a motion vector of the human body part includes a process of calculating a motion vector of the human body part based on a motion of all or a part of pixels in the human body part. To identify the human body movement cycle.
(Appendix 7)
The process of identifying a human body motion period in a current frame based on the local motion period includes a process of identifying a maximum local motion period among the local motion periods of the plurality of human body parts as a human body motion period. A method for specifying a human body motion cycle in the video according to attachment 2.
(Appendix 8)
Identifying a human motion cycle in the video based on the method according to any one of appendices 1 to 7,
A method for recognizing human motion in a video, comprising: extracting temporal and spatial features based on the human motion cycle and recognizing human motion in the video.
(Appendix 9)
A human body part classification unit that divides the human body region of each frame within the search range into a plurality of human body parts;
A local motion cycle specifying unit for specifying a local motion cycle of each human body part in the current frame;
An apparatus for specifying a human body motion cycle in a video, comprising: a human body motion cycle specifying unit for specifying a human body motion cycle in a current frame based on the local motion cycle.
(Appendix 10)
The human body motion period in the video according to claim 9, wherein the search range is a frame in a time zone of a subsequent first time length or a previous second time length from a current frame. Device to identify.
(Appendix 11)
The human body part section is
An outline extraction unit for extracting the outline of the human body region in the frame;
A connection point extraction unit for specifying a connection point of the human body region based on the contour line;
The apparatus for identifying a human body motion cycle in video according to claim 10, further comprising a dividing unit that divides the human body region into a plurality of human body parts based on the connection points.
(Appendix 12)
The local operation cycle specifying unit includes:
A motion vector calculation unit for calculating a motion vector of the human body part;
An operation end frame search unit for searching for an operation end frame of the human body part within the search range;
A time length specifying unit that specifies a time length between the action end frame and the current frame as a local action period of the human body part when the action end frame can be searched; The apparatus which specifies the human body movement period in the video of Additional remark 10 which is.
(Appendix 13)
The motion end frame search unit further searches the motion range as a motion end frame for a frame in which the sum of motion vectors of the human body part can be made smaller than a first threshold within the search range. The apparatus which specifies the human body movement period in the video of Additional remark 12.
(Appendix 14)
The human body motion cycle in the video according to appendix 12, wherein the motion vector calculation unit further calculates a motion vector of the human body part based on a motion of all or a part of pixels in the human body part. Device to do.
(Appendix 15)
The human body motion cycle specifying unit further specifies a maximum local motion cycle among the local motion cycles of the plurality of human body parts, and specifies the maximum local motion cycle as a human body motion cycle. A device for identifying a human motion cycle in the video described in 1.
(Appendix 16)
A human body motion cycle specifying unit for specifying a human body motion cycle in a video comprising the device according to any one of appendices 9 to 15,
An apparatus for recognizing human motion in a video, comprising: a recognition unit that extracts temporal and spatial features based on the human motion cycle and recognizes human motion in the video.
(Appendix 17)
A program that causes a computer to execute the method according to any one of appendices 1 to 8.
Claims (11)
現在のフレームにおける各人体部分の局所動作周期を特定し、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する、
処理を含む、ビデオにおける人体動作周期を特定する方法。 Dividing the human body region of each frame within the search range into multiple human body parts,
Identify the local motion period of each human body part in the current frame,
Identifying a human motion period in a current frame based on the local motion period;
A method for identifying a human motion cycle in a video including processing.
フレームにおける人体領域の輪郭線を抽出し、
輪郭線に基づいて人体領域の連結点を特定し、
連結点に基づいて人体領域を複数の人体部分に分割する、
処理を含むことを特徴とする請求項2に記載のビデオにおける人体動作周期を特定する方法。 The process of dividing the human body region of each frame within the search range into a plurality of human body parts is as follows:
Extract the outline of the human body area in the frame,
Identify the connecting points of human body regions based on contour lines,
Dividing the human body region into a plurality of human body parts based on the connection points;
The method according to claim 2, further comprising: processing.
前記人体部分の動きベクトルを算出し、
前記探索範囲内において前記人体部分の動作終了フレームを探索し、
前記動作終了フレームを探索できた場合に、前記動作終了フレームと前記現在のフレームとの間の時間長さを、前記人体部分の局所動作周期として特定する、
処理を含むことを特徴とする請求項2に記載のビデオにおける人体動作周期を特定する方法。 The process of identifying the local motion period of each human body part in the current frame is
Calculating a motion vector of the human body part;
Search the motion end frame of the human body part within the search range,
When the motion end frame can be searched, the time length between the motion end frame and the current frame is specified as a local motion period of the human body part.
The method according to claim 2, further comprising: processing.
前記人体動作周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する処理、を含むことを特徴とするビデオにおける人体動作を認識する方法。 Identifying a human motion period in the video based on the method according to any one of claims 1 to 7,
A method for recognizing human motion in a video, comprising: extracting temporal and spatial features based on the human motion cycle and recognizing human motion in the video.
現在のフレームにおける各人体部分の局所動作周期を特定する局所動作周期特定部と、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する人体動作周期特定部と、を備えるビデオにおける人体動作周期を特定する装置。 A human body part classification unit that divides the human body region of each frame within the search range into a plurality of human body parts;
A local motion cycle specifying unit for specifying a local motion cycle of each human body part in the current frame;
An apparatus for specifying a human body motion cycle in a video, comprising: a human body motion cycle specifying unit for specifying a human body motion cycle in a current frame based on the local motion cycle.
前記人体動作周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する認識部と、を備えることを特徴とするビデオにおける人体動作を認識する装置。 A human body motion cycle specifying unit that includes the apparatus according to claim 9 and that specifies a human body motion cycle in a video;
An apparatus for recognizing human motion in video, comprising: a recognition unit that extracts temporal and spatial features based on said human motion cycle and recognizes human motion in video.
The program which makes a computer perform the method of any one of Claims 1 thru | or 8.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110192815.0 | 2011-07-01 | ||
CN2011101928150A CN102855635A (en) | 2011-07-01 | 2011-07-01 | Method and device for determining human body action cycles and recognizing human body actions |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013016171A true JP2013016171A (en) | 2013-01-24 |
Family
ID=47402197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012147136A Withdrawn JP2013016171A (en) | 2011-07-01 | 2012-06-29 | Method, device, and program for identifying human behavior cycle and recognizing human behavior |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013016171A (en) |
CN (1) | CN102855635A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015012434A (en) * | 2013-06-28 | 2015-01-19 | カシオ計算機株式会社 | Form confirmation support device, method and program and form confirmation support system |
JP2018125841A (en) * | 2016-11-14 | 2018-08-09 | アクシス アーベー | Action recognition in video sequence |
US10163000B2 (en) | 2015-01-14 | 2018-12-25 | Samsung Electronics Co., Ltd. | Method and apparatus for determining type of movement of object in video |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104834887B (en) * | 2014-02-11 | 2018-09-11 | 株式会社理光 | Move pedestrian's representation method, recognition methods and its device |
CN105430342A (en) * | 2015-12-01 | 2016-03-23 | 苏州铭冠软件科技有限公司 | Content-based video feature extraction and video structured processing method |
CN108960016A (en) * | 2017-05-25 | 2018-12-07 | 富士通株式会社 | The method and apparatus for detecting specific action |
CN109474850B (en) * | 2018-11-29 | 2021-07-20 | 北京字节跳动网络技术有限公司 | Motion pixel video special effect adding method and device, terminal equipment and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101635031B (en) * | 2009-08-27 | 2011-08-31 | 上海交通大学 | Method for extracting and identifying small sample character contour feature |
CN101739557B (en) * | 2010-01-26 | 2012-10-31 | 重庆大学 | Motion cycle analysis-based method and device for identifying abnormal human behavior |
-
2011
- 2011-07-01 CN CN2011101928150A patent/CN102855635A/en active Pending
-
2012
- 2012-06-29 JP JP2012147136A patent/JP2013016171A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015012434A (en) * | 2013-06-28 | 2015-01-19 | カシオ計算機株式会社 | Form confirmation support device, method and program and form confirmation support system |
US10163000B2 (en) | 2015-01-14 | 2018-12-25 | Samsung Electronics Co., Ltd. | Method and apparatus for determining type of movement of object in video |
JP2018125841A (en) * | 2016-11-14 | 2018-08-09 | アクシス アーベー | Action recognition in video sequence |
Also Published As
Publication number | Publication date |
---|---|
CN102855635A (en) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Deep level sets for salient object detection | |
JP2013016171A (en) | Method, device, and program for identifying human behavior cycle and recognizing human behavior | |
JP6719457B2 (en) | Method and system for extracting main subject of image | |
CN108229456B (en) | Target tracking method and device, electronic equipment and computer storage medium | |
EP2378485B1 (en) | Moving object detection method and moving object detection apparatus | |
JP4894741B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
US20130028517A1 (en) | Apparatus, method, and medium detecting object pose | |
US20110255748A1 (en) | Articulated object regionarticulated object region detection apparatus and method of the same | |
CN110163096B (en) | Person identification method, person identification device, electronic equipment and computer readable medium | |
JP2004054960A (en) | Face detecting and tracking system and method by combining image visual information to detect two or more faces in real time | |
CN109492576B (en) | Image recognition method and device and electronic equipment | |
Aytekin et al. | Spatiotemporal saliency estimation by spectral foreground detection | |
JP6597914B2 (en) | Image processing apparatus, image processing method, and program | |
Kim et al. | Combined shape and feature-based video analysis and its application to non-rigid object tracking | |
Do et al. | Real-time and robust multiple-view gender classification using gait features in video surveillance | |
JP2018124689A (en) | Moving body detection device, moving body detection system and moving body detection method | |
Waheed et al. | Exploiting Human Pose and Scene Information for Interaction Detection | |
CN114898266B (en) | Training method, image processing device, electronic equipment and storage medium | |
Kim et al. | Robust facial landmark extraction scheme using multiple convolutional neural networks | |
JP2013016170A (en) | Method, device, and program for recognizing human behavior | |
Kamiński et al. | Human activity recognition using standard descriptors of MPEG CDVS | |
KR20220085212A (en) | Method and Apparatus for Fashion Image Search using Deep Learning based Inpainting Technique | |
Ahmed et al. | Localization of region of interest in surveillance scene | |
Mucha et al. | Depth and thermal images in face detection-a detailed comparison between image modalities | |
Cai et al. | Robust contour tracking by combining region and boundary information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150319 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20151016 |