JP2013016171A - Method, device, and program for identifying human behavior cycle and recognizing human behavior - Google Patents

Method, device, and program for identifying human behavior cycle and recognizing human behavior Download PDF

Info

Publication number
JP2013016171A
JP2013016171A JP2012147136A JP2012147136A JP2013016171A JP 2013016171 A JP2013016171 A JP 2013016171A JP 2012147136 A JP2012147136 A JP 2012147136A JP 2012147136 A JP2012147136 A JP 2012147136A JP 2013016171 A JP2013016171 A JP 2013016171A
Authority
JP
Japan
Prior art keywords
human body
motion
human
video
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012147136A
Other languages
Japanese (ja)
Inventor
Yuen-Hon Wong
ワン・ユエホォン
Rujie Liu
リィウ・ルゥジエ
Fei Li
リ・フェイ
Susumu Endo
進 遠藤
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2013016171A publication Critical patent/JP2013016171A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify a human behavior cycle in a video and identify human behavior.SOLUTION: A method and a device for identifying a human behavior cycle and recognizing human behavior are provided in the present invention. The method for identifying a human behavior cycle in a video includes: processing for dividing human body areas of respective frames in a search range into a plurality of human body segments; processing for identifying local behavior cycles of the human body segments in a current frame; and processing for identifying a human behavior cycle in the current frame on the basis of the local behavior cycles. Human behavior cycles are identified corresponding to different behavior or individuals, and thereby temporal and spatial characteristics are extracted more accurately so that human behavior can be recognized more accurately.

Description

本発明は、人体動作のコンピュータ認識に関する。   The present invention relates to computer recognition of human body motion.

人体動作認識技術は、広く応用されており、益々注目されている。当該技術を用いて、ビデオから人々に注目される動作を迅速に検出することができる。人体動作認識技術はビデオモニター(銀行、病院、工場などの環境)やヒューマンコンピュータインタラクション(仮想ゲームなどのシーン)やスポーツの教則などの分野に応用可能である。   Human body motion recognition technology has been widely applied and is attracting more and more attention. Using this technology, it is possible to quickly detect movements of interest from the video. Human body motion recognition technology can be applied to fields such as video monitors (banks, hospitals, factories, etc.), human computer interactions (scenes such as virtual games), and sports rules.

人体動作認識技術について、現在、種々の実現方法が提案されており、そのうちの時間的・空間的特徴に基づく実現方法は盛んに研究されており、しかも有効な方法である。この種類の方法において、時間的・空間的特徴によって現在のフレーム及び隣接する複数のフレームの情報を示し、その後、時間的・空間的特徴を利用して人体動作の認識を実現する。時間的・空間的特徴を抽出する処理においては、すべての動画ビデオに対して同一長さの人体動作周期を設定する。   Various realization methods for human body motion recognition technology have been proposed, and realization methods based on temporal and spatial features have been actively studied and are effective methods. In this type of method, information on a current frame and a plurality of adjacent frames is shown by temporal and spatial features, and then recognition of human body motion is realized by using temporal and spatial features. In the process of extracting temporal / spatial features, a human body motion cycle having the same length is set for all moving images.

しかしながら、動作や個体には差異があるため、時間的・空間的特徴により実現された人体動作の認識率を高めることが必要とされる。このため、時間的・空間的特徴を抽出し、より正確な人体動作認識が実現できるよう、異なる動作や異なる個体に対して、適合した人体動作周期を特定可能とする技術の発展が望まれている。   However, since there are differences in motion and individuals, it is necessary to increase the recognition rate of human motion realized by temporal and spatial characteristics. For this reason, it is desirable to develop technology that can identify suitable human motion cycles for different motions and different individuals so that temporal and spatial features can be extracted and more accurate human motion recognition can be realized. Yes.

本発明に関する幾つかの局面に対する基本的な理解を提供するために、以下に、本発明に関する簡単な概要が示される。この概要は、本発明についての網羅的な概要ではないことを理解すべきである。したがって、概要は、本発明のキーポイントまたは重要部分を特定することを意図せず、本発明の技術的範囲を限定することも意図するものではない。この概要の記載の目的は、単に簡単化した形式で幾つかの概念を提供し、後述のより詳しい説明の導入を提供することにある。   The following presents a simplified summary of the invention in order to provide a basic understanding of some aspects of the invention. It should be understood that this summary is not an exhaustive overview of the invention. Accordingly, the summary is not intended to identify key points or critical parts of the invention, nor is it intended to limit the scope of the invention. The purpose of this summary is to provide some concepts in a simplified form and to provide an introduction to the more detailed description that follows.

実施例は、ビデオにおける人体動作周期を特定し、ビデオにおける人体動作を特定する方法、装置、及びプログラムを提供することを目的とする。   Embodiments are intended to provide a method, an apparatus, and a program for specifying a human motion cycle in a video and specifying a human motion in a video.

上記の目的を実現するために、本発明の一側面は、ビデオにおける人体動作周期を特定する方法を提供し、当該方法は、探索範囲内の各フレームの人体領域を複数の人体部分に区分する処理と、現在のフレームにおける各人体部分の局所動作周期を特定する処理と、前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する処理とを含む。   In order to achieve the above object, one aspect of the present invention provides a method for identifying a human motion cycle in a video, and the method divides a human body region of each frame within a search range into a plurality of human body parts. Processing, processing for specifying a local motion cycle of each human body part in the current frame, and processing for specifying a human motion cycle in the current frame based on the local motion cycle.

本発明の一局面によれば、ビデオにおける人体動作を認識する方法を提供し、当該方法は、前記方法に基づいてビデオにおける人体動作周期を特定する処理と、前記人体動作周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する処理とを含む。   According to one aspect of the present invention, a method for recognizing human motion in a video is provided, the method identifying a human motion cycle in the video based on the method, and a time based on the human motion cycle. A process of extracting spatial features and recognizing human motion in the video.

以下に、図面を参照しながら本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明は、以下の図面を参照した説明によってより良い理解を得ることができる。なお、すべての図面において同一または類似の符号は、同一または類似する要素を示す。図面は以下の詳細な説明とともに本明細書に含まれ、本明細書の一部が形成され、そして、本発明の好適な実施例をさらに例示することや本発明の原理とメリットとを説明するために用いられる。   The present invention can be better understood by the following description with reference to the drawings. In all the drawings, the same or similar reference numerals indicate the same or similar elements. The drawings are included herein with the following detailed description, formed a part of this specification, and further illustrate preferred embodiments of the invention and illustrate the principles and advantages of the invention. Used for.

本発明の一実施例によるビデオにおける人体動作周期を特定する方法を示すフローチャートである。3 is a flowchart illustrating a method for identifying a human body motion cycle in a video according to an embodiment of the present invention.

本発明の一実施例によるフレームにおける人体領域を複数の人体部分に区分する処理を示すフローチャートである。6 is a flowchart illustrating a process of dividing a human body region in a frame according to an embodiment of the present invention into a plurality of human body parts.

本発明の一実施例による局所動作周期を特定するフローチャートである。4 is a flowchart for specifying a local operation period according to an embodiment of the present invention.

本発明の一実施例によるビデオにおける人体動作を認識する方法を示すフローチャートである。3 is a flowchart illustrating a method for recognizing human motion in a video according to an embodiment of the present invention.

本発明の一実施例によるビデオにおける人体動作周期を特定する装置を示すブロック図である。FIG. 2 is a block diagram illustrating an apparatus for identifying a human body motion cycle in a video according to an embodiment of the present invention.

本発明の一実施例による人体部分区分部を示すブロック図である。It is a block diagram which shows the human body part division part by one Example of this invention.

本発明の一実施例による局所動作周期特定部を示すブロック図である。It is a block diagram which shows the local operation period specific | specification part by one Example of this invention.

本発明の一実施例によるビデオにおける人体動作を認識する装置を示すブロック図である。1 is a block diagram illustrating an apparatus for recognizing human body motion in a video according to an embodiment of the present invention. FIG.

本発明の実施例による方法及び/または装置を実現可能な汎用パーソナルコンピュータの例示的な構造を示すブロック図である。FIG. 6 is a block diagram illustrating an exemplary structure of a general purpose personal computer capable of implementing methods and / or apparatus according to embodiments of the invention.

以下に、図面を参照しながら本発明の実施例を説明する。説明を明瞭にし、かつ簡単にするために、明細書においては、実際の実施形態のすべての特徴を説明するわけではない。しかしながら、実際の実施例の開発過程において、開発者の具体的な目標を達成できるよう、実施形態において特定される決定事項が数多く存在し得る。例えば、システム及び業務に関する制限条件が設定された場合、これらの制限条件は、実施形態によって変更される可能性があることを理解すべきである。また、開発作業は、通常非常に複雑且つ時間がかかるものであるが、本開示内容に係る当業者にとっては、このような開発作業は、通常行われる業務の範囲であることをさらに理解すべきである。   Embodiments of the present invention will be described below with reference to the drawings. In the interest of clarity and simplicity, not all features of an actual embodiment are described in the specification. However, in the course of developing an actual example, there can be many decisions that are identified in the embodiment so that the specific goals of the developer can be achieved. For example, it is to be understood that when restriction conditions regarding the system and the business are set, these restriction conditions may be changed depending on the embodiment. Also, although development work is usually very complex and time consuming, it should be further understood by those skilled in the art according to the present disclosure that such development work is within the scope of the work normally performed. It is.

ここで、さらに、不必要な細部の説明で本発明が不明瞭になってしまうことを防止するために、図面においては、本発明に係る実施例に密接に関係する装置構造及び/または処理ステップのみが示され、本発明にあまり関係しない他の細部が省略されている点に留意すべきである。   Here, further, in order to prevent the present invention from being obscured by unnecessary details, in the drawings, the device structure and / or processing steps closely related to the embodiments of the present invention are illustrated. It should be noted that only other details are shown and other details not relevant to the present invention are omitted.

図1は、本発明の一実施例によるビデオにおける人体動作周期を特定する方法のフローチャートを示す。   FIG. 1 shows a flowchart of a method for identifying a human motion cycle in a video according to an embodiment of the present invention.

図1に示す人体動作周期を特定する方法は、人体動作の周期性によりビデオにおける人体動作周期を特定することができる。   The method for specifying the human motion cycle shown in FIG. 1 can specify the human motion cycle in the video based on the periodicity of the human motion.

具体的には、人体動作は一般的に周期性を有するものである。このため、動作周期が終了すると、人体の各部分のいずれも動作開始時の姿勢に戻る。従って、ビデオにおける人体の各部分の動作周期に基づいてビデオにおける人体動作周期を特定することができる。   Specifically, the human body motion generally has periodicity. For this reason, when the motion cycle ends, each part of the human body returns to the posture at the start of motion. Accordingly, it is possible to specify the human body motion cycle in the video based on the motion cycle of each part of the human body in the video.

図1に示すように、ステップS102において、ビデオにおける人体領域を区分して複数の人体部分を形成することができる。   As shown in FIG. 1, in step S102, a human body region in a video can be divided to form a plurality of human body parts.

具体的には、所定の探索範囲内の各フレームに対して人体領域を区分することができる。これにより、各フレームから複数の人体部分を取得することができる。   Specifically, the human body region can be divided for each frame within a predetermined search range. Thereby, a plurality of human body parts can be acquired from each frame.

次に、ステップS104において、現在のフレームにおける、各人体部分の局所動作周期を特定することができる。   Next, in step S104, the local motion period of each human body part in the current frame can be specified.

具体的には、現在のフレームにおける各人体部分の動きベクトルに基づいて前記各部分の局所動作周期を特定することができる。   Specifically, the local motion period of each part can be specified based on the motion vector of each human body part in the current frame.

次に、ステップS106において、現在のフレームにおける複数の人体部分の局所動作周期に基づいてビデオにおける、現在フレームの人体動作周期を特定することができる。   Next, in step S106, the human motion period of the current frame in the video can be identified based on the local motion periods of the plurality of human body parts in the current frame.

具体的には、現在のフレームにおける複数の人体部分の局所動作周期のうち最大の局所動作周期を、ビデオにおける現在のフレームの人体動作周期として特定することができる。   Specifically, the maximum local motion period among the local motion periods of a plurality of human body parts in the current frame can be specified as the human body motion period of the current frame in the video.

これにより、上記の人体動作周期性を利用した、人体部分に基づくビデオにおける人体動作周期の特定方法は、人体動作の周期性に基づいて、ビデオにおける人体動作周期を正確に特定することができる。   Thus, the human body motion cycle identification method for video based on the human body part using the human body motion periodicity can accurately identify the human body motion cycle in the video based on the periodicity of the human body motion.

前記のビデオにおける人体動作周期を特定する方法において、異なる応用場面または異なるニーズに応じて異なる探索範囲を設けることができる。   In the method for identifying the human body motion period in the video, different search ranges can be provided according to different application scenes or different needs.

本発明の一実施例において、前記探索範囲は、現在のフレームからの後の所定の第1の時間長さの時間帯におけるフレームであっても良い。なお、前記第1の時間長さは一つの人体動作を十分に含み得る時間の長さであり、経験値または具体的な応用場面により、前記第1の時間長さを合理的に設定することができる。   In an embodiment of the present invention, the search range may be a frame in a time zone having a predetermined first time length after the current frame. In addition, the first time length is a length of time that can sufficiently include one human body motion, and the first time length is set rationally according to experience values or specific application scenes. Can do.

上述の探索範囲は、単に例示的なものであり、本発明を限定するものではない。その他の態様で探索範囲を設定してもよい。   The above search range is merely exemplary and does not limit the present invention. The search range may be set in other manners.

本発明の他の一実施例において、前記探索範囲は、現在のフレームから前の所定の第2の時間長さの時間帯におけるフレームであっても良い。なお、前記第2の時間長さは、一つの人体動作を十分に含み得る時間の長さであり、経験値または具体的な応用場面により、前記第2の時間長さを合理的に設定することができる。   In another embodiment of the present invention, the search range may be a frame in a time zone having a predetermined second time length before the current frame. The second time length is a length of time that can sufficiently include one human body motion, and the second time length is set rationally according to experience values or specific application scenes. be able to.

また、第2の時間長さは第1の時間長さと同一であってもよく、第1の時間長さと異なってもよい。   The second time length may be the same as the first time length or may be different from the first time length.

上記の方法において、フレームにおける人体領域を複数の人体部分に区分する処理は、各種の適切な技術手段によって実現可能である。   In the above method, the process of dividing the human body region in the frame into a plurality of human body parts can be realized by various appropriate technical means.

図2は、本発明の一実施例によるフレームにおける人体領域を複数の人体部分に区分する処理のフローチャートを示す。   FIG. 2 is a flowchart illustrating a process of dividing a human body region in a frame into a plurality of human body parts according to an embodiment of the present invention.

図2に示すように、ステップS202において、フレームにおける人体領域の輪郭線を抽出することができる。   As shown in FIG. 2, in step S202, the outline of the human body region in the frame can be extracted.

任意の既知のエッジ抽出方法を用いてフレームにおける人体領域の輪郭線を抽出することができる。   Any known edge extraction method can be used to extract the contour of the human body region in the frame.

例えば、cannyアルゴリズムを採用してフレームにおける人体領域の輪郭線を抽出することができる。   For example, the canny algorithm can be adopted to extract the outline of the human body region in the frame.

なお、cannyアルゴリズムは、画像処理分野において慣用されているエッジ抽出方法である。cannyアルゴリズムについての詳細は、canny,J.により発表された、「A Computational Approach To Edge Detection」という文書(IEEE Trans.Pattern Analysis and Machine Intelligence,8:679−714,1986を参照)を参照することができる。当該文書の内容のすべてはここで援用され、明細書を簡潔・明瞭にするために説明を省略する。   The canny algorithm is an edge extraction method commonly used in the image processing field. For more information on the canny algorithm, see the document “A Computational Approach To Edge Detection” published by canny, J. (see IEEE Trans. Pattern Analysis and Machine Intelligence, 8: 679- 7). Can do. The entire contents of this document are incorporated herein and the description is omitted for the sake of brevity and clarity.

次に、ステップS204において、抽出した人体領域の輪郭線に基づいて輪郭線上の連結点を特定することができる。   Next, in step S204, a connection point on the contour line can be specified based on the extracted contour line of the human body region.

なお、前記連結点は、輪郭線上で二つの異なる人体部分を連結したものであっても良い。例えば、腕と肢体の連結点などがある。   In addition, the said connection point may connect the two different human body parts on the outline. For example, there are connection points between arms and limbs.

具体的には、輪郭線上で二つの異なる人体部分を連結した領域は、一般的に凹状の谷の形状を示す。このため、輪郭線上の連結点が凹状の谷の最低点に位置すべきであることが考えられる。従って、凹状の谷の最低点を特定することで連結点を特定することができる。   Specifically, a region where two different human body parts are connected on the contour line generally shows a concave valley shape. For this reason, it is conceivable that the connecting point on the contour line should be located at the lowest point of the concave valley. Therefore, the connection point can be specified by specifying the lowest point of the concave valley.

例えば、腕と肢体との連結箇所は輪郭線上で凹状の谷が現れる。当該凹状の谷の最低点は、特定しようとする連結点(即ち、腕と肢体とが接した連結点)である可能性が高い。   For example, a concave valley appears on the contour line at the connection point between the arm and the limb. There is a high possibility that the lowest point of the concave valley is a connection point to be specified (that is, a connection point where an arm and a limb contact each other).

本発明の一実施例において、輪郭線上の各画素点の曲率を算出することで人体輪郭線上の連結点を特定することができる。   In one embodiment of the present invention, the connecting point on the human body contour can be specified by calculating the curvature of each pixel point on the contour.

次に、ステップS206において、連結点に基づいて人体領域を複数の人体部分に分割することができる。   Next, in step S206, the human body region can be divided into a plurality of human body parts based on the connection points.

具体的には、連結点を特定した後に、人間特有の幾つかの情報(例えば、頭の形状は円形に近似し、四肢の形状は矩形に近似するなど)により、人体の分割を行うことができる。これにより、複数の人体部分を取得することができる。   Specifically, after specifying the connection point, the human body can be divided by some human-specific information (for example, the head shape approximates a circle and the limb shape approximates a rectangle). it can. Thereby, a plurality of human body parts can be acquired.

上記の輪郭線上の連結点に基づいて人体を複数の人体部分に区分する具体的な技術の詳細については、RafaelC.GonzalezとRichard E.Woodsにより創作された「デジタル画像処理」(電子工業出版社、2002)を参照することができ、その内容のすべてはここで援用され、明細書を簡潔・明瞭にするために説明を省略する。   For details of a specific technique for dividing a human body into a plurality of human body parts based on the connection points on the contour line, see “Digital Image Processing” created by Rafael C. Gonzalez and Richard E. Woods (Electronic Industry Publishing Co., Ltd.). 2002), the entire contents of which are hereby incorporated by reference and omitted for the sake of brevity and clarity.

このように、図2に示す実施例により、フレームにおける人体領域を複数の人体部分に効率よく正確に区分することができる。   As described above, according to the embodiment shown in FIG. 2, the human body region in the frame can be efficiently and accurately divided into a plurality of human body parts.

図2に示す実施例は、単に例示的なものである。本発明は、これに限定されない。例えば、その他の既知の人体区分方法(例えば、領域による方法等)を採用してフレームにおける人体領域を複数の人体部分に区分することもできる。   The embodiment shown in FIG. 2 is merely exemplary. The present invention is not limited to this. For example, other known human body segmentation methods (for example, a method using a region) may be employed to segment a human body region in a frame into a plurality of human body parts.

上記の方法において、人体を複数の人体部分に分割した後に、さらに、各人体部分の局所動作周期をそれぞれ特定することができる。   In the above method, after the human body is divided into a plurality of human body parts, the local motion period of each human body part can be further specified.

図3は、本発明の一実施例による、人体部分の局所動作周期を特定するフローチャートを示す。   FIG. 3 shows a flow chart for identifying a local motion period of a human body part according to one embodiment of the present invention.

図3に示すように、ステップS302において、人体部分の動きベクトルを算出することができる。   As shown in FIG. 3, in step S302, the motion vector of the human body part can be calculated.

なお、前記動きベクトルは、人体部分の動き速度及び方向を示すパラメータであっても良い。   The motion vector may be a parameter indicating the motion speed and direction of the human body part.

人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出することができる。   The motion vector of the human body part can be calculated based on the motion of all or some of the pixels in the human body part.

本発明の一実施例において、人体部分における一部の画素の動きに基づいて、人体部分全体の動きベクトルを取得することができる。   In one embodiment of the present invention, the motion vector of the entire human body part can be obtained based on the motion of some pixels in the human body part.

例えば、前記人体部分が頭である場合に、まず特徴画素(例えば、目、鼻、口の位置に対応する画素)の動きに基づいて、これらの特徴画素の動きベクトルをそれぞれ算出することができる。   For example, when the human body part is the head, first, based on the movement of feature pixels (for example, pixels corresponding to the positions of eyes, nose, and mouth), the motion vectors of these feature pixels can be calculated respectively. .

具体的には、特徴画素の二つの隣接しているフレーム(例えば、前のフレームまたは次のフレーム)の間での位置の差により、各特徴画素の動きベクトルを取得することができる。   Specifically, the motion vector of each feature pixel can be acquired from the difference in position between two adjacent frames (for example, the previous frame or the next frame) of the feature pixel.

その後に、人体部分の各特徴画素の動きベクトルの和を求めることにより、前記人体部分の動きベクトルを取得することができる。   Thereafter, the motion vector of the human body part can be obtained by calculating the sum of the motion vectors of the feature pixels of the human body part.

上記例示的な説明において、一部の特徴画素に基づいて人体部分の動きベクトルを算出したが、本発明は、これに限定されず、その他の変形例を利用することができる。   In the above exemplary description, the motion vector of the human body part is calculated based on some feature pixels. However, the present invention is not limited to this, and other modifications can be used.

例えば、本発明の他の実施例において、人体部分におけるすべての画素の動きベクトルを算出した後に、すべての動きベクトルの和を求めることにより、前記人体部分の動きベクトルを取得することもできる。   For example, in another embodiment of the present invention, the motion vector of the human body part can be obtained by calculating the motion vector of all the pixels in the human body part and then calculating the sum of all the motion vectors.

図3に戻り、次に、ステップS304において、人体部分の動きベクトルに基づいて探索範囲内で人体動作の動作終了フレームを探索することができる。   Returning to FIG. 3, next, in step S <b> 304, the motion end frame of the human body motion can be searched within the search range based on the motion vector of the human body portion.

人体動作の動作終了フレームを探索できた場合に、ステップS306において、現在のフレームと動作終了フレームとの間の時間長さを、人体部分の局所動作周期として特定することができる。   When the motion end frame of the human body motion can be searched, in step S306, the time length between the current frame and the motion end frame can be specified as the local motion cycle of the human body portion.

また、探索範囲内で動作終了フレームを探索できなかった場合に、ステップS308において、所定の第3の時間長さを、前記人体部分の局所動作周期として特定することができる。   If the motion end frame cannot be searched within the search range, the predetermined third time length can be specified as the local motion cycle of the human body part in step S308.

なお、前記第3の時間長さは、一つの完全の人体動作を十分に含み得る時間の長さであり、経験値または異なる応用場面に基づいて、前記第3の時間長さを合理的に設定することができる。   The third time length is a length of time that can sufficiently include one complete human body motion, and the third time length can be reasonably determined based on experience values or different application situations. Can be set.

これにより、現在のフレームにおける人体部分毎の局所動作周期を特定することができる。   Thereby, the local motion period for every human body part in the current frame can be specified.

上記の実施例において、探索範囲内で人体部分の動作終了フレームを探索する処理は、前記の人体部分の動きベクトルにより実現することができる。   In the above embodiment, the process of searching for the motion end frame of the human body part within the search range can be realized by the motion vector of the human body part.

本発明の一実施例において、探索範囲内で、各フレームにおける前記人体部分の動きベクトルの、ベクトルの和をゼロに近似させるフレームを探索して人体部分の動作終了フレームを特定することができる。   In one embodiment of the present invention, the motion end frame of the human body part can be identified by searching for a frame that approximates the vector sum of the motion vectors of the human body part in each frame within the search range.

具体的には、例えば、ビデオフレームシーケンスにおける人体動作周期をリアルタイムで特定する場合に、現在のフレームを起点とし、所定の探索範囲内で、前方向にフレームにおける人体部分の動きベクトルを順に累積することができる。   Specifically, for example, when the human motion cycle in the video frame sequence is specified in real time, the motion vector of the human body part in the frame is accumulated in the forward direction in the predetermined search range starting from the current frame. be able to.

動きベクトルの累積値がゼロに近くなることが発見された場合(例えば、累積値が所定の第1の閾値よりも小さい時)、動きベクトルの累積値が第1の閾値より小さくなる時のフレームを、人体部分の動作終了フレームとして特定することができる。   When it is found that the accumulated value of the motion vector is close to zero (for example, when the accumulated value is smaller than a predetermined first threshold value), the frame when the accumulated value of the motion vector becomes smaller than the first threshold value Can be specified as the motion end frame of the human body part.

なお、前記第1の閾値は、経験値または実際の応用場面に基づいて予め設定されたゼロに近い値である。   The first threshold value is a value close to zero set in advance based on experience values or actual application scenes.

一方、所定の探索範囲内において、動きベクトルの累積値が第1の閾値より小さくなることが最後まで見いだせない場合には、前記所定の探索範囲内において前記動作終了フレームを探索できなかったと判定できる。   On the other hand, if it cannot be found until the end that the accumulated value of the motion vectors is smaller than the first threshold within the predetermined search range, it can be determined that the operation end frame cannot be searched within the predetermined search range. .

これにより、探索範囲内で人体部分の動作終了フレームを探索する処理を実現することができる。   As a result, it is possible to realize a process of searching for the motion end frame of the human body part within the search range.

上述のビデオフレームシーケンスにおける人体動作周期をリアルタイムに特定する場合(前へ順に探索する場合)を例に説明したが、以上の記載は、単に例示的なものである。本発明はこれに限定されない。   Although the case where the human body motion cycle in the above-described video frame sequence is specified in real time (when searching in order forward) has been described as an example, the above description is merely illustrative. The present invention is not limited to this.

例えば、本発明の他の実施例において、例えば、既存のビデオに対して分析を行って、ビデオフレームシーケンスにおける人体動作周期を特定する場合に、現在のフレームを起点として、所定の探索範囲内で後ろ方向にフレームにおける人体部分の動きベクトルを順に累積して、人体部分の動作終了フレームを特定してもよい。   For example, in another embodiment of the present invention, for example, when analyzing an existing video and specifying a human body motion cycle in a video frame sequence, the current frame is used as a starting point within a predetermined search range. The motion end frame of the human body part may be specified by sequentially accumulating the motion vectors of the human body part in the frame in the backward direction.

これにより、探索範囲内で人体部分の動作終了フレームを探索する処理を実現することもできる。   Accordingly, it is possible to realize a process of searching for the motion end frame of the human body part within the search range.

上記実施例における、ビデオにおける人体動作周期を特定する方法により、本発明は、ビデオにおける人体動作を認識する方法をさらに提供する。   According to the method for identifying the human motion period in the video in the above embodiment, the present invention further provides a method for recognizing the human motion in the video.

図4は、本発明の一実施例によるビデオにおける人体動作を認識する方法のフローチャートを示す。   FIG. 4 shows a flowchart of a method for recognizing human motion in a video according to an embodiment of the present invention.

図4に示されるように、ステップS402において、ビデオにおける人体動作周期を特定することができる。   As shown in FIG. 4, in step S402, the human body motion cycle in the video can be specified.

例えば、任意の上記実施例の方法を採用してビデオにおける人体動作周期を特定してもよい。   For example, the human body motion cycle in the video may be specified by adopting the method of any of the above embodiments.

次に、ステップ404において、特定した人体動作周期に基づいて人体動作を認識することができる。   Next, in step 404, the human body motion can be recognized based on the identified human body motion cycle.

具体的には、特定した人体動作周期に基づいて時間的・空間的特徴を抽出し、時間的・空間的特徴に基づいて人体動作を認識することができる。   Specifically, temporal / spatial features can be extracted based on the specified human body motion cycle, and human body motions can be recognized based on the temporal / spatial features.

上記の人体動作認識方法において、異なる動作や異なる個体に適応した人体動作周期を特定する。これにより、時間的・空間的特徴をより正確に抽出することができ、より正確な人体動作認識を実現することができる。   In the human motion recognition method described above, a human motion cycle adapted to different motions or different individuals is specified. Thereby, temporal and spatial features can be extracted more accurately, and more accurate human body motion recognition can be realized.

上記の方法に対応し、本発明の実施例は、方法に対応する装置を同様に提供する。   Corresponding to the above method, embodiments of the present invention similarly provide an apparatus corresponding to the method.

図5は、本発明の一実施例によるビデオにおける人体動作周期を特定する装置のブロック図を示す。   FIG. 5 shows a block diagram of an apparatus for identifying a human motion cycle in a video according to an embodiment of the present invention.

図5に示されるように、ビデオにおける人体動作周期を特定する装置500は、人体部分区分部502と、局部動作周期特定部504と、人体動作周期特定部506とを含んでも良い。   As shown in FIG. 5, an apparatus 500 for identifying a human body motion cycle in a video may include a human body part division unit 502, a local motion cycle specifying unit 504, and a human body motion cycle specifying unit 506.

人体部分区分部502は、ビデオにおける人体領域を区分し、複数の人体部分を形成することができる。   The human body part segmenting unit 502 can segment human body regions in a video to form a plurality of human body parts.

具体的には、人体部分区分部502は、所定の探索範囲内の各フレームに対して人体領域の区分を行うことができる。これにより、各フレームから複数の人体部分を取得してもよい。   Specifically, the human body part classifying unit 502 can classify the human body region for each frame within a predetermined search range. Thereby, a plurality of human body parts may be acquired from each frame.

局部動作周期特定部504は、現在のフレームにおける各人体部分の局所動作周期を特定することができる。   The local operation cycle specifying unit 504 can specify the local operation cycle of each human body part in the current frame.

具体的には、局部動作周期特定部504は、現在のフレームにおける各人体部分の動きベクトルに基づいて前記各部分の局所動作周期を特定することができる。   Specifically, the local operation cycle specifying unit 504 can specify the local operation cycle of each part based on the motion vector of each human body part in the current frame.

人体動作周期特定部506は、現在のフレームにおける複数の人体部分の局所動作周期に基づいて、ビデオにおける現在のフレームの人体動作周期を特定することができる。   The human body motion cycle specifying unit 506 can specify the human body motion cycle of the current frame in the video based on the local motion cycles of a plurality of human body parts in the current frame.

具体的には、人体動作周期特定部506は、現在フレームにおける複数の人体部分の局所動作周期のうち最大の局所動作周期を、ビデオにおける現在のフレームの人体動作周期として特定することができる。   Specifically, the human body motion cycle specifying unit 506 can specify the maximum local motion cycle among the local motion cycles of the plurality of human body parts in the current frame as the human body motion cycle of the current frame in the video.

これにより、上記の人体動作周期性を利用した、人体部分に基づいてビデオにおける人体動作周期を特定する装置により、人体動作の周期性に基づいてビデオにおける人体動作周期を正確に特定することができる。   Accordingly, the human body motion cycle in the video can be accurately identified based on the periodicity of the human body motion by the device that identifies the human body motion cycle in the video based on the human body part using the above human body motion periodicity. .

上記のビデオにおける人体動作周期を特定する方法において、異なる応用場面または異なる要求に応じて異なる探索範囲を設定することができる。   In the above-described method for identifying the human body motion period in the video, different search ranges can be set according to different application scenes or different requirements.

本発明の一実施例において、前記探索範囲は、現在のフレームからの後の所定の第1の時間長さの時間帯におけるフレームであっても良い。なお、前記第1の時間長さは、一つの人体動作を十分に含む時間長さであってもよく、経験値または具体的な応用場面に応じて前記第1の時間長さを合理的に設定することができる。   In an embodiment of the present invention, the search range may be a frame in a time zone having a predetermined first time length after the current frame. The first time length may be a time length sufficiently including one human body motion, and the first time length is rationally determined according to an experience value or a specific application scene. Can be set.

上述の探索範囲は、単に例示的なものであり、本発明はこれに限定されず、その他の方式で探索範囲を設定することもできる。   The above-described search range is merely illustrative, and the present invention is not limited to this, and the search range can be set by other methods.

本発明の他の実施例において、前記探索範囲は、現在のフレームからの前の所定の第2の時間長さの時間帯におけるフレームであってもよい。なお、前記第2の時間長さは、一つの人体動作を十分に含む時間長さであってもよく、経験値または具体的な応用場面に応じて前記第2の時間長さを合理的に設定することができる。   In another embodiment of the present invention, the search range may be a frame in a time zone having a predetermined second time length from the current frame. The second time length may be a time length sufficiently including one human body motion, and the second time length is reasonably determined according to an experience value or a specific application situation. Can be set.

また、第2の時間長さは、第1の時間長さと同一であってもよく、第1の時間長さと異なっても良い。   Further, the second time length may be the same as the first time length or may be different from the first time length.

上記の装置において、人体部分区分部は、種々の適切な技術手段によって、フレームにおける人体領域を複数の人体部分に区分することができる。   In the above apparatus, the human body part segmenting unit can segment the human body region in the frame into a plurality of human body parts by various appropriate technical means.

図6に本発明の一実施例による人体部分区分部のブロック図を示す。   FIG. 6 is a block diagram of a human body partial section according to an embodiment of the present invention.

図6に示されるように、人体部分区分部600は、輪郭抽出部602と、連結点抽出部604と、分割部606とを含んでも良い。   As shown in FIG. 6, the human body part classification unit 600 may include a contour extraction unit 602, a connection point extraction unit 604, and a division unit 606.

輪郭抽出部602は、任意の公知のエッジ抽出方法によって、フレームにおける人体領域の輪郭線を抽出することができる。   The contour extraction unit 602 can extract the contour line of the human body region in the frame by any known edge extraction method.

例えば、cannyアルゴリズムを採用してフレームにおける人体領域の輪郭線を抽出することができる。   For example, the canny algorithm can be adopted to extract the outline of the human body region in the frame.

連結点抽出部604は、抽出された人体領域の輪郭線に基づいて、さらに輪郭線上の連結点を特定することができる。   The connection point extraction unit 604 can further specify a connection point on the contour line based on the extracted contour line of the human body region.

具体的には、輪郭線上で二つの異なる人体部分を連結する領域は、一般的に凹状の谷の形状で現れる。輪郭線上の連結点が凹状の谷の最低点に位置すべきであることを考慮し、凹状の谷の最低点を特定することによって連結点を特定することができる。   Specifically, a region connecting two different human body parts on the contour line generally appears in the shape of a concave valley. Considering that the connecting point on the contour line should be located at the lowest point of the concave valley, the connecting point can be specified by specifying the lowest point of the concave valley.

本発明の一実施例において、輪郭線上の各画素点の曲率を算出する方式で人体輪郭線上の連結点を特定することができる。   In one embodiment of the present invention, a connection point on a human body contour line can be specified by a method of calculating a curvature of each pixel point on the contour line.

分割部606は、連結点に基づいて人体領域をさらに複数の人体部分に分割することができる。   The dividing unit 606 can further divide the human body region into a plurality of human body parts based on the connection points.

具体的には、連結点を特定した後に、人間特有な幾つかの情報(例えば、頭の形状は円形に近似し、四肢の形状は矩形に近似するなど)に基づいて人の分割を行うことにより、複数の人体部分を取得することができる。   Specifically, after identifying the connection points, human division is performed based on some human-specific information (for example, the shape of the head approximates a circle and the shape of the extremities approximates a rectangle). Thus, a plurality of human body parts can be acquired.

以上の図6に示す人体部分区分部を利用した実施例は、単に例示的なものであり、本発明はこれに限定されず、例えば、人体部分区分部は、その他の公知の人体区分方法(例えば、領域に基づく方法等)を採用してフレームにおける人体領域を複数の人体部分に区分することもできる。   The above-described embodiment using the human body segmentation unit shown in FIG. 6 is merely illustrative, and the present invention is not limited to this. For example, the human body segmentation unit may include other known human body segmentation methods ( For example, a region-based method or the like may be employed to divide a human body region in a frame into a plurality of human body parts.

上記の装置において、人体部分区分部が人体を複数の人体部分に分割した後に、局所動作周期特定部が、各人体部分の局部動作周期をそれぞれ特定することができる。   In the above apparatus, after the human body part division unit divides the human body into a plurality of human body parts, the local operation period specifying unit can specify the local operation period of each human body part.

図7に本発明の一実施例による局所動作周期特定部のブロック図を示す。   FIG. 7 shows a block diagram of a local operation period specifying unit according to an embodiment of the present invention.

図7に示されるように、局部動作周期特定部700は、動きベクトル算出部702と、動作終了フレーム探索部704と、時間長さ特定部706とを含むことができる。   As shown in FIG. 7, the local motion cycle specifying unit 700 can include a motion vector calculating unit 702, a motion end frame searching unit 704, and a time length specifying unit 706.

動きベクトル算出部702は、人体部分の動きベクトルを算出することができる。   The motion vector calculation unit 702 can calculate the motion vector of the human body part.

動きベクトル算出部702は、人体部分におけるすべてまたは一部の画素の動きに基づいて、前記人体部分の動きベクトルを算出することができる。   The motion vector calculation unit 702 can calculate the motion vector of the human body part based on the motion of all or some of the pixels in the human body part.

本発明の一実施例において、動きベクトル算出部702は、人体部分における一部の画素の動きに基づいて、人体部分全体の動きベクトルを取得することができる。   In an embodiment of the present invention, the motion vector calculation unit 702 can obtain a motion vector of the entire human body part based on the motion of some pixels in the human body part.

例えば、前記人体部分が頭部であれば、動きベクトル算出部は、まず特徴画素(例えば、目や鼻や口の位置に対応する画素)に基づいて、これらの特徴画素の動きベクトルをそれぞれ算出することができる。   For example, if the human body part is the head, the motion vector calculation unit first calculates the motion vectors of these feature pixels based on the feature pixels (for example, pixels corresponding to the positions of the eyes, nose, and mouth). can do.

具体的には、動きベクトル算出部702は、特徴画素の二つの隣接するフレーム(例えば、前のフレームまたは次のフレーム)の間での位置の差により、各特徴画素の動きベクトルを取得することができる。   Specifically, the motion vector calculation unit 702 obtains a motion vector of each feature pixel based on a position difference between two adjacent frames (for example, the previous frame or the next frame) of the feature pixel. Can do.

その後、人体部分の各特徴画素の動きベクトルの和を求めることによって、前記人体部分の動きベクトルを取得することができる。   Thereafter, the motion vector of the human body part can be obtained by calculating the sum of the motion vectors of the feature pixels of the human body part.

以上の例示的な記載において一部の特徴画素に基づいて人体部分の動きベクトルを算出したが、本発明はこれに限定されず、その他の変形例を採用することができる。   In the above exemplary description, the motion vector of the human body part is calculated based on some feature pixels. However, the present invention is not limited to this, and other modifications can be adopted.

例えば、本発明の他の実施例において、動きベクトル算出部702は、人体部分におけるすべての画素の動きベクトルを算出した後に、すべての動きベクトルの和を求めることによって、人体部分の動きベクトルを取得することもできる。   For example, in another embodiment of the present invention, the motion vector calculation unit 702 obtains the motion vector of the human body part by calculating the motion vector of all the pixels in the human body part and then calculating the sum of all the motion vectors. You can also

動作終了フレーム探索部704は、動きベクトル算出部により算出された人体部分の動きベクトルに基づいて、探索範囲内で人体動作の動作終了フレームを探索することができる。   The motion end frame search unit 704 can search for the motion end frame of the human body motion within the search range based on the motion vector of the human body part calculated by the motion vector calculation unit.

動作終了フレーム探索部704が人体動作の動作終了フレームを探索できた場合に、時間長さ特定部706は、現在のフレームと動作終了フレームとの間の時間長さを人体部分の局所動作周期として特定することができる。   When the motion end frame search unit 704 can search for the motion end frame of the human body motion, the time length specifying unit 706 uses the time length between the current frame and the motion end frame as the local motion period of the human body part. Can be identified.

また、動作終了フレーム探索部704が探索範囲内で動作終了フレームを探索できなかった場合に、時間長さ特定部706は所定の第3の時間長さを、前記人体部分の局所動作周期として特定することができる。   In addition, when the motion end frame search unit 704 cannot search for the motion end frame within the search range, the time length specifying unit 706 specifies the predetermined third time length as the local motion period of the human body part. can do.

なお、前記第3の時間長さは、一つの完全な人体動作を十分に含み得る時間の長さであり、経験値または異なる応用場面に基づいて、前記第3の時間長さを合理的に設定することができる。   The third time length is a length of time that can sufficiently include one complete human body motion, and the third time length can be reasonably determined based on experience values or different application scenes. Can be set.

これにより、局所動作周期特定部700は、現在のフレームにおける各人体部分の局所動作周期を特定することができる。   Thereby, the local motion period specifying unit 700 can specify the local motion period of each human body part in the current frame.

上記の実施例において、動作終了フレーム探索部における、探索範囲内で人体部分の動作終了フレームを探索する処理は、前記人体部分の動きベクトルに基づいて実現することができる。   In the above embodiment, the process of searching for the motion end frame of the human body part within the search range in the motion end frame search unit can be realized based on the motion vector of the human body part.

本発明の一実施例において、動作終了フレーム探索部は、探索範囲内で、前記人体部分の動きベクトルの、ベクトルの和をゼロに近似させるフレームを探索することによって、人体部分の動作終了フレームを特定することができる。   In one embodiment of the present invention, the motion end frame search unit searches for a motion end frame of the human body part by searching for a frame that approximates a vector sum of motion vectors of the human body part within the search range. Can be identified.

具体的には、動作終了フレーム探索部は、例えば、ビデオフレームシーケンスにおける人体動作周期をリアルタイムで特定する場合に、現在のフレームを起点とし、所定の探索範囲内で前方向にフレームにおける人体部分の動きベクトルを順に累積する。   Specifically, for example, when the human body motion cycle in the video frame sequence is specified in real time, the motion end frame search unit starts from the current frame and moves the human body part in the frame forward in a predetermined search range. The motion vectors are accumulated in order.

動作終了フレーム探索部は、動きベクトルの累積値がゼロに近くなることを発見した場合(例えば、累積値が所定の第1の閾値よりも小さい時)、動きベクトルの累積値が第1の閾値より小さくなる時のフレームを、人体部分の動作終了フレームとして特定することができる。   When the motion end frame search unit finds that the cumulative value of the motion vector is close to zero (for example, when the cumulative value is smaller than a predetermined first threshold value), the cumulative value of the motion vector is the first threshold value. The frame when it becomes smaller can be specified as the motion end frame of the human body part.

なお、前記第1の閾値は、経験値または実際の応用場面により予め設定されたゼロに近い値であっても良い。   The first threshold value may be an experience value or a value close to zero set in advance by an actual application scene.

一方、動作終了フレーム探索部は、所定の探索範囲内において、動きベクトルの累積値が第1の閾値より小さくなることが最後まで見つからない場合には、前記所定の探索範囲内において前記動作終了フレームを探索できなかったと判定できる。   On the other hand, if the motion end frame search unit does not find that the cumulative motion vector value is smaller than the first threshold within the predetermined search range until the end, the motion end frame search unit within the predetermined search range. It can be determined that the search was not successful.

これにより、動作終了フレーム探索部は、探索範囲内で人体部分の動作終了フレームを探索する処理を実現することができる。   Thereby, the motion end frame search unit can realize a process of searching for a motion end frame of the human body part within the search range.

以上の記載にてビデオフレームシーケンスにおける人体動作周期をリアルタイムに特定する場合(前方向に順に探索する場合)を例に動作終了フレーム探索部の操作を説明したが、以上の記載は、単に例示的なものである。本発明はこれに限定されない。   In the above description, the operation of the motion end frame search unit has been described by taking as an example the case where the human motion cycle in the video frame sequence is specified in real time (when searching forward in order), but the above description is merely illustrative It is a thing. The present invention is not limited to this.

例えば、本発明の他の実施例において、例えば、既存のビデオに対して分析を行ってビデオフレームシーケンスにおける人体動作周期を特定する場合に、動作終了フレーム探索部は、現在のフレームを起点とし、所定の探索範囲内で後ろ方向にフレームにおける人体部分の動きベクトルを順に累積し、人体部分の動作終了フレームを探索してもよい。   For example, in another embodiment of the present invention, for example, when analyzing an existing video and specifying a human body motion cycle in a video frame sequence, the motion end frame search unit starts from the current frame, Within the predetermined search range, the motion vector of the human body part in the frame may be accumulated in order backward to search for the motion end frame of the human body part.

これにより、動作終了フレーム探索部は、探索範囲内で人体部分の動作終了フレームに対する探索を実現することもできる。   Accordingly, the motion end frame search unit can also realize a search for the motion end frame of the human body part within the search range.

上記の実施例におけるビデオにおける人体動作周期を特定する装置により、本発明は、ビデオにおける人体動作を認識する装置をさらに提供することができる。   According to the apparatus for identifying the human body motion period in the video in the above embodiment, the present invention can further provide an apparatus for recognizing the human body motion in the video.

図8に、本発明の一実施例によるビデオにおける人体動作を認識する装置のブロック図を示す。   FIG. 8 is a block diagram of an apparatus for recognizing human motion in a video according to an embodiment of the present invention.

図に示されるように、本発明の実施例によるビデオにおける人体動作を認識する装置800は、人体動作周期特定部802と認識部804とを含むことができる。   As shown in the figure, an apparatus 800 for recognizing human motion in a video according to an embodiment of the present invention may include a human motion cycle specifying unit 802 and a recognition unit 804.

人体動作周期特定部802は、ビデオにおける人体動作周期を特定することができる。   The human body motion cycle specifying unit 802 can specify the human body motion cycle in the video.

例えば、人体動作周期特定部802は、任意の上記実施例の人体動作周期を特定する装置を含み、ビデオにおける人体動作周期を特定することができる。   For example, the human body motion cycle specifying unit 802 includes a device for specifying the human body motion cycle in any of the above-described embodiments, and can specify the human body motion cycle in the video.

認識部804は、特定した人体動作周期に基づいて人体動作を認識することができる。   The recognition unit 804 can recognize a human body motion based on the identified human body motion cycle.

具体的には、認識部804は、特定した人体動作周期に基づいて時間的・空間的特徴を抽出し、時間的・空間的特徴に基づいて人体動作を認識することができる。   Specifically, the recognizing unit 804 can extract temporal / spatial features based on the specified human body motion cycle, and can recognize human body motions based on the temporal / spatial features.

上記の人体動作を認識する装置は、異なる動作や異なる個体に対して、適切に人体動作周期を特定することができる。これにより、時間的・空間的特徴をより正確に抽出することができ、さらにより正確な人体動作認識を実現することができる。   The apparatus for recognizing the human body motion can appropriately specify the human body motion cycle for different motions or different individuals. Thereby, temporal and spatial features can be extracted more accurately, and more accurate human body motion recognition can be realized.

前記のビデオにおける人体動作周期を特定する装置、前記のビデオにおける人体動作を認識する装置及びこれに含まれる要素についての技術の詳細は、上述の方法に係る説明を参照することによって理解できる。明細書を明瞭にするために、ここでは、不要な説明を省略する。   The technical details of the device for identifying the human motion cycle in the video, the device for recognizing the human motion in the video, and the elements included in the device can be understood by referring to the description of the method. In order to clarify the specification, unnecessary explanation is omitted here.

また、本願に記載の各種の例示及び実施例は、いずれも例示的なものである。本発明はこれらに限定されないことを理解すべきである。本明細書において、「第1」、「第2」等の記述は、単に本発明を明確に説明するために、説明において区別するためのものである。従って、いずれの事項も限定的な意味を持っていると解すべきではない。   In addition, the various examples and examples described in the present application are all illustrative. It should be understood that the present invention is not limited thereto. In the present specification, descriptions such as “first”, “second” and the like are merely used for distinction in the description in order to clearly explain the present invention. Therefore, it should not be understood that any matter has a limited meaning.

上記装置における各構成モジュールやユニットはソフトウェア、ファームウェア、ハードウェアまたはこれらの組合せで実現することができる。実現するために使用可能な具体的な手段または方式は、当業者に熟知されるものであるため、ここでは説明しない。ソフトウェア又はファームウェアにより実現される場合に、記憶媒体又はネットワークから専用のハードウェア構成を有するコンピュータ(例えば図9に示された汎用のコンピュータ900)へ当該ソフトウェアを構成するプログラムをインストールしてもよい。当該コンピュータは、各種のプログラムがインストールされている場合に、各機能を実行することができる。   Each component module and unit in the apparatus can be realized by software, firmware, hardware, or a combination thereof. Specific means or schemes that can be used to implement are well known to those skilled in the art and will not be described here. When implemented by software or firmware, a program constituting the software may be installed from a storage medium or a network to a computer having a dedicated hardware configuration (for example, the general-purpose computer 900 shown in FIG. 9). The computer can execute each function when various programs are installed.

図9において、中央処理装置(CPU)901は、読取専用メモリ(ROM)902に記憶されたプログラム又は記憶部908からランダムアクセスメモリ(RAM)903にロードされたプログラムに基づいて各種の処理を実行する。RAM903には、必要に応じてCPU901が各種の処理等を実行するために必要なデータも記憶されている。CPU901、ROM902及びRAM903はバス904を介して互いに接続されている。入力/出力インタフェース905もバス904に接続されている。   In FIG. 9, a central processing unit (CPU) 901 executes various processes based on a program stored in a read-only memory (ROM) 902 or a program loaded from a storage unit 908 to a random access memory (RAM) 903. To do. The RAM 903 also stores data necessary for the CPU 901 to execute various processes as necessary. The CPU 901, ROM 902, and RAM 903 are connected to each other via a bus 904. An input / output interface 905 is also connected to the bus 904.

入力部906(キーボード、マウス等を含む)、出力部907(ディスプレイ、例えばブラウン管(CRT)、液晶ディスプレイ(LCD)等、スピーカ等を含む)、記憶部908(ハードディスク等を含む)、及び通信部909(ネットワークインターフェースカード、例えばLANカード、モデム等を含む)は、入力/出力インタフェース905に接続されている。通信部909は、ネットワーク、例えばインターネットを経由して通信処理を実行する。必要に応じて、入力/出力インタフェース905にはドライバ910も接続されている。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等のような取り外し可能な媒体911は、必要に応じてドライバ910に装着される。これにより、読み出されたコンピュータプログラムは必要に応じて記憶部908にインストールされる。   Input unit 906 (including keyboard, mouse, etc.), output unit 907 (display, including cathode ray tube (CRT), liquid crystal display (LCD), etc., speaker), storage unit 908 (including hard disk, etc.), and communication unit 909 (including a network interface card such as a LAN card, a modem, etc.) is connected to the input / output interface 905. The communication unit 909 executes communication processing via a network, for example, the Internet. A driver 910 is also connected to the input / output interface 905 as necessary. A removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is attached to the driver 910 as necessary. Thereby, the read computer program is installed in the storage unit 908 as necessary.

ソフトウェアで前記一連の処理を実現する場合に、ネットワーク、例えばインターネット、又は記憶媒体、例えば取外し可能な媒体911からソフトウェアを構成するプログラムをインストールする。   When the series of processing is realized by software, a program constituting the software is installed from a network, for example, the Internet, or a storage medium, for example, a removable medium 911.

このような記憶媒体は、図9に示される。その中にプログラムが記憶されており、プログラムは、デバイスから読み出され伝送されてもよいと当業者は理解すべきである。取り外し可能な媒体911として、例えば、磁気ディスク(フロッピディスク(登録商標)含む)、光ディスク(コンパクトディスクリードオンリーメモリ(CD−ROM)やディジタルヴァーサタイルディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標)を含む)及び半導体メモリを含む。または、記憶媒体は、ROM902であってもよい。或いは、記憶部908に含まれるハードディスクであって、プログラムが記憶されており、且つこれらを含むデバイスと共にユーザに提供されるハードディスクなどであっても良い。   Such a storage medium is shown in FIG. A person skilled in the art should understand that a program is stored therein and that the program may be read from the device and transmitted. Examples of the removable medium 911 include a magnetic disk (including a floppy disk (registered trademark)), an optical disk (including a compact disk read-only memory (CD-ROM) and a digital versatile disk (DVD)), and a magneto-optical disk (mini-disk). Disk (MD) (including registered trademark) and semiconductor memory. Alternatively, the storage medium may be a ROM 902. Alternatively, it may be a hard disk included in the storage unit 908, in which a program is stored, and a hard disk provided to the user together with a device including these.

本発明は、機械で読み取り可能なコマンドコードが記憶されたプログラム製品を更に提供する。前記コマンドコードは、機械で読取られて実行される際に、本発明の実施例による方法を実行することができる。   The present invention further provides a program product in which machine-readable command codes are stored. When the command code is read and executed by a machine, the method according to an embodiment of the present invention can be executed.

加えて、前記の機械で読み取り可能なコマンドコードが記憶されたプログラム製品を搭載する記憶媒体も本発明の開示に含まれる。前記記憶媒体は、フロッピディスク、光ディスク、光磁気ディスク、メモリカード、メモリスティック等を含むが、これらに限定されない。   In addition, a storage medium on which a program product storing a command code readable by the machine is mounted is also included in the disclosure of the present invention. Examples of the storage medium include, but are not limited to, floppy disks, optical disks, magneto-optical disks, memory cards, and memory sticks.

最後に、さらに説明すべき点は、用語「含む」、「有する」、又は如何なる他の同義語も、非排他的な意味で用いられ、一連の要素を含むプロセス、方法、物又は装置がこれらの要素を含むだけではなく、明確に列挙されていない他の要素を含み得る。加えて、このようなプロセス、方法、物又は装置の固有の要素も含む。また、更なる限定のない場合に、用語「一つの…を含む」により限定された要素は、前記要素を含むプロセス、方法、物又は装置において更に別の同一の要素が存在することを排除しない。   Finally, it should be further explained that the terms “include”, “have”, or any other synonym are used in a non-exclusive sense, and a process, method, article or device that includes a series of elements As well as other elements not explicitly listed. In addition, it includes the unique elements of such a process, method, article or device. Also, unless otherwise limited, an element defined by the term “including one ...” does not exclude the presence of another identical element in a process, method, article, or apparatus that includes the element. .

以上、図面を参照しながら本発明の実施例を詳細に説明したが、上述の実施形態は、単に本発明を説明するためのものであり、本発明を限定するものではないと理解すべきである。当業者にとって、本発明の精神及び範囲を逸脱しない限り、上記実施形態に対して各種の修正や変更を行うことができる。従って、本発明の範囲は、特許請求の範囲及びその均等物によって限定される。   As mentioned above, although the Example of this invention was described in detail, referring drawings, it should be understood that the above-mentioned embodiment is only for demonstrating this invention, and does not limit this invention. is there. For those skilled in the art, various modifications and changes can be made to the above embodiment without departing from the spirit and scope of the present invention. Accordingly, the scope of the invention is limited by the claims and their equivalents.

以上の実施例に関し、更に以下の付記を開示する。
(付記1)
探索範囲内の各フレームの人体領域を複数の人体部分に区分し、
現在のフレームにおける各人体部分の局所動作周期を特定し、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する、
処理を含むビデオにおける人体動作周期を特定する方法。
(付記2)
前記探索範囲は、現在のフレームからの、後の第1の時間長さまたは前の第2の時間長さの時間帯におけるフレームであることを特徴とする付記1に記載のビデオにおける人体動作周期を特定する方法。
(付記3)
探索範囲内の各フレームの人体領域を複数の人体部分に区分する処理は、
フレームにおける人体領域の輪郭線を抽出し、
輪郭線に基づいて人体領域の連結点を特定し、
連結点に基づいて人体領域を複数の人体部分に分割する、
処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記4)
現在のフレームにおける各人体部分の局所動作周期を特定する処理は、
前記人体部分の動きベクトルを算出し、
前記探索範囲内において前記人体部分の動作終了フレームを探索し、
前記動作終了フレームを探索できた場合に、前記動作終了フレームと前記現在のフレームとの間の時間長さを、前記人体部分の局所動作周期として特定する、
処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記5)
前記探索範囲内において前記人体部分の動作終了フレームを探索する処理は、前記探索範囲内において、前記人体部分の動きベクトルの和を第1の閾値よりも小さくすることが可能なフレームを、前記動作終了フレームとして探索する処理を含むことを特徴とする技術的案4に記載のビデオにおける人体動作周期を特定する方法。
(付記6)
前記人体部分の動きベクトルを算出する処理は、前記人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出する処理を含むことを特徴とする付記4に記載のビデオにおける人体動作周期を特定する方法。
(付記7)
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する処理は、前記複数の人体部分の局所動作周期のうち最大の局所動作周期を、人体動作周期として特定する処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記8)
付記1ないし7の何れかに記載の方法に基づいてビデオにおける人体動作周期を特定し、
前記人体動作周期に基づいて時間的・空間的特徴を抽出して、ビデオにおける人体動作を認識する処理を含むことを特徴とするビデオにおける人体動作を認識する方法。
(付記9)
探索範囲内の各フレームの人体領域を複数の人体部分に区分する人体部分区分部と、
現在のフレームにおける各人体部分の局所動作周期を特定する局所動作周期特定部と、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する人体動作周期特定部と、を含むビデオにおける人体動作周期を特定する装置。
(付記10)
前記探索範囲は、現在のフレームからの、後の第1の時間長さまたは前の第2の時間長さの時間帯におけるフレームであることを特徴とする付記9に記載のビデオにおける人体動作周期を特定する装置。
(付記11)
前記人体部分区分部は、
フレームにおける人体領域の輪郭線を抽出する輪郭抽出部と、
輪郭線に基づいて人体領域の連結点を特定する連結点抽出部と、
連結点に基づいて人体領域を複数の人体部分に分割する分割部とを含むことを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記12)
前記局所動作周期特定部は、
前記人体部分の動きベクトルを算出する動きベクトル算出部と、
前記探索範囲内において前記人体部分の動作終了フレームを探索する動作終了フレーム探索部と、
前記動作終了フレームを探索できた場合に、前記動作終了フレームと前記現在のフレームとの間の時間長を、前記人体部分の局所動作周期として特定する時間長さ特定部とを含むことを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記13)
前記動作終了フレーム探索部は、さらに、前記探索範囲内において、前記人体部分の動きベクトルの和を第1の閾値よりも小さくすることが可能なフレームを、前記動作終了フレームとして探索することを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記14)
前記動きベクトル算出部は、さらに、前記人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出することを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記15)
前記人体動作周期特定部は、さらに、前記複数の人体部分の局所動作周期のうち最大の局所動作周期を特定し、前記最大の局所動作周期を人体動作周期として特定することを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記16)
付記9ないし15の何れかに記載の装置を備えたビデオにおける人体動作周期を特定する人体動作周期特定部と、
前記人体動作周期に基づいて時間的・空間的特徴を抽出して、ビデオにおける人体動作を認識する認識部と、を含むことを特徴とするビデオにおける人体動作を認識する装置。
(付記17)
付記1ないし8のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
In addition to the above examples, the following additional notes are disclosed.
(Appendix 1)
Dividing the human body region of each frame within the search range into multiple human body parts,
Identify the local motion period of each human body part in the current frame,
Identifying a human motion period in a current frame based on the local motion period;
A method for identifying a human motion cycle in a video including processing.
(Appendix 2)
The human body motion cycle in the video according to claim 1, wherein the search range is a frame in a time zone of a later first time length or a previous second time length from a current frame. How to identify.
(Appendix 3)
The process of dividing the human body region of each frame within the search range into a plurality of human body parts is as follows:
Extract the outline of the human body area in the frame,
Identify the connecting points of human body regions based on contour lines,
Dividing the human body region into a plurality of human body parts based on the connection points;
The method of specifying a human body motion cycle in a video as set forth in appendix 2, characterized by including a process.
(Appendix 4)
The process of identifying the local motion period of each human body part in the current frame is
Calculating a motion vector of the human body part;
Search the motion end frame of the human body part within the search range,
When the motion end frame can be searched, the time length between the motion end frame and the current frame is specified as a local motion period of the human body part.
The method of specifying a human body motion cycle in a video as set forth in appendix 2, characterized by including a process.
(Appendix 5)
In the search range, the process of searching for the motion end frame of the human body part includes a frame in which the sum of motion vectors of the human body part can be made smaller than a first threshold in the search range. 5. The method for specifying a human body motion cycle in a video according to the technical plan 4, which includes a process of searching as an end frame.
(Appendix 6)
The video according to claim 4, wherein the process of calculating a motion vector of the human body part includes a process of calculating a motion vector of the human body part based on a motion of all or a part of pixels in the human body part. To identify the human body movement cycle.
(Appendix 7)
The process of identifying a human body motion period in a current frame based on the local motion period includes a process of identifying a maximum local motion period among the local motion periods of the plurality of human body parts as a human body motion period. A method for specifying a human body motion cycle in the video according to attachment 2.
(Appendix 8)
Identifying a human motion cycle in the video based on the method according to any one of appendices 1 to 7,
A method for recognizing human motion in a video, comprising: extracting temporal and spatial features based on the human motion cycle and recognizing human motion in the video.
(Appendix 9)
A human body part classification unit that divides the human body region of each frame within the search range into a plurality of human body parts;
A local motion cycle specifying unit for specifying a local motion cycle of each human body part in the current frame;
An apparatus for specifying a human body motion cycle in a video, comprising: a human body motion cycle specifying unit for specifying a human body motion cycle in a current frame based on the local motion cycle.
(Appendix 10)
The human body motion period in the video according to claim 9, wherein the search range is a frame in a time zone of a subsequent first time length or a previous second time length from a current frame. Device to identify.
(Appendix 11)
The human body part section is
An outline extraction unit for extracting the outline of the human body region in the frame;
A connection point extraction unit for specifying a connection point of the human body region based on the contour line;
The apparatus for identifying a human body motion cycle in video according to claim 10, further comprising a dividing unit that divides the human body region into a plurality of human body parts based on the connection points.
(Appendix 12)
The local operation cycle specifying unit includes:
A motion vector calculation unit for calculating a motion vector of the human body part;
An operation end frame search unit for searching for an operation end frame of the human body part within the search range;
A time length specifying unit that specifies a time length between the action end frame and the current frame as a local action period of the human body part when the action end frame can be searched; The apparatus which specifies the human body movement period in the video of Additional remark 10 which is.
(Appendix 13)
The motion end frame search unit further searches the motion range as a motion end frame for a frame in which the sum of motion vectors of the human body part can be made smaller than a first threshold within the search range. The apparatus which specifies the human body movement period in the video of Additional remark 12.
(Appendix 14)
The human body motion cycle in the video according to appendix 12, wherein the motion vector calculation unit further calculates a motion vector of the human body part based on a motion of all or a part of pixels in the human body part. Device to do.
(Appendix 15)
The human body motion cycle specifying unit further specifies a maximum local motion cycle among the local motion cycles of the plurality of human body parts, and specifies the maximum local motion cycle as a human body motion cycle. A device for identifying a human motion cycle in the video described in 1.
(Appendix 16)
A human body motion cycle specifying unit for specifying a human body motion cycle in a video comprising the device according to any one of appendices 9 to 15,
An apparatus for recognizing human motion in a video, comprising: a recognition unit that extracts temporal and spatial features based on the human motion cycle and recognizes human motion in the video.
(Appendix 17)
A program that causes a computer to execute the method according to any one of appendices 1 to 8.

Claims (11)

探索範囲内の各フレームの人体領域を複数の人体部分に区分し、
現在のフレームにおける各人体部分の局所動作周期を特定し、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する、
処理を含む、ビデオにおける人体動作周期を特定する方法。
Dividing the human body region of each frame within the search range into multiple human body parts,
Identify the local motion period of each human body part in the current frame,
Identifying a human motion period in a current frame based on the local motion period;
A method for identifying a human motion cycle in a video including processing.
前記探索範囲は、現在のフレームからの、後の第1の時間長さ又は前の第2の時間長さの時間帯におけるフレームであることを特徴とする請求項1に記載のビデオにおける人体動作周期を特定する方法。   The human body motion in the video according to claim 1, wherein the search range is a frame in a time zone of a later first time length or a previous second time length from a current frame. How to identify the period. 探索範囲内の各フレームの人体領域を複数の人体部分に区分する処理は、
フレームにおける人体領域の輪郭線を抽出し、
輪郭線に基づいて人体領域の連結点を特定し、
連結点に基づいて人体領域を複数の人体部分に分割する、
処理を含むことを特徴とする請求項2に記載のビデオにおける人体動作周期を特定する方法。
The process of dividing the human body region of each frame within the search range into a plurality of human body parts is as follows:
Extract the outline of the human body area in the frame,
Identify the connecting points of human body regions based on contour lines,
Dividing the human body region into a plurality of human body parts based on the connection points;
The method according to claim 2, further comprising: processing.
現在のフレームにおける各人体部分の局所動作周期を特定する処理は、
前記人体部分の動きベクトルを算出し、
前記探索範囲内において前記人体部分の動作終了フレームを探索し、
前記動作終了フレームを探索できた場合に、前記動作終了フレームと前記現在のフレームとの間の時間長さを、前記人体部分の局所動作周期として特定する、
処理を含むことを特徴とする請求項2に記載のビデオにおける人体動作周期を特定する方法。
The process of identifying the local motion period of each human body part in the current frame is
Calculating a motion vector of the human body part;
Search the motion end frame of the human body part within the search range,
When the motion end frame can be searched, the time length between the motion end frame and the current frame is specified as a local motion period of the human body part.
The method according to claim 2, further comprising: processing.
前記探索範囲内において前記人体部分の動作終了フレームを探索する処理は、前記探索範囲内において、前記人体部分の動きベクトルの和を第1の閾値よりも小さくすることが可能なフレームを、前記動作終了フレームとして探索する処理を含むことを特徴とする請求項4に記載のビデオにおける人体動作周期を特定する方法。   In the search range, the process of searching for the motion end frame of the human body part includes a frame in which the sum of motion vectors of the human body part can be made smaller than a first threshold in the search range. 5. The method according to claim 4, further comprising a process of searching as an end frame. 前記人体部分の動きベクトルを算出する処理は、前記人体部分におけるすべてまたは一部の画素の動きに基づいて前記人体部分の動きベクトルを算出する処理を含むことを特徴とする請求項4に記載のビデオにおける人体動作周期を特定する方法。   5. The process of calculating a motion vector of the human body part includes a process of calculating a motion vector of the human body part based on a motion of all or a part of pixels in the human body part. A method for identifying human motion cycles in video. 前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する処理は、前記複数の人体部分の局所動作周期のうち最大の局所動作周期を、人体動作周期として特定する処理を含むことを特徴とする請求項2に記載のビデオにおける人体動作周期を特定する方法。   The process of identifying a human body motion period in a current frame based on the local motion period includes a process of identifying a maximum local motion period among the local motion periods of the plurality of human body parts as a human body motion period. The method for specifying a human body motion cycle in a video according to claim 2. 請求項1ないし7のいずれか1項に記載の方法に基づいてビデオにおける人体動作周期を特定し、
前記人体動作周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する処理、を含むことを特徴とするビデオにおける人体動作を認識する方法。
Identifying a human motion period in the video based on the method according to any one of claims 1 to 7,
A method for recognizing human motion in a video, comprising: extracting temporal and spatial features based on the human motion cycle and recognizing human motion in the video.
探索範囲内の各フレームの人体領域を複数の人体部分に区分する人体部分区分部と、
現在のフレームにおける各人体部分の局所動作周期を特定する局所動作周期特定部と、
前記局所動作周期に基づいて現在のフレームにおける人体動作周期を特定する人体動作周期特定部と、を備えるビデオにおける人体動作周期を特定する装置。
A human body part classification unit that divides the human body region of each frame within the search range into a plurality of human body parts;
A local motion cycle specifying unit for specifying a local motion cycle of each human body part in the current frame;
An apparatus for specifying a human body motion cycle in a video, comprising: a human body motion cycle specifying unit for specifying a human body motion cycle in a current frame based on the local motion cycle.
請求項9に記載の装置を備え、ビデオにおける人体動作周期を特定する人体動作周期特定部と、
前記人体動作周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する認識部と、を備えることを特徴とするビデオにおける人体動作を認識する装置。
A human body motion cycle specifying unit that includes the apparatus according to claim 9 and that specifies a human body motion cycle in a video;
An apparatus for recognizing human motion in video, comprising: a recognition unit that extracts temporal and spatial features based on said human motion cycle and recognizes human motion in video.
請求項1ないし8のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
The program which makes a computer perform the method of any one of Claims 1 thru | or 8.
JP2012147136A 2011-07-01 2012-06-29 Method, device, and program for identifying human behavior cycle and recognizing human behavior Withdrawn JP2013016171A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110192815.0 2011-07-01
CN2011101928150A CN102855635A (en) 2011-07-01 2011-07-01 Method and device for determining human body action cycles and recognizing human body actions

Publications (1)

Publication Number Publication Date
JP2013016171A true JP2013016171A (en) 2013-01-24

Family

ID=47402197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147136A Withdrawn JP2013016171A (en) 2011-07-01 2012-06-29 Method, device, and program for identifying human behavior cycle and recognizing human behavior

Country Status (2)

Country Link
JP (1) JP2013016171A (en)
CN (1) CN102855635A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012434A (en) * 2013-06-28 2015-01-19 カシオ計算機株式会社 Form confirmation support device, method and program and form confirmation support system
JP2018125841A (en) * 2016-11-14 2018-08-09 アクシス アーベー Action recognition in video sequence
US10163000B2 (en) 2015-01-14 2018-12-25 Samsung Electronics Co., Ltd. Method and apparatus for determining type of movement of object in video

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834887B (en) * 2014-02-11 2018-09-11 株式会社理光 Move pedestrian's representation method, recognition methods and its device
CN105430342A (en) * 2015-12-01 2016-03-23 苏州铭冠软件科技有限公司 Content-based video feature extraction and video structured processing method
CN108960016A (en) * 2017-05-25 2018-12-07 富士通株式会社 The method and apparatus for detecting specific action
CN109474850B (en) * 2018-11-29 2021-07-20 北京字节跳动网络技术有限公司 Motion pixel video special effect adding method and device, terminal equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101635031B (en) * 2009-08-27 2011-08-31 上海交通大学 Method for extracting and identifying small sample character contour feature
CN101739557B (en) * 2010-01-26 2012-10-31 重庆大学 Motion cycle analysis-based method and device for identifying abnormal human behavior

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012434A (en) * 2013-06-28 2015-01-19 カシオ計算機株式会社 Form confirmation support device, method and program and form confirmation support system
US10163000B2 (en) 2015-01-14 2018-12-25 Samsung Electronics Co., Ltd. Method and apparatus for determining type of movement of object in video
JP2018125841A (en) * 2016-11-14 2018-08-09 アクシス アーベー Action recognition in video sequence

Also Published As

Publication number Publication date
CN102855635A (en) 2013-01-02

Similar Documents

Publication Publication Date Title
Hu et al. Deep level sets for salient object detection
JP2013016171A (en) Method, device, and program for identifying human behavior cycle and recognizing human behavior
JP6719457B2 (en) Method and system for extracting main subject of image
CN108229456B (en) Target tracking method and device, electronic equipment and computer storage medium
EP2378485B1 (en) Moving object detection method and moving object detection apparatus
JP4894741B2 (en) Information processing apparatus, information processing method, program, and recording medium
US20130028517A1 (en) Apparatus, method, and medium detecting object pose
US20110255748A1 (en) Articulated object regionarticulated object region detection apparatus and method of the same
CN110163096B (en) Person identification method, person identification device, electronic equipment and computer readable medium
JP2004054960A (en) Face detecting and tracking system and method by combining image visual information to detect two or more faces in real time
CN109492576B (en) Image recognition method and device and electronic equipment
Aytekin et al. Spatiotemporal saliency estimation by spectral foreground detection
JP6597914B2 (en) Image processing apparatus, image processing method, and program
Kim et al. Combined shape and feature-based video analysis and its application to non-rigid object tracking
Do et al. Real-time and robust multiple-view gender classification using gait features in video surveillance
JP2018124689A (en) Moving body detection device, moving body detection system and moving body detection method
Waheed et al. Exploiting Human Pose and Scene Information for Interaction Detection
CN114898266B (en) Training method, image processing device, electronic equipment and storage medium
Kim et al. Robust facial landmark extraction scheme using multiple convolutional neural networks
JP2013016170A (en) Method, device, and program for recognizing human behavior
Kamiński et al. Human activity recognition using standard descriptors of MPEG CDVS
KR20220085212A (en) Method and Apparatus for Fashion Image Search using Deep Learning based Inpainting Technique
Ahmed et al. Localization of region of interest in surveillance scene
Mucha et al. Depth and thermal images in face detection-a detailed comparison between image modalities
Cai et al. Robust contour tracking by combining region and boundary information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150319

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20151016