JP6346007B2 - Motion recognition device and motion recognition method - Google Patents

Motion recognition device and motion recognition method Download PDF

Info

Publication number
JP6346007B2
JP6346007B2 JP2014136732A JP2014136732A JP6346007B2 JP 6346007 B2 JP6346007 B2 JP 6346007B2 JP 2014136732 A JP2014136732 A JP 2014136732A JP 2014136732 A JP2014136732 A JP 2014136732A JP 6346007 B2 JP6346007 B2 JP 6346007B2
Authority
JP
Japan
Prior art keywords
gravity
region
center
moving object
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014136732A
Other languages
Japanese (ja)
Other versions
JP2016015016A (en
Inventor
章治 駒井
章治 駒井
渡辺 仁
仁 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2014136732A priority Critical patent/JP6346007B2/en
Publication of JP2016015016A publication Critical patent/JP2016015016A/en
Application granted granted Critical
Publication of JP6346007B2 publication Critical patent/JP6346007B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、実験動物等の動体の動作を自動的に認識する動作認識装置及び動作認識方法等に関する。   The present invention relates to a motion recognition device, a motion recognition method, and the like that automatically recognize the motion of a moving object such as a laboratory animal.

マウス等に代表される実験動物の行動を撮影して解析することは、動物行動学等の基礎研究の他、医薬品の薬効試験等において広く採用されている実験手法である。古典的には、撮影された映像を実験者が目視にて観察し、いくつかの類型化された行動を検出して記録するといった手法が取られていたが、この手法には目視観察に起因する労働コストの高さや、観察者の主観的判断に依存するが故の再現性の低さといった多くの問題がある。   Capturing and analyzing the behavior of experimental animals represented by mice and the like is an experimental technique widely used in drug efficacy tests and the like in addition to basic research such as animal behavior studies. Classically, a method has been adopted in which an experimenter visually observes a photographed image, and detects and records several types of behavior, but this method is caused by visual observation. There are many problems, such as high labor costs and low reproducibility due to the subjective judgment of the observer.

こうした問題を解決するため、従来、様々な自動解析ソフトウェアが開発されてきた。例えば、上方からの撮影画像からマウスの重心を検出し、各時点での位置及び移動速度、並びに所定時間範囲内での移動経路等をトラッキングするものが広く使用されている。
なお、ここでの「重心」とは、撮影画像から適宜の手法で検出された2次元図形に関して求められる点であり、マウスの体積や体重を考慮したものではない。以降、本明細書中で用いられる「重心」との語は上記の意味を持つものである。
In order to solve such problems, various automatic analysis softwares have been developed conventionally. For example, a device that detects the center of gravity of a mouse from a photographed image from above and tracks the position and moving speed at each time point, the moving path within a predetermined time range, and the like is widely used.
The “center of gravity” here is a point obtained with respect to a two-dimensional figure detected by an appropriate method from a captured image, and does not take into account the volume or weight of the mouse. Hereinafter, the term “center of gravity” used in this specification has the above-mentioned meaning.

さらに近年では、マウスの行動をより詳細に観察する手法として、モデルフィッティングを用いた手法が開示されている。こうした例としては物理モデルフィッティング(非特許文献1及び図10(a)を参照)や楕円フィッティング(非特許文献2及び図10(b)参照)を挙げることができる。これらの手法によれば、マウスの動きや体の向き等を目視によらずともトラッキングすることができる。   Furthermore, in recent years, a technique using model fitting has been disclosed as a technique for observing mouse behavior in more detail. Examples of this include physical model fitting (see Non-Patent Document 1 and FIG. 10A) and elliptical fitting (see Non-Patent Document 2 and FIG. 10B). According to these methods, it is possible to track the movement of the mouse, the direction of the body, and the like without visual observation.

特開2012-190280号公報JP 2012-190280 A

ネイチャー・メソッズ(Nature Methods),米国,ネイチャーパブリッシンググループ(Nature Publishing Group),第9巻,p.410−417Nature Methods, USA, Nature Publishing Group, Vol. 9, p. 410-417 ジャーナル・オブ・ニューロサイエンス・メソッズ(Journal of Neuroscience Methods),オランダ,エルゼビア(Elsevier B.V.),第219巻,p.10−19Journal of Neuroscience Methods, Elsevier B.V., Volume 219, p. 10-19

しかしながら、マウスは実に多彩な行動でその内部状態を表現する動物であり、行動を評価するための指標は上記のような動きや体の向きに限定されない。   However, a mouse is an animal that expresses its internal state with a wide variety of actions, and indices for evaluating actions are not limited to the above movements and body orientations.

例えば、マウスは電気ショックを与えられた後は鼻先を非常に細かく動かすことがあり、これは不安行動の指標とされている。楕円フィッティングでは、マウスを体全体の形状と最もよく一致する楕円として扱う(すなわち楕円からはみ出した一部のピクセルが除外される)ことになるため、こうした細かい鼻先の動きの検出漏れを起こすことがある。   For example, a mouse may move its nose tip very finely after receiving an electric shock, which is an indicator of anxiety behavior. Ellipse fitting treats the mouse as the ellipse that best matches the shape of the whole body (ie, excludes some pixels that protrude from the ellipse), which can cause this detection of small nose movement detection. is there.

また、マウスは非常に柔軟な動物であるため、頸や胴体部を大きく屈曲させることも多い。上記の物理モデルフィッティングは、基本的には静止状態にあるマウスの理想的な形状に基づいたモデルであり、胴体部分の大きな変形を正しく検出することが難しい。楕円フィッティングにも同様の問題を指摘することができ、例えばマウスが頸や胴体部を屈曲させたときに楕円の形状が大きく変形し、楕円周上の誤った位置が鼻先や尾の付け根と判定されるおそれがある。   In addition, since the mouse is a very flexible animal, the neck and trunk are often bent greatly. The above physical model fitting is basically a model based on the ideal shape of a mouse in a stationary state, and it is difficult to correctly detect a large deformation of the body part. The same problem can be pointed out for ellipse fitting, for example, when the mouse bends the neck or torso, the shape of the ellipse is greatly deformed, and the wrong position on the circumference of the ellipse is determined as the base of the nose or tail There is a risk of being.

本発明は上記の事情に鑑みて成されたものであり、その目的とするところは、マウス等の実験動物の行動解析において、トラッキング精度を向上させることにある。   The present invention has been made in view of the above circumstances, and its object is to improve tracking accuracy in behavior analysis of experimental animals such as mice.

上記課題を解決するために成された本発明に係る動作認識装置は、実験動物等の動体の動作を、撮像部により撮像された該動体の複数フレームの画像から自動的に認識する認識装置であって、
a) 前記画像中で前記動体に対応する動体領域の重心である全体重心を特定する全体重心特定手段と、
b) 前記動体領域を機械学習アルゴリズムを用いて複数の領域に分割する領域分割手段と、
c) 前記領域分割手段が分割した複数の領域のうち所定領域において、前記全体重心から最も遠い点を前記動体の端点として特定する端点特定手段と、
を備えることを特徴とする。
The motion recognition apparatus according to the present invention, which has been made to solve the above-mentioned problems, is a recognition apparatus that automatically recognizes the motion of a moving object such as a laboratory animal from a plurality of frames of the moving object imaged by an imaging unit. There,
a) an overall center of gravity specifying means for specifying an overall center of gravity that is a center of gravity of the moving object region corresponding to the moving object in the image;
b) area dividing means for dividing the moving object area into a plurality of areas using a machine learning algorithm;
c) end point specifying means for specifying a point farthest from the overall center of gravity as an end point of the moving object in a predetermined area among the plurality of areas divided by the area dividing means;
It is characterized by providing.

上記「動体」には、マウスやラット等の四足動物の他、家禽等の鳥類、及び所定環境下の細胞等が含まれる。本発明の動体に含まれ得る細胞とは、例えば、神経細胞、ガン細胞及び免疫細胞等に代表される種々の動物細胞のように、極性を有する移動を行う細胞である。
また、上記「所定領域」は観察者の指示に基づいて決定されてもよいし、適宜の画像認識手法を用いて自動的に決定されてもよい。後者の例としては、具体的には、上記複数の領域のうち全体重心から最も離れた位置にある領域、又は動体に関する情報の判断材料となる特徴的な形状を有する領域等が自動的に上記所定の領域として決定されてもよい。なお、或る領域が「特徴的な形状を有する」とは、例えば動体がマウスである場合、鼻先の輪郭を検出してこれを自らの輪郭線の一部に含む領域を上記所定の領域とすることもできる。
The “animal body” includes, in addition to quadruped animals such as mice and rats, birds such as poultry, cells in a predetermined environment, and the like. The cell that can be included in the moving body of the present invention is a cell that moves with polarity, such as various animal cells typified by nerve cells, cancer cells, immune cells, and the like.
Further, the “predetermined area” may be determined based on an instruction from the observer, or may be automatically determined using an appropriate image recognition method. As the latter example, specifically, among the plurality of regions, the region that is the furthest away from the overall center of gravity, or the region that has a characteristic shape that serves as a material for determining information about moving objects is automatically described above. It may be determined as a predetermined area. For example, when a moving body is a mouse, a certain area has a characteristic shape. For example, when a moving object is a mouse, a nose tip contour is detected and a region including the contour of the nose is defined as the predetermined region. You can also

上記の構成によれば、機械学習アルゴリズムにより動体領域が複数の領域に分割され、このうち所定領域内にあって全体重心から最も遠い点が動体の端点として特定される。従って、例えば動体がマウスである場合、アルゴリズムにより動体領域を前後方向に複数の領域に分割し、そのうち最前部の領域を所定領域とし、該領域における全体重心からの最遠端を当該マウスの鼻先として特定することができる。動体領域の分割数、及び該分割後の複数領域のいずれを所定領域とするかは、その動体の運動や変形の性質、及び形状等に応じて適宜決定されればよい。
本構成では動体の画像を規定のモデルに当てはめることがないので、動体領域中の重要な(具体的には端点の)画素が除外され検出対象から漏れることがない。また、画像ごとに動体領域の全体重心が求められるので、動体が屈曲等により変形しても、変形後の全体重心からの距離に基づいて端点を特定することができる。従って、マウス等の実験動物の行動解析において、トラッキング精度が向上する。
According to the above configuration, the moving object region is divided into a plurality of regions by the machine learning algorithm, and a point that is within the predetermined region and is farthest from the entire center of gravity is specified as the end point of the moving object. Thus, for example, when the moving object is a mouse, the algorithm divides the moving object region into a plurality of regions in the front-rear direction, of which the foremost region is a predetermined region, and the farthest end from the total center of gravity in the region is the tip of the nose of the mouse Can be specified as The number of divisions of the moving body region and which of the plurality of divided regions is set as the predetermined region may be appropriately determined according to the nature and shape of the motion or deformation of the moving body.
In this configuration, since an image of a moving object is not applied to a specified model, important (specifically, end point) pixels in the moving object region are excluded and do not leak from the detection target. Further, since the entire center of gravity of the moving object region is obtained for each image, even if the moving object is deformed by bending or the like, the end point can be specified based on the distance from the deformed entire center of gravity. Therefore, tracking accuracy is improved in behavior analysis of experimental animals such as mice.

前記動体は前後軸を有する動物であり、
前記領域分割手段は、前記動体領域を前後方向に分割し、
前記端点特定手段は、前記複数の領域のうち前記前後方向の一方の端部に位置する領域である端部領域において、前記全体重心から最も遠い点を前記動体の端点として特定する構成とすることが好ましい。
The moving body is an animal having a longitudinal axis;
The area dividing means divides the moving object area in the front-rear direction,
The end point specifying means is configured to specify a point farthest from the overall center of gravity as an end point of the moving body in an end region which is a region located at one end in the front-rear direction among the plurality of regions. Is preferred.

ここで、「前後軸を有する」とは、具体的には頭部と尾部(若しくは腹部)とを有し、通常の移動様式として、全体重心から頭部の重心に向かう方向に移動する性質を有することと同義である。
上記の構成によれば、前後軸を有する多くの実験動物について、マウスの鼻先等に代表される端点を特定することで高精度なトラッキングが可能となる。なお、上記「一方の端部」を前後逆転させることにより、前後軸において前部に位置する端点(マウスにおける鼻先)のみでなく、後部に位置する端点(例えば尾の付け根)の特定も可能である。
Here, “having a longitudinal axis” specifically has a head and tail (or abdomen), and, as a normal movement mode, the property of moving in the direction from the overall center of gravity to the center of gravity of the head. It is synonymous with having.
According to the above configuration, high-accuracy tracking can be performed for many experimental animals having a longitudinal axis by specifying the end points represented by the nose of the mouse. In addition, by reversing the “one end portion” in the front-rear direction, it is possible to specify not only the end point located at the front part (the nose tip of the mouse) but also the end point located at the rear part (for example, the base of the tail). is there.

マウスに鼻先で探索行動を行う習性があることは以前から知られていたが、昨今の研究の結果、マウスがこれまで考えられていたよりもずっと多くの部分を視覚に頼って行動していることが分かってきた。しかも、このことを裏付ける各種の行動は、フィールドに2匹以上のマウスが存在する場合に特に顕著である。こうした発見により視線、すなわち胴体部に対し頭部をどの程度傾けているかの測定が、マウス実験における社会的行動の重要な評価指標として認識され始めている。   It has been known for a long time that the mouse has the habit of performing exploratory behavior at the tip of the nose, but as a result of recent research, the mouse is acting much more visually than previously thought I understand. Moreover, the various behaviors supporting this are particularly prominent when there are two or more mice in the field. With these discoveries, the gaze, that is, how much the head is tilted with respect to the trunk, is beginning to be recognized as an important evaluation index of social behavior in mouse experiments.

そこで、前記動作認識装置はさらに、
d) 前記端部領域の重心を特定する端部重心特定手段
を備える構成とすることが好ましい。
Therefore, the motion recognition device further includes
d) It is preferable to include an end portion center of gravity specifying means for specifying the center of gravity of the end region.

上記の構成によれば、動体領域において、端点、端部領域の重心及び全体重心の少なくとも3個の特徴点が特定される。これにより、画像解析を行うソフトウェアは、動体の形状について詳細な情報を得ることができる。具体的には、例えば動体をマウスとし、前後軸において最前部に位置する領域を端部領域と定めた場合を考える。このとき、領域分割手段による分割数を最も少ない2と定めた場合であっても、端部領域の重心は後頭部付近に求められることとなるため、端点(鼻先)、端部領域の重心(後頭部付近の点)及び全体重心の3点の位置関係から、該マウスの胴体部に対する頭部の傾き角度を高精度に求めることができる。領域分割手段による分割数が増大すれば、端部領域の重心は端点に近づくため、該領域内での(例えば頸部の)屈曲等の影響を受けにくくなり、精度はさらに向上する。
なお、前後軸において最後部に位置する領域を端部領域とし、該端部領域の重心を特定してもよいことは上述と同様である。よって、マウスにおいて上述の3点に加え、後部側の端部領域の重心(又は後部側の端点である尾の付け根)を求めれば胴体部の姿勢がより正確に把握でき、胴体部に対する頭部の傾き角度はさらに高精度に求められる。
従って上記構成によれば、マウスの社会的行動の解析において極めて有用な評価方法を提供することができる。
頭部の向きに着目した従来の解析手法として、例えば特許文献1には、マウスの上面視画像を二値化して重心を求め、該求めた重心を基準とした極座標変換により該マウスの輪郭情報を取得し、該輪郭情報に基づいて尾部の向き及び頭部の向きを特定することが記載されている。しかし本発明の上記構成によれば、毎回極座標変換によって輪郭情報を求めずとも、簡易な手法で頭部の向きを高精度に求めることができる。
According to said structure, in a moving body area | region, the end point, the gravity center of an edge part area | region, and the at least 3 feature point of the whole gravity center are specified. Thereby, the software which performs image analysis can obtain detailed information about the shape of the moving object. Specifically, for example, consider a case where a moving body is a mouse and a region located at the forefront in the front-rear axis is defined as an end region. At this time, even if the number of divisions by the region dividing means is set to 2 which is the smallest, the center of gravity of the end region is obtained near the back of the head, so the end point (nose tip) and the center of gravity of the end region (back of the head) The tilt angle of the head with respect to the body of the mouse can be obtained with high accuracy from the positional relationship between the three points of the nearby points) and the overall center of gravity. If the number of divisions by the region dividing means increases, the center of gravity of the end region approaches the end point, so that it is less affected by bending (for example, neck) in the region, and the accuracy is further improved.
As described above, the region located at the rearmost part in the front-rear axis may be an end region, and the center of gravity of the end region may be specified. Therefore, in addition to the above three points in the mouse, if the center of gravity of the end region on the rear side (or the base of the tail which is the end point on the rear side) is obtained, the posture of the torso can be grasped more accurately, and the head with respect to the torso The tilt angle is required with higher accuracy.
Therefore, according to the said structure, the very useful evaluation method in the analysis of the social behavior of a mouse | mouth can be provided.
As a conventional analysis method focusing on the orientation of the head, for example, in Patent Document 1, the mouse top view image is binarized to obtain a center of gravity, and the mouse contour information is obtained by polar coordinate conversion based on the obtained center of gravity. And specifying the direction of the tail and the direction of the head based on the contour information. However, according to the above configuration of the present invention, the orientation of the head can be obtained with high accuracy by a simple method without obtaining contour information by polar coordinate conversion every time.

前記端部重心特定手段は、直前に特定した前記端部領域の重心を、次フレームにおいて特定すべき前記端部領域の重心の初期値とすることが好ましい。
一般的な撮影動画では、連続するフレーム間で動体の前後が逆転することは稀であるため、上記の構成により端点の誤認識(すなわち後部の端点を誤って前部の端点と判定するミス)が防止される。
Preferably, the end portion center-of-gravity specifying means sets the center of gravity of the end region specified immediately before as an initial value of the center of gravity of the end region to be specified in the next frame.
In a general captured video, it is rare that the moving object is reversed between successive frames, so the above configuration makes it possible to misrecognize an end point (that is, mistakenly determine a rear end point as a front end point). Is prevented.

前記領域分割手段が用いる機械学習アルゴリズムとしては、例えばk-meansクラスタリングを用いることができる。
これにより、高速な処理で動体領域を複数の領域に簡易に分割することができる。
As a machine learning algorithm used by the region dividing means, for example, k-means clustering can be used.
Thereby, a moving body area | region can be easily divided | segmented into a some area | region by a high-speed process.

ここで、例としてマウスの画像をあまりに多く(例えば10以上)の領域に分割しようとすると、マウスの体幅との関係上、観察者の所期どおりに(例えば前後方向に)動体領域が分割されない場合がある。
そこで、前記領域分割手段は、予備実験の結果に基づいて前記動体領域の分割数を決定してもよい。
これにより、行動解析の目的に沿わない領域分割が防止される。
Here, as an example, if an image of a mouse is divided into too many (for example, 10 or more) areas, the moving body area is divided as intended by the observer (for example, in the front-rear direction) due to the body width of the mouse. May not be.
Therefore, the area dividing means may determine the number of divisions of the moving object area based on the result of the preliminary experiment.
This prevents area division that does not meet the purpose of behavior analysis.

上記課題を解決するために成された本発明に係る動作認識方法は、実験動物等の動体の動作を、撮像部により撮像された該動体の複数フレームの画像から自動的に認識する認識方法であって、
a) 前記画像中で前記動体に対応する動体領域の重心である全体重心を特定する全体重心特定ステップと、
b) 前記動体領域を機械学習アルゴリズムを用いて複数の領域に分割する領域分割ステップと、
c) 前記領域分割ステップにて分割した複数の領域のうち所定領域において、前記全体重心から最も遠い点を前記動体の端点として特定する端点特定ステップと、
を含むことを特徴とする。
The motion recognition method according to the present invention made to solve the above problems is a recognition method that automatically recognizes the motion of a moving object such as a laboratory animal from a plurality of frames of the moving object imaged by the imaging unit. There,
a) an overall center of gravity specifying step for specifying an overall center of gravity that is a center of gravity of a moving object region corresponding to the moving object in the image;
b) a region dividing step of dividing the moving object region into a plurality of regions using a machine learning algorithm;
c) an end point specifying step for specifying a point farthest from the overall center of gravity as an end point of the moving body in a predetermined region among the plurality of regions divided in the region dividing step;
It is characterized by including.

本発明によれば、マウス等の実験動物の行動解析において、トラッキング精度が向上する。   According to the present invention, tracking accuracy is improved in behavior analysis of experimental animals such as mice.

本発明の第1の実施形態に係る動作認識装置を含む行動解析システムの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a behavior analysis system including a motion recognition device according to a first embodiment of the present invention. 同実施形態に係る動作認識装置が行う処理の流れを示すフローチャート。The flowchart which shows the flow of the process which the operation | movement recognition apparatus which concerns on the same embodiment performs. 同実施形態に係る動作認識装置が実行するk-meansクラスタリングによるマウス画像の領域分割の手順を示す説明図。Explanatory drawing which shows the procedure of the area | region division of the mouse image by the k-means clustering which the motion recognition apparatus which concerns on the embodiment performs. 図3(c)に示す各クラスタ中心の初期値を設定する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which sets the initial value of each cluster center shown in FIG.3 (c). 同実施形態によるマウスの鼻先のトラッキング精度を従来手法と比較したグラフ。The graph which compared the tracking accuracy of the nose tip of the mouse | mouth by the same embodiment with the conventional method. 本発明の第2の実施形態に係る動作認識装置が実行するk-meansクラスタリングによるマウス画像の領域分割の手順を示す説明図。Explanatory drawing which shows the procedure of the area | region division | segmentation of the mouse image by the k-means clustering which the motion recognition apparatus which concerns on the 2nd Embodiment of this invention performs. マウスの頭部の向きの認識精度を評価する方法を示す説明図であり、(a)は元のマウス画像から本願明者らが目視で特定した頭部の向きを、(b)は従来の楕円フィッティングにより推定された頭部の向きを、(c)は同実施形態により特定された鼻先、全体重心及び尾の付け根の3点に基づき推定された頭部の向きを、(d)は同実施形態により特定された鼻先、前部重心、全体重心、後部重心及び尾の付け根の5点に基づき推定された頭部の向きをそれぞれ破線又は実線の矢印にて示している。It is explanatory drawing which shows the method of evaluating the recognition accuracy of the orientation of a mouse head, (a) is the orientation of the head visually identified by the present inventors from the original mouse image, (b) is the conventional The head orientation estimated by the ellipse fitting is shown. (C) is the head orientation estimated based on the three points of the nose tip, the entire center of gravity, and the base of the tail specified by the embodiment. The head directions estimated based on the five points of the nose tip, the front center of gravity, the total center of gravity, the rear center of gravity, and the base of the tail specified by the embodiment are indicated by broken or solid arrows, respectively. 図7(a)にてユーザが特定した頭部の向きと、同図(b)、(c)及び(d)により推定された頭部の向きとの角度差をそれぞれ示すグラフ。The graph which shows the angle difference of the head direction which the user specified in Fig.7 (a), and the head direction estimated by the same figure (b), (c) and (d), respectively. 図8に第1の実施形態による結果を追加した比較用グラフ。The graph for a comparison which added the result by 1st Embodiment to FIG. (a)従来の物理モデルフィッティングの一例を示す図。(b)従来の楕円フィッティングの一例を示す図。(A) The figure which shows an example of the conventional physical model fitting. (B) The figure which shows an example of the conventional ellipse fitting.

以下、本発明を実施するための形態について、図面を参照しつつ詳細に説明する。以下の記載において、先に説明した図面と同一の機能を有する部材には同一の番号を付し、その説明を省略する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the following description, members having the same functions as those in the above-described drawings are denoted by the same reference numerals, and description thereof is omitted.

〔第1の実施形態〕
図1は本発明の一実施形態に係る動作認識装置を含む行動解析システムの概略構成を示すブロック図である。この行動解析システムは、観察箱10と、該観察箱10内でのマウスの行動を解析・処理したりするための、該観察箱10と接続された情報処理装置20(本発明の動作認識装置に相当)とを備える。
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a behavior analysis system including a motion recognition device according to an embodiment of the present invention. This behavior analysis system includes an observation box 10 and an information processing device 20 connected to the observation box 10 for analyzing and processing the behavior of a mouse in the observation box 10 (the motion recognition device of the present invention). Equivalent).

観察箱10はマウス12が探索可能なフィールドを有し、該フィールドの縁部を所定の高さの壁板で囲繞したものである。観察箱10の天板内側にはカメラ11(本発明の撮像部に相当)が設けられており、これによりマウス12の行動を上方から撮影する。なお、観察箱10は不図示の照明装置を例えば天板内側に備えている。観察箱10はさらに、床板上に電気ショック呈示用の配線等を備えていてもよい。   The observation box 10 has a field that can be searched by the mouse 12, and the edge of the field is surrounded by a wall plate having a predetermined height. A camera 11 (corresponding to the imaging unit of the present invention) is provided inside the top plate of the observation box 10, whereby the action of the mouse 12 is photographed from above. Note that the observation box 10 includes a lighting device (not shown), for example, inside the top plate. The observation box 10 may further include a wiring for presenting an electric shock on the floor board.

情報処理装置20の実態はワークステーションやPC(Personal Computer)等のコンピュータであり、中央演算処理装置であるCPU(Central Processing Unit)21にRAM(Random Access Memory)等の揮発性記憶装置から成るメモリ22、LCD(Liquid Crystal Display)等から成る表示部23、キーボードやマウス等から成る入力部24、HDD(Hard Disc Drive)やSSD(Solid State Drive)等の大容量記憶装置から成る記憶部30が互いに接続されている。記憶部30には、OS(Operating System)31及び行動解析プログラム32が記憶されている。情報処理装置20はさらに、外部装置との直接的な接続や、外部装置等とのLAN(Local Area Network)などのネットワークを介した接続を司るためのインターフェース(I/F)25を備えており、該I/F25よりネットワークケーブルNW(又は無線LAN)を介して観察箱10が備えるカメラ11や不図示の照明装置等に接続されている。別の構成例として、I/F25と観察箱10とは観察箱10専用の制御装置(不図示)を解して接続されていてもよい。   The actual state of the information processing apparatus 20 is a computer such as a workstation or a PC (Personal Computer), and a CPU (Central Processing Unit) 21 that is a central processing unit and a memory including a volatile storage device such as a RAM (Random Access Memory). 22, a display unit 23 composed of an LCD (Liquid Crystal Display), an input unit 24 composed of a keyboard, a mouse, etc., and a storage unit 30 composed of a mass storage device such as an HDD (Hard Disc Drive) or SSD (Solid State Drive) Are connected to each other. The storage unit 30 stores an OS (Operating System) 31 and an action analysis program 32. The information processing apparatus 20 further includes an interface (I / F) 25 for direct connection with an external apparatus and connection with the external apparatus via a network such as a LAN (Local Area Network). The I / F 25 is connected via a network cable NW (or wireless LAN) to a camera 11 provided in the observation box 10 or a lighting device (not shown). As another configuration example, the I / F 25 and the observation box 10 may be connected via a control device (not shown) dedicated to the observation box 10.

行動解析プログラム32は、カメラ11が撮影したマウス12の行動を解析するための各種機能を具備するプログラムである。但し以下の記載では、本発明の趣旨から外れる機能(例えば類型行動の検出や分類の方法等)については詳細な説明を省略する。   The behavior analysis program 32 is a program having various functions for analyzing the behavior of the mouse 12 taken by the camera 11. However, in the following description, detailed descriptions of functions that deviate from the gist of the present invention (for example, a method of detecting a type behavior and a classification method) are omitted.

図1においては、行動解析プログラム32に係るように、撮影制御部41、画像取得部42、前処理部43、全体重心特定部44、領域分割部45(本発明の領域分割手段及び端部重心特定手段に相当)、端点特定部46及びフレーム情報記憶部47が示されている。これらはいずれも基本的にはCPU21が行動解析プログラム32をメモリ22に読み出して実行することによりソフトウェア的に実現される機能手段である。なお、行動解析プログラム32は必ずしも単体のプログラムである必要はなく、例えば観察箱10に付随して設けられた各種の機械要素を制御するためのプログラムの一部に組み込まれた機能であってもよく、その形態は特に問わない。また、行動解析プログラム32が備える機能の一部(例えば撮影制御部41)を、上述したような観察箱10専用の制御装置が具備していてもよい。   In FIG. 1, as related to the behavior analysis program 32, the imaging control unit 41, the image acquisition unit 42, the preprocessing unit 43, the overall center of gravity specifying unit 44, and the region dividing unit 45 (the region dividing means and the end portion center of gravity of the present invention). An end point specifying unit 46 and a frame information storage unit 47 are shown. These are basically functional means realized by software by the CPU 21 reading the behavior analysis program 32 into the memory 22 and executing it. The behavior analysis program 32 is not necessarily a single program, and may be a function incorporated in a part of a program for controlling various machine elements provided accompanying the observation box 10, for example. Well, the form is not particularly limited. Further, a part of the functions provided in the behavior analysis program 32 (for example, the imaging control unit 41) may be provided in the control device dedicated to the observation box 10 as described above.

撮影制御部41は、カメラ11による観察箱10内部の撮影を制御するものである。例えば、入力部24を介したユーザの指示をトリガとして撮影の開始や終了を指示する。
画像取得部42は、カメラ11が撮影した観察箱10内部の画像(所定長さの動画を構成する複数フレームの画像)を取得するものである。画像取得部42が取得した複数フレームの画像はメモリ22の他に、記憶部30内の不図示の記憶領域に保存されてもよい。
The photographing control unit 41 controls photographing inside the observation box 10 by the camera 11. For example, the start or end of shooting is instructed using a user instruction via the input unit 24 as a trigger.
The image acquisition unit 42 acquires an image inside the observation box 10 captured by the camera 11 (a plurality of frames constituting a moving image having a predetermined length). The plurality of frames of images acquired by the image acquisition unit 42 may be stored in a storage area (not shown) in the storage unit 30 in addition to the memory 22.

前処理部43は、画像取得部42が取得した画像の二値化やノイズ除去といった前処理を行う。これらの処理には公知の技術を用いることができる。
ここで、図3(a)及び(b)を参照して、画像の前処理について説明を行う。図3(a)は画像取得部42が取得した或るフレームの画像のうち、マウス12を中心とする小区画を説明のために切り出したものである。これに対し、前処理部43が二値化及び必要に応じてノイズ除去を施すことにより、同図(b)に示すような画像が得られる。このうち白抜きで示された領域が、後述の全体重心特定や領域分割の対象となるマウス領域13(本発明の動体領域に相当)である。
The preprocessing unit 43 performs preprocessing such as binarization of the image acquired by the image acquisition unit 42 and noise removal. A known technique can be used for these processes.
Here, image preprocessing will be described with reference to FIGS. FIG. 3A illustrates a small section centered on the mouse 12 in the image of a certain frame acquired by the image acquisition unit 42 for explanation. On the other hand, when the preprocessing unit 43 performs binarization and noise removal as necessary, an image as shown in FIG. Among these, the area shown in white is a mouse area 13 (corresponding to a moving object area of the present invention) that is a target of the overall center of gravity and area division described later.

再び図1を参照して説明を行う。全体重心特定部44は、上記前処理後の画像に基づき、マウス領域13の2次元図形としての重心である全体重心C(図3(b)参照)を特定する。この全体重心Cの特定も公知の技術を適用することで可能である。なお、重心(並びに後述のクラスタ中心及び各端部)の「特定(又は設定)」とは、本実施形態では画像中の座標が一意に定まることを意味している。   The description will be given with reference to FIG. 1 again. The overall center of gravity specifying unit 44 specifies the overall center of gravity C (see FIG. 3B), which is the center of gravity of the mouse region 13 as a two-dimensional figure, based on the preprocessed image. The identification of the overall center of gravity C is also possible by applying a known technique. Note that “specific (or setting)” of the center of gravity (and the cluster center and each end described later) means that the coordinates in the image are uniquely determined in the present embodiment.

領域分割部45は、k-meansクラスタリングにより、マウス領域13をk個の領域に分割する。本実施形態ではk = 2とし、マウス領域13を前後2つの領域に分割する。k-meansクラスタリングによる領域分割の手順については後述する。
領域分割部45はまた、クラスタリングが収束した時点での各クラスタの中心を、前後の領域の各重心として特定する。
The area dividing unit 45 divides the mouse area 13 into k areas by k-means clustering. In this embodiment, k = 2 and the mouse area 13 is divided into two areas. The procedure of area division by k-means clustering will be described later.
The area dividing unit 45 also specifies the center of each cluster at the time when the clustering has converged as each center of gravity of the preceding and following areas.

端点特定部46は、マウス12の鼻先51及び尾の付け根52(図3(h)参照)を特定する。具体的には、領域分割部45によって分割された前後2つの領域内の画素について、全体重心Cから最も遠いものをそれぞれ鼻先51、尾の付け根52として特定する。本実施形態では、鼻先51及び尾の付け根52がそれぞれ本発明の端点に相当する。   The end point specifying unit 46 specifies the nose tip 51 and the base of the tail 52 of the mouse 12 (see FIG. 3H). Specifically, the pixels farthest from the overall center of gravity C are specified as the nose tip 51 and the base of the tail 52 for the pixels in the two regions before and after being divided by the region dividing unit 45, respectively. In the present embodiment, the tip of the nose 51 and the base 52 of the tail each correspond to an end point of the present invention.

フレーム情報記憶部47は、上述した前処理部43、全体重心特定部44、領域分割部45及び端点特定部46による処理結果を1フレームの画像に関する情報として保持し蓄積するものである。フレーム情報記憶部47に所定数のフレームの画像に関する情報が蓄積された時点で、又はユーザによる任意のトリガリングによって、マウス12の類型行動の検出や分類等の行動解析が行われることとなる。   The frame information storage unit 47 holds and accumulates the processing results obtained by the preprocessing unit 43, the overall center-of-gravity specifying unit 44, the region dividing unit 45, and the end point specifying unit 46 as information relating to an image of one frame. When information related to a predetermined number of frames of images is accumulated in the frame information storage unit 47 or by arbitrary triggering by the user, behavior analysis such as detection and classification of the type behavior of the mouse 12 is performed.

以下、メインルーチンのフローチャートである図2、及び必要に応じて図3及びサブルーチンのフローチャートである図4を参照しつつ、本実施形態の情報処理装置20による処理の流れについて説明を行う。いま、撮影制御部41からの指示によりカメラ11が観察箱10内部の動画を撮影し、該動画を構成するI個の連続するフレームの画像を、画像取得部42が取得したものとする。   Hereinafter, the flow of processing performed by the information processing apparatus 20 according to the present embodiment will be described with reference to FIG. 2 which is a flowchart of the main routine, and FIG. 3 which is a flowchart of a subroutine as needed. Now, it is assumed that the camera 11 captures a moving image inside the observation box 10 according to an instruction from the shooting control unit 41, and the image acquisition unit 42 acquires images of I consecutive frames constituting the moving image.

まず、行動解析プログラム32が、フレーム番号を示す変数i(1≦i≦I)を1とし(ステップS101)、前処理部43が、画像取得部42が取得した上記複数フレームの画像のうち最初の画像(例えば図3(a))を取得し(ステップS102)、該画像の二値化を行う(ステップS103)。ステップS103における二値化後に画像中にノイズが残っていれば、これを適宜の方法により除去する。続いて、全体重心特定部44がマウス領域13の全体重心C(図3(b)参照)を特定する(ステップS104:本発明の全体重心特定ステップに相当)。   First, the behavior analysis program 32 sets the variable i indicating the frame number (1 ≦ i ≦ I) to 1 (step S101), and the preprocessing unit 43 first selects the first frame image acquired by the image acquisition unit 42. (For example, FIG. 3A) is acquired (step S102), and the image is binarized (step S103). If noise remains in the image after binarization in step S103, it is removed by an appropriate method. Subsequently, the overall center of gravity specifying unit 44 specifies the overall center of gravity C (see FIG. 3B) of the mouse region 13 (step S104: corresponding to the overall center of gravity specifying step of the present invention).

次に、領域分割部45が、マウス領域13内に2つのクラスタ中心fC及びrCの初期値fCi,1及びrCi,1を定める(ステップS105)。本ステップに係る処理の詳細は後述するが、現在は1番目のフレームに係る処理中であるので、これらの初期値fC1,1及びrC1,1は任意に定められる(例えば図3(c)のクラスタ中心fC及びrCを参照)。ここで、初期値fC1,1及びrC1,1は任意に定められると述べたが、fC1,1は少なくともrC1,1に対して前方に定められることが好ましい。具体的には、例えばユーザが目視判断に基づいて入力部24を介して指定してもよいし、別の画像認識手法を用いてマウス領域13の前後を自動認識させることでfC1,1、rC1,1をそれぞれ前方、後方のランダムな位置に定めてもよい。このように予めクラスタ中心の前後のみ規定しておくことで、後述の前後各端部の特定処理にて鼻先と尾の付け根とが逆転してしまう検出ミスを防止することができる。 Next, the region dividing unit 45 determines the initial values fC i, 1 and rC i, 1 of the two cluster centers fC i and rC i in the mouse region 13 (step S105). Although details of the processing related to this step will be described later, since the processing related to the first frame is currently being performed, these initial values fC 1,1 and rC 1,1 are arbitrarily determined (for example, FIG. ) Cluster center fC 1 and rC 1 ). Here, it has been described that the initial values fC 1,1 and rC 1,1 are arbitrarily determined, but it is preferable that fC 1,1 is determined at least in front of rC 1,1 . Specifically, for example, the user may specify via the input unit 24 based on visual judgment, or by automatically recognizing the front and back of the mouse region 13 using another image recognition method, fC 1,1 , rC 1 and 1 may be set at random positions on the front and rear, respectively. By predefining only the front and back of the cluster center in this way, it is possible to prevent a detection error in which the tip of the nose and the base of the tail are reversed in the specific processing of the front and rear ends described later.

続いて、領域分割部45は、マウス領域13内の画素に対しk-meansクラスタリングを適用し、マウス領域13をまずはfC1,1、rC1,1をそれぞれ重心とする2つの領域に分割する(ステップS106:本発明の領域分割ステップに相当)。 Subsequently, the region dividing unit 45 applies k-means clustering to the pixels in the mouse region 13, and first divides the mouse region 13 into two regions having fC 1,1 and rC 1,1 as centroids, respectively. (Step S106: equivalent to the region dividing step of the present invention).

本ステップから開始するk-meansクラスタリングによる領域分割の手順について、図3を参照して説明を行う。   The procedure of region division by k-means clustering starting from this step will be described with reference to FIG.

まず、上述のステップS102〜S105により、図3(c)に示すように所与の位置に2つのクラスタ中心fC及びrCの初期値fC及びrCが定められた。なお、図3は全フレームに共通の手順であるため、符号中のフレーム番号iが省略されている。 First, the initial values fC 1 and rC 1 of the two cluster centers fC and rC were determined at given positions as shown in FIG. 3C by the above-described steps S102 to S105. Since FIG. 3 shows a procedure common to all frames, the frame number i in the code is omitted.

次に、同図(d)に示すように前後2つの領域F及びRに各画素が割り当てられる。この領域F及びRは、初期値として定められたクラスタ中心fCとrCとを結ぶ線分の垂直二等分線(ボロノイ境界)を境界としている。画素の割り当てがなされると、続いて同図(e)に示すようにクラスタ中心がfC及びrCとして更新される。fC及びrCは、領域F及びR内の各画素からの距離の総和を最小化する位置に定められる。続いてこのfC及びrCについてもボロノイ境界が定められ、これに基づく領域F及びRへの画素の割り当てが行われる(同図(f))。そして領域F及びRに対してクラスタ中心がfC及びrCとして更新される(同図(g))。 Next, as shown in FIG. 4D, each pixel is assigned to the front and rear two regions F 1 and R 1 . The regions F 1 and R 1 have a perpendicular bisector (Voronoi boundary) connecting the cluster center fC 1 defined as the initial value and rC 1 as a boundary. When the pixels are assigned, the cluster centers are updated as fC 2 and rC 2 as shown in FIG. fC 2 and rC 2 are determined at positions that minimize the sum of the distances from the respective pixels in the regions F 1 and R 1 . Subsequently, Voronoi boundaries are determined for these fC 2 and rC 2 , and pixels are assigned to the regions F 2 and R 2 based on this boundary ((f) in the figure). Then, the cluster centers are updated as fC 3 and rC 3 for the regions F 2 and R 2 ((g) in the figure).

以上のような処理を繰り返し、更新によるデータ値の変化量が所定の閾値を下回ったとき(例えばクラスタ中心fC及びrCの座標値についてfCn+1−fC<Th且つrCn+1−rC<Thが成立;Thは所定の閾値)、領域分割部45はクラスタリングが収束したと判定する(S107でYes)。上記変化量が閾値以上であれば(S107でNo)、領域分割部45は上述したクラスタ中心の更新と領域分割とを継続する。 When the processing described above is repeated and the amount of change in the data value due to the update falls below a predetermined threshold (for example, fC n + 1 −fC n <Th and rC n + 1 −rC n <Th for the coordinate values of the cluster centers fC and rC are Established; Th is a predetermined threshold value), the area dividing unit 45 determines that the clustering has converged (Yes in S107). If the amount of change is equal to or greater than the threshold (No in S107), the region dividing unit 45 continues the above-described cluster center update and region division.

クラスタリングが収束したと判定された時点でのフレーム画像の例を図3(h)に示す。この画像の情報を元に、領域分割部45はFを前部領域、Rを後部領域とし、fC、rCを前後の各重心として確定する(ステップS108:本発明の端部重心特定ステップに相当)。 An example of a frame image at the time when it is determined that the clustering has converged is shown in FIG. Based on this image information, the region dividing unit 45 determines F n as the front region, R n as the rear region, and fC n and rC n as the front and rear centroids (step S108: end centroid of the present invention). Equivalent to a specific step).

次に、端点特定部46が、前部領域Fのうち全体重心Cから最も遠い点(正確には画素)をマウス12の鼻先51と特定し(ステップS109)、後部領域Rのうち全体重心Cから最も遠い点(画素)をマウス12の尾の付け根52と特定する(ステップS110)。これらのステップはそれぞれ本発明の端点特定ステップに相当し、実行順序は逆であっても構わない。 Then, the end point identifying section 46, the point farthest from the total center of gravity C of the front region F n (the exact pixel) identified as nose 51 of the mouse 12 (step S109), the whole of the rear region R n A point (pixel) farthest from the center of gravity C is identified as the base 52 of the tail of the mouse 12 (step S110). Each of these steps corresponds to an end point specifying step of the present invention, and the execution order may be reversed.

次いで前処理部43はiをインクリメントし(ステップS111)、iが動画を構成するフレーム数Iを上回っていなければ(ステップS112でNo)、次なるフレーム画像について、ステップS102〜S112を実行する。   Next, the preprocessing unit 43 increments i (step S111), and if i does not exceed the number I of frames constituting the moving image (No in step S112), executes steps S102 to S112 for the next frame image.

一方、ステップS111におけるインクリメントの結果、iがIを上回った場合(ステップS112でYes)、この判定結果は動画中の全フレームについて全体重心の特定、領域分割、前後各重心の特定、並びに鼻先及び尾の付け根の特定が完了したことを意味するので、処理は終了となる。
なお、ステップS104、S108〜S110における処理結果は逐次フレーム情報記憶部47に保存され、全フレームについての情報が蓄積された後、種々の行動解析に用いられる元データとなる。
On the other hand, if i exceeds I as a result of the increment in step S111 (Yes in step S112), the determination result is the identification of the entire center of gravity, the region division, the identification of each center of gravity before and after, Since this means that the identification of the base of the tail has been completed, the processing is terminated.
The processing results in steps S104 and S108 to S110 are sequentially stored in the frame information storage unit 47, and after the information about all the frames is accumulated, it becomes original data used for various behavior analysis.

以上説明した処理によれば、動画を構成する各フレームについて画像が二値化されてマウス領域13が画定され、全体重心Cが特定される。そして、k-meansクラスタリング(k=2)によりマウス領域13が前部領域Fと後部領域Rとに分割されるとともに、2つのクラスタ中心fC、rCが前後の各重心として特定される。さらに、前部領域F、後部領域Rのうち全体重心Cから最も遠い点がそれぞれマウス12の鼻先51、尾の付け根52として特定される。 According to the processing described above, the image is binarized for each frame constituting the moving image, the mouse region 13 is defined, and the entire center of gravity C is specified. The mouse region 13 is divided into the front region F n and the rear region R n by k-means clustering (k = 2), and the two cluster centers fC n and rC n are specified as the front and rear centroids. The Furthermore, the points farthest from the overall center of gravity C of the front region F n and the rear region R n are specified as the nose tip 51 and the base of the tail 52 of the mouse 12, respectively.

ここで、ステップS105における、前後2つのクラスタ中心の初期値fCi,1及びrCi,1を定める処理について、図4を参照して説明する。
まず、iが1に等しいか、すなわち現在処理中の画像が動画中の最初のフレームであるか否かの判定が行われる(ステップS201)。iが1に等しければ(S201でYes)、上述のステップS105の説明にて記載したように、ユーザ入力(又は上述した画像認識手法を用いた設定)に基づき初期値fC1,1及びrC1,1を決定する(ステップS202)。
一方、iの値が2以上であると判定された場合(S201でNo)、この判定結果は既に直前のフレームにおける前後のクラスタ中心が確定済みであることを意味する。このとき、領域分割部45は、前フレームにて前部重心及び後部重心として確定したクラスタ中心fCi−1,n及びrCi−1,nを、現在処理中のフレームの初期値fCi,1及びrCi,1とする(ステップS203)。
Here, the process of determining the initial values fC i, 1 and rC i, 1 of the two front and rear cluster centers in step S105 will be described with reference to FIG.
First, it is determined whether i is equal to 1, that is, whether the image currently being processed is the first frame in the moving image (step S201). If i is equal to 1 (Yes in S201), the initial values fC 1,1 and rC 1 are set based on the user input (or the setting using the image recognition method described above) as described in the description of step S105 above. , 1 is determined (step S202).
On the other hand, when it is determined that the value of i is 2 or more (No in S201), this determination result means that the cluster centers before and after the previous frame have already been determined. At this time, the region dividing unit 45 uses the cluster centers fC i−1, n and rC i−1, n determined as the front center of gravity and the rear center of gravity in the previous frame as the initial values fC i, n of the currently processed frame . 1 and rC i, 1 are set (step S203).

通常の撮影動画において、連続するフレーム間でマウス12の前後が逆転するほどの急激な姿勢変化が起こることは稀である。従って、このように直前フレームで確定したクラスタ中心fCi−1,n及びrCi−1,nを今回の初期値fCi,1及びrCi,1として利用することで、ユーザが目視で前後を定めずとも、前後認識の逆転に起因する鼻先51及び尾の付け根52の検出ミスが防止される。また、本構成によれば、マウス領域13の輪郭を認識して該輪郭の形状から鼻先を特定するといった特許文献1に記載のような処理を不要とすることができる。 In normal captured moving images, it is rare that the posture changes so rapidly that the front and rear of the mouse 12 are reversed between successive frames. Therefore, by using the cluster centers fC i−1, n and rC i−1, n determined in the previous frame as the initial values fC i, 1 and rC i, 1 in this way, the user can visually check Is not detected, the detection mistake of the nose tip 51 and the base of the tail 52 due to the reverse of the front-rear recognition is prevented. Moreover, according to this structure, the process like patent document 1 which recognizes the outline of the mouse | mouth area | region 13 and identifies a nose tip from the shape of this outline can be made unnecessary.

〔実験例1:鼻先のトラッキング〕
本実施形態の効果を確認するため、以下の条件でマウス12の鼻先のトラッキング精度について評価実験を行った。
データセットとして、マウス12の自由行動を30秒間に亘り撮影した100個の動画から、それぞれ連続する5フレームの画像をサンプリングした。すなわち、解析対象画像の総数は500である。これら500個の画像の各々について、本発明者らが目視に基づき手動でマーク(アノテーション)した鼻先位置からの距離を評価指標とし、従来用いられている楕円フィッティングと、現在広く使用されている商用ソフトウェアであるNoldus社製のEthoVision XT(登録商標)と、本実施形態を適用した提案手法とで、鼻先のトラッキング精度を比較した。
[Experimental example 1: Tracking of nose tip]
In order to confirm the effect of this embodiment, an evaluation experiment was performed on the tracking accuracy of the nose tip of the mouse 12 under the following conditions.
As a data set, images of five consecutive frames were sampled from 100 moving images obtained by photographing the free movement of the mouse 12 over 30 seconds. That is, the total number of analysis target images is 500. For each of these 500 images, the distance from the nose tip position manually marked (annotated) by the present inventors based on visual observation is used as an evaluation index, and conventionally used elliptical fitting and currently widely used commercial fittings are used. The tracking accuracy of the tip of the nose was compared between EthoVision XT (registered trademark) manufactured by Noldus, which is software, and the proposed method to which this embodiment is applied.

上記評価実験の結果を図5に示す。横軸はアノテーション位置からの距離(画素数)を、縦軸は累積分布(%)を表す。同図に示すとおり、特定された鼻先の位置が上記アノテーション位置から10画素(一点鎖線で示す)以内に含まれる割合は、楕円トラッキング及び商用ソフトウェアでは45%及び74%であった。これに対し、本実施形態を用いた提案手法では94%と非常に高い精度でマウス12の鼻先を追跡可能であった。   The results of the evaluation experiment are shown in FIG. The horizontal axis represents the distance (number of pixels) from the annotation position, and the vertical axis represents the cumulative distribution (%). As shown in the figure, the ratio of the identified nose tip position within 10 pixels (indicated by the alternate long and short dash line) from the annotation position was 45% and 74% in elliptical tracking and commercial software. On the other hand, with the proposed method using this embodiment, the nose tip of the mouse 12 can be traced with a very high accuracy of 94%.

以上のとおり、本実施形態によれば、k-meansクラスタリングによりマウス領域13を前後に2分割し、前部領域F内でマウス領域13の全体重心Cから最も遠い点を求めるという簡易な手法により鼻先51を高精度に追跡できる。また、本実施形態によるトラッキングでは物理モデルや楕円形へのフィッティングを行わないため、胴体部の屈曲や細かな動作に起因する誤差が少なく、高い堅牢性が維持されている。 As described above, according to the present embodiment, the mouse area 13 is divided into front and rear by k-means clustering, simple method of determining the furthest point from the total center of gravity C mouth area 13 in the front region F n Thus, the nose tip 51 can be tracked with high accuracy. In addition, since tracking according to the present embodiment does not perform fitting to a physical model or an ellipse, there is little error due to bending or fine movement of the body, and high robustness is maintained.

〔第2の実施形態〕
上記第1の実施形態ではマウス領域13を前後2つの領域に分割する構成について説明したが、さらに多くの領域、例えば3つの領域に分割してもよい。すなわち、図2に示すフローチャートのステップS106においてk=3とすればよい。但し、本実施形態では3つのクラスタ中心のうち1つを全体重心Cに固定し、他のクラスタ中心fC及びrCのみを更新する構成とする。
[Second Embodiment]
In the first embodiment, the configuration in which the mouse region 13 is divided into the front and rear regions has been described. However, the mouse region 13 may be divided into more regions, for example, three regions. That is, k = 3 may be set in step S106 of the flowchart shown in FIG. However, in this embodiment, one of the three cluster centers is fixed to the entire center of gravity C, and only the other cluster centers fC and rC are updated.

図6を参照して、本実施形態におけるk-meansクラスタリングを用いたマウス領域13の分割手順について説明を行う。
図6(a)及び(b)は図3(b)及び(c)に対応する。但し図3(c)では説明の簡略化と図の見易さのために全体重心Cの図示を省略している。
本実施形態ではここより先の処理が異なっている。図6(c)に、fC、C及びrCの3つのクラスタ中心によるマウス領域13の分割の様子を示す。上記第1の実施形態にて説明した所謂ボロノイ境界により、マウス領域13はまず前部領域Fと中部領域Mと後部領域Rとに分割される。次に、これら3領域F、M及びRに基づきクラスタ中心fC及びrCがfC及びrCに更新される(図6(d))。上記のとおり全体重心Cは固定されたクラスタ中心であり、更新の対象ではない。この後さらに領域F、M及びR(不図示)に対応する画素の割り当てとfC及びrCの更新がなされ、同様の処理を繰り返した後、3領域内の各画素と3つのクラスタ中心(全体重心Cを含む)との距離の総和が最小になった時点でクラスタリングは収束する(図6(e))。
With reference to FIG. 6, the division | segmentation procedure of the mouse | mouth area | region 13 using the k-means clustering in this embodiment is demonstrated.
6 (a) and 6 (b) correspond to FIGS. 3 (b) and 3 (c). However, in FIG. 3C, the entire center of gravity C is not shown for the sake of simplification of description and easy viewing of the drawing.
In the present embodiment, the processing ahead is different. FIG. 6C shows how the mouse region 13 is divided by the three cluster centers of fC 1 , C and rC 1 . By a so-called Voronoi boundary explained in the first embodiment, the mouse area 13 is first divided into front region F 1 and central area M 1 and the rear region R 1. Next, the cluster centers fC 1 and rC 1 are updated to fC 2 and rC 2 based on these three regions F 1 , M 1 and R 1 (FIG. 6 (d)). As described above, the entire center of gravity C is a fixed cluster center and is not an update target. Thereafter, the pixels corresponding to the regions F 2 , M 2, and R 2 (not shown) are allocated and the fC 2 and rC 2 are updated. After the same processing is repeated, each pixel in the three regions and three Clustering converges when the sum of the distances from the cluster center (including the entire center of gravity C) is minimized (FIG. 6 (e)).

〔実験例2:頭部の向きの推定〕
本実施形態の効果を確認するため、以下の条件でマウス12の頭部の向きの推定精度について評価実験を行った。図7及び図8を参照して説明を行う。
データセットについては上記第1の実施形態における実験例1と同一である。上記500個の画像の各々について、本発明者らが目視で特定した頭部の向き(以下、便宜的に「実際の頭部の向き60」と称す)(一例を図7(a)に破線矢印で示す)との角度差θ(°)を評価指標とし、楕円フィッティングと、本実施形態を用いた提案手法で特定された3点(鼻先51、全体重心C及び尾の付け根52)に基づく場合と、同提案手法で特定された5点(鼻先51、前部重心fC、全体重心C、後部重心rC及び尾の付け根52)に基づく場合とで、頭部の向きの推定精度を比較した。
[Experimental example 2: Estimation of head orientation]
In order to confirm the effect of this embodiment, an evaluation experiment was performed on the estimation accuracy of the orientation of the head of the mouse 12 under the following conditions. This will be described with reference to FIGS.
The data set is the same as Experimental Example 1 in the first embodiment. For each of the 500 images, the head orientation visually identified by the present inventors (hereinafter referred to as “actual head orientation 60” for convenience) (an example is a broken line in FIG. 7A). An angle difference θ (°) from an arrow) is used as an evaluation index, and is based on ellipse fitting and three points (the nose tip 51, the entire center of gravity C, and the base of the tail 52) specified by the proposed method using this embodiment. And the case based on the five points (the nose tip 51, the front center of gravity fC n , the total center of gravity C, the rear center of gravity rC n and the tail base 52) specified by the proposed method, Compared.

楕円フィッティング、本実施形態を用いた提案手法(3点)、及び同提案手法(5点)により推定された頭部の向き61、62及び63を図7(b)、(c)及び(d)に実線矢印で示す。同図(b)から明らかなように、楕円フィッティングでは楕円の延伸方向の両端を鼻先51a及び尾の付け根52aとするため、全体重心Cと鼻先51aとの位置関係により推定される頭部の向き61は、実際の頭部の向き60に対し大きなずれが生じている。一方、提案手法(3点)では、全体重心Cと鼻先51との位置関係により推定される頭部の向き62は、上記の楕円フィッティングと比較すれば実際の頭部の向き60とのずれは軽減されているものの、マウス12の視線を測定するに十分とは言い難い。この「提案手法(3点)」は、上記の商用ソフトウェア(アルゴリズム非公開)による推定結果を想定した参考データである。
これに対し、提案手法(5点)では、同図(d)に示すように、前部重心fCと鼻先51との位置関係から推定される頭部の向き63は、実際の頭部の向き60と殆ど一致するほどに角度差θ(図示は省略)が小さくなっている。
Ellipse fitting, the proposed method using this embodiment (3 points), and head orientations 61, 62 and 63 estimated by the proposed method (5 points) are shown in FIGS. ) With solid arrows. As can be seen from FIG. 5B, in the ellipse fitting, both ends of the ellipse in the extending direction are the nose tip 51a and the base 52a of the tail, and therefore the head orientation estimated from the positional relationship between the overall center of gravity C and the nose tip 51a. 61 is greatly deviated from the actual head direction 60. On the other hand, in the proposed method (three points), the head orientation 62 estimated from the positional relationship between the total center of gravity C and the nose tip 51 is not different from the actual head orientation 60 compared to the above-described elliptic fitting. Although alleviated, it is difficult to say that it is sufficient to measure the line of sight of the mouse 12. This “proposed method (3 points)” is reference data assuming an estimation result by the commercial software (algorithm not disclosed).
On the other hand, in the proposed method (5 points), as shown in FIG. 4D, the head direction 63 estimated from the positional relationship between the front center of gravity fC n and the nose tip 51 is The angle difference θ (not shown) becomes smaller as it almost coincides with the direction 60.

上述した評価実験の結果を図8に示す。本実験例でも、上記実験例1と類似の傾向が見られ、本実施形態を用いた提案手法(5点)では、少なくとも楕円フィッティングと比較して非常に高い推定精度が認められた。   The results of the evaluation experiment described above are shown in FIG. In this experimental example, a tendency similar to that of Experimental Example 1 was observed, and in the proposed method (5 points) using this embodiment, a very high estimation accuracy was recognized at least as compared with the elliptical fitting.

そして、鼻先51、前部重心fC、全体重心C、後部重心rC及び尾の付け根52の5点の位置関係を参照すれば、マウス12が全体としてどのような姿勢をとっているかがよく把握できる。従って、上述のようにして求めた頭部の向き63と、胴体部の向き(例えば全体重心Cと後部重心rC(又は尾の付け根52)との位置関係から推定される)との角度差、すなわちマウス12の胴体部に対する頭部の傾き角度を高精度に求めることが可能となる。 Then, referring to the positional relationship of the five points of the nose tip 51, the front center of gravity fC n , the total center of gravity C, the rear center of gravity rC n and the base of the tail 52, it is good to know what posture the mouse 12 takes as a whole. I can grasp. Accordingly, the angle difference between the head direction 63 obtained as described above and the body part direction (e.g., estimated from the positional relationship between the overall center of gravity C and the rear center of gravity rC n (or tail base 52)). That is, the tilt angle of the head with respect to the trunk of the mouse 12 can be obtained with high accuracy.

なお、本実験例において上記第1の実施形態(k=2)を用いても類似の効果が得られる。第1の実施形態を用いて得られた結果を図9にて一点鎖線で示す。同図に示すとおり、k=3とした本実施形態と比較するとやや劣るものの良好な結果が得られている。これは、マウス12が、体長(頭胴長)に占める頭長の割合が比較的大きい動体であることに起因すると考えられる。すなわち、マウス領域13の分割数が3から2に減少したことによってずれた前部重心fCの位置はマウス12においては後頭部付近(図7(d)よりもやや後方)であり、従って頸部の屈曲等の影響を受け難い。一方で、体長に占める頭長の割合が小さい動体(例えばネコ等)においては、頭部の向きの推定における分割数の増大はより有効であると考えられる。このように、kの値は観察対象の動体の形態や動作の特性によって適宜に定められることが好ましい。本発明者らが行った検証によれば、マウス12に関して鼻先51のトラッキングや頭部の向きの推定を目的とする場合には、kの値は3が最も適しているようである。kの値を大きくし過ぎるとマウス領域13が体幅方向にも分割されてしまう場合がある。 In the present experimental example, similar effects can be obtained even if the first embodiment (k = 2) is used. The result obtained by using the first embodiment is shown by a one-dot chain line in FIG. As shown in the figure, a good result is obtained although it is slightly inferior to the present embodiment in which k = 3. This is considered to be because the mouse 12 is a moving body in which the ratio of the head length to the body length (head torso length) is relatively large. That is, the position of the front center of gravity fC n which is shifted due to the decrease in the number of divisions of the mouse region 13 from 3 to 2 is near the back of the head (slightly behind FIG. 7 (d)) in the mouse 12, and thus the neck It is hard to be affected by the bending of On the other hand, it is considered that an increase in the number of divisions in the estimation of the head orientation is more effective for a moving body (for example, a cat or the like) that has a small ratio of the head length to the body length. Thus, it is preferable that the value of k is appropriately determined depending on the form of the moving object to be observed and the characteristics of the operation. According to the verification performed by the present inventors, when the purpose is to track the nose tip 51 or to estimate the head direction with respect to the mouse 12, the value of k seems to be most suitable. If the value of k is increased too much, the mouse region 13 may be divided in the body width direction.

以上のとおり、本実施形態によれば、マウスの頭部の向きを従来よりも高い精度で推定できる。すなわち、マウスの視線のトラッキングが可能となる。さらに、胴体部に対する頭部の傾き角度を求めることにより、進行方向から視線を大きく動かして対象に注意を向けているといった重要な動作も正しく検出することができる。これにより、近年注目されているマウスの社会的行動の解析において極めて有用な評価方法を提供し得る。
また、後部重心rCを特定することにより、頭部の向きだけでなく体の伸び等の姿勢も検出することが可能である。
As described above, according to the present embodiment, the orientation of the head of the mouse can be estimated with higher accuracy than before. That is, it becomes possible to track the line of sight of the mouse. Furthermore, by obtaining the tilt angle of the head with respect to the body part, it is possible to correctly detect an important operation such as moving the line of sight largely from the traveling direction and directing attention to the subject. As a result, it is possible to provide an evaluation method that is extremely useful in analyzing social behaviors of mice that have attracted attention in recent years.
Further, by specifying the rear center of gravity rC n , it is possible to detect not only the direction of the head but also the posture such as the extension of the body.

〔変更例〕
本発明は上述した各実施形態に限定されるものではなく、本発明の趣旨の範囲で適宜変更が許容される。
例えば、上述の各実施形態ではマウス領域13を分割する手法としてk-meansクラスタリングを用いているが、別の機械学習アルゴリズムを用いて領域分割を行うことも可能である。そのようなアルゴリズムとしては、例えばウォード法や混合ガウス分布を挙げることができる。
さらに、k-meansクラスタリングにおいては、kの値を2又は3と定めた例を挙げたが、kの具体的な値は、観察対象となる動体の形状や観察の目的に応じて適宜変更されればよい。
また、頭部の向きの推定は家畜の発情行動や社会的行動の検出に有用であるが、こうした解析を行わない場合には、前後の重心を特定する工程を省略してもよい。
[Example of change]
The present invention is not limited to the above-described embodiments, and appropriate modifications are allowed within the scope of the gist of the present invention.
For example, in each of the above-described embodiments, k-means clustering is used as a method for dividing the mouse region 13, but region division can also be performed using another machine learning algorithm. Examples of such an algorithm include the Ward method and a mixed Gaussian distribution.
Furthermore, in k-means clustering, examples have been given in which the value of k is set to 2 or 3, but the specific value of k is appropriately changed depending on the shape of the moving object to be observed and the purpose of observation. Just do it.
In addition, the estimation of the head orientation is useful for detecting estrus behavior and social behavior of livestock, but when such analysis is not performed, the step of specifying the front and back centroids may be omitted.

〔本発明の応用先〕
上述の各実施形態では動体としてマウス12を挙げたが、本発明の動体はこれに限定されず、ラットは勿論のこと、イヌ、ネコ及びウマ等の四足動物、並びに鳥類や一部の細胞(神経細胞、ガン細胞及び免疫細胞等のように、所定の環境下で極性を有する移動を行う細胞)等であってもよい。上記鳥類の一例として、ニワトリ等の一部の家禽では、何らかの刺激により惹起された或る個体の走駆行動に誘導されて群れ全体が飼育場の壁に向かって集合し、これが原因で多数の個体が圧死してしまうという問題がある。本発明によれば、こうした集合動作を検出することで飼育管理者に警告通知を行う等の方法により、家禽の圧死による経済的損失を防止することも可能となる。
[Application of the present invention]
In each of the above-described embodiments, the mouse 12 is used as the moving body. However, the moving body of the present invention is not limited to this, and not only rats but also quadruped animals such as dogs, cats and horses, birds, and some cells. (Cells that move with polarity in a predetermined environment, such as nerve cells, cancer cells, and immune cells). As an example of the above birds, in some poultry such as chickens, the whole group gathers toward the breeding wall induced by the running behavior of an individual caused by some kind of stimulus, and this causes many There is a problem that individuals are overwhelmed. According to the present invention, it is possible to prevent economic loss due to crushing of poultry by a method such as notifying the breeding manager of a warning by detecting such a collective action.

10…観察箱
11…カメラ
12…マウス
13…マウス領域
20…情報処理装置
21…CPU
22…メモリ
23…表示部
24…入力部
25…I/F
30…記憶部
32…行動解析プログラム
41…撮影制御部
42…画像取得部
43…前処理部
44…全体重心特定部
45…領域分割部
46…端点特定部
47…フレーム情報記憶部
51、51a…鼻先
52、52a…尾の付け根
60…実際の頭部の向き
61、62、63…推定された頭部の向き
C…全体重心
fC…クラスタ中心
fCn…前部重心
F…前部領域
M…中部領域
rC…クラスタ中心
rCn…後部重心
R…後部領域
θ…角度差
DESCRIPTION OF SYMBOLS 10 ... Observation box 11 ... Camera 12 ... Mouse 13 ... Mouse area | region 20 ... Information processing apparatus 21 ... CPU
22 ... Memory 23 ... Display 24 ... Input 25 ... I / F
DESCRIPTION OF SYMBOLS 30 ... Memory | storage part 32 ... Behavior analysis program 41 ... Shooting control part 42 ... Image acquisition part 43 ... Pre-processing part 44 ... Whole gravity center specific part 45 ... Area division | segmentation part 46 ... End point specific part 47 ... Frame information storage part 51, 51a ... Nose tip 52, 52a ... Tail root 60 ... Actual head orientation 61, 62, 63 ... Estimated head orientation C ... Overall center of gravity fC ... Cluster center fCn ... Front center of gravity F ... Front region M ... Middle Area rC ... Cluster center rCn ... Rear center of gravity R ... Rear area θ ... Angular difference

Claims (13)

動体の動作を、撮像部により撮像された該動体の複数フレームの画像から自動的に認識する認識装置であって、
a) 前記画像中で前記動体に対応する動体領域の重心である全体重心を特定する全体重心特定手段と、
b) 前記動体領域を機械学習アルゴリズムを用いて複数の領域に分割する領域分割手段と、
c) 前記領域分割手段が分割した複数の領域のうち所定領域において、前記全体重心から最も遠い点を前記動体の端点として特定する端点特定手段と、
を備えることを特徴とする動作認識装置。
A recognition device that automatically recognizes the motion of a moving object from a plurality of frames of images of the moving object imaged by an imaging unit,
a) an overall center of gravity specifying means for specifying an overall center of gravity that is a center of gravity of the moving object region corresponding to the moving object in the image;
b) area dividing means for dividing the moving object area into a plurality of areas using a machine learning algorithm;
c) end point specifying means for specifying a point farthest from the overall center of gravity as an end point of the moving object in a predetermined area among the plurality of areas divided by the area dividing means;
A motion recognition apparatus comprising:
前記動体は前後軸を有する動物であり、
前記領域分割手段は、前記動体領域を前後方向に分割し、
前記端点特定手段は、前記複数の領域のうち前記前後方向の一方の端部に位置する領域である端部領域において、前記全体重心から最も遠い点を前記動体の端点として特定することを特徴とする請求項1に記載の動作認識装置。
The moving body is an animal having a longitudinal axis;
The area dividing means divides the moving object area in the front-rear direction,
The end point specifying means specifies, as an end point of the moving object, a point farthest from the overall center of gravity in an end region that is a region located at one end in the front-rear direction among the plurality of regions. The motion recognition apparatus according to claim 1.
d) 前記端部領域の重心を特定する端部重心特定手段
をさらに備えることを特徴とする請求項2に記載の動作認識装置。
The motion recognition apparatus according to claim 2, further comprising: d) an end portion center of gravity specifying unit that specifies a center of gravity of the end region.
前記端部重心特定手段は、直前に特定した前記端部領域の重心を、次フレームにおいて特定すべき前記端部領域の重心の初期値とすることを特徴とする請求項3に記載の動作認識装置。   4. The motion recognition according to claim 3, wherein the end portion center-of-gravity specifying unit sets the center of gravity of the end region specified immediately before as an initial value of the center of gravity of the end region to be specified in a next frame. apparatus. 前記領域分割手段が用いる機械学習アルゴリズムがk-meansクラスタリングであることを特徴とする請求項1〜4のいずれかに記載の動作認識装置。   The motion recognition apparatus according to claim 1, wherein the machine learning algorithm used by the region dividing unit is k-means clustering. 前記領域分割手段は、予備実験の結果に基づいて前記動体領域の分割数を決定することを特徴とする請求項1〜5のいずれかに記載の動作認識装置。   The motion recognition apparatus according to claim 1, wherein the region dividing unit determines the number of divisions of the moving object region based on a result of a preliminary experiment. 動体の動作を、撮像部により撮像された該動体の複数フレームの画像から自動的に認識する認識方法であって、
a) 前記画像中で前記動体に対応する動体領域の重心である全体重心を特定する全体重心特定ステップと、
b) 前記動体領域を機械学習アルゴリズムを用いて複数の領域に分割する領域分割ステップと、
c) 前記領域分割ステップにて分割した複数の領域のうち所定領域において、前記全体重心から最も遠い点を前記動体の端点として特定する端点特定ステップと、
を含むことを特徴とする動作認識方法。
A recognition method for automatically recognizing a motion of a moving object from a plurality of frames of images of the moving object imaged by an imaging unit,
a) an overall center of gravity specifying step for specifying an overall center of gravity that is a center of gravity of a moving object region corresponding to the moving object in the image;
b) a region dividing step of dividing the moving object region into a plurality of regions using a machine learning algorithm;
c) an end point specifying step for specifying a point farthest from the overall center of gravity as an end point of the moving body in a predetermined region among the plurality of regions divided in the region dividing step;
A motion recognition method comprising:
前記動体は前後軸を有する動物であり、
前記領域分割ステップにて、前記動体領域を前後方向に分割し、
前記端点特定ステップにて、前記複数の領域のうち前記前後方向の一方の端部に位置する領域である端部領域において、前記全体重心から最も遠い点を前記動体の端点として特定することを特徴とする請求項7に記載の動作認識方法。
The moving body is an animal having a longitudinal axis;
In the region dividing step, the moving object region is divided in the front-rear direction,
In the end point specifying step, a point farthest from the overall center of gravity is specified as an end point of the moving body in an end region that is a region located at one end in the front-rear direction among the plurality of regions. The motion recognition method according to claim 7.
d) 前記端部領域の重心を特定する端部重心特定ステップ
をさらに含むことを特徴とする請求項8に記載の動作認識方法。
The motion recognition method according to claim 8, further comprising: d) an end portion center of gravity specifying step of specifying a center of gravity of the end region.
前記端部重心特定ステップにて、直前に特定した前記端部領域の重心を、次フレームにおいて特定すべき前記端部領域の重心の初期値とすることを特徴とする請求項9に記載の動作認識方法。   The operation according to claim 9, wherein, in the end portion center of gravity specifying step, the center of gravity of the end region specified immediately before is set as an initial value of the center of gravity of the end region to be specified in the next frame. Recognition method. 前記領域分割ステップにて用いる機械学習アルゴリズムがk-meansクラスタリングであることを特徴とする請求項7〜10のいずれかに記載の動作認識方法。   The motion recognition method according to claim 7, wherein the machine learning algorithm used in the region dividing step is k-means clustering. 前記領域分割ステップにて、予備実験の結果に基づいて前記動体領域の分割数を決定することを特徴とする請求項7〜11のいずれかに記載の動作認識方法。   The motion recognition method according to claim 7, wherein, in the region dividing step, the number of divisions of the moving object region is determined based on a result of a preliminary experiment. コンピュータを請求項1〜6のいずれかに記載の動作認識装置の各手段として機能させるための制御プログラム。   The control program for functioning a computer as each means of the action recognition apparatus in any one of Claims 1-6.
JP2014136732A 2014-07-02 2014-07-02 Motion recognition device and motion recognition method Expired - Fee Related JP6346007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014136732A JP6346007B2 (en) 2014-07-02 2014-07-02 Motion recognition device and motion recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136732A JP6346007B2 (en) 2014-07-02 2014-07-02 Motion recognition device and motion recognition method

Publications (2)

Publication Number Publication Date
JP2016015016A JP2016015016A (en) 2016-01-28
JP6346007B2 true JP6346007B2 (en) 2018-06-20

Family

ID=55231151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136732A Expired - Fee Related JP6346007B2 (en) 2014-07-02 2014-07-02 Motion recognition device and motion recognition method

Country Status (1)

Country Link
JP (1) JP6346007B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828065B2 (en) * 2016-06-21 2021-02-10 ヴァイケーリアス エフピーシー, インコーポレイテッドVicarious FPC, Inc. Systems and methods for recursive cortical networks
CN106447722B (en) * 2016-08-25 2019-03-22 上海航天控制技术研究所 The infrared target key position localization method extracted based on PCA main shaft
JP6501749B2 (en) * 2016-12-26 2019-04-17 キヤノン株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP7080459B2 (en) * 2017-03-01 2022-06-06 国立大学法人鳥取大学 Equipment and evaluation methods for assessing animal behavior
WO2021035687A1 (en) * 2019-08-30 2021-03-04 深圳先进技术研究院 Open-field experiment data analysis method and system and terminal device
JP6966038B2 (en) * 2020-03-13 2021-11-10 エヌ・ティ・ティ・ビズリンク株式会社 Animal behavior estimation device, animal behavior estimation method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102046A (en) * 1995-08-01 1997-04-15 Matsushita Electric Ind Co Ltd Hand shape recognition method/device
JP5953166B2 (en) * 2012-07-31 2016-07-20 国立大学法人 東京大学 Image processing apparatus and program

Also Published As

Publication number Publication date
JP2016015016A (en) 2016-01-28

Similar Documents

Publication Publication Date Title
JP6346007B2 (en) Motion recognition device and motion recognition method
Achour et al. Image analysis for individual identification and feeding behaviour monitoring of dairy cows based on Convolutional Neural Networks (CNN)
Fang et al. Comparative study on poultry target tracking algorithms based on a deep regression network
Neethirajan ChickTrack–a quantitative tracking tool for measuring chicken activity
Lu et al. Estimating sheep pain level using facial action unit detection
CN107077626B (en) Non-invasive multi-modal biometric identification system for animals
KR101607934B1 (en) The method for monitoring communicable disease and system using the method, recording medium for performing the method
WO2017187719A1 (en) Health condition estimation device
Wang et al. An automated behavior analysis system for freely moving rodents using depth image
JP2017033469A (en) Image identification method, image identification device and program
KR102522239B1 (en) Apparatus and method for analyzing feeding behavior of livestock based on image
Zheng et al. Cows' legs tracking and lameness detection in dairy cattle using video analysis and Siamese neural networks
Gardenier et al. Object detection for cattle gait tracking
Lamping et al. ChickenNet-an end-to-end approach for plumage condition assessment of laying hens in commercial farms using computer vision
CN115830078A (en) Live pig multi-target tracking and behavior recognition method, computer equipment and storage medium
JP2019159518A (en) Visual state detection apparatus, visual state detection method, and visual state detection program
JP2023129574A (en) Body weight estimation device, method for estimating body weight, and program
Ling et al. Point cloud-based pig body size measurement featured by standard and non-standard postures
Naik et al. 3D-POP-An automated annotation approach to facilitate markerless 2D-3D tracking of freely moving birds with marker-based motion capture
Dao et al. Automatic cattle location tracking using image processing
Monteiro et al. A depth-map approach for automatic mice behavior recognition
Mealin et al. Towards unsupervised canine posture classification via depth shadow detection and infrared reconstruction for improved image segmentation accuracy
Evangelista et al. YOLOv7 and DeepSORT for Intelligent Quail Behavioral Activities Monitoring
US20170330026A1 (en) Determining device and determination method
Pistocchi et al. Kernelized Structural Classification for 3D dogs body parts detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180524

R150 Certificate of patent or registration of utility model

Ref document number: 6346007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees