JP2006075138A - System and method for quantifying specific action - Google Patents

System and method for quantifying specific action Download PDF

Info

Publication number
JP2006075138A
JP2006075138A JP2004265882A JP2004265882A JP2006075138A JP 2006075138 A JP2006075138 A JP 2006075138A JP 2004265882 A JP2004265882 A JP 2004265882A JP 2004265882 A JP2004265882 A JP 2004265882A JP 2006075138 A JP2006075138 A JP 2006075138A
Authority
JP
Japan
Prior art keywords
distance
imaging
model animal
marker
specific behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004265882A
Other languages
Japanese (ja)
Inventor
Idaku Ishii
抱 石井
Shogo Kurozumi
省吾 黒住
Hiroyoshi Matsuda
浩珍 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Agriculture and Technology NUC
Original Assignee
Tokyo University of Agriculture and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Agriculture and Technology NUC filed Critical Tokyo University of Agriculture and Technology NUC
Priority to JP2004265882A priority Critical patent/JP2006075138A/en
Publication of JP2006075138A publication Critical patent/JP2006075138A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To quantify the dynamics of the specific action of a model animal. <P>SOLUTION: The system 10 for quantifying specific action comprises a camera 20 for photographing a model animal, a distance calculation part 31 for calculating a distance between fixed two parts of the model animal from the image data photographed by the camera 20 and a quantification part 32 for quantifying the dynamics of the specific action of the model animal from the time series information of the distance calculated by the distance calculation part 31 based on a preset condition. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、モデル動物の特定行動を定量化する特定行動定量化システム及び特定行動定量化方法に関する。   The present invention relates to a specific behavior quantification system and a specific behavior quantification method for quantifying a specific behavior of a model animal.

近年、アトピー疾患等のアレルギーの増加が大きな社会問題になっており、アトピー疾患等の根治治療の確立及び効果的な新薬開発が強く求められている。例えば、アトピー疾患に対する新薬開発は、細胞や組織に対する評価であるin vitro評価を中心に行われている一方、開発の最終段階で行われる、疾患モデル動物を用いたin vivo評価が不可欠となっている。in vivo評価は、例えば皮膚炎を発症するマウスが後脚で皮膚炎による痒みが発生している頭部を引っ掻くといった特定行動を測定することにより行われる。今までのin vivo評価は通常、専門家がモデル動物の引っ掻き行動等の特定行動を観察することにより行われていた。しかし、この方法では専門家の主観が入るため取得されたデータに客観性がなく、また時間や人件費がかさんでいた。   In recent years, an increase in allergies such as atopic diseases has become a major social problem, and there is a strong demand for the establishment of curative treatment for atopic diseases and the like and the development of effective new drugs. For example, new drug development for atopic diseases is centered on in vitro evaluation, which is an evaluation of cells and tissues, while in vivo evaluation using disease model animals is indispensable at the final stage of development. Yes. In vivo evaluation is performed, for example, by measuring a specific behavior such that a mouse that develops dermatitis scratches the head where itching due to dermatitis occurs on the hind legs. Until now, in vivo evaluation has usually been performed by an expert observing specific behavior such as scratching behavior of a model animal. However, with this method, the subjectivity of the expert is included, so the acquired data is not objective, and time and labor costs are high.

上記の状況に対処するため、モデル動物の頭部と後脚の先端部との2点間の距離の時系列データを取得し、そのデータからモデル動物の引っ掻き行動等の特定行動の回数をカウントするシステムが開発されている(例えば、下記特許文献1及び非特許文献1参照)。
国際公開第03/067973号パンフレット 「日経バイオビジネス」,株式会社日経BP,2003年8月号,p.143
To deal with the above situation, time series data of the distance between the two points of the model animal's head and the tip of the hind leg is acquired, and the number of specific actions such as scratching behavior of the model animal is counted from the data Systems have been developed (see, for example, Patent Document 1 and Non-Patent Document 1 below).
International Publication No. 03/069773 Pamphlet “Nikkei Biobusiness”, Nikkei BP, August 2003, p. 143

しかしながら、特許文献1及び非特許文献1に記載された技術では、特定行動の回数という定量化は可能であるものの、その引っ掻き行動等の特定行動がどのような動きであるか、即ち特定行動のダイナミクスまで測定することはできないという課題がある。   However, with the techniques described in Patent Document 1 and Non-Patent Document 1, although the quantification of the number of specific actions is possible, what kind of movement is the specific action such as the scratching action, that is, the specific action There is a problem that dynamics cannot be measured.

本発明は上記課題を解決するために成されたものであり、モデル動物の特定行動のダイナミクスを定量化することができる特定行動定量化システム及び特定行動定量化方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a specific behavior quantification system and a specific behavior quantification method capable of quantifying the dynamics of a specific behavior of a model animal. .

上記目的を達成するために、本発明に係る特定行動定量化システムは、モデル動物を撮像する撮像手段と、撮像手段により撮像された映像データから、モデル動物の所定の2つの部位間の距離を算出する距離算出手段と、距離算出手段により算出された距離の時系列情報から、予め設定した条件に基づき、前記モデル動物の特定行動のダイナミクスを定量化する定量化手段と、を備えることを特徴とする。   In order to achieve the above object, a specific behavior quantification system according to the present invention includes an imaging unit that images a model animal, and a distance between predetermined two parts of the model animal based on image data captured by the imaging unit. A distance calculating means for calculating, and a quantifying means for quantifying the dynamics of the specific behavior of the model animal based on a preset condition from the time-series information of the distance calculated by the distance calculating means. And

本発明に係る特定行動定量化システムでは、映像データから算出されるモデル動物における所定の2つの部位間の距離の時系列情報から、予め設定した条件に基づき、特定行動のダイナミクスを定量化する。   In the specific behavior quantification system according to the present invention, the dynamics of specific behavior is quantified based on preset conditions from time-series information of distances between two predetermined parts in a model animal calculated from video data.

また、距離算出手段は、所定の2つの部位に付されたマーカの位置を映像データから算出して、当該算出された2つのマーカの位置から前記距離を算出することが望ましい。この構成によれば距離をより確実に算出でき、本発明をより確実に実施することができる。   Further, it is preferable that the distance calculation means calculates the positions of the markers attached to the two predetermined parts from the video data, and calculates the distance from the calculated positions of the two markers. According to this configuration, the distance can be calculated more reliably, and the present invention can be implemented more reliably.

また、モデル動物の所定の2つの部位に付されるマーカは、それぞれ異なる色の発色物質であり、距離算出手段は、映像データから取得又は算出される色彩及び色相データから当該マーカの位置を算出する、ことが望ましい。この構成によれば距離を更に確実に算出でき、本発明を更に確実に実施することができる。   Further, the markers attached to the two predetermined parts of the model animal are color developing substances of different colors, and the distance calculation means calculates the position of the marker from the color and hue data acquired or calculated from the video data. It is desirable to do. According to this configuration, the distance can be calculated more reliably, and the present invention can be implemented more reliably.

また、特定行動定量化システムは、距離手段により算出された、モデル動物の2つのマーカのうち予め選択された1つのマーカの位置の情報に基づき、当該選択されたマーカを含む所定の範囲を撮像するように撮像手段を制御する撮像範囲制御手段を更に備えることが望ましい。この構成によれば特定動作に係る部分のみをトラッキングして撮像を行うことが可能となり、映像データのデータサイズを小さくすることができる。これにより映像データのフレームレートの増加や映像データの情報処理の高速化を可能とし、特定行動のダイナミクスのより詳細な定量化を可能とする。   Further, the specific behavior quantification system images a predetermined range including the selected marker based on the position information of one marker selected in advance among the two markers of the model animal calculated by the distance unit. It is desirable to further include an imaging range control means for controlling the imaging means. According to this configuration, it is possible to perform imaging by tracking only the portion related to the specific operation, and the data size of the video data can be reduced. As a result, it is possible to increase the frame rate of the video data and to speed up the information processing of the video data, and to further quantify the dynamics of the specific action.

また、撮像制御手段は、選択されたマーカの位置の情報から当該マーカの移動方向及び速度を算出し、当該算出された移動方向及び速度にも基づいて前記制御を行うことが望ましい。この構成によればトラッキングをより精度よく行うことができ、更にデータサイズを小さくすること等が可能である。   In addition, it is desirable that the imaging control unit calculates the movement direction and speed of the marker from the information on the position of the selected marker, and performs the control based on the calculated movement direction and speed. According to this configuration, tracking can be performed with higher accuracy, and the data size can be further reduced.

また、定量化手段は、距離の時系列情報から所定の2つの部位同士が近づく速度又は加速度のうち少なくとも一つを算出して当該算出した値を用いてダイナミクスを定量化することが望ましい。この構成によればより詳細なあるいはより簡易なダイナミクスの定量化が可能となる。   Further, it is desirable that the quantification means calculates at least one of the speed or acceleration at which two predetermined parts approach each other from the time series information of the distance, and quantifies the dynamics using the calculated value. This configuration enables more detailed or simpler dynamics quantification.

また、所定の2つの部位は、モデル動物の頭部及び四肢のうちの一つの先端部であり、モデル動物の特定行動は、モデル動物が先端部により頭部を引っ掻く擦過運動であることが望ましい。この構成によればアトピーマウスが後脚の先端部により頭部を引っ掻く擦過行動等のダイナミクスの定量化を可能とする。   Further, the two predetermined parts are the tip of one of the head and limbs of the model animal, and the specific behavior of the model animal is preferably a rubbing motion in which the model animal scratches the head with the tip. . According to this configuration, it becomes possible to quantify the dynamics such as the rubbing behavior in which the atopic mouse scratches the head with the tip of the rear leg.

また、撮像手段は、100fps(frame per sec)以上の撮像速度で撮像を行うことが望ましい。この構成によれば、例えば特定行動が1秒間に十数回行われるような場合であっても、より確実にダイナミクスの定量化を可能とする。   In addition, it is desirable that the imaging unit performs imaging at an imaging speed of 100 fps (frame per sec) or more. According to this configuration, for example, even when the specific action is performed ten times or more per second, the dynamics can be quantified more reliably.

ところで、本発明は、上記のように特定行動定量化システムの発明として記述できる他に、以下のように特定行動定量化方法の発明としても記述することができる。これらはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。本発明に係る特定行動定量化方法は、モデル動物を撮像する撮像ステップと、撮像ステップにおいて撮像された映像データから、モデル動物の所定の2つの部位間の距離を算出する距離算出ステップと、距離算出ステップにおいて算出された距離の時系列情報から、予め設定した条件に基づき、モデル動物の特定行動のダイナミクスを定量化する定量化ステップと、を含むことを特徴とする。なお、本方法には人間に対する診療行為及び医療行為は含まれない。   By the way, the present invention can be described as the invention of the specific behavior quantification system as described above, and can also be described as the invention of the specific behavior quantification method as follows. These are substantially the same inventions only in different categories, and have the same operations and effects. The specific behavior quantification method according to the present invention includes an imaging step of imaging a model animal, a distance calculation step of calculating a distance between two predetermined parts of the model animal from the video data captured in the imaging step, And a quantification step of quantifying the dynamics of the specific behavior of the model animal based on a preset condition from the time-series information of the distance calculated in the calculation step. This method does not include medical practice or medical practice for humans.

本発明によれば、映像データから算出されるモデル動物における所定の2つの部位間の距離から、予め設定した条件に基づき、特定行動のダイナミクスの定量化を行うことができる。   According to the present invention, the dynamics of a specific action can be quantified based on a preset condition from the distance between two predetermined parts in a model animal calculated from video data.

以下、図面を参照しながら、本発明における特定行動定量化システムの実施形態について説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。   Hereinafter, embodiments of a specific behavior quantification system according to the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1に示す特定行動定量化システム10は、モデル動物の特定行動のダイナミクスを計測して定量化するシステムである。本実施形態においては、モデル動物はアトピー性皮膚炎に類似した皮膚炎を頭部に発症するマウス(以下、アトピーマウスと呼ぶ)であり、特定行動は後脚の先端部で皮膚炎が発症した頭部を引っ掻く擦過運動である。   A specific behavior quantification system 10 shown in FIG. 1 is a system that measures and quantifies the dynamics of a specific behavior of a model animal. In the present embodiment, the model animal is a mouse that develops dermatitis similar to atopic dermatitis on the head (hereinafter referred to as atopic mouse), and the specific behavior is that dermatitis has developed at the tip of the hind leg. It is a rubbing exercise that scratches the head.

また、特定行動のダイナミクスとは、どのようにその特定行動がなされているということを意味する。ダイナミクスの定量化とは、特定行動を特徴付けるパラメータを抽出することであり、具体的には例えば1回の擦過運動の継続時間や引っ掻き強度を計測すること等が相当する。なお、これらの特定行動のダイナミクスの情報は、例えばアトピー新薬開発において有益な情報として用いられる。なお、本実施形態では上記の例を用いているが他の例に適用してもよい。モデル動物としては、ウサギやネコ等の動物の他、例えばコウモリ等の飛行する動物や、あるいは昆虫等に適用してもよい。また、特定行動としては例えば、口唇で所定部位を噛む等の行動に適用してもよい。   Moreover, the dynamics of a specific action means how the specific action is made. The quantification of dynamics refers to extracting parameters characterizing a specific action, and specifically corresponds to, for example, measuring the duration of one rubbing exercise and the scratching strength. The information on the dynamics of these specific actions is used as useful information in, for example, atopic new drug development. Although the above example is used in the present embodiment, the present invention may be applied to other examples. As a model animal, in addition to animals such as rabbits and cats, the present invention may be applied to flying animals such as bats or insects. The specific action may be applied to an action such as biting a predetermined part with the lips.

本実施形態で用いるアトピーマウス40を図2に模式的に示す。アトピーマウス40には、皮膚炎を発症する頭部40aに赤色の蛍光塗料等の発色物質を塗布し一方のマーカとする。また、頭部40aを引っ掻く一方の後脚の先端部40bに黄色の発色物質を塗布し、もう一方のマーカとする。このマーカは、アトピーマウスの頭部40aと後脚の先端部40bとの間の距離を映像データから測定するために付されるものである。   An atopy mouse 40 used in the present embodiment is schematically shown in FIG. On the atopy mouse 40, a coloring material such as a red fluorescent paint is applied to the head 40a that develops dermatitis to serve as one marker. Further, a yellow coloring material is applied to the tip 40b of one of the rear legs that scratches the head 40a to form the other marker. This marker is attached to measure the distance between the head 40a of the atopic mouse and the tip 40b of the rear leg from the video data.

図1に本実施形態に係る特定行動定量化システム10の構成を示す。特定行動定量化システム10は、カメラ20と、コンピュータ30とを含んで構成される。カメラ20とコンピュータ30とは、互いにデータを送受信できるようにケーブル等で接続されている。カメラ20は、アトピーマウス40の特定行動が分かるように上方からアトピーマウス40を撮像する撮像手段である。カメラ20はコンピュータ30から撮像の制御を受け、カメラ20により撮像された映像データはコンピュータ30に送信される。カメラ20の撮像速度は100fps以上とする。更に好ましくは500fps以上であることとするのがよい。一般のビデオの撮像速度は約30fpsであるものが多いが、アトピーマウス40の擦過行動は1秒間に15回程度行われるため、一般のビデオの撮影速度では十分対応できない場合があるためである。   FIG. 1 shows a configuration of a specific behavior quantification system 10 according to the present embodiment. The specific behavior quantification system 10 includes a camera 20 and a computer 30. The camera 20 and the computer 30 are connected by a cable or the like so that data can be transmitted and received between them. The camera 20 is an imaging unit that images the atopy mouse 40 from above so that the specific behavior of the atopy mouse 40 can be understood. The camera 20 receives imaging control from the computer 30, and video data captured by the camera 20 is transmitted to the computer 30. The imaging speed of the camera 20 is 100 fps or higher. More preferably, it should be 500 fps or more. The general video imaging speed is about 30 fps in many cases, but the abrading behavior of the atopy mouse 40 is performed about 15 times per second, so the general video imaging speed may not be sufficient.

また、カメラ20の解像度は512ピクセル×512ピクセル程度であることが好ましい。また、カメラ20には、画素単位でのランダムアクセスが可能なCMOS(Complementary Metal Oxide Semiconductor)イメージャと、書き換え可能なLSI(Large Scale Integration)であるFPGA(Field Programmable Gate Array)が搭載されており、高速な撮像が可能であることが好ましい。また、カメラ20は、コンピュータ30からの制御を受け、アトピーマウス40の特定行動部分のみを撮像できる。その撮像範囲は、128ピクセル×128ピクセル程度の範囲であることが好ましい。特定行動部分のみを撮像する具体的制御内容については後述する。   The resolution of the camera 20 is preferably about 512 pixels × 512 pixels. The camera 20 includes a CMOS (Complementary Metal Oxide Semiconductor) imager capable of random access in units of pixels and a FPGA (Field Programmable Gate Array) which is a rewritable LSI (Large Scale Integration). It is preferable that high-speed imaging is possible. In addition, the camera 20 can control only the specific action portion of the atopy mouse 40 under the control of the computer 30. The imaging range is preferably a range of about 128 pixels × 128 pixels. Specific control contents for imaging only the specific action part will be described later.

カメラ20としては具体的には、上記の要件を満たす、以下の仕様である株式会社フォトロン社のMmVision(β版)を用いるのが好ましい。
解像度:1280×1024ピクセル
データクロック:40MHz
内部処理:ALTERA社FPGA APEX20K200
外部出力:MDR26ピン
サイズ:110×50×50mm
Specifically, it is preferable to use MmVision (β version) of Photolon Co., Ltd., which satisfies the above requirements and has the following specifications.
Resolution: 1280 x 1024 pixels Data clock: 40 MHz
Internal processing: ALTERA FPGA APEX20K200
External output: MDR26 pin Size: 110 × 50 × 50mm

カメラ20は、アトピーマウス40を入れておくための檻23のほぼ真上に撮像を行うレンズ面が檻23に向かうように、支持部材21により位置決めされ固定される。また、支持部材21には照明機器22も位置決めされて固定されており、照明機器22はカメラ20による撮像の際に、一定の明るさでアトピーマウス40を撮像できるように檻23内を照らす。アトピーマウス40を入れる檻23は、アトピーマウス40が檻から出られないよう、例えばプラスチック等の透明な壁面により四方を囲まれたものであり、上方は開口を有している。檻23の内側の底面の色は、マーカを適切に抽出できるように白色等、無彩色である。また、檻23は、アトピーマウス40がある程度自由な行動をできるよう、例えばアトピーマウス40の体長の数倍程度四方の所定の広さを有する。カメラ20は、当該所定の広さの範囲をすべて撮像可能なように焦点距離等が調節される。   The camera 20 is positioned and fixed by the support member 21 so that a lens surface for imaging is directed to the ridge 23 almost directly above the ridge 23 for holding the atopy mouse 40. In addition, the illumination device 22 is also positioned and fixed to the support member 21, and the illumination device 22 illuminates the interior of the eyelid 23 so that the atopy mouse 40 can be imaged at a constant brightness when the camera 20 performs imaging. The cage 23 into which the atopy mouse 40 is inserted is surrounded on all sides by a transparent wall such as plastic so that the atopy mouse 40 cannot be removed from the cage, and has an opening at the top. The color of the bottom surface inside the ridge 23 is an achromatic color such as white so that the marker can be appropriately extracted. In addition, the heel 23 has a predetermined width of about four times the body length of the atopy mouse 40, for example, so that the atopy mouse 40 can freely move to some extent. The focal length and the like of the camera 20 are adjusted so that the entire range of the predetermined area can be imaged.

コンピュータ30は、距離算出部(距離算出手段)31と、定量化部(定量化手段)32と、撮像範囲制御部(撮像範囲制御手段)33とを備える。上記の各機能は、コンピュータ30が備えるCPU、メモリ及びストレージ等による情報処理機能により実現される。   The computer 30 includes a distance calculation unit (distance calculation unit) 31, a quantification unit (quantification unit) 32, and an imaging range control unit (imaging range control unit) 33. Each of the above functions is realized by an information processing function such as a CPU, a memory, and a storage provided in the computer 30.

距離算出部31は、カメラ20により撮像された映像データから、アトピーマウス40に付された2つのマーカの位置を算出して、当該算出された位置情報からそれぞれマーカが付された頭部40aと後脚の先端部40bとの間の距離を算出する。位置及び距離の具体的な算出方法は後述する。距離算出部31における位置及び距離の算出は、例えば撮像により画像データが取得されるのにあわせて、所定の時間間隔毎に繰り返し行われる。位置及び距離の算出は映像データを構成する画像データを用いて行われる。算出された距離の情報は定量化部32に送信され、頭部40aに対応するマーカの位置の情報は撮像範囲制御部33に送信される。   The distance calculation unit 31 calculates the positions of the two markers attached to the atopy mouse 40 from the video data captured by the camera 20, and the head 40a to which the markers are attached respectively from the calculated position information. The distance from the rear leg tip 40b is calculated. A specific method for calculating the position and distance will be described later. The calculation of the position and distance in the distance calculation unit 31 is repeatedly performed at predetermined time intervals, for example, as image data is acquired by imaging. The calculation of the position and distance is performed using image data constituting the video data. Information on the calculated distance is transmitted to the quantification unit 32, and information on the position of the marker corresponding to the head 40 a is transmitted to the imaging range control unit 33.

定量化部32は、距離算出部31により算出された距離の時系列情報から、アトピーマウス40の擦過運動のダイナミクスを定量化する。この定量化は、定量化部32に保持されている予め設定された条件に基づいて行われる。具体的な条件及び定量化方法は後述する。   The quantification unit 32 quantifies the dynamics of the rubbing movement of the atopy mouse 40 from the time series information of the distance calculated by the distance calculation unit 31. This quantification is performed based on preset conditions held in the quantification unit 32. Specific conditions and a quantification method will be described later.

撮像範囲制御部33は、カメラ20の撮像範囲を制御する。その制御には、所定の場合に頭部40aに対応するマーカを含む所定の範囲を撮像させる制御が含まれる。所定の場合の具体的内容については後述する。所定の範囲はマーカの重心を中心として特定行動を撮像できる正方形の範囲、例えば上述したように128ピクセル×128ピクセル程度の範囲であるのが好ましい。当該制御は、距離算出部31から送信される頭部40aに対応するマーカの位置の情報を受信し、その情報からマーカの移動方向及び速度を算出し、算出された移動方向及び速度にも基づいて行われることが好ましい。   The imaging range control unit 33 controls the imaging range of the camera 20. The control includes control for imaging a predetermined range including a marker corresponding to the head 40a in a predetermined case. Specific contents in the predetermined case will be described later. The predetermined range is preferably a square range in which a specific action can be imaged around the center of gravity of the marker, for example, a range of about 128 pixels × 128 pixels as described above. The control receives information on the position of the marker corresponding to the head 40a transmitted from the distance calculation unit 31, calculates the movement direction and speed of the marker from the information, and is also based on the calculated movement direction and speed. It is preferable to be performed.

この制御は、映像データを特定動作にかかる部分のみ撮像されたものとするために行われる。これにより映像データのフレームレートの増加や映像データの情報処理の高速化を可能とし、特定行動のダイナミクスのより詳細な定量化を可能とする。また、頭部40aのマーカを用いているのは、上方からアトピーマウス40を撮像した場合、図3に示すように後脚の先端部40bのマーカがアトピーマウス40の胴体に隠れてしまい、後脚の先端部40bのマーカの抽出ができないことがあるからである。   This control is performed in order to capture only the part of the video data related to the specific operation. As a result, it is possible to increase the frame rate of the video data and to speed up the information processing of the video data, and to further quantify the dynamics of the specific action. In addition, the marker of the head 40a is used because when the atopy mouse 40 is imaged from above, the marker of the tip 40b of the rear leg is hidden in the trunk of the atopy mouse 40 as shown in FIG. This is because the marker of the leg tip 40b may not be extracted.

以下、本実施形態における特定行動定量化システム10により実行される処理を図4及び図5のシーケンス図を用いて説明する。まず、コンピュータ30の撮像範囲制御部33がカメラ20に、撮像を制御する信号を送信する(S01)。ここでの制御信号は、アトピーマウス40を入れる檻23全体を撮像する制御信号である。制御信号が送信されたカメラ20では、その制御信号を受信し(S02)、制御信号に基づき撮像を行う(S03)。カメラ20は、当該撮像により取得された画像データ(映像データの1フレーム)をコンピュータ30に送信する(S04)。コンピュータ30では、当該画像データを受信する(S05)。   Hereinafter, processing executed by the specific behavior quantification system 10 in the present embodiment will be described with reference to the sequence diagrams of FIGS. 4 and 5. First, the imaging range control unit 33 of the computer 30 transmits a signal for controlling imaging to the camera 20 (S01). The control signal here is a control signal for imaging the entire cage 23 into which the atopy mouse 40 is inserted. The camera 20 to which the control signal is transmitted receives the control signal (S02), and performs imaging based on the control signal (S03). The camera 20 transmits image data (one frame of video data) acquired by the imaging to the computer 30 (S04). The computer 30 receives the image data (S05).

画像データを受信したコンピュータ30では、距離算出部31がその画像データからアトピーマウス40に付されたマーカを以下のように抽出する(S06)。まず、距離算出部31は画像データの各ピクセルの色彩データである、各ピクセルのR(Red:赤)、G(Green:緑)及びB(Blue:青)の256段階のレベルの信号値を取得する。取得された各ピクセルのR、G及びBの信号値から以下の式により各ピクセルのA値を求める。A値は、ピクセルの色が無彩色から離れている度合いで、背景を除外しマーカを効果的に抽出するためのパラメータである。

Figure 2006075138
ここで、max[R,G,B]は、R、G及びBの値のうち最も大きい値をとる関数である。また、min[R,G,B]は、R、G及びBの値のうち最も小さい値をとる関数である。
引き続いて、距離算出部31は上記の式で得られた値を用いて、以下の式により各ピクセルの色相Hを求める。
Figure 2006075138
各ピクセルのA値と色相Hの値から、そのピクセルが頭部40aのマーカに該当するか、判断する。A値及び色相Hの分布図を図6に示す。図6に示すように、赤色の発色物質を付した頭部40aのマーカのピクセルでは色相Hが0度前後、A値が20以上となっている。上記のマーカに該当するかの判断は、これらの値に基づき適当に閾値を設定することにより可能である。距離算出部31は、マーカに該当すると判断された各ピクセルの位置の重心を算出し、重心をそのマーカの位置とする。また、黄色の発色物質を付した後脚の先端部40bのマーカのピクセルでは色相Hが50度前後、A値が20以上となっており、同様に閾値を設定することにより各ピクセルがマーカに該当するか否かを判断することが可能である。 In the computer 30 that has received the image data, the distance calculation unit 31 extracts the marker attached to the atopy mouse 40 from the image data as follows (S06). First, the distance calculation unit 31 outputs 256-level signal values of R (Red: Red), G (Green: Green), and B (Blue: Blue) of each pixel, which is color data of each pixel of the image data. get. From the acquired R, G, and B signal values of each pixel, the A value of each pixel is obtained by the following equation. The A value is a parameter for effectively extracting the marker by excluding the background to the extent that the pixel color is away from the achromatic color.
Figure 2006075138
Here, max [R, G, B] is a function that takes the largest value among the values of R, G, and B. Also, min [R, G, B] is a function that takes the smallest value among the values of R, G, and B.
Subsequently, the distance calculation unit 31 obtains the hue H of each pixel by the following formula using the value obtained by the above formula.
Figure 2006075138
From the A value and the hue H value of each pixel, it is determined whether the pixel corresponds to the marker of the head 40a. A distribution diagram of the A value and the hue H is shown in FIG. As shown in FIG. 6, the hue H is around 0 degree and the A value is 20 or more in the marker pixel of the head 40 a to which the red coloring material is attached. The determination as to whether the marker is applicable can be made by appropriately setting a threshold based on these values. The distance calculation unit 31 calculates the centroid of the position of each pixel determined to correspond to the marker, and uses the centroid as the position of the marker. In addition, the marker pixel at the tip 40b of the rear leg to which the yellow coloring material is attached has a hue H of around 50 degrees and an A value of 20 or more. Similarly, by setting a threshold value, each pixel becomes a marker. It is possible to determine whether this is the case.

続いて、距離算出部31は、頭部40aのマーカが抽出されたか否かを判断する(S07)。頭部40aのマーカを抽出できなかった場合は、再度、撮像範囲制御部33からカメラ20に対し、撮像を制御する信号が送信され(図4のA,S01)、上記と同様のフローが繰り返される。   Subsequently, the distance calculation unit 31 determines whether or not the marker of the head 40a has been extracted (S07). If the marker of the head 40a cannot be extracted, a signal for controlling imaging is transmitted again from the imaging range control unit 33 to the camera 20 (A, S01 in FIG. 4), and the same flow as above is repeated. It is.

頭部40aのマーカを抽出できた場合(図4及び図5のB)は、距離算出部31は、頭部40aのマーカの位置情報を撮像範囲制御部33に送信する。撮像範囲制御部33は、当該位置情報に基づき当該マーカを含むように撮像範囲を決定する(S11)。具体的には、例えば、頭部40aのマーカが中心に来るようにした、上述したような128×128ピクセルの範囲を撮像範囲とする。なお、撮像範囲制御部33で頭部40aのマーカの位置の時系列情報を記憶しておき、その時系列情報から頭部40aのマーカの移動方向及び速度を算出し、算出された移動方向及び速度も考慮して頭部40aのマーカが中心に来るように撮像範囲を決定することとするのが好ましい。   When the marker of the head 40 a can be extracted (B in FIGS. 4 and 5), the distance calculation unit 31 transmits the position information of the marker of the head 40 a to the imaging range control unit 33. The imaging range control unit 33 determines the imaging range so as to include the marker based on the position information (S11). Specifically, for example, a range of 128 × 128 pixels as described above in which the marker of the head 40a comes to the center is set as the imaging range. The imaging range control unit 33 stores time series information of the marker position of the head 40a, calculates the movement direction and speed of the marker of the head 40a from the time series information, and calculates the calculated movement direction and speed. In consideration of this, it is preferable to determine the imaging range so that the marker of the head 40a is at the center.

撮像範囲制御部33は決定した撮像範囲で撮像を行うように制御信号を送信する(S12)。制御信号が送信されたカメラ20では、その制御信号を受信し(S13)、制御信号に基づき撮像を行う(S14)。カメラ20は、当該撮像により取得された画像データをコンピュータ30に送信する(S15)。コンピュータ30では、当該画像データを受信する(S16)。   The imaging range control unit 33 transmits a control signal so as to perform imaging within the determined imaging range (S12). The camera 20 to which the control signal is transmitted receives the control signal (S13), and performs imaging based on the control signal (S14). The camera 20 transmits the image data acquired by the imaging to the computer 30 (S15). The computer 30 receives the image data (S16).

このような制御を行うことにより、図7に示すように、常に頭部40aのマーカを含むようにトラッキングして撮像範囲20bを設定し、撮像を行うことができる(図7において、破線はアトピーマウス40の移動の軌跡、即ち頭部40aのマーカの軌跡を示す)。従って、擦過運動に係る部分のみをトラッキングして撮像を行うことが可能となり、図7に示す檻23全体を撮像範囲20aとするよりも、映像データのデータサイズを小さくすることができる。これにより映像データのフレームレートの増加や映像データの情報処理の高速化を可能とし、特定行動のダイナミクスのより詳細な定量化を可能とする。また、上述したように移動方向及び速度を考慮すれば、トラッキングをより精度よく行うことができ、更にデータサイズを小さくすること等が可能である。   By performing such control, as shown in FIG. 7, the imaging range 20b can be set by tracking so as to always include the marker of the head 40a, and imaging can be performed (in FIG. 7, the broken line indicates the atopy). The movement trajectory of the mouse 40, that is, the trajectory of the marker of the head 40a is shown). Accordingly, it is possible to perform imaging while tracking only the portion related to the rubbing movement, and the data size of the video data can be reduced as compared with the entire imaging area 23a shown in FIG. As a result, it is possible to increase the frame rate of the video data and to speed up the information processing of the video data, and to further quantify the dynamics of the specific action. In addition, if the moving direction and speed are taken into consideration as described above, tracking can be performed with higher accuracy, and the data size can be further reduced.

引き続いて、画像データを受信したコンピュータ30では、上述したS06の処理と同様の方法で、距離算出部31がその画像データからアトピーマウス40に付されたマーカを抽出する(S17)。   Subsequently, in the computer 30 that has received the image data, the distance calculation unit 31 extracts a marker attached to the atopy mouse 40 from the image data by the same method as the process of S06 described above (S17).

続いて、距離算出部31は、頭部40aのマーカが抽出されたか否かを判断する(S18)。頭部40aのマーカを抽出できなかった場合は、再度、撮像範囲制御部33からカメラ20に対し、檻23全体を撮像する信号が送信され(図4のA,S01)、上記と同様のフローが繰り返される。   Subsequently, the distance calculation unit 31 determines whether or not the marker of the head 40a has been extracted (S18). When the marker of the head 40a cannot be extracted, a signal for imaging the entire eyelid 23 is again transmitted from the imaging range control unit 33 to the camera 20 (A, S01 in FIG. 4), and the same flow as above Is repeated.

頭部40aのマーカを抽出できた場合は、距離算出部31は、後脚の先端部40bのマーカが抽出されたか否かを判断する(S19)。後脚の先端部40bのマーカを抽出できなかった場合は、再度、撮像範囲制御部33からカメラ20に対し、頭部40aのマーカに基づき撮像範囲を決定し(図5のB,S11)、上記と同様のフローが繰り返される。なお、後脚の先端部40bのマーカを抽出できない場合としては、具体的にはマーカ部分がアトピーマウス40の胴体に隠れてしまう場合や、マーカ部分が撮像範囲から出てしまう場合等がある。   When the marker of the head 40a can be extracted, the distance calculation unit 31 determines whether or not the marker of the tip 40b of the rear leg has been extracted (S19). When the marker of the rear leg 40b cannot be extracted, the imaging range control unit 33 again determines the imaging range based on the marker of the head 40a with respect to the camera 20 (B and S11 in FIG. 5). The same flow as above is repeated. In addition, as a case where the marker of the tip part 40b of the rear leg cannot be extracted, specifically, the marker part may be hidden behind the body of the atopy mouse 40, or the marker part may be out of the imaging range.

後脚の先端部40bのマーカを抽出できた場合は、距離算出部31は、算出されたマーカの位置情報からそれぞれマーカが付された頭部40aと後脚の先端部40bとの間の距離を算出する。(S20)。当該距離は、例えば画像データのピクセル単位で算出される。算出された距離の情報は、定量化部32に送信され記憶される。なお、S20における当該距離の算出は、繰り返し行われ(繰り返しのフローについては後述する)、定量化部32において時系列情報として記憶される。取得された距離のデータは、例えば、図8のグラフに示すように表すことができる。図8に示すグラフにおいて横軸は時間(単位は秒)を表し、縦軸は距離(単位はピクセル)を表す。図8のグラフにおいて、ハッチングで示される部分は距離データが存在しないが、それは後脚部40bのマーカ部分がアトピーマウス40の胴体に隠れたり、マーカ部分が撮像範囲から出たり等、距離を算出することができなかったことを示す。   When the marker of the rear leg tip 40b can be extracted, the distance calculation unit 31 determines the distance between the head 40a and the rear leg tip 40b to which the marker is attached based on the calculated marker position information. Is calculated. (S20). The distance is calculated in units of pixels of image data, for example. Information on the calculated distance is transmitted to and stored in the quantification unit 32. The calculation of the distance in S20 is repeatedly performed (the repeated flow will be described later), and is stored as time series information in the quantification unit 32. The acquired distance data can be expressed, for example, as shown in the graph of FIG. In the graph shown in FIG. 8, the horizontal axis represents time (unit is second), and the vertical axis represents distance (unit is pixel). In the graph of FIG. 8, there is no distance data in the hatched portion, but the distance is calculated such that the marker portion of the rear leg 40b is hidden behind the body of the atopy mouse 40, the marker portion is out of the imaging range, etc. Indicates that it was not possible.

続いて、定量化部32が、頭部40aと後脚の先端部40bとの間の距離の時系列情報から、頭部40aと後脚の先端部40bとが近づく速度及び加速度を算出する(S21)。速度の算出は距離の時間変化率を求めることにより、加速度の算出は速度の時間変化率を求めることにより、それぞれ行われる。なお、速度及び加速度はそれぞれ、距離が大きくなる方向がプラス方向である(従って実際には、頭部40aと後脚の先端部40bとが遠ざかる速度及び加速度となっている)。距離のデータ、速度のデータ及び加速度のデータをグラフに表したものを図9に示す。図9における上段のグラフが距離のデータ、中断のグラフが速度のデータ、下段のグラフが加速度のデータを示す。図9のグラフにおいて、横軸は時間(単位は秒)であり、データプロット間隔は撮像速度と同じ1/500秒である。   Subsequently, the quantification unit 32 calculates the speed and acceleration at which the head 40a and the rear leg tip 40b approach from the time series information of the distance between the head 40a and the rear leg tip 40b ( S21). The speed is calculated by obtaining the time change rate of the distance, and the acceleration is calculated by obtaining the time change rate of the speed. It should be noted that the speed and acceleration are respectively positive in the direction in which the distance increases (therefore, the speed and acceleration are actually the speed and acceleration at which the head 40a and the rear leg tip 40b move away). FIG. 9 is a graph showing distance data, speed data, and acceleration data. In FIG. 9, the upper graph shows distance data, the interruption graph shows speed data, and the lower graph shows acceleration data. In the graph of FIG. 9, the horizontal axis is time (unit is second), and the data plot interval is 1/500 second which is the same as the imaging speed.

続いて、定量化部32が、上記算出された値に基づいて、アトピーマウスの擦過運動のダイナミクスの定量化を行う(S22)。定量化を行った後は、再度、撮像範囲制御部33からカメラ20に対し、頭部40aのマーカに基づき撮像範囲を決定し(図5のB,S11)、上記と同様のフローが繰り返される。なお、この定量化は、常にこのタイミングで行われる必要はなく、距離のデータ、速度のデータ及び加速度のデータが一定量蓄積された状態で行われてもよい。また、これらのデータを一旦全て集めておいて、撮像や距離算出と別のタイミングで行われてもよい。   Subsequently, the quantification unit 32 performs quantification of the dynamics of the rubbing motion of the atopic mouse based on the calculated value (S22). After quantification, the imaging range control unit 33 again determines the imaging range based on the marker on the head 40a for the camera 20 (B and S11 in FIG. 5), and the same flow as above is repeated. . Note that this quantification need not always be performed at this timing, and may be performed in a state where a certain amount of distance data, velocity data, and acceleration data is accumulated. Alternatively, all of these data may be collected once and performed at a timing different from imaging and distance calculation.

定量化は具体的には次のように行う。擦過運動の回数及び時間の定量化を例として説明する。まず、導出された値から擦過運動が行われている部分を特定する。擦過運動が行われているのは、例えば、図9の距離のグラフにおける、時間軸のΔTの範囲における破線で囲まれた範囲90で示す部分である。ΔTの範囲では、まず頭部40aと後脚の先端部40bとの間の距離が相対的に大きく、それぞれの部位40a,40bが互いに離れた状態である。その後範囲90の部分では頭部40aと後脚の先端部40bとの間の距離が相対的に小さくなり、その状態が一定時間保たれる。その後、また、頭部40aと後脚の先端部40bとが離れた状態になる。上記のように頭部40aと後脚の先端部40bとの間の距離が小さくなった状態で一定時間保たれている場合、アトピーマウスは擦過運動を行っている(アトピーマウスの実際の映像からも確かめられる)。 Specifically, the quantification is performed as follows. An example of quantifying the number of times of rubbing movement and time will be described. First, a portion where the rubbing motion is performed is specified from the derived value. The rubbing movement is performed, for example, in a portion indicated by a range 90 surrounded by a broken line in the range of ΔT 1 on the time axis in the distance graph of FIG. In the range of [Delta] T 1, first the relatively large distance between the tip portion 40b of the head portion 40a and rear legs, a state where the respective portions 40a, 40b are separated from each other. Thereafter, in the area 90, the distance between the head 40a and the tip 40b of the rear leg becomes relatively small, and this state is maintained for a certain time. Thereafter, the head 40a and the rear leg tip 40b are separated from each other. As described above, when the distance between the head portion 40a and the front end portion 40b of the rear leg is kept small for a certain period of time, the atopy mouse performs a rubbing motion (from the actual video of the atopy mouse). Can also be confirmed).

一方、図9の距離のグラフにおける、時間軸のΔTの範囲では、擦過運動は行われていない。ΔTの範囲において、頭部40aと後脚の先端部40bとの間の距離が相対的に小さくなっている部分があるが、その状態が継続しておらず、引っ掻きをせず単に後脚の先端部40bを頭部40aの近くに移動させただけである。 On the other hand, the rubbing motion is not performed in the range of ΔT 2 on the time axis in the distance graph of FIG. In the range of [Delta] T 2, there is a portion where the distance between the leading end portion 40b of the head portion 40a and rear legs is relatively small, not the state continues, simply without scratching hind The tip 40b is simply moved closer to the head 40a.

距離のデータから上記のような特徴が読み取れるが、加速度のデータを用いると距離のデータを用いた場合よりも、より詳細かつ簡易に擦過運動のダイナミクスの定量化が可能となる。図9の加速度のグラフに示すように、アトピーマウスの一連の行動の時間範囲であるΔTは加速度が極小値をとる2つの時刻tmin11,tmin12の間の範囲と一致している。これは、頭部40aと後脚の先端部40bとが最も離れたときに、加速度が最小となるためである。 The above-described features can be read from the distance data. However, if the acceleration data is used, the dynamics of the rubbing motion can be quantified more in detail and more easily than when the distance data is used. As shown in the acceleration graph of FIG. 9, ΔT 1, which is a time range of a series of actions of the atopic mouse, coincides with a range between two times t min11 and t min12 at which the acceleration takes a minimum value. This is because the acceleration is minimized when the head 40a is farthest from the tip 40b of the rear leg.

また、加速度のグラフのΔTの範囲内の擦過運動を行っている範囲90に対応する部分には、加速度が極大値を取る2つの時刻tmax11,tmax12が存在している。その2つの時刻tmax11,tmax12の間の範囲であるΔtが、範囲90に対応している。これは、擦過行動を行っているときには、頭部40aと後脚の先端部40bとの間の距離がほぼ一定に保たれ、そのときの速度がほぼゼロとなる(図9の速度のグラフでは範囲91に該当する)時間帯があり、その時間帯では加速度が一時的にゼロ前後の値となるためである。またこれは、この時間帯には摩擦抵抗が働いていることを示している。 Further, two times t max11 and t max12 at which the acceleration takes a maximum value exist in the portion corresponding to the range 90 where the rubbing motion is performed within the range of ΔT 1 in the acceleration graph. Δt 1 , which is a range between the two times t max11 and t max12 , corresponds to the range 90. This is because the distance between the head 40a and the tip 40b of the rear leg is kept substantially constant during the rubbing action, and the speed at that time becomes almost zero (in the speed graph of FIG. 9). This is because there is a time zone (corresponding to the range 91), and the acceleration temporarily becomes a value around zero in that time zone. This also indicates that frictional resistance is active during this time period.

一方、擦過運動が行われていない、加速度のグラフのΔTの範囲では、上気した特徴がないので加速度の極大値を取る時刻は1つしか存在しない。なお、上記において、グラフ中の極大値及び極小値は、近傍の値と比較することにより導出することができる。 On the other hand, in the range of ΔT 2 in the acceleration graph in which no rubbing motion is performed, there is no uplifted feature, so there is only one time for taking the maximum value of acceleration. In the above description, the maximum value and the minimum value in the graph can be derived by comparing with neighboring values.

従って、定量化部32では、上記の特徴を擦過運動の回数を定量化する基準として予め設けておけば、定量化することが可能である。その基準としては、例えば極小値用閾値と極大値用閾値とを予め適切に定めておき、加速度のグラフにおいて、所定の極小値用閾値を下回る極小値を取る、2つの時刻間の範囲に所定の極大値用閾値を上回る極大点をとる時刻が2点存在しているか、というものを用いることができる。   Therefore, in the quantification part 32, if the above-mentioned features are provided in advance as a reference for quantifying the number of rubbing movements, it is possible to quantify. As the standard, for example, a threshold value for a minimum value and a threshold value for a maximum value are appropriately determined in advance, and in an acceleration graph, a minimum value that is lower than a predetermined threshold value for a minimum value is taken. It is possible to use whether there are two points at which the maximum point exceeding the threshold value for the maximum value is present.

また、tmax11,tmax12の間の範囲であるΔtを1回の擦過運動を行っている時間とすれば、極大点をとる時刻間の時間を合算することにより擦過運動を行った時間を定量化することができる。 Further , if Δt 1 , which is a range between t max11 and t max12, is a time during which one rubbing motion is performed, the time during which the rubbing motion is performed is obtained by adding up the time between times at which the maximum points are taken. Can be quantified.

更に擦過運動を行っている時刻t(tmax11≦t≦tmax12)における引っ掻き強度N(t)を次の式により求めることができる。
N(t)=m(a(tmax11)−a(t))/μ
ここで、a(t)は時刻tにおける加速度、mは後脚の先端部40bの質量、μは頭部40aと後脚の先端部40bとの間の動摩擦係数をそれぞれ表す。また、引っ掻き強度から引っ掻き強度の平均を求めることができ、擦過運動の質を定量化することができる。また、tmax11とtmax12との間の範囲以外での引っ掻き強度についても上記と同様に求めることができる。
Further, the scratch strength N (t) at the time t (t max11 ≦ t ≦ t max12 ) during the rubbing motion can be obtained by the following equation.
N (t) = m (a (t max11 ) −a (t)) / μ
Here, a (t) represents the acceleration at time t, m represents the mass of the rear leg tip 40b, and μ represents the dynamic friction coefficient between the head 40a and the rear leg tip 40b. In addition, the average scratch strength can be obtained from the scratch strength, and the quality of the rubbing motion can be quantified. Further, the scratch strength outside the range between t max11 and t max12 can be obtained in the same manner as described above.

このように定量化された特定行動のダイナミクスのデータをコンピュータ30に備えられるモニタに表示させる等すれば特定行動のダイナミクスの内容をユーザが確認することができる。   If the data of the dynamics of the specific action quantified in this way is displayed on a monitor provided in the computer 30, the user can confirm the contents of the dynamics of the specific action.

上記のように、本実施形態における特定行動定量化システム10によれば、映像データから算出されるアトピーマウス40における、頭部40aと後脚の先端部40bとの2つの部位間の距離の時系列情報を用いることにより、特定行動のダイナミクスを定量化することができる。なお、上記のようなダイナミクスの定量化は、2つの部位間の距離の閾値を下回る回数をただ単にカウントするようなシステムでは不可能であり、本実施形態ならではの効果である。   As described above, according to the specific behavior quantification system 10 in the present embodiment, when the distance between two parts of the head 40a and the rear leg tip 40b in the atopy mouse 40 calculated from the video data is obtained. By using the series information, the dynamics of a specific action can be quantified. Note that the dynamics quantification as described above is impossible with a system that simply counts the number of times below the threshold of the distance between two parts, and is an effect unique to this embodiment.

また、本実施形態のように頭部40aと後脚の先端部40bとに発色物質からなるマーカを付し、マーカの位置を算出することとすれば、部位間の距離を更に確実に算出できる。また、特定行動によっては、マーカを上記以外の別の箇所に付すこととしてもよい。例えば、本実施形態では、一方のマーカを一方の後脚の先端部40bとしているが、四肢のうちの別の一つの先端部としてもよい。   Further, if the marker made of a coloring material is attached to the head 40a and the tip 40b of the rear leg as in this embodiment, and the position of the marker is calculated, the distance between the parts can be calculated more reliably. . Further, depending on the specific action, the marker may be attached to another place other than the above. For example, in the present embodiment, one marker is the tip 40b of one rear leg, but may be another tip of one of the extremities.

また、本実施形態のように特定動作に係る部分のみをトラッキングして撮像を行うこととすれば、上述したように映像データのデータサイズを小さくすることができ、情報処理の高速化等が可能になる。但し、超高速の処理装置等を用いることができる場合や特定動作がほぼ一定の箇所で行われるような場合は、このようなトラッキングは必ずしも必要ない。   In addition, if the imaging is performed by tracking only the portion related to the specific operation as in the present embodiment, the data size of the video data can be reduced as described above, and the information processing speed can be increased. become. However, such tracking is not necessarily required when an ultra-high-speed processing apparatus or the like can be used or when a specific operation is performed at a substantially constant location.

また、本実施形態のようにカメラ20による撮像は、100fps以上、より好ましくは500fps以上の撮像速度で行われるのが好ましい。本実施形態におけるアトピーマウス40の擦過行動を含め、モデル動物の特定行動の中には1秒間に十数回程度あるいは数十回行われることがあるため、一般のビデオの撮像速度である約30fpsでの撮影では十分に対応できない場合があるためである。   Further, as in the present embodiment, it is preferable that the imaging by the camera 20 is performed at an imaging speed of 100 fps or more, more preferably 500 fps or more. Since the specific behavior of the model animal, including the rubbing behavior of the atopy mouse 40 in this embodiment, may be performed about ten times or several times per second, about 30 fps, which is a general video imaging speed. This is because shooting with a camera may not be able to cope sufficiently.

例えば、図10の上段に100fpsの速度により撮像されたデータから算出された距離のデータのグラフを、図10の下段に30fpsの速度により撮像されたデータから算出された距離のデータのグラフを、それぞれ示す。図10の上段及び下段に示すデータは、同じ擦過行動のデータである。図10におけるハッチング部分で特に顕著なように、30fpsの速度により撮像されたものは、100fpsの速度により撮像されたものに比べて、特定行動を十分に反映したものとはいえない。本実施形態のように500fps程度の撮像速度による撮像を行うことができればその映像データに基づく距離の算出が可能となり、より確実なダイナミクスの定量化が可能となる。   For example, a graph of distance data calculated from data imaged at a speed of 100 fps in the upper part of FIG. 10, and a graph of distance data calculated from data imaged at a speed of 30 fps in the lower part of FIG. Each is shown. The data shown in the upper part and the lower part of FIG. As particularly noticeable in the hatched portion in FIG. 10, the image captured at a speed of 30 fps does not sufficiently reflect the specific behavior as compared with the image captured at a speed of 100 fps. If imaging at an imaging speed of about 500 fps can be performed as in the present embodiment, the distance based on the video data can be calculated, and dynamics can be more reliably quantified.

また、本実施形態のように、映像データを構成する画像データを撮像の都度分析することとすれば、リアルタイムでの特定行動のダイナミクスの定量化が可能となる。但し、定量化は必ずしもリアルタイムで行う必要はない。例えば、映像データのみを取得しておき、その後別途距離の算出及びダイナミクスの定量化を行うこととしてもよい。また、撮像と距離の算出とを同じタイミングで行い、距離の時系列データを蓄積しておき、それ以降の処理を別途行うこととしてもよい。   Further, if the image data constituting the video data is analyzed every time it is imaged as in this embodiment, the dynamics of the specific action in real time can be quantified. However, quantification is not necessarily performed in real time. For example, only video data may be acquired, and then distance calculation and dynamics quantification may be separately performed. Alternatively, imaging and distance calculation may be performed at the same timing, distance time-series data may be accumulated, and subsequent processing may be performed separately.

本発明の実施形態における特定行動定量化システムの構成を示す図である。It is a figure which shows the structure of the specific action quantification system in embodiment of this invention. 実施形態におけるアトピーマウスを模式的に示した図である。It is the figure which showed typically the atopy mouse in embodiment. 実施形態におけるアトピーマウスを模式的に示した図である。It is the figure which showed typically the atopy mouse in embodiment. 本発明の実施形態において特定行動定量化システムにより実行される処理を示すシーケンス図である。It is a sequence diagram which shows the process performed by the specific action quantification system in embodiment of this invention. 本発明の実施形態において特定行動定量化システムにより実行される処理を示すシーケンス図である。It is a sequence diagram which shows the process performed by the specific action quantification system in embodiment of this invention. 各ピクセルの色相及びA値の散布図である。It is a scatter diagram of the hue and A value of each pixel. トラッキング時の撮像範囲を模式的に示した図である。It is the figure which showed typically the imaging range at the time of tracking. 頭部と後脚の先端部との間の距離のグラフである。It is a graph of the distance between a head and the front-end | tip part of a back leg. 頭部と後脚の先端部との間の距離、距離の変化率(部位同士が近づく速度)及び速度の変化率(部位同士が近づく加速度)のグラフである。It is a graph of the distance between a head and the front-end | tip part of a rear leg, the rate of change of the distance (speed which parts approach), and the rate of change of speed (acceleration which parts approach). それぞれ異なる撮像速度で撮像された映像データに基づく頭部と後脚の先端部との間の距離のグラフである。It is a graph of the distance between the head and the front-end | tip part of a back leg based on the video data imaged with each different imaging speed.

符号の説明Explanation of symbols

10…特定行動定量化システム、20…カメラ、21…支持部材、22…照明機器、23…檻、30…コンピュータ、31…距離算出部、32…定量化部、33…撮像範囲制御部、40…アトピーマウス、40a…頭部、40b…後脚の先端部。   DESCRIPTION OF SYMBOLS 10 ... Specific behavior quantification system, 20 ... Camera, 21 ... Supporting member, 22 ... Illumination equipment, 23 ... 檻, 30 ... Computer, 31 ... Distance calculation part, 32 ... Quantification part, 33 ... Imaging range control part, 40 ... atopy mouse, 40a ... head, 40b ... tip of rear leg.

Claims (9)

モデル動物を撮像する撮像手段と、
前記撮像手段により撮像された映像データから、前記モデル動物の所定の2つの部位間の距離を算出する距離算出手段と、
前記距離算出手段により算出された距離の時系列情報から、予め設定した条件に基づき、前記モデル動物の特定行動のダイナミクスを定量化する定量化手段と、
を備える特定行動定量化システム。
Imaging means for imaging a model animal;
Distance calculating means for calculating a distance between two predetermined parts of the model animal from video data imaged by the imaging means;
Quantifying means for quantifying the dynamics of the specific behavior of the model animal based on a preset condition from the time series information of the distance calculated by the distance calculating means;
A specific behavior quantification system.
前記距離算出手段は、前記所定の2つの部位に付されたマーカの位置を前記映像データから算出して、当該算出された2つのマーカの位置から前記距離を算出することを特徴とする請求項1に記載の特定行動定量化システム。   The distance calculation unit calculates a position of a marker attached to the two predetermined parts from the video data, and calculates the distance from the calculated position of the two markers. The specific behavior quantification system according to 1. 前記モデル動物の所定の2つの部位に付されるマーカは、それぞれ異なる色の発色物質であり、
前記距離算出手段は、前記映像データから取得又は算出される色彩及び色相データから当該マーカの位置を算出する、
ことを特徴とする請求項2に記載の特定行動定量化システム。
The markers attached to the two predetermined parts of the model animal are color developing substances of different colors,
The distance calculation means calculates the position of the marker from color and hue data acquired or calculated from the video data.
The specific behavior quantification system according to claim 2.
前記距離手段により算出された、前記モデル動物の2つのマーカのうち予め選択された1つのマーカの位置の情報に基づき、当該選択されたマーカを含む所定の範囲を撮像するように前記撮像手段を制御する撮像範囲制御手段を更に備える請求項2又は3に記載の特定行動定量化システム。   Based on the information of the position of one marker selected in advance among the two markers of the model animal calculated by the distance means, the imaging means is configured to image a predetermined range including the selected marker. The specific action quantification system according to claim 2, further comprising imaging range control means for controlling. 前記撮像制御手段は、前記選択されたマーカの位置の情報から当該マーカの移動方向及び速度を算出し、当該算出された移動方向及び速度にも基づいて前記制御を行うことを特徴とする請求項4に記載の特定行動定量化システム。   The imaging control unit calculates a moving direction and speed of the marker from information on the position of the selected marker, and performs the control based on the calculated moving direction and speed. 4. The specific behavior quantification system according to 4. 前記定量化手段は、前記距離の時系列情報から前記所定の2つの部位同士が近づく速度又は加速度のうち少なくとも一つを算出して当該算出した値を用いて前記ダイナミクスを定量化することを特徴とする請求項1〜5の何れか一項に記載の特定行動定量化システム。   The quantifying means calculates at least one of speeds or accelerations at which the predetermined two parts approach each other from the time series information of the distance, and quantifies the dynamics using the calculated value. The specific behavior quantification system according to any one of claims 1 to 5. 前記所定の2つの部位は、前記モデル動物の頭部及び四肢のうちの一つの先端部であり、
前記モデル動物の特定行動は、前記モデル動物が前記先端部により前記頭部を引っ掻く擦過運動であることを特徴とする請求項1〜6の何れか一項に記載の特定行動定量化システム。
The predetermined two parts are the tip of one of the head and limbs of the model animal,
The specific behavior quantification system according to any one of claims 1 to 6, wherein the specific behavior of the model animal is a rubbing motion in which the model animal scratches the head with the tip portion.
前記撮像手段は、100fps以上の撮像速度で撮像を行うことを特徴とする請求項1〜7の何れか一項に記載の特定行動定量化システム。   The specific action quantification system according to claim 1, wherein the imaging unit performs imaging at an imaging speed of 100 fps or more. モデル動物を撮像する撮像ステップと、
前記撮像ステップにおいて撮像された映像データから、前記モデル動物の所定の2つの部位間の距離を算出する距離算出ステップと、
前記距離算出ステップにおいて算出された距離の時系列情報から、予め設定した条件に基づき、前記モデル動物の特定行動のダイナミクスを定量化する定量化ステップと、
を含む特定行動定量化方法。
An imaging step of imaging a model animal;
A distance calculating step of calculating a distance between two predetermined parts of the model animal from the video data imaged in the imaging step;
From the time series information of the distance calculated in the distance calculating step, based on a preset condition, a quantifying step for quantifying the dynamics of the specific behavior of the model animal,
Specific behavior quantification method including
JP2004265882A 2004-09-13 2004-09-13 System and method for quantifying specific action Pending JP2006075138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004265882A JP2006075138A (en) 2004-09-13 2004-09-13 System and method for quantifying specific action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004265882A JP2006075138A (en) 2004-09-13 2004-09-13 System and method for quantifying specific action

Publications (1)

Publication Number Publication Date
JP2006075138A true JP2006075138A (en) 2006-03-23

Family

ID=36155108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004265882A Pending JP2006075138A (en) 2004-09-13 2004-09-13 System and method for quantifying specific action

Country Status (1)

Country Link
JP (1) JP2006075138A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531049A (en) * 2006-03-28 2009-09-03 ザ・ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ A method for automatically characterizing the behavior of one or more objects.
JP2010000039A (en) * 2008-06-20 2010-01-07 Tokyo Univ Of Agriculture & Technology Apparatus for analyzing forced swimming action of experimental animal by using high-speed video image
JP2018148843A (en) * 2017-03-13 2018-09-27 富士通株式会社 Behavior amount calculation program, behavior amount calculation method, behavior amount calculation device and animal monitoring system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003067973A1 (en) * 2002-02-13 2003-08-21 Tokyo University Of Agriculture And Technology Tlo Co., Ltd. Automatic animal motion observation method and apparatus, and motion quantization apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003067973A1 (en) * 2002-02-13 2003-08-21 Tokyo University Of Agriculture And Technology Tlo Co., Ltd. Automatic animal motion observation method and apparatus, and motion quantization apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531049A (en) * 2006-03-28 2009-09-03 ザ・ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ A method for automatically characterizing the behavior of one or more objects.
JP2010000039A (en) * 2008-06-20 2010-01-07 Tokyo Univ Of Agriculture & Technology Apparatus for analyzing forced swimming action of experimental animal by using high-speed video image
JP2018148843A (en) * 2017-03-13 2018-09-27 富士通株式会社 Behavior amount calculation program, behavior amount calculation method, behavior amount calculation device and animal monitoring system

Similar Documents

Publication Publication Date Title
Tsai et al. A motion and image analysis method for automatic detection of estrus and mating behavior in cattle
US20180081434A1 (en) Eye and Head Tracking
van Dam et al. An automated system for the recognition of various specific rat behaviours
JP5607640B2 (en) Method and apparatus for obtaining images of eye features
JP6915904B2 (en) Interpretation system for cow riding behavior
CN107077626A (en) Animal non-intrusion type multi-modal biological characteristic identification system
EP1337962A2 (en) System and method for object identification and behavior characterization using video analysis
JP2004317699A (en) Digital camera
JP2004320286A (en) Digital camera
EP1217572A3 (en) Digital image processing method and computer program product for detecting human irises in an image
CN109670421B (en) Fatigue state detection method and device
CN106659370B (en) Capsule type endoscope and endoscopic system
JP7108941B2 (en) ANIMAL INFORMATION MANAGEMENT SYSTEM AND ANIMAL INFORMATION MANAGEMENT METHOD
JP2009150829A (en) Biological sample observation method
CN107454313A (en) The photographic method and camera system of agricultural intelligent device
CN109120844A (en) Video camera controller, camera shooting control method and storage medium
Wang et al. Towards a kinect-based behavior recognition and analysis system for small animals
JP2004320285A (en) Digital camera
JP3796692B2 (en) Method and apparatus for automated observation of biological movement, and apparatus for quantifying specific movement
CA3230401A1 (en) Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes
JP7387170B2 (en) Estrus detection device, estrus detection method, estrus detection program, and recording medium
JP2006075138A (en) System and method for quantifying specific action
TW201617028A (en) Information processing device, information processing method, and program
Haghmohammadi et al. Remote measurement of body temperature for an indoor moving crowd
JP2010000039A (en) Apparatus for analyzing forced swimming action of experimental animal by using high-speed video image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100629