JP2006075138A - System and method for quantifying specific action - Google Patents
System and method for quantifying specific action Download PDFInfo
- Publication number
- JP2006075138A JP2006075138A JP2004265882A JP2004265882A JP2006075138A JP 2006075138 A JP2006075138 A JP 2006075138A JP 2004265882 A JP2004265882 A JP 2004265882A JP 2004265882 A JP2004265882 A JP 2004265882A JP 2006075138 A JP2006075138 A JP 2006075138A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- imaging
- model animal
- marker
- specific behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、モデル動物の特定行動を定量化する特定行動定量化システム及び特定行動定量化方法に関する。 The present invention relates to a specific behavior quantification system and a specific behavior quantification method for quantifying a specific behavior of a model animal.
近年、アトピー疾患等のアレルギーの増加が大きな社会問題になっており、アトピー疾患等の根治治療の確立及び効果的な新薬開発が強く求められている。例えば、アトピー疾患に対する新薬開発は、細胞や組織に対する評価であるin vitro評価を中心に行われている一方、開発の最終段階で行われる、疾患モデル動物を用いたin vivo評価が不可欠となっている。in vivo評価は、例えば皮膚炎を発症するマウスが後脚で皮膚炎による痒みが発生している頭部を引っ掻くといった特定行動を測定することにより行われる。今までのin vivo評価は通常、専門家がモデル動物の引っ掻き行動等の特定行動を観察することにより行われていた。しかし、この方法では専門家の主観が入るため取得されたデータに客観性がなく、また時間や人件費がかさんでいた。 In recent years, an increase in allergies such as atopic diseases has become a major social problem, and there is a strong demand for the establishment of curative treatment for atopic diseases and the like and the development of effective new drugs. For example, new drug development for atopic diseases is centered on in vitro evaluation, which is an evaluation of cells and tissues, while in vivo evaluation using disease model animals is indispensable at the final stage of development. Yes. In vivo evaluation is performed, for example, by measuring a specific behavior such that a mouse that develops dermatitis scratches the head where itching due to dermatitis occurs on the hind legs. Until now, in vivo evaluation has usually been performed by an expert observing specific behavior such as scratching behavior of a model animal. However, with this method, the subjectivity of the expert is included, so the acquired data is not objective, and time and labor costs are high.
上記の状況に対処するため、モデル動物の頭部と後脚の先端部との2点間の距離の時系列データを取得し、そのデータからモデル動物の引っ掻き行動等の特定行動の回数をカウントするシステムが開発されている(例えば、下記特許文献1及び非特許文献1参照)。
しかしながら、特許文献1及び非特許文献1に記載された技術では、特定行動の回数という定量化は可能であるものの、その引っ掻き行動等の特定行動がどのような動きであるか、即ち特定行動のダイナミクスまで測定することはできないという課題がある。
However, with the techniques described in
本発明は上記課題を解決するために成されたものであり、モデル動物の特定行動のダイナミクスを定量化することができる特定行動定量化システム及び特定行動定量化方法を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to provide a specific behavior quantification system and a specific behavior quantification method capable of quantifying the dynamics of a specific behavior of a model animal. .
上記目的を達成するために、本発明に係る特定行動定量化システムは、モデル動物を撮像する撮像手段と、撮像手段により撮像された映像データから、モデル動物の所定の2つの部位間の距離を算出する距離算出手段と、距離算出手段により算出された距離の時系列情報から、予め設定した条件に基づき、前記モデル動物の特定行動のダイナミクスを定量化する定量化手段と、を備えることを特徴とする。 In order to achieve the above object, a specific behavior quantification system according to the present invention includes an imaging unit that images a model animal, and a distance between predetermined two parts of the model animal based on image data captured by the imaging unit. A distance calculating means for calculating, and a quantifying means for quantifying the dynamics of the specific behavior of the model animal based on a preset condition from the time-series information of the distance calculated by the distance calculating means. And
本発明に係る特定行動定量化システムでは、映像データから算出されるモデル動物における所定の2つの部位間の距離の時系列情報から、予め設定した条件に基づき、特定行動のダイナミクスを定量化する。 In the specific behavior quantification system according to the present invention, the dynamics of specific behavior is quantified based on preset conditions from time-series information of distances between two predetermined parts in a model animal calculated from video data.
また、距離算出手段は、所定の2つの部位に付されたマーカの位置を映像データから算出して、当該算出された2つのマーカの位置から前記距離を算出することが望ましい。この構成によれば距離をより確実に算出でき、本発明をより確実に実施することができる。 Further, it is preferable that the distance calculation means calculates the positions of the markers attached to the two predetermined parts from the video data, and calculates the distance from the calculated positions of the two markers. According to this configuration, the distance can be calculated more reliably, and the present invention can be implemented more reliably.
また、モデル動物の所定の2つの部位に付されるマーカは、それぞれ異なる色の発色物質であり、距離算出手段は、映像データから取得又は算出される色彩及び色相データから当該マーカの位置を算出する、ことが望ましい。この構成によれば距離を更に確実に算出でき、本発明を更に確実に実施することができる。 Further, the markers attached to the two predetermined parts of the model animal are color developing substances of different colors, and the distance calculation means calculates the position of the marker from the color and hue data acquired or calculated from the video data. It is desirable to do. According to this configuration, the distance can be calculated more reliably, and the present invention can be implemented more reliably.
また、特定行動定量化システムは、距離手段により算出された、モデル動物の2つのマーカのうち予め選択された1つのマーカの位置の情報に基づき、当該選択されたマーカを含む所定の範囲を撮像するように撮像手段を制御する撮像範囲制御手段を更に備えることが望ましい。この構成によれば特定動作に係る部分のみをトラッキングして撮像を行うことが可能となり、映像データのデータサイズを小さくすることができる。これにより映像データのフレームレートの増加や映像データの情報処理の高速化を可能とし、特定行動のダイナミクスのより詳細な定量化を可能とする。 Further, the specific behavior quantification system images a predetermined range including the selected marker based on the position information of one marker selected in advance among the two markers of the model animal calculated by the distance unit. It is desirable to further include an imaging range control means for controlling the imaging means. According to this configuration, it is possible to perform imaging by tracking only the portion related to the specific operation, and the data size of the video data can be reduced. As a result, it is possible to increase the frame rate of the video data and to speed up the information processing of the video data, and to further quantify the dynamics of the specific action.
また、撮像制御手段は、選択されたマーカの位置の情報から当該マーカの移動方向及び速度を算出し、当該算出された移動方向及び速度にも基づいて前記制御を行うことが望ましい。この構成によればトラッキングをより精度よく行うことができ、更にデータサイズを小さくすること等が可能である。 In addition, it is desirable that the imaging control unit calculates the movement direction and speed of the marker from the information on the position of the selected marker, and performs the control based on the calculated movement direction and speed. According to this configuration, tracking can be performed with higher accuracy, and the data size can be further reduced.
また、定量化手段は、距離の時系列情報から所定の2つの部位同士が近づく速度又は加速度のうち少なくとも一つを算出して当該算出した値を用いてダイナミクスを定量化することが望ましい。この構成によればより詳細なあるいはより簡易なダイナミクスの定量化が可能となる。 Further, it is desirable that the quantification means calculates at least one of the speed or acceleration at which two predetermined parts approach each other from the time series information of the distance, and quantifies the dynamics using the calculated value. This configuration enables more detailed or simpler dynamics quantification.
また、所定の2つの部位は、モデル動物の頭部及び四肢のうちの一つの先端部であり、モデル動物の特定行動は、モデル動物が先端部により頭部を引っ掻く擦過運動であることが望ましい。この構成によればアトピーマウスが後脚の先端部により頭部を引っ掻く擦過行動等のダイナミクスの定量化を可能とする。 Further, the two predetermined parts are the tip of one of the head and limbs of the model animal, and the specific behavior of the model animal is preferably a rubbing motion in which the model animal scratches the head with the tip. . According to this configuration, it becomes possible to quantify the dynamics such as the rubbing behavior in which the atopic mouse scratches the head with the tip of the rear leg.
また、撮像手段は、100fps(frame per sec)以上の撮像速度で撮像を行うことが望ましい。この構成によれば、例えば特定行動が1秒間に十数回行われるような場合であっても、より確実にダイナミクスの定量化を可能とする。 In addition, it is desirable that the imaging unit performs imaging at an imaging speed of 100 fps (frame per sec) or more. According to this configuration, for example, even when the specific action is performed ten times or more per second, the dynamics can be quantified more reliably.
ところで、本発明は、上記のように特定行動定量化システムの発明として記述できる他に、以下のように特定行動定量化方法の発明としても記述することができる。これらはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。本発明に係る特定行動定量化方法は、モデル動物を撮像する撮像ステップと、撮像ステップにおいて撮像された映像データから、モデル動物の所定の2つの部位間の距離を算出する距離算出ステップと、距離算出ステップにおいて算出された距離の時系列情報から、予め設定した条件に基づき、モデル動物の特定行動のダイナミクスを定量化する定量化ステップと、を含むことを特徴とする。なお、本方法には人間に対する診療行為及び医療行為は含まれない。 By the way, the present invention can be described as the invention of the specific behavior quantification system as described above, and can also be described as the invention of the specific behavior quantification method as follows. These are substantially the same inventions only in different categories, and have the same operations and effects. The specific behavior quantification method according to the present invention includes an imaging step of imaging a model animal, a distance calculation step of calculating a distance between two predetermined parts of the model animal from the video data captured in the imaging step, And a quantification step of quantifying the dynamics of the specific behavior of the model animal based on a preset condition from the time-series information of the distance calculated in the calculation step. This method does not include medical practice or medical practice for humans.
本発明によれば、映像データから算出されるモデル動物における所定の2つの部位間の距離から、予め設定した条件に基づき、特定行動のダイナミクスの定量化を行うことができる。 According to the present invention, the dynamics of a specific action can be quantified based on a preset condition from the distance between two predetermined parts in a model animal calculated from video data.
以下、図面を参照しながら、本発明における特定行動定量化システムの実施形態について説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of a specific behavior quantification system according to the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
図1に示す特定行動定量化システム10は、モデル動物の特定行動のダイナミクスを計測して定量化するシステムである。本実施形態においては、モデル動物はアトピー性皮膚炎に類似した皮膚炎を頭部に発症するマウス(以下、アトピーマウスと呼ぶ)であり、特定行動は後脚の先端部で皮膚炎が発症した頭部を引っ掻く擦過運動である。
A specific
また、特定行動のダイナミクスとは、どのようにその特定行動がなされているということを意味する。ダイナミクスの定量化とは、特定行動を特徴付けるパラメータを抽出することであり、具体的には例えば1回の擦過運動の継続時間や引っ掻き強度を計測すること等が相当する。なお、これらの特定行動のダイナミクスの情報は、例えばアトピー新薬開発において有益な情報として用いられる。なお、本実施形態では上記の例を用いているが他の例に適用してもよい。モデル動物としては、ウサギやネコ等の動物の他、例えばコウモリ等の飛行する動物や、あるいは昆虫等に適用してもよい。また、特定行動としては例えば、口唇で所定部位を噛む等の行動に適用してもよい。 Moreover, the dynamics of a specific action means how the specific action is made. The quantification of dynamics refers to extracting parameters characterizing a specific action, and specifically corresponds to, for example, measuring the duration of one rubbing exercise and the scratching strength. The information on the dynamics of these specific actions is used as useful information in, for example, atopic new drug development. Although the above example is used in the present embodiment, the present invention may be applied to other examples. As a model animal, in addition to animals such as rabbits and cats, the present invention may be applied to flying animals such as bats or insects. The specific action may be applied to an action such as biting a predetermined part with the lips.
本実施形態で用いるアトピーマウス40を図2に模式的に示す。アトピーマウス40には、皮膚炎を発症する頭部40aに赤色の蛍光塗料等の発色物質を塗布し一方のマーカとする。また、頭部40aを引っ掻く一方の後脚の先端部40bに黄色の発色物質を塗布し、もう一方のマーカとする。このマーカは、アトピーマウスの頭部40aと後脚の先端部40bとの間の距離を映像データから測定するために付されるものである。
An
図1に本実施形態に係る特定行動定量化システム10の構成を示す。特定行動定量化システム10は、カメラ20と、コンピュータ30とを含んで構成される。カメラ20とコンピュータ30とは、互いにデータを送受信できるようにケーブル等で接続されている。カメラ20は、アトピーマウス40の特定行動が分かるように上方からアトピーマウス40を撮像する撮像手段である。カメラ20はコンピュータ30から撮像の制御を受け、カメラ20により撮像された映像データはコンピュータ30に送信される。カメラ20の撮像速度は100fps以上とする。更に好ましくは500fps以上であることとするのがよい。一般のビデオの撮像速度は約30fpsであるものが多いが、アトピーマウス40の擦過行動は1秒間に15回程度行われるため、一般のビデオの撮影速度では十分対応できない場合があるためである。
FIG. 1 shows a configuration of a specific
また、カメラ20の解像度は512ピクセル×512ピクセル程度であることが好ましい。また、カメラ20には、画素単位でのランダムアクセスが可能なCMOS(Complementary Metal Oxide Semiconductor)イメージャと、書き換え可能なLSI(Large Scale Integration)であるFPGA(Field Programmable Gate Array)が搭載されており、高速な撮像が可能であることが好ましい。また、カメラ20は、コンピュータ30からの制御を受け、アトピーマウス40の特定行動部分のみを撮像できる。その撮像範囲は、128ピクセル×128ピクセル程度の範囲であることが好ましい。特定行動部分のみを撮像する具体的制御内容については後述する。
The resolution of the
カメラ20としては具体的には、上記の要件を満たす、以下の仕様である株式会社フォトロン社のMmVision(β版)を用いるのが好ましい。
解像度:1280×1024ピクセル
データクロック:40MHz
内部処理:ALTERA社FPGA APEX20K200
外部出力:MDR26ピン
サイズ:110×50×50mm
Specifically, it is preferable to use MmVision (β version) of Photolon Co., Ltd., which satisfies the above requirements and has the following specifications.
Resolution: 1280 x 1024 pixels Data clock: 40 MHz
Internal processing: ALTERA FPGA APEX20K200
External output: MDR26 pin Size: 110 × 50 × 50mm
カメラ20は、アトピーマウス40を入れておくための檻23のほぼ真上に撮像を行うレンズ面が檻23に向かうように、支持部材21により位置決めされ固定される。また、支持部材21には照明機器22も位置決めされて固定されており、照明機器22はカメラ20による撮像の際に、一定の明るさでアトピーマウス40を撮像できるように檻23内を照らす。アトピーマウス40を入れる檻23は、アトピーマウス40が檻から出られないよう、例えばプラスチック等の透明な壁面により四方を囲まれたものであり、上方は開口を有している。檻23の内側の底面の色は、マーカを適切に抽出できるように白色等、無彩色である。また、檻23は、アトピーマウス40がある程度自由な行動をできるよう、例えばアトピーマウス40の体長の数倍程度四方の所定の広さを有する。カメラ20は、当該所定の広さの範囲をすべて撮像可能なように焦点距離等が調節される。
The
コンピュータ30は、距離算出部(距離算出手段)31と、定量化部(定量化手段)32と、撮像範囲制御部(撮像範囲制御手段)33とを備える。上記の各機能は、コンピュータ30が備えるCPU、メモリ及びストレージ等による情報処理機能により実現される。
The
距離算出部31は、カメラ20により撮像された映像データから、アトピーマウス40に付された2つのマーカの位置を算出して、当該算出された位置情報からそれぞれマーカが付された頭部40aと後脚の先端部40bとの間の距離を算出する。位置及び距離の具体的な算出方法は後述する。距離算出部31における位置及び距離の算出は、例えば撮像により画像データが取得されるのにあわせて、所定の時間間隔毎に繰り返し行われる。位置及び距離の算出は映像データを構成する画像データを用いて行われる。算出された距離の情報は定量化部32に送信され、頭部40aに対応するマーカの位置の情報は撮像範囲制御部33に送信される。
The
定量化部32は、距離算出部31により算出された距離の時系列情報から、アトピーマウス40の擦過運動のダイナミクスを定量化する。この定量化は、定量化部32に保持されている予め設定された条件に基づいて行われる。具体的な条件及び定量化方法は後述する。
The
撮像範囲制御部33は、カメラ20の撮像範囲を制御する。その制御には、所定の場合に頭部40aに対応するマーカを含む所定の範囲を撮像させる制御が含まれる。所定の場合の具体的内容については後述する。所定の範囲はマーカの重心を中心として特定行動を撮像できる正方形の範囲、例えば上述したように128ピクセル×128ピクセル程度の範囲であるのが好ましい。当該制御は、距離算出部31から送信される頭部40aに対応するマーカの位置の情報を受信し、その情報からマーカの移動方向及び速度を算出し、算出された移動方向及び速度にも基づいて行われることが好ましい。
The imaging
この制御は、映像データを特定動作にかかる部分のみ撮像されたものとするために行われる。これにより映像データのフレームレートの増加や映像データの情報処理の高速化を可能とし、特定行動のダイナミクスのより詳細な定量化を可能とする。また、頭部40aのマーカを用いているのは、上方からアトピーマウス40を撮像した場合、図3に示すように後脚の先端部40bのマーカがアトピーマウス40の胴体に隠れてしまい、後脚の先端部40bのマーカの抽出ができないことがあるからである。
This control is performed in order to capture only the part of the video data related to the specific operation. As a result, it is possible to increase the frame rate of the video data and to speed up the information processing of the video data, and to further quantify the dynamics of the specific action. In addition, the marker of the
以下、本実施形態における特定行動定量化システム10により実行される処理を図4及び図5のシーケンス図を用いて説明する。まず、コンピュータ30の撮像範囲制御部33がカメラ20に、撮像を制御する信号を送信する(S01)。ここでの制御信号は、アトピーマウス40を入れる檻23全体を撮像する制御信号である。制御信号が送信されたカメラ20では、その制御信号を受信し(S02)、制御信号に基づき撮像を行う(S03)。カメラ20は、当該撮像により取得された画像データ(映像データの1フレーム)をコンピュータ30に送信する(S04)。コンピュータ30では、当該画像データを受信する(S05)。
Hereinafter, processing executed by the specific
画像データを受信したコンピュータ30では、距離算出部31がその画像データからアトピーマウス40に付されたマーカを以下のように抽出する(S06)。まず、距離算出部31は画像データの各ピクセルの色彩データである、各ピクセルのR(Red:赤)、G(Green:緑)及びB(Blue:青)の256段階のレベルの信号値を取得する。取得された各ピクセルのR、G及びBの信号値から以下の式により各ピクセルのA値を求める。A値は、ピクセルの色が無彩色から離れている度合いで、背景を除外しマーカを効果的に抽出するためのパラメータである。
引き続いて、距離算出部31は上記の式で得られた値を用いて、以下の式により各ピクセルの色相Hを求める。
Subsequently, the
続いて、距離算出部31は、頭部40aのマーカが抽出されたか否かを判断する(S07)。頭部40aのマーカを抽出できなかった場合は、再度、撮像範囲制御部33からカメラ20に対し、撮像を制御する信号が送信され(図4のA,S01)、上記と同様のフローが繰り返される。
Subsequently, the
頭部40aのマーカを抽出できた場合(図4及び図5のB)は、距離算出部31は、頭部40aのマーカの位置情報を撮像範囲制御部33に送信する。撮像範囲制御部33は、当該位置情報に基づき当該マーカを含むように撮像範囲を決定する(S11)。具体的には、例えば、頭部40aのマーカが中心に来るようにした、上述したような128×128ピクセルの範囲を撮像範囲とする。なお、撮像範囲制御部33で頭部40aのマーカの位置の時系列情報を記憶しておき、その時系列情報から頭部40aのマーカの移動方向及び速度を算出し、算出された移動方向及び速度も考慮して頭部40aのマーカが中心に来るように撮像範囲を決定することとするのが好ましい。
When the marker of the
撮像範囲制御部33は決定した撮像範囲で撮像を行うように制御信号を送信する(S12)。制御信号が送信されたカメラ20では、その制御信号を受信し(S13)、制御信号に基づき撮像を行う(S14)。カメラ20は、当該撮像により取得された画像データをコンピュータ30に送信する(S15)。コンピュータ30では、当該画像データを受信する(S16)。
The imaging
このような制御を行うことにより、図7に示すように、常に頭部40aのマーカを含むようにトラッキングして撮像範囲20bを設定し、撮像を行うことができる(図7において、破線はアトピーマウス40の移動の軌跡、即ち頭部40aのマーカの軌跡を示す)。従って、擦過運動に係る部分のみをトラッキングして撮像を行うことが可能となり、図7に示す檻23全体を撮像範囲20aとするよりも、映像データのデータサイズを小さくすることができる。これにより映像データのフレームレートの増加や映像データの情報処理の高速化を可能とし、特定行動のダイナミクスのより詳細な定量化を可能とする。また、上述したように移動方向及び速度を考慮すれば、トラッキングをより精度よく行うことができ、更にデータサイズを小さくすること等が可能である。
By performing such control, as shown in FIG. 7, the
引き続いて、画像データを受信したコンピュータ30では、上述したS06の処理と同様の方法で、距離算出部31がその画像データからアトピーマウス40に付されたマーカを抽出する(S17)。
Subsequently, in the
続いて、距離算出部31は、頭部40aのマーカが抽出されたか否かを判断する(S18)。頭部40aのマーカを抽出できなかった場合は、再度、撮像範囲制御部33からカメラ20に対し、檻23全体を撮像する信号が送信され(図4のA,S01)、上記と同様のフローが繰り返される。
Subsequently, the
頭部40aのマーカを抽出できた場合は、距離算出部31は、後脚の先端部40bのマーカが抽出されたか否かを判断する(S19)。後脚の先端部40bのマーカを抽出できなかった場合は、再度、撮像範囲制御部33からカメラ20に対し、頭部40aのマーカに基づき撮像範囲を決定し(図5のB,S11)、上記と同様のフローが繰り返される。なお、後脚の先端部40bのマーカを抽出できない場合としては、具体的にはマーカ部分がアトピーマウス40の胴体に隠れてしまう場合や、マーカ部分が撮像範囲から出てしまう場合等がある。
When the marker of the
後脚の先端部40bのマーカを抽出できた場合は、距離算出部31は、算出されたマーカの位置情報からそれぞれマーカが付された頭部40aと後脚の先端部40bとの間の距離を算出する。(S20)。当該距離は、例えば画像データのピクセル単位で算出される。算出された距離の情報は、定量化部32に送信され記憶される。なお、S20における当該距離の算出は、繰り返し行われ(繰り返しのフローについては後述する)、定量化部32において時系列情報として記憶される。取得された距離のデータは、例えば、図8のグラフに示すように表すことができる。図8に示すグラフにおいて横軸は時間(単位は秒)を表し、縦軸は距離(単位はピクセル)を表す。図8のグラフにおいて、ハッチングで示される部分は距離データが存在しないが、それは後脚部40bのマーカ部分がアトピーマウス40の胴体に隠れたり、マーカ部分が撮像範囲から出たり等、距離を算出することができなかったことを示す。
When the marker of the
続いて、定量化部32が、頭部40aと後脚の先端部40bとの間の距離の時系列情報から、頭部40aと後脚の先端部40bとが近づく速度及び加速度を算出する(S21)。速度の算出は距離の時間変化率を求めることにより、加速度の算出は速度の時間変化率を求めることにより、それぞれ行われる。なお、速度及び加速度はそれぞれ、距離が大きくなる方向がプラス方向である(従って実際には、頭部40aと後脚の先端部40bとが遠ざかる速度及び加速度となっている)。距離のデータ、速度のデータ及び加速度のデータをグラフに表したものを図9に示す。図9における上段のグラフが距離のデータ、中断のグラフが速度のデータ、下段のグラフが加速度のデータを示す。図9のグラフにおいて、横軸は時間(単位は秒)であり、データプロット間隔は撮像速度と同じ1/500秒である。
Subsequently, the
続いて、定量化部32が、上記算出された値に基づいて、アトピーマウスの擦過運動のダイナミクスの定量化を行う(S22)。定量化を行った後は、再度、撮像範囲制御部33からカメラ20に対し、頭部40aのマーカに基づき撮像範囲を決定し(図5のB,S11)、上記と同様のフローが繰り返される。なお、この定量化は、常にこのタイミングで行われる必要はなく、距離のデータ、速度のデータ及び加速度のデータが一定量蓄積された状態で行われてもよい。また、これらのデータを一旦全て集めておいて、撮像や距離算出と別のタイミングで行われてもよい。
Subsequently, the
定量化は具体的には次のように行う。擦過運動の回数及び時間の定量化を例として説明する。まず、導出された値から擦過運動が行われている部分を特定する。擦過運動が行われているのは、例えば、図9の距離のグラフにおける、時間軸のΔT1の範囲における破線で囲まれた範囲90で示す部分である。ΔT1の範囲では、まず頭部40aと後脚の先端部40bとの間の距離が相対的に大きく、それぞれの部位40a,40bが互いに離れた状態である。その後範囲90の部分では頭部40aと後脚の先端部40bとの間の距離が相対的に小さくなり、その状態が一定時間保たれる。その後、また、頭部40aと後脚の先端部40bとが離れた状態になる。上記のように頭部40aと後脚の先端部40bとの間の距離が小さくなった状態で一定時間保たれている場合、アトピーマウスは擦過運動を行っている(アトピーマウスの実際の映像からも確かめられる)。
Specifically, the quantification is performed as follows. An example of quantifying the number of times of rubbing movement and time will be described. First, a portion where the rubbing motion is performed is specified from the derived value. The rubbing movement is performed, for example, in a portion indicated by a
一方、図9の距離のグラフにおける、時間軸のΔT2の範囲では、擦過運動は行われていない。ΔT2の範囲において、頭部40aと後脚の先端部40bとの間の距離が相対的に小さくなっている部分があるが、その状態が継続しておらず、引っ掻きをせず単に後脚の先端部40bを頭部40aの近くに移動させただけである。
On the other hand, the rubbing motion is not performed in the range of ΔT 2 on the time axis in the distance graph of FIG. In the range of [Delta] T 2, there is a portion where the distance between the
距離のデータから上記のような特徴が読み取れるが、加速度のデータを用いると距離のデータを用いた場合よりも、より詳細かつ簡易に擦過運動のダイナミクスの定量化が可能となる。図9の加速度のグラフに示すように、アトピーマウスの一連の行動の時間範囲であるΔT1は加速度が極小値をとる2つの時刻tmin11,tmin12の間の範囲と一致している。これは、頭部40aと後脚の先端部40bとが最も離れたときに、加速度が最小となるためである。
The above-described features can be read from the distance data. However, if the acceleration data is used, the dynamics of the rubbing motion can be quantified more in detail and more easily than when the distance data is used. As shown in the acceleration graph of FIG. 9, ΔT 1, which is a time range of a series of actions of the atopic mouse, coincides with a range between two times t min11 and t min12 at which the acceleration takes a minimum value. This is because the acceleration is minimized when the
また、加速度のグラフのΔT1の範囲内の擦過運動を行っている範囲90に対応する部分には、加速度が極大値を取る2つの時刻tmax11,tmax12が存在している。その2つの時刻tmax11,tmax12の間の範囲であるΔt1が、範囲90に対応している。これは、擦過行動を行っているときには、頭部40aと後脚の先端部40bとの間の距離がほぼ一定に保たれ、そのときの速度がほぼゼロとなる(図9の速度のグラフでは範囲91に該当する)時間帯があり、その時間帯では加速度が一時的にゼロ前後の値となるためである。またこれは、この時間帯には摩擦抵抗が働いていることを示している。
Further, two times t max11 and t max12 at which the acceleration takes a maximum value exist in the portion corresponding to the
一方、擦過運動が行われていない、加速度のグラフのΔT2の範囲では、上気した特徴がないので加速度の極大値を取る時刻は1つしか存在しない。なお、上記において、グラフ中の極大値及び極小値は、近傍の値と比較することにより導出することができる。 On the other hand, in the range of ΔT 2 in the acceleration graph in which no rubbing motion is performed, there is no uplifted feature, so there is only one time for taking the maximum value of acceleration. In the above description, the maximum value and the minimum value in the graph can be derived by comparing with neighboring values.
従って、定量化部32では、上記の特徴を擦過運動の回数を定量化する基準として予め設けておけば、定量化することが可能である。その基準としては、例えば極小値用閾値と極大値用閾値とを予め適切に定めておき、加速度のグラフにおいて、所定の極小値用閾値を下回る極小値を取る、2つの時刻間の範囲に所定の極大値用閾値を上回る極大点をとる時刻が2点存在しているか、というものを用いることができる。
Therefore, in the
また、tmax11,tmax12の間の範囲であるΔt1を1回の擦過運動を行っている時間とすれば、極大点をとる時刻間の時間を合算することにより擦過運動を行った時間を定量化することができる。 Further , if Δt 1 , which is a range between t max11 and t max12, is a time during which one rubbing motion is performed, the time during which the rubbing motion is performed is obtained by adding up the time between times at which the maximum points are taken. Can be quantified.
更に擦過運動を行っている時刻t(tmax11≦t≦tmax12)における引っ掻き強度N(t)を次の式により求めることができる。
N(t)=m(a(tmax11)−a(t))/μ
ここで、a(t)は時刻tにおける加速度、mは後脚の先端部40bの質量、μは頭部40aと後脚の先端部40bとの間の動摩擦係数をそれぞれ表す。また、引っ掻き強度から引っ掻き強度の平均を求めることができ、擦過運動の質を定量化することができる。また、tmax11とtmax12との間の範囲以外での引っ掻き強度についても上記と同様に求めることができる。
Further, the scratch strength N (t) at the time t (t max11 ≦ t ≦ t max12 ) during the rubbing motion can be obtained by the following equation.
N (t) = m (a (t max11 ) −a (t)) / μ
Here, a (t) represents the acceleration at time t, m represents the mass of the
このように定量化された特定行動のダイナミクスのデータをコンピュータ30に備えられるモニタに表示させる等すれば特定行動のダイナミクスの内容をユーザが確認することができる。
If the data of the dynamics of the specific action quantified in this way is displayed on a monitor provided in the
上記のように、本実施形態における特定行動定量化システム10によれば、映像データから算出されるアトピーマウス40における、頭部40aと後脚の先端部40bとの2つの部位間の距離の時系列情報を用いることにより、特定行動のダイナミクスを定量化することができる。なお、上記のようなダイナミクスの定量化は、2つの部位間の距離の閾値を下回る回数をただ単にカウントするようなシステムでは不可能であり、本実施形態ならではの効果である。
As described above, according to the specific
また、本実施形態のように頭部40aと後脚の先端部40bとに発色物質からなるマーカを付し、マーカの位置を算出することとすれば、部位間の距離を更に確実に算出できる。また、特定行動によっては、マーカを上記以外の別の箇所に付すこととしてもよい。例えば、本実施形態では、一方のマーカを一方の後脚の先端部40bとしているが、四肢のうちの別の一つの先端部としてもよい。
Further, if the marker made of a coloring material is attached to the
また、本実施形態のように特定動作に係る部分のみをトラッキングして撮像を行うこととすれば、上述したように映像データのデータサイズを小さくすることができ、情報処理の高速化等が可能になる。但し、超高速の処理装置等を用いることができる場合や特定動作がほぼ一定の箇所で行われるような場合は、このようなトラッキングは必ずしも必要ない。 In addition, if the imaging is performed by tracking only the portion related to the specific operation as in the present embodiment, the data size of the video data can be reduced as described above, and the information processing speed can be increased. become. However, such tracking is not necessarily required when an ultra-high-speed processing apparatus or the like can be used or when a specific operation is performed at a substantially constant location.
また、本実施形態のようにカメラ20による撮像は、100fps以上、より好ましくは500fps以上の撮像速度で行われるのが好ましい。本実施形態におけるアトピーマウス40の擦過行動を含め、モデル動物の特定行動の中には1秒間に十数回程度あるいは数十回行われることがあるため、一般のビデオの撮像速度である約30fpsでの撮影では十分に対応できない場合があるためである。
Further, as in the present embodiment, it is preferable that the imaging by the
例えば、図10の上段に100fpsの速度により撮像されたデータから算出された距離のデータのグラフを、図10の下段に30fpsの速度により撮像されたデータから算出された距離のデータのグラフを、それぞれ示す。図10の上段及び下段に示すデータは、同じ擦過行動のデータである。図10におけるハッチング部分で特に顕著なように、30fpsの速度により撮像されたものは、100fpsの速度により撮像されたものに比べて、特定行動を十分に反映したものとはいえない。本実施形態のように500fps程度の撮像速度による撮像を行うことができればその映像データに基づく距離の算出が可能となり、より確実なダイナミクスの定量化が可能となる。 For example, a graph of distance data calculated from data imaged at a speed of 100 fps in the upper part of FIG. 10, and a graph of distance data calculated from data imaged at a speed of 30 fps in the lower part of FIG. Each is shown. The data shown in the upper part and the lower part of FIG. As particularly noticeable in the hatched portion in FIG. 10, the image captured at a speed of 30 fps does not sufficiently reflect the specific behavior as compared with the image captured at a speed of 100 fps. If imaging at an imaging speed of about 500 fps can be performed as in the present embodiment, the distance based on the video data can be calculated, and dynamics can be more reliably quantified.
また、本実施形態のように、映像データを構成する画像データを撮像の都度分析することとすれば、リアルタイムでの特定行動のダイナミクスの定量化が可能となる。但し、定量化は必ずしもリアルタイムで行う必要はない。例えば、映像データのみを取得しておき、その後別途距離の算出及びダイナミクスの定量化を行うこととしてもよい。また、撮像と距離の算出とを同じタイミングで行い、距離の時系列データを蓄積しておき、それ以降の処理を別途行うこととしてもよい。 Further, if the image data constituting the video data is analyzed every time it is imaged as in this embodiment, the dynamics of the specific action in real time can be quantified. However, quantification is not necessarily performed in real time. For example, only video data may be acquired, and then distance calculation and dynamics quantification may be separately performed. Alternatively, imaging and distance calculation may be performed at the same timing, distance time-series data may be accumulated, and subsequent processing may be performed separately.
10…特定行動定量化システム、20…カメラ、21…支持部材、22…照明機器、23…檻、30…コンピュータ、31…距離算出部、32…定量化部、33…撮像範囲制御部、40…アトピーマウス、40a…頭部、40b…後脚の先端部。
DESCRIPTION OF
Claims (9)
前記撮像手段により撮像された映像データから、前記モデル動物の所定の2つの部位間の距離を算出する距離算出手段と、
前記距離算出手段により算出された距離の時系列情報から、予め設定した条件に基づき、前記モデル動物の特定行動のダイナミクスを定量化する定量化手段と、
を備える特定行動定量化システム。 Imaging means for imaging a model animal;
Distance calculating means for calculating a distance between two predetermined parts of the model animal from video data imaged by the imaging means;
Quantifying means for quantifying the dynamics of the specific behavior of the model animal based on a preset condition from the time series information of the distance calculated by the distance calculating means;
A specific behavior quantification system.
前記距離算出手段は、前記映像データから取得又は算出される色彩及び色相データから当該マーカの位置を算出する、
ことを特徴とする請求項2に記載の特定行動定量化システム。 The markers attached to the two predetermined parts of the model animal are color developing substances of different colors,
The distance calculation means calculates the position of the marker from color and hue data acquired or calculated from the video data.
The specific behavior quantification system according to claim 2.
前記モデル動物の特定行動は、前記モデル動物が前記先端部により前記頭部を引っ掻く擦過運動であることを特徴とする請求項1〜6の何れか一項に記載の特定行動定量化システム。 The predetermined two parts are the tip of one of the head and limbs of the model animal,
The specific behavior quantification system according to any one of claims 1 to 6, wherein the specific behavior of the model animal is a rubbing motion in which the model animal scratches the head with the tip portion.
前記撮像ステップにおいて撮像された映像データから、前記モデル動物の所定の2つの部位間の距離を算出する距離算出ステップと、
前記距離算出ステップにおいて算出された距離の時系列情報から、予め設定した条件に基づき、前記モデル動物の特定行動のダイナミクスを定量化する定量化ステップと、
を含む特定行動定量化方法。 An imaging step of imaging a model animal;
A distance calculating step of calculating a distance between two predetermined parts of the model animal from the video data imaged in the imaging step;
From the time series information of the distance calculated in the distance calculating step, based on a preset condition, a quantifying step for quantifying the dynamics of the specific behavior of the model animal,
Specific behavior quantification method including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004265882A JP2006075138A (en) | 2004-09-13 | 2004-09-13 | System and method for quantifying specific action |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004265882A JP2006075138A (en) | 2004-09-13 | 2004-09-13 | System and method for quantifying specific action |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006075138A true JP2006075138A (en) | 2006-03-23 |
Family
ID=36155108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004265882A Pending JP2006075138A (en) | 2004-09-13 | 2004-09-13 | System and method for quantifying specific action |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006075138A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009531049A (en) * | 2006-03-28 | 2009-09-03 | ザ・ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ | A method for automatically characterizing the behavior of one or more objects. |
JP2010000039A (en) * | 2008-06-20 | 2010-01-07 | Tokyo Univ Of Agriculture & Technology | Apparatus for analyzing forced swimming action of experimental animal by using high-speed video image |
JP2018148843A (en) * | 2017-03-13 | 2018-09-27 | 富士通株式会社 | Behavior amount calculation program, behavior amount calculation method, behavior amount calculation device and animal monitoring system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003067973A1 (en) * | 2002-02-13 | 2003-08-21 | Tokyo University Of Agriculture And Technology Tlo Co., Ltd. | Automatic animal motion observation method and apparatus, and motion quantization apparatus |
-
2004
- 2004-09-13 JP JP2004265882A patent/JP2006075138A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003067973A1 (en) * | 2002-02-13 | 2003-08-21 | Tokyo University Of Agriculture And Technology Tlo Co., Ltd. | Automatic animal motion observation method and apparatus, and motion quantization apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009531049A (en) * | 2006-03-28 | 2009-09-03 | ザ・ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ | A method for automatically characterizing the behavior of one or more objects. |
JP2010000039A (en) * | 2008-06-20 | 2010-01-07 | Tokyo Univ Of Agriculture & Technology | Apparatus for analyzing forced swimming action of experimental animal by using high-speed video image |
JP2018148843A (en) * | 2017-03-13 | 2018-09-27 | 富士通株式会社 | Behavior amount calculation program, behavior amount calculation method, behavior amount calculation device and animal monitoring system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tsai et al. | A motion and image analysis method for automatic detection of estrus and mating behavior in cattle | |
US20180081434A1 (en) | Eye and Head Tracking | |
van Dam et al. | An automated system for the recognition of various specific rat behaviours | |
JP5607640B2 (en) | Method and apparatus for obtaining images of eye features | |
JP6915904B2 (en) | Interpretation system for cow riding behavior | |
CN107077626A (en) | Animal non-intrusion type multi-modal biological characteristic identification system | |
EP1337962A2 (en) | System and method for object identification and behavior characterization using video analysis | |
JP2004317699A (en) | Digital camera | |
JP2004320286A (en) | Digital camera | |
EP1217572A3 (en) | Digital image processing method and computer program product for detecting human irises in an image | |
CN109670421B (en) | Fatigue state detection method and device | |
CN106659370B (en) | Capsule type endoscope and endoscopic system | |
JP7108941B2 (en) | ANIMAL INFORMATION MANAGEMENT SYSTEM AND ANIMAL INFORMATION MANAGEMENT METHOD | |
JP2009150829A (en) | Biological sample observation method | |
CN107454313A (en) | The photographic method and camera system of agricultural intelligent device | |
CN109120844A (en) | Video camera controller, camera shooting control method and storage medium | |
Wang et al. | Towards a kinect-based behavior recognition and analysis system for small animals | |
JP2004320285A (en) | Digital camera | |
JP3796692B2 (en) | Method and apparatus for automated observation of biological movement, and apparatus for quantifying specific movement | |
CA3230401A1 (en) | Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes | |
JP7387170B2 (en) | Estrus detection device, estrus detection method, estrus detection program, and recording medium | |
JP2006075138A (en) | System and method for quantifying specific action | |
TW201617028A (en) | Information processing device, information processing method, and program | |
Haghmohammadi et al. | Remote measurement of body temperature for an indoor moving crowd | |
JP2010000039A (en) | Apparatus for analyzing forced swimming action of experimental animal by using high-speed video image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100629 |