JP7054121B2 - Biometric information processing equipment and programs - Google Patents

Biometric information processing equipment and programs Download PDF

Info

Publication number
JP7054121B2
JP7054121B2 JP2020176441A JP2020176441A JP7054121B2 JP 7054121 B2 JP7054121 B2 JP 7054121B2 JP 2020176441 A JP2020176441 A JP 2020176441A JP 2020176441 A JP2020176441 A JP 2020176441A JP 7054121 B2 JP7054121 B2 JP 7054121B2
Authority
JP
Japan
Prior art keywords
unit
animal
biometric information
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020176441A
Other languages
Japanese (ja)
Other versions
JP2021036871A (en
Inventor
博一 石川
芳晴 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Tottori University
Original Assignee
Sharp Corp
Tottori University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, Tottori University filed Critical Sharp Corp
Priority to JP2020176441A priority Critical patent/JP7054121B2/en
Publication of JP2021036871A publication Critical patent/JP2021036871A/en
Priority to JP2021134770A priority patent/JP7166403B2/en
Priority to JP2021134769A priority patent/JP7166402B2/en
Priority to JP2021134767A priority patent/JP7238049B2/en
Priority to JP2021134768A priority patent/JP7238050B2/en
Application granted granted Critical
Publication of JP7054121B2 publication Critical patent/JP7054121B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は生体情報処理装置に関し、特に、動物の画像から取得される生体情報を処理する生体情報処理装置に関する。 The present invention relates to a biometric information processing apparatus, and more particularly to a biometric information processing apparatus that processes biometric information acquired from an animal image.

非接触でペットにストレスを与えることなく、異常を検知することのできるペットの生体データ計測システムが提供されている。例えば、特許文献1(特開2009-165416号公報)は、自然の状態で暮らすペットに対し積極的に刺激を与えるなどの方法で、ペットの視線を引き付けて顔画像を撮影し、撮影された画像データから、瞳孔の大きさ、目の温度、鼻の光沢度の少なくとも1つの生体データを抽出する。特許文献1では、この抽出データから、ペットの健康状態が判断されている。 There is provided a pet biometric data measurement system that can detect abnormalities in a non-contact manner without stressing the pet. For example, Patent Document 1 (Japanese Unexamined Patent Publication No. 2009-165416) was taken by attracting the eyes of a pet and taking a facial image by a method such as positively stimulating a pet living in a natural state. At least one biometric data of pupil size, eye temperature, and nose gloss is extracted from the image data. In Patent Document 1, the health condition of a pet is determined from this extracted data.

特開2009-165416号公報Japanese Unexamined Patent Publication No. 2009-165416

特許文献1の技術は、ペットの個体識別の方法を開示していない。近年は、何匹もペットを飼育する多頭飼いのケースが多くなりつつあり、1匹毎に生体データを管理したいとの要望があるが、特許文献1では、ペットの識別方法を提案していないために、当該要望に応えることは困難であった。 The technique of Patent Document 1 does not disclose a method for identifying an individual pet. In recent years, the number of cases of multi-headed pets in which many pets are bred is increasing, and there is a desire to manage biometric data for each pet, but Patent Document 1 does not propose a method for identifying pets. Therefore, it was difficult to meet the request.

それゆえに本開示の目的は、動物の個体を識別しながら個体の生体情報を処理することが可能な生体情報処理装置を提供することである。 Therefore, an object of the present disclosure is to provide a biometric information processing apparatus capable of processing biometric information of an individual while identifying an individual animal.

本開示のある局面に係る生体情報処理装置は、動物を撮像した撮像画像から、予め定められた生体情報を取得する生体情報取得部と、動物から、個体を識別可能な固有情報を取得する固有情報取得部と、撮像される前記動物から取得された固有情報を、予め記憶されている1つ以上の個体の識別情報と照合する照合部と、照合の結果に基づき生体情報を処理する処理部と、を備える。 The biometric information processing apparatus according to a certain aspect of the present disclosure includes a biometric information acquisition unit that acquires predetermined biometric information from an captured image of an animal, and a unique biometric information acquisition unit that acquires unique information that can identify an individual from an animal. An information acquisition unit, a collation unit that collates the unique information acquired from the imaged animal with the identification information of one or more individuals stored in advance, and a processing unit that processes biological information based on the collation result. And.

好ましくは、識別情報は、個体の予め定めた部位の画像の特徴量を含み、固有情報取得部は、撮像画像から部位の特徴量を抽出する特徴抽出部を含み、照合部は、撮像画像から抽出された特徴量を、予め記憶されている1つ以上の特徴量と照合する特徴照合部を含む。 Preferably, the identification information includes the feature amount of the image of the predetermined portion of the individual, the unique information acquisition unit includes the feature extraction unit that extracts the feature amount of the portion from the captured image, and the collation unit is from the captured image. It includes a feature matching unit that collates the extracted feature amount with one or more feature amounts stored in advance.

好ましくは、処理部は、照合の結果が一致を示すとき、生体情報を識別情報と関連付けて記憶するための記憶処理部を、含む。 Preferably, the processing unit includes a storage processing unit for storing the biometric information in association with the identification information when the collation results show a match.

好ましくは、撮像画像は、動物の体表面の温度が画像化された温度画像を含み、生体情報取得部は、温度画像から、動物の体表面の特定部位の表面温度を取得する。 Preferably, the captured image includes a temperature image in which the temperature of the body surface of the animal is imaged, and the biological information acquisition unit acquires the surface temperature of a specific portion of the body surface of the animal from the temperature image.

好ましくは、照合の結果が不一致を示すとき、撮像画像を記憶する。 Preferably, when the collation results show a discrepancy, the captured image is stored.

本開示のある局面では、動物の個体を識別しながら個生体情報を処理することが可能である。 In certain aspects of the present disclosure, it is possible to process individual biometric information while identifying individual animals.

実施の形態1に係るネコのトイレ200が3個並んだ状態を示す図である。It is a figure which shows the state which three the toilets 200 of the cat which concerns on Embodiment 1 are arranged side by side. トイレ200に、ネコが侵入する態様を模式的に示す図である。It is a figure which shows typically the mode in which a cat invades a toilet 200. 実施の形態1に係る撮像部20によるネコの顔の撮像画像202と、撮像画像202から抽出される顔の特徴量203を模式的に示す図である。It is a figure which shows typically the image capture image 202 of the face of a cat by the image pickup unit 20 which concerns on Embodiment 1, and the feature amount 203 of the face extracted from the image capture image 202. 実施の形態1に係る撮像部20によるネコの顔のサーモグラフィ画像204を示す図である。It is a figure which shows the thermographic image 204 of the face of a cat by the imaging unit 20 which concerns on Embodiment 1. FIG. 実施の形態に係る生体データ処理装置100のハードドウェア構成を模式的に示す図である。It is a figure which shows typically the hardware composition of the biological data processing apparatus 100 which concerns on embodiment. 実施の形態1に係る生体データ処理装置100の機能構成を模式的に示す図である。It is a figure which shows typically the functional structure of the biological data processing apparatus 100 which concerns on Embodiment 1. FIG. 実施の形態1に係る生体情報の格納の一例を示す図である。It is a figure which shows an example of the storage of the biological information which concerns on Embodiment 1. FIG. 本発明の実施の形態に係るデータ処理のためのフローチャートである。It is a flowchart for data processing which concerns on embodiment of this invention.

以下、図面を参照しながら、各実施の形態の体動信号処理装置を説明する。なお、以下参照される図面において同一の符号が付されている部位は、同一の機能を果たすものであるため、特に必要がない限り、その説明は繰り返さない。 Hereinafter, the body motion signal processing apparatus of each embodiment will be described with reference to the drawings. In the drawings referred to below, the parts with the same reference numerals have the same function, and therefore the description thereof will not be repeated unless there is a particular need.

[概要]
本開示に係る生体データ処理装置100は、ペット等の動物の個体から当該個体を識別可能な情報であって、個体に固有の固有情報を取得し、また、動物の撮像画像から当該動物の生体情報を取得する。処理部は、取得された固有情報を、予め記憶された1つ以上の個体の識別情報と照合し、照合の結果に基づき当該生体データを処理する。
[overview]
The biological data processing apparatus 100 according to the present disclosure is information that can identify the individual from an individual animal such as a pet, acquires unique information unique to the individual, and also obtains the unique information of the animal from the captured image of the animal. Get information. The processing unit collates the acquired unique information with the identification information of one or more individuals stored in advance, and processes the biometric data based on the collation result.

したがって、ペット等の動物を、各個体の識別しながら、取得された生体情報を処理することができる。 Therefore, it is possible to process the acquired biometric information while identifying each individual animal such as a pet.

各実施の形態では、生体情報が取得されるべき個体を、ペットとして多頭飼育されているネコを例示するが、ネコに限定されず、動物一般に適用することができる。 In each embodiment, the individual from which biological information should be acquired exemplifies a cat bred in large numbers as a pet, but the individual is not limited to a cat and can be applied to animals in general.

[実施の形態1]
図1は、実施の形態に係るネコのトイレ200が3個並んだ状態を示す図である。図2はトイレ200に、ネコが侵入する態様を模式的に示す図である。猫の行動に着目すると、トイレ200に入る時には、必ず、頭から入る。また、トイレ200は、入り口が設けられていることにより、確実に頭からトイレ200に入ることを促すことができる。
[Embodiment 1]
FIG. 1 is a diagram showing a state in which three cat litter boxes 200 according to the embodiment are arranged side by side. FIG. 2 is a diagram schematically showing a mode in which a cat invades the toilet 200. Focusing on the behavior of cats, when entering the toilet 200, always enter from the head. Further, since the toilet 200 is provided with an entrance, it is possible to surely encourage the toilet 200 to enter the toilet 200 from the head.

猫の排泄習性として砂上で排泄することから、トイレ200の床面上には猫砂201が敷き詰めてある。さらに、トイレ200の床面には、荷重を測定する体重計を構成するロードセル14が設けられている。 Cat litter 201 is spread on the floor of the toilet 200 because it is excreted on the sand as a cat's excretion habit. Further, a load cell 14 constituting a weight scale for measuring a load is provided on the floor surface of the toilet 200.

したがって、ネコがトイレ200に侵入した場合には、ロードセル14の出力は変化する。また、トイレ200には、後述する撮像部20を備える生体データ処理装置100が取付けらえている。撮像部20の被写体撮像方向は、図2に示すように、ネコがトイレ200の入り口から侵入した場合に、ネコの顔が撮像範囲に位置するように取付けられている。撮像部20は、通常の画像を撮影するカメラ16(後述する)および赤外線カメラであるサーモグラフィ17(後述する)を含む。したがって、トイレ200内のネコは、撮像部20により顔を中心に撮影されて、生体データ処理装置100は、撮像画像に含まれる顔の部分画像から個体を識別する個体に固有の固有情報を非接触で検出し、さらに、目および目の周辺の画像から検出される温度分布から体温を非接触で検出する。上記の固有情報は、顔画像から色成分を分析し、毛色の分布を分析することで取得される。 Therefore, when the cat invades the toilet 200, the output of the load cell 14 changes. Further, a biological data processing device 100 having an imaging unit 20 described later is attached to the toilet 200. As shown in FIG. 2, the subject imaging direction of the imaging unit 20 is attached so that the face of the cat is located in the imaging range when the cat enters from the entrance of the toilet 200. The image pickup unit 20 includes a camera 16 (described later) that captures a normal image and a thermography 17 (described later) that is an infrared camera. Therefore, the cat in the toilet 200 is photographed centering on the face by the imaging unit 20, and the biological data processing device 100 does not have the unique information unique to the individual that identifies the individual from the partial image of the face included in the captured image. It is detected by contact, and body temperature is detected non-contact from the temperature distribution detected from the image of the eye and the area around the eye. The above-mentioned unique information is acquired by analyzing the color component from the face image and analyzing the distribution of the coat color.

(撮像画像と特徴量)
図3は、実施の形態1に係る撮像部20によるネコの顔の撮像画像202と、撮像画像202から抽出される顔の特徴量203を模式的に示す図である。撮像部20は、ネコがトイレ200の入り口から入ったときに、顔を中心にして顔の正面から撮影できるように、入り口とは反対側に設置されている。図3の(A)の撮像画像202は、ネコの顔の全体をほぼ正面から撮影した場合を示している。
(Captured image and features)
FIG. 3 is a diagram schematically showing a captured image 202 of a cat's face by the imaging unit 20 according to the first embodiment and a facial feature amount 203 extracted from the captured image 202. The image pickup unit 20 is installed on the side opposite to the entrance so that when the cat enters from the entrance of the toilet 200, the image can be taken from the front of the face centering on the face. The captured image 202 of FIG. 3A shows a case where the entire face of the cat is photographed from almost the front.

撮像画像202は、図3の(B)に示すように、顔の毛色の分布を示す顔画像の特徴量203を有する。特徴量203は、顔画像におけるR(赤),G(緑),B(青)の3原色の色分布を示している。一般的に、ネコの顔の毛色の分布は、個体に固有であって、当該個体を他と識別する情報となり得ることが知られている。 As shown in FIG. 3B, the captured image 202 has a feature amount 203 of the facial image showing the distribution of the coat color of the face. The feature amount 203 shows the color distribution of the three primary colors of R (red), G (green), and B (blue) in the face image. In general, it is known that the distribution of coat color on a cat's face is unique to an individual and can be information that distinguishes the individual from others.

なお、実施の形態1では、個体を識別する固有情報として、図3の(B)の毛色の分布を表す特徴量203を用いるが、これに限定されない。例えば、顔のパーツ(キズ、目、口、鼻等)の配置パターンの特徴量であってもよく、または両方の特徴量を組合わせたものであってもよい。組合わせを用いて個体識別を実施する場合には、特徴量203のみを用いる場合に比べて識別精度を向上させることができる。なお、顔のパーツの配置パターンの特徴量の抽出方法には、周知の技術を用いることができるので、ここでは詳細は繰返さない。 In the first embodiment, the feature amount 203 representing the distribution of the coat color in FIG. 3 (B) is used as the unique information for identifying the individual, but the present invention is not limited to this. For example, it may be a feature amount of an arrangement pattern of facial parts (scratches, eyes, mouth, nose, etc.), or it may be a combination of both feature amounts. When individual identification is performed using a combination, the identification accuracy can be improved as compared with the case where only the feature amount 203 is used. Since a well-known technique can be used for the method of extracting the feature amount of the arrangement pattern of the facial parts, the details are not repeated here.

図4は、実施の形態1に係る撮像部20によるサーモグラフィ画像204を示す図である。図4のサーモグラフィ17による撮像画像であるサーモグラフィ画像204では、顔表面の温度が色による区別されている。ここで、ネコの体温は、目および目の周辺で測定できることが知られているから、サーモグラフィ画像204において、上記の配置パターンのマッチングにより、目および目の周辺の位置を特定し、特定された位置の色情報からの温度を、すなわち体温を検出することができる。 FIG. 4 is a diagram showing a thermographic image 204 by the imaging unit 20 according to the first embodiment. In the thermography image 204, which is an image captured by the thermography 17 in FIG. 4, the temperature of the face surface is distinguished by color. Here, since it is known that the body temperature of a cat can be measured in the eyes and around the eyes, the positions of the eyes and the periphery of the eyes were specified and specified by matching the above-mentioned arrangement pattern in the thermographic image 204. The temperature from the color information of the position, that is, the body temperature can be detected.

なお、図4では、左上に、目および目の周辺での測定体温(36.6℃)が表示され、下段には顔表面の温度が略25℃~36℃の範囲を有していることが示されているが、サーモグラフィ17から実際に出力されるサーモグラフィ画像204には、これら情報は含まれていない。 In FIG. 4, the measured body temperature (36.6 ° C.) of the eyes and the area around the eyes is displayed in the upper left, and the temperature of the face surface has a range of approximately 25 ° C to 36 ° C in the lower part. However, the thermography image 204 actually output from the thermography 17 does not include such information.

(生体データ処理装置100の構成)
図5は、実施の形態に係る生体データ処理装置100のハードドウェア構成を模式的に示す図である。図5を参照して、生体データ処理装置100は、CPU(Central Processing Unit)を有する制御部10を備える。制御部10には、外部の有線または無線のネットワークNTと通信するための通信部12、液晶などのディスプレイを含む表示部13、ロードセル14、ロードセル14のセンサを駆動するためのセンサ駆動部15、被写体を撮像するための撮像部20、および記憶部11を接続する。記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)およびHDD(Hard Disk Drive)などの記憶媒体を含む。
(Structure of biometric data processing device 100)
FIG. 5 is a diagram schematically showing a hardware configuration of the biometric data processing device 100 according to the embodiment. With reference to FIG. 5, the biometric data processing apparatus 100 includes a control unit 10 having a CPU (Central Processing Unit). The control unit 10 includes a communication unit 12 for communicating with an external wired or wireless network NT, a display unit 13 including a display such as a liquid crystal display, a load cell 14, and a sensor drive unit 15 for driving a sensor of the load cell 14. An imaging unit 20 for imaging a subject and a storage unit 11 are connected. The storage unit 11 includes a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive).

撮像部20は、CCD(Charge Coupled Device)等からなるカメラ16およびサー
モグラフィ17を含む。生体データ処理装置100の各部には、電源部18から電力が供給される。電源部18は、充電可能なバッテリを含む。ネットワークNTは、クラウドサーバ装置に相当するデータ蓄積部250が接続される。生体データ処理装置100は、ネットワークNTを介してデータ蓄積部250と通信する。なお、生体データ処理装置100は、自装置に対するユーザ指示を受付けるためのスイッチ等を含む操作部を備えてもよい。
The image pickup unit 20 includes a camera 16 and a thermography 17 made of a CCD (Charge Coupled Device) or the like. Electric power is supplied to each part of the biometric data processing device 100 from the power supply unit 18. The power supply unit 18 includes a rechargeable battery. A data storage unit 250 corresponding to a cloud server device is connected to the network NT. The biometric data processing device 100 communicates with the data storage unit 250 via the network NT. The biometric data processing device 100 may include an operation unit including a switch or the like for receiving a user instruction for the own device.

図6は、実施の形態1に係る生体データ処理装置100の機能構成を模式的に示す図である。図6の各部の機能は、主にCPUを有した制御部10が、記憶部11に格納されるプログラムを読出して実行することにより実現される。または、プログラムと回路の組合せにより実現される。 FIG. 6 is a diagram schematically showing a functional configuration of the biological data processing apparatus 100 according to the first embodiment. The functions of each part of FIG. 6 are realized mainly by the control unit 10 having a CPU reading and executing the program stored in the storage unit 11. Alternatively, it is realized by a combination of a program and a circuit.

図6を参照して、生体データ処理装置100は、撮像画像入力部30Aと、動物(ネコ)を撮像した撮像画像から、予め定められた生体情報を取得する生体情報取得部38と、動物の個体から、当該個体に固有の情報を取得する固有情報取得部32と、取得された固有情報を、記憶部11に予め記憶されている1つ以上の個体の識別情報と照合する照合部37と、この照合の結果に基づき、生体データを処理する処理部40と、を備える。撮像画像入力部30Aは、画像取得部30とサーモグラフィ画像取得部31を含む。画像取得部30は、カメラ16から出力される画像データを入力し、雑音処理等をした後に、撮像画像202を出力する。サーモグラフィ画像取得部31は、サーモグラフィ17から出力される撮像画像データを入力し、雑音処理等をした後のサーモグラフィ画像204を出力する。 With reference to FIG. 6, the biometric data processing apparatus 100 includes an image pickup image input unit 30A, a biometric information acquisition unit 38 that acquires predetermined biometric information from an image captured by an animal (cat), and an animal. A unique information acquisition unit 32 that acquires information unique to the individual from the individual, and a collation unit 37 that collates the acquired unique information with the identification information of one or more individuals stored in advance in the storage unit 11. , A processing unit 40 for processing biometric data based on the result of this collation. The captured image input unit 30A includes an image acquisition unit 30 and a thermography image acquisition unit 31. The image acquisition unit 30 inputs the image data output from the camera 16, performs noise processing and the like, and then outputs the captured image 202. The thermography image acquisition unit 31 inputs the captured image data output from the thermography 17, and outputs the thermography image 204 after performing noise processing or the like.

上記の識別情報は、動物の顔画像の特徴量を含み、固有情報取得部32は、撮像画像から顔画像の特徴量を抽出する特徴抽出部32Aを含む。また、照合部37は、撮像画像から抽出された特徴量を、記憶部11に記憶された1つ以上の個体の顔画像の特徴量と照合する特徴照合部37Aを含む。 The above-mentioned identification information includes the feature amount of the face image of the animal, and the unique information acquisition unit 32 includes the feature extraction unit 32A for extracting the feature amount of the face image from the captured image. Further, the collation unit 37 includes a feature collation unit 37A that collates the feature amount extracted from the captured image with the feature amount of the face image of one or more individuals stored in the storage unit 11.

処理部40は、照合部37から出力される照合の結果が一致を示すとき、生体情報取得部38から出力される生体情報を、上記に述べた識別情報と関連付けて記憶部11に記憶するための記憶処理部42を、含む。また、処理部40は、照合の結果が不一致を示すときは、撮像画像入力部30Aから出力される画像、より特定的には画像取得部30からの出力画像を記憶部11の予め定めた領域に記憶する。 When the collation results output from the collation unit 37 show a match, the processing unit 40 stores the biometric information output from the biometric information acquisition unit 38 in the storage unit 11 in association with the identification information described above. 42 is included. Further, when the collation results show disagreement, the processing unit 40 stores the image output from the captured image input unit 30A, more specifically, the output image from the image acquisition unit 30 in a predetermined area of the storage unit 11. Remember in.

処理部40は、取得された生体情報と識別子とをネットワークNTを介してデータ蓄積部250に格納するよう通信部12を制御する通信処理部43と、取得された情報(生体情報を含む)を表示するように表示部13を制御する表示処理部41を含む。 The processing unit 40 stores the communication processing unit 43 that controls the communication unit 12 so as to store the acquired biometric information and the identifier in the data storage unit 250 via the network NT, and the acquired information (including biometric information). A display processing unit 41 that controls the display unit 13 to display is included.

温度分布分析部36は、サーモグラフィ画像取得部31から出力されるサーモグラフィ画像204を入力し、サーモグラフィ画像204から上記のパターンマッチングにより顔画像における目、目の周囲の領域を抽出し、抽出した領域の部分画像の色の分布を検出する。そして、温度分布分析部36は、検出した色の情報を生体情報取得部38に出力する。生体情報取得部38の温度取得部39は、温度分布分析部36からの色情報に基づき記憶部11に予め格納された色-温度の対応関係が登録された色温度テーブル(図示しない)を検索し、色温度テーブルから対応する温度データを読出す。これにより、生体情報取得部38により、ネコの生体情報として体温が取得される。取得された体温データは、処理部40に出力される。 The temperature distribution analysis unit 36 inputs the thermography image 204 output from the thermography image acquisition unit 31, extracts the eyes and the area around the eyes in the face image from the thermography image 204 by the above pattern matching, and determines the extracted area. Detects the color distribution of partial images. Then, the temperature distribution analysis unit 36 outputs the detected color information to the biological information acquisition unit 38. The temperature acquisition unit 39 of the biological information acquisition unit 38 searches for a color temperature table (not shown) in which the color-temperature correspondence stored in advance in the storage unit 11 is registered based on the color information from the temperature distribution analysis unit 36. Then read the corresponding temperature data from the color temperature table. As a result, the body temperature is acquired as the biological information of the cat by the biological information acquisition unit 38. The acquired body temperature data is output to the processing unit 40.

固有情報取得部32の特徴抽出部32Aは、画像取得部30から出力される撮像画像202を入力する。特徴抽出部32Aでは、顔認識部33が、目・鼻・口分析部35による上述したパターンマッチングより撮像画像202において顔の部分画像を特定する。色成分分析部34は、特定された部分画像の色分布を分析して、分析された色分布情報を照合部37に出力する。色分布情報は、ネコに固有の毛色の分布を示し、各個体の識別情報の一例である。 The feature extraction unit 32A of the unique information acquisition unit 32 inputs the captured image 202 output from the image acquisition unit 30. In the feature extraction unit 32A, the face recognition unit 33 identifies a partial image of the face in the captured image 202 by the pattern matching described above by the eye / nose / mouth analysis unit 35. The color component analysis unit 34 analyzes the color distribution of the specified partial image and outputs the analyzed color distribution information to the collation unit 37. The color distribution information shows the distribution of the coat color peculiar to the cat, and is an example of the identification information of each individual.

照合部37は、固有情報取得部32から出力される固有情報(すなわち、毛色の色分布情報)と、記憶部11に予め格納されている1つ以上の識別情報とを照合する。1つ以上の識別情報は、トイレ200を使用する可能性がある各個体を一意に識別するための情報であり、実施の形態1では顔の毛色の分布を表す情報としている。照合部37の特徴照合部37Aは、固有情報取得部32からのトイレ200内のネコの色分布情報(固有情報)と、記憶部11の識別情報(トイレ200を使用する可能性がある各個体の顔の毛色の分布を表す情報)とを照合し、照合の結果(照合一致、不一致)を処理部40に出力する。 The collation unit 37 collates the unique information output from the unique information acquisition unit 32 (that is, the color distribution information of the coat color) with one or more identification information stored in advance in the storage unit 11. The one or more identification information is information for uniquely identifying each individual who may use the toilet 200, and in the first embodiment, it is information representing the distribution of the coat color of the face. Features of the collating unit 37 The collating unit 37A has the color distribution information (unique information) of the cat in the toilet 200 from the unique information acquisition unit 32 and the identification information of the storage unit 11 (each individual that may use the toilet 200). (Information representing the distribution of the coat color of the face) is collated, and the collation result (matching match, mismatch) is output to the processing unit 40.

処理部40は、上述の照合結果に基づき、生体情報取得部38からの生体情報(体温データ)を表示処理部41、記憶処理部42または通信処理部43により処理する。 Based on the above-mentioned collation result, the processing unit 40 processes the biological information (body temperature data) from the biological information acquisition unit 38 by the display processing unit 41, the storage processing unit 42, or the communication processing unit 43.

(生体情報の他の例)
実施の形態1では、ネコの生体情報として、体温を取得するが、生体情報の種類は、体温に限定されない。例えば、体重、鼻の乾きの程度等であってもよい。体重は、生体情報取得部38が、ネコがトイレ200に侵入した際のロードセル14の出力変化から検出する。また、鼻の乾きの程度は、生体情報取得部38が、特徴抽出部32Aからの出力に基づき、鼻の部位の色情報から検出する。
(Other examples of biometric information)
In the first embodiment, the body temperature is acquired as the biological information of the cat, but the type of the biological information is not limited to the body temperature. For example, the body weight, the degree of dryness of the nose, and the like may be used. The body weight is detected by the biological information acquisition unit 38 from the output change of the load cell 14 when the cat invades the toilet 200. Further, the degree of dryness of the nose is detected by the biological information acquisition unit 38 from the color information of the nose portion based on the output from the feature extraction unit 32A.

(記憶データの内容)
図7は、実施の形態1に係る生体情報の格納の一例を示す図である。記憶部11には、1つ以上のネコの個体の識別情報51と、各識別情報51に関連付けて、体温データ52、体重データ53および鼻の乾きの程度を示すデータ54が格納されている。図7では、記憶部11におけるデータの格納形式を示したが、同様の格納形式に従って、データ蓄積部250において個体毎の生体情報が格納される。なお、データの格納式はこれに限定されない。
(Contents of stored data)
FIG. 7 is a diagram showing an example of storage of biological information according to the first embodiment. The storage unit 11 stores identification information 51 of one or more individual cats, body temperature data 52, weight data 53, and data 54 indicating the degree of dryness of the nose in association with each identification information 51. FIG. 7 shows the data storage format in the storage unit 11, but the biometric information for each individual is stored in the data storage unit 250 according to the same storage format. The data storage formula is not limited to this.

(フローチャート)
図8は、本発明の実施の形態に係るデータ処理のためのフローチャートである。図8のフローチャートに従うプログラムは、予め記憶部11に格納されて、制御部10のCPUが記憶部11からこのプログラムを読出し、読出されたプログラムを実行することにより処理が実現される。
(flowchart)
FIG. 8 is a flowchart for data processing according to the embodiment of the present invention. The program according to the flowchart of FIG. 8 is stored in the storage unit 11 in advance, and the processing is realized by the CPU of the control unit 10 reading this program from the storage unit 11 and executing the read program.

まず、CPUは、トイレ200に、ネコが侵入(入室)したか否かを判断する(ステップS1)。この検出は、たとえば、ロードセル14の出力の変位が予め定められた閾値を超えたとき、対象(ネコ)が入室したと判断する。また、CPUは、入室したことを判断したときは、撮影可能なようにカメラ16およびサーモグラフィ17の電源を投入する。また、入室を判断した後において、CPUは、ロードセル14の出力の変位が予め定められた閾値を超えたと判断したときは、トイレ200からの退室と判断し、カメラ16およびサーモグラフィ17の電源を遮断する。これにより、消費電力を節約することができる。 First, the CPU determines whether or not a cat has invaded (entered) the toilet 200 (step S1). In this detection, for example, when the displacement of the output of the load cell 14 exceeds a predetermined threshold value, it is determined that the target (cat) has entered the room. When the CPU determines that the room has been entered, the CPU turns on the power of the camera 16 and the thermography 17 so that the camera can take a picture. Further, when the CPU determines that the displacement of the output of the load cell 14 exceeds a predetermined threshold value after determining the entry into the room, the CPU determines that the room has left the toilet 200 and shuts off the power of the camera 16 and the thermography 17. do. This can save power consumption.

CPUは、ネコの入室を判断しない間は(ステップS1でNO)、ロードセルからの出力に基づき入室の判断を繰返す(ステップS1)。 While the CPU does not determine the entry of the cat (NO in step S1), the CPU repeats the determination of entry based on the output from the load cell (step S1).

CPUは、ネコが入室したことを判断したとき(ステップS1でYES)、カメラ16およびサーモグラフィ17のシャッタ制御を行なう。これにより、入口付近におけるネコの顔を中心とした画像が撮影される(ステップS3)。 When the CPU determines that the cat has entered the room (YES in step S1), the CPU controls the shutters of the camera 16 and the thermography 17. As a result, an image centered on the cat's face near the entrance is taken (step S3).

撮影により取得された撮像画像202とサーモグラフィ画像204は、撮像画像入力部30Aを介して固有情報取得部32および温度分布分析部36に、それぞれ出力される。固有情報取得部32は、特徴抽出部32Aを用いて撮像画像202から顔の毛色の特徴量である色情報を取得し、照合部37に出力する(ステップS5)。 The captured image 202 and the thermography image 204 acquired by shooting are output to the unique information acquisition unit 32 and the temperature distribution analysis unit 36, respectively, via the captured image input unit 30A. The unique information acquisition unit 32 acquires color information, which is a feature amount of the coat color of the face, from the captured image 202 by using the feature extraction unit 32A, and outputs the color information to the collation unit 37 (step S5).

照合部37では、特徴照合部37Aは固有情報取得部32から出力される毛色の色情報と、記憶部11の各個体の識別情報とを照合する。照合の結果(色情報が識別情報に一致するか否か)が処理部40に出力される。 In the collation unit 37, the feature collation unit 37A collates the coat color color information output from the unique information acquisition unit 32 with the identification information of each individual in the storage unit 11. The collation result (whether or not the color information matches the identification information) is output to the processing unit 40.

処理部40は、照合の結果が一致を示すか否かを判断する(ステップS7)。照合結果は一致を示さないと判断したとき(ステップS7でNO)、一連の処理は終了するが、一致を示すと判断したとき(ステップS7でYES)、処理はステップS9に移行する。 The processing unit 40 determines whether or not the collation results indicate a match (step S7). When it is determined that the collation result does not show a match (NO in step S7), the series of processes ends, but when it is determined that a match is shown (YES in step S7), the process proceeds to step S9.

ステップS9では、温度分布分析部36はサーモグラフィ画像204から、目と目の周囲の温度の分布を表す色分布情報を検出して、色分布情報を生体情報取得部38に出力する。生体情報取得部38では、温度取得部39が、温度分布分析部36からの色分布情報に基づき、色分布に対応した温度、すなわち体温を取得する(ステップS9)。 In step S9, the temperature distribution analysis unit 36 detects the color distribution information representing the temperature distribution between the eyes and the eyes from the thermography image 204, and outputs the color distribution information to the biological information acquisition unit 38. In the biological information acquisition unit 38, the temperature acquisition unit 39 acquires the temperature corresponding to the color distribution, that is, the body temperature, based on the color distribution information from the temperature distribution analysis unit 36 (step S9).

処理部40は、生体情報取得部38からの生体情報、すなわち体温を表示処理部41、記憶処理部42または通信処理部43を用いて処理する。記憶処理部42は、体温を、記憶部11に、対応する識別情報51に関連付けて体温データ52として格納する。なお、ステップS9では、体重または鼻の乾きの程度を示す生体情報が取得されてもよい。その場合には、ステップS11では、体重および鼻の乾きの程度は、対応する識別情報51と関連付けて体重データ53および鼻の乾きの程度のデータ54として、記憶部11に格納される。 The processing unit 40 processes the biological information from the biological information acquisition unit 38, that is, the body temperature by using the display processing unit 41, the storage processing unit 42, or the communication processing unit 43. The storage processing unit 42 stores the body temperature in the storage unit 11 as body temperature data 52 in association with the corresponding identification information 51. In step S9, biometric information indicating the body weight or the degree of dryness of the nose may be acquired. In that case, in step S11, the body weight and the degree of dryness of the nose are stored in the storage unit 11 as the weight data 53 and the data 54 of the degree of dryness of the nose in association with the corresponding identification information 51.

実施の形態1における体温測定においては、目などの特徴部位をフォーカス撮影することで、画像処理における積分平均の精度を上げて、体温測定精度を向上させるようにしてもよい。 In the body temperature measurement according to the first embodiment, the accuracy of the integrated average in the image processing may be improved and the body temperature measurement accuracy may be improved by taking a focus image of a characteristic portion such as an eye.

また、顔画像の特徴量から非接触で個体識別、体温測定を可能とすることで、複数のトイレ200、多頭飼いにも対応可能となり、各個体の健康管理を個体に対してストレスを与えることなしに、また飼い主の負担も軽減しながら実現可能となる。 In addition, by enabling non-contact individual identification and body temperature measurement from the feature amount of the facial image, it is possible to handle multiple toilets 200 and multiple heads, and stress the health management of each individual. It can be realized without and while reducing the burden on the owner.

(実施の形態2)
実施の形態2では、実施の形態1の変形例を説明する。図8では、個体が識別できたとき(すなわち、照合結果が一致を示すとき)に(ステップS7でYES)、生体情報を取得している(ステップS9)が、生体情報を取得する順序はこれに限定されない。例えば、生体情報を取得した後に、照合の一致・不一致の判定が実施されてもよい。この場合において、照合結果が不一致の場合には、処理部40は、撮像画像202を記憶部11の予め定めた領域に格納する。この結果、照合の不一致が予め定めた回数に達した場合には、すなわち予め定めた数の撮像画像202が格納されたときは、CPUは、照合不一致の回数が低減されるように、特徴照合部37Aに設定された照合の一致/不一致を判断するための参照閾値を変更する。または、撮像画像から、照合の不一致は、撮像範囲のずれに起因すると判断した場合には、カメラの撮影角度を調整する。
(Embodiment 2)
In the second embodiment, a modification of the first embodiment will be described. In FIG. 8, when the individual can be identified (that is, when the collation result shows a match) (YES in step S7), the biometric information is acquired (step S9), but the order of acquiring the biometric information is this. Not limited to. For example, after acquiring the biometric information, a collation match / mismatch determination may be performed. In this case, if the collation results do not match, the processing unit 40 stores the captured image 202 in a predetermined area of the storage unit 11. As a result, when the matching mismatch reaches a predetermined number of times, that is, when a predetermined number of captured images 202 are stored, the CPU performs feature matching so that the number of matching mismatches is reduced. The reference threshold value for determining the match / mismatch of the collation set in the unit 37A is changed. Alternatively, if it is determined from the captured image that the collation mismatch is caused by the deviation of the imaging range, the shooting angle of the camera is adjusted.

(実施の形態3)
上記の各実施の形態では、個体を識別するために毛並みの色分布情報を用いたが、これに限定されない。例えば、固有情報取得部32は、動物の体内に埋め込まれた固体識別のための電子チップからの受信情報、撮像画像202から抽出される鼻紋の情報および個体に装着された首輪の印字情報等を取得し、これを個体の固有情報として用いてもよい。
(Embodiment 3)
In each of the above embodiments, the color distribution information of the fur is used to identify the individual, but the present invention is not limited to this. For example, the unique information acquisition unit 32 receives information from an electronic chip for individual identification embedded in the body of an animal, information on a nose print extracted from a captured image 202, print information on a collar attached to an individual, and the like. May be acquired and used as the unique information of the individual.

また、個体の固有情報として、個体の予め定めた部位の一例である顔の画像の毛色の特徴量を用いたが、特徴量を抽出する部位は、顔に限定されない。 Further, as the unique information of the individual, the feature amount of the coat color of the face image, which is an example of the predetermined part of the individual, is used, but the part from which the feature amount is extracted is not limited to the face.

また、温度取得部39は、サーモグラフィ画像204から、体表面の特定部位の一例である目,目の周辺の表面温度を取得したが、表面温度の取得部位は、目,目の周辺に限定されない。 Further, the temperature acquisition unit 39 acquires the surface temperature around the eyes and eyes, which is an example of a specific portion of the body surface, from the thermography image 204, but the acquisition portion of the surface temperature is not limited to the eyes and the periphery of the eyes. ..

(実施の形態4)
上記の各実施の形態の変形例を示す。各実施の形態では、生体データ処理装置100をトイレ200に設置したが、設置される対象はトイレ200に限定されない。測定対象の個体の顔画像を、ストレスを与えることなく撮像できる設置態様であればよく、例えば給水器、給餌器等に取付けるとしてもよい。
(Embodiment 4)
A modification of each of the above embodiments is shown. In each embodiment, the biological data processing device 100 is installed in the toilet 200, but the target to be installed is not limited to the toilet 200. Any installation mode may be used as long as the facial image of the individual to be measured can be imaged without giving stress, and may be attached to, for example, a water supply device, a feeder, or the like.

(実施の形態5)
上記の各実施の形態の変形例を説明する。各実施の形態では、生体データ処理装置100はトイレ200と一体型に取付けたが、生体データ処理装置100は、トイレ200に着脱自在であってもよい。または、ロードセル14、カメラ16およびサーモグラフィ17をトイレ200に取付けて、制御部10は、これらの出力データを遠隔通信により受信して処理するとしてもよい。
(Embodiment 5)
A modified example of each of the above embodiments will be described. In each embodiment, the biometric data processing device 100 is attached integrally with the toilet 200, but the biometric data processing device 100 may be detachable from the toilet 200. Alternatively, the load cell 14, the camera 16, and the thermography 17 may be attached to the toilet 200, and the control unit 10 may receive and process these output data by remote communication.

(実施の形態6)
上記の各実施の形態の変形例を説明する。各実施の形態では、生体情報として体温、体重、鼻の乾きの程度を取得したが、これらに限定されない。例えば、ロードセル14の出力に基づきトイレ200への入室前と退室後のロードセル14の出力の差異に基づき、個体の排泄量(尿量等)と排泄時間とを測定し、これを識別情報51と関連付けて記憶するようにしてもよい。これにより、排泄量と時間を、個体毎に管理することが可能となる。
(Embodiment 6)
A modified example of each of the above embodiments will be described. In each embodiment, body temperature, body weight, and degree of dryness of the nose are acquired as biological information, but the present invention is not limited to these. For example, based on the output of the load cell 14, the excretion amount (urine volume, etc.) and the excretion time of an individual are measured based on the difference between the output of the load cell 14 before entering the toilet 200 and after leaving the room, and this is referred to as the identification information 51. You may associate and memorize it. This makes it possible to manage the excretion amount and time for each individual.

(実施の形態7)
実施の形態7では、上述の各実施の形態に従う処理をCPUに実行させるためのプログラムが提供される。このようなプログラムは、生体データ処理装置100のコンピュータ(制御部10)に付属するフレキシブルディスク、CD-ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読み取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、記憶部11のHDDなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークNTを介したダウンロードによって、プログラムを提供することもできる。
(Embodiment 7)
In the seventh embodiment, a program for causing the CPU to execute the process according to each of the above-described embodiments is provided. Such a program is a computer-readable recording medium such as a flexible disk, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card attached to the computer (control unit 10) of the biometric data processing device 100. It can also be recorded at and provided as a program product. Alternatively, the program can be provided by recording on a recording medium such as an HDD of the storage unit 11. The program can also be provided by downloading via the network NT.

なお、プログラムは、コンピュータのOS(オペレーティングシステム)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。 The program may be a program module provided as a part of an OS (operating system) of a computer, in which necessary modules are called in a predetermined array at a predetermined timing to execute processing. In that case, the program itself does not include the above module and the process is executed in cooperation with the OS.

また、実施の形態7にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本実施の形態7にかかるプログラムに含まれ得る。 Further, the program according to the seventh embodiment may be provided by being incorporated into a part of another program. Even in that case, the program itself does not include the modules included in the above other programs, and the processing is executed in cooperation with the other programs. A program incorporated in such another program may also be included in the program according to the seventh embodiment.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。 The provided program product is installed and executed in a program storage unit such as a hard disk. The program product includes the program itself and a recording medium on which the program is recorded.

[実施の形態の効果]
特許文献1のペット生体データ計測システムによる非接触での測定においては、顔画像を取得するために、ペットに匂いなどの積極的な刺激を与えることで、視線をカメラに誘導している。
[Effect of embodiment]
In the non-contact measurement by the pet biometric data measurement system of Patent Document 1, the line of sight is guided to the camera by giving a positive stimulus such as an odor to the pet in order to acquire a facial image.

しかし、ペットが、積極的な刺激に反応して、カメラ等の期待する方向に視線を向けるとは限らない。その場合には、顔画像を撮影することはまた、識別できないということは、健康状態を確認できない。1頭飼いのユーザにのみ、適用可能な技術と限定されているため、多頭飼いをしているユーザには、利用できないとの課題がある。これに対し、各実施の形態の生体データ処理装置100は、各個体を識別しながら生体情報を処理する構成であるから、この課題を解消することができる。 However, pets do not always look in the expected direction of a camera or the like in response to a positive stimulus. In that case, taking a facial image is also indistinguishable and the health status cannot be confirmed. Since the technology is limited to the one-headed user, there is a problem that it cannot be used by the multi-headed user. On the other hand, since the biometric data processing device 100 of each embodiment has a configuration of processing biometric information while identifying each individual, this problem can be solved.

また、特許文献1は、ペットに積極的に刺激を与えることで、ペットの視線をカメラに誘導することが必須となっているおり、また、必ずしも、匂いなどの積極的な刺激に対して、期待する方向に視線を誘導し、顔画像が撮影できるとは、限らない。また、識別できないということは、健康状態を確認できない。これに対して、各実施の形態では、トイレ200に個体が侵入するという自然な行動に伴い顔画像を撮影する構成であるから、特許文献1の撮影ができないケースを防止することができる。 Further, in Patent Document 1, it is essential to guide the pet's line of sight to the camera by positively stimulating the pet, and it is not always the case that the pet is positively stimulated by odor or the like. It is not always possible to guide the line of sight in the expected direction and take a facial image. Moreover, the fact that it cannot be identified means that the health condition cannot be confirmed. On the other hand, in each embodiment, since the face image is taken with the natural behavior of an individual invading the toilet 200, it is possible to prevent the case where the picture of Patent Document 1 cannot be taken.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

10 制御部、11 記憶部、12 通信部、13 表示部、14 ロードセル、16 カメラ、17 サーモグラフィ、18 電源部、20 撮像部、30 画像取得部、30A 撮像画像入力部、31 サーモグラフィ画像取得部、32 固有情報取得部、32A 特徴抽出部、33 顔認識部、34 色成分分析部、35 目・鼻・口分析部、36 温度分布分析部、37 照合部、37A 特徴照合部、38 生体情報取得部、39 温度取得部、40 処理部、41 表示処理部、42 記憶処理部、43 通信処理部、51 識別情報、52 体温データ、53 体重データ、54 鼻の乾きの程度のデータ、100 生体データ処理装置、200 トイレ、202 撮像画像、203 特徴量、204 サーモグラフィ画像、250 データ蓄積部、NT ネットワーク。 10 Control unit, 11 Storage unit, 12 Communication unit, 13 Display unit, 14 Load cell, 16 Camera, 17 Thermography, 18 Power supply unit, 20 Imaging unit, 30 Image acquisition unit, 30A image acquisition image input unit, 31 Thermography image acquisition unit, 32 Unique information acquisition unit, 32A feature extraction unit, 33 face recognition unit, 34 color component analysis unit, 35 eye / nose / mouth analysis unit, 36 temperature distribution analysis unit, 37 collation unit, 37A feature collation unit, 38 biometric information acquisition Unit, 39 Temperature acquisition unit, 40 Processing unit, 41 Display processing unit, 42 Storage processing unit, 43 Communication processing unit, 51 Identification information, 52 Body temperature data, 53 Weight data, 54 Dry nose data, 100 Biometric data Processing device, 200 toilets, 202 captured images, 203 features, 204 thermography images, 250 data storage units, NT network.

Claims (10)

動物のトイレへの入室を検知するとき撮像を開始する撮像部と、
前記動物から、予め定められた生体情報を取得する生体情報取得部と、
前記動物から、個体を識別可能な固有情報を取得する固有情報取得部と、
前記トイレへの入室および退室の検知から排泄のための時間情報を取得する時間情報取得部と、
前記動物を撮像した撮像画像から取得された前記固有情報を、予め記憶されている1つ以上の個体の識別情報と照合する照合部と、
前記照合の結果に基づき、前記生体情報を処理する処理部と、
取得された情報を外部装置と通信する通信部と、を備える、生体情報処理装置。
An imaging unit that starts imaging when an animal enters the toilet,
A biometric information acquisition unit that acquires predetermined biometric information from the animal,
A unique information acquisition unit that acquires unique information that can identify an individual from the animal,
A time information acquisition unit that acquires time information for excretion from the detection of entering and leaving the toilet, and
A collation unit that collates the unique information acquired from the captured image of the animal with the identification information of one or more individuals stored in advance.
Based on the result of the collation, the processing unit that processes the biometric information and
A biometric information processing device including a communication unit that communicates acquired information with an external device.
前記識別情報は、個体の予め定めた部位の画像の特徴量を含み、
前記固有情報取得部は、
前記撮像画像から前記部位の特徴量を抽出する特徴抽出部を含み、
前記照合部は、
前記撮像画像から抽出された特徴量を、予め記憶されている1つ以上の特徴量と照合する特徴照合部を含む、請求項1に記載の生体情報処理装置。
The identification information includes the feature amount of the image of the predetermined portion of the individual.
The unique information acquisition unit
A feature extraction unit for extracting a feature amount of the site from the captured image is included.
The collation unit
The biometric information processing apparatus according to claim 1, further comprising a feature matching unit that collates a feature amount extracted from the captured image with one or more feature amounts stored in advance.
前記処理部は、
前記照合の結果が一致を示すとき、前記生体情報を前記識別情報と関連付けて記憶するための記憶処理部を、含む、請求項2に記載の生体情報処理装置。
The processing unit
The biometric information processing apparatus according to claim 2, further comprising a storage processing unit for storing the biometric information in association with the identification information when the results of the collation indicate a match.
前記撮像画像は、前記動物の体表面の温度が画像化された温度画像を含み、
前記生体情報取得部は、
前記動物を撮像した撮像画像の温度画像から、前記動物の体表面の温度を取得する、請求項1から3のいずれか1項に記載の生体情報処理装置。
The captured image includes a temperature image in which the temperature of the body surface of the animal is imaged.
The biometric information acquisition unit
The biometric information processing apparatus according to any one of claims 1 to 3, wherein the temperature of the body surface of the animal is acquired from the temperature image of the captured image of the animal.
前記照合の結果が不一致を示すとき、前記撮像画像を記憶する、請求項1から4のいずれか1項に記載の生体情報処理装置。 The biometric information processing apparatus according to any one of claims 1 to 4, which stores the captured image when the results of the collation show a disagreement. 前記動物が入室するトイレの床面に設けられた荷重センサを、さらに備え、
前記荷重センサの出力から前記入室または前記退室を検知する、請求項1から5のいずれか1項に記載の生体情報処理装置。
A load sensor provided on the floor of the toilet in which the animal enters is further provided.
The biometric information processing apparatus according to any one of claims 1 to 5, which detects entry or exit from the output of the load sensor.
前記動物が入室するトイレの床面に設けられた荷重センサを、さらに備え、
前記生体情報取得部は、前記荷重センサの出力から前記動物の体重または排泄量を取得する、請求項1から6のいずれか1項に記載の生体情報処理装置。
A load sensor provided on the floor of the toilet in which the animal enters is further provided.
The biometric information processing apparatus according to any one of claims 1 to 6, wherein the biometric information acquisition unit acquires the body weight or excretion amount of the animal from the output of the load sensor.
生体情報処理方法を、コンピュータに実行させるためのプログラムであって、
前記生体情報処理方法は、
動物のトイレへの入室を検知するとき撮像を開始するステップと、
前記動物から、予め定められた生体情報を取得するステップと、
前記動物から、個体を識別可能な固有情報を取得するステップと、
前記トイレへの入室および退室の検知から排泄のための時間情報を取得するステップと、
前記動物を撮像した撮像画像から取得された前記固有情報を、予め記憶されている1つ以上の個体の識別情報と照合するステップと、
前記照合の結果に基づき、前記生体情報を処理するステップと、
取得された情報を外部記憶装置と通信するステップと、を備える、プログラム。
A program for making a computer execute a biometric information processing method.
The biometric information processing method is
The step to start imaging when detecting the entry of an animal into the toilet,
The step of acquiring predetermined biological information from the animal, and
The step of acquiring unique information that can identify an individual from the animal,
The step of acquiring time information for excretion from the detection of entering and leaving the toilet, and
A step of collating the unique information acquired from the captured image of the animal with the previously stored identification information of one or more individuals.
Based on the result of the collation, the step of processing the biometric information and
A program comprising the steps of communicating the acquired information with an external storage device.
前記生体情報処理方法は、さらに、
前記動物が入室するトイレの床面に設けられた荷重センサの出力から前記入室または前記退室を検知するステップを備える、請求項8に記載のプログラム。
The biometric information processing method further comprises
The program according to claim 8, further comprising a step of detecting the entry or exit of the room from the output of a load sensor provided on the floor of the toilet in which the animal enters.
前記生体情報を取得するステップは、
前記動物が入室するトイレの床面に設けられた荷重センサの出力から前記動物の体重または排泄量を取得するステップを含む、請求項8または9に記載のプログラム。
The step of acquiring the biometric information is
The program according to claim 8 or 9, comprising the step of acquiring the weight or excretion of the animal from the output of a load sensor provided on the floor of the toilet in which the animal enters.
JP2020176441A 2020-10-21 2020-10-21 Biometric information processing equipment and programs Active JP7054121B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020176441A JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs
JP2021134770A JP7166403B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134769A JP7166402B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134767A JP7238049B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134768A JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020176441A JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016139411A Division JP6783572B2 (en) 2016-07-14 2016-07-14 Bio-information processing device

Related Child Applications (4)

Application Number Title Priority Date Filing Date
JP2021134768A Division JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device
JP2021134767A Division JP7238049B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134769A Division JP7166402B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134770A Division JP7166403B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program

Publications (2)

Publication Number Publication Date
JP2021036871A JP2021036871A (en) 2021-03-11
JP7054121B2 true JP7054121B2 (en) 2022-04-13

Family

ID=74847267

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2020176441A Active JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs
JP2021134770A Active JP7166403B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134768A Active JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device
JP2021134769A Active JP7166402B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134767A Active JP7238049B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2021134770A Active JP7166403B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134768A Active JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device
JP2021134769A Active JP7166402B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134767A Active JP7238049B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program

Country Status (1)

Country Link
JP (5) JP7054121B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7169397B2 (en) * 2021-04-15 2022-11-10 アニコム ホールディングス株式会社 judgment system
JP7360489B2 (en) * 2022-02-28 2023-10-12 アニコム ホールディングス株式会社 Individual identification system and individual identification method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042670A (en) 2004-08-04 2006-02-16 Daikin Ind Ltd Pet health-controlling system
JP2007135501A (en) 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program
US20160095292A1 (en) 2015-09-28 2016-04-07 Hadi Hosseini Animal muzzle pattern scanning device
WO2016073754A1 (en) 2014-11-05 2016-05-12 Allflex Usa, Inc. Companion animal health monitoring system
JP6783572B2 (en) 2016-07-14 2020-11-11 シャープ株式会社 Bio-information processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042670A (en) 2004-08-04 2006-02-16 Daikin Ind Ltd Pet health-controlling system
JP2007135501A (en) 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program
WO2016073754A1 (en) 2014-11-05 2016-05-12 Allflex Usa, Inc. Companion animal health monitoring system
US20160095292A1 (en) 2015-09-28 2016-04-07 Hadi Hosseini Animal muzzle pattern scanning device
JP6783572B2 (en) 2016-07-14 2020-11-11 シャープ株式会社 Bio-information processing device

Also Published As

Publication number Publication date
JP7166403B2 (en) 2022-11-07
JP2021191287A (en) 2021-12-16
JP2021191288A (en) 2021-12-16
JP7238050B2 (en) 2023-03-13
JP7166402B2 (en) 2022-11-07
JP2021191289A (en) 2021-12-16
JP2021036871A (en) 2021-03-11
JP2021191286A (en) 2021-12-16
JP7238049B2 (en) 2023-03-13

Similar Documents

Publication Publication Date Title
JP6783572B2 (en) Bio-information processing device
JP7238049B2 (en) Biological information processing device and program
US6418235B1 (en) Organism collating method and apparatus
US6081607A (en) Animal body identifying device and body identifying system
CN107077626B (en) Non-invasive multi-modal biometric identification system for animals
US11284599B2 (en) Animal toilet usage status management system
JP2006293644A (en) Information processing device and information processing method
JP6199791B2 (en) Pet health examination apparatus, pet health examination method and program
CN111914685B (en) Sow oestrus detection method and device, electronic equipment and storage medium
US11100642B2 (en) Computer system, and method and program for diagnosing animals
CN110866481A (en) Sow oestrus detection method and device
US20200367470A1 (en) Method and arrangement for identifying animals
KR102233244B1 (en) Apparatus for Acquiring Nose Pattern Image and Method for Registering the Noise Pattern
KR20210013901A (en) All in One Nose Pattern Image Detector Comprising at Least one Code Reader and Method for Registering the Nose Pattern
JP2006215858A5 (en)
JP2008305261A (en) Authentication system and measuring system using the same
KR102443813B1 (en) detection apparatus of medical examination the pet
JP2000137813A (en) Individual identifier
JP2000137812A (en) Individual identifier
WO2024143504A1 (en) Information processing system, information processing method, and computer program
Chen et al. An Automated Thermal Imaging System Based on Deep Learning for Dairy Cow Eye Temperature Measurement
JP7534041B2 (en) BRDC Predictive Detection System
JP2000137811A (en) Individual identifier
KR101984550B1 (en) Apparatus and system for managing livestock health
JP2000137810A (en) Individual identifier

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220322

R150 Certificate of patent or registration of utility model

Ref document number: 7054121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150