JP7238050B2 - Biological information processing device - Google Patents

Biological information processing device Download PDF

Info

Publication number
JP7238050B2
JP7238050B2 JP2021134768A JP2021134768A JP7238050B2 JP 7238050 B2 JP7238050 B2 JP 7238050B2 JP 2021134768 A JP2021134768 A JP 2021134768A JP 2021134768 A JP2021134768 A JP 2021134768A JP 7238050 B2 JP7238050 B2 JP 7238050B2
Authority
JP
Japan
Prior art keywords
unit
image
animal
information
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021134768A
Other languages
Japanese (ja)
Other versions
JP2021191287A (en
Inventor
博一 石川
芳晴 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Tottori University
Original Assignee
Sharp Corp
Tottori University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, Tottori University filed Critical Sharp Corp
Priority to JP2021134768A priority Critical patent/JP7238050B2/en
Publication of JP2021191287A publication Critical patent/JP2021191287A/en
Application granted granted Critical
Publication of JP7238050B2 publication Critical patent/JP7238050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は生体情報処理装置に関し、特に、動物の画像から取得される生体情報を処理する生体情報処理装置に関する。 The present invention relates to a biological information processing apparatus, and more particularly to a biological information processing apparatus that processes biological information obtained from an image of an animal.

非接触でペットにストレスを与えることなく、異常を検知することのできるペットの生体データ計測システムが提供されている。例えば、特許文献1(特開2009-165416号公報)は、自然の状態で暮らすペットに対し積極的に刺激を与えるなどの方法で、ペットの視線を引き付けて顔画像を撮影し、撮影された画像データから、瞳孔の大きさ、目の温度、鼻の光沢度の少なくとも1つの生体データを抽出する。特許文献1では、この抽出データから、ペットの健康状態が判断されている。 A pet biometric data measurement system is provided that can detect abnormalities in a non-contact manner without stressing the pet. For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2009-165416) discloses a method such as actively stimulating a pet living in a natural state to attract the pet's line of sight and capture a face image. At least one biometric data of pupil size, eye temperature, and nose gloss is extracted from the image data. In Patent Literature 1, the health condition of the pet is determined from this extracted data.

特開2009-165416号公報JP 2009-165416 A

特許文献1の技術は、ペットの個体識別の方法を開示していない。近年は、何匹もペットを飼育する多頭飼いのケースが多くなりつつあり、1匹毎に生体データを管理したいとの要望があるが、特許文献1では、ペットの識別方法を提案していないために、当該要望に応えることは困難であった。 The technique of Patent Literature 1 does not disclose a method for individual identification of pets. In recent years, there has been an increase in the number of cases where multiple pets are raised, and there is a demand to manage biometric data for each pet. However, Patent Document 1 does not propose a pet identification method. Therefore, it was difficult to meet the request.

それゆえに本開示の目的は、動物の個体を識別しながら個体の生体情報を処理することが可能な生体情報処理装置を提供することである。 Therefore, an object of the present disclosure is to provide a biological information processing apparatus capable of processing individual biological information while identifying individual animals.

本開示のある局面に係る生体情報処理装置は、動物を撮像した撮像画像から、予め定められた生体情報を取得する生体情報取得部と、動物から、個体を識別可能な固有情報を取得する固有情報取得部と、撮像される前記動物から取得された固有情報を、予め記憶されている1つ以上の個体の識別情報と照合する照合部と、照合の結果に基づき生体情報を処理する処理部と、を備える。 A biological information processing apparatus according to an aspect of the present disclosure includes a biological information acquisition unit that acquires predetermined biological information from a captured image of an animal; an information acquisition unit, a matching unit that matches unique information acquired from the imaged animal with identification information of one or more individuals stored in advance, and a processing unit that processes biometric information based on the results of the matching. And prepare.

好ましくは、識別情報は、個体の予め定めた部位の画像の特徴量を含み、固有情報取得部は、撮像画像から部位の特徴量を抽出する特徴抽出部を含み、照合部は、撮像画像から抽出された特徴量を、予め記憶されている1つ以上の特徴量と照合する特徴照合部を含む。 Preferably, the identification information includes a feature amount of an image of a predetermined part of the individual, the unique information acquisition unit includes a feature extraction unit that extracts the feature amount of the part from the captured image, and the matching unit extracts the feature amount from the captured image. It includes a feature matching unit that matches the extracted feature amount with one or more pre-stored feature amounts.

好ましくは、処理部は、照合の結果が一致を示すとき、生体情報を識別情報と関連付けて記憶するための記憶処理部を、含む。 Preferably, the processing unit includes a storage processing unit for storing the biometric information in association with the identification information when the matching result indicates a match.

好ましくは、撮像画像は、動物の体表面の温度が画像化された温度画像を含み、生体情報取得部は、温度画像から、動物の体表面の特定部位の表面温度を取得する。 Preferably, the captured image includes a temperature image in which temperature of the body surface of the animal is imaged, and the biological information acquiring section acquires the surface temperature of a specific portion of the body surface of the animal from the temperature image.

好ましくは、照合の結果が不一致を示すとき、撮像画像を記憶する。 Preferably, the captured image is stored when the matching result indicates a mismatch.

本開示のある局面では、動物の個体を識別しながら個生体情報を処理することが可能である。 In one aspect of the present disclosure, it is possible to process individual biometric information while identifying individual animals.

実施の形態1に係るネコのトイレ200が3個並んだ状態を示す図である。FIG. 3 is a diagram showing a state in which three cat litter boxes 200 according to Embodiment 1 are lined up; トイレ200に、ネコが侵入する態様を模式的に示す図である。FIG. 4 is a diagram schematically showing how a cat enters the litter box 200. FIG. 実施の形態1に係る撮像部20によるネコの顔の撮像画像202と、撮像画像202から抽出される顔の特徴量203を模式的に示す図である。3A and 3B are diagrams schematically showing an image 202 of a cat's face captured by the image capturing unit 20 according to Embodiment 1 and a feature amount 203 of the face extracted from the captured image 202; FIG. 実施の形態1に係る撮像部20によるネコの顔のサーモグラフィ画像204を示す図である。4 is a diagram showing a thermography image 204 of a cat's face captured by the imaging unit 20 according to Embodiment 1. FIG. 実施の形態に係る生体データ処理装置100のハードドウェア構成を模式的に示す図である。1 is a diagram schematically showing a hardware configuration of a biological data processing device 100 according to an embodiment; FIG. 実施の形態1に係る生体データ処理装置100の機能構成を模式的に示す図である。1 is a diagram schematically showing a functional configuration of a biological data processing device 100 according to Embodiment 1; FIG. 実施の形態1に係る生体情報の格納の一例を示す図である。4 is a diagram showing an example of storing biometric information according to Embodiment 1. FIG. 本発明の実施の形態に係るデータ処理のためのフローチャートである。4 is a flow chart for data processing according to an embodiment of the present invention;

以下、図面を参照しながら、各実施の形態の体動信号処理装置を説明する。なお、以下参照される図面において同一の符号が付されている部位は、同一の機能を果たすものであるため、特に必要がない限り、その説明は繰り返さない。 Hereinafter, the body motion signal processing device of each embodiment will be described with reference to the drawings. In the drawings referred to below, the parts denoted by the same reference numerals perform the same functions, and therefore description thereof will not be repeated unless particularly necessary.

[概要]
本開示に係る生体データ処理装置100は、ペット等の動物の個体から当該個体を識別可能な情報であって、個体に固有の固有情報を取得し、また、動物の撮像画像から当該動物の生体情報を取得する。処理部は、取得された固有情報を、予め記憶された1つ以上の個体の識別情報と照合し、照合の結果に基づき当該生体データを処理する。
[overview]
The biological data processing apparatus 100 according to the present disclosure acquires unique information unique to an individual, which is information that can identify the individual from the individual of an animal such as a pet, and acquires the biological body of the animal from the captured image of the animal. Get information. The processing unit collates the acquired unique information with one or more pieces of individual identification information stored in advance, and processes the biometric data based on the collation result.

したがって、ペット等の動物を、各個体の識別しながら、取得された生体情報を処理することができる。 Therefore, it is possible to process acquired biological information while identifying each animal such as a pet.

各実施の形態では、生体情報が取得されるべき個体を、ペットとして多頭飼育されているネコを例示するが、ネコに限定されず、動物一般に適用することができる。 In each embodiment, the individual whose biometric information is to be acquired is exemplified by a cat that is kept as a pet, but the present invention is not limited to cats and can be applied to animals in general.

[実施の形態1]
図1は、実施の形態に係るネコのトイレ200が3個並んだ状態を示す図である。図2はトイレ200に、ネコが侵入する態様を模式的に示す図である。猫の行動に着目すると、トイレ200に入る時には、必ず、頭から入る。また、トイレ200は、入り口が設けられていることにより、確実に頭からトイレ200に入ることを促すことができる。
[Embodiment 1]
FIG. 1 is a diagram showing a state in which three cat litter boxes 200 according to the embodiment are lined up. FIG. 2 is a diagram schematically showing how a cat enters the toilet 200. As shown in FIG. Focusing on the cat's behavior, when it enters the toilet 200, it always enters from the head. Moreover, since the toilet 200 is provided with an entrance, it is possible to surely encourage the user to enter the toilet 200 head first.

猫の排泄習性として砂上で排泄することから、トイレ200の床面上には猫砂201が敷き詰めてある。さらに、トイレ200の床面には、荷重を測定する体重計を構成するロードセル14が設けられている。 Cat litter 201 is spread on the floor surface of the toilet 200 because cats have excretion habits of excreting on sand. Furthermore, the floor surface of the toilet 200 is provided with a load cell 14 that constitutes a weight scale for measuring the load.

したがって、ネコがトイレ200に侵入した場合には、ロードセル14の出力は変化する。また、トイレ200には、後述する撮像部20を備える生体データ処理装置100が取付けらえている。撮像部20の被写体撮像方向は、図2に示すように、ネコがトイレ200の入り口から侵入した場合に、ネコの顔が撮像範囲に位置するように取付けられている。撮像部20は、通常の画像を撮影するカメラ16(後述する)および赤外線カメラであるサーモグラフィ17(後述する)を含む。したがって、トイレ200内のネコは、撮像部20により顔を中心に撮影されて、生体データ処理装置100は、撮像画像に含まれる顔の部分画像から個体を識別する個体に固有の固有情報を非接触で検出し、さらに、目および目の周辺の画像から検出される温度分布から体温を非接触で検出する。上記の固有情報は、顔画像から色成分を分析し、毛色の分布を分析することで取得される。 Therefore, when a cat enters the litter box 200, the output of the load cell 14 changes. Also, the toilet 200 is equipped with a biological data processing device 100 having an imaging unit 20, which will be described later. As shown in FIG. 2, the imaging unit 20 is mounted so that the cat's face is positioned within the imaging range when the cat enters from the entrance of the toilet 200 . The imaging unit 20 includes a camera 16 (described later) that captures normal images and a thermography 17 (described later) that is an infrared camera. Therefore, the image of the cat in the toilet 200 is photographed by the image pickup unit 20, mainly the face, and the biometric data processing device 100 extracts information unique to the individual for identifying the individual from the partial image of the face included in the photographed image. Body temperature is detected by contact, and furthermore, body temperature is detected in a non-contact manner from the temperature distribution detected from the image of the eyes and the surroundings of the eyes. The above unique information is obtained by analyzing the color components from the face image and analyzing the hair color distribution.

(撮像画像と特徴量)
図3は、実施の形態1に係る撮像部20によるネコの顔の撮像画像202と、撮像画像202から抽出される顔の特徴量203を模式的に示す図である。撮像部20は、ネコがトイレ200の入り口から入ったときに、顔を中心にして顔の正面から撮影できるように、入り口とは反対側に設置されている。図3の(A)の撮像画像202は、ネコの顔の全体をほぼ正面から撮影した場合を示している。
(Captured image and feature value)
FIG. 3 is a diagram schematically showing an image 202 of a cat's face captured by the image capturing unit 20 according to Embodiment 1, and a facial feature amount 203 extracted from the captured image 202. As shown in FIG. The imaging unit 20 is installed on the side opposite to the entrance so that when the cat enters the toilet 200 from the entrance, the face can be photographed from the front with the face as the center. A captured image 202 in FIG. 3A shows a case in which the entire cat's face is captured from almost the front.

撮像画像202は、図3の(B)に示すように、顔の毛色の分布を示す顔画像の特徴量203を有する。特徴量203は、顔画像におけるR(赤),G(緑),B(青)の3原色の色分布を示している。一般的に、ネコの顔の毛色の分布は、個体に固有であって、当該個体を他と識別する情報となり得ることが知られている。 As shown in FIG. 3B, the captured image 202 has a facial image feature quantity 203 that indicates the distribution of facial hair color. A feature amount 203 indicates the color distribution of the three primary colors of R (red), G (green), and B (blue) in the face image. It is generally known that the distribution of facial hair color of a cat is unique to an individual and can serve as information for distinguishing the individual from others.

なお、実施の形態1では、個体を識別する固有情報として、図3の(B)の毛色の分布を表す特徴量203を用いるが、これに限定されない。例えば、顔のパーツ(キズ、目、口、鼻等)の配置パターンの特徴量であってもよく、または両方の特徴量を組合わせたものであってもよい。組合わせを用いて個体識別を実施する場合には、特徴量203のみを用いる場合に比べて識別精度を向上させることができる。なお、顔のパーツの配置パターンの特徴量の抽出方法には、周知の技術を用いることができるので、ここでは詳細は繰返さない。 In Embodiment 1, the feature amount 203 representing the distribution of coat colors in FIG. 3B is used as unique information for identifying an individual, but the present invention is not limited to this. For example, it may be the feature amount of the arrangement pattern of facial parts (scratches, eyes, mouth, nose, etc.), or a combination of both feature amounts. When individual identification is performed using a combination, identification accuracy can be improved compared to the case where only the feature quantity 203 is used. Note that a well-known technique can be used for the method of extracting the feature amount of the arrangement pattern of facial parts, so the details will not be repeated here.

図4は、実施の形態1に係る撮像部20によるサーモグラフィ画像204を示す図である。図4のサーモグラフィ17による撮像画像であるサーモグラフィ画像204では、顔表面の温度が色による区別されている。ここで、ネコの体温は、目および目の周辺で測定できることが知られているから、サーモグラフィ画像204において、上記の配置パターンのマッチングにより、目および目の周辺の位置を特定し、特定された位置の色情報からの温度を、すなわち体温を検出することができる。 FIG. 4 is a diagram showing a thermographic image 204 by the imaging unit 20 according to Embodiment 1. FIG. In a thermography image 204, which is an image captured by the thermography 17 in FIG. 4, the temperature of the face surface is distinguished by color. Here, since it is known that the body temperature of a cat can be measured in and around the eyes, in the thermography image 204, the positions of the eyes and the areas around the eyes are identified by matching the arrangement patterns described above. Temperature from the color information of the location, ie body temperature, can be detected.

なお、図4では、左上に、目および目の周辺での測定体温(36.6℃)が表示され、下段には顔表面の温度が略25℃~36℃の範囲を有していることが示されているが、サーモグラフィ17から実際に出力されるサーモグラフィ画像204には、これら情報は含まれていない。 In FIG. 4, the measured body temperature (36.6° C.) in and around the eyes is displayed in the upper left, and the temperature of the face surface has a range of approximately 25° C. to 36° C. in the lower part. are shown, the thermography image 204 actually output from the thermography 17 does not contain this information.

(生体データ処理装置100の構成)
図5は、実施の形態に係る生体データ処理装置100のハードドウェア構成を模式的に示す図である。図5を参照して、生体データ処理装置100は、CPU(Central Processing Unit)を有する制御部10を備える。制御部10には、外部の有線または無線のネットワークNTと通信するための通信部12、液晶などのディスプレイを含む表示部13、ロードセル14、ロードセル14のセンサを駆動するためのセンサ駆動部15、被写体を撮像するための撮像部20、および記憶部11を接続する。記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)およびHDD(Hard Disk Drive)などの記憶媒体を含む。
(Configuration of biological data processing device 100)
FIG. 5 is a diagram schematically showing the hardware configuration of the biological data processing device 100 according to the embodiment. Referring to FIG. 5, biological data processing apparatus 100 includes a control section 10 having a CPU (Central Processing Unit). The control unit 10 includes a communication unit 12 for communicating with an external wired or wireless network NT, a display unit 13 including a display such as a liquid crystal display, a load cell 14, a sensor driving unit 15 for driving the sensor of the load cell 14, An imaging unit 20 for imaging a subject and a storage unit 11 are connected. The storage unit 11 includes storage media such as ROM (Read Only Memory), RAM (Random Access Memory), and HDD (Hard Disk Drive).

撮像部20は、CCD(Charge Coupled Device)等からなるカメラ16およびサー
モグラフィ17を含む。生体データ処理装置100の各部には、電源部18から電力が供給される。電源部18は、充電可能なバッテリを含む。ネットワークNTは、クラウドサーバ装置に相当するデータ蓄積部250が接続される。生体データ処理装置100は、ネットワークNTを介してデータ蓄積部250と通信する。なお、生体データ処理装置100は、自装置に対するユーザ指示を受付けるためのスイッチ等を含む操作部を備えてもよい。
The imaging unit 20 includes a camera 16 and a thermography 17 such as a CCD (Charge Coupled Device). Power is supplied from the power supply unit 18 to each unit of the biological data processing apparatus 100 . Power supply 18 includes a rechargeable battery. A data storage unit 250 corresponding to a cloud server device is connected to the network NT. The biological data processing device 100 communicates with the data storage section 250 via the network NT. The biometric data processing device 100 may include an operation unit including switches and the like for receiving user instructions to the device itself.

図6は、実施の形態1に係る生体データ処理装置100の機能構成を模式的に示す図である。図6の各部の機能は、主にCPUを有した制御部10が、記憶部11に格納されるプログラムを読出して実行することにより実現される。または、プログラムと回路の組合せにより実現される。 FIG. 6 is a diagram schematically showing the functional configuration of the biological data processing device 100 according to Embodiment 1. As shown in FIG. Functions of the respective units in FIG. 6 are realized by reading and executing programs stored in storage unit 11 by control unit 10 mainly having a CPU. Alternatively, it can be realized by a combination of a program and a circuit.

図6を参照して、生体データ処理装置100は、撮像画像入力部30Aと、動物(ネコ)を撮像した撮像画像から、予め定められた生体情報を取得する生体情報取得部38と、動物の個体から、当該個体に固有の情報を取得する固有情報取得部32と、取得された固有情報を、記憶部11に予め記憶されている1つ以上の個体の識別情報と照合する照合部37と、この照合の結果に基づき、生体データを処理する処理部40と、を備える。撮像画像入力部30Aは、画像取得部30とサーモグラフィ画像取得部31を含む。画像取得部30は、カメラ16から出力される画像データを入力し、雑音処理等をした後に、撮像画像202を出力する。サーモグラフィ画像取得部31は、サーモグラフィ17から出力される撮像画像データを入力し、雑音処理等をした後のサーモグラフィ画像204を出力する。 Referring to FIG. 6, biometric data processing apparatus 100 includes captured image input unit 30A, biometric information acquisition unit 38 for acquiring predetermined biometric information from a captured image of an animal (cat), A unique information acquisition unit 32 that acquires information unique to the individual from the individual, and a matching unit 37 that matches the acquired unique information with identification information of one or more individuals stored in advance in the storage unit 11. , and a processing unit 40 that processes the biometric data based on the result of this collation. The captured image input section 30A includes an image acquisition section 30 and a thermography image acquisition section 31 . The image acquisition unit 30 receives image data output from the camera 16 and outputs a captured image 202 after performing noise processing and the like. The thermography image acquisition unit 31 receives captured image data output from the thermography 17 and outputs a thermography image 204 after performing noise processing and the like.

上記の識別情報は、動物の顔画像の特徴量を含み、固有情報取得部32は、撮像画像から顔画像の特徴量を抽出する特徴抽出部32Aを含む。また、照合部37は、撮像画像から抽出された特徴量を、記憶部11に記憶された1つ以上の個体の顔画像の特徴量と照合する特徴照合部37Aを含む。 The identification information includes the feature amount of the facial image of the animal, and the unique information acquisition section 32 includes a feature extraction section 32A that extracts the feature amount of the facial image from the captured image. The matching unit 37 also includes a feature matching unit 37</b>A that matches the feature amount extracted from the captured image with the feature amount of one or more individual face images stored in the storage unit 11 .

処理部40は、照合部37から出力される照合の結果が一致を示すとき、生体情報取得部38から出力される生体情報を、上記に述べた識別情報と関連付けて記憶部11に記憶するための記憶処理部42を、含む。また、処理部40は、照合の結果が不一致を示すときは、撮像画像入力部30Aから出力される画像、より特定的には画像取得部30からの出力画像を記憶部11の予め定めた領域に記憶する。 When the matching result output from the matching unit 37 indicates a match, the processing unit 40 stores the biometric information output from the biometric information acquisition unit 38 in the storage unit 11 in association with the above-described identification information. includes a memory processing unit 42 of Further, when the collation result indicates a mismatch, the processing unit 40 stores the image output from the captured image input unit 30A, more specifically, the output image from the image acquisition unit 30, in a predetermined area of the storage unit 11. memorize to

処理部40は、取得された生体情報と識別子とをネットワークNTを介してデータ蓄積部250に格納するよう通信部12を制御する通信処理部43と、取得された情報(生体情報を含む)を表示するように表示部13を制御する表示処理部41を含む。 The processing unit 40 includes a communication processing unit 43 that controls the communication unit 12 to store the acquired biometric information and the identifier in the data storage unit 250 via the network NT, and a communication processing unit 43 that stores the acquired information (including the biometric information). It includes a display processing unit 41 that controls the display unit 13 to display.

温度分布分析部36は、サーモグラフィ画像取得部31から出力されるサーモグラフィ画像204を入力し、サーモグラフィ画像204から上記のパターンマッチングにより顔画像における目、目の周囲の領域を抽出し、抽出した領域の部分画像の色の分布を検出する。そして、温度分布分析部36は、検出した色の情報を生体情報取得部38に出力する。生体情報取得部38の温度取得部39は、温度分布分析部36からの色情報に基づき記憶部11に予め格納された色-温度の対応関係が登録された色温度テーブル(図示しない)を検索し、色温度テーブルから対応する温度データを読出す。これにより、生体情報取得部38により、ネコの生体情報として体温が取得される。取得された体温データは、処理部40に出力される。 The temperature distribution analysis unit 36 receives the thermography image 204 output from the thermography image acquisition unit 31, extracts the eyes and the area around the eyes in the face image from the thermography image 204 by the above pattern matching, and analyzes the extracted area. Detect the color distribution of the partial image. Then, the temperature distribution analysis unit 36 outputs the detected color information to the biological information acquisition unit 38 . Based on the color information from the temperature distribution analysis unit 36, the temperature acquisition unit 39 of the biological information acquisition unit 38 retrieves a color temperature table (not shown) in which color-temperature correspondences stored in advance in the storage unit 11 are registered. and read the corresponding temperature data from the color temperature table. Thereby, the body temperature is acquired by the biological information acquisition unit 38 as the biological information of the cat. The acquired body temperature data is output to the processing unit 40 .

固有情報取得部32の特徴抽出部32Aは、画像取得部30から出力される撮像画像202を入力する。特徴抽出部32Aでは、顔認識部33が、目・鼻・口分析部35による上述したパターンマッチングより撮像画像202において顔の部分画像を特定する。色成分分析部34は、特定された部分画像の色分布を分析して、分析された色分布情報を照合部37に出力する。色分布情報は、ネコに固有の毛色の分布を示し、各個体の識別情報の一例である。 The feature extraction unit 32A of the unique information acquisition unit 32 receives the captured image 202 output from the image acquisition unit 30 as input. In the feature extraction unit 32A, the face recognition unit 33 identifies a partial image of the face in the captured image 202 by the above-described pattern matching performed by the eye/nose/mouth analysis unit 35 . The color component analysis section 34 analyzes the color distribution of the specified partial image and outputs the analyzed color distribution information to the matching section 37 . The color distribution information indicates the distribution of coat colors peculiar to cats, and is an example of identification information for each individual.

照合部37は、固有情報取得部32から出力される固有情報(すなわち、毛色の色分布情報)と、記憶部11に予め格納されている1つ以上の識別情報とを照合する。1つ以上の識別情報は、トイレ200を使用する可能性がある各個体を一意に識別するための情報であり、実施の形態1では顔の毛色の分布を表す情報としている。照合部37の特徴照合部37Aは、固有情報取得部32からのトイレ200内のネコの色分布情報(固有情報)と、記憶部11の識別情報(トイレ200を使用する可能性がある各個体の顔の毛色の分布を表す情報)とを照合し、照合の結果(照合一致、不一致)を処理部40に出力する。 The collation unit 37 collates unique information (that is, hair color distribution information) output from the unique information acquisition unit 32 with one or more pieces of identification information stored in advance in the storage unit 11 . One or more pieces of identification information is information for uniquely identifying each individual who may use the toilet 200, and in the first embodiment, it is information representing the distribution of facial hair color. A feature matching unit 37A of the matching unit 37 obtains the color distribution information (specific information) of cats in the litter box 200 from the unique information acquisition unit 32 and the identification information of the storage unit 11 (each individual who may use the litter box 200). information representing distribution of facial hair color), and outputs the result of matching (matching or non-matching) to the processing unit 40 .

処理部40は、上述の照合結果に基づき、生体情報取得部38からの生体情報(体温データ)を表示処理部41、記憶処理部42または通信処理部43により処理する。 The processing unit 40 processes the biological information (body temperature data) from the biological information acquisition unit 38 by the display processing unit 41, the storage processing unit 42, or the communication processing unit 43 based on the collation result described above.

(生体情報の他の例)
実施の形態1では、ネコの生体情報として、体温を取得するが、生体情報の種類は、体温に限定されない。例えば、体重、鼻の乾きの程度等であってもよい。体重は、生体情報取得部38が、ネコがトイレ200に侵入した際のロードセル14の出力変化から検出する。また、鼻の乾きの程度は、生体情報取得部38が、特徴抽出部32Aからの出力に基づき、鼻の部位の色情報から検出する。
(Another example of biometric information)
In Embodiment 1, the body temperature is acquired as the cat's biometric information, but the type of biometric information is not limited to the body temperature. For example, it may be the weight, the degree of dryness of the nose, and the like. The body weight is detected by the biological information acquisition unit 38 from the change in the output of the load cell 14 when the cat enters the litter box 200 . Also, the degree of dryness of the nose is detected by the biometric information acquisition unit 38 from the color information of the nose region based on the output from the feature extraction unit 32A.

(記憶データの内容)
図7は、実施の形態1に係る生体情報の格納の一例を示す図である。記憶部11には、1つ以上のネコの個体の識別情報51と、各識別情報51に関連付けて、体温データ52、体重データ53および鼻の乾きの程度を示すデータ54が格納されている。図7では、記憶部11におけるデータの格納形式を示したが、同様の格納形式に従って、データ蓄積部250において個体毎の生体情報が格納される。なお、データの格納式はこれに限定されない。
(Contents of stored data)
7 is a diagram illustrating an example of storing biometric information according to Embodiment 1. FIG. Storage unit 11 stores identification information 51 of one or more individual cats, and body temperature data 52, weight data 53, and data 54 indicating the degree of dryness of the nose in association with each identification information 51. FIG. Although FIG. 7 shows the data storage format in the storage unit 11, biometric information for each individual is stored in the data storage unit 250 according to the same storage format. Note that the data storage formula is not limited to this.

(フローチャート)
図8は、本発明の実施の形態に係るデータ処理のためのフローチャートである。図8のフローチャートに従うプログラムは、予め記憶部11に格納されて、制御部10のCPUが記憶部11からこのプログラムを読出し、読出されたプログラムを実行することにより処理が実現される。
(flowchart)
FIG. 8 is a flow chart for data processing according to an embodiment of the present invention. A program according to the flowchart of FIG. 8 is stored in storage unit 11 in advance, and the CPU of control unit 10 reads the program from storage unit 11 and executes the read program to realize processing.

まず、CPUは、トイレ200に、ネコが侵入(入室)したか否かを判断する(ステップS1)。この検出は、たとえば、ロードセル14の出力の変位が予め定められた閾値を超えたとき、対象(ネコ)が入室したと判断する。また、CPUは、入室したことを判断したときは、撮影可能なようにカメラ16およびサーモグラフィ17の電源を投入する。また、入室を判断した後において、CPUは、ロードセル14の出力の変位が予め定められた閾値を超えたと判断したときは、トイレ200からの退室と判断し、カメラ16およびサーモグラフィ17の電源を遮断する。これにより、消費電力を節約することができる。 First, the CPU determines whether or not a cat has entered (entered) the toilet 200 (step S1). For this detection, for example, when the displacement of the output of the load cell 14 exceeds a predetermined threshold value, it is determined that the object (cat) has entered the room. Further, when the CPU determines that the user has entered the room, it turns on the power of the camera 16 and the thermography 17 so that the image can be taken. Further, when the CPU determines that the displacement of the output of the load cell 14 exceeds a predetermined threshold value after determining that the user has entered the room, the CPU determines that the user has left the toilet 200, and cuts off the power to the camera 16 and the thermography 17. do. Thereby, power consumption can be saved.

CPUは、ネコの入室を判断しない間は(ステップS1でNO)、ロードセルからの出力に基づき入室の判断を繰返す(ステップS1)。 While the CPU does not determine whether the cat has entered the room (NO in step S1), it repeats the determination of whether the cat has entered the room based on the output from the load cell (step S1).

CPUは、ネコが入室したことを判断したとき(ステップS1でYES)、カメラ16およびサーモグラフィ17のシャッタ制御を行なう。これにより、入口付近におけるネコの顔を中心とした画像が撮影される(ステップS3)。 When the CPU determines that the cat has entered the room (YES in step S1), the CPU performs shutter control of the camera 16 and the thermography 17. FIG. As a result, an image centering on the cat's face near the entrance is captured (step S3).

撮影により取得された撮像画像202とサーモグラフィ画像204は、撮像画像入力部30Aを介して固有情報取得部32および温度分布分析部36に、それぞれ出力される。固有情報取得部32は、特徴抽出部32Aを用いて撮像画像202から顔の毛色の特徴量である色情報を取得し、照合部37に出力する(ステップS5)。 A captured image 202 and a thermography image 204 obtained by photographing are output to the unique information acquisition section 32 and the temperature distribution analysis section 36 via the captured image input section 30A, respectively. The unique information acquisition unit 32 acquires color information, which is the feature quantity of the hair color of the face, from the captured image 202 using the feature extraction unit 32A, and outputs the color information to the matching unit 37 (step S5).

照合部37では、特徴照合部37Aは固有情報取得部32から出力される毛色の色情報と、記憶部11の各個体の識別情報とを照合する。照合の結果(色情報が識別情報に一致するか否か)が処理部40に出力される。 In the collation unit 37 , the feature collation unit 37A collates the hair color information output from the unique information acquisition unit 32 and the identification information of each individual in the storage unit 11 . A collation result (whether or not the color information matches the identification information) is output to the processing unit 40 .

処理部40は、照合の結果が一致を示すか否かを判断する(ステップS7)。照合結果は一致を示さないと判断したとき(ステップS7でNO)、一連の処理は終了するが、一致を示すと判断したとき(ステップS7でYES)、処理はステップS9に移行する。 The processing unit 40 determines whether or not the collation result indicates a match (step S7). When it is determined that the collation result does not indicate a match (NO in step S7), the series of processing ends.

ステップS9では、温度分布分析部36はサーモグラフィ画像204から、目と目の周囲の温度の分布を表す色分布情報を検出して、色分布情報を生体情報取得部38に出力する。生体情報取得部38では、温度取得部39が、温度分布分析部36からの色分布情報に基づき、色分布に対応した温度、すなわち体温を取得する(ステップS9)。 In step S<b>9 , the temperature distribution analysis unit 36 detects color distribution information representing the distribution of temperature around the eyes from the thermography image 204 and outputs the color distribution information to the biological information acquisition unit 38 . In the biometric information acquisition section 38, the temperature acquisition section 39 acquires the temperature corresponding to the color distribution, ie body temperature, based on the color distribution information from the temperature distribution analysis section 36 (step S9).

処理部40は、生体情報取得部38からの生体情報、すなわち体温を表示処理部41、記憶処理部42または通信処理部43を用いて処理する。記憶処理部42は、体温を、記憶部11に、対応する識別情報51に関連付けて体温データ52として格納する。なお、ステップS9では、体重または鼻の乾きの程度を示す生体情報が取得されてもよい。その場合には、ステップS11では、体重および鼻の乾きの程度は、対応する識別情報51と関連付けて体重データ53および鼻の乾きの程度のデータ54として、記憶部11に格納される。 The processing unit 40 processes the biological information from the biological information acquisition unit 38 , that is, body temperature, using the display processing unit 41 , the storage processing unit 42 or the communication processing unit 43 . The storage processing unit 42 stores the body temperature in the storage unit 11 as body temperature data 52 in association with the corresponding identification information 51 . In addition, in step S9, biometric information indicating the weight or the degree of dryness of the nose may be acquired. In this case, in step S11, the weight and the degree of dryness of the nose are associated with the corresponding identification information 51 and stored in the storage unit 11 as the weight data 53 and the data 54 of the degree of dryness of the nose.

実施の形態1における体温測定においては、目などの特徴部位をフォーカス撮影することで、画像処理における積分平均の精度を上げて、体温測定精度を向上させるようにしてもよい。 In the body temperature measurement according to the first embodiment, the accuracy of body temperature measurement may be improved by taking a focused image of a characteristic part such as an eye to increase the accuracy of integral averaging in image processing.

また、顔画像の特徴量から非接触で個体識別、体温測定を可能とすることで、複数のトイレ200、多頭飼いにも対応可能となり、各個体の健康管理を個体に対してストレスを与えることなしに、また飼い主の負担も軽減しながら実現可能となる。 In addition, by enabling non-contact individual identification and body temperature measurement from the feature amount of the face image, it is possible to deal with a plurality of toilets 200 and multiple pets, and the health management of each individual can be stressful to the individual. It can be realized while reducing the burden on the owner.

(実施の形態2)
実施の形態2では、実施の形態1の変形例を説明する。図8では、個体が識別できたとき(すなわち、照合結果が一致を示すとき)に(ステップS7でYES)、生体情報を取得している(ステップS9)が、生体情報を取得する順序はこれに限定されない。例えば、生体情報を取得した後に、照合の一致・不一致の判定が実施されてもよい。この場合において、照合結果が不一致の場合には、処理部40は、撮像画像202を記憶部11の予め定めた領域に格納する。この結果、照合の不一致が予め定めた回数に達した場合には、すなわち予め定めた数の撮像画像202が格納されたときは、CPUは、照合不一致の回数が低減されるように、特徴照合部37Aに設定された照合の一致/不一致を判断するための参照閾値を変更する。または、撮像画像から、照合の不一致は、撮像範囲のずれに起因すると判断した場合には、カメラの撮影角度を調整する。
(Embodiment 2)
Embodiment 2 describes a modification of Embodiment 1. FIG. In FIG. 8, when the individual can be identified (that is, when the matching result indicates a match) (YES in step S7), biometric information is acquired (step S9). is not limited to For example, after the biometric information is acquired, the matching/mismatching determination may be performed. In this case, if the matching result is a mismatch, the processing unit 40 stores the captured image 202 in a predetermined area of the storage unit 11 . As a result, when the number of matching mismatches reaches a predetermined number, that is, when a predetermined number of captured images 202 are stored, the CPU performs feature matching so as to reduce the number of matching mismatches. The reference threshold value for determining match/mismatch of collation set in the section 37A is changed. Alternatively, when it is determined from the captured image that the matching mismatch is caused by the deviation of the imaging range, the imaging angle of the camera is adjusted.

(実施の形態3)
上記の各実施の形態では、個体を識別するために毛並みの色分布情報を用いたが、これに限定されない。例えば、固有情報取得部32は、動物の体内に埋め込まれた固体識別のための電子チップからの受信情報、撮像画像202から抽出される鼻紋の情報および個体に装着された首輪の印字情報等を取得し、これを個体の固有情報として用いてもよい。
(Embodiment 3)
In each of the above embodiments, fur color distribution information is used to identify individuals, but the present invention is not limited to this. For example, the unique information acquisition unit 32 receives information from an electronic chip for individual identification embedded in the body of the animal, noseprint information extracted from the captured image 202, printed information on the collar attached to the individual, and the like. may be obtained and used as the unique information of the individual.

また、個体の固有情報として、個体の予め定めた部位の一例である顔の画像の毛色の特徴量を用いたが、特徴量を抽出する部位は、顔に限定されない。 Also, as the unique information of the individual, the feature amount of the hair color of the image of the face, which is an example of a predetermined part of the individual, is used, but the part from which the feature amount is extracted is not limited to the face.

また、温度取得部39は、サーモグラフィ画像204から、体表面の特定部位の一例である目,目の周辺の表面温度を取得したが、表面温度の取得部位は、目,目の周辺に限定されない。 Further, the temperature acquisition unit 39 acquires the surface temperature around the eyes, which is an example of a specific part of the body surface, from the thermography image 204, but the part from which the surface temperature is acquired is not limited to the eyes and around the eyes. .

(実施の形態4)
上記の各実施の形態の変形例を示す。各実施の形態では、生体データ処理装置100をトイレ200に設置したが、設置される対象はトイレ200に限定されない。測定対象の個体の顔画像を、ストレスを与えることなく撮像できる設置態様であればよく、例えば給水器、給餌器等に取付けるとしてもよい。
(Embodiment 4)
Modifications of the above embodiments are shown. In each embodiment, the biological data processing device 100 is installed in the toilet 200, but the installation target is not limited to the toilet 200. FIG. Any installation mode may be used as long as the face image of the individual to be measured can be imaged without applying stress.

(実施の形態5)
上記の各実施の形態の変形例を説明する。各実施の形態では、生体データ処理装置100はトイレ200と一体型に取付けたが、生体データ処理装置100は、トイレ200に着脱自在であってもよい。または、ロードセル14、カメラ16およびサーモグラフィ17をトイレ200に取付けて、制御部10は、これらの出力データを遠隔通信により受信して処理するとしてもよい。
(Embodiment 5)
A modification of each of the above embodiments will be described. In each embodiment, the biometric data processing device 100 is attached integrally with the toilet 200 , but the biometric data processing device 100 may be detachable from the toilet 200 . Alternatively, load cell 14, camera 16 and thermography 17 may be attached to toilet 200 and control unit 10 may receive and process their output data via remote communication.

(実施の形態6)
上記の各実施の形態の変形例を説明する。各実施の形態では、生体情報として体温、体重、鼻の乾きの程度を取得したが、これらに限定されない。例えば、ロードセル14の出力に基づきトイレ200への入室前と退室後のロードセル14の出力の差異に基づき、個体の排泄量(尿量等)と排泄時間とを測定し、これを識別情報51と関連付けて記憶するようにしてもよい。これにより、排泄量と時間を、個体毎に管理することが可能となる。
(Embodiment 6)
A modification of each of the above embodiments will be described. In each embodiment, body temperature, weight, and dryness of the nose are obtained as biological information, but the present invention is not limited to these. For example, based on the output of the load cell 14, based on the difference in the output of the load cell 14 before entering the toilet 200 and after leaving the toilet 200, the excretion amount (urine amount, etc.) and the excretion time of the individual are measured, and this is used as the identification information 51. They may be stored in association with each other. This makes it possible to manage the amount and time of excretion for each individual.

(実施の形態7)
実施の形態7では、上述の各実施の形態に従う処理をCPUに実行させるためのプログラムが提供される。このようなプログラムは、生体データ処理装置100のコンピュータ(制御部10)に付属するフレキシブルディスク、CD-ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読み取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、記憶部11のHDDなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークNTを介したダウンロードによって、プログラムを提供することもできる。
(Embodiment 7)
Embodiment 7 provides a program for causing a CPU to execute the processes according to the above-described embodiments. Such a program is stored in a computer-readable recording medium such as a flexible disk, CD-ROM (Compact Disk-Read Only Memory), ROM, RAM and memory card attached to the computer (control unit 10) of the biological data processing device 100. , and can be provided as a program product. Alternatively, the program can be provided by recording it in a recording medium such as the HDD of the storage unit 11 . The program can also be provided by downloading via network NT.

なお、プログラムは、コンピュータのOS(オペレーティングシステム)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。 The program may call necessary modules in a predetermined arrangement at predetermined timing among program modules provided as part of the computer's OS (Operating System) to execute processing. In that case, the program itself does not include the above module, and the process is executed in cooperation with the OS.

また、実施の形態7にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本実施の形態7にかかるプログラムに含まれ得る。 Also, the program according to the seventh embodiment may be provided by being incorporated into a part of another program. Even in that case, the program itself does not include the modules included in the other program, and the processing is executed in cooperation with the other program. A program incorporated in such other program can also be included in the program according to the seventh embodiment.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。 The provided program product is installed and executed in a program storage unit such as a hard disk. Note that the program product includes the program itself and a recording medium on which the program is recorded.

[実施の形態の効果]
特許文献1のペット生体データ計測システムによる非接触での測定においては、顔画像を取得するために、ペットに匂いなどの積極的な刺激を与えることで、視線をカメラに誘導している。
[Effects of Embodiment]
In the non-contact measurement by the pet biometric data measurement system of Patent Document 1, in order to acquire a face image, the pet is given a positive stimulus such as an odor to guide the line of sight to the camera.

しかし、ペットが、積極的な刺激に反応して、カメラ等の期待する方向に視線を向けるとは限らない。その場合には、顔画像を撮影することはまた、識別できないということは、健康状態を確認できない。1頭飼いのユーザにのみ、適用可能な技術と限定されているため、多頭飼いをしているユーザには、利用できないとの課題がある。これに対し、各実施の形態の生体データ処理装置100は、各個体を識別しながら生体情報を処理する構成であるから、この課題を解消することができる。 However, it is not always the case that the pet reacts to a positive stimulus and directs its line of sight in the desired direction of the camera or the like. In that case, photographing the face image also fails to identify the health status. Since the applicable technology is limited only to users who keep one dog, there is a problem that it cannot be used by users who keep multiple dogs. In contrast, the biometric data processing apparatus 100 of each embodiment is configured to process biometric information while identifying each individual, so this problem can be resolved.

また、特許文献1は、ペットに積極的に刺激を与えることで、ペットの視線をカメラに誘導することが必須となっているおり、また、必ずしも、匂いなどの積極的な刺激に対して、期待する方向に視線を誘導し、顔画像が撮影できるとは、限らない。また、識別できないということは、健康状態を確認できない。これに対して、各実施の形態では、トイレ200に個体が侵入するという自然な行動に伴い顔画像を撮影する構成であるから、特許文献1の撮影ができないケースを防止することができる。 In addition, in Patent Document 1, it is essential to guide the pet's line of sight to the camera by actively giving a stimulus to the pet. It is not always possible to guide the line of sight in an expected direction and capture a face image. In addition, the fact that identification is not possible means that the state of health cannot be confirmed. On the other hand, in each embodiment, since the face image is captured in accordance with the natural behavior of the individual entering the toilet 200, the case in which the image cannot be captured in Patent Document 1 can be prevented.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above description, and is intended to include all modifications within the meaning and range of equivalents of the scope of the claims.

10 制御部、11 記憶部、12 通信部、13 表示部、14 ロードセル、16 カメラ、17 サーモグラフィ、18 電源部、20 撮像部、30 画像取得部、30A 撮像画像入力部、31 サーモグラフィ画像取得部、32 固有情報取得部、32A 特徴抽出部、33 顔認識部、34 色成分分析部、35 目・鼻・口分析部、36 温度分布分析部、37 照合部、37A 特徴照合部、38 生体情報取得部、39 温度取得部、40 処理部、41 表示処理部、42 記憶処理部、43 通信処理部、51 識別情報、52 体温データ、53 体重データ、54 鼻の乾きの程度のデータ、100 生体データ処理装置、200 トイレ、202 撮像画像、203 特徴量、204 サーモグラフィ画像、250 データ蓄積部、NT ネットワーク。 10 control unit, 11 storage unit, 12 communication unit, 13 display unit, 14 load cell, 16 camera, 17 thermography, 18 power supply unit, 20 imaging unit, 30 image acquisition unit, 30A captured image input unit, 31 thermography image acquisition unit, 32 unique information acquisition unit 32A feature extraction unit 33 face recognition unit 34 color component analysis unit 35 eyes/nose/mouth analysis unit 36 temperature distribution analysis unit 37 matching unit 37A feature matching unit 38 biometric information acquisition Unit 39 Temperature acquisition unit 40 Processing unit 41 Display processing unit 42 Storage processing unit 43 Communication processing unit 51 Identification information 52 Body temperature data 53 Body weight data 54 Nose dryness data 100 Biological data Processing device 200 toilet 202 captured image 203 feature quantity 204 thermographic image 250 data storage unit NT network.

Claims (7)

動物のトイレへの入室検知されたとき撮像を開始する撮像部と、
前記動物を撮像した撮像画像から、予め定められた生体情報を取得する生体情報取得部と、
前記動物から、個体を識別可能な固有情報を取得する固有情報取得部と、
撮像される前記動物から取得された前記固有情報を、予め記憶されている1つ以上の個体の識別情報と照合する照合部と、
前記照合の結果に基づき、前記生体情報を処理する処理部と、
電源部と、を備え
前記動物のトイレへの入室が検知されたとき、前記撮像が可能なように撮像部に前記電源部から電源を投入し、当該トイレからの退室が検知されたとき当該電源を遮断する、生体情報処理装置。
an imaging unit that starts imaging when it is detected that an animal has entered the toilet;
a biometric information acquisition unit that acquires predetermined biometric information from a captured image of the animal;
a unique information acquisition unit that acquires unique information that can identify an individual from the animal;
a matching unit for matching the unique information acquired from the animal to be imaged with identification information of one or more individuals stored in advance;
a processing unit that processes the biometric information based on the collation result;
a power supply unit ;
When the entry of the animal into the toilet is detected, the power is turned on from the power supply unit to the imaging unit so that the image can be captured, and when the exit from the toilet is detected, the power is cut off. Biological information processing equipment.
前記識別情報は、個体の予め定めた部位の画像の特徴量を含み、
前記固有情報取得部は、
前記撮像画像から前記部位の特徴量を抽出する特徴抽出部を含み、
前記照合部は、
前記撮像画像から抽出された特徴量を、予め記憶されている1つ以上の特徴量と照合する特徴照合部を含む、請求項1に記載の生体情報処理装置。
The identification information includes a feature amount of an image of a predetermined part of the individual,
The unique information acquisition unit
A feature extraction unit that extracts a feature amount of the part from the captured image,
The collation unit
2. The biometric information processing apparatus according to claim 1, further comprising a feature collating unit that collates the feature amount extracted from the captured image with one or more pre-stored feature amounts.
前記処理部は、
前記照合の結果が一致を示すとき、前記生体情報を前記識別情報と関連付けて記憶するための記憶処理部を、含む、請求項2に記載の生体情報処理装置。
The processing unit is
3. The biometric information processing apparatus according to claim 2, further comprising a storage processing unit for storing said biometric information in association with said identification information when said matching result indicates a match.
前記撮像画像は、前記動物の体表面の温度が画像化された温度画像を含み、
前記生体情報取得部は、
前記動物を撮像した撮像画像の温度画像から、前記動物の体表面の温度を取得する、請求項1から3のいずれか1項に記載の生体情報処理装置。
The captured image includes a temperature image in which the body surface temperature of the animal is imaged,
The biometric information acquisition unit
4. The biological information processing apparatus according to any one of claims 1 to 3, wherein the body surface temperature of said animal is acquired from a temperature image of a captured image of said animal.
前記照合の結果が不一致を示すとき、前記撮像画像を記憶する、請求項1から4のいずれか1項に記載の生体情報処理装置。 5. The biometric information processing apparatus according to any one of claims 1 to 4, wherein said captured image is stored when said collation result indicates a mismatch. 前記動物が入室するトイレの床面に設けられた荷重センサを、さらに備え、
前記荷重センサの出力から前記入室を検知する、請求項1から5のいずれか1項に記載の生体情報処理装置。
further comprising a load sensor provided on the floor of the toilet where the animal enters,
6. The biological information processing apparatus according to any one of claims 1 to 5, wherein the entry into the room is detected from the output of the load sensor.
前記動物が入室するトイレの床面に設けられた荷重センサを、さらに備え、
前記荷重センサの出力から前記動物の体重と排泄量を測定する、請求項1から6のいずれか1項に記載の生体情報処理装置。
further comprising a load sensor provided on the floor of the toilet where the animal enters,
7. The biological information processing apparatus according to any one of claims 1 to 6, wherein the weight and excretion amount of said animal are measured from the output of said load sensor.
JP2021134768A 2020-10-21 2021-08-20 Biological information processing device Active JP7238050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021134768A JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020176441A JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs
JP2021134768A JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020176441A Division JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2021191287A JP2021191287A (en) 2021-12-16
JP7238050B2 true JP7238050B2 (en) 2023-03-13

Family

ID=74847267

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2020176441A Active JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs
JP2021134770A Active JP7166403B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134769A Active JP7166402B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134767A Active JP7238049B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134768A Active JP7238050B2 (en) 2020-10-21 2021-08-20 Biological information processing device

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2020176441A Active JP7054121B2 (en) 2020-10-21 2020-10-21 Biometric information processing equipment and programs
JP2021134770A Active JP7166403B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134769A Active JP7166402B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program
JP2021134767A Active JP7238049B2 (en) 2020-10-21 2021-08-20 Biological information processing device and program

Country Status (1)

Country Link
JP (5) JP7054121B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7169397B2 (en) * 2021-04-15 2022-11-10 アニコム ホールディングス株式会社 judgment system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042670A (en) 2004-08-04 2006-02-16 Daikin Ind Ltd Pet health-controlling system
JP2007135501A (en) 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program
US20160095292A1 (en) 2015-09-28 2016-04-07 Hadi Hosseini Animal muzzle pattern scanning device
WO2016073754A1 (en) 2014-11-05 2016-05-12 Allflex Usa, Inc. Companion animal health monitoring system
JP6783572B2 (en) 2016-07-14 2020-11-11 シャープ株式会社 Bio-information processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042670A (en) 2004-08-04 2006-02-16 Daikin Ind Ltd Pet health-controlling system
JP2007135501A (en) 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program
WO2016073754A1 (en) 2014-11-05 2016-05-12 Allflex Usa, Inc. Companion animal health monitoring system
US20160095292A1 (en) 2015-09-28 2016-04-07 Hadi Hosseini Animal muzzle pattern scanning device
JP6783572B2 (en) 2016-07-14 2020-11-11 シャープ株式会社 Bio-information processing device

Also Published As

Publication number Publication date
JP2021036871A (en) 2021-03-11
JP2021191286A (en) 2021-12-16
JP2021191287A (en) 2021-12-16
JP7166403B2 (en) 2022-11-07
JP7238049B2 (en) 2023-03-13
JP7166402B2 (en) 2022-11-07
JP2021191288A (en) 2021-12-16
JP7054121B2 (en) 2022-04-13
JP2021191289A (en) 2021-12-16

Similar Documents

Publication Publication Date Title
JP6783572B2 (en) Bio-information processing device
EP0821912B1 (en) Animal body identifying system
Kumar et al. Face recognition for cattle
JP7238050B2 (en) Biological information processing device
CN107077626A (en) Animal non-intrusion type multi-modal biological characteristic identification system
US20200367470A1 (en) Method and arrangement for identifying animals
KR20210013901A (en) All in One Nose Pattern Image Detector Comprising at Least one Code Reader and Method for Registering the Nose Pattern
US10474791B2 (en) Methods and systems for biometric identification of dairy animals using vein pattern recognition
WO2021002527A1 (en) Optical noseprint image acquisition device and method for registering noseprint
US11100642B2 (en) Computer system, and method and program for diagnosing animals
KR20200075471A (en) Pet care system
KR102131007B1 (en) Method for providing animal and pet registration and authentication services
JP4883987B2 (en) Face image collation device and collation face image registration method
JP2008305261A (en) Authentication system and measuring system using the same
JP2000137813A (en) Individual identifier
JP2000137812A (en) Individual identifier
KR102443813B1 (en) detection apparatus of medical examination the pet
JP2000137811A (en) Individual identifier
CN111144378B (en) Target object identification method and device
Stahl et al. Capturing 2D and 3D biometric data of farm animals under real-life conditions
JP2000137810A (en) Individual identifier
KR101984550B1 (en) Apparatus and system for managing livestock health
TWM598479U (en) Pet individual character recognition system
WO2018179419A1 (en) Computer system, animal diagnosis method, and program
KR20220058403A (en) Animal management system using iris recognition on long distance

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7238050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150