JP2015173605A - Specification method, specific program, specification device and specification system - Google Patents

Specification method, specific program, specification device and specification system Download PDF

Info

Publication number
JP2015173605A
JP2015173605A JP2014050463A JP2014050463A JP2015173605A JP 2015173605 A JP2015173605 A JP 2015173605A JP 2014050463 A JP2014050463 A JP 2014050463A JP 2014050463 A JP2014050463 A JP 2014050463A JP 2015173605 A JP2015173605 A JP 2015173605A
Authority
JP
Japan
Prior art keywords
captured image
cow
unit
data
predetermined area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014050463A
Other languages
Japanese (ja)
Other versions
JP6291927B2 (en
Inventor
今日子 松崎
Kyoko Matsuzaki
今日子 松崎
照雄 下村
Teruo Shimomura
照雄 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014050463A priority Critical patent/JP6291927B2/en
Publication of JP2015173605A publication Critical patent/JP2015173605A/en
Application granted granted Critical
Publication of JP6291927B2 publication Critical patent/JP6291927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a specification method capable of improving specification accuracy of a cow; and to provide a specific program, a specification device and a specification system.SOLUTION: In a specification method, a processing is executed by a computer, for collating first data based on a specific region of a first imaged image of the side face of a cow with second data based on the specific region of a second imaged image of the side face of the cow stored in a storage part. In the specification method, a processing for specifying the cow in the first imaged image is executed by the computer in response to the collation result.

Description

本発明は、特定方法、特定プログラム、特定装置および特定システムに関する。   The present invention relates to a specifying method, a specifying program, a specifying device, and a specifying system.

家畜を飼育する場合には、複数の家畜の個体管理が必要となり、例えば、牛では国が定める番号と酪農家が定める番号とを用いて個体管理が行われている。個体管理を行うための識別番号は、例えば、牛の耳に取り付けられる耳標に記載される。また、個体の特定方法として、例えば、和牛では鼻紋を用いて個体を特定し、乳牛のホルスタイン種では、白黒の斑紋を用いて特定することも行われている。また、個体を特定する精度を向上させるため、耳標と斑紋とを組み合わせることが提案されている。   When raising livestock, individual management of a plurality of domestic animals is required. For example, in cattle, individual management is performed using a number determined by the country and a number determined by a dairy farmer. The identification number for performing individual management is described, for example, on an ear tag attached to the ear of a cow. In addition, as a method for specifying an individual, for example, an individual is specified using a nose pattern in a Japanese beef, and a black and white pattern is specified in a Holstein breed of a dairy cow. Further, in order to improve the accuracy of specifying an individual, it has been proposed to combine an earmark and a mottle.

特開2000−188986号公報JP 2000-188986 A

しかしながら、耳標は、牛が泥浴び等を行うことにより汚れが付着して、識別番号を判別できない場合がある。酪農家は、例えば、牛の健康状態を管理するために、牛を撮像した画像から個体を特定したい場合があるが、耳標が汚れていると牛の個体の特定を行うことができない。このため、酪農家は、耳標の識別情報を取得できず、個体を特定する精度が低下する。   However, there are cases where the ear mark is soiled when the cow is muddy or the like, and the identification number cannot be determined. For example, a dairy farmer may want to specify an individual from an image obtained by imaging a cow in order to manage the health of the cow. However, if the ear tag is dirty, the individual of the cow cannot be specified. For this reason, the dairy farmer cannot acquire the identification information of the ear tags, and the accuracy of specifying the individual decreases.

一つの側面では、本発明は、牛の特定精度を向上することができる特定方法、特定プログラム、特定装置および特定システムを提供することにある。   In one aspect, the present invention is to provide a specification method, a specification program, a specification device, and a specification system that can improve the identification accuracy of cattle.

一つの態様では、特定方法は、牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する処理をコンピュータが実行する。特定方法は、前記照合の結果に応じて、前記第1撮像画像の牛を特定する処理をコンピュータが実行する。   In one aspect, the identification method includes first data based on a predetermined area of the first captured image of the side surface of the cow and a first area based on the predetermined area of the second captured image of the side surface of the cow stored in the storage unit. The computer executes a process of collating with the second data. In the specifying method, the computer executes processing for specifying the cow of the first captured image according to the result of the collation.

また、一つの態様では、特定プログラムは、牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する処理をコンピュータに実行させる。特定プログラムは、前記照合の結果に応じて、前記第1撮像画像の牛を特定する処理をコンピュータに実行させる。   In one embodiment, the specific program is based on first data based on a predetermined area of the first captured image on the side surface of the cow and a predetermined area on the second captured image on the side surface of the cow stored in the storage unit. The computer is caused to execute a process of collating with the second data. The specifying program causes the computer to execute processing for specifying the cow of the first captured image according to the result of the collation.

また、一つの態様では、特定装置は、照合部と特定部とを有する。特定装置の照合部は、牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する。特定装置の特定部は、前記照合の結果に応じて、前記第1撮像画像の牛を特定する。   Moreover, in one aspect, a specific apparatus has a collation part and a specific part. The collation unit of the specific device includes a first data based on a predetermined region of the first captured image on the side surface of the cow and a second data based on the predetermined region of the second captured image on the side surface of the cow stored in the storage unit. Match data. The specifying unit of the specifying device specifies the cow of the first captured image according to the result of the collation.

また、一つの態様では、特定システムは、サーバ装置と、端末装置とを有する。サーバ装置は、照合部と特定部と通信部とを有する。サーバ装置の照合部は、牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する。サーバ装置の特定部は、前記照合の結果に応じて、前記第1撮像画像の牛を特定する。サーバ装置の通信部は、前記端末装置から前記第1のデータを受信し、前記端末装置に前記第2撮像画像と特定された前記牛の特定情報とを送信する。端末装置は、通信部と抽出部と選択部とを有する。端末装置の通信部は、前記第1のデータおよび選択された前記第2撮像画像を示す選択情報を前記サーバ装置に送信し、前記サーバ装置から前記第2撮像画像および前記特定情報を受信する。端末装置の抽出部は、前記第1撮像画像の所定領域に基づいて前記第1のデータを抽出する。端末装置の選択部は、前記第2撮像画像を表示させ、前記第1撮像画像に対応する前記第2撮像画像を選択させ、選択の結果に応じた前記第1撮像画像と前記特定情報とを表示させる。   In one embodiment, the specific system includes a server device and a terminal device. The server device includes a verification unit, a specifying unit, and a communication unit. The collation unit of the server device includes a first data based on a predetermined area of the first captured image on the side surface of the cow and a second data based on the predetermined area of the second captured image on the side surface of the cow stored in the storage unit. Match data. The specifying unit of the server device specifies the cow of the first captured image according to the result of the verification. The communication unit of the server device receives the first data from the terminal device, and transmits the second captured image and the identified information of the identified cow to the terminal device. The terminal device includes a communication unit, an extraction unit, and a selection unit. The communication unit of the terminal device transmits selection information indicating the first data and the selected second captured image to the server device, and receives the second captured image and the specific information from the server device. The extraction unit of the terminal device extracts the first data based on a predetermined area of the first captured image. The selection unit of the terminal device displays the second captured image, causes the second captured image corresponding to the first captured image to be selected, and displays the first captured image and the specific information according to a selection result. Display.

一つの側面として、牛の特定精度を向上することができる。   As one aspect, the accuracy of cow identification can be improved.

図1は、実施例の特定システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of a specific system according to the embodiment. 図2は、撮像画像から所定領域の輝度情報を抽出する一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of extracting luminance information of a predetermined area from a captured image. 図3は、所定領域における分割領域のコード化の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of coding of divided areas in a predetermined area. 図4は、候補の牛の情報を表示する画面の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a screen that displays information on candidate cows. 図5は、特定した牛の情報を表示する画面の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of a screen displaying information on the identified cow. 図6は、複数の牛を特定する場合の牛の情報を表示する画面の一例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of a screen that displays cow information when a plurality of cows are specified. 図7は、実施例の特定システムの動作の一例を示すシーケンス図である。FIG. 7 is a sequence diagram illustrating an example of the operation of the specific system according to the embodiment. 図8は、特定プログラムを実行するコンピュータの一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of a computer that executes a specific program.

以下、図面に基づいて、本願の開示する特定方法、特定プログラム、特定装置および特定システムの実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組み合わせてもよい。   Hereinafter, embodiments of a specifying method, a specifying program, a specifying device, and a specifying system disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. Further, the following embodiments may be appropriately combined within a consistent range.

図1は、実施例の特定システムの構成の一例を示すブロック図である。図1に示す特定システム1は、端末装置10と、サーバ装置100とを有する。なお、図1には、システムが1つの端末装置10を有する場合を示したが、端末装置10の数は限定されず、特定システム1は、任意の数の端末装置10を有してもよい。   FIG. 1 is a block diagram illustrating an example of a configuration of a specific system according to the embodiment. The identification system 1 illustrated in FIG. 1 includes a terminal device 10 and a server device 100. Although FIG. 1 shows a case where the system has one terminal device 10, the number of terminal devices 10 is not limited, and the specific system 1 may have an arbitrary number of terminal devices 10. .

端末装置10およびサーバ装置100の間は、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。   The terminal device 10 and the server device 100 are connected via a network N so that they can communicate with each other. For such a network N, any kind of communication network such as the Internet (Internet), LAN (Local Area Network), VPN (Virtual Private Network), etc. can be adopted regardless of wired or wireless.

端末装置10は、通信部11と、記憶部12と、入力部13と、表示操作部14と、制御部15とを有する。なお、端末装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。端末装置10の一例としては、タブレット端末、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、PDA(Personal Digital Assistants)などのスレート端末などを採用できる。端末装置10には、上記の可搬型の端末のみならず、据置型のパーソナルコンピュータ等を端末装置10として採用することもできる。   The terminal device 10 includes a communication unit 11, a storage unit 12, an input unit 13, a display operation unit 14, and a control unit 15. The terminal device 10 may include various functional units included in known computers, for example, functional units such as various input devices and audio output devices, in addition to the functional units illustrated in FIG. As an example of the terminal device 10, a tablet terminal, a smartphone, a mobile communication terminal such as a mobile phone or a PHS (Personal Handyphone System), a slate terminal such as a PDA (Personal Digital Assistants), or the like can be used. As the terminal device 10, not only the portable terminal described above but also a stationary personal computer can be adopted as the terminal device 10.

通信部11は、例えば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークNを介してサーバ装置100と有線または無線で接続され、サーバ装置100との間で情報の通信を司る通信インタフェースである。通信部11は、制御部15から入力された牛が撮像された第1撮像画像に基づく第1のデータと選択情報とを、サーバ装置100に送信する。また、通信部11は、サーバ装置100から第1のデータと同一または類似する第2のデータに対応する第2撮像画像と、第2撮像画像に対応する識別番号と、特定情報と、補足情報とを受信する。通信部11は、受信した第2撮像画像と、識別番号と、特定情報と、補足情報とを制御部15に出力する。   The communication unit 11 is realized by, for example, a NIC (Network Interface Card). The communication unit 11 is a communication interface that is connected to the server apparatus 100 via the network N in a wired or wireless manner and manages information communication with the server apparatus 100. The communication unit 11 transmits the first data and selection information based on the first captured image obtained by capturing the cow input from the control unit 15 to the server device 100. The communication unit 11 also receives a second captured image corresponding to second data that is the same as or similar to the first data from the server device 100, an identification number corresponding to the second captured image, specific information, and supplementary information. And receive. The communication unit 11 outputs the received second captured image, identification number, specific information, and supplemental information to the control unit 15.

記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部12は、制御部15での処理に用いる情報を記憶する。   The storage unit 12 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 stores information used for processing in the control unit 15.

入力部13は、例えば、撮像センサを有するカメラモジュールであり、端末装置10により牛を撮像できる。例えば、入力部13は、端末装置10のユーザの操作により、牛の側面の画像を撮像し、撮像画像を制御部15に出力する。なお、撮像画像は、牛の側面だけでなく、耳標、臀部等を撮影してもよい。また、入力部13は、例えば、SD(Secure Digital)メモリカードリーダとしてもよい。この場合、入力部13は、例えば、デジタルカメラ等によって撮像された牛の側面や臀部、耳標の撮像画像が入力される。入力部13は、撮像または入力された撮像画像を制御部15に出力する。なお、本実施例では、牛として白黒の斑紋を有するホルスタイン種を一例として説明する。   The input unit 13 is a camera module having an image sensor, for example, and can capture an image of a cow by the terminal device 10. For example, the input unit 13 captures an image of the side surface of the cow and outputs the captured image to the control unit 15 by an operation of the user of the terminal device 10. The captured image may be captured not only on the side of the cow but also on the ear tags, the buttocks, and the like. The input unit 13 may be, for example, an SD (Secure Digital) memory card reader. In this case, the input unit 13 receives, for example, a captured image of a cow's side surface, buttocks, and ear tags captured by a digital camera or the like. The input unit 13 outputs a captured image or an input captured image to the control unit 15. In this embodiment, a Holstein species having black and white mottle as a cow will be described as an example.

表示操作部14は、各種情報を表示するための表示デバイス、および、ユーザから各種操作を受け付ける入力デバイスである。例えば、表示操作部14は、表示デバイスとして液晶ディスプレイ等によって実現される。また、例えば、表示操作部14は、入力デバイスとして、タッチパネル等によって実現される。つまり、表示操作部14は、表示デバイスと入力デバイスとが一体化される。表示操作部14は、ユーザによって入力された操作を操作情報として制御部15に出力する。なお、表示操作部14は、表示デバイスと入力デバイスとを個別に設けてもよい。   The display operation unit 14 is a display device for displaying various types of information and an input device for receiving various types of operations from the user. For example, the display operation unit 14 is realized by a liquid crystal display or the like as a display device. Further, for example, the display operation unit 14 is realized by a touch panel or the like as an input device. That is, in the display operation unit 14, the display device and the input device are integrated. The display operation unit 14 outputs an operation input by the user to the control unit 15 as operation information. The display operation unit 14 may separately provide a display device and an input device.

制御部15は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部15は、抽出部16と、選択部17とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   The control unit 15 is realized, for example, by executing a program stored in an internal storage device using a RAM as a work area by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. The control unit 15 may be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The control unit 15 includes an extraction unit 16 and a selection unit 17, and realizes or executes functions and operations of information processing described below. The internal configuration of the control unit 15 is not limited to the configuration illustrated in FIG. 1, and may be another configuration as long as the information processing described later is performed.

抽出部16は、入力部13から入力された撮像画像を第1撮像画像として取得する。抽出部16は、取得した第1撮像画像から、サーバ装置100での検索に用いる第1のデータを抽出する。ここで、第1のデータは、第1撮像画像の所定領域について、様々な方法で特徴情報を抽出したデータを用いることができる。第1のデータは、例えば、牛の側面の所定領域をマトリックス状に複数の分割領域に分割し、分割領域の輝度情報に基づいた第1の二値判定結果、すなわち二値化したデータとすることができる。本実施例では、第1のデータの一例として、上述の第1の二値判定結果を用いて説明する。なお、第1のデータは、他にも、例えば画像処理により牛の斑紋の黒の領域を抽出して所定領域に座標を設定し、抽出した領域と座標とを対応付けてデータ化してもよい。   The extraction unit 16 acquires the captured image input from the input unit 13 as a first captured image. The extraction unit 16 extracts first data used for search in the server device 100 from the acquired first captured image. Here, as the first data, data obtained by extracting feature information by various methods for a predetermined region of the first captured image can be used. The first data is, for example, a predetermined region on the side of the cow divided into a plurality of divided regions in a matrix, and a first binary determination result based on luminance information of the divided regions, that is, binarized data. be able to. In the present embodiment, description will be made using the above-described first binary determination result as an example of the first data. In addition, the first data may be converted into data by extracting a black region of cattle mottle, for example, by image processing, setting coordinates in a predetermined region, and associating the extracted region with coordinates. .

また、抽出部16は、入力部13から入力された撮像画像に耳標の撮像画像が含まれる場合には、当該撮像画像について画像認識処理等により、耳標の識別番号を抽出する。このとき、抽出部16は、耳標が汚れていて識別番号の一部しか判読できない場合であっても、判読できた一部の識別番号を抽出する。   Further, when the captured image input from the input unit 13 includes a captured image of the ear tag, the extraction unit 16 extracts the identification number of the ear tag by performing image recognition processing or the like on the captured image. At this time, the extraction unit 16 extracts a part of the identification number that can be read even if the ear mark is dirty and only a part of the identification number can be read.

図2は、撮像画像から所定領域の輝度情報を抽出する一例を示す説明図である。図2に示すように、抽出部16は、第1撮像画像30の牛の側面について、所定領域を規定するための基準点31を設定する。図2の例では、基準点31は、例えば、脚の付根2ヶ所、背中の中央部1ヶ所の計3ヶ所の基準点31を設定する。次に、抽出部16は、第1撮像画像30を二値化する。抽出部16は、二値化した第1撮像画像32から基準点31に基づいて所定領域33を切り出してサイズを正規化する。なお、抽出部16は、第1撮像画像30から所定領域33を切り出すことで背景を除外する。   FIG. 2 is an explanatory diagram illustrating an example of extracting luminance information of a predetermined area from a captured image. As illustrated in FIG. 2, the extraction unit 16 sets a reference point 31 for defining a predetermined area for the side surface of the cow of the first captured image 30. In the example of FIG. 2, the reference points 31 are set to three reference points 31 in total, for example, two bases of the legs and one central part of the back. Next, the extraction unit 16 binarizes the first captured image 30. The extraction unit 16 cuts out the predetermined area 33 from the binarized first captured image 32 based on the reference point 31 and normalizes the size. The extraction unit 16 excludes the background by cutting out the predetermined area 33 from the first captured image 30.

抽出部16は、正規化した所定領域33を所定数の分割領域に分割する。図3は、所定領域における分割領域のコード化の一例を示す説明図である。図3に示すように、抽出部16は、例えば、所定領域33を8分割し、各分割領域34aに分割する。抽出部16は、分割領域34aごとに、例えば黒の割合が閾値以上であれば「1」とし、黒の割合が閾値未満であれば「0」と判定して、すなわち輝度情報に基づいて、第1の二値判定結果35aとしてコード化する。つまり、抽出部16は、各分割領域34aをコード化して、所定領域33の第1の二値判定結果35aを抽出する。ここで、閾値は、例えば50%とすることができる。抽出部16は、コード化した第1の二値判定結果35aを、例えば「キー1」と設定する。   The extraction unit 16 divides the normalized predetermined area 33 into a predetermined number of divided areas. FIG. 3 is an explanatory diagram showing an example of coding of divided areas in a predetermined area. As illustrated in FIG. 3, for example, the extraction unit 16 divides the predetermined area 33 into eight and divides the predetermined area 33 into the divided areas 34 a. For each divided region 34a, the extraction unit 16 determines, for example, “1” if the ratio of black is equal to or greater than the threshold, and “0” if the ratio of black is less than the threshold, that is, based on the luminance information. It encodes as the 1st binary determination result 35a. That is, the extraction unit 16 encodes each divided region 34 a and extracts the first binary determination result 35 a of the predetermined region 33. Here, the threshold value can be set to 50%, for example. The extraction unit 16 sets the coded first binary determination result 35a as, for example, “key 1”.

同様に、抽出部16は、例えば、所定領域33を32分割し、各分割領域34bに分割する。抽出部16は、所定領域33について8分割の場合と同様に黒の割合を判定して、第1の二値判定結果35bとしてコード化する。つまり、抽出部16は、各分割領域34bをコード化して、所定領域33の第1の二値判定結果35bを抽出する。抽出部16は、コード化した第1の二値判定結果35bを、例えば「キーN」と設定する。なお、「キー」は、例えば、分割数が少ない第1の二値判定結果から順番に付番していくものとする。また、第1の二値判定結果35a、35bを区別しない場合には、単に第1の二値判定結果35と表す。さらに、第1の二値判定結果35は、分割を一度しか行っていないキーの数が「1」の場合も含む。また、分割領域34a、34bは分割数を区別しない場合には、単に分割領域34と表す。抽出部16は、抽出した第1の二値判定結果35a、35bを第1のデータとして、通信部11およびネットワークNを介してサーバ装置100に送信する。また、抽出部16は、第1撮像画像を選択部17に出力する。さらに、抽出部16は、耳標から一部の識別番号が判読できた場合には、当該一部の識別番号を第1の二値判定結果35a、35bと併せて第1のデータとして通信部11およびネットワークNを介してサーバ装置100に送信する。   Similarly, for example, the extraction unit 16 divides the predetermined area 33 into 32 and divides each predetermined area 34b. The extraction unit 16 determines the black ratio for the predetermined area 33 in the same manner as in the case of eight divisions, and encodes the result as the first binary determination result 35b. That is, the extraction unit 16 encodes each divided region 34 b and extracts the first binary determination result 35 b of the predetermined region 33. The extraction unit 16 sets the coded first binary determination result 35b as, for example, “key N”. Note that the “key” is numbered sequentially from the first binary determination result with a small number of divisions, for example. In addition, when the first binary determination results 35a and 35b are not distinguished, they are simply expressed as the first binary determination result 35. Furthermore, the first binary determination result 35 includes a case where the number of keys that have been divided only once is “1”. The divided areas 34a and 34b are simply represented as divided areas 34 when the number of divisions is not distinguished. The extraction unit 16 transmits the extracted first binary determination results 35a and 35b as first data to the server device 100 via the communication unit 11 and the network N. Further, the extraction unit 16 outputs the first captured image to the selection unit 17. Furthermore, when a part of the identification number can be read from the ear tag, the extraction unit 16 uses the part of the identification number as the first data together with the first binary determination results 35a and 35b. 11 and the network device N via the network N.

図1の説明に戻って、選択部17は、通信部11から第2撮像画像と識別番号とが入力される。選択部17は、入力された第2撮像画像を候補画像として、識別番号とともに表示操作部14に表示させる。ここで、第2撮像画像は、1枚であっても複数枚であってもよい。選択部17は、表示操作部14からユーザが第2撮像画像を選択する操作に対応する操作情報が入力されると、選択情報を通信部11を介してサーバ装置100に送信する。   Returning to the description of FIG. 1, the selection unit 17 receives the second captured image and the identification number from the communication unit 11. The selection unit 17 causes the display operation unit 14 to display the input second captured image as a candidate image together with the identification number. Here, the second captured image may be one or a plurality of images. When the operation information corresponding to the operation for the user to select the second captured image is input from the display operation unit 14, the selection unit 17 transmits the selection information to the server device 100 via the communication unit 11.

選択部17は、通信部11から特定情報と補足情報とが入力され、抽出部16から第1撮像画像が入力される。選択部17は、通信部11から特定情報と補足情報とが入力されると、表示操作部14に第1撮像画像と特定情報と補足情報とを表示させる。すなわち、選択部17は、表示操作部14に第1撮像画像と識別番号と名前と補足情報とを表示させる。   The selection unit 17 receives specific information and supplementary information from the communication unit 11 and receives a first captured image from the extraction unit 16. When the specific information and the supplemental information are input from the communication unit 11, the selection unit 17 causes the display operation unit 14 to display the first captured image, the specific information, and the supplemental information. That is, the selection unit 17 causes the display operation unit 14 to display the first captured image, the identification number, the name, and the supplementary information.

ここで、候補の牛の情報を表示する画面例について説明する。図4は、候補の牛の情報を表示する画面の一例を示す説明図である。図4に示すように、画面36は、例えば、候補画像である第2撮像画像が表示される画像表示エリア37、ならびに、識別番号および名前が表示される情報表示エリア38を有する。また、画面36には、候補画像として複数の第2撮像画像がある場合には、表示される第2撮像画像を切り替えるボタン39a、39bが表示される。選択部17は、ユーザによりボタン39a、39bが押下されることにより、複数の第2撮像画像を画像表示エリア37に切り替えて表示させる。また、画像表示エリア37には、複数の第2撮像画像のうち、何枚目を表示中であるかを識別する情報40が表示される。図4の例では、情報40として「2/3」と表示され、3枚の第2撮像画像のうち2枚目を表示していることを示す。   Here, the example of a screen which displays the information of a candidate cow is demonstrated. FIG. 4 is an explanatory diagram illustrating an example of a screen that displays information on candidate cows. As illustrated in FIG. 4, the screen 36 includes, for example, an image display area 37 in which a second captured image that is a candidate image is displayed, and an information display area 38 in which an identification number and a name are displayed. Further, on the screen 36, when there are a plurality of second captured images as candidate images, buttons 39a and 39b for switching the second captured image to be displayed are displayed. The selection unit 17 switches the plurality of second captured images to the image display area 37 and displays them when the user presses the buttons 39a and 39b. Further, in the image display area 37, information 40 is displayed for identifying what number of the plurality of second captured images is being displayed. In the example of FIG. 4, “2/3” is displayed as the information 40, indicating that the second of the three second captured images is displayed.

サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。サーバ装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。   The server device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The server apparatus 100 may include various functional units included in known computers other than the functional units illustrated in FIG. 1, for example, functional units such as various input devices and audio output devices.

通信部110は、例えば、NIC等によって実現される。通信部110は、ネットワークNを介して端末装置10と有線または無線で接続され、端末装置10との間で情報の通信を司る通信インタフェースである。通信部110は、端末装置10から第1撮像画像に基づく第1のデータとして例えば第1の二値判定結果と、選択情報とを受信する。さらに、通信部110は、第1のデータに一部の識別番号が含まれている場合には、一部の識別番号も併せて受信する。また、通信部110は、制御部130から入力された第1のデータと類似する第2のデータに対応する第2撮像画像と、特定された牛の第2撮像画像に対応付けられた識別番号を含む特定情報および補足情報とを端末装置10に送信する。通信部110は、受信した第1のデータである第1の二値判定結果と一部の識別番号と選択情報とを制御部130に出力する。   The communication unit 110 is realized by a NIC or the like, for example. The communication unit 110 is a communication interface that is connected to the terminal device 10 via the network N in a wired or wireless manner and manages communication of information with the terminal device 10. The communication unit 110 receives, for example, a first binary determination result and selection information as first data based on the first captured image from the terminal device 10. Furthermore, when a part of identification numbers is included in the first data, the communication unit 110 also receives a part of the identification numbers. The communication unit 110 also includes a second captured image corresponding to second data similar to the first data input from the control unit 130 and an identification number associated with the identified second captured image of the cow. The specific information including the supplementary information and the supplementary information are transmitted to the terminal device 10. The communication unit 110 outputs the first binary determination result that is the received first data, a part of the identification number, and the selection information to the control unit 130.

記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、マスタ画像記憶部121を有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。   The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a master image storage unit 121. In addition, the storage unit 120 stores information used for processing in the control unit 130.

マスタ画像記憶部121は、例えば、複数の牛それぞれの側面の第2撮像画像と、第2のデータと、識別番号と、名前、飼育記録、撮影日時等の補足情報とを対応付けて記憶する。また、マスタ画像記憶部121は、牛ごとに撮影日時の異なる上述の第2撮像画像等を複数記憶して、経時変化を記憶する。なお、第2撮像画像は、牛の斑紋が左右で異なるため、例えば、頭を右とした右側面、または、頭を左とした左側面のいずれかに統一して記憶する。   The master image storage unit 121 stores, for example, a second captured image of each side of the plurality of cows, second data, an identification number, and supplementary information such as a name, breeding record, and shooting date and time in association with each other. . In addition, the master image storage unit 121 stores a plurality of the above-described second captured images having different shooting dates and times for each cow, and stores changes with time. The second captured image is stored in a unified manner, for example, on either the right side with the head on the right or the left side with the head on the left, since the mottled pattern of the cow is different on the left and right.

第2撮像画像は、上述の第1撮像画像と同様に、例えば、端末装置10で撮像された第1撮像画像を受信し、牛が特定された後に、第1撮像画像を第2撮像画像として識別番号等とともにマスタ画像記憶部121に蓄積して記憶する。すなわち、マスタ画像記憶部121は、酪農家が飼育する牛のデータベースである。   The second captured image is the same as the first captured image described above, for example, after receiving the first captured image captured by the terminal device 10 and identifying the cow, the first captured image is used as the second captured image. It is accumulated and stored in the master image storage unit 121 together with the identification number and the like. That is, the master image storage unit 121 is a database of cattle raised by a dairy farmer.

制御部130は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。制御部130は、照合部131と、特定部132とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   The control unit 130 is realized, for example, by executing a program stored in an internal storage device using the RAM as a work area by a CPU, an MPU, or the like. The control unit 130 may be realized by an integrated circuit such as ASIC or FPGA, for example. The control unit 130 includes a collation unit 131 and a specifying unit 132, and realizes or executes functions and operations of information processing described below. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 1, and may be another configuration as long as the information processing described below is performed.

照合部131は、通信部110から受信した第1のデータである第1の二値判定結果が入力されると、マスタ画像記憶部121を参照し、第1の二値判定結果と第2のデータである第2の二値判定結果とを照合する。照合部131は、第1のデータと同一または類似する第2のデータに対応する第2撮像画像を候補画像として、通信部110を介して端末装置10に送信する。ここで、照合部131は、照合の結果、候補画像の第2撮像画像が所定数を超える場合には、分割領域をさらに細分化した第1および第2の細分化二値判定結果を照合する。すなわち、照合部131は、候補画像の第2撮像画像が所定数を超える場合に、第1の二値判定結果35aを示す「キー1」から「キーN」の順に照合する。なお、所定数は、例えば、3〜5枚とすることができる。また、照合部131は、第2撮像画像に対応付けられた識別番号も併せて通信部110を介して端末装置10に送信する。なお、識別番号は、牛の名前の情報を含んでもよい。   When the first binary determination result that is the first data received from the communication unit 110 is input, the matching unit 131 refers to the master image storage unit 121, and compares the first binary determination result and the second binary determination result. It collates with the 2nd binary determination result which is data. The matching unit 131 transmits the second captured image corresponding to the second data that is the same as or similar to the first data to the terminal device 10 via the communication unit 110 as a candidate image. Here, the collation unit 131 collates the first and second subdivided binary determination results obtained by further subdividing the divided regions when the number of second captured images of the candidate images exceeds a predetermined number as a result of the collation. . That is, the collating unit 131 collates in the order of “key 1” to “key N” indicating the first binary determination result 35a when the number of second captured images of candidate images exceeds a predetermined number. The predetermined number can be 3 to 5 sheets, for example. Moreover, the collation part 131 transmits the identification number matched with the 2nd captured image to the terminal device 10 via the communication part 110 collectively. The identification number may include information on the name of the cow.

また、照合部131は、第1のデータに一部の識別番号が含まれている場合には、一部の識別番号と、マスタ画像記憶部121に第2撮像画像に対応付けて記憶された識別番号とに基づいて、照合結果の第2撮像画像を絞り込んで候補画像とするようにしてもよい。   In addition, when the first data includes a part of the identification number, the collation unit 131 stores the part of the identification number and the master image storage unit 121 in association with the second captured image. Based on the identification number, the second captured image of the comparison result may be narrowed down to be a candidate image.

照合部131は、候補画像の第2撮像画像が1枚の場合には、第2撮像画像および識別番号を端末装置10に送信せずに、特定部132に当該第2撮像画像と識別番号とを出力する。   When the second captured image of the candidate image is one, the collation unit 131 does not transmit the second captured image and the identification number to the terminal device 10, and transmits the second captured image, the identification number, and the identification unit 132. Is output.

特定部132は、通信部110から選択情報が入力されると、選択情報に基づき牛を特定する。すなわち、特定部132は、選択情報が示す第2撮像画像の牛を、第1撮像画像の牛と特定する。特定部132は、特定した牛の第2撮像画像に対応付けられた識別番号を含む特定情報を生成する。特定部132は、生成した特定情報と、特定された牛の第2撮像画像に付随する補足情報とを、通信部110を介して端末装置10に送信する。   When the selection information is input from the communication unit 110, the specification unit 132 specifies a cow based on the selection information. That is, the specifying unit 132 specifies the cow of the second captured image indicated by the selection information as the cow of the first captured image. The identification unit 132 generates identification information including an identification number associated with the identified second captured image of the cow. The specifying unit 132 transmits the generated specifying information and the supplementary information accompanying the specified second captured image of the cow to the terminal device 10 via the communication unit 110.

特定部132は、照合部131から第2撮像画像と識別番号とが入力された場合には、当該第2撮像画像の牛を、第1撮像画像の牛と特定する。特定部132は、特定した牛の第2撮像画像に対応付けられた識別番号を含む特定情報を生成する。特定部132は、生成した特定情報と、特定された牛の第2撮像画像に付随する補足情報とを、通信部110を介して端末装置10に送信する。   When the second captured image and the identification number are input from the collating unit 131, the identifying unit 132 identifies the cow of the second captured image as the cow of the first captured image. The identification unit 132 generates identification information including an identification number associated with the identified second captured image of the cow. The specifying unit 132 transmits the generated specifying information and the supplementary information accompanying the specified second captured image of the cow to the terminal device 10 via the communication unit 110.

ここで、特定した牛の情報を表示する画面例について説明する。図5は、特定した牛の情報を表示する画面の一例を示す説明図である。図5に示すように、画面41には、例えば、特定した牛の第1撮像画像を表示する画像表示エリア42、ならびに、識別番号、名前および補足情報が表示される情報表示エリア43を有する。画像表示エリア42には、第1撮像画像30が表示される。また、情報表示エリア43には、識別番号と、名前と、補足情報44とが表示される。ここで、名前は、酪農家が牛各々に付した名称を示し、補足情報44は、例えば、乳牛の皮下脂肪量またはエネルギー蓄積の相対的な量を示すBCS(Body Condition Score)、父母、母の父等の血統情報を示す。また、画面41には、補足情報44として、例えば、年齢や乳牛の泌乳ステージを表示するようにしてもよい。泌乳ステージは、例えば、分娩時、泌乳初期、泌乳中期、泌乳後期、乾乳期といったステージを表示できる。   Here, the example of a screen which displays the information of the specified cow is demonstrated. FIG. 5 is an explanatory diagram illustrating an example of a screen displaying information on the identified cow. As shown in FIG. 5, the screen 41 has, for example, an image display area 42 that displays the first captured image of the identified cow, and an information display area 43 that displays the identification number, name, and supplementary information. The first captured image 30 is displayed in the image display area 42. In the information display area 43, an identification number, a name, and supplementary information 44 are displayed. Here, the name indicates the name given to each cow by the dairy farmer, and the supplementary information 44 is, for example, BCS (Body Condition Score) indicating the amount of subcutaneous fat or energy storage of the cow, parent, mother The pedigree information of the father etc. Moreover, you may make it display on the screen 41 as supplementary information 44, for example, an age and the lactation stage of a cow. As the lactation stage, for example, stages such as parturition, early lactation, mid-lactation, late lactation, and dry period can be displayed.

また、端末装置10の入力部13で撮像または入力された撮像画像には、複数の牛が撮像されている場合がある。図6は、複数の牛を特定する場合の牛の情報を表示する画面の一例を示す説明図である。図6に示すように、画面45には、牛46と牛48とが撮像された第1撮像画像30aが、画像表示エリア42aに表示される。画面45では、牛46の識別番号と名前とがタグ47に表示される。タグ47は、例えば、牛46の上部に配置されて牛46を特定できる。同様に、画面45には、牛48の識別番号と名前とがタグ49に表示される。タグ49は、タグ47と同様に、例えば、牛48の上部に配置されて牛48を特定できる。   In addition, a plurality of cows may be captured in the captured image captured or input by the input unit 13 of the terminal device 10. FIG. 6 is an explanatory diagram illustrating an example of a screen that displays cow information when a plurality of cows are specified. As shown in FIG. 6, on the screen 45, the first captured image 30a obtained by capturing the cow 46 and the cow 48 is displayed in the image display area 42a. On the screen 45, the identification number and name of the cow 46 are displayed on the tag 47. For example, the tag 47 can be placed on the top of the cow 46 to identify the cow 46. Similarly, the identification number and name of the cow 48 are displayed on the tag 49 on the screen 45. Similarly to the tag 47, the tag 49 is arranged on the top of the cow 48 and can identify the cow 48, for example.

ここで、タグ47、49は、第1撮像画像30aに基づく、それぞれの牛の側面の斑紋、つまり所定領域をAR(Augmented Reality)マーカーとして認識して表示したものである。画面45の例では、ARマーカーに応じたタグ47、49を、第1撮像画像30aに重畳表示させる。画面45では、このように、拡張現実技術を適用することで、より牛の特定が行い易くなる。   Here, the tags 47 and 49 are obtained by recognizing and displaying mottles on the side surfaces of the respective cows based on the first captured image 30a, that is, predetermined areas as AR (Augmented Reality) markers. In the example of the screen 45, the tags 47 and 49 corresponding to the AR marker are superimposed on the first captured image 30a. In the screen 45, it becomes easier to identify the cow by applying the augmented reality technology.

次に、実施例の特定システム1の動作について説明する。なお、以下の説明では、第1のデータとして、牛の側面の所定領域をマトリックス状に複数の分割領域に分割し、分割領域の輝度情報に基づいた第1の二値判定結果を用いるとする。   Next, the operation of the specific system 1 according to the embodiment will be described. In the following description, as the first data, the predetermined area on the side surface of the cow is divided into a plurality of divided areas in a matrix, and the first binary determination result based on the luminance information of the divided areas is used. .

図7は、実施例の特定システムの動作の一例を示すシーケンス図である。端末装置10の入力部13は、ユーザの操作により、牛の画像を撮像し、撮像画像を制御部15に出力する(ステップS1)。制御部15の抽出部16は、入力部13から入力された撮像画像を第1撮像画像30として取得する(ステップS2)。抽出部16は、第1撮像画像30の牛の側面について、所定領域を規定するための基準点31を設定する(ステップS3)。   FIG. 7 is a sequence diagram illustrating an example of the operation of the specific system according to the embodiment. The input unit 13 of the terminal device 10 captures an image of a cow and outputs the captured image to the control unit 15 (step S1). The extraction unit 16 of the control unit 15 acquires the captured image input from the input unit 13 as the first captured image 30 (step S2). The extraction unit 16 sets a reference point 31 for defining a predetermined area for the side surface of the cow of the first captured image 30 (step S3).

抽出部16は、第1撮像画像30を二値化する(ステップS4)。抽出部16は、二値化した第1撮像画像32から基準点31に基づいて所定領域33を切り出してサイズを正規化する(ステップS5)。抽出部16は、正規化した所定領域33を所定数の分割領域に分割する(ステップS6)。抽出部16は、各分割領域34をコード化して、所定領域33の第1の二値判定結果35を抽出する(ステップS7)。抽出部16は、抽出した第1の二値判定結果35を第1のデータとして、通信部11およびネットワークNを介してサーバ装置100に送信する(ステップS8)。また、抽出部16は、第1撮像画像を選択部17に出力する。   The extraction unit 16 binarizes the first captured image 30 (step S4). The extraction unit 16 cuts out the predetermined area 33 from the binarized first captured image 32 based on the reference point 31 and normalizes the size (step S5). The extraction unit 16 divides the normalized predetermined area 33 into a predetermined number of divided areas (step S6). The extraction unit 16 encodes each divided region 34 and extracts the first binary determination result 35 of the predetermined region 33 (step S7). The extraction unit 16 transmits the extracted first binary determination result 35 as first data to the server apparatus 100 via the communication unit 11 and the network N (step S8). Further, the extraction unit 16 outputs the first captured image to the selection unit 17.

サーバ装置100の通信部110は、端末装置10から第1撮像画像に基づく第1のデータとして、第1の二値判定結果を受信する(ステップS9)。通信部110は、第1の二値判定結果を制御部130に出力する。制御部130の照合部131は、第1の二値判定結果が入力されると、第1の二値判定結果とマスタ画像記憶部121に記憶された第2のデータである第2の二値判定結果とを照合する(ステップS10)。照合部131は、第1の二値判定結果と同一または類似する第2の二値判定結果に対応する第2撮像画像を候補画像として、通信部110を介して端末装置10に送信する(ステップS11)。また、照合部131は、第2撮像画像に対応付けられた識別番号も併せて通信部110を介して端末装置10に送信する。   The communication unit 110 of the server device 100 receives the first binary determination result as the first data based on the first captured image from the terminal device 10 (step S9). The communication unit 110 outputs the first binary determination result to the control unit 130. When the first binary determination result is input, the verification unit 131 of the control unit 130 receives the first binary determination result and the second binary that is the second data stored in the master image storage unit 121. The determination result is collated (step S10). The collation unit 131 transmits the second captured image corresponding to the second binary determination result that is the same as or similar to the first binary determination result as a candidate image to the terminal device 10 via the communication unit 110 (step). S11). Moreover, the collation part 131 transmits the identification number matched with the 2nd captured image to the terminal device 10 via the communication part 110 collectively.

端末装置10の通信部11は、サーバ装置100から第2撮像画像と、第2撮像画像に対応する識別番号とを受信する(ステップS12)。通信部11は、受信した第2撮像画像と、識別番号とを制御部15に出力する。制御部15の選択部17は、通信部11から第2撮像画像と識別番号とが入力される。選択部17は、入力された第2撮像画像を候補画像として、識別番号とともに表示操作部14に表示させる(ステップS13)。選択部17は、表示操作部14からユーザが第2撮像画像を選択する操作に対応する操作情報が入力されると(ステップS14)、選択情報を通信部11を介してサーバ装置100に送信する(ステップS15)。   The communication unit 11 of the terminal device 10 receives the second captured image and the identification number corresponding to the second captured image from the server device 100 (step S12). The communication unit 11 outputs the received second captured image and the identification number to the control unit 15. The selection unit 17 of the control unit 15 receives the second captured image and the identification number from the communication unit 11. The selection unit 17 causes the display operation unit 14 to display the input second captured image as a candidate image together with the identification number (step S13). When the operation information corresponding to the operation by which the user selects the second captured image is input from the display operation unit 14 (step S14), the selection unit 17 transmits the selection information to the server device 100 via the communication unit 11. (Step S15).

サーバ装置100の通信部110は、端末装置10から選択情報を受信する(ステップS16)。通信部110は、受信した選択情報を制御部130に出力する。特定部132は、通信部110から選択情報が入力されると、選択情報に基づき牛を特定する。特定部132は、特定した牛の第2撮像画像に対応付けられた識別番号を含む特定情報を生成する(ステップS17)。特定部132は、生成した特定情報と、特定された牛の第2撮像画像に付随する補足情報とを、通信部110を介して端末装置10に送信する(ステップS18)。   The communication unit 110 of the server device 100 receives selection information from the terminal device 10 (step S16). The communication unit 110 outputs the received selection information to the control unit 130. When the selection information is input from the communication unit 110, the specification unit 132 specifies a cow based on the selection information. The identification unit 132 generates identification information including an identification number associated with the identified second captured image of the cow (step S17). The specifying unit 132 transmits the generated specifying information and supplementary information accompanying the specified second captured image of the cow to the terminal device 10 via the communication unit 110 (step S18).

端末装置10の通信部11は、サーバ装置100から特定情報と補足情報とを受信する(ステップS19)。通信部11は、受信した特定情報と補足情報とを制御部15に出力する。制御部15の選択部17は、通信部11から特定情報と補足情報とが入力され、抽出部16から第1撮像画像が入力される。選択部17は、通信部11から特定情報と補足情報とが入力されると、表示操作部14に第1撮像画像と特定情報と補足情報とを表示する(ステップS20)。これにより、特定システム1は、牛の側面の画像に基づいて、牛を特定することができる。   The communication unit 11 of the terminal device 10 receives the specific information and the supplementary information from the server device 100 (step S19). The communication unit 11 outputs the received specific information and supplemental information to the control unit 15. The selection unit 17 of the control unit 15 receives specific information and supplementary information from the communication unit 11, and receives a first captured image from the extraction unit 16. When the specific information and the supplemental information are input from the communication unit 11, the selection unit 17 displays the first captured image, the specific information, and the supplemental information on the display operation unit 14 (Step S20). Thereby, the identification system 1 can identify a cow based on the image of the side of the cow.

また、特定システム1は、牛を特定した後に、当該牛の画像からBCSを求めるようにしてもよい。例えば、特定システム1は、BCSを求める手法の一つであるUV法によってBCSを求めることができる。UV法は、牛の側面の坐骨、寛骨、腰角を結ぶラインを横から見て、この3点を結ぶラインがU字に見えるとBCS≧3.25、V字に見えるとBCS≦3.00と判定する。UV法は、BCS≧3.25の場合には、牛の後部から尾骨靭帯、仙骨靭帯を見ることで、3.25から5.00まで0.25刻みでBCSのスコアを判定する。また、UV法は、BCS≦3.00の場合には、牛の後部から坐骨、腰角を見ることで、2.00から3.00まで0.25刻みでBCSのスコアを判定する。   Moreover, you may make it the specific system 1 obtain | require BCS from the image of the said cow, after specifying a cow. For example, the specific system 1 can obtain the BCS by the UV method, which is one of the methods for obtaining the BCS. In the UV method, a line connecting the sciatic bone, hipbone, and hip angle on the side of the cow is seen from the side. If the line connecting these three points looks like a U-shape, BCS ≧ 3.25, and if it looks like a V-shape, BCS ≦ 3 .00 is determined. In the UV method, when BCS ≧ 3.25, the BCS score is determined in increments of 0.25 from 3.25 to 5.00 by looking at the coccytal ligament and sacral ligament from the rear of the cow. In the UV method, when BCS ≦ 3.00, the BCS score is determined in steps of 0.25 from 2.00 to 3.00 by looking at the sciatica and hip angle from the rear of the cow.

特定システム1は、例えば、牛の個体が特定された後に、ユーザによって端末装置10の表示操作部14に表示された第1撮像画像上に、上述のUまたはV字が入力されることで、BCSを判定する。また、特定システム1は、サーバ装置100のマスタ画像記憶部121に記憶された、既にBCSが判定された第2撮像画像を端末装置10の表示操作部14に表示して、ユーザによるUまたはV字の入力の補助を行うようにしてもよい。これにより、一般の酪農家であってもBCSの判定のバラツキを抑えることができる。   For example, after the cow individual is specified, the specifying system 1 is configured such that the above U or V character is input on the first captured image displayed on the display operation unit 14 of the terminal device 10 by the user. Determine the BCS. Further, the identification system 1 displays the second captured image in which the BCS has already been determined, which is stored in the master image storage unit 121 of the server device 100, on the display operation unit 14 of the terminal device 10, so that the U or V You may make it assist the input of a character. Thereby, even if it is a general dairy farmer, the variation in the determination of BCS can be suppressed.

このように、特定システム1は、牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する。また、特定システム1は、照合の結果に応じて、第1撮像画像の牛を特定する。その結果、牛の特定精度を向上することができる。   As described above, the identification system 1 includes the first data based on the predetermined area of the first captured image of the side surface of the cow and the first area based on the predetermined area of the second captured image of the side surface of the cow stored in the storage unit. 2 data is collated. Moreover, the identification system 1 identifies the cow of the first captured image according to the result of the collation. As a result, the cow identification accuracy can be improved.

また、特定システム1は、第1のデータと同一または類似する第2のデータに対応する第2撮像画像に基づいて、第1撮像画像の牛を特定する。その結果、簡易に牛の特定精度を向上することができる。   Moreover, the identification system 1 identifies the cow of the first captured image based on the second captured image corresponding to the second data that is the same as or similar to the first data. As a result, it is possible to easily improve the cow identification accuracy.

また、特定システム1は、第1のデータと同一または類似する第2のデータに対応する第2撮像画像を表示させ、第1撮像画像に対応する第2撮像画像を選択させて、牛を特定する。その結果、ユーザのスキルを向上させつつ、簡易に牛の特定精度を向上することができる。   Further, the identification system 1 displays a second captured image corresponding to second data that is the same as or similar to the first data, selects a second captured image corresponding to the first captured image, and identifies a cow To do. As a result, it is possible to easily improve the accuracy of cow identification while improving user skills.

また、特定システム1は、記憶部に第2撮像画像に対応付けて記憶された識別番号を第2撮像画像とともに表示させ、第1撮像画像に対応する第2撮像画像を選択させて、牛を特定する。その結果、識別番号と牛の画像とを組み合わせることで、容易に牛の特定精度を向上することができる。   The identification system 1 displays the identification number stored in the storage unit in association with the second captured image together with the second captured image, selects the second captured image corresponding to the first captured image, and selects the cow. Identify. As a result, the identification accuracy of the cow can be easily improved by combining the identification number and the cow image.

また、特定システム1は、牛の耳に取り付けられ、該牛の識別番号が表示される耳標の撮像画像から判読された少なくとも一部の識別番号と、記憶部に第2撮像画像に対応付けて記憶された識別番号とに基づいて、第2撮像画像を絞り込んで第1撮像画像の牛を特定する。その結果、候補画像だけでは個体を判別しにくい場合でも、容易に牛の特定精度を向上することができる。また、耳標が汚れていた場合でも、牛の特定精度を向上することができる。   In addition, the identification system 1 is attached to the ear of a cow and associates at least a part of the identification number read from the captured image of the ear tag on which the identification number of the cow is displayed with the second captured image in the storage unit Based on the stored identification number, the second captured image is narrowed down to identify the cow of the first captured image. As a result, even if it is difficult to identify an individual with only candidate images, it is possible to easily improve the accuracy of cow identification. Moreover, even when the ear mark is dirty, the cow identification accuracy can be improved.

また、特定システム1は、第1撮像画像の所定領域をマトリックス状に分割した分割領域のそれぞれの輝度情報に基づいた第1の二値判定結果である第1のデータを抽出する。また、特定システム1は、第2撮像画像の所定領域をマトリックス状に分割した分割領域のそれぞれの輝度情報に基づいた第2の二値判定結果である第2のデータを抽出する。特定システム1は、第1のデータと第2のデータとを照合する。その結果、第1撮像画像と第2撮像画像とを簡易な処理で照合することができる。   Further, the specifying system 1 extracts first data that is a first binary determination result based on the luminance information of each of the divided areas obtained by dividing the predetermined area of the first captured image in a matrix. Further, the specifying system 1 extracts second data that is a second binary determination result based on the luminance information of each of the divided areas obtained by dividing the predetermined area of the second captured image into a matrix. The identification system 1 collates the first data and the second data. As a result, the first captured image and the second captured image can be collated with simple processing.

また、特定システム1は、第1の二値判定結果に一致した第2の二値判定結果に対応する第2撮像画像が所定数を超える場合には、分割領域をさらに細分化したそれぞれの第1および第2の細分化二値判定結果を照合する。その結果、候補画像を容易に絞り込むことができる。   In addition, when the number of second captured images corresponding to the second binary determination result that matches the first binary determination result exceeds a predetermined number, the specifying system 1 further subdivides the divided regions. The first and second subdivided binary determination results are collated. As a result, candidate images can be easily narrowed down.

なお、上記実施例では、ユーザが撮像する撮像画像として静止画像を例として説明したが、これに限定されない。例えば、撮像画像は、動画像としてもよく、動画像から斑紋がある所定領域をパターン化して認識し、所定領域を切り出して第1撮像画像とすることができる。また、端末装置10は、動画像である撮像画像に基づいて、例えば、牛の移動方向や、頭を画像認識等によって判別して、牛の右側面または左側面を判別するようにしてもよい。これにより、データベースに記憶されている第2撮像画像と異なる側面をユーザが撮像しようとしている場合に、注意を促すことができる。また、動画像の中から適した画像を第1撮像画像とできるため、第1撮像画像の撮影時のユーザの負担を軽減することができる。   In the above embodiment, a still image has been described as an example of a captured image captured by the user, but the present invention is not limited to this. For example, the captured image may be a moving image, and a predetermined area having a mottled pattern is recognized from the moving image, and the predetermined area is cut out to be the first captured image. Further, the terminal device 10 may determine the right side or the left side of the cow based on the captured image that is a moving image, for example, by determining the moving direction of the cow or the head by image recognition or the like. . Thereby, when a user is going to image the side different from the 2nd captured image memorized by database, it can call attention. In addition, since a suitable image from the moving images can be used as the first captured image, the burden on the user when the first captured image is captured can be reduced.

このように、特定システム1は、動画像から切り出した所定領域を、第1撮像画像の所定領域とする。その結果、第1撮像画像の撮像時のユーザの負担を軽減することができる。   As described above, the specifying system 1 sets the predetermined area cut out from the moving image as the predetermined area of the first captured image. As a result, it is possible to reduce the burden on the user when capturing the first captured image.

また、上記実施例では、ユーザが撮像した撮像画像の牛について個体を特定したが、これに限定されない。例えば、特定システム1は、端末装置10においてユーザから牛の識別番号または名前の入力を受け付けて、端末装置10の表示操作部14に探したい牛の第2撮像画像を表示させて、ユーザが牛を探すための補助としてもよい。これにより、経験の浅い酪農家でも、容易に牛を探すことができる。   Moreover, in the said Example, although the individual was specified about the cow of the captured image which the user imaged, it is not limited to this. For example, the identification system 1 receives an input of a cow identification number or name from the user at the terminal device 10, causes the display operation unit 14 of the terminal device 10 to display the second captured image of the cow to be searched, and the user It may be an aid to search for. This makes it easy for even inexperienced dairymen to find cows.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、上記の実施例では、端末装置10とサーバ装置100とをネットワークNで接続した特定システム1としたが、例えば、サーバ装置100の照合部131、特定部132およびマスタ画像記憶部121を端末装置10に設けてもよい。この場合には、端末装置10がネットワークNと接続できない状態であっても、端末装置10で牛を特定できる。この場合、さらにサーバ装置100にもマスタ画像記憶部121を設けて、端末装置10がネットワークNに接続可能になった時点で、端末装置10およびサーバ装置100のマスタ画像記憶部121を同期するようにしてもよい。   In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured. For example, in the above embodiment, the specific system 1 in which the terminal device 10 and the server device 100 are connected by the network N is used. However, for example, the collation unit 131, the specific unit 132, and the master image storage unit 121 of the server device 100 are connected to the terminal. You may provide in the apparatus 10. FIG. In this case, even if the terminal device 10 cannot be connected to the network N, the terminal device 10 can identify the cow. In this case, the server device 100 is further provided with a master image storage unit 121 so that the terminal device 10 and the master image storage unit 121 of the server device 100 are synchronized when the terminal device 10 can be connected to the network N. It may be.

さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。   Furthermore, various processing functions performed by each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.

ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図8は、特定プログラムを実行するコンピュータの一例を示す説明図である。   By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance by a computer. Therefore, in the following, an example of a computer that executes a program having the same function as in the above embodiment will be described. FIG. 8 is an explanatory diagram illustrating an example of a computer that executes a specific program.

図8が示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。   As illustrated in FIG. 8, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives data input, and a monitor 203. The computer 200 also includes a medium reading device 204 that reads a program and the like from a storage medium, an interface device 205 for connecting to various devices, and a communication device 206 for connecting to other information processing devices and the like by wire or wirelessly. Have The computer 200 also includes a RAM 207 that temporarily stores various types of information and a hard disk device 208. Each device 201 to 208 is connected to a bus 209.

ハードディスク装置208には、図1に示した抽出部16、選択部17、照合部131および特定部132の各処理部と同様の機能を有する特定プログラムが記憶される。また、ハードディスク装置208には、マスタ画像記憶部121、および、特定プログラムを実現するための各種データが記憶される。入力装置202は、図1に示した入力部13および表示操作部14の入力デバイスと同様の機能を有し、撮像画像および操作情報の入力を受け付ける。モニタ203は、図1に示した表示操作部14の表示デバイスと同様の機能を有し、例えば候補の牛の情報や特定した牛の情報を表示する画面等の各種画面を表示する。インタフェース装置205は、例えば印刷装置等が接続される。通信装置206は、例えば、他の情報処理装置と接続され、国や業界団体の牛のデータベースの情報等の各種情報をやりとりする。   The hard disk device 208 stores a specific program having the same functions as the processing units of the extraction unit 16, the selection unit 17, the collation unit 131, and the specification unit 132 illustrated in FIG. The hard disk device 208 also stores a master image storage unit 121 and various data for realizing a specific program. The input device 202 has the same function as the input devices of the input unit 13 and the display operation unit 14 illustrated in FIG. 1 and receives input of captured images and operation information. The monitor 203 has the same function as the display device of the display operation unit 14 shown in FIG. 1, and displays various screens such as a screen for displaying candidate cow information and specified cow information. The interface device 205 is connected to, for example, a printing device. The communication device 206 is connected to, for example, another information processing device, and exchanges various types of information such as information on cow databases of countries and industry groups.

CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図1に示した抽出部16、選択部17、照合部131および特定部132として機能させることができる。   The CPU 201 reads out each program stored in the hard disk device 208, develops it in the RAM 207, and executes it to perform various processes. In addition, these programs can cause the computer 200 to function as the extraction unit 16, the selection unit 17, the collation unit 131, and the identification unit 132 illustrated in FIG.

なお、上記の特定プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの特定プログラムを記憶させておき、コンピュータ200がこれらから特定プログラムを読み出して実行するようにしてもよい。   Note that the above specific program is not necessarily stored in the hard disk device 208. For example, the computer 200 may read and execute a program stored in a storage medium readable by the computer 200. The storage medium readable by the computer 200 corresponds to, for example, a portable recording medium such as a CD-ROM, a DVD disk, a USB (Universal Serial Bus) memory, a semiconductor memory such as a flash memory, a hard disk drive, and the like. Alternatively, the specific program may be stored in a device connected to a public line, the Internet, a LAN, or the like, and the computer 200 may read and execute the specific program from these.

1 特定システム
10 端末装置
11 通信部
12 記憶部
13 入力部
14 表示操作部
15 制御部
16 抽出部
17 選択部
100 サーバ装置
110 通信部
120 記憶部
121 マスタ画像記憶部
130 制御部
131 照合部
132 特定部
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Identification system 10 Terminal apparatus 11 Communication part 12 Storage part 13 Input part 14 Display operation part 15 Control part 16 Extraction part 17 Selection part 100 Server apparatus 110 Communication part 120 Storage part 121 Master image memory | storage part 130 Control part 131 Collation part 132 Identification Part N Network

Claims (11)

牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合し、
前記照合の結果に応じて、前記第1撮像画像の牛を特定する
処理をコンピュータが実行することを特徴とする特定方法。
The first data based on the predetermined area of the first captured image of the side surface of the cow is collated with the second data based on the predetermined area of the second captured image of the side surface of the cow stored in the storage unit,
A computer executing a process of identifying a cow of the first captured image according to the result of the collation.
前記特定する処理は、前記第1のデータと同一または類似する前記第2のデータに対応する前記第2撮像画像に基づいて、前記第1撮像画像の前記牛を特定することを特徴とする請求項1に記載の特定方法。   The specifying process specifies the cow of the first captured image based on the second captured image corresponding to the second data that is the same as or similar to the first data. Item 2. The specifying method according to Item 1. 前記特定する処理は、前記第1のデータと同一または類似する前記第2のデータに対応する前記第2撮像画像を表示させ、前記第1撮像画像に対応する前記第2撮像画像を選択させて、前記牛を特定することを特徴とする請求項2に記載の特定方法。   The specifying process displays the second captured image corresponding to the second data that is the same as or similar to the first data, and selects the second captured image corresponding to the first captured image. The identification method according to claim 2, wherein the cow is identified. 前記特定する処理は、前記記憶部に前記第2撮像画像に対応付けて記憶された識別番号を前記第2撮像画像とともに表示させ、前記第1撮像画像に対応する前記第2撮像画像を選択させて、前記牛を特定することを特徴とする請求項3に記載の特定方法。   The identifying process causes the storage unit to display an identification number stored in association with the second captured image together with the second captured image, and to select the second captured image corresponding to the first captured image. The method according to claim 3, wherein the cow is specified. 前記特定する処理は、前記牛の耳に取り付けられ、該牛の識別番号が表示される耳標の撮像画像から判読された少なくとも一部の識別番号と、前記記憶部に前記第2撮像画像に対応付けて記憶された識別番号とに基づいて、前記第2撮像画像を絞り込んで前記第1撮像画像の前記牛を特定することを特徴とする請求項2〜4のいずれか1項に記載の特定方法。   The specifying process includes attaching at least a part of the identification number read from the captured image of the ear tag attached to the cow's ear and displaying the identification number of the cow, and the second captured image in the storage unit. 5. The method according to claim 2, wherein the second captured image is narrowed down to identify the cow in the first captured image based on an identification number stored in association with the first captured image. Identification method. 前記照合する処理は、前記第1撮像画像の前記所定領域をマトリックス状に分割した分割領域のそれぞれの輝度情報に基づいた第1の二値判定結果である前記第1のデータと、前記第2撮像画像の前記所定領域をマトリックス状に分割した分割領域のそれぞれの輝度情報に基づいた第2の二値判定結果である前記第2のデータとを照合することを特徴とする請求項1〜5のいずれか1項に記載の特定方法。   The process of collating includes the first data that is a first binary determination result based on luminance information of each divided region obtained by dividing the predetermined region of the first captured image in a matrix, and the second data 6. The second data, which is a second binary determination result based on luminance information of each divided area obtained by dividing the predetermined area of the captured image into a matrix, is collated. The identification method according to any one of the above. 前記照合する処理は、前記第1の二値判定結果に一致した前記第2の二値判定結果に対応する前記第2撮像画像が所定数を超える場合には、前記分割領域をさらに細分化したそれぞれの第1および第2の細分化二値判定結果を照合することを特徴とする請求項6に記載の特定方法。   The process of collating further subdivides the divided area when the second captured image corresponding to the second binary determination result that matches the first binary determination result exceeds a predetermined number The identification method according to claim 6, wherein the first and second subdivided binary determination results are collated. 前記照合する処理は、動画像から切り出した所定領域を、前記第1撮像画像の所定領域とすることを特徴とする請求項1〜7のいずれか1項に記載の特定方法。   The specifying method according to claim 1, wherein the collating process uses a predetermined area cut out from a moving image as a predetermined area of the first captured image. 牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合し、
前記照合の結果に応じて、前記第1撮像画像の牛を特定する
処理をコンピュータに実行させることを特徴とする特定プログラム。
The first data based on the predetermined area of the first captured image of the side surface of the cow is collated with the second data based on the predetermined area of the second captured image of the side surface of the cow stored in the storage unit,
A specifying program that causes a computer to execute processing for specifying a cow of the first captured image in accordance with a result of the collation.
牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する照合部と、
前記照合の結果に応じて、前記第1撮像画像の牛を特定する特定部と
を有することを特徴とする特定装置。
A collation unit that collates first data based on a predetermined area of the first captured image of the side surface of the cow and second data based on a predetermined area of the second captured image of the side surface of the cow stored in the storage unit When,
A specifying unit that specifies a cow of the first captured image according to a result of the collation.
サーバ装置と、端末装置とを有する特定システムであって、
前記サーバ装置は、
牛の側面の第1撮像画像の所定領域に基づいた第1のデータと、記憶部に記憶された牛の側面の第2撮像画像の所定領域に基づいた第2のデータとを照合する照合部と、
前記照合の結果に応じて、前記第1撮像画像の牛を特定する特定部と
前記端末装置から前記第1のデータを受信し、前記端末装置に前記第2撮像画像と特定された前記牛の特定情報とを送信する通信部とを有し、
前記端末装置は、
前記第1のデータおよび選択された前記第2撮像画像を示す選択情報を前記サーバ装置に送信し、前記サーバ装置から前記第2撮像画像および前記特定情報を受信する通信部と、
前記第1撮像画像の所定領域に基づいて前記第1のデータを抽出する抽出部と、
前記第2撮像画像を表示させ、前記第1撮像画像に対応する前記第2撮像画像を選択させ、選択の結果に応じた前記第1撮像画像と前記特定情報とを表示させる選択部と、
を有することを特徴とする特定システム。
A specific system having a server device and a terminal device,
The server device
A collation unit that collates first data based on a predetermined area of the first captured image of the side surface of the cow and second data based on a predetermined area of the second captured image of the side surface of the cow stored in the storage unit When,
According to the result of the collation, the identification unit for identifying the cow of the first captured image and the first data from the terminal device are received, and the cow image identified by the terminal device as the second captured image is received. A communication unit that transmits specific information,
The terminal device
A communication unit that transmits selection information indicating the first data and the selected second captured image to the server device, and receives the second captured image and the specific information from the server device;
An extraction unit that extracts the first data based on a predetermined region of the first captured image;
A selection unit that displays the second captured image, causes the second captured image corresponding to the first captured image to be selected, and displays the first captured image and the specific information according to a selection result;
A specific system characterized by comprising:
JP2014050463A 2014-03-13 2014-03-13 Identification method, identification program, identification apparatus and identification system Active JP6291927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014050463A JP6291927B2 (en) 2014-03-13 2014-03-13 Identification method, identification program, identification apparatus and identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014050463A JP6291927B2 (en) 2014-03-13 2014-03-13 Identification method, identification program, identification apparatus and identification system

Publications (2)

Publication Number Publication Date
JP2015173605A true JP2015173605A (en) 2015-10-05
JP6291927B2 JP6291927B2 (en) 2018-03-14

Family

ID=54253411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050463A Active JP6291927B2 (en) 2014-03-13 2014-03-13 Identification method, identification program, identification apparatus and identification system

Country Status (1)

Country Link
JP (1) JP6291927B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173732A (en) * 2014-03-13 2015-10-05 富士通株式会社 Management method, management program, management device and management system
WO2017217169A1 (en) * 2016-06-15 2017-12-21 ソニー株式会社 Information processing device, method, and program
WO2018100874A1 (en) * 2016-11-29 2018-06-07 ソニー株式会社 Display control device, display control method, and program
JP2018520680A (en) * 2015-07-01 2018-08-02 ヴァイキング ジェネティクス エフエムベーア System and method for identifying individual animals based on dorsal images
JP2019509765A (en) * 2016-03-22 2019-04-11 フェルスター − テクニク ゲーエムベーハー Method for displaying animal information and locating animals
CN113962336A (en) * 2021-08-06 2022-01-21 杨*甦 Real-time cattle face ID coding method
CN115457338A (en) * 2022-11-09 2022-12-09 中国平安财产保险股份有限公司 Method and device for identifying uniqueness of cow, computer equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412420A (en) * 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
JP2000093042A (en) * 1998-09-25 2000-04-04 Fujihira Kogyo Kk Identification of individual cattle
JP2000188986A (en) * 1998-12-24 2000-07-11 Surge Miyawaki Co Ltd Animal registration management system enabling identification of individual animal
WO2007077694A1 (en) * 2005-12-28 2007-07-12 Atomsystem Co., Ltd. Muzzle pattern information creating device, muzzle pattern information checking device, muzzle pattern information creating program, and muzzle pattern information creating method
WO2012121167A1 (en) * 2011-03-04 2012-09-13 日本電気株式会社 Individual product identification system, individual product identification method, and device and program used by same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412420A (en) * 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
JP2000093042A (en) * 1998-09-25 2000-04-04 Fujihira Kogyo Kk Identification of individual cattle
JP2000188986A (en) * 1998-12-24 2000-07-11 Surge Miyawaki Co Ltd Animal registration management system enabling identification of individual animal
WO2007077694A1 (en) * 2005-12-28 2007-07-12 Atomsystem Co., Ltd. Muzzle pattern information creating device, muzzle pattern information checking device, muzzle pattern information creating program, and muzzle pattern information creating method
WO2012121167A1 (en) * 2011-03-04 2012-09-13 日本電気株式会社 Individual product identification system, individual product identification method, and device and program used by same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173732A (en) * 2014-03-13 2015-10-05 富士通株式会社 Management method, management program, management device and management system
JP2018520680A (en) * 2015-07-01 2018-08-02 ヴァイキング ジェネティクス エフエムベーア System and method for identifying individual animals based on dorsal images
JP2019509765A (en) * 2016-03-22 2019-04-11 フェルスター − テクニク ゲーエムベーハー Method for displaying animal information and locating animals
WO2017217169A1 (en) * 2016-06-15 2017-12-21 ソニー株式会社 Information processing device, method, and program
JPWO2017217169A1 (en) * 2016-06-15 2019-04-04 ソニー株式会社 Information processing apparatus, method, and program
WO2018100874A1 (en) * 2016-11-29 2018-06-07 ソニー株式会社 Display control device, display control method, and program
JPWO2018100874A1 (en) * 2016-11-29 2019-10-17 ソニー株式会社 Display control apparatus, display control method, and program
US10923083B2 (en) 2016-11-29 2021-02-16 Sony Corporation Display control device, display control method, and program
CN113962336A (en) * 2021-08-06 2022-01-21 杨*甦 Real-time cattle face ID coding method
CN113962336B (en) * 2021-08-06 2023-11-24 杨甦 Real-time cattle face ID coding method
CN115457338A (en) * 2022-11-09 2022-12-09 中国平安财产保险股份有限公司 Method and device for identifying uniqueness of cow, computer equipment and storage medium

Also Published As

Publication number Publication date
JP6291927B2 (en) 2018-03-14

Similar Documents

Publication Publication Date Title
JP6291927B2 (en) Identification method, identification program, identification apparatus and identification system
US20190228211A1 (en) Au feature recognition method and device, and storage medium
US9436682B2 (en) Techniques for machine language translation of text from an image based on non-textual context information from the image
CN109255297B (en) Animal state monitoring method, terminal device, storage medium and electronic device
WO2019033571A1 (en) Facial feature point detection method, apparatus and storage medium
CN110427859A (en) A kind of method for detecting human face, device, electronic equipment and storage medium
WO2019061658A1 (en) Method and device for positioning eyeglass, and storage medium
US20130258198A1 (en) Video search system and method
JP5361524B2 (en) Pattern recognition system and pattern recognition method
EP3044731A1 (en) Image searching method and apparatus
RU2010128943A (en) METHOD FOR DATA EXTRACTION FROM MEDICAL IMAGES DATA SET
CN109785400B (en) Silhouette image manufacturing method and device, electronic equipment and storage medium
JP6402455B2 (en) Management method, management program, management device, and management system
WO2019033570A1 (en) Lip movement analysis method, apparatus and storage medium
CN111061898A (en) Image processing method, image processing device, computer equipment and storage medium
US20140233854A1 (en) Real time object scanning using a mobile phone and cloud-based visual search engine
CN104915664B (en) Contact object identifier obtaining method and device
WO2019119396A1 (en) Facial expression recognition method and device
US20210110559A1 (en) Determining method, information processing apparatus, and recording medium
US20130236065A1 (en) Image semantic clothing attribute
KR20130105322A (en) Image processor, image processing method, control program, and recording medium
CN111626313A (en) Feature extraction model training method, image processing method and device
CN114782994A (en) Gesture recognition method and device, storage medium and electronic equipment
JP2015215893A (en) Identification method and facility for sign character of exercise participant
CN113762031A (en) Image identification method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180129

R150 Certificate of patent or registration of utility model

Ref document number: 6291927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150