JP5090719B2 - Chick sex determination device and chick sex determination program - Google Patents

Chick sex determination device and chick sex determination program Download PDF

Info

Publication number
JP5090719B2
JP5090719B2 JP2006327649A JP2006327649A JP5090719B2 JP 5090719 B2 JP5090719 B2 JP 5090719B2 JP 2006327649 A JP2006327649 A JP 2006327649A JP 2006327649 A JP2006327649 A JP 2006327649A JP 5090719 B2 JP5090719 B2 JP 5090719B2
Authority
JP
Japan
Prior art keywords
image data
processing unit
sex determination
sex
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006327649A
Other languages
Japanese (ja)
Other versions
JP2008136439A5 (en
JP2008136439A (en
Inventor
建明 呂
真太郎 片山
洋 劉
孝嗣 谷萩
紘一 田原
淳一 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YAMAMOTO CORP.
Original Assignee
YAMAMOTO CORP.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YAMAMOTO CORP. filed Critical YAMAMOTO CORP.
Priority to JP2006327649A priority Critical patent/JP5090719B2/en
Publication of JP2008136439A publication Critical patent/JP2008136439A/en
Publication of JP2008136439A5 publication Critical patent/JP2008136439A5/ja
Application granted granted Critical
Publication of JP5090719B2 publication Critical patent/JP5090719B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、雛鶏の雌雄判定装置及び雛鶏の雌雄判定装置プログラムに関する。   The present invention relates to a sex determination apparatus for chicks and a sex determination apparatus program for chicks.

雛鶏を育てるに際し雄と雌では餌が異なるため、雌雄の区別がついていない雛に同じ餌を与えることは効率的ではない。効率的に雛を育てるためには、生まれてからできる限り早期に雌雄を区別する必要がある。現在、雛鶏の雌雄判定は人間の目視により行っているのが一般的であるが、機械的に雌雄を判定することができればより容易であり、人件費等のコストも低減させることができ、機械化することによるメリットは大きい。   When raising chicks, the feed is different between males and females, so it is not efficient to feed the same chicks that have no distinction between males and females. In order to raise chicks efficiently, it is necessary to distinguish between males and females as soon as possible after birth. Currently, male and female determination of chicks is generally performed by human visual inspection, but it is easier if the male and female can be determined mechanically, and costs such as labor costs can be reduced. The merit of mechanization is great.

現在、雛鶏の雌雄判定方法の一例として、いわゆる羽判定法がある。羽判定法は、雛鶏の翼において、雄の羽は長さが一定である一方、雌の羽は短い羽と長い羽が交互に並んでいる、という雌雄間の羽の特徴の違いを利用して雛鶏の雌雄判定を行う方法である。   Currently, there is a so-called wing determination method as an example of a sex determination method for chicks. The wing determination method uses the difference in wing characteristics between males and females in male wings, where male wings have a constant length, while female wings have alternating short and long wings. This is a method for determining the sex of chicks.

本発明は、判定率の高い雛鶏の雌雄判定装置及びそれを実現する雛鶏の雌雄判定装置プログラムを提供することを目的とする。   An object of this invention is to provide the sex determination apparatus of a chick with a high determination rate, and the sex determination apparatus program of the chick which implement | achieves it.

上記課題を解決する一手段として、本発明に係る雌雄判定装置は、画像データに対し、前処理を行う前処理部と、前処理された前記画像データに基づき特徴量データを抽出する特徴量抽出処理部と、抽出した前記特徴量データに基づき雌雄の判定を行う判定処理部と、を有する。   As one means for solving the above-described problem, a sex determination apparatus according to the present invention includes a preprocessing unit that performs preprocessing on image data, and feature amount extraction that extracts feature data based on the preprocessed image data. A processing unit, and a determination processing unit that determines sex based on the extracted feature data.

また、本手段において、限定されるわけではないが、前処理部は、前記画像データにおける画素の輝度値の正規化を行うことが好ましい。   Moreover, in this means, although not limited, it is preferable that the preprocessing unit normalizes the luminance value of the pixel in the image data.

また、本手段において、限定されるわけではないが、特徴量抽出処理部は、前処理された前記画像データに対し方位フィルタリングを行うこと、前処理された前記画像データにおける画素の輝度値の2値化を行うこと、前処理された前記画像データにおける画素の輝度値の2値化を行い、羽に対応する部分を抽出すること、前処理された前記画像データに対しウェーブレット変換を行うこと、の少なくともいずれかを行うことが好ましい。   Moreover, in this means, although not limited, the feature amount extraction processing unit performs azimuth filtering on the preprocessed image data, and 2 of the luminance value of the pixel in the preprocessed image data. Performing binarization, binarizing the luminance value of a pixel in the preprocessed image data, extracting a portion corresponding to a wing, performing wavelet transform on the preprocessed image data, It is preferable to perform at least one of the following.

また、本手段において、限定されるわけではないが、前処理された前記画像データに対しウェーブレット変換を行った場合、ウェーブレット変換を行った前記画像データに対し、ハイパスフィルタリングを行うこと、乗数処理を行うこと、の少なくともいずれかを行うことが好ましい。なお、乗数処理を行った場合、微分処理を行うことがより好ましく、微分フィルタリングを行うことが更に好ましい。   Further, in this means, although not limited, when wavelet transform is performed on the preprocessed image data, high-pass filtering is performed on the image data subjected to wavelet transform, and multiplier processing is performed. It is preferable to perform at least one of the following. In addition, when performing a multiplier process, it is more preferable to perform a differential process, and it is still more preferable to perform differential filtering.

また、本手段において、限定されるわけではないが、前記特徴量抽出処理部は、前処理された前記画像データにおける画素の輝度値の2値化を行い、羽に対応する部分を抽出した場合、前記羽に対応する部分に対して細線化を行うこと、羽に対応する部分の結合処理を行うこと、画像データに対し回転処理を行うこと、更には、羽に対応する部分の頂点間の距離又は長さの少なくとも一方を求めること、の少なくともいずれかを行うことが好ましい。   In this means, although not limited, the feature amount extraction processing unit binarizes the luminance value of the pixel in the preprocessed image data and extracts a portion corresponding to the wing. , Performing thinning on the part corresponding to the wing, combining the part corresponding to the wing, rotating the image data, and further, between the vertices of the part corresponding to the wing It is preferable to perform at least one of obtaining at least one of the distance and the length.

また、本手段において、限定されるわけではないが、判定処理部は、ベイズ識別法又は線形判別法の少なくともいずれかを用いることが好ましい。   Moreover, in this means, although not limited, it is preferable that the determination processing unit uses at least one of a Bayes identification method or a linear determination method.

また、上記課題を解決する他の一手段として、本発明に係る雛鶏の雌雄判定プログラムは、コンピュータに、画像データに対し、前処理を行う前処理部と、前処理された前記画像データに基づき特徴量データを抽出する特徴量抽出処理部と、抽出した前記特徴量データに基づき雌雄の判定を行う判定処理部と、して機能させる。   In addition, as another means for solving the above-described problem, a chick sexing program according to the present invention includes a preprocessing unit that preprocesses image data on a computer, and the preprocessed image data. A feature amount extraction processing unit that extracts feature amount data based on the extracted feature amount data and a determination processing unit that determines sex based on the extracted feature amount data.

また、本手段において、限定されるわけではないが、前記画像データにおける画素の輝度値の正規化を行う前処理部としても機能させることも好ましい。   Moreover, in this means, although not necessarily limited, it is also preferable to function as a preprocessing unit that normalizes the luminance value of the pixel in the image data.

また、本手段において、限定されるわけではないが、前処理された前記画像データに対し方位フィルタリングを行う特徴抽出処理部、前処理された前記画像データにおける画素の輝度値の2値化を行う特徴抽出処理部、前処理された前記画像データにおける画素の輝度値の2値化を行う特徴抽出処理部、羽に対応する部分を抽出する特徴抽出処理部、前処理された前記画像データに対しウェーブレット変換を行う特徴抽出処理部、の少なくともいずれかとして機能させることも好ましい。   Further, in this means, although not limited, a feature extraction processing unit that performs azimuth filtering on the preprocessed image data, and binarization of pixel luminance values in the preprocessed image data. A feature extraction processing unit, a feature extraction processing unit that binarizes luminance values of pixels in the preprocessed image data, a feature extraction processing unit that extracts a portion corresponding to a wing, and the preprocessed image data It is also preferable to function as at least one of a feature extraction processing unit that performs wavelet transform.

また、本手段において、限定されるわけではないが、前処理された前記画像データに対しウェーブレット変換を行うとした場合、ウェーブレット変換を行った前記画像データに対し、ハイパスフィルタリングを行う特徴抽出処理部、乗数処理を行う特徴抽出処理部、の少なくともいずれかとして機能させることも好ましい。なお、乗数処理を行った場合、微分処理を行う特徴抽出処理部として機能することもより好ましく、微分フィルタリングを行う特徴抽出処理部として機能させることも更に好ましい。   Further, in this means, although not limited thereto, if wavelet transform is performed on the preprocessed image data, a feature extraction processing unit that performs high-pass filtering on the image data subjected to wavelet transform It is also preferable to function as at least one of a feature extraction processing unit that performs multiplier processing. In addition, when a multiplier process is performed, it is more preferable to function as a feature extraction processing unit that performs differential processing, and it is even more preferable to function as a feature extraction processing unit that performs differential filtering.

また、本手段において、限定されるわけではないが、前記特徴量抽出処理部は、前処理された前記画像データにおける画素の輝度値の2値化を行い、羽に対応する部分を抽出する特徴抽出処理部として機能する場合、前記羽に対応する部分に対して細線化を行う特徴抽出処理部、羽に対応する部分の結合処理を行う特徴抽出処理部、画像データに対し回転処理を行う特徴抽出処理部、更には、羽に対応する部分の頂点間の距離又は長さの少なくとも一方を求める特徴抽出処理部、の少なくともいずれかとして機能させることも好ましい。   Further, in this means, although not limited, the feature amount extraction processing unit binarizes the luminance value of the pixel in the preprocessed image data, and extracts a portion corresponding to the wing. When functioning as an extraction processing unit, a feature extraction processing unit that performs thinning on the portion corresponding to the wing, a feature extraction processing unit that performs combination processing on the portion corresponding to the wing, and a feature that performs rotation processing on image data It is also preferable to function as at least one of an extraction processing unit and, further, a feature extraction processing unit that obtains at least one of a distance or a length between vertices of a portion corresponding to a wing.

また、本手段において、限定されるわけではないが、ベイズ識別法又は線形判別法の少なくともいずれかを用いる判定処理部として機能させることも好ましい。   Moreover, although not limited, it is also preferable that this means function as a determination processing unit that uses at least one of the Bayes identification method or the linear discrimination method.

以上により本発明は、より判定率の高い雛鶏の雌雄判定装置及びそれを実現する雛鶏の雌雄判定装置プログラムとなる。   Thus, the present invention provides a sex determination apparatus for chicks with a higher determination rate and a sex determination apparatus program for chicks that realizes the determination ratio.

以下、本発明の実施形態について図面を参照しつつ説明する。ただし、本発明は多くの異なる態様で実施することが可能であり、以下に示す実施形態に限定されるものではない。なお、本明細書においては同一又は同様の機能を有する部分には同一の符号を付し、その繰り返しの説明は省略する。   Embodiments of the present invention will be described below with reference to the drawings. However, the present invention can be implemented in many different modes and is not limited to the embodiments shown below. Note that in this specification, portions having the same or similar functions are denoted by the same reference numerals, and repeated description thereof is omitted.

図1に、本実施形態に係る雛鶏の雌雄判定装置(以下、「本雌雄判定装置」ともいう。)の機能ブロックを示す。本図で示すように、本雌雄判定装置1は、前処理部2、特徴抽出処理部3、判定処理部4、を少なくとも有して構成されている。なお、本雌雄判定装置1は、限定されるわけではないが、例えば、パーソナルコンピュータのハードディスク等の記録媒体に格納されたプログラム(雛鶏の雌雄判定プログラム)を実行することで実現させることもでき、本実施形態ではプログラムを実行することで実現する例を用いて説明する。なお、この装置の使用者は、本雌雄判定装置による雌雄判定に先立ち、雛鶏の翼部分をカメラ等の撮像装置で撮像して画像を取得し、予め取り込んでおく必要がある。   FIG. 1 shows functional blocks of a chick sex determination apparatus (hereinafter also referred to as “the present sex determination apparatus”) according to the present embodiment. As shown in the figure, the sex determination apparatus 1 includes at least a preprocessing unit 2, a feature extraction processing unit 3, and a determination processing unit 4. The sex determination apparatus 1 is not limited, but can be realized by executing a program (chicken sex determination program) stored in a recording medium such as a hard disk of a personal computer, for example. In the present embodiment, description will be made using an example realized by executing a program. Note that the user of this device needs to capture and capture in advance an image of the wings of a chick by an imaging device such as a camera prior to the sex determination by the sex determination device.

前処理部2は、取得した翼部分の画像において処理に先立ち照明等の撮影において生じた影響を調整する処理をおこなうことができるものである。本実施形態では、予め取り込んだ雛鶏の翼部分の画像データ(以下単に「画像データ」という。)における輝度値の正規化を行う。これにより翼部分を撮像する際に用いた照明の影響を低減することが出来る。なお図2(a)に、雄の翼部分の写真図を、図2(b)に雌の翼部分の写真図を示しておく。   The pre-processing unit 2 can perform a process of adjusting an influence generated in photographing such as illumination prior to the process in the acquired image of the wing part. In the present embodiment, normalization of the luminance value in the image data (hereinafter simply referred to as “image data”) of the wing part of the chicken captured in advance is performed. Thereby, the influence of the illumination used when imaging a wing | blade part can be reduced. FIG. 2A shows a photograph of the male wing portion, and FIG. 2B shows a photograph of the female wing portion.

輝度値の正規化は、限定されるわけではないが、画像データにおけるヒストグラムを調整して羽の強調を行う。ヒストグラム変換は、限定されるわけではないが、下記式(1)で表される式を用いて行うことが好ましい。なお下記式中xは処理される前の画像データ(以下「原画像データ」という。)のある画素の輝度値を示し、xmax、xminはそれぞれ原画像データにおける輝度値の最大値、最小値を示す。またyは処理後の画像データ(以下「輝度値正規化後画像データ」という。)における画素の輝度値を示す。なおymaxは255である。
The normalization of the luminance value is not limited, but the wings are emphasized by adjusting the histogram in the image data. Although the histogram conversion is not limited, it is preferable to perform the histogram conversion using an equation represented by the following equation (1). In the following formula, x represents the luminance value of a pixel in image data before processing (hereinafter referred to as “original image data”), and x max and x min are the maximum luminance value and the minimum luminance value in the original image data, respectively. Indicates the value. The y s denotes the luminance value of the pixel in the processed image data (hereinafter referred to as "luminance value normalized image data".). Y max is 255.

特徴抽出処理部2は、羽に相当する部分を抽出し、その特徴量を抽出することができるものである。限定されるわけではないが、具体的には、輝度値正規化後画像データにおける画素の輝度値を2値化し、羽に相当する部分として抽出する。なおここで2値化とは、画像データ中のある画素の輝度値が閾値Thよりも小さい値であれば0、大きい値であれば最大値(255)を割り当てる処理をいう。2値化は具体的に、以下の式(2)で表される。なお、下記中f(x,y)は輝度値正規化後画像データにおける輝度値を表し、g(x,y)は2値化処理が行われた後の画像データ(以下「2値化後画像データ」という。)を表す。また、図3に、2値化後画像データの例の写真図を示す。2値化を行うことで、羽の表面に存在する凹凸による不均一な光の反射により発生する羽の分離(一つの羽であるのに複数の羽であると認識されてしまうこと)を効果的に抑えることができる。
The feature extraction processing unit 2 can extract a portion corresponding to a wing and extract the feature amount. Although not limited, specifically, the luminance value of the pixel in the luminance value normalized image data is binarized and extracted as a portion corresponding to a wing. Here, binarization means a process of assigning 0 if the luminance value of a certain pixel in the image data is smaller than the threshold value Th, and assigning the maximum value (255) if it is larger. The binarization is specifically expressed by the following formula (2). In the following, f (x, y) represents the luminance value in the normalized luminance value image data, and g (x, y) represents the image data after binarization processing (hereinafter “after binarization”). "Image data"). FIG. 3 shows a photograph of an example of binarized image data. By binarization, it is effective to separate wings caused by uneven light reflection due to unevenness existing on the surface of the wings (a single wing would be recognized as multiple wings) Can be suppressed.

しかしながら、図3で示すように、2値化を行った場合でも、上記羽の分離を完全に押さえることができない場合もある。そこで、本実施形態では更に、2値化で分離された羽部分に着目し、その角度を考慮して羽部分の結合処理を行う。図4に、羽Aの結合処理の例を示す。結合処理は、限定されるわけではないが、図4で示すように、まず、ある基準軸(図4では水平軸)と羽Aの軸とがなす角度θを求める。一方、羽Aの一方の端点と羽B、C、Dの一方の端点とを結ぶ直線を求め、それぞれの直線と基準軸とがなす角度θ’、θ’、θ’を求める。そしてθ’、θ’、θ’の中にθと近い角度を有するものがあるか否かを判定し、近い角度を有する羽同士を結合する。図4の例では、羽Aと羽Bの角度がほぼ等しいものであるため、羽Aと羽Bとは一つの羽であると判断し、結合処理を行う。 However, as shown in FIG. 3, even when binarization is performed, the separation of the wings may not be completely suppressed. Therefore, in this embodiment, attention is paid to the wing part separated by binarization, and the wing part is combined in consideration of the angle. FIG. 4 shows an example of the wing A combining process. The coupling process is not limited, but as shown in FIG. 4, first, an angle θ A formed by a certain reference axis (horizontal axis in FIG. 4) and the axis of the wing A is obtained. On the other hand, a straight line connecting one end point of the wing A and one end point of the wings B, C, D is obtained, and angles θ ′ B , θ ′ C , θ ′ D formed by the respective straight lines and the reference axis are obtained. Then, it is determined whether or not any of θ ′ B , θ ′ C , and θ ′ D has an angle close to θ A, and wings having close angles are combined. In the example of FIG. 4, since the angles of the wing A and the wing B are substantially equal, it is determined that the wing A and the wing B are one wing, and the combining process is performed.

なお、ここにおいて、各羽の軸の定め方としては、限定されるわけではないが、細線化処理を行うことにより定めることが好ましい。より具体的には、羽として抽出された部分に幅がある場合、この幅を1の線で表現することが好ましい。この処理後の画像データ(以下「細線化後画像データ」という。)を図5に示す。なお図5(a)は、輝度値正規化前の画像データを、図5(b)輝度値正規化後の画像データを、図5(c)は、細線化後画像データを示す。なお、細線化処理の後、上記結合処理をより容易に行うために、細線を直線に近似する直線近似処理を行っておくことも好ましい。   Here, the method of determining the axis of each wing is not limited, but it is preferable to determine it by performing a thinning process. More specifically, when a portion extracted as a wing has a width, it is preferable to express this width with one line. FIG. 5 shows image data after this processing (hereinafter referred to as “image data after thinning”). 5A shows image data before luminance value normalization, FIG. 5B shows image data after luminance value normalization, and FIG. 5C shows image data after thinning. In addition, after the thinning process, it is also preferable to perform a straight line approximation process for approximating the thin line to a straight line in order to perform the combining process more easily.

なお、本特徴抽出処理部3では、羽の先端の変化を特徴量として容易に抽出させるべく、画像データに対し回転処理を行い、羽の向きを調整することが好ましい。なお、この回転処理における回転角は、限定されるわけではないが、上記の結合処理において求めた各羽の軸の基準軸に対する角度θの平均値φaveであることが好ましい。なお、この回転処理は、限定されるわけではないが、ある点、例えば(x,y)の位置にある画素と(x,y)の位置にある画素(nはx方向及びy方向のがその数を示す)の中心点を回転中心とした場合、下記式(3)で処理することが好ましい。なおこの回転のモデルを説明する図を図6に示す。
In the feature extraction processing unit 3, it is preferable to perform rotation processing on the image data and adjust the direction of the wing in order to easily extract the change in the tip of the wing as a feature amount. The rotation angle in this rotation process is not limited, but is preferably the average value φ ave of the angle θ of each wing axis with respect to the reference axis obtained in the above combination process. The rotation processing is not limited, but a certain point, for example, a pixel at the position of (x 1 , y 1 ) and a pixel at the position of (x n , y n ) (n is the x direction and When the center point in the y direction indicates the number thereof is set as the rotation center, it is preferable to process by the following formula (3). FIG. 6 is a diagram for explaining this rotation model.

そして本特徴抽出処理3は、画像データから、判定に用いる特徴量データとして先端の変化情報を抽出する。具体的には羽の頂点の位置をそれぞれにおいて求め、その差分値として導出することで行う(以下「差分導出処理」という。)。具体的には、羽の各頂点の座標を[x,y]、[x,y]、…[x,y]、とし(Nは羽の数)、各頂点の隣り合うy座標の差分の値△yを導出し、その平均値m(△y)を求める。具体的には、以下式(4)、(5)を用いて行う。なお、式(5)においてi=1,2,3,…N−1であり、lは各羽の長さを示す。なお、本実施形態では回転処理を行っているため、x座標については考慮していないが、y座標の差分の値だけではなくx座標を含めた座標間の距離とすることも当然可能ではある。また、差分値△yについては、分散var(△y)を求めておくことも判断をより正確にする点において好ましい(例えば式(6)参照)。
Then, the feature extraction process 3 extracts tip change information as feature amount data used for determination from the image data. More specifically, the positions of the vertices of the wings are obtained for each and derived as a difference value (hereinafter referred to as “difference derivation process”). Specifically, the coordinates of each vertex of the wing are [x 1 , y 1 ], [x 2 , y 2 ],... [X N , y N ] (N is the number of wings), and adjacent to each vertex. A difference value Δy of the matching y coordinates is derived, and an average value m (Δy) is obtained. Specifically, the following equations (4) and (5) are used. Incidentally, i = 1, 2, 3 in the formula (5), a ... N-1, l n denotes the length of each blade. In this embodiment, since the rotation process is performed, the x coordinate is not considered, but it is naturally possible to set the distance between coordinates including the x coordinate as well as the difference value of the y coordinate. . In addition, regarding the difference value Δy, it is preferable to obtain the variance var (Δy) from the viewpoint of making the determination more accurate (see, for example, Expression (6)).

本実施形態に係る判定処理部4は、雌雄判定を行うものである。雌雄判定を行うことができる限りにおいて限定されるものではないが、ベイズ識別法を用いることが好ましい。ここで「ベイズ識別法」とは、事前に得られた各クラスの特徴量の分布から、識別したい特徴量がどのクラスに属するかを確率により決定する方法である。ベイズ識別法は学習と認識の2つのステップに分かれている。   The determination processing unit 4 according to the present embodiment performs sex determination. Although it is not limited as long as sex determination can be performed, it is preferable to use a Bayes identification method. Here, the “Bayes identification method” is a method of determining, based on the probability, which class the feature quantity to be identified belongs to from the distribution of the feature quantity of each class obtained in advance. Bayesian identification is divided into two steps: learning and recognition.

ベイズ識別法における学習のステップでは、雄と雌の特徴量の分布を表す確率密度関数P(x|ω)、P(x|ω)をそれぞれ求める。なおここで確率密度関数P(x|ω)、P(x|ω)は、クラスωiに属するxの生起確率を表す。ここでxは判定処理に用いる特徴量を、ωは雄のクラスを、ωは雌のクラスをそれぞれ示す。 In the learning step in the Bayes identification method, probability density functions P (x | ω 1 ) and P (x | ω 2 ) representing the distribution of feature quantities of male and female are obtained. Note that the probability density functions P (x | ω 1 ) and P (x | ω 2 ) represent the occurrence probabilities of x belonging to the class ωi. Here, x represents a feature amount used for the determination process, ω 1 represents a male class, and ω 1 represents a female class.

一方、ベイズ識別法における認識のステップでは、性別を判定する対象の雛鶏について特徴量を抽出し、その特徴量に基づき事後確率P(ω|x)、P(ω|x)雛鶏が雄であるか雌であるかを判定する。ここで事後確率とは、下記式(7)を用いて求めることができる。なお下記式(7)においてP(ω)、P(ω)はそれぞれ雄、雌の生起確率である。雄と雌の生起確率は等しいと仮定してP(ω)=P(ω)=0.5としている。また、雄と雌の判定処理は下記式(8)に基づいて行われる。
On the other hand, in the recognition step in the Bayes identification method, feature quantities are extracted from the chickens whose sex is to be determined, and posterior probabilities P (ω 1 | x), P (ω 2 | x) chickens are extracted based on the feature quantities. Determine whether is a male or female. Here, the posterior probability can be obtained using the following equation (7). In the following formula (7), P (ω 1 ) and P (ω 2 ) are the occurrence probabilities of males and females, respectively. P (ω 1 ) = P (ω 2 ) = 0.5 assuming that the occurrence probabilities of male and female are equal. The male / female determination process is performed based on the following equation (8).

以上、本実施形態により、判定率の高い雛鶏の雌雄判定装置、それを実現する雛鶏の雌雄判定プログラムを提供することができる。   As described above, according to the present embodiment, it is possible to provide a sex determination apparatus for chicks with a high determination rate and a sex determination program for chicks that realizes the apparatus.

(実施形態2)
上記実施形態では、判定率の高い雛鶏の雌雄判定装置、それを実現する雛鶏の雌雄判定プログラムを提供することができる点において有用であるが、実際の雛鶏の翼には羽のほかダウンが含まれているおり、撮影する部所によっては羽部分を抽出する処理の際、ダウンを羽として認識してしまい判定率に影響を及ぼしてしまう可能性が無いわけではない。また、上記実施形態では、羽を直線で表現し、その角度をもとに羽の結合処理を行っているため、羽が曲がっている等の場合には、分離した羽同士の角度が異なる結果結合に困難性をもたらす場合もないわけではない。そこで、本実施形態では、ダウンが含まれていた場合であっても高い判定率を維持できる雄判定装置、それを実現する雛鶏の雌雄判定プログラムを実現する。なお、以下本実施形態について説明するが、主に実施形態1と異なる点について説明し、実施形態1と同様の部分については言及した場合を除き説明は省略する。
(Embodiment 2)
The embodiment described above is useful in that it can provide a sex determination apparatus for chicks with a high determination rate and a sex determination program for chicks that realizes it. Down is included, and depending on the part to be photographed, in the process of extracting the wing part, the down is recognized as a wing and there is no possibility of affecting the determination rate. In the above embodiment, the wings are represented by straight lines, and the wings are combined based on the angle. Therefore, when the wings are bent, the angle between the separated wings is different. It is not without the case that it brings difficulties to the connection. Therefore, in this embodiment, a male determination device that can maintain a high determination rate even when down is included, and a sex determination program for chicks that realizes the male determination device are realized. Although the present embodiment will be described below, points different from the first embodiment will be mainly described, and the description of the same parts as those of the first embodiment will be omitted unless mentioned.

図7に、本実施形態に係る雌雄判定装置の機能ブロック図を示す。本実施形態に係る雌雄判定装置1は、実施形態1と同様、前処理部2、特徴抽出処理部3、判定処理部4、を少なくとも有して構成されている。   FIG. 7 shows a functional block diagram of the sex determination device according to the present embodiment. Similar to the first embodiment, the sex determination apparatus 1 according to the present embodiment includes at least a preprocessing unit 2, a feature extraction processing unit 3, and a determination processing unit 4.

本実施形態における特徴抽出処理部3は、直線を強調する方位フィルタリングを行うことを特徴の一つとする。一般に、雛鶏の羽は直線状に生えているため、直線を強調する方位フィルタリングを行うことによりダウンが含まれている場合であっても羽の強調をより効果的に行うことができる。   One of the features of the feature extraction processing unit 3 in this embodiment is to perform azimuth filtering that emphasizes a straight line. In general, chicken wings grow in a straight line, so that even when down is included by performing azimuth filtering that emphasizes the straight line, the wings can be emphasized more effectively.

方位フィルタリングにおいて、画像データの区分、方位フィルタの数については適宜調整可能であり限定されるわけではないが、画像データを7×7に区分し、方位フィルタの数を9とした場合の例を図8に示す。また、この方位フィルタリングの処理は、下記式(9)、(10)に従い行われる。なお、下記式(9)、(10)においてf(x,y)は、輝度値の正規化を行った後の画像データの画素の輝度値を示し、h(x,y)は方位フィルタの位置する画素におけるフィルタリング係数を示し、gi(x,y)は、方位フィルタリングを行った後の画像データの画素の輝度値を示す。また下記式中、*は畳み込み演算を示す。iは方位フィルタの数を示し、この場合i=1,2,…9である。なお方位フィルタリングを行う前と後の図を図9に示しておく。図9(a)は方位フィルタリングを行う前の画像データを、図9(b)は方位フィルタリングを行った後の画像データである。
In azimuth filtering, the classification of image data and the number of azimuth filters can be adjusted as appropriate and are not limited. However, an example in which the image data is divided into 7 × 7 and the number of azimuth filters is nine. As shown in FIG. Further, the azimuth filtering process is performed according to the following equations (9) and (10). In the following formulas (9) and (10), f (x, y) represents the luminance value of the pixel of the image data after normalization of the luminance value, and h i (x, y) represents the orientation filter. The filtering coefficient in the pixel where is located, and gi (x, y) represents the luminance value of the pixel of the image data after performing the azimuth filtering. In the following formula, * indicates a convolution operation. i indicates the number of orientation filters, and in this case, i = 1, 2,... FIG. 9 shows a diagram before and after orientation filtering. FIG. 9A shows image data before azimuth filtering, and FIG. 9B shows image data after azimuth filtering.

特徴抽出部3は、羽に相当する部分を抽出し、その特徴量を抽出することができるものであり、画像データにおける画素の輝度値の2値化、細線化処理、結合処理、回転処理、差分導出処理、において実施形態と同様のものを採用することができる。   The feature extraction unit 3 is capable of extracting a portion corresponding to a wing and extracting the feature amount. The feature extraction unit 3 binarizes, thins, combines, and rotates a luminance value of a pixel in image data. The difference derivation process can be the same as that of the embodiment.

上記に加え、本実施形態では、実施形態1の△yの差分値導出処理(例えば式(4)乃至(6))に加え、△lの差分値の導出処理を行うことが好ましい。なお、△lの差分値のほか、lの平均、分散についても求めておくことが好ましい。差分値△lを求める式を下記式(11)に、△lの平均を求める式を下記式(12)に、△lの分散を求める式を下記式(13)示しておく。
In addition to the above, in the present embodiment, in addition to the Δy difference value deriving process (for example, Equations (4) to (6)) of the first embodiment, it is preferable to perform the Δl difference value deriving process. In addition to the difference value of Δl, it is preferable to obtain the average and variance of l. The equation for calculating the difference value Δl is shown in the following equation (11), the equation for calculating the average of Δl is shown in the following equation (12), and the equation for calculating the variance of Δl is shown in the following equation (13).

判定処理部4は、実施形態1と同様の方法を用いることもできるが、本実施形態では、線形判別法を用いる。線形判別法は、限定されるわけではないが下記式(14)で示される式に従い行うことができる。なお、xは特徴量データである先端の変化を、ω1は雄を、ω2は雌のクラスを、Thlinearは線形判別法で用いる閾値を、それぞれ示している。
The determination processing unit 4 can use the same method as in the first embodiment, but in this embodiment, a linear discrimination method is used. The linear discriminating method can be performed according to the formula shown by the following formula (14), although not limited thereto. Note that x represents a change in the tip, which is feature quantity data, ω1 represents a male, ω2 represents a female class, and Th linear represents a threshold used in the linear discrimination method.

以上、本実施形態によると、実施形態1における効果に加え、ダウンが含まれていた場合であっても高い判定率を維持できる。   As described above, according to the present embodiment, in addition to the effects of the first embodiment, a high determination rate can be maintained even when down is included.

(実施形態3)
上記実施形態2では、画像データにダウンに対応する部分が含まれている場合であっても、より判定率の高い雛鶏の雌雄判定装置、それを実現する雛鶏の雌雄判定プログラムを提供することができる点において有用であるが、このダウンによる影響をより効率的に除去することができる。以下本実施形態について説明するが、主に実施形態2と異なる点について説明し、実施形態2と同様の部分については言及した場合を除き説明は省略する。
(Embodiment 3)
In the second embodiment, even if the image data includes a portion corresponding to down, a hen's sex determination apparatus with a higher determination rate, and a chick's sex determination program for realizing the device are provided. This is useful in that it can be removed, but the effect of this down can be removed more efficiently. Although the present embodiment will be described below, differences from the second embodiment will be mainly described, and the description of the same parts as those of the second embodiment will be omitted unless mentioned.

図10に本実施形態に係る雛鶏の雌雄判定装置の機能ブロック図を示す。本実施形態に係る雌雄判定装置1は、実施形態1と同様、前処理部2、特徴抽出処理部3、判定処理部4、を少なくとも有して構成されている。   FIG. 10 shows a functional block diagram of the sex determination apparatus for chicks according to this embodiment. Similar to the first embodiment, the sex determination apparatus 1 according to the present embodiment includes at least a preprocessing unit 2, a feature extraction processing unit 3, and a determination processing unit 4.

本実施形態に係る特徴量抽出処理部2は、ウェーブレット変換を行う。一般に、ダウンには画像中に密集したものと孤立したものが存在している。密集したダウンは画像中平坦に見え、低周波成分から構成されていると考えられる。一方、羽は細長く、一定の間隔で並んでいるため、密集したダウンよりは高周波数な成分から構成されていると考えられる。そこで、周波数成分の異なる領域を強調するためにウェーブレット変換を行うことで密集したダウンと羽とをまず分離することができるようになる。ウェーブレット変換としては、周波数成分の分離を行うことができる限りにおいて限定されるわけではないが、例えば高速フーリエ変換(以下「FFT」という。)を用いることが好ましい。図11(a)に、高速フーリエ変換前の画像を、図11(b)に、高速フーリエ変換後に得られる空間周波数画像を示しておく。   The feature amount extraction processing unit 2 according to the present embodiment performs wavelet transform. In general, the down includes a dense image and an isolated image. The dense down appears to be flat in the image and is considered to be composed of low frequency components. On the other hand, since the wings are elongated and arranged at regular intervals, it is considered that they are composed of components having a higher frequency than dense down. Therefore, dense down and wings can be first separated by performing wavelet transform to emphasize regions having different frequency components. The wavelet transform is not limited as long as frequency components can be separated, but it is preferable to use, for example, a fast Fourier transform (hereinafter referred to as “FFT”). FIG. 11A shows an image before the fast Fourier transform, and FIG. 11B shows a spatial frequency image obtained after the fast Fourier transform.

次に、特徴量抽出処理部2は、ハイパスフィルタを用いたハイパスフィルタリングを行う。ハイパスフィルタリングを行うことで、密集したダウンに相当する低周波成分を除去することができ、羽の部分に対応する高周波成分を効率的に残すことができる。なお、ここでハイパスフィルタについては、限定されるわけではないが、半径Rの円形フィルタを用いることが好ましい。半径Rと羽の周波数とを対応させることにより、密集したダウンに相当する低周波成分を除去することができる。なお、画像中での羽の幅が概ねBピクセルである場合、羽を表す並みの周期は2Bピクセルと考えることができ、円形フィルタの半径Rは、以下の式(15)で表すことができる。なお下記式中、widthは画像の横幅を示す。なお、図12(a)に、FFT返還前の画像を、図12(b)に、ハイパスフィルタ処理及び逆FFTを行った後の画像を示しておく。
Next, the feature amount extraction processing unit 2 performs high-pass filtering using a high-pass filter. By performing high-pass filtering, low frequency components corresponding to dense down can be removed, and high frequency components corresponding to the wings can be efficiently left. Here, the high-pass filter is not limited, but a circular filter having a radius R is preferably used. By making the radius R correspond to the wing frequency, low frequency components corresponding to dense down can be removed. When the width of the wing in the image is approximately B pixels, the average period representing the wing can be considered as 2B pixels, and the radius R of the circular filter can be expressed by the following equation (15). . In the following formula, width indicates the width of the image. FIG. 12A shows an image before FFT return, and FIG. 12B shows an image after high-pass filter processing and inverse FFT.

また、限定されるわけではないが、特徴量抽出処理部3は、密集したダウンだけでなく、孤立したダウンを除去することが好ましい。羽のスペクトルは強いのに対し、孤立したダウンのスペクトルは弱いことを利用し、その絶対値のk乗を掛けて強いスペクトルを相対的に強め、弱いスペクトルを相対的に弱める処理を行うこと(以下「乗数処理」という。)が好ましい。なお、この処理は、下記式(16)により実現することができる。なおこの式においてg(x,y)は、強調後の画像データにおける画素の輝度値であり、FはFFTを、F−1は逆FFTを、kは定数をそれぞれ示す。なお、図13(a)に乗数処理前の画像を、図13(b)に、乗数処理後(k=0.5)の画像を示しておく。
Moreover, although not necessarily limited, it is preferable that the feature quantity extraction processing unit 3 removes not only downs that are dense but also isolated downs. Utilizing the fact that the wing spectrum is strong while the isolated down spectrum is weak, multiply the absolute value by the k-th power to make the strong spectrum relatively strong, and the weak spectrum relatively weakened ( Hereinafter, “multiplier processing” is preferable. This process can be realized by the following equation (16). In this equation, g (x, y) is the luminance value of the pixel in the image data after enhancement, F is FFT, F-1 is inverse FFT, and k is a constant. FIG. 13A shows an image before the multiplier process, and FIG. 13B shows an image after the multiplier process (k = 0.5).

また、この乗数処理を行った後は、画像から羽に対応する部分を切り取ることによりダウンに対応する部分を除去することが好ましい。乗数処理の条件によっては羽及びダウンに対応する部分以外の部分(以下「背景部分」という。)の画素の輝度値が大きくなることがあるため、2値化だけでは十分に対応できない場合がある。しかしながら、上記のとおり、背景部分は平坦なため画素値の変化が滑らかとなる一方、羽部分は羽が並んでいるため画素の輝度値の変化が急となっていると考えられる。そこで、乗数処理後の画像データに微分処理を行い微分処理後の画像データを得ると、背景部分における微分値は小さく、羽に対応する部分の微分値は大きくなると考えられる。そこでこの微分処理後の画像データに対し微分フィルタを用いて微分フィルタリングを行うと、羽に対応する部分を効率的に抽出することができる。その後は上記の2値化を行うことで、後の処理がより効率的となる。なお、図14に、微分フィルタの例を示しておく。   Moreover, after performing this multiplier processing, it is preferable to remove the portion corresponding to down by cutting out the portion corresponding to the wing from the image. Depending on the conditions of the multiplier processing, the luminance value of the pixels other than the part corresponding to the wings and down (hereinafter referred to as “background part”) may increase, so binarization alone may not be sufficient. . However, as described above, since the background portion is flat, the change in the pixel value is smooth, while in the wing portion, since the wings are lined up, the change in the luminance value of the pixel is considered to be abrupt. Therefore, if the image data after the multiplier process is differentiated to obtain the image data after the differentiation process, it is considered that the differential value in the background portion is small and the differential value in the portion corresponding to the wing is large. Therefore, if differential filtering is performed on the image data after this differential processing using a differential filter, a portion corresponding to a wing can be extracted efficiently. Thereafter, by performing the above binarization, the subsequent processing becomes more efficient. FIG. 14 shows an example of the differential filter.

また、本実施形態に係る特徴量抽出処理部3は、羽が曲がっている場合にも高精度で結合処理を高効率で行うことができる点も特徴的である。ここでの結合処理について図15及び図16を用いて説明する。   In addition, the feature quantity extraction processing unit 3 according to the present embodiment is also characterized in that the combination processing can be performed with high accuracy and high efficiency even when the wing is bent. The combining process here will be described with reference to FIGS. 15 and 16.

図15は、羽を3次元の形状として表現したモデルを示す図である。羽の長軸に対して垂直な方向の面(端軸を含む平面)で羽を切った場合、その切り口は山状となる。上記した微分処理後の画像データにおける積分値は、山の頂点では微分値が正から負に変化する。山の高さは照明の加減や羽の凹凸により変化するが羽がある場所では山は存在する。したがって、ある羽に対応する領域に存在する微分値が正から負に変化する点を追跡して尾根線を作成し、その尾根線が分離した他の羽に到達した場合、もともと一つの羽であったとして結合処理を行うことができる。図16に、尾根線を作成することにより結合を行う場合の例を示しておく。このようにすることで、羽が曲がっている場合であっても、結合処理を行うことができるようになる。なお、この後の細線化処理においては上記実施形態と同様のものを採用することができる。特に、本方法は、前述の実施形態とは異なり、羽同士の角度を調べて結合を行うためのパラメータ設定が必要であったが、提案する方法を用いるとそのためのパラメータの設定が不要となるといった効果もある。   FIG. 15 is a diagram illustrating a model expressing a wing as a three-dimensional shape. When a wing is cut along a plane perpendicular to the long axis of the wing (a plane including the end axis), the cut end has a mountain shape. The integral value in the image data after the differential processing described above changes from positive to negative at the peak of the mountain. The height of the mountain varies depending on the lighting and the unevenness of the wings, but there are mountains where there are wings. Therefore, if a ridge line is created by tracking the point where the differential value existing in the area corresponding to a certain wing changes from positive to negative, and the ridge line reaches another separated wing, It is possible to perform the combining process as if there were. FIG. 16 shows an example of combining by creating a ridge line. By doing in this way, even if it is a case where a wing is bent, a joint process can be performed. In the subsequent thinning process, the same one as in the above embodiment can be adopted. In particular, unlike the above-described embodiment, this method requires parameter setting for examining the angle between the wings and performing coupling, but using the proposed method eliminates the need for parameter setting for that purpose. There is also an effect.

なお、特徴量抽出処理部3は、差分値△yなどの特徴量データを抽出するために、回転処理を施すが、上記実施形態で述べた方法以外に、回転処理にウェーブレット変換(例えばFFT)の際に得られる周波数画像の性質から主成分分析を行い、回転角を求めることも好ましい。周波数画像の性質として、一定の間隔で明線と暗線が並んでいる縞模様の画像を2次元でウェーブレット変換(例えばFFT)した場合、空間周波数画像では縞に直交する方向に画素の分布の長軸が現れるということがあげられる。羽は一定の間隔で並んでいて細長い形状をしているため縞状であるとみなすことができる。つまり、羽の方向は空間周波数画像の画素の分布に直行する向きとなる。そこで、主成分分析を行うことで空間周波数画像の分布の長軸と短軸を得ることができる。なお、主成分分析を行うことによって得られる第一の固有ベクトルは羽に直交する向きとなり、第二の固有ベクトルは羽に平行な向きとなる。よってこの角度を基準として回転角を定めることができる。   Note that the feature quantity extraction processing unit 3 performs a rotation process to extract feature quantity data such as a difference value Δy. In addition to the method described in the above embodiment, the feature quantity extraction process unit 3 uses a wavelet transform (for example, FFT) for the rotation process. It is also preferable to perform a principal component analysis from the properties of the frequency image obtained at the time of obtaining the rotation angle. As a property of the frequency image, when a two-dimensional wavelet transform (for example, FFT) is performed on a striped pattern in which bright and dark lines are arranged at regular intervals, the spatial frequency image has a pixel distribution length in a direction orthogonal to the stripe. The axis appears. Since the wings are arranged at regular intervals and have an elongated shape, they can be regarded as striped. That is, the direction of the wing is a direction that is orthogonal to the pixel distribution of the spatial frequency image. Therefore, the major axis and the minor axis of the spatial frequency image distribution can be obtained by performing principal component analysis. Note that the first eigenvector obtained by performing the principal component analysis has a direction orthogonal to the wing, and the second eigenvector has a direction parallel to the wing. Therefore, the rotation angle can be determined based on this angle.

以上、本実施形態によると、上記実施形態における効果に加え、ダウンによる影響をより効率的に除去することができる。   As mentioned above, according to this embodiment, in addition to the effect in the said embodiment, the influence by a down can be removed more efficiently.

上記実施形態について、実際に計算機実験を行い、その性能を確認した。以下、説明する。   A computer experiment was actually conducted on the above embodiment to confirm its performance. This will be described below.

本実施例は、上記実施形態に対する計算機実験の結果である。なお、本実施例において、用いた画像の枚数は雄196枚、雌196枚とし、一つの画像データにおける画素の数は256×256とした。なお、用いた画像の枚数は合計392枚となっているが、計算機実験の精度を高めるため、Leave−one−out法を用いた。また、本実施例において、2値化するための閾値を160、結合角度を30度以下とした。   This example is the result of a computer experiment for the above embodiment. In this embodiment, the number of images used is 196 males and 196 females, and the number of pixels in one image data is 256 × 256. The total number of images used was 392, but the Leave-one-out method was used to increase the accuracy of the computer experiment. In this example, the threshold for binarization was set to 160, and the coupling angle was set to 30 degrees or less.

図17に、実施形態1に対する計算機実験の結果求めた特徴量データの分布を、図18に、実施形態2に対する計算機実験の結果求めた特徴量データの分布を、図19に、実施形態3に対する計算機実験の結果求めた特徴量データの分布を、それぞれ示す。なお、実施形態2に対する計算機実験の結果、実施形態3に対する計算機実験の結果においては、判定率の均一性のため、実施形態1と同様のベイズ識別法を用いた。図20に実施形態1に対して用いた確率密度関数を、図21に実施形態2に対して用いた確率密度関数を、図22に実施形態3に対して用いた確率密度関数を、それぞれ示す。なお、これらとの対比として、羽が理想的に抽出された場合(以下「理想的な場合」とする。)における計算機実験の結果、それに用いられる確率密度関数を図23、図24にそれぞれ示す。なおここで「羽が理想的に抽出された場合」とは、ダウンの誤抽出、羽の分離無しに全ての羽を完全に抽出した場合をいう。また、これらの判定率については、まとめて下記表1に示しておく。
FIG. 17 shows the distribution of the feature data obtained as a result of the computer experiment for the first embodiment, FIG. 18 shows the distribution of the feature data obtained as a result of the computer experiment for the second embodiment, and FIG. The distribution of the feature data obtained as a result of the computer experiment is shown respectively. In addition, in the result of the computer experiment for the second embodiment and the result of the computer experiment for the third embodiment, the Bayes identification method similar to that of the first embodiment is used for the uniformity of the determination rate. FIG. 20 shows the probability density function used for the first embodiment, FIG. 21 shows the probability density function used for the second embodiment, and FIG. 22 shows the probability density function used for the third embodiment. . As a comparison with these, as a result of a computer experiment in a case where wings are ideally extracted (hereinafter referred to as “ideal case”), probability density functions used for the results are shown in FIGS. 23 and 24, respectively. . Here, “when the wings are ideally extracted” refers to a case where all the wings are completely extracted without erroneous extraction of the down and separation of the wings. In addition, these determination rates are collectively shown in Table 1 below.

上記いずれの結果においても高い判定率を得ることができた。特に、実施形態1と実施形態2との間では、方位フィルタリングが主として異なり、この差異が判定率に寄与していると考えることができ、方位フィルタリングの優れた効果を確認することができる。また、実施形態3では、ダウンの除去をより効率的に行っており、また、結合処理において微分処理を利用しているため、より高い判定率を得ることができた。   In any of the above results, a high determination rate could be obtained. In particular, the azimuth filtering is mainly different between the first embodiment and the second embodiment, and it can be considered that this difference contributes to the determination rate, and the excellent effect of the azimuth filtering can be confirmed. In the third embodiment, down is more efficiently removed, and a differentiation process is used in the combining process, so that a higher determination rate can be obtained.

本発明は、雛鶏の雌雄判定装置、雌雄判定プログラムとして産業上の利用可能性がある。   The present invention has industrial applicability as a sex determination apparatus and sex determination program for chicks.

実施形態1に係る雛鶏の雌雄判定装置の機能ブロックを示す図である。It is a figure which shows the functional block of the sex determination apparatus of the chicken which concerns on Embodiment 1. FIG. 雛鶏の翼部分の図である。It is a figure of the wing part of a chick. 2値化後画像データを示す図である。It is a figure which shows the image data after binarization. 羽の結合処理の例を示す図である。It is a figure which shows the example of a joint process of a wing | blade. 細線化処理について説明するための図である。It is a figure for demonstrating a thinning process. 画像の回転のモデルを説明する図である。It is a figure explaining the model of rotation of an image. 実施形態2に係る雛鶏の雌雄判定装置の機能ブロックを示す図である。It is a figure which shows the functional block of the sex determination apparatus of the chicken which concerns on Embodiment 2. FIG. 方位フィルタの例を示す図である。It is a figure which shows the example of a direction filter. 方位フィルタリング処理について説明するための図である。It is a figure for demonstrating a direction filtering process. 実施形態3に係る雛鶏の雌雄判定装置の機能ブロックを示す図である。It is a figure which shows the functional block of the sex determination apparatus of the chick which concerns on Embodiment 3. FIG. 画像データに高速フーリエ変換を行った結果を示す図である。It is a figure which shows the result of having performed fast Fourier transform to image data. ハイパスフィルタ処理について説明するための図である。It is a figure for demonstrating a high pass filter process. 乗数処理について説明するための図である。It is a figure for demonstrating a multiplier process. 微分フィルタの例を示す図。The figure which shows the example of a differential filter. 羽を3次元の形状として表現したモデルを示す図である。It is a figure which shows the model which expressed the feather | wing as a three-dimensional shape. 羽の結合処理について説明するための図である。It is a figure for demonstrating the combination process of a wing | blade. 実施形態1に対する計算機実験の結果もとめた微分量データの分布を示す図である。It is a figure which shows distribution of the differential quantity data calculated | required as a result of the computer experiment with respect to Embodiment 1. FIG. 実施形態2に対する計算機実験の結果もとめた微分量データの分布を示す図である。It is a figure which shows distribution of the differential quantity data calculated | required as a result of the computer experiment with respect to Embodiment 2. FIG. 実施形態3に対する計算機実験の結果もとめた微分量データの分布を示す図である。It is a figure which shows distribution of the differential amount data calculated | required as a result of the computer experiment with respect to Embodiment 3. FIG. 実施形態1において求めた確率密度分布関数を示す図である。It is a figure which shows the probability density distribution function calculated | required in Embodiment 1. FIG. 実施形態2において求めた確率密度分布関数を示す図である。It is a figure which shows the probability density distribution function calculated | required in Embodiment 2. FIG. 実施形態3において求めた確率密度分布関数を示す図である。It is a figure which shows the probability density distribution function calculated | required in Embodiment 3. 羽が理想的に抽出された場合における計算機実験の結果の確率密度関数を示す図である。It is a figure which shows the probability density function of the result of a computer experiment in case a wing | blade is extracted ideally. 羽が理想的に抽出された場合における計算機実験の結果の確率密度関数を示す図である。It is a figure which shows the probability density function of the result of a computer experiment in case a wing | blade is extracted ideally.

符号の説明Explanation of symbols

1…雌雄判定装置、2…前処理部、3…特徴長抽出処理部、4…判定処理部 DESCRIPTION OF SYMBOLS 1 ... Sex determination apparatus, 2 ... Pre-processing part, 3 ... Feature length extraction process part, 4 ... Determination process part

Claims (16)

画像データに対し、前処理を行う前処理部と、
前処理された前記画像データに基づき特徴量データを抽出する特徴量抽出処理部と、
抽出した前記特徴量データに基づき雌雄の判定を行う判定処理部と、を有し、
前記特徴量抽出処理部は、前記前処理された前記画像データに対し方位フィルタリング処理を施し、画素の輝度値の2値化を行い、羽に対応する部分を複数抽出し、前記羽に対応する部分の各々に対し細線化処理、直線近似処理、及び結合処理を行い、前記羽に対応する部分の頂点を求め、前記頂点間の距離を求める、雛鶏の雌雄判定装置。
A preprocessing unit for performing preprocessing on image data;
A feature amount extraction processing unit for extracting feature amount data based on the preprocessed image data;
A determination processing unit that determines sex based on the extracted feature data ,
The feature amount extraction processing unit performs azimuth filtering processing on the preprocessed image data, binarizes pixel luminance values, extracts a plurality of portions corresponding to wings, and corresponds to the wings A sex determination apparatus for chicks that performs thinning processing, straight line approximation processing, and combining processing on each of the portions, finds the vertices of the portions corresponding to the wings, and finds the distance between the vertices.
前記特徴量抽出処理部は、前処理された前記画像データに対しウェーブレット変換を行い、ハイパスフィルタリングを行い、逆ウェーブレット変換を行う請求項1記載の雛鶏の雌雄判定装置。  The sex determination apparatus for chicks according to claim 1, wherein the feature quantity extraction processing unit performs wavelet transform, high-pass filtering, and inverse wavelet transform on the preprocessed image data. 前記特徴量抽出処理部は、前記ウェーブレット変換を行った後の前記画像データに対し乗数処理を行う請求項記載の雛鶏の雌雄判定装置。 The sex determination apparatus for chicks according to claim 2, wherein the feature amount extraction processing unit performs a multiplier process on the image data after the wavelet transform . 前記特徴抽出部は、前記画像データに対し微分処理及び微分フィルタリングを行う請求項3記載の雛鳥の雌雄判定装置。  4. The chick sex determination apparatus according to claim 3, wherein the feature extraction unit performs differential processing and differential filtering on the image data. 前記特徴量抽出処理部は、前記画像データに対し回転処理を行う請求項記載の雌雄判定装置。 The sex determination apparatus according to claim 3 , wherein the feature amount extraction processing unit performs a rotation process on the image data. 前記特徴量抽出処理部は、前記羽に対応する部分の長さを求める請求項記載の雌雄判定装置。 The sex determination apparatus according to claim 3, wherein the feature amount extraction processing unit obtains a length of a portion corresponding to the wing. 前記判定処理部は、ベイズ識別法を用いる請求項1記載の雌雄判定装置。   The sex determination apparatus according to claim 1, wherein the determination processing unit uses a Bayes identification method. 前記判定処理部は、線形判別法を用いる請求項1記載の雌雄判定装置。   The sex determination apparatus according to claim 1, wherein the determination processing unit uses a linear discrimination method. コンピュータに、
画像データに対し、前処理を行う前処理部と、
前処理された前記画像データに基づき特徴量データを抽出する特徴量抽出処理部と、
抽出した前記特徴量データに基づき雌雄の判定を行う判定処理部と、して機能させるための雛鶏の雌雄判定プログラムであって、
前記特徴抽出処理部は、前記前処理された前記画像データに対し方位フィルタリング処理を施し、画素の輝度値の2値化を行い、羽に対応する部分を複数抽出し、前記羽に対応する部分の各々に対し細線化処理、直線近似処理、及び結合処理を行い、前記羽に対応する部分の頂点を求め、前記頂点間の距離を求めるものである雛鶏の雌雄判定プログラム。
On the computer,
A preprocessing unit for performing preprocessing on image data;
A feature amount extraction processing unit for extracting feature amount data based on the preprocessed image data;
A determination processing unit for determining the sex based on the extracted feature data, and a sex determination program for chicks to function .
The feature extraction processing unit performs azimuth filtering processing on the preprocessed image data, binarizes a luminance value of a pixel, extracts a plurality of portions corresponding to wings, and a portion corresponding to the wings A program for determining the sex of chicks that performs thinning processing, straight line approximation processing, and combination processing on each of the above, and obtains the vertices of the portion corresponding to the wing, and obtains the distance between the vertices.
コンピュータに、
前処理された前記画像データに対しウェーブレット変換を行い、ハイパスフィルタリングを行い、逆ウェーブレット変換を行う特徴量抽出処理部としても機能させるための請求項記載の雛鶏の雌雄判定プログラム。
On the computer,
10. The sex determination program for chickens according to claim 9 , wherein the pre-processed image data is functioned as a feature quantity extraction processing unit for performing wavelet transform, performing high-pass filtering, and performing inverse wavelet transform .
コンピュータに、
前記画像データに対し前記ウェーブレット変換を行った後の前記画像データに対し乗数処理を行う特徴量抽出処理部としても機能させるための請求項記載の雛鶏の雌雄判定プログラム。
On the computer,
The sex determination program for chicks according to claim 9, for causing the image data after the wavelet transform to be performed to function as a feature amount extraction processing unit for performing a multiplier process on the image data .
コンピュータに、
前記画像データに対し微分処理及び微分フィルタリングを行う特徴量抽出処理部としても機能させるための請求項記載の雛鶏の雌雄判定プログラム。
On the computer,
10. The sex determination program for chicks according to claim 9, for causing the image data to function as a feature amount extraction processing unit that performs differential processing and differential filtering on the image data.
コンピュータに、
前記画像データに対し回転処理を行う特徴量抽出処理部としても機能させるための請求項記載の雌雄判定プログラム。
On the computer,
The sex determination program according to claim 9 for functioning as a feature amount extraction processing unit that performs a rotation process on the image data.
コンピュータに、
前記羽に対応する部分の長さを求める特徴量抽出処理部としても機能させるための請求項記載の雌雄判定プログラム。
On the computer,
The sex determination program according to claim 9 for functioning also as a feature amount extraction processing unit for obtaining a length of a portion corresponding to the wing.
コンピュータに、
ベイズ識別法を用いる判定処理部としても機能させるための請求項記載の雌雄判定プログラム。
On the computer,
The sex determination program according to claim 9 for functioning also as a determination processing unit using a Bayes identification method.
コンピュータに、
線形判別法を用いる判定処理部としても機能させるための請求項記載の雌雄判定プログラム。
On the computer,
The sex determination program according to claim 9 for functioning also as a determination processing unit using a linear discriminant method.
JP2006327649A 2006-12-04 2006-12-04 Chick sex determination device and chick sex determination program Expired - Fee Related JP5090719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006327649A JP5090719B2 (en) 2006-12-04 2006-12-04 Chick sex determination device and chick sex determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327649A JP5090719B2 (en) 2006-12-04 2006-12-04 Chick sex determination device and chick sex determination program

Publications (3)

Publication Number Publication Date
JP2008136439A JP2008136439A (en) 2008-06-19
JP2008136439A5 JP2008136439A5 (en) 2009-11-12
JP5090719B2 true JP5090719B2 (en) 2012-12-05

Family

ID=39598539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327649A Expired - Fee Related JP5090719B2 (en) 2006-12-04 2006-12-04 Chick sex determination device and chick sex determination program

Country Status (1)

Country Link
JP (1) JP5090719B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131717A1 (en) * 2019-12-27 2021-07-01 有限会社電マーク Information processing method, system, and recording medium for sexing chick, and method for sexing chick

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112018009633B1 (en) 2015-11-13 2024-01-23 Applied Lifesciences and Systems, LLC SYSTEMS FOR AUTOMATICALLY DELIVERING A SUBSTANCE TO A PREDETERMINED AREA OF AN ANIMAL
JP7445956B2 (en) 2019-12-27 2024-03-08 有限会社電マーク Information processing method, system and program for sexing chicken chicks, and method for sexing chicken chicks
KR102532170B1 (en) * 2022-07-06 2023-05-15 주식회사 에스비씨원 Chick sex discrimination system using big data-based monochrome image information

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0429336Y2 (en) * 1989-11-20 1992-07-16
JPH06245661A (en) * 1993-02-24 1994-09-06 Koiwai Nouboku Kk Conveying system for chick testing
JP3047168B2 (en) * 1997-08-15 2000-05-29 北海道 Inspection method of chicken eggs
JP3383808B2 (en) * 1999-12-24 2003-03-10 株式会社堀内 Method and apparatus for discriminating sex of bird eggs
JP4128791B2 (en) * 2002-03-27 2008-07-30 株式会社堀内 Sexual differentiation technology for sperm eggs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021131717A1 (en) * 2019-12-27 2021-07-01 有限会社電マーク Information processing method, system, and recording medium for sexing chick, and method for sexing chick

Also Published As

Publication number Publication date
JP2008136439A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
CN107862667B (en) Urban shadow detection and removal method based on high-resolution remote sensing image
CN110232389B (en) Stereoscopic vision navigation method based on invariance of green crop feature extraction
JP5683888B2 (en) Image processing apparatus, image processing method, and image processing program
Crihalmeanu et al. Enhancement and registration schemes for matching conjunctival vasculature
CN109635871B (en) Capsule endoscope image classification method based on multi-feature fusion
US20190163950A1 (en) Large scale cell image analysis method and system
WO2015092904A1 (en) Image-processing apparatus, image-processing method, and image-processing program
JP2013525011A (en) Detection and classification of malignant mass with protrusion formation in radiographic images
JP2013089252A (en) Video processing method and device
WO2021212693A1 (en) Gabor wavelet-fused multi-scale local level set ultrasonic image segmentation method
CN103870808A (en) Finger vein identification method
CN109919960B (en) Image continuous edge detection method based on multi-scale Gabor filter
Zhou et al. Optic disc and cup segmentation in retinal images for glaucoma diagnosis by locally statistical active contour model with structure prior
CN110222661B (en) Feature extraction method for moving target identification and tracking
JP5090719B2 (en) Chick sex determination device and chick sex determination program
JP2006006359A (en) Image generator, image generator method, and its program
CN110766659A (en) Medical image recognition method, apparatus, device and medium
Ajaykumar et al. Automated lane detection by K-means clustering: A machine learning approach
Zhang et al. Photometric stereo for three-dimensional leaf venation extraction
Fraga et al. Precise segmentation of the optic disc in retinal fundus images
EP2497052A1 (en) Method for illumination normalization on a digital image for performing face recognition
CN109064473B (en) 2.5D ultrasonic panoramic image segmentation method
CN114155355A (en) Point cloud-based electrified main wire detection method and device
Bogo et al. Automated detection of new or evolving melanocytic lesions using a 3D body model
CN111126246B (en) Human face living body detection method based on 3D point cloud geometric features

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120319

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120320

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20120821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5090719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees