KR20230161808A - Fish sorting system using ai-based fish shadow - Google Patents
Fish sorting system using ai-based fish shadow Download PDFInfo
- Publication number
- KR20230161808A KR20230161808A KR1020220061628A KR20220061628A KR20230161808A KR 20230161808 A KR20230161808 A KR 20230161808A KR 1020220061628 A KR1020220061628 A KR 1020220061628A KR 20220061628 A KR20220061628 A KR 20220061628A KR 20230161808 A KR20230161808 A KR 20230161808A
- Authority
- KR
- South Korea
- Prior art keywords
- fish
- image data
- lighting device
- size information
- information
- Prior art date
Links
- 241000251468 Actinopterygii Species 0.000 title claims abstract description 124
- 230000036541 health Effects 0.000 claims abstract description 34
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 13
- 230000005856 abnormality Effects 0.000 claims description 29
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 15
- 239000011247 coating layer Substances 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 125000004432 carbon atom Chemical group C* 0.000 description 14
- 239000008199 coating composition Substances 0.000 description 13
- ZWEHNKRNPOVVGH-UHFFFAOYSA-N 2-Butanone Chemical compound CCC(C)=O ZWEHNKRNPOVVGH-UHFFFAOYSA-N 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 238000011109 contamination Methods 0.000 description 9
- 239000002270 dispersing agent Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000010410 layer Substances 0.000 description 8
- 239000010954 inorganic particle Substances 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000012216 screening Methods 0.000 description 6
- 150000001875 compounds Chemical class 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 239000003960 organic solvent Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000012530 fluid Substances 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- YXFVVABEGXRONW-UHFFFAOYSA-N Toluene Chemical compound CC1=CC=CC=C1 YXFVVABEGXRONW-UHFFFAOYSA-N 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000003381 stabilizer Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 125000002947 alkylene group Chemical group 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 229920000728 polyester Polymers 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 125000001424 substituent group Chemical group 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- BTZVKSVLFLRBRE-UHFFFAOYSA-N 2-methoxypropyl acetate Chemical compound COC(C)COC(C)=O BTZVKSVLFLRBRE-UHFFFAOYSA-N 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 125000003342 alkenyl group Chemical group 0.000 description 1
- 125000004450 alkenylene group Chemical group 0.000 description 1
- 125000003545 alkoxy group Chemical group 0.000 description 1
- 125000000217 alkyl group Chemical group 0.000 description 1
- 125000000304 alkynyl group Chemical group 0.000 description 1
- 125000004419 alkynylene group Chemical group 0.000 description 1
- PNEYBMLMFCGWSK-UHFFFAOYSA-N aluminium oxide Inorganic materials [O-2].[O-2].[O-2].[Al+3].[Al+3] PNEYBMLMFCGWSK-UHFFFAOYSA-N 0.000 description 1
- 239000003963 antioxidant agent Substances 0.000 description 1
- 230000003078 antioxidant effect Effects 0.000 description 1
- 125000003710 aryl alkyl group Chemical group 0.000 description 1
- 125000003118 aryl group Chemical group 0.000 description 1
- 125000000732 arylene group Chemical group 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 229920001577 copolymer Polymers 0.000 description 1
- 125000005724 cycloalkenylene group Chemical group 0.000 description 1
- 125000000753 cycloalkyl group Chemical group 0.000 description 1
- 125000002993 cycloalkylene group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 125000005843 halogen group Chemical group 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 125000002887 hydroxy group Chemical group [H]O* 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 125000000449 nitro group Chemical group [O-][N+](*)=O 0.000 description 1
- 239000011242 organic-inorganic particle Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- LLHKCFNBLRBOGN-UHFFFAOYSA-N propylene glycol methyl ether acetate Chemical compound COCC(C)OC(C)=O LLHKCFNBLRBOGN-UHFFFAOYSA-N 0.000 description 1
- 230000002940 repellent Effects 0.000 description 1
- 239000005871 repellent Substances 0.000 description 1
- 239000013535 sea water Substances 0.000 description 1
- 235000014102 seafood Nutrition 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000000377 silicon dioxide Substances 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000006097 ultraviolet radiation absorber Substances 0.000 description 1
- 238000004078 waterproofing Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K61/00—Culture of aquatic animals
- A01K61/90—Sorting, grading, counting or marking live aquatic animals, e.g. sex determination
- A01K61/95—Sorting, grading, counting or marking live aquatic animals, e.g. sex determination specially adapted for fish
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
- B07C5/342—Sorting according to other particular properties according to optical properties, e.g. colour
- B07C5/3422—Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/36—Sorting apparatus characterised by the means used for distribution
- B07C5/361—Processing or control devices therefor, e.g. escort memory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/36—Sorting apparatus characterised by the means used for distribution
- B07C5/38—Collecting or arranging articles in groups
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Zoology (AREA)
- General Physics & Mathematics (AREA)
- Environmental Sciences (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Animal Husbandry (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Marine Sciences & Fisheries (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템이 개시된다. 본 발명은 제1 수조에서 다른 수조로 어류를 이동시키는 이동 튜브, 상기 이동 튜브를 통과하는 상기 어류에 대하여 빛을 조사하는 적어도 하나의 조명 장치, 상기 적어도 하나의 조명 장치에 의하여 발생한 그림자에 대한 이미지 데이터를 생성하는 적어도 하나의 카메라 장치, 상기 이미지 데이터에 기초하여, 상기 어류에 대한 크기 정보 및 건강 정보를 도출하는 판별 장치 및 상기 크기 정보 및 건강 정보에 기초하여, 미리 정의된 복수의 수조로 상기 어류를 분류하는 분류 장치를 포함할 수 있다. An artificial intelligence-based fish selection system using fish shadows is launched. The present invention provides a moving tube for moving fish from a first tank to another tank, at least one lighting device that irradiates light to the fish passing through the moving tube, and an image of a shadow generated by the at least one lighting device. At least one camera device that generates data, a determination device that derives size information and health information for the fish based on the image data, and a plurality of predefined water tanks based on the size information and health information. It may include a classification device for classifying fish.
Description
본 발명은 인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템에 관한 것이다. 보다 상세하게는, 빅데이터를 통하여 학습된 데이터에 기반한 비전 인식 기술을 활용한 물고기 그림자를 이용한 물고기 선별 시스템에 대한 것이다.The present invention relates to a fish selection system using artificial intelligence-based fish shadows. More specifically, it is about a fish selection system using fish shadows using vision recognition technology based on data learned through big data.
일반적으로 선별기라 함은 생선이나 과일과 같이 크기를 달리하는 수개의 제품을 크기 또는 종류별로 선별하여 배출함으로써 제품화하는 데 사용되는 장치를 말한다.In general, a sorter refers to a device used to commercialize several products of different sizes, such as fish or fruit, by sorting them by size or type and discharging them.
특히 생선 기타 해산물를 선별할 경우, 여러 종류의 생선들을 콘베이어 벨트위에 올려두고 이송하면서 선별하게 되는데 작업자가 보고 판단하여 생선을 선별하는 것은 생산성이 현저히 떨어지게 된다. In particular, when sorting fish and other seafood, various types of fish are placed on a conveyor belt and sorted as they are transported. If the worker sorts the fish by looking and judging, productivity will significantly decrease.
또한, 기존 물고기 선별 방법은 인부에 의한 인과적 방법에 기초하고 있어 그 작업효율이 상당히 떨어지고 있을 뿐만 아니라 인건비의 상승을 초래하고 체력 등의 문제로 장시간 선별 작업 지속시에 집중력 감소와 그로 인한 선별률의 저하로 이어지는 악순환이 계속되고 있다. In addition, the existing fish sorting method is based on a causal method by workers, so not only does the work efficiency decrease significantly, but it also causes an increase in labor costs, and due to problems such as physical strength, concentration decreases when sorting work continues for a long time, and the resulting selection rate decreases. The vicious cycle leading to a decline continues.
본 발명의 목적은 이동 튜브를 통과하는 어류의 그림자 이미지만을 사용하여 어류의 크기를 도출하고, 어류의 건강 이상 정보를 생성하는 물고기 선별 시스템을 제공하는 것이다. The purpose of the present invention is to provide a fish selection system that derives the size of the fish and generates information on health abnormalities of the fish using only the shadow image of the fish passing through the moving tube.
또한, 본 발명의 목적은 내오염성이 강한 렌즈를 포함하는 선별 시스템을 통하여, 높은 인식 정확도를 가지는 선별 시스템을 제공하는 것이다. Additionally, an object of the present invention is to provide a screening system with high recognition accuracy through a screening system including a lens with strong contamination resistance.
또한, 본 발명의 목적은 필터를 이미지 데이터에 적용하여 높은 인식 정확도를 가지는 선별 시스템을 제공하는 것이다. Additionally, the purpose of the present invention is to provide a screening system with high recognition accuracy by applying a filter to image data.
상술한 문제점을 해결하기 위하여, 본 발명은 제1 수조에서 다른 수조로 어류를 이동시키는 이동 튜브, 상기 이동 튜브를 통과하는 상기 어류에 대하여 빛을 조사하는 적어도 하나의 조명 장치, 상기 적어도 하나의 조명 장치에 의하여 발생한 그림자에 대한 이미지 데이터를 생성하는 적어도 하나의 카메라 장치, 상기 이미지 데이터에 기초하여, 상기 어류에 대한 크기 정보 및 건강 정보를 도출하는 판별 장치 및 상기 크기 정보 및 건강 이상 정보에 기초하여, 미리 정의된 복수의 수조로 상기 어류를 분류하는 분류 장치를 포함할 수 있다. In order to solve the above-described problem, the present invention includes a moving tube for moving fish from a first tank to another tank, at least one lighting device for irradiating light to the fish passing through the moving tube, and the at least one lighting. At least one camera device that generates image data for a shadow generated by the device, a determination device that derives size information and health information for the fish based on the image data, and based on the size information and health abnormality information , may include a classification device for classifying the fish into a plurality of predefined water tanks.
또한, 상기 적어도 하나의 조명 장치는 제1 조명 장치 및 제2 조명 장치를 포함하고, 상기 제1 조명 장치는 제1 위치에서 상기 어류에 대하여 빛을 조사하며, 상기 제2 조명 장치는 제2 위치에서 상기 어류에 대하여 빛을 조사하고, 상기 적어도 하나의 카메라 장치는 상기 제1 조명 장치에 의하여 발생한 제1 그림자 및 상기 제2 조명 장치에 의하여 발생한 제2 그림자에 대한 이미지 데이터를 생성할 수 있다. In addition, the at least one lighting device includes a first lighting device and a second lighting device, the first lighting device radiates light to the fish at a first position, and the second lighting device is at a second position. Light is irradiated to the fish, and the at least one camera device may generate image data for a first shadow generated by the first lighting device and a second shadow generated by the second lighting device.
또한, 상기 판별 장치는 상기 이미지 데이터에 기초하여 상기 어류의 1차 크기 정보 및 1차 건강 이상 정보를 도출하는 제1 채널, 및 상기 이미지 데이터에 필터를 적용하여 상기 어류의 2차 크기 정보 및 2차 건강 이상 정보를 도출하는 제2 채널을 포함할 수 있다. In addition, the determination device includes a first channel for deriving primary size information and primary health abnormality information of the fish based on the image data, and a second channel for deriving secondary size information and primary health abnormality information of the fish by applying a filter to the image data. It may include a second channel that derives information on primary health abnormalities.
또한, 상기 판별 장치는 상기 1차 크기 정보 및 상기 2차 크기 정보에 기초하여, 상기 어류의 3차 크기 정보를 도출할 수 있다. Additionally, the determination device may derive tertiary size information of the fish based on the primary size information and the secondary size information.
또한, 상기 판별 장치는 상기 이미지 데이터에 기초하여, 상기 어류에 대한 건강 이상 정보를 생성하고, 상기 건강 이상 정보를 외부 장치로 전송할 수 있다.Additionally, the determination device may generate health abnormality information about the fish based on the image data and transmit the health abnormality information to an external device.
본 발명은 비전 인식 알고리즘을 통하여 그림자 이미지 데이터를 활용하여 자동으로 어류를 선별할 수 있는 선별 시스템을 제공할 수 있다. The present invention can provide a selection system that can automatically select fish using shadow image data through a vision recognition algorithm.
또한, 본 발명은 내오염성이 강한 렌즈를 포함하는 선별 시스템을 통하여, 높은 인식 정확도를 가지는 선별 시스템을 제공할 수 있다. Additionally, the present invention can provide a screening system with high recognition accuracy through a screening system including a lens with strong contamination resistance.
또한, 본 발명의 목적은 필터를 이미지 데이터에 적용하여 높은 인식 정확도를 가지는 선별 시스템을 제공할 수 있다. Additionally, an object of the present invention is to provide a screening system with high recognition accuracy by applying a filter to image data.
본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명에 따른 인공지능 기반 물고기 선별 시스템을 개략적으로 나타낸 것이다.
도 2는 본 발명에 따른 이동 튜브를 나타낸 것이다.
도 3은 본 발명에 다른 그림자 이미지 데이터 생성 방법을 간략히 나타낸 것이다.
도 4는 본 발명에 따른 건강 이상 정보를 획득하기 위한 방법을 간략히 나타낸 것이다.
도 5는 본 발명에 따른 판별 장치를 개략적으로 나타낸 것이다.
도 6은 본 발명에 따른 메모리에 포함된 기능적 구성을 나타낸 것이다.
도 7 및 도 8은 복수의 채널을 포함하는 판별 장치를 포함하는 물고기 선별 장치를 나타낸 것이다.
도 9는 본 발명에 따른 카메라 장치를 나타낸 것이다.
도 10은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이고, 도 11은 본 발명에 따른 HSV 그래프를 나타낸 것이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.Figure 1 schematically shows an artificial intelligence-based fish selection system according to the present invention.
Figure 2 shows a moving tube according to the present invention.
Figure 3 briefly shows a method of generating shadow image data according to the present invention.
Figure 4 briefly shows a method for obtaining health abnormality information according to the present invention.
Figure 5 schematically shows a discrimination device according to the present invention.
Figure 6 shows the functional configuration included in the memory according to the present invention.
Figures 7 and 8 show a fish selection device including a discrimination device including a plurality of channels.
Figure 9 shows a camera device according to the present invention.
Figure 10 is a diagram showing an example of an image correction filter according to the present invention, and Figure 11 shows an HSV graph according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present specification and explain technical features of the present specification together with the detailed description.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted.
또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 인공지능 기반 물고기 선별 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above-described contents, an artificial intelligence-based fish selection system according to a preferred embodiment of the present specification will be described in detail as follows.
도 1은 본 발명에 따른 인공지능 기반 물고기 선별 시스템을 개략적으로 나타낸 것이다. Figure 1 schematically shows an artificial intelligence-based fish selection system according to the present invention.
도 1에 따르면, 본 발명에 따른 인공지능 기반 물고기 선별 시스템은 이동 튜브(100), 적어도 하나의 카메라 장치(400), 적어도 하나의 조명 장치(120), 판별 장치(200), 및 분류 장치(300)를 포함할 수 있다. 본 발명에 따른 인공지능 기반 물고기 선별 시스템은 제1 수조에서 다른 수조로 어류를 이동시키는 어류 이동 장치에 기반할 수 있다. 인공지능 물고기 선별 장치는 어류를 이동시키면서 동시에 어류의 크기 정보를 도출하고, 도출된 크기 정보에 기초하여 어류를 크기별로 분류 또는 선별할 수 있다. According to Figure 1, the artificial intelligence-based fish selection system according to the present invention includes a moving tube 100, at least one camera device 400, at least one lighting device 120, a discrimination device 200, and a classification device ( 300). The artificial intelligence-based fish selection system according to the present invention may be based on a fish movement device that moves fish from a first tank to another tank. The artificial intelligence fish sorting device can move fish while simultaneously deriving size information about the fish, and classify or select fish by size based on the derived size information.
이동 튜브(100)는 제1 수조에서 어류를 원하는 방향으로 이동시킬 수 있는 구성일 수 있다. 이동 튜브(100)는 음압을 형성하는 펌프와 연결될 수 있고, 음압에 따라 제1 수조의 어류를 흡입하는 흡입 튜브의 형태이거나, 어류가 자유롭게 이동할 수 있는 일반 튜브의 형태를 가질 수 있다. 펌프와 연결된 이동 튜브(100)의 기본 구성은 종래 알려진 기술을 차용할 수 있다. 또한, 이동 튜브(100)는 동시에 여러 어류가 겹처진 상태에서 이동하지 못하도록, 1마리 어류만 통과하기 적합한 직경을 가지도록 형성될 수 있다. 또한, 이동 튜브(100)는 전체 또는 일부 투명하여 외부에서 내부를 들여다보도록 구성될 수 있다. The moving tube 100 may be configured to move fish in a desired direction in the first tank. The moving tube 100 may be connected to a pump that creates negative pressure, and may be in the form of a suction tube that suctions the fish in the first tank according to the negative pressure, or may be in the form of a general tube that allows the fish to move freely. The basic configuration of the moving tube 100 connected to the pump may adopt conventionally known technologies. Additionally, the moving tube 100 may be formed to have a diameter suitable for passing only one fish, preventing multiple fish from moving simultaneously while being overlapped. Additionally, the moving tube 100 may be completely or partially transparent so that the inside can be viewed from the outside.
카메라 장치(400)는 이동 튜브(100)를 통과하는 어류에 대한 이미지 데이터를 생성할 수 있다. 카메라 장치(400)는 앵글에 오브젝트가 지나가는 경우 자동으로 이미지 데이터를 생성하도록 설치된 구성일 수 있다. The camera device 400 may generate image data for fish passing through the moving tube 100. The camera device 400 may be configured to automatically generate image data when an object passes by at an angle.
적어도 하나의 조명 장치(120)는 이동 튜브의 특정 위치에서 어류에 대하여 빛을 조사하여 그림자를 생성하기 위한 장치일 수 있다. 적어도 하나의 조명 장치(120)는 제1 조명 장치 및 제2 조명 장치를 포함할 수 있고, 더 많은 조명 장치를 포함할 수도 있다. 각각의 조명 장치는 서로 다른 위치에 설치되어, 한 마리의 물고기를 향하여 빛을 조사하고, 이를 통하여 복수의 그림자를 생성할 수 있다. At least one lighting device 120 may be a device for generating a shadow by radiating light to the fish at a specific location of the moving tube. At least one lighting device 120 may include a first lighting device and a second lighting device, and may include more lighting devices. Each lighting device is installed in a different location and irradiates light toward a single fish, thereby creating multiple shadows.
판별 장치(200)는 이미지 데이터에 기초하여 어류에 대한 크기 정보를 도출할 수 있다. 또한, 판별 장치(200)는 일종의 제어부로서, 펌프, 카메라 장치(400), 분류 장치(300) 등 본원발명을 구성하는 구성요소들의 동작을 제어할 수 있다.The determination device 200 may derive size information about fish based on image data. In addition, the discrimination device 200 is a type of control unit and can control the operation of components constituting the present invention, such as a pump, a camera device 400, and a classification device 300.
분류 장치(300)는 판별 장치(200)로부터 도출된 크기 정보 및 건강 이상 정보에 기초하여 어류 크기별로 미리 정의된 복수의 수조에 어류를 분류할 수 있다. 일 예로, 복수의 수조는 제2 수조 내지 제5 수조를 포함할 수 있다. 즉, 분류 장치(300)는 어류의 크기 정보에 따라 어류를 각각의 수조로 이동시킬 수 있다. 분류장치는 제1 방향으로 연장된 제1 연장관과, 제1 연장관에서 제2 방향으로 연장된 복수의 제2 연장관을 포함할 수 있다. 제1 연장관과 제2 연장관 사이에는 게이트(gate)가 설치될 수 있다. 게이트(gate)는 각각의 제2 연장관에 대응되는 개수로 설치될 수 있으며, 판별 장치(200)에 의하여 제어되는 구성일 수 있다. The classification device 300 may classify fish into a plurality of water tanks predefined by fish size based on the size information and health abnormality information derived from the determination device 200. As an example, the plurality of water tanks may include second to fifth water tanks. That is, the classification device 300 can move fish to each tank according to the size information of the fish. The classification device may include a first extension tube extending in a first direction and a plurality of second extension tubes extending from the first extension tube in a second direction. A gate may be installed between the first extension pipe and the second extension pipe. Gates may be installed in a number corresponding to each second extension pipe, and may be controlled by the discrimination device 200.
판별 장치(200)는 어류를 크게 2가지 기준으로 분류할 수 있다. 하나는 건강 이상 정보에 따른 기준이고, 다른 하나는 크기 정보에 따른 기준일 수 있다. 판별 장치(200)는 이미지 데이터를 학습하고 이를 기초로 이미지 데이터 속 어류의 병변이 발생하였는지 여부를 감지하고, 어류의 크기를 도출할 수 있다. 편의를 위하여 어류의 크기 정보는 어류의 길이 정보(머리 끝에서 꼬리 끝)를 포함할 수 있다. 또한, 어류의 건강 이상 정보는 이미지 데이터로 분석한 결과, 어류에 The discrimination device 200 can largely classify fish into two criteria. One may be a standard based on health abnormality information, and the other may be a standard based on size information. The determination device 200 can learn image data, detect whether a lesion has occurred on a fish in the image data based on this, and derive the size of the fish. For convenience, the size information of the fish may include the length information of the fish (from the tip of the head to the tip of the tail). In addition, as a result of analyzing image data, information on fish health abnormalities was found to be
도 2는 본 발명에 따른 이동 튜브를 나타낸 것이다. Figure 2 shows a moving tube according to the present invention.
도 2에 따르면, 본 발명에 따른 이동 튜브(100)는 외부에서 이동 튜브(100)의 내부를 관찰할 수 있는 관찰부(200)를 포함할 수 있다. 이때, 관찰부(200)는 이동 튜브(100)의 일 벽을 관통하는 관통홀(111) 및 관통홀(111)을 폐쇄하는 렌즈부(1120)를 포함할 수 있으며, 이때 렌즈부(1120)는 볼록 렌즈를 포함할 수 있다. According to FIG. 2, the moving tube 100 according to the present invention may include an observation unit 200 that can observe the inside of the moving tube 100 from the outside. At this time, the observation unit 200 may include a through hole 111 penetrating one wall of the moving tube 100 and a lens unit 1120 that closes the through hole 111. In this case, the lens unit 1120 May include a convex lens.
도 2에 따르면, 카메라 장치(400)는 관찰부(200)의 외부에 설치될 수 있다. 이때, 내부/외부는 이동 튜브(100)를 기준으로 어류가 지나가는 통로 부분을 내부라고 지칭하고, 반대로 이동 튜브(100)의 바깥 부분(내부 외의 부분)을 외부라고 지칭할 수 있다. 즉, 카메라 장치(400)는 렌즈부(1120)의 외부에 설치될 수 있다. 카메라 장치(400)는 관찰부(200) 또는 렌즈부(1120)의 외부에서 이동 튜브(100)의 내부를 촬영하여 이미지 데이터를 생성할 수 있다. 카메라 장치(400)는 수분 등에 의하여 쉽게 부식되거나 손상되기 때문이다. According to FIG. 2, the camera device 400 may be installed outside the observation unit 200. At this time, inside/outside may refer to the portion of the passage through which the fish passes based on the moving tube 100 as the inside, and conversely, the outer part (part other than the inside) of the moving tube 100 may be referred to as the outside. That is, the camera device 400 may be installed outside the lens unit 1120. The camera device 400 may generate image data by photographing the inside of the moving tube 100 from the outside of the observation unit 200 or the lens unit 1120. This is because the camera device 400 is easily corroded or damaged by moisture, etc.
도 2에 따르면, 이동 튜브(100)의 내부 또는 외부에 조명 장치(120)가 추가로 설치될 수 있다. 어류는 유체 속에서 움직이므로, 유체 속 다른 이물질이나 유체 자체에 따른 빛 흡수, 굴절 등에 의하여, 어류의 이미지 데이터에 오류가 생길 수 있다. 따라서, 카메라 장치(400)는 유체를 투과하기 쉬운 파장대의 조명 장치(120)에 의하여 반사된 빛에 기초한 이미지 데이터를 생성할 수 있다. According to FIG. 2, a lighting device 120 may be additionally installed inside or outside the moving tube 100. Since fish move in a fluid, errors may occur in the image data of the fish due to light absorption or refraction due to other foreign substances in the fluid or the fluid itself. Accordingly, the camera device 400 can generate image data based on light reflected by the lighting device 120 in a wavelength range that easily penetrates fluid.
도 3은 본 발명에 다른 그림자 이미지 데이터 생성 방법을 간략히 나타낸 것이다. Figure 3 briefly shows a method of generating shadow image data according to the present invention.
도 3에 따르면, 하나의 조명 장치(120)는 이동 튜브를 지나가는 어류에 대하여 빛을 조사하고, 조명 장치(120)의 반대편에 그림자를 생성할 수 있다. 카메라 장치(400)는 조명 장치(120)의 반대편에 생성된 그림자를 촬영하여 이미지 데이터를 생성할 수 있다. 이미지 데이터를 생성하기 위하여, 이동 튜브(100)는 관찰부를 포함할 수 있으며, 관찰부(110)는 조명 장치에 대응하는 위치 및 반대 위치에 형성되어 그림자가 이동 튜브(100)의 외부에 생성될 수 있도록 구성될 수 있다. According to FIG. 3, one lighting device 120 may irradiate light to fish passing through a moving tube and create a shadow on the other side of the lighting device 120. The camera device 400 may generate image data by photographing a shadow created on the opposite side of the lighting device 120. In order to generate image data, the moving tube 100 may include an observation unit, and the observation unit 110 may be formed at a position corresponding to and opposite to the lighting device, so that a shadow may be generated outside the moving tube 100. It can be configured so that
도 3에 따르면, 2개의 조명 장치(120)는 이동 튜브(100)를 지나가는 어류에 대하여 빛을 서로 다른 위치에서 조사하되, 반대편에 그림자를 생성하기 위하여 보다 ??은 너비의 관찰부(110)가 이동 튜브(100)에 생성될 수 있다. 보다 넓은 너비의 관찰부(110)는 2개의 조명 장치(120) 모두에 대응하는 너비로 생성될 수 있다. According to Figure 3, the two lighting devices 120 radiate light from different positions to the fish passing through the moving tube 100, but an observation part 110 with a wider width is provided on the opposite side to create a shadow. It can be created in the moving tube 100. The observation portion 110 with a wider width may be created with a width corresponding to both lighting devices 120 .
도 4는 본 발명에 따른 건강 이상 정보를 획득하기 위한 방법을 간략히 나타낸 것이다. Figure 4 briefly shows a method for obtaining health abnormality information according to the present invention.
도 4에 따르면, 판별 장치(200)는 이동 통로를 지나는 어류의 특징점을 기준으로하여, 어류의 움직임을 인식할 수 있다. 일 예로, 어류가 건강한 상태라면, 이동 통로를 지나면서 어류의 머리는 한 방향을 향할 가능성이 높으며, 어류는 물살의 흐름을 따라 한 "?향으?* 헤엄쳐 이동할 수 있다. 그러나, 어류의 건강에 이상이 발생한 경우, 어류는 이동 통로를 지나면서 물살의 흐름에 의하여 몸의 방향이 이동 방향과 다르게 변화될 수 있다. 이러한 몸의 방향을 감지하여, 판별 장치(200)는 어류의 건강 이상 상태를 판별할 수 있고, 건강 이상 상태를 판별하기 위한 빅데이터를 미리 학습한 것일 수 있다. According to FIG. 4, the discrimination device 200 can recognize the movement of the fish based on the characteristic points of the fish passing through the movement passage. For example, if the fish is healthy, its head is likely to face one direction as it passes through the passage, and the fish can swim in one direction following the current. However, the health of the fish If an abnormality occurs, the direction of the fish's body may change differently from the direction of movement due to the flow of water as it passes through the passage. By detecting the direction of the body, the determination device 200 determines the fish's health condition. and may have learned big data in advance to determine health abnormalities.
도 5는 본 발명에 따른 판별 장치를 개략적으로 나타낸 것이다. Figure 5 schematically shows a discrimination device according to the present invention.
도 5에 따르면, 본 발명에 따른 판별 장치(200)는 프로세서(210), 메모리(220) 및 통신 모듈(230)을 포함할 수 있다. According to FIG. 5, the determination device 200 according to the present invention may include a processor 210, a memory 220, and a communication module 230.
프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may control other components by executing instructions stored in the memory 220. The processor 210 may execute instructions stored in the memory 220.
프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component that can perform calculations and control other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), etc. Additionally, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU can consist of thousands of smaller, more efficient cores designed for parallel processing.
프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 220.
메모리(220)는 판별 장치(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 판별 장치(200)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 판별 장치(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 판별 장치(200)에 설치되어, 프로세서(210)에 의하여 상기 판별 장치(200)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data supporting various functions of the determination device 200. The memory 220 may store a plurality of application programs (application programs or applications) running on the determination device 200, data for operating the determination device 200, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, the application program may be stored in the memory 220, installed in the determination device 200, and driven by the processor 210 to perform the operation (or function) of the determination device 200.
메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 is a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), and a multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. Additionally, the memory 220 may include web storage that performs a storage function on the Internet.
통신 모듈(230)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(230)은 유선 통신 기능을 수행할 수 있다. The communication module 230 transmits and receives information to and from a base station or a camera including a communication function through an antenna. The communication module 230 may include a modulator, demodulator, signal processor, etc. Additionally, the communication module 230 may perform a wired communication function.
무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication refers to communication using communication facilities already installed by communication companies and a wireless communication network that uses the frequencies of those communication facilities. At this time, the communication module 230 includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). It can be used in various wireless communication systems such as access), and in addition, the communication module 230 can also be used in 3rd generation partnership project (3GPP) long term evolution (LTE), etc. In addition, not only 5G communication, which has recently been commercialized, but also 6G, which is scheduled for commercialization in the future, can be used. However, this specification can utilize a pre-installed communication network without being limited by such wireless communication method.
또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, short range communication technologies include Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), and Infrared Data Association (IrDA). ), UWB (Ultra Wideband), ZigBee, etc. may be used.
도 6은 본 발명에 따른 메모리에 포함된 기능적 구성을 나타낸 것이다. Figure 6 shows the functional configuration included in the memory according to the present invention.
도 6에 따르면, 본 발명에 따른 메모리(220)는 크기 정보 생성 모듈(221) 및 건강 이상 정보 생성 모듈(222)을 포함할 수 있다. According to FIG. 6, the memory 220 according to the present invention may include a size information generation module 221 and a health abnormality information generation module 222.
크기 정보 생성 모듈(221)은 어류의 종류에 따른 크기별 이미지 데이터에 대한 빅데이터 학습을 이미 진행한 것일 수 있다. 크기 정보 생성 모듈(221)은 어류의 크기 정보를 미리 학습한 학습 데이터를 포함하고, 미리 학습한 학습 데이터에 기초하여, 카메라 장치(400)에서 생성된 이미지 데이터 속 어류를 인식하고, 인식된 어류의 크기 정보를 생성할 수 있다. The size information generation module 221 may have already performed big data learning on image data for each size according to the type of fish. The size information generation module 221 includes learning data that has previously learned the size information of the fish, and based on the pre-learned learning data, recognizes fish in the image data generated by the camera device 400, and recognizes the fish in the image data. size information can be generated.
건강 이상 정보 생성 모듈(222)는 건강 이상 상황이 발생한 어류들의 움직임이 포함된 영상 빅데이터 학습을 미리 진행한 것일 수 있다. 건강 이상 정보 생성 모듈(222)은 건강 이상 상황이 발생한 어류들의 움직임을 포함하는 영상 데이터를 미리 학습한 학습 데이터를 포함하고, 미리 학습한 학습 데이터에 기초하여, 카메라 장치(400)에서 생성된 이미지 데이터 속 어류를 인식하고, 인식된 어류의 건강 이상 정보를 생성할 수 있다. The health abnormality information generation module 222 may have previously learned image big data including the movements of fish in which health abnormalities have occurred. The health abnormality information generation module 222 includes learning data obtained by pre-learning image data including the movement of fish in which health abnormalities have occurred, and images generated by the camera device 400 based on the pre-learned learning data. It is possible to recognize fish in the data and generate information on health abnormalities of the recognized fish.
이때, 크기 정보 생성 모듈(221) 및/또는 건강 이상 정보 생성 모듈(222)이 빅데이터를 학습하기 위하여 사용하는 알고리즘은 CNN 알고리즘일 수 있다. 크기 정보 생성 모듈 및/또는 건강 이상 정보 생성 모듈은 미리 라벨링된 이미지 데이터 또는 영상 데이터로 구성된 빅데이터에 대하여 CNN 알고리즘을 적용하여 학습을 수행할 수 있다. At this time, the algorithm used by the size information generation module 221 and/or the health abnormality information generation module 222 to learn big data may be a CNN algorithm. The size information generation module and/or the health abnormality information generation module may perform learning by applying a CNN algorithm to big data consisting of pre-labeled image data or image data.
도 7 및 도 8은 복수의 채널을 포함하는 판별 장치를 포함하는 물고기 선별 장치를 나타낸 것이다. Figures 7 and 8 show a fish selection device including a discrimination device including a plurality of channels.
도 7 및 도 8에 따르면, 어류는 4 종류로 분류될 수 있다. 본 발명은 복수의 수조를 포함하고, 복수의 수조는 분류된 4 종류의 어류를 각각 보관할 수 있다. 어류는 비정상 어류, 소형 어류, 중형 어류 및 대형 어류로 분류될 수 있다. 복수의 수조는 비정상 어류를 보관하는 제1 수조, 소형 어류를 보관하는 제2 수조, 중형 어류를 보관하는 제3 수조 및 대형 어류를 부관하는 제4 수조를 포함할 수 있다. According to Figures 7 and 8, fish can be classified into four types. The present invention includes a plurality of water tanks, and the plurality of water tanks can each store four types of classified fish. Fish can be classified into unusual fish, small fish, medium-sized fish, and large fish. The plurality of tanks may include a first tank storing abnormal fish, a second tank storing small fish, a third tank storing medium-sized fish, and a fourth tank storing large fish.
도 7에 따르면, 판별 장치(200)는 제1 채널을 통하여 어류의 1차 정보를 도출할 수 있다. 즉, 제1 채널은 어류가 포함된 이미지 데이터를 기초로 어류의 1차 크기 정보 및 1차 건강 이상 정보를 도출할 수 있다. 즉, 제1 채널은 제1 크기 정보 생성 모듈 및 제2 건강 이상 정보 생성 모듈을 포함하는 1개의 단위일 수 있다. According to FIG. 7, the determination device 200 can derive primary information about fish through the first channel. That is, the first channel can derive the primary size information and primary health abnormality information of the fish based on image data including the fish. That is, the first channel may be one unit including a first size information generation module and a second health abnormality information generation module.
도 7에 따르면, 분류 장치(300)는 제1 채널에 대응하는 제1 분류 장치, 제2 채널에 대응하는 제2 분류 장치를 포함할 수 있다. 제1 분류 장치는 제1 채널에 의하여 제어될 수 있으며, 제2 분류 장치는 제2 채널에 의하여 제어될 수 있다. According to FIG. 7 , the classification device 300 may include a first classification device corresponding to a first channel and a second classification device corresponding to a second channel. The first classification device may be controlled by a first channel, and the second classification device may be controlled by a second channel.
제1 분류 장치는 어류를 4 종류로 분류할 수 있다. 제2 분류 장치는 제1 분류 장치에 의하여 1차 분류된 어류에 대하여, 분류의 적합성을 검증할 수 있다. 즉, 제2 분류 장치는 1차 분류된 어류에 대하여 2차 분류를 수행하고, 2차 분류 결과가 1차 분류 결과와 동일한지 여부를 기초로, 1차 분류의 적합성을 검증할 수 있다. 제2 분류 장치는 2차 분류 결과가 1차 분류 결과와 동일하면, 분류가 적합하게 수행된 것으로 정의하고, 2차 분류 결과가 1차 분류 결과와 다르다면, 분류가 부적합하게 수행된 것으로 정의할 수 있다. The first classification device can classify fish into four types. The second classification device can verify the suitability of classification for fish primarily classified by the first classification device. That is, the second classification device can perform secondary classification on the fish that has been classified as primary classification and verify the suitability of the primary classification based on whether the secondary classification result is the same as the primary classification result. The second classification device defines that classification has been performed appropriately if the secondary classification result is the same as the first classification result, and defines that classification has been performed inappropriately if the secondary classification result is different from the first classification result. You can.
제1 채널에서 사용되는 비전 인식 알고리즘은 동물 인식을 위한 기존의 알고리즘을 차용한 것일 수 있다. 또한, 제2 채널에서 사용되는 비전 인식 알고리즘은 기존의 알고리즘에 후술할 필터를 적용한 것일 수 있다. The vision recognition algorithm used in the first channel may be adapted from an existing algorithm for animal recognition. Additionally, the vision recognition algorithm used in the second channel may be an existing algorithm applied with a filter to be described later.
도 8에 따르면, 판별 장치(200)는 제1 채널 내지 제3 채널을 포함할 수 있다. 제1 채널 및 제2 채널은 도 5에서 설명한 내용과 일부 중복되므로 중복되는 설명은 생략한다. 분류 장치(300)는 제3 채널에 대응하는 제3 분류 장치를 더 포함할 수 있다. 제3 분류 장치는 제3 채널에 의하여 제어될 수 있다. 또한, 제3 채널에서 사용되는 비전 인식 알고리즘은 기존의 알고리즘에 후술할 응용 필터를 적용한 것일 수 있다.According to FIG. 8, the determination device 200 may include first to third channels. Since the first channel and the second channel partially overlap with the content described in FIG. 5, overlapping descriptions will be omitted. The classification device 300 may further include a third classification device corresponding to the third channel. The third classification device can be controlled by the third channel. Additionally, the vision recognition algorithm used in the third channel may be an application filter that will be described later applied to the existing algorithm.
제3 분류 장치는 제2 분류 장치에 의하여 2차 분류된 어류에 대하여, 분류의 적합성을 재검증할 수 있다. 즉, 제3 분류 장치는 2차 분류된 어류에 대하여 3차 분류를 수행하고, 3차 분류 결과가 2차 분류 결과와 동일한지 여부를 기초로, 2차 분류의 적합성을 검증할 수 있다. 제3 분류 장치는 3차 분류 결과가 2차 분류 결과와 동일하면, 분류가 적합하게 수행된 것으로 정의하고, 3차 분류 결과가 2차 분류 결과와 다르다면, 분류가 부적합하게 수행된 것으로 정의할 수 있다.The third classification device can re-verify the suitability of classification for fish secondaryly classified by the second classification device. That is, the third classification device can perform third classification on the secondary classification fish and verify the suitability of the second classification based on whether the third classification result is the same as the second classification result. The third classification device defines that classification has been performed appropriately if the third classification result is the same as the second classification result, and that classification has been performed inappropriately if the third classification result is different from the second classification result. You can.
도 9는 본 발명에 따른 카메라 장치를 나타낸 것이다. Figure 9 shows a camera device according to the present invention.
본 발명에 따른 카메라 장치(400)는 광 이미지로부터 이미지 데이터를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. The camera device 400 according to the present invention can generate image data from an optical image. The camera module 1320 may include a housing including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321. The through hole may be formed in a size corresponding to the diameter of the lens 1321. Lens 1321 may be inserted into the through hole.
구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 can be controlled by the driving unit 1323 in a conventionally known manner.
다양한 이미지 데이터를 수득하기 위해서는 렌즈(1321)가 카메라 장치(100) 또는 하우징의 외부로 노출될 필요가 있다. In order to obtain various image data, the lens 1321 needs to be exposed to the outside of the camera device 100 or the housing.
특히, 본 발명에 따른 카메라 장치(400)는 염분 또는 불순물을 포함하는 수분에 의한 습도가 높은 환경에서 어류에 대한 이미지 데이터를 생성해야 하므로 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, the camera device 400 according to the present invention needs to generate image data for fish in an environment with high humidity caused by moisture containing salt or impurities, so a lens with strong contamination resistance is required. Therefore, the present invention sought to solve this problem by proposing a coating layer for coating the lens.
바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the surface of the lens 1321 may be coated with a coating composition containing a compound represented by the following formula (1), an organic solvent, an inorganic particle, and a dispersant.
[화학식 1][Formula 1]
여기서,here,
L1은 단일결합, 치환 또는 비치환된 탄소수 6 내지 30의 아릴렌기, 치환 또는 비치환된 탄소수 1 내지 20의 알킬렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알킬렌기, 치환 또는 비치환된 탄소수 2 내지 20의 알케닐렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알케닐렌기 및 치환 또는 비치환된 탄소수 2 내지 20의 알키닐렌기로 이루어진 군에서 선택되며,L 1 is a single bond, a substituted or unsubstituted arylene group with 6 to 30 carbon atoms, a substituted or unsubstituted alkylene group with 1 to 20 carbon atoms, a substituted or unsubstituted cycloalkylene group with 3 to 20 carbon atoms, or a substituted or unsubstituted group. It is selected from the group consisting of an alkenylene group having 2 to 20 carbon atoms, a substituted or unsubstituted cycloalkenylene group having 3 to 20 carbon atoms, and a substituted or unsubstituted alkynylene group having 2 to 20 carbon atoms,
상기 L1이 치환되는 경우, 수소, 니트로기, 할로겐기, 히드록시기, 탄소수 1 내지 30의 알킬기, 탄소수 1 내지 20개의 시클로알킬기, 탄소수 2 내지 30의 알케닐기, 탄소수 2 내지 24의 알키닐기, 탄소수 7 내지 30의 아르알킬기, 탄소수 6 내지 30의 아릴기 및 탄소수 1 내지 30의 알콕시기로 이루어진 군으로부터 선택된 1종 이상의 치환기로 치환되며, 복수 개의 치환기로 치환되는 경우 이들은 서로 동일하거나 상이하다.When L 1 is substituted, hydrogen, nitro group, halogen group, hydroxy group, alkyl group of 1 to 30 carbon atoms, cycloalkyl group of 1 to 20 carbon atoms, alkenyl group of 2 to 30 carbon atoms, alkynyl group of 2 to 24 carbon atoms, carbon number It is substituted with one or more substituents selected from the group consisting of an aralkyl group with 7 to 30 carbon atoms, an aryl group with 6 to 30 carbon atoms, and an alkoxy group with 1 to 30 carbon atoms. When substituted with a plurality of substituents, they are the same or different from each other.
상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 도로 주변에 설치된 렌즈(1321)가 오염 환경에 장기간 노출되더라도, 보다 선명한 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and contamination resistance, so that clearer images or videos can be collected even if the lens 1321 installed around the road is exposed to a polluted environment for a long period of time.
상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above example. After the inorganic particles are formed as a coating layer 1322 on the surface of the lens 1321, the physical strength can be improved and the moldability can be improved by maintaining the viscosity within a certain range.
상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, preferably methyl ethyl ketone, but is not limited to the above examples.
상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant can be used. Specifically, a polyester-based dispersion stabilizer consisting of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate is TEGO-Disperse 670 (manufacturer) : EVONIK) can be used, but is not limited to the above example and any dispersant that is obvious to those skilled in the art can be used without limitation.
상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include an ultraviolet absorber, an antioxidant, etc., but is not limited to the above examples and can be used without limitation.
상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.More specifically, the coating composition for forming the coating layer 1322 may include a compound represented by Chemical Formula 1, an organic solvent, inorganic particles, and a dispersant.
상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. If the range is within the above range, a synergistic effect of the water repellent effect due to the interaction of each component is expressed to a critical degree, and if it is outside the above range, the synergistic effect is rapidly reduced or almost non-existent.
보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP. If the viscosity is less than 1500 cP, there is a problem that it flows down when applied to the surface of the lens 1321, making it difficult to form the coating layer 1322, and if the viscosity is less than 1800 cP, it flows down. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.
[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]
1. 코팅 조성물의 제조1. Preparation of coating composition
메틸에틸케톤에 하기 화학식 1로 표시되는 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with a compound represented by the following formula (1), inorganic particles, and a dispersant:
[화학식 1][Formula 1]
여기서, here,
L1은 비치환된 탄소수 5의 알킬렌기이다.L 1 is an unsubstituted alkylene group having 5 carbon atoms.
상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.
(단위 중량부)(unit weight)
2. 코팅층의 제조2. Preparation of coating layer
렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. The coating compositions DX1 to DX5 were applied to one surface of the lens 1321 and then cured to form a coating layer 1322.
[실험예][Experimental example]
1. 표면 외관에 대한 평가1. Evaluation of surface appearance
코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after manufacturing the coating layer 1322, sensory evaluation was conducted to determine whether a uniform surface was formed. An evaluation was conducted on whether a uniform coating layer 1322 was formed, and the evaluation was conducted based on the following criteria.
○: 균일한 코팅층 형성○: Formation of uniform coating layer
×: 불균일한 코팅층의 형성×: Formation of uneven coating layer
코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain level, flow occurs on the surface of the lens 1321, making it difficult to form a uniform coating layer 1322 after the curing process. Accordingly, the problem of lowering the production yield may occur. Additionally, even when the viscosity was too high, it was difficult to uniformly apply the composition, making it impossible to form a uniform coating layer 1322.
2. 발수각의 측정2. Measurement of water repellency angle
상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.
상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after forming the coating layer 1322 using the coating compositions TX1 to TX5, the results of measuring the contact angle were confirmed. TX1 and TX5 were measured to have receding contact angles of less than 10 degrees. In other words, it was confirmed that pinning of water droplets occurs when the coating composition falls outside the optimal range for manufacturing the coating composition. On the other hand, it was confirmed that no pinning phenomenon occurred in TX2 to 4, showing that excellent waterproofing effects can be achieved.
3. 내오염성 평가3. Contamination resistance evaluation
수조 주변에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형 카메라에 부착하고, 10일 간 염분 농도가 높은 바닷물을 포함하는 수조 주변 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형 카메라는 수조 주변의 동일한 위치에 설치하였다.The lens 1321 on which the coating layer 1322 according to the above embodiment was formed around the tank was attached to the model camera and exposed to the environment around the tank containing seawater with a high salt concentration for 10 days. As a comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and in each example, a model camera was installed at the same location around the water tank.
그 뒤 실험 전후의 렌즈(1321)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Afterwards, the degree of contamination of the lens 1321 before and after the experiment was evaluated, and for objective comparison, the results were compared with the comparative example in which the coating layer 1322 was not formed, and the results were evaluated with an index of 1 to 10, and are shown in Table 4 below. shown in As for the indices below, the lower the number, the better the contamination resistance.
(단위: 지수)(Unit: index)
상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, when forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high contamination resistance is formed in a form that is easy to analyze for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.
도 10은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이고, 도 11은 본 발명에 따른 HSV 그래프를 나타낸 것이다.Figure 10 is a diagram showing an example of an image correction filter according to the present invention, and Figure 11 shows an HSV graph according to the present invention.
도 10에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to Figure 10, the types and functions of filters are shown. In other words, the CNN algorithm may be a learning algorithm that uses multiple layers. In addition, the CNN algorithm can automatically learn filters that maximize image classification accuracy, and by adding new layers called convolutional layers and polling layers before the fully connected layer, the filtered image is obtained after applying the filtering technique to the original image. A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer called a convolutional layer and a pooling layer before the fully-connected layer, and then perform a classification operation on the filtered image. You can.
이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the calculation formula for the image filter using the CNN algorithm is as shown in Equation 1 below.
[수학식 1][Equation 1]
(단, (step,
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,
: 필터, : filter,
: 이미지, : image,
: 필터의 높이 (행의 수), : Height of filter (number of rows),
: 필터의 너비 (열의 수)이다. ) : Width (number of columns) of the filter. )
바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2와 같다. Preferably, the calculation equation for the image filter using the CNN algorithm is as shown in Equation 2 below.
[수학식 2][Equation 2]
(단, (step,
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,
: 응용 필터 : Application filter
: 이미지, : image,
: 응용 필터의 높이 (행의 수), : height of application filter (number of rows),
: 응용 필터의 너비 (열의 수)이다.) : Width (number of columns) of the application filter.)
바람직하게는, 는 응용 필터로서 어류 이미지가 포함된 이미지 데이터를 학습하고, 이미지 데이터에 포함된 어류의 종류를 인식하기 위하여, 상기 이미지 데이터에 적용되는 필터일 수 있다. 특히, 어류 종류 인식의 경우 형태 및 색감의 차이를 기초로 인식될 수 있으므로, 형태 및 색감 등을 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터 는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably, is an application filter that learns image data containing fish images and may be a filter applied to the image data to recognize the type of fish included in the image data. In particular, in the case of fish type recognition, recognition may be based on differences in shape and color, so an application filter may be necessary to effectively recognize shape and color. To meet these needs, application filters Can be calculated by Equation 3 below.
[수학식 3] [Equation 3]
(단, : 필터, : 계수, : 응용 필터)(step, : filter, : Coefficient, : application filter)
이때, 각 에 따른 필터는 도 10에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. At this time, each The filter according to may be any one of the edge detection filter (Edge detection), sharpen filter (sharpen), and box blur filter (Box blur) matrix according to FIG. 10.
바람직하게, 를 구하는 연산식은 아래의 수학식 4와 같다. 이때, 는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably, The calculation formula for calculating is the same as Equation 4 below. At this time, can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.
[수학식 4][Equation 4]
단, 이미지 촬영에 사용된 카메라 장치(400)의 렌즈의 직경(지름)은 mm 단위이고(단, 복수 렌즈 사용시에는 평균값), 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV평균값은 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다. However, the diameter of the lens of the camera device 400 used to capture the image is in mm (however, when using multiple lenses, it is the average value), the f value of the lens is the aperture value (F number) of the lens, and the HSV average value. may mean the average value of the color coordinates according to the image converted to size values through an HSV graph. Specific details about the HSV value are as follows.
도 11에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.According to FIG. 11, the HSV graph according to the present invention may mean a color space that reflects perceptual characteristics. H(Hue, 0~360°) can mean hue, S(Saturation, 0~100%) can mean saturation, and V(Value, 0~100%) can mean brightness. . Hue, saturation, and brightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe Illustrator CC 2019.
본 발명에 따른 HSV 평균값은 도 9의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 이동하는 어류에 대한 이미지를 포함하고, 이미지의 HSV 색상좌표는 HSV 3차원 좌표 중 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리값을 의미할 수 있다. The HSV average value according to the present invention can be obtained through the HSV three-dimensional coordinates of FIG. 9. That is, the HSV average value according to the present invention can be calculated based on the HSV value obtained through a graphic tool. The distance value of the HSV coordinates measured with the origin coordinates on the HSV three-dimensional coordinates as the reference point can constitute the above-described HSV average value. That is, the image according to the present invention includes an image of a moving fish, and the HSV color coordinates of the image may be distributed in a certain area among the HSV three-dimensional coordinates. Therefore, the HSV average value according to the present invention may mean the distance value from the origin coordinate calculated based on the average coordinate using the average of the HSV coordinates for the color of a certain area.
[실험 예][Experiment example]
본 발명에 따른 영상 데이터에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 있어서 이동하는 어류의 종류에 대한 인식 정확도를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 전문가 10명에게 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. The recognition accuracy of the type of moving fish when applying the application filter F' of the present invention to the image data according to the present invention is as follows. The table below is a numerical representation of the accuracy of recognition results based on whether or not filters are applied, based on requests from 10 experts in the relevant technology field.
상기 표 5는 전문가로부터 평가된 정확도에 대한 점수를 각 케이스별로 나타낸 것이다. 본 실험예는 동일한 빅데이터를 통하여 미리 학습된 학습 모듈에 대하여, 필터 적용 여부에 따른 정확도를 조사한 것이다. Table 5 above shows the accuracy scores evaluated by experts for each case. This experimental example investigates the accuracy of a learning module previously learned using the same big data, depending on whether or not a filter is applied.
또한, 본 실험예는 120가지의 서로 다른 종류의 어류 이미지를 포함하는 영상 데이터로 실험된 것이며, 인식 결과값에 대하여 영상 데이터에 포함된 어종의 정확도를 전문가 10명으로부터 설문 조사한 것이다. In addition, this experimental example was experimented with image data including images of 120 different types of fish, and a survey was conducted from 10 experts on the accuracy of the fish species included in the image data regarding the recognition results.
표 5에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 이미지에 대한 인식에 오류가 발생할 확률이 존재하여 상대적으로 낮은 정확도로 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우 다소 정확도가 높았으나, 응용 필터 F'를 적용하는 경우의 정확도가 현저하게 향상되는 것이 확인된다.As can be seen in Table 5, in the case where no filter was applied, there was a possibility of an error occurring in image recognition, so the accuracy was evaluated to be relatively low. In comparison, the accuracy was somewhat higher when the general CNN filter F was applied, but it was confirmed that the accuracy was significantly improved when the applied filter F' was applied.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. and also includes those modeled in the form of carrier waves (e.g., transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.
앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not exclusive or distinct from each other. In certain embodiments or other embodiments of the present invention described above, each configuration or function may be used in combination or combined.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in any respect and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
100: 흡입 통로
200: 판별 장치
300: 분류 장치
400: 카메라 장치
500, 600: 수조100: suction passage
200: Discrimination device
300: Sorting device
400: Camera device
500, 600: Water tank
Claims (5)
상기 이동 튜브를 통과하는 상기 어류에 대하여 빛을 조사하는 적어도 하나의 조명 장치;
상기 적어도 하나의 조명 장치에 의하여 발생한 그림자에 대한 이미지 데이터를 생성하는 적어도 하나의 카메라 장치;
상기 이미지 데이터에 기초하여, 상기 어류에 대한 크기 정보 및 건강 정보를 도출하는 판별 장치; 및
상기 크기 정보 및 건강 이상 정보에 기초하여, 미리 정의된 복수의 수조로 상기 어류를 분류하는 분류 장치;를 포함하는,
인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템.
A moving tube for moving fish from the first tank to another tank;
At least one lighting device that radiates light to the fish passing through the moving tube;
at least one camera device that generates image data about a shadow generated by the at least one lighting device;
A determination device that derives size information and health information about the fish based on the image data; and
A classification device for classifying the fish into a plurality of predefined aquariums based on the size information and health abnormality information; including,
Fish selection system using artificial intelligence-based fish shadows.
상기 적어도 하나의 조명 장치는 제1 조명 장치 및 제2 조명 장치를 포함하고,
상기 제1 조명 장치는 제1 위치에서 상기 어류에 대하여 빛을 조사하며, 상기 제2 조명 장치는 제2 위치에서 상기 어류에 대하여 빛을 조사하고,
상기 적어도 하나의 카메라 장치는,
상기 제1 조명 장치에 의하여 발생한 제1 그림자 및 상기 제2 조명 장치에 의하여 발생한 제2 그림자에 대한 이미지 데이터를 생성하는 것인,
인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템.
According to paragraph 1,
The at least one lighting device includes a first lighting device and a second lighting device,
The first lighting device irradiates light to the fish at a first position, and the second lighting device irradiates light to the fish at a second position,
The at least one camera device,
Generating image data for a first shadow generated by the first lighting device and a second shadow generated by the second lighting device,
Fish selection system using artificial intelligence-based fish shadows.
상기 판별 장치는,
상기 이미지 데이터에 기초하여 상기 어류의 1차 크기 정보 및 1차 건강 이상 정보를 도출하는 제1 채널, 및
상기 이미지 데이터에 필터를 적용하여 상기 어류의 2차 크기 정보 및 2차 건강 이상 정보를 도출하는 제2 채널을 포함하는 것인,
인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템.
According to paragraph 1,
The determination device is,
A first channel that derives primary size information and primary health abnormality information of the fish based on the image data, and
A second channel for deriving secondary size information and secondary health abnormality information of the fish by applying a filter to the image data,
Fish selection system using artificial intelligence-based fish shadows.
상기 판별 장치는,
상기 1차 크기 정보 및 상기 2차 크기 정보에 기초하여, 상기 어류의 3차 크기 정보를 도출하는 것인,
인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템.
According to paragraph 3,
The determination device is,
Based on the primary size information and the secondary size information, tertiary size information of the fish is derived,
Fish selection system using artificial intelligence-based fish shadows.
상기 판별 장치는,
상기 이미지 데이터에 기초하여, 상기 어류에 대한 건강 이상 정보를 생성하고, 상기 건강 이상 정보를 외부 장치로 전송하는 것인,
인공지능 기반 물고기 그림자를 이용한 물고기 선별 시스템.
According to paragraph 1,
The determination device is,
Based on the image data, generating health abnormality information about the fish and transmitting the health abnormality information to an external device,
Fish selection system using artificial intelligence-based fish shadows.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220061628A KR20230161808A (en) | 2022-05-19 | 2022-05-19 | Fish sorting system using ai-based fish shadow |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220061628A KR20230161808A (en) | 2022-05-19 | 2022-05-19 | Fish sorting system using ai-based fish shadow |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230161808A true KR20230161808A (en) | 2023-11-28 |
Family
ID=88957390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220061628A KR20230161808A (en) | 2022-05-19 | 2022-05-19 | Fish sorting system using ai-based fish shadow |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230161808A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070102023A (en) | 2006-04-13 | 2007-10-18 | 유근영 | The separator and its method which using of fishes |
-
2022
- 2022-05-19 KR KR1020220061628A patent/KR20230161808A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070102023A (en) | 2006-04-13 | 2007-10-18 | 유근영 | The separator and its method which using of fishes |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Faillettaz et al. | Imperfect automatic image classification successfully describes plankton distribution patterns | |
JP6794737B2 (en) | Information processing equipment, information processing methods, programs and inspection systems | |
CN108444447B (en) | Real-time autonomous detection method for fishing net in underwater obstacle avoidance system | |
CN110930390B (en) | Chip pin missing detection method based on semi-supervised deep learning | |
CN104690420B (en) | FPC edges of boards positioning and processing method based on digital CCD | |
Rudiawan et al. | The deep learning development for real-time ball and goal detection of barelang-FC | |
US9443129B2 (en) | Methods and apparatus for image analysis using threshold compactness features | |
CN113920096A (en) | Method for detecting metal packaging defects of integrated circuit | |
KR20230161808A (en) | Fish sorting system using ai-based fish shadow | |
KR20230161807A (en) | Ai-based fish sorting system | |
KR102524374B1 (en) | Automatic classification method and system of agricultural products using image analysis model | |
CN113243354A (en) | Laser bird repelling method and device based on computer vision algorithm and artificial intelligence technology | |
KR102524453B1 (en) | Method and system for measuring quality of seafood products using ai | |
CN110163253B (en) | Fish floating head degree detection method and system | |
KR102592502B1 (en) | System and method for quality management of parts based on distribution of combined values based on deep learning | |
US20210390419A1 (en) | Device and Method for Training and Testing a Classifier | |
KR20240023892A (en) | Feeding system and method for aquaculture based on artificial intelligence | |
KR20240023893A (en) | Vision recognition-based farm fish health management system and method | |
CN103942532A (en) | Dead zone vehicle detecting method based on vehicle-mounted camera | |
CN113537463A (en) | Countermeasure sample defense method and device based on data disturbance | |
KR20240005477A (en) | Smart farm system using artificial intelligence | |
KR20240008148A (en) | Safe area control method for port unloading and control system using the same | |
KR20230044845A (en) | System and method for predicting optimal trading timing of livestock based on artificial intelligence | |
KR20240005480A (en) | Solar power facility management system using artificial intelligence | |
KR20230105224A (en) | Neck smart strap for pat and pat management system using the same |