KR20220012108A - Apparatus and method for determining sowing time of sprout crops using image reading - Google Patents
Apparatus and method for determining sowing time of sprout crops using image reading Download PDFInfo
- Publication number
- KR20220012108A KR20220012108A KR1020200091234A KR20200091234A KR20220012108A KR 20220012108 A KR20220012108 A KR 20220012108A KR 1020200091234 A KR1020200091234 A KR 1020200091234A KR 20200091234 A KR20200091234 A KR 20200091234A KR 20220012108 A KR20220012108 A KR 20220012108A
- Authority
- KR
- South Korea
- Prior art keywords
- seeding
- image
- sowing
- sprout
- crops
- Prior art date
Links
- 238000009331 sowing Methods 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims description 50
- 238000012545 processing Methods 0.000 claims abstract description 53
- 238000004891 communication Methods 0.000 claims abstract description 25
- 238000010899 nucleation Methods 0.000 claims description 79
- 238000005516 engineering process Methods 0.000 description 10
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 229910002092 carbon dioxide Inorganic materials 0.000 description 4
- 239000001569 carbon dioxide Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 235000013311 vegetables Nutrition 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 240000005979 Hordeum vulgare Species 0.000 description 1
- 235000007340 Hordeum vulgare Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 235000013410 fast food Nutrition 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000013376 functional food Nutrition 0.000 description 1
- 230000035784 germination Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 235000013402 health food Nutrition 0.000 description 1
- 235000008216 herbs Nutrition 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 235000021049 nutrient content Nutrition 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01C—PLANTING; SOWING; FERTILISING
- A01C11/00—Transplanting machines
- A01C11/02—Transplanting machines for seedlings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Agronomy & Crop Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Animal Husbandry (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Soil Sciences (AREA)
- Environmental Sciences (AREA)
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Cultivation Of Plants (AREA)
Abstract
Description
본 발명은 새싹류 작물의 파종시기를 결정하는 것에 관한 것으로, 보다 상세하게는 화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치 및 방법에 관한 것이다. The present invention relates to determining the seeding time of a sprout crop, and more particularly, to an apparatus and method for determining the seeding time of a sprout crop using image reading.
스마트팜(Smart Farm)은 사물인터넷(IoT) 기술을 활용하여 노동집약적 생산방식의 개선이나 작물의 생산성을 올리는 미래농업방식으로 글로벌 트랜드를 형성하며 꾸준한 성장이 진행중이다. 현재 스마트팜은 도입 이후 수년의 시간이 경과하여 해당 기업이 폐업하게 되는 경우 A/S 및 관리, 유지가 불가능할 수준으로 어려움을 겪고 있다. 스마트팜의 도입이 고비용이라는 인식이 보편화 되어 농업에 데이터 활용이 잘 일어나고 있지 않은 실정이다.Smart farms are steadily growing by forming a global trend as a future agricultural method that uses Internet of Things (IoT) technology to improve labor-intensive production methods or increase crop productivity. Currently, smart farms are experiencing difficulties to the extent that A/S, management, and maintenance are impossible if the company goes out of business after several years have elapsed since its introduction. As the perception that the introduction of smart farms is expensive, data utilization in agriculture is not taking place well.
사물인터넷(IoT) 기술의 보편화로 쉽고 저렴하게 농업환경에 적용하여 생산성과 편의성을 증진시킬 수 있는 시대지만, 기존 스마트팜으로 생긴 부정적 인식으로 초기 농업 입문자나 고령의 영세 농업인은 접근을 시도하고 있지 않고 있다. 따라서 스마트팜의 경우 저렴하게 도입하여 유용하게 활용할 수 있는 기술이 쓰이지 않는 문제점을 개선할 필요가 있다. 새싹류 작물의 파종의 경우에는 농업 입문인들은 발아한 후 일정시기가 지나면 파종하는 방법만을 사용하여 파종된 새싹류 작물의 상품성이 떨어지는 문제가 생기는 등 스마트팜에서도 새싹류 작물을 파종하는데 많은 어려움이 있는 실정이다.It is an era where productivity and convenience can be improved by applying the Internet of Things (IoT) technology to the agricultural environment easily and inexpensively due to the generalization of the technology. is not Therefore, in the case of smart farms, it is necessary to improve the problem that the technology that can be used inexpensively and usefully is not used. In the case of sowing of sprout crops, there are many difficulties in sowing sprout crops even in smart farms, such as a problem in that the commerciality of sprout crops sown using only the sowing method after a certain period of time has passed after germination occurs. there is a situation.
새싹류 작물은 파종 시점에 따라 취득 목표로 하는 영양분 함량이 변한다. 따라서 새싹류 작물의 파종은 그 시기가 상품성에 영향을 미치게 된다. 종래에는 새싹류를 발아하고 일정시간이 경과하면 수확을 하는 파종 방법이 사용되었다. 이러한 종래의 파종 방법은 파종하는 대상의 일정 관리적 측면에서는 유리한 방법이지만, 최적화된 상품성을 갖는 파종 방법은 아니어서 스마트팜을 운영하는 농업인들의 수익 향상에 크게 도움이 되지 않고 있는 실정이다. For sprout crops, the target nutrient content varies depending on the time of sowing. Therefore, the sowing time of sprout crops will affect the marketability. Conventionally, a sowing method in which sprouts are germinated and harvested after a certain period of time has elapsed was used. Although this conventional sowing method is an advantageous method in terms of managing the schedule of sowing targets, it is not a sowing method with optimized marketability, so it is not greatly helpful in improving the profits of farmers operating smart farms.
이러한 문제점들을 해결하기 위해, 국내 기업의 선적 컨테이너를 재활용하여 스마트팜으로서 비용을 줄이면서 새싹류 작물의 최적 파종시기를 결정해 줌으로써 농업인들에게 최적의 상품성을 갖는 새싹류 작물을 파종할 수 있게 하는 방법들을 제안하고자 한다.In order to solve these problems, it is a smart farm by recycling shipping containers of domestic companies to reduce costs as a smart farm and to determine the optimal sowing time for sprout crops so that farmers can sow sprout crops with optimal marketability. We would like to suggest methods.
본 발명에서 이루고자 하는 기술적 과제는 화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치를 제공하는 데 있다.The technical problem to be achieved in the present invention is to provide an apparatus for determining the sowing time of sprouts crops using image reading.
본 발명에서 이루고자 하는 다른 기술적 과제는 장치가 화상판독을 이용한 새싹류 작물의 파종시기를 결정하는 방법을 제공하는 데 있다.Another technical problem to be achieved in the present invention is to provide a method in which an apparatus determines the sowing time of sprouts crops using image reading.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able
상기의 기술적 과제를 달성하기 위한, 화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치는, 상기 새싹류 작물에 대해 촬영된 영상을 수신하는 통신부; 상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하고, 상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 영상처리부; 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 파종시기 판단부를 포함하되, 상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하며, 상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점일 수 있다.In order to achieve the above technical problem, an apparatus for determining a seeding time of a sprout crop using image reading includes a communication unit configured to receive an image photographed for the sprout crop; A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface A second imaginary line extending in a straight line to the same height from the final height of sowing judgment is generated, and the entire color of the imaginary area in the imaginary area created by the first imaginary line and the second imaginary line on the imaging plane. an image processing unit for calculating the ratio of the color of the sprouts in the ; The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line and a sowing time determination unit that determines that it is time to sow the sprouts crop when the predetermined second threshold rate or less is lower than the second threshold rate, wherein the communication unit transmits a message indicating that it is the sowing time according to the determination of the sowing determination unit to the user's terminal or network to, the seeding judgment critical height point is the lowest point in the height section of the sprout crop desired for sowing set by the user, and the seeding judgment final height point is in the height section of the sprout crop desired by the user to sow could be the peak.
상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며, 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것일 수 있다. 상기 장치는 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 외부로부터 입력받는 입력부를 더 포함할 수 있다. 상기 통신부는 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신할 수 있다. 상기 영상처리부는 상기 수신된 영상으로부터 상기 새싹류 작물을 감지할 수 있다.The first imaginary line and the second imaginary line may be parallel to each other, and the seeding judgment critical height point and the seeding judgment final height point may be set by the user according to the type of the sprouted crop. The apparatus may further include an input unit for receiving information about the seeding determination critical height point and the seeding determination final height point set by the user from the outside. The communication unit may receive information on the seeding determination critical height point and the seeding determination final height point set by the user. The image processing unit may detect the sprout crop from the received image.
상기의 다른 기술적 과제를 달성하기 위한, 장치가 화상판독을 이용한 새싹류 작물의 파종시기를 결정하는 방법은, 상기 새싹류 작물에 대해 촬영된 영상을 수신하는 단계; 상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하는 단계; 상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 단계; 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 단계; 및 상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하는 단계를 포함하되, 상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점일 수 있다.In order to achieve the above other technical problem, a method for determining a seeding time of a sprout crop using an image reading apparatus includes: receiving an image photographed for the sprout crop; A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface generating a second virtual line extending in a straight line to the same height from the final height point of the seeding judgment; calculating a ratio of the color of the sprout crop to the total color of the virtual area in the virtual area created by the first and second virtual lines on the image taking surface; The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line determining that it is time to sow the sprouts when it is less than or equal to the second predetermined threshold rate; And the communication unit comprises the step of transmitting a message indicating that it is a sowing time according to the determination of the sowing determination unit to a user terminal or to a network, wherein the seeding determination threshold height point is the seedling crop desired for sowing set by the user is the lowest point in the height section of and the final height point for sowing judgment may be the highest point in the height section of the sprouted crop desired by the user to sow.
상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며,The first imaginary line and the second imaginary line are parallel to each other,
상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것일 수 있다. 상기 방법은 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 입력받는 단계를 더 포함할 수 있다. 상기 방법은 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신하는 단계를 더 포함할 수 있다.The seeding judgment critical height point and the seeding judgment final height point may be those set by the user according to the type of the sprouted crop. The method may further include receiving information on the seeding determination critical height point and the seeding determination final height point set by the user. The method may further include receiving information about the seeding determination threshold height point and the seeding determination final height point set by the user.
본 발명의 일 실시예에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)의 파종시기 판단하는 방법에 의하면, 새싹류 작물의 생육환경이나 씨앗의 품질과 관련없이 파종하여야 할 시간을 판단할 수 있게 된다. According to the method of determining the sowing time of the
또한, 본 발명의 일 실시예에 따라 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상판독을 통해 목표 파종시기를 판단함으로써 목표 파종시기 작물의 수를 일정하게 취득할 수 있게 되고 품질도 꾸준하게 유지할 수 있다In addition, according to an embodiment of the present invention, the
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 본 발명에 따른 IoT로 구성된 스마트팜 모듈(혹은 시스템)(100)을 설명하기 위한 예시적인 도면이다.
도 2는 본 발명의 일 실시예에 따른 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 장치(200)를 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 파종시기를 결정하기 위해 사용되는 화상판독 방식을 설명하기 위한 예시적 도면이다.
도 4는 본 발명의 일 실시예에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 방법을 설명하기 위한 흐름도이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to help the understanding of the present invention, provide embodiments of the present invention, and together with the detailed description, explain the technical spirit of the present invention.
1 is an exemplary diagram for explaining a smart farm module (or system) 100 configured of IoT according to the present invention.
2 is a block diagram for explaining the
3 is an exemplary view for explaining an image reading method used by the
4 is a flowchart for explaining a method for the
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these specific details.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some cases, well-known structures and devices may be omitted or shown in block diagram form focusing on core functions of each structure and device in order to avoid obscuring the concept of the present invention. In addition, the same reference numerals are used to describe the same components throughout the present specification.
본 발명에서는 농업 입문인도 쉽게 사물인터넷(Internet of Thing, IoT) 기술을 활용하여 데이터 기반의 농업을 할 수 있게 하는 스마트팜 방식을 제공하고자 한다. 사물인터넷(IoT) 기술로 구성된 스마트팜 모듈 개발의 니즈가 있었다. 예를 들어 수직 적층이 가능한 40FT 선적 컨테이너(예를 들어, 국내 선박 컨테이너)를 (재)활용할 수 있다. 이러한 선적 컨테이너 기반 스마트팜에는 전반적으로 생육환경을 리모트 컨트롤 하는 시스템 구성이 필요하다. 이러한 스마트팜 시스템에는 생육환경 측정 데이터화 하는 IoT센서가 탑재될 수 있고, 농산물의 생육을 원거리에 확인 가능한 IP 카메라가 탑재될 수 있다.In the present invention, it is an object of the present invention to provide a smart farm method that enables even beginners to easily perform data-based agriculture using Internet of Thing (IoT) technology. There was a need to develop a smart farm module composed of Internet of Things (IoT) technology. For example, a 40FT shipping container that can be stacked vertically (eg, a domestic ship container) can be (re)used. Such a shipping container-based smart farm requires a system configuration that remotely controls the overall growth environment. This smart farm system can be equipped with an IoT sensor that converts growth environment measurement data, and an IP camera that can check the growth of agricultural products from a distance.
또한, 본 발명에 따른 IoT 기반의 스마트팜 모듈은 새싹류 작물(혹은 새싹작물 등으로도 호칭됨)을 생육하는 환경을 제공한다. 여기서, 새싹류 작물은 작물 종자를 싹 틔워 어린잎, 줄기, 뿌리의 완전한 식물적 특징을 갖춘 작물을 말한다. 예전부터 다양한 새싹작물을 몸에 좋은 약초로 활용하여 각종 질병을 예방하고 건강을 개선하였다. 서양에서는 새싹작물을 이용한 역사는 짧지만 건강기능성 물질과 효능에 주목하면서 다양한 건강식품으로 개발하였다. 우리나라에서도 최근 웰빙 영향으로 새싹채소 소비는 증가하고 있으며, 채소라기보다는 건강기능성 식품으로 여기는 분위기이다. 새싹채소는 신선편의 식품시장에서 주로 소비되며 국내 시장규모는 2015년 956억 원으로 2008년 이후 꾸준히 증가하고 있다.In addition, the IoT-based smart farm module according to the present invention provides an environment for growing sprout crops (or also called sprout crops). Here, sprout crops refer to crops having complete botanical characteristics of young leaves, stems, and roots by sprouting crop seeds. Since ancient times, various sprout crops have been used as medicinal herbs to prevent various diseases and improve health. Although the history of using sprout crops is short in the West, it has been developed as a variety of health foods, paying attention to health functional substances and efficacy. In Korea, the consumption of sprouted vegetables is also increasing due to the influence of well-being in recent years, and it is considered as a health functional food rather than a vegetable. Sprout vegetables are mainly consumed in the fresh convenience food market, and the size of the domestic market was KRW 95.6 billion in 2015 and has been steadily increasing since 2008.
도 1은 본 발명에 따른 IoT로 구성된 스마트팜 모듈(혹은 시스템)(100)을 설명하기 위한 예시적인 도면이다.1 is an exemplary diagram for explaining a smart farm module (or system) 100 configured of IoT according to the present invention.
도 1을 참조하면, 스마트팜 모듈은 선적 컨테이너(110), 새싹류 작물의 생육에 영향을 미치는 온도, 습도, 이산화탄소 농도 등을 센싱하여 외부로 정보를 전송가능한 IoT 센서부들(120, 130), IP 카메라(140)를 포함할 수 있다. 새싹류 작물은 생육환경 중 온도, 습도, 수분, 광량, 이산화탄소량의 영향으로 성장 속도의 차이가 발생하고, 씨앗의 상태도 성장시간에 영향을 주고 있다. 이와 같이, 새싹류 작물의 생육에 영향을 미치는 생육환경요소로서 온도/습도 등이 있다. IoT온도/습도 센서(120)는 스마트팜 모듈 내부의 온도와 습도를 측정하여 측정된 데이터들에 대해 스마트팜 모듈을 관리하는 시스템으로 전송해 주거나 사용자의 단말기로 전송해 줄 수 있다. 마찬가지로 IoT이산화탄소 농도 센서 (130)는 스마트팜 모듈 내부의 이산화탄소의 농도를 측정하여 스마트팜 모듈을 관리하는 시스템으로 전송해 주거나 사용자의 단말기로 전송해 줄 수 있다. Referring to Figure 1, the smart farm module is a
또한, 스마트팜 모듈은IoT 습도조절기(140) 및 IoT 온도조절기(150)를 더 포함할 수 있다. IoT 습도조절기(140)는 새싹류 작물의 생육환경에 적합하게 되도록 하는 습도 조절에 대한 신호를 외부로부터 수신하여 스마트팜 모듈 내의 습도를 조절하는 기능을 수행한다. IoT 온도조절기(150)는 새싹류 작물의 생육환경에 적합하게 되도록 하는 온도 조절에 대한 신호를 외부로부터 수신하여 스마트팜 모듈 내부의 온도를 조절하는 기능을 수행한다. In addition, the smart farm module may further include an
이하에서는 본 발명에서 언급되는 IP 카메라(140)에 대한 사항에 대해 간략히 설명한다. 인터넷 프로토콜 카메라(Internet Protocol camera, IP 카메라는 일반적으로 감시를 위해 배치되는 디지털 비디오 카메라의 일종으로 아날로그 방식의 폐쇄회로 텔레비전(CCTV) 카메라들과 달리 컴퓨터 네트워크와 인터넷을 통해 데이터를 송수신할 수 있다. 이러한 일을 하는 대부분의 카메라들이 웹캠이지만 IP 카메라 또는 넷캠(netcam)은 일반적으로 네트워크 연결을 통해 직접 접근이 가능한 감시용 목적에만 해당된다. 일부 IP 카메라들은 녹화, 비디오 및 알람 관리를 처리하기 위해 중앙식 네트워크 비디오 레코더(NVR)의 지원이 필요하다. 그 밖의 카메라들은 NVR이 없어도 탈중앙화 방식으로 운용할 수 있는데, 카메라는 로컬 또는 원격의 스토리지 미디어에 직접 녹화가 가능하다. IP 카메라(140)는 기존의 CCTV 시스템은 아날로그 CCTV카메라와 디지털 영상저장 장치(DVR)로 구성되며, CCTV카메라에서 촬영된 아날로그 영상을 동축케이블로 연결하여 DVR 시스템까지 전송할 수 있다. 전송된 아날로그 영상은 디지털 신호로 바뀌어 압축되어 저장되거나, 복원되어 재생되고 감시모니터를 통하여 디스플레이 될 수 있다. 이와 같은 전통적인 방식의 영상보안 시스템에서는 영상을 모니터링 하기 위해서 CCTV 카메라와 함께 DVR과 같은 별도의 독립된 장비가 필요하였다. 그러나, 네트워크 기술의 발전 및 영상처리 칩의 발전은 상기와 같은 기존 영상 구현 방식에 큰 변화를 가져왔다. 즉, 네트워크기술의 발전에 따라 동축케이블을 사용하여 아날로그 영상신호를 전송하는 기존의 CCTV 카메라 대신, 영상신호를 디지털 신호로 압축하여 일반 네트워크(LAN)을 통해 원거리 전송하는 기능을 탑재한 IP카메라를 탄생시켰으며, DVR과 같은 별도의 장비가 없어도 일반 PC나 노트북에서 모니터링이 가능하게 되었다. 물론 네트워크를 통한 데이터의 저장도 가능합니다. 인터넷을 통해 영상데이터의 전송이 가능해진 IP카메라의 발전은 기존의 제한된 공간으로 한정되었던 영상보안 시스템의 한계를 공간 제약이 전혀 없는 전 세계로 연결된 인터넷 공간으로 확장함과 동시에 기존의 전용 DVR 장치의 기능을 PC로 옮겨 놓을 수 있어 다양한 활용 분야를 개척하였다.Hereinafter, the
이러한 IP카메라는 기존 CCTV 카메라 대비 아래와 같은 장점을 가지고 있다. 첫째, IP 카메라만으로도 영상감시 시스템의 구현이 가능합니다. 기존 CCTV, DVR 시스템에서는 단순히 한 장소만을 감시할 목적이라 할지라도, CCTV 카메라와 시스템 기기를 모두 구입하여야 했다. 이에 따라, 설치비용이 많이 발생하게 되고 이는 대중화를 어렵게 만드는 요소였다. 그러나, IP 카메라는 카메라 ISP 뿐만 아니라, DVR시스템의 기능을 구현하던 비디오 디코더, 비디오 코덱을 카메라에 내장하여 영상을 자체적으로 처리하고 압축한 후 네트워크를 이용하여 사용자의 PC로 영상을 전송하고, 사용자는 이를 PC에 저장하고 디스플레이 할 수 있기 때문에 단순히 한 장소를 감시하거나 원격지 감시를 목적으로 하는 사람은 시스템을 별도로 구입할 필 요 없이 IP 카메라만으로 감시 목적을 달성할 수 있다. 둘째, 카메라에서 촬영된 영상을 전달하기 위해서 기존 CCTV 시스템이나 DVR 시스템에서는 카메라와 시스템 기기의 연결을 동축케이블로 하였는데, IP카메라는 기존 네트워크망을 이용한다는 것이다. 따라서, 기존 CCTV 시스템이나 DVR 시스템을 설치하기 위해서는 기본적인 영상보안기기 구입 비용 외에도 설치 비용이 많이 들어갔으나, IP카메라는 이미 구축된 네트워크망을 이용하기 때문에 설치 비용이 저렴하다. 셋째, 원격지에 설치된 IP 카메라에서 촬영하는 영상을 인터넷을 이용하여 어디서든지 볼 수 있게 되었다. 즉, 기존 CCTV 시스템이나 DVR 시스템은 동축케이블로 카메라와 시스템을 연결하여야 했기 때문에 한 건물이나 근거리에 있는 영상만을 볼 수 있었으나, IP카메라는 전세계 어디든지 네트워크(인터넷)만 연결되어 있다면 관찰자가 원하는 장소에서 볼 수 있다. 상기와 같은 IP카메라의 장점은 영상보안산업의 전방시장을 산업용에서 가정용으로 확대할 수 있는 기폭제가 될 것으로 판단되며, 이미 홈네트워크라는 새로운 시장의 핵심 요소로 자리잡아 가고 있다.These IP cameras have the following advantages compared to existing CCTV cameras. First, it is possible to implement a video surveillance system with only an IP camera. In the existing CCTV and DVR systems, even for the purpose of monitoring only one place, both CCTV cameras and system equipment had to be purchased. Accordingly, the installation cost was high, which was a factor that made popularization difficult. However, IP cameras have built-in video decoder and video codec that implement the functions of DVR system as well as camera ISP, process and compress the video itself, and then transmit the video to the user's PC using the network, can be stored and displayed on a PC, so a person who simply monitors a place or wants to monitor a remote location can achieve the purpose of monitoring only with an IP camera without the need to purchase a separate system. Second, the existing CCTV system or DVR system used a coaxial cable to connect the camera to the system device in order to deliver the image captured by the camera, but the IP camera uses the existing network. Therefore, in order to install the existing CCTV system or DVR system, the installation cost is high in addition to the basic video security equipment purchase cost. Third, images taken by IP cameras installed in remote locations can be viewed anywhere using the Internet. In other words, the existing CCTV system or DVR system had to connect the camera and the system with a coaxial cable, so you could only see an image from one building or a short distance. can be seen in The advantages of IP cameras as described above are judged to be a catalyst for expanding the forward market of the video security industry from industrial to home use, and are already establishing themselves as a key element in a new market called home networks.
본 발명에 따른 스마트팜 모듈(100) 내부에 위치한 IP 카메라(140)는 새싹류 작물의 생육을 관찰, 촬영하여 촬영한 영상(혹은 화상)을 LAN 등을 통해 새싹류 작물의 파종시기를 결정하는 장치로 전송할 수 있다. 또한, IP 카메라(140)는 일 예시일 뿐이며, 새싹류 작물의 생육 상태를 영상으로 촬영할 수 있는 카메라이고 LAN 등을 통해 외부로 혹은 시스템으로 전송할 수 있는 기능이 있는 카메라이라면 IP 카메라(140)를 대체할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 장치(200)를 설명하기 위한 블록도이다.2 is a block diagram for explaining the
도 2를 참조하면, 화상판독을 통해 새싹류 작물(혹은 새싹 작물 등으로도 호칭됨)의 파종시기를 결정하는 장치(200)는 제어부(210), 통신부(240) 및 입력부(250)를 포함할 수 있다. 제어부(210)는 영상처리부(220) 및 파종시기 판단부(230)를 더 포함할 수 있다. 제어부(210)는 스마트팜 모듈을 전반적으로 제어하는 기능을 수행한다. 스마트팜 모듈(100)에서 화상 촬영부(예를 들어, IP 카메라)는 소정의 주기로 혹은 이벤트-트리거링 방식 등으로 스마트팜에서 자라는 새싹류 작물들을 촬영하고, 촬영된 영상(혹은 화상촬영 이미지 등 다양하게 호칭될 수 있다)를 새싹류 작물의 파종시기를 결정하는 장치(200)로 전송할 수 있다.Referring to FIG. 2 , the
통신부(240)는 IoT 등의 방식을 통해 스마트팜 모듈(100)의 화상 촬영부(예를 들어, IP 카메라)로부터 새싹류 작물들을 촬영한 영상을 수신하고, 영상처리부(220)로 전달할 수 있다. 영상처리부(220)는 통신부(250)로부터 수신한 새싹류 작물들의 영상으로부터 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 취득(혹은 획득)할 수 있다. 새싹류 작물의 단위 면적에 대응하는 화상촬영면에 대한 구체적 사항은 도 3을 참조하여 설명한다.The
본 발명의 실시예에 따른 영상처리부(220)는 촬영 영상으로부터 사물인식을 인식할 수 있다. 영상처리부(220)는 외부의 카메라 장치(예를 들어, IP 카메라(140))로부터 촬영 영상을 전달받아 그 촬영 영상 내 포함된 사물의 종류와 배치상태를 인식하고 콘텐츠를 처리/반영/생성 등을 하는 것으로, 카메라 장치와 연결되어 있고, 촬영 영상을 수신하는 통신부(240)와 수신된 촬영 영상을 저장하는 메모리(미도시)와 연결되어 있다. 영상 처리부(220)는 제어부(210)의 제어에 따라 동작될 수 있다.The
도 3은 본 발명에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 파종시기를 결정하기 위해 사용되는 화상판독 방식을 설명하기 위한 예시적 도면이다.3 is an exemplary view for explaining an image reading method used by the
도 3에 도시된 영상은 새싹류 작물들이 적층되어 생육되고 있는 환경을 도시하고 있다. 스마트팜 모듈(100)은 컨테이너 (예를 들어, 선적 컨테이너)에 새싹류들을 적층하여 생육한다. 통신부(240)가 화상촬영부(140)로부터 수신하는 영상은 새싹류 작물들이 적층되어 생육됨이 도시된 영상일 수 있다. 수신한 영상에서 새싹류 작물의 한 개 층에 해당하는 면적이 새싹류 작물의 단위 면적이 될 수 있다. 영상처리부(240)는 통신부(240)로부터 수신한 영상으로부터 새싹류 작물의 단위면적에 해당하는 화상촬영면을 생성할 수 있고, 이렇게 생성된 화상촬영면은 일 예로서 도 3에 도시된 빨간선으로 된 박스 면적(310)으로 표시되어 있다. The image shown in FIG. 3 shows an environment in which sprout crops are stacked and grown. The
이를 위해 먼저, 영상처리부(220)는 촬영 영상에 포함된 사물에 대한 인식과정을 진행하기 전, 촬영영상에 포함된 노이즈(noise)를 제거하고 인식률을 높이기 위한 필터링 등의 전처리 과정을 수행할 수 있다. 보다 상세하게는, 촬영영역이 정의되는 장소의 조명환경 등에 의해 촬영된 영상에서 배경과 블록간의 명암차가 작거나, 색상 또는 윤곽에 노이즈가 포함되는 경우 정확한 사물의 원 색상 및 형태를 추출하는 데 어려움이 발생할 수 있으며, 인식의 정확도를 높이기 위해 영상처리부(220)는 고주파 통과 필터(High Pass Filter) 등으로 구성되어 배경과 사물의 경계선간의 차이가 두드러지도록 처리하는 등의 과정을 수행할 수 있다.To this end, first, the
영상처리부(220)는 새싹류 작물의 단위면적에 대응하는 화상촬영면(310)에서 파종시기 판단(혹은 결정)와 관련된 기준점 (혹은 기준 높이점) 및/또는 기준선들을 가상으로 생성할 수 있다. 도 3을 참조하면 화상촬영면에서의 ㄱ점 (320), ㄴ점(330), ㄷ점(340), ㄹ점(350)의 가상의 기준점이 도시되어 있다. 여기서, ㄱ점 (320)은 화상촬영면(310)에서의 파종시작의 바닥 높이점으로 정의할 수 있고, ㄴ점(330)은 화상촬영면(310)에서 파종판단 임계 높이점으로 정의할 수 있다. 그리고, ㄷ점(340)은 화상촬영면(310)에서 파종판단 최종 높이점으로 정의할 수 있으며, ㄹ점(350)은 화상촬영면(310)에서 파종판단의 끝 높이점으로 정의할 수 있다. The
여기서, 파종시작의 바닥 높이점(320)이라는 것은 적층된 컨테이너에서 한층에서 새싹류가 자랄 때 새싹류가 위치하는 바닥점 (혹은 바닥 높이점)으로 정의할 수 있다. 파종판단 임계 높이점(330)은 파종시기라고 판단할 수 있는 새싹류 작물의 최저 높이점이라고 정의할 수 있고, 파종판단 최종 높이점이라는 것은 새싹류가 더 이상 웃자라서 상품성이 떨어지므로 파종시기라고 판단할 수 있는 새싹류 작물의 최고 높이점으로 정의할 수 있다. 또한, 파종판단 임계 높이점(330)은 상기 사용자에 의해 설정된 파종을 원하는 새싹류 작물의 높이 구간에서 최저점으로 정의될 수 있고, 파종판단 최종 높이점(340)은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점으로 정의될 수 있다.Here, the bottom-
이러한 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)은 사용자에 의해 설정될 수 있고, 입력부(250)는 사용자로부터 입력 받을 수 있다. 입력부(250)는 디스플레이부 등의 다양한 타입으로 구성될 수 있다. 또는, 통신부(240)가 사용자에 의해 설정된 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)에 대한 정보를 수신하여 영상처리부(220)로 전달해 줄 수도 있다.The seeding determination
예를 들어, 새싹류 작물의 일 예인 새싹 보리의 경우 15cm ~ 20cm를 최적의 수확 기준이라고 할 때, 사용자가 파종을 원하는 새싹류 작물의 높이는 15cm ~ 20cm일 것이다. 이때, 파종판단 임계 높이점(330)은 파종시작의 바닥 높이점(320)으로부터 15cm가 되는 점이고, 파종판단 최종 높이점은 (350)은 파종시작의 바닥 높이점(320)으로부터 20cm가 되는 점일 수 있다. 새싹류 작물의 높이가 파종시작의 바닥 높이점(320)으로부터 15cm가 되어야 새싹류 작물이 상품성을 가지고 되는 것이고, 새싹류 작물의 높이가 파종시작의 최종 높이점(350)을 초과하게 되면 새싹류 작물의 상품성이 떨어지게 된다. 이러한, 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)은 사용자가 새싹류 작물의 종류 및 특성에 따라 변경할 수 있다.For example, in the case of sprouted barley, which is an example of a sprout crop, assuming that 15 cm to 20 cm is the optimal harvest standard, the height of the sprout crop desired by the user to sow will be 15 cm to 20 cm. At this time, the sowing judgment
영상처리부(220)는 도 3에 도시된 화상촬영면(310)에서 파종판단 임계 높이점(330)에서 같은 높이로 일직선으로 연장되는 제 1 가상선(360)을 생성하고, 상기 화상촬영면(310)에서 파종판단 최종 높이점(340)에서 같은 높이로 일직선으로 연장되는 제 2 가상선(370)을 생성할 수 있다. 화상촬영면(310)에 제 1 가상선(360) 및 제 2 가상선(370)이 그어지면 면적이 만들어지는데 이를 가상면적이라고 호칭할 수 있다. 즉, 상기 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)에 의해 가상면적이 만들어지는데 영상처리부(220)는 가상면적을 생성할 수 있다. 여기서, 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)에 의해 가상면적을 제 1 가상면적이라고 한다면, 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선과 파종판단 임계 높이점(330)에서 일직선으로 연장되는 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 가상 면적은 제 2 가상면적으로 정의할 수 있다.The
영상처리부(220)는 사물인식 기반 영상처리가 가능하여 화상촬영면(310)에서 색상 기반으로 사물을 인식(예를 들어, 도 3에 도시된 녹색의 새싹류 인식)할 수 있다. 따라서 영상처리부(220)는 화상촬영면의 가상면적에 있는 새싹류 작물을 인식할 수 있고, 색상 기반 인식 방법 등으로 가상면적에서 새싹류 작물이 차지하는 비율을 산출할 수도 있다. 색상 기반 사물 인식 기술은 Gray 모델, RGB 모델 등이 있다. Gray 모델은 색(color) 정보를 사용하지 않고 밝기 정보만으로 영상을 표현하는 것이다. 검정색 0부터 흰색 255까지 총 256단계의 밝기값(intensity)으로 영상 픽셀값을 표현한다. RGB 모델은 가장 기본적인 색상모델로서 색(color)을 Red, Green, Blue의 3가지 성분의 조합으로 생각하는 것이다. RGB 모델에서 검은색은 R=G=B=0, 흰색은 R=G=B=255, 빨강색은 R=255, G=B=0, 노란색은 R=G=255, B=0로 표현된다. R=G=B인 경우는 무채색인 Gray 색상이 된다. R, G, B 각각은 0 ~ 255 사이의 값을 가질 수 있기 때문에 RGB 색상 모델을 사용하면 총 256*256*256 = 16,777,216가지의 색을 표현할 수 있다.The
영상처리부(200)는 딥러닝 알고리즘 등의 인공신경망 학습 모듈을 통해 사물 인식이 가능하고, 색상 기반으로 사물인식이 가능하다. 영상처리부(200)는 상기 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율을 산출할 수 있다. 그리고, 영상처리부(200)는 상기 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 상기 제 2 가상선(340)을 초과하는 비율을 산출할 수 있다. 가상면적의 전체 색상에서 새싹류 작물의 색상이 비율 중 많은 부분이 제 2 가상선(340)도 초과해 버린다면 이는 새싹류 작물이 너무 웃자라게 되서 상품성을 약화를 초래한다. 따라서, 상기 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선(340)을 넘게 되면 안되는 비율에 대한 기준이 필요하게 되고 이를 소정의 제 2 임계율이라고 정의할 수 있다. 혹은, 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선과 파종판단 임계 높이점(330)에서 일직선으로 연장되는 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 가상 면적에서의 새싹류 작물이 차지하는 비율 중 일부가 상기 2 가상선(340)을 넘게 되면 안되는 비율을 상기 소정의 제 2 임계율이라고 정의될 수도 있다. The
상술한 바와 같이, 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)에 의해 가상면적을 제 1 가상면적이라고 한다면, 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선과 파종판단 임계 높이점(330)에서 일직선으로 연장되는 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 가상 면적은 제 2 가상면적으로 정의할 수 있다. 이때, 소정의 제 2 임계율은 제 1 가상면적을 기준으로 정의될 수도 있고, 제 2 가상면적을 기준으로 정의될 수도 있다. 만약, 소정의 제 2 임계율이 제 2 가상면적을 기준으로 정의된다면, 영상처리부(220)는 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선을 추가적으로 생성할 수 있고, 추가적으로 생성된 상기 가상선과 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 제 2 가상면적을 생성할 수 있다. 그러면, 영상처리부(220)는 제 2 가상면적에서 새싹류가 차지하는 비율 등을 산출할 수도 있다. 이하에서는 설명의 편의를 위해 제 1 가상면적을 기준으로 산출하는 것으로 설명한다.As described above, if the virtual area is the first virtual area by the first
파종시기 판단부(230)는 상기 제 1 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 (예를 들어, 70%) 이상이면서 상기 화상촬영면(310)에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선(370) 보다 높게 위치한 비율이 소정의 제 2 임계율 (예를 들어, 30%) 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하게 된다. 이와 같이, 소정의 제 1 임계율에 의해 파종시기의 시작 시점이 결정될 수 있고, 소정의 제 2 임계율에 의해 파종시기의 최종 시점이 결정될 수 있다. 사용자는 새싹류 작물에 대해 요구되는 상품성의 정도에 따라 상기 소정의 제 1 임계율 및 상기 소정의 제 2 임계율 등을 정할 수 있다. The sowing
이와 같이, 본 발명에 따른 파종시기 판단부(230)가 화상판독을 통해 파종시기를 결정함으로써 단위 면적에 대해 파종시기의 목표 작물의 수를 일정하게 유지하며 취득하여 품질의 균일성을 확보할 수 있다. In this way, the seeding
제어부(210)는 파종시기 판단부(230)가 파종시기라고 결정한 경우에 통신부(240)가 사용자의 단말 혹은 네크워크로 파종시기임을 알리는 메시지를 보내어 사용자가 파종시기를 알 수 있도록 제어할 수 있다. 통신부(240)는 파종판단부(230)의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송할 수 있다.When the sowing
여기서, 일예로서 하나의 화상촬영부가 보내온 영상으로부터 화상판독을 통해 파종시기를 결정하는 것을 기술하였으나, 스마트팜 모듈(100)에는 작물의 생육을 촬영할 수 있는 화상 촬영부가 컨테이너에서 좌, 우, 앞, 뒤 등 여러 위치에 위치하여 각각 새싹류 작물의 생육을 촬영할 수 있다. 통신부(240)는 다양한 위치에 있는 화상촬영부로부터 새싹류에 대한 영상을 수신하고, 영상처리부(220)는 다양한 화상촬영부(140)로부터 수신한 영상에 대해 각각 상술한 바와 같이 처리할 수 있다. 파종시기 판단부(230)는 영상처리부(220)가 각 화상촬영부(140)로부터 수신한 영상에 대해 생성한 정보들에 대해 평균을 내거나 특정한 영상에 대해 가중치를 두는 방식 등으로 파종시기를 결정할 수도 있다.Here, as an example, it has been described that the seeding time is determined through image reading from an image sent by one image capturing unit, but in the
도 4는 본 발명의 일 실시예에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 방법을 설명하기 위한 흐름도이다.4 is a flowchart for explaining a method for the
도 4를 참조하면, 스마트팜 모듈(100)에서 화상 촬영부(예를 들어, IP 카메라)는 소정의 주기로 혹은 이벤트-트리거링 방식 등으로 스마트팜에서 자라는 새싹류 작물들을 촬영한다(S410). 그 후, 화상촬영부는 촬영된 영상을 새싹류 작물의 파종시기를 결정하는 장치(200)로 전송한다(S420). 통신부(240)는 IoT 등의 방식을 통해 스마트팜 모듈(100)에서의 화상 촬영부로부터 새싹류 작물들을 촬영한 영상을 수신하고, 영상처리부(220)로 전달할 수 있다.Referring to FIG. 4 , the image capturing unit (eg, IP camera) in the
도 4에서도 도 3과 마찬가지로 화상촬영면에서의 ㄱ점 (320), ㄴ점(330), ㄷ점(340), ㄹ점(350)의 가상의 기준점 등이 동일하게 적용될 수 있다. ㄱ점 (320)은 화상촬영면에서의 파종시작의 바닥 높이점으로 정의할 수 있고, ㄴ점(330)은 화상촬영면에서 파종판단 임계 높이점으로 정의할 수 있다. 그리고, ㄷ점(340)은 화상촬영면에서 파종판단 최종 높이점으로 정의할 수 있으며, ㄹ점(350)은 화상촬영면에서 파종판단의 끝 높이점으로 (미리) 정의할 수 있다. 여기서, 파종시작의 바닥 높이점(320)이라는 것은 적층된 컨테이너에서 한층에서 새싹류가 자랄 때 새싹류가 위치하는 바닥 높이점으로 정의할 수 있다. In FIG. 4 as well as in FIG. 3 , virtual reference points of the
파종판단 임계 높이점(330)은 파종시기라고 판단할 수 있는 새싹류 작물의 최저 높이점이라고 정의할 수 있고, 파종판단 최종 높이점이라는 것은 새싹류가 더 이상 웃자라서 상품성이 떨어지므로 파종시기라고 판단할 수 있는 새싹류 작물의 최고 높이점으로 정의할 수 있다. 또한, 파종판단 임계 높이점(330)은 상기 사용자에 의해 설정된 파종을 원하는 새싹류 작물의 높이 구간에서 최저점으로 정의될 수 있고, 파종판단 최종 높이점(340)은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점으로 정의될 수 있다.The sowing judgment
이러한 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)은 사용자에 의해 설정될 수 있고, 입력부(250)는 사용자로부터 입력받을 수 있다. 입력부(250)는 디스플레이부 등을 다양한 타입으로 구성될 수 있다. 또는, 통신부(240)가 사용자에 의해 설정된 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)에 대한 정보를 수신하여 영상처리부(220)로 전달해 줄 수도 있다.The seeding determination
영상처리부(240)는 통신부(240)로부터 수신한 영상으로부터 새싹류 작물의 단위면적에 해당하는 화상촬영면(310)을 생성할 수 있다(S430). 그리고, 영상처리부(220)는 새싹류 작물의 단위면적에 대응하는 화상촬영면(310)에서 파종시기 판단과 관련된 기준점 (혹은 기준 높이점) 및/또는 기준선들을 가상으로 생성할 수 있다(S440). 즉, 영상처리부(220)는 도 3에 도시된 화상촬영면(310)에서 파종판단 임계 높이점(330)에서 같은 높이로 일직선으로 연장되는 제 1 가상선(360)을 생성하고, 상기 화상촬영면(310)에서 파종판단 최종 높이점(340)에서 같은 높이로 일직선으로 연장되는 제 2 가상선(370)을 생성할 수 있다(S450). The
화상촬영면(310)에 상기 제 1 및 제 2 가상선(360, 370)이 그어지면 면적이 만들어지는데 이를 제 1 가상면적이라고 호칭할 수 있다. 상기 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)을 의해 제 1 가상면적이 만들어진다. 이와 같이, 영상처리부(220)는 상기 화상촬영면에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)을 이용하여 제 1 가상면적을 생성할 수 있다(S460). When the first and second
영상처리부(220)는 사물인식 기반 영상처리가 가능하여 화상촬영면(310)에서 색상 기반 인식 방법 등으로 도 3에 도시된 녹색의 새싹류 작물을 인식할 수 있다. 따라서, 영상처리부(220)는 화상촬영면(310)의 제 1 가상면적에서 새싹류 작물을 인식할 수 있고 제 1 가상면적에서 새싹류 작물이 차지하는 비율을 산출할 수도 있다(S470). 영상처리부(220)는 딥러닝 알고리즘 등의 인공신경망 학습 모듈을 통해 사물 인식이 가능하고, 색상 기반으로 사물인식이 가능하다. 영상처리부(200)는 상기 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율을 산출할 수 있다(S470). The
그리고, 영상처리부(200)는 상기 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 상기 제 2 가상선(340)을 초과하는 비율을 산출할 수 있다. 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 비율 중 많은 부분이 제 2 가상선(340)도 초과해 버린다면 이는 새싹류 작물이 너무 웃자라게 되서 상품성을 약화를 초래한다. 따라서, 상기 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선(340)을 넘게 되면 안되는 비율에 대한 기준이 필요하게 되고 이를 소정의 제 2 임계율이라고 정의할 수 있다. 상술한 바와 같이, 만약, 소정의 제 2 임계율이 제 2 가상면적을 기준으로 정의된다면, 영상처리부(220)는 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선을 추가적으로 생성할 수 있고, 별도로 제 2 가상면적을 생성하며, 제 2 가상면적에서 새싹류가 차지하는 비율 등을 산출할 수도 있다(S470).In addition, the
파종시기 판단부(230)는 상기 제 1 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 (예를 들어, 70%) 이상이면서 상기 화상촬영면(310)에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 (예를 들어, 30%) 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정할 수 있다(S480). 본 발명에 따른 파종시기 판단부(230)가 화상판독을 통해 파종시기를 결정함으로써 단위 면적에 대해 파종시기의 목표 작물의 수를 일정하게 유지하며 취득하여 품질의 균일성을 확보할 수 있다. The sowing
제어부(210)는 파종시기 판단부(230)가 파종시기라고 결정한 경우에 통신부(240)가 사용자의 단말 혹은 네크워크로 파종시기임을 알리는 메시지를 보내어 사용자가 파종시기를 알 수 있도록 제어할 수 있다. 통신부(240)는 파종판단부(230)의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송할 수 있다(S490). When the sowing
이상에서는, 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상촬영부(140)와 같이 별도의 외부 디바이스로부터 새싹류 작물에 대해 촬영한 영상을 수신하여 파종시기를 판단하는 것으로 설명하였으나, 새싹류 작물의 파종시기를 결정하는 장치(200)에 화상촬영부(140)(즉, 카메라)등이 내장되어 있는 경우에는 새싹류 작물의 파종시기를 결정하는 장치(200)에 새싹류 작물의 촬영, 파종시기 판단 등의 일련의 과정들을 모두 수행할 수도 있다. 또한, 이러한 새싹류 작물의 파종시기를 결정하는 장치(200)는 스마트팜 모듈의 연결되어 있는 네트워크의 서버에서 구현될 수도 있다.In the above, it has been described that the
이상에서 설명한 바와 같이, 본 발명에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)에 따른 파종시기 판단하는 방법에 의하면, 새싹류 작물의 생육환경이나 씨앗의 품질과 관련없이 파종하여야할 시간을 판단할 수 있게 된다. 또한, 목표 파종시기 작물의 수를 일정하게 취득하게 됨으로써 품질도 꾸준하게 유지할 수 있게 되는 장점도 있다 As described above, according to the method for determining the seeding time according to the
파종시기 판단부(230)가 화상판독을 통해 파종시기를 결정함으로써 단위 면적에 대해 파종시기의 목표 작물의 수를 일정하게 유지하며 취득하여 품질의 균일성을 확보할 수 있다.Since the sowing
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which elements and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to configure embodiments of the present invention by combining some elements and/or features. The order of operations described in the embodiments of the present invention may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment. It is apparent that claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다. 소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors. Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the limited drawings, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
Claims (9)
상기 새싹류 작물에 대해 촬영된 영상을 수신하는 통신부;
상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하고,
상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 영상처리부;
상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 파종시기 판단부를 포함하되,
상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하며,
상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.In the device for determining the sowing time of sprouts crops using image reading,
a communication unit for receiving an image photographed for the sprouts;
A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface Create a second virtual line extending in a straight line to the same height from the final height of the sowing judgment,
an image processing unit for calculating a ratio of the color of the sprout crop to the total color of the virtual area in the virtual area created by the first virtual line and the second virtual line on the image taking surface;
The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line Including a sowing time determination unit that determines that it is time to sow the sprouted crops when the predetermined second threshold rate is less than or equal to the predetermined second threshold rate,
The communication unit transmits a message to the user's terminal or network to inform that it is the sowing time according to the decision of the sowing determination unit,
The seeding judgment critical height point is the lowest point in the height section of the sprout crop desired to be planted set by the user, and the seeding judgment final height point is the highest point in the height section of the sprout crop desired by the user to sow. Image, A device for determining the sowing timing of sprouts crops using readout.
상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며,
상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.The method of claim 1,
The first imaginary line and the second imaginary line are parallel to each other,
The seeding judgment critical height point and the seeding judgment final height point are set by the user according to the type of the sprouting crop, the apparatus for determining the seeding time of sprouts crops using image reading.
상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 외부로부터 입력받는 입력부를 더 포함하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.3. The method of claim 2,
The apparatus for determining seeding timing of sprouts crops using image reading, further comprising an input unit for receiving information on the seeding judgment critical height point and the seeding judgment final height set by the user from the outside.
상기 통신부는 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.3. The method of claim 2,
The communication unit receives information on the seeding judgment critical height point and the seeding judgment final height point set by the user, the device for determining the seeding time of sprouts crops using image reading.
상기 영상처리부는 상기 수신된 영상으로부터 상기 새싹류 작물을 감지하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.The method of claim 1,
The image processing unit for detecting the sprouted crop from the received image, a device for determining a seeding time of a sprouted crop using image reading.
상기 새싹류 작물에 대해 촬영된 영상을 수신하는 단계;
상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하는 단계;
상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 단계;
상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 단계; 및
상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하는 단계를 포함하되,
상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.In the method for the device to determine the seeding time of sprouts using image reading,
Receiving an image photographed for the sprout crop;
A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface generating a second virtual line extending in a straight line to the same height from the final height point of the seeding judgment;
calculating a ratio of the color of the sprout crop to the total color of the virtual area in the virtual area created by the first and second virtual lines on the image taking surface;
The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line determining that it is time to sow the sprouts when it is less than or equal to the second predetermined threshold rate; and
The communication unit comprising the step of transmitting a message informing that it is a sowing time according to the decision of the sowing determination unit to the user's terminal or to the network,
The seeding judgment critical height point is the lowest point in the height section of the sprout crop desired to be planted set by the user, and the seeding judgment final height point is the highest point in the height section of the sprout crop desired by the user to sow. Image, A method of determining the sowing timing of sprouted crops using readouts.
상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며,
상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.7. The method of claim 6,
The first imaginary line and the second imaginary line are parallel to each other,
The method of determining the seeding timing of sprouts crops using image reading, wherein the seeding judgment critical height point and the seeding judgment final height point are set by the user according to the type of sprout crops.
상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 입력받는 단계를 더 포함하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.8. The method of claim 7,
Further comprising the step of receiving information on the seeding judgment critical height point and the seeding judgment final height point set by the user, the method of determining the seeding time of sprouts crops using image reading.
상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신하는 단계를 더 포함하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.
7. The method of claim 6,
The method of determining a seeding timing of sprouts crops using image reading further comprising the step of receiving information on the seeding judgment critical height point and the seeding judgment final height point set by the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200091234A KR102446453B1 (en) | 2020-07-22 | 2020-07-22 | Apparatus and method for determining sowing time of sprout crops using image reading |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200091234A KR102446453B1 (en) | 2020-07-22 | 2020-07-22 | Apparatus and method for determining sowing time of sprout crops using image reading |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220012108A true KR20220012108A (en) | 2022-02-03 |
KR102446453B1 KR102446453B1 (en) | 2022-09-22 |
Family
ID=80268805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200091234A KR102446453B1 (en) | 2020-07-22 | 2020-07-22 | Apparatus and method for determining sowing time of sprout crops using image reading |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102446453B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198688A (en) * | 2011-03-18 | 2012-10-18 | Fujitsu Ltd | Crop image processing program, crop image processing method and crop image processing system |
JP2013005725A (en) * | 2011-06-22 | 2013-01-10 | Nikon Corp | Growth degree detection device, plant cultivation system, plant cultivation plant, growth degree detection method, and program |
KR20200043801A (en) * | 2018-10-18 | 2020-04-28 | 농업회사법인 만나씨이에이 주식회사 | Artificial Intelligence Plant Management System |
-
2020
- 2020-07-22 KR KR1020200091234A patent/KR102446453B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198688A (en) * | 2011-03-18 | 2012-10-18 | Fujitsu Ltd | Crop image processing program, crop image processing method and crop image processing system |
JP2013005725A (en) * | 2011-06-22 | 2013-01-10 | Nikon Corp | Growth degree detection device, plant cultivation system, plant cultivation plant, growth degree detection method, and program |
KR20200043801A (en) * | 2018-10-18 | 2020-04-28 | 농업회사법인 만나씨이에이 주식회사 | Artificial Intelligence Plant Management System |
Also Published As
Publication number | Publication date |
---|---|
KR102446453B1 (en) | 2022-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200196535A1 (en) | System and method for controlling a growth environment of a crop | |
US10383275B2 (en) | Systems and method for monitoring, controlling, and displaying field operations | |
US10803311B2 (en) | Automatic camera parameter adjustment on a plant treatment system | |
Sonnentag et al. | Digital repeat photography for phenological research in forest ecosystems | |
Andritoiu et al. | Agriculture autonomous monitoring and decisional mechatronic system | |
CN109328828A (en) | A kind of preventing disease and pest system of citrus orchard | |
CN105513096A (en) | Method for estimating biomass of winter wheat | |
CN107977631A (en) | The generation method and device of plant protection map | |
JP2017046639A (en) | Crop raising support device and program thereof | |
CN115294518B (en) | Intelligent monitoring method and system for precise greenhouse cultivation of horticultural plants | |
Shankar et al. | Application of UAV for pest, weeds and disease detection using open computer vision | |
KR102446453B1 (en) | Apparatus and method for determining sowing time of sprout crops using image reading | |
CN109187356A (en) | Soybean growing way prediction technique based on satellite remote sensing date | |
KR20210158094A (en) | Smart farm system and operating method thereof | |
Thrash et al. | A low‐cost high‐throughput phenotyping system for automatically quantifying foliar area and greenness | |
CN112036248A (en) | Intelligent fishpond management system based on scene recognition | |
EP4239593A1 (en) | Compensating for occlusions in a detection system of a farming machine | |
CN111160250A (en) | Blueberry growing period detection method and device based on artificial neural network | |
CN115379150A (en) | System and method for automatically generating dynamic video of rice growth process in remote way | |
CN104914819A (en) | Crop management system based on mobile Internet | |
KR101445321B1 (en) | Remote plants managing system using space information and method thereof | |
JP2004147539A (en) | Method for evaluating growth condition of fruit tree | |
KR20220125642A (en) | Temperature control system for plant based on learning using data | |
WO2021062235A1 (en) | Plant identification in the presence of airborne particulates | |
CN116465457A (en) | Plant growth monitoring system based on image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |