KR20220012108A - Apparatus and method for determining sowing time of sprout crops using image reading - Google Patents

Apparatus and method for determining sowing time of sprout crops using image reading Download PDF

Info

Publication number
KR20220012108A
KR20220012108A KR1020200091234A KR20200091234A KR20220012108A KR 20220012108 A KR20220012108 A KR 20220012108A KR 1020200091234 A KR1020200091234 A KR 1020200091234A KR 20200091234 A KR20200091234 A KR 20200091234A KR 20220012108 A KR20220012108 A KR 20220012108A
Authority
KR
South Korea
Prior art keywords
seeding
image
sowing
sprout
crops
Prior art date
Application number
KR1020200091234A
Other languages
Korean (ko)
Other versions
KR102446453B1 (en
Inventor
유정곤
Original Assignee
주식회사 굴리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 굴리 filed Critical 주식회사 굴리
Priority to KR1020200091234A priority Critical patent/KR102446453B1/en
Publication of KR20220012108A publication Critical patent/KR20220012108A/en
Application granted granted Critical
Publication of KR102446453B1 publication Critical patent/KR102446453B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C11/00Transplanting machines
    • A01C11/02Transplanting machines for seedlings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Agronomy & Crop Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Animal Husbandry (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cultivation Of Plants (AREA)

Abstract

The present invention relates to an apparatus for determining a sowing time of sprout crops by using image reading. The apparatus includes: a communication part receiving a photographed image of the sprout crops; an image processing part generating an image photographing surface corresponding to a unit area of the sprout crops from the received image, thereby generating a first virtual line extended straight to the same height from a sowing determination threshold height point on the image photographing surface and a second virtual line extended straight to the same height from a final sowing determination height point on the image photographing surface, and calculating the ratio of the color of the sprout crops possessing the entire color of a virtual area made by the first and second virtual lines on the image photographing surface; and a sowing time determination part determining the sprout crops as proper to be sown when the ratio of the color of the sprout crops possessing the entire color of the virtual area is no less than a predetermined first threshold ratio while a ratio located above the second virtual line from the ratio of the color of the sprout crops possessing the entire color of the virtual area is no more than a predetermined second threshold ratio. The communication part transmits a message informing the sowing time in accordance with the determination of the sowing determination part to a terminal of a user or a network, and the sowing determination threshold height point can be the lowermost point in a height section of the sprout crops to be sown, set by the user, and the final sowing determination height point can be the uppermost point in the height section of the sprout crops to be sown by the user.

Description

화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치 및 방법{APPARATUS AND METHOD FOR DETERMINING SOWING TIME OF SPROUT CROPS USING IMAGE READING}Apparatus and method for determining the seeding time of sprout crops using image reading

본 발명은 새싹류 작물의 파종시기를 결정하는 것에 관한 것으로, 보다 상세하게는 화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치 및 방법에 관한 것이다. The present invention relates to determining the seeding time of a sprout crop, and more particularly, to an apparatus and method for determining the seeding time of a sprout crop using image reading.

스마트팜(Smart Farm)은 사물인터넷(IoT) 기술을 활용하여 노동집약적 생산방식의 개선이나 작물의 생산성을 올리는 미래농업방식으로 글로벌 트랜드를 형성하며 꾸준한 성장이 진행중이다. 현재 스마트팜은 도입 이후 수년의 시간이 경과하여 해당 기업이 폐업하게 되는 경우 A/S 및 관리, 유지가 불가능할 수준으로 어려움을 겪고 있다. 스마트팜의 도입이 고비용이라는 인식이 보편화 되어 농업에 데이터 활용이 잘 일어나고 있지 않은 실정이다.Smart farms are steadily growing by forming a global trend as a future agricultural method that uses Internet of Things (IoT) technology to improve labor-intensive production methods or increase crop productivity. Currently, smart farms are experiencing difficulties to the extent that A/S, management, and maintenance are impossible if the company goes out of business after several years have elapsed since its introduction. As the perception that the introduction of smart farms is expensive, data utilization in agriculture is not taking place well.

사물인터넷(IoT) 기술의 보편화로 쉽고 저렴하게 농업환경에 적용하여 생산성과 편의성을 증진시킬 수 있는 시대지만, 기존 스마트팜으로 생긴 부정적 인식으로 초기 농업 입문자나 고령의 영세 농업인은 접근을 시도하고 있지 않고 있다. 따라서 스마트팜의 경우 저렴하게 도입하여 유용하게 활용할 수 있는 기술이 쓰이지 않는 문제점을 개선할 필요가 있다. 새싹류 작물의 파종의 경우에는 농업 입문인들은 발아한 후 일정시기가 지나면 파종하는 방법만을 사용하여 파종된 새싹류 작물의 상품성이 떨어지는 문제가 생기는 등 스마트팜에서도 새싹류 작물을 파종하는데 많은 어려움이 있는 실정이다.It is an era where productivity and convenience can be improved by applying the Internet of Things (IoT) technology to the agricultural environment easily and inexpensively due to the generalization of the technology. is not Therefore, in the case of smart farms, it is necessary to improve the problem that the technology that can be used inexpensively and usefully is not used. In the case of sowing of sprout crops, there are many difficulties in sowing sprout crops even in smart farms, such as a problem in that the commerciality of sprout crops sown using only the sowing method after a certain period of time has passed after germination occurs. there is a situation.

새싹류 작물은 파종 시점에 따라 취득 목표로 하는 영양분 함량이 변한다. 따라서 새싹류 작물의 파종은 그 시기가 상품성에 영향을 미치게 된다. 종래에는 새싹류를 발아하고 일정시간이 경과하면 수확을 하는 파종 방법이 사용되었다. 이러한 종래의 파종 방법은 파종하는 대상의 일정 관리적 측면에서는 유리한 방법이지만, 최적화된 상품성을 갖는 파종 방법은 아니어서 스마트팜을 운영하는 농업인들의 수익 향상에 크게 도움이 되지 않고 있는 실정이다. For sprout crops, the target nutrient content varies depending on the time of sowing. Therefore, the sowing time of sprout crops will affect the marketability. Conventionally, a sowing method in which sprouts are germinated and harvested after a certain period of time has elapsed was used. Although this conventional sowing method is an advantageous method in terms of managing the schedule of sowing targets, it is not a sowing method with optimized marketability, so it is not greatly helpful in improving the profits of farmers operating smart farms.

이러한 문제점들을 해결하기 위해, 국내 기업의 선적 컨테이너를 재활용하여 스마트팜으로서 비용을 줄이면서 새싹류 작물의 최적 파종시기를 결정해 줌으로써 농업인들에게 최적의 상품성을 갖는 새싹류 작물을 파종할 수 있게 하는 방법들을 제안하고자 한다.In order to solve these problems, it is a smart farm by recycling shipping containers of domestic companies to reduce costs as a smart farm and to determine the optimal sowing time for sprout crops so that farmers can sow sprout crops with optimal marketability. We would like to suggest methods.

본 발명에서 이루고자 하는 기술적 과제는 화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치를 제공하는 데 있다.The technical problem to be achieved in the present invention is to provide an apparatus for determining the sowing time of sprouts crops using image reading.

본 발명에서 이루고자 하는 다른 기술적 과제는 장치가 화상판독을 이용한 새싹류 작물의 파종시기를 결정하는 방법을 제공하는 데 있다.Another technical problem to be achieved in the present invention is to provide a method in which an apparatus determines the sowing time of sprouts crops using image reading.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

상기의 기술적 과제를 달성하기 위한, 화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치는, 상기 새싹류 작물에 대해 촬영된 영상을 수신하는 통신부; 상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하고, 상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 영상처리부; 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 파종시기 판단부를 포함하되, 상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하며, 상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점일 수 있다.In order to achieve the above technical problem, an apparatus for determining a seeding time of a sprout crop using image reading includes a communication unit configured to receive an image photographed for the sprout crop; A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface A second imaginary line extending in a straight line to the same height from the final height of sowing judgment is generated, and the entire color of the imaginary area in the imaginary area created by the first imaginary line and the second imaginary line on the imaging plane. an image processing unit for calculating the ratio of the color of the sprouts in the ; The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line and a sowing time determination unit that determines that it is time to sow the sprouts crop when the predetermined second threshold rate or less is lower than the second threshold rate, wherein the communication unit transmits a message indicating that it is the sowing time according to the determination of the sowing determination unit to the user's terminal or network to, the seeding judgment critical height point is the lowest point in the height section of the sprout crop desired for sowing set by the user, and the seeding judgment final height point is in the height section of the sprout crop desired by the user to sow could be the peak.

상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며, 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것일 수 있다. 상기 장치는 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 외부로부터 입력받는 입력부를 더 포함할 수 있다. 상기 통신부는 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신할 수 있다. 상기 영상처리부는 상기 수신된 영상으로부터 상기 새싹류 작물을 감지할 수 있다.The first imaginary line and the second imaginary line may be parallel to each other, and the seeding judgment critical height point and the seeding judgment final height point may be set by the user according to the type of the sprouted crop. The apparatus may further include an input unit for receiving information about the seeding determination critical height point and the seeding determination final height point set by the user from the outside. The communication unit may receive information on the seeding determination critical height point and the seeding determination final height point set by the user. The image processing unit may detect the sprout crop from the received image.

상기의 다른 기술적 과제를 달성하기 위한, 장치가 화상판독을 이용한 새싹류 작물의 파종시기를 결정하는 방법은, 상기 새싹류 작물에 대해 촬영된 영상을 수신하는 단계; 상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하는 단계; 상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 단계; 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 단계; 및 상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하는 단계를 포함하되, 상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점일 수 있다.In order to achieve the above other technical problem, a method for determining a seeding time of a sprout crop using an image reading apparatus includes: receiving an image photographed for the sprout crop; A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface generating a second virtual line extending in a straight line to the same height from the final height point of the seeding judgment; calculating a ratio of the color of the sprout crop to the total color of the virtual area in the virtual area created by the first and second virtual lines on the image taking surface; The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line determining that it is time to sow the sprouts when it is less than or equal to the second predetermined threshold rate; And the communication unit comprises the step of transmitting a message indicating that it is a sowing time according to the determination of the sowing determination unit to a user terminal or to a network, wherein the seeding determination threshold height point is the seedling crop desired for sowing set by the user is the lowest point in the height section of and the final height point for sowing judgment may be the highest point in the height section of the sprouted crop desired by the user to sow.

상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며,The first imaginary line and the second imaginary line are parallel to each other,

상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것일 수 있다. 상기 방법은 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 입력받는 단계를 더 포함할 수 있다. 상기 방법은 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신하는 단계를 더 포함할 수 있다.The seeding judgment critical height point and the seeding judgment final height point may be those set by the user according to the type of the sprouted crop. The method may further include receiving information on the seeding determination critical height point and the seeding determination final height point set by the user. The method may further include receiving information about the seeding determination threshold height point and the seeding determination final height point set by the user.

본 발명의 일 실시예에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)의 파종시기 판단하는 방법에 의하면, 새싹류 작물의 생육환경이나 씨앗의 품질과 관련없이 파종하여야 할 시간을 판단할 수 있게 된다. According to the method of determining the sowing time of the apparatus 200 for determining the sowing time of sprouts according to an embodiment of the present invention, the time to be sown can be determined regardless of the growth environment of sprouts or the quality of seeds. be able to

또한, 본 발명의 일 실시예에 따라 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상판독을 통해 목표 파종시기를 판단함으로써 목표 파종시기 작물의 수를 일정하게 취득할 수 있게 되고 품질도 꾸준하게 유지할 수 있다In addition, according to an embodiment of the present invention, the apparatus 200 for determining the sowing time of sprouts crops determines the target sowing time through image reading, so that it is possible to obtain a constant number of crops at the target sowing time, and the quality is also can be kept constant

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 본 발명에 따른 IoT로 구성된 스마트팜 모듈(혹은 시스템)(100)을 설명하기 위한 예시적인 도면이다.
도 2는 본 발명의 일 실시예에 따른 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 장치(200)를 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 파종시기를 결정하기 위해 사용되는 화상판독 방식을 설명하기 위한 예시적 도면이다.
도 4는 본 발명의 일 실시예에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 방법을 설명하기 위한 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to help the understanding of the present invention, provide embodiments of the present invention, and together with the detailed description, explain the technical spirit of the present invention.
1 is an exemplary diagram for explaining a smart farm module (or system) 100 configured of IoT according to the present invention.
2 is a block diagram for explaining the apparatus 200 for determining the sowing time of sprouts crops through image reading according to an embodiment of the present invention.
3 is an exemplary view for explaining an image reading method used by the apparatus 200 for determining the sowing time of a sprout crop according to the present invention to determine the sowing time.
4 is a flowchart for explaining a method for the apparatus 200 for determining the sowing time of sprouts crops according to an embodiment of the present invention to determine the sowing times of sprouts crops through image reading.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these specific details.

몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some cases, well-known structures and devices may be omitted or shown in block diagram form focusing on core functions of each structure and device in order to avoid obscuring the concept of the present invention. In addition, the same reference numerals are used to describe the same components throughout the present specification.

본 발명에서는 농업 입문인도 쉽게 사물인터넷(Internet of Thing, IoT) 기술을 활용하여 데이터 기반의 농업을 할 수 있게 하는 스마트팜 방식을 제공하고자 한다. 사물인터넷(IoT) 기술로 구성된 스마트팜 모듈 개발의 니즈가 있었다. 예를 들어 수직 적층이 가능한 40FT 선적 컨테이너(예를 들어, 국내 선박 컨테이너)를 (재)활용할 수 있다. 이러한 선적 컨테이너 기반 스마트팜에는 전반적으로 생육환경을 리모트 컨트롤 하는 시스템 구성이 필요하다. 이러한 스마트팜 시스템에는 생육환경 측정 데이터화 하는 IoT센서가 탑재될 수 있고, 농산물의 생육을 원거리에 확인 가능한 IP 카메라가 탑재될 수 있다.In the present invention, it is an object of the present invention to provide a smart farm method that enables even beginners to easily perform data-based agriculture using Internet of Thing (IoT) technology. There was a need to develop a smart farm module composed of Internet of Things (IoT) technology. For example, a 40FT shipping container that can be stacked vertically (eg, a domestic ship container) can be (re)used. Such a shipping container-based smart farm requires a system configuration that remotely controls the overall growth environment. This smart farm system can be equipped with an IoT sensor that converts growth environment measurement data, and an IP camera that can check the growth of agricultural products from a distance.

또한, 본 발명에 따른 IoT 기반의 스마트팜 모듈은 새싹류 작물(혹은 새싹작물 등으로도 호칭됨)을 생육하는 환경을 제공한다. 여기서, 새싹류 작물은 작물 종자를 싹 틔워 어린잎, 줄기, 뿌리의 완전한 식물적 특징을 갖춘 작물을 말한다. 예전부터 다양한 새싹작물을 몸에 좋은 약초로 활용하여 각종 질병을 예방하고 건강을 개선하였다. 서양에서는 새싹작물을 이용한 역사는 짧지만 건강기능성 물질과 효능에 주목하면서 다양한 건강식품으로 개발하였다. 우리나라에서도 최근 웰빙 영향으로 새싹채소 소비는 증가하고 있으며, 채소라기보다는 건강기능성 식품으로 여기는 분위기이다. 새싹채소는 신선편의 식품시장에서 주로 소비되며 국내 시장규모는 2015년 956억 원으로 2008년 이후 꾸준히 증가하고 있다.In addition, the IoT-based smart farm module according to the present invention provides an environment for growing sprout crops (or also called sprout crops). Here, sprout crops refer to crops having complete botanical characteristics of young leaves, stems, and roots by sprouting crop seeds. Since ancient times, various sprout crops have been used as medicinal herbs to prevent various diseases and improve health. Although the history of using sprout crops is short in the West, it has been developed as a variety of health foods, paying attention to health functional substances and efficacy. In Korea, the consumption of sprouted vegetables is also increasing due to the influence of well-being in recent years, and it is considered as a health functional food rather than a vegetable. Sprout vegetables are mainly consumed in the fresh convenience food market, and the size of the domestic market was KRW 95.6 billion in 2015 and has been steadily increasing since 2008.

도 1은 본 발명에 따른 IoT로 구성된 스마트팜 모듈(혹은 시스템)(100)을 설명하기 위한 예시적인 도면이다.1 is an exemplary diagram for explaining a smart farm module (or system) 100 configured of IoT according to the present invention.

도 1을 참조하면, 스마트팜 모듈은 선적 컨테이너(110), 새싹류 작물의 생육에 영향을 미치는 온도, 습도, 이산화탄소 농도 등을 센싱하여 외부로 정보를 전송가능한 IoT 센서부들(120, 130), IP 카메라(140)를 포함할 수 있다. 새싹류 작물은 생육환경 중 온도, 습도, 수분, 광량, 이산화탄소량의 영향으로 성장 속도의 차이가 발생하고, 씨앗의 상태도 성장시간에 영향을 주고 있다. 이와 같이, 새싹류 작물의 생육에 영향을 미치는 생육환경요소로서 온도/습도 등이 있다. IoT온도/습도 센서(120)는 스마트팜 모듈 내부의 온도와 습도를 측정하여 측정된 데이터들에 대해 스마트팜 모듈을 관리하는 시스템으로 전송해 주거나 사용자의 단말기로 전송해 줄 수 있다. 마찬가지로 IoT이산화탄소 농도 센서 (130)는 스마트팜 모듈 내부의 이산화탄소의 농도를 측정하여 스마트팜 모듈을 관리하는 시스템으로 전송해 주거나 사용자의 단말기로 전송해 줄 수 있다. Referring to Figure 1, the smart farm module is a shipping container 110, the IoT sensor units (120, 130) capable of transmitting information to the outside by sensing temperature, humidity, carbon dioxide concentration, etc. affecting the growth of sprout crops; It may include an IP camera 140 . Sprout crops have different growth rates due to the influence of temperature, humidity, moisture, light and carbon dioxide in the growing environment, and the condition of seeds also affects the growth time. As such, there are temperature/humidity and the like as growth environmental factors that affect the growth of sprout crops. The IoT temperature/humidity sensor 120 may measure the temperature and humidity inside the smart farm module and transmit the measured data to the system managing the smart farm module or to the user's terminal. Similarly, the IoT carbon dioxide concentration sensor 130 may measure the concentration of carbon dioxide inside the smart farm module and transmit it to the system managing the smart farm module or transmit it to the user's terminal.

또한, 스마트팜 모듈은IoT 습도조절기(140) 및 IoT 온도조절기(150)를 더 포함할 수 있다. IoT 습도조절기(140)는 새싹류 작물의 생육환경에 적합하게 되도록 하는 습도 조절에 대한 신호를 외부로부터 수신하여 스마트팜 모듈 내의 습도를 조절하는 기능을 수행한다. IoT 온도조절기(150)는 새싹류 작물의 생육환경에 적합하게 되도록 하는 온도 조절에 대한 신호를 외부로부터 수신하여 스마트팜 모듈 내부의 온도를 조절하는 기능을 수행한다. In addition, the smart farm module may further include an IoT humidity controller 140 and an IoT thermostat 150 . The IoT humidity controller 140 performs a function of adjusting the humidity in the smart farm module by receiving a signal for humidity control that makes it suitable for the growth environment of sprouts crops from the outside. The IoT thermostat 150 performs a function of adjusting the temperature inside the smart farm module by receiving a signal for temperature control that makes it suitable for the growth environment of sprouts crops from the outside.

이하에서는 본 발명에서 언급되는 IP 카메라(140)에 대한 사항에 대해 간략히 설명한다. 인터넷 프로토콜 카메라(Internet Protocol camera, IP 카메라는 일반적으로 감시를 위해 배치되는 디지털 비디오 카메라의 일종으로 아날로그 방식의 폐쇄회로 텔레비전(CCTV) 카메라들과 달리 컴퓨터 네트워크와 인터넷을 통해 데이터를 송수신할 수 있다. 이러한 일을 하는 대부분의 카메라들이 웹캠이지만 IP 카메라 또는 넷캠(netcam)은 일반적으로 네트워크 연결을 통해 직접 접근이 가능한 감시용 목적에만 해당된다. 일부 IP 카메라들은 녹화, 비디오 및 알람 관리를 처리하기 위해 중앙식 네트워크 비디오 레코더(NVR)의 지원이 필요하다. 그 밖의 카메라들은 NVR이 없어도 탈중앙화 방식으로 운용할 수 있는데, 카메라는 로컬 또는 원격의 스토리지 미디어에 직접 녹화가 가능하다. IP 카메라(140)는 기존의 CCTV 시스템은 아날로그 CCTV카메라와 디지털 영상저장 장치(DVR)로 구성되며, CCTV카메라에서 촬영된 아날로그 영상을 동축케이블로 연결하여 DVR 시스템까지 전송할 수 있다. 전송된 아날로그 영상은 디지털 신호로 바뀌어 압축되어 저장되거나, 복원되어 재생되고 감시모니터를 통하여 디스플레이 될 수 있다. 이와 같은 전통적인 방식의 영상보안 시스템에서는 영상을 모니터링 하기 위해서 CCTV 카메라와 함께 DVR과 같은 별도의 독립된 장비가 필요하였다. 그러나, 네트워크 기술의 발전 및 영상처리 칩의 발전은 상기와 같은 기존 영상 구현 방식에 큰 변화를 가져왔다. 즉, 네트워크기술의 발전에 따라 동축케이블을 사용하여 아날로그 영상신호를 전송하는 기존의 CCTV 카메라 대신, 영상신호를 디지털 신호로 압축하여 일반 네트워크(LAN)을 통해 원거리 전송하는 기능을 탑재한 IP카메라를 탄생시켰으며, DVR과 같은 별도의 장비가 없어도 일반 PC나 노트북에서 모니터링이 가능하게 되었다. 물론 네트워크를 통한 데이터의 저장도 가능합니다. 인터넷을 통해 영상데이터의 전송이 가능해진 IP카메라의 발전은 기존의 제한된 공간으로 한정되었던 영상보안 시스템의 한계를 공간 제약이 전혀 없는 전 세계로 연결된 인터넷 공간으로 확장함과 동시에 기존의 전용 DVR 장치의 기능을 PC로 옮겨 놓을 수 있어 다양한 활용 분야를 개척하였다.Hereinafter, the IP camera 140 mentioned in the present invention will be briefly described. An Internet Protocol camera (IP camera) is a type of digital video camera generally deployed for surveillance, and can transmit and receive data through a computer network and the Internet, unlike analog closed circuit television (CCTV) cameras. Most cameras that do this are webcams, but IP cameras or netcams are generally only for surveillance purposes that can be accessed directly through a network connection.Some IP cameras are centralized to handle recording, video and alarm management. Network video recorder (NVR) support is required. Other cameras can be operated in a decentralized manner without NVR, and the camera can record directly to a local or remote storage media. The existing CCTV system consists of an analog CCTV camera and a digital video storage device (DVR), and the analog video captured by the CCTV camera can be transmitted to the DVR system by connecting it with a coaxial cable.The transmitted analog video is converted into a digital signal and compressed. It can be saved, restored, reproduced, and displayed through a monitoring monitor.In this traditional video security system, separate independent equipment such as a DVR along with a CCTV camera is needed to monitor the video. However, network technology The development of video technology and image processing chip brought about a big change in the existing video implementation method as described above, that is, instead of the existing CCTV camera that transmits analog video signals using a coaxial cable according to the development of network technology, video signals Compressed into digital signals and equipped with a function to transmit long-distance through a general network (LAN), IP cameras were born, and monitoring became possible from a general PC or laptop without additional equipment such as a DVR. The development of IP cameras, which made it possible to transmit video data through the Internet, also made it possible to store data. By expanding the limit of the system to the Internet space connected to the world without any space restrictions, the function of the existing dedicated DVR device can be transferred to the PC, thus pioneering various fields of application.

이러한 IP카메라는 기존 CCTV 카메라 대비 아래와 같은 장점을 가지고 있다. 첫째, IP 카메라만으로도 영상감시 시스템의 구현이 가능합니다. 기존 CCTV, DVR 시스템에서는 단순히 한 장소만을 감시할 목적이라 할지라도, CCTV 카메라와 시스템 기기를 모두 구입하여야 했다. 이에 따라, 설치비용이 많이 발생하게 되고 이는 대중화를 어렵게 만드는 요소였다. 그러나, IP 카메라는 카메라 ISP 뿐만 아니라, DVR시스템의 기능을 구현하던 비디오 디코더, 비디오 코덱을 카메라에 내장하여 영상을 자체적으로 처리하고 압축한 후 네트워크를 이용하여 사용자의 PC로 영상을 전송하고, 사용자는 이를 PC에 저장하고 디스플레이 할 수 있기 때문에 단순히 한 장소를 감시하거나 원격지 감시를 목적으로 하는 사람은 시스템을 별도로 구입할 필 요 없이 IP 카메라만으로 감시 목적을 달성할 수 있다. 둘째, 카메라에서 촬영된 영상을 전달하기 위해서 기존 CCTV 시스템이나 DVR 시스템에서는 카메라와 시스템 기기의 연결을 동축케이블로 하였는데, IP카메라는 기존 네트워크망을 이용한다는 것이다. 따라서, 기존 CCTV 시스템이나 DVR 시스템을 설치하기 위해서는 기본적인 영상보안기기 구입 비용 외에도 설치 비용이 많이 들어갔으나, IP카메라는 이미 구축된 네트워크망을 이용하기 때문에 설치 비용이 저렴하다. 셋째, 원격지에 설치된 IP 카메라에서 촬영하는 영상을 인터넷을 이용하여 어디서든지 볼 수 있게 되었다. 즉, 기존 CCTV 시스템이나 DVR 시스템은 동축케이블로 카메라와 시스템을 연결하여야 했기 때문에 한 건물이나 근거리에 있는 영상만을 볼 수 있었으나, IP카메라는 전세계 어디든지 네트워크(인터넷)만 연결되어 있다면 관찰자가 원하는 장소에서 볼 수 있다. 상기와 같은 IP카메라의 장점은 영상보안산업의 전방시장을 산업용에서 가정용으로 확대할 수 있는 기폭제가 될 것으로 판단되며, 이미 홈네트워크라는 새로운 시장의 핵심 요소로 자리잡아 가고 있다.These IP cameras have the following advantages compared to existing CCTV cameras. First, it is possible to implement a video surveillance system with only an IP camera. In the existing CCTV and DVR systems, even for the purpose of monitoring only one place, both CCTV cameras and system equipment had to be purchased. Accordingly, the installation cost was high, which was a factor that made popularization difficult. However, IP cameras have built-in video decoder and video codec that implement the functions of DVR system as well as camera ISP, process and compress the video itself, and then transmit the video to the user's PC using the network, can be stored and displayed on a PC, so a person who simply monitors a place or wants to monitor a remote location can achieve the purpose of monitoring only with an IP camera without the need to purchase a separate system. Second, the existing CCTV system or DVR system used a coaxial cable to connect the camera to the system device in order to deliver the image captured by the camera, but the IP camera uses the existing network. Therefore, in order to install the existing CCTV system or DVR system, the installation cost is high in addition to the basic video security equipment purchase cost. Third, images taken by IP cameras installed in remote locations can be viewed anywhere using the Internet. In other words, the existing CCTV system or DVR system had to connect the camera and the system with a coaxial cable, so you could only see an image from one building or a short distance. can be seen in The advantages of IP cameras as described above are judged to be a catalyst for expanding the forward market of the video security industry from industrial to home use, and are already establishing themselves as a key element in a new market called home networks.

본 발명에 따른 스마트팜 모듈(100) 내부에 위치한 IP 카메라(140)는 새싹류 작물의 생육을 관찰, 촬영하여 촬영한 영상(혹은 화상)을 LAN 등을 통해 새싹류 작물의 파종시기를 결정하는 장치로 전송할 수 있다. 또한, IP 카메라(140)는 일 예시일 뿐이며, 새싹류 작물의 생육 상태를 영상으로 촬영할 수 있는 카메라이고 LAN 등을 통해 외부로 혹은 시스템으로 전송할 수 있는 기능이 있는 카메라이라면 IP 카메라(140)를 대체할 수 있다.The IP camera 140 located inside the smart farm module 100 according to the present invention observes and shoots the growth of sprouted crops and uses the captured image (or image) to determine the sowing time of sprouted crops through LAN, etc. can be sent to the device. In addition, the IP camera 140 is only an example, and if it is a camera that can capture the growth state of sprouts as an image and has a function that can transmit it to the outside or to the system through a LAN, the IP camera 140 is used. can be replaced

도 2는 본 발명의 일 실시예에 따른 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 장치(200)를 설명하기 위한 블록도이다.2 is a block diagram for explaining the apparatus 200 for determining the sowing time of sprouts crops through image reading according to an embodiment of the present invention.

도 2를 참조하면, 화상판독을 통해 새싹류 작물(혹은 새싹 작물 등으로도 호칭됨)의 파종시기를 결정하는 장치(200)는 제어부(210), 통신부(240) 및 입력부(250)를 포함할 수 있다. 제어부(210)는 영상처리부(220) 및 파종시기 판단부(230)를 더 포함할 수 있다. 제어부(210)는 스마트팜 모듈을 전반적으로 제어하는 기능을 수행한다. 스마트팜 모듈(100)에서 화상 촬영부(예를 들어, IP 카메라)는 소정의 주기로 혹은 이벤트-트리거링 방식 등으로 스마트팜에서 자라는 새싹류 작물들을 촬영하고, 촬영된 영상(혹은 화상촬영 이미지 등 다양하게 호칭될 수 있다)를 새싹류 작물의 파종시기를 결정하는 장치(200)로 전송할 수 있다.Referring to FIG. 2 , the apparatus 200 for determining the seeding time of a sprout crop (or also called a sprout crop, etc.) through image reading includes a control unit 210 , a communication unit 240 , and an input unit 250 . can do. The control unit 210 may further include an image processing unit 220 and a seeding time determination unit 230 . The control unit 210 performs a function of overall controlling the smart farm module. In the smart farm module 100, the image capturing unit (eg, IP camera) shoots sprouts growing in the smart farm at a predetermined cycle or in an event-triggering method, and various captured images (or image captured images, etc.) may be called) can be transmitted to the device 200 for determining the sowing time of sprouts crops.

통신부(240)는 IoT 등의 방식을 통해 스마트팜 모듈(100)의 화상 촬영부(예를 들어, IP 카메라)로부터 새싹류 작물들을 촬영한 영상을 수신하고, 영상처리부(220)로 전달할 수 있다. 영상처리부(220)는 통신부(250)로부터 수신한 새싹류 작물들의 영상으로부터 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 취득(혹은 획득)할 수 있다. 새싹류 작물의 단위 면적에 대응하는 화상촬영면에 대한 구체적 사항은 도 3을 참조하여 설명한다.The communication unit 240 may receive an image of sprouting crops from the image capturing unit (eg, IP camera) of the smart farm module 100 through the IoT or the like, and transmit it to the image processing unit 220 . . The image processing unit 220 may acquire (or acquire) an image capturing surface corresponding to a unit area of the sprout crops from the images of the sprout crops received from the communication unit 250 . Specific details of the imaging plane corresponding to the unit area of the sprout crop will be described with reference to FIG. 3 .

본 발명의 실시예에 따른 영상처리부(220)는 촬영 영상으로부터 사물인식을 인식할 수 있다. 영상처리부(220)는 외부의 카메라 장치(예를 들어, IP 카메라(140))로부터 촬영 영상을 전달받아 그 촬영 영상 내 포함된 사물의 종류와 배치상태를 인식하고 콘텐츠를 처리/반영/생성 등을 하는 것으로, 카메라 장치와 연결되어 있고, 촬영 영상을 수신하는 통신부(240)와 수신된 촬영 영상을 저장하는 메모리(미도시)와 연결되어 있다. 영상 처리부(220)는 제어부(210)의 제어에 따라 동작될 수 있다.The image processing unit 220 according to an embodiment of the present invention may recognize object recognition from the captured image. The image processing unit 220 receives a captured image from an external camera device (eg, IP camera 140), recognizes the type and arrangement of objects included in the captured image, and processes/reflects/creates content, etc. To do this, it is connected to the camera device, and is connected to the communication unit 240 for receiving a captured image and a memory (not shown) for storing the received captured image. The image processing unit 220 may be operated under the control of the control unit 210 .

도 3은 본 발명에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 파종시기를 결정하기 위해 사용되는 화상판독 방식을 설명하기 위한 예시적 도면이다.3 is an exemplary view for explaining an image reading method used by the apparatus 200 for determining the sowing time of a sprout crop according to the present invention to determine the sowing time.

도 3에 도시된 영상은 새싹류 작물들이 적층되어 생육되고 있는 환경을 도시하고 있다. 스마트팜 모듈(100)은 컨테이너 (예를 들어, 선적 컨테이너)에 새싹류들을 적층하여 생육한다. 통신부(240)가 화상촬영부(140)로부터 수신하는 영상은 새싹류 작물들이 적층되어 생육됨이 도시된 영상일 수 있다. 수신한 영상에서 새싹류 작물의 한 개 층에 해당하는 면적이 새싹류 작물의 단위 면적이 될 수 있다. 영상처리부(240)는 통신부(240)로부터 수신한 영상으로부터 새싹류 작물의 단위면적에 해당하는 화상촬영면을 생성할 수 있고, 이렇게 생성된 화상촬영면은 일 예로서 도 3에 도시된 빨간선으로 된 박스 면적(310)으로 표시되어 있다. The image shown in FIG. 3 shows an environment in which sprout crops are stacked and grown. The smart farm module 100 is grown by stacking sprouts in a container (eg, a shipping container). The image received by the communication unit 240 from the image capturing unit 140 may be an image showing that sprout crops are stacked and grown. In the received image, an area corresponding to one layer of a sprout crop may be a unit area of a sprout crop. The image processing unit 240 may generate an image capturing surface corresponding to a unit area of a sprout crop from the image received from the communication unit 240, and the image capturing surface thus generated is, as an example, a red line shown in FIG. 3 . It is indicated by the box area 310 of .

이를 위해 먼저, 영상처리부(220)는 촬영 영상에 포함된 사물에 대한 인식과정을 진행하기 전, 촬영영상에 포함된 노이즈(noise)를 제거하고 인식률을 높이기 위한 필터링 등의 전처리 과정을 수행할 수 있다. 보다 상세하게는, 촬영영역이 정의되는 장소의 조명환경 등에 의해 촬영된 영상에서 배경과 블록간의 명암차가 작거나, 색상 또는 윤곽에 노이즈가 포함되는 경우 정확한 사물의 원 색상 및 형태를 추출하는 데 어려움이 발생할 수 있으며, 인식의 정확도를 높이기 위해 영상처리부(220)는 고주파 통과 필터(High Pass Filter) 등으로 구성되어 배경과 사물의 경계선간의 차이가 두드러지도록 처리하는 등의 과정을 수행할 수 있다.To this end, first, the image processing unit 220 may perform a preprocessing process such as filtering to remove noise included in the captured image and increase the recognition rate before proceeding with the recognition process of the object included in the captured image. have. More specifically, if the contrast between the background and the block is small in the image captured by the lighting environment of the place where the shooting area is defined, or noise is included in the color or outline, it is difficult to accurately extract the original color and shape of the object. This may occur, and in order to increase the accuracy of recognition, the image processing unit 220 may be configured with a high-pass filter, etc., and may perform a process such as processing the difference between the background and the boundary line of the object to be conspicuous.

영상처리부(220)는 새싹류 작물의 단위면적에 대응하는 화상촬영면(310)에서 파종시기 판단(혹은 결정)와 관련된 기준점 (혹은 기준 높이점) 및/또는 기준선들을 가상으로 생성할 수 있다. 도 3을 참조하면 화상촬영면에서의 ㄱ점 (320), ㄴ점(330), ㄷ점(340), ㄹ점(350)의 가상의 기준점이 도시되어 있다. 여기서, ㄱ점 (320)은 화상촬영면(310)에서의 파종시작의 바닥 높이점으로 정의할 수 있고, ㄴ점(330)은 화상촬영면(310)에서 파종판단 임계 높이점으로 정의할 수 있다. 그리고, ㄷ점(340)은 화상촬영면(310)에서 파종판단 최종 높이점으로 정의할 수 있으며, ㄹ점(350)은 화상촬영면(310)에서 파종판단의 끝 높이점으로 정의할 수 있다. The image processing unit 220 may virtually generate a reference point (or reference height point) and/or reference lines related to a sowing time determination (or determination) on the image capturing surface 310 corresponding to a unit area of a sprout crop. Referring to FIG. 3 , virtual reference points of a point A 320 , a point B 330 , a point C 340 , and a point D 350 on the image taking surface are illustrated. Here, a point 320 may be defined as the bottom height point of the start of sowing on the image taking surface 310 , and the b point 330 may be defined as a sowing judgment critical height point on the image taking surface 310 . In addition, the d point 340 may be defined as the final height point of the sowing judgment on the image taking surface 310 , and the d point 350 may be defined as the final height of the sowing judgment on the image taking surface 310 .

여기서, 파종시작의 바닥 높이점(320)이라는 것은 적층된 컨테이너에서 한층에서 새싹류가 자랄 때 새싹류가 위치하는 바닥점 (혹은 바닥 높이점)으로 정의할 수 있다. 파종판단 임계 높이점(330)은 파종시기라고 판단할 수 있는 새싹류 작물의 최저 높이점이라고 정의할 수 있고, 파종판단 최종 높이점이라는 것은 새싹류가 더 이상 웃자라서 상품성이 떨어지므로 파종시기라고 판단할 수 있는 새싹류 작물의 최고 높이점으로 정의할 수 있다. 또한, 파종판단 임계 높이점(330)은 상기 사용자에 의해 설정된 파종을 원하는 새싹류 작물의 높이 구간에서 최저점으로 정의될 수 있고, 파종판단 최종 높이점(340)은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점으로 정의될 수 있다.Here, the bottom-height point 320 of the start of sowing can be defined as the bottom point (or bottom-height point) at which sprouts are located when sprouts grow on one layer in a stacked container. The sowing judgment critical height point 330 can be defined as the lowest height point of the sprout crops that can be determined as the sowing time, and the final high point of the sowing judgment is called the sowing time because the sprouts no longer grow taller and the marketability declines. It can be defined as the highest point of sprout crops that can be judged. In addition, the sowing judgment critical height point 330 may be defined as the lowest point in the height section of the sprout crop desired for sowing set by the user, and the seeding judgment final height point 340 is the sprout desired by the user to sow. It can be defined as the highest point in the height section of a type of crop.

이러한 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)은 사용자에 의해 설정될 수 있고, 입력부(250)는 사용자로부터 입력 받을 수 있다. 입력부(250)는 디스플레이부 등의 다양한 타입으로 구성될 수 있다. 또는, 통신부(240)가 사용자에 의해 설정된 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)에 대한 정보를 수신하여 영상처리부(220)로 전달해 줄 수도 있다.The seeding determination critical height point 330 and the seeding determination final height point 340 may be set by a user, and the input unit 250 may receive an input from the user. The input unit 250 may be configured in various types such as a display unit. Alternatively, the communication unit 240 may receive information on the seeding determination critical height point 330 and the seeding determination final height point 340 set by the user and deliver it to the image processing unit 220 .

예를 들어, 새싹류 작물의 일 예인 새싹 보리의 경우 15cm ~ 20cm를 최적의 수확 기준이라고 할 때, 사용자가 파종을 원하는 새싹류 작물의 높이는 15cm ~ 20cm일 것이다. 이때, 파종판단 임계 높이점(330)은 파종시작의 바닥 높이점(320)으로부터 15cm가 되는 점이고, 파종판단 최종 높이점은 (350)은 파종시작의 바닥 높이점(320)으로부터 20cm가 되는 점일 수 있다. 새싹류 작물의 높이가 파종시작의 바닥 높이점(320)으로부터 15cm가 되어야 새싹류 작물이 상품성을 가지고 되는 것이고, 새싹류 작물의 높이가 파종시작의 최종 높이점(350)을 초과하게 되면 새싹류 작물의 상품성이 떨어지게 된다. 이러한, 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)은 사용자가 새싹류 작물의 종류 및 특성에 따라 변경할 수 있다.For example, in the case of sprouted barley, which is an example of a sprout crop, assuming that 15 cm to 20 cm is the optimal harvest standard, the height of the sprout crop desired by the user to sow will be 15 cm to 20 cm. At this time, the sowing judgment critical height point 330 is a point that is 15 cm from the bottom height point 320 at the start of sowing, and the final height point for sowing judgment is a point that becomes 20 cm from the bottom height point 320 of the sowing start. can When the height of the sprout crops is 15 cm from the bottom height point 320 at the start of sowing, the sprout crops are commercially viable. The productivity of crops decreases. The sowing judgment critical height point 330 and the sowing judgment final height point 340 may be changed by the user according to the type and characteristics of sprouted crops.

영상처리부(220)는 도 3에 도시된 화상촬영면(310)에서 파종판단 임계 높이점(330)에서 같은 높이로 일직선으로 연장되는 제 1 가상선(360)을 생성하고, 상기 화상촬영면(310)에서 파종판단 최종 높이점(340)에서 같은 높이로 일직선으로 연장되는 제 2 가상선(370)을 생성할 수 있다. 화상촬영면(310)에 제 1 가상선(360) 및 제 2 가상선(370)이 그어지면 면적이 만들어지는데 이를 가상면적이라고 호칭할 수 있다. 즉, 상기 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)에 의해 가상면적이 만들어지는데 영상처리부(220)는 가상면적을 생성할 수 있다. 여기서, 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)에 의해 가상면적을 제 1 가상면적이라고 한다면, 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선과 파종판단 임계 높이점(330)에서 일직선으로 연장되는 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 가상 면적은 제 2 가상면적으로 정의할 수 있다.The image processing unit 220 generates a first virtual line 360 extending in a straight line at the same height from the seeding judgment critical height point 330 in the image capturing surface 310 shown in FIG. 3, and the image capturing surface ( In 310 , a second virtual line 370 extending in a straight line to the same height from the final height point 340 of the seeding decision may be generated. When the first virtual line 360 and the second virtual line 370 are drawn on the image capturing surface 310, an area is created, which may be referred to as a virtual area. That is, a virtual area is created by the first virtual line 360 and the second virtual line 370 on the image capturing surface 310 , and the image processing unit 220 may generate the virtual area. Here, if the virtual area is the first virtual area by the first virtual line 360 and the second virtual line 370 on the image taking surface 310, a straight line from the bottom height point 320 of the sowing start The virtual area created on the imaging surface 310 by the extended virtual line and the first virtual line 360 extending in a straight line from the seeding determination critical height point 330 may be defined as the second virtual area.

영상처리부(220)는 사물인식 기반 영상처리가 가능하여 화상촬영면(310)에서 색상 기반으로 사물을 인식(예를 들어, 도 3에 도시된 녹색의 새싹류 인식)할 수 있다. 따라서 영상처리부(220)는 화상촬영면의 가상면적에 있는 새싹류 작물을 인식할 수 있고, 색상 기반 인식 방법 등으로 가상면적에서 새싹류 작물이 차지하는 비율을 산출할 수도 있다. 색상 기반 사물 인식 기술은 Gray 모델, RGB 모델 등이 있다. Gray 모델은 색(color) 정보를 사용하지 않고 밝기 정보만으로 영상을 표현하는 것이다. 검정색 0부터 흰색 255까지 총 256단계의 밝기값(intensity)으로 영상 픽셀값을 표현한다. RGB 모델은 가장 기본적인 색상모델로서 색(color)을 Red, Green, Blue의 3가지 성분의 조합으로 생각하는 것이다. RGB 모델에서 검은색은 R=G=B=0, 흰색은 R=G=B=255, 빨강색은 R=255, G=B=0, 노란색은 R=G=255, B=0로 표현된다. R=G=B인 경우는 무채색인 Gray 색상이 된다. R, G, B 각각은 0 ~ 255 사이의 값을 가질 수 있기 때문에 RGB 색상 모델을 사용하면 총 256*256*256 = 16,777,216가지의 색을 표현할 수 있다.The image processing unit 220 may perform object recognition-based image processing to recognize an object based on a color on the image capturing surface 310 (eg, recognize green sprouts shown in FIG. 3 ). Therefore, the image processing unit 220 may recognize the sprout crops in the virtual area of the image capturing surface, and may calculate the ratio of the sprout crops in the virtual area using a color-based recognition method or the like. The color-based object recognition technology includes a gray model and an RGB model. The gray model expresses an image only with brightness information without using color information. An image pixel value is expressed as an intensity value of 256 levels from black 0 to white 255. The RGB model is the most basic color model and thinks of a color as a combination of three components: Red, Green, and Blue. In the RGB model, black is R=G=B=0, white is R=G=B=255, red is R=255, G=B=0, yellow is R=G=255, B=0 do. In case of R=G=B, it becomes an achromatic gray color. Since each of R, G, and B can have a value between 0 and 255, a total of 256*256*256 = 16,777,216 colors can be expressed using the RGB color model.

영상처리부(200)는 딥러닝 알고리즘 등의 인공신경망 학습 모듈을 통해 사물 인식이 가능하고, 색상 기반으로 사물인식이 가능하다. 영상처리부(200)는 상기 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율을 산출할 수 있다. 그리고, 영상처리부(200)는 상기 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 상기 제 2 가상선(340)을 초과하는 비율을 산출할 수 있다. 가상면적의 전체 색상에서 새싹류 작물의 색상이 비율 중 많은 부분이 제 2 가상선(340)도 초과해 버린다면 이는 새싹류 작물이 너무 웃자라게 되서 상품성을 약화를 초래한다. 따라서, 상기 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선(340)을 넘게 되면 안되는 비율에 대한 기준이 필요하게 되고 이를 소정의 제 2 임계율이라고 정의할 수 있다. 혹은, 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선과 파종판단 임계 높이점(330)에서 일직선으로 연장되는 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 가상 면적에서의 새싹류 작물이 차지하는 비율 중 일부가 상기 2 가상선(340)을 넘게 되면 안되는 비율을 상기 소정의 제 2 임계율이라고 정의될 수도 있다. The image processing unit 200 may recognize an object through an artificial neural network learning module such as a deep learning algorithm, and may recognize an object based on color. The image processing unit 200 may calculate the ratio of the color of the sprout crop to the total color of the virtual area. In addition, the image processing unit 200 may calculate a ratio exceeding the second virtual line 340 among the ratios occupied by the color of sprouts in the total color of the virtual area. If a large portion of the ratio of the color of the sprout crop in the total color of the virtual area exceeds the second virtual line 340, this causes the sprout crop to grow too large, thereby weakening the marketability. Accordingly, a standard for the ratio that should not exceed the second imaginary line 340 among the ratios of the color of sprouts in the total color of the imaginary area is required, and this can be defined as a predetermined second critical ratio. Alternatively, a virtual line extending in a straight line from the bottom height point 320 at the start of sowing and a first virtual line 360 extending in a straight line from the seeding judgment critical height point 330 . A ratio in which a part of the ratio of sprout crops in the area should not exceed the second virtual line 340 may be defined as the predetermined second threshold ratio.

상술한 바와 같이, 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)에 의해 가상면적을 제 1 가상면적이라고 한다면, 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선과 파종판단 임계 높이점(330)에서 일직선으로 연장되는 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 가상 면적은 제 2 가상면적으로 정의할 수 있다. 이때, 소정의 제 2 임계율은 제 1 가상면적을 기준으로 정의될 수도 있고, 제 2 가상면적을 기준으로 정의될 수도 있다. 만약, 소정의 제 2 임계율이 제 2 가상면적을 기준으로 정의된다면, 영상처리부(220)는 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선을 추가적으로 생성할 수 있고, 추가적으로 생성된 상기 가상선과 제 1 가상선(360)에 의해 화상촬영면(310)에서 만들어지는 제 2 가상면적을 생성할 수 있다. 그러면, 영상처리부(220)는 제 2 가상면적에서 새싹류가 차지하는 비율 등을 산출할 수도 있다. 이하에서는 설명의 편의를 위해 제 1 가상면적을 기준으로 산출하는 것으로 설명한다.As described above, if the virtual area is the first virtual area by the first virtual line 360 and the second virtual line 370 on the image taking surface 310, the bottom height point 320 of the start of sowing. The virtual area created on the imaging surface 310 by the virtual line extending in a straight line from the first virtual line 360 extending in a straight line from the seeding judgment critical height point 330 can be defined as the second virtual area. . In this case, the predetermined second threshold rate may be defined based on the first virtual area or may be defined based on the second virtual area. If the predetermined second threshold rate is defined based on the second virtual area, the image processing unit 220 may additionally generate a virtual line extending in a straight line from the bottom height point 320 of the start of sowing, and additionally generate A second virtual area created on the image capturing surface 310 may be generated by the virtual line and the first virtual line 360 . Then, the image processing unit 220 may calculate a ratio, etc. of the sprouts in the second virtual area. Hereinafter, for convenience of explanation, calculation will be made based on the first virtual area.

파종시기 판단부(230)는 상기 제 1 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 (예를 들어, 70%) 이상이면서 상기 화상촬영면(310)에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선(370) 보다 높게 위치한 비율이 소정의 제 2 임계율 (예를 들어, 30%) 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하게 된다. 이와 같이, 소정의 제 1 임계율에 의해 파종시기의 시작 시점이 결정될 수 있고, 소정의 제 2 임계율에 의해 파종시기의 최종 시점이 결정될 수 있다. 사용자는 새싹류 작물에 대해 요구되는 상품성의 정도에 따라 상기 소정의 제 1 임계율 및 상기 소정의 제 2 임계율 등을 정할 수 있다. The sowing time determination unit 230 determines that the ratio of the color of the sprouted crop in the total color of the first virtual area is equal to or greater than a predetermined first threshold rate (eg, 70%) and the image capturing surface 310 . In the case where the ratio located higher than the second imaginary line 370 among the ratios occupied by the color of the sprout crops is less than or equal to a predetermined second critical ratio (eg, 30%), it is determined that it is time to sow the sprout crops. will do In this way, the start time of the sowing time may be determined by the first predetermined threshold rate, and the final time of the sowing time may be determined by the second predetermined threshold rate. The user may set the predetermined first threshold rate, the predetermined second threshold rate, and the like according to the degree of marketability required for the sprout crops.

이와 같이, 본 발명에 따른 파종시기 판단부(230)가 화상판독을 통해 파종시기를 결정함으로써 단위 면적에 대해 파종시기의 목표 작물의 수를 일정하게 유지하며 취득하여 품질의 균일성을 확보할 수 있다. In this way, the seeding time determination unit 230 according to the present invention determines the seeding time through image reading, thereby maintaining the number of target crops at the sowing time for a unit area constant and obtaining uniformity of quality. have.

제어부(210)는 파종시기 판단부(230)가 파종시기라고 결정한 경우에 통신부(240)가 사용자의 단말 혹은 네크워크로 파종시기임을 알리는 메시지를 보내어 사용자가 파종시기를 알 수 있도록 제어할 수 있다. 통신부(240)는 파종판단부(230)의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송할 수 있다.When the sowing time determination unit 230 determines that it is the sowing time, the control unit 210 may control the communication unit 240 to send a message informing the user of the sowing time to the user's terminal or network so that the user can know the sowing time. The communication unit 240 may transmit a message indicating that it is the sowing time according to the decision of the sowing determination unit 230 to the user's terminal or to the network.

여기서, 일예로서 하나의 화상촬영부가 보내온 영상으로부터 화상판독을 통해 파종시기를 결정하는 것을 기술하였으나, 스마트팜 모듈(100)에는 작물의 생육을 촬영할 수 있는 화상 촬영부가 컨테이너에서 좌, 우, 앞, 뒤 등 여러 위치에 위치하여 각각 새싹류 작물의 생육을 촬영할 수 있다. 통신부(240)는 다양한 위치에 있는 화상촬영부로부터 새싹류에 대한 영상을 수신하고, 영상처리부(220)는 다양한 화상촬영부(140)로부터 수신한 영상에 대해 각각 상술한 바와 같이 처리할 수 있다. 파종시기 판단부(230)는 영상처리부(220)가 각 화상촬영부(140)로부터 수신한 영상에 대해 생성한 정보들에 대해 평균을 내거나 특정한 영상에 대해 가중치를 두는 방식 등으로 파종시기를 결정할 수도 있다.Here, as an example, it has been described that the seeding time is determined through image reading from an image sent by one image capturing unit, but in the smart farm module 100, an image capturing unit capable of photographing crop growth is left, right, front, It can be located in various positions such as behind, so that the growth of each sprout crop can be photographed. The communication unit 240 receives images of sprouts from the image capturing units located at various locations, and the image processing unit 220 may process the images received from the various image capturing units 140 as described above, respectively. . The sowing time determining unit 230 determines the sowing time by averaging the information generated by the image processing unit 220 for the images received from the respective image capturing units 140 or by weighting the specific images. may be

도 4는 본 발명의 일 실시예에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상판독을 통해 새싹류 작물의 파종시기를 결정하는 방법을 설명하기 위한 흐름도이다.4 is a flowchart for explaining a method for the apparatus 200 for determining the sowing time of sprouts crops according to an embodiment of the present invention to determine the sowing times of sprouts crops through image reading.

도 4를 참조하면, 스마트팜 모듈(100)에서 화상 촬영부(예를 들어, IP 카메라)는 소정의 주기로 혹은 이벤트-트리거링 방식 등으로 스마트팜에서 자라는 새싹류 작물들을 촬영한다(S410). 그 후, 화상촬영부는 촬영된 영상을 새싹류 작물의 파종시기를 결정하는 장치(200)로 전송한다(S420). 통신부(240)는 IoT 등의 방식을 통해 스마트팜 모듈(100)에서의 화상 촬영부로부터 새싹류 작물들을 촬영한 영상을 수신하고, 영상처리부(220)로 전달할 수 있다.Referring to FIG. 4 , the image capturing unit (eg, IP camera) in the smart farm module 100 takes pictures of sprouts growing in the smart farm at a predetermined cycle or in an event-triggering method (S410). Thereafter, the image capturing unit transmits the captured image to the device 200 for determining the seeding time of sprouts (S420). The communication unit 240 may receive an image of sprouts crops from the image capturing unit in the smart farm module 100 through an IoT method or the like, and transmit it to the image processing unit 220 .

도 4에서도 도 3과 마찬가지로 화상촬영면에서의 ㄱ점 (320), ㄴ점(330), ㄷ점(340), ㄹ점(350)의 가상의 기준점 등이 동일하게 적용될 수 있다. ㄱ점 (320)은 화상촬영면에서의 파종시작의 바닥 높이점으로 정의할 수 있고, ㄴ점(330)은 화상촬영면에서 파종판단 임계 높이점으로 정의할 수 있다. 그리고, ㄷ점(340)은 화상촬영면에서 파종판단 최종 높이점으로 정의할 수 있으며, ㄹ점(350)은 화상촬영면에서 파종판단의 끝 높이점으로 (미리) 정의할 수 있다. 여기서, 파종시작의 바닥 높이점(320)이라는 것은 적층된 컨테이너에서 한층에서 새싹류가 자랄 때 새싹류가 위치하는 바닥 높이점으로 정의할 수 있다. In FIG. 4 as well as in FIG. 3 , virtual reference points of the point A 320 , the point B 330 , the point C 340 , and the point D 350 in the image taking surface may be equally applied. Point a 320 may be defined as the bottom height point of the start of sowing on the imaging plane, and point 330 may be defined as the critical height point for sowing judgment on the imaging plane. In addition, the d point 340 may be defined as the final height of the sowing judgment on the image taking surface, and the d point 350 may be defined (in advance) as the final height of the sowing judgment on the image taking surface. Here, the bottom-height point 320 of the start of sowing can be defined as the bottom-height point at which sprouts are located when sprouts grow on one layer in a stacked container.

파종판단 임계 높이점(330)은 파종시기라고 판단할 수 있는 새싹류 작물의 최저 높이점이라고 정의할 수 있고, 파종판단 최종 높이점이라는 것은 새싹류가 더 이상 웃자라서 상품성이 떨어지므로 파종시기라고 판단할 수 있는 새싹류 작물의 최고 높이점으로 정의할 수 있다. 또한, 파종판단 임계 높이점(330)은 상기 사용자에 의해 설정된 파종을 원하는 새싹류 작물의 높이 구간에서 최저점으로 정의될 수 있고, 파종판단 최종 높이점(340)은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점으로 정의될 수 있다.The sowing judgment critical height point 330 can be defined as the lowest height point of the sprout crops that can be determined as the sowing time, and the final high point of the sowing judgment is called the sowing time because the sprouts no longer grow taller and the marketability declines. It can be defined as the highest point of sprout crops that can be judged. In addition, the sowing judgment critical height point 330 may be defined as the lowest point in the height section of the sprout crop desired for sowing set by the user, and the seeding judgment final height point 340 is the sprout desired by the user to sow. It can be defined as the highest point in the height section of a type of crop.

이러한 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)은 사용자에 의해 설정될 수 있고, 입력부(250)는 사용자로부터 입력받을 수 있다. 입력부(250)는 디스플레이부 등을 다양한 타입으로 구성될 수 있다. 또는, 통신부(240)가 사용자에 의해 설정된 파종판단 임계 높이점(330)과 파종판단 최종 높이점(340)에 대한 정보를 수신하여 영상처리부(220)로 전달해 줄 수도 있다.The seeding determination critical height point 330 and the seeding determination final height point 340 may be set by a user, and the input unit 250 may receive an input from the user. The input unit 250 may include a display unit and the like in various types. Alternatively, the communication unit 240 may receive information on the seeding determination critical height point 330 and the seeding determination final height point 340 set by the user and deliver it to the image processing unit 220 .

영상처리부(240)는 통신부(240)로부터 수신한 영상으로부터 새싹류 작물의 단위면적에 해당하는 화상촬영면(310)을 생성할 수 있다(S430). 그리고, 영상처리부(220)는 새싹류 작물의 단위면적에 대응하는 화상촬영면(310)에서 파종시기 판단과 관련된 기준점 (혹은 기준 높이점) 및/또는 기준선들을 가상으로 생성할 수 있다(S440). 즉, 영상처리부(220)는 도 3에 도시된 화상촬영면(310)에서 파종판단 임계 높이점(330)에서 같은 높이로 일직선으로 연장되는 제 1 가상선(360)을 생성하고, 상기 화상촬영면(310)에서 파종판단 최종 높이점(340)에서 같은 높이로 일직선으로 연장되는 제 2 가상선(370)을 생성할 수 있다(S450). The image processing unit 240 may generate an image capturing surface 310 corresponding to a unit area of a sprout crop from the image received from the communication unit 240 (S430). In addition, the image processing unit 220 may virtually generate a reference point (or reference height point) and/or reference lines related to a sowing time determination on the image capturing surface 310 corresponding to a unit area of a sprout crop (S440). . That is, the image processing unit 220 generates a first virtual line 360 extending in a straight line at the same height from the seeding determination critical height point 330 in the image capturing surface 310 shown in FIG. A second virtual line 370 extending in a straight line to the same height from the final height point 340 of the seeding determination may be generated on the surface 310 (S450).

화상촬영면(310)에 상기 제 1 및 제 2 가상선(360, 370)이 그어지면 면적이 만들어지는데 이를 제 1 가상면적이라고 호칭할 수 있다. 상기 화상촬영면(310)에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)을 의해 제 1 가상면적이 만들어진다. 이와 같이, 영상처리부(220)는 상기 화상촬영면에서 상기 제 1 가상선(360) 및 상기 제 2 가상선(370)을 이용하여 제 1 가상면적을 생성할 수 있다(S460). When the first and second virtual lines 360 and 370 are drawn on the image capturing surface 310, an area is created, which may be referred to as a first virtual area. A first virtual area is created by the first virtual line 360 and the second virtual line 370 on the image capturing surface 310 . As such, the image processing unit 220 may generate a first virtual area using the first virtual line 360 and the second virtual line 370 on the image capturing surface (S460).

영상처리부(220)는 사물인식 기반 영상처리가 가능하여 화상촬영면(310)에서 색상 기반 인식 방법 등으로 도 3에 도시된 녹색의 새싹류 작물을 인식할 수 있다. 따라서, 영상처리부(220)는 화상촬영면(310)의 제 1 가상면적에서 새싹류 작물을 인식할 수 있고 제 1 가상면적에서 새싹류 작물이 차지하는 비율을 산출할 수도 있다(S470). 영상처리부(220)는 딥러닝 알고리즘 등의 인공신경망 학습 모듈을 통해 사물 인식이 가능하고, 색상 기반으로 사물인식이 가능하다. 영상처리부(200)는 상기 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율을 산출할 수 있다(S470). The image processing unit 220 is capable of object recognition-based image processing, so that the image taking surface 310 can recognize the green sprouts shown in FIG. 3 by a color-based recognition method. Accordingly, the image processing unit 220 may recognize the sprout crop in the first virtual area of the image capturing surface 310 and may calculate the ratio of the sprout crop in the first virtual area (S470). The image processing unit 220 may recognize an object through an artificial neural network learning module such as a deep learning algorithm, and may recognize an object based on color. The image processing unit 200 may calculate the ratio of the color of the sprout crop to the total color of the first virtual area (S470).

그리고, 영상처리부(200)는 상기 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 상기 제 2 가상선(340)을 초과하는 비율을 산출할 수 있다. 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 비율 중 많은 부분이 제 2 가상선(340)도 초과해 버린다면 이는 새싹류 작물이 너무 웃자라게 되서 상품성을 약화를 초래한다. 따라서, 상기 제 1 가상면적의 전체 색상에서 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선(340)을 넘게 되면 안되는 비율에 대한 기준이 필요하게 되고 이를 소정의 제 2 임계율이라고 정의할 수 있다. 상술한 바와 같이, 만약, 소정의 제 2 임계율이 제 2 가상면적을 기준으로 정의된다면, 영상처리부(220)는 파종시작의 바닥 높이점(320)에서 일직선으로 연장되는 가상선을 추가적으로 생성할 수 있고, 별도로 제 2 가상면적을 생성하며, 제 2 가상면적에서 새싹류가 차지하는 비율 등을 산출할 수도 있다(S470).In addition, the image processing unit 200 may calculate a ratio exceeding the second virtual line 340 among the ratios occupied by the color of the sprout crop in the total color of the first virtual area. If a large portion of the ratio of the color of the sprout crop in the total color of the first virtual area exceeds the second virtual line 340, this causes the sprout crop to grow too large, thereby weakening the marketability. Therefore, a standard for the ratio that should not exceed the second imaginary line 340 among the ratio of the color of sprout crops in the total color of the first imaginary area is required, and this can be defined as a predetermined second threshold rate. have. As described above, if the predetermined second threshold rate is defined based on the second virtual area, the image processing unit 220 additionally generates a virtual line extending in a straight line from the floor height point 320 of the sowing start. Alternatively, a second virtual area may be separately created, and a ratio of sprouts may be calculated in the second virtual area (S470).

파종시기 판단부(230)는 상기 제 1 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 (예를 들어, 70%) 이상이면서 상기 화상촬영면(310)에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 (예를 들어, 30%) 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정할 수 있다(S480). 본 발명에 따른 파종시기 판단부(230)가 화상판독을 통해 파종시기를 결정함으로써 단위 면적에 대해 파종시기의 목표 작물의 수를 일정하게 유지하며 취득하여 품질의 균일성을 확보할 수 있다. The sowing time determination unit 230 determines that the ratio of the color of the sprouted crop in the total color of the first virtual area is equal to or greater than a predetermined first threshold rate (eg, 70%) and the image capturing surface 310 . When the ratio located higher than the second imaginary line among the ratios occupied by the color of the sprout crops is less than or equal to a predetermined second critical ratio (eg, 30%), it may be determined that it is time to sow the sprout crops ( S480). The seeding time determining unit 230 according to the present invention determines the seeding time through image reading, thereby maintaining uniformity of quality by maintaining a constant number of target crops at the sowing time for a unit area.

제어부(210)는 파종시기 판단부(230)가 파종시기라고 결정한 경우에 통신부(240)가 사용자의 단말 혹은 네크워크로 파종시기임을 알리는 메시지를 보내어 사용자가 파종시기를 알 수 있도록 제어할 수 있다. 통신부(240)는 파종판단부(230)의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송할 수 있다(S490). When the sowing time determination unit 230 determines that it is the sowing time, the control unit 210 may control the communication unit 240 to send a message informing the user of the sowing time to the user's terminal or network so that the user can know the sowing time. The communication unit 240 may transmit a message indicating that it is the sowing time according to the decision of the sowing determination unit 230 to the user's terminal or to the network (S490).

이상에서는, 새싹류 작물의 파종시기를 결정하는 장치(200)가 화상촬영부(140)와 같이 별도의 외부 디바이스로부터 새싹류 작물에 대해 촬영한 영상을 수신하여 파종시기를 판단하는 것으로 설명하였으나, 새싹류 작물의 파종시기를 결정하는 장치(200)에 화상촬영부(140)(즉, 카메라)등이 내장되어 있는 경우에는 새싹류 작물의 파종시기를 결정하는 장치(200)에 새싹류 작물의 촬영, 파종시기 판단 등의 일련의 과정들을 모두 수행할 수도 있다. 또한, 이러한 새싹류 작물의 파종시기를 결정하는 장치(200)는 스마트팜 모듈의 연결되어 있는 네트워크의 서버에서 구현될 수도 있다.In the above, it has been described that the apparatus 200 for determining the sowing time of sprouts crops determines the sowing time by receiving an image photographed for sprouts crops from a separate external device such as the image capturing unit 140, When the image capturing unit 140 (ie, a camera), etc. is built in the device 200 for determining the seeding time of sprouted crops, the device 200 for determining the sowing time of sprouted crops It is also possible to perform all a series of processes such as shooting and sowing time determination. In addition, the apparatus 200 for determining the seeding time of such sprouted crops may be implemented in a server of a network connected to the smart farm module.

이상에서 설명한 바와 같이, 본 발명에 따른 새싹류 작물의 파종시기를 결정하는 장치(200)에 따른 파종시기 판단하는 방법에 의하면, 새싹류 작물의 생육환경이나 씨앗의 품질과 관련없이 파종하여야할 시간을 판단할 수 있게 된다. 또한, 목표 파종시기 작물의 수를 일정하게 취득하게 됨으로써 품질도 꾸준하게 유지할 수 있게 되는 장점도 있다 As described above, according to the method for determining the seeding time according to the apparatus 200 for determining the seeding time of a sprout crop according to the present invention, the time to sow regardless of the growth environment of the sprout crop or the quality of the seed can be judged. In addition, there is an advantage in that the quality can be maintained consistently by obtaining a constant number of crops at the target sowing time.

파종시기 판단부(230)가 화상판독을 통해 파종시기를 결정함으로써 단위 면적에 대해 파종시기의 목표 작물의 수를 일정하게 유지하며 취득하여 품질의 균일성을 확보할 수 있다.Since the sowing time determination unit 230 determines the seeding time through image reading, the number of target crops at the sowing time for a unit area is constantly maintained and acquired, thereby ensuring uniformity of quality.

이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which elements and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to configure embodiments of the present invention by combining some elements and/or features. The order of operations described in the embodiments of the present invention may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment. It is apparent that claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.

본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다. 소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors. Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the limited drawings, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

Claims (9)

화상판독을 이용한 새싹류 작물의 파종시기를 결정하기 위한 장치에 있어서,
상기 새싹류 작물에 대해 촬영된 영상을 수신하는 통신부;
상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하고,
상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 영상처리부;
상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 파종시기 판단부를 포함하되,
상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하며,
상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.
In the device for determining the sowing time of sprouts crops using image reading,
a communication unit for receiving an image photographed for the sprouts;
A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface Create a second virtual line extending in a straight line to the same height from the final height of the sowing judgment,
an image processing unit for calculating a ratio of the color of the sprout crop to the total color of the virtual area in the virtual area created by the first virtual line and the second virtual line on the image taking surface;
The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line Including a sowing time determination unit that determines that it is time to sow the sprouted crops when the predetermined second threshold rate is less than or equal to the predetermined second threshold rate,
The communication unit transmits a message to the user's terminal or network to inform that it is the sowing time according to the decision of the sowing determination unit,
The seeding judgment critical height point is the lowest point in the height section of the sprout crop desired to be planted set by the user, and the seeding judgment final height point is the highest point in the height section of the sprout crop desired by the user to sow. Image, A device for determining the sowing timing of sprouts crops using readout.
제 1항에 있어서,
상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며,
상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.
The method of claim 1,
The first imaginary line and the second imaginary line are parallel to each other,
The seeding judgment critical height point and the seeding judgment final height point are set by the user according to the type of the sprouting crop, the apparatus for determining the seeding time of sprouts crops using image reading.
제 2항에 있어서,
상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 외부로부터 입력받는 입력부를 더 포함하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.
3. The method of claim 2,
The apparatus for determining seeding timing of sprouts crops using image reading, further comprising an input unit for receiving information on the seeding judgment critical height point and the seeding judgment final height set by the user from the outside.
제 2항에 있어서,
상기 통신부는 상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.
3. The method of claim 2,
The communication unit receives information on the seeding judgment critical height point and the seeding judgment final height point set by the user, the device for determining the seeding time of sprouts crops using image reading.
제 1항에 있어서,
상기 영상처리부는 상기 수신된 영상으로부터 상기 새싹류 작물을 감지하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 장치.
The method of claim 1,
The image processing unit for detecting the sprouted crop from the received image, a device for determining a seeding time of a sprouted crop using image reading.
장치가 화상판독을 이용한 새싹류 작물의 파종시기를 결정하는 방법에 있어서,
상기 새싹류 작물에 대해 촬영된 영상을 수신하는 단계;
상기 수신된 영상으로부터 상기 새싹류 작물의 단위 면적에 대응하는 화상촬영면을 생성하여, 상기 화상촬영면에 파종판단 임계 높이점에서 같은 높이로 일직선으로 연장되는 제 1 가상선 및 상기 화상촬영면에서 파종판단 최종 높이점에서 같은 높이로 일직선으로 연장되는 제 2 가상선을 생성하는 단계;
상기 화상촬영면에서 상기 제 1 가상선 및 상기 제 2 가상선에 의해 만들어지는 가상면적에서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율을 산출하는 단계;
상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율이 소정의 제 1 임계율 이상이면서 상기 가상면적의 전체 색상에서 상기 새싹류 작물의 색상이 차지하는 비율 중 제 2 가상선 보다 높게 위치한 비율이 소정의 제 2 임계율 이하일 경우에 상기 새싹류 작물을 파종할 시기라고 결정하는 단계; 및
상기 통신부는 상기 파종판단부의 결정에 따른 파종시기임을 알리는 메시지를 사용자의 단말로 혹은 네트워크로 전송하는 단계를 포함하되,
상기 파종판단 임계 높이점은 상기 사용자에 의해 설정된 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최저점이며 상기 파종판단 최종 높이점은 상기 사용자가 파종을 원하는 상기 새싹류 작물의 높이 구간에서 최고점인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.
In the method for the device to determine the seeding time of sprouts using image reading,
Receiving an image photographed for the sprout crop;
A first imaginary line and a first virtual line extending in a straight line from the seeding judgment critical height point to the image capturing surface by generating an image taking surface corresponding to the unit area of the sprouted crop from the received image and the image capturing surface generating a second virtual line extending in a straight line to the same height from the final height point of the seeding judgment;
calculating a ratio of the color of the sprout crop to the total color of the virtual area in the virtual area created by the first and second virtual lines on the image taking surface;
The ratio of the color of the sprout crop in the total color of the virtual area is equal to or greater than a predetermined first threshold rate, and the ratio of the color of the sprout crop in the total color of the virtual area is located higher than the second virtual line determining that it is time to sow the sprouts when it is less than or equal to the second predetermined threshold rate; and
The communication unit comprising the step of transmitting a message informing that it is a sowing time according to the decision of the sowing determination unit to the user's terminal or to the network,
The seeding judgment critical height point is the lowest point in the height section of the sprout crop desired to be planted set by the user, and the seeding judgment final height point is the highest point in the height section of the sprout crop desired by the user to sow. Image, A method of determining the sowing timing of sprouted crops using readouts.
제 6항에 있어서,
상기 제 1 가상선 및 상기 제 2 가상선은 서로 평행하며,
상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점은 상기 사용자가 상기 새싹류 작물의 종류에 따라 설정한 것인, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.
7. The method of claim 6,
The first imaginary line and the second imaginary line are parallel to each other,
The method of determining the seeding timing of sprouts crops using image reading, wherein the seeding judgment critical height point and the seeding judgment final height point are set by the user according to the type of sprout crops.
제 7항에 있어서,
상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 입력받는 단계를 더 포함하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.
8. The method of claim 7,
Further comprising the step of receiving information on the seeding judgment critical height point and the seeding judgment final height point set by the user, the method of determining the seeding time of sprouts crops using image reading.
제 6항에 있어서,
상기 사용자에 의해 설정된 상기 파종판단 임계 높이점 및 상기 파종판단 최종 높이점에 대한 정보를 수신하는 단계를 더 포함하는, 화상판독을 이용한 새싹류 작물의 파종시기 결정 방법.
7. The method of claim 6,
The method of determining a seeding timing of sprouts crops using image reading further comprising the step of receiving information on the seeding judgment critical height point and the seeding judgment final height point set by the user.
KR1020200091234A 2020-07-22 2020-07-22 Apparatus and method for determining sowing time of sprout crops using image reading KR102446453B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200091234A KR102446453B1 (en) 2020-07-22 2020-07-22 Apparatus and method for determining sowing time of sprout crops using image reading

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200091234A KR102446453B1 (en) 2020-07-22 2020-07-22 Apparatus and method for determining sowing time of sprout crops using image reading

Publications (2)

Publication Number Publication Date
KR20220012108A true KR20220012108A (en) 2022-02-03
KR102446453B1 KR102446453B1 (en) 2022-09-22

Family

ID=80268805

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200091234A KR102446453B1 (en) 2020-07-22 2020-07-22 Apparatus and method for determining sowing time of sprout crops using image reading

Country Status (1)

Country Link
KR (1) KR102446453B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198688A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2013005725A (en) * 2011-06-22 2013-01-10 Nikon Corp Growth degree detection device, plant cultivation system, plant cultivation plant, growth degree detection method, and program
KR20200043801A (en) * 2018-10-18 2020-04-28 농업회사법인 만나씨이에이 주식회사 Artificial Intelligence Plant Management System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198688A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2013005725A (en) * 2011-06-22 2013-01-10 Nikon Corp Growth degree detection device, plant cultivation system, plant cultivation plant, growth degree detection method, and program
KR20200043801A (en) * 2018-10-18 2020-04-28 농업회사법인 만나씨이에이 주식회사 Artificial Intelligence Plant Management System

Also Published As

Publication number Publication date
KR102446453B1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
US20200196535A1 (en) System and method for controlling a growth environment of a crop
US10383275B2 (en) Systems and method for monitoring, controlling, and displaying field operations
US10803311B2 (en) Automatic camera parameter adjustment on a plant treatment system
Sonnentag et al. Digital repeat photography for phenological research in forest ecosystems
Andritoiu et al. Agriculture autonomous monitoring and decisional mechatronic system
CN109328828A (en) A kind of preventing disease and pest system of citrus orchard
CN105513096A (en) Method for estimating biomass of winter wheat
CN107977631A (en) The generation method and device of plant protection map
JP2017046639A (en) Crop raising support device and program thereof
CN115294518B (en) Intelligent monitoring method and system for precise greenhouse cultivation of horticultural plants
Shankar et al. Application of UAV for pest, weeds and disease detection using open computer vision
KR102446453B1 (en) Apparatus and method for determining sowing time of sprout crops using image reading
CN109187356A (en) Soybean growing way prediction technique based on satellite remote sensing date
KR20210158094A (en) Smart farm system and operating method thereof
Thrash et al. A low‐cost high‐throughput phenotyping system for automatically quantifying foliar area and greenness
CN112036248A (en) Intelligent fishpond management system based on scene recognition
EP4239593A1 (en) Compensating for occlusions in a detection system of a farming machine
CN111160250A (en) Blueberry growing period detection method and device based on artificial neural network
CN115379150A (en) System and method for automatically generating dynamic video of rice growth process in remote way
CN104914819A (en) Crop management system based on mobile Internet
KR101445321B1 (en) Remote plants managing system using space information and method thereof
JP2004147539A (en) Method for evaluating growth condition of fruit tree
KR20220125642A (en) Temperature control system for plant based on learning using data
WO2021062235A1 (en) Plant identification in the presence of airborne particulates
CN116465457A (en) Plant growth monitoring system based on image processing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right