KR20240080180A - Device and operating method thereof for learning and inferring for each variety of kalanchoe - Google Patents

Device and operating method thereof for learning and inferring for each variety of kalanchoe Download PDF

Info

Publication number
KR20240080180A
KR20240080180A KR1020240024632A KR20240024632A KR20240080180A KR 20240080180 A KR20240080180 A KR 20240080180A KR 1020240024632 A KR1020240024632 A KR 1020240024632A KR 20240024632 A KR20240024632 A KR 20240024632A KR 20240080180 A KR20240080180 A KR 20240080180A
Authority
KR
South Korea
Prior art keywords
kalanchoe
image
image data
artificial intelligence
processor
Prior art date
Application number
KR1020240024632A
Other languages
Korean (ko)
Other versions
KR102692617B1 (en
Inventor
이영분
김주휘
이세영
한태호
연제연
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to KR1020240024632A priority Critical patent/KR102692617B1/en
Publication of KR20240080180A publication Critical patent/KR20240080180A/en
Application granted granted Critical
Publication of KR102692617B1 publication Critical patent/KR102692617B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G22/00Cultivation of specific crops or plants not otherwise provided for
    • A01G22/60Flowers; Ornamental plants
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Botany (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental Sciences (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Forests & Forestry (AREA)
  • Geometry (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

본 개시에 의하면, 이미지 데이터를 기초로, 상기 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시키고, 상기 이미지 데이터를 기초로, 상기 칼랑코에의 캐노피, 상기 칼랑코에의 꽃의 개수, 상기 칼랑코에의 개화율, 상기 칼랑코에의 화경(peduncle)의 비율, 해충으로 인한 상기 칼랑코에의 피해량을 포함하는 복수의 품질 요소들을 예측 및 판정하도록 상기 인공지능 모델을 학습시키고, 상기 이미지 센서로부터 수신된 새로운 이미지 데이터를 학습이 완료된 상기 인공지능 모델에 입력하여 상기 복수의 품질 요소들을 예측 및 판정하는 전자 장치 및 그의 동작 방법을 제공한다.According to the present disclosure, based on image data, an artificial intelligence model is trained to determine the variety of the Kalanchoe, and based on the image data, the canopy of the Kalanchoe, the number of flowers of the Kalanchoe, the flowering rate of the Kalanchoe, and the The artificial intelligence model is trained to predict and determine a plurality of quality factors, including the ratio of the Kalanchoe's peduncle and the amount of damage to the Kalanchoe due to pests, and the new image data received from the image sensor is used to learn the new image data. An electronic device and method of operating the same are provided for predicting and determining the plurality of quality factors by inputting them into an artificial intelligence model.

Description

칼랑코에의 품종 별 품질 요소를 학습 및 예측하기 위한 전자 장치 및 그 동작 방법{DEVICE AND OPERATING METHOD THEREOF FOR LEARNING AND INFERRING FOR EACH VARIETY OF KALANCHOE}Electronic device and operating method for learning and predicting quality factors for each variety of Kalanchoe {DEVICE AND OPERATING METHOD THEREOF FOR LEARNING AND INFERRING FOR EACH VARIETY OF KALANCHOE}

본 개시의 실시예들은 인공지능에 관한 것으로서, 더 상세하게는 칼랑코에의 품종 별 품질 요소를 학습 및 예측하기 위한 전자 장치 및 그 동작 방법에 관한 것이다.Embodiments of the present disclosure relate to artificial intelligence, and more specifically, to an electronic device and method of operating the same for learning and predicting quality factors for each variety of Kalanchoe.

식물 시장의 규모가 점점 증대되고 있다. 식물을 출하하고 소비자에게 납품하는 경우에 식물의 품질을 검사함으로써, 양질의 식물을 소비자에게 제공할 필요가 있다. 소비자가 저품질의 식물을 받으면, 소비자가 식물을 구매함에 따른 만족도가 감소하거나 실망할 수 있고, 이에 따라 소비자의 구매 의욕이 저감될 수 있다. 사람이 식물, 특히 칼랑코에의 품질을 파악하는 것은 매우 어려운 실정인데, 품질 검사 시 사람이 칼랑코에를 다루면서 칼랑코에에 많은 손상을 가하게 되므로 칼랑코에의 품질이 저하될 수 있다. 이에, 칼랑코에를 포함한 식물을 접촉하지 않고 비접촉 방식으로 식물의 품질을 파악하는 기술이 요구되는 실정이다.The size of the plant market is gradually increasing. It is necessary to provide high-quality plants to consumers by inspecting the quality of plants when shipping and delivering them to consumers. If a consumer receives a low-quality plant, the consumer's satisfaction with purchasing the plant may decrease or be disappointed, which may reduce the consumer's willingness to purchase. It is very difficult for people to determine the quality of plants, especially Kalanchoe, and as people handle Kalanchoe during quality inspection and cause a lot of damage to Kalanchoe, the quality of Kalanchoe may deteriorate. Accordingly, there is a need for technology to determine the quality of plants, including Kalanchoe, in a non-contact manner without contacting them.

대한민국 공개특허공보 제10-2019-0108275호(2021.02.05)Republic of Korea Patent Publication No. 10-2019-0108275 (2021.02.05)

종래에는, 사람이 칼랑코에를 다루면서 칼랑코에에 많은 손상을 가하게 되면서, 칼랑코에의 품질이 저하되되고, 칼랑코에의 형상이 작은 한계로 인해 사람이 육안으로 일일이 확인하기 어려운 문제점이 존재하였다.In the past, as people handled kalanchoes and caused a lot of damage to them, the quality of the kalanchoes deteriorated, and the shape of the kalanchoes was limited, making it difficult for people to check them with the naked eye.

본 개시의 실시예들은 상기와 같은 문제점을 포함하여 여러 문제점들을 해결하기 위한 것으로서, 칼랑코에를 포함한 식물을 접촉하지 않고 비접촉 방식으로 칼랑코에의 품종 별 품질 요소를 학습 및 예측하기 위한 전자 장치 및 그 동작 방법을 제공하고자 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 개시의 범위가 한정되는 것은 아니다.Embodiments of the present disclosure are intended to solve various problems including the problems described above, and include an electronic device and operating method for learning and predicting quality factors for each variety of Kalanchoe in a non-contact manner without contacting plants, including Kalanchoe. We would like to provide. However, these tasks are illustrative and do not limit the scope of the present disclosure.

본 개시의 일 관점에 따르면, 칼랑코에를 포함하는 화분을 촬영하여 상기 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성하는 이미지 센서; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 이미지 센서로부터 수신된 상기 이미지 데이터를 기초로, 상기 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시키고, 상기 이미지 데이터를 기초로, 상기 칼랑코에의 캐노피, 상기 칼랑코에의 꽃의 개수, 상기 칼랑코에의 개화율, 상기 칼랑코에의 화경(peduncle)의 비율, 해충으로 인한 상기 칼랑코에의 피해량을 포함하는 복수의 품질 요소들을 예측 및 판정하도록 상기 인공지능 모델을 학습시키고, 상기 이미지 센서로부터 수신된 새로운 이미지 데이터를 학습이 완료된 상기 인공지능 모델에 입력하여 상기 복수의 품질 요소들을 예측 및 판정하는 전자 장치가 제공된다.According to one aspect of the present disclosure, an image sensor for photographing a pollen containing a kalanchoe and generating image data including images of the kalanchoe and the pollen; A memory that stores one or more instructions; And a processor that executes the one or more instructions stored in the memory, wherein the processor trains an artificial intelligence model to determine the variety of the Kalanchoe based on the image data received from the image sensor, and the image Based on the data, predict and determine a plurality of quality factors including the canopy of the kalanchoe, the number of flowers of the kalanchoe, the flowering rate of the kalanchoe, the ratio of peduncles of the kalanchoe, and the amount of damage to the kalanchoe due to pests. An electronic device is provided that trains the artificial intelligence model and inputs new image data received from the image sensor into the trained artificial intelligence model to predict and determine the plurality of quality factors.

본 실시예에 따르면, 상기 프로세서는, 상기 이미지 센서로부터 상기 칼랑코에의 정면이 촬영된 정면 이미지를 포함하는 제1 이미지 데이터를 수신하고, 상기 제1 이미지 데이터에서 상기 정면 이미지를 검출하고, 상기 정면 이미지에서 상기 화분을 제외한 상기 칼랑코에의 폭 및 길이를 측정하고, 상기 품종 및 상기 캐노피를 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 캐노피를 판정하는 상기 인공지능 모델을 학습시킬 수 있다.According to this embodiment, the processor receives first image data including a front image in which the front of the Kalanchoe is photographed from the image sensor, detects the front image from the first image data, and detects the front image The width and length of the Kalanchoe excluding the pollen can be measured, and the artificial intelligence model that determines the canopy according to the variety can be trained based on learning data including the variety and the canopy.

본 실시예에 따르면, 상기 프로세서는, 상기 칼랑코에가 회전되면서 촬영된 상기 칼랑코에의 정면을 각각 포함하는 복수의 제1 이미지 데이터를 수신하고, 상기 복수의 제1 이미지 데이터 각각에 포함된 상기 정면 이미지에서 상기 폭 및 상기 길이를 측정하고, 측정된 복수의 폭들 및 길이들 중 최대 폭 및 최대 길이를 포함하는 상기 캐노피를 상기 학습 데이터로 설정할 수 있다.According to this embodiment, the processor receives a plurality of first image data each including a front view of the kalanchoe photographed while the kalanchoe is rotated, and in the front image included in each of the plurality of first image data The width and the length may be measured, and the canopy including the maximum width and maximum length among the plurality of measured widths and lengths may be set as the learning data.

본 실시예에 따르면, 상기 프로세서는, 상기 이미지 센서로부터 상기 칼랑코에가 탑뷰(top-view) 시점에서 촬영된 탑뷰 이미지를 포함하는 복수의 제2 이미지 데이터를 수신하고, 상기 복수의 제2 이미지 데이터에서 꽃의 개화 상태에 따른 복수의 탑뷰 이미지들을 검출하고, 상기 개화 상태에 따른 각 탑뷰 이미지를 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 칼랑코에의 상기 꽃의 개수 및 상기 칼랑코에의 상기 개화율을 예측 및 판정하는 상기 인공지능 모델을 학습시킬 수 있다.According to this embodiment, the processor receives a plurality of second image data including a top-view image in which the Kalanchoe is photographed from a top-view perspective from the image sensor, and receives from the plurality of second image data Detect a plurality of top-view images according to the flowering state of the flower, and predict the number of flowers of the Kalanchoe and the flowering rate of the Kalanchoe according to the variety based on learning data including each top-view image according to the flowering state. And the artificial intelligence model that makes the decision can be trained.

본 실시예에 따르면, 상기 프로세서는, 상기 복수의 제2 이미지 데이터에서 비개화에 따른 제1 탑뷰 이미지, 부분 개화에 따른 제2 탑뷰 이미지, 및 완전 개화에 따른 제3 탑뷰 이미지를 검출할 수 있다.According to this embodiment, the processor may detect a first top-view image according to non-blooming, a second top-view image according to partial flowering, and a third top-view image according to full flowering from the plurality of second image data. .

본 실시예에 따르면, 상기 프로세서는, 상기 이미지 센서로부터 상기 칼랑코에가 탑뷰 시점에서 촬영된 탑뷰 이미지를 포함하는 제3 이미지 데이터를 수신하고, 상기 제3 이미지 데이터의 상기 탑뷰 이미지에서 상기 칼랑코에의 꽃을 나타내는 이미지와 상기 칼랑코에의 잎을 나타내는 이미지를 구분하고, 상기 칼랑코에의 꽃을 나타내는 상기 이미지에서 상기 꽃의 면적을 측정하고, 상기 면적을 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 칼랑코에의 화경의 비율을 예측 및 판정하는 상기 인공지능 모델을 학습시킬 수 있다.According to this embodiment, the processor receives third image data including a top view image in which the Kalanchoe is photographed from a top view viewpoint from the image sensor, and selects the flower of the Kalanchoe in the top view image of the third image data. Distinguish between the image representing the leaf and the image representing the leaf of the Kalanchoe, measure the area of the flower in the image representing the flower of the Kalanchoe, and based on learning data including the area, the flower size of the Kalanchoe according to the variety. The artificial intelligence model that predicts and determines the ratio can be trained.

본 실시예에 따르면, 상기 프로세서는, 상기 제3 이미지 데이터에서 상기 화분을 중심으로 하는 최외곽의 외접원과 상기 중심에서 가장 가까이 위치하는 꽃에 접하는 내접원을 설정하고, 상기 외접원 및 상기 내접원을 각각 4등분하여, 8개의 영역들을 설정하고, 상기 8개의 영역들 각각에 포함된 꽃의 부분 면적을 측정하고, 상기 부분 면적을 기초로 상기 꽃의 면적을 계산할 수 있다.According to this embodiment, the processor sets an outermost circumscribed circle centered on the flowerpot and an inscribed circle in contact with a flower located closest to the center in the third image data, and sets the circumscribed circle and the inscribed circle to 4, respectively. By dividing the flower into equal parts, eight regions can be set, the partial area of the flower included in each of the eight regions can be measured, and the area of the flower can be calculated based on the partial area.

본 실시예에 따르면, 상기 프로세서는, 상기 이미지 센서로부터 상기 칼랑코에가 탑뷰 시점에서 촬영된 탑뷰 이미지를 포함하는 제4 이미지 데이터를 수신하고, 상기 제4 이미지 데이터의 상기 탑뷰 이미지에서 상기 해충에 의해 피해를 입은 제1 면적을 나타내는 이미지와 상기 해충에 의해 피해를 입지 않은 제2 면적을 나타내는 이미지를 선별하고, 상기 제1 면적을 나타내는 상기 이미지를 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 해충으로 인한 상기 칼랑코에의 상기 피해량을 판정하는 상기 인공지능 모델을 학습시킬 수 있다.According to this embodiment, the processor receives fourth image data from the image sensor including a top view image in which the kalanchoe is photographed from a top view point, and the kalanchoe is damaged by the pest in the top view image of the fourth image data. Select an image representing a first area damaged by the pest and an image representing a second area not damaged by the pest, and based on learning data including the image representing the first area, the pest according to the variety The artificial intelligence model that determines the amount of damage to the Kalanchoe due to can be trained.

본 실시예에 따르면, 상기 프로세서는, 상기 탑뷰 이미지에서 상기 해충을 나타내는 이미지를 더 선별하고, 상기 해충을 나타내는 이미지를 상기 학습 데이터에 포함시킬 수 있다.According to this embodiment, the processor may further select images representing the pests from the top-view image and include the images representing the pests in the learning data.

본 개시의 다른 관점에 따르면, 칼랑코에를 포함하는 화분을 촬영하여 상기 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성하는 단계; 상기 이미지 데이터를 기초로, 상기 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시키는 단계; 상기 이미지 데이터를 기초로, 상기 칼랑코에의 캐노피, 상기 칼랑코에의 꽃의 개수, 상기 칼랑코에의 개화율, 상기 칼랑코에의 화경(peduncle)의 비율, 해충으로 인한 상기 칼랑코에의 피해량을 포함하는 복수의 품질 요소들을 예측 및 판정하도록 상기 인공지능 모델을 학습시키는 단계; 및 새로운 이미지 데이터를 학습이 완료된 상기 인공지능 모델에 입력하여 상기 복수의 품질 요소들을 예측 및 판정하는 단계를 포함하는, 전자 장치의 동작 방법이 제공된다.According to another aspect of the present disclosure, photographing a pollen containing kalanchoe to generate image data containing images of the kalanchoe and the pollen; Based on the image data, training an artificial intelligence model to determine the variety of the Kalanchoe; Based on the image data, predict a plurality of quality factors including the canopy of the kalanchoe, the number of flowers of the kalanchoe, the flowering rate of the kalanchoe, the ratio of peduncles of the kalanchoe, and the amount of damage to the kalanchoe due to pests. And training the artificial intelligence model to make a decision; and inputting new image data into the trained artificial intelligence model to predict and determine the plurality of quality factors.

전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the detailed description, claims and drawings for carrying out the invention below.

또한, 이러한 일반적이고 구체적인 측면이 시스템, 방법, 컴퓨터 프로그램, 또는 어떠한 시스템, 방법, 컴퓨터 프로그램의 조합을 사용하여 실시될 수 있다.Additionally, these general and specific aspects may be practiced using any system, method, computer program, or combination of any system, method, or computer program.

상기한 바와 같이 이루어진 본 개시의 예시적 실시예에 따르면, 식물을 손상시키거나 피해를 주지 않으면서 납품된 식물의 품질을 저하시키지 않는 칼랑코에의 품종 별 품질 요소를 학습 및 예측하기 위한 전자 장치 및 그 동작 방법을 구현할 수 있다. 물론 이러한 효과에 의해 본 개시의 범위가 한정되는 것은 아니다. According to an exemplary embodiment of the present disclosure made as described above, an electronic device for learning and predicting quality factors for each variety of Kalanchoe that does not damage or harm the plant and does not deteriorate the quality of the delivered plant, and the same The operation method can be implemented. Of course, the scope of the present disclosure is not limited by this effect.

도 1은 본 개시의 예시적 실시예에 따른 전자 장치를 개략적으로 도시하는 블록도이다.
도 2는 본 개시의 예시적 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 3은 본 개시의 예시적 실시예에 따른 전자 장치의 동작을 개념적으로 설명하는 흐름도이다.
도 4는 본 개시의 예시적 실시예에 따른 캐노피를 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.
도 5는 본 개시의 예시적 실시예에 따른 칼랑코에의 폭과 길이를 센싱하는 방법을 나타내는 도면이다.
도 6은 본 개시의 예시적 실시예에 따른 칼랑코에의 꽃의 개수 및/또는 개화율을 예측 및 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.
도 7은 본 개시의 예시적 실시예에 따른 개화 단계별 이미지 검출 방법을 도시하는 도면이다.
도 8은 본 개시의 예시적 실시예에 따른 칼랑코에의 화경의 비율을 예측 및 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.
도 9 및 도 10은 본 개시의 예시적 실시예에 따른 동심원들에서 등분된 영역들을 개략적으로 도시하는 도면들이다.
도 11은 본 개시의 예시적 실시예에 따른 해충으로 인한 칼랑코에의 피해량을 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.
도 12는 본 개시의 예시적 실시예에 따른 해충 피해를 검출하는 과정을 시각적으로 도시한 도면이다.
Figure 1 is a block diagram schematically showing an electronic device according to an exemplary embodiment of the present disclosure.
Figure 2 is a flowchart for explaining a method of operating an electronic device according to an exemplary embodiment of the present disclosure.
Figure 3 is a flowchart conceptually explaining the operation of an electronic device according to an exemplary embodiment of the present disclosure.
Figure 4 is a flowchart illustrating the steps of learning an artificial intelligence model for determining a canopy according to an exemplary embodiment of the present disclosure.
Figure 5 is a diagram showing a method for sensing the width and length of a kalanchoe according to an exemplary embodiment of the present disclosure.
Figure 6 is a flowchart illustrating the steps of learning an artificial intelligence model for predicting and determining the number of Kalanchoe flowers and/or the flowering rate according to an exemplary embodiment of the present disclosure.
Figure 7 is a diagram illustrating a method for detecting images at each stage of flowering according to an exemplary embodiment of the present disclosure.
Figure 8 is a flowchart illustrating the steps of learning an artificial intelligence model for predicting and determining the flower diameter ratio of Kalanchoe according to an exemplary embodiment of the present disclosure.
9 and 10 are diagrams schematically showing areas divided into concentric circles according to an exemplary embodiment of the present disclosure.
Figure 11 is a flowchart illustrating the steps of learning an artificial intelligence model for determining the amount of damage to Kalanchoe caused by pests according to an exemplary embodiment of the present disclosure.
Figure 12 is a diagram visually illustrating a process for detecting pest damage according to an exemplary embodiment of the present disclosure.

본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 개시의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present disclosure can be modified and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various forms.

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component.

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, singular terms include plural terms unless the context clearly dictates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as include or have mean that the features or components described in the specification exist, and do not exclude in advance the possibility of adding one or more other features or components.

이하의 실시예에서, 층, 영역, 구성 요소 등의 부분이 다른 부분 위에 또는 상에 있다고 할 때, 다른 부분의 바로 위에 있는 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소 등이 개재되어 있는 경우도 포함한다. In the following embodiments, when a part of a layer, area, component, etc. is said to be on or on another part, not only when it is directly on top of the other part, but also when other areas, components, etc. are interposed between them. Also includes.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 개시가 반드시 도시된 바에 한정되지 않는다.In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are shown arbitrarily for convenience of explanation, so the present disclosure is not necessarily limited to what is shown.

어떤 실시예가 달리 구현 가능한 경우에 특정한 동작 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 단계가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다. If an embodiment can be implemented differently, a specific operation sequence may be performed differently from the described sequence. For example, two steps described in succession may be performed substantially simultaneously, or may be performed in an order opposite to that described.

본 명세서에서 “A 및/또는 B”은 A이거나, B이거나, A와 B인 경우를 나타낸다. 그리고, “A 및 B 중 적어도 하나는 A이거나, B이거나, A와 B인 경우를 나타낸다.In this specification, “A and/or B” refers to A, B, or A and B. And, “At least one of A and B is A, B, or A and B.

이하의 실시예에서, 층, 영역, 구성 요소 등이 연결되었다고 할 때, 층, 영역, 구성 요소들이 직접적으로 연결된 경우, 또는/및 층, 영역, 구성요소들 중간에 다른 층, 영역, 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다. 예컨대, 본 명세서에서 층, 영역, 구성 요소 등이 전기적으로 연결되었다고 할 때, 층, 영역, 구성 요소 등이 직접 전기적으로 연결된 경우, 및/또는 그 중간에 다른 층, 영역, 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우를 나타낸다. In the following embodiments, when layers, areas, components, etc. are said to be connected, when the layers, areas, and components are directly connected, or/and other layers, areas, and components are in the middle of the layers, areas, and components. This also includes cases where they are interposed and indirectly connected. For example, when layers, regions, components, etc. are said to be electrically connected in this specification, when the layers, regions, components, etc. are directly electrically connected, and/or other layers, regions, components, etc. are interposed between them. indicates a case of indirect electrical connection.

x축, y축 및 z축은 직교 좌표계 상의 세 축으로 한정되지 않고, 이를 포함하는 넓은 의미로 해석될 수 있다. 예를 들어, x축, y축 및 z축은 서로 직교할 수도 있지만, 서로 직교하지 않는 서로 다른 방향을 지칭할 수도 있다.The x-axis, y-axis, and z-axis are not limited to the three axes in the Cartesian coordinate system and can be interpreted in a broad sense including these. For example, the x-axis, y-axis, and z-axis may be orthogonal to each other, but may also refer to different directions that are not orthogonal to each other.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술 분야의 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure is complete and to provide a general understanding of the technical field to which the present disclosure pertains. It is provided to fully inform those skilled in the art of the scope of the present disclosure, and the present disclosure is defined only by the scope of the claims.

본 개시에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 개시에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있다. 개시에서 사용되는 "포함할 수 있다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 개시 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함할 수 있다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used in this disclosure is for describing embodiments and is not intended to limit the disclosure. In this disclosure, singular forms may also include plural forms unless specifically stated otherwise in the context. As used in the disclosure, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the disclosure, and “and/or” can include each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be the second component within the technical spirit of the present disclosure.

"예시적인"이라는 단어는 본 개시에서 "예시 또는 예증으로서 사용된"의 의미로 사용된다. 본 개시에서 "예시적인"것으로 설명된 임의의 실시예는 반드시 바람직한 것으로서 해석되거나 다른 실시예들보다 이점을 갖는 것으로 해석되어서는 안된다.The word “exemplary” is used in this disclosure to mean “used as an example or illustration.” Any embodiment described as “exemplary” in this disclosure should not necessarily be construed as preferred or as having an advantage over other embodiments.

본 개시의 실시예들은 기능 또는 기능을 수행하는 블록의 관점에서 설명될 수 있다. 본 개시의 '부' 또는 '모듈' 등으로 지칭될 수 있는 블록은 논리 게이트, 집적 회로, 마이크로 프로세서, 마이크로 컨트롤러, 메모리, 수동 전자 부품, 능동 전자 부품, 광학 컴포넌트, 하드와이어드 회로(hardwired circuits) 등과 같은 아날로그 또는 디지털 회로에 의해 물리적으로 구현되고, 선택적으로 펌웨어 및 소프트웨어에 의해 구동될 수 있다. 또한, 개시에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 엘리먼트를 의미하며, "부"는 어떤 역할들을 수행할 수 있다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 엘리먼트들, 객체지향 소프트웨어 엘리먼트들, 클래스 엘리먼트들 및 태스크 엘리먼트들과 같은 엘리먼트들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함할 수 있다. 엘리먼트들과 "부"들 안에서 제공되는 기능은 더 작은 수의 엘리먼트들 및 "부"들로 결합되거나 추가적인 엘리먼트들과 "부"들로 더 분리될 수 있다.Embodiments of the present disclosure may be described in terms of a function or a block that performs a function. Blocks that may be referred to as 'units' or 'modules' of the present disclosure include logic gates, integrated circuits, microprocessors, microcontrollers, memories, passive electronic components, active electronic components, optical components, and hardwired circuits. It is physically implemented by analog or digital circuits, etc., and can optionally be driven by firmware and software. Additionally, the term “unit” used in the disclosure refers to a hardware element such as software, FPGA, or ASIC, and the “unit” may perform certain roles. However, “wealth” is not limited to software or hardware. The “copy” may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, “part” refers to elements such as software elements, object-oriented software elements, class elements, and task elements, processes, functions, properties, procedures, subroutines, and programs. May include segments of code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within elements and “parts” may be combined into smaller numbers of elements and “parts” or may be further separated into additional elements and “parts”.

본 개시의 실시예는 적어도 하나의 하드웨어 디바이스 상에서 실행되는 적어도 하나의 소프트웨어 프로그램을 사용하여 구현될 수 있고 엘리먼트를 제어하기 위해 네트워크 관리 기능을 수행할 수 있다.Embodiments of the present disclosure may be implemented using at least one software program running on at least one hardware device and may perform network management functions to control elements.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 할 수 있다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여 질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms may be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if you flip a component shown in a drawing, a component described as “below” or “beneath” another component will be placed “above” the other component. You can lose. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.

다른 정의가 없다면, 본 개시에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this disclosure may be used with meanings that can be commonly understood by those skilled in the art to which this disclosure pertains. Additionally, terms defined in commonly used dictionaries are not to be interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부된 도면을 참조하여 본 개시의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

본 개시에서의 용어는 다음과 같이 정의된다. 분화: 화분에서 자라는 식물, 초장: 뿌리와 줄기 경계로부터 잎 끝까지의 길이(식물 세로 길이), 식물폭: 식물 가로 길이, 캐노피: 식물 지상부(초장과 식물폭)의 형태, 개화: 꽃이 피는 현상, 비개화: 꽃이 아직 피지 않은 현상, 개화율: 꽃이 핀 비율, 화경: 꽃자루, 또는 하나의 꽃이 화축에 피어있을 때 꽃대와 연결되는 자루 부분, 위조: 식물이 시들고 마르는 현상, 충 피해: 곤충에 의한 피해, 비품: 상품성이 없는 식물 또는 판매하지 않은 식물, 선별: 크기 또는 등급에 따라 물품을 정리하는 작업Terms in this disclosure are defined as follows. Differentiation: Plant growing in a pot, Plant height: Length from the root and stem border to the tip of the leaf (vertical plant length), Plant width: Horizontal length of the plant, Canopy: Shape of the above-ground part of the plant (plant height and plant width), Flowering: The phenomenon of flowering , non-blooming: a phenomenon in which flowers have not yet bloomed, flowering rate: the rate at which flowers have bloomed, peduncle: the peduncle, or the part of the peduncle connected to the peduncle when one flower is blooming on the peduncle, forgery: a phenomenon in which the plant wilts and dries out, insect damage: Damage caused by insects, supplies: unmarketable plants or unsold plants, sorting: the task of organizing items according to size or grade

도 1은 본 개시의 예시적 실시예에 따른 전자 장치(100)를 개략적으로 도시하는 블록도이다.FIG. 1 is a block diagram schematically showing an electronic device 100 according to an exemplary embodiment of the present disclosure.

도 1을 참조하면, 전자 장치(100)는 사용자 단말과 통신할 수 있고, 프로그램 데이터의 프로그램을 실행할 수 있다. 본 명세서에서 '칼랑코에의 품종 별 품질 요소를 학습 및 예측하기 위한 전자 장치(이하, 본 개시에 따른 장치)'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 장치는, 컴퓨팅 장치로서, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다. 여기에서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다. 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handy-phone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.Referring to FIG. 1, the electronic device 100 can communicate with a user terminal and execute a program of program data. In this specification, 'electronic device for learning and predicting quality factors for each variety of Kalanchoe (hereinafter referred to as device according to the present disclosure)' includes various devices that can perform computational processing and provide results to the user. For example, the device according to the present disclosure is a computing device, and may include all of a computer, a server device, and a portable terminal, or may take the form of any one. Here, the computer may include, for example, a laptop equipped with a web browser, a desktop, a laptop, a tablet PC, a slate PC, etc. A server device is a server that processes information by communicating with external devices and may include an application server, computing server, database server, file server, game server, mail server, proxy server, and web server. Portable terminals are, for example, wireless communication devices that ensure portability and mobility, such as PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handy-phone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone (Smart Phone) All types of handheld wireless communication devices such as phones and wearables such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted devices (HMDs). May include devices.

이미지 센서(110)는 식물을 촬영할 수 있다. 예시적인 실시예들에서, 이미지 센서(110)는 칼랑코에 및 칼랑코에를 포함하는 화분을 촬영할 수 있다. 예시적인 실시예들에서, 이미지 센서(110)는 칼랑코에를 포함하는 화분을 촬영하여 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성할 수 있다. 이미지 센서(110)는 칼랑코에의 정면, 측면, 상부면, 후면 등 다양한 관점에서 칼랑코에를 촬영할 수 있다. 예시적인 실시예들에서, 이미지 센서(110)는 카메라로 구현될 수 있으나, 본 개시가 예시적인 실시예에 한정되는 것은 아니다. 본 개시에서, 칼랑코에의 상면부를 촬영한 영상은 '탑뷰(top-view) 이미지'로 지칭된다. The image sensor 110 can photograph plants. In example embodiments, the image sensor 110 may image kalanchoe and pollen containing kalanchoe. In example embodiments, the image sensor 110 may generate image data including images of the kalanchoe and the pollen by photographing a pollen containing the kalanchoe. The image sensor 110 can photograph the kalanchoe from various perspectives, such as the front, side, top, and back of the kalanchoe. In example embodiments, the image sensor 110 may be implemented as a camera, but the present disclosure is not limited to the example embodiments. In the present disclosure, an image taken of the upper surface of a kalanchoe is referred to as a 'top-view image'.

메모리(120)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장할 수 있고, 메모리(120)에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(130)로 구현될 수 있다. 여기에서, 메모리(120)와 프로세서(130)는 각각 별개의 칩으로 구현될 수 있다. 또한, 메모리(120)와 프로세서(130)는 단일 칩으로 구현될 수도 있다. The memory 120 can store data for an algorithm for controlling the operation of components within the device or a program that reproduces the algorithm, and at least one device that performs the above-described operation using the data stored in the memory 120. It may be implemented with the processor 130. Here, the memory 120 and the processor 130 may each be implemented as separate chips. Additionally, the memory 120 and processor 130 may be implemented as a single chip.

메모리(120)는 본 장치의 다양한 기능을 지원하는 데이터와, 프로세서(130)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들, 및 하나 이상의 인스트럭션을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.The memory 120 can store data supporting various functions of the device and a program for the operation of the processor 130, can store input/output data, and can store a plurality of application programs running on the device. program or application), data for operation of the device, commands, and one or more instructions can be stored. At least some of these applications may be downloaded from an external server via wireless communication.

이러한, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(120)는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.The memory 120 includes a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), and a multimedia card micro type. micro type), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable) It may include at least one type of storage medium among programmable read-only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. Additionally, the memory 120 is separate from the device, but may be a database connected by wire or wirelessly.

프로세서(130)는, 메모리(120)에 저장된 하나 이상의 인스트럭션을 실행할 수 있다. 프로세서(130)는, 이미지 센서(110)로부터 수신된 이미지 데이터를 기초로, 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시킬 수 있다. 그리고, 프로세서(130)는 인공신경망 처리부를 통해 이미지 데이터를 기초로 복수의 품질 요소들을 예측 및 판정하도록 인공지능 모델을 학습시킬 수 있다. 예시적인 실시예들에서, 복수의 품질 요소들은, 칼랑코에의 캐노피, 칼랑코에의 꽃의 개수, 칼랑코에의 개화율, 칼랑코에의 화경(peduncle)의 비율, 해충으로 인한 칼랑코에의 피해량을 포함할 수 있다. 프로세서(130)는, 이미지 센서(110)로부터 수신된 새로운 이미지 데이터를 학습이 완료된 인공지능 모델에 입력하여 복수의 품질 요소들을 예측 및 판정할 수 있다. The processor 130 may execute one or more instructions stored in the memory 120. The processor 130 may train an artificial intelligence model to determine the variety of Kalanchoe based on image data received from the image sensor 110. Additionally, the processor 130 can train an artificial intelligence model to predict and determine a plurality of quality factors based on image data through an artificial neural network processing unit. In example embodiments, the plurality of quality factors may include the canopy of the kalanchoe, the number of flowers of the kalanchoe, the flowering rate of the kalanchoe, the proportion of peduncles of the kalanchoe, and the amount of damage to the kalanchoe due to pests. The processor 130 may input new image data received from the image sensor 110 into a trained artificial intelligence model to predict and determine a plurality of quality factors.

인공지능 모델은 인공신경망 처리부를 통해 구현될 수 있다. 예를 들어 인공신경망 처리부는 메모리(120)에 저장된 함수, 라이브러리, 파라미터값, 하이퍼파라미터 등을 호출해 인공지능 모델을 구현할 수 있다.Artificial intelligence models can be implemented through an artificial neural network processing unit. For example, the artificial neural network processing unit can implement an artificial intelligence model by calling functions, libraries, parameter values, hyperparameters, etc. stored in the memory 120.

예시적인 실시예들에서, 프로세서(130)는, 이미지 데이터의 이미지를 인공지능 모델의 입력으로 적합하게 전처리할 수 있다.In example embodiments, the processor 130 may appropriately preprocess images of image data as input to an artificial intelligence model.

본 개시에 따른 인공지능과 관련된 기능은 프로세서(130)와 메모리(120)를 통해 동작된다. 프로세서(130)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리(120)에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.Functions related to artificial intelligence according to the present disclosure are operated through the processor 130 and memory 120. The processor 130 may be comprised of one or multiple processors. At this time, one or more processors may be a general-purpose processor such as a CPU, AP, or DSP (Digital Signal Processor), a graphics-specific processor such as a GPU or VPU (Vision Processing Unit), or an artificial intelligence-specific processor such as an NPU. One or more processors control input data to be processed according to predefined operation rules or artificial intelligence models stored in the memory 120. Alternatively, when one or more processors are dedicated artificial intelligence processors, the artificial intelligence dedicated processors may be designed with a hardware structure specialized for processing a specific artificial intelligence model.

기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도 형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.Predefined operation rules or artificial intelligence models are characterized by being created through learning. Here, being created through learning means that the basic artificial intelligence model is learned using a large number of learning data by a learning algorithm, thereby creating a predefined operation rule or artificial intelligence model set to perform the desired characteristics (or purpose). It means burden. This learning may be performed on the device itself that performs the artificial intelligence according to the present disclosure, or may be performed through a separate server and/or system. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but are not limited to the examples described above.

인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들 (weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경 망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN: Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.An artificial intelligence model may be composed of multiple neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and neural network calculation is performed through calculation between the calculation result of the previous layer and the plurality of weights. Multiple weights of multiple neural network layers can be optimized by the learning results of the artificial intelligence model. For example, a plurality of weights may be updated so that loss or cost values obtained from the artificial intelligence model are reduced or minimized during the learning process. Artificial neural networks may include deep neural networks (DNN), such as Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN), or Deep Q-Networks, etc., but are not limited to the examples described above.

본 개시의 예시적인 실시예에 따르면, 프로세서(130)는 인공지능을 구현할 수 있다. 인공지능이란 사람의 신경세포(biological neuron)를 모사하여 기계가 학습하도록 하는 인공신경망(Artificial Neural Network) 기반의 기계 학습법을 의미한다. 인공지능의 방법론에는 학습 방식에 따라 훈련데이터로서 입력데이터와 출력데이터가 같이 제공됨으로써 문제(입력데이터)의 해답(출력데이터)이 정해져 있는 지도학습(supervised learning), 및 출력데이터 없이 입력데이터만 제공되어 문제(입력데이터)의 해답(출력데이터)이 정해지지 않는 비지도학습(unsupervised learning), 및 현재의 상태(State)에서 어떤 행동(Action)을 취할 때마다 외부 환경에서 보상(Reward)이 주어지는데, 이러한 보상을 최대화하는 방향으로 학습을 진행하는 강화학습(reinforcement learning)으로 구분될 수 있다. 또한, 인공지능의 방법론은 학습 모델의 구조인 아키텍처에 따라 구분될 수도 있는데, 널리 이용되는 딥러닝 기술의 아키텍처는, 합성곱신경망(CNN; Convolutional Neural Network), 순환신경망(RNN; Recurrent Neural Network), 트랜스포머(Transformer), 생성적 대립 신경망(GAN; generative adversarial networks) 등으로 구분될 수 있다.According to an exemplary embodiment of the present disclosure, the processor 130 may implement artificial intelligence. Artificial intelligence refers to a machine learning method based on an artificial neural network that allows machines to learn by imitating human biological neurons. Methodology of artificial intelligence includes supervised learning, in which the answer (output data) to the problem (input data) is determined by providing input data and output data together as training data according to the learning method, and only input data is provided without output data. In unsupervised learning, in which the solution (output data) to the problem (input data) is not determined, and a reward is given from the external environment whenever an action is taken in the current state, , It can be divided into reinforcement learning, which conducts learning in the direction of maximizing these rewards. In addition, artificial intelligence methodologies can be divided according to the architecture, which is the structure of the learning model. The architecture of widely used deep learning technology is convolutional neural network (CNN) and recurrent neural network (RNN). , Transformer, generative adversarial networks (GAN), etc.

본 장치와 시스템은 인공지능 모델을 포함할 수 있다. 인공지능 모델은 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 인공지능 모델은 뉴럴 네트워크(또는 인공 신경망)로 구성될 수 있으며, 기계학습과 인지과학에서 생물학의 신경을 모방한 통계학적 학습 알고리즘을 포함할 수 있다. 뉴럴 네트워크는 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 뉴럴 네트워크의 뉴런은 가중치 또는 바이어스의 조합을 포함할 수 있다. 뉴럴 네트워크는 하나 이상의 뉴런 또는 노드로 구성된 하나 이상의 레이어(layer)를 포함할 수 있다. 예시적으로, 장치는 input layer, hidden layer, output layer를 포함할 수 있다. 장치를 구성하는 뉴럴 네트워크는 뉴런의 가중치를 학습을 통해 변화시킴으로써 임의의 입력(input)으로부터 예측하고자 하는 결과(output)를 추론할 수 있다.The devices and systems may include artificial intelligence models. An artificial intelligence model may be a single artificial intelligence model or may be implemented as multiple artificial intelligence models. Artificial intelligence models may be composed of neural networks (or artificial neural networks) and may include statistical learning algorithms that mimic biological neurons in machine learning and cognitive science. A neural network can refer to an overall model in which artificial neurons (nodes), which form a network through the combination of synapses, change the strength of the synapse connection through learning and have problem-solving capabilities. Neurons in a neural network can contain combinations of weights or biases. A neural network may include one or more layers consisting of one or more neurons or nodes. By way of example, a device may include an input layer, a hidden layer, and an output layer. The neural network that makes up the device can infer the result (output) to be predicted from arbitrary input (input) by changing the weight of neurons through learning.

프로세서(130)는 뉴럴 네트워크를 생성하거나, 뉴럴 네트워크를 훈련(train, 또는 학습(learn)하거나, 수신되는 입력 데이터를 기초로 연산을 수행하고, 수행 결과를 기초로 정보 신호(information signal)를 생성하거나, 뉴럴 네트워크를 재훈련(retrain)할 수 있다. 뉴럴 네트워크의 모델들은 GoogleNet, AlexNet, VGG Network 등과 같은 CNN(Convolution Neural Network), R-CNN(Region with Convolution Neural Network), RPN(Region Proposal Network), RNN(Recurrent Neural Network), S-DNN(Stacking-based deep Neural Network), S-SDNN(State-Space Dynamic Neural Network), Deconvolution Network, DBN(Deep Belief Network), RBM(Restrcted Boltzman Machine), Fully Convolutional Network, LSTM(Long Short-Term Memory) Network, Classification Network 등 다양한 종류의 모델들을 포함할 수 있으나 이에 제한되지는 않는다. 프로세서(130)는 뉴럴 네트워크의 모델들에 따른 연산을 수행하기 위한 하나 이상의 프로세서를 포함할 수 있다. 예를 들어 뉴럴 네트워크는 심층 뉴럴 네트워크 (Deep Neural Network)를 포함할 수 있다.The processor 130 creates a neural network, trains or learns a neural network, performs an operation based on received input data, and generates an information signal based on the performance result. Alternatively, neural network models can be CNN (Convolution Neural Network) such as GoogleNet, AlexNet, VGG Network, R-CNN (Region with Convolution Neural Network), and RPN (Region Proposal Network). ), Recurrent Neural Network (RNN), Stacking-based deep Neural Network (S-DNN), State-Space Dynamic Neural Network (S-SDNN), Deconvolution Network, Deep Belief Network (DBN), Restrcted Boltzman Machine (RBM), The processor 130 may include various types of models such as Fully Convolutional Network, LSTM (Long Short-Term Memory) Network, and Classification Network, but is not limited thereto. The processor 130 is one for performing operations according to neural network models. For example, a neural network may include a deep neural network.

뉴럴 네트워크는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), 퍼셉트론(perceptron), 다층 퍼셉트론(multilayer perceptron), FF(Feed Forward), RBF(Radial Basis Network), DFF(Deep Feed Forward), LSTM(Long Short Term Memory), GRU(Gated Recurrent Unit), AE(Auto Encoder), VAE(Variational Auto Encoder), DAE(Denoising Auto Encoder), SAE(Sparse Auto Encoder), MC(Markov Chain), HN(Hopfield Network), BM(Boltzmann Machine), RBM(Restricted Boltzmann Machine), DBN(Depp Belief Network), DCN(Deep Convolutional Network), DN(Deconvolutional Network), DCIGN(Deep Convolutional Inverse Graphics Network), GAN(Generative Adversarial Network), LSM(Liquid State Machine), ELM(Extreme Learning Machine), ESN(Echo State Network), DRN(Deep Residual Network), DNC(Differentiable Neural Computer), NTM(Neural Turning Machine), CN(Capsule Network), KN(Kohonen Network) 및 AN(Attention Network)를 포함할 수 있으나 이에 한정되는 것이 아닌 임의의 뉴럴 네트워크를 포함할 수 있음은 통상의 기술자가 이해할 것이다.Neural networks include CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), perceptron, multilayer perceptron, FF (Feed Forward), RBF (Radial Basis Network), DFF (Deep Feed Forward), and LSTM. (Long Short Term Memory), GRU (Gated Recurrent Unit), AE (Auto Encoder), VAE (Variational Auto Encoder), DAE (Denoising Auto Encoder), SAE (Sparse Auto Encoder), MC (Markov Chain), HN (Hopfield) Network), BM (Boltzmann Machine), RBM (Restricted Boltzmann Machine), DBN (Depp Belief Network), DCN (Deep Convolutional Network), DN (Deconvolutional Network), DCIGN (Deep Convolutional Inverse Graphics Network), GAN (Generative Adversarial Network) ), Liquid State Machine (LSM), Extreme Learning Machine (ELM), Echo State Network (ESN), Deep Residual Network (DRN), Differential Neural Computer (DNC), Neural Turning Machine (NTM), Capsule Network (CN), Those skilled in the art will understand that it may include any neural network, including, but not limited to, KN (Kohonen Network) and AN (Attention Network).

본 개시의 예시적인 실시예에 따르면, 프로세서(130)는 GoogleNet, AlexNet, VGG Network 등과 같은 CNN(Convolution Neural Network), R-CNN(Region with Convolution Neural Network), RPN(Region Proposal Network), RNN(Recurrent Neural Network), S-DNN(Stacking-based deep Neural Network), S-SDNN(State-Space Dynamic Neural Network), Deconvolution Network, DBN(Deep Belief Network), RBM(Restrcted Boltzman Machine), Fully Convolutional Network, LSTM(Long Short-Term Memory) Network, Classification Network, Generative Modeling, eXplainable AI, Continual AI, Representation Learning, AI for Material Design, 자연어 처리를 위한 BERT, SP-BERT, MRC/QA, Text Analysis, Dialog System, GPT-3, GPT-4, 비전 처리를 위한 Visual Analytics, Visual Understanding, Video Synthesis, ResNet 데이터 지능을 위한 Anomaly Detection, Prediction, Time-Series Forecasting, Optimization, Recommendation, Data Creation 등 다양한 인공지능 구조 및 알고리즘을 이용할 수 있으며, 이에 제한되지 않는다.According to an exemplary embodiment of the present disclosure, the processor 130 is configured to operate a Convolution Neural Network (CNN), Region with Convolution Neural Network (R-CNN), Region Proposal Network (RPN), and RNN (such as GoogleNet, AlexNet, VGG Network, etc.). Recurrent Neural Network), S-DNN (Stacking-based deep Neural Network), S-SDNN (State-Space Dynamic Neural Network), Deconvolution Network, DBN (Deep Belief Network), RBM (Restrcted Boltzman Machine), Fully Convolutional Network, LSTM (Long Short-Term Memory) Network, Classification Network, Generative Modeling, eXplainable AI, Continual AI, Representation Learning, AI for Material Design, BERT for natural language processing, SP-BERT, MRC/QA, Text Analysis, Dialog System, Various artificial intelligence structures and algorithms such as GPT-3, GPT-4, Visual Analytics for vision processing, Visual Understanding, Video Synthesis, Anomaly Detection, Prediction, Time-Series Forecasting, Optimization, Recommendation, and Data Creation for ResNet data intelligence. It can be used, but is not limited to this.

도시되지 않았지만, 전자 장치(100)는 통신부를 더 포함할 수 있다. 통신부는 적어도 하나의 사용자 단말과 통신을 수행할 수 있다. 이때, 통신부는 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.Although not shown, the electronic device 100 may further include a communication unit. The communication unit may perform communication with at least one user terminal. At this time, the communication unit includes GSM (global system for mobile communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), UMTS (universal mobile telecommunications system), in addition to Wi-Fi module and WiBro (Wireless broadband) module. ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, 6G, etc. may include a wireless communication module that supports various wireless communication methods.

전술한 예시적인 실시예들에 의하면, 칼랑코에를 직접적으로 접촉하거나 파괴시키지 않고 비접촉 방식으로 인공지능 모델을 통해 칼랑코에의 품종 별 품질 요소들을 파악함으로써, 칼랑코에를 포함한 식물에 가하는 손상과 피해를 방지할 수 있고, 식물의 품질이 저하되는 것을 방지할 수 있으며, 식물의 상품성을 개선할 수 있는 효과가 있다.According to the above-described exemplary embodiments, damage and damage to plants, including Kalanchoe, can be prevented by identifying quality factors for each variety of Kalanchoe through an artificial intelligence model in a non-contact manner without directly contacting or destroying Kalanchoe. It can prevent the quality of plants from deteriorating and has the effect of improving the marketability of plants.

도 2는 본 개시의 예시적 실시예에 따른 전자 장치(100)의 동작 방법을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart illustrating a method of operating the electronic device 100 according to an exemplary embodiment of the present disclosure.

도 2를 참조하면, 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성하는 단계(S100)가 수행된다. 예시적인 실시예에서, 이미지 센서(110)는, 칼랑코에에 포함된 화분을 촬영하여 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성할 수 있다. 그리고, 이미지 센서(110)는 이미지 데이터를 프로세서(130)에 제공할 수 있다. 본 개시에서는 이미지 데이터는 2차원 RGB 이미지로 예시되었으나, 이에 한정되지 않고 열을 기반으로 촬영한 화상 이미지, 분광 스펙트럼 기반 이미지, 깊이값을 포함한 뎁스 이미지 등 다양한 촬상 기법이 이용될 수 있다.Referring to FIG. 2, a step (S100) of generating image data including images of kalanchoe and pollen is performed. In an exemplary embodiment, the image sensor 110 may generate image data including images of the kalanchoe and the pollen by photographing a pollen included in the kalanchoe. Additionally, the image sensor 110 may provide image data to the processor 130. In the present disclosure, the image data is exemplified as a two-dimensional RGB image, but is not limited to this and various imaging techniques such as image images taken based on heat, spectral images based on spectral spectra, and depth images including depth values can be used.

이미지 데이터를 기초로 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시키는 단계(S120)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 이미지 데이터를 기초로, 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시킬 수 있다. 품종 별 칼랑코에의 품질을 파악하기 위한 기준점을 세우는 것과 품종 별 가이드라인을 세우는 것이 중요하다. 이에, 전자 장치(100)는, 칼랑코에 정면 이미지 수집하고, 칼랑코에에 대한 이미지를 검출하며, 칼랑코에의 품종 별로 꽃의 색상, 형태 등과 같은 특징 객체들을 검출하고, 인공지능 모델을 통해 품종을 파악 및 결정할 수 있다. 예시적인 실시예에서, 프로세서(130)는, 화분의 전체 이미지를 박싱(boxing)하여 박스 내에 포함되는 화분 이미지를 추출하고, 화분 이미지에서 꽃의 색, 사이즈 등의 특징들을 검출하며, 검출된 특징들 및 라벨링된 칼랑코에의 품종을 포함하는 데이터셋을 칼랑코에의 품종을 판정하는 인공지능 모델에 학습시킬 수 있다. A step (S120) of learning an artificial intelligence model to determine the variety of Kalanchoe based on image data is performed. In an example embodiment, the processor 130 may train an artificial intelligence model to determine the variety of Kalanchoe based on image data. It is important to establish a standard for understanding the quality of Kalanchoe for each variety and to establish guidelines for each variety. Accordingly, the electronic device 100 collects frontal images of Kalanchoe, detects images of Kalanchoe, detects feature objects such as flower color and shape for each Kalanchoe variety, and identifies and determines the variety through an artificial intelligence model. You can. In an exemplary embodiment, the processor 130 extracts the flowerpot image included in the box by boxing the entire image of the flowerpot, detects features such as color and size of the flower in the flowerpot image, and detects the detected features. A dataset containing fields and labeled Kalanchoe varieties can be trained on an artificial intelligence model that determines Kalanchoe varieties.

이미지 데이터를 기초로 칼랑코에의 복수의 품질 요소들을 예측 및 판정하도록 인공지능 모델을 학습시키는 단계(S130)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 이미지 데이터를 기초로, 칼랑코에의 캐노피, 칼랑코에의 꽃의 개수, 칼랑코에의 개화율, 칼랑코에의 화경(peduncle)(화축에 꽃이 배열되어 있는 상태, 또는 꽃이 달리는 모양)의 비율, 해충으로 인한 칼랑코에의 피해량을 포함하는 복수의 품질 요소들을 판정하도록 인공지능 모델을 학습시킬 수 있다. A step (S130) of training an artificial intelligence model to predict and determine a plurality of quality factors of Kalanchoe based on image data is performed. In an exemplary embodiment, the processor 130 determines, based on the image data, the canopy of the kalanchoe, the number of flowers of the kalanchoe, the flowering rate of the kalanchoe, and the peduncle of the kalanchoe (the state in which the flowers are arranged on the flower axis, or flowers). Artificial intelligence models can be trained to determine multiple quality factors, including the proportion of kalanchoe plants (running shapes) and the amount of damage to kalanchoes due to pests.

본 개시에서, 꽃의 개수는 개화된 꽃의 수 및 비개화된 꽃의 수의 합산이고, 개화율이란 개화된 꽃의 수를 꽃의 개수로 나눈 후 100을 곱한 값(백분율)이다. In the present disclosure, the number of flowers is the sum of the number of flowered flowers and the number of unflowered flowers, and the flowering rate is the number of flowered flowers divided by the number of flowers and then multiplied by 100 (percentage).

새로운 이미지 데이터를 학습이 완료된 인공지능 모델에 입력하여 복수의 품질 요소들을 예측 및 판정하는 단계(S140)가 수행된다. 예시적인 실시예에서, 이미지 센서(110)는 새로운 이미지 데이터를 생성하여 프로세서(130)에 제공할 수 있고, 프로세서(130)는, 이미지 센서(110)로부터 수신된 새로운 이미지 데이터를, 학습이 완료된 인공지능 모델에 입력하여, 복수의 품질 요소들을 예측 및 판정할 수 있다. 예시적인 실시예에서, 인공지능 모델에 의해 예측 및 판정된 품질 요소들의 예측 및 판정 결과는 점수로 출력될 수 있다. 점수에 관하여는 도 9를 통해 보다 상세히 설명될 것이다.A step (S140) of predicting and determining a plurality of quality factors is performed by inputting new image data into a trained artificial intelligence model. In an exemplary embodiment, the image sensor 110 may generate new image data and provide it to the processor 130, and the processor 130 may generate new image data received from the image sensor 110, By inputting it into an artificial intelligence model, multiple quality factors can be predicted and determined. In an exemplary embodiment, the prediction and determination results of quality factors predicted and determined by the artificial intelligence model may be output as scores. The scores will be explained in more detail through FIG. 9.

도 3은 본 개시의 예시적 실시예에 따른 전자 장치의 동작을 개념적으로 설명하는 흐름도이다.Figure 3 is a flowchart conceptually explaining the operation of an electronic device according to an exemplary embodiment of the present disclosure.

도 3을 참조하면, 전자 장치(100)에 포함된 이미지 센서(110) 등 센싱 장치는 칼랑코에를 센싱할 수 있다. 칼랑코에는 장미목 돌나물과의 다육식물로 학명은 이다.Referring to FIG. 3, a sensing device such as the image sensor 110 included in the electronic device 100 can sense kalanchoe. Kalanchoe is a succulent plant of the rose order Sedum family. Its scientific name is am.

예시적인 실시예에 따르면, 전자 장치(100)는 칼랑코에의 꽃색, 꽃모양, 잎 모양을 검출할 수 있고, 프로세서(130)의 연산을 통해 칼랑코에의 품종을 파악 및 결정할 수 있다.According to an exemplary embodiment, the electronic device 100 can detect the flower color, flower shape, and leaf shape of Kalanchoe, and identify and determine the variety of Kalanchoe through calculations of the processor 130.

도 4은 본 개시의 예시적 실시예에 따른 캐노피를 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.Figure 4 is a flowchart illustrating the steps of learning an artificial intelligence model for determining a canopy according to an exemplary embodiment of the present disclosure.

도 4을 참조하면, 소비자는 칼랑코에의 길이가 너무 길거나 짧은 것을 선호하지 않는다. 길이를 잘라서 조절할 수 있는 절화와 달리, 칼랑코에는 유통 시인위적으로 길이 조절이 불가능한 작물이기 때문에, 칼랑코에가 출하되었을 때의 길이, 폭과 같은 캐노피는, 칼랑코에의 중요한 품질 요소에 해당될 수 있다. 전자 장치(100)는 이미지에서 칼랑코에의 꽃에 해당되는 부분만 검출하여 칼랑코에의 폭과 길이를 측정할 수 있다. Referring to Figure 4, consumers do not prefer the length of the kalanchoe to be too long or too short. Unlike cut flowers, whose length can be adjusted by cutting, Kalanchoe is a crop whose length cannot be artificially adjusted during distribution, so the canopy, such as the length and width when Kalanchoe is shipped, can be an important quality factor for Kalanchoe. The electronic device 100 can measure the width and length of the Kalanchoe flower by detecting only the portion corresponding to the Kalanchoe flower in the image.

예시적인 실시예에서, 칼랑코에의 정면이 촬영된 정면 이미지를 포함하는 제1 이미지 데이터를 수신하는 단계(S210)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 이미지 센서(110)로부터 칼랑코에의 정면이 촬영된 정면 이미지를 포함하는 제1 이미지 데이터를 수신할 수 있다. In an exemplary embodiment, receiving first image data including a frontal image in which the front of the kalanchoe is photographed (S210) is performed. In an exemplary embodiment, the processor 130 may receive first image data including a front image in which the front of the kalanchoe is photographed from the image sensor 110.

제1 이미지 데이터에서 정면 이미지를 검출하는 단계(S220)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 제1 이미지 데이터에서 정면 이미지를 검출할 수 있다. 이때, 정면 이미지는 칼랑코에를 포함하는 화분의 일 면이 이미지 센서(110)에 의해 촬영된 이미지일 수 있다. A step (S220) of detecting a frontal image from the first image data is performed. In an example embodiment, processor 130 may detect a frontal image from the first image data. At this time, the front image may be an image captured by the image sensor 110 of one side of the flowerpot including kalanchoe.

정면 이미지에서 칼랑코에의 폭 및 길이를 측정하는 검출하는 단계(S230)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 정면 이미지에서 화분을 제외한 칼랑코에의 폭 및 길이를 측정할 수 있다. A detection step (S230) is performed to measure the width and length of the kalanchoe in the frontal image. In an example embodiment, the processor 130 may measure the width and length of the kalanchoe excluding the pollen in the front image.

품종 및 캐노피를 포함하는 학습 데이터를 기반으로, 품종에 따른 캐노피를 판정하는 인공지능 모델을 학습시키는 단계(S240)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 품종 및 캐노피를 포함하는 학습 데이터를 기반으로, 품종에 따른 캐노피를 판정하는 인공지능 모델을 학습시킬 수 있다. 이에 따르면, 화분으로부터 일정 거리만큼 이격된 이미지 센서(110)에 의해 측정된 값을 기초로 인공지능 모델을 모델링하는 경우에, 실제의 값과 거의 동일한 값을 획득할 수 있는 장점이 있다. Based on the learning data including the variety and canopy, a step (S240) of learning an artificial intelligence model that determines the canopy according to the variety is performed. In an exemplary embodiment, the processor 130 may train an artificial intelligence model that determines the canopy according to the variety, based on learning data including the variety and the canopy. According to this, when modeling an artificial intelligence model based on the value measured by the image sensor 110 spaced a certain distance away from the flower pot, there is an advantage of being able to obtain a value that is almost the same as the actual value.

본 개시의 예시적 실시예에 따르면, 이미지 센서(110)는 칼랑코에를 포함하는 화분을 고정하는 방법뿐만 아니라, 화분 전체를 회전시키며 모든 각도에서 화분의 모습을 측정할 수 있다. 따라서, 모든 각도마다의 모습이 촬상되므로 칼랑코에의 최대길이, 최대폭 등에 최대치를 정확하게 측정할 수 있다. According to an exemplary embodiment of the present disclosure, the image sensor 110 can not only fix a flower pot containing kalanchoe, but also rotate the entire flower pot and measure the appearance of the flower pot from all angles. Therefore, since the appearance at every angle is imaged, the maximum length, maximum width, etc. of the kalanchoe can be accurately measured.

예시적인 실시예에 따르면, 이미지 센서(110)는 복수의 이미지 데이터를 센싱한 후 프로세서(130)에 제공할 수 있고, 프로세서(130)는 센싱된 이미지 데이터 중 최대값을 추출하는 함수 또는 알고리즘을 메모리로부터 호출하거나, 이미지 처리 전용으로 학습된 인공신경망 모델을 통해 복수 장의 이미지 데이터 중 최대값을 가지는 칼랑코에의 길이 및 폭을 추출할 수 있다. 예시적인 실시예에서, 프로세서(130)는 복수의 이미지 데이터 각각으로부터 추출된 길이 및 폭에 대한 길이 그래프, 및 폭 그래프를 플로팅(plot)하고, 최대값을 산출할 수 있도록 길이 그래프 및 폭 그래프에 1차 미분을 적용하여 길이 최대값 및 폭 최대값을 산출해낼 수 있다.According to an exemplary embodiment, the image sensor 110 may sense a plurality of image data and provide the information to the processor 130, and the processor 130 may use a function or algorithm to extract the maximum value from the sensed image data. The length and width of Kalanchoe, which has the maximum value among multiple pieces of image data, can be extracted by recalling from memory or through an artificial neural network model trained exclusively for image processing. In an exemplary embodiment, the processor 130 plots the length graph and the width graph for the length and width extracted from each of the plurality of image data, and plots the length graph and the width graph to calculate the maximum value. By applying first-order differentiation, the maximum length and maximum width can be calculated.

예시적인 실시예에서, 프로세서(130)는, 칼랑코에가 회전되면서 촬영된 칼랑코에의 정면을 각각 포함하는 복수의 제1 이미지 데이터를 수신할 수 있다. 그리고, 프로세서(130)는, 복수의 제1 이미지 데이터 각각에 포함된 정면 이미지에서 폭 및 길이를 측정할 수 있다. 그리고, 프로세서(130)는, 측정된 복수의 폭들 및 길이들 중 최대 폭 및 최대 길이를 포함하는 캐노피를 학습 데이터로 설정할 수 있다. 이에 따르면, 촬영 관점마다 수치를 읽어낼 수 있어서, 복수의 수치들 중 최대 길이와 최대 폭을 보다 더 정확하게 측정할 수 있는 장점이 있다.In an exemplary embodiment, the processor 130 may receive a plurality of first image data each including a front view of the kalanchoe photographed while the kalanchoe is rotating. Additionally, the processor 130 may measure the width and length of the front image included in each of the plurality of first image data. Additionally, the processor 130 may set the canopy including the maximum width and maximum length among the plurality of measured widths and lengths as learning data. According to this, there is an advantage in that the values can be read from each shooting viewpoint, and the maximum length and maximum width among a plurality of values can be measured more accurately.

예시적인 실시예에서, 전자 장치(100)는 정면 이미지를 수집하고, 칼랑코에의 이미지를 검출하며, 화분을 제외한 식물의 폭과 길이를 측정하고, 인공지능 모델을 통해서 품종 및 특징에 기반하여 칼랑코에의 품질을 평가 및 점수화할 수 있다. 점수에 관하여는 도 9를 통해 보다 상세히 설명될 것이다.In an exemplary embodiment, the electronic device 100 collects a frontal image, detects an image of the Kalanchoe, measures the width and length of the plant excluding the pollen, and determines the Kalanchoe's image based on the variety and characteristics through an artificial intelligence model. Quality can be evaluated and scored. The scores will be explained in more detail through FIG. 9.

전술한 예시적인 실시예들에 의하면, 칼랑코에를 포함하는 식물을 접촉하거나 파괴하지 않고도 비접촉 방식으로 칼랑코에를 촬영하고 칼랑코에의 품질을 판정함으로써, 농가와 농민 측에게 유리한 조건과 편의성, 및 상품성을 제공할 수 있는 효과가 있다.According to the above-described exemplary embodiments, by photographing Kalanchoe in a non-contact manner and determining the quality of Kalanchoe without contacting or destroying plants containing Kalanchoe, favorable conditions, convenience, and marketability can be provided to farmers and farmers. There is a possible effect.

도 5는 본 개시의 예시적 실시예에 따른 칼랑코에의 폭과 길이를 센싱하는 방법을 나타내는 도면이다. Figure 5 is a diagram showing a method for sensing the width and length of a kalanchoe according to an exemplary embodiment of the present disclosure.

도 5를 도 4와 함께 참조하면, 전자 장치(100)는 칼랑코에가 담긴 화분을 센싱하고, 식물의 폭과 초장을 센싱할 수 있다. 예컨대, 칼랑코에의 가로길이(식물폭)는 191.84mm(밀리미터)이고, 세로길이(초장)는 147.62mm일 수 있다. 복수의 칼랑코에들이 센싱된 수치들은 그래프로 플로팅될 수 있고, 식물 폭의 추세선을 피팅할 수 있다.Referring to FIG. 5 together with FIG. 4 , the electronic device 100 can sense a pot containing Kalanchoe and sense the width and height of the plant. For example, the horizontal length (plant width) of Kalanchoe may be 191.84 mm (millimeters), and the vertical length (plant height) may be 147.62 mm. The values from which multiple Kalanchoes are sensed can be plotted on a graph and a trend line of plant width can be fitted.

도 6은 본 개시의 예시적 실시예에 따른 칼랑코에의 꽃의 개수 및/또는 개화율을 예측 및 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.Figure 6 is a flowchart illustrating the steps of learning an artificial intelligence model for predicting and determining the number of Kalanchoe flowers and/or the flowering rate according to an exemplary embodiment of the present disclosure.

도 6를 참조하면, 일반적으로 하나의 화분에 대략 100개를 초과하는 넘는 꽃이 칼랑코에에 달려있을 수 있다. 꽃의 개수(또는 꽃 수, 꽃 양) 및 개화율은 칼랑코에의 품질을 평가하는데 중요한 품질 요소가 될 수 있다. 그러나, 꽃의 개수가 비교적 많기 때문에 이러한 품질 요소들을 정확히 파악하기 위해서는 비접촉 방식으로 촬영된 이미지가 필요할 수 있다. Referring to Figure 6, in general, more than approximately 100 flowers may be hung on Kalanchoe in one pot. The number of flowers (or number of flowers, amount of flowers) and flowering rate can be important quality factors in evaluating the quality of Kalanchoe. However, because the number of flowers is relatively large, images taken in a non-contact manner may be necessary to accurately determine these quality factors.

예시적인 실시예에서, 칼랑코에가 탑뷰 이미지를 포함하는 복수의 제2 이미지 데이터를 수신하는 단계(S310)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 이미지 센서(110)로부터 칼랑코에가 탑뷰(top-view) 시점에서 촬영된 탑뷰 이미지를 포함하는 복수의 제2 이미지 데이터를 수신할 수 있다. 복수의 제2 이미지 데이터에서 꽃의 개화 상태에 따른 복수의 탑뷰 이미지들을 검출하는 단계(S320)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 복수의 제2 이미지 데이터에서 꽃의 개화 상태에 따른 복수의 탑뷰 이미지들을 검출할 수 있다. In an exemplary embodiment, a step S310 in which Kalanchoe receives a plurality of second image data including a top-view image is performed. In an exemplary embodiment, the processor 130 may receive a plurality of second image data including a top-view image of the kalanchoe captured from a top-view perspective from the image sensor 110. A step (S320) of detecting a plurality of top view images according to the flowering state of the flower is performed from the plurality of second image data. In an exemplary embodiment, the processor 130 may detect a plurality of top view images according to the flowering state of a flower from the plurality of second image data.

개화 상태에 따른 각 탑뷰 이미지를 포함하는 학습 데이터를 기반으로, 품종에 따른 칼랑코에의 꽃의 개수 및 개화율을 예측 및 판정하는 인공지능 모델을 학습시키는 단계(S330)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 개화 상태에 따른 각 탑뷰 이미지를 포함하는 학습 데이터를 기반으로, 품종에 따른 칼랑코에의 꽃의 개수 및 칼랑코에의 개화율을 예측 및 판정하는 인공지능 모델을 학습시킬 수 있다.Based on learning data including each top-view image according to the flowering state, a step (S330) of learning an artificial intelligence model that predicts and determines the number of Kalanchoe flowers and flowering rate according to the variety is performed. In an exemplary embodiment, the processor 130 learns an artificial intelligence model that predicts and determines the number of Kalanchoe flowers and the flowering rate of Kalanchoe according to the variety, based on learning data including each top view image according to the flowering state. You can do it.

한편, 꽃이 필 때는(즉, 꽃이 개화할 때는) 다양한 형태로 피게 된다. 특히 꽃이 출하될 때, 꽃이 피고 있는 중이므로, 칼랑코에에 포함되는 모든 꽃이 다 피어있지 않을 수 있다. 즉, 칼랑코에에 포함되는 모든 꽃들의 개화 상태가 다를 수 있다. 따라서, 칼랑코에의 꽃이 피는 단계 별 이미지를 개별적으로 인공지능 모델에 학습시킬 필요가 있다. 예시적인 실시예에서, 프로세서(130)는, 복수의 제2 이미지 데이터에서 비개화에 따른 제1 탑뷰 이미지, 부분 개화에 따른 제2 탑뷰 이미지, 및 완전 개화에 따른 제3 탑뷰 이미지를 검출할 수 있다. 그리고, 프로세서(130)는 제1 내지 제3 탑뷰 이미지를 각각 개별적인 학습 데이터셋으로 하여 인공지능 모델에 학습시킬 수 있다. 부분 개화에 대한 예시적인 실시예에서, 부분 개화는 전체 꽃의 개수의 절반이 개화된 것일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, when flowers bloom (that is, when flowers bloom), they bloom in various forms. Especially when flowers are shipped, they are still blooming, so not all flowers included in Kalanchoe may be blooming. In other words, the flowering states of all flowers included in Kalanchoe may be different. Therefore, it is necessary to individually train images of each stage of Kalanchoe flower blooming into an artificial intelligence model. In an exemplary embodiment, the processor 130 may detect a first top-view image according to non-blooming, a second top-view image according to partial flowering, and a third top-view image according to full flowering from the plurality of second image data. there is. In addition, the processor 130 can train the artificial intelligence model by using the first to third top view images as individual learning datasets. In an exemplary embodiment of partial flowering, partial flowering may be, but is not limited to, half of the total number of flowers being flowered.

예시적인 실시예에서, 프로세서(130)는 복수의 제2 이미지 데이터에서 비개화, 절반개화 및/또는 개화된 꽃에 대해 사각으로 박싱(boxing)처리함으로써 제1 내지 제3 탑뷰 이미지를 구분, 검출, 생성, 및 전처리할 수 있다. 예시적인 실시예에서, 프로세서(130)는 이미지 상에서 허점인 블러처리되는 부분을 처리할 수도 있다. In an exemplary embodiment, the processor 130 distinguishes and detects the first to third top-view images by performing a square boxing process for unflowered, half-flowered, and/or bloomed flowers in the plurality of second image data. , can be generated, and preprocessed. In an example embodiment, processor 130 may process blurred portions that are loopholes in the image.

아웃포커싱되거나 관심 영역(Region of interest) 외의 꽃잎은 일반적으로 예외처리되거나 노이즈로 해석되나, 본 개시의 예시적인 실시예에 따르면 블러 또는 노이즈처럼 보이는 꽃잎 등의 객체도 라벨링되고 센싱되므로 객체 인식 모델의 정확도가 더욱 향상될 수 있다.Petals that are out of focus or outside the region of interest are generally treated as exceptions or interpreted as noise, but according to an exemplary embodiment of the present disclosure, objects such as petals that look like blur or noise are also labeled and sensed, so that they are used in the object recognition model. Accuracy can be further improved.

예시적인 실시예에서, 전자 장치(100)는 탑뷰 시점의 이미지를 수집하고, 칼랑코에의 이미지를 검출하며, 비개화, 1/2개화, 완전 개화 구분하여 객체를 선별하고, 인공지능 모델을 통해서 전체 꽃 수 및 개화율을 판정 및 점수화할 수 있다. 본 개시의 예시적인 실시예에 따르면 꽃은 다양한 형태로 개화하고, 꽃이 출고되었을 때에는 만개하지 않은 상태가 대부분인 경우가 많으므로, 꽃이 펴지는 각 단계마다의 개화 이미지를 개별적으로 학습함으로써 이미지 센싱의 정확도를 향상시킬 수 있다. 본 개시의 예시적인 실시예에 따르면, 칼랑코에는 개화 단계마다의 형상 변화에 대란 패턴이 3단계로 크게 구분될 수 있고, 각각의 단계는 비개화 상태, 반개화(1/2) 상태, 완전개화 상태 로 구분될 수 있다. 본 개시에 따라 이미지 학습을 수행한 결과, 상기 3개의 개화상태 구분이 학습모델의 성능을 향상시킴이 확인되었다. In an exemplary embodiment, the electronic device 100 collects images from a top view perspective, detects images of kalanchoes, selects objects by classifying them as unflowered, half-flowered, and fully bloomed, and displays the entire object through an artificial intelligence model. The number of flowers and flowering rate can be judged and scored. According to an exemplary embodiment of the present disclosure, flowers bloom in various forms, and when flowers are shipped, they are often not in full bloom, so image sensing is performed by individually learning flowering images for each stage of flower unfolding. accuracy can be improved. According to an exemplary embodiment of the present disclosure, the Kalanchoe flower pattern can be broadly divided into three stages in terms of shape change at each flowering stage, and each stage is a non-flowering state, a half-flowering (1/2) state, and a fully flowering state. It can be classified by status. As a result of performing image learning according to the present disclosure, it was confirmed that classification of the three flowering states improved the performance of the learning model.

전술한 예시적인 실시예들에 의하면, 비접촉 방식으로 칼랑코에를 촬영하고 칼랑코에의 품질을 예측 및 판정함으로써, 농가와 농민 측에게 유리한 조건과 편의성, 및 상품성을 제공할 수 있는 효과가 있다.According to the above-described exemplary embodiments, there is an effect of providing advantageous conditions, convenience, and marketability to farms and farmers by photographing kalanchoe in a non-contact manner and predicting and determining the quality of kalanchoe.

도 7은 본 개시의 예시적 실시예에 따른 개화 단계별 이미지 검출 방법을 도시하는 도면이다.Figure 7 is a diagram illustrating a method for detecting images at each stage of flowering according to an exemplary embodiment of the present disclosure.

도 7을 도 6과 함꼐 참조하면, 전자 장치(100)는 칼랑코에의 이미지를 수신하고, 개화 상태 별 객체 인식을 수행할 수 있다. 예시적인 실시예에 따르면, 전자 장치(100)는 개화단계를 비개화, 부분개화, 완전개화 상태로 구분해 학습한 결과, 칼랑코에 꽃잎 이미지로부터 꽃잎을 검출할 수 있다. 예컨대, 전자 장치(100)는 바운딩 박스를 생성해 칼랑코에 꽃잎을 하나씩 검출할 수 있다. Referring to FIG. 7 together with FIG. 6 , the electronic device 100 may receive an image of Kalanchoe and perform object recognition for each flowering state. According to an exemplary embodiment, the electronic device 100 can detect petals from a kalanchoe petal image as a result of learning by classifying the flowering stage into non-flowering, partial flowering, and fully flowering states. For example, the electronic device 100 can create a bounding box and detect Kalanchoe petals one by one.

예시적인 실시예에 따르면, 전자 장치(100)는 아웃포커싱되거나 관심 영역(Region of interest) 외의 꽃잎, 블러 또는 노이즈처럼 보이는 꽃잎 등의 객체도 라벨링 및 센싱할 수 있어 객체 인식 모델의 정확도를 더욱 향상시킬 수 있다.According to an exemplary embodiment, the electronic device 100 can label and sense objects such as flower petals that are out of focus or outside the region of interest, or that appear like blur or noise, further improving the accuracy of the object recognition model. You can do it.

도 8은 본 개시의 예시적 실시예에 따른 칼랑코에의 화경의 비율을 예측 및 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다. 도 9 및 도 10은 본 개시의 예시적 실시예에 따른 동심원들에서 등분된 영역들을 개략적으로 도시하는 도면들이다.Figure 8 is a flowchart illustrating the steps of learning an artificial intelligence model for predicting and determining the flower diameter ratio of Kalanchoe according to an exemplary embodiment of the present disclosure. 9 and 10 are diagrams schematically showing areas divided into concentric circles according to an exemplary embodiment of the present disclosure.

도 8를 참조하면, 꽃이 달려있는 줄기, 즉 화경이 하나의 화분에 포함된 칼랑코에에 여러 개가 달려 있을 수 있다. 또한, 하나의 줄기에 여러 개의 꽃들이 달려 있기 때문에, 상대적으로 얇은 줄기는 여러 개의 꽃들의 무게를 버티지 못하고 처질 수 있다. 대칭적으로 같은 비율의 화경들이 위치할 때, 줄기가 처지거나 쓰러지는 경우가 상대적으로 적을 수 있다. 따라서, 처음에 출하될 때의 화경의 비율은 중요한 품질 요소에 포함될 수 있다.Referring to Figure 8, there may be multiple stems on which flowers hang, that is, a Kalanchoe contained in one flower pot. Additionally, because multiple flowers hang on a single stem, a relatively thin stem may not be able to support the weight of multiple flowers and may droop. When peduncles of equal proportions are located symmetrically, there may be relatively few cases of stems drooping or falling over. Therefore, the proportion of flowers when initially shipped can be included as an important quality factor.

예시적인 실시예에서, 칼랑코에가 탑뷰 이미지를 포함하는 제3 이미지 데이터를 수신하는 단계(S410)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 이미지 센서(110)로부터 칼랑코에가 탑뷰 시점에서 촬영된 탑뷰 이미지를 포함하는 제3 이미지 데이터를 수신할 수 있다. 제3 이미지 데이터의 탑뷰 이미지에서 칼랑코에의 꽃과 잎을 나타내는 이미지들을 구분하는 단계(S420)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 제3 이미지 데이터의 탑뷰 이미지에서 칼랑코에의 꽃을 나타내는 제1 이미지와 칼랑코에의 잎을 나타내는 제2 이미지를 구분할 수 있다. 칼랑코에의 꽃을 나타내는 이미지에서 꽃의 면적을 측정하는 단계(S430)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 칼랑코에의 꽃을 나타내는 제1 이미지에서 꽃의 면적을 측정할 수 있다. 면적을 포함하는 학습 데이터를 기반으로, 품종에 따른 칼랑코에의 화경의 비율을 예측 및 판정하는 인공지능 모델을 학습시키는 단계(S440)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 면적을 포함하는 학습 데이터를 기반으로, 품종에 따른 칼랑코에의 화경의 비율을 예측 및 판정하는 인공지능 모델을 학습시킬 수 있다.In an exemplary embodiment, step S410 of Kalanchoe receiving third image data including a top-view image is performed. In an exemplary embodiment, the processor 130 may receive third image data from the image sensor 110 including a top view image of the kalanchoe captured from a top view perspective. A step (S420) of distinguishing images representing Kalanchoe flowers and leaves from the top view image of the third image data is performed. In an exemplary embodiment, the processor 130 may distinguish between a first image representing a Kalanchoe flower and a second image representing a Kalanchoe leaf in a top view image of the third image data. A step (S430) of measuring the area of a flower in an image representing a Kalanchoe flower is performed. In an example embodiment, processor 130 may measure the area of a flower in a first image representing a Kalanchoe flower. Based on the learning data including the area, a step (S440) of learning an artificial intelligence model that predicts and determines the flowering ratio of Kalanchoe according to the variety is performed. In an exemplary embodiment, the processor 130 may train an artificial intelligence model that predicts and determines the flower scape ratio of Kalanchoe according to the variety, based on learning data including the area.

예시적인 실시예에서, 탑뷰 이미지에서 꽃과 잎을 구분하고 꽃의 면적을 정확히 검출 및 파악하기 위해서, 꽃의 양뿐만 아니라 위치를 파악할 필요가 있다. 이에, 탑뷰 이미지에서 설정된 내접원(IC)과 외접원(OC)을 각각 4등분하여 내접원(IC)과 외접원(OC)을 총 8개의 면적으로 구분하여 파악함으로써, 보다 정확한 화경의 비율이 측정될 수 있다. In an exemplary embodiment, in order to distinguish between flowers and leaves in a top-view image and accurately detect and determine the area of a flower, it is necessary to determine the location as well as the amount of flowers. Accordingly, by dividing the inscribed circle (IC) and circumscribed circle (OC) set in the top view image into four parts and dividing the inscribed circle (IC) and circumscribed circle (OC) into a total of 8 areas, a more accurate ratio of the flower landscape can be measured. .

예시적인 실시예에서, 프로세서(130)는, 제3 이미지 데이터에서 화분을 중심으로 하는 최외곽의 외접원(OC)과 중심에서 가장 가까이 위치하는 꽃에 접하는 내접원(IC)을 설정할 수 있고, 외접원(OC) 및 내접원(IC)을 각각 4등분하여, 8개의 영역들을 설정할 수 있고, 8개의 영역들 각각에 포함된 꽃의 부분 면적을 측정할 수 있고, 부분 면적을 기초로 꽃의 면적을 계산할 수 있다. In an exemplary embodiment, the processor 130 may set an outermost circumscribed circle (OC) centered on the flowerpot and an inscribed circle (IC) in contact with the flower located closest to the center in the third image data, and the circumscribed circle ( By dividing the OC) and the inscribed circle (IC) into 4 each, 8 areas can be set, the partial area of the flower included in each of the 8 areas can be measured, and the area of the flower can be calculated based on the partial area. there is.

본 개시의 예시적인 실시예에서, 탑뷰 이미지에서의 기준점은 외접원(OC)이 중심이 아닌 화분의 중심이며, 화분의 중심이 고정되어 있을 수 있다. 따라서, 단순히 외접원(OC)의 중심을 기준으로 하는 것에 비해 판정 정확도는 더 개선될 수 있다.In an exemplary embodiment of the present disclosure, the reference point in the top view image is the center of the flower pot rather than the circumscribed circle (OC), and the center of the flower pot may be fixed. Therefore, judgment accuracy can be further improved compared to simply using the center of the circumscribed circle (OC) as a reference.

예시적인 실시예에서, 전자 장치(100)는 탑뷰 시점의 이미지를 수집하고, 칼랑코에의 이미지를 검출하며, 화경을 검출하고 화경의 비율을 측정하며, 인공지능 모델을 통해서 화경 비율을 판정 및 점수화할 수 있다.In an exemplary embodiment, the electronic device 100 collects images from a top view perspective, detects images of kalanchoes, detects flower landscapes, measures the flower landscape ratio, and determines and scores the flower landscape ratio through an artificial intelligence model. You can.

전술한 예시적인 실시예들에 의하면, 비접촉 방식으로 칼랑코에를 촬영하고 칼랑코에의 품질을 예측 및 판정함으로써, 농가와 농민 측에게 유리한 조건과 편의성, 및 상품성을 제공할 수 있는 효과가 있다.According to the above-described exemplary embodiments, there is an effect of providing advantageous conditions, convenience, and marketability to farms and farmers by photographing kalanchoe in a non-contact manner and predicting and determining the quality of kalanchoe.

도 11은 본 개시의 예시적 실시예에 따른 해충으로 인한 칼랑코에의 피해량을 판정하는 인공지능 모델을 학습시키는 단계를 설명하기 위한 흐름도이다.Figure 11 is a flowchart illustrating the steps of learning an artificial intelligence model for determining the amount of damage to Kalanchoe caused by pests according to an exemplary embodiment of the present disclosure.

도 11을 참조하면, 칼랑코에는 일반적으로 곰팡이병, 세균성병 등과 같은 질병으로 인한 피해보다 해충으로 인한 피해를 더 많이 받을 수 있다. 해충의 크기는 비교적 작기 때문에, 일반적으로 사람은 해충을 잘 보기 어려울 수 있다. 해충으로 인한 피해는 비품으로 납품이 되어서는 안되기 때문에, 사람이 해충으로 인한 피해가 있는지 여부를 직접 파악하고 선별하기에는 큰 어려움이 있다. 이에, 해충 및/또는 해충의 피해 면적은 칼랑코에의 중요한 품질 요소에 해당될 수 있으며, 탑뷰 이미지에서 해충 및/또는 해충의 피해 면적을 파악할 필요가 있다.Referring to Figure 11, Kalanchoe can generally suffer more damage from pests than damage from diseases such as fungal diseases, bacterial diseases, etc. Because pests are relatively small, it can generally be difficult for humans to see them. Since damage caused by pests should not be delivered as supplies, it is very difficult for people to directly determine and select whether there is damage due to pests. Accordingly, the area damaged by pests and/or pests may correspond to an important quality factor of Kalanchoe, and it is necessary to determine the area damaged by pests and/or pests from the top view image.

예시적인 실시예에서, 칼랑코에의 탑뷰 이미지를 포함하는 제4 이미지 데이터를 수신하는 단계(S510)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 이미지 센서(110)로부터 칼랑코에가 탑뷰 시점에서 촬영된 탑뷰 이미지를 포함하는 제4 이미지 데이터를 수신할 수 있다. In an exemplary embodiment, receiving fourth image data including a top view image of the kalanchoe (S510) is performed. In an exemplary embodiment, the processor 130 may receive fourth image data from the image sensor 110 including a top view image of the kalanchoe captured from a top view perspective.

제4 이미지 데이터의 탑뷰 이미지에서 제1 및 제2 면적 각각을 나타내는 이미지들을 선별하는 단계(S520)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 제4 이미지 데이터의 탑뷰 이미지에서 해충에 의해 피해를 입은 제1 면적을 나타내는 제3 이미지와 해충에 의해 피해를 입지 않은 제2 면적을 나타내는 제4 이미지를 선별할 수 있다.A step (S520) of selecting images representing each of the first and second areas from the top view image of the fourth image data is performed. In an exemplary embodiment, the processor 130 selects a third image representing a first area damaged by pests and a fourth image representing a second area not damaged by pests in a top view image of the fourth image data. can be selected.

제1 면적을 나타내는 이미지를 포함하는 학습 데이터를 기반으로, 품종에 따른 해충으로 인한 칼랑코에의 피해량을 판정하는 인공지능 모델을 학습시키는 단계(S540)가 수행된다. 예시적인 실시예에서, 프로세서(130)는, 제1 면적을 나타내는 제3 이미지를 포함하는 학습 데이터를 기반으로, 품종에 따른 해충으로 인한 칼랑코에의 피해량을 판정하는 인공지능 모델을 학습시킬 수 있다.Based on learning data including an image representing the first area, a step (S540) of learning an artificial intelligence model that determines the amount of damage to Kalanchoe due to pests according to the variety is performed. In an exemplary embodiment, the processor 130 may train an artificial intelligence model that determines the amount of damage to Kalanchoe due to pests according to breed, based on learning data including a third image representing the first area.

예시적인 실시예에서, 제4 이미지 데이터의 탑뷰 이미지에서 해충을 나타내는 이미지를 선별하는 단계(S530)가 더 포함될 수 있다. 예시적인 실시예에서, 프로세서(130)는, 탑뷰 이미지에서 해충을 나타내는 제5 이미지를 더 선별하고, 해충을 나타내는 제5 이미지를 학습 데이터에 포함시킬 수 있다. S540에 대한 예시적인 실시예에서, 프로세서(130)는, 제1 면적을 나타내는 제3 이미지 및 해충을 나타내는 제5 이미지를 포함하는 학습 데이터를 기반으로, 품종에 따른 해충으로 인한 칼랑코에의 피해량을 판정하는 인공지능 모델을 학습시킬 수 있다.In an exemplary embodiment, a step (S530) of selecting an image representing a pest from the top view image of the fourth image data may be further included. In an exemplary embodiment, the processor 130 may further select a fifth image representing a pest from the top view image and include the fifth image representing a pest in the learning data. In an exemplary embodiment for S540, the processor 130 determines the amount of damage to Kalanchoe due to pests according to the variety, based on learning data including a third image representing the first area and a fifth image representing the pests. You can learn an artificial intelligence model that does this.

예시적인 실시예에서, 전자 장치(100)는 탑뷰 시점의 이미지를 수집하고, 칼랑코에의 이미지를 검출하며, 해충 및 해충으로 인한 피해 객체를 선별하고, 인공지능 모델을 통해서 비품을 판정 및 점수화할 수 있다.In an exemplary embodiment, the electronic device 100 can collect images from a top view perspective, detect images of Kalanchoe, select pests and objects damaged by pests, and determine and score fixtures through an artificial intelligence model. there is.

도 12는 본 개시의 예시적 실시예에 따른 해충 피해를 검출하는 과정을 시각적으로 도시한 도면이다. Figure 12 is a diagram visually illustrating a process for detecting pest damage according to an exemplary embodiment of the present disclosure.

도 12를 참조하면, 전자 장치(100)는 칼랑코에 이미지 데이터를 수신하고, 해충 피해를 입은 면적을 포함한 객체를 추출할 수 있다. 예시적인 실시예에서, 전자 장치(100)는 해충 피해 면적을 바운딩박스 처리하여 해충 피해의 크기, 수를 산출할 수 있다.Referring to FIG. 12, the electronic device 100 may receive Kalanchoe image data and extract an object including an area damaged by pests. In an exemplary embodiment, the electronic device 100 may calculate the size and number of pest damage by processing the pest damage area as a bounding box.

100: 전자 장치
110: 이미지 센서
120: 메모리
130: 프로세서
100: electronic device
110: image sensor
120: memory
130: processor

Claims (10)

칼랑코에를 포함하는 화분을 촬영하여 상기 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성하는 이미지 센서;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는,
상기 이미지 센서로부터 수신된 상기 이미지 데이터를 기초로, 상기 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시키고,
상기 이미지 데이터를 기초로, 상기 칼랑코에의 캐노피, 상기 칼랑코에의 꽃의 개수, 상기 칼랑코에의 개화율, 상기 칼랑코에의 화경(peduncle)의 비율, 해충으로 인한 상기 칼랑코에의 피해량을 포함하는 복수의 품질 요소들을 예측 및 판정하도록 상기 인공지능 모델을 학습시키고,
상기 이미지 센서로부터 수신된 새로운 이미지 데이터를 학습이 완료된 상기 인공지능 모델에 입력하여 상기 복수의 품질 요소들을 예측 및 판정하는 것을 특징으로 하는, 전자 장치.
An image sensor that photographs a pollen containing kalanchoe and generates image data including images of the kalanchoe and the pollen;
A memory that stores one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor,
Based on the image data received from the image sensor, an artificial intelligence model is trained to determine the variety of the Kalanchoe,
Based on the image data, predict a plurality of quality factors including the canopy of the kalanchoe, the number of flowers of the kalanchoe, the flowering rate of the kalanchoe, the ratio of peduncles of the kalanchoe, and the amount of damage to the kalanchoe due to pests. And training the artificial intelligence model to make a decision,
An electronic device, characterized in that the new image data received from the image sensor is input to the trained artificial intelligence model to predict and determine the plurality of quality factors.
제1 항에 있어서,
상기 프로세서는,
상기 이미지 센서로부터 상기 칼랑코에의 정면이 촬영된 정면 이미지를 포함하는 제1 이미지 데이터를 수신하고,
상기 제1 이미지 데이터에서 상기 정면 이미지를 검출하고,
상기 정면 이미지에서 상기 화분을 제외한 상기 칼랑코에의 폭 및 길이를 측정하고,
상기 품종 및 상기 캐노피를 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 캐노피를 판정하는 상기 인공지능 모델을 학습시키는 것을 특징으로 하는, 전자 장치.
According to claim 1,
The processor,
Receiving first image data including a frontal image in which the front of the Kalanchoe is photographed from the image sensor,
Detecting the frontal image from the first image data,
Measure the width and length of the Kalanchoe excluding the flower pot in the front image,
An electronic device, characterized in that training the artificial intelligence model to determine the canopy according to the variety, based on learning data including the variety and the canopy.
제2 항에 있어서,
상기 프로세서는,
상기 칼랑코에가 회전되면서 촬영된 상기 칼랑코에의 정면을 각각 포함하는 복수의 제1 이미지 데이터를 수신하고,
상기 복수의 제1 이미지 데이터 각각에 포함된 상기 정면 이미지에서 상기 폭 및 상기 길이를 측정하고,
측정된 복수의 폭들 및 길이들 중 최대 폭 및 최대 길이를 포함하는 상기 캐노피를 상기 학습 데이터로 설정하는 것을 특징으로 하는, 전자 장치.
According to clause 2,
The processor,
Receiving a plurality of first image data each including a front view of the kalanchoe taken as the kalanchoe rotates,
Measure the width and the length in the front image included in each of the plurality of first image data,
An electronic device, characterized in that setting the canopy including the maximum width and maximum length among the plurality of measured widths and lengths as the learning data.
제1 항에 있어서,
상기 프로세서는,
상기 이미지 센서로부터 상기 칼랑코에가 탑뷰(top-view) 시점에서 촬영된 탑뷰 이미지를 포함하는 복수의 제2 이미지 데이터를 수신하고,
상기 복수의 제2 이미지 데이터에서 꽃의 개화 상태에 따른 복수의 탑뷰 이미지들을 검출하고,
상기 개화 상태에 따른 각 탑뷰 이미지를 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 칼랑코에의 상기 꽃의 개수 및 상기 칼랑코에의 상기 개화율을 예측 및 판정하는 상기 인공지능 모델을 학습시키는 것을 특징으로 하는, 전자 장치.
According to claim 1,
The processor,
The Kalanchoe receives a plurality of second image data including a top-view image taken from a top-view perspective from the image sensor,
Detecting a plurality of top view images according to the flowering state of the flower from the plurality of second image data,
Based on learning data including each top view image according to the flowering state, the number of flowers of the Kalanchoe according to the variety and the flowering rate of the Kalanchoe are characterized by training the artificial intelligence model to predict and determine , electronic devices.
제4 항에 있어서,
상기 프로세서는,
상기 복수의 제2 이미지 데이터에서 비개화에 따른 제1 탑뷰 이미지, 부분 개화에 따른 제2 탑뷰 이미지, 및 완전 개화에 따른 제3 탑뷰 이미지를 검출하는 것을 특징으로 하는, 전자 장치.
According to clause 4,
The processor,
An electronic device, characterized in that detecting a first top-view image according to non-blooming, a second top-view image according to partial flowering, and a third top-view image according to complete flowering from the plurality of second image data.
제1 항에 있어서,
상기 프로세서는,
상기 이미지 센서로부터 상기 칼랑코에가 탑뷰 시점에서 촬영된 탑뷰 이미지를 포함하는 제3 이미지 데이터를 수신하고,
상기 제3 이미지 데이터의 상기 탑뷰 이미지에서 상기 칼랑코에의 꽃을 나타내는 이미지와 상기 칼랑코에의 잎을 나타내는 이미지를 구분하고,
상기 칼랑코에의 꽃을 나타내는 상기 이미지에서 상기 꽃의 면적을 측정하고,
상기 면적을 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 칼랑코에의 화경의 비율을 예측 및 판정하는 상기 인공지능 모델을 학습시키는 것을 특징으로 하는, 전자 장치.
According to claim 1,
The processor,
The Kalanchoe receives third image data including a top view image taken from a top view viewpoint from the image sensor,
Distinguish between an image representing the flower of the Kalanchoe and an image representing the leaf of the Kalanchoe in the top view image of the third image data,
Measure the area of the flower in the image representing the Kalanchoe flower,
Characterized in that, based on learning data including the area, training the artificial intelligence model to predict and determine the ratio of flower shoots of the Kalanchoe according to the variety.
제6 항에 있어서,
상기 프로세서는,
상기 제3 이미지 데이터에서 상기 화분을 중심으로 하는 최외곽의 외접원과 상기 중심에서 가장 가까이 위치하는 꽃에 접하는 내접원을 설정하고,
상기 외접원 및 상기 내접원을 각각 4등분하여, 8개의 영역들을 설정하고,
상기 8개의 영역들 각각에 포함된 꽃의 부분 면적을 측정하고,
상기 부분 면적을 기초로 상기 꽃의 면적을 계산하는 것을 특징으로 하는, 전자 장치.
According to clause 6,
The processor,
In the third image data, an outermost circumscribed circle centered on the flower pot and an inscribed circle in contact with the flower located closest to the center are set,
The circumscribed circle and the inscribed circle are each divided into four parts to establish eight regions,
Measure the partial area of the flower included in each of the eight regions,
An electronic device, characterized in that calculating the area of the flower based on the partial area.
제1 항에 있어서,
상기 프로세서는,
상기 이미지 센서로부터 상기 칼랑코에가 탑뷰 시점에서 촬영된 탑뷰 이미지를 포함하는 제4 이미지 데이터를 수신하고,
상기 제4 이미지 데이터의 상기 탑뷰 이미지에서 상기 해충에 의해 피해를 입은 제1 면적을 나타내는 이미지와 상기 해충에 의해 피해를 입지 않은 제2 면적을 나타내는 이미지를 선별하고,
상기 제1 면적을 나타내는 상기 이미지를 포함하는 학습 데이터를 기반으로, 상기 품종에 따른 상기 해충으로 인한 상기 칼랑코에의 상기 피해량을 판정하는 상기 인공지능 모델을 학습시키는 것을 특징으로 하는, 전자 장치.
According to claim 1,
The processor,
The Kalanchoe receives fourth image data including a top view image taken from a top view viewpoint from the image sensor,
Selecting an image representing a first area damaged by the pest and an image representing a second area not damaged by the pest from the top view image of the fourth image data,
Characterized in that, based on learning data including the image representing the first area, training the artificial intelligence model to determine the amount of damage to the Kalanchoe caused by the pest according to the variety.
제8 항에 있어서,
상기 프로세서는,
상기 탑뷰 이미지에서 상기 해충을 나타내는 이미지를 더 선별하고,
상기 해충을 나타내는 이미지를 상기 학습 데이터에 포함시키는 것을 특징으로 하는, 전자 장치.
According to clause 8,
The processor,
Further select images representing the pests from the top view image,
An electronic device, characterized in that an image representing the pest is included in the learning data.
칼랑코에를 포함하는 화분을 촬영하여 상기 칼랑코에 및 화분에 대한 이미지를 포함하는 이미지 데이터를 생성하는 단계;
상기 이미지 데이터를 기초로, 상기 칼랑코에의 품종을 판정하도록 인공지능 모델을 학습시키는 단계;
상기 이미지 데이터를 기초로, 상기 칼랑코에의 캐노피, 상기 칼랑코에의 꽃의 개수, 상기 칼랑코에의 개화율, 상기 칼랑코에의 화경(peduncle)의 비율, 해충으로 인한 상기 칼랑코에의 피해량을 포함하는 복수의 품질 요소들을 예측 및 판정하도록 상기 인공지능 모델을 학습시키는 단계; 및
새로운 이미지 데이터를 학습이 완료된 상기 인공지능 모델에 입력하여 상기 복수의 품질 요소들을 예측 및 판정하는 단계를 포함하는, 전자 장치의 동작 방법.
Photographing a flowerpot containing kalanchoe and generating image data including images of the kalanchoe and the flowerpot;
Based on the image data, training an artificial intelligence model to determine the variety of the Kalanchoe;
Based on the image data, predict a plurality of quality factors including the canopy of the kalanchoe, the number of flowers of the kalanchoe, the flowering rate of the kalanchoe, the ratio of peduncles of the kalanchoe, and the amount of damage to the kalanchoe due to pests. And training the artificial intelligence model to make a decision; and
A method of operating an electronic device, comprising inputting new image data into the trained artificial intelligence model to predict and determine the plurality of quality factors.
KR1020240024632A 2024-02-20 2024-02-20 Device and operating method thereof for learning and inferring for each variety of kalanchoe KR102692617B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240024632A KR102692617B1 (en) 2024-02-20 2024-02-20 Device and operating method thereof for learning and inferring for each variety of kalanchoe

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020240024632A KR102692617B1 (en) 2024-02-20 2024-02-20 Device and operating method thereof for learning and inferring for each variety of kalanchoe

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240102568A Division KR102707475B1 (en) 2024-08-01 Device and operating method thereof for learning and inferring for each variety of kalanchoe

Publications (2)

Publication Number Publication Date
KR20240080180A true KR20240080180A (en) 2024-06-05
KR102692617B1 KR102692617B1 (en) 2024-08-07

Family

ID=91470548

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240024632A KR102692617B1 (en) 2024-02-20 2024-02-20 Device and operating method thereof for learning and inferring for each variety of kalanchoe

Country Status (1)

Country Link
KR (1) KR102692617B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108275A (en) 2018-03-14 2019-09-24 엘에스산전 주식회사 System for managing access right of power device
WO2020000043A1 (en) * 2018-06-28 2020-01-02 University Of Southern Queensland Plant growth feature monitoring
JP2022136365A (en) * 2021-03-08 2022-09-21 Necソリューションイノベータ株式会社 Plant evaluation device, plant evaluation method, and program
KR20230082750A (en) * 2021-12-02 2023-06-09 주식회사 꽃팜 Cut-flower quality management system and method based on image processing and deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108275A (en) 2018-03-14 2019-09-24 엘에스산전 주식회사 System for managing access right of power device
WO2020000043A1 (en) * 2018-06-28 2020-01-02 University Of Southern Queensland Plant growth feature monitoring
JP2022136365A (en) * 2021-03-08 2022-09-21 Necソリューションイノベータ株式会社 Plant evaluation device, plant evaluation method, and program
KR20230082750A (en) * 2021-12-02 2023-06-09 주식회사 꽃팜 Cut-flower quality management system and method based on image processing and deep learning

Also Published As

Publication number Publication date
KR102692617B1 (en) 2024-08-07

Similar Documents

Publication Publication Date Title
CN111553240A (en) Corn disease condition grading method and system and computer equipment
Bal et al. Review of machine learning and deep learning models in agriculture
Prashanthi et al. Plant disease detection using Convolutional neural networks
Singh et al. Comparison of RSNET model with existing models for potato leaf disease detection
Monigari et al. Plant leaf disease prediction
Mahmud et al. Lychee tree disease classification and prediction using transfer learning
Kaur et al. Plant disease detection using deep transfer learning
Tawde et al. Identification of rice plant disease using image processing and machine learning techniques
KR102692617B1 (en) Device and operating method thereof for learning and inferring for each variety of kalanchoe
Nirmal et al. Farmer Friendly Smart App for Pomegranate Disease Identification
KR102707475B1 (en) Device and operating method thereof for learning and inferring for each variety of kalanchoe
YILDIZ et al. Classification of Diseases in Tomato Leaves Using Deep Learning Methods
Omer et al. An image dataset construction for flower recognition using convolutional neural network
Gu et al. Application of the YOLOv8 Model to a Fruit Picking Robot
Shaik et al. Identification of diseases affecting mango leaves using deep learning models
Udayananda et al. An ensemble methods based machine learning approach for rice plant disease diagnosing
Aich et al. Automated plant disease diagnosis in apple trees based on supervised machine learning model
KR102677539B1 (en) Apparatus, system and method for variably predicting lifespan of cut flower using hyperspectral image and thermal image
KR102657234B1 (en) Apparatus, system and method for predicting initial disease of cut flower using self-learning deep learning based on thermal image
Sarada Comparative Analysis of AI Techniques for Plant Disease Detection and Classification on PlantDoc Dataset
Nathanael et al. Development of Convolutional Neural Network (CNN) Method for Classification of Tomato Leaf Disease Based on Android
Abhirami et al. OT Based Paddy Crop Disease Identification and Prevention System using Deep Neural Networks and Image Processing
Kumar et al. A Neoteric Procedure for Spotting and Segregation of Ailments in Mediciative Plants using Image Processing Techniques.
Manzoor et al. AgriScanNet-18: A Robust Multilayer CNN for Identification of Potato Plant Diseases
Joshi et al. Lycopersicon crop leaf disease identification using deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
G15R Request for early publication
E701 Decision to grant or registration of patent right
GRNT Written decision to grant