KR102644930B1 - Apparatus and method for guiding pruning - Google Patents

Apparatus and method for guiding pruning Download PDF

Info

Publication number
KR102644930B1
KR102644930B1 KR1020210058698A KR20210058698A KR102644930B1 KR 102644930 B1 KR102644930 B1 KR 102644930B1 KR 1020210058698 A KR1020210058698 A KR 1020210058698A KR 20210058698 A KR20210058698 A KR 20210058698A KR 102644930 B1 KR102644930 B1 KR 102644930B1
Authority
KR
South Korea
Prior art keywords
image
pruning
tree
tree branches
guide
Prior art date
Application number
KR1020210058698A
Other languages
Korean (ko)
Other versions
KR20220151443A (en
Inventor
이현종
김평록
Original Assignee
주식회사 빅스터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 빅스터 filed Critical 주식회사 빅스터
Priority to KR1020210058698A priority Critical patent/KR102644930B1/en
Publication of KR20220151443A publication Critical patent/KR20220151443A/en
Application granted granted Critical
Publication of KR102644930B1 publication Critical patent/KR102644930B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G23/00Forestry
    • A01G23/02Transplanting, uprooting, felling or delimbing trees
    • A01G23/095Delimbers
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G3/00Cutting implements specially adapted for horticultural purposes; Delimbing standing trees
    • A01G3/08Other tools for pruning, branching or delimbing standing trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Environmental Sciences (AREA)
  • Forests & Forestry (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Mining & Mineral Resources (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

인공 신경망을 이용하여 나뭇가지가 촬영된 이미지를 분석하여 전정할 나뭇가지에 대한 정보를 제공하는 전정 가이드 장치 및 방법이 개시된다. 일 실시예에 따른 전정 가이드 장치는 이미지 촬영을 위한 카메라부; 데이터를 입력 및 출력하기 위한 인터페이스부; 및 카메라부 및 인터페이스부와 연결된 제어부를 포함하며, 제어부는 카메라부를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신하며, 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성할 수 있다.A pruning guide device and method are disclosed that provide information about tree branches to be pruned by analyzing images of tree branches using an artificial neural network. The vestibular guide device according to one embodiment includes a camera unit for taking images; An interface unit for inputting and outputting data; And a control unit connected to the camera unit and the interface unit, wherein the control unit receives an image containing one or more tree branches through the camera unit, determines whether the one or more tree branches included in the image are subject to pruning, and performs pruning. Guide information can be created.

Description

전정 가이드 장치 및 방법{Apparatus and method for guiding pruning} Vestibular guidance device and method {Apparatus and method for guiding pruning}

나뭇가지 전정 방법을 제공하기 위한 기술로서 특히, 인공 신경망을 이용하여 나뭇가지가 촬영된 이미지를 분석하여 전정할 나뭇가지에 대한 정보를 제공하는 전정 가이드 장치 및 방법에 관한 것이다.A technology for providing a tree branch pruning method, in particular, relates to a pruning guide device and method that provides information about tree branches to be pruned by analyzing images of tree branches taken using an artificial neural network.

종래의 경우 등록특허 10-1129771와 같이 전정에 사용되는 기구들에 대한 연구가 주로 이루어 졌다. 그러나, 어떤 나뭇가지를 전정할지 여부를 알려주는 가이드 방법에 대하여는 연구되지 않고 있다. In the past, research was mainly conducted on devices used in pruning, such as in registered patent 10-1129771. However, no research has been done on guide methods that tell which tree branches to prune.

과수업의 경우, 불필요한 나뭇가지를 적절히 전정하는지에 따라 나무의 생장 및 과실의 품질이 결정된다. 그러나, 초보 농업인의 경우 지식 및 노하우의 부족으로 과수업을 시작하는데 어려움을 겪고 있다. 이에 따라, 나뭇가지의 상태 및 종류를 분석하여 전정 대상 나뭇가지를 알려주기 위한 기술의 필요성이 증가하고 있다.In the case of fruit growing, the growth of the tree and the quality of the fruit are determined by whether unnecessary branches are properly pruned. However, novice farmers have difficulty starting fruit farming due to lack of knowledge and know-how. Accordingly, the need for technology to analyze the condition and type of tree branches and inform the tree branches to be pruned is increasing.

인공 신경망을 이용하여 나뭇가지가 촬영된 이미지를 분석하여 전정할 나뭇가지에 대한 정보를 제공하는 전정 가이드 장치 및 방법을 제공하는데 목적이 있다.The purpose is to provide a pruning guide device and method that provides information about tree branches to be pruned by analyzing images of tree branches using an artificial neural network.

일 양상에 따르면, 전정 가이드 장치는 이미지 촬영을 위한 카메라부; 데이터를 입력 및 출력하기 위한 인터페이스부; 및 카메라부 및 인터페이스부와 연결된 제어부를 포함하며, 제어부는 카메라부를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신하며, 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성할 수 있다.According to one aspect, the vestibular guide device includes a camera unit for taking images; An interface unit for inputting and outputting data; And a control unit connected to the camera unit and the interface unit, wherein the control unit receives an image containing one or more tree branches through the camera unit, determines whether the one or more tree branches included in the image are subject to pruning, and performs pruning. Guide information can be created.

제어부는 인터페이스부를 제어하여 하나 이상의 나뭇가지가 포함된 이미지 및 전정 가이드 정보 중 적어도 하나를 출력할 수 있다.The control unit may control the interface unit to output at least one of an image including one or more tree branches and pruning guide information.

제어부는 나뭇가지 종류에 대한 레이블(label)이 부여된 하나 이상의 학습 이미지를 기초로 생성된 학습 데이터로 학습된 인공 신경망을 포함하며, 인공 신경망을 이용하여 하나 이상의 나뭇가지가 포함된 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석할 수 있다.The control unit includes an artificial neural network trained with learning data generated based on one or more learning images labeled for the type of tree branch, and uses the artificial neural network to determine the type of tree included in the image containing one or more tree branches. More than one type of tree branch can be analyzed.

하나 이상의 학습 이미지는 각각의 학습 이미지에 포함된 하나 이상의 나뭇가지 중 가장 굵은 나뭇가지가 뻗은 방향을 기준으로 분류되어 방향 레이블이 부여되며, 각각의 학습 이미지에 포함된 하나 이상의 나뭇가지를 소정 기준으로 마스킹(masking)한 후 마스킹된 하나 이상의 나뭇가지 별 나뭇가지 종류에 대한 레이블이 부여될 수 있다. One or more learning images are classified and given a direction label based on the direction in which the thickest tree branch among the one or more tree branches included in each learning image extends, and one or more tree branches included in each learning image are classified according to a predetermined standard. After masking, a label for the branch type may be assigned to each one or more masked branches.

전정 가이드 장치는 촬영 방향을 측정하기 위한 센서부를 더 포함할 수 있으며, 제어부는 센서부를 통하여 획득된 촬영 방향 정보 및 하나 이상의 나뭇가지가 포함된 이미지를 인공 신경망에 입력하여 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석할 수 있다.The vestibular guide device may further include a sensor unit for measuring the shooting direction, and the control unit inputs the shooting direction information obtained through the sensor unit and an image containing one or more tree branches into an artificial neural network to determine the location of one or more trees included in the image. The types of branches can be analyzed.

제어부는 촬영 방향 정보를 기초로 사용자가 이미지를 촬영할 방향을 안내하기 위한 촬영 가이드 정보를 생성하며, 인터페이스부를 제어하여 촬영 가이드 정보를 출력할 수 있다. The control unit generates shooting guide information to guide the user in the direction in which to shoot an image based on the shooting direction information, and controls the interface unit to output the shooting guide information.

전정 가이드 정보는 나뭇가지 종류 별 색상 정보를 포함하며, 제어부는 인터페이스부를 제어하여 전정 가이드 정보를 기초로 이미지에 포함된 하나 이상의 나뭇가지를 색상으로 구분하여 출력할 수 있다.The pruning guide information includes color information for each type of tree branch, and the control unit controls the interface unit to output one or more tree branches included in the image by color based on the pruning guide information.

전정 가이드 정보는 전정을 수행할 나뭇가지 위치 정보를 포함하며, 제어부는 인터페이스를 제어하여 전정 가이드 정보를 기초로 이미지에 포함된 하나 이상의 나뭇가지 중 전정을 수행할 나뭇가지의 특정 위치에 소정 이미지를 출력할 수 있다. The pruning guide information includes location information of the branch on which pruning is to be performed, and the control unit controls the interface to create a predetermined image at a specific location of the branch on which pruning is to be performed among one or more tree branches included in the image based on the pruning guide information. Can be printed.

일 양상에 따르면, 전정 가이드 방법은 카메라를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신하는 단계 및 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성하는 단계를 포함할 수 있다.According to one aspect, the pruning guide method includes receiving an image including one or more tree branches through a camera, and determining whether or not the one or more tree branches included in the image are pruning targets to generate pruning guide information. May include steps.

전정 가이드 장치는 많은 기본 지식과 개인적인 노하우가 바탕이 되는 과수나무 전정 기술에 대한 가이드를 제시하여 귀농하는 초보 농업인들이 감귤 재배 등의 과수업에 진입하는 장벽을 낮출 수 있다.The pruning guide device provides guidance on fruit tree pruning technology based on a lot of basic knowledge and personal know-how, lowering the barrier for novice farmers to enter fruit farming such as citrus cultivation.

도 1은 일 실시예에 따른 전정 가이드 장치의 구성도이다.
도 2는 일 실시예에 촬영 가이드 정보를 설명하기 위한 예시도이다.
도 3은 일 실시예에 따른 인공 신경망의 동작을 설명하기 위한 예시도이다.
도 4 및 도 5는 일 실시예에 따른 학습 데이터 생성 방법을 설명하기 위한 예시도이다.
도 6은 일 실시예에 따른 전정 가이드 정보를 설명하기 위한 예시도이다.
도 7은 일 실시예에 따른 전정 가이드 방법을 도시한 흐름도이다.
1 is a configuration diagram of a vestibular guide device according to an embodiment.
Figure 2 is an example diagram for explaining shooting guide information in one embodiment.
Figure 3 is an example diagram for explaining the operation of an artificial neural network according to an embodiment.
Figures 4 and 5 are exemplary diagrams for explaining a method of generating learning data according to an embodiment.
Figure 6 is an example diagram for explaining vestibular guide information according to an embodiment.
Figure 7 is a flow chart illustrating a vestibular guide method according to one embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the attached drawings. In describing the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the content throughout this specification.

이하, 전정 가이드 장치 및 방법의 실시예들을 도면들을 참고하여 자세히 설명한다.Hereinafter, embodiments of the vestibular guide device and method will be described in detail with reference to the drawings.

도 1은 일 실시예에 따른 전정 가이드 장치의 구성도이다.Figure 1 is a configuration diagram of a vestibular guide device according to an embodiment.

일 실시예에 따르면, 전정 가이드 장치(100)는 이미지 촬영을 위한 카메라부(110), 데이터를 입력 및 출력하기 위한 인터페이스부(120) 및 카메라부(110) 및 인터페이스부(120)와 연결된 제어부(130)를 포함할 수 있다.According to one embodiment, the vestibular guide device 100 includes a camera unit 110 for taking images, an interface unit 120 for inputting and outputting data, and a control unit connected to the camera unit 110 and the interface unit 120. It may include (130).

일 예에 따르면, 카메라부(110)는 영상을 촬영하여 이미지 정보를 생성할 수 있는 이미지 센서를 포함할 수 있다. 일 예에 따르면, 인터페이스부(120)는 이미지를 출력하고 터치 입력을 수신할 수 있는 터치스크린일 수 있다. According to one example, the camera unit 110 may include an image sensor capable of generating image information by capturing an image. According to one example, the interface unit 120 may be a touch screen capable of outputting images and receiving touch input.

일 실시예에 따르면, 전정 가이드 장치는 촬영 방향을 측정하기 위한 센서부(140)를 더 포함할 수 있다. 일 예로, 센서부(140)는 위성항법시스템(GPS), 관성 항법장치(INS) 및 지자기 센서 중 적어도 하나를 포함할 수 있다. According to one embodiment, the vestibular guide device may further include a sensor unit 140 for measuring the shooting direction. As an example, the sensor unit 140 may include at least one of a global navigation system (GPS), an inertial navigation system (INS), and a geomagnetic sensor.

일 실시예에 따르면, 제어부(130)는 카메라부(110)를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신할 수 있다. 이때, 이미지는 소정 방향에서 촬영된 이미지일 수 있다. According to one embodiment, the control unit 130 may receive an image containing one or more tree branches through the camera unit 110. At this time, the image may be an image taken in a predetermined direction.

감귤 나무의 경우, 생장 및 결실에 맞도록 전정을 수행하여야 한다. 이때, 감귤 나무의 주지의 방향은 햇빛이 나무의 안쪽까지 비출 수 있도록 동, 서 및 북으로 향하도록 설정하여야 한다. 이에 따라, 전정의 기준은 남쪽에서 북쪽을 바라보는 방향에서 수행되는 것이 적절하다. 이를 위하여, 사용자는 남쪽에서 북쪽을 바라보는 방향에서 전정을 수행할 나무를 촬영하여 이미지를 생성할 수 있다.In the case of citrus trees, pruning should be performed to suit growth and fruiting. At this time, the main direction of the citrus tree should be set to face east, west, and north so that sunlight can shine into the inside of the tree. Accordingly, it is appropriate for pruning to be done in the direction looking from south to north. To this end, the user can create an image by photographing the tree to be pruned in the direction looking from south to north.

일 실시예에 따르면, 제어부(130)는 센서부(140)로부터 촬영 방향 정보를 수신하여 사용자가 이미지를 촬영할 방향을 안내하기 위한 촬영 가이드 정보를 생성할 수 있다. According to one embodiment, the control unit 130 may receive shooting direction information from the sensor unit 140 and generate shooting guide information to guide the user in the direction in which to shoot an image.

일 예에 따르면, 적절한 전정을 수행하기 위해서는 햇빛이 비추는 방향을 고려하야 하는 바, 방향을 고려하여 전정을 수행할 필요가 있다. 이에 따라, 제어부(130)는 사용자로 하여금 소정 방향에서 촬영을 수행하도록 안내하여 올바른 방향에서 촬영을 수행하도록 하기 위한 촬영 가이드 정보를 생성할 수 있다. 일 예로, 촬영 가이드 정보는 방향을 지시하기 위한 소정 기호, 소정 문자 등이 될 수 있다. According to one example, in order to perform appropriate pruning, the direction in which sunlight shines must be taken into consideration, so it is necessary to perform pruning taking the direction into consideration. Accordingly, the control unit 130 can generate shooting guide information to guide the user to perform shooting in a predetermined direction and to perform shooting in the correct direction. For example, the shooting guide information may be a symbol or character for indicating a direction.

일 실시예에 따르면, 제어부(130)는 인터페이스부(140)를 제어하여 촬영 가이드 정보를 출력할 수 있다. 도 2를 참조하면, 전정 가이드 장치(100)는 인터페이스부(140)를 통하여 사용자에게 촬영 방향을 안내하기 위한 소정의 문자(141) 및 소정의 기호(142) 중 적어도 하나를 출력할 수 있다. 예를 들어, 소정 문자는 사용자에게 소정 방향으로 이동하라고 안내하는 내용 또는 현재 위치에서 촬영을 수행하도록 안내하는 내용 등을 포함할 수 있다. 예를 들어, 소정 기호는 소정 방향을 지시하는 방향 지시자 등이 될 수 있다.According to one embodiment, the control unit 130 may control the interface unit 140 to output shooting guide information. Referring to FIG. 2, the vestibular guide device 100 may output at least one of a predetermined character 141 and a predetermined symbol 142 to guide the user in the shooting direction through the interface unit 140. For example, the predetermined text may include content that guides the user to move in a predetermined direction or guides the user to take pictures at the current location. For example, a predetermined symbol may be a direction indicator indicating a predetermined direction.

일 실시예에 따르면, 제어부(130)는 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성할 수 있다. 이를 위하여, 제어부(130)는 나뭇가지 종류에 대한 레이블(label)이 부여된 하나 이상의 학습 이미지를 기초로 생성된 학습 데이터로 학습된 인공 신경망을 포함할 수 있다.According to one embodiment, the control unit 130 may determine whether one or more tree branches included in the image are pruning targets according to the type and generate pruning guide information. To this end, the control unit 130 may include an artificial neural network trained with training data generated based on one or more training images labeled with tree branch types.

도 3을 참조하면, 제어부(130)는 소정의 이미지를 입력 받아 해당 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석하는 인공 신경망(131)을 포함할 수 있다. 일 예를 들어, 인공 신경망(131)은 입력 받은 이미지에 포함된 나뭇가지가 해당되는 종류에 대한 확률을 계산할 수 있다. Referring to FIG. 3, the control unit 130 may include an artificial neural network 131 that receives a predetermined image and analyzes the type of one or more tree branches included in the image. For example, the artificial neural network 131 may calculate the probability of the type of tree branch included in the input image.

일 실시예에 따르면, 제어부(130)는 인공 신경망(131)을 이용하여 하나 이상의 나뭇가지가 포함된 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석할 수 있다.According to one embodiment, the controller 130 may use the artificial neural network 131 to analyze the type of one or more tree branches included in an image including one or more tree branches.

일 예에 따르면, 인공 신경망(131)에 입력되는 이미지는 하나 이상의 나뭇가지에 대한 이미지를 포함할 수 있으며, 인공 신경망(131)은 각각의 나뭇가지에 대한 분석을 수행할 수 있다. According to one example, an image input to the artificial neural network 131 may include an image of one or more tree branches, and the artificial neural network 131 may perform analysis on each tree branch.

일 예에 따르면, 인공 신경망(131)에 입력되는 이미지는 하나 이상의 나뭇가지를 포함하는 이미지에서 각각의 나뭇가지 영역 별로 편집되어 생성된 하나 이상의 이미지일 수 있다. 예를 들어, 카메라부(110)에서 촬영된 이미지에 두 개의 나뭇가지가 포함된 경우, 제어부(130)는 각각의 나뭇가지가 포함된 영역을 나누어 두 개의 이미지를 생성할 수 있으며, 분할된 구 개의 이미지를 인공 신경망(131)에 입력할 수 있다. According to one example, the image input to the artificial neural network 131 may be one or more images created by editing each tree branch region from an image including one or more tree branches. For example, if the image captured by the camera unit 110 includes two tree branches, the control unit 130 may divide the area containing each tree branch to generate two images, and the divided An image of a dog can be input into the artificial neural network 131.

일 예에 따르면, 제어부(130)는 인공 신경망(131)에서 추정된 확률값에 기초하여, 가장 높은 확률을 가지는 종류를 해당 나뭇가지의 종류로 결정할 수 있다.According to one example, the control unit 130 may determine the type with the highest probability as the type of the corresponding tree branch, based on the probability value estimated by the artificial neural network 131.

일 실시예에 따르면, 인공 신경망은 나뭇가지 종류에 대한 레이블(label)이 부여된 하나 이상의 학습 이미지를 기초로 생성된 학습 데이터로 학습될 수 있다. 일 예로, 하나 이상의 학습 이미지는 각각의 학습 이미지에 포함된 하나 이상의 나뭇가지 중 가장 굵은 나뭇가지가 뻗은 방향을 기준으로 분류되어 방향 레이블이 부여될 수 있다.According to one embodiment, the artificial neural network may be trained with training data generated based on one or more training images labeled with tree branch types. As an example, one or more learning images may be classified and given a direction label based on the direction in which the thickest tree branch among one or more tree branches included in each learning image extends.

도 4(a)를 참조하면, 학습 이미지에는 하나 이상의 나뭇가지가 포함될 수 있으며, 그 중 가장 굵은 가지를 기준으로 가지가 우상향으로 뻗어 있는 경우 우측 가지, 좌상향으로 뻗어 있는 경우 좌측 가지로 분류할 수 있다. 이때, 촬영 방향이 남쪽에서 북쪽으로 바라본 방향인 경우, 좌측 가지는 서쪽을 향하는 가지로 분석되며, 우측 가지는 동쪽을 향하는 가지고 분석될 수 있다.Referring to Figure 4(a), the learning image may include one or more tree branches, and if the branch extends upward to the right based on the thickest branch among them, it can be classified as a right branch, and if it extends upward to the left, it can be classified as a left branch. You can. At this time, if the shooting direction is from south to north, the left branch may be analyzed as a branch facing west, and the right branch may be analyzed as facing east.

일 실시예에 따르면, 학습 이미지는 각각의 학습 이미지에 포함된 하나 이상의 나뭇가지를 소정 기준으로 마스킹(masking)한 후 마스킹된 하나 이상의 나뭇가지 별 나뭇가지 종류에 대한 레이블이 부여될 수 있다. 도 4(b)에서와 같이, 학습 이미지에 포함된 하나 이상의 나뭇가지는 각 나뭇가지의 영역별로 마스킹될 수 있으며, 해당 마스킹 된 영역 별로 나뭇가지의 종류에 대한 레이블이 부여될 수 있다. According to one embodiment, in the learning images, one or more tree branches included in each learning image may be masked according to a predetermined standard, and then a label for the tree branch type may be assigned to each masked one or more tree branches. As shown in FIG. 4(b), one or more tree branches included in the learning image may be masked for each region of each tree branch, and a label for the type of tree branch may be assigned to each masked region.

학습 데이터는 학습 이미지를 픽셀 단위로 클래스(class)를 예측하는 segmentation 방법 중 localization과 클래스 판별을 단계적으로 수행하는 instance segmentation 알고리즘을 이용한 모델링을 통하여 생성할 수 있다. 도 5에서와 같이, 학습 이미지에 대하여 목적하는 class의 위치를 localization할 수 있으며, localization된 bounding box에 대하여 각각의 픽셀 별 클래스 포함 여부를 판단하여 클래스를 판별할 수 있다. 이후, 클래스로 판별된 픽셀에 대하여 클래스 별로 마스킹할 수 있다. 예를 들어, 학습 이미지는 나뭇가지에 해당하는 픽셀을 기준으로 나뭇가지 클래스가 판별될 수 있으며, 이후, 해당 나뭇가지의 종류별로 클래스가 구분되어 판별될 수 있다. 일 예로, 클래스는 일반 가지 또는 전정 대상 가지로 분류될 수 있다.Learning data can be generated through modeling using the instance segmentation algorithm, which performs localization and class discrimination step by step among the segmentation methods that predict classes in pixel units of learning images. As shown in Figure 5, the location of the desired class can be localized with respect to the learning image, and the class can be determined by determining whether each pixel contains a class in the localized bounding box. Afterwards, pixels determined as classes can be masked for each class. For example, in a training image, the tree branch class may be determined based on the pixel corresponding to the tree branch, and then the classes may be classified and determined according to the type of the tree branch. As an example, a class may be classified as a general branch or a pruning target branch.

일 실시예에 따르면, 제어부(130)는 센서부(140)를 통하여 획득된 촬영 방향 정보 및 하나 이상의 나뭇가지가 포함된 이미지를 인공 신경망에 입력하여 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석할 수 있다. According to one embodiment, the control unit 130 inputs the shooting direction information and the image containing one or more tree branches acquired through the sensor unit 140 into an artificial neural network to analyze the type of one or more tree branches included in the image. can do.

일 예를 들어, 내향지의 경우 나무에서 주가되는 가지의 방향과 반대 내부 방향으로 향하는 가지인 바, 제어부(130)는 이미지가 촬영된 방향 정보를 기준으로 주된 가지가 좌측 또는 우측 가지인지 여부를 판단할 수 있으며, 해당 주된 가지와 반대되는 방향으로 뻗어 있는 가지를 내향지로 판단할 수 있다. For example, in the case of an inward branch, it is a branch that faces in the opposite direction to the direction of the main branch in the tree, and the control unit 130 determines whether the main branch is the left or right branch based on the direction information in which the image was captured. This can be done, and branches extending in the direction opposite to the main branch can be judged as inward-facing branches.

일 실시예에 따르면, 제어부(130)는 인터페이스부(120)를 제어하여 하나 이상의 나뭇가지가 포함된 이미지 및 전정 가이드 정보 중 적어도 하나를 출력할 수 있다. According to one embodiment, the control unit 130 may control the interface unit 120 to output at least one of an image including one or more tree branches and pruning guide information.

도 6을 참조하면, 제어부(130)는 인터페이스부(120)를 제어하여 카메라부(110)를 통하여 획득된 이미지를 출력할 수 있다. 또한, 제어부(130)는 인터페이스부(120)를 제어하여 카메라부(110)를 통하여 획득된 이미지에 포함되어 있는 나뭇가지의 종류에 대한 정보, 전정 대상 여부, 전정 위치 등에 대한 정보를 출력할 수 있다. Referring to FIG. 6, the control unit 130 may control the interface unit 120 to output an image acquired through the camera unit 110. In addition, the control unit 130 can control the interface unit 120 to output information about the type of tree branch included in the image acquired through the camera unit 110, whether or not it is a pruning target, and the pruning location. there is.

일 실시예에 따르면, 전정 가이드 정보는 나뭇가지 종류 별 색상 정보를 포함하며, 제어부(130)는 인터페이스부(120)를 제어하여 전정 가이드 정보를 기초로 이미지에 포함된 하나 이상의 나뭇가지를 색상으로 구분하여 출력할 수 있다. According to one embodiment, the pruning guide information includes color information for each type of tree branch, and the control unit 130 controls the interface unit 120 to color one or more tree branches included in the image based on the pruning guide information. It can be printed separately.

일 예로, 도 6(a)에서와 같이 제어부(130)는 카메라부(110)를 통하여 획득된 이미지와 함께 나무가지 종류별로 다른 색상을 이용하여 나뭇가지의 종류에 대한 정보를 출력하고 있다. 이를 통하여, 사용자는 해당 나뭇가지의 종류에 대하여 판단할 수 있으며, 해당 나뭇가지를 전정할지 여부를 판단할 수 있다. For example, as shown in FIG. 6(a), the control unit 130 outputs information about the type of tree branch using different colors for each type of tree branch along with the image acquired through the camera unit 110. Through this, the user can determine the type of the tree branch in question and whether or not to prune the tree branch.

일 실시예에 따르면, 전정 가이드 정보는 전정을 수행할 나뭇가지 위치 정보를 포함하며, 제어부(130)는 인터페이스부(120)를 제어하여 전정 가이드 정보를 기초로 이미지에 포함된 하나 이상의 나뭇가지 중 전정을 수행할 나뭇가지의 특정 위치에 소정 이미지를 출력할 수 있다.According to one embodiment, the pruning guide information includes location information of tree branches to be pruned, and the control unit 130 controls the interface unit 120 to select one or more tree branches included in the image based on the pruning guide information. A predetermined image can be output at a specific location of a tree branch to be pruned.

일 예로, 도 6(b)에서와 같이 제어부(130)는 카메라부(110)를 통하여 획득된 이미지 상에 전정을 수행할 위치 정보를 표시하고 있다. 이를 통하여, 사용자는 어떤 나뭇가지의 어느 위치에 전정을 수행할지 여부를 알 수 있으며, 해당 정보를 참조하여 전정을 수행할 수 있다. For example, as shown in FIG. 6(b), the control unit 130 displays location information to perform pruning on the image acquired through the camera unit 110. Through this, the user can know at which location of which tree branch to perform pruning, and can perform pruning by referring to the information.

도 7은 일 실시예에 따른 전정 가이드 방법을 도시한 흐름도이다.Figure 7 is a flow chart illustrating a vestibular guide method according to an embodiment.

일 실시예에 따르면, 전정 가이드 방법은 카메라를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신하는 단계(710)를 포함할 수 있다. According to one embodiment, the pruning guide method may include receiving an image including one or more tree branches through a camera (710).

일 실시예에 따르면, 전정 가이드 장치는 이미지 촬영을 위한 카메라, 데이터를 입력 및 출력하기 위한 인터페이스 및 카메라 및 인터페이스를 제어하는 제어부를 포함할 수 있다.According to one embodiment, the vestibular guide device may include a camera for taking images, an interface for inputting and outputting data, and a control unit for controlling the camera and the interface.

일 실시예에 따르면, 전정 가이드 장치는 촬영 방향을 측정하기 위한 센서를 더 포함할 수 있다. 일 예로, 센서는 위성항법시스템(GPS), 관성 항법장치(INS) 및 지자기 센서 중 적어도 하나일 수 있다. According to one embodiment, the vestibular guide device may further include a sensor for measuring the shooting direction. For example, the sensor may be at least one of a global navigation system (GPS), an inertial navigation system (INS), and a geomagnetic sensor.

일 실시예에 따르면, 전정 가이드 장치는 카메라를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신할 수 있다. 이때, 이미지는 소정 방향에서 촬영된 이미지일 수 있다. According to one embodiment, the vestibular guide device may receive an image including one or more tree branches through a camera. At this time, the image may be an image taken in a predetermined direction.

일 실시예에 따르면, 전정 가이드 장치는 센서로부터 촬영 방향 정보를 수신하여 사용자가 이미지를 촬영할 방향을 안내하기 위한 촬영 가이드 정보를 생성할 수 있다. According to one embodiment, the vestibular guide device may receive shooting direction information from a sensor and generate shooting guide information to guide the user in the direction in which to shoot an image.

일 실시예에 따르면, 전정 가이드 방법은 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성하는 단계(720)를 포함할 수 있다. According to one embodiment, the pruning guide method may include a step 720 of generating pruning guide information by determining whether one or more tree branches included in the image are pruning targets according to the type.

일 실시예에 따르면, 전정 가이드 장치는 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성할 수 있다. 이를 위하여, 전정 가이드 장치는 나뭇가지 종류에 대한 레이블(label)이 부여된 하나 이상의 학습 이미지를 기초로 생성된 학습 데이터로 학습된 인공 신경망을 포함할 수 있다.According to one embodiment, the pruning guide device may generate pruning guide information by determining whether one or more tree branches included in the image are pruning targets according to the type. To this end, the vestibular guide device may include an artificial neural network trained with learning data generated based on one or more learning images labeled with tree branch types.

일 실시예에 따르면, 전정 가이드 장치는 인터페이스를 통하여 카메라를 통하여 획득된 이미지를 출력할 수 있다. 또한, 전정 가이드 장치는 인터페이스를 제어하여 카메라를 통하여 획득된 이미지에 포함되어 있는 나뭇가지의 종류에 대한 정보, 전정 대상 여부, 전정 위치 등에 대한 정보를 출력할 수 있다. According to one embodiment, the vestibular guide device may output an image acquired through a camera through an interface. In addition, the pruning guide device can control the interface to output information about the type of tree branch included in the image acquired through the camera, whether it is a pruning target, and the pruning location.

일 실시예에 따르면, 전정 가이드 정보는 나뭇가지 종류 별 색상 정보를 포함하며, 전정 가이드 장치는 인터페이스를 통하여 전정 가이드 정보를 기초로 이미지에 포함된 하나 이상의 나뭇가지를 색상으로 구분하여 출력할 수 있다. According to one embodiment, the pruning guide information includes color information for each type of tree branch, and the pruning guide device can output one or more tree branches included in the image by color based on the pruning guide information through the interface. .

일 실시예에 따르면, 전정 가이드 정보는 전정을 수행할 나뭇가지 위치 정보를 포함하며, 전정 가이드 장치는 인터페이스를 제어하여 전정 가이드 정보를 기초로 이미지에 포함된 하나 이상의 나뭇가지 중 전정을 수행할 나뭇가지의 특정 위치에 소정 이미지를 출력할 수 있다. According to one embodiment, the pruning guide information includes location information of a tree branch on which pruning is to be performed, and the pruning guide device controls the interface to select a tree branch on which pruning is to be performed among one or more tree branches included in the image based on the pruning guide information. A predetermined image can be output at a specific location of the branch.

전정 가이드 방법에 대한 실시예 중 도 1 내지 도 6을 참조하여 설명한 실시예와 중복되는 부분은 생략한다.Among the embodiments of the vestibular guide method, parts that overlap with the embodiments described with reference to FIGS. 1 to 6 are omitted.

본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함할 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함할 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 작성되고 실행될 수 있다.An aspect of the present invention may be implemented as computer-readable code on a computer-readable recording medium. Codes and code segments implementing the above program can be easily deduced by a computer programmer in the art. Computer-readable recording media may include all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media may include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, etc. Additionally, the computer-readable recording medium may be distributed over network-connected computer systems and written and executed as computer-readable code in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시 예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.So far, the present invention has been examined focusing on its preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Accordingly, the scope of the present invention is not limited to the above-described embodiments, but should be construed to include various embodiments within the scope equivalent to the content described in the patent claims.

100: 전정 가이드 장치
110: 카메라부
120: 인터페이스부
130: 제어부
140: 센서부
100: Vestibular guide device
110: Camera unit
120: Interface unit
130: control unit
140: sensor unit

Claims (9)

전정 가이드 장치로서,
이미지 촬영을 위한 카메라부;
데이터를 입력 및 출력하기 위한 인터페이스부; 및
상기 카메라부 및 상기 인터페이스부와 연결된 제어부를 포함하며,
상기 제어부는,
상기 카메라부를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신하며,
상기 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성하고,
상기 제어부는,
나뭇가지 종류에 대한 레이블(label)이 부여된 하나 이상의 학습 이미지를 기초로 생성된 학습 데이터로 학습된 인공 신경망을 포함하며,
상기 인공 신경망을 이용하여 상기 하나 이상의 나뭇가지가 포함된 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석하고,
상기 하나 이상의 학습 이미지는,
각각의 학습 이미지에 포함된 하나 이상의 나뭇가지 중 가장 굵은 나뭇가지가 뻗은 방향을 기준으로 분류되어 방향 레이블이 부여되며,
각각의 학습 이미지에 포함된 하나 이상의 나뭇가지를 소정 기준으로 마스킹(masking)한 후 마스킹된 하나 이상의 나뭇가지 별 나뭇가지 종류에 대한 레이블이 부여된, 전정 가이드 장치.
As a vestibular guide device,
Camera unit for taking images;
An interface unit for inputting and outputting data; and
It includes a control unit connected to the camera unit and the interface unit,
The control unit,
Receives an image containing one or more tree branches through the camera unit,
Generate pruning guide information by determining whether one or more tree branches included in the image are pruning targets according to the type,
The control unit,
It includes an artificial neural network trained with training data generated based on one or more training images labeled for tree branch types,
Analyzing the type of one or more tree branches included in the image including the one or more tree branches using the artificial neural network,
The one or more learning images are,
Among one or more tree branches included in each learning image, the thickest tree branch is classified based on the direction in which it extends and a direction label is given.
A pruning guide device that masks one or more tree branches included in each learning image based on a predetermined standard and then labels each masked tree branch for the type of tree branch.
제 1 항에 있어서,
상기 제어부는
상기 인터페이스부를 제어하여 상기 하나 이상의 나뭇가지가 포함된 이미지 및 상기 전정 가이드 정보 중 적어도 하나를 출력하는, 전정 가이드 장치.
According to claim 1,
The control unit
A vestibular guide device that controls the interface unit to output at least one of an image including the one or more tree branches and the vestibular guide information.
삭제delete 삭제delete 제 1 항에 있어서,
촬영 방향을 측정하기 위한 센서부를 더 포함하며,
상기 제어부는
상기 센서부를 통하여 획득된 촬영 방향 정보 및 상기 하나 이상의 나뭇가지가 포함된 이미지를 상기 인공 신경망에 입력하여 상기 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석하는, 전정 가이드 장치.
According to claim 1,
It further includes a sensor unit for measuring the shooting direction,
The control unit
A vestibular guide device that inputs the shooting direction information acquired through the sensor unit and the image including the one or more tree branches into the artificial neural network to analyze the type of the one or more tree branches included in the image.
제 1 항에 있어서,
촬영 방향을 측정하기 위한 센서부를 더 포함하며,
상기 제어부는
상기 촬영 방향 정보를 기초로 사용자가 이미지를 촬영할 방향을 안내하기 위한 촬영 가이드 정보를 생성하며,
상기 인터페이스부를 제어하여 상기 촬영 가이드 정보를 출력하는, 전정 가이드 장치.
According to claim 1,
It further includes a sensor unit for measuring the shooting direction,
The control unit
Based on the shooting direction information, shooting guide information is generated to guide the user in the direction in which to shoot an image,
A vestibular guide device that controls the interface unit to output the shooting guide information.
제 1 항에 있어서,
상기 전정 가이드 정보는 나뭇가지 종류 별 색상 정보를 포함하며,
상기 제어부는
상기 인터페이스부를 제어하여 상기 전정 가이드 정보를 기초로 상기 이미지에 포함된 하나 이상의 나뭇가지를 색상으로 구분하여 출력하는, 전정 가이드 장치.
According to claim 1,
The pruning guide information includes color information for each type of tree branch,
The control unit
A pruning guide device that controls the interface unit to output one or more tree branches included in the image by color based on the pruning guide information.
제 1 항에 있어서,
상기 전정 가이드 정보는 전정을 수행할 나뭇가지 위치 정보를 포함하며,
상기 제어부는
상기 인터페이스를 제어하여 상기 전정 가이드 정보를 기초로 상기 이미지에 포함된 하나 이상의 나뭇가지 중 전정을 수행할 나뭇가지의 특정 위치에 소정 이미지를 출력하는, 전정 가이드 장치.
According to claim 1,
The pruning guide information includes tree branch location information to perform pruning,
The control unit
A pruning guide device that controls the interface to output a predetermined image at a specific location of a tree branch to be pruned among one or more tree branches included in the image based on the pruning guide information.
전정 가이드 장치에 의해 수행되는 전정 가이드 방법으로서,
카메라를 통하여 하나 이상의 나뭇가지가 포함된 이미지를 수신하는 단계; 및
인공 신경망을 이용하여 상기 이미지에 포함된 하나 이상의 나뭇가지의 종류를 분석함으로써, 상기 이미지에 포함된 하나 이상의 나뭇가지의 종류에 따라 전정 대상인지 여부를 결정하여 전정 가이드 정보를 생성하는 단계를 포함하고,
상기 인공 신경망은 나뭇가지 종류에 대한 레이블(label)이 부여된 하나 이상의 학습 이미지를 기초로 생성된 학습 데이터로 학습되고,
상기 하나 이상의 학습 이미지는,
각각의 학습 이미지에 포함된 하나 이상의 나뭇가지 중 가장 굵은 나뭇가지가 뻗은 방향을 기준으로 분류되어 방향 레이블이 부여되며,
각각의 학습 이미지에 포함된 하나 이상의 나뭇가지를 소정 기준으로 마스킹(masking)한 후 마스킹된 하나 이상의 나뭇가지 별 나뭇가지 종류에 대한 레이블이 부여된, 전정 가이드 방법.
As a vestibular guide method performed by a vestibular guide device,
Receiving an image including one or more tree branches through a camera; and
By analyzing the types of one or more tree branches included in the image using an artificial neural network, determining whether the one or more tree branches included in the image is a pruning target or not and generating pruning guide information; ,
The artificial neural network is trained with training data generated based on one or more training images labeled with tree branch types,
The one or more learning images are,
Among one or more tree branches included in each learning image, the thickest tree branch is classified based on the direction in which it extends and a direction label is given.
A pruning guide method in which one or more tree branches included in each learning image are masked based on a predetermined standard, and then a label for the tree branch type is assigned to each masked one or more branches.
KR1020210058698A 2021-05-06 2021-05-06 Apparatus and method for guiding pruning KR102644930B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210058698A KR102644930B1 (en) 2021-05-06 2021-05-06 Apparatus and method for guiding pruning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210058698A KR102644930B1 (en) 2021-05-06 2021-05-06 Apparatus and method for guiding pruning

Publications (2)

Publication Number Publication Date
KR20220151443A KR20220151443A (en) 2022-11-15
KR102644930B1 true KR102644930B1 (en) 2024-03-08

Family

ID=84041874

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210058698A KR102644930B1 (en) 2021-05-06 2021-05-06 Apparatus and method for guiding pruning

Country Status (1)

Country Link
KR (1) KR102644930B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014135944A (en) 2013-01-18 2014-07-28 Nippon Telegr & Teleph Corp <Ntt> Pruning supporting method and information processing device
US20180220589A1 (en) * 2015-11-03 2018-08-09 Keith Charles Burden Automated pruning or harvesting system for complex morphology foliage

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638668B2 (en) * 2018-08-30 2020-05-05 Accenture Global Solutions Limited Modeling and decision support for horticulture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014135944A (en) 2013-01-18 2014-07-28 Nippon Telegr & Teleph Corp <Ntt> Pruning supporting method and information processing device
US20180220589A1 (en) * 2015-11-03 2018-08-09 Keith Charles Burden Automated pruning or harvesting system for complex morphology foliage

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T. Botterill 등. "A Robot System for Pruning Grape Vines". Journal of Field Robotics*

Also Published As

Publication number Publication date
KR20220151443A (en) 2022-11-15

Similar Documents

Publication Publication Date Title
CN109241829B (en) Behavior identification method and device based on space-time attention convolutional neural network
CN107223246B (en) Image labeling method and device and electronic equipment
CN106909886B (en) A kind of high-precision method for traffic sign detection and system based on deep learning
CN108596046A (en) A kind of cell detection method of counting and system based on deep learning
ZA202300610B (en) System and method for crop monitoring
CN105210085A (en) Image labeling using geodesic features
JP2013196458A (en) Image search system, image search device, image search method and program
US11521375B2 (en) Method and system for improved object marking in sensor data
US20240037724A1 (en) Plant detection and display system
CN113095441A (en) Pig herd bundling detection method, device, equipment and readable storage medium
JP2020197833A (en) Data extension system, data extension method and program
Cocoma-Ortega et al. Towards high-speed localisation for autonomous drone racing
KR102644930B1 (en) Apparatus and method for guiding pruning
CN110263719A (en) Artificial intelligence oil gas field prevention judgement system and method based on big data monitoring
CN112925470B (en) Touch control method and system of interactive electronic whiteboard and readable medium
CN108830881B (en) Video tracking method and device for moving creature
CN113177957A (en) Cell image segmentation method and device, electronic equipment and storage medium
Baca et al. Automated data annotation for 6-dof ai-based navigation algorithm development
KR101411893B1 (en) Automatic Recognition Method of Direction Information in Road Sign Image
KR102548246B1 (en) Object detection data set composition method using image entropy and data processing device performing the same
Bonaria Grapevine yield estimation using image analysis for the variety Arinto
CN117523379B (en) Underwater photographic target positioning method and system based on AI
CN111046262A (en) Data annotation method and device and computer storage medium
Abdallah et al. Olive tree and shadow instance segmentation based on Detectron2
US20230392935A1 (en) Method for controlling dissemination of instructional content to operators performing procedures within a facility

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant