KR102563552B1 - Agricultural automation system using drone - Google Patents
Agricultural automation system using drone Download PDFInfo
- Publication number
- KR102563552B1 KR102563552B1 KR1020210021401A KR20210021401A KR102563552B1 KR 102563552 B1 KR102563552 B1 KR 102563552B1 KR 1020210021401 A KR1020210021401 A KR 1020210021401A KR 20210021401 A KR20210021401 A KR 20210021401A KR 102563552 B1 KR102563552 B1 KR 102563552B1
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- agricultural
- soil
- vehicle
- server
- Prior art date
Links
- 239000002689 soil Substances 0.000 claims abstract description 71
- 239000008199 coating composition Substances 0.000 claims description 16
- 239000002270 dispersing agent Substances 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 8
- 239000010954 inorganic particle Substances 0.000 claims description 7
- 239000003960 organic solvent Substances 0.000 claims description 6
- -1 acrylic compound Chemical class 0.000 claims description 5
- 125000002529 biphenylenyl group Chemical group C1(=CC=CC=2C3=CC=CC=C3C12)* 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 46
- 239000011247 coating layer Substances 0.000 description 22
- 238000000034 method Methods 0.000 description 16
- ZWEHNKRNPOVVGH-UHFFFAOYSA-N 2-Butanone Chemical compound CCC(C)=O ZWEHNKRNPOVVGH-UHFFFAOYSA-N 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 3
- YXFVVABEGXRONW-UHFFFAOYSA-N Toluene Chemical compound CC1=CC=CC=C1 YXFVVABEGXRONW-UHFFFAOYSA-N 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 238000011109 contamination Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 235000008733 Citrus aurantifolia Nutrition 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- NINIDFKCEFEMDL-UHFFFAOYSA-N Sulfur Chemical compound [S] NINIDFKCEFEMDL-UHFFFAOYSA-N 0.000 description 2
- 235000011941 Tilia x europaea Nutrition 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 239000004571 lime Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011242 organic-inorganic particle Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000003381 stabilizer Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- WZZBNLYBHUDSHF-DHLKQENFSA-N 1-[(3s,4s)-4-[8-(2-chloro-4-pyrimidin-2-yloxyphenyl)-7-fluoro-2-methylimidazo[4,5-c]quinolin-1-yl]-3-fluoropiperidin-1-yl]-2-hydroxyethanone Chemical compound CC1=NC2=CN=C3C=C(F)C(C=4C(=CC(OC=5N=CC=CN=5)=CC=4)Cl)=CC3=C2N1[C@H]1CCN(C(=O)CO)C[C@@H]1F WZZBNLYBHUDSHF-DHLKQENFSA-N 0.000 description 1
- 239000006096 absorbing agent Substances 0.000 description 1
- 230000002378 acidificating effect Effects 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- PNEYBMLMFCGWSK-UHFFFAOYSA-N aluminium oxide Inorganic materials [O-2].[O-2].[O-2].[Al+3].[Al+3] PNEYBMLMFCGWSK-UHFFFAOYSA-N 0.000 description 1
- 239000003963 antioxidant agent Substances 0.000 description 1
- 230000003078 antioxidant effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000003337 fertilizer Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 239000002420 orchard Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 229920000728 polyester Polymers 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000377 silicon dioxide Substances 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 229910052717 sulfur Inorganic materials 0.000 description 1
- 239000011593 sulfur Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000004078 waterproofing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/80—UAVs characterised by their small size, e.g. micro air vehicles [MAV]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/10—Propulsion
- B64U50/19—Propulsion using electrically powered motors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
- B64U50/34—In-flight charging
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
- B64U50/34—In-flight charging
- B64U50/35—In-flight charging by wireless transmission, e.g. by induction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N33/00—Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
- G01N33/24—Earth materials
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/31—UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T50/00—Aeronautics or air transport
- Y02T50/50—On board measures aiming to increase energy efficiency
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T50/00—Aeronautics or air transport
- Y02T50/60—Efficient propulsion technologies, e.g. for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Combustion & Propulsion (AREA)
- Tourism & Hospitality (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Animal Husbandry (AREA)
- Pathology (AREA)
- Analytical Chemistry (AREA)
- Food Science & Technology (AREA)
- Immunology (AREA)
- Marine Sciences & Fisheries (AREA)
- Biochemistry (AREA)
- Agronomy & Crop Science (AREA)
- Geology (AREA)
- Mining & Mineral Resources (AREA)
- Medicinal Chemistry (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
드론 및 농업 자동화 시스템이 개시된다. 본 발명은 농업 자동화 시스템으로서, 미리 정해진 구역의 토양 상태 정보를 획득하고, 상기 미리 정해진 구역의 영상 데이터를 획득하는 드론, 상기 토양 상태 정보 및 상기 영상 데이터를 수신하고, 상기 토양 상태 정보 및 상기 영상 데이터를 기초로 주행 경로를 생성하는 서버 및 상기 주행 경로를 수신하고, 상기 주행 경로를 따라 주행하는 농업용 차량을 포함하되, 상기 서버는 상기 드론 및 상기 농업용 차량과 통신하고 상기 드론 및 상기 농업용 차량을 제어할 수 있다. A drone and agricultural automation system are disclosed. The present invention is an agricultural automation system that obtains soil condition information of a predetermined area, a drone that acquires image data of the predetermined area, receives the soil condition information and the image data, and obtains the soil condition information and the image data. A server generating a driving route based on data and an agricultural vehicle receiving the driving route and driving along the driving route, wherein the server communicates with the drone and the agricultural vehicle and controls the drone and the agricultural vehicle. You can control it.
Description
본 발명은 드론을 이용한 농업 자동화 시스템에 관한 것이다. 보다 상세하게는, 드론을 활용하여 토양에 대한 상태를 감지하고 관리할 수 있는 농업 자동화 시스템에 대한 것이다.The present invention relates to an agricultural automation system using a drone. More specifically, it relates to an agricultural automation system capable of detecting and managing soil conditions using drones.
드론(drone)과 같은 무인 비행체는 군사용으로 개발되었으나, 최근, 군사용뿐 아니라 기업, 미디어나 개인을 위한 용도로 다양하게 활용되고 있으며, 그 활용 범위가 점차 넓어지고 있다.Although unmanned aerial vehicles such as drones have been developed for military purposes, they have recently been widely used not only for military purposes but also for businesses, media, and individuals, and their application range is gradually widening.
그에 따라 드론과 관련된 산업이 급격히 성장하고 있으며, 그 중 큰 비중을 차지하는 분야는 농업이다. 그런데, 농업 분야에서 대부분 드론의 활용은 농약과 같은 약재나 비료 등을 작물에 살포하는 등의 방제업무에 일부 도입된 수준이다.Accordingly, industries related to drones are rapidly growing, and agriculture accounts for a large portion of them. However, most of the use of drones in the agricultural sector has been partially introduced for control tasks such as spraying crops with medicines such as pesticides or fertilizers.
현재, 드론에 카메라 등을 설치하여, 첨단 영상기술을 이용한 작물의 관제, 토양의 조사, 파종 및 생육 평가 등을 통해 다양한 정보를 수집할 수 있는 기술이 개발되어 있어, 정밀농업 분야에서 드론을 다목적으로 활용할 수 있다. Currently, a technology has been developed that can collect various information through crop control, soil investigation, sowing and growth evaluation using advanced imaging technology by installing cameras on drones, making drones versatile in the field of precision agriculture. can be utilized as
현재 가장 많이 쓰이는 드론의 용도는 감시, 정찰의 용도로 사용되는 것이다. 기존의 방범 및 보안을 위한 감시 시스템으로는 CCTV가 주로 사용되고 있다. CCTV를 이용한 감시 방법은, 정해진 구역에 설치된 CCTV를 이용하여 지정된 구역의 영상을 촬영하고, 촬영한 영상을 저장한 후 감시 영역에 문제가 발생했을 경우 저장된 영상을 돌려보면서 문제 발생 시점의 영상을 확인하거나, 사람이 CCTV에서 촬영한 영상을 계속해서 모니터링 하는 것이다. 그러나 CCTV를 이용한 감시 방법은 미리 정해진 구역에 고정 설치되어 협소한 구간만을 집중적으로 촬영할 수밖에 없는 문제점이 있다.Currently, drones are most commonly used for surveillance and reconnaissance. As a surveillance system for existing crime prevention and security, CCTV is mainly used. In the monitoring method using CCTV, a video of a designated area is taken using a CCTV installed in a designated area, the captured video is saved, and if a problem occurs in the surveillance area, the stored video is reviewed to check the video at the time of the problem. Or, it is to continuously monitor the video taken by a person in CCTV. However, the surveillance method using CCTV is fixedly installed in a predetermined area, and there is a problem in that only a narrow section is intensively photographed.
이러한 문제를 해결하기 위해서 드론에 카메라를 장착하여 영상을 촬영하는 방법이 제시되었고, 효율적으로 드론을 작동하기 위한 기술 연구가 진행중이다.In order to solve this problem, a method of recording images by attaching a camera to a drone has been proposed, and research on technology for efficiently operating the drone is in progress.
특히 이러한 기술은 넓은 지역을 적은 인력으로 감시하는 점에서 대규모 농장이나 과수원, 목초지 등의 관리 분야에서 이용 가능성이 크며, 다른 관리 시스템과의 결합을 통하여 농장이나 과수원, 목초지 등의 관리 분야에 적용하기 위한 연구가 진행되고 있다.In particular, this technology is highly applicable in the management field of large-scale farms, orchards, and pastures in that it monitors a large area with a small number of manpower. research is in progress.
본 발명의 목적은 드론을 통하여 토양 상태 정보 및 영상 데이터를 획득하고, 이를 기초로 농업용 차량을 구동하기 위한 농업 자동화 시스템을 제공하는 것이다. An object of the present invention is to provide an agricultural automation system for obtaining soil condition information and image data through a drone and driving an agricultural vehicle based thereon.
또한, 본 발명의 목적은 드론을 통하여 획득한 토양 상태 정보 및 영상 데이터를 기초로 주행 경로를 생성하여 농업용 차량을 주행할 수 있는 농업 자동화 시스템을 제공하는 것이다. In addition, an object of the present invention is to provide an agricultural automation system capable of driving an agricultural vehicle by generating a driving route based on soil condition information and image data obtained through a drone.
또한, 본 발명의 목적은 외부에서 사용되는 카메라의 렌즈층을 보호하기 위한 코팅츠을 제안함으로서 보다 선명한 이미지를 촬영할 수 있는 드론을 포함하는 농업 자동화 시스템을 제공하는 것이다. In addition, an object of the present invention is to provide an agricultural automation system including a drone capable of capturing clearer images by proposing coatings for protecting a lens layer of a camera used outside.
상술한 문제점을 해결하기 위하여, 본 발명은 미리 정해진 구역의 토양 상태 정보를 획득하고, 상기 미리 정해진 구역의 영상 데이터를 획득하는 드론, 상기 토양 상태 정보 및 상기 영상 데이터를 수신하고, 상기 토양 상태 정보 및 상기 영상 데이터를 기초로 주행 경로를 생성하는 서버 및 상기 주행 경로를 수신하고, 상기 주행 경로를 따라 주행하는 농업용 차량을 포함하되, 상기 서버는 상기 드론 및 상기 농업용 차량과 통신하고 상기 드론 및 상기 농업용 차량을 제어할 수 있다. In order to solve the above problems, the present invention obtains soil condition information of a predetermined area, a drone for obtaining image data of the predetermined area, receiving the soil condition information and the image data, and the soil condition information and a server generating a driving route based on the image data and an agricultural vehicle receiving the driving route and driving along the driving route, wherein the server communicates with the drone and the agricultural vehicle and communicates with the drone and the agricultural vehicle. Agricultural vehicles can be controlled.
또한, 상기 토양 상태 정보는 상기 토양의 함수율 및 상기 토양의 산도를 포함할 수 있다. In addition, the soil condition information may include the moisture content of the soil and acidity of the soil.
또한, 상기 드론은 상기 함수율을 측정하기 위한 습도측정센서 및 상기 산도를 측정하기 위한 pH-Reference 센서 및 ISFET-pH 센서를 포함할 수 있다. In addition, the drone may include a humidity measurement sensor for measuring the moisture content, a pH-reference sensor and an ISFET-pH sensor for measuring the acidity.
또한, 상기 토양 상태 정보는 상기 토양의 높낮이 정보를 포함할 수 있다. In addition, the soil condition information may include height information of the soil.
또한, 상기 드론은 상기 높낮이 정보를 측정하기 위한 거리감지 센서를 포함할 수 있다. In addition, the drone may include a distance sensor for measuring the height information.
또한, 상기 드론은 상기 영상 데이터를 획득하기 위한 카메라를 포함하고, 상기 카메라는 광 이미지로부터 상기 영상 데이터를 생성하는 카메라 모듈을 포함하고, 상기 카메라 모듈은 측벽에 관통홀을 포함하는 하우징, 상기 관통홀에 설치된 렌즈 및 상기 렌즈를 구동하는 구동부를 포함할 수 있다. In addition, the drone includes a camera for obtaining the image data, the camera includes a camera module for generating the image data from an optical image, the camera module includes a housing including a through hole in a side wall, the through hole It may include a lens installed in the hole and a driving unit for driving the lens.
또한, 상술한 문제점을 해결하기 위하여, 본 발명은 미리 정해진 구역의 토양 상태 정보를 획득하기 위한 드론, 상기 토양 상태 정보를 수신하고, 상기 토양 상태 정보를 기초로 주행 경로를 생성하는 서버 및 상기 주행 경로를 기초로 주행하는 농업용 차량을 포함하되, 상기 농업용 차량은 상기 서버로부터 주행 경로를 수신하고 상기 드론에 전력을 제공하기 위한 모듈부를 포함하고, 상기 모듈부는 상기 모듈부로부터 일정한 거리 내에 상기 드론이 위치한 경우, 상기 드론에 포함된 배터리를 무선 충전할 수 있다. In addition, in order to solve the above problems, the present invention provides a drone for obtaining soil condition information of a predetermined area, a server for receiving the soil condition information and generating a driving route based on the soil condition information, and the driving An agricultural vehicle traveling based on a path, wherein the agricultural vehicle includes a module unit for receiving a driving path from the server and providing power to the drone, wherein the module unit controls the drone within a predetermined distance from the module unit. When located, the battery included in the drone can be wirelessly charged.
또한, 상술한 문제점을 해결하기 위하여, 본 발명은 카메라를 포함하는 드론, 상기 카메라로부터 촬영된 영상을 수신하고, 상기 영상에 대하여 SLAM(Simultaneous Localization and Mapping) 알고리즘을 적용하여 주행 경로를 생성하는 서버 및 상기 주행 경로를 따라 이동하는 트랙터를 포함할 수 있다. In addition, in order to solve the above-mentioned problems, the present invention is a drone including a camera, a server that receives an image taken from the camera and generates a driving route by applying a SLAM (Simultaneous Localization and Mapping) algorithm to the image And it may include a tractor moving along the driving route.
본 발명은 드론을 통하여 영상 데이터를 획득하고, 이를 통하여 농업용 차량이 주행할 수 있는 경로를 생성함으로서 효과적으로 농업용 차량을 주행시킬 수 있는 효과가 있다. The present invention has an effect of effectively driving an agricultural vehicle by obtaining image data through a drone and creating a path through which the agricultural vehicle can travel.
또한, 본 발명은 드론을 통하여 토양 상태 정보를 획득하고, 이를 통하여 농업용 차량을 구동할 수 있는 농업 자동화 시스템을 제공할 수 있는 효과가 있다. In addition, the present invention has the effect of providing an agricultural automation system capable of obtaining soil condition information through a drone and driving an agricultural vehicle through this.
또한, 본 발명은 외부에서 사용되는 카메라의 렌즈층을 보호하기 위한 코팅츠을 제안함으로서 보다 선명한 이미지를 촬영할 수 있는 드론을 포함하는 농업 자동화 시스템을 제공할 수 있는 효과가 있다. In addition, the present invention has the effect of providing an agricultural automation system including a drone capable of capturing clearer images by proposing coatings for protecting the lens layer of a camera used outside.
본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명의 실시예에 따른 무인 비행체의 사시도를 나타낸다.
도 2는 도 1의 무인 비행체의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 3은 본 발명에 따른 카메라를 나타낸 도면이다.
도 4는 본 발명에 따른 농업 자동화 시스템을 나타낸 도면이다.
도 5는 본 발명에 따른 서버를 나타낸 도면이다.
도 6은 본 발명에 따른 농업용 차량 및 모듈부를 개략적으로 나타낸 도면이다.
도 7은 본 발명에 따른 자율주행 장치를 나타낸 도면이다.
도 8은 본 발명에 따른 농업 자동화 시스템의 전체 프로세스를 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.1 shows a perspective view of an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a control relationship between major elements of the unmanned aerial vehicle of FIG. 1 .
3 is a view showing a camera according to the present invention.
4 is a view showing an agricultural automation system according to the present invention.
5 is a diagram showing a server according to the present invention.
6 is a schematic view of an agricultural vehicle and a module unit according to the present invention.
7 is a diagram showing an autonomous driving device according to the present invention.
8 is a diagram showing the entire process of the agricultural automation system according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and describe technical features of the present specification together with the detailed description.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.
또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 농업 자동화 시스템을 위한 드론에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a drone for an agricultural automation system according to a preferred embodiment of the present specification will be described in detail based on the above information.
도 1은 본 발명의 실시예에 따른 드론의 사시도를 나타낸다.1 shows a perspective view of a drone according to an embodiment of the present invention.
드론(100)은 지상의 관리자에 의해 수동 조작되거나, 설정된 비행 프로그램에 의해 자동 조종되면서 무인 비행하게 되는 것이다. 드론(100)은 도 1에서와 같이 본체(20), 수평 및 수직이동 추진장치(10), 및 착륙용 레그(130)를 포함하는 구성으로 이루어진다. 본체(20)는 카메라(40) 등의 모듈이 장착되는 몸체 부위이다.The drone 100 is manually operated by a manager on the ground or is automatically controlled by a set flight program to fly unmanned. As shown in FIG. 1, the drone 100 has a configuration including a main body 20, horizontal and vertical movement propulsion devices 10, and landing legs 130. The body 20 is a body portion on which a module such as a camera 40 is mounted.
수평 및 수직이동 추진장치(10)는 본체(20)에 수직으로 설치되는 하나 이상의 프로펠러(11)로 이루어지는 것으로, 본 발명의 실시예에 따른 수평 및 수직이동 추진장치(10)는 서로 이격 배치된 복수개의 프로펠러(11)와 모터(12)로 이루어진다. 여기서 수평 및 수직이동 추진장치(10)는 프로펠러(11)가 아닌 에어 분사형 추진기 구조로 이루어질 수도 있다.The horizontal and vertical movement propulsion device 10 is composed of one or more propellers 11 installed vertically on the main body 20, and the horizontal and vertical movement propulsion device 10 according to an embodiment of the present invention are spaced apart from each other It consists of a plurality of propellers 11 and motors 12. Here, the horizontal and vertical movement propulsion device 10 may be formed of an air injection type propulsion structure other than the propeller 11.
복수 개의 프로펠러 지지부는 본체(20)에서 방사상으로 형성된다. 각각의 프로펠러 지지부에는 모터(12)가 장착될 수 있다. 각각의 모터(12)에는 프로펠러(11)가 장착된다.A plurality of propeller supports are formed radially from the main body 20 . A motor 12 may be mounted on each propeller support. A propeller 11 is mounted on each motor 12 .
복수 개의 프로펠러(11)는 본체(20)를 중심을 기준하여 대칭되게 배치될 수 있다. 그리고 복수 개의 프로펠러(11)의 회전 방향은 시계 방향과 반 시계 방향이 조합되도록 모터(12)의 회전 방향이 결정될 수 있다. 본체(20)를 중심을 기준하여 대칭되는 한 쌍의 프로펠러(11)의 회전 방향은 동일(예를 들어, 시계 방향)하게 설정될 수 있다. 그리고 다른 한 쌍의 프로펠러(11)은 이와 달리 회전 방향이 반대일 수 있다(예를 들어, 시계 반대 방향).The plurality of propellers 11 may be symmetrically disposed with respect to the center of the main body 20 . Also, the rotation direction of the motor 12 may be determined so that the rotation direction of the plurality of propellers 11 is a combination of clockwise and counterclockwise directions. Rotation directions of the pair of propellers 11 symmetrical about the center of the main body 20 may be set to be the same (for example, clockwise). In addition, the other pair of propellers 11 may rotate in opposite directions (for example, counterclockwise).
착륙용 레그(30)는 본체(20)의 저면에 서로 이격 배치된다. 또한, 착륙용 레그(30)의 하부에는 드론(100)이 착륙할 때 지면과의 충돌에 의한 충격을 최소화하는 완충 지지부재(미도시)가 장착될 수 있다. 물론 드론(100)은 상술한 바와 다른 비행체 구성의 다양한 구조로 이루어질 수 있다.The landing legs 30 are spaced apart from each other on the bottom surface of the main body 20 . In addition, a buffer support member (not shown) may be mounted on the lower part of the landing leg 30 to minimize an impact caused by a collision with the ground when the drone 100 lands. Of course, the drone 100 may be formed of various structures of a vehicle configuration different from those described above.
도 2는 도 1의 무인 비행체의 주요 구성들 간의 제어관계를 도시한 블록도이다. 드론(100)의 비행상태는 회전운동상태(Rotational States)와 병진운동상태(Translational States)로 정의된다.FIG. 2 is a block diagram showing a control relationship between major elements of the unmanned aerial vehicle of FIG. 1 . The flight state of the drone 100 is defined as a rotational state and a translational state.
회전운동상태는 '요(Yaw)', '피치 (Pitch)', 및 '롤 (Roll)'을 의미하며, 병진운동상태는 경도, 위도, 고도, 및 속도를 의미한다.The rotational motion state means 'yaw', 'pitch', and 'roll', and the translational motion state means longitude, latitude, altitude, and speed.
여기서, '롤', '피치', 및 '요'는 오일러 (Euler) 각도라 부르며, 비행기 기체좌표 x, y, z 세 축이 어떤 특정 좌표, 예를 들어, NED 좌표 N, E, D 세 축에 대하여 회전된 각도를 나타낸다. 비행기 전면이 기체좌표의 z축을 기준으로 좌우로 회전할 경우, 기체좌표의 x축은 NED 좌표의 N축에 대하여 각도 차이가 생기게 되며, 이각도를 "요"(Ψ)라고 한다. 비행기의 전면이 오른쪽으로 향한 y축을 기준으로 상하로 회전을 할 경우, 기체좌표의 z축은 NED 좌표의 D축에 대하여 각도 차이가 생기게 되며, 이 각도를 "피치"()라고 한다. 비행기의 동체가 전면을 향한 x축을 기준으로 좌우로 기울게 될 경우, 기체좌표의 y축은 NED 좌표의 E축에 대하여 각도가 생기게 되며, 이 각도를 "롤"(Φ)이라 한다.Here, 'roll', 'pitch', and 'yaw' are called Euler angles, and the three axes of x, y, and z coordinates of the airplane are defined as certain coordinates, for example, NED coordinates N, E, and D. Indicates the angle rotated about an axis. When the front of the plane rotates left and right based on the z-axis of the aircraft coordinates, the x-axis of the aircraft coordinates has an angle difference with respect to the N-axis of the NED coordinates, and this angle is called "yaw" (Ψ). When the front of the airplane rotates up and down based on the y-axis pointing to the right, the z-axis of the aircraft coordinates has an angular difference with respect to the D-axis of the NED coordinates, and this angle is called "pitch" ( ) is called When the airplane's fuselage tilts left and right with respect to the front-facing x-axis, the y-axis of the aircraft coordinates has an angle with respect to the E-axis of the NED coordinates, and this angle is called "roll" (Φ).
드론(100)은 회전운동상태를 측정하기 위해 3축 자이로 센서(Gyroscopes), 3축 가속도 센서(Accelerometers), 및 3축 지자기 센서(Magnetometers)를 이용하고, 병진운동상태를 측정하기 위해 GPS 센서와 기압 센서(Barometric Pressure Sensor)를 이용한다.The drone 100 uses 3-axis gyro sensors (Gyroscopes), 3-axis accelerometers, and 3-axis geomagnetic sensors (Magnetometers) to measure the rotational motion state, and uses a GPS sensor and a GPS sensor to measure the translational motion state. A barometric pressure sensor is used.
본 발명의 센싱부(130)는 자이로 센서, 가속도 센서, GPS 센서, 영상 센서 및 기압 센서 중 적어도 하나를 포함한다. 여기서, 자이로 센서와 가속도 센서는 드론(100)의 기체좌표(Body Frame Coordinate)가 지구관성 좌표(Earth Centered Inertial Coordinate)에 대해 회전한 상태와 가속된 상태를 측정해주는데, MEMS(MicroElectro-Mechanical Systems) 반도체 공정기술을 이용해 관성측정기(IMU: Inertial Measurement Unit)라 부르는 단일 칩(Single Chip)으로 제작될 수도 있다.The sensing unit 130 of the present invention includes at least one of a gyro sensor, an acceleration sensor, a GPS sensor, an image sensor, and an air pressure sensor. Here, the gyro sensor and the acceleration sensor measure the rotated state and the accelerated state of the body frame coordinates of the drone 100 with respect to the earth centered inertial coordinates, MEMS (MicroElectro-Mechanical Systems) It can also be manufactured as a single chip called an inertial measurement unit (IMU) using semiconductor process technology.
또한, IMU 칩 내부에는 자이로 센서와 가속도 센서가 측정한 지구관성좌표 기준의 측정치들을 지역좌표 (Local Coordinate), 예를 들어 GPS가 사용하는 NED(North-East-Down) 좌표로 변환해주는 마이크로 컨트롤러가 포함될 수 있다.In addition, inside the IMU chip, there is a microcontroller that converts the measurements based on the Earth's inertial coordinates measured by the gyro sensor and the acceleration sensor into local coordinates, for example, NED (North-East-Down) coordinates used by GPS. can be included
자이로 센서는 드론의 기체좌표 x, y, z 세 축이 지구관성 좌표에 대하여 회전하는 각속도를 측정한 후 고정좌표로 변환된 값(Wx.gyro, Wy.gyro, Wz.gyro)을 계산하고, 이 값을 선형 미분방정식을 이용해 오일러 각도(Φgyro, gyro, gyro)로 변환한다.The gyro sensor measures the rotational angular velocity of the drone's three axes x, y, and z with respect to the Earth's inertial coordinates, and then calculates the values converted to fixed coordinates (Wx.gyro, Wy.gyro, Wz.gyro), This value is calculated using a linear differential equation to determine the Euler angle (Φgyro, gyro, gyro).
가속도 센서는 드론(100)의 기체좌표 x, y, z 세 축의 지구관성좌표에 대한 가속도를 측정한 후 고정좌표로 변환된 값(fx,acc, fy,acc, fz,acc)을 계산하고, 이 값을 '롤(Φacc)'과 '피치(acc)'로 변환하며, 이 값 들은 자이로 센서의 측정치를 이용해 계산한 '롤(Φgyro)'과 '피치(gyro)'에 포함된 바이어스 오차를 제거하는 데 이용된다.The acceleration sensor measures the acceleration with respect to the earth inertial coordinates of the three axes of x, y, and z of the drone 100's aircraft coordinates, and then calculates the values (fx,acc, fy,acc, fz,acc) converted to fixed coordinates, This value is 'Roll (Φacc)' and 'Pitch ( acc)', and these values are calculated using the measured values of the gyro sensor, 'Roll (Φgyro)' and 'Pitch ( gyro)' is used to remove the bias error included in '.
지자기 센서는 드론(100)의 기체좌표 x, y, z 세 축의 자북점에 대한 방향을 측정하고, 이 값을 이용해 기체좌표의 NED 좌표에 대한 '요' 값을 계산한다.The geomagnetic sensor measures the direction of the drone 100 with respect to the magnetic north point of the three axes x, y, and z of the aircraft coordinates, and calculates the 'yaw' value for the NED coordinates of the aircraft coordinates using this value.
GPS 센서는 GPS 위성들로부터 수신한 신호를 이용해 NED 좌표 상에서 드론(100)의 병진운동상태, 즉, 위도(Pn.GPS), 경도(Pe.GPS), 고도(hMSL.GPS), 위도 상의 속도(Vn.GPS), 경도 상의 속도(Ve.GPS), 및 고도 상의 속도(Vd.GPS)를 계산한다. 여기서, 첨자 MSL은 해수면(MSL: Mean Sea Level)을 의미한다.The GPS sensor uses signals received from GPS satellites to determine the translational motion state of the drone 100 on NED coordinates, that is, latitude (Pn.GPS), longitude (Pe.GPS), altitude (hMSL.GPS), and speed on latitude. (Vn.GPS), speed on longitude (Ve.GPS), and speed on altitude (Vd.GPS) are calculated. Here, the subscript MSL means mean sea level (MSL).
기압 센서는 드론(100)의 고도(hALP.baro)를 측정할 수 있다. 여기서, 첨자 ALP는 기압(Air-Level Pressor)을 의미하며, 기압 센서는 드론(100)의 이륙시 기압과 현재 비행고도에서의 기압을 비교해 이륙 지점으로부터의 현재 고도를 계산한다.The air pressure sensor may measure the altitude (hALP.baro) of the drone 100 . Here, the subscript ALP means air-level pressor, and the air pressure sensor calculates the current altitude from the take-off point by comparing the air pressure at the time of take-off of the drone 100 with the air pressure at the current flight altitude.
카메라 센서는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수 개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드 들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다. 카메라 센서는 도 3의 카메라(132)로서 후술될 수 있다. The camera sensor includes an image sensor (eg, CMOS image sensor) including at least one optical lens and a plurality of photodiodes (eg, pixels) forming an image by light passing through the optical lens; It may include a digital signal processor (DSP) that composes an image based on signals output from the photodiodes. The digital signal processor can create not only still images, but also moving images composed of frames composed of still images. The camera sensor may be described below as camera 132 of FIG. 3 .
드론(100)은, 정보를 입력받거나 수신하고 정보를 출력하거나 송신하는 커뮤니케이션 모듈(170)을 포함한다. 커뮤니케이션 모듈(170)은 외부의 다른 기기와 정보를 송수신하는 드론 통신부(175)를 포함할 수 있다.The drone 100 includes a communication module 170 that receives or receives information and outputs or transmits information. The communication module 170 may include a drone communication unit 175 that transmits and receives information with other external devices.
커뮤니케이션 모듈(170)은 정보를 입력하는 입력부(171)를 포함할 수 있다. 커뮤니케이션 모듈(170)은 정보를 출력하는 출력부(173)를 포함할 수 있다.The communication module 170 may include an input unit 171 for inputting information. The communication module 170 may include an output unit 173 that outputs information.
드론(100)은 맵핑 및/또는 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 제어부(140)를 포함한다. 제어부(140)는 드론(100)을 구성하는 각종 구성들의 제어를 통해, 드론(100)의 동작 전반을 제어할 수 있다.The drone 100 includes a controller 140 that processes and determines various information such as mapping and/or recognizing a current location. The controller 140 may control the overall operation of the drone 100 through control of various elements constituting the drone 100 .
제어부(140)는 커뮤니케이션 모듈(170)로부터 정보를 받아 처리할 수 있다. 제어부(140)는 입력부(171)로부터 정보를 입력 받아 처리할 수 있다. 제어부(140)는 드론 통신부(175)로부터 정보를 받아 처리할 수 있다.The controller 140 may receive and process information from the communication module 170 . The controller 140 may receive and process information from the input unit 171 . The control unit 140 may receive and process information from the drone communication unit 175.
제어부(140)는 센싱부(130)로부터 감지 정보를 입력 받아 처리할 수 있다. 제어부(140)는 모터(12)의 구동을 제어할 수 있다. 제어부(140)는 카메라(40)의 동작을 제어할 수 있다.The control unit 140 may receive and process sensing information from the sensing unit 130 . The controller 140 may control driving of the motor 12 . The controller 140 may control the operation of the camera 40 .
드론(100)은 각종 데이터를 저장하는 저장부(150)를 포함한다. 저장부(150)는 드론(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.The drone 100 includes a storage unit 150 for storing various data. The storage unit 150 records various information necessary for controlling the drone 100, and may include a volatile or non-volatile recording medium.
저장부(150)에는 주행구역에 대한 맵이 저장될 수 있다. 맵은 드론(100)과 드론 통신부(175)을 통해 정보를 교환할 수 있는 외부 단말기(300)에 의해 입력된 것일 수도 있고, 드론(100)이 스스로 학습을 하여 생성한 것일 수도 있다. 전자의 경우, 외부 단말기(300)로는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다.A map for a driving area may be stored in the storage unit 150 . The map may be input by the external terminal 300 capable of exchanging information through the drone 100 and the drone communication unit 175, or may be created by the drone 100 through self-learning. In the former case, the external terminal 300 may include, for example, a remote controller, a PDA, a laptop, a smart phone, a tablet, etc. loaded with an application for setting a map.
도 3은 본 발명에 따른 카메라를 나타낸 도면이다. 3 is a view showing a camera according to the present invention.
도 3에 따르면, 본 발명의 카메라(132)는 카메라 모듈(1320)을 포함할 수 있다. 카메라 모듈(1320)은 광 이미지로부터 영상 이미지를 생성할 수 있다. 마메라 모듈(1320)은 광 이미지를 수신하고 이를 영상 데이터로 변환하는 방식으로 영상 이미지를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징(1324), 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 더 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 3 , the camera 132 of the present invention may include a camera module 1320. The camera module 1320 may generate a video image from an optical image. The camera module 1320 may generate a video image by receiving an optical image and converting it into video data. The camera module 1320 may further include a housing 1324 including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321 . The through hole may have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.
구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner.
다양한 영상 이미지를 수득하기 위해서는 렌즈(1321)가 카메라 모듈(1320) 또는 하우징(1324)의 외부로 노출될 필요가 있다. In order to obtain various video images, the lens 1321 needs to be exposed to the outside of the camera module 1320 or the housing 1324 .
특히, 본 발명에 따른 카메라(132)는 농업을 위한 토양을 직접 촬영해야 하므로 외부에 설치되어야하므로 매번 엔지니어가 카메라(132)를 점검하기 어려운 환경일 수 있다. 또한, 농업을 위한 토양 주변을 이동하는 드론에 위치한 카메라(132)는 흙, 모래 등의 오염물질에 취약할 수 있어 영상을 촬영하기 위하여 하우징(1324)의 외부에 노출되는 렌즈의 각별한 보호가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, since the camera 132 according to the present invention needs to directly photograph soil for agriculture, it may be difficult for an engineer to inspect the camera 132 every time because it must be installed outside. In addition, the camera 132 located in the drone moving around the soil for agriculture may be vulnerable to contaminants such as soil and sand, so special protection of the lens exposed to the outside of the housing 1324 is required to take an image. do. Accordingly, the present invention proposes a coating layer for coating a lens to solve this problem.
바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 1321 may include an acrylic compound represented by Formula 1 below on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersant.
[화학식 1][Formula 1]
여기서, here,
n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, n and m are the same as or different from each other, and each independently represents an integer from 1 to 100;
L1은 바이페닐렌기이다.L 1 is a biphenylene group.
상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 차량의 외부에 설치된 렌즈(1321)가 오염 환경에 장기간 노출되더라도, 비전 인식을 위하여 활용할 수 있는 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and contamination resistance, so even if the lens 1321 installed outside the vehicle is exposed to a polluted environment for a long time, an image or video that can be used for vision recognition can be obtained. can be collected
상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above examples. After forming the coating layer 1322 on the surface of the lens 1321, the inorganic particles may improve physical strength and maintain viscosity within a certain range to increase moldability.
상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited to the above examples.
상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersing agent, a polyester-based dispersing agent may be used, and specifically, TEGO-Disperse 670 (manufacturer : EVONIK) can be used, but it is not limited to the above examples, and all dispersants obvious to those skilled in the art can be used without limitation.
상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, and the like, but is not limited to the above examples and may be used without limitation.
상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.The coating composition for forming the coating layer 1322 may more specifically include an acrylic compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.
상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 아크릴계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the acrylic compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component is of critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost nonexistent.
보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 1321, there is a problem that it is not easy to form the coating layer 1322 because it flows down, and the coating composition exceeds 1800 cP. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.
[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]
1. 코팅 조성물의 제조1. Preparation of coating composition
메틸에틸케톤에 하기 화학식 1로 표시되는 아크릴계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with an acrylic compound represented by Formula 1, inorganic particles, and a dispersant:
[화학식 1][Formula 1]
여기서, here,
n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, n and m are the same as or different from each other, and each independently represents an integer from 1 to 100;
L1은 바이페닐렌기이다.L 1 is a biphenylene group.
상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.
(단위 중량부)(unit weight parts)
2. 코팅층의 제조2. Preparation of coating layer
렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. A coating layer 1322 was formed by applying the coating composition of DX1 to DX5 on one surface of the lens 1321 and curing the coating composition.
[실험예][Experimental Example]
1. 표면 외관에 대한 평가1. Evaluation of surface appearance
코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 1322 was prepared, a sensory evaluation was performed on whether a uniform surface was formed. Evaluation was conducted on whether or not a uniform coating layer 1322 was formed, and the evaluation was conducted according to the following criteria.
○: 균일한 코팅층 형성○: uniform coating layer formation
×: 불균일한 코팅층의 형성×: Formation of non-uniform coating layer
코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain amount, flow occurs on the surface of the lens 1321, and it is difficult to form a uniform coating layer 1322 after the curing process in many cases. Accordingly, a problem of lowering the production yield may occur. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition and it is impossible to form a uniform coating layer 1322 .
2. 발수각의 측정2. Measurement of water repellency angle
상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.
상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after the coating layer 1322 was formed using the coating compositions of TX1 to TX5, the result of measuring the contact angle was confirmed. TX1 and TX5 measured receding contact angles less than 10 degrees. That is, it was confirmed that a phenomenon in which water droplets are pinned occurs when the coating composition is out of the optimal range for preparing the coating composition. On the other hand, it was confirmed that the pinning phenomenon did not occur in TX2 to 4, indicating that excellent waterproofing effect could be exhibited.
3. 내오염성 평가3. Fouling resistance evaluation
설비 외부에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 4일 간 일반도로 주행 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 차량의 동일한 위치에 부착하였다.A lens 1321 having a coating layer 1322 according to the above embodiment formed outside the facility was attached to a model camera, and exposed to a general road driving environment for 4 days. As a comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and the model camera was attached to the same location of the vehicle in each example.
그 뒤 실험 전후의 렌즈(1321)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.After that, the degree of contamination of the lens 1321 before and after the experiment was evaluated, and for objective comparison, the result was compared with the comparative example in which the coating layer 1322 was not formed, and the result was evaluated by an index of 1 to 10, and Table 4 below shown in In the index below, the lower the number, the better the stain resistance.
(단위: 지수)(Unit: index)
상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, in the case of forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high fouling resistance can be easily analyzed for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.
이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 또 다른 일 실시예에 따른, 농업 자동화 시스템에 관하여 상세히 설명하면 다음과 같다. 또 다른 일 실시예에 따른 농업 자동화 시스템에서 설명하는 드론은 상술한 도 1 내지 도 4에 따른 드론일 수 있다. Hereinafter, based on the above description, an agricultural automation system according to another preferred embodiment of the present specification will be described in detail as follows. A drone described in an agricultural automation system according to another embodiment may be a drone according to FIGS. 1 to 4 described above.
도 4는 본 발명에 따른 농업 자동화 시스템을 나타낸 도면이다. 4 is a view showing an agricultural automation system according to the present invention.
도 4에 따르면, 본 발명에 따른 농업 자동화 시스템(1)은 서버(200), 농업용 차량(300), 사용자 단말(600) 및 드론(100)을 포함할 수 있다. According to FIG. 4 , the agricultural automation system 1 according to the present invention may include a server 200, an agricultural vehicle 300, a user terminal 600, and a drone 100.
서버(200)는 드론(100) 및 농업용 차량(300)과 통신하고 이를 제어할 수 있다. 드론(100)은 미리 정해진 구역을 비행하면서 미리 정해진 구역을 촬영한 영상 데이터를 획득할 수 있다. 촬영된 영상 데이터는 서버(200)로 전송될 수 있다. 농업용 차량(300)은 주행 경로를 따라 자율주행할 수 있다. 농업용 차량(300)은 운전자에 의하여 제어되거나 서버(200)에 의하여 제어될 수 있다. The server 200 may communicate with and control the drone 100 and the agricultural vehicle 300 . The drone 100 may acquire image data obtained by photographing a predetermined area while flying in a predetermined area. Captured image data may be transmitted to the server 200 . The agricultural vehicle 300 may autonomously drive along a driving route. The agricultural vehicle 300 may be controlled by a driver or by the server 200 .
드론(100)은 미리 정해진 구역의 토양 상태 정보를 획득하고, 미리 정해진 구역의 영상 데이터를 획득할 수 있다. 미리 정해진 구역의 영상 데이터는 상술한 센싱부, 카메라 센서 또는 상술한 카메라에 의하여 획득될 수 있다. The drone 100 may acquire soil condition information of a predetermined area and image data of a predetermined area. Image data of a predetermined area may be acquired by the above-described sensing unit, camera sensor, or the above-described camera.
서버(200)는 토양 상태 정보 및 영상 데이터를 드론(100)으로부터 수신할 수 있다. 서버(200)는 수신한 토양 상태 정보 및 영상 데이터를 기초로 주행 경로를 생성할 수 있다. 서버(200)는 드론(100) 및 농업용 차량(300)과 통신하고, 드론(100) 및 농업용 차량(300)을 제어할 수 있다. The server 200 may receive soil condition information and image data from the drone 100 . The server 200 may generate a driving route based on the received soil condition information and image data. The server 200 may communicate with the drone 100 and the agricultural vehicle 300 and control the drone 100 and the agricultural vehicle 300 .
주행 경로는 미리 정해진 구역 내에서 농엽용 차량이 주행할 수 있는 경로일 수 있다. 주행 경로는 지형, 장애물, 농작물 등을 고려하여 생성될 수 있다. 주행 경로는 SLAM(Simultaneous Localization and Mapping) 알고리즘에 의하여 생성될 수 있다. SLAM(Simultaneous Localization and Mapping) 알고리즘은 드론(100)의 카메라를 통하여 촬영된 영상 데이터에 대하여 적용될 수 있다. 농업용 차량(300)은 주행 경로에 따라 주행할 수 있으며, 농업용 차량(300)은 트랙터, 경운기 등을 포괄하는 개념일 수 있다. The travel route may be a route on which the agricultural vehicle may travel within a predetermined area. The driving route may be created by considering terrain, obstacles, crops, and the like. The driving route may be generated by a Simultaneous Localization and Mapping (SLAM) algorithm. A Simultaneous Localization and Mapping (SLAM) algorithm may be applied to image data captured through a camera of the drone 100. The agricultural vehicle 300 may travel according to a driving route, and the agricultural vehicle 300 may be a concept encompassing a tractor, a cultivator, and the like.
드론(100)을 통하여 획득되는 토양 상태 정보는 토양의 함수율, 토양의 산도 및 토양의 높낮이 정보 중 적어도 하나를 포함할 수 있다. 토양의 함수율은 습도측정센서에 의하여 측정되고, 토양의 산도는 pH-Reference 센서 및 ISFET-pH 센서에 의하여 측정될 수 있다. 또한, 토양의 높낮이 정보는 거리측정 센서로부터 측정될 수 있다. 거리측정 센서는 초음파 또는 레이저를 이용한 센서일 수 있다. 구체적으로 거리측정 센서는 라이다 센서일 수 있다. 드론(100)은 토양으로부터 미리 정해진 높이만큼 호버링할 수 있다. 드론(100)은 토양을 향하여 레이저(또는 초음파)를 방출하고 반사된 레이저를 측정하여 토양과의 정확한 거리를 측정할 수 있다. 뿐만 아니라, 라이다 센서를 사용함으로서 드론(100)은 토양의 형태를 구체적으로 이미지화할 수 있다. 이때, 라이다 센서는 소형으로서 상대적으로 협소한 범위를 센싱할 수 있다. 상술한 다양한 센서들은 도 2의 센싱부(130)에 포함되는 구성일 수 있다. The soil state information acquired through the drone 100 may include at least one of soil moisture content, soil acidity, and soil height information. The moisture content of the soil is measured by a humidity sensor, and the acidity of the soil can be measured by a pH-Reference sensor and an ISFET-pH sensor. In addition, soil height information may be measured from a distance measurement sensor. The distance measuring sensor may be a sensor using ultrasonic or laser. Specifically, the distance measurement sensor may be a LIDAR sensor. The drone 100 may hover by a predetermined height from the soil. The drone 100 may emit laser (or ultrasound) toward the soil and measure the reflected laser beam to accurately measure the distance to the soil. In addition, by using the LiDAR sensor, the drone 100 can specifically image the shape of the soil. At this time, the lidar sensor is small and can sense a relatively narrow range. The various sensors described above may be included in the sensing unit 130 of FIG. 2 .
사용자 단말(600)은 서버(200)로부터 정보를 수신하고 이를 디스플레이 장치를 통하여 표시할 수 있다. 사용자 단말(600)은 사용자에게 서버로부터 수신한 정보를 제공할 수 있다. 사용자 단말(600)은 사용자로부터 사용자 명령을 수신하고 수신한 사용자 명령을 서버(200)로 전송할 수 있다. 서버(200)는 사용자 명령에 기초하여 드론(100) 또는 농업용 차량(300)을 제어할 수 있다. The user terminal 600 may receive information from the server 200 and display it through a display device. The user terminal 600 may provide information received from the server to the user. The user terminal 600 may receive a user command from a user and transmit the received user command to the server 200 . The server 200 may control the drone 100 or the agricultural vehicle 300 based on a user command.
서버(200)는 토양 상태 정보를 수신하고, 토양 상태 정보를 기초로 다양한 지침 정보를 생성할 수 있다. 지침 정보는 토양 상태에 따른 토양 관리 방법에 대한 지침을 포함할 수 있다. The server 200 may receive soil condition information and generate various guide information based on the soil condition information. Guidance information may include instructions on how to manage the soil depending on the soil condition.
일 예로, 서버(200)는 드론(100)으로부터 토양의 함수율을 획득할 수 있다. 서버(200)는 획득한 토양의 함수율이 미리 정해진 수치보다 낮은 경우 수분 공급을 위한 지침 정보를 생성하고, 수분 공급을 위한 지침 정보를 사용자 단말(600)에 전송할 수 있다. For example, the server 200 may obtain the moisture content of the soil from the drone 100. The server 200 may generate guide information for water supply when the moisture content of the obtained soil is lower than a predetermined value, and transmit the guide information for water supply to the user terminal 600 .
일 예로, 서버(200)는 드론(100)으로부터 토양의 산도를 획득할 수 있다. 서버(200)는 획득한 토양의 산도가 미리 정해진 범위를 벗어나는 경우 토양의 산도를 조절하기 위한 물질 투입을 위한 지침 정보를 생성하고, 물질 투입을 위한 지침 정보를 사용자 단말(600)에 전송할 수 있다. 구체적으로, 토양의 산도가 미리 정해진 범위보다 높은 경우 유황가루 등을 토양에 투입할 수 있도록하는 지침 정보가 생성될 수 있다. 유황가루는 알칼리 토양을 개량하기 위하여 사용될 수 있다. 또한, 토양의 산도가 미리 정해진 범위보다 낮은 경우 석회가루를 토양에 투입할 수 있도록하는 지침 정보가 생성될 수 있다. 석회가루는 산성 토양을 개량하기 위하여 사용될 수 있다. For example, the server 200 may obtain soil acidity from the drone 100. The server 200 may generate guide information for inputting a material to adjust acidity of the soil when the acquired acidity of the soil is out of a predetermined range, and transmit the guideline information for inputting the material to the user terminal 600. . Specifically, when the acidity of the soil is higher than a predetermined range, guideline information for injecting sulfur powder into the soil may be generated. Sulfur dust can be used to improve alkaline soils. In addition, when the acidity of the soil is lower than a predetermined range, guideline information for introducing lime powder into the soil may be generated. Lime dust can be used to improve acidic soils.
일 예로, 서버(200)는 드론(100)으로부터 토양의 높낮이를 획득할 수 있다. 서버(200)는 토양의 높낮이가 미리 정해진 범위를 초과하는 경우 토양을 고르게 하기 위한 지침 정보를 생성하고, 토양을 고르게 하기 위한 지침 정보를 사용자 단말(600)에 전송할 수 있다. 또한, 서버(200)는 토양을 고르게 하기 위한 지침 정보를 생성하고, 토양을 고르게 하기 위한 지침 정보를 바탕으로 농업용 차량(300)을 제어할 수 있다. 구체적으로, 서버(200)는 토양을 고르게 하기 위하여 농업용 차량(300) 중 트랙터를 동작하도록 제어할 수 있다. 서버(200)는 토양의 높낮이가 미리 정해진 범위를 초과하는 지점의 위치 좌표를 드론(100)으로부터 수신하고 해당 위치 좌표로 트랙터를 이동시킬 수 있다. 서버(200)는 수신한 위치 좌표에 트랙터를 이동시키고 수신한 위치 좌표에서 트랙터를 동작하도록 제어할 수 있다. 트랙터는 서버(200)로부터 수신한 명령에 따라 주행하기 위한 자율주행장치를 포함할 수 있다. For example, the server 200 may obtain the height of the soil from the drone 100. When the height of the soil exceeds a predetermined range, the server 200 may generate guide information for leveling the soil and transmit the guide information for leveling the soil to the user terminal 600 . In addition, the server 200 may generate guide information for leveling the soil and control the agricultural vehicle 300 based on the guide information for leveling the soil. Specifically, the server 200 may control a tractor among the agricultural vehicles 300 to operate in order to level the soil. The server 200 may receive location coordinates of a point where the height of the soil exceeds a predetermined range from the drone 100 and move the tractor to the corresponding location coordinates. The server 200 may control to move the tractor to the received location coordinates and operate the tractor at the received location coordinates. The tractor may include an autonomous driving device for driving according to a command received from the server 200 .
서버(200)는 농업용 차량(300)으로부터 상태 정보를 수신할 수 있다. 농업용 차량(300)은 상태 정보를 스스로 확인할 수 있고, 스스로 확인한 상태 정보를 서버(200)로 전송할 수 있다. 상태 정보는 농업용 차량(300)의 운행을 위한 유류량, 엔진오일 상태 등에 대한 정보를 포함할 수 있다. 서버(200)는 농업용 차량(300)의 상태 정보를 사용자 단말(600)로 전송하고, 사용자가 농업용 차량(300)의 상태 정보를 확인할 수 있도록 사용자 단말(600)은 상태 정보를 디스플레이 장치를 통하여 표시할 수 있다. The server 200 may receive state information from the agricultural vehicle 300 . The agricultural vehicle 300 may check state information by itself and transmit the checked state information to the server 200 . The state information may include information about the amount of oil for the operation of the agricultural vehicle 300, the state of engine oil, and the like. The server 200 transmits state information of the agricultural vehicle 300 to the user terminal 600, and the user terminal 600 transmits the state information through a display device so that the user can check the state information of the agricultural vehicle 300. can be displayed
일 예로, 서버(200)는 토양을 고르게 하기 위한 지침 정보를 사용자 단말(600)에 전송하고, 농업용 차량(300) 중 트랙터의 상태 정보를 사용자 단말(600)에 전송할 수 있다. 따라서, 사용자는 트랙터의 상태 정보를 고려하여 지침 정보를 따를 수 있다. For example, the server 200 may transmit guide information for leveling the soil to the user terminal 600 and transmit state information of a tractor among the agricultural vehicles 300 to the user terminal 600 . Therefore, the user can follow the guideline information in consideration of the state information of the tractor.
도 5는 본 발명에 따른 서버를 나타낸 도면이다. 5 is a diagram showing a server according to the present invention.
도 5에 따르면, 본 발명에 따른 서버(200)는 프로세서(210), 메모리(220) 및 통신 모듈(230)을 포함할 수 있다. According to FIG. 5 , a server 200 according to the present invention may include a processor 210, a memory 220 and a communication module 230.
프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다. The processor 210 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), and the like. Also, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.
프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 220.
메모리(220)는 서버의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 서버에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 서버의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 서버 상에 설치되어, 프로세서(210)에 의하여 상기 서버의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data supporting various functions of the server. The memory 220 may store a plurality of application programs (application programs or applications) running in the server, data for operating the server, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. Also, the application program may be stored in the memory 220, installed on the server, and driven by the processor 210 to perform the operation (or function) of the server.
메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. ), card-type memory (eg SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. Also, the memory 220 may include a web storage performing a storage function on the Internet.
프로세서(210)는 메모리(220)에 저장된 명령어를 기초로 상술한 구성들을 제어할 수 있다. The processor 210 may control the above-described configurations based on instructions stored in the memory 220 .
통신 모듈(230)은 드론 통신부(도 2의 175)와 통신하기 위한 구성일 수 있다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다.The communication module 230 may be a component for communicating with the drone communication unit ( 175 in FIG. 2 ). The communication module 230 may include a modulation unit, a demodulation unit, a signal processing unit, and the like.
무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신 뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a wireless communication network using a communication facility previously installed by telecommunication companies and a frequency of the communication facility. At this time, the communication module 230 is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access), and the like, as well as the communication module 230 can also be used for 3rd generation partnership project (3GPP) long term evolution (LTE). In addition, not only 5G communication currently commercialized, but also 6G communication scheduled for commercialization in the future may be used. However, the present specification may utilize a pre-installed communication network without being bound by such a wireless communication method.
도 6은 본 발명에 따른 농업용 차량 및 모듈부를 개략적으로 나타낸 도면이다. 6 is a schematic view of an agricultural vehicle and a module unit according to the present invention.
도 6에 따르면, 본 발명에 따른 농업용 차량(300)은 종래 알려진 트랙터, 경운기 등의 차량을 포함할 수 있다. 본 발명에 따른 농업용 차량(300)은 농업에 사용될 수 있는 모든 차량을 의미할 수 있다. According to FIG. 6 , the agricultural vehicle 300 according to the present invention may include conventionally known vehicles such as tractors and cultivators. The agricultural vehicle 300 according to the present invention may mean any vehicle that can be used in agriculture.
도 6에 따르면, 본 발명에 따른 농업용 차량(300)은 자율주행 장치(700)를 포함하고, 모듈부(400)를 탈부착할 수 있다. According to FIG. 6 , an agricultural vehicle 300 according to the present invention includes an autonomous driving device 700 and a module unit 400 may be attached or detached.
모듈부(400)는 농업용 차량(300)에 연결되거나 연결이 해제될 수 있는 구성으로서, 드론(100)을 활용한 시스템을 위하여 별도 제작되지 않은 농업용 차량(300)에도 설치될 수 있는 구성일 수 있다. The module unit 400 is a configuration that can be connected to or disconnected from the agricultural vehicle 300, and can be installed in an agricultural vehicle 300 that is not separately manufactured for a system using the drone 100. there is.
모듈부(400)는 드론(100)이 착륙할 수 있도록 지면과 평행한 면을 가질 수 있으며, 드론(100)에 포함된 배터리를 무선충전할 수 있는 충전 코일을 내부에 포함할 수 있다. 이때, 무선충전은 널리 알려진 치(Qi) 규격에 따른 무선충전일 수 있다. 모듈부(400)는 농업용 차량(300)에 부착되는 부착형 또는 농업용 차량(300)에 이식되는 이식형으로 나눌 수 있다. 무선충천은 치(Qi) 규격에 따르므로, 드론(100)은 무선충전을 위하여 모듈부(400)에 포함된 충전 코일에 일정 거리 이내에 위치할 수 있다. The module unit 400 may have a surface parallel to the ground so that the drone 100 can land, and may include a charging coil capable of wirelessly charging a battery included in the drone 100 therein. In this case, the wireless charging may be wireless charging according to the widely known Qi standard. The module unit 400 may be divided into an attachment type attached to the agricultural vehicle 300 or an implanted type transplanted to the agricultural vehicle 300 . Since wireless charging complies with the Qi standard, the drone 100 can be located within a certain distance from the charging coil included in the module unit 400 for wireless charging.
도 7은 본 발명에 따른 자율주행 장치를 나타낸 도면이다.7 is a diagram showing an autonomous driving device according to the present invention.
도 7을 참조하면, 자율주행 장치(700)는, 사용자 인터페이스 장치(710), 오브젝트 검출 장치(720), 통신 장치(730), 운전 조작 장치(740), 메인 ECU(750), 차량 구동 장치(760), 센싱부(770) 및 위치 데이터 생성 장치(780)를 포함할 수 있다. 오브젝트 검출 장치(710), 통신 장치(730), 운전 조작 장치(740), 메인 ECU(750), 차량 구동 장치(760), 센싱부(770) 및 위치 데이터 생성 장치(780)는 각각이 전기적 신호를 생성하고, 상호간에 전기적 신호를 교환하는 전자 장치로 구현될 수 있다.Referring to FIG. 7 , the autonomous driving device 700 includes a user interface device 710, an object detection device 720, a communication device 730, a driving control device 740, a main ECU 750, and a vehicle driving device. 760, a sensing unit 770, and a location data generating device 780 may be included. The object detection device 710, the communication device 730, the driving control device 740, the main ECU 750, the vehicle driving device 760, the sensing unit 770, and the location data generating device 780 are electrically It may be implemented as an electronic device that generates signals and exchanges electrical signals with each other.
사용자 인터페이스 장치(710)는, 농업용 차량(도 6의 300, 이하 동일)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(710)는, 사용자 입력을 수신하고, 사용자에게 농업용 차량(도 6의 300)에서 생성된 정보를 제공할 수 있다. 농업용 차량(도 6의 300)은, 사용자 인터페이스 장치(710)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다. The user interface device 710 is a device for communication between an agricultural vehicle (300 in FIG. 6, hereinafter the same) and a user. The user interface device 710 may receive a user input and provide information generated in the agricultural vehicle (300 in FIG. 6) to the user. The agricultural vehicle (300 in FIG. 6 ) may implement a user interface (UI) or user experience (UX) through the user interface device 710 .
오브젝트 검출 장치(720)는, 농업용 차량(도 6의 300) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 오브젝트에 대한 정보는, 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 농업용 차량(도 6의 300)과 오브젝트와의 거리 정보 및 농업용 차량(도 6의 300)과 오브젝트와의 상대 속도 정보 중 적어도 어느 하나를 포함할 수 있다. 오브젝트 검출 장치(720)는, 농업용 차량(도 6의 300) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(720)는, 농업용 차량(도 6의 300) 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치(710)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(710)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다. The object detection device 720 may generate information about an object outside the agricultural vehicle (300 in FIG. 6 ). Information about an object is information about the existence of an object, location information of an object, distance information between an agricultural vehicle (300 in FIG. 6) and an object, and relative speed information between an agricultural vehicle (300 in FIG. 6) and an object. At least one may be included. The object detection device 720 may detect an object outside the agricultural vehicle (300 in FIG. 6). The object detection device 720 may include at least one sensor capable of detecting an object outside the agricultural vehicle (300 in FIG. 6 ). The object detection device 710 may include at least one of a camera, radar, lidar, an ultrasonic sensor, and an infrared sensor. The object detection device 710 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
통신 장치(730)는, 농업용 차량(도 6의 300) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(730)는, 인프라(예를 들면, 서버, 방송국), 타 차량, 단말기 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(730)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication device 730 may exchange signals with a device located outside the agricultural vehicle (300 in FIG. 6). The communication device 730 may exchange signals with at least one of an infrastructure (eg, a server and a broadcasting station), another vehicle, and a terminal. The communication device 730 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element in order to perform communication.
또한, 통신 장치(730)는, V2X(vehicle-to-everything) 통신 기술을 통하여 외부 디바이스와 신호를 교환할 수 있다. V2X 통신은 PC5 인터페이스 및/또는 Uu 인터페이스를 통해 제공될 수 있다.In addition, the communication device 730 may exchange signals with an external device through vehicle-to-everything (V2X) communication technology. V2X communication may be provided through a PC5 interface and/or a Uu interface.
운전 조작 장치(740)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 농업용 차량(도 6의 300)은, 운전 조작 장치(740)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(740)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.The driving control device 740 is a device that receives a user input for driving. In the case of the manual mode, the agricultural vehicle ( 300 in FIG. 6 ) may be operated based on a signal provided by the driving control device 740 . The driving control device 740 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
메인 ECU(750)는, 농업용 차량(도 6의 300) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.The main ECU 750 may control overall operations of at least one electronic device included in the agricultural vehicle (300 in FIG. 6).
차량 구동 장치(760)는, 농업용 차량(도 6의 300)내 각종 차량 구동 장치를 전기적으로 제어하는 장치이다. 차량 구동 장치(760)는, 파워 트레인 차량 구동 장치, 샤시 차량 구동 장치, 도어/윈도우 차량 구동 장치, 안전 장치 차량 구동 장치, 램프 차량 구동 장치 및 공조 구동 장치를 포함할 수 있다. 파워 트레인 차량 구동 장치는, 동력원 차량 구동 장치 및 변속기 차량 구동 장치를 포함할 수 있다. 샤시 차량 구동 장치는, 조향 차량 구동 장치, 브레이크 차량 구동 장치 및 서스펜션 차량 구동 장치를 포함할 수 있다. 한편, 안전 장치 차량 구동 장치는, 안전 벨트 제어를 위한 안전 벨트 차량 구동 장치를 포함할 수 있다.The vehicle driving device 760 is a device that electrically controls various vehicle driving devices in an agricultural vehicle (300 in FIG. 6 ). The vehicle driving device 760 may include a power train vehicle driving device, a chassis vehicle driving device, a door/window vehicle driving device, a safety device driving device, a lamp vehicle driving device, and an air conditioning driving device. The power train vehicle driving device may include a power source vehicle driving device and a transmission vehicle driving device. The chassis vehicle drive device may include a steering vehicle drive device, a brake vehicle drive device, and a suspension vehicle drive device. Meanwhile, the safety device vehicle driving device may include a seat belt vehicle driving device for controlling the seat belt.
차량 구동 장치(760)는, 적어도 하나의 전자적 제어 장치(예를 들면, 제어 ECU(Electronic Control Unit))를 포함한다. 차량 구동 장치(760)는, 자율 주행 장치(700)에서 수신되는 신호에 기초하여, 농업용 차량(300)을 제어할 수 있다. 예를 들면, 차량 구동 장치(760)는, 자율주행 장치(700)에서 수신되는 신호에 기초하여, 파워 트레인, 조향 장치 및 브레이크 장치를 제어할 수 있다. The vehicle driving device 760 includes at least one electronic control device (eg, a control ECU (Electronic Control Unit)). The vehicle driving device 760 may control the agricultural vehicle 300 based on a signal received from the autonomous driving device 700 . For example, the vehicle driving device 760 may control a power train, a steering device, and a brake device based on a signal received from the autonomous driving device 700 .
센싱부(770)는, 차량의 상태를 센싱할 수 있다. 센싱부(770)는, IMU(inertial measurement unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 스티어링 센서, 온도 센서, 습도 센서, 초음파 센서, 조도 센서, 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial measurement unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다. The sensing unit 770 may sense the state of the vehicle. The sensing unit 770 includes an inertial measurement unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a position module, a vehicle It may include at least one of a forward/backward sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, a temperature sensor, a humidity sensor, an ultrasonic sensor, an illuminance sensor, and a pedal position sensor. Meanwhile, an inertial measurement unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
센싱부(770)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 차량 상태 데이터는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다. 센싱부(770)는, 차량 자세 데이터, 차량 모션 데이터, 차량 요(yaw) 데이터, 차량 롤(roll) 데이터, 차량 피치(pitch) 데이터, 차량 충돌 데이터, 차량 방향 데이터, 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 차량의 중량 데이터, 배터리 데이터, 연료 데이터, 타이어 공기압 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터, 스티어링 휠 회전 각도 데이터, 차량 외부 조도 데이터, 가속 페달에 가해지는 압력 데이터, 브레이크 페달에 가해지는 압력 데이터 등을 생성할 수 있다.The sensing unit 770 may generate vehicle state data based on a signal generated by at least one sensor. The vehicle state data may be information generated based on data sensed by various sensors provided inside the vehicle. The sensing unit 770 includes vehicle posture data, vehicle motion data, vehicle yaw data, vehicle roll data, vehicle pitch data, vehicle collision data, vehicle direction data, vehicle angle data, and vehicle speed. data, vehicle acceleration data, vehicle inclination data, vehicle forward/reverse data, vehicle weight data, battery data, fuel data, tire pressure data, vehicle internal temperature data, vehicle internal humidity data, steering wheel rotation angle data, external illuminance of the vehicle Data, pressure data applied to the accelerator pedal, pressure data applied to the brake pedal, etc. can be generated.
위치 데이터 생성 장치(780)는, 농업용 차량(도 6의 300)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(780)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(780)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 농업용 차량(도 6의 300)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(780)는, 센싱부(770)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(720)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 위치 데이터 생성 장치(780)는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.The location data generating device 780 may generate location data of the agricultural vehicle (300 in FIG. 6 ). The location data generating device 780 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS). The location data generating device 780 may generate location data of the agricultural vehicle (300 in FIG. 6) based on a signal generated by at least one of GPS and DGPS. According to an embodiment, the location data generating device 780 may correct the location data based on at least one of an Inertial Measurement Unit (IMU) of the sensing unit 770 and a camera of the object detection device 720 . The location data generating device 780 may be referred to as a Global Navigation Satellite System (GNSS).
농업용 차량(도 6의 300)은, 내부 통신 시스템(790)을 포함할 수 있다. 농업용 차량(도 6의 300)에 포함되는 복수의 전자 장치는 내부 통신 시스템(790)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(790)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.The agricultural vehicle ( 300 in FIG. 6 ) may include an internal communication system 790 . A plurality of electronic devices included in the agricultural vehicle (300 in FIG. 6) may exchange signals via the internal communication system 790. A signal may contain data. The internal communication system 790 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
이처럼, 농업용 차량(300)은 서버로부터 수신한 주행 경로를 따라 이동하되, 장애물 발생 등의 변수 등을 고려하여 자율주행할 수 있고, 농업용 차량(300)의 자율주행은 자율주행 장치(700)를 통하여 구현될 수 있다. In this way, the agricultural vehicle 300 moves along the driving route received from the server, but can autonomously drive in consideration of variables such as occurrence of obstacles, and the autonomous driving of the agricultural vehicle 300 uses the autonomous driving device 700. can be implemented through
도 8은 본 발명에 따른 농업 자동화 시스템의 전체 프로세스를 나타낸 도면이다. 8 is a diagram showing the entire process of the agricultural automation system according to the present invention.
도 8에 따르면, 본 발명에 따른 시스템은 복수의 드론(100, 도면에는 비행 드론으로 기재됨), 트랙터, 경운기(300), 복수의 통신부(500) 및 서버(200)를 포함할 수 있다. 복수의 통신부(500)는 복수의 드론(100)과 서버를 연결하기 위한 중계 서버일 수 있다. 통신부(500)는 암호화 모듈을 포함할 수 있다. 따라서, 드론(100)과 서버의 데이터 송수신시 통신부(500)의 암호화 모듈을 통하여 암호화된 데이터가 송수신될 수 있다. 암호화 모듈은 암호화 키(key)를 포함할 수 있으며, 암호화 키(key)에 따라 데이터가 암호화될 수 있다. 통신부(500)는 드론(100)에 미리 부여된 식별번호를 기초로 암호화된 데이터를 송수신할 권한을 드론(100)에 부여할 수 있다. According to FIG. 8 , the system according to the present invention may include a plurality of drones 100 (referred to as flying drones in the drawing), a tractor, a cultivator 300, a plurality of communication units 500, and a server 200. The plurality of communication units 500 may be relay servers for connecting the plurality of drones 100 and the server. The communication unit 500 may include an encryption module. Therefore, when data is transmitted/received between the drone 100 and the server, encrypted data may be transmitted/received through the encryption module of the communication unit 500. The encryption module may include an encryption key, and data may be encrypted according to the encryption key. The communication unit 500 may grant the drone 100 permission to transmit/receive encrypted data based on an identification number previously assigned to the drone 100.
도 8에 따르면, 관리자는 시스템에 관리할 수 있는 드론(100)과 농업용 기계를 등록하며, 이때, 드론(100) 및 농업용 차량(300, 도면에는 농업용 기계로 기재됨)는 상술한 드론 및 농업용 차량을 의미할 수 있다. 관리자는 서버에 각각의 식별번호를 저장해둘 수 있다. 드론(100)은 관리할 토양의 영역의 고저와 좌표를 계측하고 이를 서버로 전송할 수 있다. 드론(100)은 토양 위를 비행하여 농작물과 토양의 상태를 감시하며 데이터를 실시간 수집, 전송하고 농업용 기계에게 경로 정보를 송신할 수 있다. 이때, 경로 정보는 서버에서 생성되어 농업용 차량(300)로 전송될 수 있다. 서버(200)는 수집한 데이터를 가공하여 정보를 제공하거나 이를 기반으로 농업용 차량(300), 드론(100)의 운행을 관리할 수 있다. 드론(100) 또는 농업용 차량(300)의 상태에 문제가 발생한 경우 서버(200)에 정보를 전송한 후 농민과 관리자에게 수리를 요청할 수 있다. According to FIG. 8, the administrator registers the drone 100 and agricultural machinery that can be managed in the system, and at this time, the drone 100 and agricultural vehicle 300 (described as agricultural machinery in the drawing) are the above-described drone and agricultural machinery. can mean a vehicle. The manager may store each identification number in the server. The drone 100 may measure the height and coordinates of the soil area to be managed and transmit them to the server. The drone 100 may fly over the soil to monitor conditions of crops and soil, collect and transmit data in real time, and transmit route information to agricultural machines. At this time, route information may be generated in the server and transmitted to the agricultural vehicle 300 . The server 200 may process the collected data to provide information or manage the operation of the agricultural vehicle 300 and the drone 100 based on this. When a problem occurs in the state of the drone 100 or the agricultural vehicle 300, after transmitting information to the server 200, it is possible to request repairs from farmers and managers.
도 8에 따르면, 복수의 농업용 차량(300)은 동시에 또는 시차를 두고 구동될 수 있다. 이 경우 복수의 농업용 차량(300)이 서로 부H히지 않도록 서버(200)는 주행 경로를 생성할 수 있다. According to FIG. 8 , a plurality of agricultural vehicles 300 may be driven simultaneously or with a time difference. In this case, the server 200 may generate a driving route so that the plurality of agricultural vehicles 300 do not collide with each other.
일 예로, 서버(200)는 복수의 농업용 차량(300)의 충돌을 방지하기 위하여 시간 간격을 두고 복수의 농업용 차량(300)을 생성된 주행 경로를 따라 주행하도록 제어할 수 있다. 서버(200)는 제1 시간 범위 동안 트랙터를 구동하고, 트랙터 구동이 끝난 이후 제2 시간 범위 동안 경운기를 구동하도록 제어할 수 있다. For example, the server 200 may control the plurality of agricultural vehicles 300 to drive along the generated driving path at intervals in order to prevent collisions between the plurality of agricultural vehicles 300 . The server 200 may control the tractor to be driven during the first time range and the tiller to be driven during the second time range after the tractor is driven.
일 예로, 서버(200)는 복수의 농업용 차량(300)의 충돌을 방지하기 위하여 주행 경로를 생성할 수 있다. 즉, 서버(200)는 토지를 미리 정해진 구역으로 나누고, 나누어진 구역마다 별개로 주행 경로를 생성할 수 있다. 나누어진 구역은 서로 중첩되지 않으며, 그에 따라 각 구역마다 생성된 주행 경로 역시 서로 중첩되지 않을 수 있다. 미리 정해진 구역은 통신부(500)의 통신 범위에 따라 결정될 수 있다. For example, the server 200 may create a driving route to prevent collisions between the plurality of agricultural vehicles 300 . That is, the server 200 may divide the land into predetermined areas and separately generate driving routes for each divided area. The divided areas do not overlap with each other, and accordingly, driving paths generated for each area may not overlap with each other. The predetermined area may be determined according to the communication range of the communication unit 500 .
이처럼, 서버(200)는 시간 간격을 두고 복수의 농업용 차량(300)을 구동하거나 구역을 나누어 주행 경로를 생성함으로써 복수의 농업용 차량(300)이 서로 충동하지 않도록 할 수 있다. As such, the server 200 may prevent the plurality of agricultural vehicles 300 from colliding with each other by driving the plurality of agricultural vehicles 300 at intervals of time or creating a driving route by dividing the area.
또한, 서버(200)는 도 7의 위치 데이터 생성 장치(780)로부터 농업용 차량(300)의 위치 데이터를 수신할 수 있다. 서버(200)는 농업용 차량(300)의 위치를 실시간으로 감지하고, 이를 통하여 복수의 농업용 차량(300)이 서로 충돌하지 않도록 제어할 수 있다. 또한, 복수의 농업용 차량(300)은 도 7의 자율주행 장치(700)를 포함함으로써 서로간의 충돌을 방지할 수 있다. Also, the server 200 may receive location data of the agricultural vehicle 300 from the location data generating device 780 of FIG. 7 . The server 200 may detect the location of the agricultural vehicle 300 in real time and control the plurality of agricultural vehicles 300 not to collide with each other. In addition, the plurality of agricultural vehicles 300 may prevent collisions with each other by including the self-driving device 700 of FIG. 7 .
도 8에 따르면, 트랙터는 제1 경로(A1)를 따라 주행할 수 있고, 경운기는 제2 경로(A2)를 따라 주행할 수 있다. 이처럼, 복수의 농업용 차량(300)은 서로 공간적으로 분리되어 주행하고, 이를 통하여 동선이 겹치지 않을 수 있다. According to FIG. 8 , the tractor can travel along the first path A1 and the cultivator can travel along the second path A2. As such, the plurality of agricultural vehicles 300 may travel while being spatially separated from each other, and through this, the traffic lines may not overlap.
이처럼, 본 발명에 따른 서버(200)는 복수의 농업용 차량(300)을 시간적으로 구별하거나 공간적으로 구별하여 주행하도록 제어함으로써 충돌 등의 문제를 미리 방지할 수 있다. As such, the server 200 according to the present invention can prevent problems such as collisions in advance by controlling the plurality of agricultural vehicles 300 to drive by temporally or spatially distinguished.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as a computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those modeled in the form of carrier waves (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.
앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Certain or other embodiments of the present invention described above may be used in combination or combination of respective configurations or functions.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
10: 시스템
100: 드론
200: 서버
300: 농업용 차량10: system
100: drone
200: server
300: agricultural vehicle
Claims (8)
상기 토양 상태 정보 및 상기 영상 데이터를 수신하고, 상기 토양 상태 정보 및 상기 영상 데이터를 기초로 주행 경로를 생성하는 서버; 및
상기 주행 경로를 수신하고, 상기 주행 경로를 따라 주행하는 농업용 차량;을 포함하되,
상기 서버는,
상기 드론 및 상기 농업용 차량과 통신하고 상기 드론 및 상기 농업용 차량을 제어하는 것이고
상기 토양 상태 정보는,
상기 토양의 높낮이 정보를 포함하며,
상기 드론은,
상기 높낮이 정보를 측정하기 위한 거리감지 센서;를 포함하고
상기 드론은 상기 영상 데이터를 획득하기 위한 카메라를 포함하고,
상기 카메라는,
광 이미지로부터 상기 영상 데이터를 생성하는 카메라 모듈;을 포함하고,
상기 카메라 모듈은,
측벽에 관통홀을 포함하는 하우징;
상기 관통홀에 설치된 렌즈; 및
상기 렌즈를 구동하는 구동부;를 포함하고
상기 렌즈는 유기용매 100 중량부에 대하여, 하기의 화학식 1로 표시되는 아크릴계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함하는 코팅 조성물로 코팅된 것인
농업 자동화 시스템.
[화학식 1]
(여기서, n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.)a drone that obtains soil condition information of a predetermined area and acquires image data of the predetermined area;
a server that receives the soil condition information and the image data and generates a driving route based on the soil condition information and the image data; and
An agricultural vehicle that receives the travel route and travels along the travel route;
The server,
communicating with the drone and the agricultural vehicle and controlling the drone and the agricultural vehicle; and
The soil condition information,
Including the height information of the soil,
The drone,
and a distance sensor for measuring the height information.
The drone includes a camera for acquiring the image data,
the camera,
A camera module generating the image data from an optical image; includes,
The camera module,
A housing including a through hole in a side wall;
a lens installed in the through hole; and
A driving unit for driving the lens; and
The lens is coated with a coating composition comprising 40 to 60 parts by weight of an acrylic compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of an organic solvent.
Agricultural automation system.
[Formula 1]
(Here, n and m are the same as or different from each other, and are each independently an integer of 1 to 100, and L1 is a biphenylene group.)
상기 토양 상태 정보는,
상기 토양의 함수율 및 상기 토양의 산도를 포함하는 것인, 농업 자동화 시스템.
According to claim 1,
The soil condition information,
To include the moisture content of the soil and the acidity of the soil, agricultural automation system.
상기 드론은,
상기 함수율을 측정하기 위한 습도측정센서; 및
상기 산도를 측정하기 위한 pH-Reference 센서 및 ISFET-pH 센서;를 포함하는 것인, 농업 자동화 시스템.According to claim 2,
The drone,
a humidity measuring sensor for measuring the moisture content; and
A agricultural automation system comprising a; pH-Reference sensor and ISFET-pH sensor for measuring the acidity.
상기 농업용 차량은,
상기 서버로부터 주행 경로를 수신하고 상기 드론에 전력을 제공하기 위한 모듈부를 포함하고,
상기 모듈부는,
상기 모듈부로부터 일정한 거리 내에 상기 드론이 위치한 경우, 상기 드론에 포함된 배터리를 무선 충전하는 것인, 농업 자동화 시스템. According to claim 1,
The agricultural vehicle,
A module unit for receiving a driving route from the server and providing power to the drone;
The module part,
When the drone is located within a certain distance from the module unit, the battery included in the drone is wirelessly charged.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210021401A KR102563552B1 (en) | 2021-02-17 | 2021-02-17 | Agricultural automation system using drone |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210021401A KR102563552B1 (en) | 2021-02-17 | 2021-02-17 | Agricultural automation system using drone |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220117968A KR20220117968A (en) | 2022-08-25 |
KR102563552B1 true KR102563552B1 (en) | 2023-08-09 |
Family
ID=83111447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210021401A KR102563552B1 (en) | 2021-02-17 | 2021-02-17 | Agricultural automation system using drone |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102563552B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024142227A1 (en) * | 2022-12-27 | 2024-07-04 | 株式会社クボタ | Communication system and communication method for work vehicle and unmanned aircraft |
KR102699874B1 (en) * | 2023-11-20 | 2024-08-28 | 주식회사 긴트 | Apparatus and method for specifying smart work area and route based on crop information or environmental information in a communication system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018164420A (en) * | 2017-03-28 | 2018-10-25 | 井関農機株式会社 | Work management system of work vehicle |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160072519A (en) * | 2014-12-15 | 2016-06-23 | 드림스페이스월드주식회사 | Real-Time Monitoring System of Individual Crop |
KR20170058767A (en) | 2015-11-19 | 2017-05-29 | 경북대학교 산학협력단 | Smart plantation care system and method |
KR20200097405A (en) * | 2019-02-08 | 2020-08-19 | 엘에스엠트론 주식회사 | Agricultural Vehicle |
-
2021
- 2021-02-17 KR KR1020210021401A patent/KR102563552B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018164420A (en) * | 2017-03-28 | 2018-10-25 | 井関農機株式会社 | Work management system of work vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR20220117968A (en) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11879737B2 (en) | Systems and methods for auto-return | |
AU2022291653B2 (en) | A backup navigation system for unmanned aerial vehicles | |
US11866198B2 (en) | Long-duration, fully autonomous operation of rotorcraft unmanned aerial systems including energy replenishment | |
US10565732B2 (en) | Sensor fusion using inertial and image sensors | |
EP3158293B1 (en) | Sensor fusion using inertial and image sensors | |
US10778967B2 (en) | Systems and methods for improving performance of a robotic vehicle by managing on-board camera defects | |
EP3158417B1 (en) | Sensor fusion using inertial and image sensors | |
EP3158411B1 (en) | Sensor fusion using inertial and image sensors | |
JPWO2018062336A1 (en) | Flight control device, unmanned airplane, flight control method, and computer readable recording medium | |
KR102563552B1 (en) | Agricultural automation system using drone | |
JP6138326B1 (en) | MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE | |
KR102280688B1 (en) | Controller for Unmanned Aerial Vehicle | |
Priandana et al. | Development of autonomous UAV quadcopters using pixhawk controller and its flight data acquisition | |
Hirokawa et al. | A small UAV for immediate hazard map generation | |
Bin et al. | Control of a quadrotor helicopter using the COMPASS (BeiDou) system and on-board vision system | |
CN114127510A (en) | 3D localization and mapping system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |