CN110662417A - 农作业装置、农作业管理系统以及程序 - Google Patents

农作业装置、农作业管理系统以及程序 Download PDF

Info

Publication number
CN110662417A
CN110662417A CN201780090814.0A CN201780090814A CN110662417A CN 110662417 A CN110662417 A CN 110662417A CN 201780090814 A CN201780090814 A CN 201780090814A CN 110662417 A CN110662417 A CN 110662417A
Authority
CN
China
Prior art keywords
agricultural work
agricultural
information
work
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780090814.0A
Other languages
English (en)
Inventor
菱木丰
大山宗哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inaho Co Ltd
Original Assignee
Inaho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inaho Co Ltd filed Critical Inaho Co Ltd
Publication of CN110662417A publication Critical patent/CN110662417A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D45/00Harvesting of standing crops
    • A01D45/007Harvesting of standing crops of asparagus
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D46/00Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
    • A01D46/30Robotic devices for individually picking crops
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M21/00Apparatus for the destruction of unwanted vegetation, e.g. weeds
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M21/00Apparatus for the destruction of unwanted vegetation, e.g. weeds
    • A01M21/02Apparatus for mechanical destruction
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M21/00Apparatus for the destruction of unwanted vegetation, e.g. weeds
    • A01M21/04Apparatus for destruction by steam, chemicals, burning, or electricity
    • A01M21/043Apparatus for destruction by steam, chemicals, burning, or electricity by chemicals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C3/00Registering or indicating the condition or the working of machines or other apparatus, other than vehicles
    • G07C3/08Registering or indicating the production of the machine either with or without registering working or idle time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Wood Science & Technology (AREA)
  • Insects & Arthropods (AREA)
  • Pest Control & Pesticides (AREA)
  • Zoology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Soil Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Guiding Agricultural Machines (AREA)
  • Harvesting Machines For Specific Crops (AREA)

Abstract

本发明提供一种能够适当地管理农作业信息,并且能基于农作业信息的活用而顺利地执行将来的农作业、商业的农作业装置、农作业管理系统以及程序。农作业装置(1)具备:第一摄像装置;基于通过第一摄像装置拍摄农作业的对象所得到的第一图像信息来判断是否对对象执行农作业的农作业判断部(34);基于农作业判断部(34)的判断结果来执行农作业的农作业执行部(36);生成包括农作业的结果的农作业信息的农作业信息生成部(38);测定对象的位置的测定部;和管理农作业信息和表示所测定的位置的位置信息的农作业信息管理部(40)。

Description

农作业装置、农作业管理系统以及程序
技术领域
本发明涉及农作业装置、农作业管理系统以及程序。
背景技术
伴随着农业经营的合理化、农业机械的高性能化,集中每一个农场的收获数据等各种农作业数据,对将来的农作业计划、商业计划起到作用变得越来越重要。
与此相关,在专利文献1中,公开了如下的农业机械的数据采集装置,该农业机械的数据采集装置的特征在于,在构成为被安装于农业机械中,并将本机一侧的数据经由通信线路发送到管理终端器的数据采集装置中,构成为自动地创建在该管理终端器的存储装置内设定的数据文件,并且在该文件名中至少包括进行了作业的日期、机器识别码、操作人员姓名或者农场编号的各要素中的一个或多个。
专利文献1:JP特开平06-231329号公报。
在专利文献1的数据采集装置中,虽然能够采集农场数据,但是在采集了农场数据之后,不能导出采集了农场数据的位置和农场数据的关联性。因而,不能适当地管理农场数据,并且不能有效活用农场数据,从而有不能顺利地执行将来的农作业和商业的可能性。
发明内容
本发明正是鉴于上述情况而提出的,其目的之一在于提供一种能够适当地管理农作业信息,并且能基于农作业信息的活用而顺利地执行将来的农作业和商业的农作业装置、农作业管理系统以及程序。
本发明的一实施方式相关的农作业装置具备:第一摄像装置;农作业判断部,基于通过所述第一摄像装置拍摄农作业的对象所得到的第一图像信息,判断是否对所述对象执行所述农作业;农作业执行部,基于所述农作业判断部的判断结果执行所述农作业;农作业信息生成部,生成包括所述农作业的结果的农作业信息;测定部,测定所述对象的位置;和农作业信息管理部,管理所述农作业信息和表示所测定的所述位置的位置信息。
在上述农作业装置中,还具备异常判断部,该异常判断部基于所述第一图像信息、和作为包括所述对象的参照图像的第二图像信息来判断所述对象有无异常。
在上述农作业装置中,所述测定部基于所述第一图像信息测定所述对象的尺寸,所述农作业判断部基于所测定的所述尺寸与规定的阈值的比较结果、和有无所述异常,判断是否对所述对象执行所述农作业。
在上述农作业装置中,所述农作业信息管理部也可将表示测定了所述对象的位置的时间的时间信息与所述农作业信息和所述位置信息相关联地进行记录。
在上述农作业装置中,还具备用于执行所述农作业的臂装置,所述农作业执行部也可基于通过所述测定部测定的所述对象的位置控制所述动作。
在上述农作业装置中,所述臂装置具备第二摄像装置,所述农作业执行部也可基于通过所述第二摄像装置拍摄所述对象所得到的第三图像信息控制所述臂装置的所述动作。
在上述农作业装置中,还具备驱动装置,该驱动装置控制所述农作业装置沿着预定的路径移动,所述驱动装置也可在通过所述农作业判断部判断了是否对所述第一图像信息中包括的所述对象执行所述农作业之后控制该农作业装置的移动。
在上述农作业装置中,所述第一摄像装置检测配置于所述路径的标识,所述驱动装置也可基于所检测出的所述标识控制农作业装置的移动。
在上述农作业装置中,所述测定部进行测定的所述对象的位置也可包括所述第一摄像装置拍摄了所述对象的位置。
本发明的一实施方式相关的农作业管理系统具备:权利要求1~9中任一项所述的农作业装置;和农作业管理服务器,所述农作业装置将表示所述农作业的结果的所述农作业信息和所述位置信息发送到所述农作业管理服务器,所述农作业管理服务器具备农作业预测部,该农作业预测部基于所述农作业信息和所述位置信息预测对所述对象执行的所述农作业的内容。
上述农作业管理系统还具备具有输出部的便携式终端,所述农作业管理服务器还具备输出信息生成部,该输出信息生成部将所述农作业信息和所述位置信息相关联地生成用于以预定的输出方式进行输出的输出信息,所述输出部也可基于所述输出信息以预定的输出方式输出所述农作业信息和所述位置信息。
本发明的一实施方式相关程序使具备摄像装置的农作业装置作为以下部分发挥功能:农作业判断部,基于通过所述摄像装置拍摄农作业的对象而得到的图像信息,判断是否对所述对象执行所述农作业;农作业执行部,基于所述农作业判断部的判断结果执行所述农作业;农作业信息生成部,生成包括所述农作业的结果的农作业信息;测定部,测定所述对象的位置;和农作业信息管理部,对所述农作业信息和表示所测定的所述位置的位置信息进行管理。
此外,在各实施方式中,所谓“部”、“装置”、“系统”不仅指物理手段,而且还包括通过软件实现该“部”、“装置”、“系统”具有的功能的情况。此外,一个“部”、“装置”、“系统”所具有的功能也可通过两个以上的物理手段、装置实现,两个以上的“部”、“装置”、“系统”的功能也可通过一个物理手段、装置实现。
发明效果
根据本发明,通过将农作业信息和对象的位置相关联地进行管理,能够适当地管理农作业信息,并且能基于农作业信息的活用而顺利地执行将来的农作业、商业。
附图说明
图1为表示本发明的一实施方式相关的农作业管理系统的示意结构的一例的框图。
图2为表示本发明的一实施方式相关的农作业装置的示意结构的一例的框图。
图3表示本发明的一实施方式相关的农作业装置的记录装置中记录的农作业信息表格的一例。
图4为表示本发明的一实施方式相关的农作业装置的记录装置中记录的农作业信息表格的一例的图。
图5为表示本发明的一实施方式相关的农作业装置的记录装置中记录的农作业信息表格的一例的图。
图6为表示本发明的一实施方式相关的农作业装置的记录装置中记录的农作业信息表格的一例的图。
图7为表示本发明的一实施方式相关的农作业管理服务器的示意结构的一例的框图。
图8为表示本发明的一实施方式相关的农作业处理流程的一例的流程图。
图9为表示在本发明的一实施方式相关的农场中农作业装置所执行的农作业的一例的图。
图10为表示本发明的一实施方式相关的农作业判断处理流程的一例的流程图。
图11为说明本发明的一实施方式相关的农作业判断处理中的图像处理的一例的图。
图12为说明本发明的一实施方式相关的农作业判断处理中的农作物测定处理的一例的图。
图13为表示本发明的一实施方式相关的农作业执行处理流程的一例的流程图。
图14为表示在本发明的一实施方式相关的农场中农作业装置所执行的农作业的一例的图。
具体实施方式
以下,参照附图对一实施方式进行说明。但是,以下所说明的实施方式只是例示,并没有意图排除以下未明示的各种变形或技术应用。即、本发明能够在不脱离其主旨的范围中进行各种变形并实施。此外,在一系列的附图的记载中,对相同或者类似的部分赋予相同或者类似的符号来表示。
[农作业管理系统的整体结构]
图1为表示本发明的一实施方式相关的农作业管理系统的示意结构的一例的框图。如图1所示那样,农作业管理系统100例示地具备:在农场FF中执行农作业,并对农作业的结果进行管理的农作业装置1;对农作业装置1所执行的农作业的结果进行管理,基于农作业的结果预测将来所执行的农作业的内容的农作业管理服务器5;和从事农作业的用户U所保持的便携式终端3。
在此,作为“农作业”,例如包括收获配置在田垄R的芦笋A(对象)、对农场FF喷洒药剂以及在农场FF中进行除草等。农作业的“对象”不限于如芦笋A那样的农作物,也可包括在农场FF内形成的田垄R等的地面部分、农场FF内的规定空间。
农作业装置1、便携式终端3以及农作业管理服务器5经由规定的通信网络N能相互通信地连接。例如农作业装置1经由通信网络N从便携式终端3接收用于在农作业装置1中执行农作业的指示。农作业装置1基于来自便携式终端3的指示采用臂16来收获例如在田垄R中所栽培的芦笋A。农作业装置1生成包括农作业的结果的农作业信息,经由通信网络N至少将该农作业信息和位置信息发送到农作业管理服务器5。农作业管理服务器5经由通信网络N对便携式终端3至少发送该农作业信息和位置信息。便携式终端3经由通信网络N从农作业管理服务器5至少接收该农作业信息和位置信息,并在输出部7中输出。
如上那样,通过将农作业信息和对象的位置相关联地进行管理,从而能适当地管理农作业信息,并且能基于农作业信息的活用而顺利地执行将来的农作业、商业。而且,用户U能在便携式终端3的输出部7中确认农作业装置1所执行的农作业的结果。此外,在例如用户U为农作物的生产者的情况下,通过对消费者出示在便携式终端3的输出部7中所输出的作为农作业的结果一例的药剂的喷洒量,从而能够对消費者宣传农作物的安心和安全。进而,便携式终端3也可为具备AR(Augmented Reality,增强现实)技术的透射式眼镜型终端。在该情况下,如果用户U佩戴该眼镜型终端来观看田垄R,则执行在田垄R中含有未收获之处的区域发光来显示等的突出显示。这样,用户U能够容易地确定未收获之处。
另外,通信网络N也可为互联网、分组通信网以及线路通信网的组合,例如农作业装置1、便携式终端3与农作业管理服务器5的各个通信部分为无线网络,但也可包括有线网络。
此外,农作业管理系统100中,农作业装置1、便携式终端3以及农作业管理服务器5各自的台数是任意的,能够分别构成为两台以上。
[农作业装置的结构]
图2为表示本发明的一实施方式相关的农作业装置的示意结构的一例的框图。如图2所示那样,农作业装置1例示地具备:基于从未图示的GPS卫星发送的GPS信号检测农作业装置1的位置的GPS传感器12;对农作业的对象进行拍摄的照相机14(第一摄像装置);用于执行农作业的臂装置16;记录在农作业装置1所执行的各处理中所需的信息的记录装置18;发送或接收图1所示的便携式终端3以及农作业管理服务器5和各种信息的通信装置20;控制农作业装置1沿着预定的路径移动的驱动装置22;和与上述各构成要素连接的中央处理装置10。此外,上述各构成要素也可分别为单一的构成要素,也可为包括多个构成要素的构成要素。照相机14具备例如具有耐环境光性能并使用脉冲激光器的TOF(Time OfFlight,飞行时间)型距离图像传感器、以及具备CCD(Charge-Coupled Device,电荷耦合元件)的照相机的至少一个。
中央处理装置10为了执行用于管理农作业信息的处理而控制上述各构成要素。中央处理装置10例如为CPU、MPU等,按照保存于记录装置18中的程序进行工作。中央处理装置10在功能上具备:测定对象的位置、高度以及深度等的农作物测定部30(测定部);对对象的异常进行判断的异常判断部32,该对象的异常包括对象为不合格品或者对象具有病害等;基于通过照相机14对农作业的对象进行拍摄所得到的图像信息(第一图像信息),来判断是否对对象执行农作业的农作业判断部34;基于农作业判断部34的判断结果来执行农作业的农作业执行部36;生成包括农作业的结果的农作业信息的农作业信息生成部38;和对农作业信息生成部38所生成的农作业信息进行管理的农作业信息管理部40。此外,不合格品也称为次品。
记录装置18记录农作业信息生成部38所生成的农作业信息。记录装置18将农作业信息例如记录为图3~图6所示的农作业信息表格。
如图3所示,记录装置18将包括有无收获对象以及收获量的农作业信息与包括对象被栽培的位置的农作业位置(位置信息)和测定了农作业位置的日期时间相关联地进行记录。
如图4所示,记录装置18将农作业信息与农作业位置和测定了农作业位置的日期时间相关联地进行记录,该农作业信息包括图1所示的农作业装置1收获对象时所朝向的方向、以及含有所收获的对象的图像信息。
如图5所示,记录装置18将包括有无收获对象、以及对象的不合格品、病害量在内的农作业信息与农作业位置和测定了农作业位置的日期时间相关联地进行记录。
如图6所示,记录装置18将包括药剂喷洒量的农作业信息与作为农作业位置的喷洒了药剂的位置和测定了该位置的日期时间相关联地进行记录。
另外,记录装置18在农作业装置1为除去杂草的杂草除去装置的情况下,也可将除去的杂草的重量作为农作业信息与除去的杂草的位置(或者执行了除去处理的农作业装置1的位置)和除去了杂草的日期时间相关联地进行记录。
此外,图3~图6所示的各农作业信息表格也可在记录装置18中互相相关联地被记录。此外,农作业信息表格也可组合图3~图6所示的农作业信息表格的至少两个以上来构成。
农作业位置也可为图1所示的GPS传感器12检测出的农作业装置1的位置。农作业位置也可为多个对象的各自的位置。多个对象的各自的位置例如也可为在田垄中表示农作物相对于农作业装置1更近(靠近跟前)地配置还是更远(更深)地配置的信息。图4所示的农作业信息表格中的方向信息,采用以规定的方向作为基准的情况下的角度进行表示,在分别收获多个对象的情况下,也可为按每个对象建立对应的方向,在收获包括多个对象的对象组的情况下也可为按每组来建立对应的方向。图4所示的农作业信息表格中的图像信息也可为包括单一对象的图像信息,也可为包括多个对象的图像信息。此外,图像信息也可为表示农作业装置1喷洒药剂的状況的图像信息,也可为表示农作业装置1喷洒了药剂之后的状況的图像信息。
此外,记录装置18为例如由ROM或RAM、硬盘等的信息记录介质构成,并保持通过中央处理装置10执行的程序的信息记录介质。此外,记录装置18也可作为中央处理装置10的工作存储器进行工作。另外,在记录装置18保存的程序也可经由例如网络从农作业装置1的外部被下载来提供,或者也可通过由CD-ROM、DVD-ROM等的计算机能读取的各种信息记录介质来提供。
通信装置20例如如图1所示那样,经由通信网络N从便携式终端3接收用于执行农作业的指示。另一方面,通信装置20经由通信网络N将例如图3~图6所示的农作业信息表格发送到农作业管理服务器5。
驱动装置22例如为被左右的车轴支撑的移动用车轮,通过使移动用车轮旋转而能前后地移动,从而能够进行回转。
[农作业管理服务器的结构]
图7为表示本发明的一实施方式相关的农作业管理服务器的示意结构的一例的框图。如图7所示那样,农作业管理服务器7例示地具备:在图1所示的农作业装置1以及便携式终端3之间接收发送各种信息的通信部50;执行基于农作业信息的信息处理的信息处理部52;和存储有表示从图1所示的农作业装置1发送的农作业信息的农作业信息表格AT(参照图3~图6)和表示图1以及图9所示的农场FF的农场地图M的记录部54。在此,如后所述那样,农场地图M被用于在图1所示的便携式终端3中设定农作业的执行范围的情况、在农作业装置1中实际执行农作业的情况下移动范围的控制等。另外,记录部54也可记录与信息处理部52所执行的各种信息处理相关的各种程序等。
信息处理部34在功能上具备:农作业预测部60,基于从图1所示的农作业装置1发送,并在通信部50中接收的农作业信息和表示对象的位置的位置信息,预测对对象所执行的农作业的内容;输出信息生成部62,将农作业信息和表示对象的位置的位置信息相关联地生成用于以预定的输出方式进行输出的输出信息。农作业预测部60通过参照作为农作业信息的农作物(对象)的图像信息,来预测与农作物的状态相应的将来的农作业的内容。例如,根据芦笋群的图像来掌握各芦笋的生长状况,作为将来的农作业的内容的一例测定收获时期和今后的收获量的预估等。在此,输出信息也可包括用于以预定的输出方式输出农作业预测部60的预测结果的输出信息。输出信息按照来自图1所示的便携式终端3的请求经由通信部50被发送到便携式终端3,并在便携式终端3的输出部7中被输出。
[农作业处理]
采用图8以及图9,对本发明的一实施方式相关的农作业处理的整体流程进行说明。图8为表示本发明的一实施方式相关的农作业处理流程的一例的流程图。图9为表示在本发明的一实施方式相关的农场中农作业装置所执行的农作业的一例的图。
(步骤S1)
图1中所示的用户U在便携式终端3中设定农作业装置1执行农作业的农作业范围。例如,便携式终端3取得图7所示的在农作业管理服务器5的记录部54中记录的农场地图信息M。而且,用户U在便携式终端3中,如图9所示那样,设定农场FF中的农作业装置1进行移动的路径L1、L3和L5、以及农作业装置1开始作业的起始地点P1以及结束作业的结束地点P7。
(步骤S3)
图2所示的农作业装置1的驱动装置22控制农作业装置1在农场FF内沿着所设定的路径L1进行移动。首先,农作业装置1移动例如10cm左右就停止,如后述那样执行农作业。然后,如果农作业完成了,再次移动10cm左右,执行农作业,反复进行这样的作业。另外,驱动装置22也可构成为:通过图2所示的农作业判断部34,对在来自照相机14的图像信息(第一图像信息)中包括的所有对象判断是否执行农作业之后控制该农作业装置1的移动。另外,关于农作业装置1的移动量,在上述中以10cm左右进行了说明,但并不限于此,针对该移动量,也可基于收获对象物的大小、配置位置以及照相机14的镜头尺寸等来设定。
(步骤S5)
农作业装置1执行农作业。例如,图2所示的农作业执行部36基于判断对对象是否执行农作业的农作业判断部34的判断结果来执行农作业。另外,采用图10~12对农作业判断部34的处理进行详细叙述。此外,采用图13和图14对农作业执行部36的处理进行详细叙述。作为农作业,例如包括收获在田垄R1配置的对象、对农场FF喷洒药剂以及在农场FF中进行除草等。
图2所示的农作业装置1的农作业信息生成部38生成包括农作业的结果的农作业信息(参照图3~图6)。此外,农作物测定部30(测定部)对执行农作业的位置进行测定。执行农作业的位置包括例如执行农作业的农作业装置1的位置、或者在农场FF中配置的对象的位置。农作物测定部30基于图2所示的GPS传感器12所检测出的位置信息测定执行农作业的农作业装置1的位置。此外,农作物测定部30基于图2所示的GPS传感器12检测出的农作业装置1的位置信息和通过照相机14拍摄对象所得到的图像信息,测定在农场FF中配置的对象的位置。更具体地,农作物测定部30也可在基于图2中所示的GPS传感器12所检测出的农作业装置1的位置信息推定农场FF中配置的对象的位置之后,基于通过照相机14拍摄对象所得到的图像信息确定对象的正确位置。
农作业信息管理部40将农作业信息、表示通过农作物测定部30测定的对象位置的位置信息和表示测定了对象位置的时间的时间信息建立关联,并作为图3~图6所示的农作业信息表格在记录装置18中进行管理。图2所示的农作业装置1的通信装置20以规定的时机将记录装置18中记录的农作业信息表格发送到图1所示的农作业管理服务器5。例如通信装置20也可定期地发送农作业信息表格,也可在每次执行农作业时进行发送,也可在一系列的农作业都完成了的时间点进行发送。
(步骤S7)
图2所示的农作业装置1的照相机14(第一摄像装置)检测农场FF内的标识M1。
(步骤S9)
图2所示的农作业装置1的驱动装置22基于由照相机14检测出的标识M1来控制农作业装置1的移动。例如,农作业装置1通过检测出标识M1,来判定到达了作为农场FF的一端的地点的地点P3。农作业装置1进行回转,向路径L3转移,对田垄R3重新进行农作业。接下来,农作业装置1通过检测出标识M3来判定到达了作为农场FF的一端的地点的地点P5。驱动装置22回转,向路径L5转移,农作业装置1对田垄R5重新进行农作业。
(步骤S11)
如果农作业装置1到达所设定的路径L5的结束地点P7,则农作业装置1结束农作业。
[农作业判断处理]
采用图10~图12对本发明的一实施方式相关的农作业判断处理的流程进行说明。图10为表示本发明的一实施方式相关的农作业判断处理流程的一例的流程图。图11为表示通过本发明的一实施方式相关的农作业装置的照相机进行拍摄所得到的图像信息的一例的图。
(步骤S21)
如图11所示,图2所示的农作业装置1的照相机14通过对作为农作业的对象的芦笋群进行拍摄,从而取得图像(第一图像信息)。
(步骤S23)
图2所示的农作业装置1的异常判断部32对步骤S21中所取得的图像(第一图像信息)和例如农作业装置1的记录装置18中记录的、包括作为农作业对象的芦笋的参照图像(第二图像信息)进行比较。更具体地,异常判断部32活用用于执行异常判断的人工智能模型。人工智能模型形成为通过基于过去执行的、有无异常的判断结果来进行反复学习从而能正确地进行异常判断。在此,人工智能模型中大量地蓄积在过去的异常判断时所采用的图像(参照图像)。然后,异常判断部32针对步骤S21所取得的图像,通过参照该人工智能模型,如后述那样能判断芦笋有无异常。
(步骤S25)
异常判断部32基于步骤S23的比较结果来判断芦笋有无异常。例如,参照图像中包括值得进行收获那样的优良品的芦笋,异常判断部32通过将由照相机14对预定收获的芦笋进行拍摄所得到的图像与含有优良品的芦笋的参照图像进行比较,来判断实际上预定收获的芦笋是否为优良品。此外,参照图像中包括不值得进行收获那样的不合格品的芦笋,异常判断部32也可构成为通过将由照相机14对预定收获的芦笋进行了拍摄所得到的图像与含有不合格品的芦笋的参照图像进行比较,来判断实际上预定收获的芦笋是否为不合格品。
在预定收获的芦笋的颜色为茶色的情况下,由于与参照图像中所含有的优良品的颜色(例如绿色)不同,因而异常判断部32判断预定收获的芦笋有一些疾病。此外,在预定收获的芦笋的形状具有大的曲线部的情况下,由于与参照图像中所含有的优良品的形状(例如直线形状)不同,因而异常判断部32判断预定收获的芦笋为不合格品。
(步骤S27)
图2所示的农作业装置1的农作物测定部30基于通过照相机14拍摄芦笋所得到的图像信息来测定芦笋的栽培位置、高度以及深度。此外,农作物测定部30也可基于农作业装置1所具备的未图示的测定激光器的照射波、以及来自芦笋的反射波来测定芦笋的栽培位置等。此外,农作业装置1也可构成为采用照相机14以及测定激光器这两者来测定芦笋的栽培位置、高度以及深度。
图12为表示图11中的虚线部分中所含有的2根芦笋A1以及A2被放大显示的图像信息的一例的图。如图12所示那样,农作物测定部30通过基于例如来自照相机14的图像信息,测定各芦笋A1以及A2的前端以及末端(根部)各自的XYZ坐标(位置),从而能测定芦笋A1与芦笋A2的位置之差D。此外,农作物测定部30能够测定芦笋A1的高度H(尺寸)、以及芦笋A1的宽度W(尺寸)。
(步骤S29)
农作物测定部30通过比较所测定的尺寸与所设定的阈值来判断芦笋的状态。在所测定的芦笋A1的高度为30cm的情况下,由于大于所设定的阈值(26cm),因此农作物测定部30判断为已生长为值得收获的程度的芦笋。另一方面,在所测定的芦笋A1的高度为15cm的情况下,由于小于所设定的阈值(26cm),因此农作物测定部30判断为不是生长为值得收获的程度的芦笋。另外,农作物测定部30也可通过比较所测定的芦笋的宽度和所设定的阈值来判断芦笋的状态。另外,关于“阈值”并不限于所设定的阈值,也可为规定的阈值。
(步骤S31)
图2所示的农作业装置1的农作业判断部34基于异常判断部32输出的判断结果和农作物测定部30输出的判断结果来判断是否收获芦笋。例如在异常判断部32的判断结果为“没有异常”且农作物测定部30的判断结果为“26cm以上:生长充分”的情况下,在为足以上市的芦笋这样的意思下判断为“进行收获”。此外,在异常判断部32的判断结果为“有异常”且农作物测定部30的判断结果为“26cm以下:生长不充分”的情况下,在即使今后生长也是不值得上市的芦笋这样的意思下判断为“进行收获”。在这种情况下,收获之后进行废弃等。进而,在异常判断部32的判断结果为“有异常”且农作物测定部30的判断结果为“26cm以上:生长充分”的情况下,在为不值得上市的芦笋这样的意思下判断为“进行收获”。在这种情况下,也在收获之后进行废弃等。进而此外,在异常判断部32的判断结果为“没有异常”且农作物测定部30的判断结果为“26cm以下:生长不充分”的情况下,由于既不是不合格品也没有任何的疾病,因此农作业判断部34在等待直到预定收获的芦笋生长到值得进行收获的程度为止这样的意思下判断为“不收获”。
如上那样,农作业判断部34综合考虑异常判断部32的判断结果和农作物测定部30的判断结果来判断是否收获对象,因此与农作业判断部34基于农作物测定部30的判断结果、以及异常判断部32的判断结果中的任一方判断是否执行农作业的情况相比,能够执行更正确的判断。
[农作业执行处理]
采用图13以及图14对本发明的一实施方式相关的农作业执行处理流程进行说明。图13为表示本发明的一实施方式相关的农作业执行处理流程的一例的流程图。图14为表示在本发明的一实施方式相关的农场中农作业装置执行的农作业的一例的图。
(步骤S41)
如在图10的步骤S29中所说明的那样,图2所示的农作物测定部30测定芦笋A5的栽培位置、高度以及深度。接下来,农作业执行部36基于农作物测定部30的测定结果来设定在收获芦笋A5之前的臂装置16的进入路径、例如从臂装置16的当前位置到图14所示的农场FF的田垄R中的配置芦笋A5的位置为止的进入路径。此外,所谓进入路径也可包括从臂装置16的三维坐标位置到图14所示的农场FF的田垄R中的表示芦笋A5的切断点的三维坐标位置为止的路径。在此,也可构成为对于进入路径,农作物执行部36在进行了生成的基础上进行设定,也可构成为农作物测定部30基于测定结果生成进入路径,农作物执行部36设定进入路径。
(步骤S43)
例如通过搭载于臂装置16的照相机14(第二摄像装置)取得图像信息(第三图像信息)。搭载于臂装置16的照相机14(第二摄像装置)与搭载于农作业装置1的主体部分的照相机相比,能够更正确地测定臂装置16的实际进入路径。
(步骤S45)
农作业执行部36基于所取得的图像信息判断臂装置16的进入路径是否与在步骤S41中设定的进入路径不同。在臂装置16的进入路径与在步骤S41中设定的进入路径没有不同的情况(“否”的情况)下,前进到步骤S49。另一方面,在臂装置16的进入路径与在步骤S41中设定的进入路径不同的情况(“是”的情况)下,前进到步骤S47。
(步骤S47)
农作业执行部36基于来自照相机14的图像信息来控制臂装置16的进入路径。例如在臂装置16的进入路径与步骤S41中设定的进入路径不同的情况下,由于存在不能可靠地收获芦笋A5的可能性,因而将臂装置16的进入路径修正为正确的路径,可靠地收获芦笋A5。例如在进入路径包括从臂装置16的三维坐标位置到图14所示的农场FF的田垄R中的表示芦笋A5的切断点的三维坐标位置为止的路径的情况下,农作业执行部36也可构成为基于来自照相机14的图像信息修正该切断点的偏差。
(步骤S49)
农作业执行部36采用臂装置16来收获芦笋A5。
(步骤S51)
农作业执行部36将采用臂装置16收获的芦笋A5保存于储存室S。
如以上所说明的那样,根据本实施方式,通过将农作业信息和农作业对象的位置相关联地进行管理,从而能适当地管理农作业信息,并且能基于农作业信息的活用而顺利地执行将来的农作业、商业。
如图2以及图10所示那样,农作业判断部34综合地考虑异常判断部32的判断结果和农作物测定部30的判断结果来判断是否收获对象。因而,与农作业判断部34基于农作物测定部30的判断结果、以及异常判断部32的判断结果的任一方判断是否执行农作业的情况相比,能够执行更正确的判断。
(其他实施方式)
上述各实施方式为用于容易地理解本发明的实施方式,并不是限定地解释本发明的实施方式。本发明在不脱离其主旨的情况下能变更/改良(例如组合各实施方式、省略各实施方式的一部分的构成),并且本发明中也包括其等效物。
上述实施方式中,如图7所示那样,农作业管理服务器5具备输出信息生成部62。但是,图1所示的便携式终端3也可具备输出信息生成部。在这种情况下,农作业管理服务器5构成为将农作业信息发送到便携式终端3,在便携式终端3中生成输出信息,将所生成的输出信息在便携式终端3的输出部7中输出。此外,如图7所示那样,农作业管理服务器5具备农作业预测部60。但是,便携式终端3或者农作业装置1也可具备农作业预测部60。进而,如图2所示那样,农作业管理服务器5或者便携式终端3也可具备农作物测定部30、异常判断部32、农作业判断部34、农作业执行部36、农作业信息生成部38以及农作业信息管理部40的至少一个构成要素。如上那样,其他结构也可在处理内容中不产生矛盾的范围中具备农作业装置1、便携式终端3、以及农作业管理服务器5的各个结构所具备的各构成要素。
在上述实施方式中,如图2以及图10所示那样,农作业判断部34基于农作物测定部30的判断结果、异常判断部32的判断结果来判断是否执行农作业。但是,农作业判断部34也可构成为基于农作物测定部30的判断结果、以及异常判断部32的判断结果的任一个简易地判断是否执行农作业。
在上述实施方式中,农作业信息、位置信息以及日期时间信息从农作业装置1经由农作业管理服务器5对便携式终端3发送。但是,农作业信息也可从农作业装置1直接发送到便携式终端3。此外,上述实施方式中,农作业信息、位置信息以及日期时间信息在图1所示的便携式终端3的输出部7中被输出。但是,农作业信息、位置信息以及日期时间信息也可在农作业装置1所具备的输出部(未图示)中被输出。
符号说明
1:农作业装置、3:便携式终端、5:农作业管理服务器、7:输出部、10:中央处理装置、12:GPS传感器、14:照相机、16:臂装置、18:记录装置、20:通信装置、22:驱动装置、30:农作物测定部、32:异常判断部、34:农作业判断部、36:农作业执行部、38:农作业信息生成部、40:农作业信息管理部、50:通信部、52:信息处理部、54:记录部、60:农作业预测部、62:输出信息生成部、100:农作业管理系统。

Claims (12)

1.一种农作业装置,具备:
第一摄像装置;
农作业判断部,基于通过所述第一摄像装置拍摄农作业的对象而得到的第一图像信息,判断对所述对象是否执行所述农作业;
农作业执行部,基于所述农作业判断部的判断结果执行所述农作业;
农作业信息生成部,生成包括所述农作业的结果的农作业信息;
测定部,测定所述对象的位置;和
农作业信息管理部,管理所述农作业信息和表示所测定的所述位置的位置信息。
2.根据权利要求1所述的农作业装置,其中,
所述农作业装置还具备异常判断部,该异常判断部基于所述第一图像信息和作为包括所述对象的参照图像的第二图像信息来判断所述对象有无异常。
3.根据权利要求2所述的农作业装置,其中,
所述测定部基于所述第一图像信息测定所述对象的尺寸,
所述农作业判断部基于所测定的所述尺寸与设定的阈值的比较结果、和有无所述异常,判断是否对所述对象执行所述农作业。
4.根据权利要求1~3中任一项所述的农作业装置,其中,
所述农作业信息管理部将表示测定了所述对象的位置的时间的时间信息与所述农作业信息和所述位置信息相关联地进行记录。
5.根据权利要求1~4中任一项所述的农作业装置,其中,
所述农作业装置还具备用于执行所述农作业的臂装置,
所述农作业执行部基于通过所述测定部测定的所述对象的位置来控制所述动作。
6.根据权利要求5所述的农作业装置,其中,
所述臂装置具备第二摄像装置,
所述农作业执行部基于通过所述第二摄像装置拍摄所述对象所得到的第三图像信息来控制所述臂装置的所述动作。
7.根据权利要求1~6中任一项所述的农作业装置,其中,
所述农作业装置还具备驱动装置,该驱动装置控制所述农作业装置沿着预定的路径移动,
所述驱动装置在通过所述农作业判断部判断了是否对所述第一图像信息中包括的所述对象执行所述农作业之后,控制该农作业装置的移动。
8.根据权利要求7所述的农作业装置,其中,
所述第一摄像装置检测出配置于所述路径的标识,
所述驱动装置基于所检测出的所述标识控制农作业装置的移动。
9.根据权利要求1~8中任一项所述的农作业装置,其中,
所述测定部所测定的所述对象的位置包括所述第一摄像装置拍摄了所述对象的位置。
10.一种农作业管理系统,具备:
权利要求1~9中任一项所述的农作业装置;和
农作业管理服务器,
所述农作业装置将表示所述农作业的结果的所述农作业信息和所述位置信息发送到所述农作业管理服务器,
所述农作业管理服务器具备农作业预测部,该农作业预测部基于所述农作业信息和所述位置信息预测对所述对象执行的所述农作业的内容。
11.根据权利要求10所述的农作业管理系统,其中,
所述农作业管理系统还具备具有输出部的便携式终端,
所述农作业管理服务器还具备输出信息生成部,该输出信息生成部将所述农作业信息和所述位置信息相关联地生成用于以预定的输出方式进行输出的输出信息,
所述输出部基于所述输出信息以预定的输出方式输出所述农作业信息和所述位置信息。
12.一种程序,使具备摄像装置的农作业装置作为以下部分发挥功能:
农作业判断部,基于通过所述摄像装置拍摄农作业的对象而得到的图像信息,判断是否对所述对象执行所述农作业;
农作业执行部,基于所述农作业判断部的判断结果执行所述农作业;
农作业信息生成部,生成包括所述农作业的结果的农作业信息;
测定部,测定所述对象的位置;和
农作业信息管理部,对所述农作业信息和表示所测定的所述位置的位置信息进行管理。
CN201780090814.0A 2017-05-17 2017-05-17 农作业装置、农作业管理系统以及程序 Pending CN110662417A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/018517 WO2018211621A1 (ja) 2017-05-17 2017-05-17 農作業装置、農作業管理システム、及びプログラム

Publications (1)

Publication Number Publication Date
CN110662417A true CN110662417A (zh) 2020-01-07

Family

ID=64273502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780090814.0A Pending CN110662417A (zh) 2017-05-17 2017-05-17 农作业装置、农作业管理系统以及程序

Country Status (6)

Country Link
US (1) US11632907B2 (zh)
EP (1) EP3626043B1 (zh)
JP (1) JP6853591B2 (zh)
CN (1) CN110662417A (zh)
AU (1) AU2017414991B2 (zh)
WO (1) WO2018211621A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7223977B2 (ja) * 2019-09-13 2023-02-17 パナソニックIpマネジメント株式会社 収穫ロボットシステム
US11768187B2 (en) 2020-05-28 2023-09-26 Automated Harvesting Solutions, LLC Harvester for selectively and robotically harvesting crops
US20210368680A1 (en) * 2020-05-28 2021-12-02 Automated Harvesting Solutions, LLC Real-time speed adjustment for harvesting crops
WO2021261294A1 (ja) * 2020-06-24 2021-12-30 株式会社クボタ 農業用ロボット
JP7408496B2 (ja) 2020-06-24 2024-01-05 株式会社クボタ 農業用ロボット
JP7471931B2 (ja) 2020-06-24 2024-04-22 株式会社クボタ 農業用ロボット
KR102613439B1 (ko) * 2021-08-25 2023-12-12 국민대학교산학협력단 작물 재배 장치

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141649A (ja) * 1991-08-29 1994-05-24 Iseki & Co Ltd 果菜類収穫機等の果菜把握方式
JP2004203514A (ja) * 2002-12-24 2004-07-22 Sakae Shibusawa 農産物評価システム
JP2009131223A (ja) * 2007-11-30 2009-06-18 Nagasaki Prefecture アスパラガス切断可否自動判定装置
JP2011229406A (ja) * 2010-04-23 2011-11-17 Ihi Corp 自動収穫装置
JP2013074807A (ja) * 2011-09-29 2013-04-25 Kubota Corp 圃場情報生成システム
JP2013235461A (ja) * 2012-05-09 2013-11-21 Kubota Corp 農業機械における圃場データ収集システム
CN103763515A (zh) * 2013-12-24 2014-04-30 浙江工业大学 一种基于机器学习的视频异常检测方法
JP2014183841A (ja) * 2013-02-19 2014-10-02 Muroran Institute Of Technology 植物自動収穫機、植物自動収穫プログラムおよび植物自動収穫方法
CN104809732A (zh) * 2015-05-07 2015-07-29 山东鲁能智能技术有限公司 一种基于图像比对的电力设备外观异常检测方法
WO2016009752A1 (ja) * 2014-07-16 2016-01-21 株式会社リコー 情報処理装置、制御信号の生産方法、情報処理システム、プログラム
CN105619741A (zh) * 2016-03-28 2016-06-01 浙江工业大学 一种基于Tegra K1的模具智能检测方法
CN105976397A (zh) * 2016-04-28 2016-09-28 西安电子科技大学 基于半非负优化集成学习的目标跟踪方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06231329A (ja) 1993-02-01 1994-08-19 Iseki & Co Ltd 農業機械のデ−タ収集装置
JP4379001B2 (ja) * 2003-05-28 2009-12-09 井関農機株式会社 コンバインの刈取作業方法
US7765780B2 (en) * 2003-12-12 2010-08-03 Vision Robotics Corporation Agricultural robot system and method
JP4650669B2 (ja) * 2004-11-04 2011-03-16 富士ゼロックス株式会社 動体認識装置
DE102007008330B4 (de) * 2007-02-16 2016-03-24 Christoph Neubauer Vorrichtung und Verfahren zum Ernten von Spargel
JP5119392B2 (ja) * 2007-02-26 2013-01-16 井関農機株式会社 果実収穫ロボットとイチゴ栽培施設
JP5294173B2 (ja) 2008-09-18 2013-09-18 独立行政法人農業・食品産業技術総合研究機構 果菜類の果房収穫装置及び果菜類の選択収穫方法
JP5810494B2 (ja) * 2010-09-07 2015-11-11 株式会社ニコン 植物栽培システム、植物栽培プラント、収穫装置及び植物栽培方法
US9224196B2 (en) * 2014-03-12 2015-12-29 ClearMark Systems, LLC System and method for authentication
EP3171241A4 (en) * 2014-07-16 2017-12-13 Ricoh Company, Ltd. System, machine, control method, and program
US9313944B1 (en) * 2014-12-03 2016-04-19 Cnh Industrial America Llc System and method for agriculture using a seed tape
ES2540676B2 (es) 2015-02-25 2016-02-08 Universidad De Granada Procedimiento y sistema de guiado para la recolección automática de producto hortícola basado en modelado digital 3D
US9898688B2 (en) * 2016-06-01 2018-02-20 Intel Corporation Vision enhanced drones for precision farming

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141649A (ja) * 1991-08-29 1994-05-24 Iseki & Co Ltd 果菜類収穫機等の果菜把握方式
JP2004203514A (ja) * 2002-12-24 2004-07-22 Sakae Shibusawa 農産物評価システム
JP2009131223A (ja) * 2007-11-30 2009-06-18 Nagasaki Prefecture アスパラガス切断可否自動判定装置
JP2011229406A (ja) * 2010-04-23 2011-11-17 Ihi Corp 自動収穫装置
JP2013074807A (ja) * 2011-09-29 2013-04-25 Kubota Corp 圃場情報生成システム
JP2013235461A (ja) * 2012-05-09 2013-11-21 Kubota Corp 農業機械における圃場データ収集システム
JP2014183841A (ja) * 2013-02-19 2014-10-02 Muroran Institute Of Technology 植物自動収穫機、植物自動収穫プログラムおよび植物自動収穫方法
CN103763515A (zh) * 2013-12-24 2014-04-30 浙江工业大学 一种基于机器学习的视频异常检测方法
WO2016009752A1 (ja) * 2014-07-16 2016-01-21 株式会社リコー 情報処理装置、制御信号の生産方法、情報処理システム、プログラム
CN104809732A (zh) * 2015-05-07 2015-07-29 山东鲁能智能技术有限公司 一种基于图像比对的电力设备外观异常检测方法
CN105619741A (zh) * 2016-03-28 2016-06-01 浙江工业大学 一种基于Tegra K1的模具智能检测方法
CN105976397A (zh) * 2016-04-28 2016-09-28 西安电子科技大学 基于半非负优化集成学习的目标跟踪方法

Also Published As

Publication number Publication date
EP3626043A1 (en) 2020-03-25
US11632907B2 (en) 2023-04-25
US20210076570A1 (en) 2021-03-18
JP6853591B2 (ja) 2021-03-31
EP3626043A4 (en) 2021-01-13
EP3626043B1 (en) 2024-02-14
AU2017414991A1 (en) 2019-12-05
JPWO2018211621A1 (ja) 2020-03-12
WO2018211621A1 (ja) 2018-11-22
AU2017414991B2 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
CN110662417A (zh) 农作业装置、农作业管理系统以及程序
US10455826B2 (en) Method for autonomously weeding crops in an agricultural field
EP3158409B1 (en) Garden visualization and mapping via robotic vehicle
US20160195505A1 (en) System and method for analyzing the effectiveness of an application to a crop
JP2014186723A (ja) 植物自動収穫機、植物自動収穫プログラムおよび植物自動収穫方法
WO2016103067A1 (en) Garden mapping and planning via robotic vehicle
US11935289B2 (en) Agricultural analysis robotic systems and methods thereof
JP5806997B2 (ja) 農作業情報管理装置及び農作業情報管理システム
KR20160076317A (ko) 병해충 발생 예측 장치 및 방법
EP4271170A1 (en) Generating a ground plane for obstruction detection
JP7068747B2 (ja) コンピュータシステム、作物生育支援方法及びプログラム
CN110209154B (zh) 自动收割机的残留收割路径规划系统及其方法
EP4187344A1 (en) Work machine distance prediction and action control
CN109492541B (zh) 目标对象类型的确定方法及装置、植保方法、植保系统
Martinez et al. USING UAV IMAGERY TO EVALUATE REPLANTING RECOMMENDATIONS FOR NC COTTON
Fleischmann et al. Detection of field structures for agricultural vehicle guidance
JP2015223100A (ja) 情報処理装置、植物体管理システム、状態管理作業検出方法および植物体管理方法
NL2028679B1 (en) A vision system for providing data related to the plant morphology of a plant using deep learning, as well as a corresponding method.
US11983934B2 (en) Machine-learned obstruction detection in a farming machine
KR20170117738A (ko) 영상 센서를 활용한 농작업 장치 및 그 방법
JP2022190324A (ja) 収穫管理方法、収穫管理システム、及び収穫管理プログラム
WO2023214220A1 (en) Systems and methods for vision-based plant detection and scouting application technology
JP2022185955A (ja) 圃園管理装置並びにこれを用いた営農管理方法
JP2023102334A (ja) 作業管理方法、作業管理システム、及び作業管理プログラム
CN116456821A (zh) 田地地图生成系统、田地作业车、田地地图生成方法,田地地图生成程序以及记录介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination