WO2020203764A1 - Field work support system - Google Patents

Field work support system Download PDF

Info

Publication number
WO2020203764A1
WO2020203764A1 PCT/JP2020/014007 JP2020014007W WO2020203764A1 WO 2020203764 A1 WO2020203764 A1 WO 2020203764A1 JP 2020014007 W JP2020014007 W JP 2020014007W WO 2020203764 A1 WO2020203764 A1 WO 2020203764A1
Authority
WO
WIPO (PCT)
Prior art keywords
worker
image
work support
work
support system
Prior art date
Application number
PCT/JP2020/014007
Other languages
French (fr)
Japanese (ja)
Inventor
真人 仲村柄
良一 植田
大介 勝又
Original Assignee
株式会社日立システムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立システムズ filed Critical 株式会社日立システムズ
Priority to CN202080016211.8A priority Critical patent/CN113519012A/en
Priority to JP2021511995A priority patent/JP7039766B2/en
Publication of WO2020203764A1 publication Critical patent/WO2020203764A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/05Agriculture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Agronomy & Crop Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Husbandry (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Environmental Sciences (AREA)
  • Biomedical Technology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Provided is a structure which can suitably support field work such as agriculture. This field work support system is provided with: a worker's terminal 1 which is mounted on or carried by a worker W1; and a server 2. The worker's terminal 1 acquires first data including a first image captured of an object to be worked 3 including crops in a view field of the worker W1 by using a camera 6. The worker's terminal 1 or a calculator system 2 takes the first data as an input, recognizes a state of an object to be worked 3 on the basis of second data to which learning about a second image of the object to be worked 3 is reflected, and acquires third data for supporting work on the basis of the recognized result. The worker's terminal 1 performs, as an output for supporting the work for the worker 1 on the basis of the third data, an output including an output for conveying the presence of the object to be worked 3 within the first image associated with the view field.

Description

現場作業支援システムOn-site work support system
 本発明は、情報処理システム等の技術に関し、特に、農業を含む現場の作業を支援するための技術に関する。 The present invention relates to a technique such as an information processing system, and more particularly to a technique for supporting on-site work including agriculture.
 農業の現場、例えば農作物(対象物、作業対象物、等と記載する場合がある)が栽培される圃場(例えばビニールハウス)等の現場では、作業者によって、例えばトマト等の農作物を収穫する作業、および収穫した農作物を出荷する作業等が行われている。社会的課題として、農業等の現場における作業者の不足、作業者のスキルや経験等の不足、作業の負担や効率等がある。そこで、AI(人工知能)等を含むIT技術を用いて農業等の現場の作業を支援するための仕組みが検討されている。 At agricultural sites, for example, fields where agricultural products (sometimes referred to as objects, work objects, etc.) are cultivated (for example, greenhouses), the work of harvesting agricultural products such as tomatoes by workers. , And the work of shipping the harvested agricultural products is being carried out. Social issues include a shortage of workers in the field such as agriculture, a lack of skills and experience of workers, and a burden and efficiency of work. Therefore, a mechanism for supporting on-site work such as agriculture by using IT technology including AI (artificial intelligence) is being studied.
 また、近年では、スマートフォンやスマートウォッチ等の他、スマートグラスを含むヘッドマウントディスプレイ(HMD)等の技術が進展している。そこで、HMD等の装置(スマートデバイス)を用いて、現場の作業を支援するための仕組みも検討されている。 In recent years, in addition to smartphones and smart watches, technologies such as head-mounted displays (HMDs) including smart glasses have been developed. Therefore, a mechanism for supporting on-site work by using a device (smart device) such as an HMD is also being studied.
 上記に係わる先行技術例として、特許第6267841号公報(特許文献1)が挙げられる。特許文献1には、ウェアラブル端末表示システム等として、ウェアラブル端末の表示板に農作物の収穫時期を表示する旨が記載されている。 As an example of the prior art related to the above, Japanese Patent No. 6267841 (Patent Document 1) can be mentioned. Patent Document 1 describes that, as a wearable terminal display system or the like, the harvest time of agricultural products is displayed on the display board of the wearable terminal.
特許第6267841号公報Japanese Patent No. 6267841
 農業等の現場において、収穫や出荷の作業を行う作業者が、熟練者ではなく、未習熟者や低熟練者である場合、どの農作物を収穫や出荷すべきか等について判断しにくい場合があり、作業に難しさがある場合がある。作業者の作業の負担が大きく、作業の効率がよくない。就労者の人手不足、熟練者の不足、未習熟者への教育コスト等の課題もある。本発明は、AIおよびスマートデバイス等を含むIT技術を用いて、農業等の現場の作業を好適に支援することができる仕組みを提供する。 In the field of agriculture, etc., if the workers who perform the harvesting and shipping work are not skilled but unskilled or low-skilled, it may be difficult to determine which crop should be harvested or shipped. There may be difficulty in working. The work load on the worker is heavy, and the work efficiency is not good. There are also issues such as labor shortage of workers, shortage of skilled workers, and education cost for inexperienced people. The present invention provides a mechanism capable of suitably supporting on-site work such as agriculture by using IT technology including AI and smart devices.
 本発明のうち代表的な実施の形態は、以下に示す構成を有する。一実施の形態の現場作業支援システムは、農業を含む現場の作業を支援するための現場作業支援システムであって、作業者に装着または携帯される作業者端末を備え、前記作業者端末は、カメラを用いて前記作業者の視界における農作物を含む作業対象物を撮影した第1画像を含む第1データを取得し、前記作業者端末または前記作業者端末に接続される計算機システムは、前記第1データを入力として、前記作業対象物の第2画像の学習が反映された第2データに基づいて前記作業対象物の状態を認識し、認識結果に基づいて前記作業を支援するための第3データを取得し、前記作業者端末は、前記第3データに基づいて前記作業者に対し前記作業を支援するための出力として、前記視界に対応付けられる前記第1画像内に前記作業対象物が有ること、を伝える出力を含む出力を行う。 A typical embodiment of the present invention has the following configuration. The on-site work support system of one embodiment is a on-site work support system for supporting on-site work including agriculture, and includes a worker terminal attached or carried by a worker, and the worker terminal is A computer system that acquires first data including a first image of a work object including an agricultural product in the worker's field of view using a camera and is connected to the worker terminal or the worker terminal is the first. A third for recognizing the state of the work object based on the second data reflecting the learning of the second image of the work object and supporting the work based on the recognition result by inputting one data. The worker terminal acquires the data, and the worker terminal has the work object in the first image associated with the field of view as an output for supporting the work to the worker based on the third data. Output including output that tells you that there is.
 本発明のうち代表的な実施の形態によれば、AIおよびスマートデバイス等を含むIT技術を用いて、農業等の現場の作業を好適に支援することができ、例えば営農のコストを低減し、効率を向上でき、未習熟者でも収穫や出荷の作業を容易に行うことができる。 According to a typical embodiment of the present invention, IT technology including AI and a smart device can be used to suitably support on-site work such as agriculture, for example, reducing the cost of farming. Efficiency can be improved, and even inexperienced people can easily perform harvesting and shipping operations.
本発明の実施の形態1の現場作業支援システムの構成を示す図である。It is a figure which shows the structure of the field work support system of Embodiment 1 of this invention. 実施の形態1で、作業者端末の機能ブロック構成を示す図である。It is a figure which shows the functional block composition of the worker terminal in Embodiment 1. FIG. 実施の形態1で、上位システムとの連携を含むシステム構成例等を示す図である。It is a figure which shows the system configuration example including cooperation with a higher-order system in Embodiment 1. FIG. 実施の形態1で、作業支援機能の処理概要等を示す図である。It is a figure which shows the processing outline, etc. of the work support function in Embodiment 1. FIG. 実施の形態1で、予測支援機能の処理概要等を示す図である。It is a figure which shows the processing outline of the prediction support function, etc. in Embodiment 1. FIG. 実施の形態1で、病害虫判別支援機能の処理概要等を示す図である。It is a figure which shows the processing outline, etc. of the pest discrimination support function in Embodiment 1. FIG. 実施の形態1の変形例における、作業支援機能の処理概要等を示す図である。It is a figure which shows the processing outline and the like of the work support function in the modification of Embodiment 1. 実施の形態1で、成熟度の規定例を示す図である。It is a figure which shows the regulation example of the maturity degree in Embodiment 1. 実施の形態1で、トマトの色見本の例を示す図である。It is a figure which shows the example of the color sample of tomato in Embodiment 1. FIG. 実施の形態1で、きゅうりの型見本の例を示す図である。It is a figure which shows the example of the cucumber mold sample in Embodiment 1. 実施の形態1で、AI機能に関する構成を示す図である。It is a figure which shows the structure about the AI function in Embodiment 1. FIG. 実施の形態1で、認識結果の例を示す図である。It is a figure which shows the example of the recognition result in Embodiment 1. FIG. 実施の形態1で、収穫作業支援表示の第1例を示す図である。It is a figure which shows the 1st example of the harvesting work support display in Embodiment 1. 実施の形態1で、収穫作業支援表示の第2例を示す図である。It is a figure which shows the 2nd example of the harvesting work support display in Embodiment 1. 実施の形態1で、収穫作業支援表示の第3例を示す図である。It is a figure which shows the 3rd example of the harvesting work support display in Embodiment 1. 実施の形態1で、収穫作業支援表示の第4例を示す図である。It is a figure which shows the 4th example of the harvesting work support display in Embodiment 1. 実施の形態1で、収穫作業支援表示の第5例を示す図である。It is a figure which shows the 5th example of the harvesting work support display in Embodiment 1. 実施の形態1で、収穫作業支援表示の第6例を示す図である。It is a figure which shows the sixth example of the harvesting work support display in Embodiment 1. 実施の形態1で、出荷作業支援の際の画像例を示す図である。It is a figure which shows the image example at the time of shipping work support in Embodiment 1. 実施の形態1で、出荷作業支援表示の第1例を示す図である。It is a figure which shows the 1st example of the shipping work support display in Embodiment 1. FIG. 実施の形態1で、出荷作業支援表示の第2例を示す図である。It is a figure which shows the 2nd example of the shipping work support display in Embodiment 1. FIG. 実施の形態1で、圃場の俯瞰の構成例を示す図である。FIG. 5 is a diagram showing a configuration example of a bird's-eye view of a field in the first embodiment. 実施の形態1の変形例における、圃場の俯瞰の構成例を示す図である。It is a figure which shows the composition example of the bird's-eye view of a field in the modification of Embodiment 1. 本発明の実施の形態2の現場作業支援システムにおける、実績検出部の構成を示す図である。It is a figure which shows the structure of the performance detection part in the field work support system of Embodiment 2 of this invention. 実施の形態2で、画像例その1を示す図である。It is a figure which shows the image example 1 in Embodiment 2. 実施の形態2で、画像例その2を示す図である。It is a figure which shows the image example 2 in Embodiment 2. 実施の形態2で、画像例その3を示す図である。It is a figure which shows the image example 3 in Embodiment 2. 実施の形態2で、画像例その4を示す図である。It is a figure which shows the image example 4 in Embodiment 2. 実施の形態2で、画像例その5を示す図である。It is a figure which shows the image example 5 in Embodiment 2. 実施の形態2の変形例における被収穫判定部の構成を示す図である。It is a figure which shows the structure of the harvested determination part in the modification of Embodiment 2. 実施の形態2の変形例における相対位置関係の模式図である。It is a schematic diagram of the relative positional relationship in the modified example of Embodiment 2.
 以下、本発明の実施の形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
 (実施の形態1)
 図1~図23を用いて、本発明の実施の形態1の現場作業支援システムについて説明する。
(Embodiment 1)
The field work support system according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 23.
 [現場作業支援システム]
 実施の形態の現場作業支援システムは、主に、作業者端末1と、サーバ2(サーバ2を含む計算機システム)とを有する。本システムを利用する人としては、作業者W1、指示者W2がいる。作業者W1は、スマートデバイス(言い換えると可搬型情報機器)である作業者端末1を使用する。作業者端末1は、現場で作業者W1が使用する携帯端末1Aやウェアラブル端末1Bである。作業者W1は、携帯端末1Aを携帯するか、ウェアラブル端末1Bを装着する。作業者W1は、携帯端末1Aとウェアラブル端末1Bの一方または両方を使用する。携帯端末1Aは、例えばスマートフォンやタブレット端末である。ウェアラブル端末1Bは、例えばスマートウォッチやスマートグラスを含むHMDである。作業者端末1は、作業支援機能41を備える。作業支援機能41は、サーバ2の機能との連携で、作業者W1に対し作業支援情報を出力する機能である。
[Field work support system]
The field work support system of the embodiment mainly includes a worker terminal 1 and a server 2 (a computer system including the server 2). The person who uses this system includes a worker W1 and an instructor W2. The worker W1 uses a worker terminal 1 which is a smart device (in other words, a portable information device). The worker terminal 1 is a mobile terminal 1A or a wearable terminal 1B used by the worker W1 in the field. The worker W1 carries the mobile terminal 1A or wears the wearable terminal 1B. The worker W1 uses one or both of the mobile terminal 1A and the wearable terminal 1B. The mobile terminal 1A is, for example, a smartphone or a tablet terminal. The wearable terminal 1B is an HMD including, for example, a smart watch or smart glasses. The worker terminal 1 includes a work support function 41. The work support function 41 is a function that outputs work support information to the worker W1 in cooperation with the function of the server 2.
 作業者W1は、農業等の現場、例えば圃場(ビニールハウス等)において、農作業として農作物の収穫作業や出荷作業を行う就労者である。作業者W1は、外国人就労者や学生でもよい。作業者W1は、熟練者でもよい。指示者W2は、作業者W1に対して農作業に係わる指示を行う人であり、例えば営農家における雇用者、あるいはJA(農業協同組合)等の人である。作業対象物3は、農作物であり、作業支援の対象物であり、具体例はトマトやきゅうりである。 Worker W1 is a worker who performs harvesting work and shipping work of agricultural products as agricultural work at a site such as agriculture, for example, a field (vinyl house, etc.). The worker W1 may be a foreign worker or a student. The worker W1 may be an expert. The instructor W2 is a person who gives an instruction related to agricultural work to the worker W1, for example, an employer in a farm farm or a person such as JA (agricultural cooperative). The work object 3 is an agricultural product, an object of work support, and specific examples are tomatoes and cucumbers.
 なお、JAは、営農の指導、管理、サポート、購買等の事業を行っている。JAは、各農家の各農産物の収穫や出荷の状態(実績や予測等)をなるべく高精度に把握したい。しかしながら、従来では、JAは、そのための手間やコストが大きくかかっている。 JA is engaged in farming guidance, management, support, purchasing, etc. JA wants to grasp the harvesting and shipping conditions (actual results, forecasts, etc.) of each agricultural product of each farmer with as high accuracy as possible. However, conventionally, JA requires a great deal of labor and cost for that purpose.
 本システムは、作業者W1のスマートデバイス(作業者端末1)を用いて、作業者W1による作業を支援する。作業者W1は、作業者端末1を介して作業対象物3を見る。作業者端末1は、作業対象物3を含む画像を撮影する。本システムは、作業者端末1の画像を取得して、作業支援に用いる。本システムは、作業者端末1の画像を通じて、作業対象物3の状態をリアルタイムで判断し、作業誘導等の作業支援を提供する。本システムは、作業者端末1を通じて作業者W1に対し作業支援情報を出力する。出力は、画像表示に限らず、音声出力、振動や光による出力を含む。 This system uses the smart device of the worker W1 (worker terminal 1) to support the work by the worker W1. The worker W1 sees the work object 3 through the worker terminal 1. The worker terminal 1 captures an image including the work object 3. This system acquires an image of the worker terminal 1 and uses it for work support. This system determines the state of the work object 3 in real time through the image of the worker terminal 1 and provides work support such as work guidance. This system outputs work support information to the worker W1 through the worker terminal 1. The output is not limited to image display, but includes audio output, vibration and light output.
 本システムは、少なくとも、農作物(特に青果)の選別を含む収穫作業や出荷作業の際に適用できる。選別とは、例えば、農作物についての成熟度、等級、実寸、形状、病虫害の状態等の判断や選別である。出力する作業支援情報は、少なくとも、作業者W1の視界に見える農作物について、収穫が可能か否かの区別、あるいは収穫すべきか否かの区別等の、収穫支援情報(言い換えると収穫対象指示情報、収穫対象判別支援情報等)を含む。 This system can be applied at least during harvesting work and shipping work including selection of agricultural products (especially fruits and vegetables). Sorting is, for example, judgment and sorting of maturity, grade, actual size, shape, state of pests and diseases, etc. of agricultural products. The output work support information is at least harvest support information (in other words, harvest target instruction information, such as whether or not harvesting is possible or whether or not harvesting should be performed for agricultural products that can be seen by worker W1. Harvest target discrimination support information, etc.) is included.
 本システムは、作業者W1が作業者端末1を携帯または装着するだけで容易に使用できる。作業者W1が、熟練者ではなく、作業のスキルや経験が低い未習熟者(初心者、低習熟者等)である場合でも、作業支援に従って、容易に収穫や出荷の作業ができる。本システムは、上記作業支援によって、熟練者のスキル・経験・ノウハウ等を、未習熟者に対し効率的に提供し、教育を図ることができる。未習熟者は、作業に係わるスキル等を向上できる。 This system can be easily used by the worker W1 simply by carrying or wearing the worker terminal 1. Even if the worker W1 is not an expert but an inexperienced person (beginner, low-experienced person, etc.) with low work skills and experience, the harvesting and shipping work can be easily performed according to the work support. With the above work support, this system can efficiently provide the skills, experience, know-how, etc. of skilled workers to inexperienced people and promote education. Inexperienced people can improve their work skills.
 本システムは、作業に係わる熟練者のスキル・経験等を、AI機能20によって学習として実装および反映し、作業者W1に作業支援として提供する。本システムは、作業者端末1と連携するサーバ2等の計算機システムにおいてAI機能20等を有する。AI機能20は、画像解析や機械学習等を含む機能である。AI機能20の例としては、深層学習等の機械学習を用いる。AI機能20は、作業対象物3の画像データを入力して機械学習を行う。画像は、作業者端末1のカメラで実際に農作物を撮影した画像でもよいし、後述の色見本等の画像でもよい。AI機能20は、入力画像を学習することで、認識に係わる学習モデルを更新する。 This system implements and reflects the skills and experience of skilled workers involved in the work as learning by the AI function 20, and provides the worker W1 as work support. This system has an AI function 20 and the like in a computer system such as a server 2 that cooperates with the worker terminal 1. The AI function 20 is a function including image analysis, machine learning, and the like. As an example of the AI function 20, machine learning such as deep learning is used. The AI function 20 inputs image data of the work object 3 and performs machine learning. The image may be an image of an actual crop taken by the camera of the worker terminal 1, or an image of a color sample or the like described later. The AI function 20 updates the learning model related to recognition by learning the input image.
 AI機能20は、入力画像から、画像内に写っている農作物の成熟度等の状態を認識し、認識結果を出力する。作業者端末1は、AI機能の認識結果を用いて、作業者W1に対し、作業支援情報、例えば収穫作業支援情報を出力する。作業者端末1は、例えば収穫対象物を表す画像を表示面5に表示する。作業者W1は、この作業支援情報に従って、収穫等の作業を容易に行うことができる。 The AI function 20 recognizes the state such as the maturity of the crops shown in the image from the input image, and outputs the recognition result. The worker terminal 1 outputs work support information, for example, harvest work support information to the worker W1 by using the recognition result of the AI function. The worker terminal 1 displays, for example, an image representing a harvested object on the display surface 5. The worker W1 can easily perform work such as harvesting according to this work support information.
 スマートフォン等の携帯端末1Aは、タッチパネル等の表示面5、およびカメラ6等を備える。カメラ6は、インカメラ61やアウトカメラ62がある。作業者W1は、カメラ6を用いて作業対象物3を撮影する。携帯端末1Aの表示面5には、作業支援情報等が表示される。また、携帯端末1Aは、作業支援情報に対応する音声をスピーカから出力し、作業支援情報に対応する振動や光を制御する。 A mobile terminal 1A such as a smartphone includes a display surface 5 such as a touch panel, a camera 6, and the like. The camera 6 includes an in-camera 61 and an out-camera 62. The worker W1 uses the camera 6 to take a picture of the work object 3. Work support information and the like are displayed on the display surface 5 of the mobile terminal 1A. Further, the mobile terminal 1A outputs the voice corresponding to the work support information from the speaker, and controls the vibration and the light corresponding to the work support information.
 HMD等のウェアラブル端末1Bは、表示面5およびカメラ6等を備える。カメラ6は、視線検出用のカメラや測距センサ用のカメラ等を含む。ウェアラブル端末1Bは、HMD等の場合には、本体と通信する操作器9も付属する。作業者W1は、操作器9を手に持って操作することもできる。表示面5は、透過型でもよいし、非透過型(VRタイプ)でもよい。HMDの表示面5は、ユーザの視界の範囲に対応し、現実空間の作業対象物3の実像上に、作業支援情報に対応するAR等による画像(仮想画像等と記載する場合がある)が重畳表示される。 The wearable terminal 1B such as an HMD includes a display surface 5 and a camera 6 and the like. The camera 6 includes a camera for detecting the line of sight, a camera for a distance measuring sensor, and the like. In the case of an HMD or the like, the wearable terminal 1B also includes an actuator 9 that communicates with the main body. The operator W1 can also operate by holding the actuator 9 in his hand. The display surface 5 may be a transparent type or a non-transparent type (VR type). The display surface 5 of the HMD corresponds to the range of the user's field of view, and an image by AR or the like (may be described as a virtual image or the like) corresponding to the work support information is displayed on the real image of the work object 3 in the real space. It is superimposed and displayed.
 事業者のサーバ2、DB、およびPC等を含む計算機システムは、管理機能40やAI機能20を備える。管理機能40は、ユーザである複数の作業者W1や指示者W2、および複数の圃場等の現場について、情報を登録し、管理する機能である。例えば、ある営農家が複数の作業者W1や複数の圃場を有する場合には、管理機能40は、それらの情報をまとめて管理する。本システムは、例えば通信網上のデータセンタやクラウドコンピューティングシステム等のサーバ2等で実装できる。作業者端末1は、通信網を介してサーバ2等と通信し連携する。サーバ2等は、各ユーザのデータを管理、集積、共有等し、各現場および各作業者W1に対する支援を行う。本システムは、作業者端末1とサーバ2等を含む計算機システムとで処理を分担する。分担の形態は各種が可能であり、実施の形態1では一例を示す。実施の形態1では、特に、計算処理負荷が比較的大きいAI機能20の処理について計算機システムが担当する。 The computer system including the server 2, DB, PC, etc. of the business operator has a management function 40 and an AI function 20. The management function 40 is a function for registering and managing information about sites such as a plurality of workers W1 and an instructor W2 who are users, and a plurality of fields. For example, when a farmer has a plurality of workers W1 and a plurality of fields, the management function 40 collectively manages the information. This system can be implemented, for example, in a server 2 such as a data center on a communication network or a cloud computing system. The worker terminal 1 communicates with and cooperates with the server 2 and the like via the communication network. The server 2 and the like manage, collect, and share the data of each user, and provide support to each site and each worker W1. This system shares the processing between the worker terminal 1 and the computer system including the server 2 and the like. Various forms of sharing are possible, and an example is shown in the first embodiment. In the first embodiment, the computer system is in charge of the processing of the AI function 20 having a relatively large calculation processing load.
 本システムは、作業者端末1を通じて画像に基づいて、収穫や出荷の作業支援だけでなく、後述の他の支援も行う。本システムは、他の支援として、農作物の病害虫の状態の検知や対処支援を行う。本システムは、支援情報として、病害虫判別支援情報、農薬散布判断情報等を提供する。また、本システムは、他の支援として、農作物の収穫量(または出荷量)の予測を支援する。本システムは、支援情報として、収穫見込量等の予測情報を提供する。 This system not only supports harvesting and shipping work, but also provides other support described later, based on images through the worker terminal 1. As other support, this system provides support for detecting and coping with the status of pests in crops. This system provides pest discrimination support information, pesticide spraying judgment information, etc. as support information. In addition, this system supports the prediction of crop yield (or shipment) as another support. This system provides forecast information such as expected harvest amount as support information.
 [作業者端末1]
 図2は、作業者端末1の機能ブロック構成を示す。本例では、作業者端末1がスマートグラスを含むHMDである場合を示す。作業者端末1は、プロセッサ101、メモリ102、表示デバイス50、カメラ6、センサ7、通信デバイス80、マイク81、スピーカ82、操作ボタン83、バッテリ84を備え、これらはバス等を介して相互に接続されている。作業者端末1は、操作器9を含み、通信デバイス80と操作器9とで通信を行う。
[Worker terminal 1]
FIG. 2 shows a functional block configuration of the worker terminal 1. In this example, the case where the worker terminal 1 is an HMD including smart glasses is shown. The worker terminal 1 includes a processor 101, a memory 102, a display device 50, a camera 6, a sensor 7, a communication device 80, a microphone 81, a speaker 82, an operation button 83, and a battery 84, which are mutually connected via a bus or the like. It is connected. The worker terminal 1 includes an operating device 9 and communicates with the communication device 80 and the operating device 9.
 プロセッサ101は、作業者端末1の全体および各部を制御する。作業者端末1は、プロセッサ101を含むハードウェアおよびソフトウェアを用いて構成される処理部として、撮影部11、対象物認識部12、対象選択部13、表示制御部14、音声通知部15、振動通知部16、光通知部17等を有する。 The processor 101 controls the entire worker terminal 1 and each part. The worker terminal 1 is a processing unit configured by using hardware and software including a processor 101, which includes a photographing unit 11, an object recognition unit 12, a target selection unit 13, a display control unit 14, a voice notification unit 15, and vibration. It has a notification unit 16, an optical notification unit 17, and the like.
 メモリ102には、プロセッサ101が扱うデータや情報が記憶されている。メモリ102には、制御プログラム110、アプリケーションプログラム120、設定情報130、撮影画像データ140、仮想画像データ(言い換えると作業支援データ)150等が格納されている。制御プログラム110は、作業支援機能41等を実現するプログラムである。アプリケーションプログラム120は、HMDに元々備える各種のプログラムである。設定情報130は、システム設定情報やユーザ設定情報である。撮影画像データ140は、カメラ6で撮影した画像のデータである。仮想画像データ150は、表示面5に作業支援情報の画像を表示するためのデータである。 Data and information handled by the processor 101 are stored in the memory 102. The memory 102 stores a control program 110, an application program 120, setting information 130, captured image data 140, virtual image data (in other words, work support data) 150, and the like. The control program 110 is a program that realizes the work support function 41 and the like. The application program 120 is various programs originally provided in the HMD. The setting information 130 is system setting information and user setting information. The captured image data 140 is data of an image captured by the camera 6. The virtual image data 150 is data for displaying an image of work support information on the display surface 5.
 表示デバイス50は、例えば、投射型表示デバイスであり、表示面5を構成するレンズ面に対し画像を投射表示する。なお、投射型表示デバイスに限らず適用可能である。表示デバイス50は、携帯端末1Aの場合にはタッチパネル等である。カメラ6は、ユーザである作業者W1の視界の正面方向を撮影する1個以上のカメラを含む。カメラ6は、視線検出センサを構成するカメラや、測距センサを構成するカメラを含む。センサ7は、公知のGPS受信機、地磁気センサ、加速度センサ、ジャイロセンサ等が挙げられる。作業者端末1は、センサ7の検出情報を用いて、作業者端末1または作業者W1の位置、方向、加速度等を検出し、制御に利用する。 The display device 50 is, for example, a projection type display device, and projects and displays an image on a lens surface constituting the display surface 5. It is applicable not only to the projection type display device. The display device 50 is a touch panel or the like in the case of the mobile terminal 1A. The camera 6 includes one or more cameras that capture the front direction of the field of view of the user W1. The camera 6 includes a camera that constitutes a line-of-sight detection sensor and a camera that constitutes a distance measuring sensor. Examples of the sensor 7 include known GPS receivers, geomagnetic sensors, acceleration sensors, gyro sensors, and the like. The worker terminal 1 detects the position, direction, acceleration, etc. of the worker terminal 1 or the worker W1 by using the detection information of the sensor 7, and uses it for control.
 通信デバイス80は、各種の通信インタフェースに対応し、サーバ2との無線通信や操作器9との近距離通信等を行う部分である。マイク81は、複数のマイクを含んでもよく、音声を入力し録音する音声入力装置である。スピーカ82は、複数のスピーカを含んでもよく、音声を出力する音声出力装置である。操作ボタン83は、作業者W1の入力操作を受け付ける。バッテリ84は、充電に基づいて各部に電力を供給する。 The communication device 80 is a part that supports various communication interfaces and performs wireless communication with the server 2 and short-range communication with the actuator 9. The microphone 81 may include a plurality of microphones, and is a voice input device for inputting and recording voice. The speaker 82 may include a plurality of speakers, and is an audio output device that outputs audio. The operation button 83 receives the input operation of the worker W1. The battery 84 supplies electric power to each part based on charging.
 [システム構成例および各機能]
 図3は、図1の実施の形態1の現場作業視線システムと上位システムとの連携を含むシステム構成例、および上位システムの各機能の構成概要について示す。図3のシステム構成例は、作業者端末1およびサーバ2に加え、指示システム201、予測システム202、および生育管理システム203を有する。指示システム201、予測システム202、および生育管理システム203の構成内容については特に限定しない。図3の構成例は、事業者のサーバ2を含む計算機システムにおいて、指示システム201、予測システム202、および生育管理システム203が実装されている場合を示す。言い換えると、計算機システムに指示システム201等が内蔵されている。これに限らず、サーバ2を含む計算機システムに対し、外部に指示システム201等の上位システムが通信で接続されてもよい。
[System configuration example and each function]
FIG. 3 shows an example of a system configuration including cooperation between the field work line-of-sight system and the host system according to the first embodiment of FIG. 1, and an outline of the configuration of each function of the host system. The system configuration example of FIG. 3 has an instruction system 201, a prediction system 202, and a growth management system 203 in addition to the worker terminal 1 and the server 2. The components of the instruction system 201, the prediction system 202, and the growth management system 203 are not particularly limited. The configuration example of FIG. 3 shows a case where the instruction system 201, the prediction system 202, and the growth management system 203 are implemented in the computer system including the server 2 of the business operator. In other words, the computer system includes an instruction system 201 and the like. Not limited to this, a higher-level system such as the instruction system 201 may be externally connected to the computer system including the server 2 by communication.
 指示システム201は、収穫指示システムや出荷指示システムを含む。指示システム201は、指示者W2からの作業指示の入力を受け付ける。その作業指示は、例えば収穫作業指示として、成熟度の指定あるいは等級の指定等を伴う指示である。指示システム201は、指示者W2からの作業指示に基づいて、作業支援機能41に対する作業指示を構成して与える。その作業指示は、作業支援情報のための表示対象情報を含む。例えば、成熟度の指定がある場合に、表示対象情報は、指定された成熟度に該当する収穫対象物を表す情報である。 The instruction system 201 includes a harvest instruction system and a shipping instruction system. The instruction system 201 receives an input of a work instruction from the instructor W2. The work instruction is, for example, an instruction accompanied by designation of maturity or grade as a harvesting work instruction. The instruction system 201 configures and gives a work instruction to the work support function 41 based on the work instruction from the instructor W2. The work instruction includes display target information for work support information. For example, when the maturity level is specified, the display target information is information representing the harvested object corresponding to the specified maturity level.
 本システムでは、現場の作業者W1以外の人を指示者W2として、本システム(例えばサーバ2または作業者端末1)に対し作業指示を行うことができ、その作業指示に合わせた作業支援情報(または作業指示情報)を生成し出力することができる。この作業支援情報(または作業指示情報)は、例えば収穫対象物を直接的に指定する情報である。上位の指示者W2からの作業指示は、例えば収穫対象物を間接的に表現する情報であり、例えば成熟度等を指定する情報である。ある成熟度が指定された場合、その成熟度の状態に該当する全農作物が収穫対象ということになる。このような作業指示は、出荷作業時に等級や実寸等を指定する場合にも同様に適用できる。本システムは、指示システム201を通じて、指示者W2からの作業指示に合わせた収穫対象指示等を作業支援として行うことができ、これにより、現場で作業者W1が収穫等を迷わないように、または迷い難くすることができる。 In this system, a person other than the on-site worker W1 can be used as the instructor W2 to give work instructions to this system (for example, server 2 or worker terminal 1), and work support information (work support information according to the work instructions). Alternatively, work instruction information) can be generated and output. This work support information (or work instruction information) is, for example, information that directly specifies a harvest target. The work instruction from the higher-level instructor W2 is, for example, information that indirectly expresses the harvested object, and is information that specifies, for example, the degree of maturity. If a certain maturity is specified, all crops corresponding to that maturity state will be harvested. Such work instructions can be similarly applied when a grade, actual size, or the like is specified at the time of shipping work. Through the instruction system 201, this system can give a harvest target instruction or the like in accordance with the work instruction from the instructor W2 as work support, so that the worker W1 does not hesitate to harvest or the like at the site. It can be hard to get lost.
 作業支援機能41は、より詳しくは、収穫作業支援機能41Aと出荷作業支援機能41Bとを含む。収穫作業支援機能41Aは、収穫作業時に支援を出力する機能である。出荷作業支援機能41Bは、出荷作業時に支援を出力する機能である。作業支援機能41は、指示システム201からの作業指示情報に従って、作業支援情報を出力する。例えば、作業支援機能41は、作業支援の画像を表示面5に表示する。この画像は、作業対象を表す画像や、選別支援のための画像である。作業支援機能41は、作業者端末1の位置等も把握する。 More specifically, the work support function 41 includes a harvest work support function 41A and a shipping work support function 41B. The harvesting work support function 41A is a function that outputs support during the harvesting work. The shipping work support function 41B is a function that outputs support during shipping work. The work support function 41 outputs work support information according to the work instruction information from the instruction system 201. For example, the work support function 41 displays a work support image on the display surface 5. This image is an image showing a work target and an image for sorting support. The work support function 41 also grasps the position of the worker terminal 1.
 予測システム202は、収穫見込量や出荷見込量等を予測するシステムである。予測システム202は、収穫予測システムおよび出荷予測システムを含む。作業者端末1は、予測支援機能42を備える。予測支援機能42は、予測システム202と連携する。予測支援機能42は、作業支援機能41で処理された認識結果等の情報を利用し、現在時点の対象物の数量(例えば成熟度毎の数量)等の情報を、予測システム202に送信する。予測システム202は、その情報を用いて、収穫見込量等を予測し、予測結果である予測情報を出力する。予測システム202は、予測情報を例えば指示者W2またはJA等のシステムに対し出力する。また、予測システム202は、予測情報を作業者端末1に応答してもよい。予測支援機能42は、その予測情報を収穫予測として表示面5に出力してもよい。 The prediction system 202 is a system that predicts the expected harvest amount, the expected shipment amount, and the like. The forecasting system 202 includes a harvest forecasting system and a shipping forecasting system. The worker terminal 1 includes a prediction support function 42. The prediction support function 42 cooperates with the prediction system 202. The prediction support function 42 uses information such as the recognition result processed by the work support function 41, and transmits information such as the quantity of the object at the present time (for example, the quantity for each maturity) to the prediction system 202. The prediction system 202 uses the information to predict the expected harvest amount and the like, and outputs the prediction information which is the prediction result. The prediction system 202 outputs the prediction information to a system such as the instructor W2 or JA. Further, the prediction system 202 may respond to the worker terminal 1 with the prediction information. The prediction support function 42 may output the prediction information as a harvest prediction on the display surface 5.
 予測支援システム42は、認識結果における現在時点の対象物の数量(認識量)等の情報を用いて、所定の処理を行うことで、収穫実績等を把握してもよい。本システムは、作業支援を伴う農作物の収穫や出荷の作業に伴い、対象物の数量がわかるため、収穫や出荷の実績を情報として計測できる。本システムは、その実績情報を記録し、上位システムまたは指示者W2等に出力してもよい。 The prediction support system 42 may grasp the harvest record or the like by performing a predetermined process using information such as the quantity (recognition amount) of the object at the present time in the recognition result. Since this system knows the quantity of objects in the work of harvesting and shipping agricultural products with work support, it is possible to measure the actual results of harvesting and shipping as information. This system may record the performance information and output it to a higher system or an instructor W2 or the like.
 生育管理システム203は、圃場の農作物の生育管理を行うシステムである。生育管理システム203は、病害虫判断システムおよび農薬散布判断システムを含む。作業者端末1は、病害虫判別支援機能43を備える。病害虫判別支援機能43は、生育管理システム203と連携する。病害虫判別支援機能43は、作業支援機能41で処理された認識結果等の情報を利用し、対象物の病害虫の状態に関する情報を、生育管理システム203に送信する。生育管理システム203は、その情報を用いて、農薬散布や施肥や除去等の対処を判断し、対処情報を出力する。対処情報は、例えば農薬散布指示情報を含む。生育管理システム203は、対処情報を例えば指示者W2またはJA等のシステムに対し出力する。生育管理システム203は、対処情報を作業者端末1に応答してもよい。作業者端末1は、病害虫の状態を表す作業支援情報を表示面5に対し出力する。また、作業者端末1は、生育管理システム203からの対処情報に基づいて、農薬散布指示等の作業支援情報を表示面5に対し出力する。なお、AI機能20の機械学習の学習モデルは、対象物の位置、成熟度、等級、および病害虫の状態等をまとめて認識(推定等)することが可能である。他の形態では、AI機能20は、成熟度や病害虫の状態毎に、別の機械学習の学習モデルを用いてもよい。 The growth management system 203 is a system for managing the growth of agricultural products in the field. The growth management system 203 includes a pest determination system and a pesticide application determination system. The worker terminal 1 includes a pest discrimination support function 43. The pest discrimination support function 43 cooperates with the growth management system 203. The pest discrimination support function 43 uses information such as the recognition result processed by the work support function 41 to transmit information on the state of the pest of the object to the growth management system 203. The growth management system 203 uses the information to determine countermeasures such as pesticide spraying, fertilization, and removal, and outputs countermeasure information. The coping information includes, for example, pesticide spraying instruction information. The growth management system 203 outputs coping information to a system such as the instructor W2 or JA. The growth management system 203 may respond to the worker terminal 1 with coping information. The worker terminal 1 outputs work support information indicating the state of pests to the display surface 5. Further, the worker terminal 1 outputs work support information such as a pesticide spraying instruction to the display surface 5 based on the coping information from the growth management system 203. The machine learning learning model of the AI function 20 can collectively recognize (estimate, etc.) the position, maturity, grade, state of pests, and the like of an object. In other forms, the AI function 20 may use different machine learning learning models for each maturity and pest state.
 [作業支援機能]
 図4は、作業者端末1とサーバ2との連携の構成における、作業支援機能41の処理概要を示す。作業者W1の作業に伴い、作業者端末1の撮影部11は、カメラ6を用いて、作業対象物3を撮影し、画像(対応する画像データ)を得る。画像は静止画や動画を含む。撮影部11は、画像を撮影画像データ140として格納する。撮影は、可視光による写真撮影である。また、作業者端末1は、撮影の際に、画像だけでなく、センサ7等を用いて、日時、位置、方向等の情報を取得する。位置は、例えばGPS受信器による測位で取得できる位置情報(例えば緯度および経度)であるが、これに限らず、他の測位手段で取得する位置としてもよい。方向は、作業者W1の正面方向、作業者端末1の正面方向、およびカメラ6の撮影方向等に対応し、例えば地磁気センサまたは視線検出センサで計測できる。
[Work support function]
FIG. 4 shows an outline of processing of the work support function 41 in the configuration of cooperation between the worker terminal 1 and the server 2. Along with the work of the worker W1, the photographing unit 11 of the worker terminal 1 photographs the work object 3 by using the camera 6 and obtains an image (corresponding image data). Images include still images and moving images. The photographing unit 11 stores the image as captured image data 140. The photography is a photography with visible light. Further, the worker terminal 1 acquires information such as a date and time, a position, and a direction by using not only an image but also a sensor 7 or the like at the time of shooting. The position is, for example, position information (for example, latitude and longitude) that can be acquired by positioning with a GPS receiver, but is not limited to this, and may be a position acquired by other positioning means. The direction corresponds to the front direction of the worker W1, the front direction of the worker terminal 1, the shooting direction of the camera 6, and the like, and can be measured by, for example, a geomagnetic sensor or a line-of-sight detection sensor.
 対象物認識部12は、撮影部11からの画像を受け取り、AI機能20を用いて、作業対象物3の状態に関する認識処理を行い、認識結果を得る。対象物認識部12に入力される画像データ(入力画像)は、画像のID、日時、位置、方向等の情報を伴う。対象物認識部12は、入力画像を要求と共にAI機能20に送信する。AI機能20は、計算機システムにおいて構成されている画像解析や機械学習のモジュールを含む。機械学習は、学習モデルを含み、例えば深層学習を使用する。AI機能20は、入力画像から認識処理を行い、認識結果を出力する。認識結果は、画像内での各対象物の位置、成熟度等の状態の情報を含む。AI機能20は、認識結果を含む応答を作業者端末1の対象物認識部12へ送信する。対象物認識部12は、認識結果を記憶し、対象選択部13へ渡す。 The object recognition unit 12 receives the image from the photographing unit 11, performs the recognition process regarding the state of the work object 3 by using the AI function 20, and obtains the recognition result. The image data (input image) input to the object recognition unit 12 includes information such as an image ID, date and time, position, and direction. The object recognition unit 12 transmits the input image to the AI function 20 together with the request. The AI function 20 includes an image analysis and machine learning module configured in a computer system. Machine learning includes learning models and uses, for example, deep learning. The AI function 20 performs recognition processing from the input image and outputs the recognition result. The recognition result includes information on the state such as the position and maturity of each object in the image. The AI function 20 transmits a response including the recognition result to the object recognition unit 12 of the worker terminal 1. The object recognition unit 12 stores the recognition result and passes it to the target selection unit 13.
 対象選択部13は、対象物認識部12の認識結果から、一部の情報を、表示対象として選択する。言い換えると、対象選択部13は、認識結果から、一部の情報を、抽出、限定、絞り込み、またはフィルタリング等を行う。対象選択部13は、認識結果の情報をすべて使用するのか、または一部の情報を使用するのか等を選択する。対象選択部13は、例えば、成熟度や等級を用いて選択を行うことができる。対象選択部13は、例えば、ユーザ設定またはユーザ指示に応じて選択を行うことができる。選択される一部の情報は、例えば、収穫対象物のみの収穫指示情報であり、その収穫指示情報は、例えば収穫対象物を表す画像を含み、非収穫対象物を表す画像を含まない。 The target selection unit 13 selects some information as a display target from the recognition result of the object recognition unit 12. In other words, the target selection unit 13 extracts, limits, narrows down, filters, or the like some information from the recognition result. The target selection unit 13 selects whether to use all the recognition result information or a part of the information. The target selection unit 13 can make a selection using, for example, a maturity level or a grade. The target selection unit 13 can select, for example, according to user settings or user instructions. Some of the information selected is, for example, harvest instruction information for only the harvest target, and the harvest instruction information includes, for example, an image representing the harvest target and does not include an image representing the non-harvest target.
 対象選択部13は、指示システム201からの作業指示がある場合には、その作業指示に従って選択を行う。対象選択部13は、指示システム201からの作業指示に基づいて、例えば収穫対象の成熟度に該当する対象物のみを通知できるように、認識結果からの選択を行う。指示システム201は、例えば指示者W2からの作業指示に対応する収穫対象情報を対象選択部13へ与える。この作業指示(収穫対象情報)は、例えば、収穫対象の成熟度の指定を含む収穫指示情報であり、例えば「収穫対象は成熟度3以上のトマト」等の情報である。他の例は「成熟度が1のトマトを収穫してください」等である。なお、指示者W2または指示システム201において指定される成熟度等は、任意の仕組みで決められる。一例は、出荷計画や受注情報等に基づいて、輸送距離等を考慮して、成熟度等が決められる。 When there is a work instruction from the instruction system 201, the target selection unit 13 selects according to the work instruction. The target selection unit 13 selects from the recognition result so that, for example, only the target corresponding to the maturity of the harvest target can be notified based on the work instruction from the instruction system 201. The instruction system 201 gives the target selection unit 13 the harvest target information corresponding to the work instruction from the instructor W2, for example. This work instruction (harvest target information) is, for example, harvest instruction information including designation of the maturity degree of the harvest target, for example, information such as "the harvest target is a tomato having a maturity of 3 or more". Another example is "harvest tomatoes with a maturity of 1". The maturity level or the like specified by the instructor W2 or the instructor system 201 is determined by an arbitrary mechanism. In one example, the maturity level is determined based on the shipping plan, order information, etc., in consideration of the transportation distance, etc.
 表示制御部14は、携帯端末1Aの場合には、撮影部11によって得た画像内に、対象選択部13からの選択結果の位置および成熟度等を表す画像(仮想画像)を描画する。表示制御部14は、ウェアラブル端末1Bの場合には、選択結果の位置および成熟度等を表す画像(仮想画像)を、表示面5において重畳表示する。 In the case of the mobile terminal 1A, the display control unit 14 draws an image (virtual image) representing the position and maturity of the selection result from the target selection unit 13 in the image obtained by the photographing unit 11. In the case of the wearable terminal 1B, the display control unit 14 superimposes and displays an image (virtual image) showing the position and maturity of the selection result on the display surface 5.
 また、表示制御部14と連携する処理部として、音声通知部15、振動通知部16、光通知部17を有する。音声通知部15は、作業支援のための音声をスピーカ82から出力する。振動通知部16は、作業支援のための振動を出力する。光通知部17は、作業支援のための発光を制御する。 Further, as a processing unit that cooperates with the display control unit 14, it has a voice notification unit 15, a vibration notification unit 16, and an optical notification unit 17. The voice notification unit 15 outputs voice for work support from the speaker 82. The vibration notification unit 16 outputs vibration for work support. The light notification unit 17 controls light emission for work support.
 [予測支援機能]
 図5は、作業者端末1とサーバ2との連携の構成における、予測支援機能42の処理概要を示す。特に、収穫見込量予測支援を行う場合を説明する。作業者端末1は、前述の撮影部11等に加え、対象圃場選択部21、認識結果集計部22、および認識結果送信部23を有する。対象圃場選択部21は、作業前に、収穫見込量予測のためのデータ収集を行う対象となる圃場(対応するエリア)を選択する。対象圃場選択部21は、サーバ2のDB250から圃場情報を参照することで、対象圃場を選択する。なお、サーバ2に対象圃場選択部21を有してもよい。DB250は、複数の営農者および複数の圃場等を対象としてデータ収集を行うためのDBであり、圃場一覧を含む圃場情報等が格納されている。
[Prediction support function]
FIG. 5 shows an outline of processing of the prediction support function 42 in the configuration of cooperation between the worker terminal 1 and the server 2. In particular, the case of providing support for predicting the expected harvest amount will be described. The worker terminal 1 has a target field selection unit 21, a recognition result aggregation unit 22, and a recognition result transmission unit 23, in addition to the above-mentioned photographing unit 11 and the like. The target field selection unit 21 selects a target field (corresponding area) for collecting data for predicting the expected harvest amount before the work. The target field selection unit 21 selects the target field by referring to the field information from the DB 250 of the server 2. The server 2 may have a target field selection unit 21. The DB 250 is a DB for collecting data for a plurality of farmers and a plurality of fields, and stores field information including a list of fields.
 撮影部11や対象物識別部12は、前述と同様の構成である。対象物識別部12は、入力画像等に基づいて、AI機能20と連携し、AI機能20からの出力である認識結果を受け取る。この認識結果には、画像内の対象物の位置や数量や成熟度等の情報が含まれている。認識結果集計部22は、対象物識別部12からの認識結果を受け取り、認識結果における対象物の数量を、成熟度別の数量として集計する。認識結果送信部23は、認識結果集計部22からの集計結果情報および対象圃場選択部21からの対象圃場情報を受け取り、それらを合わせた送信情報を作成し、サーバ2の予測システム202へ送信する。 The photographing unit 11 and the object identification unit 12 have the same configuration as described above. The object identification unit 12 cooperates with the AI function 20 based on an input image or the like, and receives a recognition result which is an output from the AI function 20. This recognition result includes information such as the position, quantity, and maturity of the object in the image. The recognition result totaling unit 22 receives the recognition result from the object identification unit 12, and totals the quantity of the object in the recognition result as the quantity according to the maturity level. The recognition result transmission unit 23 receives the aggregation result information from the recognition result aggregation unit 22 and the target field information from the target field selection unit 21, creates transmission information combining them, and transmits the transmission information to the prediction system 202 of the server 2. ..
 この送信情報は、予測用の情報であり、例えば「2019年1月5日,圃場A,成熟度1:10個,成熟度2:100個」といったように、現在日時、対象圃場、認識および計測された成熟度別の対象物の数量(認識量)の情報を含んでいる。予測システム202は、この送信情報を受け取って、DBに集積し、対象圃場における未来日時での収穫見込量を予測する。予測時間単位については、例えば1日、1週、1月等が適用できる。予測結果情報は、例えば「2019年1月12日,圃場A,成熟度1:15個,成熟度2:150個」といったように、未来日時、対象圃場、および成熟度別の収穫見込量、等の情報を含む。予測システム202は、例えば、時系列の履歴における送信情報の数量、現在時点での天候および天候予報等を用いて、未来日時の収穫見込量を予測する。この予測処理の仕組みや論理については特に限定しない。 This transmitted information is information for prediction, for example, "January 5, 2019, field A, maturity 1:10, maturity 2: 100", the current date and time, the target field, recognition and It contains information on the quantity (recognition amount) of the object according to the measured maturity. The prediction system 202 receives this transmission information, accumulates it in the DB, and predicts the expected harvest amount at the future date and time in the target field. As the predicted time unit, for example, one day, one week, January, etc. can be applied. The forecast result information includes the future date and time, the target field, and the expected harvest amount by maturity, such as "January 12, 2019, field A, maturity 1:15, maturity 2:150". Etc. are included. The prediction system 202 predicts the expected harvest amount of the future date and time by using, for example, the quantity of transmitted information in the time series history, the weather at the present time, the weather forecast, and the like. The mechanism and logic of this prediction processing are not particularly limited.
 予測システム202は、予測結果の情報を、上位システムまたは指示者W2、あるいは作業者W1等に提供する。例えば、JA等の人や上位システムは、収穫見込量等の予測情報を容易に得ることができる。これにより、JA等は、従来の圃場調査工数を低減でき、予測精度を向上できる。JA等は、各営農家の各農産物の収穫や出荷の状態(実績や予測等)をなるべく高精度に把握することができる。 The prediction system 202 provides information on the prediction result to the host system, the instructor W2, the worker W1, or the like. For example, a person such as JA or a higher-level system can easily obtain forecast information such as an estimated harvest amount. As a result, JA and the like can reduce the conventional field survey man-hours and improve the prediction accuracy. JA, etc. can grasp the harvesting and shipping conditions (actual results, forecasts, etc.) of each agricultural product of each farmer with as high accuracy as possible.
 [病害虫判別支援機能]
 図6は、作業者端末1とサーバ2との連携の構成における、病害虫判別支援機能43の処理概要を示す。作業者端末1は、前述の撮影部11等に加え、対象圃場選択部21、および認識結果送信部23を有する。この構成では、対象物識別部12およびAI機能20は、前述の機能に加え、病害虫の状態に関する認識機能を備えている。対象物識別部12は、撮影部11からの画像と、日時、位置、および方向等の情報とを受け取る。対象物識別部12は、それらの情報をAI機能20に入力する。AI機能20は、対象物の位置等に加え、対象物の病害虫の有無や種類等の状態を認識し、認識結果を対象物識別部12に応答する。認識結果は、日時、対象圃場、位置(作業者W1および作業者端末1の位置)、病害虫の有無や種類、画像内での対象物の位置に対応付けられた病害虫の位置、等の情報を含む。なお、病害虫は、青果の部分のみに生じるとは限らず、茎や葉等の部分にも生じ得る。認識結果は、その場合の情報も含む。なお、農作物が熟しすぎて腐敗した場合、除去の対象となる。AI機能20によってそのような状態も認識できる。
[Pest discrimination support function]
FIG. 6 shows an outline of processing of the pest discrimination support function 43 in the configuration of cooperation between the worker terminal 1 and the server 2. The worker terminal 1 has a target field selection unit 21 and a recognition result transmission unit 23 in addition to the above-mentioned photographing unit 11 and the like. In this configuration, the object identification unit 12 and the AI function 20 have a function of recognizing the state of pests in addition to the above-mentioned functions. The object identification unit 12 receives the image from the photographing unit 11 and information such as the date and time, the position, and the direction. The object identification unit 12 inputs the information into the AI function 20. The AI function 20 recognizes the presence / absence and type of pests of the object in addition to the position of the object, and responds the recognition result to the object identification unit 12. The recognition result includes information such as the date and time, the target field, the position (the position of the worker W1 and the worker terminal 1), the presence or absence and type of the pest, and the position of the pest associated with the position of the object in the image. Including. It should be noted that pests do not always occur only in the fruits and vegetables, but can also occur in the stems and leaves. The recognition result also includes the information in that case. If the crop is overripe and rots, it will be removed. Such a state can also be recognized by the AI function 20.
 認識結果送信部23は、対象物識別部12からの認識結果を受け取り、対象圃場、位置(作業者W1および作業者端末1の位置)、および病害虫の状態に関する認識結果情報等を含む所定の送信情報を作成し、サーバ2の生育管理システム203へ送信する。サーバ2の生育管理システム203は、送信情報に基づいて、病害虫の状態に対処するための対処支援情報を作成し、指示者W2または上位システムへ送信する。サーバ2の生育管理システム203は、その対処支援情報を作業者端末1へ応答してもよい。対処は、農薬散布に限らず、施肥、除去等であってもよい。対処支援情報は、農薬散布指示情報を含む。農薬散布指示情報は、対象圃場内の農薬散布すべき位置または領域等の農薬散布箇所を指定する情報と、農薬の種類および散布量を指定する情報とを含む。 The recognition result transmission unit 23 receives the recognition result from the object identification unit 12, and predetermined transmission including the recognition result information regarding the target field, the position (position of the worker W1 and the worker terminal 1), and the state of the pest. Information is created and transmitted to the growth management system 203 of the server 2. The growth management system 203 of the server 2 creates coping support information for coping with the state of the pest based on the transmission information, and transmits it to the instructor W2 or the higher system. The growth management system 203 of the server 2 may respond the coping support information to the worker terminal 1. The countermeasure is not limited to spraying pesticides, but may be fertilization, removal, or the like. The coping support information includes pesticide spraying instruction information. The pesticide application instruction information includes information for specifying the pesticide application location such as the position or area where the pesticide should be applied in the target field, and information for specifying the type and amount of the pesticide to be applied.
 本システムは、指示者W2またはJA等の人あるいは作業者W1は、圃場における農薬散布等の対処が必要な箇所を把握でき、対処漏れを防止できる。指示者W2等は、農薬散布箇所や散布量を抑制でき、効率的で低コストの対処が可能であり、農作物の品質等を向上できる。対処情報には、農作物の間引きの指示を含めてもよい。例えば、ある茎に対し、複数の対象物が結実しているが、一部に病害虫が生じているとする。生育管理システム203は、そのような状態を考慮し、間引き(対応する除去)を行うべき農作物を判断し、対処情報として与える。 In this system, the instructor W2 or JA or other person or the worker W1 can grasp the points where measures such as spraying pesticides are required in the field, and can prevent omission of measures. The instructor W2 or the like can suppress the pesticide spraying location and the spraying amount, can efficiently and low-cost measures, and can improve the quality of agricultural products. The coping information may include instructions for thinning crops. For example, suppose that a stem has multiple objects bearing fruit, but some of them have pests. The growth management system 203 considers such a state, determines the crops to be thinned out (correspondingly removed), and gives them as coping information.
 [作業支援機能-変形例]
 図7は、図4の作業支援機能41に関する変形例の構成を示す。この変形例では、対象選択部13は、サーバ2に設けられている。サーバ2のAI機能20は、対象物認識部21からの画像等を入力し、認識処理を行い、認識結果を対象選択部13に与える。対象選択部13は、AI機能20からの認識結果に対し、指示システム201からの作業指示情報等に従って、全部または一部の選択を行い、選択結果を対象物認識部12へ送信する。このような構成でも、類似の効果が得られる。なお、対象選択部13での選択に関してユーザ設定を行う形態も可能である。
[Work support function-variation example]
FIG. 7 shows the configuration of a modified example of the work support function 41 of FIG. In this modification, the target selection unit 13 is provided on the server 2. The AI function 20 of the server 2 inputs an image or the like from the object recognition unit 21, performs recognition processing, and gives the recognition result to the target selection unit 13. The target selection unit 13 selects all or part of the recognition result from the AI function 20 according to the work instruction information from the instruction system 201, and transmits the selection result to the object recognition unit 12. A similar effect can be obtained with such a configuration. It is also possible to make user settings regarding selection by the target selection unit 13.
 [作業支援情報出力方式]
 実施の形態1の現場作業支援システムにおいて、作業者端末1であるスマートデバイスは、前述のAI機能20の認識結果に基づいて、表示面5に作業支援情報を表示して作業者W1に伝達することができる。本システムは、その場合に作業者W1にとってわかりやすいように、および作業者W1が収穫等の判断をしやすいように、作業支援の表示を工夫する。作業者端末1の表示制御部14は、表示面5に収穫対象物等を表す画像を表示する際に、表示態様を制御する。作業者端末1は、例えば、作業者W1の視界に対応する表示面5の範囲において、対象選択部13を用いて選択を行うことで、収穫対象物のみを強調表示することができる。作業者端末1またはサーバ2は、対象選択部13を用いて、出力候補となる作業支援情報から一部の情報のみを選択(フィルタリング等)する。また、作業者端末1は、作業者W1および作業者端末1の近傍に収穫対象物が存在する場合(例えば所定の距離範囲内の場合)、画像表示、音声出力、振動または光の出力等によって、通知や作業誘導等を行うことができる。
[Work support information output method]
In the field work support system of the first embodiment, the smart device, which is the worker terminal 1, displays the work support information on the display surface 5 and transmits it to the worker W1 based on the recognition result of the AI function 20 described above. be able to. In that case, the system devises a display of work support so that the worker W1 can easily understand it and the worker W1 can easily judge the harvest or the like. The display control unit 14 of the worker terminal 1 controls the display mode when displaying an image representing the harvested object or the like on the display surface 5. For example, the worker terminal 1 can highlight only the harvested object by making a selection using the target selection unit 13 in the range of the display surface 5 corresponding to the field of view of the worker W1. The worker terminal 1 or the server 2 uses the target selection unit 13 to select (filter, etc.) only a part of the work support information as an output candidate. Further, when the harvesting object exists in the vicinity of the worker W1 and the worker terminal 1 (for example, within a predetermined distance range), the worker terminal 1 is subjected to image display, audio output, vibration, light output, or the like. , Notification and work guidance can be performed.
 作業者W1は、ビニールハウス等の圃場において、農作物、栽培土壌、器具等に対する作業を行う。作業の動作は、例えば両手で農作物を持って収穫する動作等が挙げられる。そのため、作業者W1は、基本的には両手を使用する時間が多く、それ以外の作業(例えばIT機器を操作する作業)のために手を離すことはなるべくしたくない。本システムは、例えば携帯端末1Aの表示面5へ作業支援の画像を表示する。ただし、この場合、作業者W1が手に携帯端末1Aを持って表示面5を見る必要はある。そのため、本システムでの出力方式は、物理的な表示面5への画像表示には限定せず、他の手段も提供する。本システムは、ウェアラブル端末1BのAR等の仕組みを用いて、作業者W1の視界に対し作業支援情報を重畳表示することができる。その場合、作業者W1の手を自由にしやすく、作業者W1は作業がしやすい。また、本システムは、このような表示手段に限らず、作業者W1の手が空いていない場合でも、音声、振動、光等を用いて、作業支援情報を伝達することができる。 Worker W1 works on crops, cultivated soil, equipment, etc. in fields such as greenhouses. Examples of the work operation include the operation of holding and harvesting agricultural products with both hands. Therefore, the worker W1 basically spends a lot of time using both hands, and does not want to let go of his hands for other work (for example, work of operating an IT device). This system displays a work support image on the display surface 5 of the mobile terminal 1A, for example. However, in this case, it is necessary for the worker W1 to hold the mobile terminal 1A in his hand and look at the display surface 5. Therefore, the output method in this system is not limited to displaying an image on the physical display surface 5, and other means are also provided. This system can superimpose and display work support information on the field of view of the worker W1 by using a mechanism such as AR of the wearable terminal 1B. In that case, it is easy for the worker W1 to free his / her hand, and the worker W1 is easy to work. Further, this system is not limited to such a display means, and even when the worker W1 is not free, the work support information can be transmitted by using voice, vibration, light, or the like.
 [成熟度]
 作業対象物3となる農作物は、種別毎に、成熟度、等級、サイズ(実寸)等が規定されている場合がある。等級は、言い換えれば、品質に関する分類である。図8は、農作物がトマトである場合における成熟度に関する規定の例を示す。本例では、成熟度として1~6がある。この成熟度は、1が最も高く、6が最も低い。また、作業指示に応じた成熟度閾値の例として成熟度3以上とする場合を示す。この場合、成熟度1~3は、閾値以上であるため、例えば収穫対象物となり、成熟度4~6は、閾値未満であるため、非収穫対象物となる。このような成熟度(および後述の等級等)の規定は、農作物の種別や地域(例えば県)に応じて異なる設定とすることができる。なお、収穫対象となる成熟度としては、1~6のいずれの成熟度も、収穫対象となる場合がある。収穫対象となる成熟度は、例えば輸送距離や用途やニーズ等を鑑みて決められる。成熟度が5や6の物も収穫対象となる場合がある。
[Maturity]
The maturity, grade, size (actual size), etc. of the agricultural product to be the work object 3 may be specified for each type. Grades are, in other words, quality classifications. FIG. 8 shows an example of regulations regarding maturity when the crop is tomato. In this example, there are 1 to 6 maturity levels. This maturity is highest at 1 and lowest at 6. Further, as an example of the maturity threshold according to the work instruction, a case where the maturity is 3 or more is shown. In this case, since the maturity levels 1 to 3 are equal to or higher than the threshold value, they are for example harvested objects, and since the maturity levels 4 to 6 are below the threshold value, they are non-harvested objects. Such provisions for maturity (and grades described below) can be set differently depending on the type of crop and the region (for example, prefecture). As the maturity to be harvested, any maturity of 1 to 6 may be the target of harvest. The maturity to be harvested is determined in consideration of, for example, the transportation distance, the use, and the needs. Items with a maturity of 5 or 6 may also be harvested.
 [色見本]
 図9は、農作物がトマトである場合における色見本(言い換えると成熟度の基準)の画像例を示す。この色見本の画像例では、用紙において、成熟度=1~6の6種類のトマトの実画像例が比較可能なように並列で記載されている。AI機能20は、予め、このような色見本の画像を入力(言い換えると教師データ)として、認識のための機械学習を行う。これにより、AI機能20の学習モデルは、トマトの成熟度に関する認識が可能となる。対象の業界において、予め、農作物等の対象物の色見本や型見本(形状等の基準)が用意されており、それらを機械学習に利用できる。
[color sample]
FIG. 9 shows an image example of a color sample (in other words, a standard of maturity) when the crop is tomato. In the image example of this color sample, six kinds of tomato actual image examples having maturity = 1 to 6 are described in parallel on the paper so that they can be compared. The AI function 20 performs machine learning for recognition by inputting an image of such a color sample (in other words, teacher data) in advance. As a result, the learning model of the AI function 20 can recognize the maturity of tomatoes. In the target industry, color samples and pattern samples (standards such as shape) of objects such as agricultural products are prepared in advance, and they can be used for machine learning.
 [等級]
 図10は、農作物がきゅうりである場合における等級に関する規定の例を示す。サイズ(実寸)に関しても同様に規定がある。本例では、型見本において規定されている等級としてA,B,Cがある。等級Aは、形状が直線に近い個体が該当する。等級Bは、形状にある程度までの曲がりがある場合(等級B1)や、先端部の肩落ちがある場合(等級B2)の個体が該当する。等級Cは、等級Bよりもさらに形状に歪がある場合等が該当する。
[grade]
FIG. 10 shows an example of the regulation regarding the grade when the crop is cucumber. There are similar regulations regarding the size (actual size). In this example, there are A, B, and C as the grades specified in the sample. Grade A corresponds to an individual whose shape is close to a straight line. Grade B corresponds to an individual having a certain degree of bending in shape (grade B1) or having a shoulder drop at the tip (grade B2). Grade C corresponds to the case where the shape is more distorted than that of grade B.
 AI機能20は、予め、等級毎の個体の見本の画像を入力し、等級に関して機械学習を行う。これにより、AI機能20の学習モデルは、きゅうりの等級に関する認識が可能となる。同様に、AI機能20は、農作物の実寸に関して、機械学習に基づいて認識が可能となる。また、AI機能20は、画像内の対象物のサイズと、測距センサを用いて検出した距離とを用いて、対象物の実寸を計算してもよい。 The AI function 20 inputs an image of a sample of an individual for each grade in advance, and performs machine learning regarding the grade. As a result, the learning model of the AI function 20 can recognize the cucumber grade. Similarly, the AI function 20 can recognize the actual size of the crop based on machine learning. Further, the AI function 20 may calculate the actual size of the object using the size of the object in the image and the distance detected by the distance measuring sensor.
 [AI機能]
 図11等を用いて、AI機能20について補足する。図11は、AI機能20についての説明図を示す。作業者端末1は、撮影部11によって、被写体として作業対象物3の農作物を含む画像を取得する。画像111は、入力画像例を示し、例えば3個のトマト等が写っている。この画像111には、ID、日時、位置、方向等の情報を伴う。作業者端末1は、入力画像111を対象物認識部22に入力する。対象物認識部22は、入力画像111等のデータをAI機能20に送信する。なお、対象物認識部22内にAI機能20を含む構成でもよい。対象物認識部21またはAI機能20は、画像を含むデータを入力し、対象物に関する認識処理を行い、認識結果を含むデータを出力する。
[AI function]
The AI function 20 will be supplemented with reference to FIG. 11 and the like. FIG. 11 shows an explanatory diagram of the AI function 20. The worker terminal 1 acquires an image including an agricultural product of the work object 3 as a subject by the photographing unit 11. Image 111 shows an example of an input image, for example, three tomatoes and the like. The image 111 is accompanied by information such as ID, date and time, position, and direction. The worker terminal 1 inputs the input image 111 to the object recognition unit 22. The object recognition unit 22 transmits data such as the input image 111 to the AI function 20. The object recognition unit 22 may include the AI function 20. The object recognition unit 21 or the AI function 20 inputs data including an image, performs recognition processing on the object, and outputs data including the recognition result.
 出力のデータにおける認識結果112は、画像111内における対象物のID、種別、成熟度、位置または領域の情報を含む。種別は、例えばトマト、きゅうり等の農産物の分類の推定値である。図11の認識結果112は、例えば個体111aに関する情報の例を示す。個体111aに対応する対象物のIDが001であり、種別がA(トマト)であり、成熟度が3である。対象物の位置がL1である。対象物の位置L1は、位置座標等で表される。対象物の位置に対応する領域は、矩形や円形の領域で表されてもよい。領域が円形領域である場合には、中心点座標(cx,cy)および半径(r)等で表されてもよいし、楕円領域の場合には楕円率等で表されてもよい。領域が矩形領域である場合には、例えば左上および右下の2点の座標{(x1,y1),(x2,y2)}で表されてもよいし、中心点座標と幅と高さ等で表されてもよい。 The recognition result 112 in the output data includes information on the ID, type, maturity, position or area of the object in the image 111. The type is an estimated value of the classification of agricultural products such as tomatoes and cucumbers. The recognition result 112 of FIG. 11 shows an example of information regarding the individual 111a, for example. The ID of the object corresponding to the individual 111a is 001, the type is A (tomato), and the maturity level is 3. The position of the object is L1. The position L1 of the object is represented by position coordinates or the like. The area corresponding to the position of the object may be represented by a rectangular or circular area. When the region is a circular region, it may be represented by center point coordinates (cx, cy) and radius (r), and when it is an elliptical region, it may be represented by ellipticity or the like. When the area is a rectangular area, it may be represented by, for example, the coordinates {(x1, y1), (x2, y2)} of the upper left and lower right points, the center point coordinates, the width, the height, and the like. It may be represented by.
 なお、病害虫判別支援の場合には、出力の認識結果は、病害虫の位置、種別等の情報を含む。出力のデータは、成熟度に限らず、農作物の等級、実寸等の情報を含んでもよい。成熟度や等級は、前述の見本に基づいた認識結果として得られる。 In the case of pest discrimination support, the output recognition result includes information such as the position and type of pest. The output data is not limited to the maturity level, and may include information such as the grade and actual size of the crop. The maturity and grade are obtained as a recognition result based on the above-mentioned sample.
 対象物認識部12およびAI機能20の認識処理の詳細例は以下の通りである。AI機能20は、画像(静止画、動画、またはカメラのストリーミング映像等)を入力する。AI機能20は、入力画像データの形式が動画である場合には、その動画から1画像フレームずつ順に切り出して、認識処理対象となる画像フレーム(すなわち静止画)として入力する。AI機能20は、入力画像フレームについて、その画像内の対象物の種別、位置、成熟度等を認識し、認識処理結果を出力する。 A detailed example of the recognition process of the object recognition unit 12 and the AI function 20 is as follows. The AI function 20 inputs an image (still image, moving image, streaming image of a camera, etc.). When the format of the input image data is a moving image, the AI function 20 sequentially cuts out one image frame from the moving image and inputs it as an image frame (that is, a still image) to be recognized. The AI function 20 recognizes the type, position, maturity, etc. of an object in the image of the input image frame, and outputs the recognition processing result.
 図12は、AI機能20の認識結果の出力の具体構成例を示す。図11の画像111に対応する入力画像フレームは、例えば横(x)が1280画素、縦(y)が720画素を有する。画像フレームの左上の画素を原点として位置座標(x,y)=(0,0)とする。この画像111の例では、対象物として例えば3個のトマト(青果)の個体(対象物OB1,OB2,OB3で示す)として写っている。図12では、例えば対象物OB1に関する位置の認識結果を示す。この対象物OB1の位置は、対応する矩形領域で表されている。この矩形領域は、左上の頂点の画素p1の位置座標(x1,y1)と右下の頂点の画素p2の位置座標(x2,y2)との2点で表されている。例えば、点p1(x1,y1)=(274,70)、点p2(x2,y2)=(690,448)である。また、この対象物OB1の種別の認識結果は「A(トマト)」であり、成熟度の認識結果は「3」である。なお、矩形領域を中心点、幅、高さで規定する場合、例えば対象物OB1については、中心点の位置座標=(482,259)、幅=416、高さ=378となる。 FIG. 12 shows a specific configuration example of the output of the recognition result of the AI function 20. The input image frame corresponding to the image 111 in FIG. 11 has, for example, 1280 pixels in the horizontal direction (x) and 720 pixels in the vertical direction (y). Position coordinates (x, y) = (0,0) with the upper left pixel of the image frame as the origin. In the example of this image 111, as an object, for example, three tomatoes (vegetables) are shown as individuals (indicated by the objects OB1, OB2, OB3). FIG. 12 shows, for example, the recognition result of the position regarding the object OB1. The position of the object OB1 is represented by a corresponding rectangular area. This rectangular area is represented by two points, the position coordinates (x1, y1) of the pixel p1 at the upper left vertex and the position coordinates (x2, y2) of the pixel p2 at the lower right vertex. For example, point p1 (x1, y1) = (274,70), point p2 (x2, y2) = (690,448). Further, the recognition result of the type of the object OB1 is "A (tomato)", and the recognition result of the maturity degree is "3". When the rectangular area is defined by the center point, width, and height, for example, for the object OB1, the position coordinates of the center point = (482,259), width = 416, and height = 378.
 対象物認識部12は、画像内の複数の対象物を同様に認識でき、複数の対象物の認識結果情報をまとめて出力できる。認識結果の出力の形式は例えばテーブル113のようにできる。このテーブル113は、行毎に対象物の認識結果情報が格納されており、列として、対象物ID、種別、成熟度、位置座標{x1,y1,x2,y2}等を有する。 The object recognition unit 12 can recognize a plurality of objects in the image in the same manner, and can collectively output recognition result information of the plurality of objects. The format of the recognition result output can be, for example, Table 113. The table 113 stores the recognition result information of the object for each row, and has the object ID, type, maturity, position coordinates {x1, y1, x2, y2} and the like as columns.
 収穫作業支援の場合、本システムは、指示システム201から、収穫対象の成熟度の指定を含む作業指示を受け取る。この場合、対象選択部13は、その成熟度の指定に応じて、認識結果から、一部の情報を、収穫対象物の情報として選択する。これにより、表示すべきデータが絞り込まれる。例えば、作業指示で「成熟度が3以上」と指定された場合で、上記テーブル113の認識結果データについて対象選択部13によって一部を選択する場合、選択結果は、テーブル114のようになる。テーブル114の選択結果は、テーブル113の1行目のトマト(対象物ID=001)のデータのみが抽出されている。 In the case of harvesting work support, this system receives work instructions from the instruction system 201, including the designation of the maturity of the harvest target. In this case, the target selection unit 13 selects a part of the information as the information of the harvest target from the recognition result according to the designation of the maturity level. As a result, the data to be displayed is narrowed down. For example, when "maturity is 3 or more" is specified in the work instruction and a part of the recognition result data in the table 113 is selected by the target selection unit 13, the selection result is as shown in the table 114. As the selection result of the table 114, only the data of the tomato (object ID = 001) in the first row of the table 113 is extracted.
 [作業支援表示(1)]
 作業支援情報の出力方式が表示である場合の出力例について以下に説明する。図13は、作業者端末1の表示面5における収穫作業支援情報の表示例を示す。本例は、図11の画像111の例と対応している。画像131は、圃場の一箇所で撮影された画像であり、農作物(青果だけでなく茎や葉を含む)の例として複数のトマトが写っている。作業者端末1は、画像131内の対象物に対し、収穫対象物を表す画像132を表示する。この画像132の例は、対象物OB1の領域を囲む赤色の枠画像である。作業者端末1の表示制御部14は、対象物(例えば対象物OB1)の成熟度(例えば成熟度3)に応じて、枠画像(例えば画像132)の色、形状、大きさ、枠線の太さ等を異ならせるように制御する。また、作業者端末1は、枠画像を、対象物の形状に応じて、矩形、円形(楕円を含む)、三角形等、枠画像の形状を異ならせるように制御する。枠画像の形状は、対象物の輪郭になるべく合わせると好ましいが、それに限らず、対象物の領域を包含する矩形や円形等でもよい。本例では、対象物の種別がトマトであることに合わせて、枠画像の形状を円形としている。画像132内で、非収穫対象物のトマトには枠画像が表示されていない。作業者W1は、収穫対象物を表す画像132に着目し、それに対応する個体を容易に収穫できる。
[Work support display (1)]
An output example when the output method of work support information is display will be described below. FIG. 13 shows a display example of harvesting work support information on the display surface 5 of the worker terminal 1. This example corresponds to the example of image 111 in FIG. Image 131 is an image taken at one location in the field, and shows a plurality of tomatoes as an example of agricultural products (including not only fruits and vegetables but also stems and leaves). The worker terminal 1 displays an image 132 representing a harvesting object with respect to the object in the image 131. The example of this image 132 is a red frame image surrounding the region of the object OB1. The display control unit 14 of the worker terminal 1 determines the color, shape, size, and border of the frame image (for example, image 132) according to the maturity (for example, maturity 3) of the object (for example, the object OB1). Control so that the thickness etc. are different. Further, the worker terminal 1 controls the frame image so that the shape of the frame image is different, such as a rectangle, a circle (including an ellipse), and a triangle, depending on the shape of the object. The shape of the frame image is preferably matched to the outline of the object as much as possible, but is not limited to this, and may be a rectangle or a circle including the area of the object. In this example, the shape of the frame image is circular according to the type of the object being tomato. In image 132, the frame image is not displayed on the tomato, which is the non-harvest object. The worker W1 pays attention to the image 132 showing the object to be harvested, and can easily harvest the corresponding individual.
 [作業支援表示(2)]
 図14は、表示面5に収穫作業支援情報の画像を表示する場合の他の表示例を示す。本例では、画像141は、複数のトマトの個体が写っている。作業者端末1は、認識結果(対応する選択結果)の対象物の情報に基づいて、表示面5内に、各個体の対象物を表す画像として枠画像を重畳表示する。枠画像として、実線の円形の枠画像(例えば画像g1,g2)は、成熟度1かつ収穫対象物を表し、例えば赤色の太い枠線で表示される。破線の円形の枠画像(例えば画像g3)は、成熟度2かつ非収穫対象物を表す。破線の円形の枠画像(例えば画像g4,g5)は、成熟度3かつ非収穫対象物を表し、例えば黄色の細い枠線で表示される。また、本例は、対象物毎に成熟度の数字を一緒に表示する場合を示すが、この表示を省略してもよい。
[Work support display (2)]
FIG. 14 shows another display example when the image of the harvesting work support information is displayed on the display surface 5. In this example, image 141 shows a plurality of individual tomatoes. The worker terminal 1 superimposes and displays a frame image as an image representing the object of each individual on the display surface 5 based on the information of the object of the recognition result (corresponding selection result). As a frame image, a solid circular frame image (for example, images g1 and g2) represents a maturity of 1 and a harvesting object, and is displayed by, for example, a thick red frame. The dashed circular frame image (eg, image g3) represents a maturity of 2 and a non-harvest object. The dashed circular frame image (eg, images g4, g5) represents a maturity of 3 and a non-harvest object, and is represented by, for example, a thin yellow border. Further, this example shows a case where the maturity number is displayed together for each object, but this display may be omitted.
 収穫作業支援情報の表示内容は、ユーザ(作業者W2等)の指示または設定に従って変更できる。本例では、成熟度3以上の対象物(トマト)について支援表示を行う設定の場合であり、成熟度4以下の対象物については枠画像等は表示されていない。また、本例では、成熟度1,2,3を区別して表示する設定の場合であり、成熟度に応じて異なる枠画像が表示されている。また、本例では、作業者W2からの収穫作業指示として「成熟度1の収穫」を受けた場合に、成熟度1の対象物について収穫対象物であることを表す枠画像(画像g1,g2)を表示している。また、本例では、表示面5内に、その枠画像(画像g1等)が成熟度1の収穫対象物を表す旨の説明画像の表示もされている。 The display content of the harvesting work support information can be changed according to the instructions or settings of the user (worker W2, etc.). In this example, the support display is performed for an object (tomato) having a maturity level of 3 or higher, and a frame image or the like is not displayed for an object having a maturity level of 4 or less. Further, in this example, the maturity levels 1, 2, and 3 are set to be displayed separately, and different frame images are displayed according to the maturity level. Further, in this example, when "harvesting of maturity 1" is received as a harvesting work instruction from the worker W2, a frame image (images g1, g2) showing that the object of maturity 1 is a harvesting object. ) Is displayed. Further, in this example, an explanatory image indicating that the frame image (image g1 or the like) represents the harvested object having a maturity of 1 is also displayed on the display surface 5.
 作業者W1は、このような収穫作業支援の表示を見ることで、どの対象物を収穫すべきかを容易に認識できる。作業者W1は、視界において実線の枠画像に着目した場合、その枠画像が収穫対象物(または収穫指示)を表しているので、その対象物を容易に収穫作業ができる。 Worker W1 can easily recognize which object should be harvested by looking at such a display of harvesting work support. When the worker W1 pays attention to the solid line frame image in the field of view, the frame image represents the harvesting object (or harvesting instruction), so that the object can be easily harvested.
 [作業支援表示(3)]
 図15は、表示面5での収穫作業支援情報の他の表示例を示す。図15の画像151は、認識結果(対応する選択結果)の全部の対象物の情報を表示する例を示す。この画像151内には、複数のトマトの個体(例えば個体T1,T2,T3等)が写っている。この画像151の例では、農作物以外にも、栽培土壌(畝)、通路、支持棒、ワイヤ、テープ、カバー等が写っている。本例は、列状の通路上の作業者W1および作業者端末1の位置から、斜め左方向を撮影した場合を示す。この画像は、手前側にトマトの実や茎が写っており、その奥の下側には、畝やカバーが写っており、その奥には隣りの通路が写っており、さらに奥には隣りの畝やカバー等が写っている。
[Work support display (3)]
FIG. 15 shows another display example of the harvesting work support information on the display surface 5. Image 151 of FIG. 15 shows an example of displaying information on all objects in the recognition result (corresponding selection result). In this image 151, a plurality of tomato individuals (for example, individuals T1, T2, T3, etc.) are shown. In the example of this image 151, cultivated soil (ridges), passages, support rods, wires, tapes, covers, etc. are shown in addition to the agricultural products. This example shows a case where the image is taken diagonally to the left from the positions of the worker W1 and the worker terminal 1 on the row-shaped passage. In this image, tomato fruits and stems are shown on the front side, ridges and covers are shown on the lower side of the back, the next passage is shown in the back, and next to the back. The ridges and covers of the tomatoes are shown.
 実線の円形の枠画像(例えば枠画像G1,G2)は、収穫対象物を表す画像であり、本例では成熟度が3以上(成熟度1,2,3)に該当する対象物を表す。破線の円形の枠画像(例えば枠画像G3)は、非収穫対象物を表す画像であり、本例では成熟度が3未満(成熟度4,5,6)に該当する対象物を表す。また、本例は、作業者W1と対象物との距離に応じて枠画像の枠線の太さを変えて表示する場合を示す。作業者端末1は、距離が小さく近い対象物ほど、枠線の太さを太くして表示する。作業者W1は、このような収穫作業支援の画像を見ることで、視界の空間において対象物がどの程度存在するかや、成熟度の分布状況等を、わかりやすく認識できる。 The solid circular frame image (for example, frame images G1 and G2) is an image representing a harvesting object, and in this example, represents an object having a maturity of 3 or more ( maturity 1, 2, 3). The broken circular frame image (for example, frame image G3) is an image representing a non-harvesting object, and in this example, represents an object having a maturity of less than 3 ( maturity 4, 5, 6). Further, this example shows a case where the thickness of the frame line of the frame image is changed according to the distance between the worker W1 and the object. The worker terminal 1 displays the object with a smaller distance and a thicker border. By seeing such an image of the harvesting work support, the worker W1 can easily recognize how much the object exists in the space of view, the distribution state of the maturity, and the like.
 本例では、全部の情報を表示するので、画像151内において、収穫対象物にも非収穫対象物にも両方に枠画像が表示されている。この枠画像は、収穫対象か否かに応じて例えば異なる色で表示されている。例えば、収穫対象は赤色の実線の枠画像とされ、非収穫対象は黄色の破線の枠画像とされる。枠画像は、対象物の成熟度に応じて異なる色とされてもよい。例えば、成熟度として1~6の6段階がある場合に、各成熟度に対応付けて枠画像の色が設定されていてもよいし、所定の成熟度の範囲の規定に応じて枠画像の色が設定されてもよい。例えば、6種類の色を設ける場合、赤、橙、黄、緑、青、グレーとしてもよい。例えば、3種類の範囲に応じた3種類の色を設ける場合、赤、黄、緑としてもよい。例えば、成熟度閾値を用いて、成熟度1,2の場合には第1範囲として赤色とし、成熟度3,4の場合には第2範囲として黄色とし、成熟度5,6の場合には第3範囲として緑色としてもよい。作業者W1は、赤色の枠画像が付いている個体を収穫する。作業者W1は、黄色の枠画像が付いた個体については、成熟が不足しているので収穫すべきではないと認識できる。 In this example, since all the information is displayed, the frame image is displayed on both the harvested object and the non-harvested object in the image 151. This frame image is displayed in different colors, for example, depending on whether or not it is a harvest target. For example, the harvest target is a red solid line frame image, and the non-harvest target is a yellow dashed frame image. The frame image may have different colors depending on the maturity of the object. For example, when there are 6 levels of maturity from 1 to 6, the color of the frame image may be set in association with each maturity, or the frame image may be set according to the definition of a predetermined range of maturity. The color may be set. For example, when six kinds of colors are provided, they may be red, orange, yellow, green, blue, and gray. For example, when three kinds of colors are provided according to the three kinds of ranges, red, yellow, and green may be used. For example, using the maturity threshold, in the case of maturity 1 and 2, the first range is red, in the case of maturity 3 and 4, the second range is yellow, and in the case of maturity 5 and 6. The third range may be green. Worker W1 harvests an individual with a red frame image. Worker W1 can recognize that the individual with the yellow frame image should not be harvested due to lack of maturity.
 枠画像の枠の大きさは、画像内での対象物(青果)の大きさに合わせて表示されている。画像内でサイズが小さい枠画像については、生育のサイズが小さい実であるか、作業者W1の位置から奥に離れた位置にある実である。作業者W1は、サイズが大きい枠画像で示す対象物から順に着目して収穫作業を行うことができる。作業者端末1は、画像内でのサイズが閾値未満となる対象物または枠画像については、表示しないように、選択を行ってもよい。例えば、画像151において、奥に写っている複数の実は、隣りの通路に面する実であり、作業者が今いる通路からはすぐには収穫できない。この場合、その実(対応する対象物)については、収穫対象であるとしても、枠画像を表示しないようにしてもよい。これにより、表示の情報量を減らし、作業者W1の認知の負荷を下げることができる。 The frame size of the frame image is displayed according to the size of the object (vegetables) in the image. The frame image having a small size in the image is a fruit having a small growth size or a fruit located at a position far from the position of the worker W1. The worker W1 can perform the harvesting work by paying attention to the object shown in the frame image having the largest size in order. The worker terminal 1 may make a selection so as not to display an object or a frame image whose size in the image is less than the threshold value. For example, in image 151, the plurality of fruits shown in the back are fruits facing the adjacent passage, and cannot be immediately harvested from the passage where the worker is currently present. In this case, the frame image may not be displayed for the fruit (corresponding object) even if it is a harvest target. As a result, the amount of information displayed can be reduced, and the cognitive load of the worker W1 can be reduced.
 他の表示制御例として、枠画像の色を、色見本に基づいた成熟度毎の色に合わせるようにしてもよい。 As another display control example, the color of the frame image may be matched with the color of each maturity based on the color sample.
 [作業支援表示(4)]
 図16は、表示面5での収穫作業支援情報の他の表示例を示す。この画像161は、認識結果のうち対象選択部12によって選択した一部の対象物の情報を表示する例を示す。この画像161では、収穫対象物のみに実線の円形の赤色の枠画像(例えば枠画像G1,G2)が表示されている。作業者W1は、この枠画像が示す収穫対象物に着目して、容易に収穫作業ができる。
[Work support display (4)]
FIG. 16 shows another display example of the harvesting work support information on the display surface 5. This image 161 shows an example of displaying information on a part of the recognition results selected by the target selection unit 12. In this image 161, a solid circular red frame image (for example, frame images G1 and G2) is displayed only on the harvested object. The worker W1 can easily perform the harvesting work by paying attention to the harvesting object shown in this frame image.
 なお、後述のように、対象物に病害虫がある場合には、病害虫の状態を表す所定の枠画像も表示される。例えば、個体Tx1に病害虫がある場合には、病害虫の状態を表す枠画像Gx1が表示される。枠画像Gx1は、例えば紫色で一点鎖線の枠線とされている。 As will be described later, when the object has a pest, a predetermined frame image showing the state of the pest is also displayed. For example, when the individual Tx1 has a pest, a frame image Gx1 showing the state of the pest is displayed. The frame image Gx1 is, for example, purple and is a frame line of a long and short dash line.
 また、作業者端末1は、画像内の対象物について、作業者W1および作業者端末1の位置からのその対象物の位置までの距離に応じて、枠画像の態様を異ならせてもよい。作業者端末1は、作業者W1の視点および作業者端末1の位置からの対象物の位置までの距離を、例えば画像解析処理や測距センサを用いることで検出可能である。作業者端末1は、その距離情報を用いて、対象物の枠画像の色、形状、大きさ等を制御する。 Further, the worker terminal 1 may change the mode of the frame image of the object in the image according to the distance from the positions of the worker W1 and the worker terminal 1 to the position of the object. The worker terminal 1 can detect the distance from the viewpoint of the worker W1 and the position of the worker terminal 1 to the position of the object by using, for example, an image analysis process or a distance measuring sensor. The worker terminal 1 controls the color, shape, size, etc. of the frame image of the object by using the distance information.
 画像151や画像161の例では、距離に応じて枠画像の枠線の太さを異ならせている。例えば、作業者端末1は、距離が小さいほど、すなわち、作業者W1から近い対象物ほど、枠線の太さを太くして目立つようにする。これにより、作業者W1は、自分から近い対象物から順に着目して、収穫または判断を行うことができる。 In the examples of image 151 and image 161, the thickness of the frame line of the frame image is different depending on the distance. For example, in the worker terminal 1, the smaller the distance, that is, the closer the object is to the worker W1, the thicker the frame line is made to stand out. As a result, the worker W1 can make a harvest or a judgment by paying attention to the object closest to him / her in order.
 [作業支援表示(5)]
 図17は、表示面5での収穫作業支援情報の他の表示例を示す。この画像171では、収穫対象物を表す画像として、枠画像ではなく、矢印線と番号とを結んだ画像としている。画像171内で、対象物の位置に対しある程度離れた位置で、他の対象物と重ならない位置に、番号の画像が表示されている。番号の画像を表示する位置は、表示面5の端としてもよい。番号の画像は、例えば円形の枠画像とした場合を示し、円形の枠線の色や線の太さについては、例えば成熟度に応じて変えてもよい。また、この番号は、成熟度に限らず、収穫の順序を表す番号としてもよい。例えば、作業者W1からの距離が近い対象物の順に、1,2,……と順序の番号が付与されてもよい。
[Work support display (5)]
FIG. 17 shows another display example of the harvesting work support information on the display surface 5. In this image 171 as an image showing the harvested object, it is not a frame image but an image in which an arrow line and a number are connected. The numbered image is displayed in the image 171 at a position that is some distance from the position of the object and does not overlap with other objects. The position where the image of the number is displayed may be the edge of the display surface 5. The numbered image shows, for example, a case where a circular frame image is used, and the color of the circular frame line and the thickness of the line may be changed according to, for example, the degree of maturity. Further, this number is not limited to the maturity level, and may be a number indicating the order of harvesting. For example, the order numbers such as 1, 2, ... May be assigned in the order of the objects having the shortest distance from the worker W1.
 [作業支援表示(6)]
 図18は、表示面5での収穫作業支援情報の他の表示例を示す。作業者端末1は、視線検出センサの視線検出結果の視線情報を用いて、視線方向の先の点(例えば点E1)を中心とした一部の範囲(例えば範囲182)内のみに、対象物の情報を表示する。本例では、範囲182内に、収穫対象および非収穫対象を表す各枠画像が表示されている。なお、範囲182を表す画像を表示してもよいし、表示しなくてもよい。範囲182は、矩形に限らず楕円等も可能である。
[Work support display (6)]
FIG. 18 shows another display example of the harvesting work support information on the display surface 5. The worker terminal 1 uses the line-of-sight information of the line-of-sight detection result of the line-of-sight detection sensor to cover only a part of the range (for example, range 182) centered on the point (for example, point E1) ahead in the line-of-sight direction. Display information about. In this example, in the range 182, each frame image showing the harvest target and the non-harvest target is displayed. An image representing the range 182 may or may not be displayed. The range 182 is not limited to a rectangle, but an ellipse or the like is also possible.
 この表示制御を行う場合の第1例は以下の通りである。作業者端末1は、視線検出センサを用いて作業者W1の視線方向を検出する。作業者端末1は、検出した視線方向の先の画像内の点の位置を計算する。作業者端末1は、その点の位置を中心として所定の大きさの範囲を設定する。作業者端末1は、その範囲(例えば範囲182)を、認識処理に係わる検出エリアとして設定する。対象物認識部12およびAI機能20は、画像データのうちのこの検出エリアを対象として認識処理を行う。この場合、処理対象データが削減されるので、認識処理の計算量を削減できる。 The first example of performing this display control is as follows. The worker terminal 1 detects the line-of-sight direction of the worker W1 by using the line-of-sight detection sensor. The worker terminal 1 calculates the position of a point in the image ahead in the detected line-of-sight direction. The worker terminal 1 sets a range of a predetermined size around the position of the point. The worker terminal 1 sets the range (for example, the range 182) as a detection area related to the recognition process. The object recognition unit 12 and the AI function 20 perform recognition processing on this detection area of the image data. In this case, since the data to be processed is reduced, the calculation amount of the recognition process can be reduced.
 第2例は以下の通りである。作業者端末1は、検出した視線方向の先の画像内の点の位置を中心として所定の大きさの範囲(例えば範囲182)を設定する。対象物認識部12およびAI機能20は、画像データの全領域を対象として認識処理を行う。作業者端末1の対象選択部13は、認識結果の情報から、その範囲182に該当する一部の情報のみを表示する。 The second example is as follows. The worker terminal 1 sets a range of a predetermined size (for example, a range 182) centered on the position of a point in the image ahead in the detected line-of-sight direction. The object recognition unit 12 and the AI function 20 perform recognition processing for the entire area of the image data. The target selection unit 13 of the worker terminal 1 displays only a part of the information corresponding to the range 182 from the recognition result information.
 [出荷作業の場合]
 図19は、出荷作業支援に関する説明図を示す。図19の画像191は、出荷作業の際に、作業者W1によって収穫された複数のきゅうりの個体がテーブル面上に並べられている場合の画像例を示す。本例では、この画像191内には、きゅうりの個体K1~K5を有する。作業者W1は、出荷作業時には、これらの個体を、等級や実寸等の観点で選別し、選別した個体群毎に箱詰めや包装等して出荷する。作業者W1は、この選別を含む出荷作業の際に、特に出荷作業支援機能を用いる。作業者端末1は、このような画像191を入力し、対象物認識部12およびAI機能20によって認識する。AI機能20は、この画像191を入力として、認識結果として、対象物毎の等級や実寸の情報を出力する。作業者端末1の表示制御部14は、対象物認識部12の認識結果(対応する選択結果)に基づいて、画像内に、出荷作業支援情報として、対象物毎の等級や実寸の情報を表示する。
[For shipping work]
FIG. 19 shows an explanatory diagram regarding shipping work support. Image 191 of FIG. 19 shows an example of an image in which a plurality of individual cucumbers harvested by the worker W1 are arranged on a table surface during a shipping operation. In this example, the cucumber individuals K1 to K5 are included in this image 191. At the time of shipping work, the worker W1 selects these individuals from the viewpoint of grade, actual size, etc., and ships them in a box or package for each selected population. The worker W1 particularly uses the shipping work support function in the shipping work including this sorting. The worker terminal 1 inputs such an image 191 and recognizes it by the object recognition unit 12 and the AI function 20. The AI function 20 takes this image 191 as an input and outputs information on the grade and the actual size of each object as a recognition result. The display control unit 14 of the worker terminal 1 displays the grade and actual size information of each object as shipping work support information in the image based on the recognition result (corresponding selection result) of the object recognition unit 12. To do.
 図20は、表示面5で図19の画像191上に出荷作業支援情報を重畳表示する例を示す。本例では、出荷作業支援情報として、等級および実寸を表す画像192が、画像191内の対象物の近傍の位置、例えば下側の位置に表示されている。この画像192は、例えば文字画像である。本例では、5個の個体K1~K5について、文字画像は、左から順に、“S”,“M”,“L”,“B”,“C”となっている。本例では、等級Aの品については、それぞれ実寸を表す文字画像が表示されている。例えばSはスモール,Mはミドル,Lはラージを表す。これらの表示は、等級のみ、実寸のみ、またはそれらの両方として選択できる。作業者W1は、このような出荷作業支援情報を見ることで、各個体の等級および実寸をわかりやすく認識でき、等級毎および実寸毎の個体の選別を含む出荷作業を容易に行うことができる。 FIG. 20 shows an example in which shipping work support information is superimposed and displayed on the image 191 of FIG. 19 on the display surface 5. In this example, as the shipping work support information, the image 192 showing the grade and the actual size is displayed at a position near the object in the image 191, for example, a lower position. This image 192 is, for example, a character image. In this example, the character images of the five individuals K1 to K5 are "S", "M", "L", "B", and "C" in order from the left. In this example, for each grade A product, a character image showing the actual size is displayed. For example, S stands for small, M stands for middle, and L stands for large. These indications can be selected as grade only, actual size only, or both. By seeing such shipping work support information, the worker W1 can easily recognize the grade and the actual size of each individual, and can easily perform the shipping work including the selection of the individual for each grade and the actual size.
 図21は、出荷作業支援に関する他の表示例を示す。本例では、出荷作業支援情報の画像は、個体毎に枠画像とする場合を示す。例えば、個体K1~K3には、個体毎に、矩形の赤色の枠画像が表示されている。この枠画像は、等級Aを表している。前述の収穫作業支援の際の作業指示の説明と同様に、出荷作業支援の際にも、指示者W2からの出荷作業指示に従った作業支援出力が可能である。例えば、指示者W2は、出荷作業指示として、等級Aの出荷(または選別)を指示する。作業者端末1の対象選択部13は、この作業指示に従って、認識結果から、等級Aに該当する一部の情報を選択し、それに対応する出荷作業支援情報を表示面5に表示する。本例では、等級Aに該当する個体K1~K3について、出荷対象(または出荷指示)を表す枠画像が表示されている。表示面5には、枠画像が出荷対象(等級A)であることを表す説明画像も表示されている。 FIG. 21 shows another display example related to shipping work support. In this example, the image of the shipping work support information shows a case where a frame image is used for each individual. For example, in the individuals K1 to K3, a rectangular red frame image is displayed for each individual. This frame image represents grade A. Similar to the explanation of the work instruction at the time of the harvesting work support described above, the work support output according to the shipping work instruction from the instructor W2 is also possible at the time of shipping work support. For example, the instructor W2 instructs the shipment (or selection) of grade A as a shipping work instruction. The target selection unit 13 of the worker terminal 1 selects a part of the information corresponding to the grade A from the recognition result according to the work instruction, and displays the corresponding shipping work support information on the display surface 5. In this example, a frame image showing a shipping target (or shipping instruction) is displayed for individuals K1 to K3 corresponding to grade A. An explanatory image indicating that the frame image is a shipping target (grade A) is also displayed on the display surface 5.
 他の表示制御例として、画像内で収穫対象や出荷対象となる複数の対象物の個体が隣接している場合には、それらの複数の対象物についてグループとして1つにまとめた枠画像等を表示してもよい。 As another display control example, when individuals of a plurality of objects to be harvested or shipped are adjacent to each other in the image, a frame image or the like in which the plurality of objects are grouped into one is displayed. It may be displayed.
 出荷作業時には、図19のような画像を入力とした認識結果に基づいて、収穫実績または出荷実績をカウントすることができる。把握された実績情報は、上位システム等でも利用可能となる。 At the time of shipping work, it is possible to count the harvesting record or the shipping record based on the recognition result in which the image as shown in FIG. 19 is input. The grasped performance information can also be used in higher-level systems and the like.
 [作業支援-音声]
 作業支援情報の出力方式が音声である場合の出力例については以下が挙げられる。作業者端末1は、選択結果の情報に基づいて、少なくとも、画像内に収穫対象物が有る場合には、そのことを表す所定の音声(例えば「ピンポン」等)を出力する。また、作業者端末1は、音声合成機能を用いて、直接的に、「それは収穫対象です」、「収穫対象物が有ります」等の音声を出力してもよい。また、作業者端末1は、画像内での収穫対象物の位置または作業者W1からの方向や距離に応じて、出力音を異ならせるように制御してもよい。例えば、画像の中心付近と、それに対する左側、右側、上側、および下側等で、概略的にいくつかの領域に区分する。作業者端末1は、画像内のどの領域に対象物が写っているか(それは作業者W1および作業者端末1と対象物との位置や方向の関係と対応している)に応じて、音を変えてもよい。また、例えば、画像内での対象物の位置が中心に近付いた場合には「ピンポン」等と出力し、中心から離れた場合には「ブー」等と出力してもよい。あるいは、対象物に近付いた場合には音量を上げる等、音量を変える制御を用いてもよい。また、作業者端末1は、作業者W1と対象物との位置関係に応じて、収穫対象物の位置等を通知してもよい。例えば「右側に収穫対象物があります」等の音声としてもよい。
[Work support-voice]
The following is an example of output when the output method of work support information is voice. Based on the information of the selection result, the worker terminal 1 outputs at least a predetermined voice (for example, "ping-pong") indicating that there is a harvesting object in the image. Further, the worker terminal 1 may directly output voices such as "it is a harvest target" and "there is a harvest target" by using the voice synthesis function. Further, the worker terminal 1 may be controlled so as to make the output sound different depending on the position of the harvested object in the image or the direction or distance from the worker W1. For example, it is roughly divided into several areas near the center of the image and on the left side, right side, upper side, lower side, and the like. The worker terminal 1 makes a sound according to in which area in the image the object is shown (it corresponds to the relationship between the worker W1 and the position and direction of the worker terminal 1 and the object). You may change it. Further, for example, when the position of the object in the image approaches the center, it may be output as "ping-pong" or the like, and when it is far from the center, it may be output as "boo" or the like. Alternatively, a control for changing the volume may be used, such as raising the volume when approaching an object. Further, the worker terminal 1 may notify the position of the harvested object or the like according to the positional relationship between the worker W1 and the object. For example, it may be a voice such as "There is an object to be harvested on the right side".
 また、作業者端末1は、作業者W1からみた対象物の方向に応じて、スピーカ82(特に複数のスピーカを含むマルチスピーカまたはステレオスピーカ)からの音声出力を異ならせるように制御してもよい。例えば、作業者W1からみて右側に対象物がある場合には、マルチスピーカの右側スピーカから音が聞こえるようにし、左側に対象物がある場合には、左側スピーカから音が聞こえるようにする。 Further, the worker terminal 1 may be controlled so that the audio output from the speaker 82 (particularly a multi-speaker or a stereo speaker including a plurality of speakers) is different depending on the direction of the object as viewed from the worker W1. .. For example, when the object is on the right side of the worker W1, the sound is heard from the right side speaker of the multi-speaker, and when the object is on the left side, the sound is heard from the left side speaker.
 出力を音声のみとし、表示は無い方式とする場合、制御例としては、作業者端末1のカメラ6の方向(概略的には作業者W1の頭が向いている方向と対応する)にある農作物を対象として、収穫対象か否かを表す音声を出力してもよい。あるいは、作業者端末1は、カメラ6の画像から、作業者W1が対象物に手を伸ばした状態、または対象物を手に取った状態、あるいは作業者W1が対象物に近付いた状態等を判断し、その時に収穫対象を表す音声を出力してもよい。 When the output is only voice and there is no display, as a control example, the crops in the direction of the camera 6 of the worker terminal 1 (generally corresponding to the direction in which the head of the worker W1 is facing). You may output a voice indicating whether or not it is a harvest target. Alternatively, the worker terminal 1 determines from the image of the camera 6 that the worker W1 reaches for the object, picks up the object, or the worker W1 approaches the object. A judgment may be made, and at that time, a voice indicating the harvest target may be output.
 [作業支援-振動、光]
 作業支援情報の出力方式が振動や光である場合の出力例については以下が挙げられる。作業者端末1は、選択結果の情報に基づいて、少なくとも、画像内に収穫対象物が有る場合には、そのことを表す所定の振動または所定の光を出力する。作業者端末1は、収穫対象物の位置または向きまたは作業者からの距離に応じて、振動の種類や強さ、発光の種類や強さ等を異ならせるように制御してもよい。作業者端末1は、例えば、作業者W1が対象物に近付いたか離れたかによって、振動の状態または発光の状態を変えるようにしてもよい。振動や発光の種類は、例えばオン/オフのパターンで規定されてもよい。発光の場合、例えば、発光持続時間、点滅、光量等で区別できる。圃場が暗い場合には、光で伝達することも有効である。
[Work support-vibration, light]
The following is an example of output when the output method of work support information is vibration or light. Based on the information of the selection result, the worker terminal 1 outputs at least a predetermined vibration or a predetermined light indicating that there is a harvesting object in the image. The worker terminal 1 may be controlled so as to have different types and intensities of vibration, types and intensities of light emission, and the like according to the position or orientation of the harvested object or the distance from the worker. The worker terminal 1 may change the state of vibration or the state of light emission depending on whether the worker W1 approaches or moves away from the object, for example. The type of vibration or light emission may be defined by, for example, an on / off pattern. In the case of light emission, for example, it can be distinguished by the duration of light emission, blinking, the amount of light, and the like. When the field is dark, it is also effective to transmit with light.
 なお、上記表示、音声、振動および光等の出力方式は、組合せで用いてもよい。また、圃場内にスピーカ装置や発光装置を備えている場合には、作業者端末1からその装置へ連携することで、作業者端末1ではなくその装置から、音声、振動、光等を出力させてもよい。発光装置としては、レーザーポインタ装置等を用いてよい。圃場内にレーザーポインタ装置が設置されてもよい。発光装置は、レーザー光等の光を、例えば収穫対象物へ向けてその対象物を指し示すように出射してもよい。作業者W1は、その光から収穫対象物等を認識できる。 Note that the above display, voice, vibration, light and other output methods may be used in combination. In addition, when the field is equipped with a speaker device or a light emitting device, by linking from the worker terminal 1 to the device, voice, vibration, light, etc. are output from the device instead of the worker terminal 1. You may. As the light emitting device, a laser pointer device or the like may be used. A laser pointer device may be installed in the field. The light emitting device may emit light such as a laser beam toward, for example, a harvesting object so as to point to the object. The worker W1 can recognize the harvested object or the like from the light.
 [圃場]
 図22は、ある圃場(圃場A)の俯瞰のマップの構成を示す。作業者端末1は、前述の病害虫判別支援機能43に関しては、表示面5で、病害虫が有る領域を表す画像を表示してもよいし、農薬散布すべき領域を表す画像を表示してもよい。特に、作業者端末1は、表示面5に、図22のような圃場の簡易的なマップを表示し、このマップ上に、病害虫が有る領域や、農薬散布すべき領域を表す画像を表示してもよい。領域221は、病害虫が検出された対象物の領域に対応した、農薬散布箇所の領域例を示す。この領域221の情報は、前述の図6の対処支援情報に含まれている。
[Field]
FIG. 22 shows the configuration of a bird's-eye view map of a certain field (field A). Regarding the above-mentioned pest discrimination support function 43, the worker terminal 1 may display an image showing an area where pests are present or an image showing an area to be sprayed with pesticides on the display surface 5. .. In particular, the worker terminal 1 displays a simple map of the field as shown in FIG. 22 on the display surface 5, and displays an image showing an area where pests are present and an area where pesticides should be sprayed on this map. You may. Area 221 shows an example of a pesticide spraying area corresponding to the area of the object in which the pest was detected. The information of this area 221 is included in the coping support information of FIG. 6 described above.
 また、位置w1,w2,w3は、作業者W1がいる位置の例を示す。方向d1,d2,d3は、カメラ6の撮影方向の例を示す。いずれの位置や方向でも、作業支援が可能である。 Further, the positions w1, w2, and w3 indicate an example of the position where the worker W1 is located. The directions d1, d2, and d3 indicate an example of the shooting direction of the camera 6. Work support is possible in any position and direction.
 また、本システムの他の利用方法として、まず作業者W1が圃場の各通路に沿って各畝の農作物についてカメラ6による撮影を一通り行う。これにより、作業者端末1およびサーバ2は、取得したデータをまとめて認識処理し、その結果から、圃場における農作物の状態を表すマップを作成してもよい。このマップには、収穫対象物の位置や成熟度、病害虫の状態等が記載される。 In addition, as another method of using this system, the worker W1 first takes a series of photographs of the crops of each ridge along each passage of the field with the camera 6. As a result, the worker terminal 1 and the server 2 may collectively recognize and process the acquired data, and create a map showing the state of the crop in the field from the result. On this map, the position and maturity of the harvested object, the state of pests, etc. are described.
 [効果等]
 上記のように、実施の形態1の現場作業支援システムによれば、以下のような効果が得られる。まず、収穫や出荷の作業支援機能41に関しては、作業者W1に対し、具体的でわかりやすい収穫指示や出荷指示を提供できる。そのため、作業者W1が未習熟者の場合でも、熟練者のスキルや経験に近いレベルで、収穫や出荷の際の選別等の判断が容易にできる。作業者W1は、作業支援の出力に従って、容易に作業を行うことができ、作業の負荷を低くすることができ、効率的に作業ができる。また、作業支援出力は、未習熟者のスキル等の向上にも寄与できる。営農者は、作業者W1が未習熟者でも、収穫等の作業を行わせることができ、営農のコスト低減や効率向上等が実現できる。
[Effects, etc.]
As described above, according to the on-site work support system of the first embodiment, the following effects can be obtained. First, with respect to the harvesting and shipping work support function 41, it is possible to provide the worker W1 with specific and easy-to-understand harvesting instructions and shipping instructions. Therefore, even if the worker W1 is an inexperienced person, it is possible to easily make a judgment such as selection at the time of harvesting or shipping at a level close to the skill and experience of a skilled person. The worker W1 can easily perform the work according to the output of the work support, can reduce the work load, and can work efficiently. In addition, the work support output can also contribute to improving the skills of inexperienced people. The farmer can perform work such as harvesting even if the worker W1 is an inexperienced person, and can realize cost reduction and efficiency improvement of farming.
 予測支援機能42に関しては、コスト低減、予測精度向上等が実現できる。従来のJA等では、収穫量等の予測に関して、各農家へ出向いてヒヤリングする必要がある等、大きな手間やコストがかかっていた。予測支援機能42によれば、通信や処理を通じたデータ収集に基づいて、収穫見込量等の予測情報を提供できる。よって、従来かかっていた手間やコストを低減できる。予測支援機能42によれば、短時間でデータ収集でき、実際の圃場での対象物の生育の状況の把握に基づいて予測ができるので、予測精度を向上できる。 Regarding the prediction support function 42, cost reduction, improvement of prediction accuracy, etc. can be realized. In the conventional JA and the like, it takes a lot of time and cost to predict the yield and the like because it is necessary to go to each farmer to hear about it. According to the prediction support function 42, it is possible to provide prediction information such as an estimated harvest amount based on data collection through communication and processing. Therefore, it is possible to reduce the labor and cost that have been required in the past. According to the prediction support function 42, data can be collected in a short time, and prediction can be made based on grasping the actual growth situation of the object in the field, so that the prediction accuracy can be improved.
 病害虫判別支援機能43に関しては、コスト低減、作業漏れ防止等を実現できる。病害虫判別支援機能43によれば、病害虫の状態に関する認識結果および位置情報等を合わせることで、農薬散布等の対処支援を効率的に提供できる。営農者は、支援に従って、圃場における限定された指定の箇所に、指定の散布量で農薬散布の作業を実施すればよい。営農者は、農薬散布漏れを防止でき、農薬代や農薬散布工数を低減でき、コスト低減や効率向上が実現できる。 Regarding the pest discrimination support function 43, cost reduction, work omission prevention, etc. can be realized. According to the pest discrimination support function 43, it is possible to efficiently provide coping support such as pesticide spraying by combining the recognition result and the position information regarding the state of the pest. Farmers may, in accordance with support, carry out the work of spraying pesticides in a limited designated area in the field at a designated spraying amount. Farmers can prevent leaks of pesticide spraying, reduce pesticide costs and pesticide spraying man-hours, and realize cost reduction and efficiency improvement.
 農作物の収穫や出荷は、輸送距離や出荷日数等に応じて、どの成熟度や等級で行うと好適であるかが異なる。本システムによれば、指示者W2の作業指示に応じて、成熟度等に応じた作業支援出力を行うことができる。農業の場合、現場の圃場では、農作物の種別や個体毎に状態が日々変化する。本システムは、このような農作物の特性を考慮した作業支援が可能である。 Which maturity and grade is suitable for harvesting and shipping agricultural products depends on the transportation distance, shipping days, etc. According to this system, it is possible to output work support according to the degree of maturity or the like in response to the work instruction of the instructor W2. In the case of agriculture, in the field of the field, the state changes daily for each type of crop and individual. This system can support work in consideration of the characteristics of such crops.
 なお、特許文献1のような従来技術例のシステムの場合、現場の作業者が、農作物の収穫を行うべきか否かを判断する必要がある。そのため、未習熟者の場合には、収穫等の判断が難しい場合がある。実施の形態1のシステムによれば、作業者W1が未習熟者であっても、どの農作物を収穫すべきかが容易に判断できる。 In the case of the system of the prior art example as in Patent Document 1, it is necessary for the on-site worker to determine whether or not the crop should be harvested. Therefore, in the case of an inexperienced person, it may be difficult to judge the harvest or the like. According to the system of the first embodiment, even if the worker W1 is an inexperienced person, it is possible to easily determine which crop should be harvested.
 [変形例]
 実施の形態1のシステムの変形例として以下も可能である。作業者端末1は、AI機能20を用いて、作業者W1が現在いる通路に面する対象物を判断し、表示面5に表示する作業支援情報を選択してもよい。これにより、表示面5には、作業者W1が現在いる通路で収穫できる対象物についての枠画像等が表示される。表示面5には、例えば隣の通路で収穫すべき対象物についての枠画像が表示されない。よって、作業者W1は、効率的に収穫作業が可能である。
[Modification example]
The following is also possible as a modification of the system of the first embodiment. The worker terminal 1 may use the AI function 20 to determine an object facing the passage where the worker W1 is currently present, and select work support information to be displayed on the display surface 5. As a result, a frame image or the like of an object that can be harvested in the passage where the worker W1 is currently present is displayed on the display surface 5. On the display surface 5, for example, a frame image about an object to be harvested in the adjacent passage is not displayed. Therefore, the worker W1 can efficiently perform the harvesting work.
 図23は、変形例における、ある圃場の俯瞰のマップの構成を示す。ある圃場において、所定の固定的な位置にカメラ装置500(例えば4台)が設置されている。また、各カメラ装置500には図示しないスピーカ装置等も併設されている。作業者W1の作業者端末1は、各カメラ装置500や各スピーカ装置と連携する。各カメラ装置500は、所定の方向を撮影して画像を取得し、作業者端末1またはサーバ2へ送信する。作業者端末1またはサーバ2は、その画像を用いて、前述と同様に対象物の認識を行い、認識結果に基づいて作業支援情報を出力する。例えば、位置w1にいる作業者W1の作業者端末1の表示面5に、収穫作業支援情報が表示される。 FIG. 23 shows the configuration of a bird's-eye view map of a certain field in the modified example. In a certain field, camera devices 500 (for example, four) are installed at predetermined fixed positions. In addition, each camera device 500 is also provided with a speaker device and the like (not shown). The worker terminal 1 of the worker W1 cooperates with each camera device 500 and each speaker device. Each camera device 500 captures a predetermined direction, acquires an image, and transmits the image to the worker terminal 1 or the server 2. The worker terminal 1 or the server 2 recognizes the object using the image in the same manner as described above, and outputs work support information based on the recognition result. For example, the harvesting work support information is displayed on the display surface 5 of the worker terminal 1 of the worker W1 at the position w1.
 この場合の収穫作業支援情報は、作業者W1がいる位置w1に対し、収穫対象物がある位置を通知や誘導するような情報としてもよい。星マークで示す位置は、収穫対象物がある位置を示す。作業者端末1は、このような圃場のマップ上に、各収穫対象物の位置を表する画像を表示してもよい。その際の収穫対象物の位置の通知等の出力は、前述のように、表示、音声、振動、光等の各手段を用いることができる。圃場内に複数の装置(例えば複数のスピーカ装置500)が設置されている場合には、それらの複数の装置の位置を区別して、出力する装置を制御することで、対象物の位置等を作業者W1に伝えることが可能である。上記のように、撮影手段(カメラ6またはカメラ装置500)と認識手段(AI機能20)とが離れている形態も可能である。 The harvesting work support information in this case may be information that notifies or guides the position where the harvesting object is located to the position w1 where the worker W1 is located. The position indicated by the star mark indicates the position where the harvested object is located. The worker terminal 1 may display an image showing the position of each harvesting object on the map of such a field. As described above, each means such as display, voice, vibration, and light can be used for output such as notification of the position of the harvested object at that time. When a plurality of devices (for example, a plurality of speaker devices 500) are installed in the field, the positions of the plurality of devices are distinguished and the output device is controlled to work on the position of the object. It is possible to tell the person W1. As described above, it is possible that the photographing means (camera 6 or camera device 500) and the recognition means (AI function 20) are separated from each other.
 カメラ装置500は、被写体として作業者W1を含めて撮影してもよい。作業者端末1は、カメラ6またはカメラ装置500を用いて、画像内の農作物および作業者W1の手等を検出することで、収穫等の動作を判断し、実績として計測してもよい。例えば、画像内に認識された対象物に対し、作業者W1が手を伸ばして収穫する。その場合、画像において対象物が写らない状態になることで、収穫されたと推定できる。 The camera device 500 may take a picture including the worker W1 as a subject. The worker terminal 1 may use the camera 6 or the camera device 500 to detect the crops in the image and the hands of the worker W1 to determine the operation such as harvesting and measure it as a result. For example, the worker W1 reaches for the object recognized in the image and harvests it. In that case, it can be estimated that the harvest was made when the object was not shown in the image.
 実施の形態1のシステムは、サーバ2を含む構成としたが、これに限らず、作業者端末1のみで実現してもよい。作業者W1の位置の検出手段は、GPS受信器に限らず、ビーコン、RFIDタグ、屋内測位システム等を適用してもよい。画像を取得するためのカメラについては、作業者W1が着用するヘルメットや作業服等に備えるカメラを用いる構成としもよい。作業者端末1は、農作業用に、防塵、防水、耐熱、放熱等の機能を持たせてもよい。画像表示や音声出力は、各国の言語に依存しないユニバーサルデザインとすると好ましい。AI機能20は、現場の光の状態(例えば天候、朝昼夜等)を考慮して認識処理を行ってもよい。実施の形態1のシステムのうち、作業支援機能41、予測支援機能42、または病害虫判別支援機能43の一部の機能のみを備えるシステムも可能である。ユーザ設定に応じて一部の機能のみを利用できる形態でもよい。 The system of the first embodiment has a configuration including the server 2, but the system is not limited to this, and may be realized only by the worker terminal 1. The position detecting means of the worker W1 is not limited to the GPS receiver, and a beacon, an RFID tag, an indoor positioning system, or the like may be applied. As the camera for acquiring the image, a camera provided in a helmet, work clothes, or the like worn by the worker W1 may be used. The worker terminal 1 may be provided with functions such as dustproof, waterproof, heat resistant, and heat dissipation for agricultural work. It is preferable that the image display and audio output have a universal design that does not depend on the language of each country. The AI function 20 may perform the recognition process in consideration of the light condition (for example, weather, morning, day and night, etc.) at the site. Among the systems of the first embodiment, a system having only a part of the work support function 41, the prediction support function 42, or the pest discrimination support function 43 is also possible. It may be a form in which only some functions can be used according to user settings.
 (実施の形態2)
 図24~図31を用いて、本発明の実施の形態2の現場作業支援システムについて説明する。実施の形態2の基本的な構成は実施の形態1と同様であり、以下では、実施の形態2における実施の形態1とは異なる構成部分について説明する。実施の形態2では、実施の形態1に機能(実績検出機能と記載する場合がある)が追加されている。この実績検出機能は、画像の認識に基づいて、対象物の収穫や出荷の際の個数を推定・カウントして、実績として把握する機能である。実施の形態2で、作業支援出力を行う部分については実施の形態1と同様である。なお、以下では、この機能について、収穫の場合で説明するが、出荷の場合にも、同様に適用可能である。
(Embodiment 2)
The field work support system according to the second embodiment of the present invention will be described with reference to FIGS. 24 to 31. The basic configuration of the second embodiment is the same as that of the first embodiment, and the components different from the first embodiment of the second embodiment will be described below. In the second embodiment, a function (may be described as a performance detection function) is added to the first embodiment. This performance detection function is a function that estimates and counts the number of objects at the time of harvesting and shipping based on image recognition, and grasps them as performance. In the second embodiment, the portion where the work support output is performed is the same as that in the first embodiment. In the following, this function will be described in the case of harvesting, but it can also be applied in the case of shipping.
 前述の図3の予測支援機能42および予測システム202は、収穫見込量等の予測を行うが、その予測の精度を高めるために、収穫等の実績量、例えば収穫個数等を把握・使用することが有効である。そこで、実施の形態2では、実施の形態1のシステムに、図24のように、実績検出機能に対応する実績検出部30(特に収穫検出部)が追加されている。実績検出部30は、対象物認識部12(図4または図5)からの画像の認識結果301、および撮影部11からの画像302に基づいて、作業者W1(図1)による収穫等の作業の際の、収穫等される対象物の個数(例えば収穫個数)を推定しカウントする。実績検出部30は、そのカウントの結果である収穫個数を含む情報を、収穫実績306として記憶および出力する。前述の予測支援機能42および予測支援システム202は、実績検出部30による検出結果の収穫実績305を用いて、収穫見込量等の予測処理を行うことができる。また、このシステムは、この機能を用いて把握した収穫実績306等の情報を、図3の指示者W2や上位システムに出力してもよいし、作業者端末1で出力(例えば表示面5に収穫個数を表示)してもよい。 The prediction support function 42 and the prediction system 202 of FIG. 3 described above predict the expected harvest amount, etc., and in order to improve the accuracy of the prediction, grasp and use the actual amount of the harvest, for example, the number of harvests. Is valid. Therefore, in the second embodiment, as shown in FIG. 24, a performance detection unit 30 (particularly a harvest detection unit) corresponding to the performance detection function is added to the system of the first embodiment. The performance detection unit 30 performs operations such as harvesting by the worker W1 (FIG. 1) based on the image recognition result 301 from the object recognition unit 12 (FIG. 4 or FIG. 5) and the image 302 from the photographing unit 11. At this time, the number of objects to be harvested (for example, the number of harvested objects) is estimated and counted. The result detection unit 30 stores and outputs information including the number of harvests as a result of the count as the harvest record 306. The prediction support function 42 and the prediction support system 202 described above can perform prediction processing such as the expected harvest amount by using the harvest record 305 of the detection result by the record detection unit 30. Further, this system may output information such as the harvest record 306 grasped by using this function to the instructor W2 of FIG. 3 or the higher-level system, or is output by the worker terminal 1 (for example, on the display surface 5). The number of harvested pieces may be displayed).
 これにより、実施の形態2の現場作業支援システムは、前述の作業支援出力(例えば図13)を伴う農作物の収穫や出荷の作業に伴い、対象物の数量を効率的に計測でき、実績として把握できる。このシステムの機能を用いる場合、従来の現場での収穫等の数量の計測方法よりも、作業負荷が少なく、高精度に計測・把握ができる。従来の現場では、例えば収穫実績を把握する場合、作業負荷やコストも考慮し、収穫物の概略的な数量の計測までに留まっている場合が多い。計測方法は、例えば複数の収穫物をまとめて収容した箱等の単位での概略的な重量の計測や、箱等の単位での個数の計測が挙げられる。それに対し、このシステムの機能によれば、作業支援出力に従った収穫等の動作に伴って、自動的に収穫個数等を計測できる。なお、予測支援機能42および予測支援システム202が無い形態の場合でも、この実績検出機能による実績の把握は有用である。 As a result, the on-site work support system of the second embodiment can efficiently measure the quantity of the target object in the work of harvesting and shipping the agricultural product with the above-mentioned work support output (for example, FIG. 13), and grasps it as a result. it can. When the function of this system is used, the workload is smaller and the measurement / grasp can be performed with high accuracy than the conventional method of measuring the quantity such as harvesting at the site. In the conventional field, for example, when grasping the harvest record, in consideration of the workload and cost, it is often the case that the measurement is limited to the approximate quantity of the harvested product. Examples of the measuring method include a rough measurement of the weight in a unit such as a box containing a plurality of harvested products, and a measurement of the number of pieces in a unit such as a box. On the other hand, according to the function of this system, the number of harvested pieces can be automatically measured according to the operation such as harvesting according to the work support output. Even in the case where the prediction support function 42 and the prediction support system 202 are not provided, it is useful to grasp the actual results by this actual result detection function.
 [実績検出機能]
 図24は、実施の形態2の現場作業支援システムにおける特徴的な部分として、実績検出部30の構成を示す。実績検出部30は、図1の作業者端末1またはサーバ2の少なくとも一方で実装される。実績検出部30は、例えば図3および図5の予測支援機能42および予測システム202の一部として実装されてもよいし、それらとは独立で連携する実績検出機能および実績検出システムとして実装されてもよい。本例では、実績検出部30は、サーバ2でのプログラム処理等によって実現されるとする。なお、実績検出部30は、収穫の場合の収穫検出部と、出荷の場合の出荷検出部とを含むが、図24では収穫検出部の場合を示す。
[Achievement detection function]
FIG. 24 shows the configuration of the performance detection unit 30 as a characteristic part of the field work support system of the second embodiment. The performance detection unit 30 is mounted on at least one of the worker terminal 1 or the server 2 in FIG. The achievement detection unit 30 may be implemented as a part of the prediction support function 42 and the prediction system 202 of FIGS. 3 and 5, for example, or may be implemented as an achievement detection function and an achievement detection system that cooperate independently with them. May be good. In this example, it is assumed that the performance detection unit 30 is realized by program processing or the like on the server 2. The actual result detection unit 30 includes a harvest detection unit in the case of harvesting and a shipment detection unit in the case of shipment, but FIG. 24 shows the case of the harvest detection unit.
 実績検出部30は、図4または図5の対象物認識部12から出力される認識結果301(認識結果情報)と、撮影部11から出力される画像302とを入力する。画像302と認識結果301は、時点が対応している情報である。実績検出部30は、さらに、図4の指示システム201または対象選択部13等から出力される、収穫対象情報を含む作業指示310(作業指示情報)を入力して利用してもよい。認識結果301には、前述の図12のように、画像内の個々の対象物の情報が含まれている。作業指示情報310には、前述のように、例えば「収穫対象は成熟度3以上のトマト」といった収穫対象情報、言い換えると対象物を選択・限定するための情報が含まれている。また、対象物選択部13(図4または図7)から出力される選択結果情報を用いてもよい。その場合、その選択結果情報は、前述の図12等のように、収穫作業指示等に従って、対象物が選択済みである。 The performance detection unit 30 inputs the recognition result 301 (recognition result information) output from the object recognition unit 12 of FIG. 4 or FIG. 5 and the image 302 output from the photographing unit 11. The image 302 and the recognition result 301 are information corresponding to the time points. The performance detection unit 30 may further input and use the work instruction 310 (work instruction information) including the harvest target information output from the instruction system 201 of FIG. 4 or the target selection unit 13. The recognition result 301 includes information on individual objects in the image, as shown in FIG. 12 described above. As described above, the work instruction information 310 includes harvest target information such as "the harvest target is tomatoes having a maturity of 3 or more", in other words, information for selecting and limiting the target. Further, the selection result information output from the object selection unit 13 (FIG. 4 or 7) may be used. In that case, as for the selection result information, the object has been selected according to the harvesting work instruction and the like as shown in FIG. 12 and the like.
 図24の実績検出部30は、プログラム処理等によって実現される、より詳細な処理部として、収穫対象検出部31、作業者検出部32、距離算出部33、被収穫判定部34、および条件設定部35を含む。実績検出部30は、時系列上の各時点の画像(図4の撮影部11が出力する画像)毎に、同様に処理を繰り返す。 The actual result detection unit 30 of FIG. 24 is a more detailed processing unit realized by program processing or the like, including a harvest target detection unit 31, a worker detection unit 32, a distance calculation unit 33, a harvest determination unit 34, and condition setting. Including part 35. The performance detection unit 30 repeats the same process for each image at each time point in the time series (image output by the photographing unit 11 in FIG. 4).
 実績検出部30による処理フローの概略は以下の通りである。まず、第1ステップで、収穫対象検出部31は、認識結果301および作業指示310の情報を用いて、画像において収穫対象物が認識されているか否か、および認識されている場合にはその収穫対象物を検出する。ここでの収穫対象物とは、作業指示および作業支援出力に該当している、作業者W1が収穫すべき作業対象物3である。収穫個数は収穫対象物の種類(例えばトマト)毎にカウントされる。収穫対象検出部31は、画像内に複数の収穫対象物がある場合には、各収穫対象物を検出する。収穫対象検出部31は、検出結果情報である収穫対象物情報303を出力する。収穫対象物情報303は、各収穫対象物のIDや画像内の位置情報を含む。 The outline of the processing flow by the performance detection unit 30 is as follows. First, in the first step, the harvest target detection unit 31 uses the information of the recognition result 301 and the work instruction 310 to determine whether or not the harvest target is recognized in the image, and if it is recognized, its harvest. Detect the object. The harvesting object here is the work object 3 to be harvested by the worker W1 which corresponds to the work instruction and the work support output. The number of harvested pieces is counted for each type of harvested object (for example, tomato). When there are a plurality of harvest objects in the image, the harvest target detection unit 31 detects each harvest target. The harvest target detection unit 31 outputs the harvest target information 303, which is the detection result information. The harvest target information 303 includes an ID of each harvest target and position information in the image.
 さらに、収穫対象検出部31は、認識結果301に加え、作業指示310の収穫対象情報(または対象選択部13からの選択結果情報)を用いて、検出する収穫対象物を絞り込んでもよい。例えば、収穫対象情報として「成熟度3以上のトマト」のように指定されている場合、収穫対象検出部31は、画像内の対象物のうちその指定に該当する収穫対象物を検出する。作業指示情報310等を用いて絞り込む場合、実績検出の精度や効率をより高める効果が期待できる。 Further, the harvest target detection unit 31 may narrow down the harvest target to be detected by using the harvest target information (or the selection result information from the target selection unit 13) of the work instruction 310 in addition to the recognition result 301. For example, when the harvest target information is specified as "tomato with maturity of 3 or more", the harvest target detection unit 31 detects the harvest target corresponding to the designation among the objects in the image. When narrowing down using work instruction information 310 or the like, the effect of further improving the accuracy and efficiency of actual result detection can be expected.
 一方、第2ステップで、作業者検出部32は、入力の画像302を用いて、第1ステップの認識結果301と対応する同じ時点の画像302内に、作業者W1の手等の身体部位(作業者物体と記載する)が含まれているか否か、および含まれている場合にはその作業者物体を検出する。作業者検出部32は、AI機能20(図4)と同様に、画像解析や機械学習に基づいて、作業者物体を検出する。検出対象である作業者物体は、手や腕に限らず、収穫等の作業の際に用いられる作業手袋や、ハサミ等の道具、あるいは機械としてもよい。この作業者物体は、予め、実績検出部30を構成するプログラム等で規定できる。作業者検出部32は、検出結果である作業者物体情報304を出力する。作業者物体情報304は、作業者物体のIDや画像内の位置情報を含む。なお、変形例としては、AI機能20(図4)に、画像から作業者物体を検出する機能を持たせ、対象物認識部12からの認識結果301に、作業者物体の認識結果情報を含ませてもよい。この場合、作業者検出部32は、入力の認識結果301に基づいて作業者物体を検出すればよい。 On the other hand, in the second step, the worker detection unit 32 uses the input image 302 in the body part such as the hand of the worker W1 in the image 302 at the same time corresponding to the recognition result 301 in the first step. Whether or not (described as a worker object) is included, and if it is included, the worker object is detected. Similar to the AI function 20 (FIG. 4), the worker detection unit 32 detects the worker object based on image analysis and machine learning. The worker object to be detected is not limited to the hand or arm, but may be a work glove used for work such as harvesting, a tool such as scissors, or a machine. This worker object can be defined in advance by a program or the like that constitutes the performance detection unit 30. The worker detection unit 32 outputs the worker object information 304, which is the detection result. The worker object information 304 includes the ID of the worker object and the position information in the image. As a modification, the AI function 20 (FIG. 4) is provided with a function of detecting a worker object from an image, and the recognition result 301 from the object recognition unit 12 includes the recognition result information of the worker object. You may not. In this case, the worker detection unit 32 may detect the worker object based on the input recognition result 301.
 上記第1ステップで収穫対象物が検出され、第2ステップで作業者物体が検出された場合、第3ステップで、距離算出部33は、入力の収穫対象物情報303と作業者物体情報304を用いて、画像内における収穫対象物と作業者物体との距離DSTを算出する(後述の図25等)。この距離DSTは、収穫動作および被収穫を判定するための、収穫対象物と作業者物体との遠近や重なりの状態に関するパラメータである。距離算出部33は、算出結果の距離DSTを含む距離情報305を出力する。 When the harvested object is detected in the first step and the worker object is detected in the second step, in the third step, the distance calculation unit 33 inputs the input harvested object information 303 and the worker object information 304. Using this, the distance DST between the harvested object and the worker object in the image is calculated (FIG. 25, etc. described later). This distance DST is a parameter relating to the perspective and overlapping state of the harvested object and the worker object for determining the harvesting operation and the harvested object. The distance calculation unit 33 outputs the distance information 305 including the distance DST of the calculation result.
 第4ステップで、被収穫判定部34は、入力の距離情報305と所定の条件に基づいて、収穫対象物が手等の作業者物体によって収穫された(「被収穫」と記載する)かどうかを判定し、判定結果に応じて収穫個数をカウントする。被収穫判定部34は、この判定処理の際には、条件設定部35で予め設定されている閾値等の条件を用いる。本例では、閾値として、距離閾値TD、時間閾値TT1(第1時間閾値)、時間閾値TT2(第2時間閾値)がある。なお、この条件の閾値等は、判定処理方式に応じて変えてもよいし、ユーザ設定を可能としてもよい。 In the fourth step, the harvested determination unit 34 determines whether or not the harvested object has been harvested by a worker object such as a hand (described as “harvested”) based on the input distance information 305 and predetermined conditions. Is determined, and the number of harvested pieces is counted according to the determination result. In this determination process, the harvest determination unit 34 uses conditions such as a threshold value preset by the condition setting unit 35. In this example, the thresholds include a distance threshold TD, a time threshold TT1 (first time threshold), and a time threshold TT2 (second time threshold). The threshold value of this condition may be changed according to the determination processing method, or may be set by the user.
 第4ステップは、より詳細には以下のステップA,B,C,Dを含む。被収穫判定部34は、まずステップAで、収穫対象物と作業者物体との距離DSTが、所定の距離閾値TD以下か否か(DST≦TD)を判断する。この判断は、言い換えると、収穫対象物に手等の作業者物体が十分に近いかどうかの判断である。 The fourth step includes the following steps A, B, C and D in more detail. First, in step A, the harvested determination unit 34 determines whether or not the distance DST between the harvested object and the worker object is equal to or less than a predetermined distance threshold value TD (DST ≦ TD). In other words, this judgment is a judgment as to whether or not a worker object such as a hand is sufficiently close to the harvested object.
 ステップAで距離DSTが所定の距離閾値TD以下である場合、さらに、ステップBで、被収穫判定部34は、その距離DSTが小さい状態(例えば画像フレーム数に対応する時間T1)が、所定の時間閾値TT1以上継続するか(T1≧TT1)を判断する。この判断は、収穫対象物が手等の作業者物体によって把持等されているかどうかの判断に対応する。この判断では、一時的に重なる場合を除外するように、ある程度の時間(TT1)を用いる。 When the distance DST is equal to or less than the predetermined distance threshold value TD in step A, the harvest determination unit 34 is in a state where the distance DST is small (for example, the time T1 corresponding to the number of image frames) in step B. It is determined whether the time threshold value TT1 or more is continued (T1 ≧ TT1). This determination corresponds to the determination as to whether or not the harvested object is gripped or the like by a worker object such as a hand. In this judgment, a certain amount of time (TT1) is used so as to exclude the case of temporary overlap.
 ステップBで所定の時間閾値TT1以上継続する場合、さらに、ステップCで、被収穫判定部34は、時系列上、画像内で収穫対象物が認識されなくなったかどうか、および認識されなくなった場合にはその認識されない時間(例えば画像フレーム数に対応する時間T2)が所定の時間(第2時間閾値TT2)以上継続するか(T2≧TT2)を判断する。この判断では、収穫動作がされた場合に収穫対象物が手等の作業者物体とともに画像の外に出ること等によって認識されなくなることを利用する。 In step B, when the predetermined time threshold value TT1 or more is continued, and in step C, the harvested determination unit 34 determines whether or not the harvested object is no longer recognized in the image in the time series, and when it is not recognized. Determines whether the unrecognized time (for example, the time T2 corresponding to the number of image frames) continues for a predetermined time (second time threshold TT2) or more (T2 ≧ TT2). In this determination, it is utilized that when the harvesting operation is performed, the harvested object is not recognized by going out of the image together with the worker object such as a hand.
 ステップCで収穫対象物が認識されない時間が所定の時間以上継続した場合、被収穫判定部34は、収穫対象物が収穫された(「被収穫」)と判定する。そして、ステップDで、被収穫判定部34は、収穫個数パラメータ値を1増やすようにカウントする。被収穫判定部34は、判定結果である現在までの収穫個数を含む実績情報306を記憶および出力する。その後、第1ステップに戻って同様に繰り返しである。 If the time during which the harvested object is not recognized in step C continues for a predetermined time or longer, the harvested determination unit 34 determines that the harvested object has been harvested (“harvested”). Then, in step D, the harvest determination unit 34 counts so as to increase the number of harvested parameter values by 1. The harvested determination unit 34 stores and outputs the actual information 306 including the number of harvested products up to the present, which is the determination result. After that, the process returns to the first step and is repeated in the same manner.
 なお、実績検出部30によって収穫個数をカウントする対象となる期間は、例えばユーザによって開始時と終了時、または機能のオンとオフを指定する操作がされる方式等を適用できる。 Note that, for the period for which the actual number of harvested pieces is counted by the actual result detection unit 30, for example, a method in which the user specifies the start time and the end time, or the on / off of the function can be applied.
 上記のように、実績検出部30は、画像内における収穫対象物と手等の作業者物体との遠近や重なり等の状態を判断することで、収穫動作を判断し収穫個数をカウントする。まとめると、上記判定処理方式における第4ステップでは、被収穫判定部34は、収穫対象物と作業者物体との距離DSTが、所定値以下で、かつ、その状態が所定時間以上継続し、かつ、その後に収穫対象物が認識されない状態が所定時間以上継続する場合に、被収穫と判定する。 As described above, the performance detection unit 30 determines the harvesting operation and counts the number of harvested pieces by determining the state of perspective, overlap, etc. between the harvested object and the worker object such as a hand in the image. In summary, in the fourth step of the above-mentioned determination processing method, the harvest determination unit 34 determines that the distance DST between the harvested object and the worker object is equal to or less than a predetermined value, and the state continues for a predetermined time or longer. After that, when the state in which the harvested object is not recognized continues for a predetermined time or longer, it is determined to be harvested.
 上記のように、実施の形態2における実績検出機能によれば、作業支援出力を伴う農作物の収穫や出荷の作業に伴い、対象物の数量を効率的に計測でき、実績として把握できる。また、この実績検出機能によれば、収穫指示等の作業指示や作業支援出力の情報と、収穫個数等の実績情報とにおいて、照合や差分判断も可能である。この照合に基づいて、例えば、作業支援出力として指定された収穫対象物に対し、作業者W1が実際に収穫動作を行ったかどうか等も把握可能である。 As described above, according to the actual result detection function in the second embodiment, the quantity of the target object can be efficiently measured and grasped as the actual result in the work of harvesting and shipping the agricultural product accompanied by the work support output. Further, according to this actual result detection function, it is possible to collate and determine the difference between the information of the work instruction such as the harvest instruction and the work support output and the actual information such as the number of harvested pieces. Based on this collation, for example, it is possible to grasp whether or not the worker W1 actually performed the harvesting operation on the harvesting object designated as the work support output.
 [画像例]
 以下では、図25~図29のような画像例を用いて、収穫判定に係わる具体的処理例を示す。図25は、ある時点の画像について、収穫対象物および作業者物体の検出結果の具体例を示す。画像内において、収穫対象物251と作業者物体252とが検出されている。ここでは、収穫対象物の位置は、2次元画像(横軸をx、縦軸をyとする)内の位置として、物体領域の中心位置として規定される。収穫対象物251の位置Ptは(tx,ty)である。ここでは、認識結果301に基づいた収穫対象物251の領域を矩形の枠で示す。作業者物体252は、作業者W1の右手の場合であり、説明上、透過的な領域として模式的に図示している。作業者物体の位置は、同様に、2次元画像内の位置として、物体領域の中心位置として規定される。作業者物体252の位置Pwは(wx,wy)である。ここでは、画像302に基づいた作業者物体252の領域を破線枠で示す。画像内には、収穫対象物が含まれない場合もあるし、複数個の収穫対象物が含まれる場合もある。本例では、画像内に、「成熟度3以上のトマト」に該当する1個の収穫対象物251が含まれ検出されている。
[Image example]
In the following, specific processing examples related to harvest determination will be shown using image examples as shown in FIGS. 25 to 29. FIG. 25 shows a specific example of the detection result of the harvested object and the worker object for the image at a certain time point. In the image, the harvesting object 251 and the worker object 252 are detected. Here, the position of the harvested object is defined as the position in the two-dimensional image (the horizontal axis is x and the vertical axis is y) as the central position of the object region. The position Pt of the harvested object 251 is (tx, ty). Here, the area of the harvested object 251 based on the recognition result 301 is shown by a rectangular frame. The worker object 252 is the case of the right hand of the worker W1, and is schematically illustrated as a transparent region for explanation. Similarly, the position of the worker object is defined as the center position of the object area as the position in the two-dimensional image. The position Pw of the worker object 252 is (wx, wy). Here, the area of the worker object 252 based on the image 302 is shown by a broken line frame. The image may not include the harvested object, or may include a plurality of harvested objects. In this example, one harvest object 251 corresponding to "tomatoes having a maturity of 3 or more" is included and detected in the image.
 作業者W1は、作業支援出力(例えば図13)に応じた収穫動作として、この収穫対象物251に右手を伸ばして取ろうとしている。検出対象となる作業者物体の例として、このような手としてもよい。作業者検出部32は、手の形状や色等を検出してもよい。これに限らず、作業者W1が手に作業手袋を装着している場合には、その作業手袋を検出対象としてもよい。また、作業者W1が作業用のハサミ等の道具を持って使用している場合や、作業用の機械を使用している場合には、その道具や機械等を検出対象としてもよい。また例えば、予め、作業手袋等に所定のマーカを付与しておき、そのマーカを検出対象としてもよい。作業者検出部32は、そのマーカを作業者物体として扱って検出すればよい。また、そのマーカは、バーコード等のコードとしてもよい。これらの手段を用いることで、画像内から作業者物体をより検出しやすくなる等の効果が期待できる。 Worker W1 is trying to reach out and take the harvesting object 251 as a harvesting operation according to the work support output (for example, FIG. 13). Such a hand may be used as an example of the worker object to be detected. The worker detection unit 32 may detect the shape, color, and the like of the hand. Not limited to this, when the worker W1 wears work gloves on his / her hand, the work gloves may be the detection target. Further, when the worker W1 is using a tool such as scissors for work or is using a machine for work, the tool or machine may be the detection target. Further, for example, a predetermined marker may be attached to the work gloves or the like in advance, and the marker may be used as a detection target. The worker detection unit 32 may treat the marker as a worker object and detect it. Further, the marker may be a code such as a bar code. By using these means, effects such as making it easier to detect the worker object from the image can be expected.
 また、1つの画像内には、作業者W1の左手と右手など、複数の作業者物体が検出できる場合もあり得る。その場合にも、実施の形態2のシステムは、それぞれの作業者物体を検出し、作業者物体毎に同様の処理を適用すればよい。例えば、実績検出部30は、画像内に両手が含まれている場合、収穫対象物との距離DSTが近い方の手を用いて判定を行ってもよい。 In addition, there may be a case where a plurality of worker objects such as the left hand and the right hand of the worker W1 can be detected in one image. Even in that case, the system of the second embodiment may detect each worker object and apply the same processing to each worker object. For example, when both hands are included in the image, the performance detection unit 30 may make a determination using the hand having the closer DST to the harvested object.
 図25中の距離DST(特にDST1)は、画像内における収穫対象物251の位置Pt(tx,ty)と作業者物体252の位置Pw(wx,wy)との距離である。距離DSTは、例えば以下の式で算出できる。 DST=√{(wx-tx)+(wy-ty)The distance DST (particularly DST1) in FIG. 25 is the distance between the position Pt (tx, ty) of the harvesting object 251 and the position Pw (wx, wy) of the worker object 252 in the image. The distance DST can be calculated by, for example, the following formula. DST = √ {(wx-tx) 2 + (wy-ty) 2 }
  図26は、図25の画像の時点よりも後の時点の画像の例であり、特に、作業者W1の頭や視界が殆ど動いていない場合を示す。この画像では、収穫対象物251の位置Ptは変わっていないが、作業者物体252の位置Pwが、位置Ptに近付いている。距離DSTは、小さくなり、特にDST2(DST2<DST1)となっている。また、この距離DST2は、距離閾値TD以内となっている。比較のために、距離閾値TDの例も図示している。距離閾値TDは、例えば収穫対象物や手の標準的なサイズを考慮して設定できる。本例では、画像の奥行き方向(zとする)において、収穫対象物251の上、すなわち作業者W1に近い側に、作業者物体252が一部重なっている。 FIG. 26 is an example of an image at a time point after the time point of the image of FIG. 25, and in particular, shows a case where the head and the field of view of the worker W1 are hardly moving. In this image, the position Pt of the harvesting object 251 has not changed, but the position Pw of the worker object 252 is closer to the position Pt. The distance DST becomes smaller, especially DST2 (DST2 <DST1). Further, this distance DST2 is within the distance threshold value TD. For comparison, an example of the distance threshold TD is also illustrated. The distance threshold TD can be set in consideration of, for example, the standard size of the harvested object or the hand. In this example, the worker object 252 partially overlaps the harvesting object 251 in the depth direction (z) of the image, that is, on the side closer to the worker W1.
 図27は、さらに、図26よりも後の時点の画像の例であり、特に、手である作業者物体252が、収穫対象物251の上に殆ど重なり、距離DST(特にDST3)が0に近い状態を示す。この状態は、作業者W1が手で収穫対象物251を掴んでいる状態等に対応する。なお、このような状態の場合、収穫対象物251は、手等の作業者物体252で隠されることで、認識されていない場合もあり得る。収穫対象物251は、手よりも前側にある場合には、認識されている可能性が高い。手等の作業者物体252は、収穫対象物251よりも奥側にある場合には、認識されない場合もあり得る。 FIG. 27 is an example of an image at a time point after FIG. 26, and in particular, the worker object 252, which is a hand, almost overlaps the harvesting object 251 and the distance DST (particularly DST3) becomes 0. Indicates a close state. This state corresponds to a state in which the worker W1 is holding the harvesting object 251 by hand. In such a state, the harvested object 251 may not be recognized because it is hidden by a worker object 252 such as a hand. The harvest object 251 is likely to be recognized if it is in front of the hand. The worker object 252 such as a hand may not be recognized when it is located behind the harvest object 251.
 図28は、さらに、作業者W1による収穫動作によって画像内で収穫対象物251および手等の作業者物体252が図27の状態から移動した後の状態の時の画像例を示す。作業者W1は、収穫対象物251を持った手を、前側(画像での右下方向)に移動させている。 FIG. 28 further shows an example of an image in a state after the harvesting object 251 and the worker object 252 such as a hand are moved from the state of FIG. 27 in the image by the harvesting operation by the worker W1. The worker W1 moves the hand holding the harvesting object 251 to the front side (lower right direction in the image).
 図29は、さらに、作業者W1による収穫動作によって収穫対象物251および作業者物体252が画像内から検出されなくなった状態の時の画像例を示す。図28または図29のようにして、画像内から収穫対象物251が検出されない状態が所定時間以上継続した場合、前述のように被収穫として判定される。 FIG. 29 further shows an image example in a state where the harvesting object 251 and the worker object 252 are no longer detected in the image due to the harvesting operation by the worker W1. When the state in which the harvested object 251 is not detected in the image continues for a predetermined time or longer as shown in FIG. 28 or FIG. 29, it is determined as harvested as described above.
 [変形例-収穫動作判定]
 図30は、変形例における被収穫判定の際の画像例を示す。図24の特に被収穫判定部34による被収穫判定は、上記のように距離DSTをベースとして行う形態に限らず可能である。変形例では、被収穫判定部34は、作業者物体による特定の動作である収穫動作の判定に基づいて、被収穫を判定する。この特定の動作は、作業者検出部32またはAI機能20において、検出対象として予め規定される。例えば、収穫対象物がトマトである場合、作業者W1は、収穫動作の際に、そのトマトを手または作業手袋によって包み込むように持つ。図30の画像例では、作業手袋等の作業者物体252によって、収穫対象物251であるトマトが、包み込むように持たれており、収穫対象物251自体は認識されていない。この変形例では、画像からこのような特定の動作に対応する画像部分を認識・判別できるように、予め、画像を入力とする機械学習や画像解析等によって、判別器34aを作成しておく。例えば、収穫動作を撮影した複数の画像320を教師情報として判別器34aに入力して機械学習を行っておく。
[Modification example-Harvest operation judgment]
FIG. 30 shows an example of an image at the time of determining the harvest in the modified example. In particular, the harvest determination by the harvest determination unit 34 in FIG. 24 is not limited to the form performed based on the distance DST as described above. In the modified example, the harvest determination unit 34 determines the harvest based on the determination of the harvest operation, which is a specific operation by the worker object. This specific operation is predetermined as a detection target in the worker detection unit 32 or the AI function 20. For example, when the object to be harvested is a tomato, the worker W1 holds the tomato so as to be wrapped by a hand or a work glove during the harvesting operation. In the image example of FIG. 30, the tomato which is the harvesting object 251 is held so as to be wrapped by the worker object 252 such as the working gloves, and the harvesting object 251 itself is not recognized. In this modification, the discriminator 34a is created in advance by machine learning or image analysis using an image as an input so that the image portion corresponding to such a specific operation can be recognized and discriminated from the image. For example, a plurality of images 320 obtained by capturing the harvesting operation are input to the discriminator 34a as teacher information to perform machine learning.
 図30での実績検出部30は、図24のような距離算出部33は不要である。図30の被収穫判定部34は、収穫動作を判別できる判別器34aを備える。被収穫判定部34は、図示の例のような画像302を入力し、画像302から、判別器34aによって、作業者物体252による特定の動作である収穫動作を判別し検出する。被収穫判定部34は、画像302内から、収穫動作を検出した場合、あるいは、さらに、収穫動作に伴って収穫対象物251を認識できない状態が所定時間以上継続した等の条件を満たした場合に、被収穫と判定する。なお、この方式を用いる場合でも、収穫動作として学習・判別する対象は、右手または左手による片手としてもよいし、両手としてもよいし、作業用の道具等としてもよい。これらは、教師として入力する画像しだいで学習・判別可能である。 The actual result detection unit 30 in FIG. 30 does not require the distance calculation unit 33 as shown in FIG. 24. The harvested determination unit 34 of FIG. 30 includes a discriminator 34a capable of discriminating the harvesting operation. The harvest determination unit 34 inputs an image 302 as shown in the illustrated example, and determines and detects a harvest operation, which is a specific operation by the worker object 252, from the image 302 by the discriminator 34a. When the harvest determination unit 34 detects the harvesting motion from the image 302, or further satisfies the condition that the harvesting object 251 cannot be recognized due to the harvesting motion continues for a predetermined time or longer. , Judged as harvested. Even when this method is used, the target to be learned and discriminated as the harvesting motion may be one hand with the right hand or the left hand, both hands, a work tool, or the like. These can be learned and discriminated depending on the image input as a teacher.
 [変形例-相対位置関係]
 図31は、変形例として、図24の被収穫判定部34による収穫判定に関する他の処理例を示す。この変形例では、画像内の複数の物体の間での相対位置関係を利用する。図31の(A)の画像内では、例として、収穫対象物A、非収穫対象物Bおよび非収穫対象物C、ならびに作業者物体Dである左手が認識されている。なお、これらの物体に限らず、画像解析等に基づいて、画像内から他の任意の物体が認識されていてもよい。4つの物体の位置を点{a,b,c,d}で示す。ここで、収穫対象物Aに着目した場合、他の各物体(B,C,D)との相対的な位置関係を、点線で示す。例えば、収穫対象物A(点a)は、非収穫対象物B(点b)との間では、距離Dabを含む相対位置関係を有する。
[Modification example-relative positional relationship]
FIG. 31 shows, as a modified example, another processing example relating to the harvest determination by the harvest determination unit 34 of FIG. 24. In this modification, the relative positional relationship between a plurality of objects in the image is used. In the image of FIG. 31 (A), as an example, the harvest target A, the non-harvest target B and the non-harvest target C, and the left hand which is the worker object D are recognized. Not limited to these objects, any other object may be recognized from the image based on image analysis or the like. The positions of the four objects are indicated by points {a, b, c, d}. Here, when focusing on the harvested object A, the relative positional relationship with each of the other objects (B, C, D) is shown by a dotted line. For example, the harvested object A (point a) has a relative positional relationship with the non-harvested object B (point b) including the distance Dab.
 図31の(B)は、(A)の状態から、作業者W1が手(作業者物体D)によって収穫対象物Aを掴んで動かした状態を示す。なお、ここでは(A)と(B)の画像間で、作業者W1の頭の位置や視界が概略静止しているとする。収穫対象物Aは、画像内での位置が移動しており、移動を破線矢印で示す。この移動に伴い、収穫対象物Aと他の物体、例えば非収穫対象物Bとの距離Dab等の相対位置関係が変化している。被収穫判定部34は、収穫対象物Aの被収穫の判定のために、収穫対象物Aが元の位置(例えば点a)から十分に離れたかを判断する。このために、被収穫判定部34は、例えば、収穫対象物A(点a)と非収穫対象物B(点b)との距離Dabの変化、例えば、移動前後での差分が、所定の閾値以上に大きくなった場合、被収穫と判定する。また、距離Dabのように1つの相対位置関係の判断のみだと、非収穫対象物Bの方が動かされた場合もあり得る。よって、距離Dacのように、もう1つの相対位置関係を判断することで、より確実に判定可能である。 (B) of FIG. 31 shows a state in which the worker W1 grabs and moves the harvesting object A by hand (worker object D) from the state of (A). Here, it is assumed that the position and the field of view of the head of the worker W1 are substantially stationary between the images (A) and (B). The position of the harvested object A has moved in the image, and the movement is indicated by a broken line arrow. Along with this movement, the relative positional relationship between the harvested object A and another object, such as the distance Dab between the non-harvested object B, has changed. The harvest determination unit 34 determines whether the harvest target A is sufficiently separated from the original position (for example, point a) in order to determine the harvest of the harvest target A. For this reason, the harvested determination unit 34 determines, for example, a change in the distance Dab between the harvested object A (point a) and the non-harvested object B (point b), for example, the difference before and after the movement is a predetermined threshold value. If it becomes larger than this, it is judged to be harvested. Further, if only one relative positional relationship is determined as in the distance Dab, the non-harvest object B may be moved. Therefore, it is possible to make a more reliable determination by determining another relative positional relationship, such as the distance Dac.
 被収穫判定部34は、上記のように、画像内の物体間の相対的位置関係の変化を判断することでも、収穫対象物Aの被収穫(対応する収穫動作)を判定でき、収穫個数をカウントできる。また、画像内で収穫対象物Aが認識できない時には、代わりに、収穫対象物Aを掴んでいる手(作業者物体D)の位置を用いて、被収穫を判定してもよい。なお、時系列上で、作業者W1の頭の位置が動く場合等には、各時点の画像の内容も変動し、画像内での各物体の位置が変動する。その場合でも、物体同士の相対的な位置関係を用いるので、上記と同様に、被収穫を判定可能である。 As described above, the harvest determination unit 34 can also determine the harvest (corresponding harvest operation) of the harvest target A by determining the change in the relative positional relationship between the objects in the image, and can determine the number of harvests. Can be counted. When the harvest target A cannot be recognized in the image, the harvest may be determined by using the position of the hand (worker object D) holding the harvest target A instead. When the position of the head of the worker W1 moves in the time series, the content of the image at each time point also changes, and the position of each object in the image also changes. Even in that case, since the relative positional relationship between the objects is used, the harvest can be determined in the same manner as described above.
 [変形例-作業支援情報]
 実施の形態2の変形例として、実績検出部30は、図4の表示制御部14等を含む出力制御部が出力する作業支援情報4を用いて、収穫等の判定を同様に行ってもよい。例えば、実績検出部30は、画像内における作業支援情報4(例えば図13の収穫対象物を囲むような収穫対象物を表す画像132)と作業者物体との距離等の状態に応じて、被収穫を判定する。
[Modification example-Work support information]
As a modification of the second embodiment, the performance detection unit 30 may similarly determine the harvest or the like by using the work support information 4 output by the output control unit including the display control unit 14 and the like in FIG. .. For example, the performance detection unit 30 receives the work support information 4 in the image (for example, the image 132 representing the harvesting object surrounding the harvesting object in FIG. 13) and the worker object according to a state such as a distance. Determine the harvest.
 以上、本発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。 Although the present invention has been specifically described above based on the embodiment, the present invention is not limited to the embodiment and can be variously modified without departing from the gist thereof.
 1…作業者端末(スマートデバイス)、1A…携帯端末、1B…ウェラブル端末、2…サーバ、3…作業対象物(対象物、農作物)、4…作業支援情報、5…表示面、6…カメラ、61…インカメラ、62…アウトカメラ、40…管理機能、41…作業支援機能、42…AI機能、W1…作業者、W2…指示者。 1 ... Worker terminal (smart device), 1A ... Mobile terminal, 1B ... Wearable terminal, 2 ... Server, 3 ... Work object (object, agricultural product), 4 ... Work support information, 5 ... Display surface, 6 ... Camera , 61 ... in-camera, 62 ... out-camera, 40 ... management function, 41 ... work support function, 42 ... AI function, W1 ... worker, W2 ... instructor.

Claims (20)

  1.  農業を含む現場の作業を支援するための現場作業支援システムであって、
     作業者に装着または携帯される作業者端末を備え、
     前記作業者端末は、カメラを用いて前記作業者の視界における農作物を含む作業対象物を撮影した第1画像を含む第1データを取得し、
     前記作業者端末または前記作業者端末に接続される計算機システムは、前記第1データを入力として、前記作業対象物の第2画像の学習が反映された第2データに基づいて前記作業対象物の状態を認識し、認識結果に基づいて前記作業を支援するための第3データを取得し、
     前記作業者端末は、前記第3データに基づいて前記作業者に対し前記作業を支援するための出力として、前記視界に対応付けられる前記第1画像内に前記作業対象物が有ること、を伝える出力を含む出力を行う、
     現場作業支援システム。
    It is a field work support system to support field work including agriculture.
    Equipped with a worker terminal that can be worn or carried by the worker
    The worker terminal acquires first data including a first image of a work object including an agricultural product in the field of view of the worker using a camera.
    The worker terminal or the computer system connected to the worker terminal takes the first data as an input, and based on the second data reflecting the learning of the second image of the work object, the work object. Recognize the state, acquire the third data to support the work based on the recognition result,
    The worker terminal informs the worker that the work object is in the first image associated with the field of view as an output for supporting the work based on the third data. Output including output,
    On-site work support system.
  2.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、指示者からの前記作業対象物の状態の指定を含む作業指示に応じて、前記作業者端末または前記計算機システムが前記第3データから選択した一部のデータに基づいて、前記出力を行う、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The worker terminal is based on a part of data selected from the third data by the worker terminal or the computer system in response to a work instruction including designation of the state of the work object from the instructor. Perform the above output
    On-site work support system.
  3.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末または前記計算機システムは、設定または指示に基づいて、前記第3データのうち全部または一部のデータを選択し、前記一部のデータを選択した場合には、前記視界に対応付けられる前記第1画像内に一部の前記作業対象物が有ること、を伝える出力を行う、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The worker terminal or the computer system selects all or a part of the third data based on a setting or an instruction, and when the part of the data is selected, it associates with the field of view. Outputs to convey that there is a part of the work object in the first image.
    On-site work support system.
  4.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、前記出力として、前記農作物の収穫作業時には、前記作業対象物として収穫対象物の状態の選別を支援するための出力を行い、前記農作物の出荷作業時には、前記作業対象物として出荷対象物の状態の選別を支援するための出力を行う、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The worker terminal outputs as the output to support the selection of the state of the harvested object as the work object at the time of harvesting work of the agricultural product, and as the work object at the time of shipping work of the agricultural product. Output to support the selection of the status of the shipping object,
    On-site work support system.
  5.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、前記出力として、前記農作物の種別と、成熟度、等級、または実寸とを含む前記作業対象物の状態を表す出力を行う、
     現場作業支援システム。
    In the field work support system according to claim 1,
    As the output, the worker terminal outputs a state of the work object including the type of the crop and the maturity, grade, or actual size.
    On-site work support system.
  6.  請求項1記載の現場作業支援システムにおいて、
     前記出力は、前記第3データに基づいた第3画像を前記作業者端末の表示面へ表示すること、前記第3データに基づいた音声の出力、前記第3データに基づいた振動または発光の出力のうち、少なくとも1つの出力を含む、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The output is to display a third image based on the third data on the display surface of the worker terminal, output a voice based on the third data, and output vibration or light emission based on the third data. Of which includes at least one output,
    On-site work support system.
  7.  請求項1記載の現場作業支援システムにおいて、
     前記出力は、前記第3データに基づいた第3画像を前記作業者端末の表示面へ表示することを含み、
     前記第3画像の表示において、前記作業対象物の状態の違いが、色、形状、サイズ、および位置の少なくとも1つの違いによって表現される、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The output includes displaying a third image based on the third data on the display surface of the worker terminal.
    In the display of the third image, the difference in the state of the work object is represented by at least one difference in color, shape, size, and position.
    On-site work support system.
  8.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、前記作業者または前記作業者端末と前記作業対象物との距離を検出し、
     前記出力は、前記距離に応じて、種類が異なる出力とされる、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The worker terminal detects the distance between the worker or the worker terminal and the work object, and detects the distance between the worker or the worker terminal and the work object.
    The output is different in type depending on the distance.
    On-site work support system.
  9.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、前記作業者または前記作業者端末からの前記作業対象物がある方向を検出し、
     前記出力は、前記方向に応じて、種類が異なる出力とされる、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The worker terminal detects the direction in which the worker or the work object from the worker terminal is located.
    The output is different in type depending on the direction.
    On-site work support system.
  10.  請求項1記載の現場作業支援システムにおいて、
     前記第2画像は、前記農作物の種別、色、形状、実寸、成熟度および等級のうち少なくとも1つに関する基準画像を含み、
     前記第2データは、前記第2画像の画像解析または機械学習を含む処理に基づいて更新される、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The second image includes a reference image relating to at least one of the crop type, color, shape, actual size, maturity and grade.
    The second data is updated based on processing including image analysis or machine learning of the second image.
    On-site work support system.
  11.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末と前記計算機システムとの少なくとも一方で構成される予測支援機能を備え、
     前記予測支援機能は、前記第1データまたは前記第2データに基づいて、前記現場の未来日時での前記農作物の収穫または出荷に関する見込量を予測し、予測結果を出力する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    It has a prediction support function that consists of at least one of the worker terminal and the computer system.
    The prediction support function predicts the estimated amount of the harvest or shipment of the crop at the future date and time of the site based on the first data or the second data, and outputs the prediction result.
    On-site work support system.
  12.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末と前記計算機システムとの少なくとも一方で構成される病害虫判別支援機能を備え、
     前記病害虫判別支援機能は、前記第1データまたは前記第2データに基づいて、前記農作物における病害虫の状態を認識し、前記病害虫の状態に応じた前記現場での農薬散布を含む対処の支援のための情報を出力する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    It has a pest discrimination support function that is configured on at least one of the worker terminal and the computer system.
    The pest discrimination support function recognizes the state of pests in the crop based on the first data or the second data, and supports coping including spraying pesticides at the site according to the state of the pests. Output the information of
    On-site work support system.
  13.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、
     前記作業者の視線の方向を検出し、
     前記視線の方向に合わせて、前記第3データのうち一部のデータを選択し、前記視界に対応付けられる前記第1画像内に一部の前記作業対象物が有ること、を伝える出力を行う、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The worker terminal is
    The direction of the line of sight of the worker is detected,
    A part of the third data is selected according to the direction of the line of sight, and an output is performed to convey that a part of the work object is in the first image associated with the field of view. ,
    On-site work support system.
  14.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末に通信で接続される前記計算機システムを備え、
     前記作業者端末は、前記第1データを前記計算機システムに送信し、
     前記計算機システムは、前記第1データを入力として、前記第2データに基づいて、画像解析または機械学習を含む処理を行い、前記作業対象物の状態に関する認識結果を含む前記第3データを、前記作業者端末へ送信する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    The computer system is provided and is connected to the worker terminal by communication.
    The worker terminal transmits the first data to the computer system, and the worker terminal transmits the first data to the computer system.
    The computer system takes the first data as an input, performs processing including image analysis or machine learning based on the second data, and obtains the third data including a recognition result regarding the state of the work object. Send to the worker terminal,
    On-site work support system.
  15.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末または前記計算機システムは、前記第1データに基づいて、前記現場内の位置毎の前記農作物の状態、および前記現場内の前記農作物の収穫または出荷の実績を情報として把握し出力する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    Based on the first data, the worker terminal or the computer system grasps and outputs the state of the crop for each position in the site and the actual harvesting or shipping of the crop in the site as information. ,
    On-site work support system.
  16.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末は、前記第1データおよび前記第3データに基づいて、前記現場内の位置毎の前記農作物の状態を表すマップを、前記作業者端末の表示面に表示する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    Based on the first data and the third data, the worker terminal displays a map showing the state of the crop for each position in the site on the display surface of the worker terminal.
    On-site work support system.
  17.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末と前記計算機システムとの少なくとも一方で構成される実績検出機能を備え、
     前記実績検出機能は、前記第1データに基づいて、収穫または出荷の対象物と、前記作業者の身体の一部に対応付けられた作業者物体とを検出し、前記第1画像内での前記対象物と前記作業者物体との距離を算出し、前記距離の状態に基づいて、前記作業者による前記対象物の収穫または出荷の動作を判定し、前記動作に基づいて、前記対象物の収穫または出荷の個数をカウントし、実績として記憶および出力する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    It has a performance detection function that consists of at least one of the worker terminal and the computer system.
    The performance detection function detects an object to be harvested or shipped and a worker object associated with a part of the worker's body based on the first data, and in the first image. The distance between the object and the worker object is calculated, the operation of harvesting or shipping the object by the worker is determined based on the state of the distance, and the operation of the object is determined based on the operation. Count the number of harvests or shipments, store and output as actual results,
    On-site work support system.
  18.  請求項17記載の現場作業支援システムにおいて、
     前記実績検出機能は、前記第1画像の時系列上で、前記距離が距離閾値以内である状態が第1時間以上継続し、その後、前記第1画像内から前記対象物が検出されない状態が第2時間以上継続した場合、前記収穫または出荷の動作がされたと判定する、
     現場作業支援システム。
    In the field work support system according to claim 17,
    In the performance detection function, the state in which the distance is within the distance threshold value continues for the first hour or more on the time series of the first image, and then the state in which the object is not detected in the first image is the first. If it continues for 2 hours or more, it is determined that the harvesting or shipping operation has been performed.
    On-site work support system.
  19.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末と前記計算機システムとの少なくとも一方で構成される実績検出機能を備え、
     前記実績検出機能は、前記第1画像の入力と、画像解析または機械学習とに基づいて、前記作業者の身体の一部に対応付けられた作業者物体による、収穫または出荷の対象物についての収穫または出荷の特定の動作を判定し、前記特定の動作に基づいて、前記対象物の収穫または出荷の個数をカウントし、実績として記憶および出力する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    It has a performance detection function that consists of at least one of the worker terminal and the computer system.
    The performance detection function is for an object to be harvested or shipped by a worker object associated with a part of the worker's body based on the input of the first image and image analysis or machine learning. Judging a specific action of harvesting or shipping, counting the number of harvesting or shipping of the object based on the specific action, storing and outputting as a result.
    On-site work support system.
  20.  請求項1記載の現場作業支援システムにおいて、
     前記作業者端末と前記計算機システムとの少なくとも一方で構成される実績検出機能を備え、
     前記実績検出機能は、前記第1画像の時系列上で、収穫または出荷の対象物について、他の認識された物体との相対的な位置関係の変化を判定し、前記変化に基づいて、前記対象物の収穫または出荷の個数をカウントし、実績として記憶および出力する、
     現場作業支援システム。
    In the field work support system according to claim 1,
    It has a performance detection function that consists of at least one of the worker terminal and the computer system.
    The performance detection function determines a change in the relative positional relationship between the harvested or shipped object and another recognized object on the time series of the first image, and based on the change, said Count the number of harvested or shipped objects, store and output as actual results,
    On-site work support system.
PCT/JP2020/014007 2019-03-29 2020-03-27 Field work support system WO2020203764A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080016211.8A CN113519012A (en) 2019-03-29 2020-03-27 On-site operation auxiliary system
JP2021511995A JP7039766B2 (en) 2019-03-29 2020-03-27 On-site work support system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019065616 2019-03-29
JP2019-065616 2019-03-29

Publications (1)

Publication Number Publication Date
WO2020203764A1 true WO2020203764A1 (en) 2020-10-08

Family

ID=72668418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/014007 WO2020203764A1 (en) 2019-03-29 2020-03-27 Field work support system

Country Status (3)

Country Link
JP (1) JP7039766B2 (en)
CN (1) CN113519012A (en)
WO (1) WO2020203764A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281736A1 (en) * 2021-07-09 2023-01-12 マクセル株式会社 Augmented reality display device and augmented reality display system
WO2024023951A1 (en) * 2022-07-27 2024-02-01 Meditec Veg株式会社 Harvesting assistance device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006612A (en) * 2001-06-20 2003-01-10 Ntt Data Corp Device and method for predicting harvest
JP2004258983A (en) * 2003-02-26 2004-09-16 Nec Fielding Ltd Remote harvesting system and method of fruit, mediation system, farm system and program therefor
JP2013005725A (en) * 2011-06-22 2013-01-10 Nikon Corp Growth degree detection device, plant cultivation system, plant cultivation plant, growth degree detection method, and program
JP2016045645A (en) * 2014-08-21 2016-04-04 アシストシステムズ株式会社 Server device, database system, and search program
JP2017169511A (en) * 2016-03-24 2017-09-28 株式会社日立ソリューションズ東日本 Apparatus for estimating normal stock ratio of agricultural crop, apparatus for predicting yield of agricultural crop, and method for estimating normal stock ratio of agricultural crop
WO2018198319A1 (en) * 2017-04-28 2018-11-01 株式会社オプティム Wearable terminal display system, wearable terminal display method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006612A (en) * 2001-06-20 2003-01-10 Ntt Data Corp Device and method for predicting harvest
JP2004258983A (en) * 2003-02-26 2004-09-16 Nec Fielding Ltd Remote harvesting system and method of fruit, mediation system, farm system and program therefor
JP2013005725A (en) * 2011-06-22 2013-01-10 Nikon Corp Growth degree detection device, plant cultivation system, plant cultivation plant, growth degree detection method, and program
JP2016045645A (en) * 2014-08-21 2016-04-04 アシストシステムズ株式会社 Server device, database system, and search program
JP2017169511A (en) * 2016-03-24 2017-09-28 株式会社日立ソリューションズ東日本 Apparatus for estimating normal stock ratio of agricultural crop, apparatus for predicting yield of agricultural crop, and method for estimating normal stock ratio of agricultural crop
WO2018198319A1 (en) * 2017-04-28 2018-11-01 株式会社オプティム Wearable terminal display system, wearable terminal display method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281736A1 (en) * 2021-07-09 2023-01-12 マクセル株式会社 Augmented reality display device and augmented reality display system
WO2024023951A1 (en) * 2022-07-27 2024-02-01 Meditec Veg株式会社 Harvesting assistance device

Also Published As

Publication number Publication date
JPWO2020203764A1 (en) 2021-10-14
JP7039766B2 (en) 2022-03-22
CN113519012A (en) 2021-10-19

Similar Documents

Publication Publication Date Title
JP6811483B2 (en) Systems and methods to support work with drones
US10977494B2 (en) Recognition of weed in a natural environment
AU2015243016B2 (en) Tracking Moving Objects using a Camera Network
CA3048140C (en) Method and apparatus for generating a search pattern for an incident scene
WO2020203764A1 (en) Field work support system
CN204925790U (en) Logistics distribution system of robot
CN105787801A (en) Precision Agriculture System
US10984548B2 (en) Yield prediction for a cornfield
CN115659452B (en) Intelligent patrol method, intelligent patrol system and computer readable storage medium
CN113920474A (en) Internet of things system and method for intelligently monitoring citrus planting situation
CN113610040B (en) Paddy field weed density real-time statistical method based on improved BiSeNetV2 segmentation network
JP2020074141A (en) Information processing apparatus, program, information processing system and data structure
JP2021107991A (en) Information processing device, computer program and information processing method
KR101862545B1 (en) Method and system for providing rescue service using robot
KR20210131568A (en) Method and system for managing smart farm
CN113574538A (en) System and method for assisting in plant pruning
CN114967495A (en) Orchard virtual simulation inspection system and method based on Internet of things cloud control platform
CA3172082A1 (en) A method, system and computer program product for generating labelled 3d data representations of real world objects
Svoikin et al. Stem segmentation for sustainable forest management task
US11538226B2 (en) Information processing device, information providing system, and information processing method
JP7058364B1 (en) Information processing equipment, information processing programs, information processing methods and flight equipment
KR102630545B1 (en) Robot and robot control method carrying out management information according to the condition of the grass
JP2023057569A (en) Information processing device and work support system
Zare et al. Introducing a smart monitoring system (PHLIP) for integrated pest management in commercial orchards
CN112735072A (en) Forest region dynamic and forest region fire early warning cloud platform based on Internet of things

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20782214

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511995

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20782214

Country of ref document: EP

Kind code of ref document: A1