JP7039766B2 - 現場作業支援システム - Google Patents
現場作業支援システム Download PDFInfo
- Publication number
- JP7039766B2 JP7039766B2 JP2021511995A JP2021511995A JP7039766B2 JP 7039766 B2 JP7039766 B2 JP 7039766B2 JP 2021511995 A JP2021511995 A JP 2021511995A JP 2021511995 A JP2021511995 A JP 2021511995A JP 7039766 B2 JP7039766 B2 JP 7039766B2
- Authority
- JP
- Japan
- Prior art keywords
- worker
- image
- work
- information
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003306 harvesting Methods 0.000 claims description 228
- 230000006870 function Effects 0.000 claims description 139
- 238000001514 detection method Methods 0.000 claims description 69
- 238000013473 artificial intelligence Methods 0.000 description 59
- 241000607479 Yersinia pestis Species 0.000 description 37
- 235000007688 Lycopersicon esculentum Nutrition 0.000 description 30
- 240000003768 Solanum lycopersicum Species 0.000 description 30
- 238000012545 processing Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 22
- 239000000575 pesticide Substances 0.000 description 21
- 238000005507 spraying Methods 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 14
- 230000010485 coping Effects 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 240000008067 Cucumis sativus Species 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 235000013399 edible fruits Nutrition 0.000 description 7
- 238000010191 image analysis Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 235000010799 Cucumis sativus var sativus Nutrition 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 235000012055 fruits and vegetables Nutrition 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 235000009849 Cucumis sativus Nutrition 0.000 description 3
- 101100332287 Dictyostelium discoideum dst2 gene Proteins 0.000 description 3
- 101100264226 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) XRN1 gene Proteins 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009313 farming Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 101150090341 dst1 gene Proteins 0.000 description 2
- 230000004720 fertilization Effects 0.000 description 2
- 238000013340 harvest operation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 101100332288 Dictyostelium discoideum dst3 gene Proteins 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- UPBAOYRENQEPJO-UHFFFAOYSA-N n-[5-[[5-[(3-amino-3-iminopropyl)carbamoyl]-1-methylpyrrol-3-yl]carbamoyl]-1-methylpyrrol-3-yl]-4-formamido-1-methylpyrrole-2-carboxamide Chemical compound CN1C=C(NC=O)C=C1C(=O)NC1=CN(C)C(C(=O)NC2=CN(C)C(C(=O)NCCC(N)=N)=C2)=C1 UPBAOYRENQEPJO-UHFFFAOYSA-N 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G7/00—Botany in general
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y10/00—Economic sectors
- G16Y10/05—Agriculture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/20—Analytics; Diagnosis
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Agronomy & Crop Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Animal Husbandry (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Software Systems (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Biodiversity & Conservation Biology (AREA)
- Botany (AREA)
- Ecology (AREA)
- Forests & Forestry (AREA)
- Environmental Sciences (AREA)
- Biomedical Technology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
図1~図23を用いて、本発明の実施の形態1の現場作業支援システムについて説明する。
実施の形態の現場作業支援システムは、主に、作業者端末1と、サーバ2(サーバ2を含む計算機システム)とを有する。本システムを利用する人としては、作業者W1、指示者W2がいる。作業者W1は、スマートデバイス(言い換えると可搬型情報機器)である作業者端末1を使用する。作業者端末1は、現場で作業者W1が使用する携帯端末1Aやウェアラブル端末1Bである。作業者W1は、携帯端末1Aを携帯するか、ウェアラブル端末1Bを装着する。作業者W1は、携帯端末1Aとウェアラブル端末1Bの一方または両方を使用する。携帯端末1Aは、例えばスマートフォンやタブレット端末である。ウェアラブル端末1Bは、例えばスマートウォッチやスマートグラスを含むHMDである。作業者端末1は、作業支援機能41を備える。作業支援機能41は、サーバ2の機能との連携で、作業者W1に対し作業支援情報を出力する機能である。
図2は、作業者端末1の機能ブロック構成を示す。本例では、作業者端末1がスマートグラスを含むHMDである場合を示す。作業者端末1は、プロセッサ101、メモリ102、表示デバイス50、カメラ6、センサ7、通信デバイス80、マイク81、スピーカ82、操作ボタン83、バッテリ84を備え、これらはバス等を介して相互に接続されている。作業者端末1は、操作器9を含み、通信デバイス80と操作器9とで通信を行う。
図3は、図1の実施の形態1の現場作業視線システムと上位システムとの連携を含むシステム構成例、および上位システムの各機能の構成概要について示す。図3のシステム構成例は、作業者端末1およびサーバ2に加え、指示システム201、予測システム202、および生育管理システム203を有する。指示システム201、予測システム202、および生育管理システム203の構成内容については特に限定しない。図3の構成例は、事業者のサーバ2を含む計算機システムにおいて、指示システム201、予測システム202、および生育管理システム203が実装されている場合を示す。言い換えると、計算機システムに指示システム201等が内蔵されている。これに限らず、サーバ2を含む計算機システムに対し、外部に指示システム201等の上位システムが通信で接続されてもよい。
図4は、作業者端末1とサーバ2との連携の構成における、作業支援機能41の処理概要を示す。作業者W1の作業に伴い、作業者端末1の撮影部11は、カメラ6を用いて、作業対象物3を撮影し、画像(対応する画像データ)を得る。画像は静止画や動画を含む。撮影部11は、画像を撮影画像データ140として格納する。撮影は、可視光による写真撮影である。また、作業者端末1は、撮影の際に、画像だけでなく、センサ7等を用いて、日時、位置、方向等の情報を取得する。位置は、例えばGPS受信器による測位で取得できる位置情報(例えば緯度および経度)であるが、これに限らず、他の測位手段で取得する位置としてもよい。方向は、作業者W1の正面方向、作業者端末1の正面方向、およびカメラ6の撮影方向等に対応し、例えば地磁気センサまたは視線検出センサで計測できる。
図5は、作業者端末1とサーバ2との連携の構成における、予測支援機能42の処理概要を示す。特に、収穫見込量予測支援を行う場合を説明する。作業者端末1は、前述の撮影部11等に加え、対象圃場選択部21、認識結果集計部22、および認識結果送信部23を有する。対象圃場選択部21は、作業前に、収穫見込量予測のためのデータ収集を行う対象となる圃場(対応するエリア)を選択する。対象圃場選択部21は、サーバ2のDB250から圃場情報を参照することで、対象圃場を選択する。なお、サーバ2に対象圃場選択部21を有してもよい。DB250は、複数の営農者および複数の圃場等を対象としてデータ収集を行うためのDBであり、圃場一覧を含む圃場情報等が格納されている。
図6は、作業者端末1とサーバ2との連携の構成における、病害虫判別支援機能43の処理概要を示す。作業者端末1は、前述の撮影部11等に加え、対象圃場選択部21、および認識結果送信部23を有する。この構成では、対象物識別部12およびAI機能20は、前述の機能に加え、病害虫の状態に関する認識機能を備えている。対象物識別部12は、撮影部11からの画像と、日時、位置、および方向等の情報とを受け取る。対象物識別部12は、それらの情報をAI機能20に入力する。AI機能20は、対象物の位置等に加え、対象物の病害虫の有無や種類等の状態を認識し、認識結果を対象物識別部12に応答する。認識結果は、日時、対象圃場、位置(作業者W1および作業者端末1の位置)、病害虫の有無や種類、画像内での対象物の位置に対応付けられた病害虫の位置、等の情報を含む。なお、病害虫は、青果の部分のみに生じるとは限らず、茎や葉等の部分にも生じ得る。認識結果は、その場合の情報も含む。なお、農作物が熟しすぎて腐敗した場合、除去の対象となる。AI機能20によってそのような状態も認識できる。
図7は、図4の作業支援機能41に関する変形例の構成を示す。この変形例では、対象選択部13は、サーバ2に設けられている。サーバ2のAI機能20は、対象物認識部21からの画像等を入力し、認識処理を行い、認識結果を対象選択部13に与える。対象選択部13は、AI機能20からの認識結果に対し、指示システム201からの作業指示情報等に従って、全部または一部の選択を行い、選択結果を対象物認識部12へ送信する。このような構成でも、類似の効果が得られる。なお、対象選択部13での選択に関してユーザ設定を行う形態も可能である。
実施の形態1の現場作業支援システムにおいて、作業者端末1であるスマートデバイスは、前述のAI機能20の認識結果に基づいて、表示面5に作業支援情報を表示して作業者W1に伝達することができる。本システムは、その場合に作業者W1にとってわかりやすいように、および作業者W1が収穫等の判断をしやすいように、作業支援の表示を工夫する。作業者端末1の表示制御部14は、表示面5に収穫対象物等を表す画像を表示する際に、表示態様を制御する。作業者端末1は、例えば、作業者W1の視界に対応する表示面5の範囲において、対象選択部13を用いて選択を行うことで、収穫対象物のみを強調表示することができる。作業者端末1またはサーバ2は、対象選択部13を用いて、出力候補となる作業支援情報から一部の情報のみを選択(フィルタリング等)する。また、作業者端末1は、作業者W1および作業者端末1の近傍に収穫対象物が存在する場合(例えば所定の距離範囲内の場合)、画像表示、音声出力、振動または光の出力等によって、通知や作業誘導等を行うことができる。
作業対象物3となる農作物は、種別毎に、成熟度、等級、サイズ(実寸)等が規定されている場合がある。等級は、言い換えれば、品質に関する分類である。図8は、農作物がトマトである場合における成熟度に関する規定の例を示す。本例では、成熟度として1~6がある。この成熟度は、1が最も高く、6が最も低い。また、作業指示に応じた成熟度閾値の例として成熟度3以上とする場合を示す。この場合、成熟度1~3は、閾値以上であるため、例えば収穫対象物となり、成熟度4~6は、閾値未満であるため、非収穫対象物となる。このような成熟度(および後述の等級等)の規定は、農作物の種別や地域(例えば県)に応じて異なる設定とすることができる。なお、収穫対象となる成熟度としては、1~6のいずれの成熟度も、収穫対象となる場合がある。収穫対象となる成熟度は、例えば輸送距離や用途やニーズ等を鑑みて決められる。成熟度が5や6の物も収穫対象となる場合がある。
図9は、農作物がトマトである場合における色見本(言い換えると成熟度の基準)の画像例を示す。この色見本の画像例では、用紙において、成熟度=1~6の6種類のトマトの実画像例が比較可能なように並列で記載されている。AI機能20は、予め、このような色見本の画像を入力(言い換えると教師データ)として、認識のための機械学習を行う。これにより、AI機能20の学習モデルは、トマトの成熟度に関する認識が可能となる。対象の業界において、予め、農作物等の対象物の色見本や型見本(形状等の基準)が用意されており、それらを機械学習に利用できる。
図10は、農作物がきゅうりである場合における等級に関する規定の例を示す。サイズ(実寸)に関しても同様に規定がある。本例では、型見本において規定されている等級としてA,B,Cがある。等級Aは、形状が直線に近い個体が該当する。等級Bは、形状にある程度までの曲がりがある場合(等級B1)や、先端部の肩落ちがある場合(等級B2)の個体が該当する。等級Cは、等級Bよりもさらに形状に歪がある場合等が該当する。
図11等を用いて、AI機能20について補足する。図11は、AI機能20についての説明図を示す。作業者端末1は、撮影部11によって、被写体として作業対象物3の農作物を含む画像を取得する。画像111は、入力画像例を示し、例えば3個のトマト等が写っている。この画像111には、ID、日時、位置、方向等の情報を伴う。作業者端末1は、入力画像111を対象物認識部22に入力する。対象物認識部22は、入力画像111等のデータをAI機能20に送信する。なお、対象物認識部22内にAI機能20を含む構成でもよい。対象物認識部21またはAI機能20は、画像を含むデータを入力し、対象物に関する認識処理を行い、認識結果を含むデータを出力する。
作業支援情報の出力方式が表示である場合の出力例について以下に説明する。図13は、作業者端末1の表示面5における収穫作業支援情報の表示例を示す。本例は、図11の画像111の例と対応している。画像131は、圃場の一箇所で撮影された画像であり、農作物(青果だけでなく茎や葉を含む)の例として複数のトマトが写っている。作業者端末1は、画像131内の対象物に対し、収穫対象物を表す画像132を表示する。この画像132の例は、対象物OB1の領域を囲む赤色の枠画像である。作業者端末1の表示制御部14は、対象物(例えば対象物OB1)の成熟度(例えば成熟度3)に応じて、枠画像(例えば画像132)の色、形状、大きさ、枠線の太さ等を異ならせるように制御する。また、作業者端末1は、枠画像を、対象物の形状に応じて、矩形、円形(楕円を含む)、三角形等、枠画像の形状を異ならせるように制御する。枠画像の形状は、対象物の輪郭になるべく合わせると好ましいが、それに限らず、対象物の領域を包含する矩形や円形等でもよい。本例では、対象物の種別がトマトであることに合わせて、枠画像の形状を円形としている。画像132内で、非収穫対象物のトマトには枠画像が表示されていない。作業者W1は、収穫対象物を表す画像132に着目し、それに対応する個体を容易に収穫できる。
図14は、表示面5に収穫作業支援情報の画像を表示する場合の他の表示例を示す。本例では、画像141は、複数のトマトの個体が写っている。作業者端末1は、認識結果(対応する選択結果)の対象物の情報に基づいて、表示面5内に、各個体の対象物を表す画像として枠画像を重畳表示する。枠画像として、実線の円形の枠画像(例えば画像g1,g2)は、成熟度1かつ収穫対象物を表し、例えば赤色の太い枠線で表示される。破線の円形の枠画像(例えば画像g3)は、成熟度2かつ非収穫対象物を表す。破線の円形の枠画像(例えば画像g4,g5)は、成熟度3かつ非収穫対象物を表し、例えば黄色の細い枠線で表示される。また、本例は、対象物毎に成熟度の数字を一緒に表示する場合を示すが、この表示を省略してもよい。
図15は、表示面5での収穫作業支援情報の他の表示例を示す。図15の画像151は、認識結果(対応する選択結果)の全部の対象物の情報を表示する例を示す。この画像151内には、複数のトマトの個体(例えば個体T1,T2,T3等)が写っている。この画像151の例では、農作物以外にも、栽培土壌(畝)、通路、支持棒、ワイヤ、テープ、カバー等が写っている。本例は、列状の通路上の作業者W1および作業者端末1の位置から、斜め左方向を撮影した場合を示す。この画像は、手前側にトマトの実や茎が写っており、その奥の下側には、畝やカバーが写っており、その奥には隣りの通路が写っており、さらに奥には隣りの畝やカバー等が写っている。
図16は、表示面5での収穫作業支援情報の他の表示例を示す。この画像161は、認識結果のうち対象選択部12によって選択した一部の対象物の情報を表示する例を示す。この画像161では、収穫対象物のみに実線の円形の赤色の枠画像(例えば枠画像G1,G2)が表示されている。作業者W1は、この枠画像が示す収穫対象物に着目して、容易に収穫作業ができる。
図17は、表示面5での収穫作業支援情報の他の表示例を示す。この画像171では、収穫対象物を表す画像として、枠画像ではなく、矢印線と番号とを結んだ画像としている。画像171内で、対象物の位置に対しある程度離れた位置で、他の対象物と重ならない位置に、番号の画像が表示されている。番号の画像を表示する位置は、表示面5の端としてもよい。番号の画像は、例えば円形の枠画像とした場合を示し、円形の枠線の色や線の太さについては、例えば成熟度に応じて変えてもよい。また、この番号は、成熟度に限らず、収穫の順序を表す番号としてもよい。例えば、作業者W1からの距離が近い対象物の順に、1,2,……と順序の番号が付与されてもよい。
図18は、表示面5での収穫作業支援情報の他の表示例を示す。作業者端末1は、視線検出センサの視線検出結果の視線情報を用いて、視線方向の先の点(例えば点E1)を中心とした一部の範囲(例えば範囲182)内のみに、対象物の情報を表示する。本例では、範囲182内に、収穫対象および非収穫対象を表す各枠画像が表示されている。なお、範囲182を表す画像を表示してもよいし、表示しなくてもよい。範囲182は、矩形に限らず楕円等も可能である。
図19は、出荷作業支援に関する説明図を示す。図19の画像191は、出荷作業の際に、作業者W1によって収穫された複数のきゅうりの個体がテーブル面上に並べられている場合の画像例を示す。本例では、この画像191内には、きゅうりの個体K1~K5を有する。作業者W1は、出荷作業時には、これらの個体を、等級や実寸等の観点で選別し、選別した個体群毎に箱詰めや包装等して出荷する。作業者W1は、この選別を含む出荷作業の際に、特に出荷作業支援機能を用いる。作業者端末1は、このような画像191を入力し、対象物認識部12およびAI機能20によって認識する。AI機能20は、この画像191を入力として、認識結果として、対象物毎の等級や実寸の情報を出力する。作業者端末1の表示制御部14は、対象物認識部12の認識結果(対応する選択結果)に基づいて、画像内に、出荷作業支援情報として、対象物毎の等級や実寸の情報を表示する。
作業支援情報の出力方式が音声である場合の出力例については以下が挙げられる。作業者端末1は、選択結果の情報に基づいて、少なくとも、画像内に収穫対象物が有る場合には、そのことを表す所定の音声(例えば「ピンポン」等)を出力する。また、作業者端末1は、音声合成機能を用いて、直接的に、「それは収穫対象です」、「収穫対象物が有ります」等の音声を出力してもよい。また、作業者端末1は、画像内での収穫対象物の位置または作業者W1からの方向や距離に応じて、出力音を異ならせるように制御してもよい。例えば、画像の中心付近と、それに対する左側、右側、上側、および下側等で、概略的にいくつかの領域に区分する。作業者端末1は、画像内のどの領域に対象物が写っているか(それは作業者W1および作業者端末1と対象物との位置や方向の関係と対応している)に応じて、音を変えてもよい。また、例えば、画像内での対象物の位置が中心に近付いた場合には「ピンポン」等と出力し、中心から離れた場合には「ブー」等と出力してもよい。あるいは、対象物に近付いた場合には音量を上げる等、音量を変える制御を用いてもよい。また、作業者端末1は、作業者W1と対象物との位置関係に応じて、収穫対象物の位置等を通知してもよい。例えば「右側に収穫対象物があります」等の音声としてもよい。
作業支援情報の出力方式が振動や光である場合の出力例については以下が挙げられる。作業者端末1は、選択結果の情報に基づいて、少なくとも、画像内に収穫対象物が有る場合には、そのことを表す所定の振動または所定の光を出力する。作業者端末1は、収穫対象物の位置または向きまたは作業者からの距離に応じて、振動の種類や強さ、発光の種類や強さ等を異ならせるように制御してもよい。作業者端末1は、例えば、作業者W1が対象物に近付いたか離れたかによって、振動の状態または発光の状態を変えるようにしてもよい。振動や発光の種類は、例えばオン/オフのパターンで規定されてもよい。発光の場合、例えば、発光持続時間、点滅、光量等で区別できる。圃場が暗い場合には、光で伝達することも有効である。
図22は、ある圃場(圃場A)の俯瞰のマップの構成を示す。作業者端末1は、前述の病害虫判別支援機能43に関しては、表示面5で、病害虫が有る領域を表す画像を表示してもよいし、農薬散布すべき領域を表す画像を表示してもよい。特に、作業者端末1は、表示面5に、図22のような圃場の簡易的なマップを表示し、このマップ上に、病害虫が有る領域や、農薬散布すべき領域を表す画像を表示してもよい。領域221は、病害虫が検出された対象物の領域に対応した、農薬散布箇所の領域例を示す。この領域221の情報は、前述の図6の対処支援情報に含まれている。
上記のように、実施の形態1の現場作業支援システムによれば、以下のような効果が得られる。まず、収穫や出荷の作業支援機能41に関しては、作業者W1に対し、具体的でわかりやすい収穫指示や出荷指示を提供できる。そのため、作業者W1が未習熟者の場合でも、熟練者のスキルや経験に近いレベルで、収穫や出荷の際の選別等の判断が容易にできる。作業者W1は、作業支援の出力に従って、容易に作業を行うことができ、作業の負荷を低くすることができ、効率的に作業ができる。また、作業支援出力は、未習熟者のスキル等の向上にも寄与できる。営農者は、作業者W1が未習熟者でも、収穫等の作業を行わせることができ、営農のコスト低減や効率向上等が実現できる。
実施の形態1のシステムの変形例として以下も可能である。作業者端末1は、AI機能20を用いて、作業者W1が現在いる通路に面する対象物を判断し、表示面5に表示する作業支援情報を選択してもよい。これにより、表示面5には、作業者W1が現在いる通路で収穫できる対象物についての枠画像等が表示される。表示面5には、例えば隣の通路で収穫すべき対象物についての枠画像が表示されない。よって、作業者W1は、効率的に収穫作業が可能である。
図24~図31を用いて、本発明の実施の形態2の現場作業支援システムについて説明する。実施の形態2の基本的な構成は実施の形態1と同様であり、以下では、実施の形態2における実施の形態1とは異なる構成部分について説明する。実施の形態2では、実施の形態1に機能(実績検出機能と記載する場合がある)が追加されている。この実績検出機能は、画像の認識に基づいて、対象物の収穫や出荷の際の個数を推定・カウントして、実績として把握する機能である。実施の形態2で、作業支援出力を行う部分については実施の形態1と同様である。なお、以下では、この機能について、収穫の場合で説明するが、出荷の場合にも、同様に適用可能である。
図24は、実施の形態2の現場作業支援システムにおける特徴的な部分として、実績検出部30の構成を示す。実績検出部30は、図1の作業者端末1またはサーバ2の少なくとも一方で実装される。実績検出部30は、例えば図3および図5の予測支援機能42および予測システム202の一部として実装されてもよいし、それらとは独立で連携する実績検出機能および実績検出システムとして実装されてもよい。本例では、実績検出部30は、サーバ2でのプログラム処理等によって実現されるとする。なお、実績検出部30は、収穫の場合の収穫検出部と、出荷の場合の出荷検出部とを含むが、図24では収穫検出部の場合を示す。
以下では、図25~図29のような画像例を用いて、収穫判定に係わる具体的処理例を示す。図25は、ある時点の画像について、収穫対象物および作業者物体の検出結果の具体例を示す。画像内において、収穫対象物251と作業者物体252とが検出されている。ここでは、収穫対象物の位置は、2次元画像(横軸をx、縦軸をyとする)内の位置として、物体領域の中心位置として規定される。収穫対象物251の位置Ptは(tx,ty)である。ここでは、認識結果301に基づいた収穫対象物251の領域を矩形の枠で示す。作業者物体252は、作業者W1の右手の場合であり、説明上、透過的な領域として模式的に図示している。作業者物体の位置は、同様に、2次元画像内の位置として、物体領域の中心位置として規定される。作業者物体252の位置Pwは(wx,wy)である。ここでは、画像302に基づいた作業者物体252の領域を破線枠で示す。画像内には、収穫対象物が含まれない場合もあるし、複数個の収穫対象物が含まれる場合もある。本例では、画像内に、「成熟度3以上のトマト」に該当する1個の収穫対象物251が含まれ検出されている。
図30は、変形例における被収穫判定の際の画像例を示す。図24の特に被収穫判定部34による被収穫判定は、上記のように距離DSTをベースとして行う形態に限らず可能である。変形例では、被収穫判定部34は、作業者物体による特定の動作である収穫動作の判定に基づいて、被収穫を判定する。この特定の動作は、作業者検出部32またはAI機能20において、検出対象として予め規定される。例えば、収穫対象物がトマトである場合、作業者W1は、収穫動作の際に、そのトマトを手または作業手袋によって包み込むように持つ。図30の画像例では、作業手袋等の作業者物体252によって、収穫対象物251であるトマトが、包み込むように持たれており、収穫対象物251自体は認識されていない。この変形例では、画像からこのような特定の動作に対応する画像部分を認識・判別できるように、予め、画像を入力とする機械学習や画像解析等によって、判別器34aを作成しておく。例えば、収穫動作を撮影した複数の画像320を教師情報として判別器34aに入力して機械学習を行っておく。
図31は、変形例として、図24の被収穫判定部34による収穫判定に関する他の処理例を示す。この変形例では、画像内の複数の物体の間での相対位置関係を利用する。図31の(A)の画像内では、例として、収穫対象物A、非収穫対象物Bおよび非収穫対象物C、ならびに作業者物体Dである左手が認識されている。なお、これらの物体に限らず、画像解析等に基づいて、画像内から他の任意の物体が認識されていてもよい。4つの物体の位置を点{a,b,c,d}で示す。ここで、収穫対象物Aに着目した場合、他の各物体(B,C,D)との相対的な位置関係を、点線で示す。例えば、収穫対象物A(点a)は、非収穫対象物B(点b)との間では、距離Dabを含む相対位置関係を有する。
実施の形態2の変形例として、実績検出部30は、図4の表示制御部14等を含む出力制御部が出力する作業支援情報4を用いて、収穫等の判定を同様に行ってもよい。例えば、実績検出部30は、画像内における作業支援情報4(例えば図13の収穫対象物を囲むような収穫対象物を表す画像132)と作業者物体との距離等の状態に応じて、被収穫を判定する。
Claims (4)
- 農業を含む現場の作業を支援するための現場作業支援システムであって、
作業者に装着または携帯される作業者端末を備え、
前記作業者端末は、カメラを用いて前記作業者の視界における農作物を含む作業対象物を撮影した第1画像を含む第1データを取得し、
前記作業者端末または前記作業者端末に接続される計算機システムは、前記第1データを入力として、前記作業対象物の第2画像の学習が反映された第2データに基づいて前記作業対象物の状態を認識し、認識結果に基づいて前記作業を支援するための第3データを取得し、
前記作業者端末は、前記第3データに基づいて前記作業者に対し前記作業を支援するための出力として、前記視界に対応付けられる前記第1画像内に前記作業対象物が有ること、を伝える出力を含む出力を行い、
前記作業者端末は、前記作業者または前記作業者端末と前記作業対象物との距離を検出し、
前記出力は、前記距離に応じて、種類が異なる出力とされる、
現場作業支援システム。 - 農業を含む現場の作業を支援するための現場作業支援システムであって、
作業者に装着または携帯される作業者端末を備え、
前記作業者端末は、カメラを用いて前記作業者の視界における農作物を含む作業対象物を撮影した第1画像を含む第1データを取得し、
前記作業者端末または前記作業者端末に接続される計算機システムは、前記第1データを入力として、前記作業対象物の第2画像の学習が反映された第2データに基づいて前記作業対象物の状態を認識し、認識結果に基づいて前記作業を支援するための第3データを取得し、
前記作業者端末は、前記第3データに基づいて前記作業者に対し前記作業を支援するための出力として、前記視界に対応付けられる前記第1画像内に前記作業対象物が有ること、を伝える出力を含む出力を行い、
前記作業者端末は、
前記作業者の視線の方向を検出し、
前記視線の方向に合わせて、前記第3データのうち一部のデータを選択し、前記視界に対応付けられる前記第1画像内に一部の前記作業対象物が有ること、を伝える出力を行う、
現場作業支援システム。 - 農業を含む現場の作業を支援するための現場作業支援システムであって、
作業者に装着または携帯される作業者端末を備え、
前記作業者端末は、カメラを用いて前記作業者の視界における農作物を含む作業対象物を撮影した第1画像を含む第1データを取得し、
前記作業者端末または前記作業者端末に接続される計算機システムは、前記第1データを入力として、前記作業対象物の第2画像の学習が反映された第2データに基づいて前記作業対象物の状態を認識し、認識結果に基づいて前記作業を支援するための第3データを取得し、
前記作業者端末は、前記第3データに基づいて前記作業者に対し前記作業を支援するための出力として、前記視界に対応付けられる前記第1画像内に前記作業対象物が有ること、を伝える出力を含む出力を行い、
前記作業者端末と前記計算機システムとの少なくとも一方で構成される実績検出機能を備え、
前記実績検出機能は、前記第1データに基づいて、収穫または出荷の対象物と、前記作業者の身体の一部に対応付けられた作業者物体とを検出し、前記第1画像内での前記対象物と前記作業者物体との距離を算出し、前記距離の状態に基づいて、前記作業者による前記対象物の収穫または出荷の動作を判定し、前記動作に基づいて、前記対象物の収穫または出荷の個数をカウントし、実績として記憶および出力する、
現場作業支援システム。 - 請求項3記載の現場作業支援システムにおいて、
前記実績検出機能は、前記第1画像の時系列上で、前記距離が距離閾値以内である状態が第1時間以上継続し、その後、前記第1画像内から前記対象物が検出されない状態が第2時間以上継続した場合、前記収穫または出荷の動作がされたと判定する、
現場作業支援システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065616 | 2019-03-29 | ||
JP2019065616 | 2019-03-29 | ||
PCT/JP2020/014007 WO2020203764A1 (ja) | 2019-03-29 | 2020-03-27 | 現場作業支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020203764A1 JPWO2020203764A1 (ja) | 2021-10-14 |
JP7039766B2 true JP7039766B2 (ja) | 2022-03-22 |
Family
ID=72668418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021511995A Active JP7039766B2 (ja) | 2019-03-29 | 2020-03-27 | 現場作業支援システム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7039766B2 (ja) |
CN (1) | CN113519012A (ja) |
WO (1) | WO2020203764A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024190544A1 (ja) * | 2023-03-13 | 2024-09-19 | オムロン株式会社 | 処理装置、処理方法及びプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023281736A1 (ja) * | 2021-07-09 | 2023-01-12 | ||
KR102697056B1 (ko) * | 2022-03-31 | 2024-08-21 | 주식회사 엔티 | 소비자 맞춤형 공유농장 시스템 및 그 제어 방법 |
WO2024023951A1 (ja) * | 2022-07-27 | 2024-02-01 | Meditec Veg株式会社 | 収穫支援装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003006612A (ja) | 2001-06-20 | 2003-01-10 | Ntt Data Corp | 収穫予測装置及び方法 |
JP2004258983A (ja) | 2003-02-26 | 2004-09-16 | Nec Fielding Ltd | 果実の遠隔収穫システムと方法、仲介システム、農家システム、及びそれらのプログラム。 |
JP2013005725A (ja) | 2011-06-22 | 2013-01-10 | Nikon Corp | 成長度合検出装置、植物栽培システム、植物栽培プラント、成長度合検出方法及びプログラム |
JP2016045645A (ja) | 2014-08-21 | 2016-04-04 | アシストシステムズ株式会社 | サーバ装置、データベースシステム、及び検索プログラム |
JP2017169511A (ja) | 2016-03-24 | 2017-09-28 | 株式会社日立ソリューションズ東日本 | 農作物の正常株率推定装置、農作物の収穫量予測装置および農作物の正常株率推定方法 |
WO2018198319A1 (ja) | 2017-04-28 | 2018-11-01 | 株式会社オプティム | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
-
2020
- 2020-03-27 WO PCT/JP2020/014007 patent/WO2020203764A1/ja active Application Filing
- 2020-03-27 CN CN202080016211.8A patent/CN113519012A/zh active Pending
- 2020-03-27 JP JP2021511995A patent/JP7039766B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003006612A (ja) | 2001-06-20 | 2003-01-10 | Ntt Data Corp | 収穫予測装置及び方法 |
JP2004258983A (ja) | 2003-02-26 | 2004-09-16 | Nec Fielding Ltd | 果実の遠隔収穫システムと方法、仲介システム、農家システム、及びそれらのプログラム。 |
JP2013005725A (ja) | 2011-06-22 | 2013-01-10 | Nikon Corp | 成長度合検出装置、植物栽培システム、植物栽培プラント、成長度合検出方法及びプログラム |
JP2016045645A (ja) | 2014-08-21 | 2016-04-04 | アシストシステムズ株式会社 | サーバ装置、データベースシステム、及び検索プログラム |
JP2017169511A (ja) | 2016-03-24 | 2017-09-28 | 株式会社日立ソリューションズ東日本 | 農作物の正常株率推定装置、農作物の収穫量予測装置および農作物の正常株率推定方法 |
WO2018198319A1 (ja) | 2017-04-28 | 2018-11-01 | 株式会社オプティム | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024190544A1 (ja) * | 2023-03-13 | 2024-09-19 | オムロン株式会社 | 処理装置、処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2020203764A1 (ja) | 2020-10-08 |
JPWO2020203764A1 (ja) | 2021-10-14 |
CN113519012A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7039766B2 (ja) | 現場作業支援システム | |
JP6811483B2 (ja) | ドローンを用いた作業を支援するシステムおよび方法 | |
US10977494B2 (en) | Recognition of weed in a natural environment | |
AU2015243016B2 (en) | Tracking Moving Objects using a Camera Network | |
CN109862778A (zh) | 用于收割和稀释的无人机群管理的系统和方法 | |
CA3048140C (en) | Method and apparatus for generating a search pattern for an incident scene | |
US20140168412A1 (en) | Methods and systems for automated micro farming | |
CN105787801A (zh) | 精确农业系统 | |
JP2018173917A (ja) | 情報処理装置、プログラム、情報処理システム及びデータ構造 | |
KR101846301B1 (ko) | 자동제어 장비를 이용한 작물 수확 및 관리 시스템 | |
CN109843034A (zh) | 用于麦田的产量预测 | |
CN115659452B (zh) | 一种智能巡视方法、智能巡视系统及计算机可读存储介质 | |
JP2020074141A (ja) | 情報処理装置、プログラム、情報処理システム及びデータ構造 | |
CN113574538A (zh) | 用于辅助植物修剪的系统和方法 | |
CN114967495A (zh) | 基于物联网云端控制平台的果园虚拟仿真巡检系统及方法 | |
JP2021107991A (ja) | 情報処理装置、コンピュータプログラム及び情報処理方法 | |
CN117850457A (zh) | 一种基于北斗技术的无人机林间精准作业飞行控制系统 | |
CA3172082A1 (en) | A method, system and computer program product for generating labelled 3d data representations of real world objects | |
KR20210131568A (ko) | 지능형 농장 관리 방법 및 시스템 | |
CN116820109A (zh) | 一种农业机器人路径位置控制系统 | |
Svoikin et al. | Stem segmentation for sustainable forest management task | |
US11538226B2 (en) | Information processing device, information providing system, and information processing method | |
JP7058364B1 (ja) | 情報処理装置、情報処理プログラム、情報処理方法及び飛行装置 | |
JP7532217B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7522008B2 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7039766 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |