JP2019097447A - Harvest robot system - Google Patents

Harvest robot system Download PDF

Info

Publication number
JP2019097447A
JP2019097447A JP2017230531A JP2017230531A JP2019097447A JP 2019097447 A JP2019097447 A JP 2019097447A JP 2017230531 A JP2017230531 A JP 2017230531A JP 2017230531 A JP2017230531 A JP 2017230531A JP 2019097447 A JP2019097447 A JP 2019097447A
Authority
JP
Japan
Prior art keywords
image
harvest
target crop
harvesting
tomato
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017230531A
Other languages
Japanese (ja)
Other versions
JP7049814B2 (en
Inventor
貴巨 長谷川
Takao Hasegawa
貴巨 長谷川
吉田 武史
Takeshi Yoshida
武史 吉田
隆則 深尾
Takanori Fukao
隆則 深尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Ritsumeikan Trust
Original Assignee
Denso Corp
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Ritsumeikan Trust filed Critical Denso Corp
Priority to JP2017230531A priority Critical patent/JP7049814B2/en
Publication of JP2019097447A publication Critical patent/JP2019097447A/en
Application granted granted Critical
Publication of JP7049814B2 publication Critical patent/JP7049814B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Harvesting Machines For Specific Crops (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To provide a harvest robot system capable of harvesting target crops which are harvest targets in a short time.SOLUTION: A fixing camera 12 is installed at a prescribed position of a bogie and acquires an image including target crops which are harvest objects from the prescribed position. An image processor 31 acquires positional information of cherry tomatos 7 by searching cherry tomatos 7 according to the acquired image. A harvest robot 13 harvests according to positional information of cherry tomatos 7 in a rear side of a travel direction from the prescribed position. Search processing of the cherry tomatos 7 by the image processor 31 and harvest processing of the cherry tomatos 7 by the harvest robot 13 are performed in parallel.SELECTED DRAWING: Figure 8

Description

本発明は、収穫ロボットシステムに関する。   The present invention relates to a harvesting robot system.

従来、収穫ロボットがパプリカやトマトなどの作物を自動的に収穫するための技術研究が進められている(例えば、非特許文献1参照)。この非特許文献1によれば、パプリカの果柄(peduncle)をきれいに切断するため、撮像された画像の色とジオメトリ情報とを利用すると共に教師あり学習を用いて3次元空間にて果柄を検出している。   Conventionally, technical research has been advanced for a harvesting robot to automatically harvest crops such as paprika and tomatoes (see, for example, Non-Patent Document 1). According to this Non-Patent Document 1, in order to cut the paprika's peduncle cleanly, the color of the imaged image and geometry information are used, and in addition, using the supervised learning, the fruit is printed in a three-dimensional space. It is detected.

特に、非特許文献1記載の技術では、果柄をカットする収穫ツールが取り付けられたロボットアーム、および、このロボットアーム先端のパプリカの近くに取付けられたRGB−Dハンドカメラ、を用いて果柄を検出するようにしている。非特許文献1のFIG.1、FIG.5などを参照。   In particular, in the technique described in Non-Patent Document 1, a stem is attached using a robot arm attached with a harvest tool for cutting a stem, and an RGB-D hand camera attached near the paprika at the tip of the robot arm. To detect. See FIG. 1 of FIG.

しかし、非特許文献1記載の技術を適用した場合には、ハンドカメラがロボットアームの先端に取付けられているため位置的に画角が狭くなり、ロボットを備え付けるための台車やロボットアームを動かしながら作物を探索することになれば、収穫対象の作物を探索するために多大な時間を要してしまう。   However, when the technique described in Non-Patent Document 1 is applied, the hand angle of view becomes narrow because the hand camera is attached to the tip of the robot arm, and while moving the carriage or robot arm for installing the robot When it comes to searching for crops, it takes a lot of time to search for crops to be harvested.

Inkyu Sa、他6名、"Peduncle Detection of Sweet Pepper for Autonomous Crop Harvesting?Combined Color and 3-D Information"、IEEE ROBOTICS AND AUTOMATION LETTERS、2017年1月11日、VOL.2、NO.2、P.765-772Inkyu Sa and 6 others, "Peduncle Detection of Sweet Pepper for Autonomous Crop Harvesting? Combined Color and 3-D Information", IEEE ROBOTICS AND AUTOMATION LETTERS, January 11, 2017, VOL. 2, NO. 2, P. 765-772

本発明は上記事情に鑑みてなされたもので、その目的は、収穫対象の目標作物を短時間で収穫できるようにした収穫ロボットシステムを提供することにある。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a harvesting robot system capable of harvesting a target crop to be harvested in a short time.

請求項1記載の発明は、進行方向に沿って収穫対象となる目標作物を収穫する収穫ロボットシステムを対象としている。画像取得部は、台車の所定位置に設置され当該所定位置から収穫対象となる目標作物を含む画像を取得する。収穫位置取得部は、画像取得部による取得された画像を用いて目標作物を探索して当該目標作物の位置情報を取得する。収穫ロボットは、所定位置から進行方向の後部において、収穫位置取得部により取得された目標作物の位置情報を用いて目標作物を収穫する。そして、収穫位置取得部による目標作物の探索処理と収穫ロボットによる目標作物の収穫処理とを並行して行うようにしているため、収穫対象の目標作物を短時間で収穫できるようになる。   The invention according to claim 1 is directed to a harvesting robot system that harvests a target crop to be harvested along the traveling direction. The image acquisition unit is installed at a predetermined position of the carriage and acquires an image including a target crop to be harvested from the predetermined position. The harvest position acquisition unit searches for a target crop using the image acquired by the image acquisition unit and acquires position information of the target crop. The harvesting robot harvests the target crop using the position information of the target crop acquired by the harvesting position acquisition unit at the rear of the traveling direction from the predetermined position. And since the search process of the target crop by the harvest position acquisition unit and the harvest process of the target crop by the harvest robot are performed in parallel, the target crop to be harvested can be harvested in a short time.

第1実施形態における収穫ロボットシステムの構成図Configuration diagram of the harvesting robot system in the first embodiment 目標作物の収穫方法の説明図のその1Part 1 of the explanatory diagram of how to harvest target crops 目標作物の収穫方法の説明図のその2Part 2 of the explanation of how to harvest the target crop 目標作物の外観図Appearance of target crop 土壌と台車の走行通路の関係を示す平面図Top view showing the relationship between the soil and the travel path of the truck 収穫ロボットの正面図Front view of harvesting robot 収穫ロボットの側面図Side view of harvesting robot 収穫部の構造の詳細を示す斜視図A perspective view showing the details of the structure of the harvester 収穫ロボットシステムの電気的構成図Electrical configuration diagram of harvesting robot system 収穫処理を示すフローチャートFlow chart showing the harvesting process 収穫処理及び探索処理の流れの説明図Explanatory drawing of the flow of harvest processing and search processing 探索処理を示すフローチャートFlow chart showing search processing 探索処理の処理内容の説明図Explanation of processing contents of search processing 機械学習に用いられる作物の画像データの一例を示す図Diagram showing an example of crop image data used for machine learning 機械学習に用いられる背景の画像データの一例を示す図Diagram showing an example of background image data used for machine learning 領域拡張法の説明図のその1Part 1 of the illustration of the region expansion method 領域拡張法の説明図のその2Part 2 of the diagram of the region expansion method 作物と背景とをクラスタリング処理した超平面を示す図Diagram showing hyperplane with cropping process and background 基本クラスタリング処理後のボクセルを表す図Diagram showing voxels after basic clustering processing 熟度判定クラスタリング処理後のボクセルを表す図Diagram showing voxels after maturity judgment clustering processing 第2実施形態における収穫ロボットシステムの構成図Configuration diagram of the harvesting robot system in the second embodiment 画像検出軸と収穫軸との関係の説明図のその1Part 1 of the illustration of the relationship between the image detection axis and the harvest axis 画像検出軸と収穫軸との関係の説明図のその2Part 2 of the illustration of the relationship between the image detection axis and the harvest axis ロボットアーム部に取付けられたハンドカメラの構造を示す斜視図The perspective view which shows the structure of the hand camera attached to the robot arm part 収穫処理を示すフローチャートFlow chart showing the harvesting process ハンドカメラを目標作物から遠い距離にして撮像するときの構成図Configuration diagram when imaging with a hand camera at a distance from the target crop 収穫部を近くにして収穫するときの構成を示す図Diagram showing the configuration when harvesting with the harvest section nearby 第3実施形態における果柄決定処理を示すフローチャートFlow chart showing the fruit determination process in the third embodiment 作物と果柄の画像を低解像度のボクセルで示した図Low-resolution voxel image of crop and stalk 作物と果柄の画像を高解像度のボクセルで示した図High-resolution voxel image of crop and stalk 処理の流れの説明図Explanation of the flow of processing 切断ポイントの決定方法の説明図Explanatory drawing of how to decide the cutting point ボクセルをレイヤ毎に分割したイメージ図Image figure which divided voxel into each layer

以下、収穫ロボットシステムの幾つかの実施形態を説明する。以下の実施形態中では、各実施形態間で同一機能または類似機能を備えた部分に同一符号又は類似符号(例えば、十の位及び一の位を同一値)を付して説明を行い、第2実施形態以降においては同一機能または類似機能を備えた部分の説明を必要に応じて省略する。   Hereinafter, several embodiments of the harvesting robot system will be described. In the following embodiments, parts having the same or similar functions among the respective embodiments will be described with the same reference numerals or similar reference numerals (e.g., the same value in the tens place and the one place). In the second and subsequent embodiments, the description of the parts having the same or similar functions is omitted as necessary.

(第1実施形態)
図1から図18は第1実施形態の説明図を示す。まず図2及び図3を参照して収穫対象の作物となるミニトマトの育て方を説明する。図2は、収穫システム1の一部構成を示しており、例えば房なりの作物としてのミニトマトの栽培領域を示している。以下では、ミニトマトを作物として説明するが、その他の作物も収穫対象として適用できる。この収穫システム1は、ビニールハウスの中でハイワイヤー方式を採用してミニトマトを房ごと自動的に収穫するシステムである。
First Embodiment
FIG. 1 to FIG. 18 show an explanatory view of the first embodiment. First, with reference to FIGS. 2 and 3, how to grow cherry tomatoes to be harvested will be described. FIG. 2 shows a partial configuration of the harvesting system 1, and shows, for example, a growing area of mini tomatoes as a bunch of crops. In the following, mini-tomatoes are described as crops, but other crops can be applied as harvest targets. The harvesting system 1 is a system for automatically harvesting mini tomatoes together with a high wire system in a vinyl house.

図2に示すように、一般に、ビニールハウス栽培では、ビニールハウスの中に培養土を配合した土壌2を例えば直線状の所定領域に配設すると共に、当該所定領域に設けられた土壌2にミニトマトの苗3を離間して並べて苗を育てる。近年では土壌に代えて養液が用いられることもある。ハイワイヤー方式では、ビニールハウスの中で一列の苗3の上方に沿って直線上に延伸ワイヤ4を固定すると共に、当該延伸ワイヤ4に吊り下げられた誘引ワイヤ5により苗3の茎6を引き上げながら苗3を育てる。   As shown in FIG. 2, generally, in vinyl greenhouse cultivation, soil 2 in which culture soil is blended in a vinyl house is disposed, for example, in a predetermined linear region, and mini soil is provided in the predetermined region. Seedlings 3 of tomato are spaced apart and arranged to grow the seedlings. In recent years, nutrient solution may be used instead of soil. In the high-wire method, the stretch wire 4 is fixed on a straight line along the upper side of the row of seedlings 3 in the vinyl house, and the stem 6 of the seedling 3 is pulled up by the induction wire 5 suspended by the stretch wire 4 While raising seedlings 3.

このとき、一列に離間して並べられた苗3の茎6にそれぞれ誘引ワイヤ5のロック5aを固定し、茎6を土壌2の上方に直線状に引き上げ、誘引ワイヤ5に茎6を吊り下げた状態で苗3を育てる。そして苗3が育ち、茎6が伸びると、この苗3の成長に合わせて誘引ワイヤ5のロック5aを上に移動させる。   At this time, lock 5a of attractor wire 5 is fixed to stem 6 of seedlings 3 spaced apart in a row respectively, and stem 6 is pulled up linearly above soil 2, and stem 6 is suspended on attractor wire 5 Grow the seedling 3 in a dry condition. Then, when the seedling 3 grows and the stem 6 is extended, the lock 5a of the attraction wire 5 is moved upward according to the growth of the seedling 3.

図3に示すように、苗3の成長に伴い、ミニトマト7が熟すことで収穫可能になる。またさらにミニトマト7を収穫しながら茎6の先端が延伸ワイヤ4まで達すると、誘引ワイヤ5をスライドさせることで茎6の成長に合わせてミニトマト7の高さを調整できる。この収穫システム1においては、成長したミニトマト7が例えば900〜1200mmの所定の高さ範囲Hに位置するように調整される。これにより、茎6を引き上げて収穫可能なミニトマト7の高さを調整できる。図4はミニトマト7が茎6になる様子を詳細に示している。この目標作物となるミニトマト7は数個〜十数個程度の個々の実7aの集合体で房なりになっており、茎6の根元の果柄6a側から順に実7aをつける。このとき、茎6から養分が供給されるため根元の成長が速く先端の成長は遅い。   As shown in FIG. 3, along with the growth of the seedlings 3, the mini-tomato 7 becomes ripe as it matures. Furthermore, when the tip of the stem 6 reaches the drawing wire 4 while harvesting the mini tomato 7, the height of the mini tomato 7 can be adjusted according to the growth of the stem 6 by sliding the inducing wire 5. In this harvesting system 1, the grown cherry tomatoes 7 are adjusted to be located in a predetermined height range H of, for example, 900 to 1200 mm. Thereby, the height of the harvestable cherry tomatoes 7 can be adjusted by pulling up the stem 6. FIG. 4 shows in detail how the mini tomato 7 becomes the stem 6. The target tomato 7 which is the target crop is a bunch of several to dozens of individual fruits 7a, and the fruits 7a are attached in order from the side of the stem 6a at the base of the stem 6. At this time, since the nutrient is supplied from the stem 6, the growth of the root is fast and the growth of the tip is slow.

さて図1はこの収穫システム1を構成する収穫ロボットシステム10の外観構成を示している。図1に示すように、収穫ロボットシステム10は、主に、自律走行可能な電動台車(以下、台車と略す)11、第1の画像取得部としての固定カメラ12、及び、収穫ロボット13を備える。また図5は、土壌2と台車11が走行する通路14との関係を平面図により示している。図1に示すように、台車11は、収穫用に舗装された通路14を走行可能な車輪15を備えると共に自動走行可能にする電動動力源(図示せず)を備えた電動作業車により構成され、図5に示すように一直線方向に走行可能に構成される。この台車11の上には固定カメラ12が搭載されている。   FIG. 1 shows the external appearance of a harvesting robot system 10 constituting this harvesting system 1. As shown in FIG. 1, the harvesting robot system 10 mainly includes a motorized carriage (hereinafter abbreviated as a carriage) 11 capable of autonomous traveling, a fixed camera 12 as a first image acquisition unit, and a harvesting robot 13 . FIG. 5 is a plan view showing the relationship between the soil 2 and the passage 14 through which the carriage 11 travels. As shown in FIG. 1, the carriage 11 is constituted by an electric working vehicle provided with an electric power source (not shown) having wheels 15 capable of traveling along the passage 14 paved for harvesting and capable of automatically traveling. As shown in FIG. 5, it can travel in a straight line direction. A fixed camera 12 is mounted on the carriage 11.

この固定カメラ12は、台車11の所定位置に設けられた支柱16に備え付けられたステレオカメラにより構成され、進行方向に離間して複数のカメラ12a,12bを備える。この固定カメラ12の各カメラ12a,12bは、例えば進行方向に交差する交差方向(例えば、垂直方向)で、且つ、例えば通路14に平行な水平面方向を含む方向が撮像の検出軸となるように設置されている。この固定カメラ12は、前述したように成長したミニトマト7の実7aを含む少なくとも前述の所定の高さ範囲Hを撮像可能に設置されている。   The fixed camera 12 is constituted by a stereo camera mounted on a support 16 provided at a predetermined position of the carriage 11, and includes a plurality of cameras 12a and 12b separated in the traveling direction. Each of the cameras 12a and 12b of the fixed camera 12 has, for example, a direction including a horizontal direction parallel to the passage 14 in the crossing direction (for example, the vertical direction) crossing the traveling direction, for example. is set up. The fixed camera 12 is provided so as to be able to image at least the predetermined height range H including the fruit 7a of the mini tomato 7 grown as described above.

また、例えば固定カメラ12の進行方向の後部には収穫ロボット13が設置されている。この収穫ロボット13は、例えば6軸の垂直多関節型の産業用ロボットである。図6A〜図6Bはそれぞれ、この収穫ロボット13を正面図、右側面図により示している。以下の収穫ロボット13は、第1〜第6アーム部(ロボットアーム部相当)23〜29を図示形態に連結した構造を示しているが、これに限定されるものではなく、高さ範囲Hのミニトマト7を収穫可能な構成であればこのロボット13の構造に限られるものではない。   Also, for example, a harvesting robot 13 is installed at the rear of the moving direction of the fixed camera 12. The harvesting robot 13 is, for example, a six-axis vertical articulated industrial robot. 6A to 6B respectively show the harvesting robot 13 by a front view and a right side view. Although the following harvesting robot 13 shows a structure in which the first to sixth arm parts (corresponding to robot arm parts) 23 to 29 are connected in the illustrated form, the present invention is not limited thereto, and the height range H It is not limited to the structure of the robot 13 as long as it is a configuration that can harvest the mini tomato 7.

図6A及び図6Bは収穫ロボット13及びハンドカメラ17の標準位置を示している。図6Cは収穫ロボット13の先端に取り付けられるハンド21の先端部分の切断挟持機構21aの構造を斜視図により示している。   6A and 6B show standard positions of the harvesting robot 13 and the hand camera 17. FIG. 6C is a perspective view showing the structure of the cutting and holding mechanism 21 a of the tip portion of the hand 21 attached to the tip of the harvesting robot 13.

図6Aに示すように、収穫ロボット13は、例えば、台車11の上面に固定される円柱状のベース部22と、ベース部22に支持された第1アーム部23と、この第1アーム部23の他端に下端が支持され水平方向の第2軸を中心として垂直面内に旋回可能な第2アーム部24と、当該第2アーム部24のアーム軸方向を中心として旋回可能に当該第2アーム部の上端に一端が支持されると共に一端から他端に向けて直曲方向に延びる第3アーム部25と、第3アーム部25の他端に支持され当該第3アーム部25の他端側の軸を中心に旋回可能に一端が支持された第4アーム部26と、この第4アーム部27の軸を中心に旋回可能に当該第4アーム部27の他端に一端が支持された第5アーム部28と、この第5アーム部28の軸を中心に旋回可能に当該第5アーム部28の他端に一端が支持された第6アーム部29と、この第6アーム部29の他端に支持され一端が支持された取付用部材30と、を備える。   As shown in FIG. 6A, the harvesting robot 13 has, for example, a columnar base 22 fixed to the upper surface of the carriage 11, a first arm 23 supported by the base 22, and the first arm 23. And a second arm portion 24 pivotable in a vertical plane about a second horizontal axis, and the second arm portion 24 is pivotable about an arm axial direction of the second arm portion 24. A third arm 25 having one end supported by the upper end of the arm and extending in a straight bending direction from one end to the other end, and the other end of the third arm 25 supported by the other end of the third arm 25 A fourth arm 26 supported at one end so as to be pivotable about a side axis, and one end supported at the other end of the fourth arm 27 so as to be pivotable about the axis of the fourth arm 27 The fifth arm 28 and the axis of the fifth arm 28 The sixth arm 29 has one end supported at the other end of the fifth arm 28 and the mounting member 30 supported at the other end of the sixth arm 29 and supported at one end. .

各アーム部23〜29の各軸にはモータ(図示せず)が配設されており、それぞれのアーム部23〜29がロボットコントローラ32(後述図7参照)により制御されることで対応する各アーム部23〜29を旋回制御できる。   A motor (not shown) is disposed on each axis of each arm portion 23 to 29, and each arm portion 23 to 29 is controlled by the robot controller 32 (see FIG. 7 described later). The arms 23 to 29 can be controlled to turn.

取付用部材30は、第6アーム部29の軸を中心として標準状態では鉛直方向に旋回可能に構成されており、取付用部材30にはミニトマト7の収穫用のハンド21がエンドエフェクタとして取付けられている。このハンド21の先端部には、図6Cに示すように、ミニトマト7の果柄6aを切断すると共に切断後の果柄6aを挟持する切断挟持機構21aをエンドエフェクタ、切断部として備える。切断挟持機構21aは、切断刃組101及び挟持刃組102を一対で備える。これらの切断刃組101と挟持刃組102とは連結部103を挟んで係合されており、茎6の果柄6aを切断して挟持する領域には隙間が設けられている。切断刃組101は把持刃組102の上側に位置して配置されている。   The mounting member 30 is configured to be pivotable in the vertical direction in the standard state about the axis of the sixth arm portion 29. A hand 21 for harvesting mini tomatoes 7 is attached to the mounting member 30 as an end effector. It is done. As shown in FIG. 6C, the tip end portion of the hand 21 is provided with a cutting and holding mechanism 21a for cutting the stem 6a of the mini tomato 7 and for holding the stem 6a after cutting as an end effector and a cutting portion. The cutting and holding mechanism 21 a includes the cutting blade set 101 and the holding blade set 102 as a pair. The cutting blade set 101 and the holding blade set 102 are engaged with the connecting portion 103 interposed therebetween, and a gap is provided in a region where the stem 6 a of the stem 6 is cut and held. The cutting blade set 101 is disposed on the upper side of the holding blade set 102.

切断刃組101は、連結部103により連結された1組の切断刃を備えており、連結部103を中心として切断刃を回動することで当該1組の切断刃が噛合うように設けられており、後述のロボットコントローラ32が切断刃を噛合制御することで茎6の果柄6aを切断可能になっている。   The cutting blade set 101 is provided with a pair of cutting blades connected by the connecting portion 103, and by rotating the cutting blades around the connecting portion 103, the one pair of cutting blades are provided to be engaged with each other. It is possible to cut the stem 6 a of the stem 6 by controlling engagement of the cutting blade by a robot controller 32 described later.

また挟持刃組102もまた、連結部103により連結された1組の挟持刃を備えており、連結部103を中心として挟持刃を回動することで当該1組の挟持刃がわずかな隙間を有して対向するように設けられる。このとき、後述のロボットコントローラ32が挟持刃を回動制御することで挟持刃は果柄6aの外皮の一部を切断しながら果柄6aの中心部側を挟持可能になっている。例えばミニトマト7の果柄6aは繊維質構造であるため、特に挟持刃が果柄6aの外皮を切断し中心部側を挟持するだけで安定して挟持できる。
<ハンドカメラ17の配置及びその機能説明>
Further, the holding blade set 102 also includes a pair of holding blades connected by the connecting portion 103, and by rotating the holding blades around the connecting portion 103, the one pair of holding blades has a slight clearance. It has it and it is provided so that it may oppose. At this time, the robot controller 32 described later rotationally controls the pinching blade so that the pinching blade can pinch the central portion side of the stem 6a while cutting a part of the outer shell of the stem 6a. For example, since the fruit pattern 6a of the cherry tomato 7 has a fibrous structure, it can be stably held only by the pinching blade cutting the outer skin of the fruit pattern 6a and holding the central portion side.
<Arrangement of Hand Camera 17 and Functional Description>

図1及び図6Aに示すように、ハンド21の上には画像取得部としてハンドカメラ17が取付けられている。本実施形態では、このハンドカメラ17は、撮像軸となる画像の検出軸方向とハンド21の切断挟持機構21aの軸方向とが同一方向になるように設置されている。   As shown in FIGS. 1 and 6A, a hand camera 17 is mounted on the hand 21 as an image acquisition unit. In the present embodiment, the hand camera 17 is installed so that the detection axial direction of the image serving as the imaging axis and the axial direction of the cutting and holding mechanism 21 a of the hand 21 are in the same direction.

このハンドカメラ17は、第1〜第6アーム部23〜29が旋回制御されることにより所定の高さ範囲Hを撮像可能になっており、これにより成長したミニトマト7を含む画像を検出できる。このハンドカメラ17は、カラー画像に加えて奥行き画像を含むRGB−Dの点群による画像を取得可能なカメラであり、撮像画像に応じて三次元位置にRGBカラー情報を付して出力する所謂RGB−Dカメラにより構成される。   The hand camera 17 can pick up an image of a predetermined height range H by turning control of the first to sixth arms 23 to 29, and can thereby detect an image including a grown tomato 7 . The hand camera 17 is a camera capable of acquiring an RGB-D point group image including a depth image in addition to a color image, and adds RGB color information to a three-dimensional position according to a captured image and outputs it. It comprises an RGB-D camera.

<収穫ロボットシステム10の電気的構成説明>
図7は収穫ロボットシステム10の電気的構成図を示している。
図7に示すように、収穫ロボットシステム10は、イメージプロセッサ31、ロボットコントローラ32を制御主体として備える。イメージプロセッサ31は、固定カメラ12及びハンドカメラ17に接続されており、固定カメラ12及びハンドカメラ17により撮像された画像の各種処理を行い、ロボットコントローラ32は、収穫ロボット13の第1〜第6アームの旋回制御、ハンドによる切断挟持制御、及び台車11の車輪15の駆動用モータを制御する。イメージプロセッサ31は不遷移的実体的記録媒体としてメモリ33を備える。詳細には後述するが、このメモリ33には機械学習に基づく学習パターンが記憶されており、イメージプロセッサ31はこの学習パターンに応じて画像処理することでミニトマト7の三次元的な位置情報を取得する収穫位置取得部として機能する。
<Description of the electrical configuration of the harvesting robot system 10>
FIG. 7 shows an electrical block diagram of the harvesting robot system 10.
As shown in FIG. 7, the harvesting robot system 10 includes an image processor 31 and a robot controller 32 as control entities. The image processor 31 is connected to the fixed camera 12 and the hand camera 17 and performs various processes on images taken by the fixed camera 12 and the hand camera 17. The robot controller 32 performs the first to sixth operations of the harvesting robot 13. The rotation control of the arm, the cutting and holding control by the hand, and the drive motor of the wheel 15 of the carriage 11 are controlled. The image processor 31 includes a memory 33 as a non-transitional tangible storage medium. Although details will be described later, a learning pattern based on machine learning is stored in the memory 33, and the image processor 31 performs image processing according to the learning pattern to obtain three-dimensional positional information of the cherry tomato 7 It functions as a harvest position acquisition unit to acquire.

これらのイメージプロセッサ31及びロボットコントローラ32は、画像処理に係るタスクと収穫作業制御に係るタスクとを並行処理することで処理負荷を分散するように構成されている。イメージプロセッサ31とロボットコントローラ32とはルータ34を介して接続されている。   The image processor 31 and the robot controller 32 are configured to distribute the processing load by parallel processing of the task related to image processing and the task related to harvesting operation control. The image processor 31 and the robot controller 32 are connected via a router 34.

上記構成の作用、動作について説明する。
<収穫処理の説明その1>
図8は収穫処理の動作をフローチャートにより示し、図9は収穫方法の一連の流れを概略的に示している。これらの図8及び図9の記載では、説明を理解しやすくするため、n−1、N、N+1、N+2…番目と順にエリアに番号を付し、その収穫方法を順次示している。
The operation and operation of the above configuration will be described.
<Description of harvest processing part 1>
FIG. 8 shows the operation of the harvesting process by means of a flow chart, and FIG. 9 schematically shows the flow of the harvesting method. In the description of FIG. 8 and FIG. 9, in order to make the explanation easy to understand, the areas are numbered in order of n-1, N, N + 1, N + 2,...

図9の時点t1において、イメージプロセッサ31は、図8のS1においてエリア変数N=1に設定し、S2において固定カメラ12によりN番目エリアの画像を取得する。次に、イメージプロセッサ31は画像の取得が終了するとロボットコントローラ32に移動指令し、ロボットコントローラ32は、台車11を移動制御し固定カメラ12の撮像エリアをN+1番目のエリアに移動させる(図9の時点t2)。そして時点t2において、イメージプロセッサ31は、図8のS3において固定カメラ12によりN+1番目エリアの画像を取得し、S4においてN番目エリアの中にミニトマト7を探索する。図10にはこの探索処理をフローチャートで示している。   At time t1 in FIG. 9, the image processor 31 sets the area variable N to 1 in S1 in FIG. 8, and acquires an image of the N-th area by the fixed camera 12 in S2. Next, when acquisition of the image is completed, the image processor 31 instructs the robot controller 32 to move the robot controller 32, and the robot controller 32 moves and controls the carriage 11 to move the imaging area of the fixed camera 12 to the N + 1st area (FIG. 9) Time point t2). Then, at time t2, the image processor 31 acquires an image of the (N + 1) th area by the fixed camera 12 in S3 of FIG. 8 and searches for the cherry tomato 7 in the N-th area in S4. FIG. 10 shows a flowchart of this search process.

<探索処理の説明>
この図10に示すように、イメージプロセッサ31は、S11において二次元画像を複数用いて三次元画像を生成する(三次元画像生成部としての機能)。このとき、図11にS11の処理前の複数の二次元画像データ、及び、処理後の三次元画像のデータの概要を示すように、二次元画像が合成された三次元画像の個々のピクセル(所謂ボクセル)に分割された状態で各ボクセルに色情報等の各種情報が設定されるようになる。この処理は、SfM(Structure from Motion)と称される処理により行われるが、このS10の処理時間は後述のS11以降の処理に比較して大幅に時間を要する。
<Description of search processing>
As shown in FIG. 10, the image processor 31 generates a three-dimensional image using a plurality of two-dimensional images in S11 (function as a three-dimensional image generation unit). At this time, individual pixels of the three-dimensional image in which the two-dimensional image is synthesized are shown as an outline of a plurality of two-dimensional image data before the process of S11 and a three-dimensional image data after the process in FIG. Various information such as color information is set to each voxel in a state of being divided into so-called voxels. This process is performed by a process called SfM (Structure from Motion), but the process time of this S10 requires much time as compared with the process after S11 described later.

その後、イメージプロセッサ31は、図10のS12においてミニトマト7の領域を背景と分離する基本クラスタリング処理を行う。この基本クラスタリング処理は、いわゆるSVM(Support Vector Machine)により実行される処理である(基本クラスタリング部としての機能)。   Thereafter, the image processor 31 performs basic clustering processing of separating the area of the tomato 7 from the background in S12 of FIG. This basic clustering process is a process executed by a so-called SVM (Support Vector Machine) (function as a basic clustering unit).

ミニトマト7の実7aは熟すことで基本色が赤となり、固定カメラ12により撮像された画像内ではこの赤に類する同類色が連続することになる。イメージプロセッサ31は、例えば、図12に示されるように、大量のミニトマト7の画像群G1を反復的に予め機械学習すると共に、図13に示されるように大量のビニールハウス内のミニトマト7以外の例えば茎6や花、各種内装設備などの背景画像群G2を反復的に機械学習してメモリ33に記憶している。   The fruit 7a of the mini-tomato 7 is ripened and its basic color becomes red, and in the image captured by the fixed camera 12, similar colors similar to this red are continuous. For example, as shown in FIG. 12, the image processor 31 repetitively pre-machines the image group G1 of a large number of cherry tomatoes 7 and, as shown in FIG. For example, the background image group G2 such as the stem 6 and flowers, and various interior facilities are repetitively machine-learned and stored in the memory 33.

イメージプロセッサ31は、このS12においてこれらのメモリ33に記憶された機械学習のパターンに応じて、成長したミニトマト7の赤に類する同類色となる所定条件を満たすボクセルBの領域を拡張し、ミニトマト7の存在領域を三次元領域として取得する。図14及び図15はこの領域拡張処理を概略的に示している。これらの図14及び図15において、白区画はミニトマト7の赤に類する色であり、黒区画は茎6などの緑や青やその合成色などによる背景色を示している。   The image processor 31 expands the region of the voxel B that satisfies the predetermined color similar to the red color of the grown tomato 7 according to the machine learning pattern stored in the memory 33 at S12, The presence area of the tomato 7 is acquired as a three-dimensional area. 14 and 15 schematically show this area expansion process. In these FIGS. 14 and 15, the white section is a color similar to the red of mini tomato 7 and the black section shows a background color by green or blue such as stem 6 or its composite color.

図14に示すように、イメージプロセッサ31は、初めにランダムに三次元位置のボクセルB1を決定した後、図15に示すように、このボクセルB1から同類色の領域のボクセルB2を拡張して探索する領域拡張法(Region Growing)を用いて各ミニトマト7の存在領域を分離する基本クラスタリング処理を行う。図16にRGB色空間上における基本クラスタリング処理後の超平面分離領域を示している。イメージプロセッサ31は、赤に類する同類色の領域を拡張する基本クラスタリング処理を行うことで個々のミニトマト7の存在領域を決定できる。これにより、図11のS12の処理後のデータに示すように、ミニトマト7と背景とを分離できる。   As shown in FIG. 14, the image processor 31 first randomly determines voxels B1 at three-dimensional positions, and then expands voxels B2 of similar color areas from the voxels B1 and searches as shown in FIG. Basic clustering processing is performed to separate the existing regions of each tomato 7 by using Region Growing. FIG. 16 shows hyperplane separation areas after basic clustering processing on the RGB color space. The image processor 31 can determine the existing regions of the individual cherry tomatoes 7 by performing basic clustering processing that extends regions of similar colors similar to red. Thereby, as shown in the data after the process of S12 of FIG. 11, the cherry tomato 7 and the background can be separated.

その後、イメージプロセッサ31は、図10のS13においてミニトマト7の熟度判定領域クラスタリング処理を行う(熟度判定領域クラスタリング部としての機能)。前述したように、ミニトマト7の実7aは熟すことにより基本色は赤となるが熟していないと緑に類する色となる。ミニトマト7の実7aは茎6から養分が供給されることから根元の成長が速く先端の成長は遅いため、根元の実7aは赤いものの先端の実7aは緑のままとなっていることもある。そこで、この熟度判定領域クラスタリング処理では、房なりの先端のミニトマト7の実7aが全体の何割程度熟しているか否かを判定するために設けられる。   Thereafter, the image processor 31 performs the maturity determination area clustering processing of the cherry tomatoes 7 in S13 of FIG. 10 (function as a maturity determination area clustering unit). As described above, ripening of the fruit 7a of the cherry tomato 7 makes the basic color red while it becomes greenish if it is not ripe. Since the root 7a of the mini tomato 7 is fed with nutrients from the stem 6, the root growth is fast and the tip growth is slow, so that the root 7a is red but the tip 7a is still green. is there. Therefore, in this degree-of-maturity determination region clustering processing, it is provided in order to determine what percentage of the whole fruit 7a of the mini tomato 7 at the tip of a bunch is ripe.

このS13の処理の概要を図17及び図18に示している。図17は、基本クラスタリング処理を行った結果、すなわち房なりのミニトマト7の実7aの三次元画像を緑及び青関連色の背景と分離した結果を示している。この図17に示すように、赤関連色によるミニトマト7の領域が緑及び青関連の背景色領域と分離されているため、房なりのミニトマト7の先端領域R1に実が存在しているか、またその実7aが緑色であるか否かを判定できていない。   The outline of the process of S13 is shown in FIG. 17 and FIG. FIG. 17 shows the result of the basic clustering process, that is, the result of separating the three-dimensional image of the fruit 7a of the bunched cherry tomatoes 7 with the background of the green and blue related colors. As shown in FIG. 17, since the area of the cherry tomato 7 in the red related color is separated from the background color area related to green and blue, does the fruit exist in the tip region R1 of the cherry tomato 7 in a bunch? Also, it can not be determined whether or not the fruit 7a is green.

そこで図10のS13においては、イメージプロセッサ31は、赤関連色を備える三次元位置の下端位置から、さらに下側領域に向けて緑関連色を含めて領域拡張法により拡張する。このときの拡張処理には当初のミニトマト7の赤に類する同類色の領域と共に背景分離前の三次元領域を用いると良い。これにより図18の先端領域R1に示すように、房なりのミニトマト7の先端の実7aの緑色部分を識別できる。なお、図18は黒塗色の丸が赤関連色のボクセルBを示し、白抜き丸が緑関連色のボクセルBを示している。   Therefore, in S13 of FIG. 10, the image processor 31 extends from the lower end position of the three-dimensional position having the red-related color further toward the lower side area by the area expansion method including the green-related color. At this time, it is preferable to use a three-dimensional area before background separation together with an area of similar color similar to the original red tomato 7 red for the expansion processing. As a result, as shown in the tip region R1 of FIG. 18, it is possible to identify the green portion of the fruit 7a at the tip of the bunch of cherry tomatoes 7. In FIG. 18, black circles indicate voxels B associated with red, and open circles indicate voxels B associated with green.

例えば仮に、一般的な二次元カメラによりこの先端領域R1を観察すると、ミニトマト7の奥の背景領域には例えば茎6による緑関連色や建屋などの他色が現れる場合もあるが、図10のS11にて予め三次元画像に加工してボクセル化しているため、当該ボクセルBの位置情報を参照することで背景の茎6などの緑の影響を受けることなく、ミニトマト7の実7aの中で緑関連色の領域を判別できる。   For example, if this tip area R1 is observed with a general two-dimensional camera, other colors such as a green related color or a building by the stem 6 may appear in the background area at the back of the mini tomato 7, for example. Since the 3D image is processed in advance and voxelized in S11, reference to the position information of the voxel B does not affect the green effect of the background stem 6, etc. It is possible to determine the area of green related color among them.

そして、イメージプロセッサ31は、S14においてミニトマト7の熟度判定処理を行う。このとき、イメージプロセッサ31は、房なりのミニトマト7の先端の実7aが所定割合以上熟していなければ「熟度低」と判定して収穫対象の目標作物から外して探索処理を終了するが、所定割合以上、熟していれば「熟度高」と判定して収穫対象の目標作物とする。収穫対象から外された作物は、後日の再収穫対象の目標作物としてメモリ33に記録を残しておいても良い。そして、イメージプロセッサ31は、S15において熟した房なりのミニトマト7の実7aの三次元の位置情報を取得、特定する。   Then, the image processor 31 performs the process of determining the degree of ripeness of the cherry tomatoes 7 in S14. At this time, if the fruit 7a at the tip of the bunch of cherry tomatoes 7 is not ripened by a predetermined ratio or more, the image processor 31 determines it as "low in maturity", removes it from the target crop to be harvested and ends the search processing. If it is ripe, it is judged as "high ripeness" to be the target crop to be harvested. The crop removed from the harvest target may be recorded in the memory 33 as a target crop to be re-harvested at a later date. Then, the image processor 31 acquires and specifies three-dimensional positional information of the fruit 7a of the cherry tomato 7 which is a ripe bunch in S15.

<収穫処理の説明その2>
イメージプロセッサ31は、図9のt2、図8のS4においてN番目エリアのミニトマト7の探索処理を終了すると、ルータ34を介してロボットコントローラ32に指令を行い次の処理に移行させる。次に、ロボットコントローラ32は、図8のS5aにおいてN番目エリアのミニトマト7を収穫すると同時に、イメージプロセッサ31はS5bにおいてN+1番目エリアのミニトマト探索処理を行う。これらのS5a及びS5bの処理は、それぞれ収穫ロボット13、イメージプロセッサ31により並行して実行される。
<Description of harvesting process 2>
When the image processor 31 ends the search processing of the tomato 7 in the N-th area at t2 of FIG. 9 and S4 of FIG. 8, the image processor 31 instructs the robot controller 32 via the router 34 to shift to the next processing. Next, the robot controller 32 harvests the mini-tomatoes 7 in the N-th area in S5a of FIG. 8 while the image processor 31 performs a mini-tomato-search process in the N + 1-th area in S5b. The processes of S5a and S5b are respectively executed in parallel by the harvesting robot 13 and the image processor 31.

S5bにおけるN+1番目エリアのミニトマト7の探索処理は、探索対象エリアが異なるだけでありN番目エリアのミニトマト7の探索処理と同様であるが長時間を要する。このため、この時間を利用してS5aにおいてN番目エリアのミニトマト7の収穫処理を行う(図9の時点t3)。これにより、N番目エリアのミニトマト7を収穫しながらN+1番目エリアのミニトマト7の探索処理を実行でき、効率的に時間を利用できる。そして、収穫ロボット13がロボットコントローラ32によりS5aの処理を終了すると共に、イメージプロセッサ31がS5bの処理を終了すると、ロボットコントローラ32は、図8のS6において台車11を移動させて固定カメラ12によりN+2番目エリアの画像を取得する(図9の時点t4)。   The search process for the tomato tomato 7 in the (N + 1) th area in S5b is different from that in the search target area, and is similar to the search process for the tomato tomato 7 in the Nth area, but takes a long time. For this reason, harvest processing of the cherry tomatoes 7 of N-th area is performed in S5a using this time (time t3 of FIG. 9). As a result, while the mini-tomatoes 7 in the N-th area are harvested, the search process for the mini-tomatos 7 in the (N + 1) -th area can be performed, and time can be efficiently used. Then, when the harvesting robot 13 ends the processing of S5a by the robot controller 32 and the image processor 31 ends the processing of S5b, the robot controller 32 moves the carriage 11 in S6 of FIG. An image of the second area is acquired (at time t4 in FIG. 9).

そして次に、ロボットコントローラ32が図8のS7aにおいてN+1番目エリアのミニトマト7を収穫すると同時に、イメージプロセッサ31はS7bにおいてN+2番目エリアのミニトマト7の探索処理を実行する(図9の時点t5)。これらのS7a及びS7bの処理も前述同様に同時に行われる。そして、通路14に面した全てのエリアの収穫を完了するまで、S9においてNを順次インクリメントして収穫エリアを更新しS6から処理を繰り返す。これらの一連の処理が繰り返されることにより、全てのエリアのミニトマト7を収穫できる。   Then, at the same time as the robot controller 32 harvests the mini tomato 7 in the (N + 1) th area in S7a of FIG. 8, the image processor 31 executes a search process for the mini tomato 7 in the (N + 2) th area in S7b (time t5 in FIG. 9). ). The processes of these S7a and S7b are simultaneously performed as described above. Then, N is sequentially incremented in S9 to update the harvest area until the harvest of all the areas facing the passage 14 is completed, and the process is repeated from S6. Repeating this series of treatments makes it possible to harvest cherry tomatoes 7 in all areas.

<本実施形態のまとめ、効果>
以上説明したように、本実施形態によれば、ミニトマト7の探索処理と収穫ロボット13によるミニトマト7の収穫処理とを並行して行うようにした。これにより収穫作業に伴う時間効率を良好にでき、ミニトマト7を短時間で収穫できるようになる。
<Summary of this embodiment, effect>
As described above, according to the present embodiment, the searching process of the cherry tomatoes 7 and the harvesting process of the cherry tomatoes 7 by the harvesting robot 13 are performed in parallel. As a result, the time efficiency involved in the harvesting operation can be improved, and the cherry tomatoes 7 can be harvested in a short time.

特にこの実施形態では、ハンドカメラ17の他に固定カメラ12を用いており、この固定カメラ12を用いた画像処理により、収穫ロボット13の進行方向に存在するミニトマト7の位置を収穫ロボット13による収穫前に検出できるようになる。これにより極力無駄なく収穫動作を行うことができる。   In this embodiment, in particular, the stationary camera 12 is used in addition to the hand camera 17. The position of the mini tomato 7 present in the traveling direction of the harvesting robot 13 is determined by the harvesting robot 13 by image processing using the stationary camera 12. It will be detectable before harvest. By this, it is possible to carry out the harvesting operation without wasting as much as possible.

特に、ミニトマト7の探索処理の一部として、たとえ二次元画像データから三次元画像データを生成するSfM処理に長時間を要したとしても、この処理と並行してミニトマト7の収穫処理を行うようにしているため、収穫作業に伴う時間効率を良好にでき、ミニトマト7を短時間で収穫できる。   In particular, even if it takes a long time for SfM processing to generate three-dimensional image data from two-dimensional image data as part of the search processing for mini-tomato 7, harvesting processing of mini-tomato 7 is performed in parallel with this processing. Since it is carried out, the time efficiency accompanying a harvesting operation can be made good, and the cherry tomatoes 7 can be harvested in a short time.

また、イメージプロセッサ31は二次元画像を複数用いて三次元画像を生成し、三次元画像のあるボクセルBから同類色の領域を拡張して背景と分離する基本クラスタリング処理を行い(S12)、当該同類色の領域を拡張した端部から下側領域をさらに領域を拡張することで同類色とは異なる色領域を拡張して熟度判定領域クラスタリング処理を行い(S13)、この処理により拡張された領域に応じてミニトマト7の実7aの熟度を判定し当該熟度が所定割合より高い作物を目標作物としてその位置情報を取得するようにしている(S15)ため、熟度が所定割合以上高い作物を目標作物として収穫できるようになる。   Further, the image processor 31 generates a three-dimensional image using a plurality of two-dimensional images, and performs basic clustering processing to expand a similar color area from voxel B in the three-dimensional image and separate it from the background (S12) A region of different color from the similar color is expanded by further expanding the lower area from the end where the area of the similar color is expanded to perform the maturity judgment area clustering process (S13), and the process is expanded by this process Because the ripeness of the fruit 7a of the cherry tomato 7 is determined according to the area, and the crop whose position is higher than the predetermined ratio is acquired as the target crop (S15), the maturity is equal to or higher than the predetermined ratio High crops will be able to be harvested as target crops.

(第2実施形態)
図19から図24は第2実施形態の追加説明図を示す。第2実施形態が第1実施形態と異なるところは、1台のカメラ17を用いて目標作物を撮像しその位置情報の取得処理とその収穫処理とを行うところにある。また本実施形態では、収穫ロボット13に対するハンドカメラ17の取付位置及びその使用方法が異なる。
Second Embodiment
19 to 24 show additional explanatory views of the second embodiment. The second embodiment is different from the first embodiment in that a single camera 17 is used to image a target crop to perform acquisition processing of its position information and its harvesting processing. Moreover, in this embodiment, the attachment position of the hand camera 17 with respect to the harvesting robot 13 and its usage method differ.

図19及び図20Aは、ハンドカメラ17及びハンド21の標準位置をそれぞれ正面図及び側面図により示しており、図20Bは、第6アーム部29によりハンド21が回動されたときのハンドカメラ17とハンド21との位置関係を示している。また図21は、ハンドカメラ17の設置形態を示している。   19 and 20A show the standard positions of the hand camera 17 and the hand 21 in a front view and a side view, respectively, and FIG. 20B shows the hand camera 17 when the hand 21 is rotated by the sixth arm unit 29. And the positional relationship between the hand 21 and the hand. Further, FIG. 21 shows an installation form of the hand camera 17.

本実施形態の収穫ロボットシステム110は、図19に示すように、台車11上に収穫ロボット13が設置されており、第1実施形態で説明した固定カメラ12を設けていない。   In the harvesting robot system 110 of the present embodiment, as shown in FIG. 19, the harvesting robot 13 is installed on the carriage 11 and the fixed camera 12 described in the first embodiment is not provided.

図20Aに示す標準位置では、ハンドカメラ17の撮像軸となる画像の検出軸J1と切断挟持機構21aの切断挟持軸J2とが概ね同一方向にされている。ここでいう切断挟持軸J2とは、図20A及び図20Bに示すように、切断挟持機構21aによる切断面に含まれる方向で且つハンド21が切断挟持機構21aを直線状に固定する軸方向を表している。図21に示すように、第6アーム部29の上には冶具29aを介してハンドカメラ17が固定されている。このためハンドカメラ17は、ロボットコントローラ32が各アーム部23〜29を旋回制御することで第6アーム部29に連動して動くことになる。   In the standard position shown in FIG. 20A, the detection axis J1 of the image serving as the imaging axis of the hand camera 17 and the cutting and holding axis J2 of the cutting and holding mechanism 21a are substantially in the same direction. As shown in FIGS. 20A and 20B, the cutting and holding axis J2 referred to here is the direction included in the cut surface by the cutting and holding mechanism 21a and the axial direction in which the hand 21 fixes the cutting and holding mechanism 21a in a straight line. ing. As shown in FIG. 21, the hand camera 17 is fixed on the sixth arm 29 via a jig 29 a. For this reason, the hand camera 17 moves in conjunction with the sixth arm unit 29 as the robot controller 32 controls the turning of the arm units 23 to 29.

収穫時には、図20Bに示すように、ロボットコントローラ32が第6アーム部29を旋回制御することで取付用部材30が回動し、この回動軸を中心としてハンド21の全体が鉛直面内方向に沿って回動する。このため、ハンド21の先端に取付けられた切断挟持機構21aの切断挟持軸J2が、ハンドカメラ17による画像の検出軸J1とは異なる方向になり、特に画像の検出軸J1から鋭角に切断挟持軸J2をなすことになる。   At the time of harvest, as shown in FIG. 20B, the robot controller 32 controls the sixth arm portion 29 so as to turn the mounting member 30, and the entire hand 21 is in the vertical in-plane direction about the rotation axis. Rotate along the For this reason, the cutting and holding axis J2 of the cutting and holding mechanism 21a attached to the tip of the hand 21 is in a different direction from the detection axis J1 of the image by the hand camera 17, and particularly the cutting and holding axis at an acute angle from the detection axis J1 of the image. I will make J2.

このときロボットコントローラ32が切断挟持機構21aを制御することでミニトマト7の果柄6aを切断及び挟持できるが、切断挟持機構21aは、ハンドカメラ17による画像の検出軸J1から鋭角に切断挟持軸J2を備えることになり、ミニトマト7の果柄6aを容易に切断及び挟持できるようになる。   At this time, the robot controller 32 controls the cutting and holding mechanism 21a to cut and hold the stem 6a of the mini tomato 7. However, the cutting and holding mechanism 21a cuts and holds the cutting at a sharp angle from the detection axis J1 of the image by the hand camera 17. J2 will be provided, and it will be possible to easily cut and pinch the fruit stem 6a of the cherry tomato 7.

図19に示したように、正面側から見たときには、ハンドカメラ17がハンド21の横方向に併設されているため、当該ハンド21が、ハンドカメラ17による画像検出処理の邪魔になることなく目標作物となるミニトマト7を含む画像を検出できる。特に図20Bに示すように、側面側から見ても、ハンドカメラ17の画像の検出軸J1から鋭角に切断挟持軸J2を備えているため、ハンド21が邪魔になることなくハンドカメラ17によりミニトマト7を含む画像を検出できる。これにより、ハンドカメラ17の撮像領域に収穫ツールを映り込ませることなく適切な切断位置を把握できるようになる。その他の構成は、第1実施形態と同様であるためその説明を省略する。   As shown in FIG. 19, when viewed from the front side, the hand camera 17 is juxtaposed in the lateral direction of the hand 21, so the hand 21 does not interfere with the image detection processing by the hand camera 17. An image including mini tomato 7 as a crop can be detected. In particular, as shown in FIG. 20B, even when viewed from the side, the image capturing axis J1 of the hand camera 17 is cut at a sharp angle from the detection axis J1 of the hand camera 17, and the hand 21 is not obstructed. An image including tomato 7 can be detected. As a result, an appropriate cutting position can be grasped without reflecting the harvest tool in the imaging area of the hand camera 17. The other configuration is the same as that of the first embodiment, and thus the description thereof is omitted.

<制御方法の説明>
以下では、前述の基本的構造を利用した制御方法の一例を挙げる。図22は収穫処理をフローチャートにより概略的に示している。本実施形態では、イメージプロセッサ31が主体制御し、ロボットコントローラ32が補助的に制御する形態を示すが、何れが主体になって制御を実行しても良いし、当該プロセッサ及びコントローラ31,32を一体にまとめても良い。
<Description of control method>
Below, an example of the control method using the above-mentioned basic structure is given. FIG. 22 schematically shows the harvesting process by means of a flow chart. In the present embodiment, the image processor 31 performs main control and the robot controller 32 performs auxiliary control, but either one may perform the control and may execute the control. You may put it together.

まず、イメージプロセッサ31は、S21において変数N=0に初期設定し、S22においてロボットコントローラ32に第1〜第6アーム部23〜29の制御指令を行う。このとき、ロボットコントローラ32は、ハンドカメラ17とミニトマト7との間を極力遠距離となる第1距離になるように第1〜第6アーム部23〜29を制御する。このとき第1距離は、図23に示すように、特に第2〜第6アーム部24〜29をミニトマト7から極力離すことで当該ミニトマト7とハンドカメラ17との間の間隔を十分に大きくできる距離としている。そしてイメージプロセッサ31は、ハンドカメラ17により画像を取得する(第1検出処理部としての機能)。   First, the image processor 31 initializes the variable N to 0 in S21, and instructs the robot controller 32 to control the first to sixth arms 23 to 29 in S22. At this time, the robot controller 32 controls the first to sixth arm units 23 to 29 so that the first distance between the hand camera 17 and the tomato 7 is as long as possible. At this time, as shown in FIG. 23, in the first distance, in particular, the second to sixth arms 24 to 29 are separated as much as possible from the tomato 7 and the distance between the tomato 7 and the hand camera 17 is sufficient. The distance can be increased. Then, the image processor 31 acquires an image by the hand camera 17 (function as a first detection processing unit).

これにより、ハンドカメラ17がミニトマト7を撮像する距離を極力遠くできるようになり、多くのミニトマト7を撮像範囲に含ませることができる。このため、イメージプロセッサ31が、S23においてミニトマト7の位置情報を取得することで、より多くのミニトマト7の位置情報を取得できる。この位置情報の取得処理は、前述実施形態にて図10のフローチャートを用いて説明した処理を用いることが望ましい。   As a result, the distance at which the hand camera 17 captures the mini tomato 7 can be made as far as possible, and many mini tomatoes 7 can be included in the imaging range. For this reason, the image processor 31 can acquire more positional information of the cherry tomatoes 7 by acquiring positional information of the cherry tomatoes 7 in S23. It is desirable to use the process described using the flowchart of FIG. 10 in the above-described embodiment for the process of acquiring the position information.

その後、イメージプロセッサ31は、S24において多数のミニトマト7の位置情報に応じてミニトマト7を進行方向に向けてナンバリングする。例えば、ナンバーN=0、1、2、3…とする。このナンバリング処理は、進行方向に移動しながら収穫しやすくなるような順序を示すようにナンバーを付与するものである。このとき、概ね進行方向に向けて昇順にナンバーを付与すれば良く、厳密に進行方向に向けて昇順にナンバリングしなくても良い。   Thereafter, the image processor 31 numbers the mini tomatoes 7 in the traveling direction in accordance with the positional information of the large number of mini tomatoes 7 in S24. For example, it is assumed that the number N = 0, 1, 2, 3. In this numbering process, a number is assigned to indicate an order that facilitates harvesting while moving in the traveling direction. At this time, the numbers may be generally assigned in ascending order in the traveling direction, and it is not necessary to strictly number in ascending order in the traveling direction.

その後、イメージプロセッサ31はロボットコントローラ32に指令すると、ロボットコントローラ32は、S25においてN=0から順にN番目のミニトマト7の果柄6aを検出する。このとき、ロボットコントローラ32が、第1〜第6アーム部23〜29を制御することでハンド21の切断挟持機構21aを、S22で算出されたN番目のミニトマト7の位置に近接させるように移動制御する。   After that, when the image processor 31 instructs the robot controller 32, the robot controller 32 detects the N-th crop 6a of the mini tomato 7 in order from N = 0 in S25. At this time, the robot controller 32 controls the first to sixth arm portions 23 to 29 so that the cutting and holding mechanism 21a of the hand 21 approaches the position of the N-th mini tomato 7 calculated in S22. Move control.

この場合、図24に示すように、ハンドカメラ17が当該ハンドカメラ17とミニトマト7との間を第1距離より短い第2距離にして画像を検出できる。このときの第2距離は、特に第6アーム部29が目標作物となるN番目のミニトマト7に接近することで、ミニトマト7とハンドカメラ17との間の間隔が極力短くなる距離となっている。   In this case, as shown in FIG. 24, the hand camera 17 can detect an image by setting the distance between the hand camera 17 and the tomato 7 to a second distance shorter than the first distance. The second distance at this time is the distance at which the distance between the mini-tomato 7 and the hand camera 17 becomes as short as possible, especially when the sixth arm 29 approaches the N-th mini-tomato 7 as the target crop. ing.

この動作に応じて、ハンドカメラ17による画像検出範囲を狭くすることができ、イメージプロセッサ31は、この検出画像中に当該N番目のミニトマト7の果柄6aを検出できる(第2検出処理部としての機能)。果柄6aの検出方法は第3実施形態で説明するため本実施形態では説明を省略する。   According to this operation, the image detection range by the hand camera 17 can be narrowed, and the image processor 31 can detect the stem 6a of the N-th tomato 7 in the detected image (second detection processing unit As a function). The method of detecting the stem 6a will be described in the third embodiment, and thus the description thereof will be omitted in this embodiment.

そしてイメージプロセッサ31が、S25においてハンドカメラ17による検出画像に応じてN番目のミニトマト7の果柄6aを検出できれば、S26でYESと判断して果柄6aが有ると判断し、ロボットコントローラ32に指令を行うことで当該コントローラ32が収穫ロボット13の各アーム部23〜29を制御することで、S27においてN番目のミニトマト7を収穫する(収穫部の機能)。ロボットコントローラ32が収穫作業を終了すれば、イメージプロセッサ31に終了情報を出力する。また、イメージプロセッサ31は、S25においてN番目のミニトマト7の果柄6aを検出できないときにはS26でNOと判断し、収穫不能であると判定する。   Then, if the image processor 31 can detect the fruit pattern 6a of the N-th mini tomato 7 according to the image detected by the hand camera 17 in S25, it is judged as YES in S26 and it is judged that the fruit pattern 6a is present. The controller 32 controls the respective arm portions 23 to 29 of the harvesting robot 13 by issuing a command to harvest the Nth mini tomato 7 in S27 (function of the harvesting unit). When the robot controller 32 finishes the harvesting operation, it outputs termination information to the image processor 31. Further, when the image processor 31 can not detect the fruit pattern 6a of the N-th tomato 7 in S25, the image processor 31 determines NO in S26, and determines that it is impossible to harvest.

イメージプロセッサ31が、終了情報を入力したり収穫不能であったりしたときには、果柄6aの有無に拘わらずS28においてNをインクリメントする。そして、イメージプロセッサ31は、S29においてロボットコントローラ32に台車11を進行方向に移動開始させる。このときの台車11の進行方向への移動速度は一定であっても良いし移動速度を変更しても良いが、台車11の位置情報を詳細に特定することが望ましい。これは、S23で特定されたミニトマト7の位置情報に合わせて台車11の進行方向の位置を調整したり、また逆に台車11の進行方向位置に合わせて、S23で取得されたミニトマト7の位置情報を相対的に補正したりすることができるためである。   When the image processor 31 inputs end information or is unable to harvest, N is incremented in S28 regardless of the presence or absence of the stem 6a. Then, the image processor 31 causes the robot controller 32 to start moving the carriage 11 in the traveling direction in S29. The moving speed of the carriage 11 in the traveling direction at this time may be constant or the moving speed may be changed, but it is desirable to specify the position information of the carriage 11 in detail. This adjusts the position of the traveling direction of the carriage 11 according to the positional information of the tomato 7 specified in S23, or conversely, according to the traveling direction position of the carriage 11, the cherry tomato 7 acquired in S23 This is because the position information of can be relatively corrected.

そして、イメージプロセッサはS30において所定条件を満たしたか否かを判定する。この所定条件は、ハンドカメラをミニトマトに順に近づけて移動制御している状態から、ハンドカメラをミニトマトから再度遠ざけて画像検出する必要があるか否かの判断条件を示すものであり、例えばS22にて検出した画像の中のミニトマト7を全て収穫終了又は収穫不能と判定することを条件とすることが望ましい。また、S23で取得された位置情報のミニトマト7が全て収穫終了していなくても、例えば全数でミニトマト7がK個以上検出されていたとすれば、K個のうち適宜設定された所定割合個数(例えばK/2)以上だけ収穫処理を終了していれば、S30において所定条件を満たすと判定しても良い。   Then, the image processor determines in S30 whether the predetermined condition is satisfied. This predetermined condition indicates a condition for judging whether or not it is necessary to move the hand camera away from the mini tomato again to perform image detection while the hand camera is moved closer to the mini tomato in order to control movement. It is desirable that all mini tomatoes 7 in the image detected in S22 be determined to be end of harvest or non-harvest. In addition, even if all tomatoes 7 in the position information acquired in S23 are not finished harvesting, for example, if K or more tomato tomatoes 7 are detected in total, a predetermined ratio appropriately set out of K is obtained. If the harvesting process has been completed by the number (for example, K / 2) or more, it may be determined in S30 that the predetermined condition is satisfied.

S30において所定条件を満たさないうちは、イメージプロセッサ31は、S25に処理を戻しS25〜S27において第1〜第6アーム部23〜29を制御して次のN番目のミニトマト7の果柄6aを検出して収穫処理を行う。   As long as the predetermined condition is not satisfied in S30, the image processor 31 returns the process to S25, and controls the first to sixth arm units 23 to 29 in S25 to S27 to control the next pattern 6a of the N-th tomato 7 Detect and harvest.

S30において所定条件を満たすと、イメージプロセッサ31はS22に処理を戻し、ハンドカメラ17により再度遠い位置から多数のミニトマト7を含む画像を検出してS23以降の処理を実行する。これにより、台車11により進行方向に移動しながら通路14に沿って熟したミニトマト7を全て収穫できる。   When the predetermined condition is satisfied in S30, the image processor 31 returns the process to S22, the hand camera 17 detects an image including a large number of mini tomatoes 7 again from a distant position, and executes the process of S23 and subsequent steps. As a result, it is possible to harvest all ripe cherry tomatoes 7 along the passage 14 while moving in the traveling direction by the carriage 11.

<本実施形態のまとめ、効果>
要するに、本実施形態では、ミニトマト7の位置特定及び果柄6aの検出処理に同一のハンドカメラ17を用いるため視野角、すなわち画角は一定であるが、まずロボットコントローラ32は、ミニトマト7からの距離を比較的遠くに制御し、ハンドカメラ17によりミニトマト7の位置情報を多数特定し、そしてミニトマト7からの距離を比較的近くに制御し、ハンドカメラ17によりミニトマト7の果柄6aを検出し、当該ミニトマト7を収穫している。そして、これらの処理を繰り返している。このため、一台のハンドカメラ17で多数のミニトマト7を検出しつつ、一つのミニトマト7の果柄6aを検出できる。これにより、多数のミニトマト7を素早く収穫できる。
<Summary of this embodiment, effect>
In short, in the present embodiment, the visual angle, ie, the angle of view, is constant because the same hand camera 17 is used to specify the position of the cherry tomato 7 and to detect the stem 6 a. The distance from the main tomato 7 is controlled to be relatively far, the position information of the mini tomato 7 is specified by the hand camera 17 in large numbers, and the distance from the mini tomato 7 is controlled relatively close. The stem 6a is detected, and the mini tomato 7 is harvested. And, these processes are repeated. Therefore, it is possible to detect the fruit pattern 6 a of one mini tomato 7 while detecting a large number of mini tomatoes 7 with one hand camera 17. Thereby, many cherry tomatoes 7 can be harvested quickly.

また、ハンドカメラ17が房なりのミニトマト7及び果柄6aを含む画像を取得し、切断挟持機構21aが画像検出軸J1から鋭角に切断挟持軸J2を備えミニトマト7の果柄6aを切断挟持して房なりのミニトマト7を収穫するようにしている。このため、果柄6aを画像処理により検出するときには、ハンド21が邪魔になることなく、ミニトマト7の果柄6aを容易に検出でき、しかもミニトマト7を容易に収穫できる。   Further, the hand camera 17 acquires an image including the bunched cherry tomatoes 7 and the stem 6a, and the cutting and holding mechanism 21a has a cutting and holding axis J2 at an acute angle from the image detection axis J1 and cuts the stem 6a of the cherry tomato 7 It is pinched to collect bunched mini tomatoes 7. Therefore, when the fruit pattern 6a is detected by image processing, the fruit pattern 6a of the mini tomato 7 can be easily detected without being disturbed by the hand 21, and furthermore, the mini tomato 7 can be easily harvested.

(第3実施形態)
図25から図30は第3実施形態の追加説明図を示す。例えば、第1実施形態にて説明した図8のS5a、S7aにおけるミニトマト7の収穫処理は、収穫ロボット13により行われる処理である。また第2実施形態では、図22のS25においてミニトマト7の果柄6aを検出し、S27にて果柄6aの切断ポイントにて切断することでミニトマト7を収穫するが、これらの処理も収穫ロボット13によって行われる処理である。
Third Embodiment
25 to 30 show additional explanatory views of the third embodiment. For example, the harvesting process of the cherry tomatoes 7 in S5a and S7a of FIG. 8 described in the first embodiment is a process performed by the harvesting robot 13. In the second embodiment, the fruit pattern 6a of the cherry tomato 7 is detected in S25 of FIG. 22, and the cherry tomato 7 is harvested by cutting at the cutting point of the fruit pattern 6a in S27. It is a process performed by the harvesting robot 13.

これらにおいて、収穫ロボット13のロボットコントローラ32は、図10のS14又は図22のS23において取得された実の熟したミニトマト7の位置情報を入力し、第1〜第6アーム部23〜29を制御し、ハンド21の上部又は第6アーム部29に取り付けられたハンドカメラ17によりミニトマト7の果柄6aを含む画像を検出し、イメージプロセッサ31がこの画像から果柄6aを詳細に検出し、そしてハンド21により果柄6aを切断及び挟持して収穫する。   In these, the robot controller 32 of the harvesting robot 13 inputs the position information of the actual ripe cherry tomatoes 7 acquired in S14 of FIG. 10 or S23 of FIG. The control is performed, and the hand camera 17 attached to the upper part of the hand 21 or the sixth arm unit 29 detects an image including the stem 6a of the mini tomato 7 and the image processor 31 detects the stem 6a in detail from this image. Then, the stem 6a is cut and nipped by the hand 21 and harvested.

イメージプロセッサ31が果柄6aを詳細に検出するときには図25のS41〜S45に示すように果柄6aの切断ポイントCPを決定することが望ましい(第1切断ポイント決定部、第2切断ポイント決定部としての機能)。まずイメージプロセッサ31は、S41においてハンドカメラ17によりカラー画像に加えて奥行き画像を含むRGB−Dの点群を取得し、S42において点群のうち同色の終点を結合することでボクセル化する。   When the image processor 31 detects the stem 6a in detail, it is desirable to determine the cutting point CP of the stem 6a as shown in S41 to S45 of FIG. 25 (a first cutting point determination unit, a second cutting point determination unit As a function). First, the image processor 31 acquires RGB-D point groups including a depth image in addition to a color image by the hand camera 17 in S41, and voxels by combining end points of the same color among the point groups in S42.

このとき、各ボクセルBは、主に3つの情報を備えており、それぞれのボクセルBの座標、各ボクセルBにどのカラーのセルが含まれているか、どのボクセルBのカラーセルが互いに隣接しているか、を示す情報を備えている。ボクセルBの隣接情報を用いることで、隣接セルを探索するために必要な計算時間を削減できる。   At this time, each voxel B mainly includes three pieces of information, and the coordinate of each voxel B, which color cell is included in each voxel B, and which color cells of voxel B are adjacent to each other Have information to indicate By using the adjacent information of voxel B, it is possible to reduce the calculation time required to search for adjacent cells.

このボクセル化処理では複数の解像度に分けてボクセル化することが望ましい。図26及び図27にミニトマト7及びその果柄6aの周辺画像を複数の解像度でボクセル化した例を示す。図26は例えば低解像度のボクセルB11の例を示し、図27は高解像度のボクセルB12の例を示している。   In this voxelization process, it is desirable to divide into multiple resolutions and voxelize. The example which voxel-ized the periphery image of the cherry tomato 7 and its fruit pattern 6a by several resolutions in FIG.26 and FIG.27 is shown. FIG. 26 shows an example of a low resolution voxel B11, for example, and FIG. 27 shows an example of a high resolution voxel B12.

その後、イメージプロセッサ31は、図25のS42においてミニトマト7の領域とその他の背景領域とをSVM処理により分離する。第1実施形態でも説明したように、イメージプロセッサ31は、メモリ33に記憶された機械学習パターンに応じて、ミニトマト7の赤に類する同類色となる条件を満たすボクセルBの領域を拡張し、ミニトマト7の領域とその他の背景領域を分離する。図28には、このS43の処理前後の三次元画像例を模式的に示している。この場合には、低解像度のボクセルB1を用いることで素早く処理を完了できる。   After that, the image processor 31 separates the area of the tomato 7 and the other background area by SVM processing in S42 of FIG. As described in the first embodiment, the image processor 31 expands the region of the voxel B that satisfies the similar color similar to red of the cherry tomato 7 according to the machine learning pattern stored in the memory 33, Separate the area of cherry tomatoes 7 and the other background areas. FIG. 28 schematically shows an example of a three-dimensional image before and after the process of S43. In this case, the processing can be completed quickly by using the low resolution voxel B1.

次に、イメージプロセッサ31は、図25のS44においてミニトマト7の存在領域のクラスタリング処理を行う。このとき第1実施形態でも説明したように、イメージプロセッサ31は、初めにランダムに三次元位置のボクセルBを決定した後、このボクセルBから同類色の領域を拡張して探索する領域拡張法を用いて、各ミニトマト7の存在領域R2を分離する。図28にはこのS44の処理前後の三次元画像例を模式的に示している。   Next, the image processor 31 performs clustering processing of the existing area of the mini tomato 7 in S44 of FIG. At this time, as described in the first embodiment, the image processor 31 first randomly determines a voxel B at a three-dimensional position, and then expands the area of similar colors from the voxel B and searches for an area expansion method. The presence region R2 of each cherry tomato 7 is separated using this. FIG. 28 schematically shows an example of a three-dimensional image before and after the process of S44.

そしてイメージプロセッサ31は、図25のS45において、個々のミニトマトの果柄の切断ポイントCPを決定する。図29には切断ポイントCPの決定方法を概略的に示している。このとき、例えばミニトマト7の領域とS42で別に取得され図27で示される高解像度のボクセルB2を用いて、果柄6aの切断ポイントCPを決定することが望ましい。   Then, the image processor 31 determines the cutting points CP of the stems of individual cherry tomatoes at S45 of FIG. FIG. 29 schematically shows a method of determining the cutting point CP. At this time, it is desirable to determine the cutting point CP of the stem 6a using, for example, the high-resolution voxel B2 acquired separately in the region of the cherry tomato 7 and S42 and shown in FIG.

イメージプロセッサ31は、図30に示すように、垂直にレイヤL1〜L3を分離した状態で当該レイヤL1〜L3毎に複数のボクセルB2を分離し、各レイヤL1〜L3の直径Aを導出し、極力細い直径Aのレイヤ(例えばL2)を切断ポイントCPの第1条件にすることが望ましい。これは、ミニトマト7は果柄6aよりも太くなり、果柄6aとミニトマト7の直径を合計すると果柄6aの直径に比較して大きくなるためであり、果柄6aの切断ポイントCPを、より細い直径のレイヤ(例えばL2)に位置させることが望ましいためである。   The image processor 31 separates the plurality of voxels B2 for each of the layers L1 to L3 in a state in which the layers L1 to L3 are vertically separated as illustrated in FIG. 30, and derives the diameter A of each of the layers L1 to L3, It is desirable to make the layer (for example, L2) of diameter A as thin as possible as the first condition of the cutting point CP. This is because the cherry tomato 7 is thicker than the fruit pattern 6a, and the total diameter of the fruit pattern 6a and the cherry tomato 7 is larger than the diameter of the fruit pattern 6a, and the cutting point CP of the fruit pattern 6a is Because it is desirable to locate in a thinner diameter layer (eg, L2).

ミニトマト7の茎6は、根から上方に延びるに従い、下部にて太くなり上部に向かうに従って細くなる。また図29に示すように、切断ポイントCPにて細くなりミニトマト7が成熟している部分で直径Aが太くなる。このため、三次元的に検出すると直径Aが切断すべき果柄6aにて概ね最小の径となる。   The stems 6 of the cherry tomatoes 7 are thicker at the bottom and thinner at the top as they extend upward from the root. Further, as shown in FIG. 29, the diameter A becomes thicker at the portion where the mini tomato 7 is matured at the cutting point CP. For this reason, when three-dimensionally detected, the diameter A becomes substantially the smallest diameter at the stem 6a to be cut.

また、切断挟持機構21aが接近可能で距離Dが短いレイヤL1〜L3を切断ポイントCPの第2条件とすると良い。これは、切断ポイントCPが切断挟持機構21aから遠くなってしまうと、途中の障害物に阻まれてしまい、切断挟持機構21aが切断ポイントCPにて果柄6aをカットできないためである。したがって、果柄6a又は/及びミニトマト7との距離Dが極力近くなる条件を採用すると良い。また、レイヤL1〜L3のボクセルB2が垂直方向に延びており、果柄6aが垂直方向から所定角度範囲内になっていることを切断ポイントCPの第3条件とすると良い。これは、可能な限り果柄6aに対し直線的にアプローチすべきだからである。   Further, layers L1 to L3 in which the cutting and holding mechanism 21a is accessible and the distance D is short may be set as the second condition of the cutting point CP. This is because when the cutting point CP is far from the cutting and holding mechanism 21a, the obstacle in the middle blocks the cutting handle and the cutting and holding mechanism 21a can not cut the stem 6a at the cutting point CP. Therefore, it is preferable to adopt the condition that the distance D with the fruit pattern 6a and / or the cherry tomato 7 is as close as possible. Further, it is preferable that the voxel B2 of the layers L1 to L3 extends in the vertical direction, and that the fruit pattern 6a is within a predetermined angle range from the vertical direction, as the third condition of the cutting point CP. This is because, as much as possible, a straight approach should be made to the stem 6a.

このため、果柄6aの切断ポイントCPは、この種の条件を満たすように、直径Aと距離Dをパラメータとした評価関数fを用いて導出することが望ましい。図29に概略を示しているように、評価関数f(A,D)を以下の(1)式とした場合には、この評価関数fが閾値ft以下となる条件を満たす領域を導出して切断範囲を決定すると良い。

Figure 2019097447
For this reason, it is desirable that the cutting point CP of the stem 6a be derived using an evaluation function f using the diameter A and the distance D as parameters so as to satisfy this kind of condition. As schematically shown in FIG. 29, when the evaluation function f (A, D) is expressed by the following equation (1), a region satisfying the condition that the evaluation function f is equal to or smaller than the threshold ft is derived It is good to decide the cutting range.
Figure 2019097447

このとき、評価関数fが閾値ft以下となる条件を満たす領域の切断範囲のうち評価関数が最低値となる領域を選択することがなお望ましい。このような概念を考慮した上で、以下のように詳細に評価関数E(l)を導出するようにしても良い。このときの評価関数E(l)を(2)式のように定義する。

Figure 2019097447
At this time, it is more preferable to select a region where the evaluation function has the lowest value among cutting ranges of the region satisfying the condition that the evaluation function f is equal to or less than the threshold ft. In consideration of such a concept, the evaluation function E (l) may be derived in detail as follows. The evaluation function E (l) at this time is defined as equation (2).
Figure 2019097447

この(2)式の第1項は、レイヤL1〜L3の直径Aに係る第1条件を示しており、n()は要素の数を示している。直径Aが細いほど評価関数E(l)は小さくなる。第2項は、前述したレイヤL1〜L3と切断挟持機構21aとの間の距離Dに係る第2条件を示している。ここでvは集合V(l)に属するボクセルBを示しており、L1ノルムを用いることで距離Dを素早く計算できるようにしている。第3項は、前述したレイヤL1〜L3の方向に関する第3条件を示しており、y^は垂直方向の単位ベクトルを示し、wは集合V(l+1)に属するボクセルBを示している。この第3条件では鉛直方向に近い方向に延びる方向を選択するように表されている。これらの評価関数E(l)を最小化するレイヤを求めることで適切な切断ポイントCPを求めることができる。   The first term of the equation (2) indicates a first condition relating to the diameter A of the layers L1 to L3, and n () indicates the number of elements. The smaller the diameter A, the smaller the evaluation function E (l). The second term indicates a second condition relating to the distance D between the layers L1 to L3 and the cutting and holding mechanism 21a described above. Here, v indicates a voxel B belonging to the set V (l), and the distance D can be calculated quickly by using the L1 norm. The third term indicates the third condition regarding the direction of the layers L1 to L3 described above, y ^ indicates a unit vector in the vertical direction, and w indicates a voxel B belonging to the set V (l + 1). In the third condition, a direction extending in a direction close to the vertical direction is selected. An appropriate cutting point CP can be determined by finding a layer that minimizes these evaluation functions E (l).

<本実施形態に係る概念的なまとめ、効果>
要するに、イメージプロセッサ31は、ハンドカメラ17により取得された画像を高さ方向のレイヤL1〜L3毎にボクセルB2化したレイヤの直径D、切断挟持機構21aからの距離D、レイヤL1〜L3のボクセルB2の垂直方向度、に依存した所定の評価関数f,E(l)を用いて果柄6aの切断ポイントCPを決定するようにしている。このため、果柄6aの切断ポイントCPを素早く適切に求めることができ、切断ポイントCPを切断することでミニトマト7を素早く的確に収穫できる。
<Conceptual Summary, Effect According to This Embodiment>
In short, the image processor 31 measures the diameter D of the layer obtained by converting the image acquired by the hand camera 17 into voxels B2 for each of the layers L1 to L3 in the height direction, the distance D from the cutting and holding mechanism 21a, and voxels of the layers L1 to L3. The cutting point CP of the stem 6a is determined using a predetermined evaluation function f, E (l) depending on the vertical degree of B2. For this reason, the cutting point CP of the stem 6a can be determined quickly and appropriately, and by cutting the cutting point CP, the cherry tomato 7 can be harvested quickly and accurately.

また、ミニトマト7と背景領域とをクラスタリング処理するときには比較的低解像度の第1解像度でクラスタリング処理し、その後、第1解像度より高い第2解像度のボクセルを用いて果柄6aの切断ポイントCPを決定している。このため、果柄6aの切断ポイントCPを素早く適切に求めることができ、切断ポイントCPを切断することでミニトマト7を素早く的確に収穫できる。   In addition, when clustering the tomato 7 and the background area, clustering processing is performed at a relatively low resolution first resolution, and then the cutting point CP of the stem 6a is generated using voxels of a second resolution higher than the first resolution. It is decided. For this reason, the cutting point CP of the stem 6a can be determined quickly and appropriately, and by cutting the cutting point CP, the cherry tomato 7 can be harvested quickly and accurately.

(他の実施形態)
前述実施形態に限定されるものではなく、例えば、以下に示す変形又は拡張が可能である。前述した第1から第3実施形態の構成を必要に応じて組み合わせることができる。
(Other embodiments)
The present invention is not limited to the above embodiment, and for example, the following modifications or expansions are possible. The configurations of the first to third embodiments described above can be combined as needed.

第1実施形態において、固定カメラ12はステレオカメラを用いた形態を示したが、単眼カメラであっても移動しながら二次元画像を複数枚撮像することで三次元画像を生成できる。このため、固定カメラ12としては単眼カメラを用いても良い。また、第1実施形態においても、固定カメラ12として、カラー情報と共に奥行き情報が得られるRGB−Dカメラなどの3Dカメラを用いても良い。   In the first embodiment, the fixed camera 12 is a stereo camera. However, even a monocular camera can generate a three-dimensional image by capturing a plurality of two-dimensional images while moving. Therefore, a monocular camera may be used as the fixed camera 12. Also in the first embodiment, a 3D camera such as an RGB-D camera that can obtain depth information as well as color information may be used as the fixed camera 12.

切断、挟持する切断挟持機構21aを備える形態を示したが、これに限定されるものではなく、例えば、挟持する機能を備えることなく切断機能だけを備えたはさみによる切断部を備え、切断した目標作物を下からネットなどで支える形態に適用しても良い。   Although the form provided with the cutting and holding mechanism 21a for cutting and holding is shown, the present invention is not limited to this, and for example, a cut target with scissors having only a cutting function without having a holding function and cut You may apply to the form which supports a crop by the net etc. from the bottom.

収穫対象の目標作物としてミニトマト7を適用した形態を示したが、作物は特に限定されるものではなく、例えばブドウ、白ゴーヤ、大玉トマト、赤パプリカ、黄パプリカなどの作物であり、背景と作物との間の色による識別が可能であれば適用可能となる。また特に第1実施形態では、ブドウは先端の成長が遅い作物であるため、第1実施形態に適用できる期待が大きい。   Although the form which applied the mini-tomato 7 as a target crop to be harvested was shown, the crop is not particularly limited, and is, for example, a crop such as grape, white bitter gourd, large egg tomato, red paprika, yellow paprika, etc. It is applicable if color discrimination between crops is possible. In particular, in the first embodiment, since the grape is a crop having a slow growth of the tip, it is highly expected to be applicable to the first embodiment.

第3実施形態における評価関数fの係数α、β、C及び閾値ft、評価関数E(l)の各項は、目標作物の生育状態や種類に合わせて変更可能とすることが望ましい。また、切断可能な範囲で、実際に切断する切断ポイントCPを指定する方法も、目標作物の種類や大きさに応じて調整可能とすると良い。   The coefficients α, β, C and threshold value ft of the evaluation function f and the terms of the evaluation function E (l) in the third embodiment are desirably changeable in accordance with the growth state and type of the target crop. In addition, it is preferable that the method of designating the cutting point CP to be actually cut in the cuttable range be adjustable in accordance with the type and size of the target crop.

前述した実施形態の各要素を組み合わせて構成しても良い。前述実施形態に記述した各機能をハードウェアにより実現してもハードウェア及びソフトウェアの組合せにより実現しても良い。また、特許請求の範囲に記載した括弧内の符号は、本発明の一つの態様として前述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。前述実施形態の一部を、課題を解決できる限りにおいて省略した態様も実施形態と見做すことが可能である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において、考え得るあらゆる態様も実施形態と見做すことが可能である。   You may combine and comprise each element of embodiment mentioned above. Each function described in the above embodiment may be realized by hardware or a combination of hardware and software. Further, reference numerals in parentheses described in the claims indicate the correspondence with the specific means described in the embodiment described above as one aspect of the present invention, and the technical scope of the present invention It is not limited. The aspect which abbreviate | omitted a part of above-mentioned embodiment as long as a subject can be solved can also be considered as embodiment. In addition, any conceivable aspect can be considered as an embodiment without departing from the essence of the invention specified by the language described in the claims.

本開示は、前述した実施形態に準拠して記述したが、当該実施形態や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。   Although the present disclosure has been described based on the embodiments described above, it is understood that the present disclosure is not limited to the embodiments or the structures. The present disclosure also includes various modifications and variations within the equivalent range. In addition, various combinations and forms as well as other combinations and forms including one element or more or less or less are also within the scope and the scope of the present disclosure.

図面中、7は房なりのミニトマト(目標作物)、10,110は収穫ロボットシステム、12は固定カメラ(第1画像取得部)、13は収穫ロボット、31はイメージコントローラ(収穫位置取得部)、を示す。   In the drawing, 7 is a bunch of cherry tomatoes (target crop), 10, 110 is a harvesting robot system, 12 is a fixed camera (first image acquisition unit), 13 is a harvesting robot, 31 is an image controller (harvesting position acquisition unit) Indicate.

Claims (3)

進行方向に沿って収穫対象となる目標作物(7)を収穫する収穫ロボットシステム(10)であって、
台車の所定位置に設置され当該所定位置から収穫対象となる目標作物を含む画像を取得する画像取得部(12)と、
前記画像取得部により取得された画像を用いて前記目標作物を探索して当該目標作物の位置情報を取得する収穫位置取得部(31)と、
前記所定位置から前記進行方向の後部において、前記収穫位置取得部により取得された前記目標作物の位置情報を用いて前記目標作物を収穫する収穫ロボット(13)と、を備え、
前記収穫位置取得部による目標作物の探索処理と前記収穫ロボットによる前記目標作物の収穫処理とを並行して行う収穫ロボットシステム。
A harvesting robot system (10) for harvesting a target crop (7) to be harvested along a traveling direction,
An image acquisition unit (12) installed at a predetermined position of the carriage and acquiring an image including a target crop to be harvested from the predetermined position;
A harvest position acquisition unit (31) for searching for the target crop using the image acquired by the image acquisition unit and acquiring position information of the target crop;
A harvest robot (13) configured to harvest the target crop using the position information of the target crop acquired by the harvest position acquisition unit at the rear of the traveling direction from the predetermined position;
A harvesting robot system that performs a search process of a target crop by the harvest position acquisition unit and a harvest process of the target crop by the harvesting robot in parallel.
前記収穫位置取得部が前記目標作物の位置情報を取得するときに、
前記画像取得部により取得される画像を用いて三次元画像を生成する三次元画像生成部(S11)と、
前記三次元画像生成部による三次元画像のあるボクセルから同類色の領域を拡張し当該領域と他の領域とを分離する基本クラスタリング部(S12)と、
前記同類色の領域を拡張した端部から下側にて前記同類色とは異なる色領域のボクセルを拡張する熟度判定領域クラスタリング部(S13)と、を備え、
前記熟度判定領域クラスタリング部により拡張された領域を用いて前記目標作物の熟度を判定し当該熟度が所定より高い作物を前記目標作物としてその位置情報を特定する(S14、S15)請求項1記載の収穫ロボットシステム。
When the harvest position acquisition unit acquires the position information of the target crop,
A three-dimensional image generation unit (S11) that generates a three-dimensional image using the image acquired by the image acquisition unit;
A basic clustering unit (S12) for expanding an area of the same color from a certain voxel of a three-dimensional image by the three-dimensional image generation unit and separating the area from the other area;
And a maturity determining region clustering unit (S13) for expanding voxels of a color region different from the similar color from the end of the extended similar color region to the lower side,
The degree of maturity of the target crop is determined using the area expanded by the degree of maturity determination area clustering unit, and the position information of the crop having the degree of ripeness higher than a predetermined level is specified as the target crop (S14, S15) The harvesting robot system according to 1).
収穫対象となる目標作物を収穫する収穫ロボットシステム(110)であって、
所定位置に設置され画像取得部が取り付けられたロボットアーム部(23〜29)と、
前記ロボットアーム部が移動制御されることで前記画像取得部を前記目標作物から遠ざかる第1距離にして収穫対象となる目標作物を含む画像を検出する第1検出処理部(S22)と、
前記ロボットアーム部が移動制御されることで前記画像取得部を前記第1距離よりも前記目標作物に近づく第2距離にして前記目標作物を含む画像を検出する第2検出処理部(S25)と、を備え、
前記第2検出処理部による検出画像を用いて前記目標作物を収穫する収穫部(S27)と、を備える収穫ロボットシステム。
A harvesting robot system (110) for harvesting target crops to be harvested, comprising
A robot arm unit (23 to 29) installed at a predetermined position and attached with an image acquisition unit;
A first detection processing unit (S22) for detecting an image including a target crop to be harvested with the image acquisition unit being at a first distance away from the target crop by movement control of the robot arm unit;
A second detection processing unit (S25) for detecting an image including the target crop by setting the image acquisition unit to a second distance closer to the target crop than the first distance by movement control of the robot arm unit; , And
A harvesting unit (S27) configured to harvest the target crop using the image detected by the second detection processing unit.
JP2017230531A 2017-11-30 2017-11-30 Harvest robot system Active JP7049814B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017230531A JP7049814B2 (en) 2017-11-30 2017-11-30 Harvest robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230531A JP7049814B2 (en) 2017-11-30 2017-11-30 Harvest robot system

Publications (2)

Publication Number Publication Date
JP2019097447A true JP2019097447A (en) 2019-06-24
JP7049814B2 JP7049814B2 (en) 2022-04-07

Family

ID=66974477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230531A Active JP7049814B2 (en) 2017-11-30 2017-11-30 Harvest robot system

Country Status (1)

Country Link
JP (1) JP7049814B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114916318A (en) * 2022-05-30 2022-08-19 华南农业大学 Automatic fruit harvesting device carried on unmanned aerial vehicle and control method thereof
CN116267236A (en) * 2023-05-23 2023-06-23 四川省机械研究设计院(集团)有限公司 Cluster fruit picking robot
JP7468013B2 (en) 2020-03-16 2024-04-16 井関農機株式会社 Plant Cultivation Equipment
JP7505763B2 (en) 2021-02-17 2024-06-25 国立研究開発法人農業・食品産業技術総合研究機構 MOBILE BODY SPEED DERIVATION DEVICE, WORK MANAGEMENT DEVICE, AND MOBILE BODY SPEED DERIVATION METHOD

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3143264A1 (en) * 2022-12-14 2024-06-21 Commissariat à l'énergie atomique et aux énergies alternatives Method for controlling a device for automatically harvesting plant elements of interest

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042665A (en) * 1996-08-07 1998-02-17 Iseki & Co Ltd Image pick up device of robot for agricultural use
US20060213167A1 (en) * 2003-12-12 2006-09-28 Harvey Koselka Agricultural robot system and method
JP2012055207A (en) * 2010-09-07 2012-03-22 Nikon Corp System and plant for cultivating plant, harvesting device, and method for cultivating plant
JP2012198688A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2014183841A (en) * 2013-02-19 2014-10-02 Muroran Institute Of Technology Automatic plant harvester, automatic plant harvesting program and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042665A (en) * 1996-08-07 1998-02-17 Iseki & Co Ltd Image pick up device of robot for agricultural use
US20060213167A1 (en) * 2003-12-12 2006-09-28 Harvey Koselka Agricultural robot system and method
JP2012055207A (en) * 2010-09-07 2012-03-22 Nikon Corp System and plant for cultivating plant, harvesting device, and method for cultivating plant
JP2012198688A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Crop image processing program, crop image processing method and crop image processing system
JP2014183841A (en) * 2013-02-19 2014-10-02 Muroran Institute Of Technology Automatic plant harvester, automatic plant harvesting program and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7468013B2 (en) 2020-03-16 2024-04-16 井関農機株式会社 Plant Cultivation Equipment
JP7505763B2 (en) 2021-02-17 2024-06-25 国立研究開発法人農業・食品産業技術総合研究機構 MOBILE BODY SPEED DERIVATION DEVICE, WORK MANAGEMENT DEVICE, AND MOBILE BODY SPEED DERIVATION METHOD
CN114916318A (en) * 2022-05-30 2022-08-19 华南农业大学 Automatic fruit harvesting device carried on unmanned aerial vehicle and control method thereof
CN116267236A (en) * 2023-05-23 2023-06-23 四川省机械研究设计院(集团)有限公司 Cluster fruit picking robot
CN116267236B (en) * 2023-05-23 2023-08-25 四川省机械研究设计院(集团)有限公司 Cluster Fruit Picking Robot

Also Published As

Publication number Publication date
JP7049814B2 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
JP2019097448A (en) Harvesting robot system
JP2019097447A (en) Harvest robot system
Kootstra et al. Selective harvesting robotics: current research, trends, and future directions
Lehnert et al. Autonomous sweet pepper harvesting for protected cropping systems
Silwal et al. Design, integration, and field evaluation of a robotic apple harvester
Birrell et al. A field‐tested robotic harvesting system for iceberg lettuce
Zhao et al. A review of key techniques of vision-based control for harvesting robot
Jun et al. Towards an efficient tomato harvesting robot: 3D perception, manipulation, and end-effector
Hemming et al. A robot for harvesting sweet-pepper in greenhouses
US9532508B1 (en) Tagging of fruit-producing flowers for robotic selective harvesting
Sarig Robotics of fruit harvesting: A state-of-the-art review
Han et al. Strawberry harvesting robot for bench-type cultivation
JP2020511142A (en) Automatic harvesting effector
US11477942B2 (en) Robotic fruit harvesting machine with fruit-pair picking and hybrid motorized-pneumatic robot arms
JP2016073265A (en) Automatic fruit harvest device
US20230026679A1 (en) Mobile sensing system for crop monitoring
Yoshida et al. Cutting point detection using a robot with point clouds for tomato harvesting
Zaenker et al. Combining local and global viewpoint planning for fruit coverage
Parhar et al. A deep learning-based stalk grasping pipeline
Burusa et al. Attention-driven active vision for efficient reconstruction of plants and targeted plant parts
US20240165807A1 (en) Visual servoing of a robot
Kaljaca et al. Automated boxwood topiary trimming with a robotic arm and integrated stereo vision
JP7207608B2 (en) Agricultural crop harvesting method, agricultural crop harvesting device, and agricultural crop harvesting system
JP2021036821A (en) Harvesting robot
EP4002986A1 (en) Method of controlling a robotic harvesting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R150 Certificate of patent or registration of utility model

Ref document number: 7049814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150