JP2784585B2 - Fruit and vegetable position recognition device - Google Patents

Fruit and vegetable position recognition device

Info

Publication number
JP2784585B2
JP2784585B2 JP1056756A JP5675689A JP2784585B2 JP 2784585 B2 JP2784585 B2 JP 2784585B2 JP 1056756 A JP1056756 A JP 1056756A JP 5675689 A JP5675689 A JP 5675689A JP 2784585 B2 JP2784585 B2 JP 2784585B2
Authority
JP
Japan
Prior art keywords
fruit
center
spot light
vegetable
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1056756A
Other languages
Japanese (ja)
Other versions
JPH02234013A (en
Inventor
泰治 水倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YANMAA NOKI KK
Original Assignee
YANMAA NOKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YANMAA NOKI KK filed Critical YANMAA NOKI KK
Priority to JP1056756A priority Critical patent/JP2784585B2/en
Publication of JPH02234013A publication Critical patent/JPH02234013A/en
Application granted granted Critical
Publication of JP2784585B2 publication Critical patent/JP2784585B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明はロボット等のマニピュレータを用いて果
実,野菜等の果菜物を収穫する際の果菜物の位置認識装
置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to an apparatus for recognizing fruit and vegetable positions when harvesting fruit and vegetables such as fruits and vegetables using a manipulator such as a robot.

〔従来の技術〕[Conventional technology]

りんご等の果実を収穫する果実収穫ロボットにおける
果実位置の認識装置としては、従来以下の2つの方法を
用いたものが公知である。即ちカメラ2台又はカメラ1
台を一定距離移動して得た2つの画像からステレオ測距
によって果実位置を認識する方法及びロボットハンドの
先端に設けたカメラによるビジュアルフィードバックに
よって複数の画像を得、それにより果実位置を認識する
方法である。
As a device for recognizing a fruit position in a fruit harvesting robot that harvests fruits such as apples, those using the following two methods are conventionally known. That is, two cameras or camera 1
A method for recognizing fruit positions by stereo ranging from two images obtained by moving the platform by a fixed distance, and a method for recognizing fruit positions by obtaining a plurality of images by visual feedback from a camera provided at the tip of a robot hand It is.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

一般に画像処理は、画素毎の演算が必要となるので、
演算量が膨大となり、前述の2つの従来技術の如く複数
の画像を画像処理して夫々の画像に含まれる対応点を見
つけ出し、対象果実の位置を認識する場合、演算量がさ
らに膨大となり、その処理時間に長時間を要し、それを
短縮するには高速演算能力を有する高価な演算装置が必
要となり、実用化が困難であった。
Generally, image processing requires an operation for each pixel,
The amount of calculation becomes enormous, and when a plurality of images are image-processed to find corresponding points included in each image and the position of the target fruit is recognized as in the above two conventional techniques, the amount of calculation becomes further enormous. A long processing time is required, and an expensive computing device having a high-speed computing capability is required to reduce the processing time, and it has been difficult to put it to practical use.

この発明は斯かる事情に鑑みてなされたものであり、
光スポットを対象果実の重心に照射し、その重心をカラ
ーカメラの撮像視野内の所定位置で撮像し、そのときの
スポット光の光軸と撮像手段への入射光の光軸とに基づ
く三角測量法により果実の位置を認識することにより、
画像処理量を減少させ、画像処理時間を減少させること
ができ、果実位置の認識に要する時間を短縮できる果菜
物位置認識装置を提供することを目的とする。
The present invention has been made in view of such circumstances,
A light spot is applied to the center of gravity of the target fruit, and the center of gravity is imaged at a predetermined position in the field of view of the color camera, and triangulation is performed based on the optical axis of the spot light at that time and the optical axis of the incident light on the imaging means. By recognizing the position of the fruit by the method,
It is an object of the present invention to provide a fruit and vegetable position recognizing device that can reduce the amount of image processing, reduce image processing time, and reduce the time required for recognizing a fruit position.

〔課題を解決するための手段〕[Means for solving the problem]

この発明に係る果菜物位置認識装置は、収穫対象の果
菜物を可動の撮像手段により撮像し、得られた画像を処
理してその位置を認識する果菜物位置認識装置におい
て、前記果菜物にスポット光を照射する投光手段と、該
投光手段を移動させる移動手段と、撮像された果菜物の
重心位置を算出する手段と、算出された重心位置に前記
スポット光を照射すべく前記移動手段を制御する手段
と、スポット光が果菜物の重心位置に一致しているか否
かを判断する手段と、該手段がスポット光と果菜物の重
心位置とが一致していると判断した場合に前記スポット
光を前記撮像手段の撮像視野内の所定位置で撮像すべく
前記撮像手段の位置を制御する手段と、前記撮像手段へ
の入射光の光軸の方向及び前記投光手段からのスポット
光の光軸の方向に基づき前記果菜物の位置を算出する手
段とを備えることを特徴とする。
A fruit and vegetable position recognition device according to the present invention is a fruit and vegetable position recognition device that images a fruit to be harvested by a movable imaging unit, processes the obtained image, and recognizes the position thereof. Light emitting means for irradiating light, moving means for moving the light emitting means, means for calculating the position of the center of gravity of the imaged fruit or vegetable, and the moving means for irradiating the spot light to the calculated center of gravity And means for determining whether the spot light matches the center of gravity of the fruit and vegetable, and when the means determines that the spot light and the center of gravity of the fruit and vegetable match, Means for controlling the position of the imaging means so as to image the spot light at a predetermined position within the imaging field of view of the imaging means; and the direction of the optical axis of the light incident on the imaging means and the spot light from the light projecting means. Based on the direction of the optical axis Characterized in that it comprises a means for calculating the position of the serial fruit vegetables thereof.

〔作用〕[Action]

この発明においては、果菜物を撮像手段により検出す
ると、重心位置が算出され、その重心に光スポットが照
射されるように移動手段が制御され、光スポット位置を
撮像手段の視野内の所定位置とすべく撮像手段を位置決
めし、そのときの撮像手段の光軸の方向及び投光手段か
らのスポット光の光軸の方向とに基づき果菜物の位置を
認識する。
In the present invention, when the fruit or vegetable is detected by the imaging means, the position of the center of gravity is calculated, the moving means is controlled so that the light spot is irradiated on the center of gravity, and the light spot position is set to a predetermined position in the visual field of the imaging means. The imaging means is positioned in order to recognize the position of the fruit or vegetable based on the direction of the optical axis of the imaging means at that time and the direction of the optical axis of the spot light from the light projecting means.

〔実施例〕〔Example〕

以下、この発明をその一実施例を示す図面に基づいて
説明する。第1図はこの発明に係る果菜物位置認識装置
を搭載した果実収穫ロボットの外観を示す斜視図であ
る。
Hereinafter, the present invention will be described with reference to the drawings showing one embodiment. FIG. 1 is a perspective view showing an appearance of a fruit harvesting robot equipped with a fruit and vegetable position recognition device according to the present invention.

図において1は収穫用マニピュレータ6を搭載した車
体であり、該車体1は2つの駆動輪2及び1つの操向輪
3により自動操向されている。車体1の後部には操向制
御部4及び収穫制御部5を搭載している。
In the figure, reference numeral 1 denotes a vehicle body on which a harvesting manipulator 6 is mounted, and the vehicle body 1 is automatically steered by two driving wheels 2 and one steering wheel 3. A steering control unit 4 and a harvest control unit 5 are mounted on the rear part of the vehicle body 1.

また車体1中央上部にはマニピュレータ6が載置され
ている。マニピュレータ6は5軸の多関節型を用いてな
り、そのアーム先端部には、果実10を捕捉するためのハ
ンド7が取付けられている。ハンド7はモータからなる
ハンドアクチュエータ17により開閉自在な収穫部8を有
しており、その把握力はその内側に設けた圧力センサ15
にて検出され所定値となるよう制御される。
A manipulator 6 is mounted on the upper center of the vehicle body 1. The manipulator 6 is a five-axis articulated type, and a hand 7 for catching the fruit 10 is attached to the tip of the arm. The hand 7 has a harvesting unit 8 that can be opened and closed by a hand actuator 17 composed of a motor.
Is controlled to be a predetermined value.

またハンド7にはスポット光を照射するスポット光照
射部9が取付けられている。これらのマニピュレータ6
に取付けられたハンド7の位置及び方向はマニピュレー
タ6の各軸を駆動する5個のモータからなるロボットア
クチュエータ16に取付けられた夫々のロータリエンコー
ダからの検出値に基づきハンド姿勢検出部12により検出
されている。即ちマニピュレータ6の旋回部、肩部及び
肘部のモータのロータリエンコーダの検出値によりハン
ド7の位置を求め、さらに手首部の2つのモータのロー
タリエンコーダよりハンド7の旋回角度及び傾動角度を
得て、それによりハンド7の方向を求める。
Further, a spot light irradiator 9 for irradiating a spot light is attached to the hand 7. These manipulators 6
The position and direction of the hand 7 attached to the robot 7 are detected by the hand posture detector 12 based on the detection values from the respective rotary encoders attached to the robot actuator 16 composed of five motors for driving the respective axes of the manipulator 6. ing. That is, the position of the hand 7 is obtained from the detection values of the rotary encoders of the turning part, the shoulder part, and the elbow part of the manipulator 6, and the turning angle and the tilt angle of the hand 7 are obtained from the rotary encoders of the two motors of the wrist part. Thus, the direction of the hand 7 is obtained.

車体1の前部には撮像手段であるカラービデオカメラ
11が2台車のロータリエンコーダ付のモータからなるカ
メラアクチュエータ13により旋回及び傾動自在となるよ
うにして取付けられており、その旋回角度及び傾動角度
がロータリエンコーダにより検出され、それに基づきカ
メラ方向検出部14でカメラの方向が検出される。
A color video camera serving as an image pickup means is provided at a front portion of the vehicle body 1.
11 is mounted so that it can be swiveled and tilted by a camera actuator 13 composed of a motor with a rotary encoder of two bogies. The turning angle and the tilt angle are detected by a rotary encoder, and a camera direction detection unit 14 is Detects the direction of the camera.

第2図は収穫制御部の概略構成を示すブロック図であ
り、収穫制御部5は16ビットCPUを用いてなり、その入
力端子にはカラービデオカメラからのNTSC方式の映像信
号、圧力センサ15からの圧力信号、カメラ方向検出部14
からのカラービデオカメラ11の方向並びにハンド姿勢検
出部12からのハンド7の位置及び方向が入力され、その
出力端子からはロボットアクチュエータ16、ハンドアク
チュエータ17及びカメラアクチュエータ13を駆動するた
めの各別の出力信号が出力される。
FIG. 2 is a block diagram showing a schematic configuration of the harvest control unit. The harvest control unit 5 uses a 16-bit CPU, and its input terminals include an NTSC video signal from a color video camera and a pressure sensor 15. Pressure signal, camera direction detector 14
The direction of the color video camera 11 from the camera and the position and the direction of the hand 7 from the hand posture detecting unit 12 are input, and from the output terminals thereof, the respective robot actuators 16, the hand actuators 17 and the camera actuators 13 are separately driven. An output signal is output.

次に以上の如く構成されたこの発明装置の動作を説明
する。第3図はこの発明の果実位置の認識手順を示す原
理図、第4図(a),(b)はそのフローチャートであ
る。
Next, the operation of the apparatus of the present invention configured as described above will be described. FIG. 3 is a principle diagram showing a procedure for recognizing a fruit position according to the present invention, and FIGS. 4 (a) and 4 (b) are flowcharts thereof.

この発明装置においては、第3図に示す如く最初に収
穫対象の果実10を撮像画像を2値化して検出し(第3図
(a))、その重心位置を算出して、そこにスポット光
が照射されるようにマニピュレータ6を制御し(第3図
(b))、次にスポット光の位置が撮像視野の中心とな
るようにカメラアクチュエータ13を制御し(第3図
(c))、そのときのカラービデオカメラ11の方向及び
ハンド7の姿勢を検出して、三角測量等の公知の方法に
よりマニピュレータ6と果実10との距離を求める。これ
により果実10を収穫するためのマニピュレータ6の移動
量及び方向が算出され、果実が収穫できることとなる。
In the apparatus of the present invention, first, as shown in FIG. 3, a fruit 10 to be harvested is detected by binarizing a captured image (FIG. 3 (a)), the center of gravity is calculated, and a spotlight is calculated there. Is controlled (FIG. 3 (b)), and then the camera actuator 13 is controlled so that the position of the spot light is at the center of the field of view (FIG. 3 (c)). The direction of the color video camera 11 and the posture of the hand 7 at that time are detected, and the distance between the manipulator 6 and the fruit 10 is obtained by a known method such as triangulation. Thereby, the movement amount and the direction of the manipulator 6 for harvesting the fruit 10 are calculated, and the fruit can be harvested.

次にフローチャートに基づき動作を詳細に説明する。 Next, the operation will be described in detail with reference to a flowchart.

最初にカラービデオカメラ11にて撮像を開始し(ステ
ップ1)、その画像を収穫制御部5内に入力し、その画
像内に赤色Rが所定閾値RS以上含まれる画素を抽出して
2値化する(ステップ2)。次に2値化された画素数を
計数し、それが所定値PS以上か否かを判断し(ステップ
3)、PS以下のときはカメラアクチュエータ13を所定量
旋回及び傾動し、ステップ1に戻る。PSより大きいとき
は画素数により面積を求め(ステップ5)、それに基づ
きその重心位置を算出する(ステップ6)。次にスポッ
ト光照射部9をオンし、スポット光を照射する(ステッ
プ7)。そしてカラービデオカメラ11にて撮像し(ステ
ップ8)、その画像を所定の第2閾値で2値化しスポッ
ト光を抽出する(ステップ9)。2値化の結果、スポッ
ト光が撮像視野内にあるか否かを判定し(ステップ1
0)、スポット光が視野内にないときはマニピュレータ
6を所定量駆動し(ステップ11)、ステップ8に戻る。
スポット光が視野内にあるときは、スポット光の中心と
重心位置とのずれ量を算出する(ステップ12)。ここで
ずれ量とは距離及び方向を含むものである。ずれ量が算
出されるとそれに応じてマニピュレータ6を駆動し(ス
テップ13)、撮像及び2値化により(ステップ14,1
5)、スポット光を重心位置に一致させる。ステップ16
で、スポット光の中心が重心位置と一致したか否かが判
定され、一致していないときは再度ステップ12からやり
直す。一致したときは重心位置と視野中心とのずれ量を
算出し(ステップ17)、それに基づきカメラアクチュエ
ータ13を駆動し(ステップ18)、ステップ19で視野中心
と重心位置とが一致したか否かを判定する。一致しない
ときは再度ステップ17から反復し、一致したときは、直
ちにスポット光照射部9をオフし、ハンド姿勢検出部12
でマニピュレータ6のロボットアクチュエータ16の旋回
部、肩部及び肘部の3つのロータリエンコーダの検出値
からハンド7の位置を算出し、手首部の2つのロータリ
エンコーダの検出値からハンド7の方向を算出すると共
に、カメラアクチュエータ13に取付けられた2つのロー
タリエンコーダの検出値からカラービデオカメラ11の方
向を算出する(ステップ20)。
First, imaging is started by the color video camera 11 (step 1), the image is input into the harvest control unit 5, and a pixel in which the red R is equal to or more than the predetermined threshold value R S is extracted and binary. (Step 2). Next, the number of binarized pixels is counted, and it is determined whether or not the number is equal to or more than a predetermined value P S (step 3). If the number is less than P S , the camera actuator 13 is turned and tilted by a predetermined amount. Return to P When S is greater than the determined area by the number of pixels (step 5), and calculates the barycentric position based thereon (Step 6). Next, the spot light irradiator 9 is turned on to irradiate a spot light (step 7). Then, an image is picked up by the color video camera 11 (step 8), and the image is binarized by a predetermined second threshold to extract a spotlight (step 9). As a result of the binarization, it is determined whether or not the spot light is within the imaging visual field (step 1).
0) If the spot light is not in the visual field, the manipulator 6 is driven by a predetermined amount (step 11), and the process returns to step 8.
When the spot light is within the field of view, the shift amount between the center of the spot light and the position of the center of gravity is calculated (step 12). Here, the shift amount includes the distance and the direction. When the shift amount is calculated, the manipulator 6 is driven according to the calculated amount (step 13), and the image is taken and binarized (steps 14, 1).
5) Match the spot light to the position of the center of gravity. Step 16
Then, it is determined whether or not the center of the spot light coincides with the position of the center of gravity. If not, the process is repeated from step 12 again. If they match, the amount of deviation between the position of the center of gravity and the center of the field of view is calculated (step 17), and the camera actuator 13 is driven based on the calculated amount (step 18). judge. If they do not match, the process repeats from step 17 again. If they match, the spotlight irradiating unit 9 is turned off immediately and the hand posture detecting unit 12
Calculates the position of the hand 7 from the detected values of the three rotary encoders of the turning part, the shoulder and the elbow of the robot actuator 16 of the manipulator 6, and calculates the direction of the hand 7 from the detected values of the two rotary encoders of the wrist. At the same time, the direction of the color video camera 11 is calculated from the detection values of the two rotary encoders attached to the camera actuator 13 (Step 20).

またこのときカラービデオカメラ11の光軸の中心(=
視野中心)及びスポット光照射部9からのスポット光は
共に果実10の重心位置にあるので、前記光軸及びスポッ
ト光の光軸は同一平面上にあり、2つの光軸にて形成さ
れる三角形は一意に求められる。そして公知の三角測量
方式を用いて果実10の位置を算出し、それにより果実10
とハンド7との距離及び方向を求めることができる(ス
テップ21)。
At this time, the center of the optical axis of the color video camera 11 (=
Since both the spot light from the center of the field of view and the spot light from the spot light irradiation unit 9 are located at the center of gravity of the fruit 10, the optical axis and the optical axis of the spot light are on the same plane, and a triangle formed by the two optical axes Is required uniquely. Then, the position of the fruit 10 is calculated using a known triangulation method.
The distance and direction between the hand and the hand 7 can be obtained (step 21).

そしてこれらのデータを用いることにより、マニピュ
レータ6を駆動して収穫対象の果実10にハンド7を接近
させ、収穫部8のハンドアクチュエータ17を開閉して果
実10を収穫できることになる。
By using these data, the manipulator 6 is driven to bring the hand 7 close to the fruit 10 to be harvested, and the hand actuator 17 of the harvesting unit 8 is opened and closed to harvest the fruit 10.

なおこの実施例ではマニピュレータとして多関節型の
ロボットを用いたがこの発明はこれに限るものではな
く、マニピュレータは自動的に果菜物を捕捉できるもの
であればどのような型式のロボットを用いてもよい。
In this embodiment, an articulated robot is used as the manipulator.However, the present invention is not limited to this, and the manipulator may use any type of robot as long as it can automatically capture fruit and vegetables. Good.

またこの実施例の構成によれば、この発明方法だけで
はなく、従来のビジュアルフィードバックによる方法及
びステレオ測距による方法を用いることができ、対象作
物及び環境に応じて位置認識方法を使い分けが可能とな
り汎用性が高い。
Further, according to the configuration of this embodiment, not only the method of the present invention but also the conventional method of visual feedback and the method of stereo ranging can be used, and the position recognition method can be properly used depending on the target crop and the environment. High versatility.

〔発明の効果〕〔The invention's effect〕

以上説明したとおり、果菜物を撮像して得た画像の処
理によって重心位置を求め、この重心位置にスポット光
を重ね合わせ、更にこれを視野内の所定位置で捉えて撮
像を行なうことで簡単な三角測量法によって果菜物位置
を容易に、しかも正確に認識することが出来、対応点を
検出するための演算処理量が減少し、位置の認識が高速
化すると共に、安価な演算装置で画像処理できる等、優
れた効果を奏する。
As described above, the position of the center of gravity is obtained by processing the image obtained by imaging the fruit and vegetable, the spot light is superimposed on the position of the center of gravity, and further, this is captured at a predetermined position in the field of view, and imaging is performed easily. The triangulation method enables easy and accurate recognition of fruit and vegetable positions, reduces the amount of calculation processing for detecting corresponding points, speeds up position recognition, and performs image processing with an inexpensive calculation device. It has excellent effects such as being able to.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明に係る果菜物位置認識装置を搭載した
果実収穫ロボットの外観を示す斜視図、第2図は収穫制
御部の構成を示すブロック図、第3図は果実位置の認識
手順を示す原理図、第4図(a),(b)はそのフロー
チャートである。 1……車体、5……収穫制御部、6……マニピュレー
タ、7……ハンド、8……収穫部、9……スポット光照
射部、10……果実、11……カラービデオカメラ、12……
ハンド姿勢検出部、13……カメラアクチュエータ、14…
…カメラ方向検出部、16……ロボットアクチュエータ
FIG. 1 is a perspective view showing the appearance of a fruit harvesting robot equipped with a fruit and vegetable position recognition device according to the present invention, FIG. 2 is a block diagram showing the configuration of a harvest control unit, and FIG. 4 (a) and 4 (b) are flowcharts showing the principle. DESCRIPTION OF SYMBOLS 1 ... Body, 5 ... Harvest control part, 6 ... Manipulator, 7 ... Hand, 8 ... Harvest part, 9 ... Spot light irradiation part, 10 ... Fruit, 11 ... Color video camera, 12 ... …
Hand posture detector, 13 …… Camera actuator, 14…
… Camera direction detector, 16 …… Robot actuator

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】収穫対象の果菜物を可動の撮像手段により
撮像し、得られた画像を処理してその位置を認識する果
菜物位置認識装置において、 前記果菜物にスポット光を照射する投光手段と、 該投光手段を移動させる移動手段と、 撮像された果菜物の重心位置を算出する手段と、 算出された重心位置に前記スポット光を照射すべく前記
移動手段を制御する手段と、 スポット光が果菜物の重心位置に一致しているか否かを
判断する手段と、 該手段がスポット光と果菜物の重心位置とが一致してい
ると判断した場合に前記スポット光を前記撮像手段の撮
像視野内の所定位置で撮像すべく前記撮像手段の位置を
制御する手段と、 前記撮像手段への入射光の光軸の方向及び前記投光手段
からのスポット光の光軸の方向に基づき前記果菜物の位
置を算出する手段と を備えることを特徴とする果菜物位置認識装置。
1. A fruit and vegetable position recognizing device which images a fruit to be harvested by a movable imaging means, processes the obtained image and recognizes the position thereof, and irradiates the fruit with spot light. Means, moving means for moving the light projecting means, means for calculating the position of the center of gravity of the imaged fruit and vegetables, means for controlling the moving means to irradiate the spot light to the calculated center of gravity, Means for judging whether or not the spot light matches the center of gravity of the fruit or vegetable; and if the means determines that the spot light and the center of gravity of the fruit or vegetable match, the image pickup means Means for controlling the position of the imaging means so as to capture an image at a predetermined position within the imaging field of view, based on the direction of the optical axis of light incident on the imaging means and the direction of the optical axis of spot light from the light projecting means Calculate the position of the fruits and vegetables Means for recognizing fruit and vegetable positions.
JP1056756A 1989-03-08 1989-03-08 Fruit and vegetable position recognition device Expired - Fee Related JP2784585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1056756A JP2784585B2 (en) 1989-03-08 1989-03-08 Fruit and vegetable position recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1056756A JP2784585B2 (en) 1989-03-08 1989-03-08 Fruit and vegetable position recognition device

Publications (2)

Publication Number Publication Date
JPH02234013A JPH02234013A (en) 1990-09-17
JP2784585B2 true JP2784585B2 (en) 1998-08-06

Family

ID=13036352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1056756A Expired - Fee Related JP2784585B2 (en) 1989-03-08 1989-03-08 Fruit and vegetable position recognition device

Country Status (1)

Country Link
JP (1) JP2784585B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109729830A (en) * 2019-01-31 2019-05-10 安徽省鑫矿液压机械有限责任公司 A kind of backpack fruit picker

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4936362B2 (en) * 2006-07-19 2012-05-23 公立大学法人高知工科大学 Harvesting robot
KR101405858B1 (en) * 2013-12-04 2014-06-16 안성훈 Robot apparatus for harvesting fruit
JP7174217B2 (en) * 2017-11-07 2022-11-17 シブヤ精機株式会社 Vegetable harvesting equipment
CN111011003A (en) * 2019-11-12 2020-04-17 青岛大学 Strawberry picking system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62194413A (en) * 1986-02-21 1987-08-26 Yamaha Motor Co Ltd Three-dimensional coordinate measuring instrument
JPS62278917A (en) * 1986-05-26 1987-12-03 株式会社クボタ Guide apparatus of working machine for fruits

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109729830A (en) * 2019-01-31 2019-05-10 安徽省鑫矿液压机械有限责任公司 A kind of backpack fruit picker

Also Published As

Publication number Publication date
JPH02234013A (en) 1990-09-17

Similar Documents

Publication Publication Date Title
Plebe et al. Localization of spherical fruits for robotic harvesting
US4868752A (en) Boundary detecting method and apparatus for automatic working vehicle
US7398136B2 (en) Biped robot control system
US8315455B2 (en) Robot system, robot control device and method for controlling robot
JP2802638B2 (en) Fruit and vegetable harvester
US20110071675A1 (en) Visual perception system and method for a humanoid robot
JP2784585B2 (en) Fruit and vegetable position recognition device
Nagumo et al. Human following behavior of an autonomous mobile robot using light-emitting device
Almendral et al. Autonomous fruit harvester with machine vision
JP3239277B2 (en) Intelligent robot
JP3503207B2 (en) Fruit identification device of harvest robot
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JPS6270916A (en) Boundary detecting method for self-traveling truck
Dario et al. The Agrobot project for greenhouse automation
JP3396920B2 (en) Harvesting robot imaging method
JP3781217B2 (en) Obstacle detection device, obstacle detection method, moving device, and moving method
JPH04155211A (en) Range-finder
Beyhan et al. Real-time vision-based grasping randomly placed object by low-cost robotic arm using surf algorithm
JP2853283B2 (en) Omnidirectional observation device
JPH05134737A (en) Teaching device of robot
JPH0410564B2 (en)
JPH0366587A (en) Visual device for robot
KR100433272B1 (en) An apparatus of detecting 3-D position of fruits and method of detecting 3-D position of it
Delgado et al. An Approach of a Control System for Autonomous Driving Based on Artificial Vision Techniques and NAO Robot
JP2514991B2 (en) Car tire mounting method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees