JPH10232937A - Method and instrument for measuring meal tray - Google Patents

Method and instrument for measuring meal tray

Info

Publication number
JPH10232937A
JPH10232937A JP9236083A JP23608397A JPH10232937A JP H10232937 A JPH10232937 A JP H10232937A JP 9236083 A JP9236083 A JP 9236083A JP 23608397 A JP23608397 A JP 23608397A JP H10232937 A JPH10232937 A JP H10232937A
Authority
JP
Japan
Prior art keywords
tray
edge
image
meal tray
end point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9236083A
Other languages
Japanese (ja)
Inventor
Kazumi Hasegawa
二美 長谷川
Shinji Kanda
真司 神田
Masayoshi Hashima
正芳 橋間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technology Research Association of Medical and Welfare Apparatus
Original Assignee
Technology Research Association of Medical and Welfare Apparatus
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technology Research Association of Medical and Welfare Apparatus filed Critical Technology Research Association of Medical and Welfare Apparatus
Priority to JP9236083A priority Critical patent/JPH10232937A/en
Publication of JPH10232937A publication Critical patent/JPH10232937A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure the three-dimension position of even a meal tray which has none of a featured pattern, a shape, and a mark to be measured and to stably take a measurement even if measurement conditions such as lighting conditions change. SOLUTION: Images of a meal tray 10 photographed by cameras 1a and 1b are stored in an object image memory 4a, and a correlation arithmetic means 5 performs correlation operation between the object images and reference images to find straight-line parameters of the edge of the tray and the shadow of the edge and/or the bottom of the tray. Further, an end point detector 8 finds the end points of the segment of the edge of a meal tray separate part from an image of the meal tray separate part. A processing means 6 measures the three- dimensional position of the meal tray on the basis of the straight-line parameter and the end points of the edge to find a gripping position of a manipulator. Further, an R corrector 9 corrects the positions of the end points of the segment in the object image to be measured according to the size of the roundness of the corners of the tray.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】わが国では、現在高齢化が急
速に進行しており、介護を要する高齢者の数も急速に増
加している。一方、労働力の担い手となる人口は相対的
に減少しており、特に病院や福祉施設における人手不足
は深刻である。また、社会構造の変化により、従来のよ
うに高齢者を在宅看護できる家庭も少数になっている。
このような状況において、介護マンパワーを補うための
技術の研究開発が急がれている。
BACKGROUND OF THE INVENTION In Japan, the aging of society is rapidly progressing, and the number of elderly people who need nursing care is also increasing rapidly. On the other hand, the population that will be responsible for the labor force is relatively decreasing, and the shortage of human resources in hospitals and welfare facilities is particularly acute. Also, due to changes in the social structure, the number of homes that can provide nursing homes for the elderly as in the past is decreasing.
Under such circumstances, research and development of technology for supplementing care manpower is urgent.

【0002】病院や福祉施設においては、特に食事時間
帯に患者一人一人に食事を配膳/下膳しなくてはならな
いため、業務が集中するという問題がある。これに対処
するため、本出願人らは「高齢者・障害者用食事搬送ロ
ボット・システム」を開発している。このシステムは従
来人力によって行われていた食事配送ワゴンからベッド
までの食事トレイ(以下トレイと略記する)の配膳/下
膳を、マニュピュレータを持つ自律走行ロボットによっ
て行うものである。
[0002] In hospitals and welfare facilities, there is a problem that work is concentrated because meals must be served / set down to each patient particularly during mealtime. In order to deal with this, the present applicants have developed a “meal transport robot system for the elderly / disabled”. In this system, an autonomous traveling robot having a manipulator distributes / sets a meal tray (hereinafter abbreviated as a tray) from a meal delivery wagon to a bed, which has been conventionally performed manually.

【0003】上記した食事搬送ロボットにおいて、下膳
時には各ベッドのオーバーベッドテーブルに乗ったトレ
イの位置は不定であり、ロボットのマニュピュレータで
トレイを把持するには、トレイの位置をマニュピュレー
ションに必要な精度で計測しなくてはならない。計測方
法としては、レーザなど人に危害を加える方法は使えな
いので、画像計測などを用いなければならない。本発明
は、上記した施設内で食事を配膳・下膳をする食事搬送
ロボットにおける食事トレイ計測方法および装置に関
し、特に本発明は、計測対象となる特徴的な形状や模
様、あるいはマーク等がないトレイであってもその位置
を計測することができ、また、照明の明るさや方向など
の計測条件が変化してもトレイを安定に計測し把持する
ことができる食事トレイ計測方法および装置に関するも
のである。
[0003] In the above-mentioned meal transport robot, the position of the tray on the overbed table of each bed is undefined at the time of the lower table, and the position of the tray must be manipulated to grasp the tray with the robot manipulator. It must be measured with the required accuracy. As a measurement method, a method such as a laser that causes harm to humans cannot be used, so that image measurement or the like must be used. The present invention relates to a method and an apparatus for measuring a meal tray in a meal transport robot that serves and distributes meals in a facility described above. In particular, the present invention has no characteristic shape, pattern, mark, or the like to be measured. The present invention relates to a meal tray measuring method and device capable of measuring the position of a tray and stably measuring and holding the tray even when measurement conditions such as brightness and direction of illumination change. is there.

【0004】[0004]

【従来の技術】従来、上記した食事搬送ロボットおい
て、トレイの位置を計測する方法としては、トレイの計
測対象となりうる特徴的な模様や形状を計測するという
方法があった。また、食事トレイに計測に適した対象と
なる模様や形状が見つけにくい場合は、マークをつける
ことで、この問題を解決する方法があった。例えば、図
44(a)に示すように、トレイの分離部分の切り欠き
を計測対象としたり、トレイに計測対象に適した模様や
形状がない場合には、同図(b)に示すようにトレイに
マークを付けて、このマークを計測対象とし、上記切り
欠き部分やマークを2台のカメラで撮影して、これらの
位置データを求め、これらの位置データから計測対象の
トレイの3次元位置を計算してトレイの位置を計測して
いた。
2. Description of the Related Art Conventionally, as a method of measuring the position of a tray in the above-described meal transport robot, there has been a method of measuring a characteristic pattern or shape that can be a target of the tray measurement. Further, when it is difficult to find a target pattern or shape suitable for measurement on the meal tray, there is a method for solving this problem by adding a mark. For example, as shown in FIG. 44 (a), when a notch in a separation portion of a tray is set as a measurement target, or when there is no pattern or shape suitable for the measurement target in the tray, as shown in FIG. A mark is attached to the tray, and the mark is set as a measurement target. The notch or the mark is photographed with two cameras, position data thereof is obtained, and the three-dimensional position of the measurement target tray is obtained from the position data. Was calculated to measure the position of the tray.

【0005】図45は上記した食事搬送ロボットにおけ
るカメラの配置を示す図であり、同図に示すように、マ
ニピュレータの先端に2台のカメラを取り付け、このカ
メラによりトレイを撮影して、その画像データを食事搬
送ロボットの本体側に設けられた食事トレイ計測装置に
送り、トレイに位置を計測する。図46は従来技術のト
レイ計測装置の構成を示す図である。従来のトレイ計測
装置は、同図に示すように、2台のカメラ11a,11
bと、カメラ切り換え器12と、画像入力装置13と、
対象画像メモリ14と、参照画像メモリ15と、相関演
算処理装置16と、CPU17から構成されていた。
FIG. 45 is a view showing the arrangement of cameras in the above-mentioned meal transport robot. As shown in FIG. 45, two cameras are attached to the tip of the manipulator, and a tray is photographed by the cameras. The data is sent to a meal tray measuring device provided on the main body side of the meal transport robot, and the position is measured on the tray. FIG. 46 is a diagram showing a configuration of a conventional tray measuring device. As shown in FIG. 1, a conventional tray measuring device includes two cameras 11a and 11a.
b, the camera switching device 12, the image input device 13,
The target image memory 14, the reference image memory 15, the correlation operation processing device 16, and the CPU 17 were provided.

【0006】図47は上記した従来のトレイ計測装置に
おけるトレイ計測処理を示す流れ図である。同図に示す
ように、第1のカメラ11aで撮影した映像をカメラ切
り換え器12により選択し、画像入力装置13によりア
ナログの映像信号をデジタル化して対象画像メモリ14
に格納する(ステップS1)。そして、相関演算処理装
置16により、対象画像メモリ14に格納された対象画
像のすべての領域と参照画像メモリ15に格納された計
測対象(例えばマーク)の参照画像(テンプレート画
像)との相関値を計算し、最も相関度の高い領域の位置
(点1)を取得する(ステップS2)。次に、第2のカ
メラ11bで撮影した画像中の計測対象の位置(点2)
を上記と同様にして取得し(ステップS3,4)、点1
と点2の位置と予め校正された2個のカメラの相対位置
のデータより、計測対象の3次元位置を計算する(ステ
ップS5)。
FIG. 47 is a flowchart showing a tray measuring process in the above-mentioned conventional tray measuring device. As shown in the drawing, an image captured by a first camera 11a is selected by a camera switcher 12, an analog image signal is digitized by an image input device 13, and a target image memory 14
(Step S1). Then, the correlation operation processing unit 16 calculates a correlation value between all the regions of the target image stored in the target image memory 14 and the reference image (template image) of the measurement target (for example, a mark) stored in the reference image memory 15. Calculation is performed to obtain the position (point 1) of the region having the highest correlation (step S2). Next, the position (point 2) of the measurement target in the image captured by the second camera 11b
Is obtained in the same manner as above (steps S3 and S4), and the point 1 is obtained.
The three-dimensional position of the measurement target is calculated from the data of the position of the point 2 and the data of the relative positions of the two cameras calibrated in advance (step S5).

【0007】[0007]

【発明が解決しようとする課題】上記した高齢者・障害
者用食事搬送ロボット・システムは、特に病院や福祉施
設で使用するため、導入に際して建物を改造する等のコ
ストを最小限に抑えなければならない。そのため、食事
トレイ等も施設で使用されている物を改造を加えずに利
用できることが望ましい。しかし、計測対象となりうる
特徴的な模様や形状が見られないトレイも多い。そのた
め、既存のトレイを計測対象となり得る特徴的な模様や
形状を持つトレイに置き換えるか、既存のトレイにマー
クをつけなければならない。
Since the above-mentioned meal transport robot system for the elderly and handicapped is used especially in hospitals and welfare facilities, it is necessary to minimize the cost of remodeling buildings when introducing the system. No. Therefore, it is desirable that meal trays and the like can be used without modifying the materials used in the facility. However, there are many trays in which characteristic patterns and shapes that can be measured are not seen. Therefore, the existing tray must be replaced with a tray having a characteristic pattern or shape that can be measured, or the existing tray must be marked.

【0008】トレイを置き換えることはコストの問題が
あり、トレイにマークをつけることはマークをつける工
数およびマークがトレイの洗浄なとで消えてしまった場
合などに対するメインテナンスが必要となり、やはりコ
ストの問題がある。また、トレイの上に乗った食器が、
計測対象となるトレイの模様・形状またはマークを隠蔽
してしまう場合は、計測不能となるという問題がある。
さらに、ベッドサイドの照明条件は昼と夜とで異なり、
窓側と廊下側でも異なる。また、オーバーベッドテーブ
ルの色もまちまちである。このような条件の変化はトレ
イの計測を一層困難にしている。
[0008] Replacing the tray has a problem of cost. Marking the tray requires man-hours for making the mark and maintenance for the case where the mark disappears due to the cleaning of the tray. There is. Also, tableware on the tray,
If the pattern / shape or mark of the tray to be measured is concealed, there is a problem that measurement becomes impossible.
In addition, bedside lighting conditions differ between day and night,
It is different between the window side and the corridor side. Also, the color of the overbed table varies. Such a change in conditions makes the tray measurement more difficult.

【0009】本発明は上記した事情を考慮してなされた
ものであって、本発明の第1の目的は、計測対象となり
うる特徴的な模様な形状、またはマークがないトレイで
も計測できる食事トレイの計測方法および装置を提供す
ることである。本発明の第2の目的は、照明の明るさや
方向等の計測条件が変化してもトレイを安定に計測し把
持することができる食事トレイ計測方法および装置を提
供することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and a first object of the present invention is to provide a meal tray which can measure a characteristic pattern shape or a tray having no mark which can be measured. To provide a measurement method and apparatus. A second object of the present invention is to provide a meal tray measurement method and apparatus that can stably measure and hold a tray even when measurement conditions such as brightness and direction of illumination change.

【0010】[0010]

【課題を解決するための手段】図1は本発明の請求項
1,2,5,6の原理構成図である。同図において、1
a,1bは第1および第2のカメラ、10は計測対象と
なる食事トレイである。また、2は第1および第2のカ
メラを切り換えるカメラ切り換え器、3はカメラ画像を
入力する手段、4aはカメラ1a,1bにより撮影され
た対象画像を格納する対象画像メモリ、4bは参照画像
を格納する参照画像メモリ、5は対象画像と参照画像の
相関演算を行う相関演算手段、6は相関演算結果に基づ
きトレイの3次元位置を求める処理手段、7は上記相関
演算結果に基づきトレイのエッジの直線パラメータを求
める直線検出手段、8は線分の端点を求める端点検出手
段、9は食事トレイのコーナーに丸みがあるとき、その
丸みの大きさと計測対象の画像上での左右方向の端点の
位置より、計測対象の空間上での左右方向の端点の位置
を補正するR補正手段である。
FIG. 1 is a block diagram showing the principle of the first, second, fifth and sixth aspects of the present invention. In the figure, 1
Reference numerals a and 1b denote first and second cameras, and reference numeral 10 denotes a meal tray to be measured. Reference numeral 2 denotes a camera switch for switching between the first and second cameras, 3 denotes a means for inputting a camera image, 4a denotes a target image memory for storing target images captured by the cameras 1a and 1b, and 4b denotes a reference image. A reference image memory for storing, 5 is a correlation operation means for performing a correlation operation between the target image and the reference image, 6 is a processing means for obtaining a three-dimensional position of the tray based on the correlation operation result, and 7 is an edge of the tray based on the correlation operation result. 8 is an end point detecting means for obtaining an end point of a line segment, and 9 is an end point detection means for obtaining an end point in a horizontal direction on an image of a measurement target when the corner of the meal tray is round. R correction means for correcting the position of the end point in the left-right direction in the space to be measured from the position.

【0011】図2は本発明の請求項3,7の原理構成図
である。同図において、2’はステレオ画像取得器、3
はカメラ画像を入力する手段、4aはカメラ1a,1b
により撮影された対象画像を格納する対象画像メモリ、
4bは参照画像を格納する参照画像メモリ、5は対象画
像と参照画像の相関演算を行う相関演算手段、6は相関
演算結果に基づきトレイの3次元位置を求める処理手
段、7は上記相関演算結果に基づき直線を求める直線検
出手段、8は線分の端点を求める端点検出手段、9は上
記したR補正手段である。
FIG. 2 is a diagram showing the principle of the present invention. In the figure, 2 ′ is a stereo image acquisition device, 3
Is a means for inputting a camera image, 4a is a camera 1a, 1b
A target image memory for storing a target image taken by
4b is a reference image memory for storing the reference image, 5 is a correlation operation means for performing a correlation operation between the target image and the reference image, 6 is a processing means for obtaining a three-dimensional position of the tray based on the correlation operation result, and 7 is a result of the correlation operation Is an end point detecting means for obtaining an end point of the line segment, and 9 is the R correction means described above.

【0012】また、41は上記端点検出手段8により求
めた画像上における端点から空間上の端点位置を求める
位置計算手段、42はトレイのエッジ、トレイのエッジ
の影、トレイの底からトレイの空間上の姿勢を求める姿
勢計算手段、43は空間上の端点位置およびトレイの空
間上の姿勢からマニュピュレータによるトレイの把持位
置を求める把持補正手段、44は2枚のステレオ画像の
内の一方の画像上の端点位置と、他方の画像上のエッジ
から他方の画像上の端点位置を計算する対応点検出手
段、45はトレイの底を検出するトレイ底検出手段、4
6はトレイと同色の領域を検出する色検出手段、47は
直線の長さを判別する直線判別手段、48はトレイのエ
ッジ、トレイのエッジの影、トレイの底より求めたトレ
イの姿勢を比較する姿勢比較手段である。
Numeral 41 is a position calculating means for calculating an end point position in the space from the end point on the image obtained by the end point detecting means 8, and 42 is a tray edge, a shadow of the tray edge, and a tray space from the tray bottom. Attitude calculation means for obtaining the upper attitude, 43 is a grip correction means for obtaining the grip position of the tray by the manipulator from the end point position in space and the attitude of the tray in space, and 44 is one of two stereo images. A corresponding point detecting means for calculating an end point position on the other image from an upper end point position and an edge on the other image; 45, a tray bottom detecting means for detecting a tray bottom;
6 is a color detecting means for detecting an area of the same color as the tray, 47 is a straight line determining means for determining the length of the straight line, 48 is a tray edge, a shadow of the tray edge, and a tray posture obtained from the tray bottom. This is a posture comparing means.

【0013】図3は本発明の請求項4,8の原理構成図
である。同図において、2’はステレオ画像取得器、3
はカメラ画像を入力する手段、4aはカメラ1a,1b
により撮影された対象画像を格納する対象画像メモリ、
4bは参照画像を格納する参照画像メモリ、5は対象画
像と参照画像の相関演算を行う相関演算手段、6は相関
演算結果に基づきトレイの3次元位置を求める処理手
段、7は上記相関演算結果に基づき直線を求める直線検
出手段、47は直線の長さを判別する直線判別手段、5
0は画像の視野に対応したトレイのエッジ上の切片を求
める切片計算手段、51は直線姿勢計算手段である。
FIG. 3 is a diagram showing the principle of the present invention. In the figure, 2 ′ is a stereo image acquisition device, 3
Is a means for inputting a camera image, 4a is a camera 1a, 1b
A target image memory for storing a target image taken by
4b is a reference image memory for storing the reference image, 5 is a correlation operation means for performing a correlation operation between the target image and the reference image, 6 is a processing means for obtaining a three-dimensional position of the tray based on the correlation operation result, and 7 is a result of the correlation operation A straight line detecting means for determining a straight line based on the line;
0 is an intercept calculating means for obtaining an intercept on the edge of the tray corresponding to the visual field of the image, and 51 is a straight posture calculating means.

【0014】本発明の請求項1,2,5,6において
は、図1に示すように、前記した課題を次にようにして
解決する。 (1)第1および第2のカメラの画像とエッジの参照画
像との相関演算を行うことにより、それぞれのカメラの
画像における食事トレイのエッジの直線パラメータを求
め、また、上記第1および/または第2のカメラの画像
から食事トレイの分離部分のエッジの端点の位置を求
め、上記カメラの画像から得た食事トレイのエッジの直
線パラメータと、上記トレイ分離部分のエッジの端点の
位置から食事トレイの3次元位置を計測する。
In the first, second, fifth and sixth aspects of the present invention, as shown in FIG. 1, the above-mentioned problem is solved as follows. (1) By performing a correlation operation between the images of the first and second cameras and the reference image of the edge, a straight line parameter of the edge of the meal tray in the image of each camera is obtained. The position of the end point of the edge of the separation portion of the meal tray is determined from the image of the second camera, and the straight line parameter of the edge of the meal tray obtained from the image of the camera and the position of the end point of the edge of the separation portion of the tray Is measured.

【0015】(2)第1および第2のカメラの画像とエ
ッジの参照画像との相関演算を行うことにより、それぞ
れのカメラの画像における食事トレイのエッジの直線パ
ラメータを求め、また、上記第1および/または第2の
カメラの画像から食事トレイのエッジの端点の位置を求
めるとともに、カメラの位置と食事トレイのコーナーの
丸みの大きさと計測対象の画像上での左右方向の端点の
位置より、計測対象の空間上での左右方向の端点の位置
を補正し、上記カメラの画像から得た食事トレイのエッ
ジの直線パラメータと、上記補正されたトレイのエッジ
の端点の位置から食事トレイの3次元位置を計測する。
(2) By performing a correlation operation between the images of the first and second cameras and the reference image of the edge, the straight line parameters of the edge of the meal tray in the images of the respective cameras are obtained. And / or the position of the end point of the edge of the meal tray is obtained from the image of the second camera. The position of the end point in the left-right direction in the space of the measurement target is corrected, and the three-dimensional meal tray is obtained from the straight line parameter of the edge of the meal tray obtained from the image of the camera and the corrected position of the end point of the edge of the tray. Measure the position.

【0016】本発明の請求項3,7においては、図2に
示すように、前記した課題を次にようにして解決する。 (3)ステレオ画像取得器から取得したカメラの画像と
エッジの参照画像との相関演算を行うことにより、それ
ぞれの画像における食事トレイのエッジを求め、それぞ
れのエッジから食事トレイの空間上の姿勢を求め、ま
た、上記それぞれの画像における食事トレイの分離部分
のエッジの端点の位置を求め、それぞれの画像における
端点の位置から分離部分のエッジの端点の空間上の位置
を求め、上記食事トレイの空間上の姿勢と分離部分のエ
ッジの端点の空間上の位置から食事トレイの位置と姿勢
を計測する。
In the third and seventh aspects of the present invention, as shown in FIG. 2, the above-mentioned problem is solved as follows. (3) By performing a correlation operation between the image of the camera acquired from the stereo image acquisition device and the reference image of the edge, the edge of the meal tray in each image is obtained, and the attitude of the meal tray in space is determined from each edge. Determining the position of the end point of the edge of the separated portion of the meal tray in each image, obtaining the position in the space of the end point of the edge of the separated portion from the position of the end point in each image, The position and posture of the meal tray are measured from the upper posture and the position in the space of the end point of the edge of the separated portion.

【0017】本発明の請求項4,8においては、図3に
示すように、前記した課題を次にようにして解決する。 (4)ステレオ画像取得器から取得した2枚の画像から
食事トレイのエッジの直線を検出し、食事トレイの空間
上のエッジの位置および姿勢を求め、1枚の画像の視野
より、上記空間上のエッジの対応する切片を求め、上記
エッジの切片の位置からマニュピュレータによる食事ト
レイの把持位置を計算する。
According to claims 4 and 8 of the present invention, as shown in FIG. 3, the above-mentioned problem is solved as follows. (4) The straight line of the edge of the meal tray is detected from the two images acquired from the stereo image acquisition device, and the position and orientation of the edge in the space of the meal tray are obtained. The corresponding section of the edge is obtained, and the gripping position of the meal tray by the manipulator is calculated from the position of the section of the edge.

【0018】本発明の請求項1,2,5,6の発明にお
いては、上記(1)〜(2)のようにして食事トレイの
3次元位置を計測するようにしたので、計測対象となり
うる特徴的な模様な形状、またはマークがないトレイの
3次元位置を計測することが可能となる。特に、トレイ
の分離部分のエッジの端点を検出することにより、マニ
ュピュレータによりトレイを把持する際、把持点を直接
計測することができる。また、カメラの位置と食事トレ
イのコーナーの丸みの大きさと計測対象の画像上での左
右方向の端点の位置より、計測対象の空間上での左右方
向の端点の位置を補正することにより、カメラと食事ト
レイの位置関係にかかわらず端点の位置を正確に求める
ことができる。
In the invention of the first, second, fifth and sixth aspects of the present invention, since the three-dimensional position of the meal tray is measured as described in the above (1) and (2), it can be a measurement target. It is possible to measure the three-dimensional position of a tray having no characteristic pattern or mark. In particular, by detecting the end point of the edge of the separation portion of the tray, when the tray is gripped by the manipulator, the grip point can be directly measured. In addition, the camera position is corrected by correcting the position of the horizontal end point in the space of the measurement target from the position of the camera, the roundness of the corner of the meal tray, and the position of the horizontal end point on the image of the measurement target. The position of the end point can be accurately obtained irrespective of the positional relationship between the meal tray.

【0019】本発明の請求項3,7の発明においては、
上記(3)のように構成したので、食事トレイの端点の
空間上の位置、食事トレイの空間上の姿勢を求めること
ができ、マニュピュレータによる把持点を精度よく求め
ることができる。また、食事トレイのエッジの影、食事
トレイの底を検出して食事トレイの空間上の姿勢を求め
ることにより、照明条件等の計測条件の変化に対して安
定して食事トレイの位置を計測することができる。さら
に、食事トレイと同色の領域を検出することにより、ト
レイの輪郭線を安定に計測することができる。
In the third and seventh aspects of the present invention,
With the configuration as described in (3) above, the position in the space of the end point of the meal tray and the attitude in the space of the meal tray can be obtained, and the gripping point by the manipulator can be obtained with high accuracy. Further, by detecting the shadow of the edge of the meal tray and the bottom of the meal tray to determine the attitude of the meal tray in space, the position of the meal tray is stably measured with respect to changes in measurement conditions such as lighting conditions. be able to. Further, by detecting an area of the same color as the meal tray, the contour of the tray can be measured stably.

【0020】本発明の請求項4,8の発明においては、
上記(4)のように構成したので、分離部分がない食事
トレイであっても、マニュピュレータによる把持点を求
めることができる。
In the invention of claims 4 and 8 of the present invention,
With the configuration as described in (4) above, the gripping point by the manipulator can be obtained even for a meal tray having no separation part.

【0021】[0021]

【発明の実施の形態】図4、図5は本発明の実施例にお
けるトレイの計測対象を示す図である。本発明において
は、トレイの位置を計測するに際し、図4、図5(a)
〜(e)に示すように、(a)トレイ前方エッジとトレ
イの分離部分の端点、(b)トレイ前方および側方エッ
ジ、(c)トレイの前方エッジと前方エッジの端点、
(d)トレイ前方エッジと左右の側方エッジ、あるい
は、(e)トレイの前方エッジと前方エッジの左右の端
点を計測対象とし、これらを2台のカメラで撮影して、
その位置を計測しトレイの3次元位置を求める。
FIG. 4 and FIG. 5 are diagrams showing a measurement object of a tray in an embodiment of the present invention. In the present invention, when measuring the position of the tray, FIG. 4 and FIG.
(A) end points of the tray front edge and the separated portion of the tray, (b) tray front and side edges, (c) end points of the tray front edge and front edge,
(D) The front edge and the left and right side edges of the tray, or (e) The front edge and the left and right end points of the front edge of the tray are measured, and these are photographed by two cameras.
The three-dimensional position of the tray is obtained by measuring the position.

【0022】図4(a)〜(c)は、カメラとトレイの
距離が短いか、または長焦点のレンズを使用した場合で
あり、図5(d)(e)はその反対の場合である。図4
(a)〜(c)は図5(d)(e)に比較してより高精
度の計測ができるが、視野制御がより難しいという特徴
がある。図4(b)、図5(d)は2本または3本のト
レイのエッジを計測する方法である。また、図4(a)
(c)、図5(e)はトレイの前方エッジと前方エッジ
の分離部分やトレイコーナーとなす端点を計測する方法
であり、トレイのエッジを構成する直線を検出する過程
と、トレイのエッジを構成する線分の端点を検出する過
程とで計測できる。特に、図4(a)はロボットのマニ
ュピュレータによりトレイを把持する場合の把持点を直
接計測できるという利点がある。
FIGS. 4A to 4C show cases where the distance between the camera and the tray is short or a long focal length lens is used, and FIGS. 5D and 5E show the opposite cases. . FIG.
5 (a) to 5 (c) can measure with higher accuracy as compared with FIGS. 5 (d) and 5 (e), but have a feature that the visual field control is more difficult. FIGS. 4B and 5D show a method of measuring the edges of two or three trays. FIG. 4 (a)
(C) and FIG. 5 (e) show a method of measuring a separation portion between the front edge of the tray and the front edge and an end point forming a tray corner. It can be measured during the process of detecting the end points of the constituent line segments. In particular, FIG. 4A has an advantage that the gripping point when the tray is gripped by the manipulator of the robot can be directly measured.

【0023】図6は本発明の実施例における2台のカメ
ラとトレイの位置関係を示す図である。同図に示すよう
に、2台のカメラ11a,11bにより異なった視点か
らトレイ10を撮影して、計測対象近傍の画像a,bを
得て、これらの画像から計測対象の位置をそれぞれ求め
ることにより、トレイの3次元位置を計算する。以下、
上記図4、図5を参照しながら本発明の実施例について
説明する。
FIG. 6 is a diagram showing a positional relationship between two cameras and a tray in the embodiment of the present invention. As shown in the figure, the tray 10 is photographed from two different viewpoints by two cameras 11a and 11b to obtain images a and b in the vicinity of the measurement target, and to obtain the position of the measurement target from these images. To calculate the three-dimensional position of the tray. Less than,
An embodiment of the present invention will be described with reference to FIGS.

【0024】(1)第1の実施例 図7は本発明の第1の実施例のトレイ計測装置の構成を
示す図であり、本実施例は図4(a)に示すように、ト
レイ前方エッジとトレイ分離部分を計測することによ
り、分離部分を持つトレイの3次元計測を行う実施例を
示している。同図において、前記図21に示したものと
同一のものには同一の符号が付されており、本実施例に
おいては、前記図21に示したものに、撮影した画像か
ら直線部分を検出する直線検出器18と、線分の端点を
検出するための線分端点検出器19が付加されている。
(1) First Embodiment FIG. 7 is a view showing a configuration of a tray measuring apparatus according to a first embodiment of the present invention. In this embodiment, as shown in FIG. An example is shown in which three-dimensional measurement of a tray having a separated portion is performed by measuring an edge and a tray separated portion. 21, the same components as those shown in FIG. 21 are denoted by the same reference numerals, and in the present embodiment, the linear components are detected from the photographed images in the components shown in FIG. A straight line detector 18 and a line segment end point detector 19 for detecting the end point of the line segment are added.

【0025】図8は本実施例の全体処理を示す流れ図、
図9はトレイ前方エッジ端点検出処理を示す流れ図、図
10〜図14は本実施例における計測処理を説明する図
であり、同図により本実施例を説明する。まず、カメラ
切り換え器12によってカメラ11aを選択し、カメラ
11aにより撮影した画像を画像入力装置13により対
象画像メモリ14に入力する(図8のステップS1)。
次に、トレイ分離部分を検出する(図8のステップS
2)。図10はトレイ分離部分検出処理を説明する図で
あり、同図(a)は参照画像、同図(b)はカメラ11
aにより撮影したトレイ分離部分の画像を示しており、
同図T1,T2はそれぞれ前記図6のT1,T2の部分
に相当する。
FIG. 8 is a flowchart showing the overall processing of this embodiment.
FIG. 9 is a flowchart showing the tray front edge end point detection processing, and FIGS. 10 to 14 are diagrams for explaining the measurement processing in the present embodiment. The present embodiment will be described with reference to FIG. First, the camera 11a is selected by the camera switching unit 12, and an image captured by the camera 11a is input to the target image memory 14 by the image input device 13 (step S1 in FIG. 8).
Next, a tray separation portion is detected (step S in FIG. 8).
2). FIGS. 10A and 10B are diagrams for explaining the tray separation portion detection processing. FIG. 10A is a reference image, and FIG.
a shows the image of the tray separation portion taken by a,
FIGS. T1 and T2 correspond to T1 and T2 in FIG. 6, respectively.

【0026】予め、同図(a)に示す分離部分の参照画
像(テンプレート画像)を参照画像メモリ15に記憶さ
せておく。そして、同図(b)に示す対象画像の探索範
囲の各検出領域において、相関演算処理装置16により
上記分離部分のテンプレート画像と各検出領域の相関値
を求め、上記テンプレート画像と相関値の最も高い領域
を検出する。ついで、トレイ前方エッジを検出する(図
8のステップS3)。図11(a)に示すように、予
め、エッジのテンプレート画像を参照画像メモリ15に
記憶させておく。そして、同図(b)に示すように、ス
テップS2で検出したトレイ分離部分の中央の領域か
ら、対象画像の探索範囲の各検出領域において、相関演
算処理装置16により上記エッジのテンプレート画像と
各検出領域の相関値を求め、上記テンプレート画像と相
関値の最も高い領域を検出する。
The reference image (template image) of the separated portion shown in FIG. 1A is stored in the reference image memory 15 in advance. Then, in each detection area of the search range of the target image shown in FIG. 3B, the correlation operation processing device 16 calculates the correlation value between the template image of the separation part and each detection area, and calculates the maximum value of the template image and the correlation value. Detect high areas. Next, the tray front edge is detected (step S3 in FIG. 8). As shown in FIG. 11A, the template image of the edge is stored in the reference image memory 15 in advance. Then, as shown in FIG. 4B, the correlation operation processing device 16 applies the edge template image to each of the detection areas in the search range of the target image from the central area of the tray separation part detected in step S2. The correlation value of the detection area is obtained, and the area having the highest correlation value with the template image is detected.

【0027】次に、直線検出器18によりトレイ前方エ
ッジ(直線1)の直線パラメータを得る(図8のステッ
プS4)。すなわち、図12(a)に示すように、ステ
ップS3で使用したテンプレート画像を用い、同図
(b)に示すように、ステップS3で検出したトレイ前
方エッジの位置を中心として、トレイ前方エッジに沿っ
て、2か所以上の位置で上記テンプレート画像と探索範
囲内の各検出領域との局所相関演算を行い、エッジのテ
ンプレート画像と最も相関の高い領域を検出する。そし
て、テンプレート画像と相関の高い複数の領域の中心位
置より、最小二乗法による直線近似により、対象画像上
におけるトレイの前方エッジの直線パラメータを得る。
すなわち、最小二乗法による近似直線ax+by=cに
おける係数(a,b,c)を得る。
Next, the straight line detector 18 obtains the straight line parameters of the tray front edge (straight line 1) (step S4 in FIG. 8). That is, as shown in FIG. 12 (a), the template image used in step S3 is used, and as shown in FIG. 12 (b), the position of the tray front edge detected in step S3 is centered on the tray front edge. Along with this, a local correlation operation is performed between the template image and each of the detection areas within the search range at two or more positions, and an area having the highest correlation with the edge template image is detected. Then, a straight line parameter of the front edge of the tray on the target image is obtained from the center positions of a plurality of areas having a high correlation with the template image by a straight line approximation using the least squares method.
That is, the coefficients (a, b, c) at the approximate straight line ax + by = c by the least squares method are obtained.

【0028】次に、線分端点検出器19により、トレイ
分離部分のトレイ前方部分端点をより高精度に再検出す
る(図8のステップS5)。図13(a)に示すよう
に、検出されたトレイ前方エッジと平行で、一定ピクセ
ル下方の直線を処理対象とし、処理対象上の直線上のピ
クセル値を対象画像メモリ14から読み出し、CPU1
7のメモリに格納する。トレイ分離部分はこの直線上に
おいて、ピクセル値が変化する部分なので、図13
(b)に示すように、この直線を微分する等の方法によ
りピクセル値が変化する部分のX座標を検出する。
Next, the line segment end point detector 19 redetects the end point of the tray front part of the tray separation part with higher accuracy (step S5 in FIG. 8). As shown in FIG. 13A, a straight line parallel to the detected front edge of the tray and below a certain pixel is set as a processing target, and pixel values on the straight line on the processing target are read from the target image memory 14, and the CPU 1
7 is stored in the memory. The tray separation portion is a portion on which the pixel value changes on this straight line.
As shown in (b), the X coordinate of the portion where the pixel value changes is detected by a method such as differentiating this straight line.

【0029】図9は上記分離部分の検出処理を示す流れ
図である。まず、図14(a)において、カメラ11a
の画像におけるトレイ前方のエッジの直線パラメータよ
り、画像の左右の端との交点y1,y2を得る(図9の
ステップS1)。次に、上記交点y1,y2を結ぶ直線
よりσピクセルだけ下の直線を得る(ステップS2)。
そして、対象画像メモリよりy1+σ,y2+σを結ぶ
直線上にあるピクセルの値を読み出し、CPU17内の
バッファb1に格納する(ステップS3)。ついで、バ
ッファb1内の内容と予め用意された微分フィルタを積
和して、結果を別のバッファb2に格納する(ステップ
S4)。次に、バッファb2に格納されたデータの最大
値および最小値の位置を求める(ステップS5)。
FIG. 9 is a flow chart showing the detection processing of the above separated portion. First, in FIG. 14A, the camera 11a
The intersections y1 and y2 with the left and right ends of the image are obtained from the straight line parameters of the front edge of the tray in the image (step S1 in FIG. 9). Next, a straight line lower than the straight line connecting the intersections y1 and y2 by σ pixels is obtained (step S2).
Then, the value of the pixel on the straight line connecting y1 + σ and y2 + σ is read from the target image memory and stored in the buffer b1 in the CPU 17 (step S3). Next, the product in the buffer b1 is multiplied by the differential filter prepared in advance, and the result is stored in another buffer b2 (step S4). Next, the positions of the maximum value and the minimum value of the data stored in the buffer b2 are obtained (step S5).

【0030】そして、上記最小値の位置〔図13(b)
のA〕をトレイ分離部分の左端のX座標に対応させ、最
大値の位置〔図13(b)のB〕を同じく右端のX座標
に対応させる(ステップS6)。以上のようにしてトレ
イ分離部分の左端のX座標A、右端のX座標Bが求まっ
たら、A,Bからカメラ11aの画像における点1を求
める。例えば、図14に示すように、トレイ分離部分の
中央とトレイ前方エッジの交点を点1とする。
Then, the position of the minimum value [FIG.
(A) corresponds to the X coordinate at the left end of the tray separation portion, and the position of the maximum value (B in FIG. 13B) also corresponds to the X coordinate at the right end (step S6). When the X coordinate A at the left end and the X coordinate B at the right end of the tray separation portion are obtained as described above, the point 1 in the image of the camera 11a is obtained from A and B. For example, as shown in FIG. 14, the point of intersection of the center of the tray separation portion and the front edge of the tray is point 1.

【0031】以上の処理によりカメラ11aの画像にお
ける計測対象の位置が得られる。次に、カメラ切り換え
器12によってカメラ11bを選択し、カメラ11bに
より撮影した画像を画像入力装置13によって対象画像
メモリ14に入力する(図8のステップS6)。つい
で、直線検出器18により、カメラ11bの画像におけ
るトレイ前方エッジ(直線2)を検出する(ステップS
7)。
With the above processing, the position of the object to be measured in the image of the camera 11a is obtained. Next, the camera 11b is selected by the camera switch 12, and the image captured by the camera 11b is input to the target image memory 14 by the image input device 13 (step S6 in FIG. 8). Next, the front edge (straight line 2) of the tray in the image of the camera 11b is detected by the straight line detector 18 (step S).
7).

【0032】ここで、カメラ11aの位置は判っている
ので、カメラ11bの画像におけるトレイ前方エッジの
位置は、カメラ11aとカメラ11bの位置より推測で
きる。したがって、カメラ11bの画像でトレイ前方エ
ッジを検出するには、カメラ11aの点1がカメラ11
bの画像において存在し得る範囲を探索範囲として、前
記したように相関演算を行う。テンプレート画像には、
カメラ1の画像で得られたトレイ前方エッジ像(前記図
11参照)等を用いる。もちろん、カメラ11aと画像
と同様な処理を行ってもよいが、上記した方法で探索範
囲を絞り込んだ方が相関演算の計算量が少ないので、高
速に処理できる。
Here, since the position of the camera 11a is known, the position of the tray front edge in the image of the camera 11b can be estimated from the positions of the cameras 11a and 11b. Therefore, to detect the tray front edge in the image of the camera 11b, the point 1 of the camera 11a
As described above, the correlation operation is performed using the range that can exist in the image b as the search range. In the template image,
A tray front edge image (see FIG. 11) obtained from the image of the camera 1 and the like are used. Of course, the same processing as that for the camera 11a and the image may be performed. However, when the search range is narrowed by the above-described method, the calculation amount of the correlation calculation is small, so that the processing can be performed at high speed.

【0033】次に、カメラ11aで説明したのと同様に
前方エッジの直線パラメータを得る(図8のステップS
8)。ついで、カメラ11bにおける、計測対象(点
2)を求める(ステップS9)。既にカメラ11aにお
ける計測対象(点1)が判っているので、カメラ11a
における点1の位置と、カメラ11bにおけるトレイ前
方エッジの直線パラメータと、カメラ11aとカメラ1
1bの位置関係から点2が計算できる。最後に、点1と
点2よりトレイの3次元位置を計算する。すなわち、カ
メラの位置関係と点1、点2から、計測対象の3次元位
置を計算でき、同様に直線1と直線2からトレイ前方エ
ッジの3次元位置と方向を計算することができる。
Next, the straight line parameters of the front edge are obtained in the same manner as described for the camera 11a (step S in FIG. 8).
8). Next, a measurement target (point 2) in the camera 11b is obtained (step S9). Since the measurement target (point 1) in the camera 11a is already known, the camera 11a
, The straight line parameters of the front edge of the tray in the camera 11b, the camera 11a and the camera 1
Point 2 can be calculated from the positional relationship of 1b. Finally, the three-dimensional position of the tray is calculated from points 1 and 2. That is, the three-dimensional position of the measurement target can be calculated from the positional relationship of the camera and the points 1 and 2, and the three-dimensional position and direction of the front edge of the tray can be similarly calculated from the straight lines 1 and 2.

【0034】(2)第2の実施例 図15は本発明の第2の実施例のトレイ計測装置の構成
を示す図であり、本実施例は図4(b)に示すように、
トレイ前方エッジと側方エッジを計測することにより、
分離部分を持つトレイの3次元計測を行う実施例を示し
ている。同図において、前記図4に示したものと同一の
ものには同一の符号が付されており、本実施例において
は、前記図4に示したものから線分端点検出器19が除
去されており、その他の構成は上記図4のものと同一で
ある。
(2) Second Embodiment FIG. 15 is a view showing a configuration of a tray measuring device according to a second embodiment of the present invention. In this embodiment, as shown in FIG.
By measuring the tray front edge and side edge,
An example is shown in which three-dimensional measurement of a tray having a separation portion is performed. 4, the same components as those shown in FIG. 4 are denoted by the same reference numerals, and in this embodiment, the line segment end point detector 19 is removed from the components shown in FIG. The other configuration is the same as that of FIG. 4 described above.

【0035】図16は本実施例の全体処理を示す流れ図
であり、同図により本実施例を説明する。まず、カメラ
切り換え器12によってカメラ11aを選択し、カメラ
11aにより撮影した画像を画像入力装置13により対
象画像メモリ14に入力する(図16のステップS
1)。次に、前記した第1の実施例と同様に分離部分の
参照画像(テンプレート画像)を使用して、トレイ分離
部分を検出する(ステップS2)。次に、直線検出器1
8によりトレイ前方エッジ(直線1)の直線パラメータ
を得る(ステップS3)。すなわち、前記したように、
エッジのテンプレート画像と各検出領域の相関値を求め
ることによりトレイ前方エッジを検出し、トレイ前方エ
ッジに沿って、上記エッジのテンプレート画像と探索範
囲内の各検出領域との局所相関演算を行い、前記したよ
うに直線検出器18によりトレイ前方エッジ(直線1)
の直線パラメータを得る。
FIG. 16 is a flowchart showing the overall processing of the present embodiment. The present embodiment will be described with reference to FIG. First, the camera 11a is selected by the camera switcher 12, and an image captured by the camera 11a is input to the target image memory 14 by the image input device 13 (step S in FIG. 16).
1). Next, the tray separation portion is detected using the reference image (template image) of the separation portion as in the first embodiment described above (step S2). Next, the linear detector 1
8, a straight line parameter of the tray front edge (straight line 1) is obtained (step S3). That is, as described above,
The tray front edge is detected by calculating the correlation value between the edge template image and each detection area, and a local correlation operation is performed between the edge template image and each detection area within the search range along the tray front edge, As described above, the front edge of the tray (straight line 1) is detected by the straight line detector 18.
To obtain the linear parameters of

【0036】ついで、上記トレイ前方エッジ直線パラメ
ータを得た方法と同様な方法で、トレイ側方エッジ直線
パラメータ(直線2)を検出する(ステップS4)。次
に、カメラ切り換え器12によってカメラ11bを選択
し、上記と同様にして、トレイ前方エッジ直線パラメー
タ(直線3)、トレイ側方エッジ直線パラメータ(直線
4)を検出する(ステップS5,S6,S7)。そし
て、カメラの位置関係と上記のようにして得た直線1、
直線2、直線3、直線4よりトレイの3次元位置を計算
する(ステップS8)。
Next, a tray side edge straight line parameter (straight line 2) is detected by the same method as that for obtaining the tray front edge straight line parameter (step S4). Next, the camera 11b is selected by the camera switch 12, and the tray front edge straight line parameter (straight line 3) and the tray side edge straight line parameter (straight line 4) are detected in the same manner as described above (steps S5, S6, S7). ). Then, the positional relationship of the camera and the straight line 1 obtained as described above,
The three-dimensional position of the tray is calculated from the straight lines 2, 3, and 4 (step S8).

【0037】(3)第3の実施例 図17は本発明の第3の実施例の構成を示す図であり、
本実施例は、前記図4の実施例のトレイ計測装置にR補
正器20を付加したものであり、その他の構成は図4の
ものと同一である。R補正器20は前記第1の実施例に
おいて、計測対象となるトレイ分離部分をトレイの形状
とカメラの位置に応じて補正する手段であり、カメラに
より計測されたトレイ分離部分の左端のX座標A、右端
のX座標Bと、トレイのコーナ部分の丸み(R)より、
計測対象の空間上のX座標を補正する。
(3) Third Embodiment FIG. 17 is a diagram showing a configuration of a third embodiment of the present invention.
In the present embodiment, an R corrector 20 is added to the tray measuring device of the embodiment of FIG. 4, and the other configuration is the same as that of FIG. The R corrector 20 is means for correcting the tray separation portion to be measured in the first embodiment according to the shape of the tray and the position of the camera, and the X coordinate of the left end of the tray separation portion measured by the camera. A, from the X coordinate B at the right end and the roundness (R) of the corner of the tray,
The X coordinate in the space to be measured is corrected.

【0038】すなわち、図18(a)に示すように、カ
メラ11a(又はカメラ11b、以下の説明ではカメラ
11aについて説明する)がトレイ分離部分の正面に設
けられていない場合、カメラ11aにより撮影される画
像から求められる分離部分の左端位置P1と真の分離部
分の左端位置P2とはLだけずれる。そこで、本実施例
においては、上記のようにトレイ分離部分のコーナーに
丸みが設けられている場合に生ずる計測誤差をR補正器
20により補正する。
That is, as shown in FIG. 18A, when the camera 11a (or the camera 11b, the camera 11a will be described in the following description) is not provided in front of the tray separation portion, an image is taken by the camera 11a. The left end position P1 of the separated portion obtained from the image and the left end position P2 of the true separated portion are shifted by L. Therefore, in the present embodiment, the measurement error generated when the corner of the tray separation portion is rounded as described above is corrected by the R corrector 20.

【0039】図18(b)は上記R補正器20による補
正の原理を説明する図である。同図において、座標系は
カメラ11aの光軸をZ軸とする右手系とし、前述の処
理により画像上のトレイ分離部分左端のX座標としてP
1が得られているとし、また、トレイのコーナの丸みの
半径をrとする。ここで、上記P1のカメラ11aの画
像における位置を(xp1 C1,yp1 C1)(単位ピクセ
ル)、カメラ11aの画像における光軸Zの位置を(x
c C1,yc C1)(単位ピクセル)、カメラ11aの1ピ
クセルの占める角度をωとすると、光軸とP1の方向の
成す角度θ’は以下のようになる。 θ’=ω(xp1 C1−xc C1
FIG. 18B is a diagram for explaining the principle of correction by the R corrector 20. In the figure, the coordinate system is a right-handed system in which the optical axis of the camera 11a is the Z axis.
1 is obtained, and the radius of the roundness of the corner of the tray is r. Here, the position of P1 in the image of the camera 11a is (x p1 C1 , y p1 C1 ) (unit pixel), and the position of the optical axis Z in the image of the camera 11a is (x
c C1 , y c C1 ) (unit pixel), and the angle occupied by one pixel of the camera 11a is ω, and the angle θ ′ between the optical axis and the direction of P1 is as follows. θ ′ = ω (x p1 C1 −x c C1 )

【0040】また、カメラ11aおよびカメラ11bに
より撮影された画像から得られたトレイ前方エッジか
ら、トレイ前方エッジの方向ベクトルが得られる。この
方向ベクトルのx成分をxe 、z成分をze とすると、
カメラ11aとトレイ前方エッジの成す角φは以下のよ
うになる。 φ=tan -1(ze /xe ) したがって、トレイのコーナーを見る角度θは以下のよ
うになる。 θ=θ’+φ
The direction vector of the tray front edge is obtained from the tray front edge obtained from the images taken by the cameras 11a and 11b. Assuming that the x component of this direction vector is x e and the z component is z e ,
The angle φ between the camera 11a and the front edge of the tray is as follows. φ = tan -1 (z e / x e) Therefore, looking at the tray corner angle θ is as follows. θ = θ '+ φ

【0041】上記θ,φよりP1とP2の距離Lを図1
8(b)に示すようにL1とL2に分割して求めると、
同図から明らかなように次のようになる。 L1={r−r(sin θ/cos θ)}(sin θ/cos
θ) L2={(r/cos θ)−r}/cos θ L=L1+L2 したがって、P2は次のように求まる。 P2=(xp2,zp2)=(xp1+L/cos φ,zp1+L
/cos φ) ただし、P1=(xp1,zp1
From the above θ and φ, the distance L between P1 and P2 is shown in FIG.
As shown in FIG. 8 (b), when divided into L1 and L2,
As apparent from FIG. L1 = {rr (sin θ / cos θ)} (sin θ / cos
θ) L2 = {(r / cos θ) −r} / cos θ L = L1 + L2 Therefore, P2 is obtained as follows. P2 = (x p2 , z p2 ) = (x p1 + L / cos φ, z p1 + L
/ Cos φ) where P1 = (x p1 , z p1 )

【0042】図19は上記R補正処理を示す流れ図であ
る。まず、カメラ11aにおけるトレイ前方エッジP1
の端点とカメラの光軸から、光軸とP1の方向の成す角
度θ’を求める(図19のステップS1)。次に、カメ
ラ11aおよびカメラ11bにおけるトレイ前方エッジ
から、トレイ前方エッジが光軸となす角度φを得る(ス
テップS2)。ついで、角度θ’と角度φより角度θを
求め(ステップS3)、トレイのRの大きさrと角度θ
より距離Lを得る。最後に、P1の座標値と上記距離L
と角度φよりP2の座標値を求める。
FIG. 19 is a flowchart showing the R correction processing. First, the tray front edge P1 in the camera 11a
An angle θ ′ formed between the optical axis and the direction of P1 is determined from the end point of the camera and the optical axis of the camera (step S1 in FIG. 19). Next, an angle φ that the tray front edge forms with the optical axis is obtained from the tray front edges of the cameras 11a and 11b (step S2). Next, the angle θ is determined from the angle θ ′ and the angle φ (step S3), and the size r of the R of the tray and the angle θ
More distance L is obtained. Finally, the coordinate value of P1 and the distance L
And the angle φ, the coordinate value of P2 is obtained.

【0043】図20は本実施例の全体処理を示す流れ図
であり、同図により本実施例における計測処理について
説明する。図20において、前記第1の実施例と同様、
まず、カメラ切り換え器12によってカメラ11aを選
択し、カメラ11aにより撮影した画像を画像入力装置
13により対象画像メモリ14に入力する(図20のス
テップS1)。次に、分離部分の参照画像(テンプレー
ト画像)と対象画像の探索範囲の各検出領域との相関値
を求め、相関値の最も高い領域を検出することによりト
レイ分離部分を検出する(ステップS2)。ついで、前
記したように、トレイ前方エッジを検出し、トレイ前方
エッジの直線パラメータを得る(ステップS3,4)。
FIG. 20 is a flowchart showing the overall processing of the present embodiment, and the measurement processing in the present embodiment will be described with reference to FIG. In FIG. 20, similar to the first embodiment,
First, the camera 11a is selected by the camera switching unit 12, and an image captured by the camera 11a is input to the target image memory 14 by the image input device 13 (step S1 in FIG. 20). Next, the correlation value between the reference image (template image) of the separation portion and each detection region in the search range of the target image is obtained, and the tray separation portion is detected by detecting the region having the highest correlation value (step S2). . Next, as described above, the tray front edge is detected, and the straight line parameters of the tray front edge are obtained (steps S3 and S4).

【0044】次に、前記したようにトレイ分離部分(ト
レイ前方部分端点:点1)を検出する(ステップS
5)。次に、カメラ切り換え器12によってカメラ11
bを選択し、カメラ11bにより撮影した画像を画像入
力装置13によって対象画像メモリ14に入力する(ス
テップS6)。ついで、カメラ11bの画像におけるト
レイ前方エッジを検出し(ステップS7)、前方エッジ
の直線パラメータを得る(ステップS8)。そして、カ
メラ11bにおける、計測対象(点2)を求め(ステッ
プS9)、上記計測結果をR補正器20によりR補正し
(ステップS10)、補正した点1、点2より前記した
ようにトレイの3次元位置を計算する。
Next, as described above, the tray separation portion (the end point of the tray front portion: point 1) is detected (step S).
5). Next, the camera 11 is switched by the camera switch 12.
b, and the image captured by the camera 11b is input to the target image memory 14 by the image input device 13 (step S6). Next, the front edge of the tray in the image of the camera 11b is detected (step S7), and a straight line parameter of the front edge is obtained (step S8). Then, a measurement target (point 2) in the camera 11b is obtained (step S9), and the measurement result is R-corrected by the R corrector 20 (step S10). Calculate the three-dimensional position.

【0045】(4)第4の実施例 本実施例は図4(c)に示すように、トレイ前方エッジ
と前方エッジの端点を計測対象とすることによりトレイ
の3次元計測を行う実施例を示しており、本実施例のト
レイ計測装置の構成は第1の実施例の図7と同じであ
る。本実施例における前方エッジと前方エッジ端点の計
測は、前記第1の実施例と同様な処理で行うことができ
る。すなわち、前記したように、まず、カメラ11aの
画像と、エッジのテンプレート画像との相関演算を行う
ことによりトレイの前方エッジを検出し、前方エッジの
直線パラメータを得る。ついで、前記したように、線分
端点検出器19により上記前方エッジの端点を検出す
る。
(4) Fourth Embodiment As shown in FIG. 4C, this embodiment is an embodiment in which the tray front edge and the end point of the front edge are subjected to three-dimensional measurement of the tray. The configuration of the tray measuring device of the present embodiment is the same as that of FIG. 7 of the first embodiment. The measurement of the front edge and the end point of the front edge in the present embodiment can be performed by the same processing as in the first embodiment. That is, as described above, first, the front edge of the tray is detected by performing a correlation operation between the image of the camera 11a and the template image of the edge, and a straight line parameter of the front edge is obtained. Next, as described above, the line segment end point detector 19 detects the end point of the front edge.

【0046】同様にカメラ11bの画像について、上記
と同様な処理を行い、前方エッジを検出し、前方エッジ
の端点を検出する。そして、上記カメラ11aにより得
られた前方エッジとその端点の位置、および、カメラ1
1bにより得られた前方エッジとその端点の位置からト
レイの3次元位置を計測する。本実施例は、マニピュレ
ータの可動範囲内で、前記第1の実施例のような視野を
取れない場合に適用することができる。
Similarly, the same processing as described above is performed on the image of the camera 11b, the front edge is detected, and the end point of the front edge is detected. Then, the position of the front edge and its end point obtained by the camera 11a and the camera 1
The three-dimensional position of the tray is measured from the position of the front edge and the end point obtained in 1b. This embodiment can be applied to the case where the visual field cannot be obtained as in the first embodiment within the movable range of the manipulator.

【0047】(5)第5の実施例 本実施例は図5(d)に示すように、トレイ前方エッジ
と左右の側方エッジを計測対象とすることによりトレイ
の3次元計測を行う実施例を示しており、本実施例のト
レイ計測装置の構成は第2の実施例の図15と同じであ
る。本実施例における前方エッジと左右の側方エッジの
計測は、前記第2の実施例と同様な処理で行うことがで
き、カメラ11a,11bの画像から計測した前方エッ
ジおよび左右の側方エッジからトレイの3次元位置を計
測することができる。本実施例は、カメラの視野が広く
とれる場合に適用することができ、前記した第2の実施
例と比較して視野制御が容易である。
(5) Fifth Embodiment As shown in FIG. 5D, this embodiment is an embodiment in which the tray front edge and the left and right side edges are measured as three-dimensional measurement of the tray. The configuration of the tray measuring device of the present embodiment is the same as that of FIG. 15 of the second embodiment. The measurement of the front edge and the left and right side edges in the present embodiment can be performed by the same processing as in the second embodiment, and can be performed from the front edge and the left and right side edges measured from the images of the cameras 11a and 11b. The three-dimensional position of the tray can be measured. The present embodiment can be applied to a case where the field of view of the camera can be widened, and the field of view can be easily controlled as compared with the second embodiment.

【0048】(6)第6の実施例 本実施例は図5(e)に示すように、トレイ前方エッジ
と左右の前方エッジの端点を計測対象とすることにより
トレイの3次元計測を行う実施例を示しており、本実施
例のトレイ計測装置の構成は第1の実施例の図7と同じ
であり、前記した第1の実施例、第4の実施例と同様な
処理によりトレイの3次元位置を計測することができ
る。本実施例は、カメラの視野が広くとれる場合に適用
することができ、前記した実施例1と比較して視野制御
が容易である。なお、上記第1〜第6の実施例を適宜組
み合わせて食事トレイの3次元位置を計測することもで
きる。また、上記第4の実施例において、エッジの端点
を計測する際、上記第3の実施例に示したR補正を適用
してカメラ画像から得られたエッジの端点を補正するこ
とにより、正確に端点位置を求めることができる。
(6) Sixth Embodiment In this embodiment, as shown in FIG. 5 (e), three-dimensional measurement of a tray is performed by measuring the end points of the tray front edge and the left and right front edges. An example is shown, and the configuration of the tray measuring apparatus of the present embodiment is the same as that of FIG. 7 of the first embodiment, and the tray is measured by the same processing as the above-described first and fourth embodiments. The dimensional position can be measured. The present embodiment can be applied to a case where the field of view of the camera can be widened, and the field of view can be easily controlled as compared with the first embodiment. The three-dimensional position of the meal tray can be measured by appropriately combining the first to sixth embodiments. In the fourth embodiment, when measuring the end point of the edge, the end point of the edge obtained from the camera image is corrected by applying the R correction shown in the third embodiment, so that the edge point is accurately measured. The end point position can be obtained.

【0049】(7)第7の実施例 以上説明した実施例では、トレイ分離部分もしくはトレ
イのエッジの端点を計測対象とし、トレイの3次元位置
を計測する場合について説明したが、本実施例は、さら
にトレイの姿勢を計算し、マニピュレータの把持点を求
めることができる実施例を示している。図21は本発明
の第7の実施例の構成を示す図であり、前記図17に示
したものと同一のものには同一の符号が付されている。
(7) Seventh Embodiment In the above-described embodiment, the case where the three-dimensional position of the tray is measured by measuring the tray separation portion or the end point of the edge of the tray has been described. Further, an embodiment is shown in which the posture of the tray can be calculated and the gripping point of the manipulator can be obtained. FIG. 21 is a diagram showing the configuration of the seventh embodiment of the present invention, and the same components as those shown in FIG. 17 are denoted by the same reference numerals.

【0050】図21において、21はステレオ画像取得
器である。ステレオ画像取得器21は上記実施例で示し
たように2台のカメラ11a,11bとカメラ切り換え
器12で構成してもよいし、また、1台のカメラを使用
し、プリズム等を利用して見る方向が異なった2枚の画
像を順次取得することにより、視点の異なった2枚のス
テレオ画像を得ることもできる。以下の説明では、説明
を容易にするため、第1および第2の2台のカメラとカ
メラ切り換え器を使用してステレオ画像を取得する場合
を例にとり説明する。13、14、15はそれぞれ前記
した画像入力装置、対象画像メモリ、参照画像メモリ、
16は相関処理演算装置、17はCPUである。また、
18、19、20はそれぞれ前記した撮影した画像から
トレイの縁の直線部分を検出する直線検出器、トレイ分
離部分のトレイ前方部分端点を検出するための線分端点
検出器、計測対象となるトレイ分離部分をトレイの形状
とカメラの位置に応じて補正するR補正器である。本実
施例においては、上記構成に加え、対応点計算器22、
位置計算器23、姿勢計算器24、把持補正器25が設
けられている。
In FIG. 21, reference numeral 21 denotes a stereo image acquisition unit. The stereo image acquisition device 21 may be composed of two cameras 11a and 11b and a camera switching device 12 as shown in the above embodiment, or may use one camera and utilize a prism or the like. By sequentially acquiring two images having different viewing directions, two stereo images having different viewpoints can be obtained. In the following description, a case where a stereo image is acquired using two cameras, a first camera and a second camera, will be described as an example for ease of explanation. Reference numerals 13, 14, and 15 denote the above-described image input device, target image memory, reference image memory,
16 is a correlation processing operation device, and 17 is a CPU. Also,
Reference numerals 18, 19, and 20 denote a linear detector for detecting a linear portion of the edge of the tray from the photographed image, a line segment end point detector for detecting an end of a tray separation portion in front of the tray, and a tray to be measured. This is an R corrector for correcting the separated portion according to the shape of the tray and the position of the camera. In this embodiment, in addition to the above configuration, the corresponding point calculator 22,
A position calculator 23, a posture calculator 24, and a grip corrector 25 are provided.

【0051】対応点計算器22は、1台目のカメラ画像
から得られるトレイ分離部分に対応した点P1と、他の
カメラ画像から得られるトレイの縁L2から、他のカメ
ラ画像におけるトレイ分離部分に対応した点P2を計算
する。図22は上記対応点計算器22における対応点P
2の計算手法を説明する図であり、CCD1は1台目の
カメラの画像投影面、CCD2は2台目のカメラの画像
投影面である。また、F1、F2はそれぞれトレイの存
在する範囲の上限、下限を表す面、O1,O2はカメラ
の原点位置、P1は1台目のカメラの画像投影面CCD
1上に投影されているトレイ分離部分に対応した点、L
2は2台目のカメラの画像投影面CCD2上に投影され
ているトレイの縁である。
The corresponding point calculator 22 calculates a tray separation portion in another camera image from a point P1 corresponding to the tray separation portion obtained from the first camera image and a tray edge L2 obtained from another camera image. Is calculated. FIG. 22 shows the corresponding point P in the corresponding point calculator 22.
FIG. 4 is a diagram for explaining the second calculation method, wherein CCD1 is an image projection surface of a first camera, and CCD2 is an image projection surface of a second camera. F1 and F2 represent upper and lower limits of the range where the tray exists, O1 and O2 represent the origin positions of the cameras, and P1 represents the image projection surface CCD of the first camera.
1, a point corresponding to the tray separation portion projected on L
Reference numeral 2 denotes an edge of the tray projected on the image projection surface CCD2 of the second camera.

【0052】同図において、上記点P2は次のようにし
て求めることができる。 まず、原点O1と点P1を結ぶ直線を延長して、上
記面F1とF2との交点m1,m2を求める。 次に、上記交点m1とm2と2台目のカメラの原点
O2を直線で結び、該直線と2台目のカメラの画像投影
面CCD2面との交点をCC1,CC2を求める。 上記交点をCC1,CC2を結ぶ直線と、画像投影
面CCD2上に投影されているトレイの縁L2の交点を
求めることにより点P2を得る。
In the figure, the point P2 can be obtained as follows. First, a straight line connecting the origin O1 and the point P1 is extended to determine intersections m1 and m2 between the planes F1 and F2. Next, the intersections m1 and m2 and the origin O2 of the second camera are connected by a straight line, and the intersections between the straight line and the image projection surface CCD2 of the second camera are determined as CC1 and CC2. The point P2 is obtained by finding the intersection of a straight line connecting the intersections CC1 and CC2 with the edge L2 of the tray projected on the image projection plane CCD2.

【0053】位置計算器23は、上記点P1,P2より
トレイ分離部分端点の空間上の位置P3を計算する。図
23は上記位置P3を求める手法を説明する図であり、
CCD1は1台目のカメラの画像投影面、CCD2は2
台目のカメラの画像投影面、P1,P2はそれぞれ画像
投影面CCD1,CCD2上のトレイ分離部分に対応し
た点、O1,O2はカメラの原点位置である。トレイ分
離部分端点の空間上の位置P3を求めるには、同図に示
すように、カメラの原点位置O1,O2と点P1,P2
を直線で結ぶ。そして、その交点を求めその位置をトレ
イ分離部分端点の空間上の位置P3とする。なお、2本
の直線が交差しない場合には、例えば2本の直線が最も
接近する点の中点をP3とする。
The position calculator 23 calculates the position P3 in the space of the end point of the tray separation portion from the points P1 and P2. FIG. 23 is a diagram for explaining a method of obtaining the position P3.
CCD1 is the image projection surface of the first camera, CCD2 is 2
The image projection plane of the second camera, P1 and P2 are points corresponding to the tray separation portion on the image projection planes CCD1 and CCD2, respectively, and O1 and O2 are the origin positions of the camera. In order to obtain the position P3 in the space of the end point of the tray separation portion, as shown in FIG. 6, the origin positions O1, O2 of the camera and the points P1, P2
With a straight line. Then, the intersection is obtained and the position is set as the position P3 in the space of the end point of the tray separation portion. If the two straight lines do not intersect, for example, the midpoint of the point where the two straight lines come closest is P3.

【0054】姿勢計算器24は、ある視点から見たカメ
ラ画像から得られるトレイの縁L1と、他の視点から見
たカメラ画像から得られるトレイの縁L2よりトレイ前
方輪郭線の姿勢L3を計算する。図24(a)(b)は
上記トレイ前方輪郭線の姿勢を計算する手法を説明する
図であり、CCD1は1台目のカメラの画像投影面、C
CD2は2台目のカメラの画像投影面、L1,L2はそ
れぞれ画像投影面CCD1,CCD2上のトレイの縁、
L3は空間上のトレイの縁の方向ベクトルである。
The posture calculator 24 calculates the posture L3 of the front contour line of the tray from the tray edge L1 obtained from the camera image viewed from a certain viewpoint and the tray edge L2 obtained from the camera image viewed from another viewpoint. I do. FIGS. 24 (a) and 24 (b) are diagrams for explaining a method of calculating the posture of the above-mentioned front contour line of the tray.
CD2 is the image projection surface of the second camera, L1 and L2 are the image projection surfaces CCD1 and the edge of the tray on CCD2, respectively.
L3 is a direction vector of the edge of the tray in space.

【0055】同図において、トレイ前方輪郭線の姿勢L
3の方向ベクトル〔l,m,n〕は次のようにして求め
ることができる。 同図(b)に示すように、縁L1のベクトルと画像
投影面CCD1の法線ベクトルC1の外積V1を求め
る。 同様に、縁L2のベクトルと画像投影面CCD2の
法線ベクトルC2の外積V2を求める。 上記のようにして得た外積V1と外積V2の外積V
3を計算する。外積V3は上記L3の方向ベクトルに一
致する。 把持補正器25は、R補正器20により上記位置P3を
補正した位置P3’と、マニュピレータが把持する点と
の距離に基づき、トレイを把持する点P4を求める。
In the figure, the posture L of the contour line at the front of the tray is shown.
The direction vector [l, m, n] of No. 3 can be obtained as follows. As shown in FIG. 2B, an outer product V1 of the vector of the edge L1 and the normal vector C1 of the image projection plane CCD1 is obtained. Similarly, an outer product V2 of the vector of the edge L2 and the normal vector C2 of the image projection plane CCD2 is obtained. Outer product V of outer product V1 and outer product V2 obtained as described above
Calculate 3. The outer product V3 matches the direction vector of L3. The gripping corrector 25 obtains a point P4 for gripping the tray based on the distance between the position P3 'obtained by correcting the position P3 by the R corrector 20 and the point gripped by the manipulator.

【0056】図25はマニュピュレータの把持点と計測
点の関係を示す図である。例えば、マニュピュレータの
可動範囲が狭く、マニュピュレータが計測点までとどか
ない場合、同図に示すようにマニュピュレータは計測点
とは異なる点を把持することになるが、この場合には上
記把持補正器25により把持位置を計算する必要があ
る。図25において、計測点P3〔x3,y3,z3〕
と把持点P4の距離をLとし、トレイの姿勢のベクトル
をL3〔l1,l2,l3〕とすると、把持点P4は計
測点P3をL3に添ってLだけ計測点P3を移動した点
となるから、把持位置P4は次の式で計算することがで
きる。 P4=〔x3+L・l1,y3+L・l2,z3+L・
l3〕
FIG. 25 is a diagram showing the relationship between the gripping points of the manipulator and the measurement points. For example, when the movable range of the manipulator is narrow and the manipulator does not reach the measurement point, the manipulator grips a point different from the measurement point as shown in FIG. It is necessary to calculate the gripping position by the container 25. In FIG. 25, the measurement point P3 [x3, y3, z3]
If the distance between the object and the grip point P4 is L and the vector of the posture of the tray is L3 [11, 12, 23], the grip point P4 is a point obtained by moving the measurement point P3 along the measurement point P3 by L along the L3. Therefore, the gripping position P4 can be calculated by the following equation. P4 = [x3 + L · 11, y3 + L · 12, z3 + L ·
l3]

【0057】図26は、本実施例における処理の流れを
示す図であり、同図により本実施例について説明する。
予め第1のカメラと第2のカメラの相対位置と姿勢を校
正しておき、第1のカメラで撮影した映像を切り換え器
により選択し、画像入力装置13を介して対象画像メモ
リ14に格納する(ステップS1,S2)。図27
(a)は第1のカメラにより撮影された画像の一例を示
す図であり、同図において、P1はトレイ分離部分に対
応した端点、L1はトレイの縁である。上記画像から、
直線検出器18によりトレイの縁を検出し、L1を得る
(ステップS3)。また、線分端点検出器19により、
上記L1とトレイ分離部分から決まるトレイ分離部分に
対応した端点P1を得る(ステップS4)。
FIG. 26 is a diagram showing the flow of processing in this embodiment, and this embodiment will be described with reference to FIG.
The relative position and orientation of the first camera and the second camera are calibrated in advance, and the video taken by the first camera is selected by the switch, and stored in the target image memory 14 via the image input device 13. (Steps S1 and S2). FIG.
(A) is a figure which shows an example of the image image | photographed by the 1st camera. In the figure, P1 is an endpoint corresponding to a tray separation part, and L1 is an edge of a tray. From the above image,
The edge of the tray is detected by the linear detector 18 to obtain L1 (step S3). Further, the line segment end point detector 19
An end point P1 corresponding to the tray separation portion determined by L1 and the tray separation portion is obtained (step S4).

【0058】同様に、第2のカメラで撮影した映像を切
り換え器により選択し、画像入力装置13を介して対象
画像メモリ14に格納する(ステップS5,S6)。図
27(b)は第2のカメラにより撮影された画像の一例
を示す図であり、同図において、P2はトレイ分離部分
に対応した端点、L2はトレイの縁である。上記画像か
ら、同様に、直線検出器18によりトレイの縁を検出
し、L2を得る(ステップS7)。ついで、対応点検出
器22により前記図22で説明した手法で上記P1とL
2よりトレイ分離部分に対応した端点P2を得る。(ス
テップS8)。
Similarly, the video captured by the second camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S5 and S6). FIG. 27B is a diagram illustrating an example of an image captured by the second camera. In FIG. 27B, P2 denotes an end point corresponding to the tray separation portion, and L2 denotes an edge of the tray. Similarly, the edge of the tray is detected by the straight line detector 18 from the image, and L2 is obtained (step S7). Then, the P1 and L are calculated by the corresponding point detector 22 in the manner described with reference to FIG.
2, an end point P2 corresponding to the tray separation portion is obtained. (Step S8).

【0059】ついで、位置計算器23により、前記図2
3に説明した手法で、点P1,P2よりトレイ分離部分
端点の空間上の位置P3を計算する(ステップS9)。
そして、姿勢計算器24により、前記図24で説明した
手法により、L1,L2よりトレイの前方輪郭線の姿勢
L3を計算する(ステップS10)。本実施例の使用さ
れているトレイは図27に示すように分離部分の角に3
0mmのRがついているので、前記したようにR補正器
20によりR補正を行い、上記トレイ分離部分端点の空
間上の位置P3のR補正値P3’を求める(ステップS
11)。さらに、マニュピュレータが把持する点と、上
記P3’の距離が例えば140mmとすると、前記した
ように把持補正器25により上記P3’をL3方向に1
40mm移動することにより、マニュピュレータが食事
トレイを把持する点P4を求める(ステップS12)。
Next, the position calculator 23 executes the processing shown in FIG.
The position P3 in the space of the end point of the tray separation portion is calculated from the points P1 and P2 by the method described in Step 3 (Step S9).
Then, the posture calculator 24 calculates the posture L3 of the front contour line of the tray from L1 and L2 by the method described with reference to FIG. 24 (step S10). As shown in FIG. 27, the tray used in this embodiment is
Since R of 0 mm is attached, R correction is performed by the R corrector 20 as described above, and an R correction value P3 'of the position P3 in the space of the end point of the tray separation part is obtained (step S).
11). Further, assuming that the distance between the point gripped by the manipulator and the point P3 ′ is, for example, 140 mm, the gripping corrector 25 moves the point P3 ′ in the L3 direction by one as described above.
By moving by 40 mm, a point P4 at which the manipulator grips the meal tray is obtained (step S12).

【0060】以上の実施例では、照明の明るさや方向等
の計測条件を考慮しない場合について説明したが、前記
したように、ベッドサイドの照明条件は昼と夜とで異な
り、また窓際と廊下側でも異なる。また、オーバーベッ
ドテーブルの色もまちまちである。このような条件の変
化はトレイの縁の見え方に影響し、トレイの像が条件に
よって検出できたりできなかったりするという問題があ
る。例えば、図27では、トレイの縁が全部検出できる
が、後述する図29や図32ではトレイの縁を分離部分
の間でしか検出することができない。また、取得した画
像はレンズの歪みを含んでいるため、部分的に検出され
た直線からでは正確に計測ができないことがある。上記
問題に対応するため、以下の実施例では、トレイの縁の
影やトレイの底を検出したり、トレイの色と同色の領域
を検出することより、照明の明るさや方向等の計測条件
が変化しても安定してトレイを計測できるようにしてい
る。
In the above embodiment, the case where the measurement conditions such as the brightness and the direction of the illumination are not taken into account has been described. However, as described above, the illumination conditions at the bedside are different between day and night, and the window side and the corridor side are different. But different. Also, the color of the overbed table varies. Such a change in the condition affects the appearance of the edge of the tray, and there is a problem that an image on the tray may or may not be detected depending on the condition. For example, in FIG. 27, the entire edge of the tray can be detected, but in FIGS. 29 and 32 described below, the edge of the tray can be detected only between the separated portions. Further, since the acquired image includes distortion of the lens, accurate measurement may not be possible from a partially detected straight line. In order to cope with the above problem, in the following embodiments, the measurement conditions such as the brightness and direction of the illumination are detected by detecting the shadow of the edge of the tray, the bottom of the tray, and the area of the same color as the color of the tray. Even if it changes, the tray can be measured stably.

【0061】(8)第8の実施例 本実施例は、トレイの影を検出することによりトレイの
姿勢を計算し、トレイの計測を行う実施例を示してお
り、本実施例のシステムの構成は図21に示した前記第
7の実施例と同じであり、本実施例においては、直線検
出器18によりトレイの縁の直線部分を検出するととも
にトレイの縁の影の直線部分を検出し、トレイの縁の影
に基づき姿勢計算器24によりトレイの姿勢を計算す
る。
(8) Eighth Embodiment This embodiment shows an embodiment in which the tray posture is calculated by detecting the shadow of the tray and the tray is measured. The system configuration of this embodiment is shown. Is the same as that of the seventh embodiment shown in FIG. 21. In this embodiment, the straight line detector 18 detects the straight line portion of the edge of the tray and detects the straight line portion of the shadow of the edge of the tray. The attitude of the tray is calculated by the attitude calculator 24 based on the shadow of the edge of the tray.

【0062】図28は本実施例における処理の流れを示
す図であり、同図により本実施例について説明する。第
1のカメラで撮影した映像を切り換え器により選択し、
画像入力装置13を介して対象画像メモリ14に格納す
る(ステップS1,S2)。図29(a)は第1のカメ
ラにより撮影された画像の一例を示す図であり、同図に
おいて、P1はトレイ分離部分に対応した端点、L1は
トレイの縁、M1はトレイの前方の縁の影である。上記
画像から、直線検出器18によりトレイの縁を検出し、
L1を得る(ステップS3)。また、線分端点検出器1
9により、上記L1とトレイ分離部分から決まるトレイ
分離部分に対応した端点P1を得る(ステップS4)。
ついで、直線検出器18によりトレイの縁の影を検出
し、M1を得る(ステップS5)。
FIG. 28 is a diagram showing the flow of processing in this embodiment, and this embodiment will be described with reference to FIG. The video taken by the first camera is selected by the switch,
It is stored in the target image memory 14 via the image input device 13 (steps S1 and S2). FIG. 29A is a diagram showing an example of an image taken by the first camera, in which P1 is an end point corresponding to the tray separation portion, L1 is the edge of the tray, and M1 is the front edge of the tray. Is the shadow of From the above image, the edge of the tray is detected by the straight line detector 18,
L1 is obtained (step S3). In addition, the line segment end point detector 1
According to 9, an end point P1 corresponding to the tray separation portion determined by the above L1 and the tray separation portion is obtained (step S4).
Next, the shadow of the edge of the tray is detected by the straight line detector 18 to obtain M1 (step S5).

【0063】同様に、第2のカメラで撮影した映像を切
り換え器により選択し、画像入力装置13を介して対象
画像メモリ14に格納する(ステップS6,S7)。図
29(b)は第2のカメラにより撮影された画像の一例
を示す図であり、同図において、P2はトレイ分離部分
に対応した端点、L2はトレイの縁、M2はトレイの縁
の影である。上記画像から、同様に、直線検出器18に
よりトレイの縁を検出し、L2を得る(ステップS
8)。ついで、対応点検出器22により前記図22で説
明した手法で上記P1とL2よりトレイ分離部分に対応
した端点P2を得る。(ステップS8)。さらに、トレ
イの縁の影を検出し、M2を得る(ステップS10)。
Similarly, the video captured by the second camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S6 and S7). FIG. 29B is a diagram illustrating an example of an image captured by the second camera. In FIG. 29B, P2 denotes an end point corresponding to the tray separation portion, L2 denotes the edge of the tray, and M2 denotes the shadow of the edge of the tray. It is. Similarly, the edge of the tray is detected by the straight line detector 18 from the above image to obtain L2 (step S2).
8). Then, the corresponding point detector 22 obtains an end point P2 corresponding to the tray separation portion from the above P1 and L2 by the method described in FIG. (Step S8). Further, the shadow of the edge of the tray is detected, and M2 is obtained (step S10).

【0064】ついで、位置計算器23により、前記図2
3に説明した手法で、点P1,P2よりトレイ分離部分
端点の空間上の位置P3を計算する(ステップS1
1)。そして、姿勢計算器24により、前記図24で説
明した手法により、影M1,M2よりトレイの姿勢L3
を計算する(ステップS12)。さらに、前記したよう
にR補正器20によりR補正を行い、上記トレイ分離部
分端点の空間上の位置P3のR補正値P3’を求め(ス
テップS13)、前記したように把持補正器25により
マニュピュレータが食事トレイを把持する点P4を求め
る(ステップS14)。
Then, the position calculator 23 calculates
3, the position P3 in the space of the end point of the tray separation portion is calculated from the points P1 and P2 (Step S1).
1). Then, the posture calculator 24 calculates the posture L3 of the tray from the shadows M1 and M2 by the method described with reference to FIG.
Is calculated (step S12). Further, the R correction is performed by the R corrector 20 as described above, and the R correction value P3 ′ of the position P3 in the space of the end point of the tray separation part is obtained (step S13), and the manual correction is performed by the grip corrector 25 as described above. A point P4 at which the purator grips the meal tray is determined (step S14).

【0065】(9)第9の実施例 本実施例は、トレイの底を検出することによりトレイの
姿勢を計算し、トレイの計測を行う実施例を示してお
り、図30に本実施例の構成を示す。本実施例の構成は
前記図21に示したものに、トレイの底検出器26を設
けたものであり、その他の構成は図21に示したものと
同じであり、上記トレイの底検出器26によりトレイの
底を検出し、検出したトレイの底に基づき姿勢計算器2
4によりトレイの姿勢を計算する。
(9) Ninth Embodiment This embodiment shows an embodiment in which the position of the tray is calculated by detecting the bottom of the tray, and the tray is measured. FIG. 30 shows the ninth embodiment. The configuration is shown. The structure of this embodiment is the same as that shown in FIG. 21 except that a tray bottom detector 26 is provided. The other structure is the same as that shown in FIG. To detect the bottom of the tray, and based on the detected bottom of the tray, the posture calculator 2
Then, the posture of the tray is calculated according to 4.

【0066】図31は本実施例における処理の流れを示
す図であり、同図により本実施例について説明する。第
1のカメラで撮影した映像を切り換え器により選択し、
画像入力装置13を介して対象画像メモリ14に格納す
る(ステップS1,S2)。図32(a)は第1のカメ
ラにより撮影された画像の一例を示す図であり、同図に
おいて、P1はトレイ分離部分に対応した端点、L1は
トレイの縁、M1はトレイの底である。上記画像から、
直線検出器18によりトレイの縁を検出し、L1を得る
(ステップS3)。また、線分端点検出器19により、
上記L1とトレイ分離部分から決まるトレイ分離部分に
対応した端点P1を得る(ステップS4)。ついで、ト
レイの底検出器26によりトレイの底を検出しM1を得
る(ステップS5)。
FIG. 31 is a diagram showing the flow of processing in this embodiment, and this embodiment will be described with reference to FIG. The video taken by the first camera is selected by the switch,
It is stored in the target image memory 14 via the image input device 13 (steps S1 and S2). FIG. 32A is a diagram illustrating an example of an image captured by the first camera, in which P1 is an end point corresponding to a tray separation portion, L1 is an edge of the tray, and M1 is a bottom of the tray. . From the above image,
The edge of the tray is detected by the linear detector 18 to obtain L1 (step S3). Further, the line segment end point detector 19
An end point P1 corresponding to the tray separation portion determined by L1 and the tray separation portion is obtained (step S4). Next, the tray bottom is detected by the tray bottom detector 26 to obtain M1 (step S5).

【0067】同様に、第2のカメラで撮影した映像を切
り換え器により選択し、画像入力装置13を介して対象
画像メモリ14に格納する(ステップS6,S7)。図
32(b)は第2のカメラにより撮影された画像の一例
を示す図であり、同図において、P2はトレイ分離部分
に対応した端点、L2はトレイの縁、M2はトレイの底
である。上記画像から、同様に、直線検出器18により
トレイの縁を検出し、L2を得る(ステップS8)。つ
いで、対応点検出器22により前記図22で説明した手
法で上記P1とL2よりトレイ分離部分に対応した端点
P2を得る。(ステップS8)。さらに、トレイの底検
出器26によりトレイの底を検出し、M2を得る(ステ
ップS10)。
Similarly, the image picked up by the second camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S6 and S7). FIG. 32B is a diagram illustrating an example of an image captured by the second camera, in which P2 is an end point corresponding to the tray separation portion, L2 is the edge of the tray, and M2 is the bottom of the tray. . Similarly, the edge of the tray is detected by the straight line detector 18 from the image, and L2 is obtained (step S8). Then, the corresponding point detector 22 obtains an end point P2 corresponding to the tray separation portion from the above P1 and L2 by the method described in FIG. (Step S8). Further, the tray bottom is detected by the tray bottom detector 26 to obtain M2 (step S10).

【0068】ついで、位置計算器23により、前記図2
3に説明した手法で、点P1,P2よりトレイ分離部分
端点の空間上の位置P3を計算する(ステップS1
1)。そして、姿勢計算器24により、前記図24で説
明した手法により、トレイの底M1,M2よりトレイの
姿勢L3を計算する(ステップS12)。さらに、前記
したようにR補正器20によりR補正を行い、上記トレ
イ分離部分端点の空間上の位置P3のR補正値P3’を
求め(ステップS13)、前記したように把持補正器2
5によりマニュピュレータが食事トレイを把持する点P
4を求める(ステップS14)。
Then, the position calculator 23 calculates
3, the position P3 in the space of the end point of the tray separation portion is calculated from the points P1 and P2 (Step S1).
1). Then, the attitude calculator 24 calculates the attitude L3 of the tray from the bottoms M1 and M2 of the tray by the method described with reference to FIG. 24 (step S12). Further, the R correction is performed by the R corrector 20 as described above, and the R correction value P3 ′ of the position P3 in the space of the end point of the tray separation portion is obtained (step S13).
The point P at which the manipulator grips the meal tray by 5
4 is obtained (step S14).

【0069】(10)第10の実施例 本実施例は、トレイ色と同色の領域を検出することによ
りトレイの縁を検出する実施例を示しており、図33に
本実施例の構成を示す。本実施例の構成は前記図21に
示したものに、色検出器27を設けたものであり、その
他の構成は図21に示したものと同じであり、上記色検
出器27によりトレイと同色の領域を検出しトレイの縁
L1,L2を検出する。
(10) Tenth Embodiment This embodiment shows an embodiment in which the edge of the tray is detected by detecting an area having the same color as the tray color. FIG. 33 shows the configuration of this embodiment. . The configuration of this embodiment is the same as that shown in FIG. 21 except that a color detector 27 is provided. The other configuration is the same as that shown in FIG. And the edges L1 and L2 of the tray are detected.

【0070】色検出器27は次のようにしてトレイと同
色の領域を検出する。 全画素値(R,G,B)=(0,0,0)のデータ
を格納した参照領域Rを用意しておく。 赤を色指定して、上記参照領域Rと、カメラにより
撮影した画像データの対象領域Sの相関演算を行い、デ
ィストーション値DR を得る。そして、IR =〔ディス
トーション値DR 〕/〔領域に含まれるピクセル数(例
えば256)〕を計算し、IR (赤の平均輝度)を求め
る。 緑を色指定して、上記参照領域Rと、カメラにより
撮影した画像データの対象領域Sの相関演算を行い、デ
ィストーション値DG を得る。そして、IG =〔ディス
トーション値DG 〕/〔領域に含まれるピクセル数(例
えば256)〕を計算し、IG (緑の平均輝度)を求め
る。 青を色指定して、上記参照領域Rと、カメラにより
撮影した画像データの対象領域Sの相関演算を行い、デ
ィストーション値DB を得る。そして、IB =〔ディス
トーション値DB 〕/〔領域に含まれるピクセル数(例
えば256)〕を計算し、IB (青の平均輝度)を求め
る。 上記の方法で予めトレイの色のRGBの範囲を図3
4に示すように求めておき、上記〜で求めたIR ,
IG ,IB が図34に示す領域に入るか判定する。そし
て、図34に示した範囲内に上記〜で求めたIR ,
IG ,IB が入れば、その領域はトレイの色と同色の領
域と判定する。
The color detector 27 detects an area of the same color as the tray as follows. A reference area R storing data of all pixel values (R, G, B) = (0, 0, 0) is prepared. By specifying the color of red, a correlation operation is performed between the reference area R and the target area S of the image data captured by the camera to obtain a distortion value DR. Then, IR = [distortion value DR] / [the number of pixels included in the area (for example, 256)] is calculated to obtain IR (average luminance of red). By specifying the color green, a correlation operation is performed between the reference region R and the target region S of the image data captured by the camera to obtain a distortion value DG. Then, IG = [distortion value DG] / [the number of pixels contained in the area (for example, 256)] is calculated, and IG (green average luminance) is obtained. A blue color is designated, and a correlation operation is performed between the reference region R and the target region S of the image data captured by the camera to obtain a distortion value DB. Then, IB = [distortion value DB] / [number of pixels included in the area (for example, 256)] is calculated, and IB (average luminance of blue) is obtained. The range of RGB of the color of the tray is set in advance by the above method in FIG.
4, and the IR,
It is determined whether IG and IB fall in the area shown in FIG. Then, within the range shown in FIG.
If IG and IB are entered, the area is determined to be the same color as the tray color.

【0071】図35は本実施例における処理の流れを示
す図であり、同図により本実施例について説明する。第
1のカメラで撮影した映像を切り換え器により選択し、
画像入力装置13を介して対象画像メモリ14に格納す
る(ステップS1,S2)。上記画像から、色検出器2
7によりトレイ色を検出し、トレイ色と同色の領域を検
出する(ステップS3)。そして、トレイ色と同色の領
域から直線検出器18によりトレイの縁L1を検出する
(ステップS4)。また、線分端点検出器19により、
上記L1とトレイ分離部分から決まるトレイ分離部分に
対応した端点P1を得る(ステップS5)。
FIG. 35 is a diagram showing the flow of processing in this embodiment, and this embodiment will be described with reference to FIG. The video taken by the first camera is selected by the switch,
It is stored in the target image memory 14 via the image input device 13 (steps S1 and S2). From the above image, color detector 2
7, the tray color is detected, and an area having the same color as the tray color is detected (step S3). Then, the edge L1 of the tray is detected by the straight line detector 18 from the area of the same color as the tray color (step S4). Further, the line segment end point detector 19
An end point P1 corresponding to the tray separation portion determined by L1 and the tray separation portion is obtained (step S5).

【0072】同様に、第2のカメラで撮影した映像を切
り換え器により選択し、画像入力装置13を介して対象
画像メモリ14に格納する(ステップS6,S7)。上
記画像から、同様に、色検出器27によりトレイ色を検
出し、トレイ色と同色の領域を検出する(ステップS
8)。そして、トレイ色と同色の領域から直線検出器1
8によりトレイの縁L2を検出する(ステップS9)。
ついで、対応点検出器22により前記図22で説明した
手法で上記P1とL2よりトレイ分離部分に対応した端
点P2を得る。(ステップS10)。
Similarly, the video captured by the second camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S6 and S7). Similarly, the tray color is detected from the image by the color detector 27, and an area having the same color as the tray color is detected (step S).
8). Then, the linear detector 1 is extracted from the area of the same color as the tray color.
8, the edge L2 of the tray is detected (step S9).
Then, the corresponding point detector 22 obtains an end point P2 corresponding to the tray separation portion from the above P1 and L2 by the method described in FIG. (Step S10).

【0073】ついで、位置計算器23により、前記図2
3に説明した手法で、点P1,P2よりトレイ分離部分
端点の空間上の位置P3を計算する(ステップS1
1)。そして、姿勢計算器24により、前記図24で説
明した手法により、トレイの底M1,M2よりトレイの
姿勢L3を計算する(ステップS12)。さらに、前記
したようにR補正器20によりR補正を行い、上記トレ
イ分離部分端点の空間上の位置P3のR補正値P3’を
求め(ステップS13)、前記したように把持補正器2
5によりマニュピュレータが食事トレイを把持する点P
4を求める(ステップS16)。
Next, the position calculator 23 executes the processing shown in FIG.
3, the position P3 in the space of the end point of the tray separation portion is calculated from the points P1 and P2 (Step S1).
1). Then, the attitude calculator 24 calculates the attitude L3 of the tray from the bottoms M1 and M2 of the tray by the method described with reference to FIG. 24 (step S12). Further, the R correction is performed by the R corrector 20 as described above, and the R correction value P3 ′ of the position P3 in the space of the end point of the tray separation portion is obtained (step S13).
The point P at which the manipulator grips the meal tray by 5
4 is obtained (step S16).

【0074】(11)第11の実施例 本実施例は、トレイの底を検出するとともに、トレイの
縁を検出し、トレイの底とトレイの縁からトレイの姿勢
を計算し、それぞれから求めたトレイの姿勢を比較する
ことにより、トレイが正しく計測されたことを確認でき
るようにした実施例を示しており、図36に本実施例の
構成を示す。本実施例の構成は前記図30に示したもの
に、姿勢比較器28を設けたものであり、その他の構成
は図30に示したものと同じである。姿勢比較器28
は、トレイの縁から求めたトレイの姿勢L3(トレイの
縁の方向ベクトル:単位ベクトル)と、トレイの底から
求めたトレイの姿勢M3(トレイの底の方向ベクトル:
単位ベクトル)の内積の絶対値を求め、この値が所定の
閾値内であるかを調べ、上記絶対値が所定の閾値内のと
き、トレイの縁から求めたトレイの姿勢L3とトレイの
底から求めたトレイの姿勢M3が一致していると判定す
る。
(11) Eleventh Embodiment In this embodiment, the tray bottom is detected, the tray edge is detected, and the tray attitude is calculated from the tray bottom and the tray edge. FIG. 36 shows an embodiment in which it is possible to confirm that the tray is correctly measured by comparing the postures of the trays. FIG. 36 shows the configuration of this embodiment. The configuration of the present embodiment is the same as that shown in FIG. 30 except that an attitude comparator 28 is provided, and the other configuration is the same as that shown in FIG. Attitude comparator 28
Are the tray orientation L3 (direction vector of the tray edge: unit vector) determined from the tray edge and the tray attitude M3 (direction vector of the tray bottom:
The absolute value of the inner product of the unit vector) is determined, and it is checked whether this value is within a predetermined threshold. When the absolute value is within the predetermined threshold, the posture L3 of the tray obtained from the edge of the tray and the bottom of the tray are used. It is determined that the obtained tray attitude M3 matches.

【0075】図37は本実施例における処理の流れを示
す図であり、同図により本実施例について説明する。第
1のカメラで撮影した映像を切り換え器により選択し、
画像入力装置13を介して対象画像メモリ14に格納す
る(ステップS1,S2)。上記画像から、直線検出器
18によりトレイの縁L1を検出する(ステップS
3)。また、線分端点検出器19により、上記L1とト
レイ分離部分から決まるトレイ分離部分に対応した端点
P1を得る(ステップS4)。さらに、トレイの底をト
レイ底検出器26により検出し、M1を得る(ステップ
S5)。
FIG. 37 is a diagram showing the flow of processing in the present embodiment. The present embodiment will be described with reference to FIG. The video taken by the first camera is selected by the switch,
It is stored in the target image memory 14 via the image input device 13 (steps S1 and S2). From the image, the edge L1 of the tray is detected by the straight line detector 18 (Step S).
3). Further, the line segment end point detector 19 obtains an end point P1 corresponding to the tray separation part determined by the above L1 and the tray separation part (step S4). Further, the bottom of the tray is detected by the tray bottom detector 26 to obtain M1 (step S5).

【0076】同様に、第2のカメラで撮影した映像を切
り換え器により選択し、画像入力装置13を介して対象
画像メモリ14に格納する(ステップS6,S7)。上
記画像から、同様に、直線検出器18によりトレイの縁
L2を検出する(ステップS8)。ついで、対応点検出
器22により前記図22で説明した手法で上記P1とL
2よりトレイ分離部分に対応した端点P2を得る。(ス
テップS9)。さらに、トレイの底をトレイ底検出器2
6により検出し、M2を得る(ステップS10)。つい
で、位置計算器23により、前記図23に説明した手法
で、点P1,P2よりトレイ分離部分端点の空間上の位
置P3を計算する(ステップS11)。また、姿勢計算
器24により、前記図24で説明した手法により、トレ
イの縁L1,L2よりトレイの姿勢L3を計算し(ステ
ップS12)、姿勢計算器24により、トレイの底M
1,M2よりトレイの姿勢M3を計算する(ステップS
13)。
Similarly, the video captured by the second camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S6 and S7). Similarly, the edge L2 of the tray is detected by the straight line detector 18 from the image (step S8). Then, the P1 and L are calculated by the corresponding point detector 22 in the manner described with reference to FIG.
2, an end point P2 corresponding to the tray separation portion is obtained. (Step S9). Further, the bottom of the tray is connected to the tray bottom detector 2.
6 to obtain M2 (step S10). Next, the position calculator 23 calculates the position P3 in the space of the end point of the tray separation portion from the points P1 and P2 by the method described in FIG. 23 (step S11). Further, the attitude calculator 24 calculates the tray attitude L3 from the tray edges L1 and L2 by the method described with reference to FIG. 24 (step S12), and the attitude calculator 24 calculates the tray bottom M
The posture M3 of the tray is calculated from M1 and M2 (step S
13).

【0077】そして、姿勢比較器28により前記したよ
うに上記トレイの姿勢L3,M3を比較し(ステップS
14)、両者が一致していない場合には、例えば、エラ
ーとして処理を終了し再度トレイ計測を行う。また、両
者が略一致している場合には、前記したようにR補正器
20によりR補正を行い、上記トレイ分離部分端点の空
間上の位置P3のR補正値P3’を求め(ステップS1
5)、前記したように把持補正器25によりマニュピュ
レータが食事トレイを把持する点P4を求める(ステッ
プS16)。
Then, the postures L3 and M3 of the trays are compared by the posture comparator 28 as described above (Step S).
14) If the two do not match, for example, the processing ends as an error and the tray measurement is performed again. If they are substantially the same, the R correction is performed by the R corrector 20 as described above, and the R correction value P3 'of the position P3 in the space of the end point of the tray separation portion is obtained (step S1).
5) As described above, a point P4 at which the manipulator grips the meal tray is obtained by the gripping corrector 25 (step S16).

【0078】(12)第12の実施例 本実施例は、トレイの縁と、トレイの底と、トレイの影
を検出し、最もはっきり見えているものを選択して姿勢
計算を行う実施例を示しており、図38に本実施例の構
成を示す。本実施例の構成は前記図36に示したもの
に、直線判別器29を付加し、最もはっきり見えている
線を判別するようにしたものであり、その他の構成は図
36に示したものと同じである。直線判別器29は検出
したトレイの縁、トレイの底、トレイの影について、直
線部分の長さを求め、直線部分の長さが所定値以上であ
ることを判別することにより、はっきり見えている線を
判別する。
(12) Twelfth Embodiment This embodiment is directed to an embodiment in which the edge of the tray, the bottom of the tray, and the shadow of the tray are detected, and the posture which is most clearly visible is selected to calculate the posture. FIG. 38 shows the configuration of this embodiment. The configuration of the present embodiment is such that a straight line discriminator 29 is added to the one shown in FIG. 36 to discriminate the line that is most clearly seen. The other configurations are the same as those shown in FIG. Is the same. The straight line discriminator 29 determines the length of the straight portion with respect to the detected edge of the tray, the bottom of the tray, and the shadow of the tray, and determines that the length of the straight portion is greater than or equal to a predetermined value. Determine the line.

【0079】図39は直線判別器29による直線の長さ
の判別手法を説明する図である。同図に示すように、エ
ッジの参照画像と対象領域Sの相関をとり、エッジの参
照画像と最も相関の高い対象画像領域Sを順次求める。
そして、対象画像領域の中心座標のずれ量α1,α2,
…,αnを順次求め、β=|(αn-1 −αn )−(α2
−α1)|を計算する。上記のようにして求めたβが所
定の閾値を越えたとき、直線部分が終了したと判別す
る。
FIG. 39 is a diagram for explaining a method of determining the length of a straight line by the straight line determiner 29. As shown in the figure, the correlation between the edge reference image and the target area S is obtained, and the target image area S having the highest correlation with the edge reference image is sequentially obtained.
Then, the shift amounts α1, α2, of the center coordinates of the target image area
.., Αn are sequentially obtained, and β = | (αn−1−αn) − (α2
−α1) | is calculated. When β obtained as described above exceeds a predetermined threshold value, it is determined that the straight line portion has ended.

【0080】図40は、本実施例における処理の流れを
示す図であり、同図により本実施例について説明する。
第1のカメラで撮影した映像を切り換え器により選択
し、画像入力装置13を介して対象画像メモリ14に格
納する(ステップS1,S2)。上記画像から、直線検
出器18によりトレイの縁L1を検出する(ステップS
3)。また、線分端点検出器19により、上記L1とト
レイ分離部分から決まるトレイ分離部分に対応した端点
P1を得る(ステップS4)。さらに、トレイの底をト
レイ底検出器26により検出し、M1を得る(ステップ
S5)。また、直線検出器18によりトレイの縁の影を
検出し、N1を得る(ステップS6)。
FIG. 40 is a diagram showing a flow of processing in the present embodiment, and the present embodiment will be described with reference to FIG.
The video captured by the first camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S1 and S2). From the image, the edge L1 of the tray is detected by the straight line detector 18 (Step S).
3). Further, the line segment end point detector 19 obtains an end point P1 corresponding to the tray separation part determined by the above L1 and the tray separation part (step S4). Further, the bottom of the tray is detected by the tray bottom detector 26 to obtain M1 (step S5). The shadow of the edge of the tray is detected by the straight line detector 18 to obtain N1 (step S6).

【0081】同様に、第2のカメラで撮影した映像を切
り換え器により選択し、画像入力装置13を介して対象
画像メモリ14に格納する(ステップS7,S8)。上
記画像から、同様に、直線検出器18によりトレイの縁
L2を検出する(ステップS9)。ついで、対応点検出
器22により前記図22で説明した手法で上記P1とL
2よりトレイ分離部分に対応した端点P2を得る。(ス
テップS10)。さらに、トレイの底をトレイ底検出器
26により検出し、M2を得る(ステップS11)。ま
た、直線検出器18によりトレイの縁の影を検出し、N
2を得る(ステップS12)。
Similarly, the video captured by the second camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S7, S8). Similarly, the edge L2 of the tray is detected from the image by the straight line detector 18 (step S9). Then, the P1 and L are calculated by the corresponding point detector 22 in the manner described with reference to FIG.
2, an end point P2 corresponding to the tray separation portion is obtained. (Step S10). Further, the bottom of the tray is detected by the tray bottom detector 26 to obtain M2 (step S11). Further, the shadow of the edge of the tray is detected by the straight line detector 18 and N
2 is obtained (step S12).

【0082】ついで、位置計算器23により、点P1,
P2よりトレイ分離部分端点の空間上の位置P3を計算
する(ステップS13)。また、姿勢計算器24によ
り、トレイの縁L1,L2よりトレイの姿勢L3を計算
し(ステップS14)、直線判別器29により縁L1,
L2がはっきり見えているかを判別する(ステップS1
5)。縁L1,L2がはっきり見えている場合には、ス
テップS21に行き、R補正器20によりR補正を行
い、上記トレイ分離部分端点の空間上の位置P3のR補
正値P3’を求め、前記したように把持補正器25によ
りマニュピュレータが食事トレイを把持する点P4を求
める(ステップS22)。また、縁L1,L2がはっき
り見えていない場合には、ステップS16に行き、直線
判別器29によりトレイの底M1が、トレイの縁の影N
1よりはっきり見えているかを判別する。
Then, the position calculator 23 calculates the points P1,
The position P3 in the space of the end point of the tray separation part is calculated from P2 (step S13). The posture calculator 24 calculates the posture L3 of the tray from the edges L1 and L2 of the tray (step S14).
It is determined whether L2 is clearly visible (step S1).
5). If the edges L1 and L2 are clearly visible, the process proceeds to step S21, where the R correction is performed by the R corrector 20, and the R correction value P3 ′ of the position P3 in the space of the end point of the tray separation part is obtained. As described above, the point P4 at which the manipulator grips the meal tray is obtained by the grip corrector 25 (step S22). If the edges L1 and L2 are not clearly visible, the flow goes to step S16, where the straight line discriminator 29 determines that the bottom M1 of the tray is the shadow N of the edge of the tray.
It is determined whether it is clearly visible from 1 or not.

【0083】トレイの底M1が、トレイの縁の影N1よ
りはっきり見えている場合には、ステップS17に行
き、トレイの底M1,M2により姿勢計算を行い、トレ
イの姿勢M3を得て、ステップS19において、姿勢比
較器28によりトレイの縁から得た姿勢L3とトレイの
底から得た姿勢M3を比較する。そして、両者の姿勢が
略一致している場合には、ステップS21に行き、前記
したように、R補正、把持補正を行う。また、ステップ
S16において、トレイの底M1が、トレイの縁の影N
1よりはっきり見えていないと判別された場合には、ス
テップS18に行き、トレイの縁の影N1,N2により
姿勢計算を行い、トレイの姿勢N3を得て、ステップS
20において、姿勢比較器28によりトレイの縁から得
た姿勢L3とトレイの縁の影から得た姿勢N3を比較す
る。そして、両者の姿勢が略一致している場合には、ス
テップS21に行き、前記したように、R補正、把持補
正を行う。
If the bottom M1 of the tray is clearly visible from the shadow N1 of the edge of the tray, the flow goes to step S17, where the posture is calculated using the bottoms M1 and M2 of the tray to obtain the posture M3 of the tray. In S19, the posture comparator 28 compares the posture L3 obtained from the edge of the tray with the posture M3 obtained from the bottom of the tray. If the postures of the two are substantially the same, the process proceeds to step S21, and the R correction and the grip correction are performed as described above. In step S16, the bottom M1 of the tray is the shadow N of the edge of the tray.
If it is determined that the tray is not clearly visible, the process proceeds to step S18, where the posture is calculated based on the shadows N1 and N2 of the edges of the tray, and the posture N3 of the tray is obtained.
At 20, the attitude comparator 28 compares the attitude L3 obtained from the edge of the tray with the attitude N3 obtained from the shadow of the edge of the tray. If the postures of the two are substantially the same, the process proceeds to step S21, and the R correction and the grip correction are performed as described above.

【0084】(13)第13の実施例 以上の実施例では、トレイ分離部分を計測し把持点を求
める実施例について説明したが、トレイに分離部分がな
かったり、分離部分があってもカメラで撮影できる位置
にない場合もある。本実施例は、上記の場合であっても
トレイの縁のみを検出してマニュピュレータによりトレ
イを把持することが可能な実施例を示している。
(13) Thirteenth Embodiment In the above embodiment, an embodiment has been described in which the tray separation portion is measured and the grip point is obtained. However, even if there is no separation portion on the tray or even if there is a separation portion, the camera is used. In some cases, the camera is not in a position where shooting can be performed. This embodiment shows an embodiment in which even in the above case, only the edge of the tray can be detected and the tray can be gripped by the manipulator.

【0085】図41は本実施例によるトレイ計測方法を
説明する図である。同図において、CCD1は1台目の
カメラの画像投影面、CCD2は2台目のカメラの画像
投影面である。O1,O2はそれぞれのカメラの原点位
置、L1はCCD1上のトレイの縁のエッジ、L2はC
CD2上のトレイの縁のエッジ、L3は空間上のトレイ
の縁エッジ、P1,P2,P3,P4はCCD1の4隅
の点である。また、P5は点O1,P1,P2を含む平
面とL3との切片、P6は点O1,P3,P4を含む平
面とL3との切片、P7はP5とP6の中点である。
FIG. 41 is a diagram for explaining the tray measuring method according to the present embodiment. In the figure, CCD1 is the image projection surface of the first camera, and CCD2 is the image projection surface of the second camera. O1 and O2 are the origin positions of the respective cameras, L1 is the edge of the edge of the tray on CCD1, L2 is C
The edge of the edge of the tray on CD2, L3 is the edge of the tray in space, and P1, P2, P3, and P4 are the four corner points of CCD1. P5 is an intercept between the plane including the points O1, P1 and P2 and L3, P6 is an intercept between the plane including the points O1, P3 and P4 and L3, and P7 is a middle point between P5 and P6.

【0086】本実施例においては、次のようにして把持
位置を求める。 第1台目のカメラと第2台目のカメラによりトレイ
の縁L1,L2を検出し、トレイの姿勢L3を求める。 第1台目のカメラの原点O1と2隅P1,P2を含
む平面とL3との切片P5、およびカメラの原点O1と
2隅P3,P4を含む平面とL3との切片P6を求め
る。 上記切片P5,P6の距離Aと、マニュピュレータ
のグリッパの幅Bを比較し、A>Bの場合、マニュピュ
レータによりトレイを把持できるとして、上記P5,P
6間の例えば中点P7等を把持点とする。
In this embodiment, the gripping position is obtained as follows. The edges L1 and L2 of the tray are detected by the first camera and the second camera, and the posture L3 of the tray is obtained. The intercept P5 between the plane including the origin O1 and the two corners P1 and P2 of the first camera and L3 and the intercept P6 between the plane including the origin O1 and the two corners P3 and P4 of the camera and L3 are obtained. The distance A between the slices P5 and P6 is compared with the width B of the gripper of the manipulator. If A> B, the tray is grasped by the manipulator.
For example, a middle point P7 between the six points is set as a grip point.

【0087】図42は本実施例の構成を示す図である。
本実施例の基本構成は前記した実施のものと同様であ
り、本実施例においては、前記した直線検出器18、直
線判別器29に加え、直線位置姿勢計算器30、切片位
置計算器31が設けられている。図43は本実施例にお
ける処理の流れを示す図であり、同図により本実施例に
ついて説明する。第1のカメラで撮影した映像を切り換
え器により選択し、画像入力装置13を介して対象画像
メモリ14に格納する(ステップS1,S2)。上記画
像から、直線検出器18によりトレイの縁L1を検出し
(ステップS3)、直線判別器29により検出したトレ
イの縁L1が第1台目のカメラの視野いっぱいに見えて
いるかを判別する(ステップS4)。
FIG. 42 is a diagram showing the configuration of this embodiment.
The basic configuration of this embodiment is the same as that of the above-described embodiment. In this embodiment, in addition to the above-described straight line detector 18 and straight line discriminator 29, a straight line position / posture calculator 30 and an intercept position calculator 31 are provided. Is provided. FIG. 43 is a diagram showing a flow of processing in the present embodiment, and the present embodiment will be described with reference to FIG. The video captured by the first camera is selected by the switch, and stored in the target image memory 14 via the image input device 13 (steps S1 and S2). From the above image, the edge L1 of the tray is detected by the straight line detector 18 (step S3), and it is determined whether the edge L1 of the tray detected by the straight line discriminator 29 is visible in the full field of view of the first camera (step S3). Step S4).

【0088】トレイの縁L1が第1台目のカメラの視野
いっぱいに見えていない場合には、この方法では計測で
きないので、ステップS5に行き別の方法で計測する。
また、視野いっぱいに見えている場合には、ステップS
6に行き、第2のカメラで撮影した映像を切り換え器に
より選択し、画像入力装置13を介して対象画像メモリ
14に格納する(ステップS6,S7)。上記画像か
ら、同様に、直線検出器18によりトレイの縁L2を検
出する(ステップS8)。そして、直線位置姿勢計算器
30により上記L1,L2からトレイの縁の姿勢L3を
求める(ステップS9)。ついで、切片位置計算器31
により、前記図42で説明したように切片P5,P6を
計算する。そして、、切片P5,P6の距離とマニュピ
ュレータのグリッパの幅からマニュピュレータによるト
レイ把持が可能であるか判定し、把持可能な場合には把
持点を決定する(ステップS10)。
If the edge L1 of the tray is not visible in the full field of view of the first camera, the measurement cannot be performed by this method, so the flow goes to step S5 to perform measurement by another method.
If the field of view is full, step S
The process goes to step S6, where the video taken by the second camera is selected by the switch, and is stored in the target image memory 14 via the image input device 13 (steps S6 and S7). Similarly, the edge L2 of the tray is detected by the straight line detector 18 from the image (step S8). Then, the posture L3 of the edge of the tray is obtained from the above L1 and L2 by the linear position / posture calculator 30 (step S9). Then, the intercept position calculator 31
Thus, the intercepts P5 and P6 are calculated as described with reference to FIG. Then, it is determined whether or not the tray can be gripped by the manipulator based on the distance between the sections P5 and P6 and the width of the gripper of the manipulator. If the tray can be gripped, the gripping point is determined (step S10).

【0089】[0089]

【発明の効果】以上説明したように、本発明において
は、以下の効果を得ることができる。 (1)第1および第2のカメラの画像から食事トレイの
エッジの直線パラメータと、上記トレイ分離部分のエッ
ジの端点の位置を求めて、食事トレイの3次元位置を計
測するようにしたので、計測対象となりうる特徴的な模
様な形状、またはマークがないトレイの3次元位置を計
測することが可能となる。特に、トレイの分離部分のエ
ッジの端点を検出することにより、マニュピュレータに
よりトレイを把持する際、把持点を直接計測することが
できる。また、カメラの位置と食事トレイのコーナーの
丸みの大きさと計測対象の画像上での左右方向の端点の
位置より、計測対象の空間上での左右方向の端点の位置
を補正しするようにしたので、カメラの位置にかかわら
ず端点の位置を正確に求めることができる。
As described above, the following effects can be obtained in the present invention. (1) The three-dimensional position of the meal tray is measured by obtaining the straight line parameter of the edge of the meal tray and the position of the end point of the edge of the tray separation portion from the images of the first and second cameras. It is possible to measure a characteristic pattern shape that can be a measurement target or a three-dimensional position of a tray having no mark. In particular, by detecting the end point of the edge of the separation portion of the tray, when the tray is gripped by the manipulator, the grip point can be directly measured. Also, the position of the end point in the horizontal direction in the space of the measurement target is corrected based on the position of the camera, the roundness of the corner of the meal tray, and the position of the end point in the horizontal direction on the image of the measurement target. Therefore, the position of the end point can be accurately obtained regardless of the position of the camera.

【0090】(2)ステレオ画像取得器から得た画像か
ら食事トレイの端点の空間上の位置、食事トレイの姿勢
を計測し、マニュピュレータの把持点を求めるようにし
たので、計測対象となりうる特徴的な模様な形状、また
はマークがないトレイの3次元位置を計測し、マニュピ
ュレータにより把持することが可能となる。また、食事
トレイのエッジの影、食事トレイの底を検出して食事ト
レイの空間上の姿勢を求めることにより、照明条件等の
計測条件が変化に対して安定して食事トレイの位置を計
測することができる。さらに、食事トレイと同色の領域
を検出することにより、トレイの輪郭線を安定に計測す
ることができる。
(2) The position in the space of the end point of the meal tray and the attitude of the meal tray are measured from the image obtained from the stereo image acquisition device, and the gripping point of the manipulator is obtained. It is possible to measure a three-dimensional position of a tray having no typical pattern or a mark without a mark, and hold the tray with a manipulator. Further, by detecting the shadow of the edge of the meal tray and the bottom of the meal tray to determine the attitude of the meal tray in space, the position of the meal tray is measured stably with respect to changes in measurement conditions such as lighting conditions. be able to. Further, by detecting an area of the same color as the meal tray, the contour of the tray can be measured stably.

【0091】(3)ステレオ画像取得器から取得した2
枚の画像から食事トレイのエッジの直線を検出し、食事
トレイの空間上のエッジの位置および姿勢を求め、1枚
の画像の視野より、上記空間上のエッジの対応する切片
を求め、上記エッジの切片の位置からマニュピュレータ
による食事トレイの把持位置を計算するようにすること
により、分離部分がないもしくは分離部分がカメラの視
野内に入らない場合であっても、食事トレイをマニュピ
ュレータにより把持することが可能となる。
(3) 2 obtained from the stereo image obtaining unit
The straight line of the edge of the meal tray is detected from the one image, the position and orientation of the edge in the space of the meal tray are obtained, and the corresponding section of the edge in the space is obtained from the field of view of one image. By calculating the gripping position of the meal tray by the manipulator from the position of the section of the camera, the meal tray is gripped by the manipulator even if there is no separation part or the separation part does not fall within the field of view of the camera. It is possible to do.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理構成図(1)である。FIG. 1 is a principle configuration diagram (1) of the present invention.

【図2】本発明の原理構成図(2)である。FIG. 2 is a principle configuration diagram (2) of the present invention.

【図3】本発明の原理構成図(3)である。FIG. 3 is a principle configuration diagram (3) of the present invention.

【図4】本発明の実施例における計測対象を示す図であ
る。
FIG. 4 is a diagram showing a measurement target according to the embodiment of the present invention.

【図5】本発明の実施例における計測対象を示す図(続
き)である。
FIG. 5 is a diagram (continued) illustrating a measurement target in the example of the present invention.

【図6】本発明の実施例における2台のカメラとトレイ
の位置関係を示す図である。
FIG. 6 is a diagram showing a positional relationship between two cameras and a tray in the embodiment of the present invention.

【図7】本発明の第1の実施例のトレイ計測装置の構成
を示す図である。
FIG. 7 is a diagram illustrating a configuration of a tray measuring device according to the first embodiment of the present invention.

【図8】本発明の第1の実施例の全体処理を示す流れ図
である。
FIG. 8 is a flowchart showing the overall processing of the first embodiment of the present invention.

【図9】第1の実施例におけるトレイ前方エッジ端点検
出処理を示す流れ図である。
FIG. 9 is a flowchart illustrating tray front edge end point detection processing in the first embodiment.

【図10】第1の実施例におけるトレイ分離部分検出の
説明図である。
FIG. 10 is an explanatory diagram of tray separation portion detection in the first embodiment.

【図11】第1の実施例におけるトレイ前方エッジ検出
の説明図である。
FIG. 11 is an explanatory diagram of tray front edge detection in the first embodiment.

【図12】第1の実施例におけるトレイ前方エッジの傾
き検出の説明図である。
FIG. 12 is an explanatory diagram of detecting the inclination of the front edge of the tray in the first embodiment.

【図13】第1の実施例におけるトレイ分離部分の再検
出の説明図である。
FIG. 13 is an explanatory diagram of re-detection of a tray separation portion in the first embodiment.

【図14】第1の実施例における計測点の出し方の説明
図である。
FIG. 14 is an explanatory diagram of how to set measurement points in the first embodiment.

【図15】本発明の第2の実施例のトレイ計測装置の構
成を示す図である。
FIG. 15 is a diagram illustrating a configuration of a tray measuring device according to a second embodiment of the present invention.

【図16】本発明の第2の実施例の全体処理を示す流れ
図である。
FIG. 16 is a flowchart showing the overall processing of the second embodiment of the present invention.

【図17】本発明の第3の実施例のトレイ計測装置の構
成を示す図である。
FIG. 17 is a diagram illustrating a configuration of a tray measuring device according to a third embodiment of the present invention.

【図18】本発明の第3の実施例におけるR補正の原理
を説明する図である。
FIG. 18 is a diagram illustrating the principle of R correction according to the third embodiment of the present invention.

【図19】本発明の第3の実施例におけるR補正処理を
示す流れ図である。
FIG. 19 is a flowchart showing an R correction process according to the third embodiment of the present invention.

【図20】本発明の第3の実施例の全体処理を示す流れ
図である。
FIG. 20 is a flowchart showing the overall processing of the third embodiment of the present invention.

【図21】本発明の第7の実施例のトレイ計測装置の構
成を示す図である。
FIG. 21 is a diagram illustrating a configuration of a tray measuring device according to a seventh embodiment of the present invention.

【図22】対応点計算器における対応点の計算手法を説
明する図である。
FIG. 22 is a diagram illustrating a method of calculating corresponding points in a corresponding point calculator.

【図23】位置計算器における位置P3の求め方を説明
する図である。
FIG. 23 is a diagram for explaining how to obtain a position P3 in the position calculator.

【図24】姿勢計算器によるトレイの姿勢を計算する手
法を説明する図である。
FIG. 24 is a diagram illustrating a method of calculating the tray attitude by the attitude calculator.

【図25】マニュピュレータの把持点と計測点の関係を
示す図である。
FIG. 25 is a diagram showing a relationship between a gripping point of the manipulator and a measurement point.

【図26】本発明の第7の実施例の処理の流れを示す図
である。
FIG. 26 is a diagram showing a processing flow of a seventh embodiment of the present invention.

【図27】第7の実施例においてカメラにより撮影され
た画像の一例を示す図である。
FIG. 27 is a diagram illustrating an example of an image captured by a camera in the seventh embodiment.

【図28】本発明の第8の実施例の処理の流れを示す図
である。
FIG. 28 is a diagram showing the flow of the process of the eighth embodiment of the present invention.

【図29】第8の実施例においてカメラにより撮影され
た画像の一例を示す図である。
FIG. 29 is a diagram illustrating an example of an image captured by a camera in the eighth embodiment.

【図30】本発明の第9の実施例のトレイ計測装置の構
成を示す図である。
FIG. 30 is a diagram illustrating a configuration of a tray measuring device according to a ninth embodiment of the present invention.

【図31】本発明の第9の実施例の処理の流れを示す図
である。
FIG. 31 is a diagram showing the flow of the process of the ninth embodiment of the present invention.

【図32】第9の実施例においてカメラにより撮影され
た画像の一例を示す図である。
FIG. 32 is a diagram illustrating an example of an image captured by a camera in the ninth embodiment.

【図33】本発明の第10の実施例のトレイ計測装置の
構成を示す図である。
FIG. 33 is a diagram illustrating a configuration of a tray measuring device according to a tenth embodiment of the present invention.

【図34】本発明の第10の実施例のおける色検出を説
明する図である。
FIG. 34 is a diagram for explaining color detection in a tenth embodiment of the present invention.

【図35】本発明の第10の実施例の処理の流れを示す
図である。
FIG. 35 is a diagram showing the flow of the process of the tenth embodiment of the present invention.

【図36】本発明の第11の実施例のトレイ計測装置の
構成を示す図である。
FIG. 36 is a diagram illustrating a configuration of a tray measuring device according to an eleventh embodiment of the present invention.

【図37】本発明の第11の実施例の処理の流れを示す
図である。
FIG. 37 is a diagram showing a flow of processing of the eleventh embodiment of the present invention.

【図38】本発明の第12の実施例のトレイ計測装置の
構成を示す図である。
FIG. 38 is a diagram showing a configuration of a tray measuring device according to a twelfth embodiment of the present invention.

【図39】本発明の第12の実施例の直線判別器による
判別手法を説明する図である。
FIG. 39 is a diagram illustrating a discriminating method using a straight line discriminator according to a twelfth embodiment of the present invention.

【図40】本発明の第12の実施例の処理の流れを示す
図である。
FIG. 40 is a diagram showing a processing flow of the twelfth embodiment of the present invention.

【図41】本発明の第13の実施例におけるトレイ計測
方法を説明する図である。
FIG. 41 is a diagram illustrating a tray measuring method according to a thirteenth embodiment of the present invention.

【図42】本発明の第13の実施例のトレイ計測装置の
構成を示す図である。
FIG. 42 is a diagram illustrating a configuration of a tray measuring device according to a thirteenth embodiment of the present invention.

【図43】本発明の第13の実施例の処理の流れを示す
図である。
FIG. 43 is a diagram showing a flow of processing in a thirteenth embodiment of the present invention.

【図44】従来例における計測対象を示す図である。FIG. 44 is a diagram showing a measurement target in a conventional example.

【図45】食事搬送ロボットにおけるカメラの配置を示
す図である。
FIG. 45 is a diagram showing an arrangement of cameras in the meal transport robot.

【図46】従来のトレイ計測装置の構成を示す図であ
る。
FIG. 46 is a diagram showing a configuration of a conventional tray measuring device.

【図47】従来のトレイ計測装置におけるトレイ計測処
理を示す流れ図である。
FIG. 47 is a flowchart showing tray measurement processing in a conventional tray measurement device.

【符号の説明】[Explanation of symbols]

1a,1b カメラ 2 カメラ切り換え器 2’ ステレオ画像取得器 3 画像入力手段 4a 対象画像メモリ 4b 参照画像メモリ 5 相関演算手段 6 処理手段 7 直線検出手段 8 端点検出手段 9 R補正手段 10 食事トレイ 11a,11b カメラ 12 カメラ切り換え器 13 画像入力装置 14 対象画像メモリ 15 参照画像メモリ 16 相関演算処理装置 17 CPU 18 直線検出器 19 線分端点検出器 20 R補正器 21 ステレオ画像取得器 22 対応点計算器 23 位置計算器 24 姿勢計算器 25 把持補正器 26 トレイ底検出器 27 色検出器 28 姿勢比較器 29 直線判別器 30 直線位置姿勢計算器 31 切片計算器 41 位置計算手段 42 姿勢計算手段 43 把持補正手段 44 対応点検出手段 45 トレイ底検出手段 46 色検出手段 47 直線判別手段 48 姿勢比較手段 50 切片計算手段 51 直線姿勢計算手段 1a, 1b Camera 2 Camera Switcher 2 'Stereo Image Acquisition Device 3 Image Input Means 4a Target Image Memory 4b Reference Image Memory 5 Correlation Calculation Means 6 Processing Means 7 Straight Line Detection Means 8 End Point Detection Means 9 R Correction Means 10 Meal Tray 11a, 11b Camera 12 Camera switcher 13 Image input device 14 Target image memory 15 Reference image memory 16 Correlation processor 17 CPU 18 Straight line detector 19 Line segment end point detector 20 R corrector 21 Stereo image acquirer 22 Corresponding point calculator 23 Position Calculator 24 Posture Calculator 25 Grip Corrector 26 Tray Bottom Detector 27 Color Detector 28 Posture Comparator 29 Straight Line Discriminator 30 Linear Position and Posture Calculator 31 Intercept Calculator 41 Position Calculator 42 Posture Calculator 43 Grip Corrector 44 Corresponding point detecting means 45 Tray bottom detecting means 46 Detection means 47 linearly discriminating means 48 position comparing means 50 intercept calculation unit 51 linearly posture calculating means

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 第1および第2のカメラにより撮影した
画像から食事トレイの3次元位置を計測する方法であっ
て、 上記第1および第2のカメラの画像とエッジの参照画像
との相関演算を行うことにより、それぞれのカメラの画
像における食事トレイのエッジの直線パラメータを求
め、また、上記第1および/または第2のカメラの画像
から食事トレイの分離部分のエッジの端点の位置を求
め、 上記カメラの画像から得た食事トレイのエッジの直線パ
ラメータと、上記トレイ分離部分のエッジの端点の位置
から食事トレイの3次元位置を計測することを特徴とす
る食事トレイ計測方法。
1. A method for measuring a three-dimensional position of a meal tray from images taken by first and second cameras, the method comprising: calculating a correlation between an image of the first and second cameras and a reference image of an edge. To obtain the straight line parameters of the edge of the meal tray in the image of each camera, and also find the position of the end point of the edge of the separated portion of the meal tray from the image of the first and / or the second camera, A meal tray measuring method, comprising: measuring a three-dimensional position of the meal tray from a straight line parameter of an edge of the meal tray obtained from the image of the camera and a position of an end point of the edge of the tray separation portion.
【請求項2】 第1および第2のカメラにより撮影した
画像から食事トレイの3次元位置を計測する方法であっ
て、 上記第1および第2のカメラの画像とエッジの参照画像
との相関演算を行うことにより、それぞれのカメラの画
像における食事トレイのエッジの直線パラメータを求
め、 また、上記第1および/または第2のカメラの画像から
食事トレイのエッジの端点の位置を求めるとともに、カ
メラの位置と食事トレイのコーナーの丸みの大きさと計
測対象の画像上での左右方向の端点の位置より、計測対
象の空間上での左右方向の端点の位置を補正し、 上記カメラの画像から得た食事トレイのエッジの直線パ
ラメータと、上記補正されたトレイのエッジの端点の位
置から食事トレイの3次元位置を計測することを特徴と
する食事トレイ計測方法。
2. A method of measuring a three-dimensional position of a meal tray from images taken by first and second cameras, the method comprising: calculating a correlation between an image of the first and second cameras and a reference image of an edge. Is performed, the straight line parameter of the edge of the meal tray in the image of each camera is obtained, and the position of the end point of the edge of the meal tray is obtained from the image of the first and / or second camera, and The position of the end point in the horizontal direction in the space of the measurement target was corrected from the position, the roundness of the corner of the meal tray, and the position of the end point in the horizontal direction on the image of the measurement target, and obtained from the image of the camera described above. A meal tray meter for measuring a three-dimensional position of the meal tray from the straight line parameters of the edge of the meal tray and the corrected position of the end point of the edge of the tray; Measurement method.
【請求項3】 ステレオ画像取得器から取得した2枚の
画像から食事トレイの3次元位置を計測する方法であっ
て、 上記ステレオ画像取得器から取得したカメラの画像とエ
ッジの参照画像との相関演算を行うことにより、それぞ
れの画像における食事トレイのエッジを求め、それぞれ
のエッジから食事トレイの空間上の姿勢を求め、 また、上記それぞれの画像における食事トレイの分離部
分のエッジの端点の位置を求め、それぞれの画像におけ
る端点の位置から分離部分のエッジの端点の空間上の位
置を求め、 上記食事トレイの空間上の姿勢と分離部分のエッジの端
点の空間上の位置から食事トレイの位置と姿勢を計測す
ることを特徴とする食事トレイ計測方法。
3. A method for measuring a three-dimensional position of a meal tray from two images acquired from a stereo image acquiring device, wherein a correlation between a camera image acquired from the stereo image acquiring device and an edge reference image is provided. By performing the calculation, the edge of the meal tray in each image is obtained, the attitude in the space of the meal tray is obtained from each edge, and the position of the end point of the edge of the separation portion of the meal tray in each image is obtained. From the position of the end point in each image, the position in the space of the end point of the edge of the separated part is obtained from the position of the end point in each image, A meal tray measurement method characterized by measuring a posture.
【請求項4】 ステレオ画像取得器から取得した2枚の
画像から食事トレイの3次元位置を計測する方法であっ
て、 上記ステレオ画像取得器から取得した2枚の画像から食
事トレイのエッジの直線を検出し、食事トレイの空間上
のエッジの位置および姿勢を求め、 1枚の画像の視野より、上記空間上のエッジの対応する
切片を求め、 上記エッジの切片の位置からマニュピュレータによる食
事トレイの把持位置を計算することを特徴とする食事ト
レイ計測方法。
4. A method for measuring a three-dimensional position of a meal tray from two images acquired from a stereo image acquisition device, wherein a straight line of an edge of a meal tray is obtained from two images acquired from the stereo image acquisition device. Is detected, the position and orientation of the edge in the space of the meal tray are obtained, the corresponding section of the edge in the space is obtained from the field of view of one image, and the meal tray by the manipulator is obtained from the position of the section of the edge. A meal tray measuring method, comprising: calculating a gripping position of a meal tray.
【請求項5】 食事トレイを撮影する第1および第2の
カメラと、 上記第1および第2のカメラを切り換えるカメラ切り換
え器と、 上記第1および第2のカメラの画像を格納する対象画像
メモリと、 食事トレイの分離部分の参照画像と、トレイのエッジ部
分の参照画像を格納した参照画像メモリと、 上記対象画像メモリに格納された第1および第2のカメ
ラの対象画像と、参照画像メモリに格納された参照画像
との相関演算を行う相関演算手段と、 上記相関演算手段の相関演算結果に基づき第1および第
2のカメラの画像における食事トレイのエッジの直線パ
ラメータを求める直線検出手段と、 第1および/または第2のカメラの食事トレイ分離部分
の画像から、食事トレイ分離部分のエッジの線分の端点
を求める線分端点検出手段と、 上記直線検出手段により求めた第1および第2のカメラ
の画像における食事トレイのエッジの直線パラメータ
と、上記線分端点検出手段により求めた食事トレイの分
離部分のエッジの端点とに基づき、食事トレイの3次元
位置を計測する処理手段を備えたことを特徴とする食事
トレイ計測装置。
5. A first and second camera for photographing a meal tray, a camera switch for switching between the first and second cameras, and a target image memory for storing images of the first and second cameras. A reference image of a separated portion of the meal tray, a reference image memory storing a reference image of an edge portion of the tray, a target image of the first and second cameras stored in the target image memory, and a reference image memory Correlation calculating means for performing a correlation calculation with the reference image stored in the storage means, and a straight line detecting means for calculating a straight line parameter of an edge of the meal tray in the images of the first and second cameras based on the correlation calculation result of the correlation calculating means. Line segment end point detecting means for obtaining an end point of a line segment of an edge of the meal tray separation portion from an image of the meal tray separation portion of the first and / or second camera; A meal tray based on the straight line parameters of the edge of the meal tray in the images of the first and second cameras obtained by the straight line detecting means and the end points of the edges of the separated portions of the meal tray obtained by the line segment end point detecting means. A meal tray measuring device comprising processing means for measuring the three-dimensional position of the food tray.
【請求項6】 食事トレイを撮影する第1および第2の
カメラと、 上記第1および第2のカメラを切り換えるカメラ切り換
え器と、 上記第1および第2のカメラの画像を格納する対象画像
メモリと、 食事トレイのエッジ部分の参照画像を格納した参照画像
メモリと、 上記対象画像メモリに格納された第1および第2のカメ
ラの対象画像と、参照画像メモリに格納された参照画像
との相関演算を行う相関演算手段と、 上記相関演算手段の相関演算結果に基づき第1および第
2のカメラの画像における食事トレイのエッジの直線パ
ラメータを求める直線検出手段と、 第1および/または第2のカメラの画像から、食事トレ
イのエッジの線分の端点を求める線分端点検出手段と、 線分の端点を、カメラの位置とトレイのコーナーの丸み
の大きさと計測対象の画像上での左右方向の端点の位置
より、計測対象の空間上での左右方向の位置に補正する
R補正手段と、 上記直線検出手段により求めた第1および第2のカメラ
の画像における食事トレイのエッジの直線パラメータ
と、上記R補正手段により得られた食事トレイのエッジ
の端点とに基づき、食事トレイの3次元位置を計測する
処理手段を備えたことを特徴とする食事トレイ計測装
置。
6. A first and second camera for photographing a meal tray, a camera switcher for switching between the first and second cameras, and a target image memory for storing images of the first and second cameras. A reference image memory storing a reference image of an edge portion of the meal tray; a correlation between target images of the first and second cameras stored in the target image memory; and a reference image stored in the reference image memory. Correlation calculation means for performing calculation, straight line detection means for obtaining a straight line parameter of an edge of a meal tray in images of the first and second cameras based on a result of the correlation calculation by the correlation calculation means, and first and / or second Line segment end point detection means for obtaining the end point of the line segment of the edge of the meal tray from the image of the camera, and the end point of the line segment is determined by the camera position and the roundness of the corner of the tray. R correction means for correcting the position of an end point in the left-right direction on the image of the measurement target to a position in the left-right direction in the space of the measurement target, and images of the first and second cameras obtained by the straight line detection means A meal tray measurement unit for measuring a three-dimensional position of the meal tray based on the straight line parameter of the edge of the meal tray in the above and the end point of the edge of the meal tray obtained by the R correction means. apparatus.
【請求項7】 食事トレイを撮影するステレオ画像取得
器と、 取得した2枚の画像を格納する対象画像メモリと、 食事トレイの参照画像を格納した参照画像メモリと、 上記対象画像メモリに格納された2枚の対象画像と、参
照画像メモリに格納された参照画像との相関演算を行う
相関演算手段と、 上記相関演算手段の相関演算結果に基づきそれぞれの画
像における直線を求める直線検出手段と、 上記それぞれの画像における直線から該直線の空間上の
姿勢を計算する姿勢計算手段と、 上記2枚の画像の内の1枚の画像について、食事トレイ
のエッジの線分の端点を求める線分端点検出手段と、 上記線分端点検出手段により求めた上記画像における端
点と、上記直線検出手段により求めた他方の画像上の食
事トレイのエッジの直線から、他方の画像上における食
事トレイのエッジの線分の端点を求める対応点計算手段
と、 上記線分端点検出手段および対応点計算手段により求め
たそれぞれの画像における端点から、空間上の端点の位
置を求める位置計算手段と、 上記姿勢計算手段により求めた空間上の姿勢と、上記位
置計算手段により求めた空間上の端点の位置とに基づ
き、食事トレイの3次元位置を計測し、マニュピュレー
タによる把持位置を求める処理手段を備えたことを特徴
とする食事トレイ計測装置。
7. A stereo image acquisition device for photographing a meal tray, a target image memory for storing the two acquired images, a reference image memory for storing a reference image of the meal tray, and a reference image memory stored in the target image memory. Correlation calculation means for performing a correlation calculation between the two target images and the reference image stored in the reference image memory; straight line detection means for obtaining a straight line in each image based on the correlation calculation result of the correlation calculation means; A posture calculating means for calculating a posture of the straight line in space from a straight line in each of the images; and a line segment end point for obtaining an end point of a line segment of an edge of a meal tray for one of the two images. Detecting means, the end point in the image obtained by the line segment end point detecting means, and the straight line of the edge of the meal tray on the other image obtained by the straight line detecting means, Corresponding point calculating means for calculating the end point of the line segment of the edge of the meal tray on the image of the above, and obtaining the position of the end point in space from the end points in the respective images obtained by the line segment end point detecting means and the corresponding point calculating means. A position calculator, a three-dimensional position of the meal tray is measured based on the position in space obtained by the position calculator, and a position of an end point in space obtained by the position calculator, and a gripping position by the manipulator A meal tray measuring device comprising processing means for obtaining
【請求項8】 食事トレイを撮影するステレオ画像取得
器と、 取得した2枚の画像を格納する対象画像メモリと、 食事トレイの参照画像を格納した参照画像メモリと、 上記対象画像メモリに格納された2枚の対象画像と、参
照画像メモリに格納された参照画像との相関演算を行う
相関演算手段と、 上記相関演算手段の相関演算結果に基づきそれぞれの画
像における食事トレイのエッジを求める直線検出手段
と、 上記エッジの直線部分が上記画像の視野いっぱいに入っ
ているかを判定する直線判別手段と、 上記2枚の画像上のエッジから、該エッジの空間上の姿
勢を計算する直線姿勢計算手段と、 上記エッジの直線部分が上記画像の視野いっぱいに入っ
ているとき、上記2枚の画像の内の一枚の画像の視野か
ら、対応する上記エッジの切片を求める切片計算手段
と、 上記直線判別手段により、食事トレイのエッジが
上記画像の視野いっぱいに見えると判定されたとき、上
記切片計算手段により求めたエッジの切片位置から、マ
ニュピュレータによる食事トレイの把持位置を計算する
処理手段とを備えたことを特徴とする食事トレイ計測装
置。
8. A stereo image acquisition device for photographing a meal tray, a target image memory for storing the two acquired images, a reference image memory for storing a reference image of the meal tray, and a target image memory stored in the target image memory. Calculating means for calculating a correlation between the two target images and the reference image stored in the reference image memory; and detecting a straight line for obtaining an edge of a meal tray in each image based on a result of the correlation calculation by the correlation calculating means. Means for determining whether a straight line portion of the edge is within the field of view of the image, and a straight line attitude calculating means for calculating an attitude in space of the edge from the edges on the two images. When the straight line portion of the edge is in the full field of view of the image, the corresponding intercept of the edge is determined from the field of view of one of the two images. When the slice calculating means to be determined and the straight line discriminating means determine that the edge of the meal tray appears to fill the field of view of the image, the manipulator grips the meal tray from the position of the slice calculated by the slice calculating means. A meal tray measuring device, comprising: processing means for calculating a position.
JP9236083A 1996-12-17 1997-09-01 Method and instrument for measuring meal tray Pending JPH10232937A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9236083A JPH10232937A (en) 1996-12-17 1997-09-01 Method and instrument for measuring meal tray

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-336621 1996-12-17
JP33662196 1996-12-17
JP9236083A JPH10232937A (en) 1996-12-17 1997-09-01 Method and instrument for measuring meal tray

Publications (1)

Publication Number Publication Date
JPH10232937A true JPH10232937A (en) 1998-09-02

Family

ID=26532489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9236083A Pending JPH10232937A (en) 1996-12-17 1997-09-01 Method and instrument for measuring meal tray

Country Status (1)

Country Link
JP (1) JPH10232937A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2403799A (en) * 2003-07-11 2005-01-12 Rolls Royce Plc Measurement of spacing between components and their dimension from combining their active and reference images
JP2005339468A (en) * 2004-05-31 2005-12-08 Mitsubishi Electric Corp On-vehicle road marking detector
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
JP2011143497A (en) * 2010-01-13 2011-07-28 Ihi Corp Device and method for tray transfer

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2403799A (en) * 2003-07-11 2005-01-12 Rolls Royce Plc Measurement of spacing between components and their dimension from combining their active and reference images
GB2403799B (en) * 2003-07-11 2006-04-12 Rolls Royce Plc Image-based measurement
US7561729B2 (en) 2003-07-11 2009-07-14 Rolls-Royce Plc Image based measurement system and method for measuring dynamic objects
JP2005339468A (en) * 2004-05-31 2005-12-08 Mitsubishi Electric Corp On-vehicle road marking detector
JP4575031B2 (en) * 2004-05-31 2010-11-04 三菱電機株式会社 In-vehicle road marking detection device
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
JP2011143497A (en) * 2010-01-13 2011-07-28 Ihi Corp Device and method for tray transfer

Similar Documents

Publication Publication Date Title
KR100386090B1 (en) Camera calibration system and method using planar concentric circles
JP2010071782A (en) Three-dimensional measurement apparatus and method thereof
JP2001075019A (en) Endoscope device
JPH09231373A (en) Device for measuring three-dimensional position
WO2019228523A1 (en) Method and device for determining spatial position shape of object, storage medium and robot
US20240054662A1 (en) Capsule endoscope image three-dimensional reconstruction method, electronic device, and readable storage medium
US6980210B1 (en) 3D stereo real-time sensor system, method and computer program therefor
JP4646384B2 (en) Endoscope device for measurement and scale display method
JPH10232937A (en) Method and instrument for measuring meal tray
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
JP2001194128A (en) Method for estimating configuration of three-dimensional surface shape using stereoscopic camera with focal light source
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JPS6256814A (en) Calibration system for three-dimensional position measuring camera
JPH10318732A (en) Shape measuring device and image formation apparatus of shape measurement
JP3340599B2 (en) Plane estimation method
JP2939577B2 (en) Object recognition method and apparatus
Abdelhamid et al. Extracting depth information using a correlation matching algorithm
JPH0618221A (en) Integration of multi-viewpoint distance data
JPH10318715A (en) Image measuring apparatus
JPS61274207A (en) Method for three-dimensional measurement of matter
JPH1030917A (en) Object recognition method and device therefor, and recording medium
Wang et al. Research on object recognition of intelligent robot base on binocular vision
CN113393383B (en) Splicing method for photographed images of double-depth camera
JPH0715647A (en) Correcting method for lens distortional aberration of two-dimensional image pickup device
US20210025698A1 (en) Device and Method for Three-dimensionally Measuring Linear Object