JPH06241719A - Article position detection device - Google Patents

Article position detection device

Info

Publication number
JPH06241719A
JPH06241719A JP3233593A JP3233593A JPH06241719A JP H06241719 A JPH06241719 A JP H06241719A JP 3233593 A JP3233593 A JP 3233593A JP 3233593 A JP3233593 A JP 3233593A JP H06241719 A JPH06241719 A JP H06241719A
Authority
JP
Japan
Prior art keywords
article
image
displacement
image information
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3233593A
Other languages
Japanese (ja)
Inventor
Tadahiro Tanaka
忠宏 田中
Hirotaka Suzuki
博貴 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daifuku Co Ltd
Original Assignee
Daifuku Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daifuku Co Ltd filed Critical Daifuku Co Ltd
Priority to JP3233593A priority Critical patent/JPH06241719A/en
Publication of JPH06241719A publication Critical patent/JPH06241719A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain an article position detection device which can precisely detect the displacement of an article is even when articles are disposed in series. CONSTITUTION:In an articles position detection device are provided an image taking means 13 for taking an image of an article E and a detection means for detecting the displacement of the article from its setting base state on the basis of the information of a taken image by the image taking means 13. The detection means thus detects the position and orientation of at least one corner of the article E in image taking on the basis of the information about a taken image by the image taking means 13. Accordingly, the displacement of the article E is detected on the basis of the information about the detected position and direction of the corner and about the known size of the article.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、物品を撮像する撮像手
段と、その撮像手段の撮像画像情報に基づいて、前記物
品の設定基準状態に対する変位を検出する検出手段とが
設けられている物品位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is provided with an image pickup means for picking up an image of an article and a detection means for detecting a displacement of the article with respect to a set reference state based on imaged image information of the image pickup means. The present invention relates to a position detection device.

【0002】[0002]

【従来の技術】上記の物品位置検出装置は、例えば、段
積みされた物品を移載する移載装置に用いられる。この
場合、物品を的確に移載するためには、物品の設定基準
状態に対する変位を正確に測定する必要がある。ここ
で、設定基準状態とは、物品の基準点(例えば中心点)
が予め設定された基準位置に一致し、且つ、物品の傾き
が予め設定された基準の傾きと一致する状態をいう。従
って、前記変位には、基準点の位置ズレと傾きのズレと
を含む。従来、物品の変位を測定するにおいて、夫々の
物品間に所定の隙間を設けて物品を配置しておき、変位
を測定する対象物品をカメラ等の撮像手段にて撮像を行
っている。つまり、対象物品と隣接する物品とを離間し
て配置したことにより、対象物品のみの画像処理を抽出
することができるものであった。例えば、特開平2−2
69588号公報では、物品に物品の色とコントラスト
のとれる色のテープ等を貼り、そのテープ等からの反射
光を撮像して、物品の変位を測定しているが、この場合
においても、対象物品上に貼ったテープの反射光のみを
抽出するために、対象物品と隣接する物品とを離間して
配置している。又、本出願人が既に提案した特願平4−
213866号では、スリット光を対象物品に照射して
そのスリット光を撮像し、物品の変位を測定している
が、この場合においても、対象物品上のスリット光のみ
を検出するために、対象物品と隣接する物品とを離間し
て配置している。
2. Description of the Related Art The above-mentioned article position detecting apparatus is used, for example, in a transfer apparatus for transferring stacked articles. In this case, in order to transfer the article accurately, it is necessary to accurately measure the displacement of the article with respect to the set reference state. Here, the set reference state is the reference point (for example, the center point) of the article.
Indicates a state in which the item is aligned with a preset reference position and the inclination of the article is aligned with a preset reference slope. Therefore, the displacement includes the displacement of the reference point and the displacement of the inclination. Conventionally, in measuring the displacement of an article, the articles are arranged with a predetermined gap provided between the articles, and the target article whose displacement is to be measured is imaged by an imaging means such as a camera. That is, by arranging the target article and the adjacent article so as to be separated from each other, the image processing of only the target article can be extracted. For example, Japanese Patent Laid-Open No. 2-2
In Japanese Patent Publication No. 69588, a tape or the like having a color having a contrast with the color of the article is attached to the article, and the reflected light from the tape or the like is imaged to measure the displacement of the article. In order to extract only the reflected light of the tape pasted on the target article, the article adjacent to the target article is arranged separately. In addition, Japanese Patent Application No. 4-
In 213866, the target article is irradiated with slit light and the slit light is imaged, and the displacement of the article is measured. However, even in this case, the target article is detected in order to detect only the slit light. And the article adjacent thereto are separated from each other.

【0003】[0003]

【発明が解決しようとする課題】しかしながら上記従来
例では、対象物品と隣接する物品とを離間して配置しな
ければ、物品の変位を検出することができないので、物
品が繋がって配置されてる場合、又は、物品が荷崩れ等
により繋がってしまった場合には、物品の変位を検出す
ることができない、という問題がある。本発明は上記の
実情に鑑みてなされたものであって、その目的は、物品
が繋がって配置されている場合においても、物品の変位
を的確に検出することのできる物品位置検出装置を提供
することにある。
However, in the above-mentioned conventional example, the displacement of the article cannot be detected unless the target article and the adjacent article are arranged apart from each other. Alternatively, when the articles are connected due to a collapse of the load, there is a problem that the displacement of the articles cannot be detected. The present invention has been made in view of the above circumstances, and an object thereof is to provide an article position detection device capable of accurately detecting displacement of articles even when articles are arranged in a linked manner. Especially.

【0004】[0004]

【課題を解決するための手段】本発明の物品位置検出装
置は、物品を撮像する撮像手段と、その撮像手段の撮像
画像情報に基づいて、前記物品の設定基準状態に対する
変位を検出する検出手段とが設けられているものであっ
て、その第1特徴構成は、前記検出手段が、前記撮像手
段の撮像画像情報に基づいて、撮像画像における前記物
品の少なくとも1つの角の位置及び向きを検出し、その
検出された角の位置及び向きと既知の物品の大きさ情報
とに基づいて、前記物品の変位を検出するように構成さ
れている点にある。第2特徴構成は、前記物品における
前記撮像手段の被撮像面に対して、その物品からはみ出
る長さを有するスリット光を投射する投光手段を設け、
前記検出手段が、前記撮像手段の撮像画像情報に基づい
て、前記物品上のスリット光に対応する領域を抽出し
て、撮像画像上における前記物品の角の位置及び向きを
検出するように構成されている点にある。第3特徴構成
は、前記検出手段が、前記投光手段が投光状態にあると
きの撮像画像情報にエッジ強調処理を実行した画像情報
と、前記投光手段が非投光状態にあるときの撮像画像情
報にエッジ強調処理を実行した画像情報とを減算処理
し、その減算処理された画像情報を設定しきい値にて2
値化処理し、その2値化された画像情報から、前記物品
上のスリット光に対応する領域を抽出するように構成さ
れている点にある。
SUMMARY OF THE INVENTION An article position detecting apparatus of the present invention is an image pickup means for picking up an image of an article, and a detecting means for detecting a displacement of the article with respect to a set reference state based on image pickup image information of the image pickup means. In the first characteristic configuration, the detecting means detects the position and orientation of at least one corner of the article in the captured image based on the captured image information of the imaging means. However, the displacement of the article is detected based on the detected position and orientation of the corner and the known size information of the article. According to a second characteristic configuration, a light projecting unit that projects a slit light having a length protruding from the article is provided on an image pickup surface of the image pickup unit of the article,
The detection means is configured to extract a region corresponding to the slit light on the article based on the imaged image information of the imager and detect the position and orientation of the corner of the article on the captured image. There is a point. According to a third characteristic configuration, image information obtained by performing edge enhancement processing on the captured image information when the light projecting means is in the light projecting state by the detecting means, and when the light projecting means is in the non-light projecting state. The captured image information is subtracted from the image information that has been subjected to the edge enhancement processing, and the subtracted image information is set to a threshold value of 2
The point is that the region corresponding to the slit light on the article is extracted from the binarized image information after the binarization process.

【0005】[0005]

【作用】本発明の第1特徴構成によれば、例えば、パレ
ット上に段積みされた物品を移載する移載装置におい
て、物品の配置パターンと物品の大きさとを入力する
と、先ず、段積みされた物品の最上の段の物品のうち端
に位置する物品を選択し、その選択された物品上にカメ
ラ等の撮像手段を移動して撮像を行う。そして、その撮
像画像情報に基づいて、例えば、画像上の輝度変化より
繋がった物品のない側の少なくとも2つの辺を検出(エ
ッジ検出)し、その検出された辺の位置に基づいて繋が
った物品のない側の少なくとも1つの角の位置及び向き
を検出する。そして、その検出された角の位置及び向き
と実際の物品の大きさとに基づいて、物品の変位を検出
することができる。よって、その検出された変位に基づ
いて移載装置を操作して物品の移載作業を行うことがで
きる。第2特徴構成によれば、投光手段にてスリット光
を投光し、その画像を撮像手段にて撮像すると、投光手
段と撮像手段の位置が撮像画像のx軸方向及びy軸方向
にズレているため、繋がった物品のない方側では、物品
上と物品外とでスリット光に横ズレが生じる。従って、
このスリット光の横ズレの位置に基づいて、物品上のス
リット光に対応する領域を抽出して、撮像画像上におけ
る物品の少なくとも1つの角の位置及び向きを検出する
ことができる。第3特徴構成によれば、例え物品上に文
字等の模様があっても、投光状態にあるときの撮像画像
情報にエッジ強調処理を実行した画像情報と、非投光状
態にあるときの撮像画像情報にエッジ強調処理を実行し
た画像情報とを減算処理し、その減算処理された画像情
報を設定しきい値にて2値化処理することにより、物品
上の模様及び物品外形を消去したスリット光のみの画像
を抽出することができる。そして、その抽出されたスリ
ット光の画像情報に基づいて、スリット光の横ズレの位
置を検出し、更に物品上のスリット光に対応する領域を
抽出して、撮像画像上における物品の少なくとも1つの
角の位置及び向きを検出することができる。
According to the first characteristic configuration of the present invention, for example, in a transfer device for transferring articles stacked on a pallet, when the arrangement pattern of the articles and the size of the articles are input, first, the stacking is performed. The article located at the end is selected from the articles in the uppermost row of the selected articles, and an image pickup means such as a camera is moved onto the selected article to perform image pickup. Then, based on the captured image information, for example, at least two sides on the side where there is no connected article due to a change in luminance on the image are detected (edge detection), and the connected article is based on the position of the detected side. Detect the position and orientation of at least one corner on the non-existent side. Then, the displacement of the article can be detected based on the detected position and orientation of the corner and the actual size of the article. Therefore, based on the detected displacement, the transfer device can be operated to transfer the article. According to the second characteristic configuration, when the slit light is projected by the light projecting unit and the image thereof is captured by the image capturing unit, the positions of the light projecting unit and the image capturing unit are in the x-axis direction and the y-axis direction of the captured image. Since there is a deviation, the slit light has a lateral deviation on the outside of the article on the side where there is no connected article. Therefore,
Based on the position of the lateral deviation of the slit light, it is possible to extract the area corresponding to the slit light on the article and detect the position and orientation of at least one corner of the article on the captured image. According to the third characteristic configuration, even if there is a pattern such as characters on the article, the image information obtained by performing the edge enhancement processing on the captured image information in the light projecting state and the image information in the non-light projecting state The pattern on the article and the article outline are erased by subtracting the captured image information from the image information on which the edge enhancement processing has been performed, and binarizing the subtracted image information with a set threshold value. It is possible to extract an image of only slit light. Then, based on the image information of the extracted slit light, the position of the lateral deviation of the slit light is detected, and the area corresponding to the slit light on the article is further extracted, so that at least one of the articles on the captured image is detected. The position and orientation of the corner can be detected.

【0006】[0006]

【発明の効果】上記第1特徴構成によれば、繋がった物
品のない側の角を少なくとも1つ検出し、その角の位置
及び向きと物品の実際の大きさとに基づいて、物品の変
位を検出することができるので、物品が繋がって配置さ
れている場合においても、物品の変位を検出することの
できる物品位置検出装置を提供するに至った。第2特徴
構成によれば、スリット光の横ズレの位置に基づいて、
撮像画像上における物品の少なくとも1つの角の位置及
び向きを検出することができるので、よって、物品が繋
がって存在する場合においても、スリット光を利用して
物品の変位を的確に検出することができるに至った。第
3特徴構成によれば、物品上の文字等の模様を消去して
物品の変位を検出することができるので、物品上に模様
がある場合においても、物品の変位を的確に検出するこ
とができるに至った。
According to the first characteristic configuration, at least one corner on the side where there is no connected article is detected, and the displacement of the article is determined based on the position and orientation of the corner and the actual size of the article. Since it is possible to detect, it is possible to provide an article position detecting device that can detect the displacement of the article even when the articles are arranged in a linked manner. According to the second characteristic configuration, based on the position of the lateral deviation of the slit light,
Since the position and orientation of at least one corner of the article on the captured image can be detected, it is therefore possible to accurately detect the displacement of the article using the slit light even when the articles are connected and present. I was able to do it. According to the third characteristic configuration, it is possible to delete the pattern of characters or the like on the article and detect the displacement of the article. Therefore, even when there is a pattern on the article, the displacement of the article can be accurately detected. I was able to do it.

【0007】[0007]

【実施例】以下、本発明の物品位置検出装置を、段積み
された物品を移載する移載装置に適用した実施例を図面
に基づいて説明する。図10に示すように、所定位置に
あるパレット1上に段積みされた物品Eを、コンベア2
上に移載する移載装置が設けられている。移載装置につ
いて簡単に説明を加えると、ベースフレーム3に対して
縦軸芯α回りに旋回自在に枢支された旋回フレーム4
と、その旋回フレーム4の上部に横軸芯φ1回りに揺動
自在に枢支された第1アーム5と、その第1アーム5の
先端部に横軸芯φ2回りに揺動自在に枢支された第2ア
ーム6と、その第2アーム6の先端部の縦軸芯β回りに
回動自在に吊着された物品支持具7とが設けられてい
る。図中8は、移載装置の作動を制御するコントローラ
である。物品支持具7は、第1アーム5及び第2アーム
6の揺動に関わらず水平に維持されるように構成されて
いる。つまり、物品支持具7を水平に維持した状態で昇
降並びに水平移動させることができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the article position detecting apparatus of the present invention is applied to a transfer apparatus for transferring stacked articles will be described with reference to the drawings. As shown in FIG. 10, the articles E stacked on the pallet 1 at a predetermined position are transferred to the conveyor 2
A transfer device for transferring on top is provided. A brief description of the transfer device will be given. The turning frame 4 is pivotally supported about the vertical axis α with respect to the base frame 3.
A first arm 5 pivotally supported on an upper portion of the revolving frame 4 about a horizontal axis φ1, and a tip end portion of the first arm 5 pivotally supported about a horizontal axis φ2. The second arm 6 is provided, and the article supporter 7 is rotatably suspended around the longitudinal axis β of the tip end portion of the second arm 6. Reference numeral 8 in the drawing is a controller for controlling the operation of the transfer device. The article support 7 is configured to be maintained horizontally regardless of the swing of the first arm 5 and the second arm 6. That is, it is possible to move up and down and move horizontally while keeping the article support 7 horizontal.

【0008】図9に示すように、物品支持具7には、物
品Eの上面を吸着支持する複数の吸着パッド10と、吸
着パッド10に吸着支持された物品Eを挟持する挟持部
11と、物品Eに対して上方から投光する投光手段とし
ての投光部12と、物品Eを撮像する撮像手段としての
撮像部13と、物品Eとの距離を測定する距離センサ1
4とが取り付けられている。
As shown in FIG. 9, the article support 7 includes a plurality of suction pads 10 for suctioning and supporting the upper surface of the article E, and a holding portion 11 for holding the article E sucked and supported by the suction pad 10. A light emitting unit 12 as a light emitting unit that emits light from above the article E, an image capturing unit 13 as an image capturing unit that captures an image of the article E, and a distance sensor 1 that measures the distance between the article E.
4 and are attached.

【0009】パレット1上に載置される物品Eの配置パ
ターンは、物品Eの大きさ等により変化するが、各パタ
ーンには夫々パターンコードが定められている。このパ
ターンコードと物品Eの幅w,奥行きdとをコントロー
ラ8に入力すると、コントローラ8は、最上段の端の物
品Eより予め定められた順序で物品Eをコンベア2上に
移載する。
The arrangement pattern of the articles E placed on the pallet 1 changes depending on the size of the articles E and the like, but a pattern code is defined for each pattern. When the pattern code and the width w and the depth d of the article E are input to the controller 8, the controller 8 transfers the articles E on the conveyor 2 in a predetermined order from the article E at the uppermost end.

【0010】投光部12は、図1に示すように、物品E
における撮像部13の被撮像面に対して、その物品Eか
らはみ出る長さを有する直線スリット光を3本照射する
3個のレーザにて構成されている。そして、これら3本
のスリット光夫々が投光状態と非投光状態とに自在に切
り換えられるように構成されている。尚、物品Eにおけ
る撮像部13の被撮像面は、矩形状をしているものとす
る。又、スリット光L1,L3が撮像部13の画像のy
軸方向と一致し、且つ、スリット光L2が画像のx軸方
向と一致するように、投光部12及び撮像部13が設け
られている。
As shown in FIG. 1, the light projecting section 12 is provided with an article E.
It is composed of three lasers that irradiate the surface to be imaged of the imaging unit 13 in 3 with three linear slit lights having a length protruding from the article E. Then, each of these three slit lights is configured to be freely switchable between a light projecting state and a non-light projecting state. The surface to be imaged of the imaging unit 13 of the article E is assumed to be rectangular. In addition, the slit lights L1 and L3 are y in the image of the imaging unit 13.
The light projecting unit 12 and the imaging unit 13 are provided so as to match the axial direction and the slit light L2 to match the x-axis direction of the image.

【0011】撮像部13の画像情報は、コントローラ8
に入力される。コントローラ8は、撮像部13の撮像画
像情報に基づいて、撮像画像上のスリット光に対応する
領域を抽出して、その抽出した撮像画像上のスリット光
に対応する領域のうち物品E(E1,E2,E3,E
4)上のスリット光の領域を検出する。そして、その検
出されたスリット光の領域において、物品E1上のスリ
ット光の繋がった物品のない方側の端点の位置座標を求
め、その位置座標と既知の物品Eの大きさとに基づい
て、物品Eの角4個の位置座標を検出して、物品Eの設
定基準状態に対する変位を検出するように構成されてい
る。従って、コントローラ8は、物品Eの設定基準状態
に対する変位を検出する検出手段として機能する。
The image information of the image pickup section 13 is stored in the controller 8
Entered in. The controller 8 extracts the region corresponding to the slit light on the captured image based on the captured image information of the image capturing unit 13, and selects the article E (E1, E1, among the regions corresponding to the slit light on the extracted captured image. E2, E3, E
4) Detect the upper slit light area. Then, in the area of the detected slit light, the position coordinates of the end point on the side of the article E1 where the slit light is not connected are found, and based on the position coordinates and the known size of the article E, the article The position coordinates of the four corners of E are detected to detect the displacement of the article E relative to the set reference state. Therefore, the controller 8 functions as a detection unit that detects the displacement of the article E with respect to the set reference state.

【0012】先ず、コントローラ8が、撮像部13の撮
像画像情報に基づいて、撮像画像上のスリット光に対応
する領域のみを抽出する抽出方法について説明する。図
7のフローチャートに示すように、撮像部13は、先
ず、投光部12が非投光状態にあるときの画像を撮像す
る。この画像にエッジ強調処理を行うと、図2に示す画
像Z0が得られる。この画像Z0には、図に示す如く、
最上の段の物品E(E1,E2,E3,E4)の画像が
撮像されている。次に、撮像部13は、投光部12がス
リット光L1,L2,L3を投光する投光状態にあると
きの画像を撮像する。この画像情報にエッジ強調処理を
行うと、図3に示す画像Z1が得られる。そして、図3
の画像Z1と図2の画像Z0とを減算処理し、その減算
処理された画像情報を設定しきい値にて2値化処理を行
うと、図4に示すような画像画像上のスリット光に対応
する領域のみが抽出される。つまり、この減算処理によ
って、画像上における物品Eの外形及び物品E上の文字
(又は模様)を消去することができる。尚、上記撮像部
13の撮像及び投光部12の投光は、距離センサ14に
て検出される物品Eとの距離が所定の値を示す状態で行
われるものとする。
First, an extraction method will be described in which the controller 8 extracts only the area corresponding to the slit light on the captured image based on the captured image information of the image capturing section 13. As shown in the flowchart of FIG. 7, the imaging unit 13 first captures an image when the light projecting unit 12 is in the non-light projecting state. When the edge enhancement process is performed on this image, an image Z0 shown in FIG. 2 is obtained. In this image Z0, as shown in the figure,
Images of the articles E (E1, E2, E3, E4) on the uppermost stage are captured. Next, the image capturing unit 13 captures an image when the light projecting unit 12 is in a light projecting state in which the slit lights L1, L2, L3 are projected. When the edge enhancement processing is performed on this image information, an image Z1 shown in FIG. 3 is obtained. And FIG.
Image Z1 of FIG. 2 and the image Z0 of FIG. 2 are subjected to subtraction processing, and the subtracted image information is subjected to binarization processing with a set threshold value, resulting in slit light on the image image as shown in FIG. Only the corresponding areas are extracted. That is, this subtraction processing can erase the outer shape of the article E and the characters (or pattern) on the article E on the image. The image capturing by the image capturing unit 13 and the light projecting by the light projecting unit 12 are performed in a state where the distance to the article E detected by the distance sensor 14 shows a predetermined value.

【0013】上記エッジ強調処理を、図8のフローチャ
ートにて説明する。エッジ強調処理では、先ず、撮像部
13の撮像画像情報をキルシュのエッジ強調を行った
後、メディアンフィルタにてノイズ除去を行って、ヒス
トグラムを作成し、このヒストグラムに基づいてしきい
値を決定し、そのしきい値にて2値化処理を行う。その
後、再度ノイズ除去を行って、細線化を行うように構成
されている。
The above edge enhancement processing will be described with reference to the flowchart of FIG. In the edge enhancement processing, first, the captured image information of the image capturing unit 13 is subjected to Kirsch edge enhancement, noise is removed by a median filter, a histogram is created, and a threshold value is determined based on this histogram. , The binarization processing is performed with the threshold value. After that, noise removal is performed again, and thinning is performed.

【0014】次に、コントローラ8が、上記の如く抽出
した撮像画像上のスリット光に対応する領域のうち、物
品E(E1,E2,E3,E4)上のスリット光の領域
を抽出する抽出方法について説明する。減算処理後2値
化した画像図4において、距離センサ14により物品E
と撮像手段13及び投光手段12との距離が常に一定と
なるように構成されているので、物品E上のスリット光
L1,L2,L3の位置は既知となる。これに対し、物
品E(E1,E2,E3,E4)外のスリット光は、物
品E上のスリット光に対し横方向のズレを生じる。これ
は、投光手段12が、撮像手段13に対し画像のx軸方
向及びy軸方向に所定の変位をもって設けられているた
めである。従って、上記の如く既知の位置のスリット光
を抽出すれば、図4のスリット光のうちT1,T2,T
3を除いた領域が、物品E(E1,E2,E3,E4)
上のスリット光として抽出される。尚、図4に示すよう
に、上記抽出された物品E(E1,E2,E3,E4)
上のスリット光において多数存在する隙間は、画像減算
処理において生じたものであり、スリット光と物品E上
の文字との交点又はスリット光と物品Eの外形との交点
を示している。
Then, the controller 8 extracts the slit light area on the article E (E1, E2, E3, E4) from the area corresponding to the slit light on the picked-up image extracted as described above. Will be described. Image binarized after subtraction processing In FIG.
Since the distances between the imaging means 13 and the light projecting means 12 are always constant, the positions of the slit lights L1, L2, L3 on the article E are known. On the other hand, the slit light outside the article E (E1, E2, E3, E4) causes a lateral shift with respect to the slit light on the article E. This is because the light projecting means 12 is provided with a predetermined displacement in the x-axis direction and the y-axis direction of the image with respect to the image pickup means 13. Therefore, if the slit light at the known position is extracted as described above, T1, T2, T of the slit light in FIG.
The area excluding 3 is the article E (E1, E2, E3, E4)
It is extracted as the upper slit light. In addition, as shown in FIG. 4, the extracted articles E (E1, E2, E3, E4)
A large number of gaps in the upper slit light are generated in the image subtraction processing, and indicate the intersections of the slit light and the characters on the article E or the intersections of the slit light and the outer shape of the article E.

【0015】次に、コントローラ8が、上記の如く抽出
した物品E(E1,E2,E3,E4)上のスリット光
のうち物品E1上のスリット光の繋がった物品のない方
側の端点を検出する検出方法について説明する。3本の
スリット光の端点(図中●印)のうち、夫々のスリット
光における最大及び最小の位置の端点を抽出すると、端
点P1,P2,P5,R1,R2,R3(図中●印と□
印)の計6点が抽出される。その抽出された6点のう
ち、各スリット光の交点Q1,Q2夫々の位置に近い端
点3を抽出すると、端点P1,P2,P5(図中○印)
が検出される。つまり、この端点P1,P2,P5が、
物品E1上のスリット光の繋がった物品のない方側の端
点となる。
Next, the controller 8 detects the end point of the slit light on the article E (E1, E2, E3, E4) extracted as described above on the side without the article connected to the slit light on the article E1. The detection method to be performed will be described. When the end points at the maximum and minimum positions in each slit light are extracted from the end points of the three slit lights (marked with ● in the figure), the end points P1, P2, P5, R1, R2, R3 (marked with ● in the figure) are extracted. □
A total of 6 points (marked) are extracted. When the end points 3 near the positions of the intersections Q1 and Q2 of the slit lights are extracted from the extracted six points, the end points P1, P2, and P5 (circle marks in the figure)
Is detected. That is, the end points P1, P2, P5 are
It is the end point on the side of the article E1 where the slit light is not connected to the article.

【0016】次に、コントローラ8が、上記端点P1,
P2,P5の位置座標と物品E1の大きさとに基づい
て、物品E1上のスリット光を検出する検出方法につい
て説明する。端点P1,P5の座標を(X1,Y1),
(X5,Y5)とすると、この端点P1,P5を通る辺
は、下記数1に示す直線にて表される。
Next, the controller 8 causes the end points P1,
A detection method for detecting slit light on the article E1 based on the position coordinates of P2 and P5 and the size of the article E1 will be described. The coordinates of the end points P1 and P5 are (X1, Y1),
Assuming that (X5, Y5), the side passing through the end points P1 and P5 is represented by the straight line shown in the following expression 1.

【数1】y=a(x−X1)+Y1 但し、a=(Y5−Y1)/(X5−X1)である。
又、端点P(X2,Y2)を通る辺は、下記数2に示す
直線にて表される。
## EQU1 ## y = a (x-X1) + Y1 However, a = (Y5-Y1) / (X5-X1).
The side passing through the end point P (X2, Y2) is represented by the straight line shown in the following Expression 2.

【数2】y=a(1/a)×(X2−x)+Y2 上記数1,数2及び物品Eの大きさ(幅w,奥行きd)
より、その他の2辺は、下記数3に示す直線にて表され
る。
[Mathematical formula-see original document] y = a (1 / a) * (X2-x) + Y2 [mathematical formula-see original document] The size of equation 1 and equation 2 and the size of the article E (width w, depth d)
Therefore, the other two sides are represented by the straight lines shown in the following Expression 3.

【数3】y=a(x−X1)+w’ y=(1/a)×(X2−x−d’)+Y2 但し、w’=w/(cos(a)),d’=d/(co
s(a))である。上記数3の2本の直線上にある端点
を、図4の端点(図中●印)の中より選択すると、端点
P3,P4,P6(図中△印)が検出される。従って、
端点P1〜P6にて囲まれる領域のスリット光が、物品
E1上のスリット光となる。
Y = a (x−X1) + w ′ y = (1 / a) × (X2−x−d ′) + Y2 where w ′ = w / (cos (a)), d ′ = d / (Co
s (a)). When the end points on the two straight lines of the above equation 3 are selected from the end points (marked by ● in the figure) in FIG. 4, the end points P3, P4, P6 (marked by Δ in the figure) are detected. Therefore,
The slit light in the area surrounded by the end points P1 to P6 becomes the slit light on the article E1.

【0017】次に、コントローラ8が、物品E1上のス
リット光の端点P1〜P6の位置座標に基づいて、図4
に示すように、撮像画像上における物品Eの角A,B,
C,Dの位置座標を算出する算出方法について説明す
る。物品E上のスリット光の領域の端点P1〜P6の位
置座標を夫々(X1,Y1),(X2,Y2),(X
3,Y3),(X4,Y4),(X5,Y5),(X
6,Y6)とすると、物品Eの傾きaを下記数4にて算
出する。
Next, the controller 8 determines the position coordinates of the end points P1 to P6 of the slit light on the article E1 as shown in FIG.
As shown in, the corners A, B, and B of the article E on the captured image
A calculation method for calculating the position coordinates of C and D will be described. The position coordinates of the end points P1 to P6 of the slit light area on the article E are (X1, Y1), (X2, Y2), (X
3, Y3), (X4, Y4), (X5, Y5), (X
6, Y6), the inclination a of the article E is calculated by the following formula 4.

【数4】a=(Y5−Y1)/(X5−X1) =(Y6−Y3)/(X6−X3) そして、直線AB,DC,BC,ADを示す方程式夫々
を、下記数5の様に設定する。
## EQU00004 ## a = (Y5-Y1) / (X5-X1) = (Y6-Y3) / (X6-X3) Then, the equations showing the straight lines AB, DC, BC, and AD are expressed by the following equation 5. Set to.

【数5】AB:y=(x−X1)+Y1 DC:y=(x−X3)+Y3 BC:y=(X2−x)/a+Y2 AD:y=(X4−x)/a+Y4## EQU5 ## AB: y = (x-X1) + Y1 DC: y = (x-X3) + Y3 BC: y = (X2-x) / a + Y2 AD: y = (X4-x) / a + Y4

【0018】よって、上記数5の方程式より各直線の交
点を求めることにより、下記数6の如く、撮像画像上に
おける物品Eの角A,B,C,Dの位置座標を求める。
Therefore, the position coordinates of the corners A, B, C, D of the article E on the picked-up image are obtained by obtaining the intersections of the straight lines from the equation of the above equation 5, as shown in the following equation 6.

【数6】 角A=((aY4−aY1+a2 X1+X4)/(a2 +1), (a2 Y4+Y1+aX4−aX1)/(a2 +1)) 角B=((aY2−aY1+a2 X1+X2)/(a2 +1), (a2 Y2+Y1+aX2−aX1)/(a2 +1)) 角C=((aY2−aY3+a2 X3+X2)/(a2 +1), (a2 Y2+Y3+aX2−aX3)/(a2 +1)) 角D=((aY4−aY3+a2 X3+X4)/(a2 +1), (a2 Y4+Y3+aX4−aX3)/(a2 +1))[6] angle A = ((aY4-aY1 + a 2 X1 + X4) / (a 2 +1), (a 2 Y4 + Y1 + aX4-aX1) / (a 2 +1)) angle B = ((aY2-aY1 + a 2 X1 + X2) / (a 2 +1), (a 2 Y2 + Y1 + aX2-aX1) / (a 2 +1)) angle C = ((aY2-aY3 + a 2 X3 + X2) / (a 2 +1), (a 2 Y2 + Y3 + aX2-aX3) / (a 2 +1)) angle D = ((aY4-aY3 + a 2 X3 + X4) / (a 2 +1), (a 2 Y4 + Y3 + aX4-aX3) / (a 2 +1))

【0019】更に、コントローラ8は、角A,B,C,
Dの位置座標に基づいて、撮像画像上における物品Eの
中心点の座標を算出し、この中心点の座標の画面の中心
点に対するx軸方向及びy軸方向の位置ズレΔx,Δy
を算出する。つまり、物品Eの設定基準状態に対する変
位を求める。尚、このときの位置ズレΔx,Δyを算出
する式は省略する。
Further, the controller 8 has the corners A, B, C,
The coordinates of the center point of the article E on the captured image are calculated based on the position coordinates of D, and the positional deviations Δx and Δy of the coordinates of the center point with respect to the center point of the screen in the x-axis direction and the y-axis direction.
To calculate. That is, the displacement of the article E with respect to the set reference state is obtained. The equations for calculating the positional deviations Δx and Δy at this time are omitted.

【0020】次に、図6のフローチャートを参照しなが
ら、コントローラ8の作動を説明する。先ず、入力され
たパターンコードに基づいて、移載する物品Eを定め、
その物品Eに対応した所定位置に物品支持具7を移動す
る。距離センサ14にて検出される物品Eとの距離が一
定になるように物品支持具7の位置を修正して、投光部
12及び撮像部13を操作し、撮像部13からの情報に
基づいて、前述のように物品Eの変位を求める。次に、
求めた変位に合わせて、物品支持具7の位置を補正す
る。そして、物品支持具7を下降させ、吸着パッド10
と挟持部11を保持状態にして、物品Eを保持する。物
品Eを保持したまま物品支持具7をコンベア2に移動す
る。物品支持具7を下降させ、吸着パッド10と挟持部
11を保持解除状態にする。もって、一回の移載作動が
終了する。以上の動作を移載の完了まで繰り返す。
Next, the operation of the controller 8 will be described with reference to the flowchart of FIG. First, the article E to be transferred is determined based on the input pattern code,
The article support 7 is moved to a predetermined position corresponding to the article E. The position of the article support 7 is corrected so that the distance to the article E detected by the distance sensor 14 becomes constant, the light projecting unit 12 and the image capturing unit 13 are operated, and based on the information from the image capturing unit 13. Then, the displacement of the article E is obtained as described above. next,
The position of the article support 7 is corrected according to the obtained displacement. Then, the article support tool 7 is lowered, and the suction pad 10
The holding section 11 is brought into a holding state to hold the article E. The article support 7 is moved to the conveyor 2 while holding the article E. The article support 7 is lowered to bring the suction pad 10 and the holding portion 11 into the holding release state. Therefore, one transfer operation is completed. The above operation is repeated until the transfer is completed.

【0021】〔別実施例〕 上記実施例では、エッジ強調処理におけるエッジ強
調に、キルシュを用いているが、その他の方法、例え
ば、ソーベル,プレウィット,ロバーツ等の方法を用い
ても良い。 上記実施例では、物品Eの上方より投光及び撮像を
行って、上方より見た物品Eの変位を検出するように構
成されているが、物品Eの側面より見た変位を検出する
必要がある場合には、物品Eの側面より投光及び撮像を
行って、側面より見た物品Eの変位を検出するようにし
ても良い。 上記実施例では、物品E1上のスリット光の端点P
1,P2,P5の位置座標に基づいて端点P3,P4,
P6を検出し、この端点P1〜P6の位置座標に基づい
て物品E1の角A,B,C,Dの位置座標を検出してい
るが、端点P3,P4,P6を検出することができない
場合には、端点P1,P2,P5の位置座標に基づいて
角Bの位置及び方向を検出し、この角Bの位置及び方向
に基づいて残りの角A,C,Dを検出するようにしても
良い。つまり、上記実施例の数1の直線と数2の直線と
の交点を求めて角Bの位置座標を算出し、その角Bの位
置より数1の直線(直線AB)上の角A及び数2の直線
(直線BC)上の角Cを物品E1の幅w,奥行きdによ
り求める。そして、この角Aを通り数1の直線に対し垂
直な直線(直線AD)と、角Cを通り数2の直線に垂直
な直線(直線CD)との交点を求めて、角Dを検出する
ようにしても良い。このようにして、物品E1上のスリ
ット光の端点P3,P4,P6を検出することができな
くても、物品E1上のスリット光の繋がった物品がない
方側の端点P1,P2,P5を検出することができれ
ば、物品Eの変位を検出することができる。尚、この方
法は、物品Eの傾きが小さい場合、つまり、スリット光
の端点P1,P2,P5のうち、P1,P2が物品Eの
長辺上に位置し、P5が短辺上に位置する場合に、適用
することができるものである。従って、例えば、物品E
が大きく傾いて、P1,P2,P5の3点夫々が別の辺
上に位置する場合、又は、物品Eが更に大きく傾いて、
P1,P2が短辺上に位置し、且つ、P5が長辺上に位
置する場合には、物品の変位を検出することができない
こととなる。ただし、物品Eが正方形の場合には、物品
Eが大きく傾いても、P1,P2が同一辺上にあれば、
端点P1,P2,P5の位置より、物品の変位を検出す
ることができる。 上記実施例では、投光手段が投光状態にあるときの
撮像画像と、投光手段が非投光状態にあるときの撮像画
像とに基づいて、物品Eの変位を検出しているが、投光
手段が投光状態にあるときの撮像画像(図3)のみに基
づいて、物品Eの変位を検出するようにしても良い。つ
まり、図3の撮像画像において、物品E1上のスリット
光が位置する領域(既知)のみを抽出し、その領域にお
けるスリット光の端点よりP1,P2,P5を検出する
ようにして、その端点P1,P2,P5の位置座標よ
り、物品Eの変位を検出するようにしても良い。又、投
光手段が非投光状態にあるときの撮像画像のみに基づい
て、物品Eの変位を検出するようにしても良い。例え
ば、非投光状態にあるときの撮像画像にエッジ強調処理
を行って物品E1の辺AB及び辺BCに対応するエッジ
(繋がった物品Eのない方側のエッジ)を検出し、この
検出されたエッジの位置より角Bの位置及び方向を検出
し、この角Bの位置及び方向と物品Eの大きさとに基づ
いて残りの角A,C,Dの位置座標を検出するようにし
ても良い。つまり、繋がった物品Eのない方側の辺は、
繋がった物品Eのある方側の辺に比べて比較的抽出し易
いので、画像処理にて、繋がった物品Eのない方側の辺
を抽出することができれば、物品Eの変位を検出するこ
とができる。 上記実施例では、撮像部13の撮像及び投光部12
の投光は、距離センサ14にて検出される物品Eとの距
離が所定の値を示す状態で行われており、これによっ
て、物品E上のスリット光が画面上所定の位置に来るよ
うにして、物品E上のスリット光を抽出するように構成
されているが、下記に示すように、距離センサ14を廃
止して物品E上のスリット光を抽出するようにしても良
い。図4に示すような撮像画像上のスリット光に対応す
る領域のうち、図11に示すように、所定の範囲Fにお
いてx軸方向及びy軸方向のヒストグラムを作成し、そ
のx軸方向のヒストグラムにおける最大値(f1)を示
す領域、及び、y軸方向のヒストグラムにおける最大値
(f2)と最大値の次に大きな値(f3)とを示す領域
を抽出して、物品E上のスリット光を抽出するようにし
ても良い。これにより、距離センサ14を設けなくて
も、撮像画像における物品E上のスリット光を抽出する
ことができる。
[Other Embodiments] In the above embodiment, the Kirsch is used for edge enhancement in the edge enhancement processing, but other methods such as Sobel, Prewitt, and Roberts may be used. In the above-described embodiment, light is projected and imaged from above the article E to detect the displacement of the article E viewed from above, but it is necessary to detect the displacement of the article E viewed from the side. In some cases, the side surface of the article E may be projected and imaged to detect the displacement of the article E viewed from the side surface. In the above embodiment, the end point P of the slit light on the article E1 is
Based on the position coordinates of 1, P2, P5, the end points P3, P4,
When P6 is detected and the position coordinates of the corners A, B, C and D of the article E1 are detected based on the position coordinates of the end points P1 to P6, but the end points P3, P4 and P6 cannot be detected. In addition, the position and direction of the corner B are detected based on the position coordinates of the end points P1, P2 and P5, and the remaining corners A, C and D are detected based on the position and direction of the corner B. good. That is, the position coordinates of the angle B are calculated by obtaining the intersection of the straight line of the formula 1 and the straight line of the formula 2 in the above-described embodiment, and the angle A and the number on the straight line (straight line AB) of the formula 1 are calculated from the position of the angle B. The angle C on the second straight line (straight line BC) is obtained from the width w and the depth d of the article E1. Then, the intersection point of a straight line (straight line AD) that passes through the angle A and is perpendicular to the straight line of the number 1 and a straight line (straight line CD) that passes through the angle C and is perpendicular to the straight line of the number 2 is detected, and the angle D is detected. You may do it. In this way, even if the end points P3, P4, P6 of the slit light on the article E1 cannot be detected, the end points P1, P2, P5 on the side where there is no article connected to the slit light on the article E1 are detected. If it can be detected, the displacement of the article E can be detected. In this method, when the inclination of the article E is small, that is, among the end points P1, P2, P5 of the slit light, P1 and P2 are located on the long side of the article E and P5 is located on the short side. This is what can be applied in some cases. Thus, for example, the article E
Is greatly inclined, and each of the three points P1, P2, and P5 is located on another side, or the article E is further inclined,
When P1 and P2 are located on the short side and P5 is located on the long side, the displacement of the article cannot be detected. However, in the case where the article E is a square, even if the article E is greatly inclined, if P1 and P2 are on the same side,
The displacement of the article can be detected from the positions of the end points P1, P2, P5. In the above embodiment, the displacement of the article E is detected based on the captured image when the light projecting means is in the light projecting state and the captured image when the light projecting means is in the non-light projecting state. The displacement of the article E may be detected based only on the captured image (FIG. 3) when the light projecting means is in the light projecting state. That is, in the captured image of FIG. 3, only the area (known) where the slit light is located on the article E1 is extracted, and P1, P2, and P5 are detected from the end points of the slit light in the area, and the end point P1 is detected. , P2, P5 may be used to detect the displacement of the article E. Further, the displacement of the article E may be detected based only on the captured image when the light projecting means is in the non-light projecting state. For example, edge enhancement processing is performed on the captured image in the non-illuminated state to detect edges corresponding to the sides AB and BC of the article E1 (edge on the side without the connected article E), and this is detected. The position and direction of the corner B may be detected from the position of the edge, and the position coordinates of the remaining corners A, C, and D may be detected based on the position and direction of the corner B and the size of the article E. . In other words, the side without the connected article E is
Since the extraction is relatively easier than the side of the connected article E, the displacement of the article E should be detected if the side of the connected article E without the connection E can be extracted. You can In the above-described embodiment, the image capturing and projecting unit 12 of the image capturing unit 13 is used.
Is performed in a state where the distance to the article E detected by the distance sensor 14 shows a predetermined value, so that the slit light on the article E comes to a predetermined position on the screen. Although the slit light on the article E is extracted, the distance sensor 14 may be omitted and the slit light on the article E may be extracted as described below. Of the area corresponding to the slit light on the captured image as shown in FIG. 4, a histogram in the x-axis direction and a y-axis direction is created in a predetermined range F as shown in FIG. 11, and the histogram in the x-axis direction is created. Of the slit light on the article E is extracted by extracting a region showing the maximum value (f1) in (1) and a region showing the maximum value (f2) and the next largest value (f3) in the histogram in the y-axis direction. You may make it extract. Thereby, the slit light on the article E in the captured image can be extracted without providing the distance sensor 14.

【0022】尚、特許請求の範囲の項に図面との対照を
便利にするために符号を記すが、該記入により本発明は
添付図面の構成に限定されるものではない。
It should be noted that reference numerals are given in the claims for convenience of comparison with the drawings, but the present invention is not limited to the configurations of the accompanying drawings by the entry.

【図面の簡単な説明】[Brief description of drawings]

【図1】物品位置検出装置の斜視図FIG. 1 is a perspective view of an article position detection device.

【図2】画像処理の説明図FIG. 2 is an explanatory diagram of image processing.

【図3】画像処理の説明図FIG. 3 is an explanatory diagram of image processing.

【図4】画像処理の説明図FIG. 4 is an explanatory diagram of image processing.

【図5】変位検出の原理説明図FIG. 5 is an explanatory diagram of the principle of displacement detection.

【図6】制御作動のフローチャートFIG. 6 is a flowchart of control operation.

【図7】画像処理のフローチャートFIG. 7 is a flowchart of image processing.

【図8】エッジ強調処理のフローチャートFIG. 8 is a flowchart of edge enhancement processing.

【図9】物品支持具の要部側面図FIG. 9 is a side view of a main part of the article support tool.

【図10】移載装置の側面図FIG. 10 is a side view of the transfer device.

【図11】別実施例に係る画像処理の説明図FIG. 11 is an explanatory diagram of image processing according to another embodiment.

【符号の説明】[Explanation of symbols]

8 検出手段 12 投光手段 13 撮像手段 C 物品 L1,L2,L3 スリット光 8 Detection means 12 Projection means 13 Imaging means C Articles L1, L2, L3 Slit light

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 物品(E)を撮像する撮像手段(13)
と、その撮像手段(13)の撮像画像情報に基づいて、
前記物品(E)の設定基準状態に対する変位を検出する
検出手段(8)とが設けられている物品位置検出装置で
あって、 前記検出手段(8)は、 前記撮像手段(13)の撮像画像情報に基づいて、撮像
画像における前記物品(E)の少なくとも1つの角の位
置及び向きを検出し、 その検出された角の位置及び向きと既知の物品の大きさ
情報とに基づいて、前記物品(E)の変位を検出するよ
うに構成されている物品位置検出装置。
1. An image pickup means (13) for picking up an image of an article (E).
And based on the imaged image information of the imaging means (13),
An article position detection device comprising: a detection means (8) for detecting a displacement of the article (E) with respect to a set reference state, wherein the detection means (8) is a captured image of the imaging means (13). Based on the information, the position and orientation of at least one corner of the article (E) in the captured image is detected, and the article based on the detected position and orientation of the corner and the known size information of the article. (E) An article position detection device configured to detect the displacement.
【請求項2】 前記物品(E)における前記撮像手段
(13)の被撮像面に対して、その物品(E)からはみ
出る長さを有するスリット光(L1,L2,L3)を投
射する投光手段(12)を設け、 前記検出手段(8)は、 前記撮像手段(13)の撮像画像情報に基づいて、前記
物品(E)上のスリット光に対応する領域を抽出して、
撮像画像上における前記物品(E)の角の位置及び向き
を検出するように構成されている請求項1記載の物品位
置検出装置。
2. Light projection for projecting slit light (L1, L2, L3) having a length protruding from the article (E) onto the imaged surface of the image pickup means (13) of the article (E). Means (12) is provided, and the detection means (8) extracts a region corresponding to the slit light on the article (E) based on the imaged image information of the imaging means (13),
The article position detecting device according to claim 1, wherein the article position detecting apparatus is configured to detect a position and a direction of a corner of the article (E) on a captured image.
【請求項3】 前記検出手段(8)は、 前記投光手段(12)が投光状態にあるときの撮像画像
情報にエッジ強調処理を実行した画像情報と、前記投光
手段(12)が非投光状態にあるときの撮像画像情報に
エッジ強調処理を実行した画像情報とを減算処理し、 その減算処理された画像情報を設定しきい値にて2値化
処理し、 その2値化された画像情報から、前記物品(E)上のス
リット光に対応する領域を抽出するように構成されてい
る請求項2記載の物品位置検出装置。
3. The detecting means (8) includes: image information obtained by performing edge enhancement processing on captured image information when the light projecting means (12) is in a light projecting state; and the light projecting means (12). The captured image information in the non-illuminated state is subtracted from the image information subjected to the edge enhancement process, and the subtracted image information is binarized by a set threshold value, and the binarized 3. The article position detecting device according to claim 2, wherein the area corresponding to the slit light on the article (E) is extracted from the obtained image information.
JP3233593A 1993-02-23 1993-02-23 Article position detection device Pending JPH06241719A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3233593A JPH06241719A (en) 1993-02-23 1993-02-23 Article position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3233593A JPH06241719A (en) 1993-02-23 1993-02-23 Article position detection device

Publications (1)

Publication Number Publication Date
JPH06241719A true JPH06241719A (en) 1994-09-02

Family

ID=12356088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3233593A Pending JPH06241719A (en) 1993-02-23 1993-02-23 Article position detection device

Country Status (1)

Country Link
JP (1) JPH06241719A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004125525A (en) * 2002-09-30 2004-04-22 Ishikawajima Harima Heavy Ind Co Ltd Method and apparatus for measuring rectangular parallelepiped
JP2007254128A (en) * 2006-03-24 2007-10-04 Daifuku Co Ltd Article transfer device
WO2011123057A1 (en) * 2010-03-30 2011-10-06 Azimuth Intellectual Products Pte Ltd Apparatus and methods for acquiring and analysing images of a pallet load
JP2013063487A (en) * 2011-09-16 2013-04-11 Yaskawa Electric Corp Robot system
JP2013063474A (en) * 2011-09-15 2013-04-11 Yaskawa Electric Corp Robot system and imaging method
JP2013086914A (en) * 2011-10-17 2013-05-13 Yaskawa Electric Corp Robot sorting system, robot device and method of manufacturing sorted article
JP2013129034A (en) * 2011-12-22 2013-07-04 Yaskawa Electric Corp Robot system, and sorted article manufacturing method
US9067744B2 (en) 2011-10-17 2015-06-30 Kabushiki Kaisha Yaskawa Denki Robot system, robot, and sorted article manufacturing method
CN106203455A (en) * 2016-09-14 2016-12-07 上海理工大学 Material based on machine vision row's equipment and the recognition methods of cylindrical material characteristic attribute
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004125525A (en) * 2002-09-30 2004-04-22 Ishikawajima Harima Heavy Ind Co Ltd Method and apparatus for measuring rectangular parallelepiped
JP2007254128A (en) * 2006-03-24 2007-10-04 Daifuku Co Ltd Article transfer device
WO2011123057A1 (en) * 2010-03-30 2011-10-06 Azimuth Intellectual Products Pte Ltd Apparatus and methods for acquiring and analysing images of a pallet load
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
JP2013063474A (en) * 2011-09-15 2013-04-11 Yaskawa Electric Corp Robot system and imaging method
JP2013063487A (en) * 2011-09-16 2013-04-11 Yaskawa Electric Corp Robot system
JP2013086914A (en) * 2011-10-17 2013-05-13 Yaskawa Electric Corp Robot sorting system, robot device and method of manufacturing sorted article
US9067744B2 (en) 2011-10-17 2015-06-30 Kabushiki Kaisha Yaskawa Denki Robot system, robot, and sorted article manufacturing method
JP2013129034A (en) * 2011-12-22 2013-07-04 Yaskawa Electric Corp Robot system, and sorted article manufacturing method
CN106203455A (en) * 2016-09-14 2016-12-07 上海理工大学 Material based on machine vision row's equipment and the recognition methods of cylindrical material characteristic attribute
CN106203455B (en) * 2016-09-14 2022-10-14 上海理工大学 Material aligning device based on machine vision and cylindrical material characteristic attribute identification method

Similar Documents

Publication Publication Date Title
JP4911341B2 (en) Article transfer device
JP3849514B2 (en) Article position recognition device
JPH06241719A (en) Article position detection device
JP2015114292A (en) Workpiece position information identification apparatus and workpiece position information identification method
JP2006300929A (en) Device for recognizing three-dimensional position of object, and depalettizing system
JP3620884B2 (en) Image processing device
JP3482938B2 (en) Article position recognition device
CN109690408B (en) Substrate angular position determination method
JP2974111B2 (en) Article transfer method
JP4191295B2 (en) Semiconductor package inspection equipment
JP3596434B2 (en) Article position recognition device
JP3434004B2 (en) Component recognition device and component mounting device
JPH06226668A (en) Article position detecting device
JP3417503B2 (en) Article position determination method and article position determination device
JP4073995B2 (en) Electronic component position detection method
JP4634250B2 (en) Image recognition method and apparatus for rectangular parts
JPH10288505A (en) Both work position detection and appearance inspection methods and respective devices thereof
JPH06226669A (en) Article position detecting device
JP2658405B2 (en) Method for manufacturing semiconductor device
JPH05149716A (en) Corner detecting method
JPH1091837A (en) Device for detecting edge of object to be identified
JP3271689B2 (en) Article position detection device
JPH10253333A (en) Background structure for measurement of image and transfer apparatus
JP2004118467A (en) Member inclination recognizing method, member inclination recognition control program, readable recording medium, and shape recognizing device
JPH06134585A (en) Marking system