JPH11183159A - Image processor and its method - Google Patents

Image processor and its method

Info

Publication number
JPH11183159A
JPH11183159A JP9353467A JP35346797A JPH11183159A JP H11183159 A JPH11183159 A JP H11183159A JP 9353467 A JP9353467 A JP 9353467A JP 35346797 A JP35346797 A JP 35346797A JP H11183159 A JPH11183159 A JP H11183159A
Authority
JP
Japan
Prior art keywords
image
focus
information
camera
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9353467A
Other languages
Japanese (ja)
Inventor
Kyoichi Okamoto
恭一 岡本
Eiji Tanaka
英治 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9353467A priority Critical patent/JPH11183159A/en
Publication of JPH11183159A publication Critical patent/JPH11183159A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor for reading the tag information of a baggage moving on a belt conveyer. SOLUTION: This processor 10 is provided with a shape measuring part 2 for processing the images of a baggage 7 picked up by cameras 11, 12, and obtaining the focus information necessary for picking up the image of the baggage 7 in focus, a camera control part 3 for controlling the focus of a line scan camera 6 by using the measured focus information, an in-focus image input part 4 for inputting in image for which the focus is adjusted by the camera control part 3, and a baggage tag reading part 5 for reading the information recorded on the baggage tag from the image inputted in the image input part 4.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、荷物の荷札を読取
る画像処理装置及びその方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus for reading a package tag and a method thereof.

【0002】[0002]

【従来の技術】運送業や郵便事業では、荷物や郵便物を
集配センターに一旦集め、そこで宛先ごとに荷物を区分
し他の集配センターへ送り出している。この集配センタ
ーでの区分け作業は荷物の量が多く、作業時間が短いた
め自動化が求められている。
2. Description of the Related Art In the transportation business and the postal business, packages and mail are once collected at a collection and distribution center, where the packages are sorted by destination and sent to another collection and distribution center. The sorting work at this collection and distribution center requires a large amount of luggage and requires a short period of work, so automation is required.

【0003】このうち、封筒やはがき等、厚さの小さい
郵便物については、ベルトコンベヤや搬送機で搬送する
郵便物から郵便番号を読取り、自動的に区分する装置が
開発されている。
[0003] Among them, an apparatus for reading a postal code from a mail conveyed by a belt conveyor or a conveyer and automatically sorting mail having a small thickness such as an envelope or a postcard has been developed.

【0004】さらに、段ボール箱など厚さのある荷物に
ついては、荷物にバーコードを印刷したり、バーコード
を印刷したシールをはりつけ、集配センターでベルトコ
ンベヤ上を移動する荷物からバーコードを読取り、自動
的に区分する装置が開発されている。
[0004] Further, for thick luggage such as a cardboard box, a bar code is printed on the luggage, a sticker on which the bar code is printed is attached, and the bar code is read from the luggage moving on the belt conveyor at the collection and delivery center. Automatic sorting devices have been developed.

【0005】しかし、このバーコードによる宛先区分
は、事業者が発送する荷物で宛先情報が予めデータベー
スなどにデータ化されている必要があり、一般の荷物に
ついてはこの方式は適用できない。
[0005] However, the destination classification based on the barcode requires that the destination information of a package to be sent out by a business operator be previously stored in a database or the like, and this method cannot be applied to general packages.

【0006】また、封筒やはがきを対象とした郵便物区
分機に用いられている手法を段ボール箱に用いて荷札の
情報を読み取る場合にもいくつかの問題が発生する。郵
便区分機では、ファックス等で使われている接触式のス
キャナを使って郵便番号を読み取っているが、段ボール
箱など一般の荷物では、荷物の形状が一定していないた
め接触式スキャナを用いることはできない。荷物の荷札
を貼付している面を下にすれば接触式スキャナを適用で
きるが、一般的に荷札は荷物の上面に貼付してあるの
で、ほとんどの荷物を荷札を貼付している面が下向きに
なるように作業員が転置する作業が発生する。また、上
下の転置を禁じられている荷物もあるので、この方式は
適用できない。
[0006] There are also some problems in reading information on a tag by using a method used for a mail sorting machine for envelopes and postcards in a cardboard box. Postal sorters use a contact-type scanner that is used for faxing, etc. to read the postal code.However, for general luggage such as cardboard boxes, use a contact-type scanner because the shape of the luggage is not constant. Can not. The contact type scanner can be applied if the side where the tag of the package is attached is down, but generally the tag is attached to the top of the package, so most of the package is facing downward with the tag attached. The operation of transposing the worker so as to be performed occurs. In addition, this method cannot be applied because some items are prohibited from being vertically transposed.

【0007】荷物を転置せずに上面に貼付した荷札の情
報を読み取る手段の一つとしてTVカメラがあるが、宅
配便の最大サイズである60cm立方の荷物を一般のN
TSCカメラの解像度であるW640×H480で撮影
した場合には1ピクセル/mmで撮影することになるた
め、荷札の情報を読み取るためには解像度が不足する。
One of the means for reading the information on the tag attached to the upper surface without transposing the package is a TV camera.
When the image is shot at W640 × H480, which is the resolution of the TSC camera, the image is shot at 1 pixel / mm, and the resolution is insufficient to read the information on the tag.

【0008】このような場合にはラインスキャンカメラ
を用いることによって十分な解像度で撮影することがで
きる。ラインスキャンカメラは1次元だが撮影画素数の
多い撮像素子を用いたカメラで高い解像度で撮影するこ
とができる。
In such a case, it is possible to take an image with a sufficient resolution by using a line scan camera. A line scan camera can capture an image at a high resolution by using a one-dimensional camera using an image sensor having a large number of pixels.

【0009】このラインスキャンカメラで上部から撮影
した状態で、ベルトコンベヤなどに荷物を載せてライン
スキャンカメラの下を移動させれば、荷物上面に貼付し
た荷札を十分な解像度で撮影することができる。
If a luggage is placed on a belt conveyor or the like and is moved under the line scan camera with the line scan camera photographing from above, the tag attached to the luggage upper surface can be photographed with sufficient resolution. .

【0010】この方式にも問題点がある。通常のTVカ
メラでは、荷物がカメラの下を通る前にカメラの視野に
入るので、その時点でフォーカスを調整して荷物の上面
に焦点が合った画像を撮影することができるが、ライン
スキャンカメラの場合は1つの走査線上でしか撮影しな
いので荷物がカメラの真下に来て初めてカメラ視野に入
ることになる。そのため、フォーカス調整を始めても撮
影対象の荷札がカメラ視野に入るまでに調整が間に合わ
ない可能性があった。
This method also has a problem. In a normal TV camera, the luggage enters the field of view of the luggage before passing under the camera. At that point, the focus can be adjusted and an image focused on the upper surface of the luggage can be taken. In the case of (1), since the image is taken only on one scanning line, the baggage will enter the camera's field of view only when the baggage comes under the camera. Therefore, even if the focus adjustment is started, there is a possibility that the adjustment cannot be completed before the tag to be photographed enters the camera view.

【0011】また、図5の手提げ袋100のように斜め
になった平面に荷札が貼付されたり筒状の荷物等で荷札
が曲面に貼付されている場合には、荷物がカメラの下を
動くにしたがって焦点距離が変化するため、ラインスキ
ャンカメラで撮影した1本の走査線画像だけではフォー
カス調整を行ってもピンぼけが生じるという問題があっ
た。
When a tag is stuck on an oblique plane such as the carrying bag 100 in FIG. 5 or a tag is stuck on a curved surface with cylindrical baggage or the like, the baggage moves under the camera. Therefore, since the focal length changes, there is a problem that even if focus adjustment is performed with only one scanning line image captured by a line scan camera, defocus occurs.

【0012】[0012]

【発明が解決しようとする課題】以上述べたように、従
来の画像処理装置では、段ボール箱や手提げ袋等厚みの
ある物体に貼付された荷札の画像を撮影、処理する場合
に十分な精度で焦点の合った画像を入力し、処理するこ
とができないという問題があった。
As described above, the conventional image processing apparatus focuses on a tag attached to a thick object such as a cardboard box or a carrying bag with sufficient accuracy when photographing and processing the image. There is a problem that it is not possible to input and process an image that fits.

【0013】そこで本発明は、荷物の荷札情報を読取る
画像処理装置及びその方法を提供する。
Accordingly, the present invention provides an image processing apparatus and method for reading tag information of a package.

【0014】[0014]

【課題を解決するための手段】請求項1の発明は、荷物
の画像を入力する画像入力手段と、前記荷物に対して焦
点を調整した画像を入力する合焦点画像入力手段と、前
記画像入力手段で撮影した前記画像から、前記荷物を前
記合焦点画像入力手段によって焦点の合った状態で撮影
するために必要な焦点情報を得る形状計測手段と、前記
形状計測手段で計測した焦点情報を用いて前記合焦点画
像入力手段の焦点を制御する焦点制御手段と、前記合焦
点画像入力手段で入力した画像から、前記荷物の荷札に
記載された情報を読取る荷札読取手段とからなる画像処
理装置である。
According to a first aspect of the present invention, there is provided an image input means for inputting an image of a load, a focused image input means for inputting an image obtained by adjusting a focus on the load, and the image inputting means. From the image photographed by the means, a shape measuring means for obtaining focus information necessary for photographing the luggage in an in-focus state by the in-focus image input means, and using the focus information measured by the shape measuring means. An image processing apparatus comprising: focus control means for controlling the focus of the focused image input means; and a tag reading means for reading information described on the tag of the package from the image input by the focused image input means. is there.

【0015】請求項1の発明の画像処理装置について説
明する。
An image processing apparatus according to the first aspect of the present invention will be described.

【0016】画像入力手段は、荷物の画像を入力する。The image input means inputs an image of the package.

【0017】合焦点画像入力手段は、前記荷物に対して
焦点を調整した画像を入力する。
The in-focus image input means inputs an image in which the focus is adjusted for the package.

【0018】形状計測手段は、前記画像入力手段で撮影
した前記画像から、前記荷物を前記合焦点画像入力手段
によって焦点の合った状態で撮影するために必要な焦点
情報を得る。
The shape measuring means obtains, from the image photographed by the image input means, focus information necessary for photographing the package in the focused state by the focused image input means.

【0019】焦点制御手段は、前記形状計測手段で計測
した焦点情報を用いて前記合焦点画像入力手段の焦点を
制御する。
The focus control means controls the focus of the focused image input means using the focus information measured by the shape measurement means.

【0020】荷札読取手段は、前記合焦点画像入力手段
で入力した画像から、前記荷物の荷札に記載された情報
を読取る。
The tag reading means reads information written on the tag of the package from the image input by the in-focus image input means.

【0021】以上により、画像入力手段で撮影した画像
を処理して、焦点が合った状態で荷物を撮影するために
必要な情報を得るので、この情報を用いて焦点を制御
し、合焦点画像入力手段で焦点の合った画像を入力する
ので、荷物に貼付された荷札から荷札に記載された情報
を精度よく読取ることができる。 請求項2の発明は、
前記形状計測手段は、前記荷物の3次元形状を計測し、
この計測した3次元形状情報を焦点情報として前記焦点
制御手段へ送り、前記焦点制御手段は、前記形状計測手
段からの前記3次元形状情報に基づいて前記荷物と前記
合焦点画像入力手段との距離を算出し、この距離に基づ
いて前記合焦点画像入力手段の焦点を調整することを特
徴とする請求項1記載の画像処理装置である。
As described above, the image photographed by the image input means is processed to obtain the information necessary for photographing the baggage in a focused state. Since the focused image is input by the input means, the information written on the tag can be accurately read from the tag attached to the package. The invention of claim 2 is
The shape measuring means measures a three-dimensional shape of the package,
The measured three-dimensional shape information is sent to the focus control unit as focus information, and the focus control unit determines a distance between the package and the focused image input unit based on the three-dimensional shape information from the shape measurement unit. 2. The image processing apparatus according to claim 1, wherein the focal point of the in-focus image input unit is adjusted based on the distance.

【0022】請求項2の発明の画像処理装置について説
明する。
An image processing apparatus according to a second aspect of the present invention will be described.

【0023】前記形状計測手段は、前記荷物の3次元形
状を計測し、この計測した3次元形状情報を焦点情報と
して前記焦点制御手段へ送る。
The shape measuring means measures the three-dimensional shape of the package, and sends the measured three-dimensional shape information to the focus control means as focus information.

【0024】前記焦点制御手段は、前記形状計測手段か
らの前記3次元形状情報に基づいて前記荷物と前記合焦
点画像入力手段との距離を算出し、この距離に基づいて
前記合焦点画像入力手段の焦点を調整する。
The focus control means calculates a distance between the package and the focused image input means based on the three-dimensional shape information from the shape measuring means, and calculates the focused image input means based on the distance. Adjust the focus.

【0025】請求項3の発明は、前記荷物はベルトコン
ベヤによって搬送され、前記ベルトコンベヤの第1の地
点に前記画像入力手段が配され、前記ベルトコンベヤの
第1の地点より後の第2の地点に前記合焦点画像入力手
段であるラインスキャンカメラが配されていることを特
徴とする請求項1記載の画像処理装置である。
According to a third aspect of the present invention, the load is conveyed by a belt conveyor, the image input means is arranged at a first point on the belt conveyor, and a second position after the first point on the belt conveyor. 2. The image processing apparatus according to claim 1, wherein a line scan camera as said focused image input means is arranged at a point.

【0026】請求項3の発明の画像処理装置について説
明する。
An image processing apparatus according to a third aspect of the present invention will be described.

【0027】前記荷物はベルトコンベヤによって搬送さ
れ、前記ベルトコンベヤの第1の地点に前記画像入力手
段が配され、前記ベルトコンベヤの第1の地点より後の
第2の地点に前記合焦点画像入力手段であるラインスキ
ャンカメラが配されている。これによって、ベルトコン
ベヤによって搬送されている荷物の荷札を正確に読取る
ことができる。
The luggage is conveyed by a belt conveyor, the image input means is disposed at a first point on the belt conveyor, and the focused image input is performed at a second point after the first point on the belt conveyor. A line scan camera as a means is provided. As a result, it is possible to accurately read the tag of the baggage being conveyed by the belt conveyor.

【0028】請求項4の発明は、荷物の画像を入力する
画像入力ステップと、前記荷物に対して焦点を調整した
画像を荷札読取用カメラによって入力する合焦点画像入
力ステップと、前記画像入力ステップで撮影した前記画
像から、前記荷物を前記荷札読取用カメラによって焦点
の合った状態で撮影するために必要な焦点情報を得る形
状計測ステップと、前記形状計測ステップで計測した焦
点情報を用いて前記荷札読取用カメラの焦点を制御する
焦点制御ステップと、前記合焦点画像入力ステップで入
力した画像から、前記荷物の荷札に記載された情報を読
取る荷札読取ステップとからなることを特徴とする画像
処理方法である。
According to a fourth aspect of the present invention, there is provided an image inputting step of inputting an image of a package, a focused image inputting step of inputting an image focused on the package by a tag reading camera, and the image inputting step. From the image captured in the above, using a shape measurement step to obtain focus information necessary to shoot the luggage in focus with the tag reading camera, and using the focus information measured in the shape measurement step An image processing method comprising: a focus control step of controlling a focus of a tag reading camera; and a tag reading step of reading information described on a tag of the package from the image input in the focused image inputting step. Is the way.

【0029】請求項5の発明は、前記形状計測ステップ
は、前記荷物の3次元形状を計測し、この計測した3次
元形状情報を焦点情報として前記焦点制御ステップへ送
り、前記焦点制御ステップは、前記形状計測ステップか
らの前記3次元形状情報に基づいて前記荷物と前記荷札
読取用カメラとの距離を算出し、この距離に基づいて前
記荷札読取用カメラの焦点を調整することを特徴とする
請求項4記載の画像処理方法である。
According to a fifth aspect of the present invention, in the shape measuring step, the three-dimensional shape of the package is measured, and the measured three-dimensional shape information is sent to the focus control step as focus information. A method of calculating a distance between the package and the tag reading camera based on the three-dimensional shape information from the shape measuring step, and adjusting a focus of the tag reading camera based on the distance. An image processing method according to item 4.

【0030】請求項6の発明は、前記荷物はベルトコン
ベヤによって搬送され、前記ベルトコンベヤの第1の地
点に前記画像入力ステップで用いられる画像入力用カメ
ラが配され、前記ベルトコンベヤの第1の地点より後の
第2の地点に前記荷札読取用カメラであるラインスキャ
ンカメラが配されていることを特徴とする請求項4記載
の画像処理方法である。
According to a sixth aspect of the present invention, the baggage is conveyed by a belt conveyor, and an image input camera used in the image input step is arranged at a first point of the belt conveyor, and the first bag of the belt conveyor is provided. 5. The image processing method according to claim 4, wherein a line scan camera serving as the tag reading camera is arranged at a second point after the point.

【0031】[0031]

【発明の実施の形態】第1の実施例 以下、本発明に関する第1の実施例を図1から図8を用
いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment A first embodiment of the present invention will be described below with reference to FIGS.

【0032】図1は、本実施例の画像処理装置10の構
成図である。
FIG. 1 is a configuration diagram of an image processing apparatus 10 according to the present embodiment.

【0033】ベルトコンベヤ1は、撮影対象となる荷物
7を上に載せると一定速度で並進運動させる装置であ
る。
The belt conveyor 1 is a device that translates at a constant speed when a load 7 to be photographed is placed thereon.

【0034】カメラ11とカメラ12は、ベルトコンベ
ヤ1の上と横に取り付けられ、ベルトコンベヤ1上を移
動する荷物7を撮影する。
The camera 11 and the camera 12 are mounted on and beside the belt conveyor 1, and photograph the luggage 7 moving on the belt conveyor 1.

【0035】形状計測部2はカメラ11とカメラ12で
撮影した荷物7の3次元形状を計測し、計測結果をカメ
ラ制御部3に出力する。
The shape measuring unit 2 measures the three-dimensional shape of the package 7 photographed by the cameras 11 and 12, and outputs the measurement result to the camera control unit 3.

【0036】カメラ制御部3は対象物の形状計測結果を
入力してそこからカメラ制御情報を生成し、対象物に常
に焦点の合った画像を撮影できる状態に制御する。
The camera control unit 3 receives the shape measurement result of the object, generates camera control information from the result, and controls the camera so that an image always focused on the object can be taken.

【0037】合焦点画像入力部4は、ベルトコンベヤ1
の上方で、カメラ制御部3の制御したカメラ11とカメ
ラ12を使って画像を入力する。
The in-focus image input unit 4 includes the belt conveyor 1
Above the camera, an image is input using the cameras 11 and 12 controlled by the camera control unit 3.

【0038】荷札読取部5は合焦点画像入力部4から入
力した画像を処理し、宛先などの情報を読み取って出力
する。
The tag reading section 5 processes the image input from the focused image input section 4, reads information such as a destination, and outputs the information.

【0039】(形状計測部2)図2は、形状計測部2の
一実施例を示す構成図である。
(Shape Measuring Unit 2) FIG. 2 is a configuration diagram showing an embodiment of the shape measuring unit 2.

【0040】ベルトコンベヤ1の上部と横にカメラ11
とカメラ12がある。またフォトスイッチ13はベルト
コンベヤ1の一定位置に設置されている。
The camera 11 is located above and beside the belt conveyor 1.
And the camera 12. The photo switch 13 is provided at a fixed position on the belt conveyor 1.

【0041】荷物7はベルトコンベヤ1上を適当な間隔
を開けて搬送されるが、フォトスイッチ13は荷物7が
コンベヤ1上の所定位置に来たことを検出して、ステレ
オカメラ制御部20に信号を送る。
The baggage 7 is conveyed on the belt conveyor 1 at an appropriate interval. The photo switch 13 detects that the baggage 7 has arrived at a predetermined position on the conveyor 1 and sends it to the stereo camera controller 20. Send a signal.

【0042】ステレオカメラ制御部20は、フォトスイ
ッチ13からの信号を受けると、直ちにカメラ11とカ
メラ12で画像を撮影して、ディジタル化を行って入力
する。
Upon receiving the signal from the photo switch 13, the stereo camera controller 20 immediately captures an image with the cameras 11 and 12, digitizes the image, and inputs the digitized image.

【0043】形状計測制御部21は、荷物7を撮影した
ディジタル画像を入力し、この画像から荷物7の形状を
計測する。
The shape measurement control section 21 inputs a digital image of the package 7 and measures the shape of the package 7 from this image.

【0044】以下、この手順を図3のフローチャートに
したがって説明する。
Hereinafter, this procedure will be described with reference to the flowchart of FIG.

【0045】まず、入力した画像と、予め保存してあ
る、ベルトコンベヤ1上に荷物7のない状態で撮影した
画像とで画素ごとの差をとる差分処理を行い、差分画像
を作成する。基本的に画像中の荷物7の部分では差が大
きく、荷物7以外の領域では差が非常に小さくなる(ス
テップ101)。
First, a difference process is performed to obtain a difference for each pixel between an input image and an image which has been stored in advance and is taken without the baggage 7 on the belt conveyor 1, and a difference image is created. Basically, the difference is large in the part of the baggage 7 in the image, and the difference is very small in the area other than the baggage 7 (step 101).

【0046】差分画像の各画素の絶対値について閾値処
理を行い、画素の絶対値が閾値より大きい場合は1、小
さい場合は0とした2値画像を作成する(ステップ10
2)。
Threshold processing is performed on the absolute value of each pixel of the difference image, and a binary image is created with 1 if the absolute value of the pixel is larger than the threshold and 0 if the absolute value of the pixel is smaller than the threshold (step 10).
2).

【0047】次に2値画像の連結領域のラベル付けを行
う。ラベル付け処理では、2値画像の画素値が1である
画素に隣接した8画素の値を調べ、8画素のうちに画素
値が1である画素があれば、元の画素と隣接した画素の
双方に同じラベル番号を付加する処理を行う。これによ
って、連結領域に独立したラベル番号が付加される(ス
テップ103)。
Next, labeling of the connected area of the binary image is performed. In the labeling process, the values of eight pixels adjacent to the pixel having the pixel value of 1 in the binary image are checked. If there is a pixel having the pixel value of 1 out of the eight pixels, the value of the pixel adjacent to the original pixel is determined. A process of adding the same label number to both is performed. As a result, an independent label number is added to the connection area (step 103).

【0048】ラベル付けを行った各連結領域について面
積(画素数)を計算し、面積が最大である領域を選択す
る。この面積最大の領域が荷物7を表す領域である(ス
テップ104)。
The area (the number of pixels) is calculated for each labeled connected area, and the area having the largest area is selected. The area having the largest area is the area representing the package 7 (step 104).

【0049】次に、荷物7領域の外接多角形(凸包)を
計算する。2次元領域の凸包を計算する手順は、例え
ば、“計算幾何学入門”プレパラータ、シェーモス著、
浅野孝夫、浅野哲夫訳 総研出版108ページに示され
る手順に沿って行う(ステップ105)。
Next, a circumscribed polygon (convex hull) of the package 7 area is calculated. The procedure for calculating the convex hull of a two-dimensional region is described in, for example, “Introduction to Computational Geometry” prepared by Shamoth,
Translation is performed in accordance with the procedure shown on page 108 of Soken Publishing, translated by Takao Asano and Tetsuo Asano (step 105).

【0050】ステップ101から105までの処理を、
カメラ11とカメラ12で撮影した2枚の画像に対して
行い、上から撮影した荷物7領域と横から撮影した荷物
7領域の凸包を得る。
The processing of steps 101 to 105 is
The processing is performed on two images captured by the cameras 11 and 12, and a convex hull of the package 7 area captured from above and the package 7 area captured from the side is obtained.

【0051】次に凸包の多角形について以下に述べる頂
点削減処理を行って、荷物7の形状を求める。
Next, the polygon of the convex hull is subjected to the vertex reduction processing described below to determine the shape of the package 7.

【0052】まず、頂点削減の方式について述べる。First, the method of vertex reduction will be described.

【0053】図4に示すように多角形一部である頂点P
1 ,P2 ,P3 ,P4 ,P5 があって領域重心から反時
計周りに並んでいるとする。
As shown in FIG. 4, a vertex P which is a part of a polygon is
It is assumed that there are 1, P2, P3, P4, and P5 and are arranged counterclockwise from the center of gravity of the area.

【0054】このとき、頂点P3 を削減する方法には2
通りある。一つは、頂点P3 を単純に削減して多角形を
小さくする方法である。もう一つは、頂点P3 で外接す
る辺を持つ多角形を用いる方法である。
At this time, the method for reducing the vertex P3 is as follows.
There is a street. One method is to simply reduce the vertex P3 to reduce the polygon. The other is a method using a polygon having a side circumscribing at a vertex P3.

【0055】頂点P3 を通る直線とP1 P2 を通る直線
の交点をP'2、前記頂点P3 を通る直線とP5 P4 を通
る直線の交点をP'4とする。三角形P2 P3 P'2と三角
形P4 P3 P'4の面積の和を最小にする頂点P3 を通る
直線を選び、この直線と直線P1 P2 の交点をP"2、直
線P5 P4 との交点をP"4とする。この時の三角形P2
P3 P"2と三角形P4 P3 P"4の面積の和をSとする。
また、三角形P2 P3P4 中で、荷物7領域に属してい
ない画素の数(面積)をS´とする。このSとS´の小
さい方の値を頂点P3 の評価値S* とする。
The intersection of the straight line passing through the vertex P3 and the straight line passing through P1 P2 is P'2, and the intersection of the straight line passing through the vertex P3 and the straight line passing through P5 P4 is P'4. A straight line passing through the vertex P3 that minimizes the sum of the areas of the triangles P2 P3 P'2 and P4 P3 P'4 is selected, the intersection of this straight line and the straight line P1 P2 is P "2, and the intersection of the straight line P5 P4 is P "4. Triangle P2 at this time
Let S be the sum of the areas of P3 P "2 and the triangle P4 P3 P" 4.
In the triangle P2, P3, and P4, the number (area) of pixels that do not belong to the package 7 area is S '. The smaller value of S and S 'is defined as the evaluation value S * of the vertex P3.

【0056】実際に頂点を削減する場合はS<S´であ
ればP1 P2 P4 P5 を新たな多角形の一部とし、S>
S´であればP1 P"2P"4P5 を新たな多角形の一部と
する。
When actually reducing the vertices, if S <S ', P1 P2 P4 P5 is set as a part of a new polygon, and S>
If it is S ', P1 P "2P" 4P5 is set as a part of a new polygon.

【0057】凸包の頂点数をnとして、n点からなる多
角形のすべての頂点について、その頂点を削減した場合
の評価値S* を計算し、S* の最小値と、その最小
値をとる頂点を求める(ステップ106)。
Assuming that the number of vertices of the convex hull is n, an evaluation value S * when all the vertices of the polygon having n points are reduced is calculated, and the minimum value of S * and the minimum value of S * are calculated. A vertex to be taken is obtained (step 106).

【0058】最小のS* をとる頂点を削減して、n−
1点からなる多角形を作成する(ステップ107)。
By reducing vertices taking the minimum S * , n-
A polygon consisting of one point is created (step 107).

【0059】ステップ106からステップ107までの
処理を頂点数が4になるまで繰り返し行う(ステップ1
08)。
The processing from step 106 to step 107 is repeated until the number of vertices becomes four (step 1
08).

【0060】この頂点削減処理によって、例えば、図5
にあるような手提げ袋100に入った荷物7では持ち手
102の部分が除去される。また、ゴルフバック等の箱
状でない荷物7を撮影した場合であっても、荷物7の囲
む4辺形を計算する事ができる形状を計測することがで
きる。
By this vertex reduction processing, for example, FIG.
Is removed from the luggage 7 in the bag 100 as shown in FIG. Further, even when a non-box-shaped baggage 7 such as a golf bag is photographed, it is possible to measure a shape in which a quadrilateral surrounding the baggage 7 can be calculated.

【0061】計算した4つの頂点位置と、カメラ間の位
置関係、カメラの焦点距離などの情報から、荷物7を直
方体と仮定したときに横のカメラ12で撮影した画像で
4頂点が見えるか6頂点が見えるかを計算する。ベルト
コンベヤ1の平面上に原点を置く座標系で、カメラ11
が座標(0、0、Z1)にあって焦点距離がf1、光軸
が(0、0、―1)を向き、撮像面のy軸が(0、1、
0)を向いているとし、カメラ12は座標(0、Y2、
0)にあって焦点距離がf2、光軸は(0、―1、0)
を向き、撮像面のy軸が(0、0、1)を向いていると
する。カメラ11で撮影した画像で、座標(hi ,vi
)にある頂点は、以下の式1の表す直線上にある。
Based on the calculated positions of the four vertices, information on the positional relationship between the cameras, the focal length of the cameras, and the like, when the baggage 7 is assumed to be a rectangular parallelepiped, whether the four vertices can be seen in the image taken by the horizontal camera 12 or not? Calculate whether vertices are visible. A coordinate system that places the origin on the plane of the belt conveyor 1
Is at coordinates (0, 0, Z1), the focal length is f1, the optical axis is oriented at (0, 0, -1), and the y-axis of the imaging surface is (0, 1,.
0), the camera 12 moves the coordinates (0, Y2,
0), the focal length is f2, and the optical axis is (0, -1, 0)
, And the y-axis of the imaging surface faces (0, 0, 1). In the image taken by the camera 11, the coordinates (hi, vi
) Is on the straight line represented by the following equation 1.

【0062】[0062]

【数1】 それぞれの頂点についてカメラ12撮像面上への投影の
x座標を計算し、カメラ12から見てもっとも手前にあ
る(仮座標のyが最大となる)頂点Aのカメラ12撮像
面上への投影を他の頂点の投影と比較し、頂点Aの投影
のx座標が4つの頂点のうち最小か最大である場合は、
後のステップ110で削減する頂点数を4とし、それ以
外の場合は6とする(ステップ109)。
(Equation 1) For each vertex, the x coordinate of the projection on the camera 12 imaging plane is calculated, and the projection of the foremost vertex A (the tentative coordinate y becomes maximum) as viewed from the camera 12 on the camera 12 imaging plane is calculated. Compared to the projections of the other vertices, if the x coordinate of the projection of vertex A is the minimum or maximum of the four vertices,
In the subsequent step 110, the number of vertices to be reduced is set to 4, otherwise, it is set to 6 (step 109).

【0063】前記ステップで判断した結果にしたがって
横のカメラ12で撮影した画像について、頂点削減処理
を頂点数が4あるいは6になるまで繰り返し行う(ステ
ップ110)。
According to the result determined in the above step, the vertex reduction processing is repeatedly performed on the image photographed by the horizontal camera 12 until the number of vertices becomes 4 or 6 (step 110).

【0064】次に、カメラ11で撮影した頂点の座標
と、カメラ12で撮影した頂点座標の対応を取り、ステ
レオ計測によって頂点の3次元座標を計測する。ステッ
プ109で得た頂点の数が4の場合は、カメラ11で撮
影した4頂点のカメラ12撮像面上への投影を計算し、
投影のx座標が最大である点をカメラ11の画像での対
応点とする。カメラ12で撮影した頂点については、x
座標が最大の頂点と、x座標が2番目に大きい頂点を選
び、これらのうちy座標の大きいほうを対応点とする。
Next, the coordinates of the vertices photographed by the camera 11 and the coordinates of the vertices photographed by the camera 12 are correlated, and the three-dimensional coordinates of the vertices are measured by stereo measurement. If the number of vertices obtained in step 109 is 4, the projection of the four vertices photographed by the camera 11 onto the imaging surface of the camera 12 is calculated,
The point where the x coordinate of the projection is the maximum is defined as the corresponding point in the image of the camera 11. For vertices taken by camera 12, x
The vertex having the largest coordinate and the vertex having the second largest x coordinate are selected, and the one having the larger y coordinate is selected as the corresponding point.

【0065】ステップ109の結果が6の場合は、カメ
ラ11で撮影した画像中の頂点では仮座標のyが最大に
なる頂点を対応点とし、カメラ12で撮影した6頂点の
うち、y座標が最大になる点を対応点とする。
If the result of step 109 is 6, the vertex in the image photographed by the camera 11 having the maximum y of the provisional coordinates is the corresponding point, and the y coordinate of the 6 vertices photographed by the camera 12 is The point that becomes the maximum is the corresponding point.

【0066】対応のつけられた頂点のカメラ11で撮影
した画像中での位置が(hi ,vi)、カメラ12で撮
影した画像中での位置が(hj ,vj )とする。カメラ
12で撮影した画像中の位置が(hj ,vj )である点
は、以下の式2の表す直線上にある。
Assume that the position of the associated vertex in the image taken by the camera 11 is (hi, vi), and the position in the image taken by the camera 12 is (hj, vj). The point at which the position in the image taken by the camera 12 is (hj, vj) is on the straight line represented by the following equation (2).

【0067】[0067]

【数2】 この式2と前述の式1が表す直線の交点から、対応のつ
いた頂点の3次元位置を求めることができる(ステップ
111)。
(Equation 2) The three-dimensional position of the corresponding vertex can be obtained from the intersection of the straight line represented by Expression 2 and Expression 1 (Step 111).

【0068】カメラ11で撮影した頂点のうち、残りの
3つの頂点について、Z座標をステップ111で求めた
頂点と同じであると仮定して、式1から3次元位置を求
める。4つの頂点の3次元位置から、荷物7の縦、横、
高さの値を求めて出力する(ステップ112)。
As for the remaining three vertices of the vertices photographed by the camera 11, the three-dimensional position is obtained from Expression 1 on the assumption that the Z coordinate is the same as the vertex obtained in step 111. From the three-dimensional position of the four vertices, the length, width,
The height value is obtained and output (step 112).

【0069】(カメラ制御部3)カメラ制御部3は、形
状計測部2から入力した情報を利用してカメラを制御
し、荷物7にフォーカスの合った画像が撮影できるよう
にする。
(Camera Control Unit 3) The camera control unit 3 controls the camera using the information input from the shape measuring unit 2 so that an image focused on the baggage 7 can be taken.

【0070】合焦点画像入力部4のラインスキャンカメ
ラ6は、図6に示すようにベルトコンベヤ1の真上、す
なわち、荷物7の真上に存在するために、ラインスキャ
ンカメラ6のフォーカスを調整するフォーカス情報は、
荷物7の上面とラインスキャンカメラ6との間の距離M
となる。
The line scan camera 6 of the in-focus image input unit 4 adjusts the focus of the line scan camera 6 because the line scan camera 6 is located right above the belt conveyor 1, that is, right above the baggage 7, as shown in FIG. Focus information
Distance M between the top surface of package 7 and line scan camera 6
Becomes

【0071】そのために、カメラ制御部3は、まず形状
計測部2で計測した荷物7の3次元形状情報のうち、高
さ情報hを取り出す。次に高さ情報hを、予め登録した
キャリブレーションデータを保存してあるテーブルを参
照して、フォーカス情報に変換する。具体的には、テー
ブルにはラインスキャンカメラ6とベルトコンベヤ1と
の距離Lが保存してあるために、この距離Lから高さ情
報hを差し引いてフォーカス情報Mを求める。
For this purpose, the camera control unit 3 first extracts height information h from the three-dimensional shape information of the package 7 measured by the shape measuring unit 2. Next, the height information h is converted into focus information with reference to a table storing calibration data registered in advance. Specifically, since the distance L between the line scan camera 6 and the belt conveyor 1 is stored in the table, the focus information M is obtained by subtracting the height information h from the distance L.

【0072】そして、フォーカス情報Mにしたがって、
ラインスキャンカメラ6のフォーカス調整リングに取り
付けたモータを駆動させ、フォーカスを調整する。
Then, according to the focus information M,
The motor attached to the focus adjustment ring of the line scan camera 6 is driven to adjust the focus.

【0073】(合焦点画像入力部4)合焦点画像入力部
4は、カメラ制御部3でフォーカスを調整したレンズを
使ってラインスキャンカメラ6から画像を入力し、入力
した画像を荷札読取部5に転送する。この際、ラインス
キャンカメラ6を用いて撮影することによって、高精度
の画像を入力することができる。
(Focused Image Input Unit 4) The focused image input unit 4 inputs an image from the line scan camera 6 using the lens whose focus has been adjusted by the camera control unit 3, and reads the input image into the tag reading unit 5. Transfer to At this time, a high-precision image can be input by photographing using the line scan camera 6.

【0074】(荷札読取部5)次に、荷札読取部5につ
いて述べる。図7は荷札読取部5の構成図である。
(Package Tag Reading Unit 5) Next, the package tag reading unit 5 will be described. FIG. 7 is a configuration diagram of the tag reading unit 5.

【0075】荷札読取部5は、入力した画像から荷札の
位置を検出する荷札検出部31と、検出した位置にある
荷札から、仕分け作業など運輸業の業務に必要な宛先情
報などの情報を読取る荷札情報処理部32から構成され
る。
The tag reading unit 5 reads a tag detection unit 31 for detecting the position of the tag from the input image, and reads information such as destination information necessary for operations of the transportation business such as sorting from the tag at the detected position. It is composed of a tag information processing unit 32.

【0076】荷札検出部31は、入力した画像と、予め
記録してある辞書情報とを照合して荷札を検出する。
The tag detecting section 31 detects a tag by comparing the input image with dictionary information recorded in advance.

【0077】以下、この荷札検出処理を、図8のフロー
チャートにしたがって説明する。
Hereinafter, the tag detection processing will be described with reference to the flowchart of FIG.

【0078】まず、入力した画像から、特徴のある点
(コーナー点)を抽出する。コーナー点の抽出は、例え
ば、"Active Vision" Andrew Blake,Alan Yuille著MIT
Press出版265ページに記述された手法を用いる(ス
テップ201)。
First, characteristic points (corner points) are extracted from the input image. The extraction of corner points is described in, for example, "Active Vision" by Andrew Blake, Alan Yuille, MIT
The method described on page 265 of Press Publication is used (step 201).

【0079】次に、抽出したコーナーの方向を求める。
各コーナー点に、コーナー点を中心としたガウス微分の
畳み込み演算を行って、畳込みを行った結果から、コー
ナー方向θを以下の式によって求める(ステップ20
2)。
Next, the direction of the extracted corner is determined.
For each corner point, a convolution operation of a Gaussian derivative centered on the corner point is performed, and from the result of the convolution, the corner direction θ is obtained by the following equation (step 20).
2).

【0080】[0080]

【数3】 検出したコーナー点近傍のテンプレートを画像から切り
出す。抽出したコーナー点を中心にして、コーナー方向
がx軸と一致するように画像を回転させる。回転した画
像からコーナー点から、予め決めた距離r以内にある小
領域をテンプレートとして抽出する(ステップ20
3)。
(Equation 3) A template near the detected corner point is cut out from the image. The image is rotated around the extracted corner point so that the corner direction matches the x-axis. A small area within a predetermined distance r from the corner point is extracted from the rotated image as a template (step 20).
3).

【0081】画像から抽出した全てのテンプレートと辞
書情報を照合する(ステップ204)。
All the templates extracted from the image are collated with the dictionary information (step 204).

【0082】本実施例の画像処理装置10では、処理対
象となる荷札は複数の有限種類に決まっており、すべて
の荷札の画像情報は予め得られているとするが、荷物7
に貼付される荷札は、荷物7のどの面のどの位置に貼付
されているか不明であって、荷物7の形状、大きさも不
定である。したがって、撮影した画像中で、荷札の位
置、向きは不明である。荷物7の大きさや位置(カメラ
と荷札の距離に応じて)に応じて画像中での荷札の大き
さも変化する。また、荷札がカメラから見て斜めを向い
た面に貼付されている場合は画像中での荷札に変形が生
じる。荷札が平面に貼付されている場合は、上記の位
置、向き、大きさなどの変化は、以下に示す画像のアフ
ィン変換で近似することができる。(x,y)は変換前
の画素の座標、(x ′,y′)は変換後の画素の座標で
ある。
In the image processing apparatus 10 of the present embodiment, the number of tags to be processed is determined to be a plurality of finite types, and the image information of all the tags is obtained in advance.
It is unknown which tag is attached to which surface of the package 7 and the shape and size of the package 7 are undefined. Therefore, the position and orientation of the tag in the captured image is unknown. The size of the tag in the image also changes according to the size and position of the package 7 (according to the distance between the camera and the tag). If the tag is attached to a surface that is obliquely viewed from the camera, the tag in the image is deformed. When the tag is affixed to a plane, the above-mentioned changes in position, orientation, size, etc. can be approximated by affine transformation of the image shown below. (X, y) is the coordinates of the pixel before the conversion, and (x ', y') are the coordinates of the pixel after the conversion.

【0083】[0083]

【数4】 本実施例の画像処理装置10では、荷札画像のアフィン
変換パラメータについては不明だが、各パラメータの変
化範囲に制限を設けることができる。
(Equation 4) In the image processing apparatus 10 of the present embodiment, the affine transformation parameters of the tag image are unknown, but a change range of each parameter can be limited.

【0084】例えば、本実施例の画像処理装置10で処
理する荷物7の最大サイズは、運送会社等の規定で予め
決められているか、決められていなくても画像処理装置
10の最大運搬容積から求めることができるとする。こ
の最大サイズの直方体形状の荷物7に貼付された荷札を
カメラ光軸と平面に貼り付けられた荷札中心が直交した
状態で撮影したものが、最大サイズの荷札である。ま
た、封筒等厚みのほとんどない形状の荷物7を撮影した
ものが最小サイズの荷札である。
For example, the maximum size of the baggage 7 to be processed by the image processing apparatus 10 of the present embodiment is determined in advance by the regulations of a transportation company or the like. You can ask for it. The tag attached to the rectangular parallelepiped luggage 7 of the maximum size is the largest tag attached to the camera when the camera optical axis and the center of the tag attached to the plane are orthogonal to each other. A photograph of a package 7 having almost no thickness such as an envelope is a minimum-sized package tag.

【0085】ここで、先に照合に用いる辞書情報につい
て述べる。
Here, the dictionary information used for matching will be described first.

【0086】辞書情報では、予め処理対象とする種類の
荷札の画像を撮影して、コーナー点を抽出し、この中か
ら数点を選択しておく。選択した点を中心にしてテンプ
レートを切り出すが、先に延べたようにカメラで撮影し
た荷札は辞書情報作成のために撮影した画像からアフィ
ン変換による変形したものとなっている。またこの時の
アフィン変換の各パラメータは、パラメータの変化範囲
内にある。そこで、辞書作成時には、各パラメータを変
化範囲内で一定間隔で変化させて、そのパラメータを使
ってアフィン変換した画像からテンプレートを切り出
す。このように、辞書情報では1つのコーナー点につい
て複数のテンプレートを用意しておく。
In the dictionary information, an image of a tag of the type to be processed is taken in advance, corner points are extracted, and several points are selected from the corner points. The template is cut out with the selected point as the center. As described above, the tag photographed by the camera is transformed from an image photographed for creating dictionary information by affine transformation. Each parameter of the affine transformation at this time is within the parameter change range. Therefore, when creating a dictionary, each parameter is changed at regular intervals within the change range, and a template is cut out from the affine-transformed image using the parameter. Thus, in the dictionary information, a plurality of templates are prepared for one corner point.

【0087】入力画像から切り出したテンプレートと辞
書情報の照合では、入力画像のテンプレートと辞書情報
のテンプレートの相互相関を計算し、相関値の最大値を
テンプレートの類似度とする。また、最も高い相関値を
とった辞書情報のテンプレートが、辞書情報のどのコー
ナー点をどのパラメータでアフィン変換したかを求め
る。
In the collation between the template extracted from the input image and the dictionary information, the cross-correlation between the template of the input image and the template of the dictionary information is calculated, and the maximum value of the correlation value is used as the similarity of the template. In addition, the dictionary information template having the highest correlation value determines which corner point of the dictionary information is affine-transformed with which parameter.

【0088】次に、各テンプレートの類似度を予め定め
た一定閾値と比較し、閾値以上の類似度を持つテンプレ
ートだけを選択する(ステップ205)。
Next, the similarity of each template is compared with a predetermined threshold value, and only templates having a similarity value equal to or greater than the threshold value are selected (step 205).

【0089】ステップ205で選択したテンプレートの
数をn個とし、i番目のテンプレートとする。選択した
テンプレートから3個の組み合わせを順に調べ、以下の
処理を行う。
The number of templates selected in step 205 is assumed to be n and the i-th template. The three combinations are sequentially examined from the selected template, and the following processing is performed.

【0090】まず、選択した3点のテンプレートの中心
座標と、それぞれのテンプレートが照合した辞書情報の
テンプレートの中心座標から、辞書の座標系を画像の座
標系に変換するアフィン変換パラメータを求める。画像
から抽出したテンプレートの中心座標を(Xi ,Yi
)、辞書テンプレートの中心座標を(xi ,yi )と
する。アフィン変換の並進成分(式4のe,f)は重心
の移動から、以下の式5で求められる。
First, an affine transformation parameter for converting the coordinate system of the dictionary to the coordinate system of the image is obtained from the center coordinates of the selected three templates and the center coordinates of the template of the dictionary information collated by each template. The center coordinates of the template extracted from the image are represented by (Xi, Yi
), The center coordinates of the dictionary template are (xi, yi). The translation component of the affine transformation (e, f in Equation 4) can be obtained by the following Equation 5 from the movement of the center of gravity.

【0091】[0091]

【数5】 また、残りのaからdのパラメータについては、(Equation 5) For the remaining parameters a to d,

【数6】 得られたアフィン変換パラメータが、パラメータの変化
範囲内にあるものを選択し、範囲内にないときは、以後
の処理を行わず次の組み合わせを選択する(ステップ2
06)。
(Equation 6) If the obtained affine transformation parameters are within the parameter change range, if not, the subsequent combination is selected without performing the subsequent processing (step 2).
06).

【0092】ステップ206で選択した組み合わせにつ
いて、同じくステップ206で計算したアフィン変換パ
ラメータと、照合した辞書テンプレートのアフィン変換
パラメータを比較する。
For the combination selected in step 206, the affine transformation parameters calculated in step 206 are compared with the affine transformation parameters of the collated dictionary template.

【0093】並進以外のaからdの各パラメータについ
て、ステップ206で計算したパラメータと3組の辞書
テンプレートのパラメータとの差の絶対値の総和をとっ
て、これをテンプレートの組み合わせの評価値とする
(ステップ207)。
For each of the parameters a to d other than the translation, the sum of the absolute values of the differences between the parameters calculated in step 206 and the parameters of the three sets of dictionary templates is calculated and used as the evaluation value of the combination of the templates. (Step 207).

【0094】ステップ206で選択した全てのテンプレ
ートの組み合わせについて、ステップ207の評価値を
計算し、評価値の最も高い組み合わせを、検出した荷札
をあらわすテンプレートの組み合わせであると判定す
る。この評価値の最高値が予め定めた閾値より低い場合
は、荷札がないものと判断する。
The evaluation values in step 207 are calculated for all the template combinations selected in step 206, and the combination having the highest evaluation value is determined to be the template combination representing the detected tag. If the highest evaluation value is lower than a predetermined threshold, it is determined that there is no tag.

【0095】荷札情報処理部32では、荷札検出部31
で検出した荷札に記載された情報を読取り、計算機で処
理可能な情報に変換、記録する。
In the tag information processing section 32, the tag detecting section 31
The information described on the tag detected in step (1) is read, converted into information that can be processed by a computer, and recorded.

【0096】荷札検出部31で得られた画像中のテンプ
レートと、辞書情報のテンプレートから画像中のテンプ
レートを、辞書情報のテンプレートの位置へ写すアフィ
ン変換のパラメータが式6の逆行列として計算すること
ができる。このアフィン変換を入力画像に施すと、入力
画像中の荷札を辞書情報で用いた画像中の荷札の位置に
写すことになり、入力画像中の荷札の位置や、向き、大
きさの変化、形の歪みなどを正規化することができる。
Calculation of the affine transformation parameter for mapping the template in the image obtained from the tag detection unit 31 and the template in the image from the template of the dictionary information to the position of the template of the dictionary information as an inverse matrix of Equation 6. Can be. When this affine transformation is applied to the input image, the tag in the input image is copied to the position of the tag in the image used in the dictionary information, and the position, orientation, size change, and shape of the tag in the input image are changed. Can be normalized.

【0097】画像を正規化した後、読取り対象となる、
宛先、電話番号、荷札の伝票番号、着店コード等文字情
報やコード情報の書かれた領域を切り出す。文字やコー
ドの位置は、予め辞書情報の作成時に辞書に用いた荷札
画像のどの位置に書かれているか指定しておき、この情
報を辞書情報とともに保存し、利用する。
After normalizing the image,
An area in which character information and code information such as a destination, a telephone number, a slip number of a tag, and a store arrival code are written is cut out. The position of the character or code is specified in advance in the position of the tag image used in the dictionary when creating the dictionary information, and this information is stored and used together with the dictionary information.

【0098】文字やコードなどの領域を切り出した後、
この領域の画像に文字認識処理や、バーコード認識処理
を施して文字情報や、コード情報を得る。
After cutting out areas such as characters and codes,
A character recognition process and a barcode recognition process are performed on the image in this area to obtain character information and code information.

【0099】荷札情報処理部32では、得られた文字情
報やコード情報を端末の表示装置に表示するとともに、
これらの情報の、有線または無線の通信媒体を通した通
信、記録媒体への記録などを行う。また、荷物7に取り
付けた、複数回の読み書きが可能な半導体記録媒体への
情報の記録や書き換えを行う。
The tag information processing section 32 displays the obtained character information and code information on the display device of the terminal.
Communication of the information through a wired or wireless communication medium, recording on a recording medium, and the like are performed. Also, information is recorded or rewritten on a semiconductor recording medium attached to the package 7 and readable and writable a plurality of times.

【0100】第2の実施例 次に、本発明に係る第2の実施例について述べる。Second Embodiment Next, a second embodiment according to the present invention will be described.

【0101】本実施例の画像処理装置10のシステム構
成は、図1に示した第1の実施例と同じ構成をとるが、
形状計測部2とカメラ制御部3の内部の構成が異なる。
The system configuration of the image processing apparatus 10 of this embodiment has the same configuration as that of the first embodiment shown in FIG.
The internal configurations of the shape measurement unit 2 and the camera control unit 3 are different.

【0102】(形状計測部2)まず、本実施例に関わる
形状計測部2の構成について図9にしたがって述べる。
(Shape Measuring Unit 2) First, the configuration of the shape measuring unit 2 according to the present embodiment will be described with reference to FIG.

【0103】ベルトコンベヤ1の上部と横にカメラ11
とカメラ12がある。またフォトスイッチ13はベルト
コンベヤ1の一定位置に設置されている。
The camera 11 is located above and beside the belt conveyor 1.
And the camera 12. The photo switch 13 is provided at a fixed position on the belt conveyor 1.

【0104】荷物7はベルトコンベヤ1上を適当な間隔
を開けて搬送されるが、フォトスイッチ13は荷物7が
ベルトコンベヤ1上の所定位置に来たことを検出して、
ステレオカメラ制御部340に信号を送る。
The load 7 is conveyed on the belt conveyor 1 at an appropriate interval. The photo switch 13 detects that the load 7 has reached a predetermined position on the belt conveyor 1, and
A signal is sent to the stereo camera control unit 340.

【0105】ステレオカメラ制御部340は、フォトス
イッチ13からの信号を受けると、直ちにカメラ11と
カメラ12で画像を撮影し、ディジタル化を行って入力
する。
Upon receiving the signal from the photo switch 13, the stereo camera controller 340 immediately captures an image with the cameras 11 and 12, digitizes the image, and inputs the digitized image.

【0106】形状計測制御部41は、荷物7を撮影した
ディジタル画像を入力し、この画像から荷物7の形状を
計測する。この形状計測制御部41では、前記形状計測
制御部21と同じ手法で、カメラ11で荷物7を上から
撮影した画像で荷物7領域を検出するとともに、前記荷
札検出部31と同じ手法を用いて、カメラ11で撮影し
た画像から、荷札の位置を検出する。
The shape measurement control section 41 inputs a digital image of the package 7 and measures the shape of the package 7 from this image. The shape measurement control unit 41 detects the baggage 7 area from an image of the baggage 7 captured from above by the camera 11 and uses the same method as the tag detection unit 31 in the same manner as the shape measurement control unit 21. The position of the tag is detected from the image taken by the camera 11.

【0107】また、辞書情報作成に用いた画像での荷札
の形と位置は既知であるので、辞書情報で用いた荷札の
位置から、入力画像中での荷札の位置を計算することが
できる。
Since the shape and position of the tag in the image used to create the dictionary information are known, the position of the tag in the input image can be calculated from the position of the tag used in the dictionary information.

【0108】画像中での荷札の四隅の位置を(xi ,y
i )とし、荷札の長辺の長さをl1、短辺の長さをl2
とする。カメラ11の焦点距離をf3 とする。カメラ座
標系と3次元座標系Pi =(Xi ,Yi ,Zi )が図1
0の関係にあって3次元座標がカメラ座標に(xi ,y
i )に投影されているとすれば、
The positions of the four corners of the tag in the image are represented by (xi, y
i), the length of the long side of the tag is l1, and the length of the short side is l2
And The focal length of the camera 11 is f3. The camera coordinate system and the three-dimensional coordinate system Pi = (Xi, Yi, Zi) are shown in FIG.
0, and the three-dimensional coordinates correspond to the camera coordinates (xi, y
i) is projected to

【数7】 が成立する。また、P1 P2 ,P3 P4 が長辺でP1 P
4 ,P2 P3 が短辺とすると、
(Equation 7) Holds. P1 P2 and P3 P4 are P1 P
4, if P2 P3 is the short side,

【数8】 が成立する。さらに、各辺が直交することから、(Equation 8) Holds. Furthermore, since each side is orthogonal,

【数9】 が成立する。式7,8,9を解くことによって、荷札の
四隅の3次元座標PI=(Xi ,Yi ,Zi )を計算す
ることができる。形状計測制御部41は、この荷札の四
隅の3次元座標と、荷物7の四隅の座標を出力する。
(Equation 9) Holds. By solving equations 7, 8, and 9, the three-dimensional coordinates PI = (Xi, Yi, Zi) at the four corners of the tag can be calculated. The shape measurement control unit 41 outputs the three-dimensional coordinates of the four corners of the tag and the coordinates of the four corners of the package 7.

【0109】(カメラ制御部3)次に、2つめの実施例
に関わるカメラ制御部3について説明する。
(Camera Control Unit 3) Next, the camera control unit 3 according to the second embodiment will be described.

【0110】カメラ制御部3では、荷札の四隅の3次元
座標と、荷物7の四隅の3次元座標を入力する。
The camera controller 3 inputs the three-dimensional coordinates of the four corners of the tag and the three-dimensional coordinates of the four corners of the package 7.

【0111】ベルトコンベヤ1の進行方向を軸Sとして
(荷物7の進行方向が+方向である)、荷物7の4隅の
3次元座標と、荷札の4隅の3次元座標から軸Sに垂線
をおろす。
With the traveling direction of the belt conveyor 1 as the axis S (the traveling direction of the package 7 is the + direction), the three-dimensional coordinates of the four corners of the package 7 and the three-dimensional coordinates of the four corners of the tag are perpendicular to the axis S. Lower.

【0112】荷物7の4隅から下した垂線の足の座標の
うち、最大のものをSf 、最小のものをSl とする。
Among the coordinates of the legs of the perpendiculars descending from the four corners of the package 7, the largest one is Sf and the smallest one is Sl.

【0113】荷札の4隅から下した垂線の足の座標のう
ち、最大のものS'fを最小のものをS'lとする。
[0113] Of the coordinates of the legs of the perpendiculars descending from the four corners of the tag, the largest one is S'f and the smallest one is S'l.

【0114】また、S'fをとる隅のZ座標をZf 、S'l
をとる隅のZ座標をZl とする。
The Z coordinate of the corner taking S'f is Zf, S'l
Let Zl be the Z coordinate of the corner that takes

【0115】またベルトコンベヤ1の単位時間あたりの
進行量をdSとする。
Further, the amount of progress of the belt conveyor 1 per unit time is dS.

【0116】カメラ制御部3では、合焦点画像入力部4
のラインスキャンカメラ6の下に荷物7が到達したとき
に、焦点を
In the camera control section 3, the in-focus image input section 4
When the luggage 7 arrives below the line scan camera 6 of

【数10】 とし、ベルトコンベヤ1の進行に合わせて(Equation 10) And according to the progress of the belt conveyor 1.

【数11】 ずつ変化させて撮影する。[Equation 11] Change the shooting step by step.

【0117】以上述べた方式によって、荷物7のカメラ
に対して斜めになった平面に荷札が貼付されていたとし
ても、フォーカスを荷物7の移動に応じて連続して調整
することにより荷札全体に焦点の合った画像を撮影する
ことができる。
According to the method described above, even if the tag is attached to a plane oblique to the camera of the baggage 7, the focus can be continuously adjusted according to the movement of the baggage 7 to cover the entire tag. An in-focus image can be taken.

【0118】[0118]

【発明の効果】本発明の画像処理装置及びその方法で
は、画像入力手段で撮影した画像を処理して、焦点が合
った状態で荷物を撮影するために必要な情報を得るの
で、この情報を用いて焦点を制御し、合焦点画像入力手
段で焦点の合った画像を入力するので、荷物に貼付され
た荷札から荷札に記載された情報を精度よく読取ること
ができる。
According to the image processing apparatus and the image processing method of the present invention, an image taken by the image input means is processed to obtain information necessary for taking an image of the luggage in a focused state. Since the focal point is controlled by using the information and the focused image is input by the focused image input means, the information written on the tag can be accurately read from the tag attached to the package.

【図面の簡単な説明】[Brief description of the drawings]

【図1】画像処理装置10の構成図である。FIG. 1 is a configuration diagram of an image processing apparatus 10.

【図2】形状計測部2の構成図である。FIG. 2 is a configuration diagram of a shape measuring unit 2.

【図3】形状計測部2のフローチャートである。FIG. 3 is a flowchart of the shape measuring unit 2.

【図4】凸包の頂点である。FIG. 4 is a vertex of a convex hull.

【図5】複雑形状をした荷物の例である。FIG. 5 is an example of a package having a complicated shape.

【図6】荷物とラインスキャンカメラとの関係を示す図
面である。
FIG. 6 is a diagram showing a relationship between a package and a line scan camera.

【図7】荷札読取部5の構成図である。FIG. 7 is a configuration diagram of the tag reading unit 5.

【図8】荷札検出処理のフローチャートである。FIG. 8 is a flowchart of a tag detection process.

【図9】第2の実施例の形状計測部2の構成図である。FIG. 9 is a configuration diagram of a shape measuring unit 2 according to a second embodiment.

【図10】カメラ座標系と3次元座標系を示す図面であ
る。
FIG. 10 is a diagram showing a camera coordinate system and a three-dimensional coordinate system.

【符号の説明】[Explanation of symbols]

1 ベルトコンベヤ 2 形状計測部 3 カメラ制御部 4 合焦点画像入力部 5 荷札読取部 6 ラインスキャンカメラ 7 荷物 11 カメラ 12 カメラ Reference Signs List 1 belt conveyor 2 shape measurement unit 3 camera control unit 4 focused image input unit 5 tag reading unit 6 line scan camera 7 luggage 11 camera 12 camera

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】荷物の画像を入力する画像入力手段と、 前記荷物に対して焦点を調整した画像を入力する合焦点
画像入力手段と、 前記画像入力手段で撮影した前記画像から、前記荷物を
前記合焦点画像入力手段によって焦点の合った状態で撮
影するために必要な焦点情報を得る形状計測手段と、 前記形状計測手段で計測した焦点情報を用いて前記合焦
点画像入力手段の焦点を制御する焦点制御手段と、 前記合焦点画像入力手段で入力した画像から、前記荷物
の荷札に記載された情報を読取る荷札読取手段とからな
ることを特徴とする画像処理装置。
1. An image input means for inputting an image of a load, a focused image input means for inputting an image focused on the load, and a load from the image taken by the image input means. A shape measuring means for obtaining focus information necessary for capturing an image in focus by the focused image input means; and controlling a focus of the focused image input means using the focus information measured by the shape measuring means. An image processing apparatus comprising: a focus control unit that reads information on a tag of the package from an image input by the focused image input unit;
【請求項2】前記形状計測手段は、 前記荷物の3次元形状を計測し、この計測した3次元形
状情報を焦点情報として前記焦点制御手段へ送り、 前記焦点制御手段は、 前記形状計測手段からの前記3次元形状情報に基づいて
前記荷物と前記合焦点画像入力手段との距離を算出し、
この距離に基づいて前記合焦点画像入力手段の焦点を調
整することを特徴とする請求項1記載の画像処理装置。
2. The shape measuring means measures a three-dimensional shape of the baggage, and sends the measured three-dimensional shape information to the focus control means as focus information. Calculating the distance between the package and the in-focus image input means based on the three-dimensional shape information of
2. The image processing apparatus according to claim 1, wherein the focus of the focused image input unit is adjusted based on the distance.
【請求項3】前記荷物はベルトコンベヤによって搬送さ
れ、 前記ベルトコンベヤの第1の地点に前記画像入力手段が
配され、 前記ベルトコンベヤの第1の地点より後の第2の地点に
前記合焦点画像入力手段であるラインスキャンカメラが
配されていることを特徴とする請求項1記載の画像処理
装置。
3. The belt is conveyed by a belt conveyor, wherein the image input means is disposed at a first point of the belt conveyor, and the focus is at a second point after the first point of the belt conveyor. 2. The image processing apparatus according to claim 1, further comprising a line scan camera serving as an image input unit.
【請求項4】荷物の画像を入力する画像入力ステップ
と、 前記荷物に対して焦点を調整した画像を荷札読取用カメ
ラによって入力する合焦点画像入力ステップと、 前記画像入力ステップで撮影した前記画像から、前記荷
物を前記荷札読取用カメラによって焦点の合った状態で
撮影するために必要な焦点情報を得る形状計測ステップ
と、 前記形状計測ステップで計測した焦点情報を用いて前記
荷札読取用カメラの焦点を制御する焦点制御ステップ
と、 前記合焦点画像入力ステップで入力した画像から、前記
荷物の荷札に記載された情報を読取る荷札読取ステップ
とからなることを特徴とする画像処理方法。
4. An image inputting step of inputting an image of a package, a focused image inputting step of inputting an image adjusted in focus on the package by a tag reading camera, and the image captured in the image inputting step. From, a shape measuring step of obtaining the focus information necessary to capture the luggage in focus with the tag reading camera, and the tag reading camera using the focus information measured in the shape measuring step An image processing method, comprising: a focus control step of controlling a focus; and a tag reading step of reading information described on a tag of the package from the image input in the focused image inputting step.
【請求項5】前記形状計測ステップは、 前記荷物の3次元形状を計測し、この計測した3次元形
状情報を焦点情報として前記焦点制御ステップへ送り、 前記焦点制御ステップは、 前記形状計測ステップからの前記3次元形状情報に基づ
いて前記荷物と前記荷札読取用カメラとの距離を算出
し、この距離に基づいて前記荷札読取用カメラの焦点を
調整することを特徴とする請求項4記載の画像処理方
法。
5. The shape measuring step measures a three-dimensional shape of the package, and sends the measured three-dimensional shape information as focus information to the focus control step. The focus control step includes: 5. The image according to claim 4, wherein a distance between the package and the tag reading camera is calculated based on the three-dimensional shape information, and a focus of the tag reading camera is adjusted based on the distance. Processing method.
【請求項6】前記荷物はベルトコンベヤによって搬送さ
れ、 前記ベルトコンベヤの第1の地点に前記画像入力ステッ
プで用いられる画像入力用カメラが配され、 前記ベルトコンベヤの第1の地点より後の第2の地点に
前記荷札読取用カメラであるラインスキャンカメラが配
されていることを特徴とする請求項4記載の画像処理方
法。
6. The baggage is conveyed by a belt conveyor, an image input camera used in the image input step is arranged at a first point on the belt conveyor, and a first point after the first point on the belt conveyor. 5. The image processing method according to claim 4, wherein a line scan camera serving as the tag reading camera is disposed at the second point.
JP9353467A 1997-12-22 1997-12-22 Image processor and its method Pending JPH11183159A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9353467A JPH11183159A (en) 1997-12-22 1997-12-22 Image processor and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9353467A JPH11183159A (en) 1997-12-22 1997-12-22 Image processor and its method

Publications (1)

Publication Number Publication Date
JPH11183159A true JPH11183159A (en) 1999-07-09

Family

ID=18431056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9353467A Pending JPH11183159A (en) 1997-12-22 1997-12-22 Image processor and its method

Country Status (1)

Country Link
JP (1) JPH11183159A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013522143A (en) * 2010-03-12 2013-06-13 サンライズ アール アンド ディー ホールディングス,エルエルシー System and method for product identification
JP2021076494A (en) * 2019-11-11 2021-05-20 沖電気工業株式会社 System, device, and method for dimension measurement
WO2022091569A1 (en) * 2020-10-26 2022-05-05 株式会社Nttドコモ Image processing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013522143A (en) * 2010-03-12 2013-06-13 サンライズ アール アンド ディー ホールディングス,エルエルシー System and method for product identification
JP2021076494A (en) * 2019-11-11 2021-05-20 沖電気工業株式会社 System, device, and method for dimension measurement
WO2022091569A1 (en) * 2020-10-26 2022-05-05 株式会社Nttドコモ Image processing system

Similar Documents

Publication Publication Date Title
JP3124296B2 (en) How to detect the position and direction of the fiducial mark
CN109724990B (en) Method for quickly positioning and detecting code spraying area in label of packaging box
EP3163497B1 (en) Image transformation for indicia reading
US9390314B2 (en) Methods and apparatus for determining dimensions of an item using 3-dimensional triangulation
EP2045772B1 (en) Apparatus for picking up objects
WO2019189661A1 (en) Learning dataset creation method and device
US9033238B2 (en) Methods and arrangements for sensing identification information from objects
US20220016764A1 (en) Object grasping system
JPWO2015008732A1 (en) Optical character recognition device
JP2015114292A (en) Workpiece position information identification apparatus and workpiece position information identification method
JP2012192490A (en) Packing recognition device
CN109454004B (en) Robot scanning and sorting system and method
JPH11183159A (en) Image processor and its method
CN110084880A (en) The device and method of 3-D image processing
JP2010032258A (en) Apparatus and method for recognizing position of work for depalletizing
JP7129616B2 (en) Projection indication device, parcel sorting system and projection indication method
JP7288231B2 (en) Tracking device, tracking method and program
WO2023082417A1 (en) Grabbing point information obtaining method and apparatus, electronic device, and storage medium
WO2022004525A1 (en) Information processing device, sorting system, and program
EP0076332A1 (en) Optical character reader with pre-scanner
JP3444171B2 (en) Article recognition device
JPH1196378A (en) Load position/attitude recognizing device
CN111476840A (en) Target positioning method, device, equipment and computer readable storage medium
Hashimoto et al. 3-D Object Recognition Based on Integration of Range Image and Gray-scale Image.
CN113822196B (en) OMR (object management record) transportation surface sheet manufacturing and identifying method convenient for reproduction and propagation