JP7288568B1 - Automatic measurement system - Google Patents

Automatic measurement system Download PDF

Info

Publication number
JP7288568B1
JP7288568B1 JP2023038714A JP2023038714A JP7288568B1 JP 7288568 B1 JP7288568 B1 JP 7288568B1 JP 2023038714 A JP2023038714 A JP 2023038714A JP 2023038714 A JP2023038714 A JP 2023038714A JP 7288568 B1 JP7288568 B1 JP 7288568B1
Authority
JP
Japan
Prior art keywords
image
point cloud
cloud data
code
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023038714A
Other languages
Japanese (ja)
Other versions
JP2024129483A (en
Inventor
純子 迎
炎 趙
凱 徐
奎 孫
爽 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
X Prospect
Original Assignee
X Prospect
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X Prospect filed Critical X Prospect
Priority to JP2023038714A priority Critical patent/JP7288568B1/en
Application granted granted Critical
Publication of JP7288568B1 publication Critical patent/JP7288568B1/en
Publication of JP2024129483A publication Critical patent/JP2024129483A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラを用いて読取った荷物用の2次元コードを、荷物を自動採寸するための点群データと関連付けて活用する。【解決手段】自動採寸システム100は、荷物保管場所の矩形状の出入口に設けられたセンサであって搬送手段が出入口を通過することを検知する通過検知センサ3と、矩形状の出入口の4つのコーナーに各1台ずつ設けられた任意の被写体を撮影するToFカメラ1であって通過検知センサが搬送手段による出入口の通過を検知したときに荷物に赤外光を照射するとともに当該荷物から反射された赤外光を受光する4台のToF(Time of Flight)カメラ1と、任意の被写体を撮影可能なカメラ2であって出入口の左右いずれかの側面部に設けられたカメラ2と、ToFカメラ1が撮影した画像とカメラ2が撮影した画像を管理する情報管理サーバ4と、を具備してなる。【選択図】図1A two-dimensional code for parcels read by a camera is used in association with point cloud data for automatically measuring parcels. An automatic measuring system 100 includes a passage detection sensor 3, which is a sensor provided at a rectangular entrance of a baggage storage area and detects passage of a conveying means through the entrance, and four rectangular entrances. A ToF camera 1 for photographing an arbitrary subject is provided at each corner, and when a passage detection sensor detects passage of a transport means through a doorway, infrared light is emitted to the baggage and the infrared light is reflected from the baggage. Four ToF (Time of Flight) cameras 1 for receiving infrared light, a camera 2 capable of photographing an arbitrary subject and provided on either the left or right side of the entrance, and a ToF camera and an information management server 4 that manages images taken by the camera 1 and images taken by the camera 2. - 特許庁[Selection drawing] Fig. 1

Description

本発明は、搬送車両その他の搬送手段により搬送されている状態の荷物を自動採寸するとともに当該荷物の立体的形状を示す画像を生成する自動採寸システムに関する。 The present invention relates to an automatic measurement system that automatically measures a package being transported by a carrier vehicle or other transport means and that generates an image showing the three-dimensional shape of the package.

昨今では、取引のグローバル化やインターネット通信販売の需要増加に伴い、配送される荷物量が増加の一途をたどっている。
このような情勢のもと、自然、保管用倉庫において搬入・搬出される荷物数も非常に多くなっている。
In recent years, with the globalization of transactions and the increase in demand for internet mail-order sales, the amount of packages to be delivered has been steadily increasing.
Under such circumstances, the number of packages being carried in and out of storage warehouses is naturally increasing.

荷物を配送する場合、個々の荷物について幅・高さ・奥行といったサイズを知ることが必要となる。
このような保管倉庫における荷物の採寸作業は、一部の企業では自動採寸の仕組が導入され効率化が図られているものの、人手による採寸作業で対応している企業もまだまだ多い。
When delivering packages, it is necessary to know the width, height, and depth of each package.
Although some companies have introduced an automatic measuring system to measure packages in such storage warehouses to improve efficiency, there are still many companies that still rely on manual measuring.

流通量が増えているなか、非常に多数の荷物を1つずつ採寸することは作業負荷が大きく、さらに荷物のなかには相当に重たいものも存在するため、このような荷物を採寸する場合には作業者の疲労も倍増してしまう。
取扱う荷物を自動採寸できるようになれば、採寸作業に携わる人的リソースが解放されるため、その分の人的リソースを他の作業に割当てて活用できることから、自動採寸システムに対する潜在的なニーズがあるものと考えられる。
As the volume of distribution increases, measuring a very large number of packages one by one is a heavy workload, and some of the packages are quite heavy. It also doubles the fatigue of the person.
If the cargo to be handled can be automatically measured, the human resources involved in the measurement work will be freed up, and the human resources can be allocated to other work. It is thought that there is.

さらに、近年では至る所でQR(Quick Response)コード(登録商標)が利用されている。
物流の分野でも、荷物を梱包する包装にQRコード(登録商標)を貼付し、このQRコード(登録商標)に埋込まれた荷物情報を読取ることで、荷物の保管・配送をおこなうことが主流となっている。
「QRコード(登録商標)による荷物管理」機能は、上述した「自動採寸」機能に比肩して、物流の効率化を支える役割を果たしている。
Furthermore, in recent years, QR (Quick Response) codes (registered trademark) have been used everywhere.
In the field of logistics as well, it is common practice to attach a QR code (registered trademark) to the packaging of a package, and to store and deliver the package by reading the package information embedded in this QR code (registered trademark). It has become.
The "package management by QR code (registered trademark)" function plays a role in supporting the efficiency of physical distribution in comparison with the above-mentioned "automatic measurement" function.

なお、昨今では、カメラ技術の著しい向上を背景に、カメラを荷物処理の現場に応用した種々の「自動採寸技術」が提供されている(例えば、特許文献1・2参照。)。
特許文献1に開示された自動計測装置によれば、計測対象物100の近傍に併置・密着させた携帯式3次元定尺立体定規101・102と当該対象物をCCDカメラ等で撮影し、この定規を基準として対象物の各辺の長さや座標を求める(同文献1・第7段落)。
In recent years, against the background of remarkable improvements in camera technology, various "automatic measurement techniques" that apply cameras to baggage processing sites have been provided (see Patent Documents 1 and 2, for example).
According to the automatic measuring apparatus disclosed in Patent Document 1, portable three-dimensional fixed-length solid rulers 101 and 102 placed side by side in close contact with an object 100 to be measured and the object are photographed by a CCD camera or the like. The length and coordinates of each side of the object are determined with reference to the ruler (Ref. 1, paragraph 7).

また、特許文献2に開示された容器計測システムによれば、二次元情報取得部42(カメラなど)により容器12を含む二次元の画像情報を取得し(同文献2・第17段落)、さらに三次元情報取得部43(3Dセンサ・距離計測手段)で容器12の三次元の情報を取得する(同文献2・同17段落)。
そして、演算部53が、容器12の距離画像Dに基づいて、容器12を構成する平面部13の三次元位置を算出し、この三次元位置を基に容器12の三次元情報を算出する(同文献2・同19段落)。
なお、容器12の三次元情報は、特徴点F(平面部13の角の部分)の三次元位置の情報と、リンクL(平面部13の辺の部分)の三次元位置の情報を含み、リンクLの寸法の情報を含み、リンクLに囲まれた部分(平面部13の面の部分)の三次元形状の情報を含む(特許文献2・第38段落)。
Further, according to the container measurement system disclosed in Patent Document 2, two-dimensional image information including the container 12 is acquired by the two-dimensional information acquisition unit 42 (camera or the like) (Publication 2, paragraph 17), and further The three-dimensional information of the container 12 is acquired by the three-dimensional information acquiring unit 43 (3D sensor/distance measuring means) (ibid. 2, Paragraph 17).
Then, the calculation unit 53 calculates the three-dimensional position of the plane portion 13 that constitutes the container 12 based on the distance image D of the container 12, and calculates the three-dimensional information of the container 12 based on this three-dimensional position ( Ibid., Paragraph 2, Ibid., Paragraph 19).
The three-dimensional information of the container 12 includes three-dimensional position information of the feature point F (corner portion of the flat portion 13) and three-dimensional position information of the link L (side portion of the flat portion 13), It includes information on the dimensions of the link L, and includes information on the three-dimensional shape of the portion surrounded by the link L (the surface portion of the flat portion 13) (Patent Document 2, paragraph 38).

また、カメラを活用した「QRコード(登録商標)による荷物管理技術」も提供されている(例えば、特許文献3参照。)。
特許文献3に開示されたラベル読取システムによれば、通過センサ6が、走行経路F1の延在方向におけるQRコード撮影装置3の配設位置と荷山撮影装置4の配設位置との間に配設されており、走行経路F1でのフォークリフト10の通過を検知する(同文献3・第37段落)。
情報処理端末8は、QRコード撮影装置3の各カメラ35a~35d,36a~36dから受信した画像の情報によりQRコード(登録商標)QRCの情報を取得し、このQRコード(登録商標)QRCの情報から各部品箱2に収容されている部品の種類や個数等の情報を取得する(同文献3・第42段落)。
そして、情報処理端末8は、同文献3・第78段落のごとく荷山撮影ユニット41・42で写した荷山全体の画像において、適正に読取られたQRコードQRCならびに読取りできなかったQRコードQRCを特定できる(同文献3・第80段落)。
In addition, a "package management technology using a QR code (registered trademark)" using a camera has also been provided (see, for example, Patent Document 3).
According to the label reading system disclosed in Patent Literature 3, the passage sensor 6 is positioned between the arrangement position of the QR code photographing device 3 and the arrangement position of the pile photographing device 4 in the extending direction of the travel route F1. It is arranged and detects the passage of the forklift 10 on the traveling route F1 (the same document 3, paragraph 37).
The information processing terminal 8 acquires the information of the QR code (registered trademark) QRC from the information of the images received from the cameras 35a to 35d and 36a to 36d of the QR code photographing device 3, and obtains the information of the QR code (registered trademark) QRC. Information such as the type and number of parts contained in each parts box 2 is acquired from the information (Ref. 3, paragraph 42).
Then, the information processing terminal 8, in the image of the entire cargo pile photographed by the cargo pile photographing units 41 and 42 as described in paragraph 3 and paragraph 78 of the same document, reads the properly read QR code QRC and the QR code QRC that could not be read. can be specified (the same document 3, paragraph 80).

特開2012-137304号公報JP 2012-137304 A 特開2021-056543号公報JP 2021-056543 A 特開2020-064334号公報JP 2020-064334 A

特許文献1の技術によれば、定尺立体定規を使用することが前提であり、対象物と同定規を同じ撮影画像に写せない環境では適用できない。 The technique of Patent Document 1 assumes the use of a fixed-length solid ruler, and cannot be applied in an environment in which the object and the identification ruler cannot be captured in the same photographed image.

特許文献2の技術によれば、二次元情報取得部42で撮影した容器12を含む二次元の画像情報(同文献2・図2)から、当該容器12の三次元情報を取得しうる。
しかしながら、特許文献2では、カメラ(二次元情報取得部42)が1箇所にしか設けられておらず(同文献2・図1)、容器12の立体的形状を示す立体画像までは生成できない。
According to the technique of Patent Document 2, three-dimensional information of the container 12 can be obtained from the two-dimensional image information including the container 12 photographed by the two-dimensional information obtaining unit 42 (Reference 2, FIG. 2).
However, in Patent Literature 2, a camera (two-dimensional information acquisition unit 42) is provided only at one location (Patent Literature 2, FIG. 1), and a three-dimensional image showing the three-dimensional shape of the container 12 cannot be generated.

また、特許文献3の技術によれば、複数の荷物に各々貼付された複数のQRコード(登録商標)を同一の画像に撮影し、当該画像に写り込んだ個々の荷物に対応する複数のQRコード(登録商標)から情報を読取ることができ、荷物管理業務の効率を非常に高めることができる。
しかしながら、同文献3のQRコード(登録商標)利用は2次元的画像情報と連係させるものに留まっており、QRコード(登録商標)の情報を、荷物を自動採寸した点群データ(撮影画像に対し、カメラから当該画像に写っている被写体までの距離情報を付加したデータ)と関連付けて利用することまでは想定されていない。
Further, according to the technique of Patent Document 3, a plurality of QR codes (registered trademark) attached to a plurality of packages are photographed in the same image, and a plurality of QR codes corresponding to the individual packages reflected in the image are captured. Information can be read from the code (registered trademark), and the efficiency of cargo management operations can be greatly improved.
However, the use of the QR code (registered trademark) in Document 3 is limited to linking it with two-dimensional image information, and the information of the QR code (registered trademark) is used as point cloud data (on the photographed image) obtained by automatically measuring the package. On the other hand, it is not assumed to be used in association with data added with distance information from the camera to the subject in the image).

本発明は、上記の問題に鑑みてなされたものであり、カメラを用いて読取った荷物用の2次元コードを、荷物を自動採寸するための点群データと関連付けて活用することを目的とする。
The present invention has been made in view of the above problems, and an object of the present invention is to utilize a two-dimensional code for baggage read by a camera in association with point cloud data for automatically measuring the baggage. .

〔第1発明〕
そこで上記の課題を解決するために、本願の第1発明に係る自動採寸システムは、
搬送車両その他の搬送手段により搬送される荷物のサイズを自動的に採寸できる自動採寸システムであって、

荷物保管場所の矩形状の出入口に設けられたセンサであって、前記搬送手段が出入口を通過することを検知する通過検知センサと、
前記矩形状の出入口の4つのコーナーに各1台ずつ設けられた任意の被写体を撮影するToF(Time of Flight)カメラであって、前記通過検知センサが搬送手段による出入口の通過を検知したときに前記荷物に赤外光を照射するとともに当該荷物から反射された赤外光を受光する4台のToF(Time of Flight)カメラと、
任意の被写体を撮影可能なカメラであって、前記出入口の左右いずれかの側面部に設けられたカメラと、
前記ToFカメラが撮影した画像と前記カメラが撮影した画像を管理する情報管理サーバと、
を具備してなり、

前記4台のToF(Time of Flight)カメラは、各々、
前記通過検知センサが搬送手段の出入口通過を検知したときに、この搬送手段と同搬送手段が搬送中の荷物がともに写り込んだ荷物車両画像を撮影する撮影手段と、
同通過検知センサが搬送手段の出入口通過を検知したときに荷物に対して赤外光を放出してから同荷物により反射された赤外光を受光するまでの受光所要時間に基づき、荷物車両画像の各画素中に写り込んだ被写体部分と同ToFカメラの間の深度距離を求める距離算出手段と、
前記距離算出手段が求めた深度距離に応じて定まる荷物車両画像内の深度座標と、各深度距離に応じた区分を示す所定色とからなる荷物車両画像の各画素のデータ集合を生成し、当該生成したデータ集合に基づいて、各画素における深度距離に応じた所定色を荷物車両画像の画素ごとに着色することで点群データを生成する点群データ生成手段と、
前記点群データを情報管理サーバに送信する点群データ送信手段と、
を有し、

前記カメラは、
前記通過検知センサが搬送手段の出入口通過を検知したときに、この搬送手段と同搬送手段が搬送中の荷物と同荷物に貼付された2次元コードとが写り込んだコード画像を撮影するコード撮影手段と、
前記コード画像を情報管理サーバに送信するコード画像送信手段と、
を有し、

前記情報管理サーバは、
出入口の各コーナーから各ToFカメラが撮影した同じ被写体の4枚の荷物車両画像からそれぞれ生成された4枚の点群データにおいて、当該点群データに写り込んだ荷物の幅と高さと奥行を採寸し、
前記4枚の点群データを合成することで、当該点群データに写り込んでいる荷物の3次元的な立体形状を示す1枚の荷物立体画像を生成し、
前記荷物立体画像が示す荷物に、前記採寸した幅と高さと奥行を対応付けて記憶する採寸処理と、

前記コード画像に写り込んでいる個々の荷物に添付された2次元コードを認識して、当該2次元コードが示す荷物情報を読取り、
前記認識した2次元コードに基づいて、前記コード画像に写り込んでいる個々の荷物を認識し、
前記コード画像のなかに上下に積上げられた複数の荷物が写り込んでいるか否かを、各荷物にそれぞれ貼付されている2次元コードに基づいて判別するコード読取処理と、

前記コード画像のなかに上下に積上げられた複数の荷物が写り込んでいると判別したときに、
当該コード画像に写り込んだ2次元コードの位置に対応する、前記荷物立体画像におけるコード相対位置を特定し、
前記コード相対位置が特定された荷物立体画像に対して、当該コード相対位置に写り込んだ2次元コードと同2次元コードが示す荷物情報を対応付けて記憶するような構成とした。
[First invention]
Therefore, in order to solve the above problems, the automatic measurement system according to the first invention of the present application includes:
An automatic measuring system capable of automatically measuring the size of a package transported by a transport vehicle or other transport means,

a passage detection sensor provided at a rectangular doorway of a luggage storage location, the sensor detecting passage of the conveying means through the doorway;
A ToF (Time of Flight) camera for photographing an arbitrary subject provided one each at each of the four corners of the rectangular doorway, when the passage detection sensor detects passage of the doorway by the conveying means four ToF (Time of Flight) cameras that irradiate the baggage with infrared light and receive infrared light reflected from the baggage;
a camera capable of photographing an arbitrary subject, the camera being provided on either the left or right side of the doorway;
an information management server that manages images captured by the ToF camera and images captured by the camera;
and

Each of the four ToF (Time of Flight) cameras,
a photographing means for photographing a parcel vehicle image in which the parcels being conveyed by the conveying means and the parcels being conveyed by the conveying means are photographed when the passage detection sensor detects passage of the entrance/exit of the conveying means;
Based on the light reception time required from when the passage detection sensor detects the passage of the entrance/exit of the transportation means to when the infrared light is emitted to the baggage until the infrared light reflected by the same baggage is received. a distance calculation means for obtaining the depth distance between the subject portion reflected in each pixel of the ToF camera and the ToF camera;
generating a data set of each pixel of the cargo vehicle image including depth coordinates in the cargo vehicle image determined according to the depth distance obtained by the distance calculating means and a predetermined color indicating a division according to each depth distance; a point cloud data generating means for generating point cloud data by coloring each pixel of the cargo vehicle image with a predetermined color corresponding to the depth distance of each pixel based on the generated data set;
Point cloud data transmission means for transmitting the point cloud data to an information management server;
has

The camera is
Code photographing for photographing a code image in which a package being transported by the transport means and the transport means and a two-dimensional code affixed to the same load are photographed when the passage detection sensor detects passage of the entrance/exit of the transport means. means and
code image transmission means for transmitting the code image to an information management server;
has

The information management server is
Measure the width, height, and depth of the cargo reflected in the point cloud data in the four point cloud data generated from the four cargo vehicle images of the same subject taken by each ToF camera from each corner of the entrance/exit. death,
Synthesizing the four pieces of point cloud data to generate a single package stereoscopic image showing the three-dimensional shape of the package reflected in the point cloud data,
a measuring process of associating and storing the measured width, height, and depth of the luggage indicated by the stereoscopic image of the luggage;

recognizing a two-dimensional code attached to each package reflected in the code image and reading package information indicated by the two-dimensional code;
recognizing individual packages appearing in the code image based on the recognized two-dimensional code;
a code reading process for determining whether or not a plurality of vertically stacked packages are reflected in the code image based on a two-dimensional code affixed to each package;

When it is determined that a plurality of packages stacked up and down are reflected in the code image,
identifying a code relative position in the three-dimensional image of the baggage corresponding to the position of the two-dimensional code reflected in the code image;
The two-dimensional code reflected in the code relative position and the package information indicated by the two-dimensional code are stored in association with the package stereoscopic image for which the code relative position is specified.

本願の第1発明によれば、搬送手段(図2の搬送車両VH)が出入口GWを通過したことを通過検知センサ3が検知すると、2次元コード撮影用のカメラ2が2次元コードCD(図4)を撮影すると同時に、4台のToFカメラ1-1~1-4(図3)が荷物車両画像PCV(図8(a)参照)を撮影する。
さらに、上記4台のToFカメラ1-1~1-4は、各々「点群データPD」(図8(b)参照)を生成する。
情報管理サーバ4は、カメラ2が撮影したコード画像PCD(図11)とToFカメラ1が生成した点群データPDを受取り、2次元コード認識(解読)処理ならびに3次元点群データ解析(寸法計測)処理を行う。
According to the first aspect of the present application, when the passage detection sensor 3 detects that the conveying means (the conveying vehicle VH in FIG. 2) has passed through the entrance GW, the camera 2 for photographing the two-dimensional code detects the two-dimensional code CD (see FIG. 4), four ToF cameras 1-1 to 1-4 (FIG. 3) shoot the luggage vehicle image P CV (see FIG. 8A).
Further, each of the four ToF cameras 1-1 to 1-4 generates "point cloud data PD" (see FIG. 8(b)).
The information management server 4 receives the code image P CD (FIG. 11) captured by the camera 2 and the point cloud data PD generated by the ToF camera 1, and performs two-dimensional code recognition (decoding) processing and three-dimensional point cloud data analysis (dimension measurement) processing.

このようにすることで、第1発明は、荷物保管場所の出入口GWの各コーナーから4台のToFカメラ1-1~1-4で撮影した同じ被写体を示す4枚の荷物車両画像PCVから生成した点群データPDに基づいて、点群データPDに写り込んだ荷物のサイズ(幅・高さ・奥行)を採寸する。
これにより、人手を介することなく「搬送車両VHによって搬送されている状態のまま、荷物CRのサイズを自動的に採寸」でき、ひいては、採寸作業から解放された人的リソースにより別の業務をこなすことも可能となる。
また、搬送車両VHによる荷物の搬送作業を一切妨げることなしに、同車両VHが搬送中の荷物CR(図2の例では、荷物CR-1・CR-2)の採寸を進めることができる。
なお、上記「搬送手段」とは、フォークリフトに代表される搬送車両VHや、ベルトコンベアなどでもよい。
By doing so, the first invention obtains from four luggage vehicle images PCV showing the same subject photographed by four ToF cameras 1-1 to 1-4 from each corner of the entrance/exit GW of the luggage storage area. Based on the generated point cloud data PD, the size (width, height, depth) of the package reflected in the point cloud data PD is measured.
As a result, it is possible to "automatically measure the size of the cargo CR while it is being transported by the transport vehicle VH" without human intervention, and furthermore, human resources freed from the measuring work can perform other tasks. is also possible.
In addition, it is possible to proceed with the measurement of the load CR (loads CR-1 and CR-2 in the example of FIG. 2) being transported by the transport vehicle VH without any hindrance to the work of transporting the load by the transport vehicle VH.
Incidentally, the above-mentioned "conveying means" may be a conveying vehicle VH typified by a forklift, a belt conveyor, or the like.

また、第1発明によれば、情報管理サーバ4は、各ToFカメラ1-1~1-4で撮影した4枚の荷物車両画像PCV(図6(a)~図6(b)・図7(a)~図7(b))から各々生成した4枚の点群データPD(図8(b))を合成することで、当該点群データPDに写り込んだ荷物CRの3次元的な立体形状を示す「1枚の荷物立体画像P3D」(図17(a)・図17(b)参照)を生成する。 Further, according to the first invention, the information management server 4 stores four parcel vehicle images P CV (FIGS. 6A to 6B) captured by the ToF cameras 1-1-1-4. 7(a) to 7(b)), and by synthesizing the four pieces of point cloud data PD (FIG. 8(b)), the three-dimensional image of the package CR reflected in the point cloud data PD is obtained. "One parcel stereoscopic image P3D " (see FIGS. 17(a) and 17(b)) showing a three-dimensional shape is generated.

また、第1発明においては、荷物CR(図2の荷物CR-1・CR-2)の取扱作業に従事する作業者が目視確認で個々に荷物を判別することなく、カメラで撮影したコード画像PCDに基づき「搬送車両VHが搬送している状態の個々の荷物CRを自動的に判別」できる。
このように、それぞれの荷物を判別できることにより、荷物CRの個数を自動的にカウントできることにつながり、さらには、これらの荷物を積込むために必要な人員数や配送に必要とされる配送車両の台数などを自動予測することも可能になる。
In addition, in the first invention, a code image photographed by a camera is used without visually discriminating the individual packages by a worker engaged in handling work of the packages CR (packages CR-1 and CR-2 in FIG. 2). Based on the PCD , it is possible to "automatically discriminate individual packages CR being transported by the transport vehicle VH".
In this way, by being able to identify each package, the number of packages CR can be automatically counted, and furthermore, the number of personnel required to load these packages and the number of delivery vehicles required for delivery can be determined. It is also possible to automatically predict the number of vehicles.

さらに、第1発明によれば、コード画像PCD(図11)中に上下に積上げられた複数の荷物が写り込んでいると判別したときに、同コード画像PCD(図11)に写り込んだ2次元コードCD(図11のCD-1・CD-2)の位置に対応する、荷物立体画像P3D(図17(a)・図17(b))におけるコード相対位置を特定する。
また、荷物の3次元的な立体形状を示す荷物立体画像P3Dに対して、コード画像PCDに写り込んだ2次元コードCDと同2次元コードCDが示す荷物情報ICRを対応付けて記憶する。
ここで、「荷物情報ICR」とは、搬送車両VHにより搬送される荷物CRに関する属性を示す情報である。
上記「荷物情報ICR」の具体例としては、荷物CRとして扱われる商品の名称・商品の品番・商品の個数・商品の重量といった情報が挙げられる。
Furthermore, according to the first invention, when it is determined that a plurality of vertically stacked packages are reflected in the code image P CD (FIG. 11), they are reflected in the code image P CD (FIG. 11). Then, the relative positions of the codes in the stereoscopic image P 3D (FIGS. 17A and 17B) corresponding to the positions of the two-dimensional codes CD (CD-1 and CD-2 in FIG. 11) are identified.
Also, the two-dimensional code CD reflected in the code image PCD and the package information ICR indicated by the two-dimensional code CD are stored in association with the three-dimensional package image P3D showing the three-dimensional shape of the package. do.
Here, the "parcel information I CR " is information indicating attributes related to the parcel CR transported by the transport vehicle VH.
Specific examples of the above-mentioned "parcel information ICR " include information such as the name of the product handled as the parcel CR, the product number, the number of products, and the weight of the product.

〔第2発明〕
上記課題を解決するために本願の第2発明に係る自動採寸システムは、第1発明に係る自動採寸システムであって、
前記ToFカメラは、
採寸対象となる荷物が赤外光を吸収する低反射物である場合でも、撮影した荷物車両画像から点群データを生成できる構成とした。
[Second invention]
In order to solve the above problems, an automatic measurement system according to a second invention of the present application is the automatic measurement system according to the first invention,
The ToF camera is
Even if the package to be measured is a low-reflection object that absorbs infrared light, it is configured so that point cloud data can be generated from the photographed image of the package vehicle.

黒色や暗色の物体(低反射物)は、赤外光を吸収してしまう。
そのため、一般的には、ToFカメラを利用して低反射物を撮影しても、撮影画像に写り込んだ低反射物にかかる点群データを取得することは困難である。
本願発明者の試行によれば、荷物保管場所の出入口GW上部のコーナー2箇所にそれぞれToFカメラ1を設置しても、それら2台のToFカメラ1で写した荷物車両画像PCVを基に、低反射物からなる荷物の点群データPDを得ることはできなかった。
Black or dark colored objects (low reflectance objects) absorb infrared light.
Therefore, in general, even if a ToF camera is used to photograph a low-reflectance object, it is difficult to obtain point cloud data of the low-reflectance object reflected in the captured image.
According to the trial by the inventor of the present application, even if ToF cameras 1 are installed at two corners above the entrance/exit GW of the baggage storage area, based on the luggage vehicle image PCV taken by these two ToF cameras 1, It was not possible to obtain point cloud data PD for packages made of low-reflection objects.

しかしながら、本願発明者によるその後の創意工夫により、ToFカメラ1の台数を4台に増やし、矩形の出入口GWの「各コーナー4箇所にそれぞれ1台ずつ」合計4台のToFカメラ1を設置することで、黒色や暗色の低反射物からなる荷物CRについても点群データPDを生成可能となり、低反射物にかかる自動採寸も実現できた。
これは、ToFカメラ1の台数を増やしたことに付随して、ToFカメラ1から低反射物に対して照射される赤外光の総光量が増し、ひいては、低反射物により反射された赤外光が受光手段15(図5)の検出限界を超過したためと考えられる。
However, the present inventor increased the number of ToF cameras 1 to 4 and installed a total of 4 ToF cameras 1 at each of the four corners of the rectangular entrance GW. , it became possible to generate point cloud data PD even for packages CR consisting of black or dark low-reflectivity objects, and automatic measurement of low-reflectivity objects could also be realized.
This is accompanied by an increase in the number of ToF cameras 1, and the total amount of infrared light emitted from the ToF cameras 1 to the low-reflecting object increases, and the infrared light reflected by the low-reflecting object increases. It is considered that the light exceeded the detection limit of the light receiving means 15 (FIG. 5).

第2発明に係る自動採寸システムによれば、矩形の出入口GWの各コーナー4箇所にそれぞれ1台ずつ設置された4台のToFカメラ1を備えているため、採寸対象の荷物が低反射物であったとしても、その点群データDPを取得でき、当該データDPを基に同荷物CRの自動採寸を行える。
なお、ToFカメラ1の配置形態は、被写体(荷物CR)を中心(矩形の出入口GWの中心)として当該荷物CRを包囲するように略等間隔での矩形の各コーナーに配置してある。
本説明例では、ToFカメラ1の配置台数は4台であるものの、出入口GWの各コーナーにToFカメラ1が設置してある限り、ToFカメラ1は5台以上に増やしても構わない。
According to the automatic measurement system according to the second invention, four ToF cameras 1 are installed at each of the four corners of the rectangular entrance GW. Even if there is, the point cloud data DP can be acquired, and the same parcel CR can be automatically measured based on the data DP.
Note that the ToF cameras 1 are arranged at the corners of a rectangle at approximately equal intervals so as to surround the subject (parcel CR) as the center (the center of the rectangular doorway GW).
In this example, the number of ToF cameras 1 is four, but the number of ToF cameras 1 may be increased to five or more as long as the ToF cameras 1 are installed at each corner of the entrance/exit GW.

なお、ToFカメラ1を採用することの技術的メリットとしては、装置(ToFカメラ1)それ自体に光照射手段14と受光手段15が搭載されているため「装置構成が小型化」でき、また、赤外光を使用するため荷物保管場所が「暗所であっても撮影可能」であることが挙げられる。 The technical merits of adopting the ToF camera 1 are that the device (ToF camera 1) itself is equipped with the light irradiating means 14 and the light receiving means 15, so that "the device configuration can be downsized", and Since infrared light is used, it is possible to take pictures even in a dark place where luggage is stored.

〔第3発明〕
上記課題を解決するために本願の第3発明に係る自動採寸システムは、第1または第2発明に係る自動採寸システムであって、

前記搬送手段がフォークリフトである場合、
情報管理サーバは、
前記点群データにおいて荷物とフォークリフト爪部分が一体化しているデータ部分を、長尺状をなす前記フォークリフト爪部分の軸方向沿いに所定間隔ごとに切断位置において切断面により切断する処理と、
前記切断位置それぞれにおいて切断面により切取られる断面積を算出する処理と、
連続的に前後する2つの切断位置において各切断面により切取られた断面積同士を順次比較して、切断面積比を算出する処理と、
切断面による切断を開始した先頭の切断位置からスタートして、先に求めた切断面積比を所定の荷物検出閾値と比較する処理と、
切断面積比と荷物検出閾値の大小関係に基づきフォークリフト爪部分が荷物と接する接触位置を判定する処理であって、ある切断位置における切断面積比が荷物検出閾値を超過したときに、当該切断位置がフォークリフト爪部分および荷物の接触位置であると判定する処理と、
先頭の切断位置から接触位置までの各切断面によって切取られたフォークリフトの爪部分が写り込んだ爪画像領域を、点群データから除去する処理と、
を実行する構成とした。
[Third invention]
In order to solve the above problems, an automatic measurement system according to a third invention of the present application is an automatic measurement system according to the first or second invention,

When the transportation means is a forklift,
The information management server
A process of cutting the data portion in which the cargo and the forklift claw portion are integrated in the point cloud data by the cutting surface at the cutting position at predetermined intervals along the axial direction of the forklift claw portion having a long shape;
A process of calculating a cross-sectional area cut by a cutting plane at each of the cutting positions;
A process of sequentially comparing the cross-sectional areas cut by each cutting surface at two cutting positions that are consecutively back and forth to calculate the cutting area ratio;
a process of comparing the previously obtained cut area ratio with a predetermined load detection threshold value, starting from the first cut position where cutting by the cut surface was started;
This is a process of determining the contact position where the forklift claw portion contacts the load based on the magnitude relationship between the cut area ratio and the load detection threshold, and when the cut area ratio at a certain cut position exceeds the load detection threshold, the cut position is A process of determining that it is the contact position of the forklift claw portion and the load;
A process of removing from the point cloud data the claw image area in which the claw portion of the forklift cut off by each cutting plane from the leading cutting position to the contact position is reflected;
was configured to execute

第3発明に係る自動採寸システムによれば、情報管理サーバ4は、切断面CSにより切断を開始した先頭の切断位置xから接触位置xまでの切断面CS~CSによって切取られた「フォークリフト爪部分が写り込んだ爪画像領域RGFK」(図19(a)参照)を、点群データPDから除去する。
これにより、点群データPDにおいてフォークリフト爪部分が荷物CRと渾然一体に含まれている場合でも、フォークリフト爪部分の点群データを除去することができ、荷物CRの採寸精度をより高めることができる。
According to the automatic measuring system according to the third invention, the information management server 4 is cut by the cutting planes CS 0 to CS T from the leading cutting position x 0 where cutting is started by the cutting plane CS n to the contact position x T. The "claw image region RG FK in which the forklift claw portion is reflected" (see FIG. 19A) is removed from the point cloud data PD.
As a result, even when the forklift claw portion is included in the point cloud data PD in harmony with the cargo CR, the point cloud data of the forklift claw portion can be removed, and the measurement accuracy of the cargo CR can be further improved. .

〔第4発明〕
上記課題を解決するために本願の第4発明に係る自動採寸システムは、第1または第2発明に係る自動採寸システムであって、

情報管理サーバは、
前記荷物の高さ方向から見たときの、前記点群データに写り込んだ荷物画像領域の水平面投影図を生成する処理と、
荷物の高さ方向の軸を回転中心として水平面投影図を水平面上で所定単位角度ずつ回転させることで、水平面写像図を生成する処理と、
水平面投影図の各端点の水平面座標の最大値・最小値を基に、当該水平面投影図に外接する外接矩形の面積を求める処理と、
水平面写像図の各端点の水平面座標の最大値・最小値を基に、当該水平面写像図に外接する外接矩形の面積を求める処理と、
前記外接矩形の面積が最小のときの回転角度において、水平面写像図の各辺の向きがToFカメラの水平面座標軸に対して揃った平行状態であると判定する処理と、
を実行する構成とした。
[Fourth invention]
In order to solve the above problems, an automatic measurement system according to a fourth invention of the present application is an automatic measurement system according to the first or second invention,

The information management server
a process of generating a horizontal plane projection view of the baggage image area reflected in the point cloud data when viewed from the height direction of the baggage;
a process of generating a horizontal projection diagram by rotating the horizontal projection diagram on the horizontal plane by a predetermined unit angle about the axis in the height direction of the package;
A process of determining the area of a circumscribing rectangle that circumscribes the horizontal projection view based on the maximum and minimum values of the horizontal coordinates of the endpoints of the horizontal projection view;
A process of determining the area of a circumscribing rectangle that circumscribes the horizontal map based on the maximum and minimum values of the horizontal coordinates of the endpoints of the horizontal map;
a process of determining that the direction of each side of the horizontal plane map is parallel to the horizontal plane coordinate axis of the ToF camera at the rotation angle when the area of the circumscribing rectangle is the minimum;
was configured to execute

第4発明に係る自動採寸システムによれば、情報管理サーバ4は、図22(a)の水平面投影図から生成した水平面写像図の「外接矩形の面積」が最も小さくなったときの回転角度において(図22(d)参照)、荷物画像領域RGCRを回転させたXY平面写像図の各辺の向きがToFカメラ1の水平面座標軸(X軸・Y軸)に対して揃った平行状態であると判定する。
これにより、ToFカメラ1の座標軸に対する荷物CRの点群データの傾きを修正し平行にすることが可能となり、ひいては荷物CRの採寸精度をより高めることができる。
According to the automatic measurement system according to the fourth invention, the information management server 4 generates (See FIG. 22(d)), the direction of each side of the XY plane map obtained by rotating the luggage image area RG CR is parallel to the horizontal plane coordinate axes (X axis and Y axis) of the ToF camera 1. I judge.
This makes it possible to correct the inclination of the point cloud data of the package CR with respect to the coordinate axes of the ToF camera 1 so as to make them parallel to each other, thereby further improving the measurement accuracy of the package CR.

〔第5発明〕
上記課題を解決するために本願の第5発明に係る自動採寸システムは、第1または第2発明に係る自動採寸システムであって、

情報管理サーバは、
前記点群データに含まれるすべての画素それぞれについて、当該画素を中心とする所定のノイズ判定範囲に存在する点群の個数を算出する処理と、
前記ノイズ判定範囲に存在する点群の個数が所定のノイズ判定基準よりも小さい場合、当該ノイズ判定範囲内にある点群がノイズ成分であると判定する処理と、
前記ノイズ成分として判定された点群を除去する処理と、
を実行する構成とした。
[Fifth invention]
In order to solve the above problems, an automatic measurement system according to a fifth invention of the present application is an automatic measurement system according to the first or second invention,

The information management server
A process of calculating the number of point clouds existing in a predetermined noise determination range centering on each pixel included in the point cloud data;
a process of determining that the point group within the noise determination range is a noise component when the number of point groups present in the noise determination range is smaller than a predetermined noise determination criterion;
A process of removing the point cloud determined as the noise component;
was configured to execute

第5発明に係る自動採寸システムによれば、ノイズ判定範囲RNNSに含まれる点群の個数に基づいて(図24(b)参照)、ノイズ成分NS(図24(a)参照)として判定された点群を除去する。
このようにすることで、点群データPDから生成される荷物立体画像P3Dの形状を、実際の荷物CRの正確な形状により近づけることができる。
According to the automatic measurement system according to the fifth invention, based on the number of point groups included in the noise determination range RN NS (see FIG. 24(b)), it is determined as the noise component NS (see FIG. 24(a)) remove the point cloud.
By doing so, the shape of the three- dimensional package image P3D generated from the point cloud data PD can be brought closer to the accurate shape of the actual package CR.

実施形態に係る自動採寸システムの全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of an automatic measurement system according to an embodiment; FIG. 荷物保管場所の出入口における、ToFカメラの配置構成の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the arrangement configuration of ToF cameras at the entrance/exit of a baggage storage area; 荷物保管場所の出入口における配置されたToFカメラの撮影可能範囲を示す模式図である。FIG. 4 is a schematic diagram showing the photographable range of a ToF camera placed at the entrance/exit of a baggage storage area; 荷物保管場所の出入口・右側面から見たときの、ToFカメラ・カメラ・通過検知センサの配置形態の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of the arrangement form of the ToF camera, the camera, and the passage detection sensor when viewed from the entrance/right side of the baggage storage area. ToFカメラの電気的構成を示すブロック図である。2 is a block diagram showing an electrical configuration of a ToF camera; FIG. ToFカメラによって撮影した荷物車両画像を示す模式図であって、(a)は出入口の右上コーナーにあるToFカメラによる荷物車両画像、(b)は出入口の左上コーナーに配置されたToFカメラによる荷物車両画像、である。Schematic diagrams showing cargo vehicle images captured by a ToF camera, where (a) is a cargo vehicle image captured by the ToF camera located at the upper right corner of the entrance, and (b) is a cargo vehicle image captured by the ToF camera located at the upper left corner of the entrance. It is an image. ToFカメラによって撮影した荷物車両画像を示す模式図であって、(a)は出入口の右下コーナーにあるToFカメラによる荷物車両画像、(b)は出入口の左下コーナーに配置されたToFカメラによる荷物車両画像、である。Schematic diagrams showing cargo vehicle images captured by a ToF camera, where (a) is a cargo vehicle image captured by a ToF camera located at the lower right corner of an entrance, and (b) is a cargo vehicle image captured by a ToF camera located at the lower left corner of an entrance. vehicle image. (a)はToFカメラによって撮影した実際の荷物車両画像の一例であり、(b)この実際の荷物車両画像を基に生成した点群データである。(a) is an example of an actual cargo vehicle image captured by a ToF camera, and (b) is point cloud data generated based on this actual cargo vehicle image. (a)はToFカメラの設置位置と、同ToFカメラによって撮影される荷物車両画像の位置関係を示す模式図であり、(b)ToFカメラの設置位置を深度座標原点としたときの荷物車両画像における深度座標を示す模式図である。(a) is a schematic diagram showing the positional relationship between the installation position of the ToF camera and the cargo vehicle image captured by the ToF camera; is a schematic diagram showing depth coordinates in . カメラの電気的構成を示すブロック図である。3 is a block diagram showing the electrical configuration of the camera; FIG. カメラによって撮影したコード画像の一例を示す図である。FIG. 4 is a diagram showing an example of a code image captured by a camera; 情報管理サーバの電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of an information management server; FIG. 荷物画像情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of package image information. コード画像情報のデータ構造の一例を示す図である。FIG. 3 is a diagram showing an example of the data structure of code image information; (a)はToFカメラで撮影した荷物車両画像から生成した点群データとToFカメラ設置位置の位置関係を示す模式図であり、(b)点群データに写り込んだ荷物を示す荷物画像領域において端点を特定した状態を示す模式図である。(a) is a schematic diagram showing the positional relationship between the point cloud data generated from the luggage vehicle image taken by the ToF camera and the ToF camera installation position, and (b) in the luggage image area showing the luggage reflected in the point cloud data It is a schematic diagram which shows the state which specified the end point. 点群データを合成して荷物立体画像を生成する過程を示す模式図である。FIG. 4 is a schematic diagram showing a process of synthesizing point cloud data to generate a luggage stereoscopic image; 4枚の点群データから合成して得られた1枚の荷物立体画像を示す図であって、(a)は当該荷物立体画像の第1の例、(b)は当該荷物立体画像の第2の例である。FIG. 4 is a diagram showing one package stereoscopic image obtained by synthesizing four pieces of point cloud data, (a) being a first example of the package stereoscopic image, and (b) being a first example of the package stereoscopic image. 2 is an example. 荷物の採寸時の、自動採寸システムにおける各構成要素の動作を示すシーケンス図である。FIG. 4 is a sequence diagram showing the operation of each component in the automatic measurement system when measuring a package; (a)は荷物とフォークリフト爪部分が渾然一体に写り込んだ点群データの一例であり、(b)は荷物とフォークリフト爪部分が渾然一体に写り込んだ点群データを所定の切断面で切断しているときの模式図である。(a) is an example of the point cloud data in which the cargo and the forklift claw part are reflected harmoniously, and (b) is an example of the point cloud data in which the cargo and the forklift claw part are reflected harmoniously, cut at a predetermined cutting plane. It is a schematic diagram of when the (a)は荷物とフォークリフト爪部分が一体的に写り込んだ点群データの断面積を示す模式図であり、(b)はフォークリフト爪部分のみの点群データの断面積を示す模式図である。(a) is a schematic diagram showing the cross-sectional area of the point cloud data in which the cargo and the forklift claw portion are integrally reflected, and (b) is a schematic diagram showing the cross-sectional area of the point cloud data only for the forklift claw portion. . フォークリフト爪部分の除去処理時における動作シーケンスである。It is an operation sequence at the time of removal processing of a forklift claw portion. (a)は荷物画像領域(荷物の点群データ)の一例、(b)はZ軸方向から見たときの荷物画像領域のXY平面投影図、(c)はXY平面投影図を所定角度だけ回転させたときのXY平面写像図の第1の例、(d)はXY平面投影図を所定角度だけ回転させたときのXY平面写像図の第2の例、を示す模式図である。(a) is an example of the baggage image area (baggage point cloud data), (b) is an XY plane projection view of the baggage image area when viewed from the Z-axis direction, and (c) is an XY plane projection view at a predetermined angle. FIG. 2D is a schematic diagram showing a first example of an XY plane projection diagram when rotated, and a second example of an XY plane projection diagram when the XY plane projection diagram is rotated by a predetermined angle. ToFカメラの座標軸に対する荷物の点群データの傾きを修正するときの動作シーケンスである。It is an operation sequence when correcting the inclination of the point cloud data of the package with respect to the coordinate axes of the ToF camera. (a)はノイズ成分を除去する前の点群データの一例、(b)はノイズ成分を除去した後の点群データの一例、を示す模式図である。(a) is a schematic diagram showing an example of point cloud data before noise components are removed, and (b) is an example of point cloud data after noise components are removed. 点群データからノイズ成分を除去するときの動作シーケンスである。It is an operation sequence when noise components are removed from point cloud data.

以下、図1乃至図25を参照して、本発明の自動採寸システムについて説明する。
本発明の実施形態では、カメラ2を用いて読取った荷物用の2次元コードCDを、荷物CRを自動採寸するための点群データPDと関連付けて活用することを目的として、搬送車両VHその他の搬送手段により「搬送されている状態にある荷物のサイズを自動的に採寸」できる自動採寸システム100を構成した例である。
以下、この内容について詳しく説明する。
The automatic measurement system of the present invention will be described below with reference to FIGS. 1 to 25. FIG.
In the embodiment of the present invention, the two-dimensional code CD for the package read by the camera 2 is used in association with the point cloud data PD for automatically measuring the package CR. This is an example of configuring an automatic measuring system 100 capable of "automatically measuring the size of a load being transported" by transport means.
This content will be described in detail below.

図1は、本実施形態に係る自動採寸システム100の構成を示すブロック図である。
同図1に示すように、自動採寸システム100は、ToFカメラ1と、カメラ2と、通過検知センサ3と、情報管理サーバ4と、コントローラ5と、中継サーバ6とを備えている。
FIG. 1 is a block diagram showing the configuration of an automatic measurement system 100 according to this embodiment.
As shown in FIG. 1, the automatic measurement system 100 includes a ToF camera 1, a camera 2, a passage detection sensor 3, an information management server 4, a controller 5, and a relay server 6.

図1のように、本システム100においては、ToFカメラ1(1-1~1-4)と、カメラ2と、通過検知センサ3と、情報管理サーバ4と、コントローラ5と、中継サーバ6とは、相互に通信可能な状態で接続される。 As shown in FIG. 1, in this system 100, ToF cameras 1 (1-1 to 1-4), cameras 2, passage detection sensors 3, information management server 4, controller 5, relay server 6, are connected so that they can communicate with each other.

[ネットワーク利用形態]
また、図1のように本例では、公衆通信可能なインターネット200と、有線LAN(Local Area Network)300と、無線LAN400の3つの通信網を利用する。
本例では、中継サーバ6を介して、インターネット200と、構内通信網(有線LAN300・無線LAN400)とが相互に通信可能に接続される。
さらに、中継サーバ6には、コントローラ5が通信可能に接続される。
インターネット200については、例えば、VPN(Virtual Private Network)技術等を利用すれば、セキュリティレベルを高く確保可能である。
[Network usage form]
Also, as shown in FIG. 1, in this example, three communication networks, ie, the Internet 200 that can be used for public communication, a wired LAN (Local Area Network) 300, and a wireless LAN 400 are used.
In this example, the Internet 200 and the local communication network (wired LAN 300/wireless LAN 400) are connected via the relay server 6 so as to be able to communicate with each other.
Furthermore, the controller 5 is communicably connected to the relay server 6 .
For the Internet 200, a high security level can be ensured by using, for example, VPN (Virtual Private Network) technology.

[構成要素間の接続形態]
さらに、本例の構成における、構成要素間の接続形態を具体的に説明する。
ToFカメラ1-1~1-4は、有線LAN300を介して、中継サーバ6に通信可能に接続される。
カメラ2と通過検知センサ3は、コントローラ5に通信可能に接続される。
また、カメラ2は、無線LAN400を介して中継サーバ6と通信可能である。
情報管理サーバ4は、構内通信網(有線LAN300・無線LAN400)の外部にあるインターネット200上に接続されている。
[Connection between components]
Furthermore, the form of connection between components in the configuration of this example will be specifically described.
The ToF cameras 1-1 to 1-4 are communicably connected to the relay server 6 via the wired LAN 300. FIG.
The camera 2 and passage detection sensor 3 are communicably connected to the controller 5 .
Also, the camera 2 can communicate with the relay server 6 via the wireless LAN 400 .
The information management server 4 is connected to the Internet 200 outside the local communication network (wired LAN 300/wireless LAN 400).

[各構成要素の役割]
本システム100では、荷物保管場所の出入口GWに、荷物CRを搬送する搬送車両VHが出入口を通過することを検知する「通過検知センサ3」を設置する(図2・図3・図4)。
また、矩形からなる上記出入口GWの4つの各コーナーに「ToFカメラ1-1~1-4を1台ずつ定点設置」する(図2・図3・図4)。
なお、ToFカメラ1-1~1-4は、有線LAN300に接続される。
[Role of each component]
In this system 100, a "passage detection sensor 3" is installed at the entrance/exit GW of the baggage storage location to detect that the transport vehicle VH that conveys the baggage CR passes through the entrance/exit (FIGS. 2, 3, and 4).
In addition, "fixed points of ToF cameras 1-1 to 1-4 are installed one by one" at each of the four corners of the rectangular gateway GW (Figs. 2, 3 and 4).
Note that the ToF cameras 1-1 to 1-4 are connected to the wired LAN 300. FIG.

[ToF(Time of Flight)カメラ]
ToFカメラ1-1~1-4は、任意の被写体を撮像可能なカメラである。
本例では、ToFカメラ1-1~1-4は、通過検知センサ3が搬送車両VHによる出入口GWの通過を検知した場合、搬送車両VHならびに同車両VHに搬送される荷物がともに写り込んだ荷物車両画像PCV(図8(a)参照)を撮影する。
[ToF (Time of Flight) camera]
The ToF cameras 1-1 to 1-4 are cameras capable of imaging arbitrary subjects.
In this example, when the passage detection sensor 3 detects that the transport vehicle VH has passed through the entrance/exit GW, the ToF cameras 1-1 to 1-4 capture both the transport vehicle VH and the package transported by the same vehicle VH. A cargo vehicle image P CV (see FIG. 8(a)) is photographed.

さらに、ToFカメラ1-1~1-4は、上述した荷物車両画像PCVから、点群データPD(図8(b)参照)を生成する。
この点群データPDは、情報管理サーバ4において荷物立体画像P3Dを生成するために用いられる。
Furthermore, the ToF cameras 1-1 to 1-4 generate point cloud data PD (see FIG. 8(b)) from the cargo vehicle image PCV described above.
This point cloud data PD is used in the information management server 4 to generate a package stereoscopic image P 3D .

ToFカメラ1-1~1-4の撮像方向は全て、出入口GWの矩形の中心に向けられている。
そのため、4台のToFカメラ1はいずれも「出入口GWの中心に位置する被写体を、撮影画像の中央付近に捉える」ことが可能である(図3)。
本例においては、荷物CRの採寸が主目的であるため、ToFカメラ1の撮影画像中央付近に荷物CRが写り込んだ荷物車両画像PCVが撮影される。
なお、図3におけるα~αは、ToFカメラ1-1~1-4による撮影可能範囲(画角)を表している。
さらに、ToFカメラ1-1~1-4は、撮影時の死角が出ないよう(出入口GWにおいて撮影不能な範囲がないよう)に配置される。
The imaging directions of the ToF cameras 1-1 to 1-4 are all directed to the rectangular center of the gateway GW.
Therefore, all of the four ToF cameras 1 are capable of "capturing the subject positioned at the center of the entrance GW near the center of the captured image" (FIG. 3).
In this example, since the main purpose is to measure the cargo CR, the cargo vehicle image PCV in which the cargo CR is captured near the center of the captured image of the ToF camera 1 is captured.
Note that α 1 to α 4 in FIG. 3 represent the photographable range (angle of view) of the ToF cameras 1-1 to 1-4.
Furthermore, the ToF cameras 1-1 to 1-4 are arranged so that there is no blind spot during photography (so that there is no range where photography is impossible at the entrance/exit GW).

ToFカメラ1には、上記通過検知センサ3が搬送車両による出入口の通過を検知したときに荷物CRに赤外光を照射する機能と、荷物CRが反射した赤外光を受光する機能が搭載されている。
ToFカメラ1は、赤外光の発射から受光までにかかった「受光所要時間TFL」を基に「被写体(主に荷物CR)とToFカメラ1の間の深度距離L」(図9(b)参照)を算出する。
The ToF camera 1 has a function of irradiating the cargo CR with infrared light when the passage detection sensor 3 detects passage of the transport vehicle through the entrance, and a function of receiving the infrared light reflected by the cargo CR. ing.
The ToF camera 1 determines the "depth distance L D between the subject (mainly the baggage CR) and the ToF camera 1" (Fig. 9 ( b) Calculate cf.

具体的には、深度距離Lは、以下の数式1により算出できる。
なお、数式1においてcは光速である。

Figure 0007288568000002
Specifically, the depth distance LD can be calculated by Equation 1 below.
Note that c in Equation 1 is the speed of light.
Figure 0007288568000002

そして、ToFカメラ1は、この深度距離Lと荷物車両画像PCV(図8(a))を基に「点群データPD」(図8(b))を生成する。
ここでいう「点群データPD」とは、各画素における深度距離Lに応じた所定色を、荷物車両画像PCVの画素ごとに着色した画像データのことを指す。
Then, the ToF camera 1 generates "point cloud data PD" (FIG. 8(b)) based on the depth distance L D and the cargo vehicle image P CV (FIG. 8(a)).
The “point cloud data PD” referred to here refers to image data in which each pixel of the parcel vehicle image PCV is colored with a predetermined color corresponding to the depth distance LD at each pixel.

点群データPDの生成に先立って、ToFカメラ1は、(i)深度距離Lに応じて定まる荷物車両画像PCV内の各画素の深度座標(x,y,z)と、(ii)各深度距離Lに応じた区分を示す各画素に付される所定色と、からなる荷物車両画像PCVの各画素に固有のデータ集合を生成する。 Prior to generating the point cloud data PD, the ToF camera 1 captures (i) the depth coordinates (x, y, z) of each pixel in the cargo vehicle image PCV determined according to the depth distance LD , and (ii) A data set unique to each pixel of the parcel vehicle image PCV is generated, which is composed of a predetermined color assigned to each pixel indicating a division corresponding to each depth distance LD .

上記の「深度座標」とは、ToFカメラ1の位置を図9(a)の深度座標系における深度座標原点(0,0,0)としたときの、荷物CRなどの被写体が写り込んだ荷物車両画像PCVの画素位置を示す座標である。 The above-mentioned "depth coordinate" refers to the depth coordinate origin (0, 0, 0) in the depth coordinate system of FIG. These are coordinates indicating the pixel position of the vehicle image PCV .

ToFカメラ1は、荷物車両画像PCVの各画素における深度座標(x,y,z)と所定色のデータ集合に基づいて、各画素における深度距離Lに応じた所定色を荷物車両画像PCVの画素ごとに着色することで、図8(b)のような「点群データPD」を生成する。
より詳細には、「点群データPD」とは、ToFカメラ1から荷物車両画像PCVに写っている被写体(荷物CR)までの深度距離Lの情報を荷物車両画像PCVに対応付けするとともに、深度距離Lに応じた所定色を荷物車両画像PCVに着色した画像データである。
Based on the depth coordinates (x, y, z) of each pixel of the cargo vehicle image PCV and the data set of the predetermined color, the ToF camera 1 captures the cargo vehicle image PCV with a predetermined color corresponding to the depth distance LD at each pixel. By coloring each pixel of the CV , "point cloud data PD" as shown in FIG. 8B is generated.
More specifically, the “point cloud data PD” is information on the depth distance LD from the ToF camera 1 to the subject (parcel CR) captured in the parcel vehicle image PCV , which is associated with the parcel vehicle image PCV . In addition, it is image data obtained by coloring the cargo vehicle image PCV with a predetermined color corresponding to the depth distance LD .

なお、4台のToFカメラ1-1・1-2・1-3・1-4は、それぞれ独立的に点群データPD・PD・PD・PDを生成する。
また、4台のToFカメラ1-1・1-2・1-3・1-4は、点群データPD・PD・PD・PDを送信する。
The four ToF cameras 1-1, 1-2, 1-3, and 1-4 independently generate point cloud data PD 1 , PD 2 , PD 3 , and PD 4 , respectively.
Also, the four ToF cameras 1-1, 1-2, 1-3, and 1-4 transmit point cloud data PD 1 , PD 2 , PD 3 , and PD 4 .

ToFカメラ1としては、ToF機能を備える専用の撮影装置はもちろん、ToF機能付のカメラを備えるスマートフォンなどの携帯型の多機能電子装置をも採用可能である。
荷物車両画像PCVの処理時や点群データPD生成時には、CPU(Central Processing Unit)に対しかなりの処理負担がかかるものの、スマートフォンであれば処理性能が日進月歩の勢いで飛躍的に向上しており、荷物車両画像PCVや点群データPDの画像処理を実行する際にも快適な動作速度を担保できる。
As the ToF camera 1, not only a dedicated imaging device with a ToF function but also a portable multifunctional electronic device such as a smartphone with a camera with a ToF function can be adopted.
When processing cargo vehicle images PCV and generating point cloud data PD, a considerable processing load is placed on the CPU (Central Processing Unit), but the processing performance of smartphones is rapidly improving at a rapid pace. , a comfortable operating speed can be ensured even when executing image processing of the cargo vehicle image PCV and the point cloud data PD.

[カメラ]
カメラ2は、任意の被写体を撮像するカメラであり、本例では、2次元コードCD(図4)を撮影する役割を果たす。
このカメラ2は、出入口GWに設けられており、その台数は本例においては「1台」である。
[camera]
The camera 2 is a camera that captures an arbitrary subject, and in this example, it plays a role of capturing a two-dimensional code CD (FIG. 4).
This camera 2 is provided at the entrance/exit GW, and the number thereof is "one" in this example.

本例では、カメラ2により撮影される2次元コードCDとして、QR(Quick Response)コード(登録商標)を採用する。
本自動採寸システム100においては、当該2次元コードCDは、個々の荷物CR1つ1つに対して貼付されている。
さらに、本システム100では、荷物CRにおける2次元コードCDの貼付位置があらかじめ所定位置に定められている。
本例では、2次元コードCDは荷物CR側面の左下隅に貼付される(図4)。
また、2次元コードCDの貼付位置に対応して同コードCDを撮影できるように、本例では、カメラ2は、2次元コードCDを撮影できるよう出入口GWの右側面部に設けられている。
In this example, a QR (Quick Response) code (registered trademark) is used as the two-dimensional code CD photographed by the camera 2 .
In the automatic measurement system 100, the two-dimensional code CD is affixed to each package CR.
Furthermore, in the system 100, the position where the two-dimensional code CD is pasted on the package CR is determined in advance at a predetermined position.
In this example, the two-dimensional code CD is attached to the lower left corner of the side surface of the package CR (Fig. 4).
Also, in this example, the camera 2 is provided on the right side of the entrance/exit GW so that the two-dimensional code CD can be photographed corresponding to the sticking position of the two-dimensional code CD.

カメラ2は、通過検知センサ3が搬送車両VHによる出入口GWの通過を検知したときに、この搬送車両VHと、搬送車両VHが搬送中の荷物CRと、荷物CRに貼られた2次元コードCDが写り込んだコード画像PCDを撮影する。
そして、カメラ2は、コード画像PCDを情報管理サーバ4に送信する。
When the passage detection sensor 3 detects that the transport vehicle VH has passed through the entrance/exit GW, the camera 2 detects the transport vehicle VH, the package CR being transported by the transport vehicle VH, and the two-dimensional code CD attached to the package CR. A code image PCD in which is photographed.
The camera 2 then transmits the code image PCD to the information management server 4 .

[通過検知センサ]
通過検知センサ3は、搬送車両VHが出入口GWを通過することを検知するセンサである。
本例では、通過検知センサ3は、搬送車両VHによる出入口GWの通過を検知した際、当該検知した旨を示す「通過検出信号」をコントローラ5あてに出力する。
コントローラ5は、通過検知センサ3からの通過検出信号をカメラ2に転送するとともに、同通過検出信号を中継サーバ6・有線LAN300を介してToFカメラ1-1~1-4あてにも転送する。
[Passing detection sensor]
The passage detection sensor 3 is a sensor that detects passage of the transport vehicle VH through the entrance/exit GW.
In this example, when the passage detection sensor 3 detects passage of the transport vehicle VH through the entrance/exit GW, it outputs a “passage detection signal” indicating the detection to the controller 5 .
The controller 5 transfers the passage detection signal from the passage detection sensor 3 to the camera 2, and also transfers the same passage detection signal to the ToF cameras 1-1 to 1-4 via the relay server 6 and the wired LAN 300. FIG.

図2のように、通過検知センサ3は、荷物保管場所の出入口GWに設けられる。
本例では、通過検知センサ3として、光電センサ(光を発射する投光ユニットと、この発射光を受ける受光ユニットの組を具備する)を採用する。
また、搬送車両VHには、通過検知センサ3からの発射光に対する反射性を高めるため、「光反射器RF」が設けられている(図2)。光反射器RFの例としては、反射率の高いミラーが挙げられる。
As shown in FIG. 2, the passage detection sensor 3 is provided at the entrance/exit GW of the baggage storage area.
In this example, a photoelectric sensor (having a set of a light projecting unit that emits light and a light receiving unit that receives the emitted light) is employed as the passage detection sensor 3 .
Further, the transportation vehicle VH is provided with a "light reflector RF" in order to enhance the reflectivity of the light emitted from the passage detection sensor 3 (FIG. 2). Examples of optical reflectors RF include highly reflective mirrors.

[情報管理サーバ]
情報管理サーバ4は、ToFカメラ1が撮影した画像である「荷物車両画像PCV」と、カメラ2が撮影した画像である「コード画像PCD」を管理する。
情報管理サーバ4は、たとえば、荷物保管場所の管理・運営をおこなう企業が所有してもよい。
[Information management server]
The information management server 4 manages a “cargo vehicle image P CV ” that is an image captured by the ToF camera 1 and a “code image P CD ” that is an image captured by the camera 2 .
The information management server 4 may be owned by, for example, a company that manages and operates a luggage storage location.

情報管理サーバ4は、荷物保管場所・出入口GWの各コーナーから各ToFカメラ1で撮影した同じ被写体を示す4枚の荷物車両画像PCVから各々生成した4つの点群データPDにおいて、これらのデータPDに写り込んだ「荷物CRの幅・高さ・奥行」を採寸する。 The information management server 4 stores these data in four point cloud data PD generated from four parcel vehicle images PCV each showing the same subject photographed by each ToF camera 1 from each corner of the parcel storage area/entrance GW. Measure the "width, height, and depth of the baggage CR" reflected in the PD.

情報管理サーバ4は、4つの点群データPDを合成することで、これらの点群データPDに写り込んだ荷物の3次元的な立体形状を示す「1枚の荷物立体画像P3D」を生成する。 The information management server 4 synthesizes the four point cloud data PD to generate a "single parcel stereoscopic image P3D " showing the three-dimensional shape of the parcel reflected in the point cloud data PD. do.

また、同サーバ4は、コード画像PCDに写り込んでいる荷物にそれぞれ貼付された2次元コードCDを認識して、当該2次元コードが示す荷物情報ICRを読取る。
図2の例では、2次元コードCD-1・CD-2が認識される。
そして、情報管理サーバ4は、認識した2次元コードCDに基づいて、コード画像PCDに写り込んでいる個々の荷物CR(図2の例では、CR-1・CR-2)を認識する。
さらに、同サーバ4は、コード画像PCDのなかに上下に積上げられた複数の荷物が写り込んでいるか否かを、各荷物CRにそれぞれ貼付されている2次元コードCDに基づいて判別する。
The server 4 also recognizes the two-dimensional code CD attached to each package reflected in the code image PCD , and reads the package information ICR indicated by the two-dimensional code.
In the example of FIG. 2, two-dimensional codes CD-1 and CD-2 are recognized.
Based on the recognized two-dimensional code CD, the information management server 4 recognizes the individual packages CR (CR-1 and CR-2 in the example of FIG. 2) appearing in the code image PCD .
Further, the server 4 determines whether or not a plurality of vertically stacked parcels are reflected in the code image PCD based on the two-dimensional code CD attached to each parcel CR.

情報管理サーバ4は、コード画像PCD(図11)のなかに上下に積上げられた複数の荷物が写り込んでいると判別すると、この画像PCDに写り込んだ2次元コードCDの位置に対応する、荷物立体画像P3D(図17(a)・図17(b))における当該2次元コードCDのコード相対位置を特定する。
また、荷物CRの3次元的な立体形状を示す荷物立体画像P3Dに対し、コード画像PCDに写り込んだ2次元コードCDと、その2次元コードCDが示す荷物情報ICRとを対応付けて荷物画像情報(図13)に記憶する。
When the information management server 4 determines that a plurality of vertically stacked packages are reflected in the code image P CD (FIG. 11), the information management server 4 determines the position of the two-dimensional code CD reflected in this image P CD . Then, the code relative position of the two-dimensional code CD in the luggage stereoscopic image P 3D (FIGS. 17(a) and 17(b)) is identified.
Also, the two-dimensional code CD reflected in the code image PCD and the package information ICR indicated by the two-dimensional code CD are associated with the three-dimensional package image P3D showing the three-dimensional shape of the package CR. are stored in the package image information (FIG. 13).

つぎに、ToFカメラ1・カメラ2・情報管理サーバ4の各構成について順次説明する。 Next, each configuration of the ToF camera 1, the camera 2, and the information management server 4 will be described in order.

[ToFカメラ]
図5に示すように、ToFカメラ1は、制御部11と、記憶部12と、撮影手段13と、光照射手段14と、受光手段15と、通信部16とを有している。
その他にも、ToFカメラ1は、小型の液晶ディスプレイ(図示略)等の出力部18と、シャッター(図示略)を含む入力部17とを備えている。
また、ToFカメラ1は、任意の演算処理を実行するCPU(中央処理装置)を含む制御部11のほか、ROM・RAM等を含む記憶部12、及び、各種信号あるいは情報の入出力経路をなす通信ポート(図示略)を含む通信部16を備えている。
[ToF camera]
As shown in FIG. 5 , the ToF camera 1 has a control section 11 , a storage section 12 , an imaging section 13 , a light irradiation section 14 , a light receiving section 15 and a communication section 16 .
In addition, the ToF camera 1 includes an output section 18 such as a small liquid crystal display (not shown) and an input section 17 including a shutter (not shown).
In addition, the ToF camera 1 includes a control unit 11 including a CPU (central processing unit) that executes arbitrary arithmetic processing, a storage unit 12 including ROM, RAM, etc., and an input/output path for various signals or information. A communication unit 16 including a communication port (not shown) is provided.

通信部16は、有線LAN300に接続され、中継サーバ6を介して、情報管理サーバ4・コントローラ5との間で各種の通信を行う。
通信部16としては、ネットワークインターフェース・モデム等が使用される。
The communication unit 16 is connected to the wired LAN 300 and performs various communications with the information management server 4 and the controller 5 via the relay server 6 .
A network interface/modem or the like is used as the communication unit 16 .

制御部11は、CPU(Central Processing Unit:中央処理装置)・ROM(Read Only Memory)・RAM(Random Access Memory)等を有し、ROM・記憶部12に記憶されているアプリケーションプログラムをRAMにロードして実行し、それにより各種の論理的手段を実現する。 The control unit 11 has a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), etc., and loads application programs stored in the ROM/storage unit 12 into the RAM. and execute it, thereby realizing various logical means.

ToFカメラ1では、通過判定手段111、撮影指示手段112、距離算出手段113と、点群データ生成手段114および点群データ送信手段115が実現される。 The ToF camera 1 implements passage determination means 111 , photographing instruction means 112 , distance calculation means 113 , point cloud data generation means 114 and point cloud data transmission means 115 .

通過判定手段111は、通過検知センサ3から搬送車両VHによる出入口GWの通過を検知した旨の「通過検出信号」を受信すると、搬送車両VHが出入口GWを通過したと判定する。 When the passage determination means 111 receives a "passage detection signal" from the passage detection sensor 3 indicating that the transport vehicle VH has passed through the entrance/exit GW, it determines that the transport vehicle VH has passed through the entrance/exit GW.

撮影指示手段112は、通過判定手段111が「搬送車両VHが出入口GWを通過した」と判定したときに、撮影動作の実行を指示する「荷物車両撮影指示」を撮影手段13に対して送る。 The photographing instruction means 112 sends to the photographing means 13 a "parcel vehicle photographing instruction" instructing execution of photographing operation when the passage determining means 111 determines that "the transport vehicle VH has passed through the entrance GW".

[荷物車両画像における深度座標の算出]
距離算出手段113は、光照射手段14が赤外光を照射してから被写体(荷物CRなど)による反射光を受光手段15が受光するまでの受光所要時間TFLを求め、受光所要時間TFLに光速を乗算した往復距離(深度距離Lの2倍)を基に「ToFカメラ1から被写体までの深度距離L」を求める。
続いて、距離算出手段113は、求めた深度距離Lから、図9(b)のようなToFカメラ1の位置を深度座標原点(0,0,0)とした3次元空間(X軸・Y軸・Z軸からなる直交座標)における「深度座標」(x,y,z)を導出する。
[Calculation of Depth Coordinates in Cargo Vehicle Image]
The distance calculation means 113 obtains the required light receiving time T FL from when the light emitting means 14 irradiates the infrared light until the light receiving means 15 receives the light reflected by the subject (baggage CR etc.), and calculates the required light receiving time T FL . is multiplied by the speed of light to obtain the “depth distance L D from the ToF camera 1 to the subject” based on the round trip distance (twice the depth distance L D ).
Subsequently, the distance calculation means 113 calculates the depth distance LD from the obtained depth distance L D in a three-dimensional space (X-axis/ The "depth coordinates" (x, y, z) in the orthogonal coordinates consisting of the Y-axis and Z-axis are derived.

距離算出手段113は、図9(b)のように、荷物車両画像PCVの画素のうちToFカメラ1の光軸上にある画素の深度座標(以下、「基準深度座標」)(x,y,z)を算出する。
基準深度座標(x,y,z)は、ToFカメラ1から同カメラ1光軸と交わる画素までの深度距離Lと深度座標原点(0,0,0)から求める。
さらに、同手段113は、同図9(b)の位置関係に基づき、荷物車両画像PCV上にある各画素の深度座標(x,y,z)を、当該画素の深度距離Lと深度座標原点(0,0,0)から求める。
As shown in FIG. 9B , the distance calculation means 113 calculates the depth coordinates (hereinafter referred to as "reference depth coordinates") (x 0 , y 0 , z 0 ) are calculated.
The reference depth coordinates (x 0 , y 0 , z 0 ) are obtained from the depth distance LD from the ToF camera 1 to the pixel intersecting the optical axis of the camera 1 and the depth coordinate origin (0, 0, 0).
Further, the means 113 calculates the depth coordinates (x, y, z) of each pixel on the parcel vehicle image PCV based on the positional relationship shown in FIG . Obtained from the coordinate origin (0, 0, 0).

[点群データの生成]
点群データ生成手段114は、深度距離Lに応じた区分を示す所定色により荷物車両画像PCV中の各画素を塗り分けた画像(点群データPD)を生成する。
本例において「点群データPD」は、(i)荷物車両画像PCV中の各画素に写り込んだ被写体(荷物CR・搬送車両VHなど)とToFカメラ1の間の深度距離Lにより定まる深度座標と(ii)各深度距離Lに応じた区分を示す所定色のデータを含んでいる。
なお、同手段114は、荷物車両画像PCV上の各画素に対して、距離算出手段113が求めたそれぞれの深度距離Lに応じた区分を示す所定色を決定する。
[Generation of point cloud data]
The point cloud data generating means 114 generates an image (point cloud data PD) in which each pixel in the parcel vehicle image PCV is colored with a predetermined color that indicates a division according to the depth distance LD .
In this example, the "point cloud data PD" is determined by (i) the depth distance LD between the subject (parcel CR, transport vehicle VH, etc.) reflected in each pixel in the parcel vehicle image PCV and the ToF camera 1. It contains depth coordinates and (ii) predetermined color data indicating a division corresponding to each depth distance LD .
Note that the same means 114 determines a predetermined color indicating a division corresponding to each depth distance LD obtained by the distance calculating means 113 for each pixel on the parcel vehicle image PCV .

そして、点群データ生成手段114は、各画素における深度座標(x,y,z)と所定色のデータ集合から、点群データPDを生成する。
本例では、荷物車両画像PCV中の各画素の深度距離Lに応じた区分を示す所定色を、荷物車両画像PCVの画素ごとに着色することで、図8(b)のような「点群データPD」が生成される。
なお、ToFカメラ1-1・1-2・1-3・1-4が備える点群データ生成手段114は、個々に撮影した荷物車両画像PCVから各点群データPD・PD・PD・PDを生成する。
Then, the point cloud data generation means 114 generates point cloud data PD from the depth coordinates (x, y, z) of each pixel and the data set of the predetermined color.
In this example, each pixel of the cargo vehicle image PCV is colored with a predetermined color that indicates a division corresponding to the depth distance LD of each pixel in the cargo vehicle image PCV , thereby obtaining the image shown in FIG. "Point cloud data PD" is generated.
Note that the point cloud data generating means 114 provided in the ToF cameras 1-1, 1-2, 1-3, and 1-4 generates each of the point cloud data PD 1 , PD 2 , and PD from the individually photographed luggage vehicle images PCV. 3.PD Generate 4 ;

点群データ送信手段115は、通信部16を用いて、点群データPDを情報管理サーバ4あてに送信する。
本例では、点群データPDは、いったん中継サーバ6に送られ、同サーバ6によりインターネット200経由で情報管理サーバ4あてに転送される。
The point cloud data transmission means 115 uses the communication unit 16 to transmit the point cloud data PD to the information management server 4 .
In this example, the point cloud data PD is once sent to the relay server 6 and transferred by the server 6 to the information management server 4 via the Internet 200 .

記憶部12は、撮影手段13が撮影した荷物車両画像PCVと、点群データ生成手段114が生成した点群データPDとを記憶する。 The storage unit 12 stores the parcel vehicle image PCV photographed by the photographing means 13 and the point cloud data PD generated by the point cloud data generating means 114 .

撮影手段13は、撮影指示手段112から荷物車両撮影指示が送られた場合、搬送車両VHならびに同車両VHが搬送中の荷物CRがともに写り込んだ「荷物車両画像PCV」(図6(a)・図6(b)・図7(a)・図7(b)・図8(a)参照)を撮影する。 When the photographing means 112 sends a parcel vehicle photographing instruction, the photographing means 13 captures a "cargo vehicle image P CV " (FIG. 6(a)) in which the conveying vehicle VH and the parcel CR being conveyed by the same vehicle VH are captured. ), FIG. 6(b), FIG. 7(a), FIG. 7(b), and FIG. 8(a)).

光照射手段14は、赤外光を荷物CRにむけて照射する光源である。
本例において、光照射手段14は、通過判定手段111が「搬送車両VHが出入口GWを通過した」と判定した場合、赤外光を荷物CRにむけて照射する。
The light irradiation means 14 is a light source that irradiates the cargo CR with infrared light.
In this example, the light irradiation means 14 irradiates the cargo CR with infrared light when the passage determination means 111 determines that "the transport vehicle VH has passed through the entrance GW".

受光手段15は、光照射手段14が照射して荷物CRが反射した赤外光を受光する。 The light receiving means 15 receives the infrared light emitted by the light emitting means 14 and reflected by the cargo CR.

[カメラ]
つぎに、カメラ2について説明する。
図10は、本実施形態に係るカメラ2の電気的構成を示すブロック図である。
同図10に示すように、カメラ2の装置本体は、演算処理を実行するCPUを含む制御部21のほか、ROM・RAM等を含む記憶部22、各種信号あるいは情報の入出力経路をなす通信ポート(図示略)を含む通信部24を備えている。
また、同カメラ2は、小型の液晶ディスプレイ(図示略)等の出力部26と、シャッター(図示略)を含む入力部25とを備えている。
[camera]
Next, the camera 2 will be explained.
FIG. 10 is a block diagram showing the electrical configuration of the camera 2 according to this embodiment.
As shown in FIG. 10, the device body of the camera 2 includes a control unit 21 including a CPU for executing arithmetic processing, a storage unit 22 including ROM, RAM, etc., and a communication unit forming an input/output path for various signals or information. A communication unit 24 including a port (not shown) is provided.
The camera 2 also includes an output section 26 such as a small liquid crystal display (not shown) and an input section 25 including a shutter (not shown).

通信部24は、無線LAN400やコントローラ5に接続され、情報管理サーバ4や通過検知センサ3との間で各種の通信を行う。通信部24としては、ネットワークインターフェース・モデム等が使用される。
本カメラ2を、USB(Universal Serial Bus)接続端子など所定のインターフェースまたは通信部24を介してプリンタ(図示略)に接続し、撮影したコード画像PCDを紙媒体に印刷出力してもよい。
The communication unit 24 is connected to the wireless LAN 400 and the controller 5 and performs various communications with the information management server 4 and the passage detection sensor 3 . As the communication unit 24, a network interface/modem or the like is used.
The camera 2 may be connected to a printer (not shown) via a predetermined interface such as a USB (Universal Serial Bus) connection terminal or the communication section 24, and the photographed code image PCD may be printed out on a paper medium.

図10の制御部21は、CPU・ROM・RAM等を有し、ROM・記憶部22に記憶されているアプリケーションプログラムをRAMにロードして実行し、それにより各種の論理的手段を実現する。
本例のカメラ2では、複数の2次元コードを撮影するために機能別に細分化された、コード撮影指示手段211およびコード画像送信手段212が実現される。
The control unit 21 of FIG. 10 has a CPU, ROM, RAM, etc., loads an application program stored in the ROM/storage unit 22 into the RAM and executes it, thereby realizing various logical means.
In the camera 2 of this example, a code photographing instruction means 211 and a code image transmitting means 212, which are subdivided according to function, are realized in order to photograph a plurality of two-dimensional codes.

コード撮影指示手段211は、通過検知センサ3から出力された「通過検出信号」(搬送車両VHによる出入口GWの通過を検知した旨の信号)を受信したときに、撮影動作の実行を指示する「コード撮影指示」をコード撮影手段23に送る。 The code photographing instruction means 211 instructs execution of the photographing operation when it receives a "passage detection signal" (a signal indicating that the transport vehicle VH has passed through the entrance GW) output from the passage detection sensor 3. code photographing instruction” is sent to the code photographing means 23.

コード画像送信手段212は、コード撮影手段23が撮影したコード画像PCDを情報管理サーバ4に送信する。 The code image transmitting means 212 transmits the code image PCD photographed by the code photographing means 23 to the information management server 4 .

コード撮影手段23は、コード撮影指示手段211からコード撮影指示を受信したときに、搬送車両VHと、同車両VHが搬送中の荷物CRと、同荷物CRの所定位置に貼付された2次元コードCDとが写り込んだ「コード画像PCD」を撮影する。
図11の例では、上下に積み重ねられた搬送中の2つの荷物CR-1・CR-2が撮影される。なお、それぞれの荷物の所定位置CR-1・CR-2には、2次元コードCD-1・CD-2が貼付されている。
When the code photographing means 23 receives the code photographing instruction from the code photographing instructing means 211, the code photographing means 23 scans the conveying vehicle VH, the package CR being conveyed by the vehicle VH, and the two-dimensional code affixed to a predetermined position on the same package CR. A “code image P CD ” in which the CD is reflected is photographed.
In the example of FIG. 11, two vertically stacked packages CR-1 and CR-2 are photographed while being transported. Two-dimensional codes CD-1 and CD-2 are affixed to predetermined positions CR-1 and CR-2 of each package.

[情報管理サーバ]
図12は、本実施形態に係る情報管理サーバ4の電気的構成を示すブロック図である。
情報管理サーバ4は、図12に示すように、液晶ディスプレイやプリンタ(図示略)等の出力部44と、キーボードやマウス(図示略)・タッチパネル(図示略)等を含む入力部43とを備えている。
また、情報管理サーバ4の装置本体は、任意の演算処理を実行するCPU(Central Processing Unit:中央処理装置)を含む制御部41のほか、ハードディスクドライブ(HDD)・ROM(Read Only Memory)・RAM(Random Access Memory)等を含む記憶部42、及び、各種信号あるいは情報の入出力経路をなす通信ポート(図示略)を含む通信部45を備えている。
[Information management server]
FIG. 12 is a block diagram showing the electrical configuration of the information management server 4 according to this embodiment.
As shown in FIG. 12, the information management server 4 includes an output unit 44 such as a liquid crystal display and a printer (not shown), and an input unit 43 including a keyboard, mouse (not shown), touch panel (not shown), and the like. ing.
In addition, the device main body of the information management server 4 includes a control unit 41 including a CPU (Central Processing Unit) that executes arbitrary arithmetic processing, a hard disk drive (HDD), a ROM (Read Only Memory), and a RAM. (random access memory), etc., and a communication unit 45 including a communication port (not shown) forming an input/output path for various signals or information.

通信部45は、公衆通信網であるインターネット200に接続され、中継サーバ6を介して、ToFカメラ1-1~1-4やカメラ2との間で各種の通信を行う。
通信部45としては、ネットワークインターフェース・モデム等が使用される。
The communication unit 45 is connected to the Internet 200, which is a public communication network, and performs various communications with the ToF cameras 1-1 to 1-4 and the camera 2 via the relay server 6. FIG.
As the communication unit 45, a network interface/modem or the like is used.

制御部41は、CPU(Central Processing Unit:中央処理装置)・ROM(Read Only Memory)・RAM(Random Access Memory)等を有し、ROM・記憶部42に記憶されているアプリケーションプログラム(画像管理プログラム423)をRAMにロードして実行し、それにより各種の論理的手段を実現する。 The control unit 41 has a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), etc., and an application program (image management program) stored in the ROM/storage unit 42 423) is loaded into RAM and executed, thereby realizing various logical means.

情報管理サーバ4では、画像情報管理手段411、荷物採寸手段412、立体画像生成手段413、コード読取手段414、荷物認識手段415、積重判別手段416およびコード位置特定手段417が実現される。 The information management server 4 implements image information management means 411 , parcel measurement means 412 , stereoscopic image generation means 413 , code reading means 414 , parcel recognition means 415 , piling determination means 416 and code position specifying means 417 .

画像情報管理手段411は、荷物画像情報421(図13)・コード画像情報422(図14)を管理する手段である。
同管理手段411は、荷物画像情報421・コード画像情報422に対する情報登録や登録内容の削除を行う。
Image information management means 411 is means for managing package image information 421 (FIG. 13) and code image information 422 (FIG. 14).
The management means 411 performs information registration and deletion of registered contents with respect to package image information 421 and code image information 422 .

図13のように、荷物画像情報421は、搬送車両VHによって搬送される荷物CRと、その荷物CRに関する属性の対応関係を指定する情報である。
同図13の例では、荷物画像情報421において、画像データ(点群データPD~PD・荷物立体画像P3D・コード画像PCD)と、荷物情報ICRとが対応付けされている。
As shown in FIG. 13, the parcel image information 421 is information specifying the correspondence relationship between the parcel CR transported by the transport vehicle VH and the attributes of the parcel CR.
In the example of FIG. 13, in parcel image information 421, image data (point cloud data PD 1 to PD 4 , parcel stereoscopic image P 3D , code image P CD ) and parcel information I CR are associated.

また、図14のように、コード画像情報422は、搬送車両VHによって搬送される荷物CRに貼付された二次元コードCDと、そのコードCDに関する属性の対応関係を指定する情報である。
同図14の例では、コード画像情報422において、コード画像PCDと、コード画像PCDに写り込んだ荷物CRに貼付されている二次元コードCDと、その二次元コードCDから読取った荷物情報ICRとが対応付けされている。
Also, as shown in FIG. 14, the code image information 422 is information specifying the correspondence relationship between the two-dimensional code CD attached to the package CR transported by the transport vehicle VH and the attributes related to the code CD.
In the example of FIG. 14, the code image information 422 includes the code image PCD , the two-dimensional code CD attached to the package CR reflected in the code image PCD , and the package information read from the two-dimensional code CD. and ICR are associated.

[荷物の採寸]
荷物採寸手段412は、各ToFカメラ1-1~1-4で撮影した同じ被写体を示す4枚の荷物車両画像PCVから各々生成した4つの点群データPDにおいて、これらのデータPDに写り込んだ荷物CRのサイズ(幅・高さ・奥行)を採寸する。
本例では、同手段412は、図15(a)のような点群データPDにおいて「荷物CRが写り込んだ領域」(以下、「荷物画像領域RGCR」という。)を特定し、この荷物画像領域RGCRの周縁部分について各画素間の距離を求めることで(図15(b)参照)、当該荷物CRの実際のサイズ(高さ・幅・奥行)を採寸する。
[Luggage measurement]
The parcel measuring means 412 measures four point cloud data PD each generated from four parcel vehicle images PCV showing the same subject photographed by the ToF cameras 1-1 to 1-4, and measures the reflection in these data PD. Measure the size (width, height, depth) of the cargo CR.
In this example, the same means 412 identifies the "region in which the package CR is reflected" (hereinafter referred to as the "package image area RG CR ") in the point cloud data PD as shown in FIG. The actual size (height, width, depth) of the parcel CR is measured by obtaining the distance between each pixel in the peripheral portion of the image area RG CR (see FIG. 15(b)).

荷物採寸手段412は、まず、図15(a)の点群データPDにおいて、荷物画像領域RGCRの端点(たとえば、立方体の各頂点)を特定する。
同図15(b)の例では、荷物画像領域RGCRの端点として、頂点A・B・C・D・E・Hが特定される。
The parcel measuring means 412 first identifies end points (for example, each vertex of a cube) of the parcel image area RG CR in the point cloud data PD of FIG. 15(a).
In the example of FIG. 15(b), vertices A, B, C, D, E, and H are specified as end points of the luggage image area RG CR .

荷物採寸手段412は、点群データPDにおける荷物CR(荷物画像領域RGCR)の各端点が特定できたら、それぞれの端点が写っている各画素の深度座標(x,y,z)を取得する。
なお、点群データPDにおける深度座標は、参照可能な状態で点群データPD自体に対応付けされている。
After identifying each end point of the load CR (baggage image region RG CR ) in the point cloud data PD, the parcel measuring means 412 acquires the depth coordinates (x, y, z) of each pixel in which each end point is captured. .
Note that the depth coordinates in the point cloud data PD are associated with the point cloud data PD itself in a referable state.

図15(b)の例では、頂点A・B・C・D・E・Hの6つの端点における深度座標が取得される。
これにより、荷物CRの幅に該当する辺AE・辺DHと、荷物CRの高さに該当する辺AD・辺BCと、荷物CRの奥行に該当する辺AB・辺CDとについて、それぞれの深度座標を基に各距離(辺AE・辺DH・辺AD・辺BC・辺AB・辺CDそれぞれの長さ)が算出できる。
In the example of FIG. 15B, the depth coordinates at the six end points of vertices A, B, C, D, E, and H are acquired.
As a result, the depths of the sides AE and DH corresponding to the width of the package CR, the sides AD and BC corresponding to the height of the package CR, and the sides AB and CD corresponding to the depth of the package CR are determined. Each distance (length of each of side AE, side DH, side AD, side BC, side AB, and side CD) can be calculated based on the coordinates.

同図15(b)においては、頂点Cの深度座標として(x,y,z)が、頂点Dの深度座標として(x,y,z)が取得される。
この場合、荷物の奥行をなす辺CD(頂点Cと頂点D間の辺)の距離は、以下の数式2により算出できる。
すなわち、辺CDの距離は、両端点C・Dの深度座標について、X座標成分同士の差「x-x」とY座標成分同士の差「y-y」とZ座標成分同士の差「z-z」の2乗和の平方根により定まる。
なお、荷物画像領域RGCRにおける他の端点間距離についても、数式2同様の計算により算出される。
In FIG. 15B, the depth coordinates of vertex C are ( xC , yC , zC ), and the depth coordinates of vertex D are ( xD , yD , zD ).
In this case, the distance of the side CD (the side between the vertex C and the vertex D) forming the depth of the package can be calculated by Equation 2 below.
That is, the distance of the side CD is the difference “x C −x D ” between the X-coordinate components, the difference “y C −y D ” between the Y-coordinate components, and the difference between the Z-coordinate components It is determined by the square root of the sum of squares of the difference "z C -z D ".
It should be noted that other distances between end points in the luggage image area RG CR are also calculated by the same calculation as in Equation 2.

Figure 0007288568000003
Figure 0007288568000003

このようにして、荷物採寸手段412は、各頂点A・B・C・D・E・Hに写り込んだ被写体とToFカメラ1の間の深度距離Lを用い、実際の荷物CRの幅・高さ・奥行(たとえば、メートル単位の長さ)を算出する。
これにより、荷物CRの実際のサイズ(幅・高さ・奥行)が採寸できる。
In this way, the parcel measuring means 412 uses the depth distance LD between the subject captured at each of the vertices A, B, C, D, E, and H and the ToF camera 1 to determine the actual width and width of the parcel CR. Calculate height/depth (e.g. length in meters).
As a result, the actual size (width, height, depth) of the cargo CR can be measured.

[荷物立体画像の生成]
立体画像生成手段413は、各ToFカメラ1-1~1-4が撮影した4枚の荷物車両画像PCVから作られた4つの点群データPDを合成する。
この合成処理により、荷物立体画像生成手段413は、各点群データPDに写り込んだ荷物CRの3次元的な立体形状を示す「1枚の荷物立体画像P3D」を生成する。
「荷物立体画像P3D」とは、全方位において任意方向から見たときの視差画像をもつ荷物CRの画像である。
[Generation of 3D image of luggage]
The stereoscopic image generating means 413 synthesizes four point cloud data PD created from the four parcel vehicle images PCV photographed by the ToF cameras 1-1 to 1-4.
Through this synthesizing process, the parcel stereoscopic image generating means 413 generates a “single parcel stereoscopic image P 3D ” showing the three-dimensional shape of the parcel CR reflected in each point cloud data PD.
The “parcel stereoscopic image P 3D ” is an image of the parcel CR having parallax images when viewed from any direction in all directions.

本例では、多視点(離間配置されたToFカメラ1-1~1-4)による4枚の荷物車両画像PCVから得た点群データPDから1枚の「荷物立体画像P3D」を生成する手法として、複数の点群データPDを基に、荷物CRの3次元ボクセルデータ(荷物CRを小立方体の集合で表したデータ)を求める視体積交差法を利用する。
なお、荷物立体画像P3Dの生成手法については、視体積交差法に限らず、ステレオマッチング法をはじめとする任意の手法を採用できる。
In this example, one “parcel stereoscopic image P 3D ” is generated from point cloud data PD obtained from four parcel vehicle images P CV from multiple viewpoints (ToF cameras 1-1 to 1-4 arranged at intervals). As a method for doing so, a visual volume intersection method is used to obtain three-dimensional voxel data (data expressing the cargo CR as a set of small cubes) of the cargo CR based on a plurality of point cloud data PD.
Note that the method of generating the 3D baggage image P is not limited to the visual volume intersection method, and any method such as the stereo matching method can be employed.

既知の視体積交差法を用いて4枚の点群データPDから1枚の荷物立体画像P3Dを生成する場合、まず、立体画像生成手段413は、4枚の各点群データPDから荷物CRのシルエット画像(荷物CRが写り込んでいる荷物画像領域RGCRを白黒で表した2値画像)を抽出する。
つぎに、同手段413は、ToFカメラ1-1~1-4を中心として上記シルエット画像を立体的に逆投影し、視体積の重複部分から荷物CRのボクセルデータ(小立方体の集合データ)を生成する。
そして、荷物CRの個々のボクセルデータ表面に小さな三角形の面を張ることで、荷物CRの表面形状(立体的形状)を示す荷物立体画像P3Dを生成できる。
When generating one parcel stereoscopic image P 3D from four pieces of point cloud data PD using a known visual volume intersection method, first, the stereoscopic image generation means 413 generates parcel CR A silhouette image (a binary image in which the cargo image area RG CR in which the cargo CR is reflected is represented in black and white) is extracted.
Next, the same means 413 stereoscopically back-projects the silhouette images centering on the ToF cameras 1-1 to 1-4, and extracts voxel data (aggregated data of small cubes) of the cargo CR from the overlapped portion of the visual volume. Generate.
Then, by drawing small triangular surfaces on the surface of each voxel data of the package CR, a three-dimensional package image P3D showing the surface shape (three-dimensional shape) of the package CR can be generated.

[2次元コードの読取]
コード読取手段414は、コード画像PCDに写り込んでいる個々の荷物CRに添付された2次元コードCDを認識して、同コードCDが示す荷物情報ICRを読取る。
本例では、2次元コードCDはQRコード(登録商標)であるため、位置検出するためのファインダパターン(いわゆる切出シンボル)に基づき2次元コードCDを認識する。
[Reading two-dimensional code]
The code reading means 414 recognizes the two-dimensional code CD attached to each package CR reflected in the code image PCD and reads the package information ICR indicated by the code CD.
In this example, since the two-dimensional code CD is a QR code (registered trademark), the two-dimensional code CD is recognized based on a finder pattern (so-called clipping symbol) for position detection.

荷物認識手段415は、コード画像PCDに「写り込んでいる個々の荷物CRを認識」する。
さらに、荷物認識手段415は、コード画像PCDに写っている各荷物に対し、コード読取手段414が認識した各荷物CRごとの2次元コードCDと、同手段414が各2次元コードCDごとに読取った荷物情報ICRとを対応付けてコード画像情報422(図14)に記憶する。
The parcel recognition means 415 "recognizes each parcel CR reflected" in the code image PCD .
Furthermore, the parcel recognition means 415 reads the two-dimensional code CD for each parcel CR recognized by the code reading means 414 for each parcel reflected in the code image PCD , and It is stored in the code image information 422 (FIG. 14) in association with the read parcel information ICR .

ここで、本自動採寸システム100では、荷物CRのあらかじめ定められた所定位置(図11の例では、荷物CR側面の下方左側)に、2次元コードCDを貼付するよう運用されている。
そのため、荷物認識手段415は、コード画像PCDに写り込んでいる2次元コードCDに着目することで、荷物CRが搬送されている状態でも、それぞれの2次元コードCDが貼られた各荷物CRを区別して認識できる。
Here, the automatic measurement system 100 is operated so as to attach the two-dimensional code CD to a predetermined position of the package CR (in the example of FIG. 11, the lower left side of the side surface of the package CR).
Therefore, by focusing on the two-dimensional code CD reflected in the code image PCD , the parcel recognition means 415 recognizes each parcel CR to which the respective two-dimensional code CD is affixed even while the parcel CR is being conveyed. can be distinguished and recognized.

また、コード読取手段414に読取られる荷物情報ICRには、たとえば、荷物CRとして扱われる商品の名称・商品の品番・商品の個数・商品の重量などの情報が含まれている。 The parcel information ICR read by the code reading means 414 includes, for example, the name of the product handled as the parcel CR, the product number, the number of products, the weight of the product, and the like.

図12の積重判別手段416は、コード画像PCDのなかに上下に積上げられた複数の荷物CRが写り込んでいるか否かを、各荷物CRにそれぞれ貼付されている2次元コードCDに基づいて判別する。
上述したように、本例の各荷物CRにはそれぞれ所定位置(側面の下方左側)に2次元コードCDを貼ってあるため、コード画像PCD内の垂直方向における2次元コードCDの位置を参照することで、上下に積上げられた状態で搬送される荷物CRの有無を判定できる。
また、2次元コードCD位置の参照により、相互に積上げられている荷物CRの位置関係(上下関係)も判定可能である。
The pile discrimination means 416 in FIG. 12 determines whether or not a plurality of packages CR stacked vertically are reflected in the code image PCD based on the two-dimensional code CD attached to each package CR. to discriminate.
As described above, the two-dimensional code CD is affixed to each package CR in this example at a predetermined position (lower left side of the side surface ). By doing so, it is possible to determine whether or not there is a load CR conveyed in a state of being stacked vertically.
Also, by referring to the position of the two-dimensional code CD, it is possible to determine the positional relationship (hierarchical relationship) of the stacked packages CR.

[荷物立体画像における2次元コード位置の特定]
さらに本例では、コード画像PCDのなかに上下に積上げられた複数の荷物CRが写り込んでいると判別された場合、コード位置特定手段417が、荷物立体画像P3D中における「コード画像PCDに写り込んだ2次元コードCDの位置」を特定する。
[Identification of two-dimensional code position in baggage stereoscopic image]
Furthermore, in this example, when it is determined that a plurality of vertically stacked packages CR are reflected in the code image P CD , the code position specifying means 417 selects the code image P in the package stereoscopic image P 3D . The position of the two-dimensional code CD reflected on the CD is specified.

同手段417は、荷物立体画像P3Dに写り込んでいる2次元コードCD(コード画像PCDに写り込んだ2次元コードCDと同一のコード)の位置を特定する。
そして、同手段417は、この「コード画像PCDに写り込んだ2次元コードCDの画像位置の座標」を、立体画像生成手段413が生成した「荷物立体画像P3Dに写り込んだ2次元コードCDの画像位置の座標」に変換する。
また、コード位置特定手段417は、荷物立体画像P3Dに写り込んだ2次元コードCDに対し、コード読取手段414が認識した2次元コードCDと、同2次元コードCDが示す荷物情報ICR(同コード読取手段414が読取ったもの)とを対応付けて荷物画像情報421(図13)に記憶させる。
The means 417 identifies the position of the two-dimensional code CD reflected in the three -dimensional baggage image P3D (the same code as the two-dimensional code CD reflected in the code image PCD ).
Then, the means 417 converts the "coordinates of the image position of the two-dimensional code CD reflected in the code image P CD " to the "two-dimensional code reflected in the three-dimensional package image P 3D " generated by the stereoscopic image generation means 413. "coordinates of the image position on the CD".
In addition, the code position specifying means 417 reads the two-dimensional code CD recognized by the code reading means 414 for the two-dimensional code CD reflected in the three-dimensional package image P 3D and the package information I CR read by the same code reading means 414) are associated with each other and stored in the parcel image information 421 (FIG. 13).

なお、本実施形態に係るアプリケーション(画像管理プログラム423)を任意の多機能電子装置に導入することにより、本発明の特徴的な各種機能を付加することができ、情報管理サーバ4を構成可能である。
また本実施形態によれば、多機能電子装置に専用アプリケーションをインストールするだけで、簡易かつ短時間で情報管理サーバ4を構成できる。
By introducing the application (image management program 423) according to the present embodiment into any multifunctional electronic device, various characteristic functions of the present invention can be added, and the information management server 4 can be configured. be.
Further, according to the present embodiment, the information management server 4 can be configured simply and in a short time simply by installing a dedicated application in the multifunctional electronic device.

[実施形態1:動作シーケンス]
つぎに、本実施形態に係る自動採寸システム100の動作について説明する。
[荷物の採寸処理時]
以下では、本システム100において、搬送車両VHが荷物CRを搬送している状態のままで、当該荷物のサイズを自動採寸するときの各構成要素の動作について説明する。
[Embodiment 1: Operation sequence]
Next, the operation of the automatic measurement system 100 according to this embodiment will be described.
[When measuring luggage]
In the following, the operation of each component in this system 100 when automatically measuring the size of the package while the transport vehicle VH is still transporting the package CR will be described.

搬送車両VHが所定位置(荷物保管場所の出入口GW)を通過すると、通過検知センサ3が動作する。
通過検知センサ3は、搬送車両VHによる出入口GWを通過することを検知した際、同車両VHが出入口GWを通過した旨を示す「通過検出信号」をコントローラ5あてに出力する。
When the transport vehicle VH passes through a predetermined position (the entrance/exit GW of the baggage storage area), the passage detection sensor 3 operates.
When the passage detection sensor 3 detects that the transport vehicle VH has passed through the entrance GW, it outputs a "passage detection signal" indicating that the vehicle VH has passed through the entrance GW to the controller 5 .

本例では、この通過検出信号は、コントローラ5から中継サーバ6にいったん送信されたあと、有線LAN300(図1)経由で中継サーバ6から同サーバ6と接続されている4台のToFカメラ1-1~1-4に転送される。
また、コントローラ5は、この通過検出信号を、2次元コード撮影用のカメラ2に対しても送信する。
In this example, the passing detection signal is transmitted from the controller 5 to the relay server 6 once, and then sent from the relay server 6 to the four ToF cameras 1-1 connected to the same server 6 via the wired LAN 300 (FIG. 1). 1 to 1-4.
The controller 5 also transmits this passage detection signal to the camera 2 for photographing the two-dimensional code.

[ToFカメラの動作]
ToFカメラ1は、通過検知センサ3から通過検出信号を受信すると、搬送車両VHが出入口GWを通過したと判定する。
このように搬送車両VHが出入口GWを通過したと判定した場合、ToFカメラ1は、搬送車両VHと荷物CRがともに写り込んだ荷物車両画像PCV(図8(a))を撮影する(図18・ステップS101)。
なお、ステップS101の撮影動作は、ToFカメラ1内部において、制御部11から撮影手段13に荷物車両撮影指示を送ることで行われる。
[Operation of ToF camera]
When receiving the passage detection signal from the passage detection sensor 3, the ToF camera 1 determines that the transport vehicle VH has passed through the entrance GW.
When it is determined that the transport vehicle VH has passed through the entrance GW in this way, the ToF camera 1 captures the cargo vehicle image P CV (FIG. 8A) in which the transport vehicle VH and the cargo CR are both captured (FIG. 8A). 18.Step S101).
Note that the photographing operation in step S101 is performed by sending an instruction to photograph the luggage vehicle from the control unit 11 to the photographing means 13 inside the ToF camera 1 .

また、本例では、ToFカメラ1は、通過検出信号の受信により搬送車両VHが出入口GWを通過したと判定した場合、赤外光を荷物CRにむけて照射する(ステップS102)。
その後、ToFカメラ1は、荷物CRによって反射された赤外光を受光する(ステップS103)。
In this example, when the ToF camera 1 determines that the transport vehicle VH has passed through the entrance/exit GW by receiving the passage detection signal, the ToF camera 1 irradiates the parcel CR with infrared light (step S102).
After that, the ToF camera 1 receives the infrared light reflected by the cargo CR (step S103).

続いて、ToFカメラ1は、放出した赤外光を受光するまでの受光所要時間TFLを算出し、この受光所要時間TFLを基に、荷物車両画像PCVの各画素中に写り込んだ被写体部分とToFカメラ1の間の「深度距離L」を求める。
さらに、ToFカメラ1は、求めた深度距離Lに基づき、図9(b)のような同ToFカメラ1の位置を深度座標原点(0,0,0)とした3次元空間における「深度座標」(x,y,z)を導出する。
加えて、ToFカメラ1は、荷物車両画像PCV上の全画素について、それぞれの深度距離Lに応じた区分を示す所定色を決定する。
Subsequently, the ToF camera 1 calculates the required light receiving time TFL until the emitted infrared light is received. A “depth distance L D ” between the subject part and the ToF camera 1 is obtained.
Further, based on the obtained depth distance LD , the ToF camera 1 sets the position of the ToF camera 1 as the depth coordinate origin (0, 0, 0) as shown in FIG. ” (x, y, z).
In addition, the ToF camera 1 determines a predetermined color indicating a division corresponding to each depth distance LD for all pixels on the cargo vehicle image PCV .

そして、ToFカメラ1は、各画素における深度座標(x,y,z)と深度距離Lに応じた所定色のデータ集合を基に、点群データPDを生成する(図18・ステップS104)。
本例では、ToFカメラ1は、深度距離Lに応じた所定色を、荷物車両画像PCVの画素ごとに着色することで、図8(b)のような「点群データPD」を生成する。
Then, the ToF camera 1 generates point cloud data PD based on the depth coordinates (x, y, z) of each pixel and a data set of a predetermined color corresponding to the depth distance LD (FIG. 18, step S104). .
In this example, the ToF camera 1 generates "point cloud data PD " as shown in FIG. do.

さらに、ToFカメラ1は、生成した点群データPDを情報管理サーバ4あてに送信する(図18・ステップS105)。
本例では、点群データPDは、有線LAN300経由でToFカメラ1から中継サーバ6にいったん送信され、その後、インターネット200経由で中継サーバ6から情報管理サーバ4に転送される。
なお、ToFカメラ1によるステップS101~S105の処理は、搬送車両VHによる出入口GWの通過を通過検知センサ3が検出するごとに繰返し実行される。
Further, the ToF camera 1 transmits the generated point cloud data PD to the information management server 4 (FIG. 18, step S105).
In this example, the point cloud data PD is once transmitted from the ToF camera 1 to the relay server 6 via the wired LAN 300 and then transferred from the relay server 6 to the information management server 4 via the Internet 200 .
The processing of steps S101 to S105 by the ToF camera 1 is repeatedly executed each time the passage detection sensor 3 detects passage of the transport vehicle VH through the entrance GW.

[2次元コード撮影用のカメラの動作]
一方、カメラ2についても、通過検知センサ3からの通過検出信号を受信すると、コード撮影手段23に対し「コード撮影指示」を送ることで、搬送車両VHと荷物CRと2次元コードCDが写り込んだ「コード画像PCD」を撮影する(ステップS106)。
[Operation of camera for photographing two-dimensional code]
On the other hand, when the camera 2 receives the passage detection signal from the passage detection sensor 3, it sends a "code photographing instruction" to the code photographing means 23, so that the transport vehicle VH, the package CR and the two-dimensional code CD are photographed. A "code image P CD " is photographed (step S106).

続いて、カメラ2は、撮影したコード画像PCDを情報管理サーバ4あてに送信する(ステップS107)。
本例では、カメラ2は、コード画像PCDを無線LAN経由400で中継サーバ6にいったん送信し、その後、中継サーバ6がインターネット200経由で当該コード画像PCDを情報管理サーバ4に転送する。
なお、カメラ2によるステップS106~S107の処理についても、搬送車両VHによる出入口GWの通過を通過検知センサ3が検出するごとに繰返し行われる。
Subsequently, the camera 2 transmits the photographed code image PCD to the information management server 4 (step S107).
In this example, the camera 2 once transmits the code image PCD to the relay server 6 via the wireless LAN 400 , and then the relay server 6 transfers the code image PCD to the information management server 4 via the Internet 200 .
The processing of steps S106 and S107 by the camera 2 is also repeated each time the passage detection sensor 3 detects passage of the transport vehicle VH through the entrance GW.

[情報管理サーバの動作]
点群データPDとコード画像PCDを受信した場合、情報管理サーバ4において、2次元コード認識(解読)処理と3次元点群データの解析(寸法計測)処理が開始される。
[Operation of information management server]
When the point cloud data PD and the code image PCD are received, the information management server 4 starts two-dimensional code recognition (decoding) processing and three-dimensional point cloud data analysis (dimension measurement) processing.

[荷物の採寸]
情報管理サーバ4は、点群データPDにおいて荷物CRが写り込んだ「荷物画像領域RGCR」を特定し、この荷物画像領域RGCRについて端点間の距離を求めることで荷物CRの実際のサイズ(高さ・幅・奥行)を採寸する。
[Luggage measurement]
The information management server 4 identifies the "parcel image area RG CR " in which the parcel CR is reflected in the point cloud data PD, and calculates the actual size of the parcel CR ( Measure height, width and depth.

情報管理サーバ4は、まず、図15(a)の点群データPDにおいて、荷物画像領域RGCRの端点(たとえば、立方体の各頂点)を特定する(図15(b))。
続いて、同サーバ4は、上記特定した各端点(画素)における深度座標(x,y,z)を取得し、この深度座標を基に、数式2を用いて各端点間の距離(辺の長さ)を算出する。
そして、情報管理サーバ4は、荷物画像領域RGCRの各端点の画素に写っている被写体とToFカメラ1の間の深度距離Lを用い、実際の荷物CRの幅・高さ・奥行(たとえば、メートル単位の長さ)を算出する。
これにより、荷物CRの実際のサイズ(幅・高さ・奥行)を採寸する(図18・ステップS108)。
The information management server 4 first identifies end points (for example, vertices of a cube) of the luggage image area RG CR in the point cloud data PD of FIG. 15(a) (FIG. 15(b)).
Subsequently, the server 4 acquires the depth coordinates (x, y, z) at each of the end points (pixels) identified above, and uses Equation 2 based on the depth coordinates to obtain the distance between the end points (the distance between the sides). length).
Then, the information management server 4 uses the depth distance LD between the subject captured in the pixels of each end point of the package image area RG CR and the ToF camera 1 to determine the actual width, height, and depth of the package CR (for example, , length in meters).
As a result, the actual size (width, height, depth) of the cargo CR is measured (FIG. 18, step S108).

[荷物立体画像の生成]
つぎに、情報管理サーバ4は、各点群データPDに写り込んだ荷物CRの3次元的な立体形状を示す「1枚の荷物立体画像P3D」を生成する(ステップS109)。
[Generation of 3D image of luggage]
Next, the information management server 4 generates a “single parcel stereoscopic image P 3D ” showing the three-dimensional shape of the parcel CR reflected in each point cloud data PD (step S109).

この荷物立体画像P3Dは、4枚の荷物車両画像PCVから各々生成した4つの点群データPDを合成することで生成される。
本例では、多視点(離間配置されたToFカメラ1-1~1-4)から得た4つの点群データPDから1枚の荷物立体画像P3Dを生成する手法として、複数の荷物車両画像PCVを基に荷物CRのボクセルデータを求める視体積交差法を用いる。
This parcel stereoscopic image P3D is generated by synthesizing four pieces of point cloud data PD respectively generated from four parcel vehicle images PCV .
In this example, as a method of generating one package stereoscopic image P 3D from four point cloud data PD obtained from multiple viewpoints (ToF cameras 1-1 to 1-4 arranged at intervals), a plurality of package vehicle images A visual volume intersection method is used to obtain voxel data of the cargo CR based on the PCV .

[2次元コードの読取]
情報管理サーバ4は、コード画像PCDに写り込んだ個々の荷物CRに付された2次元コードCDを認識し(ステップS110)、当該コードCDが示す荷物情報ICRを読取る。
2次元コードCDとしてQRコード(登録商標)を使用する場合、同コードCDの認識にはファインダパターンを用いる。
[Reading two-dimensional code]
The information management server 4 recognizes the two-dimensional code CD attached to each package CR reflected in the code image PCD (step S110), and reads the package information ICR indicated by the code CD.
When a QR code (registered trademark) is used as the two-dimensional code CD, a finder pattern is used for recognition of the same code CD.

さらに、情報管理サーバ4は、コード画像PCDに写り込んだ個々の荷物CRを認識する(ステップS111)。
なお、情報管理サーバ4は、自ら認識したコード画像PCD中の各荷物に対し、各荷物に付された2次元コードCDと、各2次元コードCDから読取った荷物情報ICRを対応付けてコード画像情報422に記憶する。
Further, the information management server 4 recognizes each package CR reflected in the code image PCD (step S111).
The information management server 4 associates each package in the code image PCD recognized by itself with the two-dimensional code CD attached to each package and the package information ICR read from each two-dimensional code CD. Stored in the code image information 422 .

情報管理サーバ4は、コード画像PCDのなかに上下に積上げられた複数の荷物CDが写り込んでいるか否かを、各荷物にそれぞれ貼付されている2次元コードCDの位置関係に基づいて判別する(ステップS112)。 The information management server 4 determines whether or not a plurality of vertically stacked parcels CD are reflected in the code image PCD based on the positional relationship of the two-dimensional code CDs attached to each parcel. (step S112).

なお、情報管理サーバ4は、コード画像PCDのなかに上下に積上げられた複数の荷物が写り込んでいると判別した場合、荷物立体画像P3Dにおける「コード画像PCD内に写った2次元コードCDの位置」を特定する(ステップS113)。
そして、同サーバ4は、コード画像PCDに写った2次元コードの画像位置の座標を、荷物立体画像P3Dに写り込んでいる2次元コードの画像位置の座標に変換する。
なお、情報管理サーバ4におけるステップS108~S113の処理は、通過検知センサ3が搬送車両VHによる出入口GWの通過を検知するごとに繰返し実行される。
以上で、自動採寸システム100において、荷物CRが搬送車両VHによって運搬されている状態のもとに「荷物CRの自動採寸」と「2次元コードCDの読取」をおこなうときの一連の動作が終了する。
When the information management server 4 determines that a plurality of vertically stacked packages are reflected in the code image PCD , the information management server 4 determines that the "two-dimensional image shown in the code image PCD " in the package stereoscopic image P3D is displayed. position of the code CD" is specified (step S113).
Then, the server 4 converts the coordinates of the image position of the two-dimensional code appearing in the code image PCD into the coordinates of the image position of the two-dimensional code appearing in the three-dimensional baggage image P3D.
The processing of steps S108 to S113 in the information management server 4 is repeatedly executed each time the passage detection sensor 3 detects passage of the transport vehicle VH through the entrance/exit GW.
Thus, in the automatic measuring system 100, a series of operations for performing "automatic measurement of the load CR" and "reading of the two-dimensional code CD" while the load CR is being transported by the transport vehicle VH are completed. do.

以上説明したように、本実施形態に係る自動採寸システム100によれば、人手を介することなく、搬送車両VHにより搬送された状態のまま(しかも、荷物の搬送作業を一切妨げることなく)荷物CRのサイズを自動的に採寸でき、採寸作業からの人的リソース解放を可能にする。 As described above, according to the automatic measurement system 100 according to the present embodiment, the package CR is transported by the transport vehicle VH without human intervention (and without any hindrance to the transport operation of the package). can be automatically measured, freeing up human resources from measuring work.

また、本発明によれば、情報管理サーバ4は、4台のToFカメラ1-1~1-4が各々生成した4枚の点群データPDを合成することで、これらの点群データPDに写り込んだ荷物CRの3次元的な立体形状を示す1枚の荷物立体画像P3Dを生成できる。 Further, according to the present invention, the information management server 4 synthesizes four pieces of point cloud data PD generated by the four ToF cameras 1-1 to 1-4, respectively, so that these point cloud data PD A single package stereoscopic image P3D showing the three-dimensional shape of the captured package CR can be generated.

さらに、本発明によれば、荷物CRの取扱作業に従事する作業者が目視確認で個々に荷物を判別することなく、カメラで撮影したコード画像PCDを基に、搬送車両VHが搬送中の個々の荷物CRを自動的に判別できる。
そのため、荷物CRの個数の自動計数も可能となり、ひいては、荷物の積込作業に必要な人員数や配送に必要な配送車両台数などを自動予測にも寄与しうる。
Furthermore, according to the present invention, a worker who is engaged in the handling work of the packages CR does not need to visually identify each package, and based on the code image PCD photographed by the camera, the transport vehicle VH is being transported. Individual packages CR can be automatically identified.
Therefore, it is possible to automatically count the number of parcels CR, which can contribute to automatic prediction of the number of workers required for loading the parcels and the number of delivery vehicles required for delivery.

また、本発明によれば、コード画像PCDを基に、上下に積上げられた荷物CRの有無も自動判別し、積上げられた荷物CRがある場合には、これらの荷物CRにかかる荷物立体画像P3Dにおいて当該荷物CRに貼付された二次元コードCDの位置を特定することができる。 In addition, according to the present invention, based on the code image PCD , the presence or absence of vertically stacked packages CR is automatically determined. The position of the two-dimensional code CD attached to the parcel CR can be specified in P3D .

さらに、本願発明では、本願発明者による試行の繰返しにより、矩形の出入口GWの各コーナー4箇所にそれぞれ1台ずつ(合計4台)のToFカメラ1-1~1-4を設置することで、黒色や暗色の低反射物からなる荷物CRについても点群データPDの生成と自動採寸が実現された。
Furthermore, in the present invention, by repeating trials by the inventor of the present application, one ToF camera 1-1 to 1-4 is installed at each of the four corners of the rectangular entrance GW (four in total). Generation of point cloud data PD and automatic measurement have also been realized for packages CR made of black or dark colored low-reflection objects.

[変形例:荷物とフォークリフト爪部分の一体化部分からの当該爪部分の除去]
工場や倉庫などに代表される荷物保管場所においては、荷物CRの搬送車両としてフォークリフトが多用されている。
一般に、フォークリフトには荷物CRを支持載積するための長尺状の爪部分が設けられている。
本願システムにおいて、点群データPDを生成した場合、フォークリフトの爪部分が荷物CRと渾然一体に含まれてしまい、採寸した荷物CRのサイズが実際の荷物CRのサイズと異なってしまう場合がある。
このような事態を回避するためには、本願発明では、フォークリフトの爪部分と荷物CRを判別し、点群データPDから当該データPDに写り込んだ爪部分の点群データを除去すればよい。
[Modification: Removal of claws from integrated parts of cargo and forklift claws]
Forklifts are frequently used as transport vehicles for cargo CR in cargo storage locations such as factories and warehouses.
Generally, a forklift is provided with an elongated claw portion for supporting and loading a load CR.
In the system of the present application, when the point cloud data PD is generated, the claw portion of the forklift is included in the package CR, and the size of the measured package CR may differ from the actual size of the package CR.
In order to avoid such a situation, in the present invention, the claw portion of the forklift and the load CR may be discriminated, and the point cloud data of the claw portion reflected in the data PD may be removed from the point cloud data PD.

本願では、下記手法により、情報管理サーバ4が、点群データPDに写り込んだフォークリフト爪部分の点群データの除去処理を実現する。
以下では、図19(a)に示す点群データPDから「フォークリフトの爪部分が写り込んだ爪画像領域RGFK」を除去する場合を例に挙げて説明する。
In the present application, the information management server 4 realizes the point cloud data removal processing of the forklift claw part reflected in the point cloud data PD by the following method.
In the following, an example of removing the “claw image region RG FK in which the claw portion of the forklift is reflected” from the point cloud data PD shown in FIG. 19A will be described.

情報管理サーバ4は、まず、図19(b)のように、点群データPDにおける処理対象(荷物CRとフォークリフト爪部分が一体化しているデータ部分)を、X軸沿いに所定間隔(たとえば、1mm)ごとに切断位置xにおける切断面CS(n:整数)により切断する(図21のステップS21)。
同図19(b)の例では、切断面CSにおいて、荷物CRならびにフォークリフト爪部分が写り込んだ断面画像(図20(a)参照)が取得できる。
また、同図19(b)中の切断面CSにおいては、荷物CRは写り込んでいないため、フォークリフト爪部分のみが写り込んだ断面画像(図20(b)参照)が取得できる。
なお、X軸の向きは、長尺状をなす「フォークリフト爪部分の軸方向(延伸方向)と同じ向き」である。
First, as shown in FIG. 19B, the information management server 4 divides the processing target (the data portion where the cargo CR and the forklift claw portion are integrated) in the point cloud data PD at predetermined intervals along the X axis (for example, 1 mm) at the cutting position x n (step S21 in FIG. 21).
In the example of FIG. 19(b), a cross-sectional image (see FIG. 20(a)) in which the cargo CR and the forklift claw portion are reflected can be acquired on the cutting plane CS2 .
In addition, since the load CR is not reflected on the cutting plane CS1 in FIG. 19(b), a cross-sectional image (see FIG. 20(b)) in which only the forklift claw portion is reflected can be acquired.
The direction of the X-axis is "the same direction as the axial direction (stretching direction) of the forklift claw".

つぎに、情報管理サーバ4は、各切断位置xにおいて切断面CSにより切取られる断面積Axを順次算出する(図21のステップS22)。
本例において、図19(b)中の切断面CSにより切取られた荷物CRならびにフォークリフト爪部分が写り込んだ断面画像(図20(a)参照)の断面積Axは「200000」である。
また、図19(b)中の切断面CSにより切取られたフォークリフト爪部分が写り込んだ断面画像(図20(b)参照)の断面積Axは「2000」である。
Next, the information management server 4 sequentially calculates the cross-sectional area Axn cut by the cutting surface CSn at each cutting position xn (step S22 in FIG. 21).
In this example, the cross-sectional area Ax 2 of the cross-sectional image (see FIG. 20(a)) in which the load CR and the forklift claw portion are reflected by the cutting plane CS 2 in FIG. 19(b) is "200000". .
Further, the cross-sectional area Ax1 of the cross-sectional image (see FIG. 20(b)) in which the forklift claw portion cut off by the cutting plane CS1 in FIG. 19(b) is reflected is "2000".

そして、情報管理サーバ4は、連続的に前後する2つの切断位置xおよび切断位置xn+1において各切断面CS・CSn+1により切取られた断面積AxならびにAxn+1を順次比較していく。
すなわち、切断面積比「Axn+1/Ax」の値を、X軸沿いの各切断位置xについて逐次算出する(図21のステップS23)。
図19(b)における切断面CSと切断面CSが連続する前後関係にある場合には、切断面積比「Ax/Ax」の値は「100」となる。
Then, the information management server 4 sequentially compares the cross-sectional areas Ax n and Ax n+1 cut by the cutting planes CS n and CS n+1 at the two cutting positions x n and x n+1 that are successively adjacent to each other. .
That is, the value of the cut area ratio “Ax n+1 /Ax n ” is sequentially calculated for each cut position x n along the X-axis (step S23 in FIG. 21).
When the cut surface CS 1 and the cut surface CS 2 in FIG. 19B are in a continuous anteroposterior relationship, the value of the cut area ratio “Ax 2 /Ax 1 ” is “100”.

さらに、情報管理サーバ4は、切断面CSにより切断を開始した先頭の切断位置xからスタートして、先に求めた切断面積比「Axn+1/Ax」を所定の荷物検出閾値THCRと比較していく(図21のステップS24)。
なお、この荷物検出閾値THCRには、実際の荷物保管場所において現場テストを実施することにより、荷物CRとフォークリフト爪部分の判別に好適な数値を設定する。
Furthermore, the information management server 4 starts from the top cutting position x 0 where cutting was started by the cutting surface CS n , and sets the previously obtained cutting area ratio "Ax n+1 /Ax n " to the predetermined parcel detection threshold TH CR. (step S24 in FIG. 21).
For the cargo detection threshold TH CR , a numerical value suitable for distinguishing between the cargo CR and the forklift claw portion is set by carrying out a field test at an actual cargo storage place.

続いて、情報管理サーバ4は、切断面積比「Axn+1/Ax」と荷物検出閾値THCRの大小関係に基づき、フォークリフト爪部分が荷物CRと接する接触位置xを判定する(図21のステップS25)。
本例では、切断面積比「Axn+1/Ax」の値が、荷物検出閾値THCR(たとえば、60)を超過した場合、当該切断位置xがフォークリフト爪部分および荷物CRの接触位置xであると判定する。
Subsequently, the information management server 4 determines the contact position xT where the forklift claw contacts the cargo CR based on the size relationship between the cutting area ratio "Axn +1 / Axn " and the cargo detection threshold THCR (see FIG. 21). step S25).
In this example, when the value of the cutting area ratio “Ax n+1 /Ax n ” exceeds the load detection threshold TH CR (for example, 60), the cutting position x n is the contact position x T between the forklift claw portion and the load CR. It is determined that

そして、情報管理サーバ4は、切断面CSによる切断を開始した先頭の切断位置xから接触位置xまでの切断面CS~CSによって切取られた「フォークリフト爪部分が写り込んだ爪画像領域RGFK」を、点群データPDから除去する(図21のステップS26)。
以上で、点群データPDに写り込んだフォークリフト爪部分の除去をおこなうときの一連の動作が終了する。
Then, the information management server 4 stores the "claw with the forklift claw portion reflected" cut by the cutting planes CS 0 to CS T from the first cutting position x 0 where cutting by the cutting plane CS n is started to the contact position xT. The image region RG FK ” is removed from the point cloud data PD (step S26 in FIG. 21).
This completes the series of operations for removing the forklift claw portion reflected in the point cloud data PD.

これにより、点群データPDにおいてフォークリフト爪部分が荷物CRと渾然一体に含まれている場合でも、フォークリフト爪部分の点群データを除去することができ、荷物CRの採寸精度をより高めることができる。
As a result, even when the forklift claw portion is included in the point cloud data PD in harmony with the cargo CR, the point cloud data of the forklift claw portion can be removed, and the measurement accuracy of the cargo CR can be further improved. .

[変形例:ToFカメラの座標軸に対し荷物の点群データを平行にする傾き修正機能]
上述したように、荷物保管場所では、荷物CRの搬送にフォークリフトを用いることが多い。
一般的なフォークリフトでは、荷物CRが当該爪部分から滑落することを防止するため、荷物CRと当接する爪部分の上面に緩やかな傾斜が設けられている。
そのため、ToFカメラ1-1~1-4が撮影した荷物車両画像PCVに写り込んだ荷物CRは、ToFカメラ1-1~1-4の座標軸に対して水平でなく傾いた姿勢であることが多い。
また、繁忙な搬送作業の際には、荷物CRがToFカメラ座標軸からずれた状態でフォークリフト爪部分に載積されることも往々にして起こりうる。
[Modification: Tilt correction function that makes the point cloud data of the package parallel to the coordinate axis of the ToF camera]
As described above, forklifts are often used to transport the cargo CR at the cargo storage location.
In a general forklift, the upper surface of the claw portion that contacts the cargo CR is gently inclined in order to prevent the cargo CR from slipping down from the claw portion.
Therefore, the cargo CR captured in the cargo vehicle image PCV captured by the ToF cameras 1-1 to 1-4 is not horizontal to the coordinate axes of the ToF cameras 1-1 to 1-4, but is tilted. There are many.
In addition, during a busy transportation operation, it is often possible that the cargo CR is loaded on the forklift claw portion in a state deviated from the ToF camera coordinate axis.

「点群データPD」は荷物車両画像PCVに基づいて生成されるものである以上、荷物車両画像PCVに写り込んだ荷物CRの姿勢が元々傾いているのであれば、この荷物CRの姿勢の傾きが点群データPDにもそのまま引継がれてしまう。
そこで、本システム100では、ToFカメラ1の座標軸に対して荷物の点群データを平行にさせる「傾き修正機能」を設けている。
Since the "point cloud data PD" is generated based on the parcel vehicle image PCV , if the posture of the parcel CR reflected in the parcel vehicle image PCV is originally inclined, the posture of the parcel CR is inherited as it is to the point cloud data PD.
Therefore, the present system 100 is provided with a “tilt correction function” that makes the point cloud data of the package parallel to the coordinate axes of the ToF camera 1 .

上述したような傾き修正機能は、本願の情報管理サーバ4において、以下のような手法により実現される。
以下では、図22(a)に示す荷物画像領域RGCR(荷物CRの点群データ)の姿勢を、ToFカメラ1の座標軸(同図22(a)中のXY座標水平面)に対して平行にする場合を例に挙げて説明する。
The tilt correction function as described above is realized by the following method in the information management server 4 of the present application.
Below, the posture of the package image area RG CR (point cloud data of package CR) shown in FIG. A case will be described as an example.

図22(a)の荷物画像領域RGCRの端点(立方体の各頂点にあたる画素)はそれぞれ深度座標(x,y,z)を有している。
そこで、まず、情報管理サーバ4は、図22(a)のZ軸方向から傾き修正処理対象(荷物画像領域RGCR)を見たときの、XY平面(水平面)上における「荷物画像領域RGCRのXY平面投影図」を生成する(図23のステップS31)。
図22(a)の荷物画像領域RGCRからは、図22(b)に示す「XY平面投影図(水平面投影図)」が得られる。
なお、Z軸の向きは「荷物CRの高さ方向」(垂直方向)と同じ向きである。
The end points (pixels corresponding to the vertices of the cube) of the luggage image area RG CR in FIG. 22(a) each have depth coordinates (x, y, z).
Therefore, first , the information management server 4 determines the "baggage image area RG CR XY plane projection view of ” is generated (step S31 in FIG. 23).
An "XY plane projection view (horizontal plane projection view)" shown in FIG. 22(b) is obtained from the parcel image area RG CR of FIG. 22(a).
The direction of the Z-axis is the same as the "height direction of the load CR" (vertical direction).

つぎに、情報管理サーバ4は、荷物画像領域RGCRから得られた図22(b)のXY平面投影図を、Z軸(荷物CRの高さ方向の軸)を回転中心軸として、XY平面(水平面)上で所定単位角度ずつ回転させる(図23のステップS32)。
これにより、情報管理サーバ4は「XY平面写像図」(水平面写像図)を生成する(同ステップS32)。
なお、本例における情報管理サーバ4は、Z軸を中心として、所定単位角度(たとえば、1°)ずつ図22(b)のXY平面投影図をXY平面上で回転させていく。
Next, the information management server 4 converts the XY plane projection view of FIG. 22(b) obtained from the package image area RG CR into the XY plane with the Z axis (the axis in the height direction of the package CR) as the central axis of rotation. (Horizontal plane) is rotated by a predetermined unit angle (step S32 in FIG. 23).
As a result, the information management server 4 generates an "XY plane map" (horizontal plane map) (step S32).
The information management server 4 in this example rotates the XY plane projection view of FIG. 22B on the XY plane by a predetermined unit angle (for example, 1°) around the Z axis.

なお、同サーバ4は、図23・ステップS32のXY平面投影図(水平面投影図)の回転処理を、所定回転範囲(たとえば、-45°~+45°)で実行する。
本例では、図22(b)のXY平面投影図を回転角度(+2°)だけ回転させたときに、図22(c)の「XY平面写像図(水平面写像図)」が得られたものとする。
また、本例では、図22(b)のXY平面投影図を回転角度(+5°)だけ回転させたときに、図22(d)のXY平面写像図(水平面写像図)が得られたものとする。
The server 4 performs the rotation processing of the XY plane projection view (horizontal plane projection view) in step S32 of FIG. 23 within a predetermined rotation range (eg, −45° to +45°).
In this example, when the XY plane projection view of FIG. 22(b) is rotated by a rotation angle (+2°), the "XY plane map (horizontal plane map)" of FIG. 22(c) is obtained. and
Further, in this example, when the XY plane projection view of FIG. 22(b) is rotated by a rotation angle (+5°), the XY plane map (horizontal plane map) of FIG. 22(d) is obtained. and

情報管理サーバ4は、図22(b)のXY平面投影図について、当該投影図の各端点(深度座標)のうちの水平面座標の最大値・最小値(X軸最大値・X軸最小値・Y軸最大値・Y軸最小値)を特定する(図23のステップS33)。 The information management server 4 calculates the maximum and minimum values (X-axis maximum value, X-axis minimum value, Y-axis maximum value and Y-axis minimum value) are specified (step S33 in FIG. 23).

続いて、同サーバ4は、XY平面投影図に外接する外接矩形(図22(b)において破線で囲まれた四角形)の面積を求める(同ステップS33)。
なお、外接矩形の面積は、(X軸最大値-X軸最小値)×(Y軸最大値-Y軸最小値)なる式より算出可能である。
Subsequently, the server 4 obtains the area of the circumscribing rectangle (the rectangle surrounded by the dashed line in FIG. 22(b)) that circumscribes the XY plane projection view (step S33).
The area of the circumscribing rectangle can be calculated from the formula (maximum value of X-axis-minimum value of X-axis).times.(maximum value of Y-axis-minimum value of Y-axis).

さらに、同サーバ4は、上述した所定回転範囲内で所定単位角度だけ回転させるごとに、XY平面投影図を回転させて得られた各XY平面写像図(図22(c)・図22(d))についても、当該写像図の水平面座標の最大値・最小値(X軸最大値・X軸最小値・Y軸最大値・Y軸最小値)を特定する(図23のステップS34)。
そして、XY平面写像図それぞれの「外接矩形の面積」を算出する(同ステップS34)。
Furthermore, the same server 4 rotates the XY plane projection view each time it is rotated by a predetermined unit angle within the above-mentioned predetermined rotation range, and each XY plane projection view (FIGS. 22(c) and 22(d) obtained by rotating the XY plane projection view )), the maximum and minimum values (X-axis maximum value, X-axis minimum value, Y-axis maximum value, Y-axis minimum value) of the horizontal plane coordinates of the mapping diagram are also specified (step S34 in FIG. 23).
Then, the "area of the circumscribing rectangle" of each XY plane map is calculated (at step S34).

そして、情報管理サーバ4は、「外接矩形の面積」が最も小さくなったときの回転角度において、荷物画像領域RGCRを回転させたXY平面写像図の各辺の向きがToFカメラ1の水平面座標軸(X軸・Y軸)に対して揃った平行状態であると判定する(図23のステップS35)。
これにより、ToFカメラ1の座標軸に対する荷物CRの点群データの傾きを修正し平行にすることが可能となり、ひいては荷物CRの採寸精度をより高めることができる。
Then, the information management server 4 determines that the direction of each side of the XY plane mapping diagram obtained by rotating the baggage image area RG CR is the horizontal plane coordinate axis of the ToF camera 1 at the rotation angle when the "area of the circumscribing rectangle" is the smallest. It is judged to be in a parallel state aligned with (X-axis and Y-axis) (step S35 in FIG. 23).
This makes it possible to correct the inclination of the point cloud data of the package CR with respect to the coordinate axes of the ToF camera 1 so as to make them parallel to each other, thereby further improving the measurement accuracy of the package CR.

[変形例:点群データからノイズ成分を除去する機能]
ToFカメラ1が撮影した荷物車両画像PCVから生成される「点群データPD」には、荷物保管場所の場内にある荷物CRとは無関係の物体が写り込んでしまうおそれがある。
このような荷物CRに無関係の物体は、点群データPDにおけるノイズ成分NSになりうるため、当該点群データPDから生成される「荷物立体画像P3D」の形状の正確性に悪影響(たとえば、歪み)を及ぼしうる。
このような事態を事前回避するために、本システム100では、点群データPDからノイズ成分NSを除去する機能を設けている。
[Modification: Function to remove noise components from point cloud data]
The "point cloud data PD" generated from the cargo vehicle image PCV captured by the ToF camera 1 may include an object unrelated to the cargo CR in the cargo storage area.
Since such an object unrelated to the parcel CR can become a noise component NS in the point cloud data PD, it adversely affects the accuracy of the shape of the "parcel stereoscopic image P 3D " generated from the point cloud data PD (for example, distortion).
In order to avoid such a situation in advance, the system 100 has a function of removing the noise component NS from the point cloud data PD.

上述したようなノイズ除去機能は、本願では、情報管理サーバ4において以下のような手法により実現される。
以下では、図24(a)に示す点群データPDから、当該データPDに含まれるノイズ成分NSを除去する場合を例に挙げて説明する。
In the present application, the noise removal function as described above is realized by the following method in the information management server 4 .
In the following, an example of removing the noise component NS included in the point cloud data PD shown in FIG. 24A will be described.

この手法においては、情報管理サーバ4は、あらかじめ定められた所定のノイズ判定基準THNSを利用して、点群データPDからノイズ成分NSを除去する。
本例では、「点群密度」(図24(a)中に破線で示すノイズ判定範囲RNNSに含まれる点群の個数)をノイズ判定基準THNSと照合することで、ノイズ成分NSか否かを判定する。
ノイズ判定基準THNSは、実際の荷物保管場所で現場テストをおこなうことで、ノイズ成分NSの判別に好適な数値を設定する。
本例では、ノイズ判定基準THNSの値は「5」である。
In this method, the information management server 4 removes the noise component NS from the point cloud data PD using a predetermined noise criterion TH NS .
In this example, by comparing the "point cloud density" (the number of point clouds included in the noise determination range RN NS indicated by the dashed line in FIG. 24(a)) with the noise determination reference TH NS , determine whether
The noise judgment reference TH NS is set to a numerical value suitable for judging the noise component NS by performing a field test at an actual luggage storage location.
In this example, the value of the noise criterion TH NS is "5".

情報管理サーバ4は、点群データPDに含まれる全画素について、それぞれの画素(深度座標(x,y,z))を中心とする「ノイズ判定範囲RNNSに存在する点群の個数」を算出する(図25のステップS41)。 The information management server 4 calculates “the number of point clouds existing in the noise determination range RN NS ” centering on each pixel (depth coordinates (x, y, z)) for all pixels included in the point cloud data PD. Calculate (step S41 in FIG. 25).

本例では、上記のノイズ判定範囲RNNSとして、点群データPD内の各画素を円心とする「半径rの円」内部を採用する。
この半径rは、荷物保管場所に依存するパラメータであるため、荷物保管場所の現場に応じて好適に設定する。
なお、ノイズ判定範囲RNNSの形状は、任意でよく、楕円形状や多角形状でもよい。
In this example, as the noise determination range RN NS , the inside of a "circle of radius r" with each pixel in the point cloud data PD as the center of the circle is employed.
Since this radius r is a parameter that depends on the luggage storage location, it is suitably set according to the site of the luggage storage location.
Note that the shape of the noise determination range RN NS may be arbitrary, and may be an elliptical shape or a polygonal shape.

つぎに、情報管理サーバ4は、「ノイズ判定範囲RNNSに存在する点群の個数」がノイズ判定基準THNSよりも小さい場合、そのノイズ判定範囲RNNS内にある点群がノイズ成分NSであると判定する(図25のステップS42)。
そして、同サーバ4は、ノイズ判定範囲RNNSに含まれるこれらの画素における点群(ノイズ成分NSとして判定された点群)を除去する(図25のステップS43)。
このようにすることで、ノイズ成分NSが除去されたよりクリアな点群データPD(図24(b)参照)を得ることができるため、点群データPDから生成される荷物立体画像P3Dの形状を、実際の荷物CRの正確な形状により近づけることができる。
Next, when "the number of point groups existing in the noise determination range RN NS" is smaller than the noise determination reference TH NS , the information management server 4 determines that the point groups within the noise determination range RN NS are noise components NS. It is determined that there is (step S42 in FIG. 25).
The server 4 then removes the point group (the point group determined as the noise component NS) in these pixels included in the noise determination range RN NS (step S43 in FIG. 25).
By doing so, it is possible to obtain clearer point cloud data PD (see FIG. 24(b)) from which the noise component NS is removed. can be closer to the exact shape of the actual cargo CR.

以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明の要旨を逸脱しない範囲で当業者が理解し得る各種の変形が可能である。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various modifications that can be understood by those skilled in the art are possible in the configuration and details of the present invention without departing from the gist of the present invention.

1 ToF(Time of Flight)カメラ
2 カメラ
3 通過検知センサ
4 情報管理サーバ
5 コントローラ
6 中継サーバ
100 自動採寸システム
200 インターネット
300 有線LAN
400 無線LAN
CR 荷物
VH 搬送車両
CV 荷物車両画像
PD 点群データ
3D 荷物立体画像
CD 2次元コード
CD コード画像
1 ToF (Time of Flight) camera 2 Camera 3 Passage detection sensor 4 Information management server 5 Controller 6 Relay server 100 Automatic measurement system 200 Internet 300 Wired LAN
400 wireless LAN
CR Cargo VH Conveying vehicle P CV cargo vehicle image PD Point cloud data P 3D cargo stereoscopic image CD Two-dimensional code P CD code image

Claims (5)

搬送車両その他の搬送手段により搬送される荷物のサイズを自動的に採寸できる自動採寸システムであって、

荷物保管場所の矩形状の出入口に設けられたセンサであって、前記搬送手段が出入口を通過することを検知する通過検知センサと、
前記矩形状の出入口の4つのコーナーに各1台ずつ設けられた任意の被写体を撮影するToF(Time of Flight)カメラであって、前記通過検知センサが搬送手段による出入口の通過を検知したときに前記荷物に赤外光を照射するとともに当該荷物から反射された赤外光を受光する4台のToF(Time of Flight)カメラと、
任意の被写体を撮影可能なカメラであって、前記出入口の左右いずれかの側面部に設けられたカメラと、
前記ToFカメラが撮影した画像と前記カメラが撮影した画像を管理する情報管理サーバと、
を具備してなり、

前記4台のToF(Time of Flight)カメラは、各々、
前記通過検知センサが搬送手段の出入口通過を検知したときに、この搬送手段と同搬送手段が搬送中の荷物がともに写り込んだ荷物車両画像を撮影する撮影手段と、
同通過検知センサが搬送手段の出入口通過を検知したときに荷物に対して赤外光を放出してから同荷物により反射された赤外光を受光するまでの受光所要時間に基づき、荷物車両画像の各画素中に写り込んだ被写体部分と同ToFカメラの間の深度距離を求める距離算出手段と、
前記距離算出手段が求めた深度距離に応じて定まる荷物車両画像内の深度座標と、各深度距離に応じた区分を示す所定色とからなる荷物車両画像の各画素のデータ集合を生成し、当該生成したデータ集合に基づいて、各画素における深度距離に応じた所定色を荷物車両画像の画素ごとに着色することで点群データを生成する点群データ生成手段と、
前記点群データを情報管理サーバに送信する点群データ送信手段と、
を有し、

前記カメラは、
前記通過検知センサが搬送手段の出入口通過を検知したときに、この搬送手段と同搬送手段が搬送中の荷物と同荷物に貼付された2次元コードとが写り込んだコード画像を撮影するコード撮影手段と、
前記コード画像を情報管理サーバに送信するコード画像送信手段と、
を有し、

前記情報管理サーバは、
出入口の各コーナーから各ToFカメラが撮影した同じ被写体の4枚の荷物車両画像からそれぞれ生成された4枚の点群データにおいて、当該点群データに写り込んだ荷物の幅と高さと奥行を採寸し、
前記4枚の点群データを合成することで、当該点群データに写り込んでいる荷物の3次元的な立体形状を示す1枚の荷物立体画像を生成し、
前記荷物立体画像が示す荷物に、前記採寸した幅と高さと奥行を対応付けて記憶する採寸処理と、

前記コード画像に写り込んでいる個々の荷物に添付された2次元コードを認識して、当該2次元コードが示す荷物情報を読取り、
前記認識した2次元コードに基づいて、前記コード画像に写り込んでいる個々の荷物を認識し、
前記コード画像のなかに上下に積上げられた複数の荷物が写り込んでいるか否かを、各荷物にそれぞれ貼付されている2次元コードに基づいて判別するコード読取処理と、

前記コード画像のなかに上下に積上げられた複数の荷物が写り込んでいると判別したときに、
当該コード画像に写り込んだ2次元コードの位置に対応する、前記荷物立体画像におけるコード相対位置を特定し、
前記コード相対位置が特定された荷物立体画像に対して、当該コード相対位置に写り込んだ2次元コードと同2次元コードが示す荷物情報を対応付けて記憶する
ように構成されたことを特徴とする、自動採寸システム。
An automatic measuring system capable of automatically measuring the size of a package transported by a transport vehicle or other transport means,

a passage detection sensor provided at a rectangular doorway of a luggage storage location, the sensor detecting passage of the conveying means through the doorway;
A ToF (Time of Flight) camera for photographing an arbitrary subject provided one each at each of the four corners of the rectangular doorway, when the passage detection sensor detects passage of the doorway by the conveying means four ToF (Time of Flight) cameras that irradiate the baggage with infrared light and receive infrared light reflected from the baggage;
a camera capable of photographing an arbitrary subject, the camera being provided on either the left or right side of the doorway;
an information management server that manages images captured by the ToF camera and images captured by the camera;
and

Each of the four ToF (Time of Flight) cameras,
a photographing means for photographing a parcel vehicle image in which the parcels being conveyed by the conveying means and the parcels being conveyed by the conveying means are photographed when the passage detection sensor detects passage of the entrance/exit of the conveying means;
Based on the light reception time required from when the passage detection sensor detects the passage of the entrance/exit of the transportation means to when the infrared light is emitted to the baggage until the infrared light reflected by the same baggage is received. a distance calculation means for obtaining the depth distance between the subject portion reflected in each pixel of the ToF camera and the ToF camera;
generating a data set of each pixel of the cargo vehicle image including depth coordinates in the cargo vehicle image determined according to the depth distance obtained by the distance calculating means and a predetermined color indicating a division according to each depth distance; a point cloud data generating means for generating point cloud data by coloring each pixel of the cargo vehicle image with a predetermined color corresponding to the depth distance of each pixel based on the generated data set;
Point cloud data transmission means for transmitting the point cloud data to an information management server;
has

The camera is
Code photographing for photographing a code image in which a package being transported by the transport means and the transport means and a two-dimensional code affixed to the same load are photographed when the passage detection sensor detects passage of the entrance/exit of the transport means. means and
code image transmission means for transmitting the code image to an information management server;
has

The information management server is
Measure the width, height, and depth of the cargo reflected in the point cloud data in the four point cloud data generated from the four cargo vehicle images of the same subject taken by each ToF camera from each corner of the entrance/exit. death,
Synthesizing the four pieces of point cloud data to generate a single package stereoscopic image showing the three-dimensional shape of the package reflected in the point cloud data,
a measuring process of associating and storing the measured width, height, and depth of the luggage indicated by the stereoscopic image of the luggage;

recognizing a two-dimensional code attached to each package reflected in the code image and reading package information indicated by the two-dimensional code;
recognizing individual packages appearing in the code image based on the recognized two-dimensional code;
a code reading process for determining whether or not a plurality of vertically stacked packages are reflected in the code image based on a two-dimensional code affixed to each package;

When it is determined that a plurality of packages stacked up and down are reflected in the code image,
identifying a code relative position in the three-dimensional image of the baggage corresponding to the position of the two-dimensional code reflected in the code image;
It is characterized in that the two-dimensional code reflected in the code relative position and the baggage information indicated by the two-dimensional code are stored in association with the three-dimensional image of the package in which the code relative position is specified. automatic measurement system.
請求項1に記載の自動採寸システムであって、

前記ToF(Time of Flight)カメラは、
採寸対象となる荷物が赤外光を吸収する低反射物である場合でも、撮影した荷物車両画像から点群データを生成できる
ように構成されたことを特徴とする、自動採寸システム。
The automatic measurement system according to claim 1,

The ToF (Time of Flight) camera is
1. An automatic measurement system characterized in that it is configured to generate point cloud data from photographed baggage vehicle images even when the baggage to be measured is a low-reflection object that absorbs infrared light.
請求項1又は2に記載の自動採寸システムであって、

前記搬送手段がフォークリフトである場合、
情報管理サーバは、
前記点群データにおいて荷物とフォークリフト爪部分が一体化しているデータ部分を、長尺状をなす前記フォークリフト爪部分の軸方向沿いに所定間隔ごとに切断位置において切断面により切断する処理と、
前記切断位置それぞれにおいて切断面により切取られる断面積を算出する処理と、
連続的に前後する2つの切断位置において各切断面により切取られた断面積同士を順次比較して、切断面積比を算出する処理と、
切断面による切断を開始した先頭の切断位置からスタートして、先に求めた切断面積比を所定の荷物検出閾値と比較する処理と、
切断面積比と荷物検出閾値の大小関係に基づきフォークリフト爪部分が荷物と接する接触位置を判定する処理であって、ある切断位置における切断面積比が荷物検出閾値を超過したときに、当該切断位置がフォークリフト爪部分および荷物の接触位置であると判定する処理と、
先頭の切断位置から接触位置までの各切断面によって切取られたフォークリフトの爪部分が写り込んだ爪画像領域を、点群データから除去する処理と、
を実行する
ように構成されたことを特徴とする、自動採寸システム。
The automatic measurement system according to claim 1 or 2,

When the transportation means is a forklift,
The information management server
A process of cutting the data portion in which the cargo and the forklift claw portion are integrated in the point cloud data by the cutting surface at the cutting position at predetermined intervals along the axial direction of the forklift claw portion having a long shape;
A process of calculating a cross-sectional area cut by a cutting plane at each of the cutting positions;
A process of sequentially comparing the cross-sectional areas cut by each cutting surface at two cutting positions that are consecutively back and forth to calculate the cutting area ratio;
a process of comparing the previously obtained cut area ratio with a predetermined load detection threshold value, starting from the first cut position where cutting by the cut surface was started;
This is a process of determining the contact position where the forklift claw portion contacts the load based on the magnitude relationship between the cut area ratio and the load detection threshold, and when the cut area ratio at a certain cut position exceeds the load detection threshold, the cut position is A process of determining that it is the contact position of the forklift claw portion and the load;
A process of removing from the point cloud data the claw image area in which the claw portion of the forklift cut off by each cutting plane from the leading cutting position to the contact position is reflected;
An automatic weighing system, characterized in that it is configured to perform
請求項1又は2に記載の自動採寸システムであって、

情報管理サーバは、
前記荷物の高さ方向から見たときの、前記点群データに写り込んだ荷物画像領域の水平面投影図を生成する処理と、
荷物の高さ方向の軸を回転中心として水平面投影図を水平面上で所定単位角度ずつ回転させることで、水平面写像図を生成する処理と、
水平面投影図の各端点の水平面座標の最大値・最小値を基に、当該水平面投影図に外接する外接矩形の面積を求める処理と、
水平面写像図の各端点の水平面座標の最大値・最小値を基に、当該水平面写像図に外接する外接矩形の面積を求める処理と、
前記外接矩形の面積が最小のときの回転角度において、水平面写像図の各辺の向きがToFカメラの水平面座標軸に対して揃った平行状態であると判定する処理と、
を実行する
ように構成されたことを特徴とする、自動採寸システム。
The automatic measurement system according to claim 1 or 2,

The information management server
a process of generating a horizontal plane projection view of the baggage image area reflected in the point cloud data when viewed from the height direction of the baggage;
a process of generating a horizontal projection diagram by rotating the horizontal projection diagram on the horizontal plane by a predetermined unit angle about the axis in the height direction of the package;
A process of determining the area of a circumscribing rectangle that circumscribes the horizontal projection view based on the maximum and minimum values of the horizontal coordinates of the endpoints of the horizontal projection view;
A process of determining the area of a circumscribing rectangle that circumscribes the horizontal map based on the maximum and minimum values of the horizontal coordinates of the endpoints of the horizontal map;
a process of determining that the direction of each side of the horizontal plane map is parallel to the horizontal plane coordinate axis of the ToF camera at the rotation angle when the area of the circumscribing rectangle is the minimum;
An automatic weighing system, characterized in that it is configured to perform
請求項1又は2に記載の自動採寸システムであって、

情報管理サーバは、
前記点群データに含まれるすべての画素それぞれについて、当該画素を中心とする所定のノイズ判定範囲に存在する点群の個数を算出する処理と、
前記ノイズ判定範囲に存在する点群の個数が所定のノイズ判定基準よりも小さい場合、当該ノイズ判定範囲内にある点群がノイズ成分であると判定する処理と、
前記ノイズ成分として判定された点群を除去する処理と、
を実行する
ように構成されたことを特徴とする、自動採寸システム。
The automatic measurement system according to claim 1 or 2,

The information management server
A process of calculating the number of point clouds existing in a predetermined noise determination range centering on each pixel included in the point cloud data;
a process of determining that the point group within the noise determination range is a noise component when the number of point groups present in the noise determination range is smaller than a predetermined noise determination criterion;
A process of removing the point cloud determined as the noise component;
An automatic weighing system, characterized in that it is configured to perform
JP2023038714A 2023-03-13 2023-03-13 Automatic measurement system Active JP7288568B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023038714A JP7288568B1 (en) 2023-03-13 2023-03-13 Automatic measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023038714A JP7288568B1 (en) 2023-03-13 2023-03-13 Automatic measurement system

Publications (2)

Publication Number Publication Date
JP7288568B1 true JP7288568B1 (en) 2023-06-08
JP2024129483A JP2024129483A (en) 2024-09-27

Family

ID=86611053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023038714A Active JP7288568B1 (en) 2023-03-13 2023-03-13 Automatic measurement system

Country Status (1)

Country Link
JP (1) JP7288568B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117589064A (en) * 2024-01-19 2024-02-23 中理检验有限公司 Automatic wood measuring method and system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017098397A1 (en) * 2015-12-07 2017-06-15 Mectho S.R.L. Article accepting station and process of accepting articles
US20170228885A1 (en) * 2014-08-08 2017-08-10 Cargometer Gmbh Device and method for determining the volume of an object moved by an industrial truck
WO2020100956A1 (en) * 2018-11-14 2020-05-22 日本電気株式会社 Information processing system, information processing method, and recording medium
CN111899258A (en) * 2020-08-20 2020-11-06 广东机场白云信息科技有限公司 Self-service consignment luggage specification detection method
CN112767540A (en) * 2021-01-15 2021-05-07 苏州艾吉威机器人有限公司 Automatic loading method for AGV
KR20220043326A (en) * 2020-09-29 2022-04-05 주식회사 포스코아이씨티 System and Method for Recognizing Double Loading of Baggage

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170228885A1 (en) * 2014-08-08 2017-08-10 Cargometer Gmbh Device and method for determining the volume of an object moved by an industrial truck
WO2017098397A1 (en) * 2015-12-07 2017-06-15 Mectho S.R.L. Article accepting station and process of accepting articles
WO2020100956A1 (en) * 2018-11-14 2020-05-22 日本電気株式会社 Information processing system, information processing method, and recording medium
CN111899258A (en) * 2020-08-20 2020-11-06 广东机场白云信息科技有限公司 Self-service consignment luggage specification detection method
KR20220043326A (en) * 2020-09-29 2022-04-05 주식회사 포스코아이씨티 System and Method for Recognizing Double Loading of Baggage
CN112767540A (en) * 2021-01-15 2021-05-07 苏州艾吉威机器人有限公司 Automatic loading method for AGV

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117589064A (en) * 2024-01-19 2024-02-23 中理检验有限公司 Automatic wood measuring method and system
CN117589064B (en) * 2024-01-19 2024-03-29 中理检验有限公司 Automatic wood measuring method and system

Also Published As

Publication number Publication date
JP2024129483A (en) 2024-09-27

Similar Documents

Publication Publication Date Title
US11709046B2 (en) Systems and methods for volumetric sizing
EP3335002B1 (en) Volumetric estimation methods, devices and systems
US10721451B2 (en) Arrangement for, and method of, loading freight into a shipping container
WO2021249568A1 (en) Warehouse robot control method and apparatus, device and readable storage medium
US10451405B2 (en) Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10290115B2 (en) Device and method for determining the volume of an object moved by an industrial truck
US10512941B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
US10860855B2 (en) Instruction projecting device, package sorting system and instruction projecting method
JP7288568B1 (en) Automatic measurement system
TW201013554A (en) Method and system for detecting objects within a storage space
JP2017151650A (en) Object state specification method, object state specification apparatus, and conveyance vehicle
US10675659B2 (en) Instruction projecting device, package sorting system and instruction projecting method
US20190099783A1 (en) Projection indicator, cargo assortment system, and projection indicating method
US20230306625A1 (en) Object dimensioning system
JP2012137304A (en) Automatic measurement device for goods distribution system
US20200103218A1 (en) Methods and systems for measuring dimensions of a 2-d object
CN113379827A (en) Vehicle segmentation for data capture system
JP2022021894A (en) Waste sorting system, x-ray photographing device, program, and waste sorting method
EP3434625B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
CN111386533B (en) Method and apparatus for detecting and identifying graphic character representations in image data using symmetrically located blank areas
JP2021025853A (en) Size measuring device, size measuring method, and program
EP4212821A1 (en) Filling rate measurement method, information processing device, and program
US10635869B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
TW202436190A (en) Cased goods inspection and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230313

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7288568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150