JP2021025853A - Size measuring device, size measuring method, and program - Google Patents

Size measuring device, size measuring method, and program Download PDF

Info

Publication number
JP2021025853A
JP2021025853A JP2019142920A JP2019142920A JP2021025853A JP 2021025853 A JP2021025853 A JP 2021025853A JP 2019142920 A JP2019142920 A JP 2019142920A JP 2019142920 A JP2019142920 A JP 2019142920A JP 2021025853 A JP2021025853 A JP 2021025853A
Authority
JP
Japan
Prior art keywords
size
image
value
camera
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019142920A
Other languages
Japanese (ja)
Inventor
昂志 太田
Takashi Ota
昂志 太田
俊文 岸田
Toshibumi Kishida
俊文 岸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2019142920A priority Critical patent/JP2021025853A/en
Publication of JP2021025853A publication Critical patent/JP2021025853A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a technology suitable for size measurement of a large number of objects.SOLUTION: A size measuring device has a camera that photographs an object present in a measurement area, a sensor that measures the distance from the camera to the object, and an information processing apparatus. The information processing apparatus has an extraction unit that extracts the object from an image obtained by the camera, and a size estimation unit that estimates the actual size of the object extracted from the image based on a measured distance measured by the sensor.SELECTED DRAWING: Figure 2

Description

本発明は、物体の実サイズを測定する技術に関する。 The present invention relates to a technique for measuring the actual size of an object.

一般のコンシューマーが宅配便のような荷物配達サービスを利用する場合、その配送料は、荷物のサイズ(例えば、幅、長さ、高さの和など)や重量に応じて設定される。一方で、B2Bの物流の場合は、荷物の数がきわめて多いため、一つ一つの荷物のサイズを計測することは現実的でなく、単純に荷物の個数に応じて配送料が決められることが多い。B2Bでも荷物のサイズに応じた適切な報酬(配送料)の設定が望まれているが、現時点ではこれを実現する手段がない。 When a general consumer uses a parcel delivery service such as a courier service, the parcel delivery fee is set according to the size (for example, sum of width, length, height, etc.) and weight of the parcel. On the other hand, in the case of B2B logistics, it is not realistic to measure the size of each package because the number of packages is extremely large, and the shipping fee may be determined simply according to the number of packages. There are many. Even in B2B, it is desired to set an appropriate reward (delivery charge) according to the size of the package, but at present, there is no means to realize this.

なお、特許文献1には、収容室内の荷置き台上に載せられた荷物を収容室内に設置されたカメラで撮影し、得られた画像から荷物の幅、長さ、高さを測定する測定装置が開示されている。しかしながら、この測定装置は、測定可能な荷物が収容室内に収容可能なサイズのものに限られるため、汎用性に欠けるという問題がある。また、測定対象となる荷物を一つずつ収容室内の所定の位置に位置決めした状態で測定を行わなければならないため、多数の荷物のサイズを測定する目的には適さない。 In addition, in Patent Document 1, the baggage placed on the loading platform in the accommodation room is photographed by a camera installed in the accommodation room, and the width, length, and height of the baggage are measured from the obtained image. The device is disclosed. However, this measuring device has a problem of lacking versatility because the measurable luggage is limited to a size that can be accommodated in the accommodation chamber. Further, since the measurement must be performed with the luggage to be measured one by one positioned at a predetermined position in the accommodation chamber, it is not suitable for the purpose of measuring the size of a large number of luggage.

特開2018−000386号公報JP-A-2018-000386

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、多数の物体のサイズ測定に好適な技術を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique suitable for measuring the size of a large number of objects.

上記目的を達成するために本発明は、以下の構成を採用する。 In order to achieve the above object, the present invention adopts the following configuration.

本発明の第一側面は、測定エリアに存在する物体を撮影するカメラと、前記カメラから前記物体までの距離を測定するセンサと、情報処理装置と、を有し、前記情報処理装置は、前記カメラで得られた画像から前記物体を抽出する抽出部と、前記センサで測定された測定距離に基づいて、前記画像から抽出された前記物体の実サイズを推定するサイズ推定部と、を有するサイズ測定装置を提供する。 The first aspect of the present invention includes a camera that captures an object existing in a measurement area, a sensor that measures the distance from the camera to the object, and an information processing device. A size having an extraction unit that extracts the object from an image obtained by a camera, and a size estimation unit that estimates the actual size of the object extracted from the image based on the measurement distance measured by the sensor. A measuring device is provided.

この構成によれば、測定エリア(例えば、カメラ及びセンサの視野内)に存在する物体であれば、厳密に位置決めすることなく、実サイズを測定することができる。したがって、例えば、コンベアなどの搬送手段で多数の物体を搬送し、順次測定エリアを通過させながら各物体の実サイズを測定する、というように、多数の物体の実サイズの測定を効率的かつ高速に行うことができる。 According to this configuration, any object existing in the measurement area (for example, within the field of view of the camera and the sensor) can measure the actual size without strict positioning. Therefore, for example, a large number of objects are conveyed by a conveyor or the like, and the actual size of each object is measured while sequentially passing through the measurement area. Therefore, the actual size of a large number of objects can be measured efficiently and at high speed. Can be done.

前記サイズ推定部は、前記測定距離に基づいて前記画像上の長さを実空間上の長さに換算することによって、前記画像と平行な面内における前記物体の実サイズを計算してもよい。換算の方法はどのようなものでよい。例えば、前記サイズ推定部は、前記カメラから前記物体までの距離の値と、前記画像上の長さと実空間上の長さの換算比と、が対応付けられたテーブルを用いて、前記画像上の長さを実空間上の長さに換算してもよい。あるい
は、前記サイズ推定部は、前記カメラから前記物体までの距離の値と、前記画像上の長さと実空間上の長さの換算比と、の相関関係を学習したモデルを用いて、前記画像上の長さを実空間上の長さに換算してもよい。あるいは、前記サイズ推定部は、前記カメラから前記物体までの距離の値と前記カメラのパラメータとを用いた幾何学計算によって、前記画像上の長さを実空間上の長さに換算してもよい。
The size estimation unit may calculate the actual size of the object in a plane parallel to the image by converting the length on the image into the length in the real space based on the measurement distance. .. Any conversion method may be used. For example, the size estimation unit uses a table in which the value of the distance from the camera to the object and the conversion ratio of the length on the image and the length in the real space are associated with each other on the image. The length of may be converted to the length in real space. Alternatively, the size estimation unit uses a model that learns the correlation between the value of the distance from the camera to the object and the conversion ratio of the length on the image and the length in the real space, and uses the image. The above length may be converted to the length in real space. Alternatively, the size estimation unit may convert the length on the image into the length in the real space by geometric calculation using the value of the distance from the camera to the object and the parameters of the camera. Good.

前記サイズ推定部は、前記測定距離と予め設定された基準距離の差から、前記画像の奥行方向における前記物体の実サイズを計算してもよい。センサの測定距離から物体の奥行方向のサイズを計算する方が、カメラの画像から物体の奥行方向のサイズを推定する方法よりも、高速にかつ高精度に物体の実サイズを求めることができる。 The size estimation unit may calculate the actual size of the object in the depth direction of the image from the difference between the measurement distance and the preset reference distance. It is possible to obtain the actual size of an object faster and more accurately by calculating the size of the object in the depth direction from the measurement distance of the sensor than by estimating the size of the object in the depth direction from the image of the camera.

前記サイズ推定部は、前記測定エリア内に前記物体が存在しないときに前記センサで測定された値に基づいて前記基準距離を設定してもよい。基準距離の設定が自動化されることにより、利便性を向上することができる。 The size estimation unit may set the reference distance based on the value measured by the sensor when the object is not present in the measurement area. Convenience can be improved by automating the setting of the reference distance.

前記サイズ測定装置は、前記測定エリアを通過するように搬送される物体のサイズを測定するものであり、前記情報処理装置は、前記センサの測定値を監視し、前記測定値の変化により前記測定エリア内への物体の進入を検知する検知部をさらに有してもよい。 The size measuring device measures the size of an object conveyed so as to pass through the measuring area, and the information processing device monitors the measured value of the sensor and measures the measured value according to a change in the measured value. It may further have a detection unit that detects the entry of an object into the area.

前記情報処理装置は、前記検知部により前記物体の進入が検知されたことをトリガとして、当該物体の実サイズの推定に用いる画像を取得してもよい。これにより、必要な画像を適切なタイミングで取得することができる。 The information processing device may acquire an image used for estimating the actual size of the object, triggered by the detection of the entry of the object by the detection unit. As a result, the required image can be acquired at an appropriate timing.

前記検知部は、前記センサの測定値が、前記測定エリア内に物体が存在しないときに得られる基準値から、前記基準値よりも小さい第1の値、前記第1の値よりも小さい第2の値へと段階的に変化した場合に、複数の物体が重なっていると判定してもよい。 In the detection unit, the measured value of the sensor is a first value smaller than the reference value and a second value smaller than the first value from the reference value obtained when no object exists in the measurement area. When the value gradually changes to the value of, it may be determined that a plurality of objects overlap.

前記検知部により複数の物体の重なりが検知された場合に、前記サイズ推定部は、前記第1の値に対応する高さの第1の物体の上に、前記第1の値と前記第2の値の差に対応する高さの第2の物体が重なっているとみなし、前記第1の物体と前記第2の物体それぞれの実サイズを推定してもよい。これにより、重なって搬送されている複数の物体についても実サイズの測定が可能となる。あるいは、前記検知部により複数の物体の重なりが検知された場合に、前記サイズ推定部は、前記複数の物体の実サイズの推定ができない旨を通知する制御を行ってもよい。複数の物体が重なっている場合には実サイズの推定精度が低下する可能性があるからである。通知に気づいたオペレータが物体の重なりを解消するなどの対処をとることで、各々の物体の実サイズをより高精度に測定できると期待できる。 When the detection unit detects the overlap of a plurality of objects, the size estimation unit puts the first value and the second on the first object having a height corresponding to the first value. The actual size of each of the first object and the second object may be estimated by assuming that the second objects having the height corresponding to the difference in the values of are overlapped. This makes it possible to measure the actual size of a plurality of objects that are transported in an overlapping manner. Alternatively, when the detection unit detects the overlap of a plurality of objects, the size estimation unit may perform control to notify that the actual size of the plurality of objects cannot be estimated. This is because the estimation accuracy of the actual size may decrease when a plurality of objects overlap. It can be expected that the operator who notices the notification can measure the actual size of each object with higher accuracy by taking measures such as eliminating the overlap of the objects.

前記センサは赤外線センサであってもよい。赤外線センサを用いることで、比較的安価な構成で高精度な距離測定を行うことができる。 The sensor may be an infrared sensor. By using an infrared sensor, it is possible to perform highly accurate distance measurement with a relatively inexpensive configuration.

本発明は、上記手段の少なくとも一部を有するサイズ測定装置として捉えてもよいし、サイズ測定装置を構成する情報処理装置として捉えてもよい。また、本発明は、上記処理の少なくとも一部を含むサイズ測定方法、または、かかる方法を実現するためのプログラムやそのプログラムを記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。 The present invention may be regarded as a size measuring device having at least a part of the above means, or may be regarded as an information processing device constituting the size measuring device. Further, the present invention can be regarded as a size measuring method including at least a part of the above processing, a program for realizing such a method, or a recording medium on which the program is recorded. The present invention can be constructed by combining each of the above means and treatments with each other as much as possible.

本発明によれば、多数の物体のサイズ測定に好適な技術を提供することが可能である。 According to the present invention, it is possible to provide a technique suitable for measuring the size of a large number of objects.

図1は、サイズ測定装置の適用例を示す図である。FIG. 1 is a diagram showing an application example of a size measuring device. 図2は、サイズ測定装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of a size measuring device. 図3は、サイズ測定装置によるサイズ測定処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing the flow of the size measurement process by the size measuring device. 図4は、センサの測定値の変化を模式的に示すグラフである。FIG. 4 is a graph schematically showing changes in the measured values of the sensor. 図5Aは、カメラから取り込まれた画像の例を示す図であり、図5Bは、物体の抽出結果の例を示す図である。FIG. 5A is a diagram showing an example of an image captured from a camera, and FIG. 5B is a diagram showing an example of an extraction result of an object. 図6は、サイズ推定の原理を示す図である。FIG. 6 is a diagram showing the principle of size estimation. 図7Aは、換算比のテーブルの例を示す図であり、図7Bは、モデルにより換算比を求める例を示す図である。FIG. 7A is a diagram showing an example of a conversion ratio table, and FIG. 7B is a diagram showing an example of obtaining a conversion ratio by a model. 図8Aは、離れて配置された2つの物体を示す図であり、図8Bは、センサの測定値の変化を示す図である。FIG. 8A is a diagram showing two objects arranged apart from each other, and FIG. 8B is a diagram showing a change in the measured value of the sensor. 図9Aは、重ねて配置された2つの物体を示す図であり、図9Bは、センサの測定値の変化を示す図である。FIG. 9A is a diagram showing two objects arranged on top of each other, and FIG. 9B is a diagram showing a change in the measured value of the sensor.

<適用例>
図1を参照して、本発明の適用例の一つについて説明する。図1は、本発明の実施形態に係るサイズ測定装置10を、物体のサイズ(寸法)の自動測定に適用した例を示している。
<Application example>
One of the application examples of the present invention will be described with reference to FIG. FIG. 1 shows an example in which the size measuring device 10 according to the embodiment of the present invention is applied to the automatic measurement of the size (dimensions) of an object.

図1の例では、搬送装置(例えばコンベア)11の上方にサイズ測定装置10が設置されており、搬送装置11によって次々と搬送される物体(例えば段ボール箱などの荷物)14が所定の測定エリア13を通過するときに、サイズ測定装置10によって当該物体14のサイズが非接触でリアルタイムに測定される。測定結果(サイズ情報)は、サイズ測定装置10から上位システム12へと送信される。上位システム12は、例えば、各荷物の情報を管理するデータベース、各荷物の配送料を決済するためのPOSシステム、パレットやトラックなどへの荷物の積載割り当てを設計するシステムなどである。 In the example of FIG. 1, a size measuring device 10 is installed above a transport device (for example, a conveyor) 11, and an object (for example, a baggage such as a cardboard box) 14 transported one after another by the transport device 11 is a predetermined measurement area. As it passes through 13, the size measuring device 10 measures the size of the object 14 in real time in a non-contact manner. The measurement result (size information) is transmitted from the size measuring device 10 to the host system 12. The host system 12 is, for example, a database that manages information on each parcel, a POS system for settling a delivery fee for each parcel, a system that designs a load allocation of parcels to pallets, trucks, and the like.

このようなサイズ測定装置10によれば、多数の物体の個々の実サイズを自動的に測定できるため、例えば、配送センターなどにおいて荷物のサイズに応じた配送料を自動で設定するといった目的などに好ましく利用することができる。 According to such a size measuring device 10, the actual size of each of a large number of objects can be automatically measured. Therefore, for example, for the purpose of automatically setting a shipping fee according to the size of a package at a distribution center or the like. It can be preferably used.

<第1実施形態>
図2を参照して、本発明の実施形態に係るサイズ測定装置10の具体的な構成例を説明する。以後、説明の便宜から、物体14が載置される面(図2の例ではコンベアの表面)を「基準面R」とよび、物体14の搬送方向をX方向、基準面Rに平行でかつX方向に垂直な方向をY方向、基準面Rに垂直な方向をZ方向とよぶ。
<First Embodiment>
A specific configuration example of the size measuring device 10 according to the embodiment of the present invention will be described with reference to FIG. Hereinafter, for convenience of explanation, the surface on which the object 14 is placed (the surface of the conveyor in the example of FIG. 2) is referred to as a "reference surface R", and the transport direction of the object 14 is the X direction, parallel to the reference surface R and The direction perpendicular to the X direction is called the Y direction, and the direction perpendicular to the reference plane R is called the Z direction.

サイズ測定装置10は、概略、カメラ20と、センサ21と、情報処理装置22とを有している。図2では、カメラ20とセンサ21と情報処理装置22を別体で構成し、それぞれをケーブルで接続した構成例を示したが、具体的なハードウェア構成はこれに限られない。例えば、カメラ20とセンサ21と情報処理装置22のうちの2つ又は全部を一体化してもよい。あるいは、ケーブル接続ではなく、無線で接続してもよい。例えば、複数列のコンベアにそれぞれカメラ20とセンサ21を設置し、それらから得られる情報を一台の情報処理装置22で処理してもよい。 The size measuring device 10 generally includes a camera 20, a sensor 21, and an information processing device 22. FIG. 2 shows a configuration example in which the camera 20, the sensor 21, and the information processing device 22 are separately configured and each is connected by a cable, but the specific hardware configuration is not limited to this. For example, two or all of the camera 20, the sensor 21, and the information processing device 22 may be integrated. Alternatively, it may be connected wirelessly instead of being connected by cable. For example, a camera 20 and a sensor 21 may be installed on a plurality of rows of conveyors, and information obtained from them may be processed by one information processing device 22.

(カメラ20)
カメラ20は、物体14を撮影するための撮像装置である。本実施形態では、カメラ20は、その光軸がZ方向と平行になるよう設置され、基準面Rの上方から物体14を撮影
し、物体14の上視画像を得る。
(Camera 20)
The camera 20 is an imaging device for photographing the object 14. In the present embodiment, the camera 20 is installed so that its optical axis is parallel to the Z direction, and the object 14 is photographed from above the reference plane R to obtain an upper view image of the object 14.

カメラ20としては、モノクロカメラとカラーカメラのいずれを用いてもよい。また、用途によっては、可視光以外の電磁波をとらえるカメラ(例えば赤外線カメラ、X線カメラなど)を用いてもよい。カメラ20は所定の時間間隔(例えば30fps)で画像を取り込んでもよいし、外部装置(例えば情報処理装置22又はセンサ21)からの制御信号に従って画像を取り込んでもよい。カメラ20で得られた画像は、情報処理装置22に入力される。 As the camera 20, either a monochrome camera or a color camera may be used. Further, depending on the application, a camera that captures electromagnetic waves other than visible light (for example, an infrared camera, an X-ray camera, etc.) may be used. The camera 20 may capture images at predetermined time intervals (for example, 30 fps), or may capture images according to a control signal from an external device (for example, the information processing device 22 or the sensor 21). The image obtained by the camera 20 is input to the information processing device 22.

(センサ21)
センサ21は、カメラ20から物体14までの距離を測定するための測定装置である。センサ21の測定結果(距離情報)は、情報処理装置22に入力される。
(Sensor 21)
The sensor 21 is a measuring device for measuring the distance from the camera 20 to the object 14. The measurement result (distance information) of the sensor 21 is input to the information processing device 22.

センサ21としては、いかなる方式の距離センサを用いてもよく、例えば、赤外線センサ、超音波センサ、レーザ変位センサ、ToFセンサなどを用いてもよい。本実施形態では、十分な精度が得られる、低コストである、小型である、などの理由から、赤外線センサを用いる。 As the sensor 21, any type of distance sensor may be used, and for example, an infrared sensor, an ultrasonic sensor, a laser displacement sensor, a ToF sensor, or the like may be used. In this embodiment, an infrared sensor is used because sufficient accuracy can be obtained, the cost is low, and the size is small.

センサ21は、その光軸がカメラ20の光軸と平行になるように調整された状態で、カメラ20に対し固定されるとよい。これにより、カメラ20とセンサ21の相対的な位置関係が固定されるため、カメラ20及びセンサ21の設置やキャリブレーションの作業が容易になる。 The sensor 21 may be fixed to the camera 20 in a state where its optical axis is adjusted to be parallel to the optical axis of the camera 20. As a result, the relative positional relationship between the camera 20 and the sensor 21 is fixed, so that the work of installing and calibrating the camera 20 and the sensor 21 becomes easy.

(情報処理装置22)
情報処理装置22は、カメラ20で得られた物体14の画像と、センサ21で測定された物体14までの距離情報とに基づいて、物体14の実サイズを推定(計算)するための装置である。図2に示すように、本実施形態の情報処理装置22は、主な構成として、画像取得部220、距離情報取得部221、検知部222、抽出部223、サイズ推定部224、出力部225を有している。画像取得部220は、カメラ20から画像を取得する機能を有する。距離情報取得部221は、センサ21から距離情報を取得する機能を有する。検知部222は、測定対象となる物体14が測定エリア内に進入したことを検知する機能を有する。抽出部223は、カメラ20の画像から物体14を抽出する機能を有する。サイズ推定部224は、センサ21で測定された距離に基づいて物体14の実サイズを推定する機能を有する。出力部225は、サイズ推定部224で推定された物体14の実サイズの情報を出力する機能を有する。
(Information processing device 22)
The information processing device 22 is a device for estimating (calculating) the actual size of the object 14 based on the image of the object 14 obtained by the camera 20 and the distance information to the object 14 measured by the sensor 21. is there. As shown in FIG. 2, the information processing apparatus 22 of the present embodiment mainly includes an image acquisition unit 220, a distance information acquisition unit 221, a detection unit 222, an extraction unit 223, a size estimation unit 224, and an output unit 225. Have. The image acquisition unit 220 has a function of acquiring an image from the camera 20. The distance information acquisition unit 221 has a function of acquiring distance information from the sensor 21. The detection unit 222 has a function of detecting that the object 14 to be measured has entered the measurement area. The extraction unit 223 has a function of extracting the object 14 from the image of the camera 20. The size estimation unit 224 has a function of estimating the actual size of the object 14 based on the distance measured by the sensor 21. The output unit 225 has a function of outputting information on the actual size of the object 14 estimated by the size estimation unit 224.

情報処理装置22は、例えば、CPU(プロセッサ)、メモリ、不揮発性の記憶装置を少なくとも具備する汎用的なコンピュータにより構成してもよい。その場合、上述した符号220〜225の構成は、記憶装置に格納されたプログラムをメモリに読み込み、CPUが実行することにより、ソフトウェア的に実現される。情報処理装置22の構成はこれに限られず、例えば、分散コンピューティングやクラウドコンピューティングの技術を利用し、複数の装置によって符号220〜225の構成が実現されてもよい。あるいは、符号220〜225の構成の一部又は全部をFPGAやASICのような回路によって実現してもよい。 The information processing device 22 may be composed of, for example, a general-purpose computer including at least a CPU (processor), a memory, and a non-volatile storage device. In that case, the above-described configuration of reference numerals 220 to 225 is realized by software by reading the program stored in the storage device into the memory and executing the program by the CPU. The configuration of the information processing device 22 is not limited to this, and for example, the configurations of reference numerals 220 to 225 may be realized by a plurality of devices by utilizing the techniques of distributed computing and cloud computing. Alternatively, part or all of the configurations of reference numerals 220 to 225 may be realized by a circuit such as FPGA or ASIC.

(サイズ測定)
図3のフローチャートを参照して、サイズ測定装置10によるサイズ測定処理の流れを説明する。
(Size measurement)
The flow of the size measurement process by the size measuring device 10 will be described with reference to the flowchart of FIG.

ステップS30において、距離情報取得部221は、センサ21から測定値を取り込む
。図4は、センサ21の測定値の変化を模式的に示すグラフであり、横軸が時間[sec]、縦軸が測定値[cm]である。センサ21の光軸上に物体14が存在しない場合は、センサ21(あるいはカメラ20)から基準面Rまでの距離が測定値として得られ、センサ21の光軸を物体14が横切っているあいだは、センサ21(あるいはカメラ20)から物体14の上面までの距離が測定値として得られる。段ボール箱のように直方体形状の物体14では上面の高さが一定のため、センサ21の測定値は図4のようにステップ状に変化する。
In step S30, the distance information acquisition unit 221 captures the measured value from the sensor 21. FIG. 4 is a graph schematically showing a change in the measured value of the sensor 21, in which the horizontal axis is the time [sec] and the vertical axis is the measured value [cm]. When the object 14 does not exist on the optical axis of the sensor 21, the distance from the sensor 21 (or the camera 20) to the reference plane R is obtained as a measured value, and while the object 14 crosses the optical axis of the sensor 21. , The distance from the sensor 21 (or the camera 20) to the upper surface of the object 14 is obtained as a measured value. Since the height of the upper surface of the rectangular parallelepiped object 14 such as a cardboard box is constant, the measured value of the sensor 21 changes in steps as shown in FIG.

ステップS31において、検知部222は、センサ21の測定値の変化を監視する。図4に示すように測定値が有意に変化(減少)した場合に、検知部222は、測定エリア内に測定対象の物体14が進入したと判定する。測定値が有意に変化したか否かの判定はどのように行ってもよい。例えば、測定値の微分が閾値を下回ったか否かで判定してもよいし、直近n回(nは1以上の整数)の測定値の平均と予め記憶した基準面Rに対応する測定値(基準距離)との差が閾値を超えたか否かで判定してもよい。 In step S31, the detection unit 222 monitors the change in the measured value of the sensor 21. When the measured value changes (decreases) significantly as shown in FIG. 4, the detection unit 222 determines that the object 14 to be measured has entered the measurement area. Any method may be used to determine whether or not the measured value has changed significantly. For example, it may be determined whether or not the differential of the measured value is below the threshold value, or the average of the measured values of the last n times (n is an integer of 1 or more) and the measured value corresponding to the reference plane R stored in advance (n). It may be determined whether or not the difference from the reference distance) exceeds the threshold value.

ステップS30及びS31は、測定エリアへの物体14の進入を監視するための処理であり、物体14が検知されるまで繰り返し実行される。その繰り返し周期は、物体14の搬送速度や物体14のサイズなどに応じて適宜設定すればよい。 Steps S30 and S31 are processes for monitoring the entry of the object 14 into the measurement area, and are repeatedly executed until the object 14 is detected. The repetition period may be appropriately set according to the transport speed of the object 14, the size of the object 14, and the like.

検知部222により物体14が検知されると、ステップS32において、画像取得部220がカメラ20から画像を取り込む。図5Aは、カメラ20から取り込まれた画像の例である。物体14を上方から視た画像が得られていることがわかる。なお、物体14はコンベア上に整列して配置されている必要はなく、図5Aに示すように、任意の位置・向きで配置されていて構わない。 When the object 14 is detected by the detection unit 222, the image acquisition unit 220 captures an image from the camera 20 in step S32. FIG. 5A is an example of an image captured from the camera 20. It can be seen that an image of the object 14 viewed from above is obtained. It should be noted that the objects 14 do not have to be arranged in an aligned manner on the conveyor, and may be arranged at an arbitrary position and orientation as shown in FIG. 5A.

ステップS33において、抽出部223は、画像から物体14を抽出する。物体抽出にはどのようなアルゴリズムを用いてもよい。例えば、テンプレートマッチングやニューラルネットワークによる物体検出、背景差分法による動体検出、輪郭検出などを好ましく利用できる。例えば、測定対象となる物体14が直方体(箱)形状であるという前提条件が成立する場合には、画像に写る物体14の形状は方形に限定される。本実施形態では、そのような前提の下、抽出部223は、コーナー検出法により方形の4つの頂点を検出することによって物体14の外形を抽出する。この方法は、処理が軽いとともに、物体14の回転・サイズ・形状に対しロバストであるという利点がある。したがって、コンベア上にランダムに配置された多数の物体14をリアルタイムに測定する、といった用途に好適である。図5Bは、物体14の抽出結果の例を示している。点P1〜点P4が物体14の上面の4つの頂点である。 In step S33, the extraction unit 223 extracts the object 14 from the image. Any algorithm may be used for object extraction. For example, template matching, object detection by neural network, moving object detection by background subtraction method, contour detection, and the like can be preferably used. For example, when the precondition that the object 14 to be measured has a rectangular parallelepiped (box) shape is satisfied, the shape of the object 14 shown in the image is limited to a square shape. In the present embodiment, under such a premise, the extraction unit 223 extracts the outer shape of the object 14 by detecting the four vertices of the rectangle by the corner detection method. This method has the advantages that the processing is light and that the object 14 is robust with respect to the rotation, size, and shape. Therefore, it is suitable for applications such as measuring a large number of randomly arranged objects 14 on a conveyor in real time. FIG. 5B shows an example of the extraction result of the object 14. Points P1 to P4 are four vertices on the upper surface of the object 14.

ステップS34において、サイズ推定部224は、XY平面内(画像と平行な面内)における物体14の実サイズを推定する。 In step S34, the size estimation unit 224 estimates the actual size of the object 14 in the XY plane (in the plane parallel to the image).

図6にサイズ推定の原理を示す。ここでは、直方体形状の物体14を想定し、実サイズを幅W[cm]、長さL[cm]、高さH[cm]で表す。高さHは、Z方向に平行な辺の寸法であり、幅Wと長さLは、物体14の上面(方形)の2辺の寸法である。また、画像上のサイズを幅w[pixel]、長さl[pixel]で表す。図6に示す2つの物体は、幅Wと長さLは同じであるが、高さHのみ異なる(H1<H2)。図6に示すように、物体の高さHが異なるとカメラ20から物体上面までの距離Dが変わるため(D1>D2)、同じ長さL[cm]の物体であっても、画像上での長さl[pixel]は異なる(l1<l2)。すなわち、画像上でのサイズは実サイズを正確に表すものではない。そこで、サイズ推定部224は、センサ21で得られた物体上面までの測定距離Dに基づいて、画像上の長さ[pixel]と実空間上の長さ[cm]の換算比を求める。この換
算比がわかれば、画像上の物体14の幅w[pixel]と長さl[pixel]から、物体14の実サイズである、幅W[cm]と長さL[cm]を計算することができる。なお、幅Wと長さLに限らず、XY平面内におけるサイズに関しては(例えば、物体上面の対角線の長さなど)同様の方法により計算可能である。
FIG. 6 shows the principle of size estimation. Here, assuming a rectangular parallelepiped object 14, the actual size is represented by a width W [cm], a length L [cm], and a height H [cm]. The height H is the dimension of the side parallel to the Z direction, and the width W and the length L are the dimensions of the two sides of the upper surface (rectangle) of the object 14. Further, the size on the image is represented by a width w [pixel] and a length l [pixel]. The two objects shown in FIG. 6 have the same width W and length L, but differ only in height H (H1 <H2). As shown in FIG. 6, if the height H of the object is different, the distance D from the camera 20 to the upper surface of the object changes (D1> D2), so even if the object has the same length L [cm], it can be seen on the image. The length l [pixel] of is different (l1 <l2). That is, the size on the image does not accurately represent the actual size. Therefore, the size estimation unit 224 obtains a conversion ratio of the length [pixel] on the image and the length [cm] in the real space based on the measurement distance D to the upper surface of the object obtained by the sensor 21. If this conversion ratio is known, the width W [cm] and the length L [cm], which are the actual sizes of the object 14, are calculated from the width w [pixel] and the length l [pixel] of the object 14 on the image. be able to. Not limited to the width W and the length L, the size in the XY plane can be calculated by the same method (for example, the length of the diagonal line on the upper surface of the object).

画像上の長さと実空間上の長さの換算比の求め方はどのような方法でもよい。例えば、図7Aに示すような、カメラから物体までの距離Dと、画像上の長さと実空間上の長さの換算比と、が対応付けられたテーブル70を参照して、物体14の測定値に応じた換算比を取得してもよい。このテーブル70は、高さの異なる複数のサンプルを測定した実験結果から作成してもよいし、シミュレーション結果から作成してもよい。また、図7Bに示すように、カメラから物体までの距離の値と、画像上の長さと実空間上の長さの換算比と、の相関関係を学習したモデル71を用いてもよい。物体14の測定値をこのモデル71に入力すると、その測定値に応じた換算比が得られる。このモデル71は、高さの異なる複数のサンプルを測定した実験結果を用いた機械学習によって生成してもよいし、シミュレーションにより作成してもよい。あるいは、テーブルやモデルを用いずに、カメラから物体までの距離の値とカメラのパラメータとを用いた幾何学計算によって、画像上の長さを実空間上の長さに換算してもよい。 Any method can be used to obtain the conversion ratio between the length on the image and the length on the real space. For example, the measurement of the object 14 is performed with reference to the table 70 in which the distance D from the camera to the object and the conversion ratio of the length on the image and the length in the real space are associated with each other as shown in FIG. 7A. The conversion ratio according to the value may be acquired. The table 70 may be created from the experimental results obtained by measuring a plurality of samples having different heights, or may be created from the simulation results. Further, as shown in FIG. 7B, a model 71 in which the correlation between the value of the distance from the camera to the object and the conversion ratio of the length on the image and the length in the real space may be learned may be used. When the measured value of the object 14 is input to this model 71, a conversion ratio corresponding to the measured value is obtained. This model 71 may be generated by machine learning using experimental results obtained by measuring a plurality of samples having different heights, or may be created by simulation. Alternatively, the length on the image may be converted to the length in real space by geometric calculation using the value of the distance from the camera to the object and the parameters of the camera without using a table or a model.

ステップS35において、サイズ推定部224は、Z方向(画像の奥行方向)における物体14の実サイズを推定する。具体的には、サイズ推定部224は、物体14の測定値(カメラから物体上面までの距離)と基準距離の差から、物体14の高さH[cm]を計算する。「基準距離」は、カメラ20から基準面Rまでの距離である。基準距離の値については、例えば、測定エリア内に物体が存在しないときのセンサ21の測定値に基づいて設定してもよいし、ユーザが手入力してもよい。カメラ20及びセンサ21の位置が変わった場合や装置メンテナンスの場合などに、測定エリア内に物体が存在しないときのセンサ21の測定値に基づいて、カメラ20の設置高さ(カメラ20と基準面Rのあいだの距離)を自動キャリブレーションしてもよい。基準距離の設定が自動化されることにより、利便性を向上することができる。 In step S35, the size estimation unit 224 estimates the actual size of the object 14 in the Z direction (depth direction of the image). Specifically, the size estimation unit 224 calculates the height H [cm] of the object 14 from the difference between the measured value of the object 14 (the distance from the camera to the upper surface of the object) and the reference distance. The "reference distance" is the distance from the camera 20 to the reference plane R. The value of the reference distance may be set based on the measured value of the sensor 21 when no object exists in the measurement area, or may be manually input by the user. The installation height of the camera 20 (camera 20 and reference plane) based on the measured value of the sensor 21 when there is no object in the measurement area when the positions of the camera 20 and the sensor 21 are changed or when the device is maintained. The distance between R) may be automatically calibrated. Convenience can be improved by automating the setting of the reference distance.

ステップS36において、出力部225は、測定結果を出力する。測定結果は、物体14の幅W、長さL、高さHのうち少なくともいずれかの情報を含んでいるとよい。また、測定結果が、カメラ20の画像、センサ21の測定値、基準距離の値、画像上の幅wと長さlなどの情報を含んでいてもよい。測定結果の出力先は、前述した上位システム、表示装置、オペレータが携帯する端末など、測定結果の用途や目的に応じて適宜選択できる。 In step S36, the output unit 225 outputs the measurement result. The measurement result may include information on at least one of the width W, the length L, and the height H of the object 14. Further, the measurement result may include information such as an image of the camera 20, a measured value of the sensor 21, a value of a reference distance, and a width w and a length l on the image. The output destination of the measurement result can be appropriately selected according to the purpose and purpose of the measurement result, such as the above-mentioned host system, display device, and terminal carried by the operator.

以上述べた本実施形態の構成によれば、測定エリア(例えば、カメラ及びセンサの視野内)に存在する物体であれば、厳密に位置決めすることなく、実サイズを測定することができる。したがって、例えば、コンベアなどの搬送装置で多数の物体を搬送し、順次測定エリアを通過させながら各物体の実サイズを測定する、というように、多数の物体の実サイズの測定を効率的かつ高速に行うことができる。また、物体の高さHについては、センサで得られた距離情報から計算するので、他の方法(例えばカメラの画像からデプス計算を行う方法など)に比べて、高速にかつ高精度に物体の高さを求めることができる。また、検知部222により物体14が検知されたことをトリガとして、必要な場合にのみ画像の取得及びサイズ推定処理が行われるので、CPUやメモリなどのリソースの効率的な利用が可能となる。 According to the configuration of the present embodiment described above, if the object exists in the measurement area (for example, within the field of view of the camera and the sensor), the actual size can be measured without strict positioning. Therefore, for example, a large number of objects are conveyed by a transfer device such as a conveyor, and the actual size of each object is measured while sequentially passing through the measurement area. Therefore, the actual size of a large number of objects can be measured efficiently and at high speed. Can be done. Further, since the height H of the object is calculated from the distance information obtained by the sensor, the height of the object is calculated faster and more accurately than other methods (for example, a method of calculating the depth from the image of the camera). The height can be calculated. Further, since the image acquisition and the size estimation process are performed only when necessary by using the detection of the object 14 by the detection unit 222 as a trigger, resources such as a CPU and a memory can be efficiently used.

<第2実施形態>
第2実施形態では、検知部222が、センサ21の測定値の変化に基づいて「物体の重なり」を判定する。以下では、第1実施形態と異なる部分を中心に説明し、第1実施形態と同じ構成については説明を省略する。
<Second Embodiment>
In the second embodiment, the detection unit 222 determines "overlap of objects" based on the change in the measured value of the sensor 21. Hereinafter, the parts different from those of the first embodiment will be mainly described, and the description of the same configuration as that of the first embodiment will be omitted.

図8Aに示すように、2つの物体14a、14bが離れて配置されている場合、センサ21の測定値は図8Bに示すように変化する。他方、図9Aに示すように、2つの物体14a、14bが上下に重なっている場合、センサ21の測定値は図9Bに示すように変化する。図8Bと図9Bからわかるように、物体14aと14bが離れている場合は、測定値が、基準値Vr(物体が存在しないときの測定値)から物体14aの高さHaに対応する値Vaに下がり、再び基準値Vrに戻った後に、物体14bの高さHbに対応する値Vbに下がる、という変化を示すのに対し、物体14aと14bが重なっている場合は、測定値が、基準値Vrから、第1の値Va、第2の値(Va+Vb−Vr)へと段階的に減少する。ここで、第1の値Vaは、カメラ20から下側の物体14aの上面までの距離を表し、第2の値(Va+Vb−Vr)は、カメラ20から上側の物体14bの上面までの距離を表す。測定対象となる物体が直方体形状であるという前提条件の下では、図9Bのような測定値の変化が観測された場合には、2つの物体が重なっているとみなすことができる。 As shown in FIG. 8A, when the two objects 14a and 14b are arranged apart, the measured value of the sensor 21 changes as shown in FIG. 8B. On the other hand, as shown in FIG. 9A, when the two objects 14a and 14b are vertically overlapped, the measured value of the sensor 21 changes as shown in FIG. 9B. As can be seen from FIGS. 8B and 9B, when the objects 14a and 14b are separated from each other, the measured value is the value Va corresponding to the height Ha of the object 14a from the reference value Vr (measured value when the object does not exist). After returning to the reference value Vr again, the value decreases to the value Vb corresponding to the height Hb of the object 14b, whereas when the objects 14a and 14b overlap, the measured value is the reference value. The value Vr is gradually decreased from the first value Va to the second value (Va + Vb-Vr). Here, the first value Va represents the distance from the camera 20 to the upper surface of the lower object 14a, and the second value (Va + Vb-Vr) represents the distance from the camera 20 to the upper surface of the upper object 14b. Represent. Under the precondition that the object to be measured has a rectangular parallelepiped shape, when a change in the measured value as shown in FIG. 9B is observed, it can be considered that the two objects overlap.

サイズ推定部224は、検知部222により複数の物体の重なりが検知された場合に、第1の実施形態とは異なる処理(例外処理)を実行するとよい。例外処理としては、例えば、以下のような処理を行うことが可能である。 When the detection unit 222 detects the overlap of a plurality of objects, the size estimation unit 224 may execute a process (exception process) different from that of the first embodiment. As exception handling, for example, the following processing can be performed.

(1) 第1の値Vaに対応する高さHaの第1の物体14aの上に、第1の値Vaと第2の値(Va+Vb−Vr)の差に対応する高さHbの第2の物体14bが重なっているとみなし、第1の物体14aと第2の物体14bそれぞれの実サイズを推定する処理。 (1) On the first object 14a of the height Ha corresponding to the first value Va, the second of the height Hb corresponding to the difference between the first value Va and the second value (Va + Vb-Vr). A process of estimating the actual size of each of the first object 14a and the second object 14b, assuming that the objects 14b of the first object 14b overlap.

(2) 複数の物体の実サイズの推定ができない旨を通知する制御を行う処理。 (2) A process of controlling to notify that the actual size of a plurality of objects cannot be estimated.

例外処理(1)は、重なって搬送されている物体についても、各々の実サイズを自動的に測定できる、という利点がある。ただし、物体同士の色が極めて類似しているために画像から物体間の境界を判別することが難しいケースなど、シーンによっては、重なった物体の実サイズの推定精度が著しく低下する可能性がある。そのような場合は、例外処理(2)を実行する方が好ましい。そして、通知に気づいたオペレータが物体の重なりを解消するなどの対処をとることで、各々の物体の実サイズをより高精度に測定できると期待できる。 The exception handling (1) has an advantage that the actual size of each of the objects being transported in an overlapping manner can be automatically measured. However, depending on the scene, such as when it is difficult to distinguish the boundary between objects from the image because the colors of the objects are very similar, the accuracy of estimating the actual size of the overlapping objects may be significantly reduced. .. In such a case, it is preferable to execute the exception handling (2). Then, it can be expected that the operator who notices the notification can measure the actual size of each object with higher accuracy by taking measures such as eliminating the overlap of the objects.

<変形例>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、上記実施形態では、直方体形状の物体を例示したが、測定対象の形状は直方体に限られない。画像に現れる物体の形状が方形でない場合は、物体の外接矩形やバウンディングボックスを仮定し、その実サイズを計算してもよい。また、物体の上面の高さは一定でない場合は、センサ21によって上面内の複数個所の距離測定を行い、それらの統計値から物体の高さを計算してもよい。
<Modification example>
The above-described embodiment is merely an example of a configuration example of the present invention. The present invention is not limited to the above-mentioned specific form, and various modifications can be made within the scope of its technical idea. For example, in the above embodiment, a rectangular parallelepiped object is illustrated, but the shape to be measured is not limited to the rectangular parallelepiped. If the shape of the object appearing in the image is not square, the actual size may be calculated assuming the circumscribed rectangle or bounding box of the object. If the height of the upper surface of the object is not constant, the sensor 21 may measure the distances at a plurality of locations on the upper surface, and the height of the object may be calculated from the statistical values thereof.

<付記1>
(1) 測定エリア(13)に存在する物体(14)を撮影するカメラ(20)と、
前記カメラ(20)から前記物体(14)までの距離を測定するセンサ(21)と、
情報処理装置(22)と、を有し、
前記情報処理装置(22)は、
前記カメラ(20)で得られた画像から前記物体(14)を抽出する抽出部(223)と、
前記センサ(21)で測定された測定距離に基づいて、前記画像から抽出された前記
物体(14)の実サイズを推定するサイズ推定部(224)と、を有する
ことを特徴とするサイズ測定装置(10)。
<Appendix 1>
(1) A camera (20) for photographing an object (14) existing in the measurement area (13), and
A sensor (21) that measures the distance from the camera (20) to the object (14),
It has an information processing device (22) and
The information processing device (22)
An extraction unit (223) that extracts the object (14) from the image obtained by the camera (20), and
A size measuring device including a size estimating unit (224) that estimates the actual size of the object (14) extracted from the image based on the measurement distance measured by the sensor (21). (10).

10:サイズ測定装置
11:搬送装置(コンベア)
12:上位システム
13:測定エリア
14、14a、14b:物体
20:カメラ
21:センサ
22:情報処理装置
220:画像取得部
221:距離情報取得部
222:検知部
223:抽出部
224:サイズ推定部
225:出力部
R:基準面
10: Size measuring device 11: Conveyor device (conveyor)
12: Upper system 13: Measurement areas 14, 14a, 14b: Object 20: Camera 21: Sensor 22: Information processing device 220: Image acquisition unit 221: Distance information acquisition unit 222: Detection unit 223: Extraction unit 224: Size estimation unit 225: Output unit R: Reference plane

Claims (15)

測定エリアに存在する物体を撮影するカメラと、
前記カメラから前記物体までの距離を測定するセンサと、
情報処理装置と、を有し、
前記情報処理装置は、
前記カメラで得られた画像から前記物体を抽出する抽出部と、
前記センサで測定された測定距離に基づいて、前記画像から抽出された前記物体の実サイズを推定するサイズ推定部と、を有する
ことを特徴とするサイズ測定装置。
A camera that captures objects in the measurement area,
A sensor that measures the distance from the camera to the object,
Has an information processing device,
The information processing device
An extraction unit that extracts the object from the image obtained by the camera,
A size measuring device comprising a size estimating unit that estimates the actual size of the object extracted from the image based on the measurement distance measured by the sensor.
前記サイズ推定部は、前記測定距離に基づいて前記画像上の長さを実空間上の長さに換算することによって、前記画像と平行な面内における前記物体の実サイズを計算する
ことを特徴とする請求項1に記載のサイズ測定装置。
The size estimation unit is characterized by calculating the actual size of the object in a plane parallel to the image by converting the length on the image into the length in the real space based on the measurement distance. The size measuring device according to claim 1.
前記サイズ推定部は、前記カメラから前記物体までの距離の値と、前記画像上の長さと実空間上の長さの換算比と、が対応付けられたテーブルを用いて、前記画像上の長さを実空間上の長さに換算する
ことを特徴とする請求項2に記載のサイズ測定装置。
The size estimation unit uses a table in which the value of the distance from the camera to the object and the conversion ratio of the length on the image and the length in the real space are associated with each other, and the length on the image is used. The size measuring device according to claim 2, wherein the image is converted into a length in real space.
前記サイズ推定部は、前記カメラから前記物体までの距離の値と、前記画像上の長さと実空間上の長さの換算比と、の相関関係を学習したモデルを用いて、前記画像上の長さを実空間上の長さに換算する
ことを特徴とする請求項2に記載のサイズ測定装置。
The size estimation unit uses a model that learns the correlation between the value of the distance from the camera to the object and the conversion ratio of the length on the image and the length in the real space on the image. The size measuring device according to claim 2, wherein the length is converted into a length in real space.
前記サイズ推定部は、前記カメラから前記物体までの距離の値と前記カメラのパラメータとを用いた幾何学計算によって、前記画像上の長さを実空間上の長さに換算する
ことを特徴とする請求項2に記載のサイズ測定装置。
The size estimation unit is characterized in that the length on the image is converted into the length in the real space by geometric calculation using the value of the distance from the camera to the object and the parameters of the camera. The size measuring device according to claim 2.
前記サイズ推定部は、前記測定距離と予め設定された基準距離の差から、前記画像の奥行方向における前記物体の実サイズを計算する
ことを特徴とする請求項1〜5のうちいずれか1項に記載のサイズ測定装置。
One of claims 1 to 5, wherein the size estimation unit calculates the actual size of the object in the depth direction of the image from the difference between the measurement distance and the preset reference distance. The size measuring device described in.
前記サイズ推定部は、前記測定エリア内に前記物体が存在しないときに前記センサで測定された値に基づいて前記基準距離を設定する
ことを特徴とする請求項6に記載のサイズ測定装置。
The size measuring device according to claim 6, wherein the size estimating unit sets the reference distance based on a value measured by the sensor when the object does not exist in the measuring area.
前記サイズ測定装置は、前記測定エリアを通過するように搬送される物体のサイズを測定するものであり、
前記情報処理装置は、前記センサの測定値を監視し、前記測定値の変化により前記測定エリア内への物体の進入を検知する検知部をさらに有する
ことを特徴とする請求項1〜7のうちいずれか1項に記載のサイズ測定装置。
The size measuring device measures the size of an object conveyed so as to pass through the measuring area.
Of claims 1 to 7, the information processing device further includes a detection unit that monitors the measured value of the sensor and detects the entry of an object into the measurement area by changing the measured value. The size measuring device according to any one item.
前記情報処理装置は、前記検知部により前記物体の進入が検知されたことをトリガとして、当該物体の実サイズの推定に用いる画像を取得する
ことを特徴とする請求項8に記載のサイズ測定装置。
The size measuring device according to claim 8, wherein the information processing device acquires an image used for estimating the actual size of the object, triggered by the detection of the entry of the object by the detection unit. ..
前記検知部は、前記センサの測定値が、前記測定エリア内に物体が存在しないときに得られる基準値から、前記基準値よりも小さい第1の値、前記第1の値よりも小さい第2の値へと段階的に変化した場合に、複数の物体が重なっていると判定する
ことを特徴とする請求項8又は9に記載のサイズ測定装置。
In the detection unit, the measured value of the sensor is a first value smaller than the reference value and a second value smaller than the first value from the reference value obtained when no object exists in the measurement area. The size measuring device according to claim 8 or 9, wherein it is determined that a plurality of objects are overlapped when the value gradually changes to the value of.
前記検知部により複数の物体の重なりが検知された場合に、
前記サイズ推定部は、前記第1の値に対応する高さの第1の物体の上に、前記第1の値と前記第2の値の差に対応する高さの第2の物体が重なっているとみなし、前記第1の物体と前記第2の物体それぞれの実サイズを推定する
ことを特徴とする請求項10に記載のサイズ測定装置。
When the detection unit detects the overlap of a plurality of objects,
In the size estimation unit, a second object having a height corresponding to the difference between the first value and the second value is superimposed on the first object having a height corresponding to the first value. The size measuring device according to claim 10, wherein the actual size of each of the first object and the second object is estimated.
前記検知部により複数の物体の重なりが検知された場合に、
前記サイズ推定部は、前記複数の物体の実サイズの推定ができない旨を通知する制御を行う
ことを特徴とする請求項10に記載のサイズ測定装置。
When the detection unit detects the overlap of a plurality of objects,
The size measuring device according to claim 10, wherein the size estimating unit controls to notify that the actual size of the plurality of objects cannot be estimated.
前記センサは赤外線センサである
ことを特徴とする請求項1〜12のうちいずれか1項に記載のサイズ測定装置。
The size measuring device according to any one of claims 1 to 12, wherein the sensor is an infrared sensor.
測定エリアに存在する物体を撮影するカメラから画像を取得するステップと、
前記画像から前記物体を抽出するステップと、
センサにより前記カメラから前記物体までの距離を測定するステップと、
前記センサで測定された測定距離に基づいて、前記画像から抽出された前記物体の実サイズを推定するステップと、を有する
ことを特徴とするサイズ測定方法。
The steps to acquire an image from a camera that captures an object in the measurement area,
The step of extracting the object from the image and
A step of measuring the distance from the camera to the object by a sensor, and
A size measuring method comprising a step of estimating the actual size of the object extracted from the image based on the measurement distance measured by the sensor.
請求項14に記載のサイズ測定方法の各ステップをプロセッサに実行させるためのプログラム。 A program for causing a processor to execute each step of the size measuring method according to claim 14.
JP2019142920A 2019-08-02 2019-08-02 Size measuring device, size measuring method, and program Pending JP2021025853A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019142920A JP2021025853A (en) 2019-08-02 2019-08-02 Size measuring device, size measuring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019142920A JP2021025853A (en) 2019-08-02 2019-08-02 Size measuring device, size measuring method, and program

Publications (1)

Publication Number Publication Date
JP2021025853A true JP2021025853A (en) 2021-02-22

Family

ID=74665088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019142920A Pending JP2021025853A (en) 2019-08-02 2019-08-02 Size measuring device, size measuring method, and program

Country Status (1)

Country Link
JP (1) JP2021025853A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081431A (en) * 2020-11-18 2021-05-27 Necプラットフォームズ株式会社 Baggage accepting system and baggage accepting method
JP2023043090A (en) * 2021-09-15 2023-03-28 株式会社Sayコンピュータ Mobile terminal and size measurement method using mobile terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081431A (en) * 2020-11-18 2021-05-27 Necプラットフォームズ株式会社 Baggage accepting system and baggage accepting method
JP2023043090A (en) * 2021-09-15 2023-03-28 株式会社Sayコンピュータ Mobile terminal and size measurement method using mobile terminal

Similar Documents

Publication Publication Date Title
EP3335002B1 (en) Volumetric estimation methods, devices and systems
CN109844807B (en) Method, system and apparatus for segmenting and sizing objects
US10512941B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
US10789569B1 (en) System to determine item footprint
WO2022105231A1 (en) Warehousing management method and apparatus, warehouse management system and electronic system
US10860855B2 (en) Instruction projecting device, package sorting system and instruction projecting method
US10675659B2 (en) Instruction projecting device, package sorting system and instruction projecting method
CN113167569B (en) Volume measurement device, system, method, and program
JP5780083B2 (en) Inspection device, inspection system, inspection method and program
US11017548B2 (en) Methods, systems, and apparatuses for computing dimensions of an object using range images
US10471474B2 (en) Projection indicator, cargo assortment system, and projection indicating method
CN110942120A (en) System and method for automatic product registration
JP2021025853A (en) Size measuring device, size measuring method, and program
US10679367B2 (en) Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
JP2012137304A (en) Automatic measurement device for goods distribution system
JP7111172B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, REMOTE CONTROLLER, REMOTE CONTROL SYSTEM, POSITION DETECTION METHOD, AND PROGRAM
US11117744B1 (en) Determination of untidy item return to an inventory location
US20180124381A1 (en) Structured-light-based three-dimensional scanning method, apparatus and system thereof
EP3434625B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP2020114778A (en) Projection instruction device, goods assort system and projection instruction method
Nilsson 3D-vision guided robotics for material handling
EP3434624B1 (en) Projection instruction device, parcel sorting system, and projection instruction method