WO2021095281A1 - 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体 - Google Patents

荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2021095281A1
WO2021095281A1 PCT/JP2020/010237 JP2020010237W WO2021095281A1 WO 2021095281 A1 WO2021095281 A1 WO 2021095281A1 JP 2020010237 W JP2020010237 W JP 2020010237W WO 2021095281 A1 WO2021095281 A1 WO 2021095281A1
Authority
WO
WIPO (PCT)
Prior art keywords
vertex
apex
luggage
depth
baggage
Prior art date
Application number
PCT/JP2020/010237
Other languages
English (en)
French (fr)
Inventor
洋平 西
Original Assignee
Necプラットフォームズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necプラットフォームズ株式会社 filed Critical Necプラットフォームズ株式会社
Priority to US17/775,389 priority Critical patent/US20220392095A1/en
Publication of WO2021095281A1 publication Critical patent/WO2021095281A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Definitions

  • This disclosure relates to a baggage measuring device, a baggage receiving system, a baggage measuring method, and a program.
  • a delivery reception service is provided as part of the service.
  • the store measures the parcel and calculates the charge at the time of receiving the delivery according to the reception standard and the charge standard of each delivery company.
  • the clerk receives the delivery object from the customer and measures the size.
  • the clerk inputs the information into the POS (Point of sale) terminal from the form on which the carrier, the delivery type, the delivery destination, etc. are described, calculates the charge, and performs the settlement.
  • POS Point of sale
  • Patent Document 1 discloses a technique of photographing a luggage and measuring the size.
  • Patent Document 1 it is necessary to attach a reference label having a known size to a rectangular parallelepiped package in advance.
  • An object of the present disclosure is a baggage measuring device, a baggage reception system, a baggage measuring method, and a program capable of measuring a baggage size even if the baggage is not affixed with a reference label having a known size in advance. Is to provide.
  • the luggage measuring device is arranged at a position where a rectangular-shaped luggage placed on a mounting table can be photographed from substantially directly above, and the luggage is photographed with the luggage. It has a depth sensor that acquires a distance and a control unit that calculates the size of the luggage based on the data acquired from the depth sensor.
  • the depth sensor captures the data and stores it as background depth image data, controls the depth sensor, photographs the luggage placed on the above-mentioned stand from substantially directly above, and captures the depth image data of the luggage.
  • the depth sensor to the upper surface of the luggage is acquired, the data of the luggage in the depth image data of the luggage is specified by comparing the depth image data of the luggage with the background depth image data, and the depth sensor of the luggage is obtained.
  • the height of the luggage is calculated based on the data of the distance from the luggage and the data of the distance from the depth sensor to the upper surface of the above-mentioned stand in the background depth image data of the luggage, and the depth image data of the luggage is included.
  • the position of the third apex located at the lowermost side is specified, and the first apex, the second apex, and the third apex 2 in the space with the center of the depth sensor as the origin.
  • the dimensional coordinates are the viewing angle of the depth sensor, the data of the distances of the first apex, the second apex, and the third apex from the depth sensor, respectively, and the number of sensor elements of the depth sensor. Based on the position data of the sensor element of the depth sensor corresponding to the first apex, the second apex, and the third apex, respectively, the first apex and the second apex are obtained. , And, based on the two-dimensional coordinates of the third apex, the length of the first side between the first apex and the third apex, and the second apex and the third apex. The length of the second side between the two is calculated, and the calculated result is output.
  • a rectangular body-shaped baggage placed on a mounting table is arranged at a position where it can be photographed from substantially directly above, and the baggage is photographed with the baggage.
  • This is a baggage measurement method that calculates the size of the baggage using a depth sensor that acquires the distance, and the previously described stand without any objects is photographed in advance with the depth sensor and stored as background depth image data. Then, the depth sensor is controlled, the luggage placed on the above-mentioned stand is photographed from substantially directly above to acquire the depth image data of the luggage, and the depth image data of the luggage and the background depth image data are obtained.
  • the data of the baggage in the depth image data of the baggage is specified by comparison with, and the data of the distance from the depth sensor to the upper surface of the baggage in the depth image data of the baggage and the front in the background depth image data of the baggage.
  • the height of the luggage is calculated based on the data of the distance from the depth sensor to the upper surface of the table, the position of the first apex located on the leftmost side in the depth image data of the luggage, and the above.
  • the position of the second apex located on the rightmost side in the depth image data of the baggage and the position of the third apex located on the uppermost side or the lowest side in the depth image data of the baggage are examples of the first apex located on the leftmost side in the depth image data of the luggage.
  • the two-dimensional coordinates of the first apex, the second apex, and the third apex in the space having the center of the depth sensor as the origin are the viewing angle of the depth sensor and the first
  • the length of the first side between the first apex and the third apex and the length of the second side between the second apex and the third apex are calculated. It outputs the calculated result.
  • the program according to the third aspect of the present disclosure is arranged at a position where a rectangular-shaped luggage placed on a mounting table can be photographed from substantially directly above, and the luggage is photographed to measure the distance from the luggage. It is a program for causing a computer to execute a calculation process for calculating the size of the baggage by using the depth sensor to be acquired.
  • the depth image data of the luggage is acquired by taking a picture and storing it as background depth image data, controlling the depth sensor, and photographing the luggage placed on the above-mentioned stand from substantially directly above. By comparing the depth image data of the luggage with the background depth image data, the data of the luggage in the depth image data of the luggage is specified, and the distance from the depth sensor to the upper surface of the luggage in the depth image data of the luggage.
  • the height of the luggage is calculated based on the data and the data of the distance from the depth sensor to the upper surface of the above-mentioned pedestal in the background depth image data of the luggage, and is on the leftmost side of the depth image data of the luggage.
  • the position of the third apex to be located is specified, and the two-dimensional coordinates of the first apex, the second apex, and the third apex in the space with the center of the depth sensor as the origin are set.
  • the viewing angle of the depth sensor, the data of the distances of the first apex, the second apex, and the third apex from the depth sensor, and the number of sensor elements of the depth sensor, respectively, are described above. Obtained based on the position data of the first apex, the second apex, and the sensor element of the depth sensor corresponding to the third apex, the first apex, the second apex, and the first apex. Based on the two-dimensional coordinates of the three vertices, the length of the first side between the first vertices and the third vertices and the second between the second vertices and the third vertices. It calculates the length of two sides and outputs the calculated result.
  • the present disclosure provides a baggage measuring device, a baggage reception system, a baggage measuring method, and a program capable of measuring the size of a baggage even if the baggage is not affixed with a reference label having a known size in advance. can do.
  • FIG. It is a functional block diagram which shows one configuration example of the baggage measuring apparatus which concerns on Embodiment 1.
  • FIG. It is a schematic diagram which shows one configuration example of the baggage measuring apparatus which concerns on Embodiment 2.
  • It is a functional block diagram which shows the baggage measuring apparatus of FIG. It is a flow chart for demonstrating an example of the baggage measurement processing in the baggage measuring device of FIG.
  • FIG. It is a figure which shows an example of the coordinate system used in the vertex detection process in the baggage measurement process of FIG.
  • FIG. 1 is a functional block diagram showing a configuration example of the luggage measuring device according to the first embodiment.
  • the baggage measuring device 1 includes a control unit 1a and a depth sensor 1b.
  • the baggage measuring device 1 is configured to be able to calculate (measure) the size of the baggage based on the data acquired by the depth sensor 1b using the depth sensor 1b.
  • the control unit 1a can take charge of this calculation.
  • the depth sensor 1b is arranged at a position where a rectangular parallelepiped-shaped luggage placed on a mounting table can be simultaneously photographed (detectable) from directly above, and the luggage is photographed (detected) to acquire the distance to the luggage. ..
  • the depth sensor 1b can be a TOF (Time Of Flight) type sensor, but may be another measurement method such as a pattern irradiation method. Further, infrared rays and the like can be used for the measurement, but the measurement is not limited to this. Of course, directly above may be substantially directly above.
  • the luggage measuring device 1 can have the above-mentioned mounting table.
  • the depth sensor 1b can be attached to the mounting table, and of course, the depth sensor 1b is attached so that the imaging unit such as a lens is located at a position where the image can be taken from directly above the luggage.
  • This mounting table is a table on which a rectangular parallelepiped-shaped load photographed by the depth sensor 1b is placed, and the shape is not limited, but basically at least the mounting surface is flat.
  • the control unit 1a calculates the size of the package based on the data acquired from the depth sensor 1b.
  • the control unit 1a can be realized by an integrated circuit (IC: Integrated Circuit).
  • the control unit 1a can also be realized by, for example, a CPU (Central Processing Unit), a working memory, a non-volatile storage device that stores a program, or the like.
  • the control unit 1a captures a mounting table without a mounting object with the depth sensor 1b in advance and stores it as background depth image data.
  • the control unit 1a can have a storage device for this storage.
  • the storage device for storing the background depth image data and the storage device for storing the above program can be the same storage device.
  • control unit 1a controls the depth sensor 1b, takes a picture of the luggage placed on the mounting table from directly above, and acquires the depth image data of the luggage. Then, the control unit 1a specifies the luggage data (data of the portion corresponding to the luggage) in the depth image data of the luggage by comparing the depth image data of the luggage with the background depth image data.
  • control unit 1a uses the data of the distance from the depth sensor 1b to the upper surface of the luggage in the depth image data of the luggage and the data of the distance from the depth sensor 1b to the upper surface of the mounting table in the background depth image data of the luggage. Based on this, the height of the luggage is calculated.
  • control unit 1a specifies the positions of the first to third vertices as follows.
  • the first vertex is the vertex located on the leftmost side in the depth image data of the cargo.
  • the second vertex is the vertex located on the rightmost side in the depth image data of the cargo.
  • the third vertex is the vertex located on the uppermost side or the lower side in the depth image data of the cargo, and it may be determined in advance whether to adopt the upper side or the lower side.
  • the control unit 1a obtains the two-dimensional (planar) coordinates of the first vertex in the space with the center of the depth sensor 1b as the origin as follows. That is, the control unit 1a includes the viewing angle of the depth sensor 1b, the data of the distance from the depth sensor 1b of the first apex, the number of sensor elements of the depth sensor 1b, and the depth sensor 1b corresponding to the first apex. The two-dimensional coordinates of the first vertex are obtained based on the position data of the sensor element of.
  • control unit 1a obtains the two-dimensional coordinates of the second vertex and the third vertex in the space with the center of the depth sensor 1b as the origin as follows. That is, the control unit 1a includes the viewing angle of the depth sensor 1b, the data of the distance from the depth sensor 1b of the second apex, the number of sensor elements of the depth sensor 1b, and the depth sensor 1b corresponding to the second apex. The two-dimensional coordinates of the second apex are obtained based on the position data of the sensor element of.
  • control unit 1a includes data on the viewing angle of the depth sensor 1b, the distance data from the depth sensor 1b of the third apex, the number of sensor elements of the depth sensor 1b, and the depth sensor 1b corresponding to the third apex.
  • the two-dimensional coordinates of the third apex are obtained based on the position data of the sensor element of.
  • the control unit 1a calculates the length of the first side and the length of the second side based on the two-dimensional coordinates of the first vertex, the second vertex, and the third vertex.
  • the calculated result is output.
  • the first side refers to the side between the first vertex and the third vertex
  • the second side refers to the side between the second vertex and the third vertex.
  • the result can be displayed on a separately provided display unit, and can be printed by a separately connected printing device. As in this example, the output method of the result does not matter.
  • the height of the rectangular parallelepiped luggage and the lengths of the remaining two sides can be calculated by using the depth sensor 1b, so that the size of the luggage is known in advance. It is possible to measure the size of a package even if a certain reference label is not attached.
  • FIG. 2 is a schematic view showing a configuration example of the baggage measuring device according to the second embodiment
  • FIG. 3 is a functional block diagram showing the baggage measuring device of FIG.
  • the baggage measuring device includes a tablet terminal 10 including a control unit 1a, a depth sensor 11 as an example of the depth sensor 1b, and a loading platform (loading platform) to which the depth sensor 11 is attached. 12 can have.
  • the tablet terminal 10 is connected to the depth sensor 11 by wire or wirelessly, and can communicate with the depth sensor 11.
  • the tablet terminal 10 can have a communication interface or the like for such a connection.
  • the tablet terminal 10 may be a device called a mobile PC (Personal Computer), or a device such as a stationary PC or a mobile phone (including a device called a smartphone). Good.
  • the package measuring device shown in FIG. 2 is, for example, a device that measures the size of the package P to be delivered by the depth sensor 11, and is installed in a section of the store in order to reduce the work of the clerk of the package reception store. Can be left. Luggage can be delivered to home.
  • the parcel reception store is not limited to a collection center for parcels operated by a parcel delivery company, and may be a store that undertakes parcel delivery business such as a convenience store.
  • the customer places the parcel P to be delivered on the loading platform 12, confirms the size displayed on his / her tablet terminal 10, pays the parcel at the POS terminal in the store, and hands the parcel to the clerk. It is possible to carry out parcel delivery reception work in good condition.
  • the customer installs the above program (application software) on his / her tablet terminal 10.
  • the customer starts the measurement by pressing the software key for starting the measurement mounted on the software while the software is activated and the luggage P is placed on the mounting table 12. be able to.
  • the delivery address and name can be entered from the software, and the amount according to the delivery distance can be settled. It should be noted that the payment can also be made electronically on the customer's tablet terminal 10.
  • the store side can confirm the size of the parcel P placed by the customer or the clerk on the tablet terminal 10 of the store.
  • the depth sensor 11 can be a device that can acquire distance information in a captured range for each pixel (that is, for each sensor element).
  • the depth sensor 11 acquires the distance from the plane with the depth sensor 11 as the origin to the object.
  • the plane with the depth sensor as the origin is a plane orthogonal to the camera axis with the shooting direction of the depth sensor as the camera axis (sensor axis).
  • the depth sensor 11 is a depth sensor installed directly above (directly above) so that the upper surface (see FIG. 5) of the luggage (rectangular parallelepiped) P mounted on the mounting table 12 can be photographed.
  • the distance to the luggage P can include at least the distance to each of the first to third vertices.
  • the luggage P is a rectangular parallelepiped. Therefore, the fact that it is installed directly above means that it is installed so that it can be photographed from a direction perpendicular to the plane of the mounting table 12. Of course, directly above may be substantially directly above. If the baggage P is not a rectangular parallelepiped, it may be dealt with by, for example, outputting an error.
  • the depth sensor 11 can be mounted on the mounting base 12 via the sensor mounting portion 13, for example.
  • the sensor mounting portion 13 may include, for example, a support column 13a installed vertically on the mounting table 12 and a sensor mounting member 13b installed on the upper end of the support column 13a.
  • the sensor mounting member 13b may also include a mechanism for sliding the depth sensor 11 so that the horizontal position of the depth sensor 11 (distance from the support column 13a) can be changed.
  • the support column 13a can be provided with a mechanism capable of changing the height thereof, whereby the height of the depth sensor 11 can be changed.
  • the tablet terminal 10 has a depth processing unit 21, a background depth unit 22, a vertex detection unit 23, a length calculation unit (measurement unit or calculation unit) 24, as functional units corresponding to the control unit 1a. It can also have an output unit 25 such as a screen output unit.
  • These functional units 21 to 25 can be realized by the CPU of the control unit 1a executing the above software.
  • the depth processing unit 21 acquires and stores data from the depth sensor 11.
  • the background depth unit 22 stores data acquired by photographing a state in which nothing is placed on the mounting table 12 in advance.
  • the apex detection unit 23 specifies the baggage data and specifies the positions of the first to third vertices. Therefore, the vertex detection unit 23 compares the depth information stored in the background depth unit 22 with the depth information in the state where the luggage is present, extracts the changed portion, and extracts the vertex information (first to third) from the extracted data. Information indicating the vertices of) is detected.
  • the length calculation unit 24 calculates the distance between the vertices (that is, the length of the first side and the length of the second side) from the information detected by the vertex detection unit 23, and outputs the result to the output unit 25. give.
  • the output unit 25 outputs the result calculated by the length calculation unit 24 (that is, the measurement result of the baggage) to the outside, and also outputs information related to the operation.
  • the output unit 25 can be, for example, a display unit of the tablet terminal 10.
  • the output unit 25 may be a communication interface for outputting the measurement result to, for example, a printing device for printing on a cover page to be attached to the package P.
  • FIG. 4 is a flow chart for explaining an example of the baggage measurement process in the baggage measuring device of FIG.
  • FIG. 5 is a schematic diagram for explaining an example of the vertex detection process in the baggage measurement process of FIG. 4
  • FIG. 6 is a diagram showing an example of a coordinate system used in the vertex detection process in the baggage measurement process of FIG. .
  • . 7 to 10 are schematic views for explaining an example of the vertex detection process in the baggage measurement process of FIG. 4 based on the field of view of the depth sensor.
  • the vertex detection unit 23 uses the change in depth (distance to the object) to detect the object (baggage P), so that the background data (background depth image data) is stored in advance. Confirm (step S1). If NO in step S1, that is, if the background depth image data is not saved, the vertex detection unit 23 controls the depth sensor 11 and acquires the background depth data from the background depth unit 22 (step S2). Save the background depth image data (step S3).
  • a change in depth distance to the object
  • the background depth image data background depth image data
  • step S3 Save the background depth image data
  • the vertex detection unit 23 acquires depth data from the depth sensor 11 (step S4).
  • the vertex detection unit 23 determines whether or not the depth has changed from the background depth image data in the acquired data, and thus whether or not the luggage P has been placed on the loading platform 12 (whether or not the luggage P has been detected). Is determined (step S5).
  • the vertex detection unit 23 determines that the luggage P has been placed on the mounting table 12, and extracts the point where the depth has changed from the background depth of the depth sensor 11.
  • the changed point is the point where the luggage P exists.
  • the apex detection unit 23 detects the apex of the load (object) P from the changed points (step S6).
  • step S6 first, three vertices A, B, and C as shown in FIG. 5 can be determined based on the depth image data regarding the load P extracted from the depth change of the depth sensor 11.
  • the vertices A, B, and C refer to the first vertex, the second vertex, and the third vertex, respectively. In this example, an example of detecting the uppermost vertex as the third vertex is given.
  • the three vertices A, B, and C may be detected by image recognition by capturing an image of the luggage P with a camera (capturing the same area as the shooting area of the depth sensor 11) to acquire an image.
  • the depth sensor 11 may be a depth sensor with a camera (also referred to as a depth camera), or may be a camera provided separately from the depth sensor 11.
  • the baggage measuring device according to the present embodiment further includes an image pickup device such as a camera, and the vertex detection unit 23 determines the first to third vertices by image recognition of the image acquired by the image pickup device. It may be specified.
  • the apex detection unit 23 may output an error as described above, but the position of the luggage P is corrected on the display unit of the tablet terminal 10.
  • the prompting message may be displayed together with the image of the luggage P. Examples of this message include a message prompting movement or rotation so that the upper surface of the luggage P can be photographed.
  • this display unit can be an example of the output unit 25, and such display control can be carried out by a part of the control unit 1a of FIG. Further, in this case, although not shown, the vertex detection unit 23 and the output unit 25 are connected in FIG.
  • the apex detection unit 23 images the luggage P on the mounting table 12 and displays the image of the luggage P on the display unit, and cannot identify at least one of the vertices A to C of the luggage P, A message prompting the correction of the loading state of the luggage P may be displayed on the display unit. Further, the vertex detection unit 23 automatically detects the other side (lowermost side in this example) when the predetermined side (for example, the uppermost side) cannot be detected for the third vertex. May be good.
  • the image of the luggage P may be displayed on the display unit even when all of the vertices A to C are detected. That is, the baggage measuring device according to the present embodiment can have an image pickup device such as a camera in the depth sensor 11 (or separately from the depth sensor 11), and the image of the baggage P captured by the image pickup device can be captured by the tablet terminal 10. It can also be configured to be displayed on the display unit of.
  • an image pickup device such as a camera in the depth sensor 11 (or separately from the depth sensor 11)
  • the image of the baggage P captured by the image pickup device can be captured by the tablet terminal 10. It can also be configured to be displayed on the display unit of.
  • the depth sensor 11 is installed so as to obtain an image of the upper surface of the luggage P as shown in FIG. As described above, the depth sensor 11 acquires the distance from the plane with the depth sensor 11 as the origin to the object. Therefore, the vertex detection unit 23 can obtain actual distance data from the depth sensor 11 at a certain point in the photographing region (depth image) of the depth sensor 11. Further, the vertex detection unit 23 receives data from the depth sensor 11 indicating which sensor element (which pixel) a certain point in the imaging region (depth image) of the depth sensor 11 corresponds to (which pixel), that is, the depth sensor of a certain point. It is possible to obtain position data in the shooting area (depth image) of.
  • the apex detection unit 23 compares the distance data when the luggage P is not loaded with the distance data when the luggage P is loaded, so that the luggage P is located anywhere in the photographing area of the depth sensor. You can get if it is located. As a result, the vertex detection unit 23 can specify the data of the distance from the plane with the depth sensor 11 as the origin at each point of the cargo P. Then, the vertex detection unit 23 can determine the point located on the leftmost side as the vertex A, the point located on the rightmost side as the vertex B, and the point located on the uppermost side as the vertex C. The vertices A, B, and C do not have to be determined in the above order.
  • the luggage P When the luggage P is placed so that one side of the upper surface of the luggage P is parallel to the Y axis (see FIG. 6) of the depth sensor 11, the luggage P parallel to the Y axis (see FIG. 6).
  • the lower end of one side of the upper surface can be a vertex A
  • the upper end can be a vertex C
  • the other end of one side extending from the vertex C can be a vertex B.
  • step S7 the length calculation unit 24 measures the size of the luggage P.
  • the method of measuring the size of the luggage P in step S7, that is, calculating the actual dimensions of the height, the side AC, and the side BC will be described.
  • the height of the luggage P is determined by the distance data from the depth sensor 11 to the upper surface of the luggage P in the depth image data of the luggage P and the depth sensor 11 to the upper surface of the mounting table 12 in the background depth image data of the luggage P. Calculated based on the distance data from. The distance from the depth sensor 11 to the upper surface of the luggage P and the distance from the depth sensor 11 to the upper surface of the mounting table 12 are obtained from the data of the depth sensor 11.
  • the center of the depth sensor 11 is the origin
  • the camera axis direction is the Z axis, the same plane as the Z axis
  • the direction orthogonal to the Z axis is the X axis
  • the X axis and the Z axis are the directions orthogonal direction.
  • the orthogonal direction is the Y axis.
  • the plane (two-dimensional) coordinates of the upper surfaces of the luggage P in the space of the X-axis, Y-axis, and Z-axis that is, the points A. , B, C It is necessary to specify the two-dimensional coordinates excluding the height direction coordinates.
  • the plane coordinates of points A, B, and C be A (Xa, Ya), B (Xb, Yb), and C (Xc, Yc).
  • the resolution of the depth image is 640pixel in the X-axis direction and 480pixel in the Y-axis direction.
  • No. 0 to No. 639 pixels (sensor elements) are arranged, and No. 639 pixels (sensor elements) are arranged in the Y-axis direction. 0 to No.
  • the resolutions in the X-axis and Y-axis directions of the depth image are set to 640pixel and 480pixel, respectively.
  • the respective resolutions (number of sensor elements) Xnmr and Ynmr are the depths to be used. It depends on the sensor 11.
  • X amaxp corresponds to the distance from the origin (center of the image) to the 640th pixel (No. 639), and Yamaxp is the distance from the origin (center of the image) to the 480th pixel (No. 479). Corresponds to.
  • Xa and Ya can be calculated from the following equations.
  • Xa ⁇ Xa ⁇ ((Xa-pixel) -640/2)
  • Ya ⁇ Ya ⁇ ((Ya-pixel) -480/2)
  • Xb and Yb at point B and Xc and Yc at point C can be calculated.
  • the length of the side AC can be calculated by the following formula. ⁇ ((Xc-Xa) 2 + (Yc-Ya) 2 )
  • the length of the side BC can be calculated by the following formula. ⁇ ((Xc-Xb) 2 + (Yc-Yb) 2 )
  • the output unit 25 outputs the measurement result of the size of the luggage P obtained from the length calculation unit 24 (step S8).
  • the output of the measurement result includes, for example, displaying the measurement result on the screen of the tablet terminal 10, printing the measurement result from a printer (not shown), and discharging the measurement result.
  • the output unit 25 can also transmit the measurement result to another device (POS terminal or the like) (not shown).
  • the baggage measuring device having the effect of the first embodiment since the baggage measuring device having the effect of the first embodiment is installed in a store or the like, the baggage can be measured inexpensively, efficiently and easily. Therefore, according to the present embodiment, it is possible to reduce the work of retail stores and the like, and it is also possible for the customer to accept the delivery package by himself / herself. In recent years, with the increase in online shopping and transactions between individuals, the use of delivery services by general users has increased, and thus the effect of this embodiment is beneficial.
  • FIG. 11 is a schematic view showing a configuration example of a baggage receiving system including the baggage measuring device according to the third embodiment
  • FIG. 12 is a flow chart for explaining an example of the baggage measuring process in the baggage measuring device of FIG. Is.
  • the package receiving system is a system that accepts the package P to be delivered, and includes the package measuring device described in the second embodiment and a settlement device for settling the delivery fee. be able to.
  • the settlement device may be an electronic money reader / writer (R / W) 10b or another device as illustrated below.
  • the checkout device may also include a server device separately connected to the network.
  • the baggage measuring device has a weight scale 14 in the mounting table 12.
  • the weight scale 14 measures the weight of the luggage P and outputs the result to the self-POS terminal 10a.
  • the self-POS terminal 10a is a part of the baggage measuring device in the present embodiment, and is an example of a terminal provided in place of the tablet terminal 10.
  • the luggage reception system can be provided with an imaging device illustrated by a camera, and will be described below with an example of including a depth sensor 11a with a camera as shown in FIG.
  • the self-POS terminal 10a controls the camera of the depth sensor 11a with a camera to image a slip (invoice, etc.) affixed to the package P, which describes the delivery information related to the delivery, and prints the information related to the delivery of the package P. It can be obtained by recognition processing or the like.
  • the self-POS terminal 10a can calculate the delivery charge of the package P based on the size and weight of the package P and the information on the delivery of the package P, and output the delivery charge to the electronic money R / W 10b. it can. Then, the electronic money R / W10b setstles the delivery charge of the package P.
  • the baggage reception system can measure the weight not only by the size of the baggage but also by the weight scale 14, and recognizes the information of the slip attached to the baggage P in characters. It differs from the second embodiment in that the delivery fee is calculated and the payment is made with electronic money.
  • An operation example of the baggage measuring device in the baggage receiving system (hereinafter referred to as the system) according to the present embodiment will be described with reference to FIG.
  • the self-POS terminal 10a measures the luggage P on the mounting table 12 while controlling the depth sensor 11a with a camera in its control unit, and outputs the measurement result.
  • the weight of the luggage P is also measured (step S14).
  • steps S11 to 13 and S15 to S18 in FIG. 12 correspond to steps S1 to 3 and S5 to S8 in FIG. 4, respectively.
  • step S15 it may be determined that the luggage P has been detected when the weight is detected by the weight scale 14.
  • the customer places the baggage P to which the slip is attached so that the slip is included in the shooting range in order to read the character information by the depth sensor 11a with a camera. That is, the customer puts the luggage P as if the slip is attached to the upper surface where the photograph can be taken.
  • the character information on the slip may be read by a camera separate from the depth sensor. In this system, it is possible to perform character recognition processing from the image data taken by the depth sensor 11a with a camera to acquire information on the shipping destination and shipping method of the package P. In addition, the information of the shipping source of the package P (that is, the customer's information) may be acquired.
  • the parcel delivery fee is calculated based on the package size, shipping address (distance to the shipping address), and shipping method information.
  • the depth sensor 11a with a camera and the weight scale 14 can measure the size and weight of the package, and the depth sensor 11a with a camera can read the destination and the shipping method. Then, in this system, based on the read information, the delivery charge of the package can be determined by referring to the charge table stored in advance in the self-POS terminal 10a.
  • the customer pays the fee with the electronic money R / W10b connected to the self-POS terminal 10a.
  • a customer's IC card or tablet terminal with an IC card function can be used for payment. After the payment is made, the receipt and the store copy slip are output from the printing device installed in the store, and the customer hands the luggage and the store copy slip to the clerk.
  • the present embodiment as in the first and second embodiments, not only can the size of the luggage be measured even if the reference label having a known size is not attached to the luggage in advance. Since the settlement is also performed by the customer, the burden on the clerk can be reduced. Further, according to the present embodiment, it is not necessary to manually input the address, delivery date, delivery method, etc. of the package, so that it is possible to prevent an input error of such information.
  • the settlement device can also be a POS terminal.
  • the weight scale 14 for measuring the weight of the package P is provided, but if the weight of the package is not related to the delivery charge, the weight scale 14 may not be provided.
  • the size of the luggage P is calculated by the self-POS terminal 10a, but the size of the luggage P is calculated by the customer's tablet terminal in the second embodiment, and the luggage is transferred from the tablet terminal to the self-POS terminal 10a.
  • the tablet terminal may be configured to be able to communicate with the depth sensor 11 (and the weight scale 14) and the self-POS terminal 10a.
  • the package reception system may be provided with another type of information acquisition device for acquiring delivery information, for example, a short-range wireless communication device, instead of the image pickup device. If such a short-range wireless communication device is provided and a readable medium such as an RFID (radio frequency identifier) tag is attached to the package P, delivery information can be obtained.
  • a short-range wireless communication device is provided and a readable medium such as an RFID (radio frequency identifier) tag is attached to the package P, delivery information can be obtained.
  • RFID radio frequency identifier
  • FIG. 13 is a diagram showing an example of the hardware configuration of the luggage measuring device according to the first to third embodiments. The same applies to the other embodiment [a].
  • the baggage measuring device 100 shown in FIG. 13 has an input / output interface 103 for a processor 101, a memory 102, a depth sensor 1b (11), and the like.
  • the function of the control unit 1a or the function of the function units 21 to 25 in the baggage measuring device described in the first to third embodiments is realized by the processor 101 reading and executing the program stored in the memory 102.
  • this program can be a program for causing the processor 101 to function as the control unit 1a. Further, this program may include a program for realizing at least one function of the functional units 21 to 25.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks).
  • this example includes a CD-ROM (Read Only Memory), a CD-R, and a CD-R / W.
  • semiconductor memories for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (RandomAccessMemory)).
  • the program may also be supplied to the computer by various types of temporary computer readable media.
  • Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the present disclosure also adopts a form as a baggage measurement method for calculating the size of the baggage using the depth sensor described above. obtain. Further, it can be said that the above-mentioned program is a program for causing a computer to execute the above-mentioned baggage measurement method.
  • the depth sensor is controlled to photograph the luggage placed on the above-mentioned pedestal from substantially directly above to acquire the depth image data of the luggage, and the depth image data of the luggage and the background depth image data are combined.
  • the data of the baggage in the depth image data of the baggage is specified, and the data of the baggage is specified.
  • Identify the position of the third vertex, which is located on the uppermost side or the lowest side, and The two-dimensional coordinates of the first vertex, the second vertex, and the third vertex in the space with the center of the depth sensor as the origin are the viewing angle of the depth sensor and the first vertex, respectively.
  • the length of the first side between the first vertex and the third vertex is calculated, and the calculated result is output. Luggage measuring device.
  • the control unit When the imaging direction of the depth sensor is the Z-axis, the direction on the same plane as the Z-axis is the X-axis, and the X-axis and the direction orthogonal to the Z-axis are the Y-axis. Based on the viewing angle of the depth sensor in the X-axis direction and the distance data of the first apex, the second apex, and the third apex in the Z-axis direction, the first apex, respectively.
  • the actual distance from the Z-axis in the X-axis direction to the image edge at the second apex and the third apex is obtained, and the viewing angle in the Y-axis direction of the depth sensor and the first apex, the first apex. From the Z-axis of the first apex, the second apex, and the third apex, respectively, based on the Z-axis distance data of the two apex and the third apex.
  • the X coordinates of the first vertex, the second vertex, and the third vertex are obtained, and the sensor element of the first vertex, the second vertex, and the third vertex in the Y-axis direction. Based on the position and the rate of change of the actual distance in the Y-axis direction for each sensor element, the Y coordinates of the first vertex, the second vertex, and the third vertex are obtained, respectively, and the first vertex is obtained. Two-dimensional coordinates of a vertex, the second vertex, and the third vertex.
  • the baggage measuring device according to Appendix 1.
  • the control unit Based on the distance data of the first apex from the depth sensor, the Z coordinate of the first apex is set to Za, the viewing angle of the depth sensor in the X-axis direction is set to ⁇ x, and the sensor element in the X-axis direction.
  • Equation ⁇ Ya Za ⁇ tan ( ⁇ y / 2) / (Ynmr / 2) Asked by
  • the Y coordinate of the first vertex is Ya and the position of the sensor element in the Y-axis direction of the first vertex is Ya-pixel
  • the baggage measuring device according to Appendix 2.
  • the control unit identifies the first vertex, the second vertex, and the third vertex based on the depth image data of the package.
  • the baggage measuring device according to any one of Appendix 1 to 3.
  • Appendix 5 It also has an imaging device
  • the control unit identifies the first vertex, the second vertex, and the third vertex by image recognition of the image acquired by the imaging device.
  • the baggage measuring device according to any one of Appendix 1 to 3.
  • the control unit causes the image pickup device to image the baggage on the above-mentioned stand to display an image of the baggage on the display unit, and displays the first apex, the second apex, and the first apex of the baggage.
  • a message prompting the correction of the loading state of the luggage is displayed on the display unit.
  • the baggage measuring device according to Appendix 5.
  • Appendix 7 In addition, it has the above-mentioned stand
  • the depth sensor is attached to the above-mentioned stand.
  • the baggage measuring device according to any one of Appendix 1 to 6.
  • the baggage measuring device, the information acquisition device, and the settlement device according to any one of the items 1 to 8 are provided.
  • the information acquisition device acquires information regarding the delivery of the package, and the information acquisition device obtains information.
  • the package measuring device calculates the delivery charge of the package based on the size of the package and the information regarding the delivery of the package.
  • the settlement device setstles the delivery charge of the package. Luggage reception system.
  • the size of the luggage is determined by using a depth sensor that is placed at a position where the rectangular parallelepiped-shaped luggage placed on the mounting table can be photographed from substantially directly above, and the distance to the luggage is acquired by photographing the luggage. It is a baggage measurement method to calculate The previously described stand without an object is photographed in advance with the depth sensor and stored as background depth image data. The depth sensor is controlled to photograph the luggage placed on the above-mentioned pedestal from substantially directly above to acquire the depth image data of the luggage, and the depth image data of the luggage and the background depth image data are combined. By comparison, the data of the baggage in the depth image data of the baggage is specified, and the data of the baggage is specified.
  • Identify the position of the third vertex, which is located on the uppermost side or the lowest side, and The two-dimensional coordinates of the first vertex, the second vertex, and the third vertex in the space with the center of the depth sensor as the origin are the viewing angle of the depth sensor and the first vertex, respectively.
  • the length of the first side between the first vertex and the third vertex is calculated, and the calculated result is output. Luggage measurement method.
  • a rectangular parallelepiped-shaped baggage placed on a mounting table is placed at a position where it can be photographed from substantially directly above, and a depth sensor is used to photograph the baggage and acquire the distance from the baggage. It is a program to execute the calculation process to calculate the size of The calculation process is The previously described stand without an object is photographed in advance with the depth sensor and stored as background depth image data.
  • the depth sensor is controlled to photograph the luggage placed on the above-mentioned pedestal from substantially directly above to acquire the depth image data of the luggage, and the depth image data of the luggage and the background depth image data are combined.
  • the data of the baggage in the depth image data of the baggage is specified, and the data of the baggage is specified.
  • Identify the position of the third vertex, which is located on the uppermost side or the lowest side, and The two-dimensional coordinates of the first vertex, the second vertex, and the third vertex in the space with the center of the depth sensor as the origin are the viewing angle of the depth sensor and the first vertex, respectively.
  • the length of the first side between the first vertex and the third vertex is calculated, and the calculated result is output. program.

Abstract

予め荷物にサイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定可能にする。荷物計測装置は、載置台上の直方体形状の荷物を実質的に直上から撮影して荷物との距離を取得する深度センサ、及び制御部を有する。制御部は、載置台上の荷物を撮影し荷物の深度画像データを取得し、背景深度画像データとの比較によって深度画像データにおける荷物のデータを特定する。制御部は、荷物の高さを算出し、荷物の深度画像データ中で最も左側と右側と上側又は下側とに位置する3頂点の位置を特定する。制御部は、深度センサの中心を原点とする空間における3頂点の2次元座標を、深度センサの視野角、3頂点に対応する深度センサからの距離のデータ及びセンサ素子の位置データとセンサ素子の数とに基づいて求める。制御部は、3つの頂点の2次元座標に基づいて第3頂点と他の2頂点との間の2辺の長さを算出して結果を出力する。

Description

荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体
 本開示は、荷物計測装置、荷物受付システム、荷物計測方法、及びプログラムに関する。
 コンビニエンスストアなどで、サービスの一環として配送の受付サービスが提供されている。この際、店舗では、各配送業者の受付基準、料金基準に合わせ、配送受付時に荷物の測定及び料金の算出を行う。具体的には、店員は、顧客から配送対象物を受け取り、サイズの測定を行う。そして、店員は、運送業者、配送種別、配送先などが記載された用紙から、それらの情報をPOS(Point of sale)端末に入力して料金を算出し、精算を行っている。
 店員にとって、荷物のサイズの測定は煩雑であり、時間も要する。これに対し、例えば、特許文献1には、荷物を撮影してサイズを測定する技術が開示されている。
特開2015-194424号公報
 しかしながら、特許文献1に記載の技術では、予め、直方体形状の荷物に、サイズが既知である基準ラベルを貼付しておく必要がある。
 本開示の目的は、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することが可能な荷物計測装置、荷物受付システム、荷物計測方法、及びプログラムを提供することにある。
 本開示の第1の態様に係る荷物計測装置は、載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサと、前記深度センサから取得したデータに基づいて前記荷物のサイズを算出する制御部と、を有し、前記制御部は、載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、ものである。
 本開示の第2の態様に係る荷物計測方法は、載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、前記荷物のサイズを算出する荷物計測方法であって、載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、ものである。
 本開示の第3の態様に係るプログラムは、載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、コンピュータに、前記荷物のサイズを算出する算出処理を実行させるためのプログラムであって、前記算出処理は、載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、ものである。
 本開示により、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することが可能な荷物計測装置、荷物受付システム、荷物計測方法、及びプログラムを提供することができる。
実施形態1に係る荷物計測装置の一構成例を示す機能ブロック図である。 実施形態2に係る荷物計測装置の一構成例を示す模式図である。 図2の荷物計測装置を示す機能ブロック図である。 図2の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。 図4の荷物計測処理における頂点検出処理の一例を説明するための模式図である。 図4の荷物計測処理における頂点検出処理で用いる座標系の一例を示す図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 実施形態3に係る荷物計測装置を含む荷物受付システムの一構成例を示す模式図である。 図11の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。 荷物計測装置のハードウェア構成の一例を示す図である。
 以下、図面を参照して、実施形態について説明する。なお、実施形態において、同一又は同等の要素には、同一の符号を付し、重複する説明は省略される。
<実施形態1>
 図1は、実施形態1に係る荷物計測装置の一構成例を示す機能ブロック図である。
 図1に示すように、本実施形態に係る荷物計測装置1は、制御部1a及び深度センサ1bを有する。荷物計測装置1は、深度センサ1bを用い、深度センサ1bで取得されたデータに基づいて荷物のサイズを算出(計測)することができるように構成されている。この算出を制御部1aが担うことができる。
 深度センサ1bは、載置台に載置された直方体形状の荷物を直上から同時に撮影可能(検出可能)である位置に配置され、その荷物を撮影(検出)してその荷物との距離を取得する。深度センサ1bは、TOF(Time Of Flight)方式のセンサとすることができるが、パターン照射方式など他の計測方式であってもよい。また、計測には赤外線等を用いることができるが、これに限ったものではない。無論、直上とは実質的に直上であればよい。
 また、図1では示さないが、本実施形態に係る荷物計測装置1は、上記の載置台を有することができる。この場合、深度センサ1bは、この載置台に取り付けておくことができ、無論、荷物の直上から撮影可能な位置にレンズ等の撮像部が位置するように取り付けられることとなる。この載置台は、深度センサ1bで撮影する直方体形状の荷物を載置する台であり、その形状は問わないが、基本的に少なくとも載置面は平面状であるものとする。
 制御部1aは、深度センサ1bから取得したデータに基づいてその荷物のサイズを算出する。例えば、制御部1aは集積回路(IC:Integrated Circuit)によって実現することができる。また、制御部1aは、例えば、CPU(Central Processing Unit)、作業用メモリ、及びプログラムを記憶した不揮発性の記憶装置などによって実現することもできる。
 制御部1aにおける具体的なサイズ算出処理について説明する。
 制御部1aは、載置物がない状態の載置台を、予め深度センサ1bで撮影して背景深度画像データとして記憶しておく。制御部1aはこの記憶のための記憶装置を有することができる。なお、背景深度画像データを記憶する記憶装置と上記プログラムを記憶する記憶装置とは同じ記憶装置とすることができる。
 また、制御部1aは、深度センサ1bを制御し、載置台に載置された荷物を直上から撮影してその荷物の深度画像データを取得する。そして、制御部1aは、その荷物の深度画像データと背景深度画像データとの比較によって、その荷物の深度画像データにおける荷物のデータ(荷物に対応する部分のデータ)を特定する。
 さらに、制御部1aは、荷物の深度画像データにおける荷物の上面までの深度センサ1bからの距離のデータと荷物の背景深度画像データにおける載置台の上面までの深度センサ1bからの距離のデータとに基づいて、荷物の高さを算出する。
 さらに、制御部1aは、次のような第1~第3の頂点の位置を特定する。第1の頂点は、その荷物の深度画像データ中で最も左側に位置する頂点とする。第2の頂点は、その荷物の深度画像データ中で最も右側に位置する頂点とする。第3の頂点は、その荷物の深度画像データ中で最も上側又は下側に位置する頂点とし、上側を採用するか下側を採用するかは予め定めておくなどすればよい。
 制御部1aは、深度センサ1bの中心を原点とする空間における、第1の頂点の2次元(平面)座標を、次のように求める。即ち、制御部1aは、深度センサ1bの視野角と、第1の頂点の深度センサ1bからの距離のデータと、深度センサ1bのセンサ素子の数と、第1の頂点に対応する深度センサ1bのセンサ素子の位置データとに基づいて、第1の頂点の2次元座標を求める。
 同様に、制御部1aは、深度センサ1bの中心を原点とする空間における、第2の頂点、第3の頂点の2次元座標を、次のように求める。即ち、制御部1aは、深度センサ1bの視野角と、第2の頂点の深度センサ1bからの距離のデータと、深度センサ1bのセンサ素子の数と、第2の頂点に対応する深度センサ1bのセンサ素子の位置データとに基づいて、第2の頂点の2次元座標を求める。また、制御部1aは、深度センサ1bの視野角と、第3の頂点の深度センサ1bからの距離のデータと、深度センサ1bのセンサ素子の数と、第3の頂点に対応する深度センサ1bのセンサ素子の位置データとに基づいて、第3の頂点の2次元座標を求める。
 そして、制御部1aは、第1の頂点、第2の頂点、及び第3の頂点の2次元座標に基づいて、第1の辺の長さ及び第2の辺の長さを算出して、その算出した結果を出力する。ここで、第1の辺は第1の頂点と第3の頂点との間の辺を指し、第2の辺は第2の頂点と第3の頂点との間の辺を指す。なお、結果は、別途設けた表示部へ表示させることができ、また別途接続された印刷装置で印刷させることができる。この例のように、結果の出力方法は問わない。
 本実施形態に係る荷物計測装置1によれば、深度センサ1bを用いて直方体形状の荷物の高さ及び残り2辺の長さを算出することができるため、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することが可能になる。
<実施形態2>
 実施形態2について、図2~図10を併せて参照しながら、実施形態1との相違点を中心に説明するが、実施形態1で説明した様々な例が適用できる。図2は、実施形態2に係る荷物計測装置の一構成例を示す模式図で、図3は、図2の荷物計測装置を示す機能ブロック図である。
 図2に示すように、本実施形態に係る荷物計測装置は、制御部1aを含むタブレット端末10、深度センサ1bの一例としての深度センサ11、及び深度センサ11が取り付けられた載置台(荷台)12を有することができる。
 タブレット端末10は、深度センサ11と有線又は無線で接続され、深度センサ11と通信が可能になっている。タブレット端末10は、このような接続のための通信インタフェース等を有することができる。なお、タブレット端末10は、モバイルPC(Personal Computer)と称されるものであってもよく、また、設置型のPC、携帯電話機(スマートフォンと称されるものも含む)等の装置であってもよい。
 図2に示す荷物計測装置は、例えば、配送する荷物Pの大きさを深度センサ11で測定する装置であり、荷物受付店の店員の業務を軽減するために、店の一画に設置しておくことができる。荷物は宅配物とすることができる。また、荷物受付店は、宅配業者が運営する宅配物の収集所に限らず、コンビニエンスストアなどの宅配物受付業務を請け負った店舗であってもよい。
 例えば、顧客は、配送を依頼する荷物Pを載置台12に置き、自身のタブレット端末10に表示されたサイズを確認して、店舗内のPOS端末にて精算し、荷物を店員に引き渡す、といった具合に宅配物受付業務を行うことができる。その際、顧客は、自身のタブレット端末10に上記プログラム(アプリケーションソフトウェア)をインストールしておく。そして、顧客は、そのソフトウェアを起動させた状態で且つ荷物Pを載置台12に載置した状態で、そのソフトウェアに実装された計測開始用のソフトウェアキーを押下するなどして、計測を開始させることができる。また、精算前には、届け先の住所及び氏名をそのソフトウェアから入力しておくことができ、これにより配送距離に応じた金額を精算することができる。なお、精算についても顧客のタブレット端末10において電子決済を行うこともできる。
 無論、宅配物受付業務は、店舗側が店舗のタブレット端末10において、顧客又は店員が載置した荷物Pのサイズの確認などを行うようにすることもできる。
 次に、本実施形態における荷物の計測に関して説明する。
 深度センサ11は、撮影した範囲の距離情報をピクセル毎に(つまりセンサ素子毎に)取得できるデバイスとすることができる。深度センサ11は、深度センサ11を原点とする平面から対象物までの距離を取得する。深度センサを原点とする平面とは、深度センサの撮影方向をカメラ軸(センサ軸)として、カメラ軸に直交する平面である。
 深度センサ11は、図2に示すように、載置台12に載置された荷物(直方体)Pの上面(図5参照)を撮影できるように真上(直上)に設置された深度センサで、荷物Pとの距離を取得する。荷物Pとの距離には、少なくとも第1~第3の各頂点までの距離を含むことができる。ここで、荷物Pは直方体であることを前提とする。そのため、直上に設置されたとは、載置台12の平面に垂直な方向から撮影可能なように設置されたことを意味する。無論、直上とは実質的に直上であればよい。なお、荷物Pが直方体でない場合には例えばエラー出力するなどで対応すればよい。
 深度センサ11は、例えば、センサ取付部13を介して載置台12に取り付けられることができる。センサ取付部13は、例えば、載置台12に垂直に設置された支柱13aと、支柱13aの上端に設置されたセンサ取付部材13bと、を備えることができる。センサ取付部材13bは、深度センサ11の水平方向の位置(支柱13aからの離間距離)を変更可能なように、深度センサ11をスライドさせる機構を備えることもできる。また、支柱13aは、その高さを変更可能な機構を備えることができ、これにより、深度センサ11の高さを変更することができるようになる。
 タブレット端末10は、制御部1aに対応する機能部として、図3に示すように、深度加工部21、背景深度部22、頂点検出部23、長さ算出部(計測部又は計算部)24、及び、画面出力部等の出力部25を有することができる。これらの機能部21~25は、制御部1aのCPUが上記ソフトウェアを実行することによって、実現することができる。
 深度加工部21は、深度センサ11からデータを取得し、記憶する。背景深度部22は、予め載置台12に何も置かれていない状態を撮影して取得したデータを保存しておく。頂点検出部23は、荷物のデータを特定し、第1~第3の頂点の位置を特定する。そのため、頂点検出部23は、背景深度部22に保存された深度情報と荷物がある状態の深度情報を比較して、変化した部分を抽出し、抽出したデータから頂点情報(第1~第3の頂点を示す情報)を検出する。
 長さ算出部24は、頂点検出部23で検出された情報から、頂点間の距離(つまり第1の辺の長さ及び第2の辺の長さ)を算出し、出力部25にその結果を渡す。出力部25は、長さ算出部24で算出された結果(つまり荷物の計測結果)を外部に出力するとともに、操作に関する情報などを出力する。出力部25は、例えば、タブレット端末10の表示部とすることができる。なお、出力部25は、計測結果を出力するために、例えば荷物Pに貼り付ける送付状に印刷するための印刷装置に出力する通信インタフェースとすることもできる。
 次に、図4~図10を併せて参照しながら、本実施形態に係る荷物計測装置の動作例について説明する。図4は、図2の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。図5は、図4の荷物計測処理における頂点検出処理の一例を説明するための模式図で、図6は、図4の荷物計測処理における頂点検出処理で用いる座標系の一例を示す図である。図7~図10は、図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。
 まず、頂点検出部23は、対象物(荷物P)の検出に、深度(対象物までの距離)の変化を利用するため、事前に背景のデータ(背景深度画像データ)が保存されているかを確認する(ステップS1)。ステップS1でNOの場合、つまり背景深度画像データが保存されていない場合、頂点検出部23は、深度センサ11を制御し、背景深度部22から背景深度データを取得して(ステップS2)、取得した背景深度画像データを保存する(ステップS3)。なお、ここでは、深度が変化した場合をトリガーとして荷物Pの計測を開始する例を挙げて説明するが、例えば顧客(又は店員)の操作をトリガーとすることもできる。
 頂点検出部23は、深度センサ11から深度のデータを取得する(ステップS4)。頂点検出部23は、取得されたデータにおいて深度が背景深度画像データから変化したか否かを判定することで、荷物Pが載置台12に載置されたか(荷物Pが検出されたか)否かを判定する(ステップS5)。
 頂点検出部23は、深度が変化した場合、荷物Pが載置台12に載置されたと判断して、深度センサ11の背景深度から深度が変化したポイントを抽出する。変化したポイントが、荷物Pが存在するポイントである。そして、頂点検出部23は、変化したポイントの中から荷物(対象物)Pの頂点を検出する(ステップS6)。ステップS6では、まず、深度センサ11の深度変化から抽出された荷物Pに関する深度画像データに基づいて、図5に示すような3箇所の頂点A,B,Cを決定することができる。頂点A,B,Cは、それぞれ第1の頂点、第2の頂点、第3の頂点を指している。なお、この例では、第3の頂点として最も上側に位置する頂点を検出する例を挙げている。
 また、3箇所の頂点A,B,Cは、カメラにより荷物Pを撮像(深度センサ11の撮影領域と同じ領域を撮像)して画像を取得し、画像認識によって検出することとしてもよい。このカメラは、深度センサ11をカメラ付き深度センサ(深度カメラとも称する)としてもよいし、もしくは深度センサ11とは別に設けたカメラとしてもよい。このように、本実施形態に係る荷物計測装置は、さらにカメラ等の撮像装置を有し、頂点検出部23は、この撮像装置で取得した画像の画像認識によって、第1~第3の頂点を特定するようにしてもよい。なお、深度センサ11の深度画像における荷物の領域と、カメラの画像における荷物の領域とを重ねることによって、カメラの画像における3頂点が、深度センサ11の深度画像においてどのポイントに相当するかを知ることが可能である。
 また、頂点検出部23は、深度変化から3箇所の頂点が検出できない場合、上述したようにエラー出力を行ってもよいが、タブレット端末10の表示部に、荷物Pの位置を訂正するように促すメッセージを、荷物Pの画像とともに表示するようにしてもよい。このメッセージとしては、荷物Pの上面が撮影できるように移動又は回転を促すメッセージなどが挙げられる。なお、この表示部は、出力部25の一例とすることができ、このような表示制御は図1の制御部1aの一部が担うことができる。また、この場合、図示しないが、図3において頂点検出部23と出力部25とが接続されていることになる。
 このように、頂点検出部23は、載置台12上の荷物Pを撮像して荷物Pの画像を表示部に表示させるとともに、荷物Pの頂点A~Cの少なくとも1つを特定できない場合に、荷物Pの載置状態の訂正を促すメッセージを表示部に表示させるようにしてもよい。また、頂点検出部23は、第3の頂点について、予め定めた側(例えば最も上側)が検出できない場合、自動的に他の側(この例では最も下側)の検出を実施するようにしてもよい。
 また、荷物Pの画像は、頂点A~Cの全てが検出される場合にも表示部に表示させてもよい。つまり、本実施形態に係る荷物計測装置は、深度センサ11に(又は深度センサ11とは別に)カメラ等の撮像装置を有することができ、その撮像装置で撮像した荷物Pの画像をタブレット端末10の表示部に表示させるように構成しておくこともできる。
 ここで、図5を参照して、荷物Pの3つの頂点を決定する決定処理の一例について説明する。深度センサ11は、図5のような荷物Pの上面の画像が得られるように設置されている。前述したように、深度センサ11は、深度センサ11を原点とする平面から対象物までの距離を取得する。従って、頂点検出部23は、深度センサ11からは、深度センサ11の撮影領域(深度画像)中のあるポイントについて、実距離のデータを得ることができる。また、頂点検出部23は、深度センサ11から、深度センサ11の撮影領域(深度画像)中のあるポイントがどのセンサ素子に(どのピクセルに)対応するかのデータ、即ち、あるポイントの深度センサの撮影領域(深度画像)中の位置データを得ることができる。
 頂点検出部23は、荷物Pを載置していないときの距離のデータと荷物Pを載置したときの距離のデータとを比較することによって、深度センサの撮影領域の中のどこに荷物Pが位置しているかを得ることができる。その結果、頂点検出部23は、荷物Pの各ポイントにおける深度センサ11を原点とする平面からの距離のデータを特定することができる。そして、頂点検出部23は、最も左側に位置するポイントを頂点Aとして決定し、最も右側に位置するポイントを頂点Bとして決定し、最も上側に位置するポイントを頂点Cとして決定することができる。なお、頂点A,B,Cの決定は、上述の順番でなくともよい。
 なお、荷物Pの上面の1辺が深度センサ11のY軸(図6参照)と平行になるように、荷物Pが置かれた場合は、Y軸(図6参照)と平行な荷物Pの上面の1辺の下端を頂点Aとし、上端を頂点Cとし、頂点Cから延びる1辺の他端を頂点Bとすることができる。
 ステップS6に続き、長さ算出部24は、荷物Pのサイズを計測する(ステップS7)。ステップS7における、荷物Pのサイズの計測、即ち、高さ、辺AC、及び辺BCの実際の寸法を算出する方法について説明する。
 まず、荷物Pの高さは、荷物Pの深度画像データにおける荷物Pの上面までの深度センサ11からの距離のデータと、荷物Pの背景深度画像データにおける載置台12の上面までの深度センサ11からの距離のデータと、に基づいて算出する。なお、荷物Pの上面までの深度センサ11からの距離と載置台12の上面までの深度センサ11からの距離は、深度センサ11のデータから得られている。
 次に、辺AC、辺BCの実際の寸法を算出する方法について説明する。
 図6に示すように、深度センサ11の中心を原点とし、カメラ軸方向をZ軸とし、Z軸と同一平面上にあり、Z軸と直交する方向をX軸とし、X軸及びZ軸と直交する方向をY軸とする。
 辺AC、辺BCの実際の寸法を算出するためには、上記X軸、Y軸、Z軸の空間における荷物Pの上面の点A,B,Cの平面(2次元)座標、即ち点A,B,Cの高さ方向座標を除く2次元座標を特定する必要がある。点A,B,Cの平面座標を、A(Xa、Ya)、B(Xb、Yb)、C(Xc、Yc)とする。
 図7~図10を参照して、点Aの平面座標であるXa、Yaの算出方法について説明する。
 深度センサ11のX軸方向の視野角をθx(度)とすると、点Aにおける画像の端までの実距離Xamaxpは、図7及び図9から分かるように、以下の式から算出できる。ここで、Zaは、深度センサ11から荷物Pの上面までの距離である。
  Xamaxp=Za×tan(θx/2)
 また、深度センサ11のY軸方向の視野角をθy(度)とすると、点Aにおける画像の端までの実距離Yamaxpは、図8及び図10から分かるように、以下の式から算出できる。
  Yamaxp=Za×tan(θy/2)
 ここで、深度画像の解像度をX軸方向640pixel、Y軸方向480pixelと仮定する。この場合、図6で例示するように、X軸方向には、No.0~No.639のピクセル(センサ素子)が配置され、Y軸方向には、No.0~No.479のピクセル(センサ素子)が配置されていることになる。つまり、この場合、X軸方向のセンサ素子の数、Y軸方向のセンサ素子の数が、それぞれ640、480となる。なお、以下では、このように深度画像のX軸、Y軸方向の解像度をそれぞれ640pixel、480pixelとした例を挙げて説明するが、それぞれの解像度(センサ素子の数)Xnmr、Ynmrは使用する深度センサ11によって異なることになる。
 Xamaxpは、原点(画像の中心)から640番目のpixel(No.639)までの距離に相当し、Yamaxpは、原点(画像の中心)から480番目のpixel(No.479)までの距離に相当する。
 点Aの深度センサ11の撮影領域(深度画像)中の位置データ、即ち、点Aがどのピクセルに対応しているかは、深度センサ11のデータから得られている。従って、点AのX軸及びY軸におけるピクセル(センサ素子)の位置が、(No.Xa-pixel、No.Ya-pixel)であるとすると、XaとYaは、以下の式から算出できる。
  Xa=△Xa×((Xa-pixel)-640/2)
  Ya=△Ya×((Ya-pixel)-480/2)
 ここで、△Xaは、(式)△Xa=Xamaxp/(640/2)で得られる、点AにおけるX方向のピクセル(センサ素子)毎の変化率である。また、△Yaは、(式)△Ya=Yamaxp/(480/2)で得られる、点AにおけるY方向のピクセル(センサ素子)毎の変化率である。
 同様にして、点BのXb、Yb、点CのXc、Ycを算出することができる。
 そして、辺ACの長さは、以下の式で算出することができる。
  √((Xc-Xa)+(Yc-Ya)
 同様にして、辺BCの長さを、以下の式で算出することができる。
  √((Xc-Xb)+(Yc-Yb)
 ステップS7に続き、出力部25は、長さ算出部24から得た荷物Pのサイズの計測結果を出力する(ステップS8)。計測結果の出力とは、上述したように、例えば、タブレット端末10の画面に計測結果を表示する、図示しないプリンタから計測結果を印字して排出する、などが挙げられる。その他の例としては、出力部25は、図示しない他の装置(POS端末等)へ計測結果を送信することもできる。
 以上に説明した本実施形態によれば、実施形態1による効果を奏する荷物計測装置を店舗等に設置しているため、荷物を安価で効率的且つ容易に測定することができる。よって、本実施形態によれば、小売業の店舗などの業務を軽減することができ、また配送荷物受付を顧客自身で行うこともできる。近年、オンラインショッピングや個人間取引の増加に伴い、一般利用者による配送サービスの利用が増加しているため、このような本実施形態の効果は有益である。
<実施形態3>
 実施形態3について、図11及び図12を併せて参照し、その効果も含めた実施形態2との相違点を中心に説明する。但し、実施形態3は、実施形態1,2で説明した様々な例が適用できる。図11は、実施形態3に係る荷物計測装置を含む荷物受付システムの一構成例を示す模式図で、図12は、図11の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。
 図11に示すように、本実施形態に係る荷物受付システムは、配送される荷物Pを受け付けるシステムであり、実施形態2で説明した荷物計測装置を備えるとともに、配送料金を精算する精算装置を備えることができる。精算装置は、以下に例示するように電子マネーリーダライタ(R/W)10bであってもよいし、他の装置であってもよい。この精算装置は、別途ネットワーク接続されたサーバ装置を含むこともできる。
 また、本実施形態に係る荷物計測装置は、載置台12内に重量計14を有する。重量計14は荷物Pの重量を測定し、セルフPOS端末10aにその結果を出力する。ここで、セルフPOS端末10aは、本実施形態における荷物計測装置の一部であり、タブレット端末10の代わりに設けられた端末の例である。
 また、本実施形態に係る荷物受付システムは、カメラで例示した撮像装置を備えることができ、以下では、図11に示すようにカメラ付き深度センサ11aを備えた例を挙げて説明する。セルフPOS端末10aは、そのカメラ付き深度センサ11aのカメラを制御し、荷物Pに貼付されている、配送に関する配送情報を記載した伝票(送り状など)を撮像させ、荷物Pの配送に関する情報を文字認識処理等により取得することができる。
 そして、セルフPOS端末10aは、荷物Pのサイズと重量、及び荷物Pの配送に関する情報とに基づいて、その荷物Pの配送料金を算出し、電子マネーR/W10bに配送料金を出力することができる。そして、電子マネーR/W10bは、荷物Pの配送料金の精算を行う。
 上述のように、本実施形態に係る荷物受付システムは、荷物のサイズに加えて重量計14により重量をも計測することが可能であり、荷物Pに貼付されている伝票の情報を文字認識して配送料金を算出し、電子マネーで精算を行う点で、実施形態2とは異なる。図12を併せて参照しながら、本実施形態に係る荷物受付システム(以下、本システム)における荷物計測装置の動作例について説明する。
 セルフPOS端末10aは、その制御部において、カメラ付き深度センサ11aを制御しながら載置台12上の荷物Pの計測を行い、計測結果を出力する。この動作例では、図4の動作例のステップS4において、荷物Pのサイズの計測を行うことに加えて、荷物Pの重量についても計測を行う(ステップS14)。他の手順については同様であり、図12のステップS11~13,S15~S18は、それぞれ図4のステップS1~3,S5~S8に対応する。但し、ステップS15では、重量計14で重量が検出されたことをもって、荷物Pが検出されたと判定してもよい。
 以下に、本システムにおいて、荷物Pのサイズと重量を計測した後、配送料金を精算するまでについて、その一例を挙げて簡単に説明する。
 顧客は、伝票が貼付された荷物Pを、カメラ付き深度センサ11aにて文字情報を読み取るため、撮影範囲に伝票が入るように載置する。つまり、撮影可能な上面に伝票が貼られているように、顧客は荷物Pを置くことになる。なお、伝票の文字情報の読み取りを深度センサとは別体のカメラで行ってもよい。本システムでは、カメラ付き深度センサ11aで撮影された画像データから文字認識処理を施して、荷物Pの発送先、発送方法の情報を取得することが可能である。なお、荷物Pの発送元の情報(つまり顧客の情報)を取得するようにしてもよい。
 一般的に、荷物の配送料金は、荷物のサイズ、発送先(発送先までの距離)、発送方法の情報に基づいて算出される。本システムでは、カメラ付き深度センサ11aと重量計14で、荷物のサイズと重量とを計測し、カメラ付き深度センサ11aから、宛先、発送方法を読み取ることができる。そして、本システムでは、これらの読み取った情報に基づき、セルフPOS端末10aに予め記憶されている料金表を参照して、荷物の配送料金を決定することができる。
 顧客は、その後、セルフPOS端末10aに接続された電子マネーR/W10bで料金の精算を行う。精算には顧客が所持するICカードやICカード機能付きタブレット端末などを利用することができる。精算後、店舗に設置された印刷装置からレシートと店舗控え伝票が出力されて、顧客は、店員に、荷物と店舗控え伝票を渡す。
 上記の説明では、電子マネーで精算を行うこととしたが、これに替えて、セルフPOS端末に紙幣取扱装置と硬貨取扱装置とを有する釣銭機を接続し、現金によって精算を行えるようにしてもよい。また、電子マネーR/Wと釣銭機の両方を備えるようにしてもよい。
 以上、本実施形態によれば、実施形態1,2と同様に、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することができるだけでなく、精算も顧客によって行われるので、店員の負担を低減することができる。また、本実施形態によれば、荷物の宛先、配送日、配送方法等を手入力する必要がないので、これらの情報の入力ミスを防止することができる。
 また、顧客が操作するセルフPOS端末10aを備えることとしたが、店員が操作するPOS端末であってもよい。この場合、精算装置もPOS端末とすることができる。また、本システムでは、荷物Pの重量を計測するための重量計14を備えた例を挙げているが、配送料金に荷物の重量が関係しない場合は、重量計14を備えなくてもよい。
 また、本システムでは、荷物PのサイズをセルフPOS端末10aで算出していたが、実施形態2における顧客のタブレット端末で荷物Pのサイズを算出して、タブレット端末からセルフPOS端末10aに荷物のサイズのデータを送信するようにしてもよい。この送信のためには、このタブレット端末は、深度センサ11(及び重量計14)やセルフPOS端末10aと通信可能に構成しておけばよい。
 また、本実施形態に係る荷物受付システムは、撮像装置の代わりに、配送情報を取得する他種の情報取得装置、例えば近距離無線通信装置を備えることもできる。このような近距離無線通信装置を備えておき、且つ、荷物PにRFID(radio frequency identifier)タグのような読み取り可能な媒体を貼り付けておけば、配送情報を取得することができる。
<他の実施形態>
[a]
 実施形態1では、図1に示す荷物計測装置1の制御部1aの機能について説明したが、荷物計測装置1としてこの機能が実現できればよい。同様に、実施形態2,3では、図3に示す機能部21~25の機能について説明したが、荷物計測装置としてこれらの機能が実現できればよい。
[b]
 実施形態1~3に係る荷物計測装置は、次のようなハードウェア構成を有していてもよい。図13は、実施形態1~3に係る荷物計測装置のハードウェア構成の一例を示す図である。なお、上記他の実施形態[a]についても同様である。
 図13に示す荷物計測装置100は、プロセッサ101、メモリ102、及び深度センサ1b(11)等のための入出力インタフェース103を有する。実施形態1~3で説明した荷物計測装置における制御部1aの機能或いは機能部21~25の機能は、プロセッサ101がメモリ102に記憶されたプログラムを読み込んで実行することにより実現される。このプログラムは、上述した通り、プロセッサ101を制御部1aとして機能させるためのプログラムとすることができる。また、このプログラムは、機能部21~25の少なくとも1つの機能を実現させるためのプログラムを含むことができる。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、この例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、この例は、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
[c]
 さらに、上述した様々な実施形態において、荷物計測装置における荷物計測方法の手順を例示したように、本開示は、上述した深度センサを用いて荷物のサイズを算出する荷物計測方法としての形態も採り得る。また、上記プログラムは、コンピュータに上述した荷物計測方法を実行させるためのプログラムであると言える。
 なお、本開示は上記の各実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施形態を適宜組み合わせて実施されてもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<付記>
(付記1)
 載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサと、
 前記深度センサから取得したデータに基づいて前記荷物のサイズを算出する制御部と、
 を有し、
 前記制御部は、
 載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
 前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
 前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、
 前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、
 前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
 前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、
 荷物計測装置。
(付記2)
 前記制御部は、
 前記深度センサの撮影方向をZ軸とし、前記Z軸と同一平面上にあり、前記Z軸と直交する方向をX軸とし、前記X軸及び前記Z軸と直交する方向をY軸としたとき、前記深度センサのX軸方向の視野角と、前記第1の頂点、前記第2の頂点、及び前記第3の頂点のZ軸方向の距離のデータとに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるX軸方向のZ軸から画像端までの実距離を求め、前記深度センサのY軸方向の視野角と、前記第1の頂点、前記第2の頂点、及び前記第3の頂点のZ軸方向の距離のデータとに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるY軸方向のZ軸から画像端までの実距離を求め、
 前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるX軸方向のZ軸から画像端までの実距離と、前記深度センサのX軸方向のセンサ素子の数とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるセンサ素子毎のX軸方向の実距離の変化率を求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるY軸方向のZ軸から画像端までの実距離と、前記深度センサのY軸方向のセンサ素子の数とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるセンサ素子毎のY軸方向の実距離の変化率を求め、
 前記第1の頂点、前記第2の頂点、及び前記第3の頂点の、X軸方向におけるセンサ素子の位置と前記センサ素子毎のX軸方向の実距離の変化率とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点のX座標を求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の、Y軸方向におけるセンサ素子の位置と前記センサ素子毎のY軸方向の実距離の変化率とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点のY座標を求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標とする、
 付記1に記載の荷物計測装置。
(付記3)
 前記制御部は、
 前記第1の頂点の前記深度センサからの距離のデータに基づいて、前記第1の頂点のZ座標をZaとし、前記深度センサのX軸方向の視野角をθxとし、X軸方向のセンサ素子の数をXnmrとしたとき、前記第1の頂点における前記センサ素子毎のX軸方向の実距離の変化率△Xaを式
△Xa=Za×tan(θx/2)/(Xnmr/2)
で求め、
 前記深度センサのY軸方向の視野角をθyとし、Y軸方向のセンサ素子の数をYnmrとしたとき、前記第1の頂点における前記センサ素子毎のY軸方向の実距離の変化率△Yaを式
△Ya=Za×tan(θy/2)/(Ynmr/2)
で求め、
 前記第1の頂点のX座標をXaとし、前記第1の頂点のX軸方向におけるセンサ素子の位置をXa-pixelとしたとき、前記第1の頂点のX座標を式
Xa=△Xa×((Xa-pixel)-Xnmr/2)
で求め、
 前記第1の頂点のY座標をYaとし、前記第1の頂点のY軸方向におけるセンサ素子の位置をYa-pixelとしたとき、前記第1の頂点のY座標を式
Ya=△Ya×((Ya-pixel)-Ynmr/2)
で求め、
 同様にして、前記第2の頂点、及び前記第3の頂点のX座標とY座標とを求める、
 付記2に記載の荷物計測装置。
(付記4)
 前記制御部は、前記荷物の深度画像データに基づいて、前記第1の頂点、前記第2の頂点、及び前記第3の頂点を特定する、
 付記1から3のいずれか1項に記載の荷物計測装置。
(付記5)
 さらに撮像装置を有し、
 前記制御部は、前記撮像装置で取得した画像の画像認識によって、前記第1の頂点、前記第2の頂点、及び前記第3の頂点を特定する、
 付記1から3のいずれか1項に記載の荷物計測装置。
(付記6)
 さらに表示部を有し、
 前記制御部は、前記載置台上の前記荷物を前記撮像装置に撮像させて前記荷物の画像を前記表示部に表示させ、前記荷物の前記第1の頂点、前記第2の頂点、及び前記第3の頂点の少なくとも1つを特定できない場合に、前記荷物の載置状態の訂正を促すメッセージを前記表示部に表示させる、
 付記5に記載の荷物計測装置。
(付記7)
 さらに前記載置台を有し、
 前記深度センサは、前記載置台に取り付けられている、
 付記1から6のいずれか1項に記載の荷物計測装置。
(付記8)
 さらに前記載置台内に重量計を有し、前記荷物の重量を測定し、結果を出力する、
 付記1から7のいずれか1項に記載の荷物計測装置。
(付記9)
 付記1から8のいずれか1項に記載の荷物計測装置と、情報取得装置と、精算装置と、を備え、
 前記情報取得装置が、前記荷物の配送に関する情報を取得し、
 前記荷物計測装置が、前記荷物のサイズ及び前記荷物の配送に関する情報に基づいて前記荷物の配送料金を算出し、
 前記精算装置が前記荷物の配送料金の精算を行う、
 荷物受付システム。
(付記10)
 載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、前記荷物のサイズを算出する荷物計測方法であって、
 載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
 前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
 前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、
 前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、
 前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
 前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、
 荷物計測方法。
(付記11)
 載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、コンピュータに、前記荷物のサイズを算出する算出処理を実行させるためのプログラムであって、
 前記算出処理は、
 載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
 前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
 前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、
 前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、
 前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
 前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、
 プログラム。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2019年11月14日に出願された日本出願特願2019-206130を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、100 荷物計測装置
1a 制御部
1b、11 深度センサ
11a カメラ付き深度センサ
10 タブレット端末
10a セルフPOS端末
10b 電子マネーリーダライタ(R/W)
12 載置台
13 センサ取付部
13a 支柱
13b センサ取付部材
14 重量計
21 深度加工部
22 背景深度部
23 頂点検出部
24 長さ算出部
25 出力部
101 プロセッサ、
102 メモリ、
103 入出力インタフェース、

Claims (11)

  1.  載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサと、
     前記深度センサから取得したデータに基づいて前記荷物のサイズを算出する制御手段と、
     を有し、
     前記制御手段は、
     載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
     前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
     前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、
     前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、
     前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
     前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、
     荷物計測装置。
  2.  前記制御手段は、
     前記深度センサの撮影方向をZ軸とし、前記Z軸と同一平面上にあり、前記Z軸と直交する方向をX軸とし、前記X軸及び前記Z軸と直交する方向をY軸としたとき、前記深度センサのX軸方向の視野角と、前記第1の頂点、前記第2の頂点、及び前記第3の頂点のZ軸方向の距離のデータとに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるX軸方向のZ軸から画像端までの実距離を求め、前記深度センサのY軸方向の視野角と、前記第1の頂点、前記第2の頂点、及び前記第3の頂点のZ軸方向の距離のデータとに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるY軸方向のZ軸から画像端までの実距離を求め、
     前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるX軸方向のZ軸から画像端までの実距離と、前記深度センサのX軸方向のセンサ素子の数とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるセンサ素子毎のX軸方向の実距離の変化率を求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるY軸方向のZ軸から画像端までの実距離と、前記深度センサのY軸方向のセンサ素子の数とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点におけるセンサ素子毎のY軸方向の実距離の変化率を求め、
     前記第1の頂点、前記第2の頂点、及び前記第3の頂点の、X軸方向におけるセンサ素子の位置と前記センサ素子毎のX軸方向の実距離の変化率とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点のX座標を求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の、Y軸方向におけるセンサ素子の位置と前記センサ素子毎のY軸方向の実距離の変化率とに基づいて、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点のY座標を求め、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標とする、
     請求項1に記載の荷物計測装置。
  3.  前記制御手段は、
     前記第1の頂点の前記深度センサからの距離のデータに基づいて、前記第1の頂点のZ座標をZaとし、前記深度センサのX軸方向の視野角をθxとし、X軸方向のセンサ素子の数をXnmrとしたとき、前記第1の頂点における前記センサ素子毎のX軸方向の実距離の変化率△Xaを式
    △Xa=Za×tan(θx/2)/(Xnmr/2)
    で求め、
     前記深度センサのY軸方向の視野角をθyとし、Y軸方向のセンサ素子の数をYnmrとしたとき、前記第1の頂点における前記センサ素子毎のY軸方向の実距離の変化率△Yaを式
    △Ya=Za×tan(θy/2)/(Ynmr/2)
    で求め、
     前記第1の頂点のX座標をXaとし、前記第1の頂点のX軸方向におけるセンサ素子の位置をXa-pixelとしたとき、前記第1の頂点のX座標を式
    Xa=△Xa×((Xa-pixel)-Xnmr/2)
    で求め、
     前記第1の頂点のY座標をYaとし、前記第1の頂点のY軸方向におけるセンサ素子の位置をYa-pixelとしたとき、前記第1の頂点のY座標を式
    Ya=△Ya×((Ya-pixel)-Ynmr/2)
    で求め、
     同様にして、前記第2の頂点、及び前記第3の頂点のX座標とY座標とを求める、
     請求項2に記載の荷物計測装置。
  4.  前記制御手段は、前記荷物の深度画像データに基づいて、前記第1の頂点、前記第2の頂点、及び前記第3の頂点を特定する、
     請求項1から3のいずれか1項に記載の荷物計測装置。
  5.  さらに撮像装置を有し、
     前記制御手段は、前記撮像装置で取得した画像の画像認識によって、前記第1の頂点、前記第2の頂点、及び前記第3の頂点を特定する、
     請求項1から3のいずれか1項に記載の荷物計測装置。
  6.  さらに表示手段を有し、
     前記制御手段は、前記載置台上の前記荷物を前記撮像装置に撮像させて前記荷物の画像を前記表示手段に表示させ、前記荷物の前記第1の頂点、前記第2の頂点、及び前記第3の頂点の少なくとも1つを特定できない場合に、前記荷物の載置状態の訂正を促すメッセージを前記表示手段に表示させる、
     請求項5に記載の荷物計測装置。
  7.  さらに前記載置台を有し、
     前記深度センサは、前記載置台に取り付けられている、
     請求項1から6のいずれか1項に記載の荷物計測装置。
  8.  さらに前記載置台内に重量計を有し、前記荷物の重量を測定し、結果を出力する、
     請求項1から7のいずれか1項に記載の荷物計測装置。
  9.  請求項1から8のいずれか1項に記載の荷物計測装置と、情報取得装置と、精算装置と、を備え、
     前記情報取得装置が、前記荷物の配送に関する情報を取得し、
     前記荷物計測装置が、前記荷物のサイズ及び前記荷物の配送に関する情報に基づいて前記荷物の配送料金を算出し、
     前記精算装置が前記荷物の配送料金の精算を行う、
     荷物受付システム。
  10.  載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、前記荷物のサイズを算出する荷物計測方法であって、
     載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
     前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
     前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、
     前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、
     前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
     前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、
     荷物計測方法。
  11.  載置台に載置された直方体形状の荷物を実質的に直上から撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、コンピュータに、前記荷物のサイズを算出する算出処理を実行させるためのプログラムであって、
     前記算出処理は、
     載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
     前記深度センサを制御し、前記載置台に載置された前記荷物を実質的に直上から撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
     前記荷物の深度画像データにおける前記荷物の上面までの前記深度センサからの距離のデータと前記荷物の背景深度画像データにおける前記載置台の上面までの前記深度センサからの距離のデータとに基づいて、前記荷物の高さを算出し、
     前記荷物の深度画像データ中で最も左側に位置する第1の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も上側に位置する、もしくは最も下側に位置する第3の頂点の位置と、を特定し、
     前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標を、前記深度センサの視野角と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点の前記深度センサからの距離のデータと、前記深度センサのセンサ素子の数と、それぞれ前記第1の頂点、前記第2の頂点、及び前記第3の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
     前記第1の頂点、前記第2の頂点、及び前記第3の頂点の2次元座標に基づいて、前記第1の頂点と前記第3の頂点との間の第1の辺の長さと、前記第2の頂点と前記第3の頂点との間の第2の辺の長さと、を算出し、算出した結果を出力する、
     プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2020/010237 2019-11-14 2020-03-10 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体 WO2021095281A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/775,389 US20220392095A1 (en) 2019-11-14 2020-03-10 Package measuring apparatus, package accepting system, package measuring method, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-206130 2019-11-14
JP2019206130A JP6798725B1 (ja) 2019-11-14 2019-11-14 荷物計測装置、荷物受付システム、荷物計測方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2021095281A1 true WO2021095281A1 (ja) 2021-05-20

Family

ID=73646804

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010237 WO2021095281A1 (ja) 2019-11-14 2020-03-10 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20220392095A1 (ja)
JP (1) JP6798725B1 (ja)
WO (1) WO2021095281A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6699872B2 (ja) * 2018-09-10 2020-05-27 Necプラットフォームズ株式会社 荷物計測装置、荷物受付システム、荷物計測方法、及びプログラム
JP7034448B1 (ja) * 2021-09-15 2022-03-14 株式会社Sayコンピュータ モバイル端末、及びモバイル端末を用いたサイズ測定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005114744A (ja) * 2005-01-26 2005-04-28 Penta Ocean Constr Co Ltd 運搬装置の土砂積載量の計測方法および装置
JP2011196860A (ja) * 2010-03-19 2011-10-06 Optex Co Ltd 距離画像カメラを用いた物体寸法測定方法および物体寸法測定装置
WO2017042747A2 (en) * 2015-09-11 2017-03-16 Mer Mec S.P.A. An apparatus for the determination of the features of at least a moving load
JP2018112521A (ja) * 2017-01-13 2018-07-19 株式会社オプトエレクトロニクス 寸法測定装置、測定機能付き情報読取装置及び寸法測定方法
JP2019028022A (ja) * 2017-08-03 2019-02-21 東芝テック株式会社 寸法測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005114744A (ja) * 2005-01-26 2005-04-28 Penta Ocean Constr Co Ltd 運搬装置の土砂積載量の計測方法および装置
JP2011196860A (ja) * 2010-03-19 2011-10-06 Optex Co Ltd 距離画像カメラを用いた物体寸法測定方法および物体寸法測定装置
WO2017042747A2 (en) * 2015-09-11 2017-03-16 Mer Mec S.P.A. An apparatus for the determination of the features of at least a moving load
JP2018112521A (ja) * 2017-01-13 2018-07-19 株式会社オプトエレクトロニクス 寸法測定装置、測定機能付き情報読取装置及び寸法測定方法
JP2019028022A (ja) * 2017-08-03 2019-02-21 東芝テック株式会社 寸法測定装置

Also Published As

Publication number Publication date
JP2021081196A (ja) 2021-05-27
JP6798725B1 (ja) 2020-12-09
US20220392095A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
CN106352790B (zh) 对物品进行尺寸量定和成像
US9390314B2 (en) Methods and apparatus for determining dimensions of an item using 3-dimensional triangulation
JP2017010535A (ja) 物品認識装置および画像処理方法
WO2021095281A1 (ja) 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体
US20190073839A1 (en) Package management system and method thereof
JP2015194424A (ja) 情報処理装置、情報処理方法、情報処理プログラムおよびその情報処理プログラムが記録された記録媒体
US10275735B2 (en) Sales data processing apparatus and method for executing data processing of article
JP6699872B2 (ja) 荷物計測装置、荷物受付システム、荷物計測方法、及びプログラム
JP7053064B2 (ja) 荷物受付システム及び荷物受付方法
JP2021018470A (ja) 物品特定装置及びプログラム
JP7067785B2 (ja) 情報処理システム、情報処理方法及びプログラム
EP3644011A1 (en) Package management system and method thereof
JP6660284B2 (ja) セルフチェックアウト装置
WO2023007667A1 (ja) 荷物受付システム、サーバ、荷物受付方法、及びコンピュータ可読媒体
JP2021076494A (ja) 寸法測定システム、寸法測定装置および寸法測定方法
JP2022052783A (ja) 設置調整システム
US20240104538A1 (en) Sales data processing apparatus and payment apparatus
JP6867521B2 (ja) 宅配システム
JP2002286420A (ja) 寸法測定機能を有する端末装置
WO2023188068A1 (ja) 商品数特定装置、商品数特定方法、及び記録媒体
JP2023018746A (ja) マーカー処理装置およびマーカーシート
JP2023027793A (ja) 荷物受付システム、および荷物受付システムの制御方法
TW202134768A (zh) 固定型之可進行資訊顯示及付款處理之終端裝置
JP2022084071A (ja) 情報処理システム
JP2021125205A (ja) 発送支援装置及び発送支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20888559

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20888559

Country of ref document: EP

Kind code of ref document: A1