WO2020054118A1 - 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体 - Google Patents

荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020054118A1
WO2020054118A1 PCT/JP2019/016702 JP2019016702W WO2020054118A1 WO 2020054118 A1 WO2020054118 A1 WO 2020054118A1 JP 2019016702 W JP2019016702 W JP 2019016702W WO 2020054118 A1 WO2020054118 A1 WO 2020054118A1
Authority
WO
WIPO (PCT)
Prior art keywords
vertex
package
image data
depth
luggage
Prior art date
Application number
PCT/JP2019/016702
Other languages
English (en)
French (fr)
Inventor
洋平 西
Original Assignee
Necプラットフォームズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necプラットフォームズ株式会社 filed Critical Necプラットフォームズ株式会社
Priority to US17/274,266 priority Critical patent/US11836941B2/en
Publication of WO2020054118A1 publication Critical patent/WO2020054118A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0834Choice of carriers
    • G06Q10/08345Pricing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/085Payment architectures involving remote charge determination or related payment systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Definitions

  • the present disclosure relates to a package measuring device, a package receiving system, a package measuring method, and a program.
  • ⁇ Delivery reception service is provided as a part of services at convenience stores.
  • the luggage is measured and the fee is calculated at the time of receiving the delivery in accordance with the acceptance standard and the fee standard of each delivery company.
  • the clerk receives the delivery object from the customer and measures the size. Then, the clerk calculates the fee by inputting such information to a POS (Point of Sale) terminal from a sheet in which the carrier, the delivery type, the delivery destination, and the like are described.
  • POS Point of Sale
  • Patent Literature 1 discloses a technique of photographing a luggage and measuring the size.
  • Patent Document 1 it is necessary to attach a reference label having a known size to a rectangular parallelepiped package in advance.
  • An object of the present disclosure is a luggage measuring device, a luggage receiving system, a luggage measuring method, and a program that can measure the size of luggage even if a reference label with a known size is not attached to the luggage in advance. Is to provide.
  • a depth sensor that is arranged at a position where three surfaces of the rectangular parallelepiped luggage placed on the mounting table can be photographed at the same time, and acquires a distance from the luggage by photographing the luggage;
  • a control unit that calculates the size of the package based on data acquired from the depth sensor, Has,
  • the control unit includes: The mounting table in the state where there is no mounted object, previously captured by the depth sensor and stored as background depth image data, The depth sensor is controlled to simultaneously photograph the three surfaces of the package placed on the mounting table to acquire depth image data of the package, and compare the depth image data of the package with the background depth image data.
  • a position of a first vertex which is shared by the three sides of the package and whose distance from the depth sensor is the shortest in the depth image data of the package, and a leftmost position in the depth image data of the package The position of the second vertex, the position of the third vertex located rightmost in the depth image data of the package, and the position of the fourth vertex located lowest in the depth image data of the package.
  • the space coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex in a space whose origin is the center of the depth sensor are represented by distance data from the depth sensor.
  • the first vertex, the second vertex, the third vertex, and the position data of the sensor element of the depth sensor corresponding to the fourth vertex A first side between the first vertex and the second vertex based on the spatial coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex Length of a second side between the first vertex and the third vertex, length of a third side between the first vertex and the fourth vertex, Is calculated and the result is output.
  • the luggage measuring method includes: Calculate the size of the package by using a depth sensor that is arranged at a position where three sides of the rectangular parallelepiped package placed on the mounting table can be photographed at the same time and captures the package and obtains the distance to the package.
  • Method of measuring luggage The mounting table in the state where there is no mounted object, previously captured by the depth sensor and stored as background depth image data, The depth sensor is controlled to simultaneously photograph the three surfaces of the package placed on the mounting table to acquire depth image data of the package, and compare the depth image data of the package with the background depth image data.
  • a position of a first vertex which is shared by the three sides of the package and whose distance from the depth sensor is the shortest in the depth image data of the package, and a leftmost position in the depth image data of the package The position of the second vertex, the position of the third vertex located rightmost in the depth image data of the package, and the position of the fourth vertex located lowest in the depth image data of the package.
  • the space coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex in a space whose origin is the center of the depth sensor are represented by distance data from the depth sensor.
  • the first vertex, the second vertex, the third vertex, and the position data of the sensor element of the depth sensor corresponding to the fourth vertex A first side between the first vertex and the second vertex based on the spatial coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex Length of a second side between the first vertex and the third vertex, length of a third side between the first vertex and the fourth vertex, Is calculated and the result is output.
  • a program includes: A depth sensor is provided at a position where three sides of the rectangular parallelepiped luggage placed on the mounting table can be photographed at the same time, and a depth sensor for photographing the luggage and acquiring a distance from the luggage is used.
  • a program for executing a calculation process for calculating a size, The calculation process includes: The mounting table in the state where there is no mounted object, previously captured by the depth sensor and stored as background depth image data, The depth sensor is controlled to simultaneously photograph the three surfaces of the package placed on the mounting table to acquire depth image data of the package, and compare the depth image data of the package with the background depth image data.
  • a position of a first vertex which is shared by the three sides of the package and whose distance from the depth sensor is the shortest in the depth image data of the package, and a leftmost position in the depth image data of the package The position of the second vertex, the position of the third vertex located rightmost in the depth image data of the package, and the position of the fourth vertex located lowest in the depth image data of the package.
  • the space coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex in a space whose origin is the center of the depth sensor are represented by distance data from the depth sensor.
  • the first vertex, the second vertex, the third vertex, and the position data of the sensor element of the depth sensor corresponding to the fourth vertex A first side between the first vertex and the second vertex based on the spatial coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex Length of a second side between the first vertex and the third vertex, length of a third side between the first vertex and the fourth vertex, Is calculated and the result is output.
  • a luggage measuring device capable of measuring the size of a luggage even if a reference label having a known size is not attached to the luggage in advance are provided. can do.
  • FIG. 3 is a functional block diagram illustrating the luggage measuring device of FIG. 2.
  • FIG. 3 is a flowchart for explaining an example of a baggage measuring process in the baggage measuring device of FIG. 2.
  • FIG. 5 is a schematic diagram for explaining an example of a vertex detection process in the package measurement process of FIG. 4.
  • FIG. 5 is a diagram illustrating an example of a coordinate system used in a vertex detection process in the package measurement process of FIG. 4.
  • FIG. 5 is a schematic diagram for explaining an example of a vertex detection process in the luggage measurement process of FIG.
  • FIG. 5 is a schematic diagram for explaining an example of a vertex detection process in the luggage measurement process of FIG. 4 based on a field of view of a depth sensor.
  • FIG. 5 is a schematic diagram for explaining an example of a vertex detection process in the luggage measurement process of FIG. 4 based on a field of view of a depth sensor.
  • FIG. 5 is a schematic diagram for explaining an example of a vertex detection process in the luggage measurement process of FIG. 4 based on a field of view of a depth sensor.
  • FIG. 11 is a schematic diagram illustrating a configuration example of a luggage receiving system including a luggage measuring device according to a third embodiment.
  • FIG. 12 is a flowchart illustrating an example of a luggage measurement process in the luggage measurement device of FIG. 11.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of the luggage measuring device.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of the luggage measuring device according to the first embodiment.
  • the luggage measuring device 1 according to the present embodiment includes a control unit 1a and a depth sensor 1b.
  • the luggage measuring device 1 is configured to calculate (measure) the size of the luggage based on data acquired by the depth sensor 1b using the depth sensor 1b. This calculation can be performed by the control unit 1a.
  • the depth sensor 1b is arranged at a position where three sides of a rectangular parallelepiped package placed on the mounting table can be photographed (detectable) at the same time, and the package is photographed (detected) to acquire the distance to the package. I do.
  • the depth sensor 1b may be a TOF (Time $ Of $ Flight) type sensor, but may be another measurement type such as a pattern irradiation type.
  • TOF Time $ Of $ Flight
  • infrared or the like can be used for measurement, but is not limited to this.
  • the luggage measuring device 1 can include the mounting table described above.
  • the depth sensor 1b can be attached to the mounting table, and it is needless to say that the depth sensor 1b is attached such that the imaging unit such as a lens is located at a position where the above three surfaces can be photographed simultaneously.
  • This mounting table is a table on which a rectangular parallelepiped luggage to be photographed by the depth sensor 1b is mounted.
  • the mounting table may have any shape, but basically has a flat mounting surface.
  • the control unit 1a calculates the size of the package based on the data acquired from the depth sensor 1b.
  • the control unit 1a can be realized by an integrated circuit (IC: Integrated Circuit).
  • the control unit 1a can also be realized by, for example, a CPU (Central Processing Unit), a work memory, and a nonvolatile storage device storing a program.
  • the control unit 1a previously photographs the mounting table with no object mounted thereon using the depth sensor 1b and stores the captured image as background depth image data.
  • the control unit 1a can have a storage device for this storage.
  • the storage device that stores the background depth image data and the storage device that stores the program can be the same storage device.
  • the control unit 1a controls the depth sensor 1b to simultaneously photograph three surfaces of the package placed on the mounting table and acquire depth image data of the package. Then, the control unit 1a specifies the baggage data (data corresponding to the baggage) in the baggage depth image data by comparing the depth image data of the baggage with the background depth image data.
  • the control unit 1a specifies the following first to fourth vertex positions.
  • the first vertex is a vertex that is shared by the three surfaces of the package and that is located at a position where the distance from the depth sensor 1b is shortest in the depth image data of the package.
  • the second vertex is the vertex located on the leftmost side in the depth image data of the package.
  • the third vertex is the vertex located on the rightmost side in the depth image data of the package.
  • the fourth vertex is the vertex located at the lowest position in the depth image data of the package.
  • the control unit 1a calculates the spatial coordinates of the first vertex in the space having the origin at the center of the depth sensor 1b by using the distance data from the depth sensor 1b and the sensor element of the depth sensor 1b corresponding to the first vertex. Determined based on the position data. Similarly, the control unit 1a calculates the spatial coordinates of the second to fourth vertices in the space having the origin at the center of the depth sensor 1b, the distance data from the depth sensor 1b, and the second to fourth vertices. Is obtained based on the position data of the sensor element of the depth sensor 1b corresponding to.
  • the control unit 1a determines the length of the first side, the length of the second side, based on the spatial coordinates of the first vertex, the second vertex, the third vertex, and the fourth vertex. And the length of the third side is calculated, and the result is output.
  • the first side refers to the side between the first vertex and the second vertex
  • the second side refers to the side between the first vertex and the third vertex
  • the third side An edge refers to an edge between the first vertex and the fourth vertex.
  • the result can be displayed on a separately provided display unit, and can be printed by a separately connected printing device. As in this example, the method of outputting the result does not matter.
  • the luggage measuring device 1 since the length of three sides of the rectangular parallelepiped luggage can be calculated using the depth sensor 1b, a reference label having a known size is previously attached to the luggage. Even if it is not attached, it becomes possible to measure the size of the package.
  • FIG. 2 is a schematic diagram illustrating a configuration example of a luggage measuring device according to the second embodiment
  • FIG. 3 is a functional block diagram illustrating the luggage measuring device of FIG.
  • the luggage measuring device includes a tablet terminal 10 including a control unit 1a, a depth sensor 11 as an example of a depth sensor 1b, and a mounting table (loading table) to which the depth sensor 11 is attached. Twelve.
  • the tablet terminal 10 is connected to the depth sensor 11 by wire or wirelessly, and can communicate with the depth sensor 11.
  • the tablet terminal 10 can have a communication interface for such connection.
  • the tablet terminal 10 may be a device called a mobile PC (Personal Computer), or may be a device such as a stationary PC or a mobile phone (including a device called a smartphone). Good.
  • the luggage measuring device shown in FIG. 2 is, for example, a device that measures the size of the luggage P to be delivered by the depth sensor 11, and is installed in a part of the luggage reception store in order to reduce the duties of the clerk at the luggage reception store. I can put it.
  • the luggage can be home delivery.
  • the luggage reception shop is not limited to a home delivery collection point operated by a home delivery company, and may be a store that has undertaken home delivery reception work such as a convenience store.
  • the customer places the package P for which delivery is requested on the mounting table 12, checks the size displayed on the tablet terminal 10 of the customer, makes a payment at the POS terminal in the store, and delivers the package to the clerk. It is possible to perform a home delivery service.
  • the customer installs the program (application software) on his / her tablet terminal 10.
  • the customer starts the measurement, for example, by pressing a measurement start software key mounted on the software with the software activated and the luggage P mounted on the mounting table 12. be able to.
  • the address and name of the destination can be input from the software, whereby the amount of money according to the delivery distance can be settled.
  • electronic settlement can also be performed in the customer's tablet terminal 10 for settlement.
  • the store can check the size of the package P placed by the customer or the clerk on the tablet terminal 10 of the store.
  • the depth sensor 11 can be a device that can acquire distance information of a captured range for each pixel (that is, for each sensor element).
  • the depth sensor 11 acquires a distance from a plane having the origin at the depth sensor 11 to the object.
  • the plane whose origin is the depth sensor is a plane orthogonal to the camera axis, with the imaging direction of the depth sensor as the camera axis (sensor axis).
  • the depth sensors 11 are installed obliquely so that three surfaces (see FIG. 5) of the package (rectangular solid) P placed on the table 12 can be photographed. To get the distance to.
  • the package P is assumed to be a rectangular parallelepiped, and if not, an error may be output, for example.
  • the tablet terminal 10 includes, as functional units corresponding to the control unit 1a, a depth processing unit 21, a background depth unit 22, a vertex detection unit 23, a length calculation unit (measurement unit or calculation unit) 24, and a screen output unit.
  • An output unit 25 can be provided.
  • These function units 21 to 25 can be realized by the CPU of the control unit 1a executing the software.
  • the depth processing unit 21 acquires data from the depth sensor 11 and stores the data.
  • the background depth unit 22 previously stores data obtained by photographing a state where nothing is placed on the mounting table 12.
  • the vertex detection unit 23 specifies the data of the package and the positions of the first to fourth vertices. Therefore, the vertex detection unit 23 compares the depth information stored in the background depth unit 22 with the depth information in a state where the package is present, extracts a changed part, and vertex information (first to fourth information) from the extracted data. ) Is detected.
  • the length calculation unit 24 calculates the distance between vertices (that is, the length of the first to third sides) from the information detected by the vertex detection unit 23, and passes the result to the output unit 25.
  • the output unit 25 outputs the result calculated by the length calculation unit 24 (that is, the measurement result of the baggage) to the outside, and also outputs information related to the operation.
  • the output unit 25 can be, for example, a display unit of the tablet terminal 10. Note that the output unit 25 may be a communication interface that outputs a measurement result to a printing device for printing on a cover sheet to be attached to the baggage P, for example.
  • FIG. 4 is a flowchart for explaining an example of the luggage measuring process in the luggage measuring device of FIG.
  • FIG. 5 is a schematic diagram for explaining an example of a vertex detection process in the luggage measurement process of FIG. 4
  • FIG. 6 is a diagram illustrating an example of a coordinate system used in the vertex detection process in the luggage measurement process of FIG. .
  • 7 to 10 are schematic diagrams for explaining an example of the vertex detection process in the luggage measurement process of FIG. 4 based on the field of view of the depth sensor.
  • the vertex detection unit 23 determines whether background data (background depth image data) is stored in advance in order to use a change in depth (distance to the object) to detect the object (package P). Confirm (step S1). If NO in step S1, that is, if the background depth image data is not stored, the vertex detection unit 23 controls the depth sensor 11 to acquire background depth data from the background depth unit 22 (step S2), and acquires Saved background depth image data (step S3).
  • background depth image data background depth image data
  • the vertex detection unit 23 controls the depth sensor 11 to acquire background depth data from the background depth unit 22 (step S2), and acquires Saved background depth image data (step S3).
  • the vertex detection unit 23 acquires depth data from the depth sensor 11 (Step S4).
  • the vertex detection unit 23 determines whether the package P has been placed on the mounting table 12 (whether the package P has been detected) by determining whether the depth of the acquired data has changed from the background depth image data. Is determined (step S5).
  • the vertex detection unit 23 determines that the package P is mounted on the mounting table 12 and extracts a point at which the depth has changed from the background depth of the depth sensor 11. The changed point is the point where the package P exists. Then, the vertex detector 23 detects the vertex of the package (object) P from the changed points (step S6).
  • step S6 first, four vertices A, B, C, and D as shown in FIG. 5 can be determined based on the depth image data on the baggage P extracted from the depth change of the depth sensor 11. Vertices A, B, C, and D indicate a first vertex, a second vertex, a third vertex, and a fourth vertex, respectively.
  • the four vertices A, B, C, and D may be detected by capturing an image of the package P by a camera (an image of the same area as the imaging area of the depth sensor 11) and acquiring the image by image recognition.
  • the depth sensor 11 may be a depth sensor with a camera (also referred to as a depth camera), or may be a camera provided separately from the depth sensor 11.
  • the baggage measuring device according to the present embodiment further includes an imaging device such as a camera, and the vertex detection unit 23 recognizes the first to fourth vertices by performing image recognition of an image acquired by the imaging device. It may be specified.
  • the vertex detection unit 23 recognizes the first to fourth vertices by performing image recognition of an image acquired by the imaging device. It may be specified.
  • the vertex detection unit 23 may output an error as described above, but the display unit of the tablet terminal 10 may correct the position of the baggage P.
  • the prompting message may be displayed together with the image of the package P. Examples of the message include a message urging movement or rotation so that three surfaces of the package P can be photographed.
  • this display unit can be an example of the output unit 25, and such display control can be performed by a part of the control unit 1a in FIG. In this case, although not shown, the vertex detection unit 23 and the output unit 25 are connected in FIG.
  • the vertex detection unit 23 captures the package P on the mounting table 12 and displays the image of the package P on the display unit.
  • a message urging correction of the placement state of the package P may be displayed on the display unit.
  • the luggage measuring device can include an imaging device such as a camera in the depth sensor 11 (or separately from the depth sensor 11), and the image of the luggage P captured by the imaging device is stored in the tablet terminal 10 May be configured to be displayed on the display unit.
  • the depth sensor 11 is installed so as to obtain an image of the package P as shown in FIG.
  • the depth sensor 11 obtains the distance from the plane having the origin at the depth sensor 11 to the object. Therefore, the vertex detection unit 23 can obtain the data of the actual distance from the depth sensor 11 for a certain point in the imaging region (depth image) of the depth sensor 11. Further, the vertex detection unit 23 receives, from the depth sensor 11, data on which sensor element corresponds to which sensor element (which pixel) in the imaging area (depth image) of the depth sensor 11, that is, the depth sensor of a certain point. Can be obtained in the shooting area (depth image).
  • the vertex detection unit 23 compares the data of the distance when the package P is not placed with the data of the distance when the package P is placed, so that the location of the package P in the imaging area of the depth sensor is determined. You can get what is located. As a result, the vertex detection unit 23 can specify the data of the distance of each point of the baggage P from the plane whose origin is the depth sensor 11. Then, the vertex detection unit 23 can determine the point closest to the depth sensor 11 as the vertex A, which is the intersection of the three surfaces of the package. Further, the vertex detection unit 23 can determine the point located on the leftmost side as the vertex B, determine the point located on the rightmost side as the vertex C, and determine the point located on the lowermost side as the vertex D. . Note that the vertices A, B, C, and D need not be determined in the order described above.
  • step S6 the length calculator 24 measures the size of the package P (step S7).
  • a method of measuring the size of the luggage in step S7, that is, calculating the actual dimensions of the side AB, the side AC, and the side AD will be described.
  • the center of the depth sensor 11 is set as the origin
  • the camera axis direction is set as the Z axis
  • the direction orthogonal to the Z axis is the X axis
  • the X axis and the Z axis are The orthogonal direction is defined as the Y axis.
  • the spatial coordinates of the points A, B, C, and D are A (Xa, Ya, Za), B (Xb, Yb, Zb), C (Xc, Yc, Zc), and D (Xd, Yd, Zd). . Za, Zb, Zc, and Zd are obtained from the data of the depth sensor 11.
  • the actual distance Yamaxp to the end of the image at the point A can be calculated from the following equation, as can be seen from FIGS. .
  • Ymaxp Zaxtan ( ⁇ y / 2)
  • the resolution of the depth image is 640 pixels in the X-axis direction and 480 pixels in the Y-axis direction.
  • No. 639 (sensor element) are arranged, and No. 639 is arranged in the Y-axis direction. 0 to No. This means that 479 pixels (sensor elements) are arranged.
  • Xamaxp is equivalent to the distance from the origin (center of the image) to the 640th pixel (No. 639), and Ymaxp is the distance from the origin (the center of the image) to the 480th pixel (No. 479). Is equivalent to
  • Xa ⁇ Xa ⁇ ((Xa-pixel) ⁇ 640/2)
  • Ya ⁇ Ya ⁇ ((Ya-pixel) ⁇ 480/2)
  • Xb and Yb of point B, Xc and Yc of point C, and Xd and Yd of point D can be calculated.
  • the length of the side AB can be calculated by the following equation. ⁇ ((Xb-Xa) 2 + (Yb-Ya) 2 + (Zb-Za) 2 )
  • the lengths of the sides AC and AD can be calculated.
  • the output unit 25 outputs the measurement result of the size of the package P obtained from the length calculation unit 24 (step S8).
  • the output of the measurement result includes, for example, displaying the measurement result on the screen of the tablet terminal 10, printing and discharging the measurement result from a printer (not shown), and the like.
  • the output unit 25 can transmit the measurement result to another device (such as a POS terminal) not shown.
  • the luggage measuring device exhibiting the effects of the first embodiment is installed in a store or the like, the luggage can be measured at low cost, efficiently, and easily. Therefore, according to the present embodiment, it is possible to reduce the work of retail stores and the like, and it is also possible for the customer to perform delivery baggage reception by himself. In recent years, with the increase in online shopping and transactions between individuals, the use of delivery services by general users has increased, and thus the effect of this embodiment is beneficial.
  • FIG. 11 is a schematic diagram illustrating a configuration example of a luggage receiving system including the luggage measurement device according to the third embodiment.
  • FIG. 12 is a flowchart illustrating an example of a luggage measurement process in the luggage measurement device of FIG. It is.
  • the baggage receiving system is a system that receives a package P to be delivered, and includes the package measuring device described in the second embodiment and the payment device that setstle the delivery fee. be able to.
  • the settlement apparatus may be an electronic money reader / writer (R / W) 10b as exemplified below, or may be another apparatus.
  • the settlement device may include a server device separately connected to a network.
  • the luggage measuring device has a weighing scale 13 in the mounting table 12.
  • the weight scale 13 measures the weight of the baggage P and outputs the result to the self-POS terminal 10a.
  • the self POS terminal 10a is a part of the luggage measuring device in the present embodiment, and is an example of a terminal provided in place of the tablet terminal 10.
  • the luggage receiving system can include an imaging device exemplified by a camera.
  • a depth sensor 11a with a camera is provided as shown in FIG. 12
  • the self POS terminal 10a controls the camera of the camera-incorporated depth sensor 11a to image a slip (such as an invoice) stating the delivery information on the delivery, which is attached to the package P, and displays the information on the delivery of the package P in characters. It can be obtained by a recognition process or the like.
  • the self POS terminal 10a calculates the delivery fee of the package P based on the size and weight of the package P and information on the delivery of the package P, and outputs the delivery fee to the electronic money R / W 10b. it can. Then, the electronic money R / W 10b adjusts the delivery fee of the package P.
  • the luggage receiving system can measure the weight by the weighing scale 13 in addition to the size of the luggage, and recognizes the information of the slip attached to the luggage P by character recognition.
  • the second embodiment differs from the second embodiment in that the delivery fee is calculated using the electronic money and the payment is made using electronic money.
  • the self-POS terminal 10a measures the load P on the mounting table 12 while controlling the depth sensor 11 in its control unit, and outputs the measurement result.
  • the weight of the package P is also measured (step S14).
  • steps S11 to S13 and S15 to S18 in FIG. 12 correspond to steps S1 to S3 and S5 to S8 in FIG. 4, respectively.
  • step S15 it may be determined that the baggage P has been detected based on the fact that the weight is detected by the weight scale 13.
  • the customer places the package P on which the slip is attached so that the slip is included in the photographing range in order to read the character information with the camera-incorporated depth sensor 11a.
  • the customer places the baggage P as if the slip was pasted on any of the three photographable surfaces.
  • the reading of the character information of the slip may be performed by a camera separate from the depth sensor.
  • you may make it acquire the information of the dispatch origin of the package P (namely, information of a customer).
  • the delivery fee for a package is calculated based on information on the package size, shipping destination (distance to the shipping destination), and shipping method.
  • the size and weight of the luggage are measured by the camera-equipped depth sensor 11a and the weighing scale 13, and the destination and the shipping method can be read from the camera-equipped depth sensor 11a. Then, in the present system, based on the read information, the delivery fee of the package can be determined by referring to a fee table stored in advance in the self-POS terminal 10a.
  • the customer then pays the fee using the electronic money R / W 10b connected to the self-POS terminal 10a.
  • an IC card or a tablet terminal with an IC card function possessed by the customer can be used.
  • a receipt and a store copy slip are output from a printing device installed in the store, and the customer passes the package and the store copy to the store clerk.
  • the settlement is performed by electronic money.
  • a change machine having a bill handling device and a coin handling device may be connected to the self-POS terminal so that the settlement can be performed by cash. Good. Further, both the electronic money R / W and the change machine may be provided.
  • the present embodiment similarly to the first and second embodiments, even if a reference label having a known size is not attached to the package in advance, not only can the size of the package be measured, Since the settlement is also performed by the customer, the burden on the clerk can be reduced. Further, according to the present embodiment, it is not necessary to manually input the destination of the package, the delivery date, the delivery method, and the like, so that it is possible to prevent an error in inputting such information.
  • the self-POS terminal 10a operated by the customer is provided, a POS terminal operated by a clerk may be used.
  • the settlement apparatus can also be a POS terminal.
  • the weight scale 13 for measuring the weight of the load P is provided.
  • the weight scale 13 may not be provided.
  • the size of the package P is calculated by the self POS terminal 10a.
  • the size of the package P is calculated by the customer's tablet terminal in the second embodiment, and the size of the package P is calculated from the tablet terminal to the self POS terminal 10a.
  • the size data may be transmitted.
  • the tablet terminal may be configured to be able to communicate with the depth sensor 11 (and the weight scale 13) and the self-POS terminal 10a.
  • the luggage receiving system may include another type of information acquisition device that acquires delivery information, for example, a short-range wireless communication device, instead of the imaging device. If such a short-range wireless communication device is provided and a readable medium such as an RFID (radio frequency identifier) tag is attached to the package P, the delivery information can be obtained.
  • a short-range wireless communication device is provided and a readable medium such as an RFID (radio frequency identifier) tag is attached to the package P, the delivery information can be obtained.
  • RFID radio frequency identifier
  • FIG. 13 is a diagram illustrating an example of a hardware configuration of the luggage measuring device according to the first to third embodiments. The same applies to the other embodiments [a].
  • the luggage measuring device 100 shown in FIG. 13 has a processor 101, a memory 102, and an input / output interface 103 for the depth sensor 1b (11) and the like.
  • the functions of the control unit 1a or the functions of the function units 21 to 25 in the luggage measuring devices described in the first to third embodiments are realized by the processor 101 reading and executing a program stored in the memory 102.
  • This program can be a program for causing the processor 101 to function as the control unit 1a, as described above.
  • this program can include a program for realizing at least one function of the function units 21 to 25.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), and magneto-optical recording media (eg, magneto-optical disks).
  • this example includes a CD-ROM (Read Only Memory), a CD-R, and a CD-R / W.
  • this example includes a semiconductor memory (for example, a mask ROM, a PROM (Programmable @ ROM), an EPROM (Erasable @ PROM), a flash ROM, and a RAM (Random @ Access @ Memory)).
  • the program may be supplied to the computer by various types of transitory computer readable media.
  • Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • Transitory computer readable media can provide the program to a computer via a wired communication line such as an electric wire and an optical fiber, or a wireless communication line.
  • the present disclosure also takes a form as a luggage measuring method of calculating the size of the luggage using the above-described depth sensor. obtain.
  • the above program is a program for causing a computer to execute the above-described luggage measuring method.
  • present disclosure is not limited to the above embodiment, and can be appropriately modified without departing from the gist.
  • present disclosure may be implemented by appropriately combining the embodiments.
  • Control unit 1b 11 Depth sensor 11a Depth sensor with camera 10 Tablet terminal 10a Self-POS terminal 10b Electronic money reader / writer (R / W) 12 mounting table 13 weighing machine 21 depth processing unit 22 background depth unit 23 vertex detection unit 24 length calculation unit 25 output unit 101 processor 102 memory 103 input / output interface

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

予め荷物にサイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定可能にする。荷物計測装置は、載置台上の直方体形状の荷物の3面を撮影して荷物との距離を取得する深度センサ、及び制御部を有する。制御部は、載置台上の荷物の3面を同時に撮影し荷物の深度画像データを取得し、背景深度画像データとの比較によって深度画像データにおける荷物のデータを特定する。制御部は、荷物の3面が共有し深度画像データ中で深度センサからの距離が最短の第1頂点、最も左側、右側、下側に位置する3頂点の位置を特定する。制御部は、深度センサの中心を原点とする空間における4頂点の空間座標を、深度センサからの距離のデータと4頂点に対応する深度センサのセンサ素子の位置データとに基づいて求める。制御部は、4つの頂点の空間座標に基づいて第1頂点と他の3頂点との間の3辺の長さを算出して結果を出力する。

Description

荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体
 本開示は、荷物計測装置、荷物受付システム、荷物計測方法、及びプログラムに関する。
 コンビニエンスストアなどで、サービスの一環として配送の受付サービスが提供されている。この際、店舗では、各配送業者の受付基準、料金基準に合わせ、配送受付時に荷物の測定及び料金の算出を行う。具体的には、店員は、顧客から配送対象物を受け取り、サイズの測定を行う。そして、店員は、運送業者、配送種別、配送先などが記載された用紙から、それらの情報をPOS(Point of sale)端末に入力して料金を算出し、精算を行っている。
 店員にとって、荷物のサイズの測定は煩雑であり、時間も要する。これに対し、例えば、特許文献1には、荷物を撮影してサイズを測定する技術が開示されている。
特開2015-194424号公報
 しかしながら、特許文献1に記載の技術では、予め、直方体形状の荷物に、サイズが既知である基準ラベルを貼付しておく必要がある。
 本開示の目的は、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することが可能な荷物計測装置、荷物受付システム、荷物計測方法、及びプログラムを提供することにある。
 本開示の第1の態様に係る荷物計測装置は、
 載置台に載置された直方体形状の荷物の3面を同時に撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサと、
 前記深度センサから取得したデータに基づいて前記荷物のサイズを算出する制御部と、
 を有し、
 前記制御部は、
 載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
 前記深度センサを制御し、前記載置台に載置された前記荷物の3面を同時に撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
 前記荷物の前記3面が共有し、前記荷物の深度画像データ中で前記深度センサからの距離が最も短い位置にある第1の頂点の位置と、前記荷物の深度画像データ中で最も左側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第3の頂点の位置と、前記荷物の深度画像データ中で最も下側に位置する第4の頂点の位置と、を特定し、
 前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標を、前記深度センサからの距離のデータと、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
 前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標に基づいて、前記第1の頂点と前記第2の頂点との間の第1の辺の長さと、前記第1の頂点と前記第3の頂点との間の第2の辺の長さと、前記第1の頂点と前記第4の頂点との間の第3の辺の長さと、を算出して結果を出力する、ものである。
 本開示の第2の態様に係る荷物計測方法は、
 載置台に載置された直方体形状の荷物の3面を同時に撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、前記荷物のサイズを算出する荷物計測方法であって、
 載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
 前記深度センサを制御し、前記載置台に載置された前記荷物の3面を同時に撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
 前記荷物の前記3面が共有し、前記荷物の深度画像データ中で前記深度センサからの距離が最も短い位置にある第1の頂点の位置と、前記荷物の深度画像データ中で最も左側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第3の頂点の位置と、前記荷物の深度画像データ中で最も下側に位置する第4の頂点の位置と、を特定し、
 前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標を、前記深度センサからの距離のデータと、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
 前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標に基づいて、前記第1の頂点と前記第2の頂点との間の第1の辺の長さと、前記第1の頂点と前記第3の頂点との間の第2の辺の長さと、前記第1の頂点と前記第4の頂点との間の第3の辺の長さと、を算出して結果を出力する、ものである。
 本開示の第3の態様に係るプログラムは、
 載置台に載置された直方体形状の荷物の3面を同時に撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、コンピュータに、前記荷物のサイズを算出する算出処理を実行させるためのプログラムであって、
 前記算出処理は、
 載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
 前記深度センサを制御し、前記載置台に載置された前記荷物の3面を同時に撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
 前記荷物の前記3面が共有し、前記荷物の深度画像データ中で前記深度センサからの距離が最も短い位置にある第1の頂点の位置と、前記荷物の深度画像データ中で最も左側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第3の頂点の位置と、前記荷物の深度画像データ中で最も下側に位置する第4の頂点の位置と、を特定し、
 前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標を、前記深度センサからの距離のデータと、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
 前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標に基づいて、前記第1の頂点と前記第2の頂点との間の第1の辺の長さと、前記第1の頂点と前記第3の頂点との間の第2の辺の長さと、前記第1の頂点と前記第4の頂点との間の第3の辺の長さと、を算出して結果を出力する、ものである。
 本開示により、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することが可能な荷物計測装置、荷物受付システム、荷物計測方法、及びプログラムを提供することができる。
実施形態1に係る荷物計測装置の一構成例を示す機能ブロック図である。 実施形態2に係る荷物計測装置の一構成例を示す模式図である。 図2の荷物計測装置を示す機能ブロック図である。 図2の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。 図4の荷物計測処理における頂点検出処理の一例を説明するための模式図である。 図4の荷物計測処理における頂点検出処理で用いる座標系の一例を示す図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。 実施形態3に係る荷物計測装置を含む荷物受付システムの一構成例を示す模式図である。 図11の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。 荷物計測装置のハードウェア構成の一例を示す図である。
 以下、図面を参照して、実施形態について説明する。なお、実施形態において、同一又は同等の要素には、同一の符号を付し、重複する説明は省略される。
<実施形態1>
 図1は、実施形態1に係る荷物計測装置の一構成例を示す機能ブロック図である。
 図1に示すように、本実施形態に係る荷物計測装置1は、制御部1a及び深度センサ1bを有する。荷物計測装置1は、深度センサ1bを用い、深度センサ1bで取得されたデータに基づいて荷物のサイズを算出(計測)することができるように構成されている。この算出を制御部1aが担うことができる。
 深度センサ1bは、載置台に載置された直方体形状の荷物の3面を同時に撮影可能(検出可能)である位置に配置され、その荷物を撮影(検出)してその荷物との距離を取得する。深度センサ1bは、TOF(Time Of Flight)方式のセンサとすることができるが、パターン照射方式など他の計測方式であってもよい。また、計測には赤外線等を用いることができるが、これに限ったものではない。
 また、図1では示さないが、本実施形態に係る荷物計測装置1は、上記の載置台を有することができる。この場合、深度センサ1bは、この載置台に取り付けておくことができ、無論、上記3面を同時に撮影可能な位置にレンズ等の撮像部が位置するように取り付けられることとなる。この載置台は、深度センサ1bで撮影する直方体形状の荷物を載置する台であり、その形状は問わないが、基本的に平面状の載置面を有するものとする。
 制御部1aは、深度センサ1bから取得したデータに基づいてその荷物のサイズを算出する。例えば、制御部1aは集積回路(IC:Integrated Circuit)によって実現することができる。また、制御部1aは、例えば、CPU(Central Processing Unit)、作業用メモリ、及びプログラムを記憶した不揮発性の記憶装置などによって実現することもできる。
 制御部1aにおける具体的なサイズ算出処理について説明する。
 制御部1aは、載置物がない状態の載置台を、予め深度センサ1bで撮影して背景深度画像データとして記憶しておく。制御部1aはこの記憶のための記憶装置を有することができる。なお、背景深度画像データを記憶する記憶装置と上記プログラムを記憶する記憶装置とは同じ記憶装置とすることができる。
 また、制御部1aは、深度センサ1bを制御し、載置台に載置された荷物の3面を同時に撮影してその荷物の深度画像データを取得する。そして、制御部1aは、その荷物の深度画像データと背景深度画像データとの比較によって、その荷物の深度画像データにおける荷物のデータ(荷物に対応する部分のデータ)を特定する。
 さらに、制御部1aは、次のような第1~第4の頂点の位置を特定する。第1の頂点は、荷物の上記3面が共有し、その荷物の深度画像データ中で深度センサ1bからの距離が最も短い位置にある頂点とする。第2の頂点は、その荷物の深度画像データ中で最も左側に位置する頂点とする。第3の頂点は、その荷物の深度画像データ中で最も右側に位置する頂点とする。第4の頂点は、その荷物の深度画像データ中で最も下側に位置する頂点とする。
 制御部1aは、深度センサ1bの中心を原点とする空間における、第1の頂点の空間座標を、深度センサ1bからの距離のデータと、第1の頂点に対応する深度センサ1bのセンサ素子の位置データとに基づいて求める。同様に、制御部1aは、深度センサ1bの中心を原点とする空間における、第2~第4の頂点の空間座標を、深度センサ1bからの距離のデータと、それぞれ第2~第4の頂点に対応する深度センサ1bのセンサ素子の位置データとに基づいて求める。
 そして、制御部1aは、第1の頂点、第2の頂点、第3の頂点、及び第4の頂点の空間座標に基づいて、第1の辺の長さ、第2の辺の長さ、及び第3の辺の長さを算出して、結果を出力する。ここで、第1の辺は第1の頂点と第2の頂点との間の辺を指し、第2の辺は第1の頂点と第3の頂点との間の辺を指し、第3の辺は第1の頂点と第4の頂点との間の辺を指す。なお、結果は、別途設けた表示部へ表示させることができ、また別途接続された印刷装置で印刷させることができる。この例のように、結果の出力方法は問わない。
 本実施形態に係る荷物計測装置1によれば、深度センサ1bを用いて直方体形状の荷物の3辺の長さを算出することができるため、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することが可能になる。
<実施形態2>
 実施形態2について、図2~図10を併せて参照しながら、実施形態1との相違点を中心に説明するが、実施形態1で説明した様々な例が適用できる。図2は、実施形態2に係る荷物計測装置の一構成例を示す模式図で、図3は、図2の荷物計測装置を示す機能ブロック図である。
 図2に示すように、本実施形態に係る荷物計測装置は、制御部1aを含むタブレット端末10、深度センサ1bの一例としての深度センサ11、及び深度センサ11が取り付けられた載置台(荷台)12を有することができる。
 タブレット端末10は、深度センサ11と有線又は無線で接続され、深度センサ11と通信が可能になっている。タブレット端末10は、このような接続のための通信インタフェース等を有することができる。なお、タブレット端末10は、モバイルPC(Personal Computer)と称されるものであってもよく、また、設置型のPC、携帯電話機(スマートフォンと称されるものも含む)等の装置であってもよい。
 図2に示す荷物計測装置は、例えば、配送する荷物Pの大きさを深度センサ11で測定する装置であり、荷物受付店の店員の業務を軽減するために、店の一画に設置しておくことができる。荷物は宅配物とすることができる。また、荷物受付店は、宅配業者が運営する宅配物の収集所に限らず、コンビニエンスストアなどの宅配物受付業務を請け負った店舗であってもよい。
 例えば、顧客は、配送を依頼する荷物Pを載置台12に置き、自身のタブレット端末10に表示されたサイズを確認して、店舗内のPOS端末にて精算し、荷物を店員に引き渡す、といった具合に宅配物受付業務を行うことができる。その際、顧客は、自身のタブレット端末10に上記プログラム(アプリケーションソフトウェア)をインストールしておく。そして、顧客は、そのソフトウェアを起動させた状態で且つ荷物Pを載置台12に載置した状態で、そのソフトウェアに実装された計測開始用のソフトウェアキーを押下するなどして、計測を開始させることができる。また、精算前には、届け先の住所及び氏名をそのソフトウェアから入力しておくことができ、これにより配送距離に応じた金額を精算することができる。なお、精算についても顧客のタブレット端末10において電子決済を行うこともできる。
 無論、宅配物受付業務は、店舗側が店舗のタブレット端末10において、顧客又は店員が載置した荷物Pのサイズの確認などを行うようにすることもできる。
 次に、本実施形態における荷物の計測に関して説明する。
 深度センサ11は、撮影した範囲の距離情報をピクセル毎に(つまりセンサ素子毎に)取得できるデバイスとすることができる。深度センサ11は、深度センサ11を原点とする平面から対象物までの距離を取得する。深度センサを原点とする平面とは、深度センサの撮影方向をカメラ軸(センサ軸)として、カメラ軸に直交する平面である。
 深度センサ11は、図2に示すように、載置台12に載置された荷物(直方体)Pの3面(図5参照)を撮影できるように斜めに設置されており、荷物Pの各点までの距離を取得する。なお、荷物Pは、直方体であることを前提とし、そうでない場合には例えばエラー出力するなどで対応すればよい。
 タブレット端末10は、制御部1aに対応する機能部として、深度加工部21、背景深度部22、頂点検出部23、長さ算出部(計測部又は計算部)24、及び、画面出力部等の出力部25を有することができる。これらの機能部21~25は、制御部1aのCPUが上記ソフトウェアを実行することによって、実現することができる。
 深度加工部21は、深度センサ11からデータを取得し、記憶する。背景深度部22は、予め載置台12に何も置かれていない状態を撮影して取得したデータを保存しておく。頂点検出部23は、荷物のデータ及び第1~第4の頂点の位置を特定する。そのため、頂点検出部23は、背景深度部22に保存された深度情報と荷物がある状態の深度情報を比較して、変化した部分を抽出し、抽出したデータから頂点情報(第1~第4の頂点を示す情報)を検出する。
 長さ算出部24は、頂点検出部23で検出された情報から、頂点間の距離(つまり第1~第3の辺の長さ)を算出し、出力部25にその結果を渡す。出力部25は、長さ算出部24で算出された結果(つまり荷物の計測結果)を外部に出力するとともに、操作に関する情報などを出力する。出力部25は、例えば、タブレット端末10の表示部とすることができる。なお、出力部25は、計測結果を出力するために、例えば荷物Pに貼り付ける送付状に印刷するための印刷装置に出力する通信インタフェースとすることもできる。
 次に、図4~図10を併せて参照しながら、本実施形態に係る荷物計測装置の動作例について説明する。図4は、図2の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。図5は、図4の荷物計測処理における頂点検出処理の一例を説明するための模式図で、図6は、図4の荷物計測処理における頂点検出処理で用いる座標系の一例を示す図である。図7~図10は、図4の荷物計測処理における頂点検出処理の一例を深度センサの視界に基づき説明するための模式図である。
 まず、頂点検出部23は、対象物(荷物P)の検出に、深度(対象物までの距離)の変化を利用するため、事前に背景のデータ(背景深度画像データ)が保存されているかを確認する(ステップS1)。ステップS1でNOの場合、つまり背景深度画像データが保存されていない場合、頂点検出部23は、深度センサ11を制御し、背景深度部22から背景深度データを取得して(ステップS2)、取得した背景深度画像データを保存する(ステップS3)。なお、ここでは、深度が変化した場合をトリガーとして荷物Pの計測を開始する例を挙げて説明するが、例えば顧客(又は店員)の操作をトリガーとすることもできる。
 頂点検出部23は、深度センサ11から深度のデータを取得する(ステップS4)。頂点検出部23は、取得されたデータにおいて深度が背景深度画像データから変化したか否かを判定することで、荷物Pが載置台12に載置されたか(荷物Pが検出されたか)否かを判定する(ステップS5)。
 頂点検出部23は、深度が変化した場合、荷物Pが載置台12に載置されたと判断して、深度センサ11の背景深度から深度が変化したポイントを抽出する。変化したポイントが、荷物Pが存在するポイントである。そして、頂点検出部23は、変化したポイントの中から荷物(対象物)Pの頂点を検出する(ステップS6)。ステップS6では、まず、深度センサ11の深度変化から抽出された荷物Pに関する深度画像データに基づいて、図5に示すような4箇所の頂点A,B,C,Dを決定することができる。頂点A,B,C,Dは、それぞれ第1の頂点、第2の頂点、第3の頂点、第4の頂点を指している。
 また、4箇所の頂点A,B,C,Dは、カメラにより荷物Pを撮像(深度センサ11の撮影領域と同じ領域を撮像)して画像を取得し、画像認識によって検出することとしてもよい。このカメラは、深度センサ11をカメラ付き深度センサ(深度カメラとも称する)としてもよいし、もしくは深度センサ11とは別に設けたカメラとしてもよい。このように、本実施形態に係る荷物計測装置は、さらにカメラ等の撮像装置を有し、頂点検出部23は、この撮像装置で取得した画像の画像認識によって、第1~第4の頂点を特定するようにしてもよい。なお、深度センサ11の深度画像における荷物の領域と、カメラの画像における荷物の領域とを重ねることによって、カメラの画像における4頂点が、深度センサ11の深度画像においてどのポイントに相当するかを知ることが可能である。
 また、頂点検出部23は、深度変化から4箇所の頂点が検出できない場合、上述したようにエラー出力を行ってもよいが、タブレット端末10の表示部に、荷物Pの位置を訂正するように促すメッセージを、荷物Pの画像とともに表示するようにしてもよい。このメッセージとしては、荷物Pの3面が撮影できるように移動又は回転を促すメッセージなどが挙げられる。なお、この表示部は、出力部25の一例とすることができ、このような表示制御は図1の制御部1aの一部が担うことができる。また、この場合、図示しないが、図3において頂点検出部23と出力部25とが接続されていることになる。
 このように、頂点検出部23は、載置台12上の荷物Pを撮像して荷物Pの画像を表示部に表示させるとともに、荷物Pの頂点A~Dの少なくとも1つを特定できない場合に、荷物Pの載置状態の訂正を促すメッセージを表示部に表示させるようにしてもよい。
 また、荷物Pの画像は、頂点A~Dの全てが検出される場合にも表示部に表示させてもよい。つまり、本実施形態に係る荷物計測装置は、深度センサ11に(又は深度センサ11とは別に)カメラ等の撮像装置を有することができ、その撮像装置で撮像した荷物Pの画像をタブレット端末10の表示部に表示させるように構成しておくこともできる。
 ここで、図5を参照して、荷物Pの4つの頂点を決定する決定処理の一例について説明する。深度センサ11は、図5のような荷物Pの画像が得られるように設置されている。前述したように、深度センサ11は、深度センサ11を原点とする平面から対象物までの距離を取得する。従って、頂点検出部23は、深度センサ11からは、深度センサ11の撮影領域(深度画像)中のあるポイントについて、実距離のデータを得ることができる。また、頂点検出部23は、深度センサ11から、深度センサ11の撮影領域(深度画像)中のあるポイントがどのセンサ素子に(どのピクセルに)対応するかのデータ、即ち、あるポイントの深度センサの撮影領域(深度画像)中の位置データを得ることができる。
 頂点検出部23は、荷物Pを載置していないときの距離のデータと荷物Pを載置したときの距離のデータとを比較することによって、深度センサの撮影領域の中のどこに荷物Pが位置しているかを得ることができる。その結果、頂点検出部23は、荷物Pの各ポイントにおける深度センサ11を原点とする平面からの距離のデータを特定することができる。そして、頂点検出部23は、深度センサ11から最も近い距離にあるポイントを、荷物の3面の交点である頂点Aとして決定することができる。また、頂点検出部23は、最も左側に位置するポイントを頂点Bとして決定し、最も右側に位置するポイントを頂点Cとして決定し、最も下側に位置するポイントを頂点Dとして決定することができる。なお、頂点A,B,C,Dの決定は、上述の順番でなくともよい。
 ステップS6に続き、長さ算出部24は、荷物Pのサイズを計測する(ステップS7)。ステップS7における、荷物のサイズの計測、即ち、辺AB、辺AC、辺ADの実際の寸法を算出する方法について説明する。
 図6に示すように、深度センサ11の中心を原点とし、カメラ軸方向をZ軸とし、Z軸と同一平面上にあり、Z軸と直交する方向をX軸とし、X軸及びZ軸と直交する方向をY軸とする。
 辺AB、辺AC、辺ADの実際の寸法を算出するためには、上記X軸、Y軸、Z軸の空間における点A,B,C,Dの空間座標を特定する必要がある。点A,B,C,Dの空間座標を、A(Xa,Ya,Za)、B(Xb,Yb,Zb)、C(Xc,Yc,Zc)、D(Xd,Yd,Zd)とする。Za,Zb,Zc,Zdについては、深度センサ11のデータから得られている。
 図7~図10を参照して、点Aの空間座標であるXa、Yaの算出方法について説明する。
 深度センサ11のX軸方向の視野角をθx(度)とすると、点Aにおける画像の端までの実距離Xamaxpは、図7及び図9から分かるように、以下の式から算出できる。
  Xamaxp=Za×tan(θx/2)
 また、深度センサ11のY軸方向の視野角をθy(度)とすると、点Aにおける画像の端までの実距離Yamaxpは、図8及び図10から分かるように、以下の式から算出できる。
  Yamaxp=Za×tan(θy/2)
 ここで、深度画像の解像度をX軸方向640pixel、Y軸方向480pixelと仮定する。この場合、図6で例示するように、X軸方向には、No.0~No.639のピクセル(センサ素子)が配置され、Y軸方向には、No.0~No.479のピクセル(センサ素子)が配置されていることになる。
 Xamaxpは、原点(画像の中心)から640番目のpixel(No.639)までの距離に相当し、Yamaxpは、原点(画像の中心)から480番目のpixel(No.479)までの距離に相当する。
 点Aの深度センサ11の撮影領域(深度画像)中の位置データ、即ち、点Aがどのピクセルに対応しているかは、深度センサ11のデータから得られている。従って、点AのX軸及びY軸におけるピクセル(センサ素子)の位置が、(No.Xa-pixel、No.Ya-pixel)であるとすると、XaとYaは、以下の式から算出できる。
  Xa=△Xa×((Xa-pixel)-640/2)
  Ya=△Ya×((Ya-pixel)-480/2)
 ここで、△Xaは、(式)△Xa=Xamaxp/(640/2)で得られる、点AにおけるX方向のピクセル(センサ素子)毎の変化率である。また、△Yaは、(式)△Ya=Yamaxp/(480/2)で得られる、点AにおけるY方向のピクセル(センサ素子)毎の変化率である。
 同様にして、点BのXb、Yb、点CのXc、Yc、点DのXd、Ydを算出することができる。
 そして、辺ABの長さは、以下の式で算出することができる。
  √((Xb-Xa)+(Yb-Ya)+(Zb-Za)
 同様にして、辺AC、辺ADの長さを算出することができる。
 ステップS7に続き、出力部25は、長さ算出部24から得た荷物Pのサイズの計測結果を出力する(ステップS8)。計測結果の出力とは、上述したように、例えば、タブレット端末10の画面に計測結果を表示する、図示しないプリンタから計測結果を印字して排出する、などが挙げられる。その他の例としては、出力部25は、図示しない他の装置(POS端末等)へ計測結果を送信することもできる。
 以上に説明した本実施形態によれば、実施形態1による効果を奏する荷物計測装置を店舗等に設置しているため、荷物を安価で効率的且つ容易に測定することができる。よって、本実施形態によれば、小売業の店舗などの業務を軽減することができ、また配送荷物受付を顧客自身で行うこともできる。近年、オンラインショッピングや個人間取引の増加に伴い、一般利用者による配送サービスの利用が増加しているため、このような本実施形態の効果は有益である。
<実施形態3>
 実施形態3について、図11及び図12を併せて参照し、その効果も含めた実施形態2との相違点を中心に説明する。但し、実施形態3は、実施形態1,2で説明した様々な例が適用できる。図11は、実施形態3に係る荷物計測装置を含む荷物受付システムの一構成例を示す模式図で、図12は、図11の荷物計測装置における荷物計測処理の一例を説明するためのフロー図である。
 図11に示すように、本実施形態に係る荷物受付システムは、配送される荷物Pを受け付けるシステムであり、実施形態2で説明した荷物計測装置を備えるとともに、配送料金を精算する精算装置を備えることができる。精算装置は、以下に例示するように電子マネーリーダライタ(R/W)10bであってもよいし、他の装置であってもよい。この精算装置は、別途ネットワーク接続されたサーバ装置を含むこともできる。
 また、本実施形態に係る荷物計測装置は、載置台12内に重量計13を有する。重量計13は荷物Pの重量を測定し、セルフPOS端末10aにその結果を出力する。ここで、セルフPOS端末10aは、本実施形態における荷物計測装置の一部であり、タブレット端末10の代わりに設けられた端末の例である。
 また、本実施形態に係る荷物受付システムは、カメラで例示した撮像装置を備えることができ、以下では、図12に示すようにカメラ付き深度センサ11aを備えた例を挙げて説明する。セルフPOS端末10aは、そのカメラ付き深度センサ11aのカメラを制御し、荷物Pに貼付されている、配送に関する配送情報を記載した伝票(送り状など)を撮像させ、荷物Pの配送に関する情報を文字認識処理等により取得することができる。
 そして、セルフPOS端末10aは、荷物Pのサイズと重量、及び荷物Pの配送に関する情報とに基づいて、その荷物Pの配送料金を算出し、電子マネーR/W10bに配送料金を出力することができる。そして、電子マネーR/W10bは、荷物Pの配送料金の精算を行う。
 上述のように、本実施形態に係る荷物受付システムは、荷物のサイズに加えて重量計13により重量をも計測することが可能であり、荷物Pに貼付されている伝票の情報を文字認識して配送料金を算出し、電子マネーで精算を行う点で、実施形態2とは異なる。図12を併せて参照しながら、本実施形態に係る荷物受付システム(以下、本システム)における荷物計測装置の動作例について説明する。
 セルフPOS端末10aは、その制御部において、深度センサ11を制御しながら載置台12上の荷物Pの計測を行い、計測結果を出力する。この動作例では、図4の動作例のステップS4において、荷物Pのサイズの計測を行うことに加えて、荷物Pの重量についても計測を行う(ステップS14)。他の手順については同様であり、図12のステップS11~13,S15~S18は、それぞれ図4のステップS1~3,S5~S8に対応する。但し、ステップS15では、重量計13で重量が検出されたことをもって、荷物Pが検出されたと判定してもよい。
 以下に、本システムにおいて、荷物Pのサイズと重量を計測した後、配送料金を精算するまでについて、その一例を挙げて簡単に説明する。
 顧客は、伝票が貼付された荷物Pを、カメラ付き深度センサ11aにて文字情報を読み取るため、撮影範囲に伝票が入るように載置する。つまり、撮影可能な3面のいずれかに伝票が貼られているように、顧客は荷物Pを置くことになる。なお、伝票の文字情報の読み取りを深度センサとは別体のカメラで行ってもよい。本システムでは、カメラ付き深度センサ11aで撮影された画像データから文字認識処理を施して、荷物Pの発送先、発送方法の情報を取得することが可能である。なお、荷物Pの発送元の情報(つまり顧客の情報)を取得するようにしてもよい。
 一般的に、荷物の配送料金は、荷物のサイズ、発送先(発送先までの距離)、発送方法の情報に基づいて算出される。本システムでは、カメラ付き深度センサ11aと重量計13で、荷物のサイズと重量とを計測し、カメラ付き深度センサ11aから、宛先、発送方法を読み取ることができる。そして、本システムでは、これらの読み取った情報に基づき、セルフPOS端末10aに予め記憶されている料金表を参照して、荷物の配送料金を決定することができる。
 顧客は、その後、セルフPOS端末10aに接続された電子マネーR/W10bで料金の精算を行う。精算には顧客が所持するICカードやICカード機能付きタブレット端末などを利用することができる。精算後、店舗に設置された印刷装置からレシートと店舗控え伝票が出力されて、顧客は、店員に、荷物と店舗控え伝票を渡す。
 上記の説明では、電子マネーで精算を行うこととしたが、これに替えて、セルフPOS端末に紙幣取扱装置と硬貨取扱装置とを有する釣銭機を接続し、現金によって精算を行えるようにしてもよい。また、電子マネーR/Wと釣銭機の両方を備えるようにしてもよい。
 以上、本実施形態によれば、実施形態1,2と同様に、予め、荷物に、サイズが既知である基準ラベルが貼付されていなくても、荷物のサイズを測定することができるだけでなく、精算も顧客によって行われるので、店員の負担を低減することができる。また、本実施形態によれば、荷物の宛先、配送日、配送方法等を手入力する必要がないので、これらの情報の入力ミスを防止することができる。
 また、顧客が操作するセルフPOS端末10aを備えることとしたが、店員が操作するPOS端末であってもよい。この場合、精算装置もPOS端末とすることができる。また、本システムでは、荷物Pの重量を計測するための重量計13を備えた例を挙げているが、配送料金に荷物の重量が関係しない場合は、重量計13を備えなくてもよい。
 また、本システムでは、荷物PのサイズをセルフPOS端末10aで算出していたが、実施形態2における顧客のタブレット端末で荷物Pのサイズを算出して、タブレット端末からセルフPOS端末10aに荷物のサイズのデータを送信するようにしてもよい。この送信のためには、このタブレット端末は、深度センサ11(及び重量計13)やセルフPOS端末10aと通信可能に構成しておけばよい。
 また、本実施形態に係る荷物受付システムは、撮像装置の代わりに、配送情報を取得する他種の情報取得装置、例えば近距離無線通信装置を備えることもできる。このような近距離無線通信装置を備えておき、且つ、荷物PにRFID(radio frequency identifier)タグのような読み取り可能な媒体を貼り付けておけば、配送情報を取得することができる。
<他の実施形態>
[a]
 実施形態1では、図1に示す荷物計測装置1の制御部1aの機能について説明したが、荷物計測装置1としてこの機能が実現できればよい。同様に、実施形態2,3では、図3に示す機能部21~25の機能について説明したが、荷物計測装置としてこれらの機能が実現できればよい。
[b]
 実施形態1~3に係る荷物計測装置は、次のようなハードウェア構成を有していてもよい。図13は、実施形態1~3に係る荷物計測装置のハードウェア構成の一例を示す図である。なお、上記他の実施形態[a]についても同様である。
 図13に示す荷物計測装置100は、プロセッサ101、メモリ102、及び深度センサ1b(11)等のための入出力インタフェース103を有する。実施形態1~3で説明した荷物計測装置における制御部1aの機能或いは機能部21~25の機能は、プロセッサ101がメモリ102に記憶されたプログラムを読み込んで実行することにより実現される。このプログラムは、上述した通り、プロセッサ101を制御部1aとして機能させるためのプログラムとすることができる。また、このプログラムは、機能部21~25の少なくとも1つの機能を実現させるためのプログラムを含むことができる。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、この例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、この例は、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
[c]
 さらに、上述した様々な実施形態において、荷物計測装置における荷物計測方法の手順を例示したように、本開示は、上述した深度センサを用いて荷物のサイズを算出する荷物計測方法としての形態も採り得る。また、上記プログラムは、コンピュータに上述した荷物計測方法を実行させるためのプログラムであると言える。
 なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施形態を適宜組み合わせて実施されてもよい。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2018年9月10日に出願された日本出願特願2018-168783を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、100 荷物計測装置
1a 制御部
1b、11 深度センサ
11a カメラ付き深度センサ
10 タブレット端末
10a セルフPOS端末
10b 電子マネーリーダライタ(R/W)
12 載置台
13 重量計
21 深度加工部
22 背景深度部
23 頂点検出部
24 長さ算出部
25 出力部
101 プロセッサ
102 メモリ
103 入出力インタフェース

Claims (9)

  1.  載置台に載置された直方体形状の荷物の3面を同時に撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサと、
     前記深度センサから取得したデータに基づいて前記荷物のサイズを算出する制御手段と、
     を有し、
     前記制御手段は、
     載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
     前記深度センサを制御し、前記載置台に載置された前記荷物の3面を同時に撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
     前記荷物の前記3面が共有し、前記荷物の深度画像データ中で前記深度センサからの距離が最も短い位置にある第1の頂点の位置と、前記荷物の深度画像データ中で最も左側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第3の頂点の位置と、前記荷物の深度画像データ中で最も下側に位置する第4の頂点の位置と、を特定し、
     前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標を、前記深度センサからの距離のデータと、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
     前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標に基づいて、前記第1の頂点と前記第2の頂点との間の第1の辺の長さと、前記第1の頂点と前記第3の頂点との間の第2の辺の長さと、前記第1の頂点と前記第4の頂点との間の第3の辺の長さと、を算出して結果を出力する、
     荷物計測装置。
  2.  前記制御手段は、前記荷物の深度画像データに基づいて、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点を特定する、
     請求項1に記載の荷物計測装置。
  3.  さらに撮像装置を有し、
     前記制御手段は、前記撮像装置で取得した画像の画像認識によって、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点を特定する、
     請求項1に記載の荷物計測装置。
  4.  さらに表示手段を有し、
     前記制御手段は、前記載置台上の前記荷物を前記撮像装置に撮像させて前記荷物の画像を前記表示手段に表示させ、前記荷物の前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の少なくとも1つを特定できない場合に、前記荷物の載置状態の訂正を促すメッセージを前記表示手段に表示させる、
     請求項3に記載の荷物計測装置。
  5.  さらに前記載置台を有し、
     前記深度センサは、前記載置台に取り付けられている、
     請求項1から4のいずれか1項に記載の荷物計測装置。
  6.  さらに前記載置台内に重量計を有し、前記荷物の重量を測定し、結果を出力する、
     請求項1から5のいずれか1項に記載の荷物計測装置。
  7.  請求項1から6のいずれか1項に記載の荷物計測装置と、情報取得装置と、精算装置と、を備え、
     前記情報取得装置が、前記荷物の配送に関する情報を取得し、
     前記荷物計測装置が、前記荷物のサイズ及び前記荷物の配送に関する情報に基づいて前記荷物の配送料金を算出し、
     前記精算装置が前記荷物の配送料金の精算を行う、
     荷物受付システム。
  8.  載置台に載置された直方体形状の荷物の3面を同時に撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、前記荷物のサイズを算出する荷物計測方法であって、
     載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
     前記深度センサを制御し、前記載置台に載置された前記荷物の3面を同時に撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
     前記荷物の前記3面が共有し、前記荷物の深度画像データ中で前記深度センサからの距離が最も短い位置にある第1の頂点の位置と、前記荷物の深度画像データ中で最も左側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第3の頂点の位置と、前記荷物の深度画像データ中で最も下側に位置する第4の頂点の位置と、を特定し、
     前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標を、前記深度センサからの距離のデータと、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
     前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標に基づいて、前記第1の頂点と前記第2の頂点との間の第1の辺の長さと、前記第1の頂点と前記第3の頂点との間の第2の辺の長さと、前記第1の頂点と前記第4の頂点との間の第3の辺の長さと、を算出して結果を出力する、
     荷物計測方法。
  9.  載置台に載置された直方体形状の荷物の3面を同時に撮影可能である位置に配置され、前記荷物を撮影して前記荷物との距離を取得する深度センサを用い、コンピュータに、前記荷物のサイズを算出する算出処理を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体であって、
     前記算出処理は、
     載置物がない状態の前記載置台を、予め前記深度センサで撮影して背景深度画像データとして記憶しておき、
     前記深度センサを制御し、前記載置台に載置された前記荷物の3面を同時に撮影して前記荷物の深度画像データを取得し、前記荷物の深度画像データと前記背景深度画像データとの比較によって前記荷物の深度画像データにおける前記荷物のデータを特定し、
     前記荷物の前記3面が共有し、前記荷物の深度画像データ中で前記深度センサからの距離が最も短い位置にある第1の頂点の位置と、前記荷物の深度画像データ中で最も左側に位置する第2の頂点の位置と、前記荷物の深度画像データ中で最も右側に位置する第3の頂点の位置と、前記荷物の深度画像データ中で最も下側に位置する第4の頂点の位置と、を特定し、
     前記深度センサの中心を原点とする空間における、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標を、前記深度センサからの距離のデータと、前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点に対応する前記深度センサのセンサ素子の位置データとに基づいて求め、
     前記第1の頂点、前記第2の頂点、前記第3の頂点、及び前記第4の頂点の空間座標に基づいて、前記第1の頂点と前記第2の頂点との間の第1の辺の長さと、前記第1の頂点と前記第3の頂点との間の第2の辺の長さと、前記第1の頂点と前記第4の頂点との間の第3の辺の長さと、を算出して結果を出力する、
     非一時的なコンピュータ可読媒体。
PCT/JP2019/016702 2018-09-10 2019-04-18 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体 WO2020054118A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/274,266 US11836941B2 (en) 2018-09-10 2019-04-18 Package measuring apparatus, package accepting system, package measuring method, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018168783A JP6699872B2 (ja) 2018-09-10 2018-09-10 荷物計測装置、荷物受付システム、荷物計測方法、及びプログラム
JP2018-168783 2018-09-10

Publications (1)

Publication Number Publication Date
WO2020054118A1 true WO2020054118A1 (ja) 2020-03-19

Family

ID=69778530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016702 WO2020054118A1 (ja) 2018-09-10 2019-04-18 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US11836941B2 (ja)
JP (1) JP6699872B2 (ja)
WO (1) WO2020054118A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484614B2 (ja) 2020-09-24 2024-05-16 沖電気工業株式会社 寸法測定システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7078804B1 (ja) * 2020-06-18 2022-05-31 株式会社日立物流 デジタル通貨換金システム、デジタル通貨換金方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008352A (ja) * 2008-06-30 2010-01-14 3D Media Co Ltd 寸法測定方法及び寸法測定装置
WO2016199366A1 (ja) * 2015-06-11 2016-12-15 パナソニックIpマネジメント株式会社 寸法測定装置および寸法測定方法
JP2019020307A (ja) * 2017-07-20 2019-02-07 キヤノン株式会社 計測装置、計測装置の制御方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4694404A (en) * 1984-01-12 1987-09-15 Key Bank N.A. High-speed image generation of complex solid objects using octree encoding
US6549200B1 (en) * 1997-06-17 2003-04-15 British Telecommunications Public Limited Company Generating an image of a three-dimensional object
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
JP2013239015A (ja) * 2012-05-15 2013-11-28 Sharp Corp 駐車支援装置、駐車支援方法およびプログラム
DE112013003338B4 (de) * 2012-07-02 2017-09-07 Panasonic Intellectual Property Management Co., Ltd. Größenmessvorrichtung und Größenmessverfahren
US9286530B2 (en) * 2012-07-17 2016-03-15 Cognex Corporation Handheld apparatus for quantifying component features
US9734638B2 (en) * 2013-02-11 2017-08-15 Ramot At Tel-Aviv University Ltd. Three-dimensional modeling from single photographs
US9922437B1 (en) * 2013-03-15 2018-03-20 William S. Baron Process for creating an augmented image
US9390314B2 (en) * 2014-02-28 2016-07-12 Ncr Corporation Methods and apparatus for determining dimensions of an item using 3-dimensional triangulation
JP2015194424A (ja) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、情報処理プログラムおよびその情報処理プログラムが記録された記録媒体
CN106573381B (zh) * 2014-06-04 2019-12-03 因特利格兰特总部有限责任公司 卡车卸载机可视化
JP6469157B2 (ja) * 2017-04-04 2019-02-13 株式会社ユニバーサルエンターテインメント 遊技機
US10697757B2 (en) * 2017-12-22 2020-06-30 Symbol Technologies, Llc Container auto-dimensioning
JP6798725B1 (ja) * 2019-11-14 2020-12-09 Necプラットフォームズ株式会社 荷物計測装置、荷物受付システム、荷物計測方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008352A (ja) * 2008-06-30 2010-01-14 3D Media Co Ltd 寸法測定方法及び寸法測定装置
WO2016199366A1 (ja) * 2015-06-11 2016-12-15 パナソニックIpマネジメント株式会社 寸法測定装置および寸法測定方法
JP2019020307A (ja) * 2017-07-20 2019-02-07 キヤノン株式会社 計測装置、計測装置の制御方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484614B2 (ja) 2020-09-24 2024-05-16 沖電気工業株式会社 寸法測定システム

Also Published As

Publication number Publication date
US11836941B2 (en) 2023-12-05
JP2020041886A (ja) 2020-03-19
US20210350561A1 (en) 2021-11-11
JP6699872B2 (ja) 2020-05-27

Similar Documents

Publication Publication Date Title
US9976848B2 (en) Dimensioning system with guided alignment
CN106352790B (zh) 对物品进行尺寸量定和成像
CN106169185B (zh) 评价图像值
US9846870B2 (en) Point-of-sale systems
US20190339057A1 (en) Method for a mobile dimensioning device to use a dynamic accuracy compatible with nist standard
US20160070964A1 (en) Point-of-sale systems and methods for money transfer transactions
US20150248578A1 (en) Methods and Apparatus for Determining Dimensions of an Item Using 3-Dimensional Triangulation
JP2017010535A (ja) 物品認識装置および画像処理方法
JP6589557B2 (ja) 電子レシート発行システム
US20190073839A1 (en) Package management system and method thereof
WO2020054118A1 (ja) 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体
WO2021095281A1 (ja) 荷物計測装置、荷物受付システム、荷物計測方法、及び非一時的なコンピュータ可読媒体
US20210319400A1 (en) Sales data processing apparatus and method for executing data processing of article
WO2019181424A1 (ja) 情報処理システム、情報処理方法及び記憶媒体
US10158834B2 (en) Corrected projection perspective distortion
JP7053064B2 (ja) 荷物受付システム及び荷物受付方法
JP6652118B2 (ja) 現金自動預払機、端末装置、および媒体読取方法
JP5913236B2 (ja) 棚割支援装置、サーバおよびプログラム
JP7472738B2 (ja) 設置調整システム
EP3644011A1 (en) Package management system and method thereof
JP2021076494A (ja) 寸法測定システム、寸法測定装置および寸法測定方法
WO2023007667A1 (ja) 荷物受付システム、サーバ、荷物受付方法、及びコンピュータ可読媒体
JP2020074163A (ja) 宅配システム
JP2022017919A (ja) 配送完了情報収集システムおよび配送完了情報収集方法
JP2022130127A (ja) 検査支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19860325

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19860325

Country of ref document: EP

Kind code of ref document: A1