JP2020060451A - Luggage space monitoring system and luggage space monitoring method - Google Patents

Luggage space monitoring system and luggage space monitoring method Download PDF

Info

Publication number
JP2020060451A
JP2020060451A JP2018192020A JP2018192020A JP2020060451A JP 2020060451 A JP2020060451 A JP 2020060451A JP 2018192020 A JP2018192020 A JP 2018192020A JP 2018192020 A JP2018192020 A JP 2018192020A JP 2020060451 A JP2020060451 A JP 2020060451A
Authority
JP
Japan
Prior art keywords
luggage
voxel
floor
interpolation
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018192020A
Other languages
Japanese (ja)
Other versions
JP7191630B2 (en
Inventor
絋平 大塚
Kohei Otsuka
絋平 大塚
幸生 梅村
Yukio Umemura
幸生 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hino Motors Ltd
Original Assignee
Hino Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hino Motors Ltd filed Critical Hino Motors Ltd
Priority to JP2018192020A priority Critical patent/JP7191630B2/en
Publication of JP2020060451A publication Critical patent/JP2020060451A/en
Application granted granted Critical
Publication of JP7191630B2 publication Critical patent/JP7191630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To grasp an available state of a floor surface for arranging luggage by grasping an available area to be occupied by the luggage in a luggage space.SOLUTION: A luggage space monitoring device 10 includes: an acquisition part 11 for acquiring a distance image acquired by each of two or more sensors provided other than the floor surface of a luggage space; a generation part 12 for generating luggage voxels showing a position in the luggage space of the surface of the luggage in the luggage space and floor surface voxels showing the position of the floor surface on the basis of the distance image, arrangement positions of the sensors and imaging directions; an interpolation part 13 for generating interpolation voxels in a space area to be a dead angle from the sensors; an estimation part 14 for estimating a space area occupied by the luggage, luggage area information showing a space area having a possibility of being occupied by the luggage, and available floor information on a floor surface on which the luggage can be arranged on the basis of the luggage voxels, the interpolation voxels and the floor surface voxels; and an output part 15 for outputting the luggage area information and the available floor information.SELECTED DRAWING: Figure 3

Description

本発明は、荷室監視システム及び荷室監視方法及びに関する。   The present invention relates to a luggage compartment monitoring system and a luggage compartment monitoring method.

車両による物流の効率化のために、車両の荷室の積荷の状態を的確に把握することが求められており、特に、荷物の容量及び荷物が置かれていない床面である空き床の床面積を把握することが求められている。例えば、荷室内の状況を視覚的に認識するために、光学的カメラを荷室内に設けて、荷室内の画像を取得することが行われている。また、3次元計測センサを3台用いて計測対象の体積を計測する技術が知られている。(例えば、特許文献1参照)。   In order to improve the efficiency of physical distribution by vehicles, it is required to accurately grasp the state of the cargo in the luggage compartment of the vehicle. Especially, the capacity of the luggage and the floor of an empty floor where the luggage is not placed. It is required to grasp the area. For example, in order to visually recognize the situation in the luggage compartment, an optical camera is provided in the luggage compartment to acquire an image of the luggage compartment. Further, there is known a technique of measuring the volume of a measurement target using three three-dimensional measurement sensors. (For example, refer to Patent Document 1).

特開2003−247805号公報JP, 2003-247805, A

従来の光学的カメラにより画像を取得する方法では、荷室内の荷物の容量及び空き床面積を正確に把握することはできなかった。また、特許文献1に記載された技術を適用して、荷室内に計測センサを設けて荷物の体積を計測する場合には、多くのセンサが必要とされるので、その計測は煩雑であり、計測のためのコストが嵩んでいた。一方、物流の効率化のために、荷物の正確な体積を把握することも必要であるが、荷物が積まれた荷室にどの程度の荷物をさらに積むことができるかを的確且つ容易に把握することも求められている。   With the conventional method of acquiring an image with an optical camera, it is not possible to accurately grasp the capacity of the luggage and the vacant floor area in the luggage compartment. Further, when the technique described in Patent Document 1 is applied and a measurement sensor is provided in the luggage compartment to measure the volume of the luggage, many sensors are required, and the measurement is complicated, The cost for measurement was high. On the other hand, in order to improve the efficiency of logistics, it is also necessary to grasp the exact volume of the luggage, but it is possible to accurately and easily grasp how much luggage can be loaded in the luggage compartment where the luggage is loaded. It is also required to do.

そこで本発明は、荷室内の積荷の状態を的確に把握すること、特に、荷室において荷物に占められる空間領域を的確に把握することにより、さらに荷物を配するための床面の空き状況を把握することを目的とする。   Therefore, the present invention accurately grasps the state of the cargo in the luggage compartment, and in particular, accurately grasps the space area occupied by the luggage in the luggage compartment, so as to determine the availability of the floor surface for further luggage distribution. The purpose is to grasp.

本発明の一形態に係る荷室監視システムは、荷室の内部の状態を監視する荷室監視システムであって、荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得部と、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する生成部と、荷室空間においてセンサから死角となる空間領域に補間ボクセルを生成する補間部と、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定部と、荷物領域情報及び空き床情報を出力する出力部と、を備える。   A luggage compartment monitoring system according to an aspect of the present invention is a luggage compartment monitoring system that monitors an internal state of a luggage compartment, and includes at least two sensors provided on a surface other than a floor forming a lower surface of the luggage compartment. Based on the acquisition unit that acquires the distance image acquired by each, information on the distance to the object shown in the distance image, and the placement position and imaging direction of the sensor in the luggage space, the luggage existing in the luggage compartment. A parcel voxel that is information indicating the position of the surface of the inside of the luggage compartment space, and a floor voxel that is the information indicating the position of the floor surface, and a space area that is a blind spot from the sensor in the luggage compartment space. Based on the interpolator that generates the interpolated voxels and the luggage voxels, the interpolated voxels, and the floor voxels, the space area occupied by the luggage in the space of the luggage compartment and the luggage can be occupied. Comprising cargo area information indicating a spatial region where there is a gender, and an estimation unit that estimates a free floor information on the floor can be placed luggage, and an output unit for outputting the cargo area information and free floor information.

本発明の一形態に係る荷室監視方法は、荷室の内部の状態を監視する荷室監視システムにおける荷室監視方法であって、荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得ステップと、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する生成ステップと、荷室空間においてセンサから死角となる空間領域に補間ボクセルを生成する補間ステップと、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定ステップと、荷物領域情報及び空き床情報を出力する出力ステップと、を有する。   A luggage compartment monitoring method according to an aspect of the present invention is a luggage compartment monitoring method in a luggage compartment monitoring system that monitors an internal state of a luggage compartment, and is provided at least on a floor other than a floor forming a lower surface of the luggage compartment. Based on the acquisition step of acquiring the distance image acquired by each of the two or more sensors, the information on the distance to the object shown in the distance image, and the arrangement position and the imaging direction of the sensor in the luggage space, A generation step of generating a luggage voxel that is information indicating the position of the surface of luggage existing in the room in the luggage compartment space and a floor voxel that is information indicating the position of the floor surface, and a blind spot from the sensor in the luggage compartment space. Interpolation step to generate interpolated voxels in the space area that becomes and the baggage is occupied in the space of the luggage compartment based on the baggage voxels, the interpolated voxels and the floor voxels. Outputting baggage area information and vacant floor information, and an estimation step of estimating baggage area information indicating a space area that may be occupied by baggage and luggage, and vacant floor information regarding a floor surface on which luggage can be placed And an output step to perform.

本発明の一形態に係る荷室監視プログラムは、コンピュータを、荷室の内部の状態を監視する荷室監視システムとして機能させるための荷室監視プログラムであって、コンピュータに、荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得機能と、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する生成機能と、荷室空間においてセンサから死角となる空間領域に補間ボクセルを生成する補間機能と、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定機能と、荷物領域情報及び空き床情報を出力する出力機能と、を実現させる。   A luggage compartment monitoring program according to an aspect of the present invention is a luggage compartment monitoring program for causing a computer to function as a luggage compartment monitoring system that monitors an internal state of the luggage compartment. An acquisition function of acquiring a distance image acquired by each of at least two or more sensors provided on other than the constituent floor surface, information on a distance to an object shown in the distance image, and a sensor in the luggage space. Generation that generates a luggage voxel that is information indicating the position in the luggage space of the surface of luggage existing in the luggage space and a floor voxel that is information indicating the position of the floor surface, based on the arrangement position and the imaging direction The function and the interpolation function to generate interpolation voxels from the sensor in the space area that becomes a blind spot in the luggage space, and based on the baggage voxel, the interpolation voxel and the floor voxel. And estimating the space area information indicating the space area occupied by the luggage and the space area possibly occupied by the luggage in the space of the luggage compartment, and the empty floor information regarding the floor surface on which the luggage can be arranged. An estimation function and an output function for outputting luggage area information and empty floor information are realized.

上記の形態によれば、距離画像に基づいて、荷物表面の位置を示す情報である荷物ボクセルが得られる。また、荷物ボクセル及びセンサの死角を示す情報等に基づいて、実質的に荷物を置くことができない可能性のある空間領域を示す補間ボクセルを得ることができるので、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報を得ることができる。従って、さらに荷物を配置可能な床面を示す空き床情報を出力することが可能となる。   According to the above-mentioned form, a baggage voxel that is information indicating the position of the baggage surface can be obtained based on the distance image. Further, based on the information indicating the blind spots of the luggage voxel and the sensor, etc., it is possible to obtain an interpolated voxel indicating a space area in which the luggage may not be practically placed. It is possible to obtain baggage region information indicating the space region that is occupied and the space region that may be occupied by the package. Therefore, it becomes possible to output the vacant floor information indicating the floor surface on which the luggage can be placed.

別の形態に係る荷室監視システムでは、補間ボクセルは、荷物ボクセルの鉛直下方の、該荷物ボクセルから床面までの空間領域を占める荷物補間ボクセルを含むこととしてもよい。   In the luggage compartment monitoring system according to another aspect, the interpolation voxel may include a luggage interpolation voxel that occupies a space region from the luggage voxel to a floor surface vertically below the luggage voxel.

荷物の形状に起因して荷物の上面の下方に荷物に占められていない空間があったとしても、その空間には、さらに荷物を配することができない。上記形態によれば、このような、荷物を配することができない空間領域を実質的に荷物に占められている空間領域として扱うこととして荷物補間ボクセルが生成されるので、荷物を配するための床面の空き状況を適切に把握できる。   Even if there is a space below the upper surface of the luggage that is not occupied by the luggage due to the shape of the luggage, it is not possible to place more luggage in that space. According to the above aspect, the luggage interpolation voxel is generated by treating such a space area in which the luggage cannot be arranged as a space area substantially occupied by the luggage. You can properly understand the availability of the floor.

別の形態に係る荷室監視システムでは、少なくとも2以上のセンサは、第1のセンサ及び第2のセンサを含み、取得部は、第1のセンサにより取得された第1の距離画像及び第2のセンサにより取得された第2の距離画像を取得し、推定部は、第1の距離画像に基づく荷物補間ボクセルである第1の荷物補間ボクセルと、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルとが重複した場合に、当該重複位置には第1の荷物補間ボクセルが配置されるものとして、荷物領域情報及び空き床情報を推定することとしてもよい。   In a luggage compartment monitoring system according to another aspect, at least two or more sensors include a first sensor and a second sensor, and the acquisition unit includes a first distance image and a second distance image acquired by the first sensor. The second distance image acquired by the sensor of the first distance image is acquired, and the estimation unit determines the first baggage interpolation voxel that is the baggage interpolation voxel based on the first distance image and the baggage voxel or the floor based on the second distance image. When the area voxel overlaps, the baggage area information and the empty floor information may be estimated by assuming that the first baggage interpolation voxel is arranged at the overlapping position.

荷物補間ボクセルが生成された空間領域は、さらに荷物を配することができない領域である。上記形態によれば、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが生成された空間領域であっても、その空間領域において第1の距離画像に基づく荷物補間ボクセルと重複する場合には、その空間領域は、荷物を配することができない領域であるので、荷物補間ベクトルが配置されるものとして扱われる。従って、荷物を配するための床面の空き状況を適切に把握できる。   The space area in which the baggage interpolation voxel is generated is an area in which no further baggage can be placed. According to the above aspect, even if the space voxel or the floor voxel based on the second range image is generated, if the space region overlaps with the baggage interpolation voxel based on the first range image in the space region. Since the space area is an area in which the luggage cannot be arranged, it is treated as the arrangement of the luggage interpolation vector. Therefore, it is possible to properly grasp the availability of the floor surface for distributing the luggage.

別の形態に係る荷室監視システムでは、補間ボクセルは、荷物またはセンサの画角に起因してセンサから死角となる床面の上の所定高さの空間領域を占める死角補間ボクセルを含むこととしてもよい。   In the luggage compartment monitoring system according to another aspect, the interpolation voxel includes a blind spot interpolation voxel that occupies a space area of a predetermined height above the floor surface that is a blind spot from the sensor due to the angle of view of the luggage or the sensor. Good.

センサの死角となる床面には、荷物が置かれている可能性があるので、死角となる床面をさらに荷物を配することができる床面として扱うことは不適切である。上記形態によれば、センサの死角となる床面の上の所定高さの空間領域を実質的に荷物に占められている空間領域として扱うこととして、死角補間ボクセルが生成されるので、荷物を配するための床面の空き状況を適切に把握できる。   Since there is a possibility that luggage is placed on the floor that is the blind spot of the sensor, it is inappropriate to treat the floor that is the blind spot as a floor on which more luggage can be placed. According to the above-described aspect, the blind spot interpolation voxel is generated by treating the space area of the predetermined height above the floor surface, which is the blind spot of the sensor, as the space area substantially occupied by the luggage, and thus the luggage is It is possible to properly understand the availability of the floor surface for arranging.

別の形態に係る荷室監視システムでは、推定部は、第1の距離画像に基づく死角補間ボクセルである第1の死角補間ボクセルと、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルとが重複した場合に、当該重複位置には第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが配置されるものとして、荷物領域情報及び空き床情報を推定することとしてもよい。   In the luggage compartment monitoring system according to another aspect, the estimation unit determines that the first blind spot interpolation voxel, which is a blind spot interpolation voxel based on the first distance image, and the luggage voxel or floor voxel based on the second distance image. In the case of overlap, the baggage voxel or floor voxel based on the second distance image may be arranged at the overlapping position, and the baggage area information and the empty floor information may be estimated.

死角補間ボクセルが生成された空間領域は、さらに荷物を配することが出来るか否かが不明な領域であるので、第1の距離画像に基づく第1の死角補間ボクセルが生成された領域に、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが重複して生成された場合には、当該領域の状況は、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルにより正しく反映される。上記形態によれば、かかる場合に、当該重複領域に第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが配置されるものとして、荷物領域情報及び空き床情報が推定されるので、荷物を配するための床面の空き状況を適切に把握できる。   The spatial area in which the blind spot interpolation voxels are generated is an area in which it is unclear whether or not luggage can be further arranged. Therefore, in the area in which the first blind spot interpolation voxels based on the first distance image are generated, When the luggage voxels or floor voxels based on the second range image are generated in an overlapping manner, the situation of the region is correctly reflected by the luggage voxels or floor voxels based on the second range image. According to the above aspect, in such a case, since the luggage area information and the empty floor information are estimated as the luggage voxel or the floor voxel based on the second distance image is arranged in the overlapping area, the luggage is distributed. It is possible to properly understand the availability of the floor surface to do so.

別の形態に係る荷室監視システムでは、推定部は、荷物ボクセル及び補間ボクセルに占められる容積情報、及び、荷物ボクセル及び補間ボクセルに占められる床面の面積情報の少なくともいずれか一方を、荷物領域情報として推定することとしてもよい。   In the luggage compartment monitoring system according to another aspect, the estimation unit uses at least one of the volume information occupied by the luggage voxels and the interpolation voxels and the floor area information occupied by the luggage voxels and the interpolation voxels as the luggage area. It may be estimated as information.

上記形態によれば、荷物ボクセル及び補間ボクセルに占められる容積情報及び荷物ボクセル及び補間ボクセルに占められる床面の面積情報の少なくともいずれか一方が荷物領域情報として推定されるので、荷物を配するための床面の空き状況を適切に把握できる。   According to the above aspect, at least one of the volume information occupied by the luggage voxel and the interpolation voxel and the floor area information occupied by the luggage voxel and the interpolation voxel is estimated as the luggage area information, so that the luggage is arranged. You can properly understand the availability of the floor surface.

別の形態に係る荷室監視システムでは、推定部は、荷物ボクセル及び補間ボクセルにより占められていない床面の面積情報を、空き床情報として推定することとしてもよい。   In the luggage compartment monitoring system according to another aspect, the estimating unit may estimate the area information of the floor surface not occupied by the luggage voxels and the interpolation voxels as the empty floor information.

上記形態によれば、荷物ボクセル及び補間ボクセルにより占められていない床面の面積情報が空き床情報として推定されるので、荷物を配するための床面の空き状況を適切に把握できる。   According to the above aspect, the area information of the floor surface not occupied by the luggage voxels and the interpolation voxels is estimated as the vacant floor information, so that the vacant situation of the floor surface for allocating the luggage can be appropriately grasped.

別の形態に係る荷室監視システムでは、出力部は、荷室空間並びに荷物ボクセル、補間ボクセル及び床面ボクセルを視覚的に示す画像を、荷物領域情報及び空き床情報として出力することとしてもよい。   In the luggage compartment monitoring system according to another aspect, the output unit may output an image visually showing the luggage compartment space and the luggage voxels, the interpolation voxels, and the floor surface voxels as the luggage area information and the empty floor information. .

上記形態によれば、荷室空間並びに荷物ボクセル、補間ボクセル及び床面ボクセルを視覚的に示す画像が出力されるので、荷室内の積荷の状態を的確に把握することが可能となる。   According to the above-described embodiment, an image visually showing the luggage compartment space, the luggage voxels, the interpolation voxels, and the floor surface voxels is output, so that the state of the cargo in the luggage compartment can be accurately grasped.

本発明の一側面によれば、荷室内の積荷の状態を的確に把握すること、特に、荷室において荷物に占められる空間領域を的確に把握することにより、さらに荷物を配するための床面の空き状況を把握することが可能となる。   According to one aspect of the present invention, by accurately grasping the state of the cargo in the luggage compartment, in particular by accurately grasping the space area occupied by the luggage in the luggage compartment, a floor surface for further luggage placement It becomes possible to grasp the availability of the.

本実施形態に係る荷室監視装置を含むシステムの装置構成を示す図である。It is a figure which shows the apparatus structure of the system containing the luggage compartment monitoring apparatus which concerns on this embodiment. 本実施形態の荷室監視システムの適用例を模式的に示す図である。It is a figure which shows typically the application example of the luggage compartment monitoring system of this embodiment. 荷室監視装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a luggage compartment monitoring apparatus. 荷室監視装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a luggage compartment monitoring apparatus. 距離画像を点群に変換するための変換情報の生成を説明する図である。It is a figure explaining generation of conversion information for converting a distance image into a point cloud. 距離画像を、距離画像に表された対象を表す点群に変換する処理を説明する図である。It is a figure explaining the process which transforms a range image into the point group showing the object represented by the range image. ボクセルの生成処理を示す図である。It is a figure which shows the production | generation process of a voxel. 補間ボクセルの生成処理を示す図である。It is a figure which shows the production | generation process of an interpolation voxel. 荷物領域情報及び空き床情報の推定を模式的に示す図である。図9(a)は、荷室上面VUを示す図である。図9(b)は、荷室側面VSを示す図である。It is a figure which shows typically estimation of baggage area information and empty floor information. FIG. 9A is a diagram showing the luggage compartment upper surface VU. FIG. 9B is a diagram showing the luggage compartment side surface VS. 補間ボクセルと荷物ボクセルまたは床面ボクセルとが重複した第1の例を示す図である。It is a figure which shows the 1st example which the interpolation voxel and the baggage voxel or the floor surface voxel overlap. 補間ボクセルと荷物ボクセルまたは床面ボクセルとが重複した第2の例を示す図である。It is a figure which shows the 2nd example which the interpolation voxel and the baggage voxel or the floor surface voxel overlap. ボクセルを視覚的に示す画像の例を示す図である。図12(a)は、荷室の空間及び荷物ボクセルを表示する画像の例を示す図である。図12(b)は、荷室の空間及び荷物補間ボクセルを表示する画像の例を示す図である。図12(c)は、荷室の空間及び死角補間ボクセル及び床面ボクセルを表示する画像の例を示す図である。It is a figure which shows the example of the image which shows a voxel visually. FIG. 12A is a diagram showing an example of an image displaying the space in the luggage compartment and the luggage voxels. FIG. 12B is a diagram showing an example of an image displaying the space of the luggage compartment and the luggage interpolation voxels. FIG. 12C is a diagram showing an example of an image displaying the space of the luggage compartment, the blind spot interpolation voxels, and the floor surface voxels. 荷室監視システムにおいて実施される荷室監視方法の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the luggage compartment monitoring method implemented in a luggage compartment monitoring system. 荷室監視プログラムの構成を示す図である。It is a figure which shows the structure of a luggage compartment monitoring program.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements will be denoted by the same reference symbols, without redundant description.

図1は、本実施形態に係る荷室監視装置を含むシステムの装置構成を示す図である。図1に示されるシステム1は、荷室監視装置10(荷室監視システム)及び車両Vに搭載される端末Tを含んで構成される。車両Vは、荷物を運ぶための荷室を有する。車両Vの荷室には、2以上のセンサCが設けられている。本実施形態の端末Tは、センサCにより取得された情報を荷室監視装置10装置にネットワークNを介して送信する。ネットワークNは、無線ネットワークである。荷室監視装置10は、荷室の内部の状態を監視する荷室監視システムを構成する。なお、図1には、3台の車両V及び端末Tが示されているが、その数は限定されない。   FIG. 1 is a diagram showing a device configuration of a system including a luggage compartment monitoring device according to the present embodiment. The system 1 shown in FIG. 1 is configured to include a luggage compartment monitoring device 10 (a luggage compartment monitoring system) and a terminal T mounted on a vehicle V. The vehicle V has a luggage compartment for carrying luggage. Two or more sensors C are provided in the luggage compartment of the vehicle V. The terminal T of the present embodiment transmits the information acquired by the sensor C to the luggage compartment monitoring device 10 via the network N. The network N is a wireless network. The luggage compartment monitoring device 10 constitutes a luggage compartment monitoring system that monitors the internal state of the luggage compartment. Although three vehicles V and terminals T are shown in FIG. 1, the numbers thereof are not limited.

図2は、本実施形態の荷室監視システムの適用例を模式的に示す図である。図2に示すように、荷室監視システムは、車両Vの荷室Rを監視するシステムとして例示される。荷室Rには、少なくとも2以上のセンサCが床面以外に設けられる。図2に示す例では、荷室Rは、天面に設けられた2台のセンサC1,C2を有する。センサC1,C2は、撮像方向を鉛直下方に向けている。   FIG. 2 is a diagram schematically showing an application example of the luggage compartment monitoring system of the present embodiment. As shown in FIG. 2, the luggage compartment monitoring system is exemplified as a system that monitors the luggage compartment R of the vehicle V. The luggage compartment R is provided with at least two sensors C other than the floor surface. In the example shown in FIG. 2, the luggage compartment R has two sensors C1 and C2 provided on the top surface. The sensors C1 and C2 have their imaging directions directed vertically downward.

センサCは、対象までの距離の情報を含む距離画像を取得するセンサであって、例えば、いわゆるTOF(Time Of Flight)センサにより構成される。センサCにより取得された距離画像は、対象物までの距離の情報を各画素に有する。   The sensor C is a sensor that acquires a distance image including information on the distance to the target, and is configured by, for example, a so-called TOF (Time Of Flight) sensor. The distance image acquired by the sensor C has information on the distance to the object in each pixel.

センサCは、荷物Bが置かれた荷室Rの距離画像を取得する。センサCにより取得された距離画像は、センサCから荷物Bの表面または荷室Rの床面までの距離を示す情報を、各画素に含む。   The sensor C acquires a distance image of the luggage compartment R in which the luggage B is placed. The distance image acquired by the sensor C includes, in each pixel, information indicating the distance from the sensor C to the surface of the luggage B or the floor surface of the luggage compartment R.

なお、本実施形態では、荷室監視システムは、車両Vの荷室を監視するシステムとして例示されるが、荷物が配置される空間であれば適用対象の荷室は車両の荷室に限定されず、例えば、倉庫の荷室にも適用可能である。   In the present embodiment, the luggage compartment monitoring system is exemplified as a system that monitors the luggage compartment of the vehicle V, but the luggage compartment to which the application is applied is not limited to the luggage compartment of the vehicle as long as the luggage is arranged in the space. Instead, it can be applied to a luggage compartment of a warehouse, for example.

図3は、荷室監視装置10の機能的構成を示すブロック図である。荷室監視装置10は、例えば、サーバ等のコンピュータにより構成される。本実施形態の荷室監視装置10は、図3に示すように、機能的には、取得部11、生成部12、補間部13、推定部14及び出力部15を備える。   FIG. 3 is a block diagram showing a functional configuration of the luggage compartment monitoring device 10. The luggage compartment monitoring device 10 is composed of, for example, a computer such as a server. As illustrated in FIG. 3, the luggage compartment monitoring device 10 of the present embodiment functionally includes an acquisition unit 11, a generation unit 12, an interpolation unit 13, an estimation unit 14, and an output unit 15.

図4は、荷室監視装置10のハードウェア構成図である。荷室監視装置10は、物理的には、図4に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク等で構成される補助記憶装置103、通信制御装置104などを含むコンピュータシステムとして構成されている。荷室監視装置10は、入力デバイスであるキーボード、タッチパネル、マウス等の入力装置105及びディスプレイ等の出力装置106をさらに含むこととしてもよい。   FIG. 4 is a hardware configuration diagram of the luggage compartment monitoring device 10. Physically, the luggage compartment monitoring device 10 is, as shown in FIG. 4, a main storage device 102 including a CPU 101, a memory such as a RAM and a ROM, an auxiliary storage device 103 including a hard disk, and a communication control device 104. It is configured as a computer system including The luggage compartment monitoring device 10 may further include an input device 105 such as a keyboard, a touch panel, and a mouse that are input devices, and an output device 106 such as a display.

図3に示した各機能は、図4に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信制御装置104等を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。なお、端末Tも、図4に示すようなハードウェア構成を有するコンピュータシステムとして構成されてもよい。なお、本実施形態では、各機能部11〜15が、荷室監視装置10に構成されることとしているが、複数のコンピュータに分散して構成されることとしてもよい。   The functions shown in FIG. 3 operate the communication control device 104 and the like under the control of the CPU 101 by loading predetermined computer software on the hardware such as the CPU 101 and the main storage device 102 and the like shown in FIG. At the same time, it is realized by reading and writing data in the main storage device 102 and the auxiliary storage device 103. Data and databases required for processing are stored in the main storage device 102 and the auxiliary storage device 103. The terminal T may also be configured as a computer system having the hardware configuration shown in FIG. In addition, in the present embodiment, the functional units 11 to 15 are configured in the luggage compartment monitoring device 10, but may be configured to be distributed to a plurality of computers.

車両Vに搭載される端末Tは、コンピュータシステムとして構成されてもよい。端末Tを構成する装置は限定されず、例えば、車両Vに備え付けられるコンピュータ端末であってもよいし、高機能携帯電話機(スマートフォン)、タブレット型のコンピュータ、携帯電話機、携帯情報端末(PDA)などの携帯端末であってもよい。   The terminal T mounted on the vehicle V may be configured as a computer system. The device forming the terminal T is not limited, and may be, for example, a computer terminal installed in the vehicle V, a high-performance mobile phone (smartphone), a tablet computer, a mobile phone, a personal digital assistant (PDA), or the like. It may be a mobile terminal.

再び図3を参照して、荷室監視装置10の各機能部を説明する。取得部11は、センサCのそれぞれにより取得された距離画像を取得する。図2を参照して説明したように、センサCは、荷室Rの天面に、鉛直下方を撮像方向として設けられているので、荷室Rの床面に配置された荷物及び床面を検出対象として画角の範囲内の距離画像を取得する。
センサCは、荷室Rの天面に設けられているので、センサCは、荷物BにおけるセンサCの方向に露出した表面、即ち上面を検出することとなる。距離画像の各画素は、対象物に対する方向及び距離の情報を含む。
Each functional unit of the luggage compartment monitoring device 10 will be described with reference to FIG. 3 again. The acquisition unit 11 acquires the range image acquired by each of the sensors C. As described with reference to FIG. 2, since the sensor C is provided on the top surface of the luggage compartment R with the vertically downward direction as the imaging direction, the load placed on the floor of the luggage compartment R and the floor surface can be detected. A range image within the range of the angle of view is acquired as a detection target.
Since the sensor C is provided on the top surface of the luggage compartment R, the sensor C detects the surface of the luggage B exposed in the direction of the sensor C, that is, the upper surface. Each pixel of the range image contains information on the direction and distance to the object.

生成部12は、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する。以下、ボクセルの生成について具体的に説明する。   The generation unit 12 positions the surface of the luggage existing in the luggage compartment in the luggage compartment space based on the information on the distance to the object shown in the distance image and the arrangement position and the imaging direction of the sensor in the luggage compartment space. And a floor voxel that is information that indicates the position of the floor surface. Hereinafter, generation of voxels will be specifically described.

まず、生成部12は、距離画像を、距離画像に表された対象を表す点群に変換する。図5及び図6を参照して、点群の変換処理即ち点群の生成処理を説明する。図5は、距離画像を点群に変換するための変換情報の生成を説明する図である。   First, the generation unit 12 converts the distance image into a point cloud representing the target represented in the distance image. The conversion processing of the point group, that is, the generation processing of the point group will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram illustrating generation of conversion information for converting a distance image into a point cloud.

ここで生成される点群は、荷室空間を表す3次元座標系DRに対して生成される。生成部12は、距離画像の3次元座標系DPを、荷室空間の3次元座標系DRに変換するための変換マトリクスを変換情報として生成する。   The point group generated here is generated with respect to the three-dimensional coordinate system DR representing the luggage space. The generation unit 12 generates, as conversion information, a conversion matrix for converting the three-dimensional coordinate system DP of the distance image into the three-dimensional coordinate system DR of the luggage space.

荷室空間の3次元座標系DRは、荷室Rの床面の左前方を原点として、右方向をX軸、後方向をY軸、上方向をZ軸とするように設定される。センサCは、荷室Rの天面に、鉛直下方向を撮像方向として設けられるので、センサCにおける座標系DCは、鉛直下方向をZ軸とし、Z軸に直交する面上にX軸及びY軸が沿うように設定される。このように設定されたセンサCにより取得された距離画像DIは、画像面上において互いに直交するX軸及びY軸並びに画像奥行き方向に沿うZ軸を有する座標系DPを有する。   The three-dimensional coordinate system DR of the luggage compartment space is set such that the left front side of the floor of the luggage compartment R is the origin, the right direction is the X axis, the rear direction is the Y axis, and the upward direction is the Z axis. Since the sensor C is provided on the top surface of the luggage compartment R with the vertically downward direction as the imaging direction, the coordinate system DC in the sensor C has the vertical downward direction as the Z axis, and the X axis and the X axis on the plane orthogonal to the Z axis. It is set so that the Y axis is along. The distance image DI acquired by the sensor C set in this way has a coordinate system DP having an X axis and a Y axis which are orthogonal to each other on the image plane, and a Z axis along the image depth direction.

生成部12は、予め計測された、荷室R内におけるセンサCの位置情報、及び、センサCの撮像方向を示すベクトルvcを取得する。次に、生成部12は、荷物が置かれていない荷室Rの床面をセンサCにより撮像した距離画像を取得し、取得した距離画像に基づいて床面を表す点群ds0を生成する。生成部12は、点群ds0に対して所定の解析処理(例えば、周知のRANSAC等の平面検出処理)を実施することにより、床面の法線を示すベクトルvuを取得する。そして、生成部12は、センサCの撮像方向を示すベクトルvc、床面の法線を示すベクトルvuに基づいて、センサCの姿勢を示す姿勢情報を算出し、さらに、姿勢情報及びセンサCの位置情報に基づいて、距離画像の3次元座標系DPを、荷室空間の3次元座標系DRに変換するための変換マトリクスである変換情報を生成する。   The generation unit 12 acquires the previously measured position information of the sensor C in the luggage compartment R and the vector vc indicating the imaging direction of the sensor C. Next, the production | generation part 12 acquires the distance image which imaged the floor surface of the luggage compartment R where the luggage is not placed with the sensor C, and produces | generates the point group ds0 showing a floor surface based on the acquired distance image. The generation unit 12 acquires a vector vu indicating the normal line of the floor surface by performing a predetermined analysis process (for example, a well-known plane detection process such as RANSAC) on the point group ds0. Then, the generation unit 12 calculates posture information indicating the posture of the sensor C based on the vector vc indicating the imaging direction of the sensor C and the vector vu indicating the normal line of the floor surface, and further calculates the posture information and the sensor C. Based on the position information, conversion information, which is a conversion matrix for converting the three-dimensional coordinate system DP of the distance image into the three-dimensional coordinate system DR of the luggage space, is generated.

図6は、距離画像を、距離画像に表された対象を表す点群に変換する処理を説明する図である。生成部12は、空の状態の荷室Rを撮像した距離画像DI1を取得する。生成部12は、例えば、荷物が置かれていない荷室Rを撮像した距離画像DI1に基づき、変換マトリクスを用いて距離画像DI1に表された各画素の情報を点群ds1に変換する。変換及び生成された点群ds1は、図示されるように、車両の荷室Rの空間を表す座標系DRにおいて、床面(Z=0)に相当する平面に配される。   FIG. 6 is a diagram illustrating a process of converting a range image into a point cloud representing an object represented in the range image. The production | generation part 12 acquires the distance image DI1 which imaged the luggage compartment R of an empty state. For example, the generation unit 12 converts the information of each pixel represented in the distance image DI1 into the point group ds1 using the conversion matrix based on the distance image DI1 obtained by capturing the luggage compartment R in which no luggage is placed. As illustrated, the transformed and generated point group ds1 is arranged on a plane corresponding to the floor surface (Z = 0) in the coordinate system DR representing the space of the luggage compartment R of the vehicle.

また、荷物が置かれた荷室Rを撮像した距離画像DI2が取得された場合には、生成部12は、距離画像DI2に基づき、変換マトリクスを用いて距離画像DI2に表された各画素の情報を点群ds2に変換する。点群ds2のうち、点群ds2−1は、荷物の表面に相当する。点群ds2−1は、図示されるように、荷室空間を表す座標系DRにおいて、荷物の表面(上面)の位置に配される。点群ds2のうち、点群ds2−2は、荷物が置かれておらず上方に露出された床面に相当する。点群ds2−2は、図示されるように、車両の荷室Rの空間を表す座標系DRにおいて、上方に露出された床面(Z=0)に相当する位置に配される。   In addition, when the distance image DI2 obtained by capturing the luggage compartment R in which the luggage is placed is acquired, the generation unit 12 uses the conversion matrix based on the distance image DI2 to calculate the pixel of each pixel represented in the distance image DI2. The information is converted into the point group ds2. The point group ds2-1 of the point group ds2 corresponds to the surface of the luggage. As illustrated, the point group ds2-1 is arranged at the position of the surface (upper surface) of the package in the coordinate system DR representing the luggage space. Of the point group ds2, the point group ds2-2 corresponds to the floor surface that is exposed above without luggage being placed. As illustrated, the point group ds2-2 is arranged at a position corresponding to the floor surface (Z = 0) exposed above in the coordinate system DR representing the space of the luggage compartment R of the vehicle.

生成部12は、距離画像に基づいて生成された点群に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する。図7は、ボクセルの生成処理を示す図である。   The generation unit 12 indicates the position of the luggage voxel, which is the information indicating the position of the surface of the luggage existing in the luggage compartment in the luggage compartment space, and the position of the floor surface based on the point group generated based on the distance image. A floor voxel that is information is generated. FIG. 7 is a diagram showing a voxel generation process.

具体的には、生成部12は、点群に含まれる各点の、荷室Rの座標系DRにおける位置情報に基づいて、各点に対応する位置にボクセルを生成する。図7に示すように、生成部12は、例えば、荷物の表面に相当する点群ds2−1に基づいて、荷物ボクセルvx2を生成する。また、生成部12は、床面の位置を示す点群ds2−2に基づいて、床面ボクセルvx1を生成する。   Specifically, the generation unit 12 generates a voxel at a position corresponding to each point based on the position information of each point included in the point group in the coordinate system DR of the luggage compartment R. As illustrated in FIG. 7, the generation unit 12 generates the luggage voxel vx2 based on, for example, the point group ds2-1 corresponding to the surface of the luggage. Further, the generation unit 12 generates the floor surface voxel vx1 based on the point group ds2-2 indicating the position of the floor surface.

本実施形態では、一単位のボクセルは、3次元空間における1点の位置を示すものとする。従って、この場合には、一単位のボクセルは体積の概念を有さないものとして捉えることができる。荷物ボクセル及び床面ボクセルは、複数のボクセルの集合として生成される。荷物ボクセル及び床面ボクセルは、距離画像に基づいて生成された点群に相当するので、それぞれ、荷物の表面及び床の表面に対応する。面に対応するように配列されたボクセルは、厚さ(または高さ)の概念を有さないので、面積の概念を伴うことはできるが、体積の概念を有さないこととなる。3次元的に分布するボクセルの集合は、3次元空間においてある空間領域を占めるので、体積の概念を伴うことができる。従って、後述する補間ボクセル(荷物補間ボクセル、死角補間ボクセル)は、体積の概念を有することができる。なお、本実施形態では、一のボクセルは体積の概念を有さないとしているが、一単位のボクセルが、当該荷物監視システムにおいて荷室空間を表す3次元空間における最小単位の体積を有するものとしてもよい。   In the present embodiment, one unit of voxel indicates the position of one point in the three-dimensional space. Therefore, in this case, one unit of voxel can be regarded as having no concept of volume. The baggage voxel and the floor voxel are generated as a set of a plurality of voxels. The luggage voxel and the floor surface voxel correspond to the point cloud generated based on the range image, and thus correspond to the surface of the luggage and the surface of the floor, respectively. Since the voxels arranged so as to correspond to the surface do not have the concept of thickness (or height), they can have the concept of area, but do not have the concept of volume. Since a set of voxels distributed three-dimensionally occupies a certain spatial region in a three-dimensional space, the concept of volume can be involved. Therefore, the interpolation voxels (baggage interpolation voxels, blind spot interpolation voxels) described later can have the concept of volume. In this embodiment, one voxel does not have the concept of volume, but it is assumed that one unit of voxel has the minimum unit volume in the three-dimensional space representing the luggage space in the luggage monitoring system. Good.

再び図3を参照して、補間部13は、荷室空間においてセンサCから死角となる空間領域に補間ボクセルを生成する。図8は、補間ボクセルの生成処理を示す図である。具体的には、補間部13は、荷物ボクセルの鉛直下方の、当該荷物ボクセルから床面までの空間領域を占める荷物補間ボクセルを、補間ボクセルとして生成する。また、補間部13は、荷物またはセンサCの画角に起因してセンサCから死角となる床面の上の所定高さの空間領域を占める死角補間ボクセルを、補間ボクセルとして生成する。   Referring again to FIG. 3, the interpolation unit 13 generates interpolation voxels from the sensor C in the luggage space in a space area that is a blind spot. FIG. 8 is a diagram showing a process of generating interpolation voxels. Specifically, the interpolation unit 13 generates, as an interpolation voxel, a baggage interpolation voxel that occupies a space region from the baggage voxel to a floor surface vertically below the baggage voxel. The interpolation unit 13 also generates, as interpolation voxels, blind spot interpolation voxels that occupy a space area of a predetermined height above the floor surface that is a blind spot from the sensor C due to the angle of view of the luggage or the sensor C.

図8に示す例では、生成部12により、荷室Rの空間座標系において、荷物ボクセルvx31,32及び床面ボクセルvf1が生成されている。また、センサCは、画角VAを有する。このような場合において、補間部13は、荷物ボクセルvx31の鉛直下方の、荷物ボクセルvx31から床面までの空間領域を占める荷物補間ボクセルvi11を生成する。同様に、補間部13は、荷物ボクセルvx32の鉛直下方の、荷物ボクセルvx32から床面までの空間領域を占める荷物補間ボクセルvi12を生成する。   In the example illustrated in FIG. 8, the generation unit 12 generates the luggage voxels vx31 and 32 and the floor surface voxel vf1 in the space coordinate system of the luggage compartment R. Further, the sensor C has an angle of view VA. In such a case, the interpolation unit 13 generates a baggage interpolation voxel vi11 that occupies a space area from the baggage voxel vx31 to the floor surface vertically below the baggage voxel vx31. Similarly, the interpolation unit 13 generates a baggage interpolation voxel vi12 that occupies a space area from the baggage voxel vx32 to the floor surface vertically below the baggage voxel vx32.

また、床面f1は、荷物の存在に起因して、センサCの死角となる。この場合において、補間部13は、床面f1の上の所定高さの空間領域を占める死角補間ボクセルvi21,vi22を生成する。死角補間ボクセルの所定高さは、例えば、死角となる床面の最も近くに位置する荷物ボクセルの位置に設定される。従って、死角補間ボクセルvi21,vi22の高さはそれぞれ、荷物ボクセルvx31,vx32の位置に相当する高さに設定される。   Further, the floor surface f1 becomes a blind spot of the sensor C due to the presence of luggage. In this case, the interpolation unit 13 generates blind spot interpolation voxels vi21 and vi22 that occupy a spatial area of a predetermined height above the floor surface f1. The predetermined height of the blind spot interpolation voxel is set to, for example, the position of the luggage voxel located closest to the floor surface that is the blind spot. Therefore, the heights of the blind spot interpolation voxels vi21 and vi22 are set to the heights corresponding to the positions of the luggage voxels vx31 and vx32, respectively.

また、床面f2は、センサCの画角に起因して、センサCの死角となる。この場合において、補間部13は、床面f2の上の所定高さの空間領域を占める死角補間ボクセルvi23を生成する。死角補間ボクセルvi23の高さは、例えば、床面f2の最も近くに位置する荷物ボクセルvx31の位置に相当する高さに設定される。   Further, the floor surface f2 becomes a blind spot of the sensor C due to the angle of view of the sensor C. In this case, the interpolation unit 13 generates a blind spot interpolation voxel vi23 that occupies a spatial area of a predetermined height above the floor surface f2. The height of the blind spot interpolation voxel vi23 is set to a height corresponding to the position of the luggage voxel vx31 located closest to the floor surface f2, for example.

推定部14は、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する。   The estimation unit 14 is, based on the luggage voxels, the interpolation voxels, and the floor surface voxels, luggage area information indicating a space area occupied by the luggage and a space area possibly occupied by the luggage in the space of the luggage compartment, In addition, vacant floor information regarding the floor surface on which the luggage can be placed is estimated.

補間ボクセルが生成された空間領域は、荷物が存在する可能性がある空間領域であるので、本実施形態では、補間ボクセルが生成された空間領域を実質的に荷物に占められている空間領域として扱うこととしている。このような扱いに基づいて、具体的には、推定部14は、荷物ボクセル及び補間ボクセルに占められる容積情報、及び、荷物ボクセル及び補間ボクセルに占められる床面の面積情報の少なくともいずれか一方を、荷物領域情報として推定する。また、推定部14は、荷物ボクセル及び補間ボクセルにより占められていない床面の面積情報を、空き床情報として推定する。   Since the spatial area in which the interpolated voxels are generated is a spatial area in which luggage may exist, in the present embodiment, the spatial area in which the interpolated voxels are generated is regarded as a spatial area substantially occupied by luggage. I am going to handle it. Based on such handling, specifically, the estimation unit 14 determines at least one of the volume information occupied by the luggage voxels and the interpolation voxels, and the floor area information occupied by the luggage voxels and the interpolation voxels. , Estimated as luggage area information. Further, the estimation unit 14 estimates area information of the floor surface not occupied by the luggage voxels and the interpolation voxels as empty floor information.

図9は、荷物領域情報及び空き床情報の推定を模式的に示す図である。図9(a)は、荷室上面VUを示す図である。図9(b)は、荷室側面VSを示す図である。荷室上面VU及び車両側面VSに示される例では、生成された荷物ボクセルvx、荷物補間ボクセルvi1、死角補間ボクセルvi2及び床面ボクセルvfが示されている。推定部14は、荷物ボクセルvx、荷物補間ボクセルvi1及び死角補間ボクセルvi2の容積情報を荷物領域情報として算出してもよい。また、推定部14は、荷物ボクセルvx、荷物補間ボクセルvi1及び死角補間ボクセルvi2に占められる床面の面積情報を荷物領域情報として算出してもよい。また、推定部14は、床面ボクセルvfに占められた床面であって、荷物ボクセルvx、荷物補間ボクセルvi1及び死角補間ボクセルvi2により占められていない床面の面積情報を、空き床情報として推定してもよい。   FIG. 9 is a diagram schematically showing the estimation of luggage area information and empty floor information. FIG. 9A is a diagram showing the luggage compartment upper surface VU. FIG. 9B is a diagram showing the luggage compartment side surface VS. In the example shown on the luggage compartment upper surface VU and the vehicle side surface VS, the generated luggage voxel vx, luggage interpolation voxel vi1, blind spot interpolation voxel vi2, and floor surface voxel vf are shown. The estimation unit 14 may calculate the volume information of the luggage voxel vx, the luggage interpolation voxel vi1, and the blind spot interpolation voxel vi2 as the luggage area information. In addition, the estimation unit 14 may calculate the area information of the floor surface occupied by the baggage voxel vx, the baggage interpolation voxel vi1, and the blind spot interpolation voxel vi2 as baggage region information. Further, the estimation unit 14 uses, as empty floor information, area information of the floor surface occupied by the floor surface voxels vf and not occupied by the luggage voxel vx, the luggage interpolation voxel vi1 and the blind spot interpolation voxel vi2. It may be estimated.

次に、図10及び図11を参照して、複数のセンサCからの距離画像に基づく補間ボクセルの扱いについて説明する。図10は、補間ボクセルと荷物ボクセルまたは床面ボクセルとが重複した第1の例を示す図である。図10に示す例では、荷室内において第1のセンサC1及び第2のセンサC2が設けられており、第1のセンサC1により取得された第1の距離画像及び第2のセンサC2により取得された第2の距離画像が取得部11により取得される。そして、図10には、第1の距離画像に基づいて生成された荷物ボクセルvx41及び荷物補間ボクセルvi14、並びに第2の距離画像に基づいて生成された荷物ボクセルvx42が示されており、荷物補間ボクセルvi14と荷物ボクセルvx42とが重複している。このような場合において、推定部14は、荷物補間ボクセルvi14と荷物ボクセルvx42との重複位置である領域fd4上の空間領域には、荷物補間ボクセルvi14が配置されるものとして、荷物領域情報及び空き床情報を推定する。   Next, with reference to FIGS. 10 and 11, handling of interpolated voxels based on distance images from a plurality of sensors C will be described. FIG. 10 is a diagram showing a first example in which interpolation voxels overlap with baggage voxels or floor voxels. In the example shown in FIG. 10, the first sensor C1 and the second sensor C2 are provided in the luggage compartment, and the first distance image acquired by the first sensor C1 and the second sensor C2 are acquired. The second distance image is acquired by the acquisition unit 11. Then, FIG. 10 shows the baggage voxel vx41 and the baggage interpolation voxel vi14 generated based on the first distance image, and the baggage voxel vx42 generated based on the second distance image. The voxel vi14 and the baggage voxel vx42 overlap. In such a case, the estimation unit 14 determines that the baggage interpolation voxel vi14 is arranged in the space area on the area fd4, which is the overlapping position of the baggage interpolation voxel vi14 and the baggage voxel vx42, and the baggage area information and the vacant space. Estimate floor information.

即ち、荷物補間ボクセルが生成された空間領域は、さらに荷物を配することができない領域である。図10に示す例により説明したように、第2の距離画像に基づく荷物ボクセルが生成された空間領域であっても、その空間領域において第1の距離画像に基づく荷物補間ボクセルと重複する場合には、その空間領域は、荷物を配することができない領域であるので、荷物補間ベクトルが配置されるものとして扱われる。なお、荷物ボクセルvx42に代えて、第2の距離画像に基づく床面ボクセルが荷物補間ボクセルvi14と重複する場合においても、同様に、その重複領域には荷物補間ボクセルvi14が配置されるものとして、荷物領域情報及び空き床情報が推定される。   That is, the space area in which the baggage interpolation voxel is generated is an area in which no baggage can be further arranged. As described with reference to the example shown in FIG. 10, even if the space area in which the luggage voxel based on the second distance image is generated overlaps with the luggage interpolation voxel based on the first distance image in the spatial area. Is treated as the space where the baggage interpolation vector is arranged, because the space region is a region where the baggage cannot be arranged. Even when the floor voxel based on the second distance image overlaps with the baggage interpolation voxel vi14 instead of the baggage voxel vx42, similarly, the baggage interpolation voxel vi14 is arranged in the overlapping region, The luggage area information and the empty floor information are estimated.

図11は、補間ボクセルと荷物ボクセルまたは床面ボクセルとが重複した第2の例を示す図である。図11に示す例では、荷室内において第1のセンサC1及び第2のセンサC2が設けられており、第1のセンサC1により取得された第1の距離画像及び第2のセンサC2により取得された第2の距離画像が取得部11により取得される。そして、図11には、第1の距離画像に基づいて生成された荷物ボクセルvx51、荷物補間ボクセルvi15及び死角補間ボクセルvi25、並びに第2の距離画像に基づいて生成された荷物ボクセルvx52が示されており、死角補間ボクセルvi25と荷物ボクセルvx52とが重複している。このような場合において、推定部14は、死角補間ボクセルvi25と荷物ボクセルvx52との重複位置を含む領域fd5上の空間領域には、荷物ボクセルvx52が配置されるものとして、荷物領域情報及び空き床情報を推定する。   FIG. 11 is a diagram showing a second example in which interpolation voxels overlap with baggage voxels or floor voxels. In the example shown in FIG. 11, the first sensor C1 and the second sensor C2 are provided in the luggage compartment, and the first distance image acquired by the first sensor C1 and the second sensor C2 are acquired. The second distance image is acquired by the acquisition unit 11. Then, FIG. 11 shows the luggage voxel vx51, the luggage interpolation voxel vi15 and the blind spot interpolation voxel vi25 generated based on the first distance image, and the luggage voxel vx52 generated based on the second distance image. The blind spot interpolation voxel vi25 and the baggage voxel vx52 overlap. In such a case, the estimation unit 14 determines that the luggage voxel vx52 is arranged in the space area on the area fd5 including the overlapping position of the blind spot interpolation voxel vi25 and the luggage voxel vx52, and determines the luggage area information and the empty floor. Estimate the information.

即ち、死角補間ボクセルが生成された空間領域は、さらに荷物を配することが出来るか否かが不明な領域である。図11に示す例により説明したように、第1の距離画像に基づく第1の死角補間ボクセルが生成された領域に、第2の距離画像に基づく荷物ボクセルが重複する場合には、その空間領域の状況は、第2の距離画像に基づく荷物ボクセルにより正しく反映される。かかる場合に、当該重複領域に第2の距離画像に基づく荷物ボクセルが配置されるものとして、荷物領域情報及び空き床情報が推定されるので、荷物を配するための床面の空き状況を適切に把握できる。なお、荷物ボクセルvx52に代えて、第2の距離画像に基づく床面ボクセルが死角補間ボクセルvi25と重複する場合においても、同様に、その重複領域には荷物ボクセルvx52が配置されるものとして、荷物領域情報及び空き床情報が推定される。   That is, the spatial area in which the blind spot interpolation voxel is generated is an area in which it is unclear whether or not more luggage can be placed. As described with reference to the example illustrated in FIG. 11, when the luggage voxel based on the second distance image overlaps the area where the first blind spot interpolation voxel based on the first distance image is generated, the spatial area This situation is correctly reflected by the luggage voxel based on the second range image. In such a case, the luggage area information and the vacant floor information are estimated assuming that the luggage voxel based on the second distance image is arranged in the overlapping area, and therefore the vacant floor condition for allocating the luggage is appropriate. Can understand. Even if the floor surface voxel based on the second distance image overlaps with the blind spot interpolation voxel vi25 instead of the luggage voxel vx52, the luggage voxel vx52 is similarly arranged in the overlapping area as the luggage voxel vx52. Area information and vacant floor information are estimated.

再び図3を参照して、出力部15は、荷物領域情報及び空き床情報を出力する。出力部15は、種々の態様により荷物領域情報及び空き床情報を出力できる。例えば、出力部15は、所定のコンピュータのディスプレイに荷物領域情報及び空き床情報を表示させることにより出力してもよい。また、出力部15は、後に実施される所定の処理のために、所定の記憶手段に記憶させることにより荷物領域情報及び空き床情報を出力してもよい。   Referring again to FIG. 3, the output unit 15 outputs the luggage area information and the empty floor information. The output unit 15 can output the luggage area information and the empty floor information in various modes. For example, the output unit 15 may output by displaying the luggage area information and the vacant floor information on the display of a predetermined computer. Further, the output unit 15 may output the luggage area information and the empty floor information by storing the information in a predetermined storage unit for a predetermined process performed later.

また、出力部15は、荷室空間並びに荷物ボクセル、補間ボクセル及び床面ボクセルを視覚的に示す画像を、荷物領域情報及び空き床情報として出力してもよい。図12は、ボクセルを視覚的に示す画像の例を示す図である。図12(a)は、荷室Rの空間及び荷物ボクセルを表示する画像の例を示す図である。図12(b)は、荷室Rの空間及び荷物補間ボクセルを表示する画像の例を示す図である。図12(c)は、荷室Rの空間及び死角補間ボクセル及び床面ボクセルを表示する画像の例を示す図である。   Further, the output unit 15 may output an image visually showing the luggage space, the luggage voxels, the interpolation voxels, and the floor surface voxels as the luggage area information and the empty floor information. FIG. 12 is a diagram showing an example of an image visually showing voxels. FIG. 12A is a diagram showing an example of an image displaying the space of the luggage compartment R and the luggage voxels. FIG. 12B is a diagram showing an example of an image displaying the space of the luggage compartment R and the luggage interpolation voxels. FIG. 12C is a diagram showing an example of an image displaying the space of the luggage compartment R, the blind spot interpolation voxels, and the floor voxels.

図12(a)に示すように、出力部15は、荷室Rの空間及び荷物ボクセルvx6を視覚的に示す画像pc1を荷物領域情報及び空き床情報として出力してもよい。また、図12(b)に示すように、出力部15は、荷室Rの空間及び荷物補間ボクセルvi16を視覚的に示す画像pc2を荷物領域情報及び空き床情報として出力してもよい。また、図12(c)に示すように、出力部15は、荷室Rの空間、死角補間ボクセルvi26及び床面ボクセルvf6を視覚的に示す画像pc3を荷物領域情報及び空き床情報として出力してもよい。このような画像が出力されることにより、荷室内の積荷の状態を的確に把握することが可能となる。   As illustrated in FIG. 12A, the output unit 15 may output an image pc1 visually showing the space of the luggage compartment R and the luggage voxel vx6 as luggage area information and empty floor information. Further, as shown in FIG. 12B, the output unit 15 may output an image pc2 visually showing the space of the luggage compartment R and the luggage interpolation voxel vi16 as luggage area information and empty floor information. Further, as shown in FIG. 12C, the output unit 15 outputs an image pc3 visually showing the space of the luggage compartment R, the blind spot interpolation voxels vi26, and the floor surface voxels vf6 as luggage area information and empty floor information. May be. By outputting such an image, it becomes possible to accurately grasp the state of the cargo in the luggage compartment.

次に、図13を参照して、本実施形態の荷室監視装置10の動作について説明する。図13は、荷室監視装置10において実施される荷室監視方法の処理内容を示すフローチャートである。   Next, the operation of the luggage compartment monitoring device 10 of the present exemplary embodiment will be described with reference to FIG. 13. FIG. 13 is a flowchart showing the processing contents of the luggage compartment monitoring method implemented in the luggage compartment monitoring device 10.

ステップS1において、取得部11は、センサCにより取得された距離画像を取得する。次に、ステップS2において、生成部12は、距離画像、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷物ボクセル及び床面ボクセルを生成する。   In step S1, the acquisition unit 11 acquires the range image acquired by the sensor C. Next, in step S2, the generation unit 12 generates a load voxel and a floor voxel based on the distance image and the sensor arrangement position and the imaging direction in the luggage space.

続いて、ステップS3において、補間部13は、荷室空間においてセンサCから死角となる空間領域に補間ボクセルを生成する。補間ボクセルは、荷物補間ボクセル及び死角補間ボクセルを含む。   Subsequently, in step S3, the interpolation unit 13 generates interpolation voxels from the sensor C in the dead space in the space area of the luggage compartment space. The interpolation voxels include baggage interpolation voxels and blind spot interpolation voxels.

ステップS4において、推定部14は、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する。そして、ステップS5において、出力部15は、荷物領域情報及び空き床情報を出力する。   In step S4, the estimation unit 14 indicates a space area occupied by the luggage and a space area possibly occupied by the luggage in the space of the luggage compartment based on the luggage voxels, the interpolation voxels, and the floor voxels. Estimate the luggage area information and the empty floor information regarding the floor on which the luggage can be placed. Then, in step S5, the output unit 15 outputs the luggage area information and the empty floor information.

次に、図14を参照して、コンピュータを荷室監視装置10として機能させるための荷室監視プログラムを説明する。荷室監視プログラムP1は、メインモジュールm10、取得モジュールm11、生成モジュールm12、補間モジュールm13、推定モジュールm14及び出力モジュールm15を含む。   Next, a luggage compartment monitoring program for causing a computer to function as the luggage compartment monitoring device 10 will be described with reference to FIG. 14. The luggage compartment monitoring program P1 includes a main module m10, an acquisition module m11, a generation module m12, an interpolation module m13, an estimation module m14, and an output module m15.

メインモジュールm10は、荷室監視処理を統括的に制御する部分である。取得モジュールm11、生成モジュールm12、補間モジュールm13、推定モジュールm14及び出力モジュールm15を実行することにより実現される機能はそれぞれ、図3に示される荷室監視装置10の取得部11、生成部12、補間部13、推定部14及び出力部15
の機能と同様である。
The main module m10 is a part that integrally controls the luggage compartment monitoring process. The functions realized by executing the acquisition module m11, the generation module m12, the interpolation module m13, the estimation module m14, and the output module m15 are respectively the acquisition unit 11, the generation unit 12, and the acquisition unit 11 of the luggage compartment monitoring device 10 illustrated in FIG. Interpolation unit 13, estimation unit 14, and output unit 15
Is similar to the function of.

荷室監視プログラムP1は、例えば、磁気ディスクや光ディスクまたは半導体メモリ等の記憶媒体M1によって提供される。また、荷室監視プログラムP1は、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。   The luggage compartment monitoring program P1 is provided by a storage medium M1 such as a magnetic disk, an optical disk, or a semiconductor memory, for example. The luggage compartment monitoring program P1 may be provided via a communication network as a computer data signal superimposed on a carrier wave.

以上説明した本実施形態の荷室監視装置10、荷室監視方法及び荷室監視プログラムP1によれば、距離画像に基づいて、荷物表面の位置を示す情報である荷物ボクセルが得られる。また、荷物ボクセル及びセンサの死角を示す情報等に基づいて、実質的に荷物を置くことができない可能性のある空間領域を示す補間ボクセルを得ることができるので、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報を得ることができる。従って、さらに荷物を配置可能な床面を示す空き床情報を出力することが可能となる。   According to the luggage compartment monitoring device 10, the luggage compartment monitoring method, and the luggage compartment monitoring program P1 of the present embodiment described above, a luggage voxel that is information indicating the position of the luggage surface is obtained based on the distance image. Further, based on the information indicating the blind spots of the luggage voxel and the sensor, etc., it is possible to obtain an interpolated voxel indicating a space area in which the luggage may not be practically placed. It is possible to obtain baggage region information indicating the space region that is occupied and the space region that may be occupied by the package. Therefore, it becomes possible to output the vacant floor information indicating the floor surface on which the luggage can be placed.

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。   The present invention has been described in detail above based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.

1…システム、10…荷室監視装置、11…取得部、12…生成部、13…補間部、14…推定部、15…出力部、C…センサ、M1…記憶媒体、m10…メインモジュール、m11…取得モジュール、m12…生成モジュール、m13…補間モジュール、m14…推定モジュール、m15…出力モジュール、N…ネットワーク、P1…荷室監視プログラム、R…荷室、T…端末、V…車両。   DESCRIPTION OF SYMBOLS 1 ... System, 10 ... Luggage compartment monitoring device, 11 ... Acquisition part, 12 ... Generation part, 13 ... Interpolation part, 14 ... Estimation part, 15 ... Output part, C ... Sensor, M1 ... Storage medium, m10 ... Main module, m11 ... Acquisition module, m12 ... Generation module, m13 ... Interpolation module, m14 ... Estimation module, m15 ... Output module, N ... Network, P1 ... Luggage compartment monitoring program, R ... Luggage compartment, T ... Terminal, V ... Vehicle.

Claims (10)

荷室の内部の状態を監視する荷室監視システムであって、
前記荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得部と、
前記距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、前記床面の位置を示す情報である床面ボクセルを生成する生成部と、
前記荷室空間において前記センサから死角となる空間領域に補間ボクセルを生成する補間部と、
前記荷物ボクセル、前記補間ボクセル及び前記床面ボクセルに基づいて、前記荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定部と、
前記荷物領域情報及び前記空き床情報を出力する出力部と、
を備える荷室監視システム。
A luggage compartment monitoring system for monitoring the internal condition of the luggage compartment,
An acquisition unit that acquires a distance image acquired by each of at least two sensors provided on a surface other than the floor that constitutes the lower surface of the luggage compartment;
Based on the information of the distance to the object shown in the distance image, and the position in the luggage compartment space of the surface of the luggage existing in the luggage compartment, based on the arrangement position and the imaging direction of the sensor in the luggage compartment space. A certain baggage voxel, and a generation unit that generates a floor surface voxel that is information indicating the position of the floor surface,
An interpolation unit that generates interpolation voxels in a space area that is a blind spot from the sensor in the luggage space,
Based on the luggage voxel, the interpolation voxel and the floor surface voxel, luggage area information indicating a space area occupied by luggage and a space area possibly occupied by luggage in the space of the luggage room, and , An estimation unit that estimates empty floor information about a floor on which luggage can be placed,
An output unit that outputs the luggage area information and the empty floor information,
Luggage compartment monitoring system.
前記補間ボクセルは、前記荷物ボクセルの鉛直下方の、該荷物ボクセルから前記床面までの空間領域を占める荷物補間ボクセルを含む、
請求項1に記載の荷室監視システム。
The interpolation voxel includes a load interpolation voxel that occupies a space area from the load voxel to the floor surface vertically below the load voxel.
The luggage compartment monitoring system according to claim 1.
前記補間ボクセルは、前記荷物または前記センサの画角に起因して前記センサから死角となる床面の上の所定高さの空間領域を占める死角補間ボクセルを含む、
請求項2に記載の荷室監視システム。
The interpolation voxel includes a blind spot interpolation voxel that occupies a space area of a predetermined height above a floor surface that is a blind spot from the sensor due to an angle of view of the luggage or the sensor,
The luggage compartment monitoring system according to claim 2.
前記少なくとも2以上のセンサは、第1のセンサ及び第2のセンサを含み、
前記取得部は、前記第1のセンサにより取得された第1の距離画像及び前記第2のセンサにより取得された第2の距離画像を取得し、
前記推定部は、前記第1の距離画像に基づく前記荷物補間ボクセルである第1の荷物補間ボクセルと、前記第2の距離画像に基づく荷物ボクセルまたは床面ボクセルとが重複した場合に、当該重複位置には前記第1の荷物補間ボクセルが配置されるものとして、前記荷物領域情報及び前記空き床情報を推定する、
請求項3に記載の荷室監視システム。
The at least two or more sensors include a first sensor and a second sensor,
The acquisition unit acquires a first distance image acquired by the first sensor and a second distance image acquired by the second sensor,
If the first baggage interpolation voxel, which is the baggage interpolation voxel based on the first distance image, and the baggage voxel or the floor voxel based on the second distance image overlap, the estimation unit performs the duplication. Assuming that the first baggage interpolation voxel is arranged at the position, the baggage area information and the empty floor information are estimated.
The luggage compartment monitoring system according to claim 3.
前記推定部は、前記第1の距離画像に基づく前記死角補間ボクセルである第1の死角補間ボクセルと、前記第2の距離画像に基づく前記荷物ボクセルまたは前記床面ボクセルとが重複した場合に、当該重複位置には前記第2の距離画像に基づく前記荷物ボクセルまたは前記床面ボクセルが配置されるものとして、前記荷物領域情報及び前記空き床情報を推定する、
請求項4に記載の荷室監視システム。
The estimation unit, when the blind spot interpolation voxels that are the blind spot interpolation voxels based on the first distance image, and the luggage voxels or the floor surface voxels based on the second distance image overlap, Assuming that the luggage voxel or the floor voxel based on the second distance image is arranged at the overlapping position, the luggage area information and the empty floor information are estimated.
The luggage compartment monitoring system according to claim 4.
前記推定部は、前記荷物ボクセル及び前記補間ボクセルに占められる容積情報、及び、前記荷物ボクセル及び前記補間ボクセルに占められる床面の面積情報の少なくともいずれか一方を、前記荷物領域情報として推定する、
請求項1〜5のいずれか一項に記載の荷室監視システム。
The estimation unit estimates, as the luggage area information, at least one of volume information occupied by the luggage voxels and the interpolation voxels, and floor area information occupied by the luggage voxels and the interpolation voxels.
The luggage compartment monitoring system according to any one of claims 1 to 5.
前記推定部は、前記荷物ボクセル及び前記補間ボクセルにより占められていない床面の面積情報を、前記空き床情報として推定する、
請求項1〜6のいずれか一項に記載の荷室監視システム。
The estimation unit estimates area information of a floor surface not occupied by the luggage voxel and the interpolation voxel as the empty floor information,
The luggage compartment monitoring system according to any one of claims 1 to 6.
前記出力部は、前記荷室空間並びに前記荷物ボクセル、前記補間ボクセル及び床面ボクセルを視覚的に示す画像を、前記荷物領域情報及び前記空き床情報として出力する、
請求項1〜7のいずれか一項に記載の荷室監視システム。
The output unit outputs an image visually showing the luggage space and the luggage voxels, the interpolation voxels and the floor surface voxels as the luggage area information and the empty floor information,
The luggage compartment monitoring system according to any one of claims 1 to 7.
荷室の内部の状態を監視する荷室監視システムにおける荷室監視方法であって、
前記荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得ステップと、
前記距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、前記床面の位置を示す情報である床面ボクセルを生成する生成ステップと、
前記荷室空間において前記センサから死角となる空間領域に補間ボクセルを生成する補間ステップと、
前記荷物ボクセル、前記補間ボクセル及び前記床面ボクセルに基づいて、前記荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定ステップと、
前記荷物領域情報及び前記空き床情報を出力する出力ステップと、
を有する荷室監視方法。
A luggage compartment monitoring method in a luggage compartment monitoring system for monitoring the internal state of a luggage compartment,
An acquisition step of acquiring a distance image acquired by each of at least two or more sensors provided on a surface other than a floor constituting the lower surface of the luggage compartment;
Based on the information of the distance to the object shown in the distance image, and the position in the luggage compartment space of the surface of the luggage existing in the luggage compartment, based on the arrangement position and the imaging direction of the sensor in the luggage compartment space. A luggage voxel, and a generation step of generating a floor voxel that is information indicating the position of the floor,
An interpolation step of generating an interpolation voxel in the space area that is a blind spot from the sensor in the luggage space;
Based on the luggage voxel, the interpolation voxel and the floor surface voxel, luggage area information indicating a space area occupied by luggage and a space area possibly occupied by luggage in the space of the luggage room, and An estimation step of estimating empty floor information about a floor on which luggage can be placed,
An output step of outputting the luggage area information and the empty floor information,
And a luggage compartment monitoring method.
コンピュータを、荷室の内部の状態を監視する荷室監視システムとして機能させるための荷室監視プログラムであって、
前記コンピュータに、
前記荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得機能と、
前記距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、前記床面の位置を示す情報である床面ボクセルを生成する生成機能と、
前記荷室空間において前記センサから死角となる空間領域に補間ボクセルを生成する補間機能と、
前記荷物ボクセル、前記補間ボクセル及び前記床面ボクセルに基づいて、前記荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定機能と、
前記荷物領域情報及び前記空き床情報を出力する出力機能と、
を実現させる荷室監視プログラム。
A cargo compartment monitoring program for causing a computer to function as a cargo compartment monitoring system for monitoring an internal state of a cargo compartment,
On the computer,
An acquisition function for acquiring a distance image acquired by each of at least two or more sensors provided on a surface other than a floor constituting the lower surface of the luggage compartment;
Based on the information of the distance to the object shown in the distance image, and the position of the sensor in the luggage space and the imaging direction, information indicating the position of the surface of the luggage existing in the luggage space in the luggage space. A certain baggage voxel, and a generation function for generating a floor surface voxel that is information indicating the position of the floor surface,
An interpolation function for generating interpolation voxels in a space area that is a blind spot from the sensor in the luggage space,
Based on the luggage voxel, the interpolation voxel and the floor surface voxel, luggage area information indicating a space area occupied by luggage and a space area possibly occupied by luggage in the space of the luggage room, and , An estimation function that estimates empty floor information about the floor on which luggage can be placed,
An output function for outputting the luggage area information and the empty floor information,
A cargo compartment monitoring program that realizes
JP2018192020A 2018-10-10 2018-10-10 Luggage room monitoring system and luggage room monitoring method Active JP7191630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192020A JP7191630B2 (en) 2018-10-10 2018-10-10 Luggage room monitoring system and luggage room monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192020A JP7191630B2 (en) 2018-10-10 2018-10-10 Luggage room monitoring system and luggage room monitoring method

Publications (2)

Publication Number Publication Date
JP2020060451A true JP2020060451A (en) 2020-04-16
JP7191630B2 JP7191630B2 (en) 2022-12-19

Family

ID=70219994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192020A Active JP7191630B2 (en) 2018-10-10 2018-10-10 Luggage room monitoring system and luggage room monitoring method

Country Status (1)

Country Link
JP (1) JP7191630B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022054555A (en) * 2020-09-28 2022-04-07 株式会社城東情報研究所 Cargo chamber empty volume measurement system using depth sensor
WO2022138715A1 (en) * 2020-12-25 2022-06-30 日本電気通信システム株式会社 Load capacity rate measuring device, system, method, and program
WO2022181753A1 (en) * 2021-02-26 2022-09-01 日本電気通信システム株式会社 Loading space recognition device, system, method, and program
WO2022202564A1 (en) * 2021-03-24 2022-09-29 いすゞ自動車株式会社 Detecting device, and loading ratio estimating system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005001480B3 (en) * 2005-01-12 2006-10-26 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Loading space e.g. container, utilization detecting device for e.g. truck, has evaluation unit evaluating volume utilization and/or surface utilization as parameters of utilization of loading space from determined geometrical size
JP2011149952A (en) * 2011-03-10 2011-08-04 Sanyo Electric Co Ltd Model input device and model generation system
WO2017175312A1 (en) * 2016-04-05 2017-10-12 株式会社日立物流 Measurement system and measurement method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005001480B3 (en) * 2005-01-12 2006-10-26 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Loading space e.g. container, utilization detecting device for e.g. truck, has evaluation unit evaluating volume utilization and/or surface utilization as parameters of utilization of loading space from determined geometrical size
JP2011149952A (en) * 2011-03-10 2011-08-04 Sanyo Electric Co Ltd Model input device and model generation system
WO2017175312A1 (en) * 2016-04-05 2017-10-12 株式会社日立物流 Measurement system and measurement method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022054555A (en) * 2020-09-28 2022-04-07 株式会社城東情報研究所 Cargo chamber empty volume measurement system using depth sensor
WO2022138715A1 (en) * 2020-12-25 2022-06-30 日本電気通信システム株式会社 Load capacity rate measuring device, system, method, and program
WO2022181753A1 (en) * 2021-02-26 2022-09-01 日本電気通信システム株式会社 Loading space recognition device, system, method, and program
WO2022202564A1 (en) * 2021-03-24 2022-09-29 いすゞ自動車株式会社 Detecting device, and loading ratio estimating system
JP7342907B2 (en) 2021-03-24 2023-09-12 いすゞ自動車株式会社 Detection device and loading rate estimation system

Also Published As

Publication number Publication date
JP7191630B2 (en) 2022-12-19

Similar Documents

Publication Publication Date Title
JP7191630B2 (en) Luggage room monitoring system and luggage room monitoring method
CN110992356B (en) Target object detection method and device and computer equipment
CN109916302B (en) Volume measurement method and system for cargo carrying box
US20190311497A1 (en) Methods and computer program products for calibrating stereo imaging systems by using a planar mirror
EP3575766A1 (en) Rigidity measurement device and rigidity measurement method
JPWO2020066847A1 (en) Measuring device and measuring method
JP4943034B2 (en) Stereo image processing device
EP3438602B1 (en) Dimension measurement apparatus and control method of the same
US20150029219A1 (en) Information processing apparatus, displaying method and storage medium
JP2020064335A (en) Shape information generation device, control device, unloading device, distribution system, program, and control method
JPWO2015040657A1 (en) Image processing apparatus, image processing method, and image processing program
JP2020064588A (en) Shape information generation device, control device, unloading device, distribution system, program, and control method
CN110782464B (en) Calculation method of object accumulation 3D space occupancy rate, coder-decoder and storage device
CN114882465A (en) Visual perception method and device, storage medium and electronic equipment
CN111383355A (en) Three-dimensional point cloud completion method and device and computer readable storage medium
CN113689508A (en) Point cloud marking method and device, storage medium and electronic equipment
JP7322686B2 (en) Loading judgment system and program
EP3009983A1 (en) Obstacle detection apparatus and method
JP7210216B2 (en) Loading place mediation system, loading place mediating method, and loading place mediation program
WO2022181753A1 (en) Loading space recognition device, system, method, and program
JP7323170B2 (en) Loading volume ratio measuring device, system, method and program
JP2014071895A (en) Object division device and method
CN105760375B (en) Gantt chart display methods and system
CN103729844B (en) Motionlessness detecting method and device
JP7464460B2 (en) Information processing device, distribution status detection system, distribution status detection method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7191630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150