JP2020060451A - Luggage space monitoring system and luggage space monitoring method - Google Patents
Luggage space monitoring system and luggage space monitoring method Download PDFInfo
- Publication number
- JP2020060451A JP2020060451A JP2018192020A JP2018192020A JP2020060451A JP 2020060451 A JP2020060451 A JP 2020060451A JP 2018192020 A JP2018192020 A JP 2018192020A JP 2018192020 A JP2018192020 A JP 2018192020A JP 2020060451 A JP2020060451 A JP 2020060451A
- Authority
- JP
- Japan
- Prior art keywords
- luggage
- voxel
- floor
- interpolation
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、荷室監視システム及び荷室監視方法及びに関する。 The present invention relates to a luggage compartment monitoring system and a luggage compartment monitoring method.
車両による物流の効率化のために、車両の荷室の積荷の状態を的確に把握することが求められており、特に、荷物の容量及び荷物が置かれていない床面である空き床の床面積を把握することが求められている。例えば、荷室内の状況を視覚的に認識するために、光学的カメラを荷室内に設けて、荷室内の画像を取得することが行われている。また、3次元計測センサを3台用いて計測対象の体積を計測する技術が知られている。(例えば、特許文献1参照)。 In order to improve the efficiency of physical distribution by vehicles, it is required to accurately grasp the state of the cargo in the luggage compartment of the vehicle. Especially, the capacity of the luggage and the floor of an empty floor where the luggage is not placed. It is required to grasp the area. For example, in order to visually recognize the situation in the luggage compartment, an optical camera is provided in the luggage compartment to acquire an image of the luggage compartment. Further, there is known a technique of measuring the volume of a measurement target using three three-dimensional measurement sensors. (For example, refer to Patent Document 1).
従来の光学的カメラにより画像を取得する方法では、荷室内の荷物の容量及び空き床面積を正確に把握することはできなかった。また、特許文献1に記載された技術を適用して、荷室内に計測センサを設けて荷物の体積を計測する場合には、多くのセンサが必要とされるので、その計測は煩雑であり、計測のためのコストが嵩んでいた。一方、物流の効率化のために、荷物の正確な体積を把握することも必要であるが、荷物が積まれた荷室にどの程度の荷物をさらに積むことができるかを的確且つ容易に把握することも求められている。
With the conventional method of acquiring an image with an optical camera, it is not possible to accurately grasp the capacity of the luggage and the vacant floor area in the luggage compartment. Further, when the technique described in
そこで本発明は、荷室内の積荷の状態を的確に把握すること、特に、荷室において荷物に占められる空間領域を的確に把握することにより、さらに荷物を配するための床面の空き状況を把握することを目的とする。 Therefore, the present invention accurately grasps the state of the cargo in the luggage compartment, and in particular, accurately grasps the space area occupied by the luggage in the luggage compartment, so as to determine the availability of the floor surface for further luggage distribution. The purpose is to grasp.
本発明の一形態に係る荷室監視システムは、荷室の内部の状態を監視する荷室監視システムであって、荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得部と、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する生成部と、荷室空間においてセンサから死角となる空間領域に補間ボクセルを生成する補間部と、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定部と、荷物領域情報及び空き床情報を出力する出力部と、を備える。 A luggage compartment monitoring system according to an aspect of the present invention is a luggage compartment monitoring system that monitors an internal state of a luggage compartment, and includes at least two sensors provided on a surface other than a floor forming a lower surface of the luggage compartment. Based on the acquisition unit that acquires the distance image acquired by each, information on the distance to the object shown in the distance image, and the placement position and imaging direction of the sensor in the luggage space, the luggage existing in the luggage compartment. A parcel voxel that is information indicating the position of the surface of the inside of the luggage compartment space, and a floor voxel that is the information indicating the position of the floor surface, and a space area that is a blind spot from the sensor in the luggage compartment space. Based on the interpolator that generates the interpolated voxels and the luggage voxels, the interpolated voxels, and the floor voxels, the space area occupied by the luggage in the space of the luggage compartment and the luggage can be occupied. Comprising cargo area information indicating a spatial region where there is a gender, and an estimation unit that estimates a free floor information on the floor can be placed luggage, and an output unit for outputting the cargo area information and free floor information.
本発明の一形態に係る荷室監視方法は、荷室の内部の状態を監視する荷室監視システムにおける荷室監視方法であって、荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得ステップと、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する生成ステップと、荷室空間においてセンサから死角となる空間領域に補間ボクセルを生成する補間ステップと、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定ステップと、荷物領域情報及び空き床情報を出力する出力ステップと、を有する。 A luggage compartment monitoring method according to an aspect of the present invention is a luggage compartment monitoring method in a luggage compartment monitoring system that monitors an internal state of a luggage compartment, and is provided at least on a floor other than a floor forming a lower surface of the luggage compartment. Based on the acquisition step of acquiring the distance image acquired by each of the two or more sensors, the information on the distance to the object shown in the distance image, and the arrangement position and the imaging direction of the sensor in the luggage space, A generation step of generating a luggage voxel that is information indicating the position of the surface of luggage existing in the room in the luggage compartment space and a floor voxel that is information indicating the position of the floor surface, and a blind spot from the sensor in the luggage compartment space. Interpolation step to generate interpolated voxels in the space area that becomes and the baggage is occupied in the space of the luggage compartment based on the baggage voxels, the interpolated voxels and the floor voxels. Outputting baggage area information and vacant floor information, and an estimation step of estimating baggage area information indicating a space area that may be occupied by baggage and luggage, and vacant floor information regarding a floor surface on which luggage can be placed And an output step to perform.
本発明の一形態に係る荷室監視プログラムは、コンピュータを、荷室の内部の状態を監視する荷室監視システムとして機能させるための荷室監視プログラムであって、コンピュータに、荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得機能と、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する生成機能と、荷室空間においてセンサから死角となる空間領域に補間ボクセルを生成する補間機能と、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定機能と、荷物領域情報及び空き床情報を出力する出力機能と、を実現させる。 A luggage compartment monitoring program according to an aspect of the present invention is a luggage compartment monitoring program for causing a computer to function as a luggage compartment monitoring system that monitors an internal state of the luggage compartment. An acquisition function of acquiring a distance image acquired by each of at least two or more sensors provided on other than the constituent floor surface, information on a distance to an object shown in the distance image, and a sensor in the luggage space. Generation that generates a luggage voxel that is information indicating the position in the luggage space of the surface of luggage existing in the luggage space and a floor voxel that is information indicating the position of the floor surface, based on the arrangement position and the imaging direction The function and the interpolation function to generate interpolation voxels from the sensor in the space area that becomes a blind spot in the luggage space, and based on the baggage voxel, the interpolation voxel and the floor voxel. And estimating the space area information indicating the space area occupied by the luggage and the space area possibly occupied by the luggage in the space of the luggage compartment, and the empty floor information regarding the floor surface on which the luggage can be arranged. An estimation function and an output function for outputting luggage area information and empty floor information are realized.
上記の形態によれば、距離画像に基づいて、荷物表面の位置を示す情報である荷物ボクセルが得られる。また、荷物ボクセル及びセンサの死角を示す情報等に基づいて、実質的に荷物を置くことができない可能性のある空間領域を示す補間ボクセルを得ることができるので、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報を得ることができる。従って、さらに荷物を配置可能な床面を示す空き床情報を出力することが可能となる。 According to the above-mentioned form, a baggage voxel that is information indicating the position of the baggage surface can be obtained based on the distance image. Further, based on the information indicating the blind spots of the luggage voxel and the sensor, etc., it is possible to obtain an interpolated voxel indicating a space area in which the luggage may not be practically placed. It is possible to obtain baggage region information indicating the space region that is occupied and the space region that may be occupied by the package. Therefore, it becomes possible to output the vacant floor information indicating the floor surface on which the luggage can be placed.
別の形態に係る荷室監視システムでは、補間ボクセルは、荷物ボクセルの鉛直下方の、該荷物ボクセルから床面までの空間領域を占める荷物補間ボクセルを含むこととしてもよい。 In the luggage compartment monitoring system according to another aspect, the interpolation voxel may include a luggage interpolation voxel that occupies a space region from the luggage voxel to a floor surface vertically below the luggage voxel.
荷物の形状に起因して荷物の上面の下方に荷物に占められていない空間があったとしても、その空間には、さらに荷物を配することができない。上記形態によれば、このような、荷物を配することができない空間領域を実質的に荷物に占められている空間領域として扱うこととして荷物補間ボクセルが生成されるので、荷物を配するための床面の空き状況を適切に把握できる。 Even if there is a space below the upper surface of the luggage that is not occupied by the luggage due to the shape of the luggage, it is not possible to place more luggage in that space. According to the above aspect, the luggage interpolation voxel is generated by treating such a space area in which the luggage cannot be arranged as a space area substantially occupied by the luggage. You can properly understand the availability of the floor.
別の形態に係る荷室監視システムでは、少なくとも2以上のセンサは、第1のセンサ及び第2のセンサを含み、取得部は、第1のセンサにより取得された第1の距離画像及び第2のセンサにより取得された第2の距離画像を取得し、推定部は、第1の距離画像に基づく荷物補間ボクセルである第1の荷物補間ボクセルと、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルとが重複した場合に、当該重複位置には第1の荷物補間ボクセルが配置されるものとして、荷物領域情報及び空き床情報を推定することとしてもよい。 In a luggage compartment monitoring system according to another aspect, at least two or more sensors include a first sensor and a second sensor, and the acquisition unit includes a first distance image and a second distance image acquired by the first sensor. The second distance image acquired by the sensor of the first distance image is acquired, and the estimation unit determines the first baggage interpolation voxel that is the baggage interpolation voxel based on the first distance image and the baggage voxel or the floor based on the second distance image. When the area voxel overlaps, the baggage area information and the empty floor information may be estimated by assuming that the first baggage interpolation voxel is arranged at the overlapping position.
荷物補間ボクセルが生成された空間領域は、さらに荷物を配することができない領域である。上記形態によれば、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが生成された空間領域であっても、その空間領域において第1の距離画像に基づく荷物補間ボクセルと重複する場合には、その空間領域は、荷物を配することができない領域であるので、荷物補間ベクトルが配置されるものとして扱われる。従って、荷物を配するための床面の空き状況を適切に把握できる。 The space area in which the baggage interpolation voxel is generated is an area in which no further baggage can be placed. According to the above aspect, even if the space voxel or the floor voxel based on the second range image is generated, if the space region overlaps with the baggage interpolation voxel based on the first range image in the space region. Since the space area is an area in which the luggage cannot be arranged, it is treated as the arrangement of the luggage interpolation vector. Therefore, it is possible to properly grasp the availability of the floor surface for distributing the luggage.
別の形態に係る荷室監視システムでは、補間ボクセルは、荷物またはセンサの画角に起因してセンサから死角となる床面の上の所定高さの空間領域を占める死角補間ボクセルを含むこととしてもよい。 In the luggage compartment monitoring system according to another aspect, the interpolation voxel includes a blind spot interpolation voxel that occupies a space area of a predetermined height above the floor surface that is a blind spot from the sensor due to the angle of view of the luggage or the sensor. Good.
センサの死角となる床面には、荷物が置かれている可能性があるので、死角となる床面をさらに荷物を配することができる床面として扱うことは不適切である。上記形態によれば、センサの死角となる床面の上の所定高さの空間領域を実質的に荷物に占められている空間領域として扱うこととして、死角補間ボクセルが生成されるので、荷物を配するための床面の空き状況を適切に把握できる。 Since there is a possibility that luggage is placed on the floor that is the blind spot of the sensor, it is inappropriate to treat the floor that is the blind spot as a floor on which more luggage can be placed. According to the above-described aspect, the blind spot interpolation voxel is generated by treating the space area of the predetermined height above the floor surface, which is the blind spot of the sensor, as the space area substantially occupied by the luggage, and thus the luggage is It is possible to properly understand the availability of the floor surface for arranging.
別の形態に係る荷室監視システムでは、推定部は、第1の距離画像に基づく死角補間ボクセルである第1の死角補間ボクセルと、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルとが重複した場合に、当該重複位置には第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが配置されるものとして、荷物領域情報及び空き床情報を推定することとしてもよい。 In the luggage compartment monitoring system according to another aspect, the estimation unit determines that the first blind spot interpolation voxel, which is a blind spot interpolation voxel based on the first distance image, and the luggage voxel or floor voxel based on the second distance image. In the case of overlap, the baggage voxel or floor voxel based on the second distance image may be arranged at the overlapping position, and the baggage area information and the empty floor information may be estimated.
死角補間ボクセルが生成された空間領域は、さらに荷物を配することが出来るか否かが不明な領域であるので、第1の距離画像に基づく第1の死角補間ボクセルが生成された領域に、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが重複して生成された場合には、当該領域の状況は、第2の距離画像に基づく荷物ボクセルまたは床面ボクセルにより正しく反映される。上記形態によれば、かかる場合に、当該重複領域に第2の距離画像に基づく荷物ボクセルまたは床面ボクセルが配置されるものとして、荷物領域情報及び空き床情報が推定されるので、荷物を配するための床面の空き状況を適切に把握できる。 The spatial area in which the blind spot interpolation voxels are generated is an area in which it is unclear whether or not luggage can be further arranged. Therefore, in the area in which the first blind spot interpolation voxels based on the first distance image are generated, When the luggage voxels or floor voxels based on the second range image are generated in an overlapping manner, the situation of the region is correctly reflected by the luggage voxels or floor voxels based on the second range image. According to the above aspect, in such a case, since the luggage area information and the empty floor information are estimated as the luggage voxel or the floor voxel based on the second distance image is arranged in the overlapping area, the luggage is distributed. It is possible to properly understand the availability of the floor surface to do so.
別の形態に係る荷室監視システムでは、推定部は、荷物ボクセル及び補間ボクセルに占められる容積情報、及び、荷物ボクセル及び補間ボクセルに占められる床面の面積情報の少なくともいずれか一方を、荷物領域情報として推定することとしてもよい。 In the luggage compartment monitoring system according to another aspect, the estimation unit uses at least one of the volume information occupied by the luggage voxels and the interpolation voxels and the floor area information occupied by the luggage voxels and the interpolation voxels as the luggage area. It may be estimated as information.
上記形態によれば、荷物ボクセル及び補間ボクセルに占められる容積情報及び荷物ボクセル及び補間ボクセルに占められる床面の面積情報の少なくともいずれか一方が荷物領域情報として推定されるので、荷物を配するための床面の空き状況を適切に把握できる。 According to the above aspect, at least one of the volume information occupied by the luggage voxel and the interpolation voxel and the floor area information occupied by the luggage voxel and the interpolation voxel is estimated as the luggage area information, so that the luggage is arranged. You can properly understand the availability of the floor surface.
別の形態に係る荷室監視システムでは、推定部は、荷物ボクセル及び補間ボクセルにより占められていない床面の面積情報を、空き床情報として推定することとしてもよい。 In the luggage compartment monitoring system according to another aspect, the estimating unit may estimate the area information of the floor surface not occupied by the luggage voxels and the interpolation voxels as the empty floor information.
上記形態によれば、荷物ボクセル及び補間ボクセルにより占められていない床面の面積情報が空き床情報として推定されるので、荷物を配するための床面の空き状況を適切に把握できる。 According to the above aspect, the area information of the floor surface not occupied by the luggage voxels and the interpolation voxels is estimated as the vacant floor information, so that the vacant situation of the floor surface for allocating the luggage can be appropriately grasped.
別の形態に係る荷室監視システムでは、出力部は、荷室空間並びに荷物ボクセル、補間ボクセル及び床面ボクセルを視覚的に示す画像を、荷物領域情報及び空き床情報として出力することとしてもよい。 In the luggage compartment monitoring system according to another aspect, the output unit may output an image visually showing the luggage compartment space and the luggage voxels, the interpolation voxels, and the floor surface voxels as the luggage area information and the empty floor information. .
上記形態によれば、荷室空間並びに荷物ボクセル、補間ボクセル及び床面ボクセルを視覚的に示す画像が出力されるので、荷室内の積荷の状態を的確に把握することが可能となる。 According to the above-described embodiment, an image visually showing the luggage compartment space, the luggage voxels, the interpolation voxels, and the floor surface voxels is output, so that the state of the cargo in the luggage compartment can be accurately grasped.
本発明の一側面によれば、荷室内の積荷の状態を的確に把握すること、特に、荷室において荷物に占められる空間領域を的確に把握することにより、さらに荷物を配するための床面の空き状況を把握することが可能となる。 According to one aspect of the present invention, by accurately grasping the state of the cargo in the luggage compartment, in particular by accurately grasping the space area occupied by the luggage in the luggage compartment, a floor surface for further luggage placement It becomes possible to grasp the availability of the.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements will be denoted by the same reference symbols, without redundant description.
図1は、本実施形態に係る荷室監視装置を含むシステムの装置構成を示す図である。図1に示されるシステム1は、荷室監視装置10(荷室監視システム)及び車両Vに搭載される端末Tを含んで構成される。車両Vは、荷物を運ぶための荷室を有する。車両Vの荷室には、2以上のセンサCが設けられている。本実施形態の端末Tは、センサCにより取得された情報を荷室監視装置10装置にネットワークNを介して送信する。ネットワークNは、無線ネットワークである。荷室監視装置10は、荷室の内部の状態を監視する荷室監視システムを構成する。なお、図1には、3台の車両V及び端末Tが示されているが、その数は限定されない。
FIG. 1 is a diagram showing a device configuration of a system including a luggage compartment monitoring device according to the present embodiment. The
図2は、本実施形態の荷室監視システムの適用例を模式的に示す図である。図2に示すように、荷室監視システムは、車両Vの荷室Rを監視するシステムとして例示される。荷室Rには、少なくとも2以上のセンサCが床面以外に設けられる。図2に示す例では、荷室Rは、天面に設けられた2台のセンサC1,C2を有する。センサC1,C2は、撮像方向を鉛直下方に向けている。 FIG. 2 is a diagram schematically showing an application example of the luggage compartment monitoring system of the present embodiment. As shown in FIG. 2, the luggage compartment monitoring system is exemplified as a system that monitors the luggage compartment R of the vehicle V. The luggage compartment R is provided with at least two sensors C other than the floor surface. In the example shown in FIG. 2, the luggage compartment R has two sensors C1 and C2 provided on the top surface. The sensors C1 and C2 have their imaging directions directed vertically downward.
センサCは、対象までの距離の情報を含む距離画像を取得するセンサであって、例えば、いわゆるTOF(Time Of Flight)センサにより構成される。センサCにより取得された距離画像は、対象物までの距離の情報を各画素に有する。 The sensor C is a sensor that acquires a distance image including information on the distance to the target, and is configured by, for example, a so-called TOF (Time Of Flight) sensor. The distance image acquired by the sensor C has information on the distance to the object in each pixel.
センサCは、荷物Bが置かれた荷室Rの距離画像を取得する。センサCにより取得された距離画像は、センサCから荷物Bの表面または荷室Rの床面までの距離を示す情報を、各画素に含む。 The sensor C acquires a distance image of the luggage compartment R in which the luggage B is placed. The distance image acquired by the sensor C includes, in each pixel, information indicating the distance from the sensor C to the surface of the luggage B or the floor surface of the luggage compartment R.
なお、本実施形態では、荷室監視システムは、車両Vの荷室を監視するシステムとして例示されるが、荷物が配置される空間であれば適用対象の荷室は車両の荷室に限定されず、例えば、倉庫の荷室にも適用可能である。 In the present embodiment, the luggage compartment monitoring system is exemplified as a system that monitors the luggage compartment of the vehicle V, but the luggage compartment to which the application is applied is not limited to the luggage compartment of the vehicle as long as the luggage is arranged in the space. Instead, it can be applied to a luggage compartment of a warehouse, for example.
図3は、荷室監視装置10の機能的構成を示すブロック図である。荷室監視装置10は、例えば、サーバ等のコンピュータにより構成される。本実施形態の荷室監視装置10は、図3に示すように、機能的には、取得部11、生成部12、補間部13、推定部14及び出力部15を備える。
FIG. 3 is a block diagram showing a functional configuration of the luggage
図4は、荷室監視装置10のハードウェア構成図である。荷室監視装置10は、物理的には、図4に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク等で構成される補助記憶装置103、通信制御装置104などを含むコンピュータシステムとして構成されている。荷室監視装置10は、入力デバイスであるキーボード、タッチパネル、マウス等の入力装置105及びディスプレイ等の出力装置106をさらに含むこととしてもよい。
FIG. 4 is a hardware configuration diagram of the luggage
図3に示した各機能は、図4に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信制御装置104等を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。なお、端末Tも、図4に示すようなハードウェア構成を有するコンピュータシステムとして構成されてもよい。なお、本実施形態では、各機能部11〜15が、荷室監視装置10に構成されることとしているが、複数のコンピュータに分散して構成されることとしてもよい。
The functions shown in FIG. 3 operate the
車両Vに搭載される端末Tは、コンピュータシステムとして構成されてもよい。端末Tを構成する装置は限定されず、例えば、車両Vに備え付けられるコンピュータ端末であってもよいし、高機能携帯電話機(スマートフォン)、タブレット型のコンピュータ、携帯電話機、携帯情報端末(PDA)などの携帯端末であってもよい。 The terminal T mounted on the vehicle V may be configured as a computer system. The device forming the terminal T is not limited, and may be, for example, a computer terminal installed in the vehicle V, a high-performance mobile phone (smartphone), a tablet computer, a mobile phone, a personal digital assistant (PDA), or the like. It may be a mobile terminal.
再び図3を参照して、荷室監視装置10の各機能部を説明する。取得部11は、センサCのそれぞれにより取得された距離画像を取得する。図2を参照して説明したように、センサCは、荷室Rの天面に、鉛直下方を撮像方向として設けられているので、荷室Rの床面に配置された荷物及び床面を検出対象として画角の範囲内の距離画像を取得する。
センサCは、荷室Rの天面に設けられているので、センサCは、荷物BにおけるセンサCの方向に露出した表面、即ち上面を検出することとなる。距離画像の各画素は、対象物に対する方向及び距離の情報を含む。
Each functional unit of the luggage
Since the sensor C is provided on the top surface of the luggage compartment R, the sensor C detects the surface of the luggage B exposed in the direction of the sensor C, that is, the upper surface. Each pixel of the range image contains information on the direction and distance to the object.
生成部12は、距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する。以下、ボクセルの生成について具体的に説明する。
The
まず、生成部12は、距離画像を、距離画像に表された対象を表す点群に変換する。図5及び図6を参照して、点群の変換処理即ち点群の生成処理を説明する。図5は、距離画像を点群に変換するための変換情報の生成を説明する図である。
First, the
ここで生成される点群は、荷室空間を表す3次元座標系DRに対して生成される。生成部12は、距離画像の3次元座標系DPを、荷室空間の3次元座標系DRに変換するための変換マトリクスを変換情報として生成する。
The point group generated here is generated with respect to the three-dimensional coordinate system DR representing the luggage space. The
荷室空間の3次元座標系DRは、荷室Rの床面の左前方を原点として、右方向をX軸、後方向をY軸、上方向をZ軸とするように設定される。センサCは、荷室Rの天面に、鉛直下方向を撮像方向として設けられるので、センサCにおける座標系DCは、鉛直下方向をZ軸とし、Z軸に直交する面上にX軸及びY軸が沿うように設定される。このように設定されたセンサCにより取得された距離画像DIは、画像面上において互いに直交するX軸及びY軸並びに画像奥行き方向に沿うZ軸を有する座標系DPを有する。 The three-dimensional coordinate system DR of the luggage compartment space is set such that the left front side of the floor of the luggage compartment R is the origin, the right direction is the X axis, the rear direction is the Y axis, and the upward direction is the Z axis. Since the sensor C is provided on the top surface of the luggage compartment R with the vertically downward direction as the imaging direction, the coordinate system DC in the sensor C has the vertical downward direction as the Z axis, and the X axis and the X axis on the plane orthogonal to the Z axis. It is set so that the Y axis is along. The distance image DI acquired by the sensor C set in this way has a coordinate system DP having an X axis and a Y axis which are orthogonal to each other on the image plane, and a Z axis along the image depth direction.
生成部12は、予め計測された、荷室R内におけるセンサCの位置情報、及び、センサCの撮像方向を示すベクトルvcを取得する。次に、生成部12は、荷物が置かれていない荷室Rの床面をセンサCにより撮像した距離画像を取得し、取得した距離画像に基づいて床面を表す点群ds0を生成する。生成部12は、点群ds0に対して所定の解析処理(例えば、周知のRANSAC等の平面検出処理)を実施することにより、床面の法線を示すベクトルvuを取得する。そして、生成部12は、センサCの撮像方向を示すベクトルvc、床面の法線を示すベクトルvuに基づいて、センサCの姿勢を示す姿勢情報を算出し、さらに、姿勢情報及びセンサCの位置情報に基づいて、距離画像の3次元座標系DPを、荷室空間の3次元座標系DRに変換するための変換マトリクスである変換情報を生成する。
The
図6は、距離画像を、距離画像に表された対象を表す点群に変換する処理を説明する図である。生成部12は、空の状態の荷室Rを撮像した距離画像DI1を取得する。生成部12は、例えば、荷物が置かれていない荷室Rを撮像した距離画像DI1に基づき、変換マトリクスを用いて距離画像DI1に表された各画素の情報を点群ds1に変換する。変換及び生成された点群ds1は、図示されるように、車両の荷室Rの空間を表す座標系DRにおいて、床面(Z=0)に相当する平面に配される。
FIG. 6 is a diagram illustrating a process of converting a range image into a point cloud representing an object represented in the range image. The production |
また、荷物が置かれた荷室Rを撮像した距離画像DI2が取得された場合には、生成部12は、距離画像DI2に基づき、変換マトリクスを用いて距離画像DI2に表された各画素の情報を点群ds2に変換する。点群ds2のうち、点群ds2−1は、荷物の表面に相当する。点群ds2−1は、図示されるように、荷室空間を表す座標系DRにおいて、荷物の表面(上面)の位置に配される。点群ds2のうち、点群ds2−2は、荷物が置かれておらず上方に露出された床面に相当する。点群ds2−2は、図示されるように、車両の荷室Rの空間を表す座標系DRにおいて、上方に露出された床面(Z=0)に相当する位置に配される。
In addition, when the distance image DI2 obtained by capturing the luggage compartment R in which the luggage is placed is acquired, the
生成部12は、距離画像に基づいて生成された点群に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、床面の位置を示す情報である床面ボクセルを生成する。図7は、ボクセルの生成処理を示す図である。
The
具体的には、生成部12は、点群に含まれる各点の、荷室Rの座標系DRにおける位置情報に基づいて、各点に対応する位置にボクセルを生成する。図7に示すように、生成部12は、例えば、荷物の表面に相当する点群ds2−1に基づいて、荷物ボクセルvx2を生成する。また、生成部12は、床面の位置を示す点群ds2−2に基づいて、床面ボクセルvx1を生成する。
Specifically, the
本実施形態では、一単位のボクセルは、3次元空間における1点の位置を示すものとする。従って、この場合には、一単位のボクセルは体積の概念を有さないものとして捉えることができる。荷物ボクセル及び床面ボクセルは、複数のボクセルの集合として生成される。荷物ボクセル及び床面ボクセルは、距離画像に基づいて生成された点群に相当するので、それぞれ、荷物の表面及び床の表面に対応する。面に対応するように配列されたボクセルは、厚さ(または高さ)の概念を有さないので、面積の概念を伴うことはできるが、体積の概念を有さないこととなる。3次元的に分布するボクセルの集合は、3次元空間においてある空間領域を占めるので、体積の概念を伴うことができる。従って、後述する補間ボクセル(荷物補間ボクセル、死角補間ボクセル)は、体積の概念を有することができる。なお、本実施形態では、一のボクセルは体積の概念を有さないとしているが、一単位のボクセルが、当該荷物監視システムにおいて荷室空間を表す3次元空間における最小単位の体積を有するものとしてもよい。 In the present embodiment, one unit of voxel indicates the position of one point in the three-dimensional space. Therefore, in this case, one unit of voxel can be regarded as having no concept of volume. The baggage voxel and the floor voxel are generated as a set of a plurality of voxels. The luggage voxel and the floor surface voxel correspond to the point cloud generated based on the range image, and thus correspond to the surface of the luggage and the surface of the floor, respectively. Since the voxels arranged so as to correspond to the surface do not have the concept of thickness (or height), they can have the concept of area, but do not have the concept of volume. Since a set of voxels distributed three-dimensionally occupies a certain spatial region in a three-dimensional space, the concept of volume can be involved. Therefore, the interpolation voxels (baggage interpolation voxels, blind spot interpolation voxels) described later can have the concept of volume. In this embodiment, one voxel does not have the concept of volume, but it is assumed that one unit of voxel has the minimum unit volume in the three-dimensional space representing the luggage space in the luggage monitoring system. Good.
再び図3を参照して、補間部13は、荷室空間においてセンサCから死角となる空間領域に補間ボクセルを生成する。図8は、補間ボクセルの生成処理を示す図である。具体的には、補間部13は、荷物ボクセルの鉛直下方の、当該荷物ボクセルから床面までの空間領域を占める荷物補間ボクセルを、補間ボクセルとして生成する。また、補間部13は、荷物またはセンサCの画角に起因してセンサCから死角となる床面の上の所定高さの空間領域を占める死角補間ボクセルを、補間ボクセルとして生成する。
Referring again to FIG. 3, the
図8に示す例では、生成部12により、荷室Rの空間座標系において、荷物ボクセルvx31,32及び床面ボクセルvf1が生成されている。また、センサCは、画角VAを有する。このような場合において、補間部13は、荷物ボクセルvx31の鉛直下方の、荷物ボクセルvx31から床面までの空間領域を占める荷物補間ボクセルvi11を生成する。同様に、補間部13は、荷物ボクセルvx32の鉛直下方の、荷物ボクセルvx32から床面までの空間領域を占める荷物補間ボクセルvi12を生成する。
In the example illustrated in FIG. 8, the
また、床面f1は、荷物の存在に起因して、センサCの死角となる。この場合において、補間部13は、床面f1の上の所定高さの空間領域を占める死角補間ボクセルvi21,vi22を生成する。死角補間ボクセルの所定高さは、例えば、死角となる床面の最も近くに位置する荷物ボクセルの位置に設定される。従って、死角補間ボクセルvi21,vi22の高さはそれぞれ、荷物ボクセルvx31,vx32の位置に相当する高さに設定される。
Further, the floor surface f1 becomes a blind spot of the sensor C due to the presence of luggage. In this case, the
また、床面f2は、センサCの画角に起因して、センサCの死角となる。この場合において、補間部13は、床面f2の上の所定高さの空間領域を占める死角補間ボクセルvi23を生成する。死角補間ボクセルvi23の高さは、例えば、床面f2の最も近くに位置する荷物ボクセルvx31の位置に相当する高さに設定される。
Further, the floor surface f2 becomes a blind spot of the sensor C due to the angle of view of the sensor C. In this case, the
推定部14は、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する。
The
補間ボクセルが生成された空間領域は、荷物が存在する可能性がある空間領域であるので、本実施形態では、補間ボクセルが生成された空間領域を実質的に荷物に占められている空間領域として扱うこととしている。このような扱いに基づいて、具体的には、推定部14は、荷物ボクセル及び補間ボクセルに占められる容積情報、及び、荷物ボクセル及び補間ボクセルに占められる床面の面積情報の少なくともいずれか一方を、荷物領域情報として推定する。また、推定部14は、荷物ボクセル及び補間ボクセルにより占められていない床面の面積情報を、空き床情報として推定する。
Since the spatial area in which the interpolated voxels are generated is a spatial area in which luggage may exist, in the present embodiment, the spatial area in which the interpolated voxels are generated is regarded as a spatial area substantially occupied by luggage. I am going to handle it. Based on such handling, specifically, the
図9は、荷物領域情報及び空き床情報の推定を模式的に示す図である。図9(a)は、荷室上面VUを示す図である。図9(b)は、荷室側面VSを示す図である。荷室上面VU及び車両側面VSに示される例では、生成された荷物ボクセルvx、荷物補間ボクセルvi1、死角補間ボクセルvi2及び床面ボクセルvfが示されている。推定部14は、荷物ボクセルvx、荷物補間ボクセルvi1及び死角補間ボクセルvi2の容積情報を荷物領域情報として算出してもよい。また、推定部14は、荷物ボクセルvx、荷物補間ボクセルvi1及び死角補間ボクセルvi2に占められる床面の面積情報を荷物領域情報として算出してもよい。また、推定部14は、床面ボクセルvfに占められた床面であって、荷物ボクセルvx、荷物補間ボクセルvi1及び死角補間ボクセルvi2により占められていない床面の面積情報を、空き床情報として推定してもよい。
FIG. 9 is a diagram schematically showing the estimation of luggage area information and empty floor information. FIG. 9A is a diagram showing the luggage compartment upper surface VU. FIG. 9B is a diagram showing the luggage compartment side surface VS. In the example shown on the luggage compartment upper surface VU and the vehicle side surface VS, the generated luggage voxel vx, luggage interpolation voxel vi1, blind spot interpolation voxel vi2, and floor surface voxel vf are shown. The
次に、図10及び図11を参照して、複数のセンサCからの距離画像に基づく補間ボクセルの扱いについて説明する。図10は、補間ボクセルと荷物ボクセルまたは床面ボクセルとが重複した第1の例を示す図である。図10に示す例では、荷室内において第1のセンサC1及び第2のセンサC2が設けられており、第1のセンサC1により取得された第1の距離画像及び第2のセンサC2により取得された第2の距離画像が取得部11により取得される。そして、図10には、第1の距離画像に基づいて生成された荷物ボクセルvx41及び荷物補間ボクセルvi14、並びに第2の距離画像に基づいて生成された荷物ボクセルvx42が示されており、荷物補間ボクセルvi14と荷物ボクセルvx42とが重複している。このような場合において、推定部14は、荷物補間ボクセルvi14と荷物ボクセルvx42との重複位置である領域fd4上の空間領域には、荷物補間ボクセルvi14が配置されるものとして、荷物領域情報及び空き床情報を推定する。
Next, with reference to FIGS. 10 and 11, handling of interpolated voxels based on distance images from a plurality of sensors C will be described. FIG. 10 is a diagram showing a first example in which interpolation voxels overlap with baggage voxels or floor voxels. In the example shown in FIG. 10, the first sensor C1 and the second sensor C2 are provided in the luggage compartment, and the first distance image acquired by the first sensor C1 and the second sensor C2 are acquired. The second distance image is acquired by the
即ち、荷物補間ボクセルが生成された空間領域は、さらに荷物を配することができない領域である。図10に示す例により説明したように、第2の距離画像に基づく荷物ボクセルが生成された空間領域であっても、その空間領域において第1の距離画像に基づく荷物補間ボクセルと重複する場合には、その空間領域は、荷物を配することができない領域であるので、荷物補間ベクトルが配置されるものとして扱われる。なお、荷物ボクセルvx42に代えて、第2の距離画像に基づく床面ボクセルが荷物補間ボクセルvi14と重複する場合においても、同様に、その重複領域には荷物補間ボクセルvi14が配置されるものとして、荷物領域情報及び空き床情報が推定される。 That is, the space area in which the baggage interpolation voxel is generated is an area in which no baggage can be further arranged. As described with reference to the example shown in FIG. 10, even if the space area in which the luggage voxel based on the second distance image is generated overlaps with the luggage interpolation voxel based on the first distance image in the spatial area. Is treated as the space where the baggage interpolation vector is arranged, because the space region is a region where the baggage cannot be arranged. Even when the floor voxel based on the second distance image overlaps with the baggage interpolation voxel vi14 instead of the baggage voxel vx42, similarly, the baggage interpolation voxel vi14 is arranged in the overlapping region, The luggage area information and the empty floor information are estimated.
図11は、補間ボクセルと荷物ボクセルまたは床面ボクセルとが重複した第2の例を示す図である。図11に示す例では、荷室内において第1のセンサC1及び第2のセンサC2が設けられており、第1のセンサC1により取得された第1の距離画像及び第2のセンサC2により取得された第2の距離画像が取得部11により取得される。そして、図11には、第1の距離画像に基づいて生成された荷物ボクセルvx51、荷物補間ボクセルvi15及び死角補間ボクセルvi25、並びに第2の距離画像に基づいて生成された荷物ボクセルvx52が示されており、死角補間ボクセルvi25と荷物ボクセルvx52とが重複している。このような場合において、推定部14は、死角補間ボクセルvi25と荷物ボクセルvx52との重複位置を含む領域fd5上の空間領域には、荷物ボクセルvx52が配置されるものとして、荷物領域情報及び空き床情報を推定する。
FIG. 11 is a diagram showing a second example in which interpolation voxels overlap with baggage voxels or floor voxels. In the example shown in FIG. 11, the first sensor C1 and the second sensor C2 are provided in the luggage compartment, and the first distance image acquired by the first sensor C1 and the second sensor C2 are acquired. The second distance image is acquired by the
即ち、死角補間ボクセルが生成された空間領域は、さらに荷物を配することが出来るか否かが不明な領域である。図11に示す例により説明したように、第1の距離画像に基づく第1の死角補間ボクセルが生成された領域に、第2の距離画像に基づく荷物ボクセルが重複する場合には、その空間領域の状況は、第2の距離画像に基づく荷物ボクセルにより正しく反映される。かかる場合に、当該重複領域に第2の距離画像に基づく荷物ボクセルが配置されるものとして、荷物領域情報及び空き床情報が推定されるので、荷物を配するための床面の空き状況を適切に把握できる。なお、荷物ボクセルvx52に代えて、第2の距離画像に基づく床面ボクセルが死角補間ボクセルvi25と重複する場合においても、同様に、その重複領域には荷物ボクセルvx52が配置されるものとして、荷物領域情報及び空き床情報が推定される。 That is, the spatial area in which the blind spot interpolation voxel is generated is an area in which it is unclear whether or not more luggage can be placed. As described with reference to the example illustrated in FIG. 11, when the luggage voxel based on the second distance image overlaps the area where the first blind spot interpolation voxel based on the first distance image is generated, the spatial area This situation is correctly reflected by the luggage voxel based on the second range image. In such a case, the luggage area information and the vacant floor information are estimated assuming that the luggage voxel based on the second distance image is arranged in the overlapping area, and therefore the vacant floor condition for allocating the luggage is appropriate. Can understand. Even if the floor surface voxel based on the second distance image overlaps with the blind spot interpolation voxel vi25 instead of the luggage voxel vx52, the luggage voxel vx52 is similarly arranged in the overlapping area as the luggage voxel vx52. Area information and vacant floor information are estimated.
再び図3を参照して、出力部15は、荷物領域情報及び空き床情報を出力する。出力部15は、種々の態様により荷物領域情報及び空き床情報を出力できる。例えば、出力部15は、所定のコンピュータのディスプレイに荷物領域情報及び空き床情報を表示させることにより出力してもよい。また、出力部15は、後に実施される所定の処理のために、所定の記憶手段に記憶させることにより荷物領域情報及び空き床情報を出力してもよい。
Referring again to FIG. 3, the
また、出力部15は、荷室空間並びに荷物ボクセル、補間ボクセル及び床面ボクセルを視覚的に示す画像を、荷物領域情報及び空き床情報として出力してもよい。図12は、ボクセルを視覚的に示す画像の例を示す図である。図12(a)は、荷室Rの空間及び荷物ボクセルを表示する画像の例を示す図である。図12(b)は、荷室Rの空間及び荷物補間ボクセルを表示する画像の例を示す図である。図12(c)は、荷室Rの空間及び死角補間ボクセル及び床面ボクセルを表示する画像の例を示す図である。
Further, the
図12(a)に示すように、出力部15は、荷室Rの空間及び荷物ボクセルvx6を視覚的に示す画像pc1を荷物領域情報及び空き床情報として出力してもよい。また、図12(b)に示すように、出力部15は、荷室Rの空間及び荷物補間ボクセルvi16を視覚的に示す画像pc2を荷物領域情報及び空き床情報として出力してもよい。また、図12(c)に示すように、出力部15は、荷室Rの空間、死角補間ボクセルvi26及び床面ボクセルvf6を視覚的に示す画像pc3を荷物領域情報及び空き床情報として出力してもよい。このような画像が出力されることにより、荷室内の積荷の状態を的確に把握することが可能となる。
As illustrated in FIG. 12A, the
次に、図13を参照して、本実施形態の荷室監視装置10の動作について説明する。図13は、荷室監視装置10において実施される荷室監視方法の処理内容を示すフローチャートである。
Next, the operation of the luggage
ステップS1において、取得部11は、センサCにより取得された距離画像を取得する。次に、ステップS2において、生成部12は、距離画像、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷物ボクセル及び床面ボクセルを生成する。
In step S1, the
続いて、ステップS3において、補間部13は、荷室空間においてセンサCから死角となる空間領域に補間ボクセルを生成する。補間ボクセルは、荷物補間ボクセル及び死角補間ボクセルを含む。
Subsequently, in step S3, the
ステップS4において、推定部14は、荷物ボクセル、補間ボクセル及び床面ボクセルに基づいて、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する。そして、ステップS5において、出力部15は、荷物領域情報及び空き床情報を出力する。
In step S4, the
次に、図14を参照して、コンピュータを荷室監視装置10として機能させるための荷室監視プログラムを説明する。荷室監視プログラムP1は、メインモジュールm10、取得モジュールm11、生成モジュールm12、補間モジュールm13、推定モジュールm14及び出力モジュールm15を含む。
Next, a luggage compartment monitoring program for causing a computer to function as the luggage
メインモジュールm10は、荷室監視処理を統括的に制御する部分である。取得モジュールm11、生成モジュールm12、補間モジュールm13、推定モジュールm14及び出力モジュールm15を実行することにより実現される機能はそれぞれ、図3に示される荷室監視装置10の取得部11、生成部12、補間部13、推定部14及び出力部15
の機能と同様である。
The main module m10 is a part that integrally controls the luggage compartment monitoring process. The functions realized by executing the acquisition module m11, the generation module m12, the interpolation module m13, the estimation module m14, and the output module m15 are respectively the
Is similar to the function of.
荷室監視プログラムP1は、例えば、磁気ディスクや光ディスクまたは半導体メモリ等の記憶媒体M1によって提供される。また、荷室監視プログラムP1は、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。 The luggage compartment monitoring program P1 is provided by a storage medium M1 such as a magnetic disk, an optical disk, or a semiconductor memory, for example. The luggage compartment monitoring program P1 may be provided via a communication network as a computer data signal superimposed on a carrier wave.
以上説明した本実施形態の荷室監視装置10、荷室監視方法及び荷室監視プログラムP1によれば、距離画像に基づいて、荷物表面の位置を示す情報である荷物ボクセルが得られる。また、荷物ボクセル及びセンサの死角を示す情報等に基づいて、実質的に荷物を置くことができない可能性のある空間領域を示す補間ボクセルを得ることができるので、荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報を得ることができる。従って、さらに荷物を配置可能な床面を示す空き床情報を出力することが可能となる。
According to the luggage
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention has been described in detail above based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.
1…システム、10…荷室監視装置、11…取得部、12…生成部、13…補間部、14…推定部、15…出力部、C…センサ、M1…記憶媒体、m10…メインモジュール、m11…取得モジュール、m12…生成モジュール、m13…補間モジュール、m14…推定モジュール、m15…出力モジュール、N…ネットワーク、P1…荷室監視プログラム、R…荷室、T…端末、V…車両。
DESCRIPTION OF
Claims (10)
前記荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得部と、
前記距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、前記床面の位置を示す情報である床面ボクセルを生成する生成部と、
前記荷室空間において前記センサから死角となる空間領域に補間ボクセルを生成する補間部と、
前記荷物ボクセル、前記補間ボクセル及び前記床面ボクセルに基づいて、前記荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定部と、
前記荷物領域情報及び前記空き床情報を出力する出力部と、
を備える荷室監視システム。 A luggage compartment monitoring system for monitoring the internal condition of the luggage compartment,
An acquisition unit that acquires a distance image acquired by each of at least two sensors provided on a surface other than the floor that constitutes the lower surface of the luggage compartment;
Based on the information of the distance to the object shown in the distance image, and the position in the luggage compartment space of the surface of the luggage existing in the luggage compartment, based on the arrangement position and the imaging direction of the sensor in the luggage compartment space. A certain baggage voxel, and a generation unit that generates a floor surface voxel that is information indicating the position of the floor surface,
An interpolation unit that generates interpolation voxels in a space area that is a blind spot from the sensor in the luggage space,
Based on the luggage voxel, the interpolation voxel and the floor surface voxel, luggage area information indicating a space area occupied by luggage and a space area possibly occupied by luggage in the space of the luggage room, and , An estimation unit that estimates empty floor information about a floor on which luggage can be placed,
An output unit that outputs the luggage area information and the empty floor information,
Luggage compartment monitoring system.
請求項1に記載の荷室監視システム。 The interpolation voxel includes a load interpolation voxel that occupies a space area from the load voxel to the floor surface vertically below the load voxel.
The luggage compartment monitoring system according to claim 1.
請求項2に記載の荷室監視システム。 The interpolation voxel includes a blind spot interpolation voxel that occupies a space area of a predetermined height above a floor surface that is a blind spot from the sensor due to an angle of view of the luggage or the sensor,
The luggage compartment monitoring system according to claim 2.
前記取得部は、前記第1のセンサにより取得された第1の距離画像及び前記第2のセンサにより取得された第2の距離画像を取得し、
前記推定部は、前記第1の距離画像に基づく前記荷物補間ボクセルである第1の荷物補間ボクセルと、前記第2の距離画像に基づく荷物ボクセルまたは床面ボクセルとが重複した場合に、当該重複位置には前記第1の荷物補間ボクセルが配置されるものとして、前記荷物領域情報及び前記空き床情報を推定する、
請求項3に記載の荷室監視システム。 The at least two or more sensors include a first sensor and a second sensor,
The acquisition unit acquires a first distance image acquired by the first sensor and a second distance image acquired by the second sensor,
If the first baggage interpolation voxel, which is the baggage interpolation voxel based on the first distance image, and the baggage voxel or the floor voxel based on the second distance image overlap, the estimation unit performs the duplication. Assuming that the first baggage interpolation voxel is arranged at the position, the baggage area information and the empty floor information are estimated.
The luggage compartment monitoring system according to claim 3.
請求項4に記載の荷室監視システム。 The estimation unit, when the blind spot interpolation voxels that are the blind spot interpolation voxels based on the first distance image, and the luggage voxels or the floor surface voxels based on the second distance image overlap, Assuming that the luggage voxel or the floor voxel based on the second distance image is arranged at the overlapping position, the luggage area information and the empty floor information are estimated.
The luggage compartment monitoring system according to claim 4.
請求項1〜5のいずれか一項に記載の荷室監視システム。 The estimation unit estimates, as the luggage area information, at least one of volume information occupied by the luggage voxels and the interpolation voxels, and floor area information occupied by the luggage voxels and the interpolation voxels.
The luggage compartment monitoring system according to any one of claims 1 to 5.
請求項1〜6のいずれか一項に記載の荷室監視システム。 The estimation unit estimates area information of a floor surface not occupied by the luggage voxel and the interpolation voxel as the empty floor information,
The luggage compartment monitoring system according to any one of claims 1 to 6.
請求項1〜7のいずれか一項に記載の荷室監視システム。 The output unit outputs an image visually showing the luggage space and the luggage voxels, the interpolation voxels and the floor surface voxels as the luggage area information and the empty floor information,
The luggage compartment monitoring system according to any one of claims 1 to 7.
前記荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得ステップと、
前記距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、前記床面の位置を示す情報である床面ボクセルを生成する生成ステップと、
前記荷室空間において前記センサから死角となる空間領域に補間ボクセルを生成する補間ステップと、
前記荷物ボクセル、前記補間ボクセル及び前記床面ボクセルに基づいて、前記荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定ステップと、
前記荷物領域情報及び前記空き床情報を出力する出力ステップと、
を有する荷室監視方法。 A luggage compartment monitoring method in a luggage compartment monitoring system for monitoring the internal state of a luggage compartment,
An acquisition step of acquiring a distance image acquired by each of at least two or more sensors provided on a surface other than a floor constituting the lower surface of the luggage compartment;
Based on the information of the distance to the object shown in the distance image, and the position in the luggage compartment space of the surface of the luggage existing in the luggage compartment, based on the arrangement position and the imaging direction of the sensor in the luggage compartment space. A luggage voxel, and a generation step of generating a floor voxel that is information indicating the position of the floor,
An interpolation step of generating an interpolation voxel in the space area that is a blind spot from the sensor in the luggage space;
Based on the luggage voxel, the interpolation voxel and the floor surface voxel, luggage area information indicating a space area occupied by luggage and a space area possibly occupied by luggage in the space of the luggage room, and An estimation step of estimating empty floor information about a floor on which luggage can be placed,
An output step of outputting the luggage area information and the empty floor information,
And a luggage compartment monitoring method.
前記コンピュータに、
前記荷室内の下面を構成する床面以外に設けられた少なくとも2以上のセンサのそれぞれにより取得された距離画像を取得する取得機能と、
前記距離画像に示される対象物までの距離の情報、並びに、荷室空間におけるセンサの配置位置及び撮像方向に基づいて、荷室内に存在する荷物の表面の荷室空間内における位置を示す情報である荷物ボクセル、及び、前記床面の位置を示す情報である床面ボクセルを生成する生成機能と、
前記荷室空間において前記センサから死角となる空間領域に補間ボクセルを生成する補間機能と、
前記荷物ボクセル、前記補間ボクセル及び前記床面ボクセルに基づいて、前記荷室の空間において荷物に占められている空間領域及び荷物に占められている可能性がある空間領域を示す荷物領域情報、並びに、荷物を配置可能な床面に関する空き床情報を推定する推定機能と、
前記荷物領域情報及び前記空き床情報を出力する出力機能と、
を実現させる荷室監視プログラム。
A cargo compartment monitoring program for causing a computer to function as a cargo compartment monitoring system for monitoring an internal state of a cargo compartment,
On the computer,
An acquisition function for acquiring a distance image acquired by each of at least two or more sensors provided on a surface other than a floor constituting the lower surface of the luggage compartment;
Based on the information of the distance to the object shown in the distance image, and the position of the sensor in the luggage space and the imaging direction, information indicating the position of the surface of the luggage existing in the luggage space in the luggage space. A certain baggage voxel, and a generation function for generating a floor surface voxel that is information indicating the position of the floor surface,
An interpolation function for generating interpolation voxels in a space area that is a blind spot from the sensor in the luggage space,
Based on the luggage voxel, the interpolation voxel and the floor surface voxel, luggage area information indicating a space area occupied by luggage and a space area possibly occupied by luggage in the space of the luggage room, and , An estimation function that estimates empty floor information about the floor on which luggage can be placed,
An output function for outputting the luggage area information and the empty floor information,
A cargo compartment monitoring program that realizes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192020A JP7191630B2 (en) | 2018-10-10 | 2018-10-10 | Luggage room monitoring system and luggage room monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192020A JP7191630B2 (en) | 2018-10-10 | 2018-10-10 | Luggage room monitoring system and luggage room monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020060451A true JP2020060451A (en) | 2020-04-16 |
JP7191630B2 JP7191630B2 (en) | 2022-12-19 |
Family
ID=70219994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018192020A Active JP7191630B2 (en) | 2018-10-10 | 2018-10-10 | Luggage room monitoring system and luggage room monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7191630B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022054555A (en) * | 2020-09-28 | 2022-04-07 | 株式会社城東情報研究所 | Cargo chamber empty volume measurement system using depth sensor |
WO2022138715A1 (en) * | 2020-12-25 | 2022-06-30 | 日本電気通信システム株式会社 | Load capacity rate measuring device, system, method, and program |
WO2022181753A1 (en) * | 2021-02-26 | 2022-09-01 | 日本電気通信システム株式会社 | Loading space recognition device, system, method, and program |
WO2022202564A1 (en) * | 2021-03-24 | 2022-09-29 | いすゞ自動車株式会社 | Detecting device, and loading ratio estimating system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005001480B3 (en) * | 2005-01-12 | 2006-10-26 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Loading space e.g. container, utilization detecting device for e.g. truck, has evaluation unit evaluating volume utilization and/or surface utilization as parameters of utilization of loading space from determined geometrical size |
JP2011149952A (en) * | 2011-03-10 | 2011-08-04 | Sanyo Electric Co Ltd | Model input device and model generation system |
WO2017175312A1 (en) * | 2016-04-05 | 2017-10-12 | 株式会社日立物流 | Measurement system and measurement method |
-
2018
- 2018-10-10 JP JP2018192020A patent/JP7191630B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005001480B3 (en) * | 2005-01-12 | 2006-10-26 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Loading space e.g. container, utilization detecting device for e.g. truck, has evaluation unit evaluating volume utilization and/or surface utilization as parameters of utilization of loading space from determined geometrical size |
JP2011149952A (en) * | 2011-03-10 | 2011-08-04 | Sanyo Electric Co Ltd | Model input device and model generation system |
WO2017175312A1 (en) * | 2016-04-05 | 2017-10-12 | 株式会社日立物流 | Measurement system and measurement method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022054555A (en) * | 2020-09-28 | 2022-04-07 | 株式会社城東情報研究所 | Cargo chamber empty volume measurement system using depth sensor |
WO2022138715A1 (en) * | 2020-12-25 | 2022-06-30 | 日本電気通信システム株式会社 | Load capacity rate measuring device, system, method, and program |
WO2022181753A1 (en) * | 2021-02-26 | 2022-09-01 | 日本電気通信システム株式会社 | Loading space recognition device, system, method, and program |
WO2022202564A1 (en) * | 2021-03-24 | 2022-09-29 | いすゞ自動車株式会社 | Detecting device, and loading ratio estimating system |
JP7342907B2 (en) | 2021-03-24 | 2023-09-12 | いすゞ自動車株式会社 | Detection device and loading rate estimation system |
Also Published As
Publication number | Publication date |
---|---|
JP7191630B2 (en) | 2022-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7191630B2 (en) | Luggage room monitoring system and luggage room monitoring method | |
CN110992356B (en) | Target object detection method and device and computer equipment | |
CN109916302B (en) | Volume measurement method and system for cargo carrying box | |
US20190311497A1 (en) | Methods and computer program products for calibrating stereo imaging systems by using a planar mirror | |
EP3575766A1 (en) | Rigidity measurement device and rigidity measurement method | |
JPWO2020066847A1 (en) | Measuring device and measuring method | |
JP4943034B2 (en) | Stereo image processing device | |
EP3438602B1 (en) | Dimension measurement apparatus and control method of the same | |
US20150029219A1 (en) | Information processing apparatus, displaying method and storage medium | |
JP2020064335A (en) | Shape information generation device, control device, unloading device, distribution system, program, and control method | |
JPWO2015040657A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2020064588A (en) | Shape information generation device, control device, unloading device, distribution system, program, and control method | |
CN110782464B (en) | Calculation method of object accumulation 3D space occupancy rate, coder-decoder and storage device | |
CN114882465A (en) | Visual perception method and device, storage medium and electronic equipment | |
CN111383355A (en) | Three-dimensional point cloud completion method and device and computer readable storage medium | |
CN113689508A (en) | Point cloud marking method and device, storage medium and electronic equipment | |
JP7322686B2 (en) | Loading judgment system and program | |
EP3009983A1 (en) | Obstacle detection apparatus and method | |
JP7210216B2 (en) | Loading place mediation system, loading place mediating method, and loading place mediation program | |
WO2022181753A1 (en) | Loading space recognition device, system, method, and program | |
JP7323170B2 (en) | Loading volume ratio measuring device, system, method and program | |
JP2014071895A (en) | Object division device and method | |
CN105760375B (en) | Gantt chart display methods and system | |
CN103729844B (en) | Motionlessness detecting method and device | |
JP7464460B2 (en) | Information processing device, distribution status detection system, distribution status detection method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7191630 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |