JP2023143177A - Package detection system, package detection method, and image-projection device - Google Patents

Package detection system, package detection method, and image-projection device Download PDF

Info

Publication number
JP2023143177A
JP2023143177A JP2022050415A JP2022050415A JP2023143177A JP 2023143177 A JP2023143177 A JP 2023143177A JP 2022050415 A JP2022050415 A JP 2022050415A JP 2022050415 A JP2022050415 A JP 2022050415A JP 2023143177 A JP2023143177 A JP 2023143177A
Authority
JP
Japan
Prior art keywords
baggage
sorting
image
projection
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022050415A
Other languages
Japanese (ja)
Inventor
広志 田中
Hiroshi Tanaka
隆昭 守山
Takaaki Moriyama
隆明 出良
Takaaki IDERA
俊樹 山口
Toshiki Yamaguchi
慶太 加藤
Keita Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022050415A priority Critical patent/JP2023143177A/en
Publication of JP2023143177A publication Critical patent/JP2023143177A/en
Pending legal-status Critical Current

Links

Images

Abstract

To more efficiently and accurately sort packages in a package detection system.SOLUTION: A package detection system is provided with a projection device that projects a projected image projected onto a conveyed package, an imaging device that images a package for package detection, and a control device that controls the projection device and the imaging device. The control device causes the timing of the projection device for projecting the projected image differ from the timing of the imaging device for imaging the package.SELECTED DRAWING: Figure 8

Description

本開示は、荷物検出システム、荷物検出方法、及び、撮像投影装置に関する。 The present disclosure relates to a baggage detection system, a baggage detection method, and an imaging projection device.

近年の経済活動の高まりに伴い、荷物の流通量は増大する一方である。荷物の流通工程において、荷物を行先別に仕分ける仕分け作業は時間のかかる工程であり、従前から人手による作業に頼っているが、仕分け作業の少なくとも一部を自動化する技術も提案されている。 With the increase in economic activity in recent years, the amount of parcels in circulation is increasing. In the baggage distribution process, the sorting process of sorting packages by destination is a time-consuming process that has traditionally relied on manual labor, but technologies have also been proposed to automate at least part of the sorting process.

特許文献1は、搬送経路上を移動する荷物を追跡し、荷物から読み取った荷物に関する情報と当該荷物の位置の情報に基づき、表示する画像を決定し、プロジェクタから画像を荷物に投射して画像を荷物上に表示するシステムを開示している。 Patent Document 1 tracks a package moving on a transport route, determines an image to be displayed based on information about the package read from the package and information on the location of the package, and projects the image onto the package from a projector to display the image. The company is disclosing a system that displays this on luggage.

米国特許第7090134号明細書US Patent No. 7,090,134

しかしながら、昨今の荷物の流通量はますます増大するとともに、荷物の種類も様々なものとなっており、荷物をより効率的かつ正確に仕分ける技術が求められている。 However, in recent years, the amount of parcels in circulation has been increasing more and more, and the types of parcels have become more diverse, and there is a need for technology for sorting parcels more efficiently and accurately.

本開示は、上述した従来の事情を鑑みて案出され、荷物の仕分けをより効率的かつ正確に行うための技術に関する。特に、荷物検出システム、荷物検出方法、及び、撮像投影装置を提供することを目的とする。 The present disclosure was devised in view of the above-mentioned conventional circumstances, and relates to a technique for sorting packages more efficiently and accurately. In particular, it is an object of the present invention to provide a baggage detection system, a baggage detection method, and an imaging projection device.

本開示の一態様に係る荷物検出システムは、搬送される荷物に投影される投影画像を照射する投影装置と、前記荷物の検出のために前記荷物を撮像する撮像装置と、前記投影装置及び前記撮像装置を制御する制御装置と、を備え、前記制御装置は、前記投影装置による前記投影画像の照射のタイミングと、前記撮像装置による前記荷物の撮像のタイミングとを異ならせる。 A baggage detection system according to an aspect of the present disclosure includes: a projection device that irradiates a projected image onto a baggage to be transported; an imaging device that images the baggage for detecting the baggage; a control device that controls an imaging device, and the control device makes the timing of irradiation of the projection image by the projection device and the timing of imaging of the baggage by the imaging device different.

本開示の一態様に係る荷物検出方法は、投影装置及び撮像装置を用いる荷物仕分け方法であって、第1の期間において、前記投影装置は、搬送される荷物に投影される投影画像を照射し、前記第1の期間と異なる第2の期間において、前記投影装置は、前記投影画像を照射せず、前記撮像装置は、前記荷物の検出のために前記荷物を撮像する。 A baggage detection method according to an aspect of the present disclosure is a baggage sorting method using a projection device and an imaging device, wherein in a first period, the projection device irradiates a projection image projected onto the baggage to be transported. In a second period different from the first period, the projection device does not emit the projection image, and the imaging device images the baggage in order to detect the baggage.

本開示の一態様に係る撮像投影装置は、搬送される荷物に投影される投影画像を照射する投影部と、前記荷物の検出のために前記荷物を撮像する撮像部と、前記投影装置及び前記撮像装置を制御する制御部と、を備え、前記制御部は、前記投影部による前記投影画像の照射のタイミングと、前記撮像部による前記荷物の撮像のタイミングとを異ならせる。 An image capturing and projecting device according to an aspect of the present disclosure includes: a projection unit that irradiates a projected image projected onto a package to be transported; an imaging unit that captures an image of the package for detecting the package; a control section that controls an imaging device, and the control section makes the timing of irradiation of the projection image by the projection section different from the timing of imaging of the baggage by the imaging section.

なお、以上の構成要素の任意の組み合わせ、本開示の表現を方法、装置、システム、記憶媒体、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。 Note that arbitrary combinations of the above components and expressions of the present disclosure converted between methods, devices, systems, storage media, computer programs, etc. are also effective as aspects of the present disclosure.

本開示によれば、荷物の仕分けをより効率的かつ正確に行うことが可能となる。 According to the present disclosure, it is possible to sort packages more efficiently and accurately.

実施の形態1に係る荷物仕分けシステムの構成例を示すブロック図A block diagram showing a configuration example of a baggage sorting system according to Embodiment 1 実施の形態1に係る情報処理装置の構成例を示すブロック図Block diagram illustrating a configuration example of an information processing device according to Embodiment 1 実施の形態1に係る荷物の搬送を説明するための概略図Schematic diagram for explaining transportation of luggage according to Embodiment 1 実施の形態1に係る荷物の検出及び投影を説明するための概略図Schematic diagram for explaining detection and projection of luggage according to Embodiment 1 実施の形態1に係る荷物仕分けシステムの処理シーケンスProcessing sequence of baggage sorting system according to Embodiment 1 実施の形態1に係る荷物仕分けシステムの処理シーケンスProcessing sequence of baggage sorting system according to Embodiment 1 実施の形態1に係る搬送中の荷物の認識を説明するための概略図Schematic diagram for explaining recognition of cargo during transportation according to Embodiment 1 実施の形態1に係るプロジェクタ及び画像センサの同期処理を説明するための概略図Schematic diagram for explaining synchronization processing of a projector and an image sensor according to Embodiment 1

以下、添付図面を適宜参照しながら、本開示に係る荷物検出システム、荷物検出方法、情報処理装置およびその制御方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明、あるいは、実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されない。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments specifically disclosing a baggage detection system, a baggage detection method, an information processing device, and a control method thereof according to the present disclosure will be described in detail with reference to the accompanying drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.

<実施の形態1>
[システム構成]
図1は、実施の形態に係る荷物仕分けシステム100の構成例を示すブロック図である。荷物仕分けシステム100は、搬送コンベア(図1では不図示)により搬送されてくる複数の荷物を仕分ける作業者の作業を支援するシステムであり、荷物検出システムとしても動作する。荷物仕分けシステム100は、例えば、小売業者、卸売り業者、インターネット流通業者などが所有する物流センターに設置される。仕分け対象の荷物は、一般的には略直方体の形状を有するものであるが、その外形やサイズは特に限定はされず、荷物の種類も特に限定されない。荷物を搬送する搬送コンベアは、例えば、ベルトコンベアまたはローラコンベアなどであってよい。また、荷物の搬送経路は、複数の搬送コンベアを組み合わせることで、搬送方向が変化したり、搬送経路の一部が分岐したりしていてもよい。
<Embodiment 1>
[System configuration]
FIG. 1 is a block diagram showing a configuration example of a luggage sorting system 100 according to an embodiment. The baggage sorting system 100 is a system that supports the work of a worker who sorts a plurality of parcels conveyed by a conveyor (not shown in FIG. 1), and also operates as a baggage detection system. The package sorting system 100 is installed, for example, in a distribution center owned by a retailer, wholesaler, Internet distributor, or the like. The baggage to be sorted generally has a substantially rectangular parallelepiped shape, but there are no particular limitations on its external shape or size, and there are no particular limitations on the type of baggage. The conveyor that conveys the luggage may be, for example, a belt conveyor or a roller conveyor. Furthermore, the conveyance path for the cargo may be configured such that the conveyance direction changes or a part of the conveyance path branches by combining a plurality of conveyors.

荷物仕分けシステム100は、仕分け管理サーバ101、連携サーバ102、ラベルリーダ103、仕分けクライアント104、プロジェクタ105、距離センサ106、および画像センサ107を含んで構成される。仕分けクライアント104、プロジェクタ105、距離センサ106、および画像センサ107を1つの組として、荷物を搬送する搬送コンベア上に設けられる複数の仕分け領域それぞれに対応付けて複数のクライアントシステム110が設けられる。したがって、仕分けクライアント104、プロジェクタ105、距離センサ106、および画像センサ107はそれぞれ、仕分け領域の数に応じて複数設置される。以下の説明において、個別に装置の説明を要する場合には添え字(a,b,・・・)を付し、装置をまとめて説明する場合には添え字を省略して示す。 The baggage sorting system 100 includes a sorting management server 101, a cooperation server 102, a label reader 103, a sorting client 104, a projector 105, a distance sensor 106, and an image sensor 107. A plurality of client systems 110 are provided in which the sorting client 104, the projector 105, the distance sensor 106, and the image sensor 107 are set as one set, and are associated with each of the plurality of sorting areas provided on the transport conveyor that transports packages. Therefore, a plurality of sorting clients 104, projectors 105, distance sensors 106, and image sensors 107 are each installed according to the number of sorting areas. In the following description, when an individual device needs to be explained, subscripts (a, b, . . . ) are added, and when the devices are explained collectively, the subscripts are omitted.

仕分け管理サーバ101は、本実施の形態に係る荷物仕分けシステム100の全体の制御を司る情報処理装置である。仕分け管理サーバ101は、ラベルリーダ103の検出結果を取得したり、連携サーバ102から各種荷物情報を取得したりする。また、仕分け管理サーバ101は、1または複数の仕分けクライアント104それぞれに対して、各種指示を行ったり、各種情報を収集したりする。更に、仕分け管理サーバ101は、後述する搬送コンベアの動作制御や、動作情報の収集および管理を行ってよい。 The sorting management server 101 is an information processing device that controls the entire package sorting system 100 according to this embodiment. The sorting management server 101 acquires the detection results of the label reader 103 and acquires various baggage information from the cooperation server 102. Further, the sorting management server 101 issues various instructions to each of one or more sorting clients 104 and collects various information. Further, the sorting management server 101 may control the operation of a conveyor, which will be described later, and collect and manage operation information.

連携サーバ102は、ラベル情報と、荷物情報とを対応付けて保持、管理している。そして、連携サーバ102は、仕分け管理サーバ101からの要求に応じて、ラベルリーダ103にて読み取ったラベル情報に対応する荷物情報を提供する。なお、図1の例では、仕分け管理サーバ101、および連携サーバ102はそれぞれ1台ずつ示しているが、機能の冗長化や負荷分散などの観点から複数の装置にて構成されてもよい。また、仕分け管理サーバ101側にて、ラベル情報と仕分けのパターンを対応付けて管理しておき、これに基づいて、後述する各荷物の仕分けに係る処理を行ってもよい。このような場合などには、連携サーバ102の構成を省略し、仕分け管理サーバ101は、取得したラベル情報のパターンに基づいて、後述する各荷物の仕分けに係る処理を行うような構成であってよい。 The cooperation server 102 stores and manages label information and package information in association with each other. The cooperation server 102 then provides package information corresponding to the label information read by the label reader 103 in response to a request from the sorting management server 101. In the example of FIG. 1, one sorting management server 101 and one cooperation server 102 are shown, but they may be configured with a plurality of devices from the viewpoint of functional redundancy and load distribution. Further, label information and sorting patterns may be managed in association with each other on the sorting management server 101 side, and based on this, processing related to sorting of each baggage, which will be described later, may be performed. In such cases, the configuration of the cooperation server 102 is omitted, and the sorting management server 101 is configured to perform processing related to sorting of each package, which will be described later, based on the pattern of acquired label information. good.

ラベルリーダ103は、搬送コンベアにより搬送されている荷物に付されているラベルを読み取るための装置であり、レンズやイメージセンサなどの光学部品を含んで構成される。荷物に付されているラベルを読み取ることで、ラベルにて示される各種情報(以下、「ラベル情報」と称する)を取得する。ラベルの形式や方式は特に限定するものではなく、例えば、バーコードや二次元コード(QRコード(登録商標)など)を利用することができる。本実施の形態では、ラベルとしてバーコードを例に挙げて説明する。また、ラベル情報は、例えば、荷物を一意に識別するための識別情報を含んでよい。この場合、識別情報を構成する文字種や桁数などは特に限定されない。 The label reader 103 is a device for reading labels attached to packages being transported by a transport conveyor, and includes optical components such as a lens and an image sensor. By reading the label attached to the package, various information shown on the label (hereinafter referred to as "label information") is acquired. The format or method of the label is not particularly limited, and for example, a barcode or two-dimensional code (QR code (registered trademark), etc.) can be used. In this embodiment, a barcode will be used as an example of a label. Further, the label information may include, for example, identification information for uniquely identifying the package. In this case, the type of characters and the number of digits constituting the identification information are not particularly limited.

ラベルリーダ103は、例えば、一般的な撮像カメラを使用し、撮像した画像からラベルの領域を画像認識によって抽出して各種情報を読み取ったり、ラベルに記載されている文字等をOCR(Optical Character Recognition/Reader)によって認識したりしてもよい。ラベルリーダ103は、ラベルを読み取るための専用の装置であってもよいし、他の装置と一体となった構成であってもよい。また、ラベルリーダ103は、ラベルの三次元座標を検出するような構成であってもよい。また、荷物の多様なサイズなどに対応して複数のラベルリーダ103が備えられてもよいし、ラベルの様々な貼り付け位置に対応して多方向から荷物を撮影するような構成であってもよい。 The label reader 103 uses, for example, a general imaging camera to extract a label area from a captured image through image recognition and read various information, or performs OCR (Optical Character Recognition) on characters written on the label. /Reader). The label reader 103 may be a dedicated device for reading labels, or may be integrated with other devices. Further, the label reader 103 may be configured to detect the three-dimensional coordinates of the label. Furthermore, a plurality of label readers 103 may be provided to accommodate various sizes of packages, or a configuration may be used to photograph packages from multiple directions in response to various label attachment positions. good.

本実施の形態に係る荷物情報としては、例えば、荷物に個別に付与される荷物特定番号(例えば、荷物を一意に識別するための識別情報)、荷物の発送元の氏名、住所、電話番号、宛先(例えば、受取人)の氏名、住所、電話番号、荷物の種類、などが挙げられる。なお、これらの情報に限定するものではなく、荷物情報に含まれる項目は、必要に応じて増減してよい。本実施の形態において、仕分け管理サーバ101がラベルリーダ103からラベル情報を取得し、このラベル情報を用いて連携サーバ102に問い合わせを行うことで、対応する荷物情報を取得する。上述したように、連携サーバ102との連携を省略するような構成の場合には、仕分け管理サーバ101側で、ラベル情報と仕分けに関するパターンの情報とを対応付けて保持しておいてよい。 The package information according to this embodiment includes, for example, a package identification number that is individually assigned to a package (e.g., identification information for uniquely identifying a package), the name, address, and telephone number of the package sender, Examples include the name, address, telephone number, and type of package of the destination (for example, recipient). Note that the information is not limited to these, and the items included in the baggage information may be increased or decreased as necessary. In this embodiment, the sorting management server 101 acquires label information from the label reader 103, and uses this label information to make an inquiry to the cooperation server 102, thereby acquiring corresponding package information. As described above, in the case of a configuration in which cooperation with the cooperation server 102 is omitted, label information and pattern information related to sorting may be stored in association with each other on the sorting management server 101 side.

仕分けクライアント104は、仕分け管理サーバ101からの指示に基づいて、搬送されている荷物に対する投影処理等を制御する情報処理装置である。また、仕分けクライアント104は、距離センサ106および画像センサ107による撮影結果を取得し、その撮影結果に基づいて荷物を検出、管理する。また、仕分けクライアント104は、検出した荷物の位置情報やサイズ情報、検出した時刻情報などを仕分け管理サーバ101に提供する。 The sorting client 104 is an information processing device that controls projection processing and the like for the cargo being transported based on instructions from the sorting management server 101. Further, the sorting client 104 acquires the photographic results of the distance sensor 106 and the image sensor 107, and detects and manages packages based on the photographic results. Further, the sorting client 104 provides the sorting management server 101 with position information, size information, detected time information, etc. of the detected baggage.

プロジェクタ105は、仕分けクライアント104の指示に基づいて、搬送経路上の荷物に対して所定の投影パターンを含む投影画像の照射を行う投影装置である。なお、本実施の形態において、「投影画像」とは、プロジェクタ105により仕分け領域全体に重畳して投影させる画像全体を示す。また、「投影パターン」とは、仕分け領域にて検出された荷物それぞれに対応して重畳して表示させる画像を示す。したがって、仕分け領域にて荷物が検出された場合、投影画像には、荷物に応じて1または複数の投影パターンが含まれることとなる。投影パターンの例については後述する。 The projector 105 is a projection device that irradiates a projection image including a predetermined projection pattern onto the cargo on the transport route based on instructions from the sorting client 104 . Note that in this embodiment, the "projection image" refers to the entire image projected by the projector 105 onto the entire sorting area in a superimposed manner. Further, the "projection pattern" refers to an image that is displayed in a superimposed manner corresponding to each baggage detected in the sorting area. Therefore, when a package is detected in the sorting area, the projected image will include one or more projection patterns depending on the package. Examples of projection patterns will be described later.

距離センサ106は、距離センサ106と撮像対象(例えば、荷物の表面)との距離情報を検出するためのセンサであり、検出結果を距離画像として取得する。距離画像は、距離を示す数値を列挙したテーブルなど、人の目で画像として認識できないものを含んでよい。すなわち、距離画像は、撮像した領域内における座標と距離との関係を示す情報であればよく、そのデータ構造を特に限定するものではない。距離センサ106としては、例えば、赤外線センサ(IRセンサ)や、複数のカメラにて構成されるステレオカメラなどが用いられてよい。 The distance sensor 106 is a sensor for detecting distance information between the distance sensor 106 and an object to be imaged (for example, the surface of a package), and acquires the detection result as a distance image. The distance image may include something that cannot be recognized as an image by the human eye, such as a table listing numerical values indicating distance. That is, the distance image may be information indicating the relationship between coordinates and distance within the imaged area, and its data structure is not particularly limited. As the distance sensor 106, for example, an infrared sensor (IR sensor), a stereo camera composed of a plurality of cameras, or the like may be used.

画像センサ107は、レンズ、イメージセンサ等の光学部品を含む撮像装置である。画像センサ107は、例えば、撮像カメラにて構成される。撮像カメラは、三次元カメラ、複数台の二次元カメラが用いられてよい。画像センサ107は、搬送コンベアにより搬送されてくる荷物を含む搬送コンベアを撮像し、色画像を生成する。ここでの色画像とは、撮影対象の表面の色を所定の階調で表現した画像を示す。階調にはRGB(Red,Green,Blue)の256階調の他、グレースケールなどを含んでよい。 The image sensor 107 is an imaging device that includes optical components such as a lens and an image sensor. The image sensor 107 is composed of, for example, an imaging camera. As the imaging camera, a three-dimensional camera or a plurality of two-dimensional cameras may be used. The image sensor 107 captures an image of the conveyor including the baggage being conveyed by the conveyor, and generates a color image. The color image here refers to an image in which the color of the surface of the object to be photographed is expressed in a predetermined gradation. In addition to the 256 gradations of RGB (Red, Green, and Blue), the gradation may include a gray scale.

クライアントシステム110の数は、搬送コンベアの長さや各センサの検出範囲などに応じて異なる。なお、仕分けクライアント104は1台構成とし、この1台の仕分けクライアント104にて、複数の仕分け領域に対応した複数のプロジェクタ105、複数の距離センサ106、および複数の画像センサ107を制御するような構成であってもよい。また、本実施の形態では、センサとして距離センサ106と画像センサ107を用いる例を示したが、これらが一体となったセンサが用いられてもよいし、いずれか一方のみが用いられるような構成であってもよい。また、他の種類のセンサが用いられてもよい。搬送コンベアの搬送形式は特に限定するものではなく、例えば、1列にて荷物を搬送するような構成であってもよいし、複数列にて荷物を搬送するような構成であってもよい。 The number of client systems 110 varies depending on the length of the conveyor, the detection range of each sensor, and the like. Note that the sorting client 104 is configured as one unit, and this one sorting client 104 controls a plurality of projectors 105, a plurality of distance sensors 106, and a plurality of image sensors 107 corresponding to a plurality of sorting areas. It may be a configuration. Further, in this embodiment, an example is shown in which the distance sensor 106 and the image sensor 107 are used as sensors, but a sensor in which these are integrated may be used, or a configuration in which only one of them is used is also possible. It may be. Also, other types of sensors may be used. The conveyance format of the conveyor is not particularly limited, and for example, the conveyor may be configured to convey the loads in one line, or may be configured to convey the loads in multiple lines.

各装置は、有線/無線により通信可能に接続される。ここでの通信方式や接続方式は特に限定するものではなく、所定のネットワークケーブルを用いて接続されてもよいし、複数の方式を組み合わせて接続されてもよい。 Each device is communicably connected by wire/wireless. The communication method and connection method here are not particularly limited, and the connection may be made using a predetermined network cable, or may be made by combining a plurality of methods.

(情報処理装置)
図2は、本実施の形態に係る仕分け管理サーバ101や連携サーバ102、仕分けクライアント104として適用可能な情報処理装置のハードウェア構成の例を示す図である。ここでは各装置が同じ構成を有するものとして説明するが、各装置がそれぞれ異なる構成であってもよい。
(Information processing device)
FIG. 2 is a diagram illustrating an example of the hardware configuration of an information processing device that can be used as the sorting management server 101, the cooperation server 102, and the sorting client 104 according to this embodiment. Although each device will be described here as having the same configuration, each device may have a different configuration.

情報処理装置200は、CPU(Central Processing Unit)201、メモリ202、記憶装置203、入出力部204、通信部205、および外部I/F206を含んで構成される。CPU201は、メモリ202や記憶装置203に格納された各種プログラムやデータを読み出して処理を実行することで、各種機能を実現する。なお、CPU201は、GPU(Graphics Processing Unit)のような他の演算回路であってもよいし、他の演算回路と併用されてもよい。メモリ202は、各種情報を記憶、保持するための記憶領域であり、例えば、不揮発性の記憶領域であるROM(Read Only Memory)や、揮発性の記憶領域であるRAM(Random Access Memory)などから構成される。記憶装置203は、各種情報を記憶、保持するための記憶領域であり、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。 The information processing device 200 includes a CPU (Central Processing Unit) 201, a memory 202, a storage device 203, an input/output section 204, a communication section 205, and an external I/F 206. The CPU 201 implements various functions by reading various programs and data stored in the memory 202 and the storage device 203 and executing processes. Note that the CPU 201 may be another arithmetic circuit such as a GPU (Graphics Processing Unit), or may be used in combination with another arithmetic circuit. The memory 202 is a storage area for storing and retaining various information, such as ROM (Read Only Memory) which is a non-volatile storage area, RAM (Random Access Memory) which is a volatile storage area, etc. configured. The storage device 203 is a storage area for storing and retaining various information, and is configured from an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.

入出力部204は、例えば、不図示のマウスやキーボードからユーザによる指示を受け付けたり、不図示のディスプレイなどにより各種情報を出力したりする。通信部205は、有線/無線などのネットワークを介して外部装置との通信を行い、各種データや信号の送受信を行う。通信部205による通信方式は、特に限定するものではなく、複数の通信方式に対応していてよい。例えば、WAN(Wide Area Network)、LAN(Local Area Network)、電力線通信、近距離無線通信(例えば、Bluetooth(登録商標))などが用いられてよい。外部I/F206は、外部装置とのデータの送受信を行うためのインタフェースである。情報処理装置200が備える各部位は、不図示の内部バスなどにより通信可能に接続される。 The input/output unit 204 receives instructions from a user from a mouse or keyboard (not shown), and outputs various information from a display (not shown), for example. The communication unit 205 communicates with an external device via a wired/wireless network, and sends and receives various data and signals. The communication method by the communication unit 205 is not particularly limited, and may be compatible with a plurality of communication methods. For example, WAN (Wide Area Network), LAN (Local Area Network), power line communication, short-range wireless communication (eg, Bluetooth (registered trademark)), etc. may be used. External I/F 206 is an interface for transmitting and receiving data with an external device. Each part of the information processing device 200 is communicably connected via an internal bus (not shown) or the like.

[搬送例]
図3は、本実施の形態に係る荷物の搬送を説明するための概略図である。搬送対象の荷物300にはそれぞれラベル301が付される。ラベル301は、搬送経路の任意の位置に設置されたラベルリーダ103によって、搬送中に読み取られる。なお、図3の例では、ラベル301は、荷物300の上面に付され、上側からラベルリーダ103により読み取られる構成としたが、これに限定するものではない。例えば、荷物300の側面にラベル301が付され、これに対応してラベルリーダ103が側方から読み取り可能な構成であってもよい。
[Example of transportation]
FIG. 3 is a schematic diagram for explaining the transportation of luggage according to this embodiment. A label 301 is attached to each baggage 300 to be transported. The label 301 is read during transportation by a label reader 103 installed at an arbitrary position on the transportation path. In the example of FIG. 3, the label 301 is attached to the top surface of the luggage 300 and is read from the top by the label reader 103, but the label 301 is not limited to this. For example, a label 301 may be attached to the side of the luggage 300, and the label reader 103 may be configured to read the label from the side.

荷物300は、搬送コンベア302により任意の速度にて搬送される。搬送コンベア302には、ロータリーエンコーダ303が設置され、その搬送距離を適時検出し、仕分け管理サーバ101に提供される。ロータリーエンコーダ303は、搬送コンベア302の搬送に伴って回転する回転機構(不図示)に取り付けられており、その回転機構の回転数を出力する。この回転機構は、搬送コンベア302がベルトコンベアの場合は、ベルトに接しているローラまたはベルトを移動させるモータである。また、搬送コンベア302がローラコンベアの場合は、搬送コンベア302を構成するローラである。ここでは、矢印にて示す方向に沿って、荷物が搬送されているものとする。搬送コンベア302は、ユーザからの指定に応じてその搬送速度が変化したり、搬送を停止したりする。必要に応じて、逆方向への搬送が行われてもよい。また、搬送コンベア302の搬送速度は、搬送コンベア302の各機構の物理的な特性など、ユーザからの指定以外の要因でも変化したりする。しかし、ロータリーエンコーダ303は、回転機構の回転数を正確に検知するため、搬送速度の変化等の影響を受けにくい。搬送コンベア302による搬送は、例えば、仕分け管理サーバ101により制御されてもよいし、別途設けられる制御装置(不図示)にて制御されてもよい。 The cargo 300 is transported by the transport conveyor 302 at an arbitrary speed. A rotary encoder 303 is installed on the conveyor 302 to detect the conveyance distance in a timely manner and provide it to the sorting management server 101. The rotary encoder 303 is attached to a rotating mechanism (not shown) that rotates as the conveyor 302 transports, and outputs the number of rotations of the rotating mechanism. When the conveyor 302 is a belt conveyor, this rotation mechanism is a roller in contact with the belt or a motor that moves the belt. Moreover, when the transport conveyor 302 is a roller conveyor, it is a roller which comprises the transport conveyor 302. Here, it is assumed that the cargo is being transported along the direction indicated by the arrow. The conveyor 302 changes its conveyance speed or stops conveyance according to a user's designation. Conveyance in the opposite direction may be performed as necessary. Further, the conveyance speed of the conveyor 302 may change due to factors other than the user's designation, such as the physical characteristics of each mechanism of the conveyor 302. However, since the rotary encoder 303 accurately detects the rotation speed of the rotation mechanism, it is less susceptible to changes in the conveyance speed. Conveyance by the conveyor 302 may be controlled, for example, by the sorting management server 101 or by a separately provided control device (not shown).

ラベルリーダ103よりも搬送方向の下流側には、複数の仕分け領域に対応して、各種センサ(本例では、距離センサ106および画像センサ107)と、プロジェクタ105が複数設置される。図3では、複数の仕分け領域のうちの最上流の仕分け領域Aを示している。仕分け領域Aに対応する各種センサは、仕分け領域Aを撮影することにより各種画像を取得し、これらの画像を用いて、仕分けクライアント104aにより搬送中の荷物が検出される。具体的には、仕分け領域Aの開始位置305aに荷物300が到達すると、荷物300は、各種センサの撮影範囲に進入することとなる。距離センサ106aおよび画像センサ107aの撮影範囲304は、少なくとも仕分け領域Aの範囲を含む。また、仕分け領域Aの範囲内において、仕分け管理サーバ101や仕分けクライアント104の指示に基づいて、プロジェクタ105aが所定の投影画像を投影する。プロジェクタ105aによる投影範囲306は、少なくとも仕分け領域Aを含む。なお、ラベルリーダ103の読み取り位置から、開始位置305aまでの距離は、後述する処理シーケンスの処理速度や、各種センサの読み取り速度などに応じて規定されてよい。 On the downstream side of the label reader 103 in the transport direction, a plurality of various sensors (in this example, a distance sensor 106 and an image sensor 107) and a plurality of projectors 105 are installed corresponding to a plurality of sorting areas. FIG. 3 shows the most upstream sorting area A among the plurality of sorting areas. Various sensors corresponding to the sorting area A acquire various images by photographing the sorting area A, and using these images, the sorting client 104a detects the cargo being transported. Specifically, when the package 300 reaches the starting position 305a of the sorting area A, the package 300 enters the photographing range of various sensors. The photographing range 304 of the distance sensor 106a and the image sensor 107a includes at least the range of the sorting area A. Further, within the range of the sorting area A, the projector 105a projects a predetermined projection image based on instructions from the sorting management server 101 and the sorting client 104. A projection range 306 by the projector 105a includes at least the sorting area A. Note that the distance from the reading position of the label reader 103 to the starting position 305a may be defined according to the processing speed of the processing sequence described later, the reading speed of various sensors, and the like.

搬送コンベア302の周囲には、荷物300に対する作業を行う作業者Mが位置し、必要に応じて、各種作業を実施する。このとき、作業者Mは、プロジェクタ105により投影された投影画像(投影パターン等)に基づいて作業を実施することが可能である。 A worker M who performs work on the cargo 300 is located around the transport conveyor 302, and performs various tasks as necessary. At this time, the worker M can perform work based on the projection image (projection pattern, etc.) projected by the projector 105.

図4は、複数のクライアントシステム110それぞれに対応した複数の仕分け領域を説明するための図である。ここでは、2つの仕分け領域A、Bを例に挙げ、それぞれ、クライアントシステム110a、110bにより監視されているものとして説明する。仕分け領域の数やその範囲(例えば、搬送方向の長さや幅)はクライアントシステム110の機能に応じて規定されてよい。したがって、仕分け領域Bよりも更に搬送方向下流において、更に1または複数の仕分け領域が設けられてよい。 FIG. 4 is a diagram for explaining a plurality of sorting areas corresponding to each of a plurality of client systems 110. Here, two sorting areas A and B will be taken as an example and explained as being monitored by client systems 110a and 110b, respectively. The number of sorting areas and their range (for example, length and width in the transport direction) may be defined according to the functions of the client system 110. Therefore, further downstream of the sorting area B in the conveyance direction, one or more sorting areas may be provided.

仕分け領域Aは、距離センサ106aおよび画像センサ107aにより撮影され、その画像が仕分けクライアント104aに提供される。また、仕分け領域Aにおいて、プロジェクタ105aにより、任意の投影パターンを含む投影画像が投影される。同様に、仕分け領域Aの搬送方向下流側に隣接する仕分け領域Bは、距離センサ106bおよび画像センサ107bにより撮影され、その画像が仕分けクライアント104bに提供される。また、仕分け領域Bにおいて、プロジェクタ105bにより、任意の投影パターンを含む投影画像が投影される。仕分け領域Bでは、仕分け領域Aから搬送されてきた荷物の監視を引き継ぐ形で監視が行われる。このとき、図4に示すように、クライアントシステム110それぞれによる仕分け領域は、一部の領域が重複しており、以下、この領域を「ハンドオーバ領域」とも称する。開始位置305bは、仕分け領域Bの監視の開始位置を示し、仕分け領域Bの上流側に隣接する仕分け領域Aの監視の終了位置(不図示)とは異なる。ハンドオーバ領域の詳細については後述する。 The sorting area A is photographed by the distance sensor 106a and the image sensor 107a, and the image is provided to the sorting client 104a. Further, in the sorting area A, a projection image including an arbitrary projection pattern is projected by the projector 105a. Similarly, sorting area B adjacent to sorting area A on the downstream side in the transport direction is photographed by distance sensor 106b and image sensor 107b, and the image is provided to sorting client 104b. Furthermore, in the sorting area B, a projection image including an arbitrary projection pattern is projected by the projector 105b. In the sorting area B, monitoring is carried out in a manner that takes over the monitoring of the packages conveyed from the sorting area A. At this time, as shown in FIG. 4, the sorting areas of the respective client systems 110 partially overlap, and hereinafter, this area will also be referred to as a "handover area." The start position 305b indicates the start position of the monitoring of the sorting area B, and is different from the end position (not shown) of the monitoring of the sorting area A adjacent to the upstream side of the sorting area B. Details of the handover area will be described later.

[処理シーケンス]
図5、図6を用いて、本実施の形態に係る荷物仕分けシステム100の処理シーケンスについて説明する。各装置の処理は、各処理の処理主体(CPU等)により各種機能に対応したプログラムが実行されることで実現されてよい。図5や図6に示す処理が開始される際に搬送コンベア302の動作が開始され、それにより荷物が順次搬送されるものとする。なお、以下に示す処理シーケンスにおける各処理の主体は一例であり、その一部が他の装置によって実行されてもよい。例えば、以下に示す仕分け管理サーバ101の処理の一部を、仕分けクライアント104が実行するような構成であってもよい。または、図1に示した各サーバや仕分けクライアントを1の装置にて構成し、この1の装置にて以下の処理シーケンスを実行させてもよい。
[Processing sequence]
The processing sequence of the baggage sorting system 100 according to this embodiment will be explained using FIGS. 5 and 6. The processing of each device may be realized by the processing entity (CPU, etc.) of each processing executing programs corresponding to various functions. It is assumed that the operation of the transport conveyor 302 is started when the processing shown in FIGS. 5 and 6 is started, and thereby the packages are sequentially transported. Note that the subject of each process in the processing sequence shown below is an example, and a part thereof may be executed by another device. For example, the configuration may be such that the sorting client 104 executes part of the processing of the sorting management server 101 described below. Alternatively, each server and sorting client shown in FIG. 1 may be configured as one device, and the following processing sequence may be executed by this one device.

ラベルリーダ103は、搬送コンベア302にて搬送されている荷物に付与されているラベルを検出し、そのラベル情報を読み取る(ステップS501)。 The label reader 103 detects a label attached to a package being transported on the transport conveyor 302, and reads the label information (step S501).

ラベルリーダ103は、S501にて読み取ったラベル情報を仕分け管理サーバ101へ送信する(ステップS502)。この時送信する情報としては、ラベルにて示される情報の他、読み取った時刻やラベルを読み取る際に検出した位置情報(例えば、三次元情報など)が含まれてもよい。 The label reader 103 transmits the label information read in S501 to the sorting management server 101 (step S502). The information transmitted at this time may include, in addition to the information shown on the label, the time of reading and positional information (for example, three-dimensional information) detected when reading the label.

仕分け管理サーバ101は、ラベルリーダ103から送信されてきたラベル情報を取得する(ステップS503)。このとき、仕分け管理サーバ101は、搬送コンベア302に備えられたロータリーエンコーダ303から、検出値を取得して、対応付けて保持する。ロータリーエンコーダ303による検出値は、その回転数に基づく、搬送コンベア302の移動距離に相当する。更に、仕分け管理サーバ101は、取得したラベル情報を用いて、連携サーバ102に対して荷物情報を問い合わせる。 The sorting management server 101 acquires the label information transmitted from the label reader 103 (step S503). At this time, the sorting management server 101 acquires the detected values from the rotary encoder 303 provided in the transport conveyor 302, and stores them in association with each other. The value detected by the rotary encoder 303 corresponds to the moving distance of the conveyor 302 based on its rotation speed. Furthermore, the sorting management server 101 uses the acquired label information to inquire of the cooperation server 102 about package information.

連携サーバ102は、仕分け管理サーバ101からの問い合わせにて示されるラベル情報に対応する荷物情報を所定のDB(データベース)から検索し、特定する(ステップS504)。DBは、連携サーバ102が内部に備えていてもよいし、ネットワークを介して連携サーバ102に接続された外部装置(不図示)に構成されていてもよい。 The cooperation server 102 searches a predetermined DB (database) for package information corresponding to the label information indicated in the inquiry from the sorting management server 101 and identifies it (step S504). The DB may be provided internally in the cooperation server 102, or may be configured in an external device (not shown) connected to the cooperation server 102 via a network.

連携サーバ102は、ステップS504にて特定した荷物情報を、問い合わせに対する応答として仕分け管理サーバ101へ送信する(ステップS505)。 The cooperation server 102 transmits the package information specified in step S504 to the sorting management server 101 as a response to the inquiry (step S505).

仕分け管理サーバ101は、連携サーバ102から取得した荷物情報に基づき、投影パターンを決定する(ステップS506)。本実施の形態に係る投影パターンは、複数のパターンとして予め規定され、保持されている。投影パターンは、例えば、荷物情報にて示される宛先(例えば、送付先住所)に応じて決定されてよいし、仕分け領域に応じて決定されてもよい。 The sorting management server 101 determines a projection pattern based on the package information acquired from the cooperation server 102 (step S506). The projection pattern according to this embodiment is defined and held in advance as a plurality of patterns. The projection pattern may be determined, for example, depending on the destination (for example, the destination address) indicated in the package information, or may be determined depending on the sorting area.

仕分け管理サーバ101は、ステップS506にて決定した投影パターンを含む投影指示を仕分けクライアント104へ送信する(ステップS507)。ここでは、図3にて示したように、搬送経路の最上流に位置する仕分け領域Aに対応するクライアントシステム110aの仕分けクライアント104aに送信するものとして説明する。つまり、各荷物は、まず、仕分け領域Aに向けて搬送される。なお、投影指示には、投影パターンのほか、ステップS506にて取得した荷物情報や、ステップS501にてラベルリーダ103にて読み取ったラベル情報およびその読み取った際の時刻の情報などを含んでよい。ここでの投影指示は、仕分けクライアント104aがセンサ類にて荷物を検出したことに起因して、その荷物に関する情報を問い合わせ、それに応じて仕分け管理サーバ101から仕分けクライアント104aに送信されてよい。または、仕分け管理サーバ101がラベルリーダ103からラベル情報を受信したことに起因して、仕分けクライアント104aに送信されてよい。 The sorting management server 101 transmits a projection instruction including the projection pattern determined in step S506 to the sorting client 104 (step S507). Here, as shown in FIG. 3, the explanation will be made assuming that the information is transmitted to the sorting client 104a of the client system 110a corresponding to the sorting area A located at the most upstream side of the conveyance route. That is, each package is first transported toward the sorting area A. In addition to the projection pattern, the projection instruction may include the package information acquired in step S506, the label information read by the label reader 103 in step S501, and information on the time at which it was read. The projection instruction here may be transmitted from the sorting management server 101 to the sorting client 104a based on the sorting client 104a detecting the package using sensors, inquiring information regarding the package. Alternatively, the label information may be transmitted to the sorting client 104a due to the sorting management server 101 receiving label information from the label reader 103.

ステップS520(ステップS508~ステップS515)は、仕分け領域(ここでは、仕分け領域A)内を搬送されている各荷物を監視するためにクライアントシステム110(ここでは、クライアントシステム110a)により繰り返し行われる処理である。ここでは、便宜上、距離センサ106および画像センサ107(ここでは、距離センサ106aおよび画像センサ107a)をまとめて「センサ類」と記載する。 Step S520 (steps S508 to S515) is a process repeatedly performed by the client system 110 (here, the client system 110a) to monitor each package being transported within the sorting area (here, sorting area A). It is. Here, for convenience, the distance sensor 106 and the image sensor 107 (here, the distance sensor 106a and the image sensor 107a) are collectively referred to as "sensors."

センサ類は、仕分け領域A内を撮影し、その画像を取得する(ステップS508)。なお、本実施の形態では、仕分けクライアント104aが、センサ類にて撮影された画像を用いて荷物の検出を行うものとして説明するが、その処理の一部をセンサ類側で実施するような構成であってもよい。例えば、センサ類は、荷物に対応する領域の特定(荷物の有無)や、各荷物の三次元座標(位置)やサイズ(縦、横、高さ)などを検出するような構成であってもよい。 The sensors photograph the inside of the sorting area A and obtain the image (step S508). Note that in this embodiment, the sorting client 104a will be described as one that detects packages using images captured by sensors, but a configuration in which part of the processing is performed on the sensors side is also possible. It may be. For example, sensors may be configured to identify the area corresponding to the baggage (presence or absence of baggage), or detect the three-dimensional coordinates (position) and size (length, width, height) of each baggage. good.

センサ類は、取得結果を仕分けクライアント104aに送信する(ステップS509)。このとき、センサ類は、取得した画像に対して所定の処理を行った上で、仕分けクライアント104aに送信してよい。例えば、画像センサ107aの場合、取得した画像情報に対して任意の画像処理(例えば、画像圧縮や補正処理)が行われてよい。 The sensors transmit the obtained results to the sorting client 104a (step S509). At this time, the sensors may perform predetermined processing on the acquired images and then transmit them to the sorting client 104a. For example, in the case of the image sensor 107a, arbitrary image processing (for example, image compression or correction processing) may be performed on the acquired image information.

仕分けクライアント104aは、ステップS509にてセンサ類から送信された取得結果に基づいて、荷物の検出処理を行う(ステップS510)。具体的には、仕分けクライアント104aは、仕分け領域A内において、搬送コンベア302により搬送されている1または複数の荷物を、センサ類からの取得結果に基づいて特定する。荷物の検出の際の処理は公知の方法を用いてよく、特に限定するものではない。例えば、機械学習による領域分割にて荷物に対応する領域を検出してもよい。または、予め規定されたパターンを用いて、パターンマッチングにより荷物を検出してもよい。 The sorting client 104a performs a package detection process based on the acquisition results sent from the sensors in step S509 (step S510). Specifically, the sorting client 104a identifies one or more packages being conveyed by the conveyor 302 in the sorting area A based on the results obtained from sensors. Processing for detecting baggage may be performed using any known method, and is not particularly limited. For example, the area corresponding to the baggage may be detected by area segmentation using machine learning. Alternatively, packages may be detected by pattern matching using a predefined pattern.

仕分けクライアント104aは、ステップS507にて仕分け管理サーバ101から送信された投影指示と、ステップS510の検出結果とに基づいて、各情報の対応付けを行う(ステップS511)。これにより、検出した1または複数の荷物それぞれと、仕分け管理サーバ101から送信された投影指示にて示される各種情報(投影パターン等)が対応付けられる。 The sorting client 104a correlates each piece of information based on the projection instruction transmitted from the sorting management server 101 in step S507 and the detection result in step S510 (step S511). As a result, each of the detected one or more packages is associated with various information (projection pattern, etc.) indicated in the projection instruction transmitted from the sorting management server 101.

投影パターンは、例えば、荷物の配送先住所に対応した仕分け場所を示す色を有し、円い枠で囲んだ数字の画像である。ここで、数字は、例えば、仕分けられた荷物を運ぶトラックの番号(トラック自体の番号や駐車場番号など)や、当該トラックなどに搬入されるべき棚や箱などの番号等に対応する。また、数字の画像は、直接的に棚や箱などの番号に対応させるのではなく、ピックアップした荷物を他の場所またはトラック等へ移動させるシューター(不図示)の番号等に対応していてもよい。トラック等の駐車位置は交通状況などに応じて頻繁に変わるため、搬送コンベア302周辺から見た仕分け先を随時対応させることは難しいことがある。そのため、搬送コンベア302と搬送トラック等との間にシューターを挟み、搬送コンベア302周辺ではシューターの番号を投影することで、搬送コンベア302周辺の構成を随時変えなくとも、シューターの出口の配置換えなどで仕分け先の変化に対応することができる。この場合、状況の変化に応じて、投影パターンの内容が切り替えられてもよい。 The projection pattern is, for example, an image of numbers surrounded by a circular frame and has a color indicating the sorting location corresponding to the delivery address of the package. Here, the numbers correspond to, for example, the number of the truck that transports the sorted cargo (the number of the truck itself, the parking lot number, etc.), the number of the shelf or box to be carried into the truck, etc. In addition, the image of the number may not directly correspond to the number of a shelf or box, but may correspond to the number of a shooter (not shown) that moves the picked up cargo to another location or truck, etc. good. Since the parking positions of trucks and the like frequently change depending on traffic conditions, it may be difficult to change the sorting destination as seen from around the transport conveyor 302 at any time. Therefore, by sandwiching a chute between the transport conveyor 302 and a transport truck, etc., and projecting the number of the chute around the transport conveyor 302, it is possible to change the arrangement of the exit of the chute without changing the configuration around the transport conveyor 302 at any time. can respond to changes in sorting destinations. In this case, the contents of the projection pattern may be switched according to changes in the situation.

投影パターンとして、数字を表示する他の例としては、配送先住所に対応した郵便番号や、荷物Pをピックアップすべき作業者の番号などであってもよい。また、数字以外の情報を表示する例としては、仕分け方向を示す矢印(搬送コンベア302の搬送方向に対して右または左など)または文字(「左」、「右」など)であってもよい。更に、表示の形態も円い枠で囲んだ数字に限られるものではなく、四角い枠で囲んだ数字(“3”、“359”、“24735”)など様々な構成であってよい。さらに、投影パターンは、枠によって数字または文字を囲むものに限らず、背景を塗りつぶした白抜きの数字または文字であってもよい。また、表示する情報に応じて、丸、三角、四角など表示する数字または文字の形状を切り替えるなどとしてもよい。他にも、表示する情報ごとに個別に対応付けできるような絵を表示するなどとしてもよい。 Other examples of displaying numbers as the projection pattern include the postal code corresponding to the delivery address, the number of the worker who should pick up the package P, etc. Further, as an example of displaying information other than numbers, an arrow indicating the sorting direction (such as right or left with respect to the transport direction of the transport conveyor 302) or characters (such as "left" or "right") may be used. . Further, the display form is not limited to numbers surrounded by a circular frame, but may be various configurations such as numbers surrounded by a square frame ("3", "359", "24735"). Further, the projection pattern is not limited to one in which numbers or letters are surrounded by a frame, but may be white numbers or letters with the background filled in. Further, depending on the information to be displayed, the shapes of the numbers or characters to be displayed, such as circles, triangles, squares, etc., may be changed. Alternatively, a picture that can be individually associated with each piece of information to be displayed may be displayed.

また、投影パターンは静止画像に限らず、アニメーションであってもよい。アニメーションの例としては、上記の各例を点滅させたり、拡大縮小させたり、色を変化させたりしてもよい。また、仕分け方向を反映したアニメーションを投影してもよい。仕分け方向を反映したアニメーションの例としては、仕分け方向に向かって光線または光点等を移動させたり、仕分け方向に向かって投影パターンの全体または一部を形成したり色を変化させたり、仕分け方向に矢印を動かして表示させたりするなどが挙げられる。投影パターンの一部のみをアニメーションの対象とする場合は、数字や矢印などの作業者による仕分け先の判断への影響が大きい部分は変化させず、枠線などの仕分け先の影響の少ない部分を変化させてもよい。ただし、仕分け先の選択肢が少ない場合など、枠線内に投影される数字等の意味よりも仕分け方向を直感的に伝える方が効率的な状況では、固定された枠線内で数字や矢印などを仕分け方向に動かしてもよい。また、アニメーションは繰り返し投影されてもよいし、一度だけ投影されてもよい。 Further, the projection pattern is not limited to a still image, but may be an animation. As examples of animation, each of the above examples may be made to blink, be enlarged/reduced, or change color. Furthermore, an animation reflecting the sorting direction may be projected. Examples of animations that reflect the sorting direction include moving light rays or light spots toward the sorting direction, forming all or part of a projected pattern toward the sorting direction, changing color, Examples include displaying the image by moving an arrow. If you want to animate only a part of the projected pattern, do not change the parts that have a large influence on the operator's judgment of the sorting destination, such as numbers and arrows, and change the parts that have less influence on the sorting destination, such as the frame line. It may be changed. However, in situations where it is more efficient to intuitively convey the sorting direction rather than the meaning of numbers etc. projected within the frame, such as when there are few options for sorting destinations, numbers or arrows may be displayed within a fixed frame. may be moved in the sorting direction. Further, the animation may be projected repeatedly or may be projected only once.

また、投影パターンは、仕分け先を示すものには限られず、荷物仕分けシステム100で発生しているエラーや、作業者が荷物を見過ごしてしまった場合の通知等であってもよい。 Further, the projection pattern is not limited to one indicating a sorting destination, but may also be a notification of an error occurring in the baggage sorting system 100 or a notification when a worker has overlooked a baggage.

また、投影パターンを荷物に直接投影するのではなく、画像を表示可能な眼鏡を介して、擬似的に、荷物に投影パターンが投影されているかのように作業者に認識させてもよい。つまり、作業者が画像を表示可能な特殊な眼鏡を装着している場合、眼鏡を介して視認される荷物の像に、ここでの投影パターンを重ねあわせてもよい。 Further, instead of directly projecting the projection pattern onto the luggage, the operator may be made to perceive the projection pattern as if it were being projected onto the luggage in a pseudo manner through glasses that can display an image. In other words, if the worker wears special glasses that can display images, the projected pattern may be superimposed on the image of the package that is viewed through the glasses.

また、投影パターンは、荷物以外の場所に投影してもよい。例えば、搬送コンベア302の、荷物が存在していない領域に、作業者への一般的な通知内容を投影してもよい。このような通知の例としては、荷物の到着量の増減の予告や、作業の残り時間、作業者への挨拶等が挙げられる。 Furthermore, the projection pattern may be projected onto a location other than the baggage. For example, general notification contents to the worker may be projected onto an area of the conveyor 302 where no cargo exists. Examples of such notifications include advance notice of increases and decreases in the amount of arriving packages, remaining work time, and greetings to workers.

仕分けクライアント104aは、ステップS510にて検出した1または複数の荷物に対する三次元空間内における処理を行う(ステップS512)。ここでの三次元空間内における処理では、搬送経路上における三次元座標系にて、各荷物を三次元形状にて表現するように処理する。なお、センサ類の数や配置によっては、センサ類の死角に位置する面の情報は得られないことがある。この場合、各荷物の三次元形状を一般的な荷物の形状(例えば、直方体形状等)に合致するよう補完してもよい。また、荷物を構成する面のうち、投影画像が投影されるべき面の三次元形状が認識できていれば、指示を投影することができるため、投影対象となる面のみ、または、投影対象となる面を含む面の集合を荷物の三次元形状として表現してもよい。本実施の形態では、投影対象となる面は荷物の上面であるものとするが、側面等であっても構わない。本実施の形態のセンサ類は、最低限、荷物の上面の情報が得られるよう上方に配置されているが、投影対象の面が側面等の場合は、その面に合わせた位置から荷物を撮影する。 The sorting client 104a processes the one or more packages detected in step S510 in the three-dimensional space (step S512). In the processing in the three-dimensional space here, processing is performed so that each package is expressed in a three-dimensional shape in a three-dimensional coordinate system on the transport route. Note that depending on the number and arrangement of sensors, information about surfaces located in blind spots of the sensors may not be obtained. In this case, the three-dimensional shape of each baggage may be complemented to match the general shape of baggage (for example, a rectangular parallelepiped shape, etc.). In addition, if the three-dimensional shape of the surface on which the projection image is to be projected among the surfaces constituting the baggage can be recognized, instructions can be projected. A set of surfaces including the surface may be expressed as the three-dimensional shape of the luggage. In this embodiment, the surface to be projected is the top surface of the luggage, but it may be the side surface or the like. The sensors of this embodiment are arranged above so as to obtain at least information on the top surface of the baggage, but if the surface to be projected is the side surface etc., the baggage is photographed from a position that matches that surface. do.

搬送経路上の三次元座標系については、クライアントシステム110a内において原点及び各座標軸が予め規定されているものとする。また、ラベルリーダ103、および複数のクライアントシステム110それぞれにおける三次元座標系についても、その対応関係が予め対応付けられ、適時調整されているものとする。ここでの複数の三次元座標系は、荷物仕分けシステム100全体で絶対座標系を共有し、その絶対座標系にて対応付けられてもよい。また、複数の三次元座標系は、相対座標系にて対応付けられてもよい。相対座標系を使用する場合は、例えば、荷物仕分けシステム100の上流に位置するクライアントシステム110を基準とし、他のクライアントシステム110が使用する座標系を、基準となるクライアントシステム110との相対的な座標系で定義してもよい。なお、相対座標系の基準となる座標系は、荷物仕分けシステム100内の任意の座標系を使用してよい。例えば、他のクライアントシステムや、センサ群の利用している座標系など、他の座標系であってもよい。なお、本工程の処理は、搬送される荷物の形状やプロジェクタ105の構成などにより高さ方向の調整が不要である場合には、二次元空間、すなわち、平面空間での処理が行われてもよい。 Regarding the three-dimensional coordinate system on the transport route, it is assumed that the origin and each coordinate axis are defined in advance within the client system 110a. It is also assumed that the three-dimensional coordinate systems of the label reader 103 and the plurality of client systems 110 are associated in advance and adjusted in a timely manner. The plurality of three-dimensional coordinate systems here may share an absolute coordinate system throughout the baggage sorting system 100, and may be associated with each other using that absolute coordinate system. Furthermore, the plurality of three-dimensional coordinate systems may be associated using a relative coordinate system. When using a relative coordinate system, for example, the client system 110 located upstream of the baggage sorting system 100 is used as a reference, and the coordinate systems used by other client systems 110 are set relative to the client system 110 that is the reference. It may also be defined using a coordinate system. Note that any coordinate system within the baggage sorting system 100 may be used as the reference coordinate system for the relative coordinate system. For example, it may be another coordinate system, such as a coordinate system used by another client system or a group of sensors. Note that this process may be performed in a two-dimensional space, that is, a planar space, if adjustment in the height direction is not necessary due to the shape of the cargo to be transported or the configuration of the projector 105. good.

仕分けクライアント104aは、ステップS512にて処理された三次元形状の1または複数の荷物それぞれに対応付けられた投影パターンを含む投影画像を描画する(ステップS513)。具体的には、仕分けクライアント104aは、個別の荷物に対する投影パターンの投影位置などを算出し、仕分け領域A全体に対する投影画像を決定する。この投影画像は、一例として、個別の荷物に対応する領域に各荷物向けの投影パターンが含まれ、荷物が存在しない領域には黒色の画像が含まれるような画像である。このような投影画像を用いることで、プロジェクタの数を抑えつつ、多数の荷物に対する投影を同時に行うことができる。なお、一般的なプロジェクタでは、投影対象となる面とプロジェクタとの間の距離が近いほど画像は小さく、遠いほど画像は大きく投影される。そのため、ステップS512にて描画される投影画像における各荷物向けの投影パターンの大きさは、各荷物とプロジェクタとの間の距離が近いほど大きくなるよう調整されてもよい。 The sorting client 104a draws a projection image including a projection pattern associated with each of the one or more three-dimensional packages processed in step S512 (step S513). Specifically, the sorting client 104a calculates the projection position of the projection pattern for each individual baggage, and determines the projection image for the entire sorting area A. This projected image is, for example, an image in which a region corresponding to each baggage includes a projection pattern for each baggage, and a region where no baggage exists includes a black image. By using such a projection image, it is possible to simultaneously perform projection on a large number of packages while suppressing the number of projectors. In addition, with a general projector, the closer the distance between the surface to be projected and the projector, the smaller the image, and the farther away, the larger the image is projected. Therefore, the size of the projection pattern for each package in the projection image rendered in step S512 may be adjusted so that it becomes larger as the distance between each package and the projector becomes shorter.

仕分けクライアント104aは、ステップS513にて決定した投影画像に従って、プロジェクタ105aに投影指示を行う(ステップS514)。 The sorting client 104a instructs the projector 105a to project according to the projection image determined in step S513 (step S514).

プロジェクタ105aは、ステップS514の仕分けクライアント104aからの投影指示に基づいて、仕分け領域Aに対し投影画像の投影を行う(ステップS515)。各荷物は継続的に搬送コンベア302により搬送されているため、搬送が継続される間、ステップS520に示す処理が継続して実行されてよい。 The projector 105a projects a projection image onto the sorting area A based on the projection instruction from the sorting client 104a in step S514 (step S515). Since each baggage is continuously transported by the transport conveyor 302, the process shown in step S520 may be continuously executed while the transport continues.

(荷物のハンドオーバ処理)
図5では、ラベルリーダ103の読み取り位置よりも搬送方向下流側における最初の(最上流の)仕分け領域Aに着目して処理を説明した。上述したように、搬送コンベア302による搬送経路上においては、複数の仕分け領域が設けられ、その仕分け領域間において各荷物の監視を各クライアントシステム110間で引継ぎ(以下、「ハンドオーバ」とも称する)を行う。
(Luggage handover processing)
In FIG. 5, the processing has been described focusing on the first (most upstream) sorting area A on the downstream side in the transport direction from the reading position of the label reader 103. As described above, a plurality of sorting areas are provided on the conveyance route by the conveyor 302, and the monitoring of each package is handed over (hereinafter also referred to as "handover") between the client systems 110 between the sorting areas. conduct.

図6を用いて、ハンドオーバ処理に関する処理シーケンスを説明する。ここでは、搬送経路上において、仕分け領域Aに対応するクライアントシステム110aと、仕分け領域Aよりも搬送方向下流側に隣接する仕分け領域Bに対応するクライアントシステム110bとの間のハンドオーバ処理を例に挙げて説明する。搬送経路の長さなどに応じて、仕分け領域の数は変動し得るため、ハンドオーバ処理は隣接する仕分け領域に対応するクライアントシステム110間にて適時行われる。なお、クライアントシステム110aについては、図5にて説明した処理シーケンスを同時並行的に行っているものとする。 A processing sequence related to handover processing will be explained using FIG. 6. Here, handover processing between a client system 110a corresponding to sorting area A and a client system 110b corresponding to sorting area B adjacent to sorting area A on the downstream side in the conveying direction on the conveying route will be taken as an example. I will explain. Since the number of sorting areas may vary depending on the length of the transport route, etc., handover processing is performed at appropriate times between client systems 110 corresponding to adjacent sorting areas. It is assumed that the client system 110a is performing the processing sequence described in FIG. 5 simultaneously and in parallel.

ステップS620(ステップS601~ステップS603)は、仕分け領域A内を搬送されている各荷物を監視するためにクライアントシステム110aにより繰り返し行われる処理である。ここでは、便宜上、距離センサ106aおよび画像センサ107aをまとめてセンサ類Aと記載する。 Step S620 (steps S601 to S603) is a process repeatedly performed by the client system 110a in order to monitor each package being transported within the sorting area A. Here, for convenience, the distance sensor 106a and the image sensor 107a are collectively referred to as sensors A.

センサ類Aは、仕分け領域A内を撮影し、その画像を取得する(ステップS601)。ここでは、図5にて示したように、仕分けクライアント104a側で、センサ類Aにて撮影された各種画像を用いて荷物の検出を行うものとして説明する。仕分け領域Aに複数の荷物が搬送されている場合には、それぞれの荷物が検出される。クライアントシステム110aの場合、本処理は、図5のステップS508に対応する。 The sensors A photograph the inside of the sorting area A and obtain the image (step S601). Here, as shown in FIG. 5, the description will be made assuming that the sorting client 104a side detects packages using various images taken by sensors A. If a plurality of packages are being transported to the sorting area A, each package is detected. In the case of the client system 110a, this process corresponds to step S508 in FIG.

センサ類Aは、取得結果を仕分けクライアント104aに送信する(ステップS602)。このとき、センサ類Aは、取得した画像に対して所定の処理を行った上で、仕分けクライアント104aに送信してよい。クライアントシステム110aの場合、本処理は、図5のステップS509に対応する。 Sensors A transmit the obtained results to the sorting client 104a (step S602). At this time, the sensors A may perform predetermined processing on the acquired images and then transmit them to the sorting client 104a. In the case of the client system 110a, this process corresponds to step S509 in FIG.

仕分けクライアント104aは、ステップS602にてセンサ類Aから送信されてきた取得結果に基づいて、荷物の検出を行う(ステップS603)。更に、仕分けクライアント104aは、検出した荷物の搬送情報を仕分け管理サーバ101へ送信する(ステップS603)。具体的には、図5の処理シーケンスにてすでに行われている三次元空間内における処理の結果などに応じて、追跡していた荷物のうち、下流側の仕分け領域(ここでは、仕分け領域B)との境界に近づいている荷物を特定し、その荷物に関する情報を搬送情報として送信してよい。荷物の検出の際の処理は公知の方法を用いてよく、特に限定するものではない。例えば、機械学習による領域分割にて荷物に対応する領域を検出してもよい。または、予め規定されたパターンを用いて、パターンマッチングにより荷物を検出してもよい。 The sorting client 104a detects packages based on the acquisition results sent from the sensors A in step S602 (step S603). Furthermore, the sorting client 104a transmits the transportation information of the detected package to the sorting management server 101 (step S603). Specifically, depending on the results of the processing in the three-dimensional space that has already been performed in the processing sequence shown in FIG. ) may be identified, and information regarding the cargo may be transmitted as transport information. Processing for detecting baggage may be performed using any known method, and is not particularly limited. For example, the area corresponding to the baggage may be detected by area segmentation using machine learning. Alternatively, packages may be detected by pattern matching using a predefined pattern.

ステップS630(ステップS604~ステップS606、ステップS610~ステップS614)は、仕分け領域B内を搬送されている各荷物を監視するためにクライアントシステム110bにより繰り返し行われる処理である。ここでは、便宜上、距離センサ106bおよび画像センサ107bをまとめてセンサ類Bと記載する。 Step S630 (steps S604 to S606, steps S610 to S614) is a process repeatedly performed by the client system 110b in order to monitor each package being transported within the sorting area B. Here, for convenience, the distance sensor 106b and the image sensor 107b are collectively referred to as sensors B.

センサ類Bは、仕分け領域B内を撮影し、その画像を取得する(ステップS604)。ここでは、仕分け領域Aと同様、仕分けクライアント104b側で、センサ類Bにて撮影された各種画像を用いて荷物の検出を行うものとして説明する。仕分け領域Bに複数の荷物が搬送されている場合には、それぞれの荷物が検出される。 Sensors B photograph the inside of sorting area B and obtain the image (step S604). Here, similarly to the sorting area A, the description will be made assuming that the sorting client 104b side detects packages using various images taken by the sensors B. If a plurality of packages are being transported to the sorting area B, each package is detected.

センサ類Bは、取得結果を仕分けクライアント104bに送信する(ステップS605)。このとき、センサ類Bは、取得した情報に対して所定の処理を行った上で、仕分けクライアント104bに送信してよい。 Sensors B transmit the obtained results to the sorting client 104b (step S605). At this time, the sensors B may perform predetermined processing on the acquired information and then transmit it to the sorting client 104b.

仕分けクライアント104bは、ステップS605にてセンサ類Bから送信されてきた取得結果に基づいて、荷物の検出を行う(ステップS606)。更に、仕分けクライアント104bは、検出した荷物の搬送情報を仕分け管理サーバ101へ送信する。例えば、検出した荷物のうち、上流側の仕分け領域(ここでは、仕分け領域A)との境界に位置する荷物(すなわち、新たに搬送されてきた荷物)を特定し、その荷物に関する情報(位置やサイズなど)を搬送情報として送信してよい。 The sorting client 104b detects packages based on the acquisition results sent from the sensors B in step S605 (step S606). Furthermore, the sorting client 104b transmits transportation information of the detected baggage to the sorting management server 101. For example, among the detected packages, a package located at the boundary with the upstream sorting area (here, sorting area A) (i.e., a newly transported package) is identified, and information about that package (location, etc.) is identified. size, etc.) may be transmitted as transport information.

仕分け管理サーバ101は、ステップS603にて仕分けクライアント104aから送信されてきた搬送情報と、ステップS606にて仕分けクライアント104bから送信されてきた搬送情報とに基づいて、仕分け領域間(ここでは、仕分け領域Aと仕分け領域Bの間)にてハンドオーバがなされる荷物を特定する(ステップS607)。つまり、ある荷物が搬送されることに伴ってその荷物の監視主体がクライアントシステム110aからクライアントシステム110bへとハンドオーバするために、各クライアントシステム110にて検出した仕分け領域間の境界に位置する荷物を、同一の荷物であるとして対応付ける。例えば、仕分け管理サーバ101は、仕分け領域を跨いだ荷物が、管理している荷物情報のうちのいずれに対応するかを特定することで対応付けてよい。 The sorting management server 101 determines between the sorting areas (here, the sorting area The baggage to be handed over between the sorting area A and sorting area B is identified (step S607). In other words, as a parcel is transported, the person monitoring the parcel is handed over from the client system 110a to the client system 110b. , and are associated as being the same package. For example, the sorting management server 101 may make the correspondence by specifying which piece of managed baggage information corresponds to a piece of baggage that straddles the sorting area.

仕分け管理サーバ101は、ステップS607の対応付けと、上流側の仕分け領域(ここでは、仕分け領域A)にて用いていた荷物情報とに基づいて、下流の仕分け領域(ここでは、仕分け領域B)における投影パターンを決定する(ステップS608)。本実施の形態に係る投影パターンは、複数のパターンとして予め規定され、保持されている。なお、投影パターンは、上流の仕分け領域(ここでは、仕分け領域A)と同じであってもよいし、同じ荷物であっても搬送中の仕分け領域に応じて切り替えるような構成であってもよい。 The sorting management server 101 selects the downstream sorting area (here, sorting area B) based on the association in step S607 and the package information used in the upstream sorting area (here, sorting area A). A projection pattern is determined (step S608). The projection pattern according to this embodiment is defined and held in advance as a plurality of patterns. Note that the projection pattern may be the same as the upstream sorting area (here, sorting area A), or may be configured to be switched depending on the sorting area during transportation even if the same baggage is being transported. .

仕分け管理サーバ101は、ステップS608にて決定した投影パターンを含む投影指示を仕分けクライアント104へ送信する(ステップS609)。ここでは、荷物の監視がハンドオーバされるクライアントシステム110bの仕分けクライアント104bに投影指示が送信される。なお、投影指示には、投影パターンのほか、対応する荷物の荷物情報などを含んでよい。 The sorting management server 101 transmits a projection instruction including the projection pattern determined in step S608 to the sorting client 104 (step S609). Here, a projection instruction is sent to the sorting client 104b of the client system 110b to which monitoring of the package is handed over. Note that the projection instruction may include, in addition to the projection pattern, baggage information of the corresponding baggage.

仕分けクライアント104bは、ステップS609にて仕分け管理サーバ101から送信された投影指示と、ステップS606の検出結果とに基づいて、各情報の対応付けを行う(ステップS610)。具体的には、仕分けクライアント104bは、仕分け領域B内において、搬送コンベア302により搬送されている1または複数の荷物を、センサ類Bの検出結果に基づいて特定する。更に、仕分けクライアント104bは、特定した1または複数の荷物それぞれに対し、仕分け管理サーバ101から送信された投影指示に含まれる各種情報を対応付ける。これにより、仕分けクライアント104bによって検出された1または複数の荷物それぞれと、仕分け管理サーバ101から送信された投影指示にて示される各種情報(投影パターン等)が対応付けられる。 The sorting client 104b correlates each piece of information based on the projection instruction transmitted from the sorting management server 101 in step S609 and the detection result in step S606 (step S610). Specifically, the sorting client 104b identifies one or more packages being conveyed by the conveyor 302 in the sorting area B based on the detection results of the sensors B. Further, the sorting client 104b associates various information included in the projection instruction transmitted from the sorting management server 101 with each of the identified one or more packages. As a result, each of the one or more packages detected by the sorting client 104b is associated with various information (projection pattern, etc.) indicated in the projection instruction transmitted from the sorting management server 101.

仕分けクライアント104bは、ステップS610にて特定した1または複数の荷物に対する三次元空間内における処理を行う(ステップS611)。ここでの三次元空間内における処理では、搬送経路上における三次元座標系にて、各荷物を三次元形状にて表現するように処理する。ここでの処理は、図5のステップS512の処理と同一であってよい。 The sorting client 104b performs processing in the three-dimensional space for the one or more packages identified in step S610 (step S611). In the processing in the three-dimensional space here, processing is performed so that each package is expressed in a three-dimensional shape in a three-dimensional coordinate system on the transport route. The processing here may be the same as the processing in step S512 in FIG.

仕分けクライアント104bは、ステップS611にて処理された三次元形状の1または複数の荷物それぞれに対応付けられた投影パターンを含む投影画像を描画する(ステップS612)。具体的には、仕分けクライアント104bは、個別の荷物に対する投影パターンの投影位置などを算出し、仕分け領域B全体の投影画像を決定する。ここでの投影画像は、図5にて説明したステップS513と同様の構成であってよい。 The sorting client 104b draws a projection image including a projection pattern associated with each of the one or more three-dimensional packages processed in step S611 (step S612). Specifically, the sorting client 104b calculates the projection position of the projection pattern for each individual baggage, and determines the projected image of the entire sorting area B. The projected image here may have the same configuration as step S513 described in FIG. 5.

なお、1の仕分け領域に対応付けて複数のプロジェクタを設置してもよい。例えば、1の仕分け領域を更に細分化して複数のプロジェクタそれぞれが担当する範囲を設定してもよい。この場合、仕分けクライアント104bは、複数のプロジェクタそれぞれに対して、担当範囲に相当する投影画像を生成する。この場合の投影画像の一例としては、担当範囲内に存在する荷物の位置には各荷物向けの投影パターンが含まれ、担当範囲内の荷物の存在しない位置には黒色の画像が含まれる画像が挙げられる。このようにすることで、プロジェクタの性能またはプロジェクタを設置可能な高さの限界などから、一台のプロジェクタでは仕分け領域全体への投影が難しい場合であっても、仕分け領域全体に対する投影を行うことができる。 Note that a plurality of projectors may be installed in association with one sorting area. For example, one sorting area may be further subdivided to set a range to be handled by each of a plurality of projectors. In this case, the sorting client 104b generates a projection image corresponding to the area in charge of each of the plurality of projectors. An example of a projected image in this case is that the positions of packages that exist within the assigned area include a projection pattern for each package, and the positions where no packages exist within the assigned area include an image that includes a black image. Can be mentioned. By doing this, even if it is difficult to project onto the entire sorting area with one projector due to the performance of the projector or the limit on the height at which the projector can be installed, it is possible to project onto the entire sorting area. I can do it.

また、各プロジェクタが1つの荷物を担当し、その荷物のみに向けた投影を行うようにしてもよい。この場合、複数のプロジェクタそれぞれは担当する荷物の移動に合わせて照射の角度を変更したり、担当する荷物の位置以外の位置に黒色の画像を投影したりすることで、自身の担当する荷物のみに向けた投影を行う。このようにすることで、複数のプロジェクタそれぞれは、自身の担当する荷物に最適なパラメータを用いた投影を行うことができる。例えば、複数のプロジェクタそれぞれの焦点距離を自動的に調整することができるので、荷物の高さなどにバラつきがある場合であっても、各荷物にピントが合った画像を投影できる。 Furthermore, each projector may be in charge of one baggage and project only to that baggage. In this case, each of the multiple projectors can change the irradiation angle according to the movement of the baggage it is responsible for, or project a black image to a position other than the position of the baggage it is responsible for, so that only the baggage it is responsible for Projection towards. By doing so, each of the plurality of projectors can perform projection using the optimal parameters for the baggage that it is in charge of. For example, since the focal length of each of the plurality of projectors can be automatically adjusted, even if there are variations in the height of the packages, it is possible to project images that are in focus on each package.

仕分けクライアント104bは、ステップS612にて決定した投影画像に従って、プロジェクタ105bに投影指示を行う(ステップS613)。 The sorting client 104b instructs the projector 105b to project according to the projection image determined in step S612 (step S613).

プロジェクタ105bは、ステップS613の仕分けクライアント104bからの投影指示に基づいて、仕分け領域Bに対し投影画像の投影を行う(ステップS614)。各荷物は継続的に搬送コンベア302により搬送されているため、搬送が継続される間、仕分け領域B以降の監視を担うクライアントシステム110はそれぞれ、ステップS630に示す処理を継続して実行されてよい。 The projector 105b projects a projection image onto the sorting area B based on the projection instruction from the sorting client 104b in step S613 (step S614). Since each baggage is continuously transported by the transport conveyor 302, each of the client systems 110 responsible for monitoring the sorting area B and beyond may continue to execute the process shown in step S630 while the transport continues. .

[荷物認識]
図7は、本実施形態に係る仕分け領域における荷物の認識を説明するための図である。ここでは、搬送コンベア302の搬送経路上のある仕分け領域701と、その搬送方向上流側および下流側に隣接する仕分け領域702、仕分け領域703を例に挙げて説明する。また、搬送コンベア302により、3つの荷物706、707、708が搬送されているものとする。
[Baggage recognition]
FIG. 7 is a diagram for explaining recognition of packages in the sorting area according to the present embodiment. Here, a certain sorting area 701 on the conveyance path of the conveyor 302, and sorting areas 702 and 703 adjacent to it on the upstream and downstream sides in the conveying direction will be described as an example. It is also assumed that three packages 706, 707, and 708 are being transported by the transport conveyor 302.

仕分け領域701と仕分け領域702にはハンドオーバ領域704が設けられる。ハンドオーバ領域704は、仕分け領域701に対応するクライアントシステムと、仕分け領域702に対応するクライアントシステムの両方にてセンサ類による検出が行われる領域である。同様に、仕分け領域701と仕分け領域703にはハンドオーバ領域705が設けられる。ハンドオーバ領域705は、仕分け領域701に対応するクライアントシステム110と、仕分け領域703に対応するクライアントシステム110の両方にてセンサ類による検出が行われる領域である。 A handover area 704 is provided in the sorting area 701 and the sorting area 702. The handover area 704 is an area where detection by sensors is performed in both the client system corresponding to the sorting area 701 and the client system corresponding to the sorting area 702. Similarly, a handover area 705 is provided in the sorting area 701 and the sorting area 703. The handover area 705 is an area where detection by sensors is performed in both the client system 110 corresponding to the sorting area 701 and the client system 110 corresponding to the sorting area 703.

本実施の形態に係る各仕分け領域では、搬送されている荷物は、その範囲が適時特定される。荷物の範囲を特定することで、荷物のサイズや形状が認識される。ここでの範囲は、荷物の形状と完全に一致する必要はなく、所定のマージンを設けてよい。そして、各荷物の範囲に応じて、各荷物に投影させる投影パターンのサイズや形状、位置が調整される。なお、調整の方法は、特に限定するものではなく、例えば、投影パターンの視認性や作業効率性などを考慮して行われてよい。 In each sorting area according to the present embodiment, the range of the cargo being transported is specified in a timely manner. By specifying the range of the baggage, the size and shape of the baggage can be recognized. The range here does not need to completely match the shape of the baggage, and a predetermined margin may be provided. Then, the size, shape, and position of the projection pattern to be projected onto each piece of baggage are adjusted according to the range of each piece of baggage. Note that the adjustment method is not particularly limited, and may be performed in consideration of, for example, visibility of the projection pattern, work efficiency, etc.

なお、本実施の形態では、ラベルリーダ103と、画像センサ107とは、異なるものとして説明したが、ラベルリーダ103を画像センサ107の代わりに使用してもよい。具体的には、ラベルリーダ103によって読み取ったラベルの位置を荷物の位置として取り扱い、ラベルの位置に対して投影画像を投影する。ラベルからは荷物の識別情報を得ることができるため、このような構成を採用することにより、クライアントシステム110間で同一の荷物を紐づける処理が不要となる。ただし、ラベルリーダ103が認識可能な領域はラベルの領域に限られるため、荷物全体を追跡可能な画像センサ107による追跡と比べて、投影画像の大きさや投影画像を照射する位置の自由度は低下する。同様に、画像センサ107をラベルリーダ103の代わりに使用してもよい。具体的には、画像センサ107が取得した画像に含まれるラベルの画像からラベル情報を取得してもよい。以下では、特に断らない限り、画像センサ107の撮像画像を用いた荷物の追跡の例を示すが、ラベルリーダ103を画像センサ107の代わりに用いてもよい。 Note that in this embodiment, the label reader 103 and the image sensor 107 are described as being different, but the label reader 103 may be used instead of the image sensor 107. Specifically, the position of the label read by the label reader 103 is treated as the position of the package, and a projection image is projected onto the position of the label. Since the identification information of the package can be obtained from the label, by adopting such a configuration, the process of linking the same package between client systems 110 becomes unnecessary. However, since the area that the label reader 103 can recognize is limited to the area of the label, the degree of freedom in the size of the projected image and the position of the projected image is reduced compared to tracking by the image sensor 107 that can track the entire package. do. Similarly, image sensor 107 may be used in place of label reader 103. Specifically, label information may be acquired from an image of a label included in an image acquired by the image sensor 107. In the following, unless otherwise specified, an example of tracking a package using an image captured by the image sensor 107 will be shown, but the label reader 103 may be used instead of the image sensor 107.

(プロジェクタ及び画像センサの同期処理)
図8は、実施の形態1に係るプロジェクタ105及び画像センサ107の同期処理を説明するための図である。
(Synchronization processing of projector and image sensor)
FIG. 8 is a diagram for explaining synchronization processing of the projector 105 and the image sensor 107 according to the first embodiment.

上述するように、プロジェクタ105は、搬送コンベア302を流れる荷物300の仕分け先を作業者Mに視覚的に認識させるために、荷物300の上面に投影パターン801を照射する。加えて、画像センサ107は、搬送コンベア302を流れる荷物300を検出するために、荷物300を上面から撮像して色画像を生成する。 As described above, the projector 105 projects the projection pattern 801 onto the top surface of the baggage 300 in order to make the worker M visually recognize the sorting destination of the baggage 300 flowing on the transport conveyor 302. In addition, the image sensor 107 captures an image of the baggage 300 from above to generate a color image in order to detect the baggage 300 flowing on the conveyor 302.

しかし、プロジェクタ105が荷物300の上面に投影パターン801を照射している状態で、画像センサ107が荷物300の上面を撮像する場合、次の現象が生じ得る。すなわち、投影パターン801が照射されている荷物300の上面の輝度が、投影パターン801が照射されていない他の領域(例えば搬送コンベア302の上面)の輝度と比べて高くなるため、色画像における荷物300の領域が白飛びし得る。仕分けクライアント104は、色画像における荷物300の色、形状又は模様等によって荷物300を検出するため、色画像における荷物300の領域が白飛びすると、その荷物300の検出精度が低下し得る。 However, when the image sensor 107 images the top surface of the luggage 300 while the projector 105 is irradiating the projection pattern 801 onto the top surface of the luggage 300, the following phenomenon may occur. That is, the brightness of the top surface of the baggage 300 that is illuminated with the projection pattern 801 is higher than the brightness of other areas that are not illuminated with the projection pattern 801 (for example, the top surface of the conveyor 302), so that the brightness of the baggage 300 in the color image 300 areas may be blown out. Since the sorting client 104 detects the baggage 300 based on the color, shape, pattern, etc. of the baggage 300 in the color image, if the area of the baggage 300 in the color image is blown out, the detection accuracy of the baggage 300 may decrease.

そこで、本実施の形態では、プロジェクタ105及び画像センサ107の処理を同期させて、プロジェクタ105が投影パターン801を含む投影画像を照射する第1のタイミングと、画像センサ107が荷物300を撮像する第2のタイミングとを異ならせる。これにより、画像センサ107は、投影画像が照射されていない状態の色画像、すなわち荷物300の領域が白飛びしていない色画像を撮像することができる。よって、荷物300の検出精度の低下を抑制できる。以下、詳しく説明する。 Therefore, in this embodiment, the processes of the projector 105 and the image sensor 107 are synchronized, so that the first timing when the projector 105 emits a projection image including the projection pattern 801 and the second timing when the image sensor 107 images the luggage 300 are synchronized. The timing is different from that of 2. Thereby, the image sensor 107 can capture a color image in a state where the projection image is not irradiated, that is, a color image in which the area of the baggage 300 is not blown out. Therefore, it is possible to suppress a decrease in the detection accuracy of the baggage 300. This will be explained in detail below.

プロジェクタ105の投影及び画像センサ107の撮像は、仕分けクライアント104よって制御されてよい。この場合、仕分けクライアント104は、次の処理を実行してよい。 Projection by the projector 105 and imaging by the image sensor 107 may be controlled by the sorting client 104. In this case, the sorting client 104 may perform the following process.

仕分けクライアント104は、第1の期間において、図8(a)に示すように、プロジェクタ105が投影画像を照射するようにし、画像センサ107が撮像を行わないようにする。そして、仕分けクライアント104は、第1の期間と異なる第2の期間(例えば第1の期間に後続する第2の期間)において、図8(b)に示すように、プロジェクタ105が投影画像を照射しないようにし、画像センサ107が撮像を行うようにする。 In the first period, the sorting client 104 causes the projector 105 to emit a projected image and prevents the image sensor 107 from capturing an image, as shown in FIG. 8(a). Then, in a second period different from the first period (for example, a second period following the first period), the sorting client 104 uses the projector 105 to project images as shown in FIG. 8(b). The image sensor 107 is configured to capture an image.

仕分けクライアント104は、上記の第1の期間の処理と第2の期間の処理とを交互に繰り返す。これにより、画像センサ107は、投影画像が照射されていない荷物300の色画像を撮像できる。 The sorting client 104 alternately repeats the processing in the first period and the processing in the second period. Thereby, the image sensor 107 can capture a color image of the luggage 300 that is not irradiated with the projection image.

なお、仕分けクライアント104は、第1の期間の開始時に投影画像の照射の開始指示をプロジェクタ105に送信し、第2の期間の開始時に照射の停止指示をプロジェクタ105に送信することによって、上述したプロジェクタ105の照射の開始と停止を制御してよい。あるいは、仕分けクライアント104は、第1の期間の開始時に、投影画像の照射の開始指示と第1の期間を示す情報とをプロジェクタ105に送信し、プロジェクタ105は照射の開始指示を受信してから第1の期間の間、投影画像を照射し、当該第1の期間の経過後、照射を停止してもよい。あるいは、仕分けクライアント104は、第1の期間を示す情報及び第2の期間を示す情報をプロジェクタ105に送信し、プロジェクタ105は、自律的に、第1の期間において投影画像の照射を行い、第2の期間において投影画像の照射を行なわなくてもよい。また、プロジェクタ105のハードウェア的な制約によっては、フレーム間に画像を投影できない期間が設けられている場合もある。この場合、この画像を投影できない期間が、第1の期間として利用されてもよい。 Note that the sorting client 104 transmits an instruction to start irradiation of the projected image to the projector 105 at the start of the first period, and an instruction to stop irradiation to the projector 105 at the start of the second period. The start and stop of irradiation by the projector 105 may be controlled. Alternatively, the sorting client 104 transmits an instruction to start irradiation of the projection image and information indicating the first period to the projector 105 at the start of the first period, and the projector 105 receives the instruction to start irradiation and then The projection image may be irradiated during a first period, and the irradiation may be stopped after the first period has elapsed. Alternatively, the sorting client 104 transmits information indicating the first period and information indicating the second period to the projector 105, and the projector 105 autonomously irradiates the projection image in the first period and It is not necessary to irradiate the projection image during the second period. Further, depending on hardware constraints of the projector 105, there may be a period between frames in which an image cannot be projected. In this case, the period during which this image cannot be projected may be used as the first period.

また、仕分けクライアント104は、第2の期間の開始時に撮像の開始指示を画像センサ107に送信し、第1の期間の開始時に撮像の停止指示を画像センサ107に送信することによって、上述した画像センサ107の撮像の開始と停止を制御してよい。あるいは、仕分けクライアント104は、第2の期間の開始時に、撮像の開始指示と第2の期間を示す情報とを画像センサ107に送信し、画像センサ107は、撮像の開始指示を受信してから第2の期間の間、撮像を行い、当該第2の期間の経過後、撮像を停止してもよい。あるいは、仕分けクライアント104は、第1の期間を示す情報及び第2の期間を示す情報を画像センサ107に送信し、画像センサ107は、自律的に、第2の期間において撮像を行い(又は撮像した色画像を仕分けクライアント104に送信し)、第1の期間において撮像を停止(又は撮像した色画像の仕分けクライアント104への送信を停止)してもよい。あるいは、仕分けクライアント104は、第2の期間の間、画像センサ107から色画像を取得(あるいは受信)し、第1の期間の間、画像センサ107から色画像を取得しなくてもよい。また、画像センサ107は常に撮像を行い、仕分けクライアント104にて第2の期間に相当する画像を破棄するようにしてもよい。仕分けクライアント104は、このような処理を行うことによっても、第2の期間に相当する画像のみを取得することができる。 Further, the sorting client 104 transmits an instruction to start imaging to the image sensor 107 at the start of the second period, and an instruction to stop imaging to the image sensor 107 at the start of the first period, so that the sorting client 104 can generate the above-mentioned image. The start and stop of imaging by the sensor 107 may be controlled. Alternatively, the sorting client 104 transmits an imaging start instruction and information indicating the second period to the image sensor 107 at the start of the second period, and the image sensor 107 receives the imaging start instruction and then Imaging may be performed during the second period, and imaging may be stopped after the second period has elapsed. Alternatively, the sorting client 104 transmits information indicating the first period and information indicating the second period to the image sensor 107, and the image sensor 107 autonomously performs imaging (or performs imaging) in the second period. The captured color image may be transmitted to the sorting client 104), and imaging may be stopped (or the transmission of the captured color image to the sorting client 104 may be stopped) during the first period. Alternatively, the sorting client 104 may obtain (or receive) a color image from the image sensor 107 during the second period and not obtain a color image from the image sensor 107 during the first period. Alternatively, the image sensor 107 may always capture images, and the sorting client 104 may discard images corresponding to the second period. By performing such processing, the sorting client 104 can also acquire only images corresponding to the second period.

第1の期間(つまり投影期間)と第2の期間(つまり撮像期間)とは、同じであってもよいし、異なってもよい。例えば、第2の期間は、第1の期間よりも短くてよい。この場合、第2の期間は、作業者から投影画像が途切れて(例えば点滅して)見えないような短い期間であってよい。例えば、プロジェクタ105及び画像センサ107がそれぞれ毎秒30フレームの照射及び撮像を行うことができる場合、第1の期間(投影期間)は、30フレーム(1秒)であり、第2の期間(撮像期間)は、1フレーム(1/30秒)であってよい。これにより、作業者Mから投影画像が途切れて見えることなく、色画像における荷物300の領域の白飛びを抑制することができる。 The first period (that is, the projection period) and the second period (that is, the imaging period) may be the same or different. For example, the second period may be shorter than the first period. In this case, the second period may be such a short period that the projected image is interrupted (for example, blinks) and cannot be seen by the operator. For example, if the projector 105 and the image sensor 107 can each perform irradiation and imaging at 30 frames per second, the first period (projection period) is 30 frames (1 second), and the second period (imaging period ) may be one frame (1/30 second). As a result, the projected image does not appear interrupted to the worker M, and it is possible to suppress overexposure of the area of the baggage 300 in the color image.

また、第1の期間が終了し、次の第1の期間が開始するまでの間において、第2の期間が必ずしも毎回設けられなくともよい。すなわち、画像が投影されず、かつ、撮像も行われない区間が設けられてもよい。同様に、第2の期間が終了し、次の第2の期間が開始するまでの間において、第1の期間が必ずしも毎回設けられなくともよい。このような実装は、プロジェクタ105が照射を停止可能な頻度と画像センサ107が撮像可能な頻度とに差がある場合に有用である。この場合、プロジェクタ105の照射の停止と、画像センサ107による撮像のタイミングを常に合わせることができるとは限らない。一方、これらの性能の差を考慮して第1の期間と第2の期間を精緻に設定することは煩雑である。また、第1の期間と第2の期間とが重複しなければ、白飛びなどの発生は抑制できる。したがって、画像が投影されず、かつ、撮像も行われない区間を設けることを許容することで、第1の期間と第2の期間を、プロジェクタ105と画像センサ107それぞれの性能に合わせて簡易に設計することができる。 Moreover, the second period does not necessarily have to be provided every time between the end of the first period and the start of the next first period. That is, a section may be provided in which no image is projected and no imaging is performed. Similarly, the first period does not necessarily have to be provided every time between the end of the second period and the start of the next second period. Such implementation is useful when there is a difference between the frequency at which the projector 105 can stop irradiation and the frequency at which the image sensor 107 can capture images. In this case, it is not always possible to match the timing of stopping the irradiation of the projector 105 and the timing of imaging by the image sensor 107. On the other hand, it is troublesome to precisely set the first period and the second period in consideration of these differences in performance. Further, if the first period and the second period do not overlap, occurrence of overexposure or the like can be suppressed. Therefore, by allowing a section in which no image is projected and no imaging is performed, the first period and the second period can be easily adjusted to suit the respective performances of the projector 105 and the image sensor 107. can be designed.

また、第2の期間の周期、すなわち、画像センサ107が撮像を行う周期(以下、撮像周期と称する)は、搬送コンベア302を流れる荷物の移動速度(つまり搬送コンベア302の速度)に応じて定められてよい。例えば、荷物300の移動速度が速いほど、撮像周期を短くしてよい。別言すると、荷物300の移動速度が遅いほど、撮像周期を長くしてよい。これにより、荷物300の移動速度に関わらず、撮像周期毎に撮像された色画像を用いて、荷物300を適切に追跡することができる。 Furthermore, the cycle of the second period, that is, the cycle at which the image sensor 107 performs imaging (hereinafter referred to as the imaging cycle) is determined according to the moving speed of the cargo flowing on the transport conveyor 302 (that is, the speed of the transport conveyor 302). It's okay to be rejected. For example, the faster the moving speed of the baggage 300 is, the shorter the imaging period may be. In other words, the slower the moving speed of the luggage 300, the longer the imaging cycle may be. Thereby, regardless of the moving speed of the baggage 300, the baggage 300 can be appropriately tracked using the color images captured at each imaging cycle.

また、仕分けクライアント104は、第2の期間において、プロジェクタ105に投影画像を照射させないことに代えて、プロジェクタ105に黒色の投影画像を照射させてもよい。これによっても、画像センサ107は、上記同様、第2の期間において、荷物300の領域が白飛びしていない色画像を撮像することができる。 Further, in the second period, the sorting client 104 may cause the projector 105 to emit a black projected image instead of causing the projector 105 to emit the projected image. This also allows the image sensor 107 to capture a color image in which the area of the baggage 300 is not blown out in the second period, as described above.

また、仕分けクライアント104は、第2の期間において、プロジェクタ105の照射を停止させることに代えて、プロジェクタ105から照射される投影画像の輝度を低くする制御を行ってもよい。これにより、作業者Mから投影画像が途切れて見えてしまう可能性をより低下させることができる。 Further, in the second period, the sorting client 104 may perform control to lower the brightness of the projected image emitted from the projector 105 instead of stopping the irradiation from the projector 105. This can further reduce the possibility that the projected image will be seen by the worker M as being interrupted.

なお、上述では、プロジェクタ105と画像センサ107とが別体の場合を説明したが、プロジェクタ105と画像センサ107とは一体型の装置(以下、撮像投影装置と称する)であってもよい。この場合、撮像投影装置は、プロジェクタ105に相当する投影部と、画像センサ107に相当する撮像部と、上述した仕分けクライアント104が行う処理と同様に投影部及び撮像部を制御する制御部と、を備えてよい。そして、制御部は、投影部が投影画像を照射する第1のタイミングと、撮像部が荷物を撮像する第2のタイミングとを異ならせてよい。これによっても、上記同様、撮像部は、投影画像が照射されていない色画像、すなわち荷物300の領域が白飛びしていない色画像を撮像することができる。 In addition, although the case where the projector 105 and the image sensor 107 are separate bodies has been described above, the projector 105 and the image sensor 107 may be an integrated device (hereinafter referred to as an imaging projection device). In this case, the imaging projection device includes a projection unit corresponding to the projector 105, an imaging unit corresponding to the image sensor 107, and a control unit that controls the projection unit and the imaging unit in the same way as the processing performed by the sorting client 104 described above. may be provided. The control section may make the first timing at which the projection section irradiates the projection image different from the second timing at which the imaging section images the baggage. With this, as described above, the image capturing section can capture a color image in which the projection image is not irradiated, that is, a color image in which the area of the baggage 300 is not blown out.

また、上述では、プロジェクタ105による投影画像の照射のタイミングと画像センサ107による撮像のタイミングとを異ならせる例を説明した。しかし、これらのタイミングを揃えるようにしてもよい。これにより、画像センサ107は、プロジェクタ105による投影画像の照射によって明るく照らされた荷物を撮像することができる。したがって、十分な光源が得られない暗所であっても、適切な撮像画像を得ることができる。また、投影画像自体の色による認識精度の低下を抑制するため、プロジェクタ105は、画像センサ107が撮像を行うタイミングの全てまたは一部において、特別な画像(例えば、白一色の画像)を投影するようにしてもよい。一般的に画像センサ107が撮像を行う時間は人の目では認識が難しいほど短いため、このような実装を行っても、作業者からは通常通りの投影画像が投影されているように見える。なお、これらの変形例は、画像センサ107の撮影用の光源としてプロジェクタ105の照射を利用するものであるため、画像センサ107の撮像のタイミングが、プロジェクタが投影画像の照射を行っているタイミングに包含されるようであれば十分である。例えば、プロジェクタ105による投影画像の照射を、画像センサ107による撮像のタイミングよりも頻繁に行ったり、プロジェクタ105投影画像の照射時間が画像センサ107の撮像時間よりも長かったりしてもよい。また、ラベルリーダ103には、バーコード等の読み取りの際に一定量以上の光量が必要となるためにフラッシュを炊く機能を備えるものが存在する。そのため、ラベルリーダ103を、画像センサ107として用いる場合、本変形例のようにプロジェクタ105による照射をラベルリーダ103の光源として利用することで、ラベルリーダ103によるフラッシュの制御、またはラベルリーダ103へのフラッシュの搭載を省略することもできる。 Further, in the above description, an example has been described in which the timing of irradiation of a projected image by the projector 105 and the timing of imaging by the image sensor 107 are made different. However, these timings may be made to be the same. Thereby, the image sensor 107 can image the baggage that is brightly illuminated by the projection image irradiated by the projector 105. Therefore, even in a dark place where a sufficient light source is not available, an appropriate captured image can be obtained. Furthermore, in order to suppress a decrease in recognition accuracy due to the color of the projected image itself, the projector 105 projects a special image (for example, an all-white image) during all or part of the timing when the image sensor 107 captures an image. You can do it like this. Generally, the time during which the image sensor 107 captures an image is so short that it is difficult for the human eye to recognize it, so even with such implementation, it appears to the operator that a normal projection image is being projected. Note that these modified examples use the irradiation of the projector 105 as a light source for imaging by the image sensor 107, so the timing of imaging by the image sensor 107 may be the same as the timing when the projector is irradiating the projected image. It is sufficient that it is included. For example, the projector 105 may emit a projected image more frequently than the image sensor 107 captures an image, or the projector 105 may emit a projected image for a longer time than the image sensor 107 captures an image. Further, some label readers 103 are equipped with a function of firing a flash because a certain amount of light or more is required when reading a bar code or the like. Therefore, when the label reader 103 is used as the image sensor 107, by using the irradiation from the projector 105 as the light source of the label reader 103 as in this modification, the flash control by the label reader 103 or the control of the label reader 103 can be performed. It is also possible to omit the installation of a flash.

なお、ラベルリーダ103の読み取り領域とプロジェクタ105が投影可能な領域が重複している場合には、ラベルリーダ103を画像センサ107として用いない場合、すなわち、ラベルリーダ103とは別に画像センサ107が存在する場合であっても、プロジェクタ105による照射をラベルリーダ103の光源として利用してもよい。 Note that if the reading area of the label reader 103 and the area that can be projected by the projector 105 overlap, the label reader 103 is not used as the image sensor 107, that is, the image sensor 107 exists separately from the label reader 103. Even in this case, irradiation by the projector 105 may be used as a light source for the label reader 103.

<その他の実施形態>
また、上述した1以上の実施の形態の機能を実現するためのプログラムおよびアプリケーションを、ネットワークまたは記憶媒体等を用いてシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。
<Other embodiments>
Further, programs and applications for realizing the functions of one or more embodiments described above may be supplied to a system or device using a network or a storage medium, and one or more processors in a computer of the system or device may This can also be achieved by reading and executing a program.

また、1以上の機能を実現する回路(例えば、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field Programmable Gate Array))によって実現してもよい。 Further, it may be realized by a circuit (for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array)) that realizes one or more functions.

以上、図面を参照しながら各種の実施形態について説明したが、本開示は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に相当し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear to those skilled in the art that various changes, modifications, substitutions, additions, deletions, and equivalents may be made within the scope of the claims; It is understood that it naturally falls within the technical scope of the present disclosure. Moreover, each component in the various embodiments described above may be combined arbitrarily within a range that does not depart from the spirit of the invention.

(本開示のまとめ)
本開示の内容は以下のように表現できる。
(Summary of this disclosure)
The content of this disclosure can be expressed as follows.

[表現1]
荷物検出システム(例えば荷物仕分けシステム100)は、搬送される荷物300に投影される投影画像を照射する投影装置(例えば仕分けプロジェクタ105)と、荷物300の検出のために荷物300を撮像する撮像装置(例えば画像センサ107)と、投影装置及び撮像装置を制御する制御装置(例えば仕分けクライアント104)と、を備え、制御装置は、投影装置による投影画像の照射のタイミングと、撮像装置による荷物の撮像のタイミングとを異ならせる。
これにより、撮像装置は、投影画像が照射されていない状態の色画像、すなわち荷物300の領域が白飛びしていない色画像を撮像することができる。よって、荷物300の領域が白飛びしていない色画像を用いて荷物300を検出できるので、荷物300の検出精度の低下を抑制できる。したがって、荷物300の検出ミスの発生を抑制でき、荷物の仕分けをより効率的かつ正確に行うことができる。
[Expression 1]
The baggage detection system (for example, the baggage sorting system 100) includes a projection device (for example, the sorting projector 105) that projects a projected image onto the baggage 300 being transported, and an imaging device that images the baggage 300 to detect the baggage 300. (for example, an image sensor 107), and a control device (for example, a sorting client 104) that controls a projection device and an imaging device. The timing of
Thereby, the imaging device can capture a color image in a state where the projection image is not irradiated, that is, a color image in which the area of the baggage 300 is not blown out. Therefore, since the baggage 300 can be detected using a color image in which the area of the baggage 300 is not blown out, deterioration in the detection accuracy of the baggage 300 can be suppressed. Therefore, it is possible to suppress the occurrence of detection errors of the baggage 300, and it is possible to sort the baggage more efficiently and accurately.

[表現2]
表現1に記載の荷物検出システムにおいて、制御装置は、第1の期間において、投影装置に投影画像を照射させ、第1の期間と異なる第2の期間において、投影装置に投影画像を照射させずに、撮像装置に前記荷物を撮像させてよい。
これにより、撮像装置は、第2の期間において、投影画像が照射されていない状態の色画像、すなわち荷物300の領域が白飛びしていない色画像を撮像することができる。よって、荷物300の領域が白飛びしていない色画像を用いて荷物300を検出できるので、荷物300の検出精度の低下を抑制できる。したがって、荷物300の検出ミスの発生を抑制でき、荷物の仕分けをより効率的かつ正確に行うことができる。
[Expression 2]
In the baggage detection system described in Expression 1, the control device causes the projection device to irradiate the projection image during the first period, and does not cause the projection device to irradiate the projection image during the second period that is different from the first period. In addition, an image capturing device may be used to capture an image of the baggage.
Thereby, the imaging device can capture a color image in a state where the projection image is not irradiated, that is, a color image in which the area of the baggage 300 is not blown out in the second period. Therefore, since the baggage 300 can be detected using a color image in which the area of the baggage 300 is not blown out, deterioration in the detection accuracy of the baggage 300 can be suppressed. Therefore, it is possible to suppress the occurrence of detection errors of the baggage 300, and it is possible to sort the baggage more efficiently and accurately.

[表現3]
表現2に記載の荷物検出システムにおいて、第2の期間は、第1の期間よりも短くてよい。
これにより、荷物の仕分けを行う作業者から投影画像が途切れて見えることなく、色画像における荷物300の領域の白飛びを抑制することができる。
[Expression 3]
In the baggage detection system according to expression 2, the second period may be shorter than the first period.
As a result, the projected image does not appear interrupted to the worker who sorts the packages, and it is possible to suppress overexposure of the area of the package 300 in the color image.

[表現4]
表現1から3のいずれか1つに記載の荷物検出システムにおいて、制御装置は、撮像装置が撮像した撮像画像を受信し、撮像画像に基づいて荷物を検出し、検出した荷物に基づく投影画像を投影装置に照射させる。
これにより、撮像装置は、投影画像が照射されていない状態の色画像、すなわち荷物300の領域が白飛びしていない色画像を用いて荷物300を検出できるので、荷物300の検出精度の低下を抑制できる。したがって、荷物300の検出ミスの発生を抑制でき、荷物の仕分けをより効率的かつ正確に行うことができる。
[Expression 4]
In the baggage detection system according to any one of expressions 1 to 3, the control device receives a captured image captured by the imaging device, detects the package based on the captured image, and generates a projected image based on the detected package. Let the projection device irradiate it.
As a result, the imaging device can detect the package 300 using a color image in which the projection image is not irradiated, that is, a color image in which the area of the package 300 is not blown out, so that the detection accuracy of the package 300 is reduced. It can be suppressed. Therefore, it is possible to suppress the occurrence of detection errors of the baggage 300, and it is possible to sort the baggage more efficiently and accurately.

[表現5]
表現1に記載の荷物検出システムにおいて、撮像装置(例えばラベルリーダ103)は、荷物のラベルを撮像してよい。
これにより、制御装置は、撮像装置が撮像した荷物のラベルによって当該荷物の位置を検出できる。
[Expression 5]
In the baggage detection system described in Expression 1, the imaging device (eg, label reader 103) may image the label of the baggage.
Thereby, the control device can detect the position of the baggage based on the baggage label imaged by the imaging device.

[表現6]
投影装置及び撮像装置を用いる荷物検出方法として、第1の期間において、投影装置は、コンベア上を流れる荷物に投影される投影画像を照射し、第1の期間と異なる第2の期間において、投影装置は、投影画像を照射せず、撮像装置は、荷物の検出のために荷物を撮像する。
これにより、第2の期間において、投影画像が照射されていない状態の色画像、すなわち荷物300の領域が白飛びしていない色画像を撮像することができる。よって、荷物300の領域が白飛びしていない色画像を用いて荷物300を検出できるので、荷物300の検出精度の低下を抑制できる。したがって、荷物300の検出ミスの発生を抑制でき、荷物の仕分けをより効率的かつ正確に行うことができる。
[Expression 6]
As a baggage detection method using a projection device and an imaging device, in a first period, the projection device irradiates a projection image projected onto the baggage flowing on a conveyor, and in a second period different from the first period, The device does not emit a projection image, and the imaging device images the package for package detection.
Thereby, in the second period, it is possible to capture a color image in a state where the projection image is not irradiated, that is, a color image in which the area of the baggage 300 is not blown out. Therefore, since the baggage 300 can be detected using a color image in which the area of the baggage 300 is not blown out, deterioration in the detection accuracy of the baggage 300 can be suppressed. Therefore, it is possible to suppress the occurrence of detection errors of the baggage 300, and it is possible to sort the baggage more efficiently and accurately.

[表現7]
撮像投影装置は、搬送される荷物300に投影される投影画像を照射する投影部と、荷物300の検出のために荷物を撮像する撮像部と、投影部及び前記撮像部を制御する制御部(例えばCPU201)と、を備え、制御部は、投影部による投影画像の照射のタイミングと、撮像部による荷物の撮像のタイミングとを異ならせる。
これにより、撮像部は、投影画像が照射されていない状態の色画像、すなわち荷物300の領域が白飛びしていない色画像を撮像することができる。よって、荷物300の領域が白飛びしていない色画像を用いて荷物300を検出できるので、荷物300の検出精度の低下を抑制できる。したがって、荷物300の検出ミスの発生を抑制でき、荷物の仕分けをより効率的かつ正確に行うことができる。
[Expression 7]
The image capturing and projecting device includes a projection unit that irradiates a projected image onto the luggage 300 being transported, an imaging unit that captures an image of the luggage to detect the luggage 300, and a control unit that controls the projection unit and the imaging unit. For example, a CPU 201) is provided, and the control unit makes the timing of irradiation of the projection image by the projection unit and the timing of imaging of the baggage by the imaging unit different.
Thereby, the imaging unit can capture a color image in a state where the projection image is not irradiated, that is, a color image in which the area of the baggage 300 is not blown out. Therefore, since the baggage 300 can be detected using a color image in which the area of the baggage 300 is not blown out, deterioration in the detection accuracy of the baggage 300 can be suppressed. Therefore, it is possible to suppress the occurrence of detection errors of the baggage 300, and it is possible to sort the baggage more efficiently and accurately.

本開示は、荷物仕分けに関する作業効率向上に有用である。 The present disclosure is useful for improving work efficiency regarding baggage sorting.

100…荷物仕分けシステム
101…仕分け管理サーバ
102…連携サーバ
103…ラベルリーダ
104…仕分けクライアント
105…プロジェクタ
106…距離センサ
107…画像センサ
110…クライアントシステム
300…荷物
301…ラベル
302…搬送コンベア
801…投影パターン
100... Parcel sorting system 101... Sorting management server 102... Cooperation server 103... Label reader 104... Sorting client 105... Projector 106... Distance sensor 107... Image sensor 110... Client system 300... Parcel 301... Label 302... Transport conveyor 801... Projection pattern

Claims (7)

搬送される荷物に投影される投影画像を照射する投影装置と、
前記荷物の検出のために前記荷物を撮像する撮像装置と、
前記投影装置及び前記撮像装置を制御する制御装置と、を備え、
前記制御装置は、前記投影装置による前記投影画像の照射のタイミングと、前記撮像装置による前記荷物の撮像のタイミングとを異ならせる、
荷物検出システム。
a projection device that irradiates a projected image onto the cargo to be transported;
an imaging device that images the baggage to detect the baggage;
A control device that controls the projection device and the imaging device,
The control device makes the timing of irradiation of the projection image by the projection device different from the timing of imaging of the baggage by the imaging device.
Baggage detection system.
前記制御装置は、
第1の期間において、前記投影装置に前記投影画像を照射させ、
前記第1の期間と異なる第2の期間において、前記投影装置に前記投影画像を照射させずに、前記撮像装置に前記荷物を撮像させる、
請求項1に記載の荷物検出システム。
The control device includes:
in a first period, causing the projection device to irradiate the projection image;
in a second period different from the first period, causing the imaging device to image the baggage without causing the projection device to irradiate the projection image;
The baggage detection system according to claim 1.
前記第2の期間は、前記第1の期間よりも短い、
請求項2に記載の荷物検出システム。
the second period is shorter than the first period,
The baggage detection system according to claim 2.
前記制御装置は、
前記撮像装置が撮像した撮像画像を受信し、
前記撮像画像に基づいて前記荷物を検出し、
検出した前記荷物に基づく前記投影画像を前記投影装置に照射させる、
請求項1から3のいずれか1項に記載の荷物検出システム。
The control device includes:
receiving a captured image captured by the imaging device;
detecting the baggage based on the captured image;
causing the projection device to irradiate the projection image based on the detected baggage;
The baggage detection system according to any one of claims 1 to 3.
前記撮像装置は、前記荷物のラベルを撮像する、
請求項1に記載の荷物検出システム。
The imaging device images the label of the luggage.
The baggage detection system according to claim 1.
投影装置及び撮像装置を用いる荷物検出方法であって、
第1の期間において、前記投影装置は、コンベア上を流れる荷物に投影される投影画像を照射し、
前記第1の期間と異なる第2の期間において、前記投影装置は、前記投影画像を照射せず、前記撮像装置は、前記荷物の検出のために前記荷物を撮像する、
荷物検出方法。
A baggage detection method using a projection device and an imaging device, the method comprising:
In a first period, the projection device emits a projection image to be projected onto the baggage flowing on the conveyor;
In a second period different from the first period, the projection device does not emit the projection image, and the imaging device images the baggage in order to detect the baggage.
Baggage detection method.
搬送される荷物に投影される投影画像を照射する投影部と、
前記荷物の検出のために前記荷物を撮像する撮像部と、
前記投影部及び前記撮像部を制御する制御部と、を備え、
前記制御部は、前記投影部による前記投影画像の照射のタイミングと、前記撮像部による前記荷物の撮像のタイミングとを異ならせる、
撮像投影装置。
a projection unit that irradiates a projection image to be projected onto the cargo to be transported;
an imaging unit that captures an image of the baggage to detect the baggage;
a control unit that controls the projection unit and the imaging unit,
The control unit makes the timing of irradiation of the projection image by the projection unit different from the timing of imaging of the baggage by the imaging unit.
Imaging projection device.
JP2022050415A 2022-03-25 2022-03-25 Package detection system, package detection method, and image-projection device Pending JP2023143177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022050415A JP2023143177A (en) 2022-03-25 2022-03-25 Package detection system, package detection method, and image-projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022050415A JP2023143177A (en) 2022-03-25 2022-03-25 Package detection system, package detection method, and image-projection device

Publications (1)

Publication Number Publication Date
JP2023143177A true JP2023143177A (en) 2023-10-06

Family

ID=88219601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022050415A Pending JP2023143177A (en) 2022-03-25 2022-03-25 Package detection system, package detection method, and image-projection device

Country Status (1)

Country Link
JP (1) JP2023143177A (en)

Similar Documents

Publication Publication Date Title
US8179434B2 (en) System and method for imaging of curved surfaces
CN107031938B (en) The actuating of conveyer system
CN108290691B (en) System for automatically identifying express goods
US20200282429A1 (en) Package sorting system, projected instruction device, and package sorting method
US11850761B2 (en) Robotic sortation system
US10860855B2 (en) Instruction projecting device, package sorting system and instruction projecting method
EP3434621B1 (en) Instruction projecting device, parcel sorting system and instruction projecting method
US20200290093A1 (en) Projection instruction device, package sorting system, and projection instruction method
JP7126066B2 (en) Projection indication device, parcel sorting system and projection indication method
WO2019003688A1 (en) Projection indication device, baggage sorting system, and projection indication system
JP2023143177A (en) Package detection system, package detection method, and image-projection device
WO2023181518A1 (en) Cargo detection system, cargo detection method, information processing device, and control method therefor
WO2023181495A1 (en) Information processing device, load detection system, and calibration method
US20200234453A1 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP2023143182A (en) Baggage search system, baggage search method, information processing device, and control method thereof
JP2017185430A (en) Delivery support device, delivery support system and delivery support program
JP2023143180A (en) Package sorting system, package sorting method, information processing device, and method for controlling the same
JP7194884B2 (en) Luggage sorting system, projection instruction device, projection instruction method
EP3689789B1 (en) Baggage recognition device, baggage sorting system, and baggage recognition method
JP2023143181A (en) Luggage detection system, luggage detection method, information processing device, and control method therefor
US11348333B2 (en) Package recognition device, package sorting system and package recognition method
US11145066B2 (en) Parcel recognition device, parcel sorting system, and parcel recognition method
EP3434625B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
US11667474B1 (en) Increasing scan rate of parcels within material handling facility