JP6817643B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP6817643B2
JP6817643B2 JP2018553537A JP2018553537A JP6817643B2 JP 6817643 B2 JP6817643 B2 JP 6817643B2 JP 2018553537 A JP2018553537 A JP 2018553537A JP 2018553537 A JP2018553537 A JP 2018553537A JP 6817643 B2 JP6817643 B2 JP 6817643B2
Authority
JP
Japan
Prior art keywords
luggage
information
control unit
unit
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018553537A
Other languages
Japanese (ja)
Other versions
JPWO2018100631A1 (en
Inventor
順平 大木
順平 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suncorporation
Original Assignee
Suncorporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suncorporation filed Critical Suncorporation
Publication of JPWO2018100631A1 publication Critical patent/JPWO2018100631A1/en
Application granted granted Critical
Publication of JP6817643B2 publication Critical patent/JP6817643B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G67/00Loading or unloading vehicles
    • B65G67/02Loading or unloading land vehicles
    • B65G67/04Loading land vehicles

Description

本明細書によって開示される技術は、荷室に積載される荷物の配置に関係する情報の表示に用いられる情報処理装置に関する。 The technology disclosed herein relates to an information processing device used to display information relating to the arrangement of luggage loaded in the luggage compartment.

例えば、特開2014−151978号公報(以下、特許文献1という)には、荷物をトレーラに積み付ける際の配置を計算するシステムが開示されている。このシステムは、荷物情報及びトレーラ情報を入力するデータ入力部と、入力された荷物情報及びトレーラ情報に基づいて、荷物のトレーラにおける配置を計算する積み付け計算部と、計算の結果に基づいて荷物のトレーラにおける配置イメージを出力する結果出力部と、を備える。作業員に、配置イメージに従って現実のトレーラに荷物の積み付けを行わせることにより、積み付け作業の効率化を図っている。 For example, Japanese Patent Application Laid-Open No. 2014-151978 (hereinafter referred to as Patent Document 1) discloses a system for calculating an arrangement when a cargo is loaded on a trailer. This system has a data input unit that inputs baggage information and trailer information, a loading calculation unit that calculates the placement of the baggage in the trailer based on the input baggage information and trailer information, and a baggage based on the calculation result. It is provided with a result output unit that outputs an arrangement image of the trailer. The efficiency of the loading work is improved by having the workers load the luggage on the actual trailer according to the arrangement image.

特許文献1のシステムでは、配置イメージは、トレーラをイメージしたトレーラ画像に、荷物をイメージした荷物画像と、を含む態様の画像として生成される。配置イメージに含まれるトレーラ画像及び荷物画像は、例えば斜視図のように、トレーラにおける各荷物の配置を俯瞰的に把握できる態様で出力される。 In the system of Patent Document 1, the arrangement image is generated as an image of an aspect including a trailer image of a trailer and a luggage image of a luggage. The trailer image and the luggage image included in the arrangement image are output in a manner in which the arrangement of each luggage on the trailer can be grasped from a bird's-eye view, for example, as shown in a perspective view.

しかしながら、現実のトレーラに対して積み付け作業を行う際の作業者の目線は、配置イメージによって把握できる俯瞰とは異なる場合が多い。配置イメージを見て荷物の配置のイメージを把握したはずの作業者が、現実のトレーラに向かって実際に積み付け作業を行う場合に、作業者の目線におけるトレーラ内の見え方が配置イメージのトレーラ画像とは異なるために、現実のトレーラに対する荷物の配置を具体的に想像することが困難な場合がある。そのような場合、作業者による積み付け作業の効率が向上しない場合がある。 However, the viewpoint of the worker when performing the loading work on the actual trailer is often different from the bird's-eye view that can be grasped by the arrangement image. When a worker who should have grasped the image of the arrangement of luggage by looking at the arrangement image actually performs the loading work toward the actual trailer, the appearance inside the trailer from the worker's point of view is the trailer of the arrangement image. Since it is different from the image, it may be difficult to concretely imagine the arrangement of luggage with respect to the actual trailer. In such a case, the efficiency of the loading work by the worker may not be improved.

本明細書では、作業者に現実の荷室に対する荷物の配置を具体的に把握させ、積み付け作業の効率化を図ることができる技術を開示する。 This specification discloses a technique that allows an operator to specifically grasp the arrangement of luggage with respect to an actual luggage compartment and to improve the efficiency of loading work.

本明細書によって開示される情報処理装置は、空間情報測定部と、表示部と、制御部と、を備える。制御部は、第1の取得部と、第2の取得部と、表示制御部と、を備える。第1の取得部は、空間情報測定部によって測定される空間情報であって、荷室の寸法及び向きを含む空間情報を取得する。第2の取得部は、配置情報を取得する。配置情報は、荷室に関係する荷室情報と、荷室に積載されるべき一以上の荷物のそれぞれについての荷物情報であって、当該荷物の寸法と重量の少なくとも一方を含む荷物情報と、に基づいて、一以上の荷物のそれぞれの荷室における配置を計算した結果である。表示制御部は、取得済みの空間情報と、取得済みの配置情報と、に基づいて、一以上の荷物のそれぞれを示す一以上のオブジェクト画像を表示部に表示させる。一以上のオブジェクト画像のそれぞれは、当該オブジェクト画像が示す荷物の荷室における配置位置として計算された位置に、現実の荷室に重畳される態様で表示される。 The information processing apparatus disclosed by the present specification includes a spatial information measuring unit, a display unit, and a control unit. The control unit includes a first acquisition unit, a second acquisition unit, and a display control unit. The first acquisition unit is spatial information measured by the spatial information measurement unit, and acquires spatial information including the dimensions and orientation of the luggage compartment. The second acquisition unit acquires the arrangement information. The placement information includes luggage information related to the luggage compartment, luggage information for each of one or more luggage to be loaded in the luggage compartment, and luggage information including at least one of the dimensions and weight of the luggage. It is the result of calculating the arrangement of one or more luggage in each luggage compartment based on. The display control unit causes the display unit to display one or more object images indicating each of the one or more packages based on the acquired spatial information and the acquired arrangement information. Each of the one or more object images is displayed in a manner of being superimposed on the actual luggage compartment at the position calculated as the arrangement position in the luggage compartment of the luggage indicated by the object image.

上記の構成によると、表示制御部は、表示部に、一以上のオブジェクト画像のそれぞれを、当該オブジェクト画像が示す荷物の荷室における配置位置として計算された位置に、現実の荷室に重畳される態様で表示させることができる。そのため、現実の荷室への荷物の積み付け作業を行う作業者が、現実の荷室に重畳される態様で表示された一以上のオブジェクト画像を見ることにより、現実の荷室に対する荷物の配置を具体的に想像しやすくなる。従って、上記の情報処理装置によると、作業者に現実の荷室に対する荷物の配置を具体的に把握させ、積み付け作業の効率化を図ることができる。 According to the above configuration, the display control unit superimposes each of one or more object images on the display unit at the position calculated as the arrangement position of the luggage indicated by the object image in the luggage compartment in the actual luggage compartment. It can be displayed in such a manner. Therefore, a worker who loads luggage into the actual luggage compartment can arrange the luggage with respect to the actual luggage compartment by looking at one or more object images displayed in a manner superimposed on the actual luggage compartment. It becomes easier to imagine concretely. Therefore, according to the above-mentioned information processing device, it is possible to make the worker concretely grasp the arrangement of the luggage with respect to the actual luggage compartment and improve the efficiency of the loading work.

ここで、「荷室」は、コンテナ、トレーラ、倉庫等、荷物を積み付けるための任意の室を含む。「空間情報測定部」は、カメラ、赤外線センサ等、荷室を含めた空間の情報を測定可能な任意の装置を含む。また、「オブジェクト画像」は、荷物を示す画像であれば、静止画、動画(即ち、動きを伴う画像)のどちらであってもよい。 Here, the "luggage compartment" includes any chamber for loading luggage such as a container, a trailer, and a warehouse. The "spatial information measuring unit" includes an arbitrary device capable of measuring spatial information including the luggage compartment, such as a camera and an infrared sensor. Further, the "object image" may be either a still image or a moving image (that is, an image accompanied by movement) as long as it is an image showing luggage.

表示制御部は、荷室内において第1の荷物の後に第2の荷物が配置されるべき状況において、第1の荷物を示す第1のオブジェクト画像を表示部に表示させ、第1のオブジェクト画像が表示部に表示されている間に、第1のオブジェクト画像が示す位置に第1の荷物が正しく配置された第1の場合に、第2の荷物を示す第2のオブジェクト画像を表示部に表示させるようにしてもよい。 The display control unit displays a first object image showing the first luggage on the display unit in a situation where the second luggage should be placed after the first luggage in the luggage compartment, and the first object image is displayed. While displayed on the display unit, the second object image indicating the second luggage is displayed on the display unit in the first case where the first luggage is correctly arranged at the position indicated by the first object image. You may let it.

この構成によると、表示部を見た作業員は、第1のオブジェクト画像が表示部に表示されている間には、第1の荷物を第1のオブジェクト画像が示す位置に配置すればよく、第2のオブジェクト画像が表示部に表示されている間には、第2の荷物を第2のオブジェクト画像が示す位置に配置すればよいことを容易に把握することができる。作業員は、第1の荷物の後に第2の荷物が配置されるべき状況において、各荷物の配置位置及び配置順序を記憶していなくても、第1の荷物及び第2の荷物を適切に配置することができる。従って、作業員が配置位置及び配置順序を記憶する必要がなく、作業員の負担が小さく済み、作業効率を向上させることができる。 According to this configuration, the worker who sees the display unit may arrange the first baggage at the position indicated by the first object image while the first object image is displayed on the display unit. While the second object image is displayed on the display unit, it can be easily grasped that the second baggage should be arranged at the position indicated by the second object image. In a situation where the second baggage should be placed after the first baggage, the worker can properly place the first baggage and the second baggage without having to remember the position and order of the placement of each baggage. Can be placed. Therefore, it is not necessary for the worker to memorize the placement position and the placement order, the burden on the worker can be reduced, and the work efficiency can be improved.

表示制御部は、第1のオブジェクト画像が表示部に表示されている間に、第1のオブジェクト画像が示す位置に第1の荷物が正しく配置されていない第2の場合に、第2のオブジェクト画像を表示部に表示させないようにしてもよい。 The display control unit is a second object in the second case where the first baggage is not correctly arranged at the position indicated by the first object image while the first object image is displayed on the display unit. The image may not be displayed on the display unit.

この構成によると、作業員は、第1のオブジェクト画像が表示部に表示されている間に、第1のオブジェクト画像が示す位置に荷物を配置した場合に、次の荷物(即ち第1の荷物)を示す第2のオブジェクト画像が表示されなければ、配置した荷物が正しく配置されなかったことを認識することができる。これにより、配置情報が示す配置とは異なった配置で各荷物が配置される事態を抑制することができる。 According to this configuration, when the worker places the luggage at the position indicated by the first object image while the first object image is displayed on the display unit, the worker places the next luggage (that is, the first luggage). If the second object image indicating) is not displayed, it can be recognized that the placed luggage was not placed correctly. As a result, it is possible to suppress a situation in which each package is arranged in an arrangement different from the arrangement indicated by the arrangement information.

ここで、「第1のオブジェクト画像が示す位置に第1の荷物が正しく配置されていない第2の場合」は、第1の荷物とは異なる荷物が配置されていること(即ち荷物の種類が誤っていること)と、配置されている第1の荷物の位置及び向きが正しくないことと、のうちの少なくとも一方を含む。 Here, in the "second case where the first baggage is not correctly arranged at the position indicated by the first object image", the baggage different from the first baggage is arranged (that is, the type of baggage is Incorrect) and incorrect position and orientation of the first package being placed, including at least one of them.

情報処理装置は、報知部をさらに備えていてもよい。制御部は、さらに、第2の場合に、報知部に報知動作を実行させる、報知制御部を備えていてもよい。 The information processing device may further include a notification unit. The control unit may further include a notification control unit that causes the notification unit to execute the notification operation in the second case.

この構成によると、報知部が報知動作を実行することにより、作業員は、配置した荷物が正しく配置されなかったことをより適切に認識し得る。配置情報が示す配置とは異なった配置で各荷物が配置される事態をより適切に抑制することができる。 According to this configuration, the notification unit executes the notification operation, so that the worker can more appropriately recognize that the arranged luggage has not been arranged correctly. It is possible to more appropriately suppress the situation where each baggage is arranged in an arrangement different from the arrangement indicated by the arrangement information.

情報処理装置は、端末装置と、端末装置と通信可能なサーバと、を含んでいてもよい。端末装置は、空間情報測定部と、表示部と、端末制御部と、を備えていてもよい。端末制御部は、第1の取得部と、第2の取得部と、表示制御部と、を備えていてもよい。第2の取得部は、サーバから配置情報を受信することによって、配置情報を取得してもよい。サーバは、記憶装置と、サーバ制御部と、を備えてもよい。記憶装置は、配置情報を記憶してもよい。サーバは、端末装置に、記憶装置内の配置情報を送信する、情報送信部を備えてもよい。 The information processing device may include a terminal device and a server capable of communicating with the terminal device. The terminal device may include a spatial information measuring unit, a display unit, and a terminal control unit. The terminal control unit may include a first acquisition unit, a second acquisition unit, and a display control unit. The second acquisition unit may acquire the arrangement information by receiving the arrangement information from the server. The server may include a storage device and a server control unit. The storage device may store the arrangement information. The server may include an information transmission unit that transmits the arrangement information in the storage device to the terminal device.

この構成によると、サーバが、配置情報を予め記憶するための記憶装置を備え、端末装置は、サーバから所定の配置情報を取得する。即ち、端末装置は、予め記憶するための記憶装置を有していなくてもよい。そのため、記憶容量が比較的小さい端末装置を用いることができる。 According to this configuration, the server includes a storage device for storing the arrangement information in advance, and the terminal device acquires a predetermined arrangement information from the server. That is, the terminal device does not have to have a storage device for storing in advance. Therefore, a terminal device having a relatively small storage capacity can be used.

端末制御部は、さらに、一以上のオブジェクト画像に対応する一以上の荷物の配置が完了した場合に、完了通知をサーバに送信する通知部を備えてもよい。 The terminal control unit may further include a notification unit that transmits a completion notification to the server when the arrangement of one or more packages corresponding to the one or more object images is completed.

これにより、サーバの利用者(例えば作業員の管理者)が、荷室における積み付け作業が完了したことを把握することができる。 As a result, the user of the server (for example, the manager of the worker) can know that the loading work in the luggage compartment has been completed.

端末装置は、さらに、ユーザの頭部に装着可能なフレームを備えていてもよい。表示部は、フレームに搭載され、フレームを装着したユーザの右眼と左眼の少なくとも一方に対向する位置に配置される表示装置を含んでもよい。 The terminal device may further include a frame that can be worn on the user's head. The display unit may include a display device mounted on the frame and arranged at a position facing at least one of the right eye and the left eye of the user wearing the frame.

この構成によると、作業員(即ちユーザ)は、端末装置を頭部に装着した状態で、表示部に表示されるオブジェクト画像を見ながら積み付け作業を行うことができる。この場合、表示部には、作業員の視界内の現実の荷室に重畳された態様でオブジェクト画像が表示されるため、作業員は、自身の目線から見た荷室における各荷物の配置を適切に把握することができる。 According to this configuration, the worker (that is, the user) can perform the loading work while looking at the object image displayed on the display unit with the terminal device attached to the head. In this case, since the object image is displayed on the display unit in a manner superimposed on the actual luggage compartment in the worker's field of view, the worker can arrange each luggage in the luggage compartment from his / her own point of view. Can be grasped properly.

なお、上記の情報処理装置、端末装置、及び、サーバを実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能媒体も、新規で有用である。 The above-mentioned information processing device, terminal device, control method for realizing a server, a computer program, and a computer-readable medium for storing the computer program are also new and useful.

管理システムの概要を示す。The outline of the management system is shown. 画像表示装置のブロック図を示す。The block diagram of the image display device is shown. サーバのブロック図を示す。The block diagram of the server is shown. サーバの制御部が実行するシミュレーション処理のフローチャートを示す。The flowchart of the simulation process executed by the control part of the server is shown. 画像表示装置の制御部が実行する積み付け制御処理のフローチャートを示す。A flowchart of the loading control process executed by the control unit of the image display device is shown. 1個目のオブジェクト画像が表示されている表示部の例を示す。An example of the display part where the first object image is displayed is shown. 2個目のオブジェクト画像が表示されている表示部の例を示す。An example of the display part where the second object image is displayed is shown.

(実施例)
(管理システム2の構成;図1)
図1に示す管理システム2は、荷物(例えば荷物P)を荷室(例えばコンテナC)に積み付ける積み付け作業を行う作業員(例えば作業員W)に対して、当該荷室における荷物の効率的な配置を指示するとともに、作業員の積み付け作業を管理するためのシステムである。管理システム2は、画像表示装置10と、サーバ50と、を備える。画像表示装置10とサーバ50とは、インターネット4を介して相互に無線通信(具体的にはWi−Fi通信)を実行可能である。
(Example)
(Configuration of management system 2; FIG. 1)
The management system 2 shown in FIG. 1 shows the efficiency of the luggage in the luggage compartment with respect to the worker (for example, the worker W) who performs the loading work of loading the luggage (for example, the luggage P) in the luggage compartment (for example, the container C). It is a system for instructing the appropriate placement and managing the loading work of workers. The management system 2 includes an image display device 10 and a server 50. The image display device 10 and the server 50 can mutually execute wireless communication (specifically, Wi-Fi communication) via the Internet 4.

(画像表示装置10の構成;図1、図2)
画像表示装置10は、ユーザ(例えば作業員W)の頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。図1に示すように、画像表示装置10は、フレーム12と、右表示部14Rと、左表示部14Lと、右投影部15Rと、左投影部15Lと、右カメラ16Rと、左カメラ16Lと、コントロールボックス18と、スピーカ19とを備えている。
(Structure of image display device 10; FIGS. 1 and 2)
The image display device 10 is an image display device (so-called head-mounted display) that is used by being attached to the head of a user (for example, worker W). As shown in FIG. 1, the image display device 10 includes a frame 12, a right display unit 14R, a left display unit 14L, a right projection unit 15R, a left projection unit 15L, a right camera 16R, and a left camera 16L. , A control box 18 and a speaker 19 are provided.

フレーム12は、眼鏡フレーム状の部材である。ユーザは、眼鏡を装着するようにフレーム12を装着することによって、画像表示装置10を頭部に装着することができる。 The frame 12 is a member in the shape of a spectacle frame. The user can wear the image display device 10 on the head by wearing the frame 12 as if wearing glasses.

右表示部14R、左表示部14Lは、それぞれ、透光性の表示部材である。ユーザが画像表示装置10を頭部に装着すると、ユーザの右眼に対向する位置に右表示部14Rが配置され、左眼に対向する位置に左表示部14Lが配置される。以下、右表示部14R、左表示部14Lを総称して「表示部14」と呼ぶ場合がある。 The right display unit 14R and the left display unit 14L are translucent display members, respectively. When the user attaches the image display device 10 to the head, the right display unit 14R is arranged at a position facing the user's right eye, and the left display unit 14L is arranged at a position facing the left eye. Hereinafter, the right display unit 14R and the left display unit 14L may be collectively referred to as "display unit 14".

右投影部15R、左投影部15Lは、それぞれ、右表示部14R、左表示部14Lに画像を投影する部材である。右投影部15R、左投影部15Lは、それぞれ、右表示部14R、左表示部14Lの側部に設けられている。以下、右投影部15R、左投影部15Lを総称して「投影部15」と呼ぶ場合がある。本実施例では、投影部15は、制御部30の指示に従って、荷物Pを示す所定の仮想画像(以下では「オブジェクト画像」と呼ぶ)を表示部14に投影する。これにより、ユーザは、表示部14越しにユーザが視認可能な現実世界の対象物(例えばコンテナC)又は/及び空間の所定の位置に、上記オブジェクト画像が重畳されたかの様に、現実世界の対象物又は/及び空間とオブジェクト画像とを見ることができる。以下、本明細書では、制御部30が、投影部15に画像の投影を指示することによって、表示部14に所望の画像を表示させることを説明する場合に、投影部15の動作の説明を省略し、単に「制御部30が表示部14に所望の画像を表示させる」などと表現する場合がある。 The right projection unit 15R and the left projection unit 15L are members that project an image onto the right display unit 14R and the left display unit 14L, respectively. The right projection unit 15R and the left projection unit 15L are provided on the side portions of the right display unit 14R and the left display unit 14L, respectively. Hereinafter, the right projection unit 15R and the left projection unit 15L may be collectively referred to as “projection unit 15”. In this embodiment, the projection unit 15 projects a predetermined virtual image (hereinafter, referred to as an “object image”) showing the luggage P on the display unit 14 according to the instruction of the control unit 30. As a result, the user can see the object in the real world (for example, container C) or / or the object in the real world as if the object image is superimposed on the predetermined position in the space through the display unit 14. You can see objects and / and spaces and object images. Hereinafter, in the present specification, when explaining that the control unit 30 causes the display unit 14 to display a desired image by instructing the projection unit 15 to project an image, the operation of the projection unit 15 will be described. It may be omitted and simply expressed as "the control unit 30 causes the display unit 14 to display a desired image".

右カメラ16Rは、フレーム12のうち、右表示部14Rの上方位置(即ち、ユーザの右眼の上方に対応する位置)に配置されているカメラである。一方、左カメラ16Lは、フレーム12のうち、左表示部14Lの上方位置(即ち、ユーザの左眼の上方に対応する位置)に配置されているカメラである。右カメラ16Rと左カメラ16Lのそれぞれによって、画像表示装置10を装着するユーザの視界範囲に対応する範囲(以下では「特定範囲」と呼ぶ場合がある)を異なる角度から撮影することができる。即ち、右カメラ16Rはユーザの右眼の視界範囲を撮影し、左カメラ16Lはユーザの左眼の視界範囲を撮影すると言うこともできる。また、以下、右カメラ16Rと左カメラ16Lを総称して「カメラ16」と呼ぶ場合がある。 The right camera 16R is a camera arranged at a position above the right display unit 14R (that is, a position corresponding to above the user's right eye) in the frame 12. On the other hand, the left camera 16L is a camera arranged at a position above the left display unit 14L (that is, a position corresponding to above the left eye of the user) in the frame 12. Each of the right camera 16R and the left camera 16L can shoot a range corresponding to the field of view of the user who wears the image display device 10 (hereinafter, may be referred to as a "specific range") from different angles. That is, it can be said that the right camera 16R captures the visual field range of the user's right eye, and the left camera 16L captures the visual field range of the user's left eye. Further, hereinafter, the right camera 16R and the left camera 16L may be collectively referred to as "camera 16".

コントロールボックス18は、フレーム12の一部に内蔵されている制御装置である。コントロールボックス18には、画像表示装置10の制御系統を司る各要素が収容されている。具体的に言うと、図2に示すように、コントロールボックス18には、Wi−Fiインターフェース20と、制御部30と、メモリ32と、が収納されている。以下では、インターフェースのことを「I/F」と記載する。他の例では、コントロールボックス18は、フレーム12とは別個に備えられていてもよい。その場合、コントロールボックス18内の各構成要素(Wi−Fiインターフェース20、制御部30、メモリ32)と、フレーム12に備え付けられた各構成要素(表示部14、投影部15、カメラ16等)とがケーブル等によって電気的に接続されていればよい。 The control box 18 is a control device built in a part of the frame 12. Each element that controls the control system of the image display device 10 is housed in the control box 18. Specifically, as shown in FIG. 2, the control box 18 houses the Wi-Fi interface 20, the control unit 30, and the memory 32. In the following, the interface will be referred to as "I / F". In another example, the control box 18 may be provided separately from the frame 12. In that case, each component (Wi-Fi interface 20, control unit 30, memory 32) in the control box 18 and each component (display unit 14, projection unit 15, camera 16, etc.) provided in the frame 12 Should be electrically connected by a cable or the like.

Wi−FiI/F20は、インターネット4を介して、外部の装置(例えば、サーバ50)とWi−Fi通信を実行するためのI/Fである。 The Wi-Fi I / F 20 is an I / F for executing Wi-Fi communication with an external device (for example, a server 50) via the Internet 4.

制御部30は、メモリ32に記憶されているプログラムに従って、後述の積み付け制御処理(図5参照)を含む様々な処理を実行する。また、制御部30は、表示部14、投影部15、カメラ16、Wi−FiI/F20、及び、メモリ32と電気的に接続されており、これらの各要素の動作を制御することができる。 The control unit 30 executes various processes including a stacking control process (see FIG. 5) described later according to a program stored in the memory 32. Further, the control unit 30 is electrically connected to the display unit 14, the projection unit 15, the camera 16, the Wi-Fi I / F20, and the memory 32, and can control the operation of each of these elements.

メモリ32は、様々なプログラムを記憶している。また、メモリ32には、後述の積み付け制御処理の実行過程で取得される各種情報を一時的に記憶するための記憶領域が設けられている。また、図示していないが、メモリ32は、画像表示装置10を識別するための装置IDも記憶している。 The memory 32 stores various programs. Further, the memory 32 is provided with a storage area for temporarily storing various information acquired in the execution process of the loading control process described later. Further, although not shown, the memory 32 also stores a device ID for identifying the image display device 10.

スピーカ19は、音声を出力するための出力部である。 The speaker 19 is an output unit for outputting sound.

(サーバ50の構成;図1、図3)
図1に示すサーバ50は、画像表示装置10の管理者(例えば、積み付け作業の管理企業等)によって設置されるサーバである。図3に示すように、サーバ50は、表示部52と、操作部54と、Wi−FiI/F56と、制御部60と、メモリ60とを備える。
(Configuration of server 50; FIGS. 1 and 3)
The server 50 shown in FIG. 1 is a server installed by an administrator of the image display device 10 (for example, a management company for loading work). As shown in FIG. 3, the server 50 includes a display unit 52, an operation unit 54, a Wi-Fi I / F 56, a control unit 60, and a memory 60.

表示部52は、様々な情報を表示可能なディスプレイである。操作部54は、キーボード及びマウスを備える。サーバ50のユーザは、操作部54を操作することによって様々な指示をサーバ50に入力することができる。Wi−FiI/F56は、インターネット4を介して、外部の装置(例えば、画像表示装置10)とWi−Fi通信を実行するためのI/Fである。制御部60は、メモリ62に記憶されているプログラムに従って、後述のシミュレーション処理(図4参照)を含む様々な処理を実行する。メモリ62は、様々なプログラムを記憶している。また、メモリ62には、制御部60がシミュレーション処理を実行することによって生成される配置情報を記憶するための配置情報記憶領域64が設けられている。配置情報は、一以上の荷物を、指定された荷室(例えば、コンテナ、倉庫など)に対して積み付ける場合における、適切な各荷物の配置及び積み付け順序を示す情報である。配置情報が示す各荷物の配置及び積み付け順序に従って積み付け作業が行われることにより、各荷物を効率的に荷室に収納することができる。 The display unit 52 is a display capable of displaying various information. The operation unit 54 includes a keyboard and a mouse. The user of the server 50 can input various instructions to the server 50 by operating the operation unit 54. The Wi-Fi I / F 56 is an I / F for executing Wi-Fi communication with an external device (for example, an image display device 10) via the Internet 4. The control unit 60 executes various processes including a simulation process (see FIG. 4) described later according to the program stored in the memory 62. The memory 62 stores various programs. Further, the memory 62 is provided with an arrangement information storage area 64 for storing the arrangement information generated by the control unit 60 executing the simulation process. The arrangement information is information indicating an appropriate arrangement and loading order of each package when loading one or more packages into a designated luggage compartment (for example, a container, a warehouse, etc.). By performing the loading work according to the arrangement and loading order of each luggage indicated by the arrangement information, each luggage can be efficiently stored in the luggage compartment.

(シミュレーション処理;図4)
作業員による積み付け作業が実際に行われる前に、本実施例のサーバ50の制御部60が予め実行するシミュレーション処理について説明する。シミュレーション処理は、一以上の荷物を、指定された荷室(例えば、コンテナ、倉庫など)に対して積み付ける場合における、適切な各荷物の配置位置及び配置順序をシミュレートするための処理である。サーバ50の利用者が、操作部52において所定のシミュレーション開始操作を入力すると、制御部60は、図4の処理を開始する。
(Simulation processing; Fig. 4)
A simulation process that is executed in advance by the control unit 60 of the server 50 of this embodiment will be described before the loading work by the worker is actually performed. The simulation process is a process for simulating an appropriate arrangement position and order of each package when one or more packages are loaded into a designated luggage compartment (for example, a container, a warehouse, etc.). .. When the user of the server 50 inputs a predetermined simulation start operation in the operation unit 52, the control unit 60 starts the process of FIG.

S10では、制御部60は、荷室情報が入力されることを監視する。サーバ50の利用者は、操作部52において、荷物を積み付ける対象の荷室(以下では、「対象荷室」と呼ぶ。例えば図1のコンテナC)に関係する各種情報(即ち荷室情報)を入力することができる。荷室情報は、例えば、対象荷室の識別情報、対象荷室の寸法、対象荷室の制約等、荷室に関係する各種情報を含む。なお、他の例では、メモリ62に予め複数のタイプの荷室に対応する荷室情報を記憶させておいてもよい。その場合、S10では、制御部60は、メモリ62内の各荷室情報を示すリストを表示部52に表示させ、利用者に一つの荷室情報を選択させるようにしてもよい。利用者によって対象荷室の荷室情報が入力されると、制御部60は、S10でYESと判断してS12に進む。 In S10, the control unit 60 monitors that the luggage compartment information is input. In the operation unit 52, the user of the server 50 has various information (that is, luggage compartment information) related to the luggage compartment to be loaded with luggage (hereinafter, referred to as “target luggage compartment”; for example, container C in FIG. 1). Can be entered. The luggage compartment information includes various information related to the luggage compartment, such as identification information of the target luggage compartment, dimensions of the target luggage compartment, and restrictions on the target luggage compartment. In another example, the memory 62 may store the luggage compartment information corresponding to a plurality of types of luggage compartments in advance. In that case, in S10, the control unit 60 may display a list showing each luggage compartment information in the memory 62 on the display unit 52 and allow the user to select one luggage compartment information. When the luggage compartment information of the target luggage compartment is input by the user, the control unit 60 determines YES in S10 and proceeds to S12.

S12では、制御部60は、荷物情報が入力されることを監視する。サーバ50の利用者は、操作部52において、対象荷室に積み付けるための一以上の荷物(以下では、「対象荷物」と呼ぶ。例えば図1の荷物B)のそれぞれに関係する各種情報を入力することができる。荷物情報は、対象荷物の識別情報、寸法、重量、内容、制約(例えば積載不可、積載方向指定等)など、対象荷物に関係する各種情報を含む。対象荷物の識別情報は、例えば、対象荷物に貼られたラベルの識別番号である。利用者によって、一以上の対象荷物のそれぞれの荷物情報が入力されると、制御部60は、S12でYESと判断してS14に進む。 In S12, the control unit 60 monitors that the baggage information is input. In the operation unit 52, the user of the server 50 obtains various information related to each of one or more packages to be loaded in the target luggage compartment (hereinafter, referred to as “target luggage”, for example, luggage B in FIG. 1). You can enter it. The baggage information includes various information related to the target baggage, such as identification information of the target baggage, dimensions, weight, contents, restrictions (for example, loading impossible, designation of loading direction, etc.). The identification information of the target package is, for example, an identification number of a label attached to the target package. When the user inputs the baggage information of one or more target packages, the control unit 60 determines YES in S12 and proceeds to S14.

S14では、制御部60は、S10で入力された荷室情報と、S12で入力された荷物情報と、を利用して、配置シミュレーションを実行する。具体的には、S14では、制御部60は、荷室情報が示す対象荷室に、荷物情報が示す一以上の対象荷物を効率良く積み付けるための配置位置及び配置順序を計算する。 In S14, the control unit 60 executes the arrangement simulation by using the luggage compartment information input in S10 and the luggage information input in S12. Specifically, in S14, the control unit 60 calculates the arrangement position and the arrangement order for efficiently loading one or more target luggages indicated by the luggage information in the target luggage compartment indicated by the luggage compartment information.

続くS16では、制御部60は、配置情報を生成する。具体的には、S16では、制御部60は、S14の配置シミュレーションの結果として算出された配置位置及び配置順序を示す情報である配置情報を生成する。 In the following S16, the control unit 60 generates placement information. Specifically, in S16, the control unit 60 generates placement information which is information indicating the placement position and the placement order calculated as a result of the placement simulation in S14.

続くS18では、制御部60は、生成された配置情報をメモリ62の配置情報記憶領域64に記憶させる。S18を終えると、制御部60は、図4のシミュレーション処理を終了する。 In the following S18, the control unit 60 stores the generated arrangement information in the arrangement information storage area 64 of the memory 62. After finishing S18, the control unit 60 ends the simulation process of FIG.

(積み付け制御処理;図5)
続いて、画像表示装置10を装着した作業員が積み付け作業を行う際に、画像表示装置10の制御部30が実行する積み付け制御処理について説明する。図5の積み付け制御処理が開始される時点で、既に図4のシミュレーション処理が完了している。作業員(例えば図1の作業員W)は、電源がオンされている画像表示装置10を装着した状態で、カメラ16の撮影範囲(即ち特定範囲)内において所定のジェスチャーを行うことによって、所定の積み付け制御処理開始操作を入力することができる。その場合、制御部30は、図5の処理を開始する。
(Loading control process; Fig. 5)
Subsequently, the loading control process executed by the control unit 30 of the image display device 10 when the worker wearing the image display device 10 performs the loading work will be described. By the time the loading control process of FIG. 5 is started, the simulation process of FIG. 4 has already been completed. A worker (for example, worker W in FIG. 1) is determined by performing a predetermined gesture within the shooting range (that is, a specific range) of the camera 16 while wearing the image display device 10 whose power is turned on. You can enter the loading control process start operation of. In that case, the control unit 30 starts the process of FIG.

S30では、制御部30は、対象荷室の識別情報が入力されることを監視する。具体的には、まず、制御部30は、識別情報入力のためのキーパッドを示すキーパッド画像を表示部14に表示させる。作業員は、特定範囲内において、キーパッド画像が示すキーパッドを操作するジェスチャーを行うことによって、対象荷室(例えば図1のコンテナC)の識別情報を入力することができる。対象荷室の識別情報は、例えば対象荷室の外面に記載されている。他の例では、対象荷室の外面に対象荷室の識別情報が記録された情報コード(バーコード、二次元コード等)が表示されていてもよい。その場合、作業員が対象荷室の外面の情報コードを見る(即ち、特定範囲内に識別情報を入れる)ことによって、カメラ16に情報コードを撮影させてもよい。その場合、制御部30が、撮影された情報コードをデコードすることによって、識別情報を取得してもよい。また、図1の例のように、対象荷室が車載されたコンテナCである場合には、対象荷室の識別情報は、車のナンバープレートに記載された番号であってもよい。識別情報の入力方法は上記の各手法には限られず、他の任意の手法を用いることができる。対象荷室の識別情報が入力されると、制御部30は、S30でYESと判断し、S32に進む。 In S30, the control unit 30 monitors that the identification information of the target luggage compartment is input. Specifically, first, the control unit 30 causes the display unit 14 to display a keypad image showing a keypad for inputting identification information. The worker can input the identification information of the target luggage compartment (for example, the container C in FIG. 1) by performing a gesture of operating the keypad indicated by the keypad image within a specific range. The identification information of the target luggage compartment is described, for example, on the outer surface of the target luggage compartment. In another example, an information code (bar code, two-dimensional code, etc.) in which identification information of the target luggage compartment is recorded may be displayed on the outer surface of the target luggage compartment. In that case, the operator may have the camera 16 take a picture of the information code by looking at the information code on the outer surface of the target luggage compartment (that is, putting the identification information within a specific range). In that case, the control unit 30 may acquire the identification information by decoding the captured information code. Further, as in the example of FIG. 1, when the target luggage compartment is a container C mounted on a vehicle, the identification information of the target luggage compartment may be the number written on the license plate of the vehicle. The method of inputting the identification information is not limited to each of the above methods, and any other method can be used. When the identification information of the target luggage compartment is input, the control unit 30 determines YES in S30 and proceeds to S32.

S32では、制御部30は、S30で入力された識別情報をサーバ50に送信する。サーバ50の制御部60は、画像表示装置10から識別情報(S32)を受信すると、メモリ62の配置情報記憶領域64を参照し、配置情報記憶領域64に記憶されている一以上の配置情報のうちから、受信された識別情報が示す荷室に対応する配置情報(以下では「対象配置情報」と呼ぶ)を特定する。そして、制御部60は、配置情報記憶領域64から対象配置情報を読み出し、対象配置情報を画像表示装置10に送信する。 In S32, the control unit 30 transmits the identification information input in S30 to the server 50. When the control unit 60 of the server 50 receives the identification information (S32) from the image display device 10, it refers to the arrangement information storage area 64 of the memory 62, and receives one or more arrangement information stored in the arrangement information storage area 64. From among them, the arrangement information (hereinafter referred to as "target arrangement information") corresponding to the luggage compartment indicated by the received identification information is specified. Then, the control unit 60 reads the target arrangement information from the arrangement information storage area 64 and transmits the target arrangement information to the image display device 10.

S34では、制御部30は、サーバ50から対象配置情報を受信することを監視する。制御部30は、サーバ50から対象配置情報を受信すると、S34でYESと判断し、S36に進む。一方、制御部30は、S32で識別情報を送信した後、対象配置情報を受信することなく所定期間(例えば1分間)が経過した場合、エラー処理を実行し、図5の処理を終了する。 In S34, the control unit 30 monitors the reception of the target arrangement information from the server 50. When the control unit 30 receives the target placement information from the server 50, it determines YES in S34 and proceeds to S36. On the other hand, if a predetermined period (for example, 1 minute) elapses without receiving the target arrangement information after transmitting the identification information in S32, the control unit 30 executes error processing and ends the processing of FIG.

S36では、制御部30は、Nの値を1に決定する。 In S36, the control unit 30 determines the value of N to 1.

続くS38では、制御部30は、この時点における空間情報を取得する。空間情報は、作業員の視界範囲内の各物品に関係する各種情報(例えば、寸法、向き、画像表示装置10との距離等)を含む。具体的には、S38では、まず制御部30は、カメラ16から、カメラ16が現在撮影しているカメラ画像を取得する。上記の通り、特定範囲(即ちカメラ16の撮影範囲)は、画像表示装置10を装着する作業員の視界範囲に対応する。作業員が、積み付け作業を行うために対象荷室(例えば図1のコンテナC)を見ると、カメラ画像には対象荷室の画像が含まれる。そして、制御部30は、カメラ16から取得したカメラ画像に基づいて、カメラ画像に含まれる各物品の特徴点を特定するための座標情報を抽出する。次いで、制御部30は、抽出された座標情報に基づいて、カメラ画像に含まれる各物品の寸法、各物品の向き、各物品と画像表示装置10との距離等の各種情報を算出する。ここで算出される各種情報が空間情報の一例である。上記のカメラ画像に対象荷室の画像が含まれる場合には、空間情報には、作業員の視界範囲に存在する対象荷室の少なくとも一部の実際の寸法、向き、画像表示装置10との距離等の各種情報が含まれる。以上の各処理を実行することによって、S38において、制御部30は空間情報を取得する。 In the following S38, the control unit 30 acquires the spatial information at this time. The spatial information includes various information related to each article within the field of view of the worker (for example, dimensions, orientation, distance to the image display device 10, etc.). Specifically, in S38, first, the control unit 30 acquires a camera image currently captured by the camera 16 from the camera 16. As described above, the specific range (that is, the shooting range of the camera 16) corresponds to the field of view of the worker who wears the image display device 10. When the worker looks at the target luggage compartment (for example, container C in FIG. 1) to perform the loading work, the camera image includes an image of the target luggage compartment. Then, the control unit 30 extracts coordinate information for identifying the feature points of each article included in the camera image based on the camera image acquired from the camera 16. Next, the control unit 30 calculates various information such as the dimensions of each article included in the camera image, the orientation of each article, and the distance between each article and the image display device 10 based on the extracted coordinate information. The various information calculated here is an example of spatial information. When the above camera image includes an image of the target luggage compartment, the spatial information includes the actual dimensions, orientation, and image display device 10 of at least a part of the target luggage compartment existing in the worker's field of view. Various information such as distance is included. By executing each of the above processes, the control unit 30 acquires spatial information in S38.

続くS40では、制御部30は、S38で取得された空間情報と、S34で取得された配置情報と、に基づいて、N個目の対象荷物(即ち、配置情報が指定する配置順序がN番目の対象荷物)を示すオブジェクト画像を表示部14に表示させる。1回目のS40では、Nは1に定められているため、制御部30は、1個目の対象荷物を示すオブジェクト画像を表示部14に表示させる。この際、制御部30は、オブジェクト画像を、N個目の対象荷物が配置されるべき位置として配置情報において指定されている位置に、現実の対象荷室に重畳される態様で表示させる。また、制御部30は、オブジェクト画像と同時に、対象荷物の識別情報、重量、制約情報等の各種文字情報を併せて表示することができる。 In the following S40, the control unit 30 has the Nth target baggage (that is, the arrangement order specified by the arrangement information is the Nth) based on the spatial information acquired in S38 and the arrangement information acquired in S34. An object image showing the target baggage) is displayed on the display unit 14. In the first S40, since N is set to 1, the control unit 30 causes the display unit 14 to display an object image indicating the first target baggage. At this time, the control unit 30 displays the object image in a manner of being superimposed on the actual target luggage compartment at the position specified in the arrangement information as the position where the Nth target luggage should be arranged. Further, the control unit 30 can display various character information such as identification information, weight, and constraint information of the target package at the same time as the object image.

S40におけるオブジェクト画像の表示例を図6に示す。図6の例は、図1の作業員Wが、対象荷室であるコンテナCに、対象荷物である複数個の荷物Bを積み付けるための積み付け作業を行う際に、制御部30が1個目の対象荷物を示すオブジェクト画像100を表示する様子を示す。図6の例では、オブジェクト画像100は、作業員Wから見て、コンテナCの最も奥側の位置に重畳される態様で表示部14に表示される。また、オブジェクト画像100に加えて、1個目の対象荷物に関係する文字情報(識別情報、重量、備考など)110が併せて表示される。図6の表示部14を見ることにより、作業員Wは、自分から見てコンテナCの最も奥側の位置に1個目の対象荷物を配置すべきことを知ることができる。また、作業員Wは、表示部14に表示されているオブジェクト画像100を見れば、対象荷物を配置する際における荷物の向き(即ち自分から見た向き)も知ることができる。作業員Wは、表示部14に表示されているオブジェクト画像100を見ながら、オブジェクト画像100に重なるように1個目の対象荷物を配置すれば、予め計算された配置情報が示す配置位置及び配置順序に従って1個目の対象荷物を適切に配置することができる。作業員Wは、コンテナCに対する荷物の配置位置及び配置順序を自分で考える必要がなく、積み付け作業を効率良く行うことができる。 FIG. 6 shows an example of displaying an object image in S40. In the example of FIG. 6, when the worker W of FIG. 1 performs a loading operation for loading a plurality of luggage B, which is the target luggage, into the container C, which is the target luggage compartment, the control unit 30 is set to 1. The state of displaying the object image 100 which shows the item | target baggage is shown. In the example of FIG. 6, the object image 100 is displayed on the display unit 14 in a manner of being superimposed on the innermost position of the container C when viewed from the worker W. Further, in addition to the object image 100, character information (identification information, weight, remarks, etc.) 110 related to the first target baggage is also displayed. By looking at the display unit 14 of FIG. 6, the worker W can know that the first target baggage should be placed at the innermost position of the container C as viewed from himself / herself. Further, the worker W can also know the direction of the baggage (that is, the direction seen from himself / herself) when arranging the target baggage by looking at the object image 100 displayed on the display unit 14. If the worker W arranges the first target baggage so as to overlap the object image 100 while looking at the object image 100 displayed on the display unit 14, the arrangement position and arrangement indicated by the arrangement information calculated in advance The first target baggage can be appropriately arranged according to the order. The worker W does not have to think about the arrangement position and arrangement order of the luggage with respect to the container C by himself / herself, and can efficiently perform the loading work.

続くS42では、制御部30は、この時点で、表示中のオブジェクト画像が示す位置に荷物が配置されたか否かを判断する。具体的には、S42では、制御部30は、カメラ16から現在撮影しているカメラ画像を取得し、取得されたカメラ画像に基づいて、表示中のオブジェクト画像が示す位置(即ち、N個目の対象荷物が配置されるべき位置として配置情報において指定された位置)に、何らかの荷物が配置されたか否かを判断する。この時点で、カメラ画像が、表示中のオブジェクト画像が示す位置に何らかの荷物(以下では、「配置荷物」と呼ぶ場合がある)が配置されていることを表わしている場合には、制御部30は、S42でYESと判断し、S44に進む。一方、この時点で、カメラ画像が、表示中のオブジェクト画像が示す位置に何も配置されていないことを表わしている場合には、制御部30は、S42でNOと判断し、S38に戻り、現時点の空間情報(即ち最新の空間情報)を取得する。この場合、制御部30は、S42でYESと判断するまで、S38〜S42の各処理を繰り返し実行する。 In the following S42, the control unit 30 determines at this point whether or not the luggage is arranged at the position indicated by the displayed object image. Specifically, in S42, the control unit 30 acquires a camera image currently being captured from the camera 16, and based on the acquired camera image, the position indicated by the displayed object image (that is, the Nth position). It is determined whether or not some kind of luggage has been placed at the position specified in the placement information as the position where the target luggage should be placed. At this point, if the camera image indicates that some kind of luggage (hereinafter, may be referred to as "placed luggage") is placed at the position indicated by the displayed object image, the control unit 30 Determines YES in S42 and proceeds to S44. On the other hand, at this point, if the camera image indicates that nothing is arranged at the position indicated by the displayed object image, the control unit 30 determines NO in S42 and returns to S38. Acquire the current spatial information (that is, the latest spatial information). In this case, the control unit 30 repeatedly executes each of the processes S38 to S42 until it determines YES in S42.

S44では、制御部30は、オブジェクト画像が示す位置に、N個目の対象荷物が正しく配置されているか否かを判断する。具体的には、S44では、まず制御部30は、S42でYESと判断された時点のカメラ画像を分析し、配置荷物がN個目の対象荷物であるか否かを判断する。詳しく言うと、制御部30は、配置荷物の外面に予め付されたラベルに印字されている識別情報を識別し、対象荷物の識別情報と比較し、両者が一致する場合に、配置荷物がN個目の対象荷物であると判断する。他の例では、配置荷物がN個目の対象荷物であるか否かは、他の手法によって判断されてもよい。例えば、制御部30は、配置荷物の外形や色等に基づいて、配置荷物がN個目の対象荷物であるか否かを判断してもよい。制御部30は、配置荷物がN個目の対象荷物であると判断した場合に、続いて、その配置荷物(即ちN個目の対象荷物)が正しい向きで配置されているか否かを判断する。詳しく言うと、制御部30は、カメラ画像をさらに分析し、カメラ画像中の配置荷物の向きが、配置情報が指定するN個目の対象荷物の向きに適合するか否かを判断する。制御部30は、カメラ画像中の配置荷物(即ちN個目の対象荷物)の向きが、配置情報が指定するN個目の対象荷物の向きに適合すると判断する場合に、S44でYESと判断し、S48に進む。一方、制御部30は、配置荷物がN個目の対象荷物でないと判断した場合、又は、配置荷物がN個目の対象荷物であったが、配置荷物の向きが、配置情報が指定するN個目の対象荷物の向きに適合していないと判断する場合、S44でNOと判断し、S46に進む。 In S44, the control unit 30 determines whether or not the Nth target baggage is correctly arranged at the position indicated by the object image. Specifically, in S44, the control unit 30 first analyzes the camera image at the time when YES is determined in S42, and determines whether or not the arranged baggage is the Nth target baggage. More specifically, the control unit 30 identifies the identification information printed on the label attached in advance on the outer surface of the arranged luggage, compares it with the identification information of the target luggage, and if both match, the arranged luggage is N. Judged as the first target baggage. In another example, whether or not the placed baggage is the Nth target baggage may be determined by another method. For example, the control unit 30 may determine whether or not the arranged baggage is the Nth target baggage based on the outer shape and color of the arranged baggage. When the control unit 30 determines that the arranged luggage is the Nth target luggage, it subsequently determines whether or not the arranged luggage (that is, the Nth target luggage) is arranged in the correct direction. .. More specifically, the control unit 30 further analyzes the camera image and determines whether or not the orientation of the arranged luggage in the camera image matches the orientation of the Nth target luggage specified by the arrangement information. When the control unit 30 determines that the orientation of the placed luggage (that is, the Nth target luggage) in the camera image matches the orientation of the Nth target luggage specified by the placement information, the control unit 30 determines YES in S44. Then proceed to S48. On the other hand, when the control unit 30 determines that the arranged baggage is not the Nth target baggage, or the arranged baggage is the Nth target baggage, the orientation of the arranged baggage is N specified by the arrangement information. If it is determined that the orientation of the target baggage does not match, it is determined as NO in S44, and the process proceeds to S46.

S46では、制御部30は、エラー動作を行う。具体的には、制御部30は、表示部14にエラーメッセージ(例えば「荷物の種類が異なっています」「荷物の向きが正しくありません」の文字、及び、エラーを示すアイコン等)を表示させるとともに、スピーカ19に報知音を出力させる。S46でエラー動作が行われることにより、作業員は、配置した荷物が正しく配置されなかったことを適切に認識することができる。配置情報が示す配置とは異なった配置で各荷物が配置される事態を適切に抑制することができる。S46でエラー動作を行うと、制御部30は、S38に戻る。 In S46, the control unit 30 performs an error operation. Specifically, the control unit 30 displays an error message (for example, "the type of luggage is different", "the orientation of the luggage is incorrect", an icon indicating an error, etc.) on the display unit 14 and displays the error message. , The speaker 19 is made to output a notification sound. Since the error operation is performed in S46, the worker can appropriately recognize that the arranged luggage has not been arranged correctly. It is possible to appropriately suppress the situation where each baggage is arranged in an arrangement different from the arrangement indicated by the arrangement information. When an error operation is performed in S46, the control unit 30 returns to S38.

一方、S48では、制御部30は、配置情報で配置位置を指定されているすべての対象荷物が配置されたか否かを判断する。この時点ですべての対象荷物の配置が完了している場合、制御部30は、S48でYESと判断し、S52に進む。一方、すべての対象荷物の配置が完了していない場合には、制御部30は、S48でNOと判断し、S50に進む。 On the other hand, in S48, the control unit 30 determines whether or not all the target packages whose placement positions are specified in the placement information have been placed. If all the target packages have been arranged at this point, the control unit 30 determines YES in S48 and proceeds to S52. On the other hand, when the arrangement of all the target packages is not completed, the control unit 30 determines NO in S48 and proceeds to S50.

S50では、制御部30は、Nの値を1インクリメントする。次いで、制御部30は、S38に戻り、この時点の空間情報(即ち最新の空間情報)を取得する。続くS40では、制御部30は、S50でインクリメントされた後のNの値に従って、N個目の対象荷物を示すオブジェクト画像を表示部14に表示させる。 In S50, the control unit 30 increments the value of N by 1. Next, the control unit 30 returns to S38 and acquires the spatial information (that is, the latest spatial information) at this time. In the following S40, the control unit 30 causes the display unit 14 to display an object image showing the Nth target baggage according to the value of N after being incremented in S50.

2回目のS40におけるオブジェクト画像の表示例を図7に示す。図7は、上記の図6のオブジェクト画像100が表示された後の2回目のS40において表示されるオブジェクト画像200の表示例である。図7の例では、コンテナCの最も奥側の位置には、1個目の対象荷物B1(即ち、図6のオブジェクト画像100に対応する対象荷物)が既に配置されている。図7の例では、オブジェクト画像200は、作業員から見て、コンテナCの最も奥側の位置であって、既に配置されている対象荷物B1上の位置に重畳される態様で表示部14に表示される。また、オブジェクト画像200に加えて、1個目の対象荷物に関係する文字情報(識別情報、重量、備考など)210が併せて表示される。図7の表示部14を見ることにより、作業員Wは、先に配置した1個目の対象荷物上に2個目の対象荷物を積載して配置すべきことを知ることができる。また、作業員Wは、表示部14に表示されているオブジェクト画像200を見れば、2個目の対象荷物を配置する際における荷物の向き(即ち自分から見た向き)も知ることができる。作業員Wは、表示部14に表示されているオブジェクト画像200を見ながら、オブジェクト画像200に重なるように2個目の対象荷物を配置すれば、予め計算された配置情報が示す配置位置及び配置順序に従って2個目の対象荷物を適切に配置することができる。作業員は、コンテナCに対する荷物の配置位置及び配置順序を自分で考える必要がなく、積み付け作業を効率良く行うことができる。 FIG. 7 shows an example of displaying the object image in S40 for the second time. FIG. 7 is a display example of the object image 200 displayed in the second S40 after the object image 100 of FIG. 6 is displayed. In the example of FIG. 7, the first target baggage B1 (that is, the target baggage corresponding to the object image 100 of FIG. 6) is already arranged at the innermost position of the container C. In the example of FIG. 7, the object image 200 is placed on the display unit 14 at the innermost position of the container C when viewed from the worker, and is superimposed on the position on the target luggage B1 already arranged. Is displayed. Further, in addition to the object image 200, character information (identification information, weight, remarks, etc.) 210 related to the first target baggage is also displayed. By looking at the display unit 14 of FIG. 7, the worker W can know that the second target baggage should be loaded and arranged on the first target baggage arranged earlier. In addition, the worker W can also know the orientation of the luggage (that is, the orientation as seen from himself / herself) when arranging the second target luggage by looking at the object image 200 displayed on the display unit 14. If the worker W arranges the second target baggage so as to overlap the object image 200 while looking at the object image 200 displayed on the display unit 14, the arrangement position and arrangement indicated by the arrangement information calculated in advance The second target baggage can be arranged appropriately according to the order. The worker does not have to think about the arrangement position and arrangement order of the luggage with respect to the container C by himself / herself, and can efficiently perform the loading work.

S52では、制御部30は、サーバ50に完了通知を送信する。完了通知は、対象荷室の識別情報と、積み付け作業が完了したことを示す情報と、を含む。S52を終えると、制御部30は、図5の積み付け制御処理を終了する。 In S52, the control unit 30 transmits a completion notification to the server 50. The completion notification includes identification information of the target luggage compartment and information indicating that the loading work has been completed. After finishing S52, the control unit 30 ends the loading control process of FIG.

サーバ50の制御部60は、画像表示装置10から完了通知(S52)を受信すると、メモリ62の配置情報記憶領域64内の対象配置情報に所定の完了情報を対応付けて記憶させる。 When the control unit 60 of the server 50 receives the completion notification (S52) from the image display device 10, it stores the target arrangement information in the arrangement information storage area 64 of the memory 62 in association with the predetermined completion information.

以上、本実施例の管理システム2の構成及び動作について説明した。上記の通り、本実施例では、制御部30は、空間情報と配置情報とに基づいて、N個目の対象荷物を示すオブジェクト画像を、N個目の対象荷物の対象荷室における配置位置として計算された位置に、現実の対象荷室に重畳される態様で表示させる(図5のS40、図6、図7参照)。そのため、現実の荷室への荷物の積み付け作業を行う作業者が、現実の荷室に重畳される態様で表示された一以上のオブジェクト画像を見ることにより、現実の荷室に対する荷物の配置を具体的に想像しやすくなる。従って、本実施例の管理システム2によると、作業者に現実の荷室に対する荷物の配置を具体的に把握させ、積み付け作業の効率化を図ることができる。 The configuration and operation of the management system 2 of this embodiment have been described above. As described above, in the present embodiment, the control unit 30 uses the object image showing the Nth target baggage as the placement position in the target luggage compartment of the Nth target baggage based on the spatial information and the placement information. It is displayed at the calculated position so as to be superimposed on the actual target luggage compartment (see S40, FIG. 6 and FIG. 7 in FIG. 5). Therefore, a worker who loads luggage into the actual luggage compartment can arrange the luggage with respect to the actual luggage compartment by looking at one or more object images displayed in a manner superimposed on the actual luggage compartment. It becomes easier to imagine concretely. Therefore, according to the management system 2 of the present embodiment, it is possible to make the worker concretely grasp the arrangement of the luggage with respect to the actual luggage compartment and improve the efficiency of the loading work.

特に、本実施例では、制御部30は、カメラ16が撮影するカメラ画像に基づいて取得される空間情報を利用して、現実の荷室の特徴点を把握した上で、荷室に重畳される態様でオブジェクト画像を表示部14に表示させる。即ち、本実施例では、制御部30は、作業員の目線に合わせた態様でオブジェクト画像を表示させることができる。作業員がより具体的に荷物の配置を把握することができる。 In particular, in the present embodiment, the control unit 30 uses the spatial information acquired based on the camera image taken by the camera 16 to grasp the feature points of the actual luggage compartment and then superimposes the luggage compartment on the luggage compartment. The object image is displayed on the display unit 14 in this manner. That is, in this embodiment, the control unit 30 can display the object image in a manner that matches the line of sight of the worker. Workers can more specifically grasp the arrangement of luggage.

また、本実施例では、制御部30は、N個目の対象荷物を示すオブジェクト画像を表示部14に表示させた後で(図5のS40)、オブジェクト画像が示す位置に、N個目の対象荷物が正しく配置されているか否かを判断し(S42、S44)、オブジェクト画像が示す位置に、N個目の対象荷物が正しく配置されていると判断する場合(S42及びS44でYES)に、N+1個目の対象荷物を示すオブジェクト画像を表示する(次回のS40)。そのため、特に、図6、図7の例のように、作業員Wは、表示部14に表示されているオブジェクト画像100(200)を見ながら、オブジェクト画像100(200)に重なるように対象荷物を配置すれば、予め計算された配置情報が示す配置位置及び配置順序に従って対象荷物を適切に配置することができる。このように、作業員は、荷室に対する荷物の配置及び各荷物の配置順序を自分で考える必要がなく、積み付け作業を効率良く行うことができる。 Further, in the present embodiment, the control unit 30 displays the Nth object image indicating the target baggage on the display unit 14 (S40 in FIG. 5), and then at the position indicated by the object image, the Nth object image is displayed. When it is determined whether or not the target baggage is correctly arranged (S42, S44) and it is determined that the Nth target baggage is correctly arranged at the position indicated by the object image (YES in S42 and S44). , N + 1 Displays an object image showing the target baggage (next S40). Therefore, in particular, as in the examples of FIGS. 6 and 7, the worker W looks at the object image 100 (200) displayed on the display unit 14 and overlaps the object image 100 (200) with the target baggage. If the above is arranged, the target luggage can be appropriately arranged according to the arrangement position and the arrangement order indicated by the arrangement information calculated in advance. In this way, the worker does not have to think about the arrangement of the luggage in the luggage compartment and the arrangement order of each luggage by himself / herself, and can efficiently perform the loading work.

また、本実施例では、制御部30は、N個目の対象荷物を示すオブジェクト画像を表示部14に表示させた後で(図5のS40)、オブジェクト画像が示す位置に、N個目の対象荷物が正しく配置されていないと判断する場合に(S44でNO)、N+1個目の対象荷物を示すオブジェクト画像を表示することなく、エラー動作を行う(S46)。エラー動作が行われることにより、作業員は、配置した荷物が正しく配置されなかったことを適切に認識することができる。配置情報が示す配置とは異なった配置で各荷物が配置される事態を適切に抑制することができる。 Further, in the present embodiment, the control unit 30 displays the Nth object image indicating the target baggage on the display unit 14 (S40 in FIG. 5), and then at the position indicated by the object image, the Nth object image is displayed. When it is determined that the target baggage is not arranged correctly (NO in S44), an error operation is performed without displaying the object image showing the N + 1th target baggage (S46). By performing the error operation, the worker can properly recognize that the placed luggage was not placed correctly. It is possible to appropriately suppress the situation where each baggage is arranged in an arrangement different from the arrangement indicated by the arrangement information.

また、本実施例では、管理システム2は、画像表示装置10とサーバ50とを備える。サーバ50の制御部60は配置情報を生成してメモリ62に記憶させる。制御部30はサーバ50から配置情報を受信する。画像表示装置10の制御部30は、空間情報と配置情報とに基づいてオブジェクト画像を表示させる。即ち、本実施例では、画像表示装置10のメモリ32には配置情報を予め記憶させておく必要はない。 Further, in this embodiment, the management system 2 includes an image display device 10 and a server 50. The control unit 60 of the server 50 generates placement information and stores it in the memory 62. The control unit 30 receives the arrangement information from the server 50. The control unit 30 of the image display device 10 displays an object image based on the spatial information and the arrangement information. That is, in this embodiment, it is not necessary to store the arrangement information in advance in the memory 32 of the image display device 10.

また、本実施例では、制御部30は、すべての対象荷物の配置が完了すると(図4のS48でYES)、サーバ50に完了通知を送信する(S52)。従って、サーバ50の利用者(例えば作業員の管理者)が、対象荷室における積み付け作業が完了したことを把握し得る。 Further, in the present embodiment, when the arrangement of all the target packages is completed (YES in S48 of FIG. 4), the control unit 30 transmits a completion notification to the server 50 (S52). Therefore, the user of the server 50 (for example, the manager of the worker) can know that the loading work in the target luggage compartment has been completed.

また、本実施例では、画像表示装置10は、ユーザ(作業員W)の頭部に装着可能なフレーム12を備えるヘッドマウントディスプレイである。ユーザがフレーム12を装着すると、表示部14(即ち右表示部14R及び左表示部14L)は、ユーザの右眼及び左眼に対向する位置に配置される。そのため、本実施例では、作業員(即ちユーザ)は、画像表示装置10を頭部に装着した状態で、表示部14に表示されるオブジェクト画像を見ながら、両手を使って積み付け作業を行うことができる。この場合、表示部14には、作業員の視界内の現実の荷室に重畳された態様でオブジェクト画像が表示されるため(図6、図7参照)、作業員は、自身の目線から見た荷室における各荷物の配置を適切に把握することができる。 Further, in this embodiment, the image display device 10 is a head-mounted display including a frame 12 that can be attached to the head of a user (worker W). When the user wears the frame 12, the display unit 14 (that is, the right display unit 14R and the left display unit 14L) is arranged at a position facing the user's right eye and left eye. Therefore, in the present embodiment, the worker (that is, the user) performs the loading work using both hands while looking at the object image displayed on the display unit 14 with the image display device 10 attached to the head. be able to. In this case, since the object image is displayed on the display unit 14 in a manner superimposed on the actual luggage compartment in the worker's field of view (see FIGS. 6 and 7), the worker sees from his / her own eyes. It is possible to properly grasp the arrangement of each luggage in the luggage compartment.

本実施例と請求の範囲の対応関係を説明しておく。管理システム2が「情報処理装置」の一例である。画像表示装置10が「端末装置」の一例である。カメラ16が「空間情報測定部」の一例である。図6のオブジェクト画像100、図7のオブジェクト画像200が、それぞれ「第1のオブジェクト画像」「第2のオブジェクト画像」の一例である。
図4のS42及びS44でYESの場合が「第1の場合」の一例である。S44でNOの場合が「第2の場合」の一例である。スピーカ19及び表示部14が「報知部」の一例である。S46のエラー動作が「報知動作」の一例である。
The correspondence between this embodiment and the claims will be described. The management system 2 is an example of an "information processing device". The image display device 10 is an example of a “terminal device”. The camera 16 is an example of a “spatial information measuring unit”. The object image 100 of FIG. 6 and the object image 200 of FIG. 7 are examples of the “first object image” and the “second object image”, respectively.
The case of YES in S42 and S44 of FIG. 4 is an example of the “first case”. The case of NO in S44 is an example of the "second case". The speaker 19 and the display unit 14 are examples of the “notification unit”. The error operation of S46 is an example of the "notification operation".

以上、実施例を詳細に説明したが、これらは例示に過ぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。 Although the examples have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications and modifications of the specific examples illustrated above. For example, the following modification may be adopted.

(変形例1)上記の実施例では、画像表示装置10の制御部30は、N個目の対象荷物を示すオブジェクト画像を表示部14に表示させた後で(図5のS40)、オブジェクト画像が示す位置に、N個目の対象荷物が正しく配置されているか否かを判断し(S42、S44)、オブジェクト画像が示す位置に、N個目の対象荷物が正しく配置されていると判断する場合(S42及びS44でYES)に、N+1個目の対象荷物を示すオブジェクト画像を表示する(次回のS40)。これに限られず、制御部30は、複数のオブジェクト画像のうちの2以上のオブジェクト画像を同時に表示させるようにしてもよい。 (Modification 1) In the above embodiment, the control unit 30 of the image display device 10 displays the object image indicating the Nth target baggage on the display unit 14 (S40 in FIG. 5), and then the object image. It is determined whether or not the Nth target baggage is correctly arranged at the position indicated by (S42, S44), and it is determined that the Nth target baggage is correctly arranged at the position indicated by the object image. In the case (YES in S42 and S44), an object image showing the N + 1th target baggage is displayed (next S40). Not limited to this, the control unit 30 may display two or more object images out of a plurality of object images at the same time.

(変形例2)作業員が行う積み付け作業に関係する配置情報を、画像表示装置10のメモリ32に予め記憶させておくようにしてもよい。その場合、制御部30は、サーバ50に対象荷室の識別情報を送信し、サーバ50から配置情報を受信する処理(図4のS30〜S34)を省略する。制御部30は、メモリ32に予め記憶された配置情報と、空間情報と、に基づいて、各オブジェクト画像を表示部14に表示させてもよい。本変形例では、画像表示装置10が「情報処理装置」の一例である。 (Modification 2) Arrangement information related to the loading work performed by the worker may be stored in advance in the memory 32 of the image display device 10. In that case, the control unit 30 omits the process of transmitting the identification information of the target luggage compartment to the server 50 and receiving the arrangement information from the server 50 (S30 to S34 in FIG. 4). The control unit 30 may display each object image on the display unit 14 based on the arrangement information and the spatial information stored in advance in the memory 32. In this modification, the image display device 10 is an example of an “information processing device”.

(変形例3)上記の実施例では、サーバ50の制御部60が、シミュレーション処理(図4)を実行する。これに限られず、画像表示装置10の制御部30が、シミュレーション処理(図4)を実行してもよい。その場合、制御部30は、生成された配置情報を、画像表示装置10のメモリ32に記憶させてもよい。 (Modification 3) In the above embodiment, the control unit 60 of the server 50 executes the simulation process (FIG. 4). Not limited to this, the control unit 30 of the image display device 10 may execute the simulation process (FIG. 4). In that case, the control unit 30 may store the generated arrangement information in the memory 32 of the image display device 10.

(変形例4)上記の実施例では、画像表示装置10の表示部14は、透光性のディスプレイである。これに限られず、画像表示装置10の表示部は遮光性のディスプレイであって、ユーザが画像表示装置10を装着した際にユーザの視界を遮るものであってもよい。その場合、制御部30は、カメラ16で撮影されるカメラ画像(即ち、ユーザの視界範囲に対応する画像)を表示部に表示させてもよい。また、積み付け制御処理(図5参照)では、制御部30は、表示部に表示されるカメラ画像にオブジェクト画像を重畳させて表示させるようにしてもよい。 (Modification 4) In the above embodiment, the display unit 14 of the image display device 10 is a translucent display. Not limited to this, the display unit of the image display device 10 may be a light-shielding display, which may block the user's field of view when the user wears the image display device 10. In that case, the control unit 30 may display the camera image taken by the camera 16 (that is, the image corresponding to the user's field of view) on the display unit. Further, in the stacking control process (see FIG. 5), the control unit 30 may superimpose the object image on the camera image displayed on the display unit and display the object image.

(変形例5)上記の実施例では、制御部30は、カメラ16が撮影するカメラ画像に基づいて空間情報を取得する(図4のS38)。これに限られず、制御部30は、カメラ画像以外の情報から空間情報を取得するようにしてもよい。例えば、画像表示装置10が、ユーザの視界範囲内の各物品を検出可能な赤外線センサをさらに備えていてもよい。その場合、制御部30は、赤外線センサの検出結果に基づいて空間情報を取得するようにしてもよい。 (Modification 5) In the above embodiment, the control unit 30 acquires spatial information based on the camera image captured by the camera 16 (S38 in FIG. 4). Not limited to this, the control unit 30 may acquire spatial information from information other than the camera image. For example, the image display device 10 may further include an infrared sensor capable of detecting each article within the user's field of view. In that case, the control unit 30 may acquire spatial information based on the detection result of the infrared sensor.

(変形例6)上記の実施例では、制御部30は、すべての対象荷物の配置が完了すると(図4のS48でYES)、サーバ50に完了通知を送信する(S52)。これに限られず、制御部30は、完了通知をサーバ50に送信しなくてもよい。 (Modification 6) In the above embodiment, when the arrangement of all the target packages is completed (YES in S48 of FIG. 4), the control unit 30 transmits a completion notification to the server 50 (S52). Not limited to this, the control unit 30 does not have to send the completion notification to the server 50.

(変形例7)上記の各実施例では、画像表示装置10は、略眼鏡状のフレームを有しており、眼鏡を装着するようにユーザの頭部に装着可能なものである。これに限られず、画像表示装置は、ユーザの頭部に装着可能であれば、帽子状、ヘルメット状等、任意の支持枠を有していてもよい。 (Modification 7) In each of the above embodiments, the image display device 10 has a substantially spectacle-shaped frame, and can be worn on the user's head as if wearing spectacles. Not limited to this, the image display device may have an arbitrary support frame such as a hat shape or a helmet shape as long as it can be worn on the user's head.

(変形例8)画像表示装置は、視力矯正、目の保護等の用途のために一般的に使用されているアイウェア(眼鏡、サングラス等)に、カメラ及びコントロールボックス等を装着することによって形成されてもよい。その場合、アイウェアのレンズ部分が表示部として利用されてもよい。 (Modification 8) The image display device is formed by attaching a camera, a control box, etc. to eyewear (glasses, sunglasses, etc.) generally used for applications such as vision correction and eye protection. May be done. In that case, the lens portion of the eyewear may be used as a display unit.

(変形例9)上記の実施例では、画像表示装置10は、右カメラ16と左カメラ16の2個のカメラを有するが、カメラの数は1個であってもよい。また、画像表示装置10は、右表示部14Rと左表示部14Lとのうちの一方のみを有していてもよい。 (Modification 9) In the above embodiment, the image display device 10 has two cameras, a right camera 16 and a left camera 16, but the number of cameras may be one. Further, the image display device 10 may have only one of the right display unit 14R and the left display unit 14L.

(変形例10)画像表示装置は、ユーザの頭部に装着可能なものに限られず、任意の形態のものであってもよい。例えば、画像表示装置は、ユーザが携帯可能な携帯端末であってもよい。 (Modification 10) The image display device is not limited to the one that can be worn on the user's head, and may be of any form. For example, the image display device may be a mobile terminal that can be carried by the user.

(変形例11)上記の各実施例では、オブジェクト画像100、200(図6、図7)はいずれも静止画像として表示されている。これに限られず、オブジェクト画像は動画(即ち、少なくとも一部がアニメーション動作する画像)として表示されてもよい。 (Modification 11) In each of the above embodiments, the object images 100 and 200 (FIGS. 6 and 7) are all displayed as still images. Not limited to this, the object image may be displayed as a moving image (that is, an image at least partially animated).

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 In addition, the technical elements described in the present specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the techniques illustrated in the present specification or drawings achieve a plurality of objectives at the same time, and achieving one of the objectives itself has technical usefulness.

Claims (7)

空間情報測定部と、
表示部と、
制御部と、を備える情報処理装置であって、
前記制御部は、
前記空間情報測定部によって測定される空間情報であって、荷室の寸法及び向きを含む前記空間情報を取得する第1の取得部と、
配置情報を取得する第2の取得部であって、前記配置情報は、前記荷室に関係する荷室情報と、前記荷室に積載されるべき一以上の荷物のそれぞれについての荷物情報であって、当該荷物の寸法と重量の少なくとも一方を含む前記荷物情報と、に基づいて、前記一以上の荷物のそれぞれの前記荷室における配置を計算した結果である、前記第2の取得部と、
取得済みの前記空間情報と、取得済みの前記配置情報と、に基づいて、前記一以上の荷物のそれぞれを示す一以上のオブジェクト画像を前記表示部に表示させる表示制御部であって、前記一以上のオブジェクト画像のそれぞれは、対応する荷物を仮想的に表した仮想画像であり、当該オブジェクト画像が示す荷物の前記荷室における配置位置として計算された位置に、現実の前記荷室に重畳される態様で表示される、前記表示制御部と、を備える、
情報処理装置。
Spatial information measurement unit and
Display and
An information processing device equipped with a control unit.
The control unit
The first acquisition unit that acquires the spatial information including the dimensions and orientation of the luggage compartment, which is the spatial information measured by the spatial information measurement unit,
A second acquisition unit for acquiring arrangement information, the arrangement information is luggage information related to the luggage compartment and luggage information for each of one or more luggage to be loaded in the luggage compartment. The second acquisition unit, which is the result of calculating the arrangement of each of the one or more packages in the luggage compartment based on the luggage information including at least one of the dimensions and the weight of the luggage.
A display control unit for displaying one or more object images indicating each of the one or more packages on the display unit based on the acquired spatial information and the acquired arrangement information. Each of the above object images is a virtual image that virtually represents the corresponding luggage, and is superimposed on the actual luggage compartment at the position calculated as the arrangement position of the luggage indicated by the object image in the luggage compartment. The display control unit, which is displayed in the above mode, is provided.
Information processing device.
前記表示制御部は、
前記荷室内において第1の荷物の後に第2の荷物が配置されるべき状況において、前記第1の荷物を示す第1のオブジェクト画像を前記表示部に表示させ、
前記第1のオブジェクト画像が前記表示部に表示されている間に、前記第1のオブジェクト画像が示す位置に前記第1の荷物が正しく配置された第1の場合に、前記第2の荷物を示す第2のオブジェクト画像を前記表示部に表示させる、
請求項1に記載の情報処理装置。
The display control unit
In a situation where a second luggage should be placed after the first luggage in the luggage compartment, a first object image showing the first luggage is displayed on the display unit.
In the first case where the first luggage is correctly arranged at the position indicated by the first object image while the first object image is displayed on the display unit, the second luggage is placed. The second object image to be shown is displayed on the display unit.
The information processing device according to claim 1.
前記表示制御部は、
前記第1のオブジェクト画像が前記表示部に表示されている間に、前記第1のオブジェクト画像が示す位置に前記第1の荷物が正しく配置されていない第2の場合に、前記第2のオブジェクト画像を前記表示部に表示させない、
請求項2に記載の情報処理装置。
The display control unit
In the second case where the first baggage is not correctly arranged at the position indicated by the first object image while the first object image is displayed on the display unit, the second object. Do not display the image on the display unit,
The information processing device according to claim 2.
報知部をさらに備え、
前記制御部は、さらに、
前記第2の場合に、報知部に報知動作を実行させる、報知制御部を備える、
請求項3に記載の情報処理装置。
Equipped with a notification unit
The control unit further
In the second case, the notification control unit is provided so that the notification unit executes the notification operation.
The information processing device according to claim 3.
前記情報処理装置は、端末装置と、前記端末装置と通信可能なサーバと、を含み、
前記端末装置は、前記空間情報測定部と、前記表示部と、端末制御部と、を備え、
前記端末制御部は、前記第1の取得部と、前記第2の取得部と、前記表示制御部と、を備え、
前記第2の取得部は、前記サーバから前記配置情報を受信することによって、前記配置情報を取得し、
前記サーバは、記憶装置と、サーバ制御部と、を備え、
前記記憶装置は、前記配置情報を記憶し、
前記サーバは、前記端末装置に、前記記憶装置内の前記配置情報を送信する、情報送信部を備える、
請求項1から4のいずれか一項に記載の情報処理装置。
The information processing device includes a terminal device and a server capable of communicating with the terminal device.
The terminal device includes the spatial information measuring unit, the display unit, and a terminal control unit.
The terminal control unit includes the first acquisition unit, the second acquisition unit, and the display control unit.
The second acquisition unit acquires the arrangement information by receiving the arrangement information from the server, and obtains the arrangement information.
The server includes a storage device and a server control unit.
The storage device stores the arrangement information and
The server includes an information transmission unit that transmits the arrangement information in the storage device to the terminal device.
The information processing device according to any one of claims 1 to 4.
前記端末制御部は、さらに、
前記一以上のオブジェクト画像に対応する前記一以上の荷物の配置が完了した場合に、完了通知をサーバに送信する通知部を備える、
請求項5に記載の情報処理装置。
The terminal control unit further
A notification unit for transmitting a completion notification to the server when the arrangement of the one or more packages corresponding to the one or more object images is completed is provided.
The information processing device according to claim 5.
前記端末装置は、さらに、ユーザの頭部に装着可能なフレームを備え、
前記表示部は、前記フレームに搭載され、前記フレームを装着した前記ユーザの右眼と左眼の少なくとも一方に対向する位置に配置される表示装置を含む、
請求項5又は6に記載の情報処理装置。
The terminal device further comprises a frame that can be worn on the user's head.
The display unit includes a display device mounted on the frame and arranged at a position facing at least one of the right eye and the left eye of the user who wears the frame.
The information processing device according to claim 5 or 6.
JP2018553537A 2016-11-29 2016-11-29 Information processing device Active JP6817643B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/085386 WO2018100631A1 (en) 2016-11-29 2016-11-29 Information processing apparatus

Publications (2)

Publication Number Publication Date
JPWO2018100631A1 JPWO2018100631A1 (en) 2019-10-17
JP6817643B2 true JP6817643B2 (en) 2021-01-20

Family

ID=62241294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018553537A Active JP6817643B2 (en) 2016-11-29 2016-11-29 Information processing device

Country Status (2)

Country Link
JP (1) JP6817643B2 (en)
WO (1) WO2018100631A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7328784B2 (en) * 2019-04-12 2023-08-17 日野自動車株式会社 loading assistance system
CN114132763B (en) * 2021-12-20 2024-04-05 深圳友邦物联科技有限公司 Automatic loading method and system for three-dimensional container

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0881023A (en) * 1994-09-14 1996-03-26 Toshiba Corp Storage control device for arrival parts
JP4502759B2 (en) * 2004-09-16 2010-07-14 中国電力株式会社 POSITION INFORMATION MANAGEMENT DEVICE, POSITION SPECIFIC INFORMATION GENERATION DEVICE, POSITION INFORMATION MANAGEMENT METHOD, AND POSITION INFORMATION MANAGEMENT PROGRAM
JP2014149576A (en) * 2013-01-31 2014-08-21 Seiko Epson Corp Product location specifying system and head-mounted terminal
JP6245975B2 (en) * 2013-12-25 2017-12-13 トーヨーカネツソリューションズ株式会社 Article storage auxiliary device and system using AR / VR

Also Published As

Publication number Publication date
WO2018100631A1 (en) 2018-06-07
JPWO2018100631A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
US11557134B2 (en) Methods and systems for training an object detection algorithm using synthetic images
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
CN107408314B (en) Mixed reality system
US9264702B2 (en) Automatic calibration of scene camera for optical see-through head mounted display
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US11372249B2 (en) Information processing device and information processing method
WO2017047367A1 (en) Computer program for line-of-sight guidance
US11011074B2 (en) Information processing system, information processor, information processing method and program
US10115235B2 (en) Method for controlling head mounted display, and system for implemeting the method
US9538131B2 (en) Remote behavior navigation system and processing method thereof
JP2019083033A (en) Method, system and device for navigating in virtual reality environment
US20180130227A1 (en) Computer program and head-mounted display device
US10277814B2 (en) Display control method and system for executing the display control method
JP6399692B2 (en) Head mounted display, image display method and program
JP2016188123A (en) Picking system
CN111290580B (en) Calibration method based on sight tracking and related device
CN112368746A (en) Information processing apparatus, information processing method, and program
JP6817643B2 (en) Information processing device
US9478068B2 (en) Computer-readable medium, image processing device, image processing system, and image processing method
WO2017122270A1 (en) Image display device
US11137600B2 (en) Display device, display control method, and display system
JP2014071757A (en) Work assistance system and program
US11353704B2 (en) Head mounted device (HMD) coupled to smartphone executing personal authentication of a user
US20220130116A1 (en) Registration of local content between first and second augmented reality viewers
JP2018151742A (en) Information display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201218

R150 Certificate of patent or registration of utility model

Ref document number: 6817643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250