JP2019083522A - Information processing apparatus, control method thereof, and program - Google Patents

Information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2019083522A
JP2019083522A JP2018204645A JP2018204645A JP2019083522A JP 2019083522 A JP2019083522 A JP 2019083522A JP 2018204645 A JP2018204645 A JP 2018204645A JP 2018204645 A JP2018204645 A JP 2018204645A JP 2019083522 A JP2019083522 A JP 2019083522A
Authority
JP
Japan
Prior art keywords
package
image data
destination
imaging
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018204645A
Other languages
Japanese (ja)
Other versions
JP2019083522A5 (en
JP7323757B2 (en
Inventor
泰 重田
Yasushi Shigeta
泰 重田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Publication of JP2019083522A publication Critical patent/JP2019083522A/en
Publication of JP2019083522A5 publication Critical patent/JP2019083522A5/ja
Application granted granted Critical
Publication of JP7323757B2 publication Critical patent/JP7323757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a mechanism capable of improving the work efficiency in a movement work of luggage.SOLUTION: An image analysis server 103 that is an information processing apparatus capable of communicating with a network camera 101 that is an imaging apparatus for imaging a package to be moved acquires image data from the imaging apparatus 101, identifies the movement destination of the package that appears in the image data by using the acquired image data, and generates a screen capable of identifying the movement destination of the identified package.SELECTED DRAWING: Figure 10

Description

本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関し、特に、荷物の移動作業における、業務効率を向上させることが可能な仕組みに関する。   The present invention relates to an information processing apparatus, a control method of the information processing apparatus, and a program, and more particularly, to a mechanism capable of improving the work efficiency in a luggage transfer operation.

工場のある場所に集荷された荷物を出荷するために、フォークリフトで各出荷先に荷物を配送する配送車のところまで運ぶという業務がある。   In order to ship the picked up cargo to the place where the factory is located, there is a task of transporting it to the delivery car which delivers the goods to each shipping destination with a forklift.

特表2014−535092号公報Japanese Patent Publication No. 2014-535092 gazette

各配送車の配送先に積むべき荷物を確認するために、フォークリフトから降りて、荷物に貼られたラベルを目視して荷物の配送先を確認いるが、毎回フォークリフトから降りる必要があるため効率性が悪く、また、乗降時に転倒したり、荷物のところまで行く途中で、他のフォークリフトにぶつかったりする可能性があり安全性に欠けるという課題があった。そのため、フォークリフトから降りずに出荷先を確認する方法が求められている。   In order to confirm the package that should be loaded on the delivery destination of each delivery vehicle, we get off the forklift and visually check the label attached to the package to confirm the delivery destination of the package, but it is necessary to get off from the forklift every time In addition, there is a problem that it may fall over at the time of getting on and off or may collide with other forklifts on the way to the place of the luggage, and there is a lack of safety. Therefore, there is a need for a method of confirming the shipping destination without getting off the forklift.

ところで、荷物にはラベルが張り付けられていて、このラベルに含まれるQRコード(QRコードは登録商標)内に配送先データが格納されている場合がある。そのため、ネットワークカメラでQRコードを読み取り、出荷先を特定できれば、運転手は毎回フォークリフトを降りて出荷先を目視する手間を省くことができる。   By the way, a label may be attached to the package, and delivery destination data may be stored in the QR code (QR code is a registered trademark) included in the label. Therefore, if it is possible to read the QR code with the network camera and specify the shipping destination, the driver can save time and effort every time taking down the forklift and visually checking the shipping destination.

上記特許文献1には、カメラ画像の中にある複数のQRコードを読み取るために、読み取ったQRコードの周辺画像を解析して次のQRコードを探す手段が記載されているが、特許文献1に記載の技術を用いた場合、荷物ごとにQRコードを探すことになるため、荷物の数が多い場合に、出荷先の特定に時間がかかり、ユーザにとって利便性の悪いものになる恐れがあった。   Although the said patent document 1 analyzes the peripheral image of the read QR code, and reads the following QR code in order to read several QR code in a camera image, it is described. When using the technology described in, the QR code will be searched for each package, so if the number of packages is large, it will take time to specify the shipping destination, which may be inconvenient for the user. The

また、上記特許文献1は、あくまで読み取ったQRコードの情報を表示することが開示されているにすぎず、特許文献1に記載の技術を用いたとしても、QRコードから読み取った配送先がディスプレイ上に表示されるだけで、表示されている配送先に対応する荷物がどれなのかは依然として運転手は分からない恐れがあった。   Further, Patent Document 1 only discloses displaying information of the read QR code to the last, and even if the technology described in Patent Document 1 is used, the delivery destination read from the QR code is a display. Only displayed on the top, the driver may still not know which package corresponds to the displayed shipping destination.

本発明の目的は、荷物の移動作業における、業務効率を向上させることが可能な仕組みを提供することである。   An object of the present invention is to provide a mechanism capable of improving the work efficiency in a luggage transfer operation.

本発明は、移動対象の荷物を撮像する撮像装置と通信可能な情報処理装置であって、前記撮像装置から、画像データを取得する取得手段と、前記取得手段で取得した画像データを用いて当該画像データに映る荷物の移動先を特定する特定手段と、前記特定手段で特定した荷物の移動先を識別可能な画面を生成する生成手段とを備えることを特徴とする。   The present invention is an information processing apparatus capable of communicating with an imaging device for imaging a package to be moved, and using an acquisition unit for acquiring image data from the imaging device and the image data acquired by the acquisition unit. It is characterized by comprising: specification means for specifying the movement destination of the package shown in the image data; and generation means for generating a screen capable of identifying the movement destination of the package specified by the specification unit.

また、本発明は、移動対象の荷物を撮像する撮像装置と通信可能な情報処理装置の制御方法であって、前記撮像装置から、画像データを取得する取得工程と、前記取得工程で取得した画像データを用いて当該画像データに映る荷物の移動先を特定する特定工程と、前記特定工程で特定した荷物の移動先を識別可能な画面を生成する生成工程とを備えることを特徴とする。   Further, the present invention is a control method of an information processing apparatus capable of communicating with an imaging device for imaging a package to be moved, and an acquisition step of acquiring image data from the imaging device, and an image acquired in the acquisition step It is characterized by comprising: a specifying step of specifying a moving destination of a package shown in the image data using the data; and a generating step of generating a screen capable of identifying the moving destination of the package specified in the specifying step.

また、本発明は、移動対象の荷物を撮像する撮像手段と、前記撮像手段で前記荷物を撮像することで得られる画像データを用いて当該画像データに映る荷物の移動先を特定する特定手段と、前記特定手段で特定した荷物の移動先を識別可能な画面を生成する生成手段とを備えることを特徴とする。   Further, according to the present invention, an image pickup means for picking up an object to be moved, and a specifying means for specifying a movement destination of the baggage shown in the image data using image data obtained by picking up the object with the image pickup means And generating means for generating a screen capable of identifying the destination of the package specified by the specifying means.

また、本発明は、移動対象の荷物を撮像する撮像工程と、前記撮像工程で前記荷物を撮像することで得られる画像データを用いて当該画像データに映る荷物の移動先を特定する特定工程と、前記特定工程で特定した荷物の移動先を識別可能な画面を生成する生成工程とを備えることを特徴とする。   The present invention also includes an imaging step of imaging a package to be moved, and a specifying step of identifying a moving destination of a package shown in the image data using image data obtained by imaging the package in the imaging step. And a generation step of generating a screen capable of identifying the destination of the package identified in the identification step.

本発明によれば、荷物の移動作業における、業務効率を向上させることができる。   According to the present invention, it is possible to improve the work efficiency in the load transfer operation.

本発明のネットワークカメラシステムの構成の一例を示すシステム構成図。FIG. 1 is a system configuration diagram showing an example of the configuration of a network camera system of the present invention. 画像解析サーバ103に適用可能な情報処理装置のハードウェア構成の一例を示す図。FIG. 2 is a block diagram showing an example of the hardware arrangement of an information processing apparatus applicable to the image analysis server 103; 画像表示端末105のハードウェア構成の一例を示す図。FIG. 2 is a diagram showing an example of a hardware configuration of an image display terminal 105. 本発明の出荷先表示処理の流れを示すフローチャートの一例を示す図。The figure which shows an example of the flowchart which shows the flow of the shipping destination display process of this invention. 図4のステップ402の処理の詳細を示すフローチャートの一例を示す図。FIG. 5 is a diagram showing an example of a flowchart showing details of processing of step 402 of FIG. 4; 配送先表示画面の一例を示す図。The figure which shows an example of a delivery destination display screen. 配送先表示画面の一例を示す図。The figure which shows an example of a delivery destination display screen. 配送先データベースの一例を示す図。The figure which shows an example of a delivery destination database. 集積場所画像データの分割のイメージを示す図。The figure which shows the image of division | segmentation of accumulation location image data. 図4のステップ402の処理の詳細を示すフローチャートの一例を示す図。FIG. 5 is a diagram showing an example of a flowchart showing details of processing of step 402 of FIG. 4; 集荷場所画像データの中からパレットを検索するイメージを示す図。The figure which shows the image which searches a pallet out of collection place image data. 配送先表示画面の一例を示す図。The figure which shows an example of a delivery destination display screen. 配送可能な配送車を提示する処理の流れを示すフローチャートの一例を示す図。A figure showing an example of a flow chart which shows a flow of processing which presents a delivery possible delivery truck. 配送車データベースの一例を示す図。The figure which shows an example of a delivery vehicle database. 配送先表示画面の一例を示す図。The figure which shows an example of a delivery destination display screen. 配送先表示画面の一例を示す図。The figure which shows an example of a delivery destination display screen. 配送先表示画面の一例を示す図。The figure which shows an example of a delivery destination display screen. 図4のステップ402の処理の詳細を示すフローチャートの一例を示す図。FIG. 5 is a diagram showing an example of a flowchart showing details of processing of step 402 of FIG. 4; 図4のステップ402の処理の詳細を示すフローチャートの一例を示す図。FIG. 5 is a diagram showing an example of a flowchart showing details of processing of step 402 of FIG. 4; 配送先特定テーブルの一例を示す図。The figure which shows an example of a delivery destination identification table. ネットワークカメラ101のハードウェアの構成を示す構成図。FIG. 2 is a block diagram showing a hardware configuration of the network camera 101.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明のネットワークカメラシステムの構成の一例を示すシステム構成図である。本ネットワークカメラシステムは、1又は複数のネットワークカメラ101、POE HUB102、画像解析サーバ103、無線LANルータ104、画像表示端末105を含む、各機器はネットワーク106により接続されている。   FIG. 1 is a system configuration diagram showing an example of the configuration of a network camera system according to the present invention. The network camera system includes one or more network cameras 101, a POE HUB 102, an image analysis server 103, a wireless LAN router 104, and an image display terminal 105. The respective devices are connected by a network 106.

ネットワークカメラ101は、例えば、倉庫や工場等で、荷物を載せるための荷役台である「パレット」が置かれる場所(集荷場所)を撮影可能な位置に設けられている。ネットワークカメラ101は、本発明における、撮像装置の一例である。   The network camera 101 is provided, for example, in a warehouse, a factory, or the like, at a position where it can photograph a place (collection place) where a “pallet”, which is a cargo handling platform for loading luggage, is placed. The network camera 101 is an example of an imaging device in the present invention.

POE HUB(Power over Ethernet HUB)102は、ネットワークカメラ101に電力を供給して動作させる。   A POE HUB (Power over Ethernet HUB) 102 supplies power to the network camera 101 to operate.

画像解析サーバ103は、ネットワークカメラ101で撮影した画像データを取得し、取得した画像データを解析して、パレットに載っている荷物の配送先の特定等を行う。画像解析サーバ103は、本発明における、情報処理装置の一例である。   The image analysis server 103 acquires image data captured by the network camera 101, analyzes the acquired image data, and specifies a delivery destination of a package placed on a pallet. The image analysis server 103 is an example of the information processing apparatus in the present invention.

画像表示端末105は、フォークリフトを操縦する作業員等が持ち歩くか、フォークリフトに備え付けられる装置である。   The image display terminal 105 is a device carried by a worker or the like who maneuvers a forklift or attached to the forklift.

画像表示端末105は、無線LANルータ104を介してネットワーク106に接続し、画像解析サーバ103により、各荷物の配送先が重畳された集荷場所画像データを表示部306に表示する。   The image display terminal 105 is connected to the network 106 via the wireless LAN router 104, and the image analysis server 103 displays on the display unit 306 the collection location image data on which the delivery destinations of the respective packages are superimposed.

作業員は、画像表示端末105の表示部306に表示された集荷場所画像データを閲覧することで、各荷物の配送先を特定し、特定した配送先に荷物を配送する配送車の所までフォークリフトで荷物を移動させる。   The worker identifies the delivery destination of each package by browsing the collection location image data displayed on the display unit 306 of the image display terminal 105, and lifts the forklift to the location of the delivery vehicle which delivers the package to the identified delivery destination. Move the package at

なお、本実施形態では、荷物の側面にラベルが貼られており、またラベルにはQRコード(QRコードは登録商標)と、荷物の配送先を一意に識別するための配送先コードが印字されている。なお、他の実施形態として、QRコードに限らずバーコード(1次元コードともいう)であっても、カラーバーコードであっても良い。以上で、図1の説明を終了する。   In the present embodiment, a label is attached to the side of the package, and a QR code (QR code is a registered trademark) and a delivery destination code for uniquely identifying the delivery destination of the package are printed on the label. ing. Note that as another embodiment, not only the QR code but also a bar code (also referred to as a one-dimensional code) or a color bar code may be used. This is the end of the description of FIG.

次に、図2を用いて、図1に示した画像解析サーバ103に適用可能な情報処理装置のハードウェア構成の一例について説明する。   Next, an example of the hardware configuration of the information processing apparatus applicable to the image analysis server 103 shown in FIG. 1 will be described using FIG. 2.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 2, reference numeral 201 denotes a CPU, which centrally controls devices and controllers connected to the system bus 204. Further, the ROM 202 or the external memory 211 may be a BIOS (Basic Input / Output System) which is a control program of the CPU 201, an operating system program (hereinafter referred to as an OS), and various kinds of later described necessary for realizing functions executed by the PC. Programs and the like are stored.

203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 203 functions as a main memory, a work area, and the like of the CPU 201. The CPU 201 loads programs necessary for execution of processing from the ROM 202 or the external memory 211 to the RAM 203, and implements various operations by executing the loaded programs.

また、205は入力コントローラで、キーボード(KB)209等のポインティングデバイス等からの入力を制御する。206はビデオコントローラで、ディスプレイ210(液晶、ブラウン管を問わない)等の表示器への表示を制御する。   An input controller 205 controls an input from a pointing device such as a keyboard (KB) 209 or the like. Reference numeral 206 denotes a video controller which controls display on a display such as a display 210 (whether liquid crystal or CRT).

207はメモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。   A memory controller 207 is an external storage device (hard disk (HD)) for storing a boot program, various applications, font data, user files, editing files, various data, etc., a flexible disk (FD), or a PCMCIA card slot. It controls access to external memory 211 such as Compact Flash (registered trademark) memory connected via an adapter.

208は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 208 connects and communicates with an external device via a network, and executes communication control processing in the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display 210 by executing, for example, outline font rasterization processing on a display information area in the RAM 203. In addition, the CPU 201 enables user instruction with a mouse cursor (not shown) or the like on the display 210.

本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ211に格納されており、これらについての詳細な説明も後述する。以上で、図2の説明を終了する。   Various programs to be described later for realizing the present invention are stored in the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. Furthermore, setting files and the like used at the time of execution of the program are also stored in the external memory 211, and a detailed description of these will be described later. This is the end of the description of FIG.

次に、図3を参照して、図1の画像表示端末105のハードウェア構成の一例について説明する。   Next, an example of the hardware configuration of the image display terminal 105 of FIG. 1 will be described with reference to FIG.

図3において、301はCPUで、システムバス310に接続される後述する各種のデバイスを統括的に制御する。ROM303や外部メモリ309には、CPU301の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステム(OS)や、画像表示端末105が実行する機能を実現するために必要な各種プログラムやデータ等が記憶されている。   Referring to FIG. 3, reference numeral 301 denotes a CPU, which centrally controls various devices to be described later connected to the system bus 310. In the ROM 303 and the external memory 309, a BIOS (Basic Input / Output System) which is a control program of the CPU 301, an operating system (OS), various programs and data required to realize functions executed by the image display terminal 105, etc. Is stored.

302はRAMで、CPU301の主メモリ、ワークエリア等として機能する。CPU301は、後述する各種の処理の実行に際して必要なプログラム等をROM303や外部メモリ309からRAM302にロードして、ロードしたプログラムを実行することで、各種の動作を実現する。   A RAM 302 functions as a main memory, a work area, and the like of the CPU 301. The CPU 301 loads programs necessary for execution of various processes described later from the ROM 303 and the external memory 309 into the RAM 302 and executes the loaded programs to realize various operations.

撮影部304は、撮影レンズ、撮像素子、撮像素子で得られた画像信号を所定の形式に変換する回路等からなる。通信部305は、通信ネットワーク(例えば、図1のネットワーク106)を介して画像解析サーバ103等の外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   The photographing unit 304 includes a photographing lens, an imaging device, a circuit for converting an image signal obtained by the imaging device into a predetermined format, and the like. The communication unit 305 is for connecting and communicating with an external device such as the image analysis server 103 via a communication network (for example, the network 106 in FIG. 1), and executes communication control processing in the network. For example, communication using TCP / IP is possible.

表示部306は、液晶ディスプレイ等からなり、CPU301が、例えばRAM302内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、表示部306への表示を可能としている。   The display unit 306 is formed of a liquid crystal display or the like, and the CPU 301 enables display on the display unit 306, for example, by executing an outline font rasterization process on a display information area in the RAM 302.

操作部307はCPU301に対して各種の指示を入力するためのものであり、各種のボタンや表示部306に貼られているタッチパネルシートからなる。表示部306に表示されているシステムの操作画面に対する押下指示を受け付けると、押されるとその位置情報を操作部307はCPU301に伝える。   An operation unit 307 is used to input various instructions to the CPU 301, and includes various buttons and a touch panel sheet attached to the display unit 306. When a pressing instruction on the operation screen of the system displayed on the display unit 306 is received, the operation unit 307 transmits the position information to the CPU 301 when pressed.

音声入力部308は、マイク等から構成され、入力された音声を音声信号に変換する。外部メモリ309は、画像表示端末105が後述するフローチャート示す各ステップの処理を実行するためのプログラムやデータを記憶する記憶装置である。   The voice input unit 308 includes a microphone or the like, and converts the input voice into a voice signal. The external memory 309 is a storage device that stores programs and data for the image display terminal 105 to execute the processing of each step shown in the flowchart described later.

本発明を実現するための各種プログラムは外部メモリ309に記録されており、必要に応じてRAM302にロードされることにより、CPU301によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ309に格納されており、これらについての詳細な説明も後述する。   Various programs for realizing the present invention are stored in the external memory 309, and are executed by the CPU 301 by being loaded into the RAM 302 as necessary. Furthermore, setting files and the like used at the time of execution of the program are also stored in the external memory 309, and the detailed description thereof will be described later.

以上が、図1の画像表示端末105のハードウェア構成の一例の説明である。   The above is the description of an example of the hardware configuration of the image display terminal 105 of FIG.

次に、図21を用いて、図1に示したネットワークカメラ101(情報処理装置)のハードウェア構成の一例について説明する。   Next, an example of the hardware configuration of the network camera 101 (information processing apparatus) illustrated in FIG. 1 will be described with reference to FIG.

図21は、ネットワークカメラ101のハードウェアの構成を示す構成図である。   FIG. 21 is a block diagram showing the hardware configuration of the network camera 101. As shown in FIG.

CPU2101は、システムバス2104に接続される各デバイスやコントローラを統括的に制御する。また、ROM2102あるいは外部メモリ2105には、CPU2101の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像処理サーバ108の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM2103は、CPU2101の主メモリ、ワークエリア等として機能する。   The CPU 2101 centrally controls the devices and controllers connected to the system bus 2104. Further, the ROM 2102 or the external memory 2105 is required to realize a function that is executed by the image processing server 108 such as a BIOS (Basic Input / Output System) which is a control program of the CPU 2101 and an operating system program (OS). Various programs to be described later are stored. A RAM 2103 functions as a main memory, a work area, and the like of the CPU 2101.

CPU2101は、処理の実行に際して必要なプログラム等をRAM2103にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 2101 loads various programs and the like necessary for execution of processing into the RAM 2103 and executes various programs to realize various operations.

メモリコントローラ(MC)2106は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ、画像データ等を記憶するハードディスク(HD)やPCMCIAカードスロットにアダプタを介して接続されるスマートメディア(登録商標)等の外部メモリ2105へのアクセスを制御する。   A memory controller (MC) 2106 is a smart connected via an adapter to a hard disk (HD) that stores a boot program, various applications, font data, user files, editing files, various data, image data, etc. It controls access to the external memory 2105 such as media (registered trademark).

カメラ部2107は、画像処理部2108と接続されており、監視対象に対して向けられたレンズを透過して得られた光をCCDやCMOS等の受光セルによって光電変換を行った後、RGB信号や補色信号を画像処理部2108に対して出力する。   The camera unit 2107 is connected to the image processing unit 2108, and photoelectrically converts light obtained by transmitting light through a lens directed to a monitoring target by a light receiving cell such as a CCD or CMOS, and then converts the light into an RGB signal. And a complementary color signal to the image processing unit 2108.

画像処理部2108は、RGB信号や捕色信号に基づいて、ホワイトバランス調整、ガンマ処理、シャープネス処理を行い、更に、YC信号処理を施して輝度信号Yとクロマ信号(以下、YC信号)を生成し、YC信号を所定の圧縮形式(例えばJPEGフォーマット、あるいはMotionJPEGフォーマット等)で圧縮し、この圧縮されたデータは、画像データとして外部メモリ2105へ一時保管される。   The image processing unit 2108 performs white balance adjustment, gamma processing, and sharpness processing based on the RGB signal and the color capture signal, and further performs YC signal processing to generate a luminance signal Y and a chroma signal (hereinafter, YC signal). The YC signal is compressed in a predetermined compression format (for example, JPEG format or Motion JPEG format etc.), and this compressed data is temporarily stored in the external memory 2105 as image data.

通信I/Fコントローラ(通信I/FC)2109は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行しており、外部メモリ2105に記憶された画像データは、通信I/Fコントローラ2109によって外部機器へ送信される。   A communication I / F controller (communication I / FC) 2109 connects and communicates with an external device via a network, executes communication control processing in the network, and stores the image stored in the external memory 2105. Data is transmitted to an external device by the communication I / F controller 2109.

次に、図4について説明する(本発明の第1の実施形態)。図4は、画像表示端末105が画像解析サーバ103から解析結果の画像データを受け取り、出荷先を表示した集荷場所画像データを表示する本発明の出荷先表示処理の流れを示すフローチャートの一例である。   Next, FIG. 4 will be described (first embodiment of the present invention). FIG. 4 is an example of a flowchart showing a flow of shipping destination display processing of the present invention in which the image display terminal 105 receives the image data of the analysis result from the image analysis server 103 and displays the collection location image data displaying the shipping destination. .

図4に示す各処理は、画像解析サーバ103のCPU201、または画像表示端末105のCPU301により実行される。   Each process shown in FIG. 4 is executed by the CPU 201 of the image analysis server 103 or the CPU 301 of the image display terminal 105.

ステップ401で、画像表示端末105は、表示部306に表示された配送先表示画面(図6)上で、出荷先表示ボタン(601)の選択をユーザから受け付けると、ステップ402で、画像解析サーバ103は、集荷場所のネットワークカメラ画像データの解析を行い、集荷場所画像データ内のパレットに配送先の配色をオーバレイした画像データを作成する。ステップ402の処理の詳細は、図5を用いて後ほど説明する。   When the image display terminal 105 receives the selection of the shipping destination display button (601) from the user on the delivery destination display screen (FIG. 6) displayed on the display unit 306 in step 401, the image analysis server in step 402. 103 analyzes the network camera image data of the collection location and creates image data in which the color scheme of the delivery destination is overlaid on the pallet in the collection location image data. Details of the process of step 402 will be described later with reference to FIG.

ここで、図6〜図8について説明する。図6は画像表示端末105の表示部306に表示される、QRコード解析前の配送先表示画面である。   Here, FIG. 6 to FIG. 8 will be described. FIG. 6 shows a delivery destination display screen before QR code analysis, which is displayed on the display unit 306 of the image display terminal 105.

出荷先表示ボタン601は、当該ボタンがユーザにより押下されることで、図7に示す通り、画像データ表示領域603に表示される画像データ中の各パレットの荷物に配送先の色がオーバレイされて表示(図7の701〜703)される。また、各配送先をどの色で表示するかは、図8の配送先データテーブルにより決定される。   As shown in FIG. 7, when the shipping destination display button 601 is pressed by the user, the color of the delivery destination is overlaid on the package of each pallet in the image data displayed in the image data display area 603. It is displayed (701 to 703 in FIG. 7). Further, it is determined by the delivery destination data table of FIG. 8 which color each delivery destination is to be displayed.

キャンセルボタン602は、配送先表示画面の表示を終了するためのボタンである。   The cancel button 602 is a button for ending the display of the delivery destination display screen.

画像データ表示領域603は、ネットワークカメラ101で撮影した画像データが表示される。   The image data display area 603 displays image data captured by the network camera 101.

604は、ネットワークカメラ101で撮影した画像データに映るパレットを示す。   Reference numeral 604 denotes a palette shown in image data captured by the network camera 101.

凡例605は、図7に示すように、画像データ表示領域603に表示される画像データ中の各パレットの荷物に配送先の色をオーバレイして表示するときに、各色が示す配送先がどこであるかを示す。   The legend 605, as shown in FIG. 7, shows the delivery destination indicated by each color when overlaying the color of the delivery destination on the package of each pallet in the image data displayed in the image data display area 603. Indicate

配送先コードの文字列606は、荷物側面に貼られたラベルに印字される、荷物の配送先を一意に識別するためのコードである。   The delivery code string 606 is a code for uniquely identifying the delivery destination of the package, which is printed on a label attached to the side of the package.

図7は、後述する図4のステップ404で、出荷先表示ボタン601がユーザにより押下されることで各パレットの荷物に配送先の色をオーバレイした状態の一例を示す図である。   FIG. 7 is a view showing an example of a state in which the color of the delivery destination is overlaid on the package of each pallet when the shipping destination display button 601 is pressed by the user in step 404 of FIG. 4 described later.

図8は、画像解析サーバ103の外部メモリ211で管理される配送先データテーブルの一例を示す図であり、QRコードに埋め込まれている配送先コードから、配送先と配送先を識別するための色を管理するデータテーブルである。   FIG. 8 is a view showing an example of a delivery destination data table managed by the external memory 211 of the image analysis server 103, and for identifying the delivery destination and the delivery destination from the delivery destination code embedded in the QR code. It is a data table that manages colors.

配送先コード801は、各配送先を一意に識別するためのコードであり、パレット上の荷物に張り付けられるQRコード(2次元コードともいう)に埋め込まれている情報である。配送先802はパレット上の荷物の配送先を示し、色803は、画像データ表示領域603に表示される画像データ中のパレットの荷物が、配送先802に示される配送先である場合に、何色をオーバレイするかを示す。   The delivery destination code 801 is a code for uniquely identifying each delivery destination, and is information embedded in a QR code (also referred to as a two-dimensional code) attached to a package on a pallet. The delivery destination 802 indicates the delivery destination of the package on the pallet, and the color 803 indicates what if the package of the pallet in the image data displayed in the image data display area 603 is the delivery destination shown in the delivery destination 802 Indicates whether to overlay the color.

QRコードは、本発明における識別情報の一例である。以上で、図6〜図8の説明を終了し、図4の説明に戻る。   The QR code is an example of identification information in the present invention. This is the end of the description of FIGS. 6 to 8 and returns to the description of FIG. 4.

画像解析サーバ103は、ステップ403で、画像表示端末105に対してステップ402で作成した画像データを送信し、ステップ404で、画像表示端末105は、受信した画像データを表示部306に表示する(図7)。以上で図4の説明を終了し、次に図5について説明する。   At step 403, the image analysis server 103 transmits the image data created at step 402 to the image display terminal 105, and at step 404, the image display terminal 105 displays the received image data on the display unit 306 (see FIG. Figure 7). This completes the description of FIG. 4 and then FIG. 5 will be described.

図5は、画像解析サーバ103が撮影した集荷場所画像データを解析し、パレット画像部分に配送先の配色をオーバレイする手順の一例を示すフローチャートであり、図4のステップ402の処理の詳細を示すフローチャートの一例を示す図である。   FIG. 5 is a flow chart showing an example of a procedure for analyzing the collection location image data taken by the image analysis server 103 and overlaying the color arrangement of the delivery destination on the pallet image portion, and shows the details of the process of step 402 in FIG. It is a figure which shows an example of a flowchart.

図5に示す各処理は、画像解析サーバ103のCPU201、またはネットワークカメラ101のCPUにより実行される。   Each process shown in FIG. 5 is executed by the CPU 201 of the image analysis server 103 or the CPU of the network camera 101.

ステップ501で画像解析サーバ103は、ネットワークカメラ101に集荷場所画像データをリクエストする。   In step 501, the image analysis server 103 requests the network camera 101 for pickup location image data.

ネットワークカメラ101は、画像解析サーバ103からのリクエストを受信し、ステップ502で、当該ネットワークカメラ101で撮影した集荷場所画像データを画像解析サーバ103に送信する。   The network camera 101 receives a request from the image analysis server 103, and transmits collection area image data captured by the network camera 101 to the image analysis server 103 in step 502.

ステップ503で、画像解析サーバ103は、集荷場所画像データを受信し、図9に示す通り、あらかじめ決められた数(横X、縦Y)で画像を分割する。図9は撮影した集荷場所画像データを横X、縦Yで分割した画面のイメージを表している。   In step 503, the image analysis server 103 receives the collection place image data, and divides the image into a predetermined number (horizontal X, vertical Y) as shown in FIG. FIG. 9 shows an image of a screen obtained by dividing the picked-up collection location image data by horizontal X and vertical Y.

ステップ503と、後述するステップ1003は、本発明における、撮像装置から、画像データを取得する取得手段の一例である。   Step 503 and step 1003 described later are an example of an acquisition unit for acquiring image data from the imaging apparatus according to the present invention.

ステップ504で、画像解析サーバ103は、x=1,y=1で変数を初期化し、ステップ505で、画像解析サーバ103は、分割した(x,y)の領域の集荷場所画像データの色分布を解析する。   In step 504, the image analysis server 103 initializes variables with x = 1, y = 1, and in step 505, the image analysis server 103 divides the color distribution of the collection location image data of the divided (x, y) region. Analyze

ステップ506で、画像解析サーバ103は、ステップ505の解析の結果、白と黒の割合が所定以上あるかどうかを判定し、所定以上あればステップ507に移行し、所定以上なければ次の領域の画像を解析するためにステップ516に移行する。ステップ506は、本発明における、取得手段で取得した画像データを解析し、識別情報を特定する特定手段の一例である。   In step 506, the image analysis server 103 determines whether the ratio of white and black is greater than or equal to a predetermined ratio as a result of analysis in step 505. If the ratio is greater than or equal to a predetermined ratio, the process proceeds to step 507. Transition to step 516 to analyze the image. Step 506 is an example of specifying means for analyzing the image data obtained by the obtaining means and specifying identification information in the present invention.

白と黒の割合が所定以上であった場合、ステップ507で、画像解析サーバ103は、QRコードを解析するためにネットワークカメラ101に(x,y)領域のズーム画像の送信命令を送る。ステップ507は、本発明における、前記特定手段で特定した識別情報をズームして撮像するように前記撮像装置に指示する指示手段の一例である。   If the ratio of white and black is greater than or equal to a predetermined value, in step 507, the image analysis server 103 sends a transmission instruction of a zoom image of the (x, y) area to the network camera 101 to analyze the QR code. Step 507 is an example of an instruction unit for instructing the image pickup apparatus to zoom and image the identification information specified by the specification unit in the present invention.

ステップ508で、ネットワークカメラ101は、画像解析サーバ103からの送信命令を受信し、(x,y)領域のズーム画像を画像解析サーバ103へ送る。   In step 508, the network camera 101 receives the transmission instruction from the image analysis server 103, and sends a zoom image of the (x, y) area to the image analysis server 103.

ステップ509で、画像解析サーバ103は(x,y)領域のズーム画像を受信し、ステップ510で受信したズーム画像の中にQRコードのファインダパターンがあるかどうかを判定する。   In step 509, the image analysis server 103 receives a zoom image of the (x, y) area, and determines in step 510 whether or not the zoom image received has a finder pattern of a QR code.

画像解析サーバ103は、ステップ510の判定によりQRコードのファインダパターンを検出できなかった場合はステップ516に処理を移行し、QRコードのファインダパターンを検出した場合は、ステップ511に処理を移行してQRコードの情報の読み取りを行う。   If the image analysis server 103 can not detect the finder pattern of the QR code in the determination of step 510, the process proceeds to step 516. If the finder pattern of the QR code is detected, the process proceeds to step 511. Read the QR code information.

ステップ512で、画像解析サーバ103は、QRコードの情報が読み取れたかどうかの判定を行い、読み取れた場合はステップ514でQRコードに含まれている配送先コードに紐づいた色を配送先データベース(図8)から取得して、ステップ515に移行する。   At step 512, the image analysis server 103 determines whether the information of the QR code has been read, and if read, the color of the delivery destination code included in the QR code at step 514 is sent to the delivery destination database (step 514) Obtained from FIG. 8), the process proceeds to step 515.

ステップ512でQRコードの情報が読み取れなかったと判定された場合、画像解析サーバ103は、ステップ513でQRコードの右上にある配送先コードの文字列(配送先コードの文字列606)をOCRで読み取り、ステップ515に移行する。   If it is determined in step 512 that the QR code information could not be read, the image analysis server 103 reads the character string of the delivery destination code (the delivery destination code string 606) in the upper right of the QR code in step 513 using OCR. , And move on to step 515.

なお、本実施例では、配送先コードはQRコードの右上にあるものとしたが、配送先コードがどの位置にあるかは、画像解析サーバ103にユーザが予め登録していれば、右上でなくとも良い。また、画像解析により、配送先コードを特定しても良い。   In the present embodiment, the delivery destination code is located at the upper right of the QR code, but it is not at the upper right if the user has registered the delivery destination code in advance in the image analysis server 103. It is good too. Further, the delivery destination code may be specified by image analysis.

ステップ515では、集荷場所画像データ中のQRコードを中心とした荷物のサイズに相当する矩形に配送先コードに紐づいた色をオーバレイ(図7)し、ステップ516へ移行する。なお、荷物のサイズは画像解析サーバであらかじめ記憶しても良いし、画像解析により、集荷場所画像中の荷物の領域を特定しても良い。   In step 515, the color linked to the delivery destination code is overlaid (FIG. 7) on a rectangle corresponding to the size of the package centering on the QR code in the collection location image data, and the process proceeds to step 516. The size of the package may be stored in advance by the image analysis server, or the region of the package in the collection location image may be specified by image analysis.

次にステップ506で白と黒の割合が所定以上でなかった場合の説明を行う。ステップ516では、画像解析サーバ103は、xが横分割数Xと同じかどうかを比較して、同じであればステップ518に移行し、同じでなければ次の領域の画像をチェックするためにステップ517でxをインクリメントしてステップ505に戻る。   Next, the case where the ratio of white to black is not equal to or more than a predetermined value in step 506 will be described. In step 516, the image analysis server 103 compares whether x is the same as the number of horizontal divisions X, and if it is the same, proceeds to step 518, otherwise checks the image of the next area At 517, x is incremented and the process returns to step 505.

ステップ518では、画像解析サーバ103は、yが縦分割数Yと同じかどうかを比較して、同じであれば全分割画像を解析したので処理を終了し、同じでなければ次の領域の画像をチェックするためにステップ519でyをインクリメントしてステップ505に戻る。   In step 518, the image analysis server 103 compares whether y is the same as the number of vertical divisions Y. If the numbers are the same, all the divided images are analyzed, so the processing is ended, and if not the image of the next area In step 519, y is incremented and the process returns to step 505.

なお、図5の処理を実行後に荷物が運ばれると、運ばれた荷物の後ろに置かれていた別の荷物が集荷場所画像データに新たに映ることもあるため、荷物が運ばれた場合、その荷物があった領域に対してのみステップ505〜ステップ519の処理を実行することで、再度集荷場所画像データ全体に対してステップ505〜ステップ519の処理を実行するよりも処理負荷を軽減することが可能となる。荷物が運ばれたか否かは、集荷場所画像データを解析することにより特定する。   If a package is transported after the process of FIG. 5 is carried out, another package placed behind the transported package may be newly reflected in the collection location image data. By performing the processing of step 505 to step 519 only on the area where the package was present, the processing load is reduced compared to the processing of step 505 to step 519 on the entire collection location image data again. Is possible. Whether or not the package has been transported is identified by analyzing the collection location image data.

以上で、図5の説明を終了し、次に、図10を用いて、図4のステップ402の処理の詳細を示すフローチャートの他の実施形態について説明する。   This is the end of the description of FIG. 5. Next, another embodiment of the flowchart showing the details of the process of step 402 of FIG. 4 will be described using FIG.

図10は図5のフローチャートと別技術で、撮影した集荷場所画像データを解析し、パレット画像部分に配送先の配色をオーバレイする手順の一例を示すフローチャートである。   FIG. 10 is a flowchart different from the flowchart of FIG. 5 and is a flowchart showing an example of the procedure of analyzing the photographed collection place image data and overlaying the color scheme of the delivery destination on the pallet image portion.

図5の処理では、パレットに載っている荷物一つ一つのQRコードの情報を読み取って、配送先の特定を荷物ごとに行っている。しかしながら、通常同一のパレットに載っている荷物は同一の配送先である。   In the process of FIG. 5, the information of the QR code of each package listed on the pallet is read, and the delivery destination is specified for each package. However, packages that are usually on the same pallet are the same delivery destination.

そのため、本実施形態では、まず集荷場所画像データからパレットを特定し、パレットに載っている荷物のうちの1つのQRコードの情報を読み取ることで、その荷物の配送先を特定するとともに、当該荷物と同じパレットに載っているその他の荷物も特定した配送先と同じ配送先として特定する。そうすることで、パレットに載っている荷物一つ一つのQRコードの情報を読み取って、配送先の特定を荷物ごとに行うよりも、解析時間を短縮することができる。では、ここから図10のフローチャートの各ステップについて説明する。   Therefore, in the present embodiment, the pallet is first identified from the collection location image data, and the information on the QR code of one of the packages on the pallet is read to specify the delivery destination of the package, and the package Also specify other packages listed on the same pallet as the same shipping destination as the specified shipping destination. By doing so, it is possible to shorten the analysis time rather than specifying the delivery destination for each package by reading the information of the QR code of each package on the pallet. Now, each step of the flowchart of FIG. 10 will be described from here.

なお、図10に示す各処理は、画像解析サーバ103のCPU201、またはネットワークカメラ101のCPUにより実行される。   Each process illustrated in FIG. 10 is executed by the CPU 201 of the image analysis server 103 or the CPU of the network camera 101.

ステップ1001で、画像解析サーバ103は、ネットワークカメラ101に集荷場所画像データをリクエストする。   At step 1001, the image analysis server 103 requests the network camera 101 for pickup location image data.

ステップ1002で、ネットワークカメラ101は、画像解析サーバ103からのリクエストを受信し、当該ネットワークカメラ101で撮影した集荷場所画像データを画像解析サーバ103に送信する。   In step 1002, the network camera 101 receives a request from the image analysis server 103, and transmits collection place image data captured by the network camera 101 to the image analysis server 103.

ステップ1003で、画像解析サーバ103は、ネットワークカメラ101から送信された集荷場所画像データを受信し、集荷場所画像データの中からパレット1102を検索する(図11)。パレットの検索には、既知の画像のパターンマッチング技術を用いる(例えば、予め荷台の画像データを画像解析サーバ103で管理し、当該パレットの画像データと特徴量が一致または所定以上類似するものを集荷場所画像データから検索する)。ステップ1003は、本発明における、取得手段で取得した画像データから台を特定する特定手段の一例である。   At step 1003, the image analysis server 103 receives the collection place image data transmitted from the network camera 101, and searches the pallet 1102 from the collection place image data (FIG. 11). A pattern matching technique of a known image is used to search for a pallet (for example, image data of a loading platform is managed by the image analysis server 103 in advance, and image data of the corresponding pallet and features that are identical or more than a predetermined amount are collected Search from location image data). Step 1003 is an example of specifying means for specifying a stand from the image data acquired by the acquiring means in the present invention.

画像解析サーバ103は、ステップ1004でパレットが見つからなかった場合は本処理を終了し、パレットが見つかった場合は、ステップ1005で画像解析サーバ103はパレット上部の所定の位置の「横x,縦yのサイズのQRコード解析画像領域(図11のQRコード解析画像領域1101)」のズーム画像送信命令をネットワークカメラ101に送信する。   The image analysis server 103 terminates this processing if the pallet is not found at step 1004, and if the pallet is found, the image analysis server 103 determines “horizontal x, vertical y at a predetermined position at the top of the pallet at step 1005. A zoom image transmission command of the size of the QR code analysis image area (QR code analysis image area 1101 in FIG. 11) of size is transmitted to the network camera 101.

本実施形態においては、「横x,縦yのサイズのQRコード解析画像領域」の所定の位置の情報は、ユーザが画像解析サーバ103にあらかじめ登録しておくものとする。   In the present embodiment, it is assumed that the information of the predetermined position of “the QR code analysis image area of the size of horizontal x, vertical y” is registered in the image analysis server 103 in advance.

ステップ1006で、ネットワークカメラ101は、画像解析サーバ103からの命令を受信し、QRコード解析画像領域1101をズームして撮影した画像データを画像解析サーバ103へ送る。   In step 1006, the network camera 101 receives an instruction from the image analysis server 103, zooms the QR code analysis image area 1101, and sends the image data captured to the image analysis server 103.

ステップ1007で、画像解析サーバ103は、QRコード解析画像領域1101をズームして撮影した画像データを受信し、ステップ1008で受信した画像データの中にQRコードのファインダパターンがあるかどうかを判定する。   In step 1007, the image analysis server 103 receives the image data captured by zooming the QR code analysis image area 1101 and determines whether or not the finder pattern of the QR code is present in the image data received in step 1008. .

画像解析サーバ103は、ステップ1008の判定でQRコードを検出できなかった場合はステップ1014に移行し、QRコードを検出した場合は、ステップ1009に移行してQRコードの情報を読み取る。   If the image analysis server 103 can not detect the QR code in the determination of step 1008, the process proceeds to step 1014. If the QR code is detected, the image analysis server 103 proceeds to step 1009 and reads the information of the QR code.

ステップ1010で、画像解析サーバ103は、QRコードの情報が読み取れたかどうかの判定を行い、読み取れた場合はステップ1012でQRコードに含まれている配送先コードに紐づいた色を配送先データベース(図8)から取得して、ステップ1013に移行する。   In step 1010, the image analysis server 103 determines whether the information of the QR code has been read, and if read, the color of the delivery destination code included in the QR code in step 1012 is transferred to the delivery destination database ( It acquires from FIG. 8), and it transfers to step 1013. FIG.

ステップ1010でQRコードが読み取れなかった場合は、ステップ1011でQRコードの右上にある配送先コードの文字列をOCRで読み取り、ステップ1013に移行する。   If the QR code can not be read at step 1010, the character string of the delivery destination code at the upper right of the QR code is read by OCR at step 1011, and the process proceeds to step 1013.

なお、本実施例では、配送先コードはQRコードの右上にあるものとしたが、配送先コードがどの位置にあるかは、画像解析サーバ103にユーザが予め登録していれば、右上でなくとも良い。また、画像解析により、配送先コードを特定しても良い。   In the present embodiment, the delivery destination code is located at the upper right of the QR code, but it is not at the upper right if the user has registered the delivery destination code in advance in the image analysis server 103. It is good too. Further, the delivery destination code may be specified by image analysis.

ステップ1013で、画像解析サーバ103は、集荷場所画像中のパレットに載っている全荷物に対して、配送先コードに紐づいた色をオーバレイ(図12)し、ステップ1014へ移行する。ステップ1013は、本発明における、前記特定手段で特定した前記台ごとに当該台上の荷物を識別表示した画面を生成する生成手段の一例である。   At step 1013, the image analysis server 103 overlays the color linked to the delivery destination code (FIG. 12) with respect to all packages on the pallet in the collection location image, and proceeds to step 1014. Step 1013 is an example of generating means for generating a screen in which the packages on the table are identified and displayed for each of the tables specified by the specifying means in the present invention.

ステップ1014で、画像解析サーバ103は、ステップ1002でネットワークカメラ101から送信された集荷場所画像データの中から、画像検索により次のパレットを検索する。   In step 1014, the image analysis server 103 searches the next pallet from the collection location image data transmitted from the network camera 101 in step 1002 by image search.

ステップ1015でパレットが見つからなかった場合は本処理を終了し、見つかった場合は次のパレットの配送先を解析するためにステップ1005に戻る。以上で、図10の説明を終了する。   If the pallet is not found at step 1015, the processing is terminated. If it is found, the process returns to step 1005 to analyze the delivery destination of the next pallet. This is the end of the description of FIG.

次に図13を用いて、本発明の実施形態における、配送可能な配送車を提示する処理の流れを示すフローチャートの一例について説明する。   Next, an example of a flowchart showing a flow of processing for presenting a deliverable delivery vehicle in the embodiment of the present invention will be described using FIG.

図13は、既知の車番認識技術(例えば、特開2007−293492号公報や、特開2013−251005号公報に記載の技術)を利用し、各配送先に荷物を運ぶ配送車が配送可能な状態かどうかをユーザに提示する方法を示すフローチャートの一例である。これにより配送可能なパレットから出荷することができるため、配送車の待機時間を短縮し、効率良い配送業務が可能となる。   FIG. 13 can deliver a delivery vehicle carrying a package to each delivery destination using known vehicle number recognition technology (for example, the techniques described in JP 2007-293492 A and JP 2013-251005 A) It is an example of the flowchart which shows the method of showing to a user whether it is a state. Since it can ship from the deliverable pallet by this, the waiting time of a delivery vehicle can be shortened and efficient delivery operation | work is attained.

ステップ1301で、画像解析サーバ103は、駐車場の入り口など配送車の帰車が分かる場所に設置されたネットワークカメラから画像データを取得する。ステップ1301は、本発明における、前記撮像装置から、荷物を配送先に運ぶ車両を撮像した画像データ(車両画像)を取得する取得手段(車両画像取得手段)の一例である。   In step 1301, the image analysis server 103 acquires image data from a network camera installed at a place such as an entrance of a parking lot where return of a delivery vehicle is known. Step 1301 is an example of acquisition means (vehicle image acquisition means) for acquiring image data (vehicle image) obtained by imaging a vehicle carrying a package to a delivery destination from the imaging device according to the present invention.

ステップ1302で、画像解析サーバ103は、ステップ1301で取得した画像データから、これから荷積を行う配送車のナンバーを読み取る。ステップ1302は、本発明における、取得手段で取得した画像データから、当該画像データに映る車両を識別可能な識別情報を特定する第1特定手段の一例である。   In step 1302, the image analysis server 103 reads the number of the delivery car to be loaded from the image data acquired in step 1301. Step 1302 is an example of a first identification unit that identifies identification information that can identify a vehicle shown in the image data from the image data acquired by the acquisition unit in the present invention.

ステップ1303で、画像解析サーバ103は、配送車データベース(図14)を参照して、読み取ったナンバーと、ナンバー1403が一致する行の配送先1402を取得し、ステップ1304で、当該配送先1402によって示される配送先の配送車が到着したことをユーザに認識させるべく、通知する。   In step 1303, the image analysis server 103 refers to the delivery car database (FIG. 14) to obtain the delivery destination 1402 of the line where the read number matches the number 1403. In step 1304, the delivery destination 1402 is selected. In order to make the user aware that the delivery vehicle of the indicated delivery destination has arrived.

ステップ1303は、本発明における、第1特定手段で特定した前記識別情報を用いて、前記車両の荷物の配送先を特定する第2特定手段の一例である。また、ステップ1304は、本発明における、第2特定手段で特定した配送先をユーザに認識させるべく、通知する通知手段の一例である。   Step 1303 is an example of a second specifying means for specifying the delivery destination of the package of the vehicle using the identification information specified by the first specifying means in the present invention. Step 1304 is an example of notification means for notifying the user of the delivery destination specified by the second specifying means in the present invention.

具体的には、例えば、図15に示す通り、配送先表示画面上で「配送車到着済み」1501を表示することで通知する。なお、複数の配送車が到着した場合には、到着した順番を示す番号がそのまま優先度として、配送先表示画面上に表示される。   Specifically, for example, as shown in FIG. 15, notification is made by displaying “delivery car arrived” 1501 on the delivery destination display screen. When a plurality of delivery vehicles arrive, the number indicating the arrival order is displayed as it is on the delivery destination display screen.

なお、図13の処理は、ステップ401より後の画像表示端末105に配送先表示画面を表示している間に実行される。   The process of FIG. 13 is executed while the delivery destination display screen is displayed on the image display terminal 105 after step 401.

図14は、画像解析サーバ103の外部メモリ211に記憶される配送車データベースの一例を示す図である。   FIG. 14 is a view showing an example of a delivery car database stored in the external memory 211 of the image analysis server 103. As shown in FIG.

配送先コード1401は、各配送車の配送先を一意に識別するためのコードである。   The delivery destination code 1401 is a code for uniquely identifying the delivery destination of each delivery vehicle.

配送先1402は、配送車が荷物を配送する配送先を示す。ナンバー1403は、配送車のナンバープレートに記載のナンバーを示す。以上で図14の説明を終了する。   The delivery destination 1402 indicates the delivery destination to which the delivery vehicle delivers the package. The number 1403 indicates the number described on the number plate of the delivery vehicle. This is the end of the description of FIG.

次に図16を用いて、配送先表示画面の他の実施形態について説明する。図16は、図4のステップ404において、画像表示端末105の表示部306に表示される配送先表示画面の一例を示す図である。   Next, another embodiment of the delivery destination display screen will be described with reference to FIG. FIG. 16 is a diagram showing an example of the delivery destination display screen displayed on the display unit 306 of the image display terminal 105 in step 404 of FIG.

パレット選択ボタン1601は、フォークリフトでパレットを運ぶ作業員が、配送先表示画面中の荷物の中からこれから運ぶ荷物をタッチ操作等により選択した後に押すボタンである。パレット選択ボタン1601が押下されると、その荷物の選択情報を画像解析サーバ103が取得・管理し、他の作業員の画像表示端末105の表示部306に対して、メッセージ1602に示すように、当該選択された荷物がすでに運ばれる予定であることを示すメッセージを含む配送先(移動先)表示画面を再度生成して表示する。これにより、例えば、複数のフォークリフトで荷物を運ぶ場合に、他の作業員に対して、選択済みの荷物を優先的に運ぶべきであることを認識させたり、逆に選択済みの荷物以外の荷物を運ぶべきであることを認識させたりすることが可能となる。以上で、図16の説明を終了する。   The pallet selection button 1601 is a button which is pushed by a worker who carries a pallet with a forklift after selecting a package to be carried from now on among the packages on the delivery destination display screen by a touch operation or the like. When the pallet selection button 1601 is pressed, the image analysis server 103 acquires and manages the selection information of the package, and the display unit 306 of the image display terminal 105 of the other worker is indicated by a message 1602 as follows: A delivery destination (move destination) display screen including a message indicating that the selected package is already transported is generated and displayed again. Thus, for example, when carrying a package with a plurality of forklifts, the other worker is made aware that the selected package should be carried preferentially, or conversely, a package other than the selected package It is possible to recognize that it should be carried. This is the end of the description of FIG.

次に、図17を用いて、配送先(移動先)表示画面の他の実施形態について説明する。図17は、図4のステップ404において、画像表示端末105の表示部306に表示される配送先表示画面の一例を示す図である。上述の配送先表示画面では、荷物を最終的に送る先を表示したが、図17の実施形態では、荷物の移動先をパレットの荷物にオーバレイして表示する。そうすることで、例えば、東京行きの荷物は、東京行きの配送車が到着するエリアAに移動させるといった運用の場合に、東京行きの荷物であるというだけでは、どのエリアに荷物を移動させれば良いのかが分からないといった課題を解消することが可能となる。   Next, another embodiment of the delivery destination (moving destination) display screen will be described with reference to FIG. FIG. 17 is a view showing an example of the delivery destination display screen displayed on the display unit 306 of the image display terminal 105 in step 404 of FIG. Although the destination display screen described above displays the destination to which the package is finally sent, in the embodiment of FIG. 17, the destination of the package is displayed overlaid on the package of the pallet. By doing so, for example, in the case of an operation such as moving a package bound for Tokyo to area A where a delivery vehicle bound for Tokyo arrives, it is possible to move the package to any area simply by saying that it is a package bound for Tokyo. It is possible to solve the problem of not knowing what to do.

次に図18、図19を用いて、本発明の第2の実施形態について説明する。第2の実施形態では、図4、図5、図10、図13のフローチャートにおいて、画像解析サーバ103が実行していた処理をネットワークカメラ101が実行する。また、第1の実施形態において画像解析サーバ103の外部メモリ211で記憶する各データテーブルは、ネットワークカメラ101の外部メモリ2105で記憶するものとする。そのため、第2の実施形態におけるネットワークカメラシステムでは、画像解析サーバ103は必須の構成ではない。   Next, a second embodiment of the present invention will be described using FIG. 18 and FIG. In the second embodiment, in the flowcharts of FIGS. 4, 5, 10, and 13, the network camera 101 executes the processing that the image analysis server 103 has executed. Also, each data table stored in the external memory 211 of the image analysis server 103 in the first embodiment is stored in the external memory 2105 of the network camera 101. Therefore, in the network camera system in the second embodiment, the image analysis server 103 is not an essential component.

第2の実施形態では、まず、第1の実施形態同様、図4の処理を実行する。なお、上述のとおり、ステップ402、およびステップ403の処理はネットワークカメラ101が実行する。ただし、ステップ402の処理の詳細は、図5ではなく、図18、または図19である。   In the second embodiment, first, the process of FIG. 4 is executed as in the first embodiment. Note that, as described above, the processes of step 402 and step 403 are executed by the network camera 101. However, the details of the process of step 402 are not FIG. 5 but FIG. 18 or FIG.

では、ここから図18、図19について説明する。   Now, FIG. 18 and FIG. 19 will be described from here.

図18は、ネットワークカメラ101が撮影した集荷場所画像データを、当該ネットワークカメラ101が解析し、パレット画像部分に配送先の配色をオーバレイする手順の一例を示すフローチャートであり、図4のステップ402の処理の詳細を示すフローチャートの一例を示す図である。   FIG. 18 is a flow chart showing an example of the procedure of analyzing the collection location image data captured by the network camera 101 and overlaying the color scheme of the delivery destination on the pallet image portion by the network camera 101. It is a figure which shows an example of the flowchart which shows the detail of a process.

図18に示す各処理は、ネットワークカメラ101のCPU2101により実行される。なお、図5のフローチャートにおいて画像解析サーバ103が実行する処理を、ネットワークカメラ101が実行する以外は、図5のフローチャートと同様の処理であるため、簡潔に説明する。   Each process shown in FIG. 18 is executed by the CPU 2101 of the network camera 101. Note that the process performed by the image analysis server 103 in the flowchart of FIG. 5 is the same as that of the flowchart of FIG. 5 except that the process is performed by the network camera 101.

ステップ1801で、ネットワークカメラ101は、出荷先表示ボタン(601)が選択された旨の情報を画像表示端末105から受信し、ステップ1802で、当該ネットワークカメラ101で集荷場所画像データを撮影する。   In step 1801, the network camera 101 receives, from the image display terminal 105, information indicating that the shipping destination display button (601) is selected, and in step 1802, the network camera 101 captures pickup location image data.

ステップ1802と、後述するステップ1902は、本発明における、移動対象の荷物を撮像する撮像手段の一例である。   Step 1802 and step 1902 to be described later are an example of an imaging unit for imaging a package to be moved in the present invention.

ステップ1803で、ネットワークカメラ101は、集荷場所画像データを、図9に示す通り、あらかじめ決められた数(横X、縦Y)で画像を分割する。   In step S1803, the network camera 101 divides the image of the collection location image data into a predetermined number (horizontal X, vertical Y) as shown in FIG.

ステップ1804で、ネットワークカメラ101は、x=1,y=1で変数を初期化し、ステップ1805で、ネットワークカメラ101は、分割した(x,y)の領域の集荷場所画像データの色分布を解析する。   In step 1804, the network camera 101 initializes variables with x = 1, y = 1, and in step 1805, the network camera 101 analyzes the color distribution of the collection location image data of the divided (x, y) area Do.

ステップ1806で、ネットワークカメラ101は、ステップ1805の解析の結果、白と黒の割合が所定以上あるかどうかを判定し、所定以上あればステップ1807に移行し、所定以上なければ次の領域の画像を解析するためにステップ1814に移行する。   In step 1806, the network camera 101 determines whether the ratio of white and black is greater than or equal to a predetermined ratio as a result of the analysis in step 1805. If the ratio is greater than or equal to predetermined, the process proceeds to step 1807; Go to step 1814 to analyze the

白と黒の割合が所定以上であった場合、ステップ1807で、ネットワークカメラ101は、(x,y)領域のズーム画像を撮影する。   If the ratio of white to black is equal to or more than a predetermined value, the network camera 101 captures a zoom image of the (x, y) area in step 1807.

ステップ1808で、ネットワークカメラ101は(x,y)領域のズーム画像の中にQRコードのファインダパターンがあるかどうかを判定する。   In step 1808, the network camera 101 determines whether or not there is a finder pattern of the QR code in the zoom image of the (x, y) area.

ネットワークカメラ101は、ステップ1808の判定によりQRコードのファインダパターンを検出できなかった場合はステップ1814に処理を移行し、QRコードのファインダパターンを検出した場合は、ステップ1809に処理を移行してQRコードの情報の読み取りを行う。ステップ1809と、後述するステップ1907は、本発明における、前記撮像手段で前記荷物を撮像することで得られる画像データを用いて当該画像データに映る荷物の移動先を特定する特定手段の一例である。   If the network camera 101 can not detect the finder pattern of the QR code in the determination of step 1808, the process proceeds to step 1814. If the finder pattern of the QR code is detected, the process proceeds to step 1809 and the QR Read code information. Step 1809 and Step 1907 described later are an example of specifying means for specifying the moving destination of the package shown in the image data using the image data obtained by imaging the package by the imaging unit in the present invention .

ステップ1810で、ネットワークカメラ101は、QRコードの情報が読み取れたかどうかの判定を行い、読み取れた場合はステップ1812でQRコードに含まれている配送先コードに紐づいた色を配送先データベース(図8)から取得して、ステップ1813に移行する。   In step 1810, the network camera 101 determines whether the information on the QR code has been read, and if it is read, the delivery destination database (see FIG. 18) is the color associated with the delivery destination code included in the QR code in step 1812. Obtained from step 8), and proceed to step 1813.

ステップ1810でQRコードの情報が読み取れなかったと判定された場合、ネットワークカメラ101は、ステップ1811でQRコードの右上にある配送先コードの文字列(配送先コードの文字列606)をOCRで読み取り、ステップ1813に移行する。   If it is determined in step 1810 that the QR code information could not be read, the network camera 101 reads the character string of the delivery destination code (the delivery destination code string 606) in the upper right of the QR code in step 1811 using OCR. Control goes to step 1813.

なお、本実施例では、配送先コードはQRコードの右上にあるものとしたが、配送先コードがどの位置にあるかは、ネットワークカメラ101にユーザが予め登録していれば、右上でなくとも良い。また、画像解析により、配送先コードを特定しても良い。   In the present embodiment, the delivery destination code is located at the upper right of the QR code, but the location of the delivery destination code may not be at the upper right if the user has registered in the network camera 101 in advance. good. Further, the delivery destination code may be specified by image analysis.

ステップ1813では、集荷場所画像データ中のQRコードを中心とした荷物のサイズに相当する矩形に配送先コードに紐づいた色をオーバレイ(図7)し、ステップ1814へ移行する。なお、荷物のサイズは画像解析サーバであらかじめ記憶しても良いし、画像解析により、集荷場所画像中の荷物の領域を特定しても良い。   In step 1813, the color linked to the delivery destination code is overlaid (FIG. 7) on a rectangle corresponding to the size of the package centering on the QR code in the collection location image data, and the process moves to step 1814. The size of the package may be stored in advance by the image analysis server, or the region of the package in the collection location image may be specified by image analysis.

ステップ1813と、後述するステップ1911は、本発明における、前記特定手段で特定した荷物の移動先を識別可能な画面を生成する生成手段の一例である。   Step 1813 and step 1911 to be described later are an example of a generation unit for generating a screen capable of identifying the destination of the package identified by the identification unit in the present invention.

次にステップ1806で白と黒の割合が所定以上でなかった場合の説明を行う。ステップ1814では、ネットワークカメラ101は、xが横分割数Xと同じかどうかを比較して、同じであればステップ1816に移行し、同じでなければ次の領域の画像をチェックするためにステップ1815でxをインクリメントしてステップ1805に戻る。   Next, the case where the ratio of white to black is not equal to or more than a predetermined value in step 1806 will be described. In step 1814, the network camera 101 compares whether x is the same as the number of horizontal divisions X, and if it is the same, proceeds to step 1816, or otherwise checks the image of the next area 1815 And increment x and return to step 1805.

ステップ1816では、ネットワークカメラ101は、yが縦分割数Yと同じかどうかを比較して、同じであれば全分割画像を解析したので処理を終了し、同じでなければ次の領域の画像をチェックするためにステップ1817でyをインクリメントしてステップ1805に戻る。   In step 1816, the network camera 101 compares whether y is the same as the number Y of vertical divisions, and if it is the same, all divided images are analyzed, so the processing is ended, and if it is not the same, the image of the next area is displayed. In step 1817, y is incremented to check, and the process returns to step 1805.

なお、図18の処理を実行後に荷物が運ばれると、運ばれた荷物の後ろに置かれていた別の荷物が集荷場所画像データに新たに映ることもあるため、荷物が運ばれた場合、その荷物があった領域に対してのみステップ1805〜ステップ1819の処理を実行することで、再度集荷場所画像データ全体に対してステップ1805〜ステップ1817の処理を実行するよりも処理負荷を軽減することが可能となる。荷物が運ばれたか否かは、集荷場所画像データを解析することにより特定する。   If a package is transported after the process of FIG. 18 is carried out, another package placed behind the transported package may appear newly in the collection location image data, so if the package is transported, By performing the processing of step 1805 to step 1819 only on the area where the package was present, the processing load is reduced as compared to the processing of step 1805 to step 1817 on the entire collection location image data again. Is possible. Whether or not the package has been transported is identified by analyzing the collection location image data.

以上で、図18の説明を終了し、次に、図19を用いて、第2の実施形態における図4のステップ402の処理の詳細を示すフローチャートの他の実施形態について説明する。   This is the end of the description of FIG. 18, and next will be described another embodiment of the flowchart showing the details of the process of step 402 of FIG. 4 in the second embodiment with reference to FIG.

図19は、図5のフローチャートと別技術で、撮影した集荷場所画像データを解析し、パレット画像部分に配送先の配色をオーバレイする手順の一例を示すフローチャートである。   FIG. 19 is a flowchart showing an example of the procedure of analyzing the photographed collection place image data and overlaying the color arrangement of the delivery destination on the pallet image portion, using a technique different from the flowchart of FIG.

なお、図19に示す各処理は、ネットワークカメラ101のCPU2101により実行される。なお、図10のフローチャートにおいて画像解析サーバ103が実行する処理を、ネットワークカメラ101が実行する以外は、図10のフローチャートと同様の処理であるため、簡潔に説明する。   Each process shown in FIG. 19 is executed by the CPU 2101 of the network camera 101. Note that the process performed by the image analysis server 103 in the flowchart of FIG. 10 is the same as that of the flowchart of FIG.

ステップ1901で、ネットワークカメラ101は、出荷先表示ボタン(601)が選択された旨の情報を画像表示端末105から受信し、ステップ1902で、当該ネットワークカメラ101で集荷場所画像データを撮影する。   In step 1901, the network camera 101 receives, from the image display terminal 105, information indicating that the shipping destination display button (601) is selected, and in step 1902, the network camera 101 captures pickup location image data.

ステップ1903で、ネットワークカメラ101は、集荷場所画像データの中からパレット1102を検索する(図11)。   At step 1903, the network camera 101 searches the pallet 1102 from the collection place image data (FIG. 11).

ネットワークカメラ101は、ステップ1904でパレットが見つからなかった場合は本処理を終了し、パレットが見つかった場合は、ステップ1905でネットワークカメラ101はパレット上部の所定の位置のQRコード解析画像領域1101をズームして撮影する。   The network camera 101 ends this processing if the pallet is not found in step 1904, and if the pallet is found, the network camera 101 zooms the QR code analysis image area 1101 at a predetermined position in the upper part of the pallet in step 1905. To shoot.

ステップ1906で、ネットワークカメラ101は、QRコード解析画像領域1101をズームして撮影した画像データの中にQRコードのファインダパターンがあるかどうかを判定する。   In step S 1906, the network camera 101 determines whether the finder pattern of the QR code is present in the image data captured by zooming the QR code analysis image area 1101.

ネットワークカメラ101は、ステップ1906の判定でQRコードを検出できなかった場合はステップ1912に移行し、QRコードを検出した場合は、ステップ1907に移行してQRコードの情報を読み取る。   If the network camera 101 can not detect the QR code in the determination of step 1906, the process proceeds to step 1912. If the QR code is detected, the network camera 101 proceeds to step 1907 to read the information of the QR code.

ステップ1908で、ネットワークカメラ101は、QRコードの情報が読み取れたかどうかの判定を行い、読み取れた場合はステップ1910でQRコードに含まれている配送先コードに紐づいた色を配送先データベース(図8)から取得して、ステップ1911に移行する。   In step 1908, the network camera 101 determines whether the information of the QR code has been read, and if read, the color mapped to the delivery destination code included in the QR code in step 1910 is the delivery destination database (see FIG. Obtained from step 8), and shift to step 1911.

ステップ1908でQRコードが読み取れなかった場合は、ステップ1909でQRコードの右上にある配送先コードの文字列をOCRで読み取り、ステップ1911に移行する。   If the QR code can not be read in step 1908, the character string of the delivery destination code at the upper right of the QR code is read by OCR in step 1909, and the process proceeds to step 1911.

ステップ1911で、ネットワークカメラ101は、集荷場所画像中のパレットに載っている全荷物に対して、配送先コードに紐づいた色をオーバレイ(図12)し、ステップ1912へ移行する。   In step 1911, the network camera 101 overlays the color linked to the delivery destination code (FIG. 12) for all packages on the pallet in the collection location image, and the process moves to step 1912.

ステップ1912で、ネットワークカメラ101は、ステップ1902でネットワークカメラ101から送信された集荷場所画像データの中から、画像検索により次のパレットを検索する。   In step 1912, the network camera 101 searches for the next pallet by image search from among the collection location image data transmitted from the network camera 101 in step 1902.

ステップ1913でパレットが見つからなかった場合は本処理を終了し、見つかった場合は次のパレットの配送先を解析するためにステップ1905に戻る。以上で、図19の説明を終了する。   If the pallet is not found at step 1913, the processing is terminated. If it is found, the process returns to step 1905 to analyze the delivery destination of the next pallet. This is the end of the description of FIG.

図18、または図19の処理を実行後、図13の処理を実行する。ただし、第2の実施形態においては、図13の各処理は、画像解析サーバ103ではなく、ネットワークカメラ101が実行する。以上で第2の実施形態の説明を終了する。   After the process of FIG. 18 or 19 is performed, the process of FIG. 13 is performed. However, in the second embodiment, each process in FIG. 13 is executed not by the image analysis server 103 but by the network camera 101. This is the end of the description of the second embodiment.

次に、本発明の他の実施形態について説明する。上述の各実施形態では、QRコードに配送先コードが含まれているとしたが、運用によっては、必ずしもQRコードに配送先コードが含まれているとは限らない。そこで、本実施形態では、QRコードに配送先コードが含まれておらず、各荷物を一意に識別するための識別情報だけがQRコードに含まれている形態について、図20を用いて説明する。   Next, another embodiment of the present invention will be described. Although the delivery destination code is included in the QR code in each embodiment described above, the delivery destination code is not always included in the QR code depending on the operation. Therefore, in the present embodiment, a form in which the delivery destination code is not included in the QR code and only identification information for uniquely identifying each package is included in the QR code will be described with reference to FIG. .

図20は、第1の実施形態では画像解析サーバ103の外部メモリ211に、第2の実施形態では、ネットワークカメラ101の外部メモリ2105に記憶される配送先特定テーブルの一例を示す図である。識別情報2001は、各荷物のQRに含まれる各荷物を一意に識別するための識別情報を示す。配送先コード2002は、識別情報2001によって識別される荷物の配送先を一意に識別するためのコードである。配送先2003は、配送先コード2002に対応する配送先を示す。このように、配送先特定テーブルをあらかじめ記憶することにより、QRコードに配送先コードが含まれていなかったとしても、荷物の配送先を特定することが可能となる。   FIG. 20 is a view showing an example of a delivery destination specification table stored in the external memory 211 of the image analysis server 103 in the first embodiment and in the external memory 2105 in the second embodiment. The identification information 2001 indicates identification information for uniquely identifying each package included in the QR of each package. The delivery destination code 2002 is a code for uniquely identifying the delivery destination of the package identified by the identification information 2001. The delivery destination 2003 indicates a delivery destination corresponding to the delivery destination code 2002. As described above, by storing the delivery destination identification table in advance, it is possible to identify the delivery destination of the package even if the delivery destination code is not included in the QR code.

なお、図20の配送先特定テーブルを用いる場合、配送先を特定する処理は、ステップ514、ステップ1012、ステップ1812、ステップ1910の処理の前にそれぞれ実行される。以上で、図20の説明を終了する。   When the delivery destination specification table of FIG. 20 is used, the process of identifying the delivery destination is executed before the process of step 514, step 1012, step 1812 and step 1910. This is the end of the description of FIG.

以上、本発明によると、荷物の移動作業における、業務効率を向上させることができる。   As described above, according to the present invention, it is possible to improve the work efficiency in the load transfer operation.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention is also applicable to, for example, an embodiment as a system, an apparatus, a method, a program, a storage medium, etc. Specifically, the present invention may be applied to a system composed of a plurality of devices. The present invention may be applied to an apparatus consisting of two devices.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes one that directly or remotely supplies a program of software that implements the functions of the above-described embodiments to a system or an apparatus. The present invention is also included in the present invention if the computer of the system or apparatus reads out and executes the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, the program code itself installed in the computer to realize the functional processing of the present invention by the computer also implements the present invention. That is, the present invention also includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of an object code, a program executed by an interpreter, script data supplied to an OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of recording media for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, an MO, a CD-ROM, a CD-R, and a CD-RW. There are also magnetic tapes, non-volatile memory cards, ROMs, DVDs (DVD-ROMs, DVD-Rs) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   In addition, as a program supply method, a browser on a client computer is used to connect to an Internet home page. Then, the program can be supplied by downloading the computer program of the present invention itself or a compressed file including an automatic installation function from the home page to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   The present invention can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from different home pages. That is, the present invention also includes a WWW server which allows a plurality of users to download program files for realizing the functional processing of the present invention by a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, and distributed to users, and the user who has cleared predetermined conditions downloads key information that decrypts encryption from the homepage via the Internet. Let Then, it is possible to execute the program encrypted by using the downloaded key information and install it on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Also, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiment can be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, the program read from the recording medium is written to a memory provided in a function expansion board inserted in the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program, a CPU or the like provided in the function expansion board or the function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is also realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The embodiments described above merely show examples of implementation in practicing the present invention, and the technical scope of the present invention should not be interpreted in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.

101 ネットワークカメラ
102 POE HUB
103 画像解析サーバ
104 無線LANルータ
105 画像表示装置
101 Network Camera 102 POE HUB
103 Image Analysis Server 104 Wireless LAN Router 105 Image Display Device

Claims (10)

移動対象の荷物を撮像する撮像装置と通信可能な情報処理装置であって、
前記撮像装置から、画像データを取得する取得手段と、
前記取得手段で取得した画像データを用いて当該画像データに映る荷物の移動先を特定する特定手段と、
前記特定手段で特定した荷物の移動先を識別可能な画面を生成する生成手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus capable of communicating with an imaging apparatus for imaging a package to be moved,
Acquisition means for acquiring image data from the imaging device;
Specifying means for specifying the destination of the package shown in the image data using the image data acquired by the acquisition means;
An information processing apparatus, comprising: generation means for generating a screen capable of identifying the destination of the package identified by the identification means.
前記特定手段による移動先の特定は、前記画像データに映る荷物ごとに行うことを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the specification of the movement destination by the specifying unit is performed for each package shown in the image data. 前記特定手段は、前記取得手段で取得した画像データから当該画像データに映る台を特定し、当該台に載っている荷物のうちの一つの荷物の移動先を特定することで、当該台に載っている他の荷物の移動先も同一の移動先として特定することを特徴とする請求項1に記載の情報処理装置。   The specifying unit specifies a table shown in the image data from the image data acquired by the acquiring unit, and specifies a destination of one of the packages on the table, thereby setting the table on the table. The information processing apparatus according to claim 1, wherein the destination of the other package is specified as the same destination. 車両を撮像する撮像装置から、荷物を配送する車両を撮像した画像データを取得する車両画像取得手段と、
前記取得手段で取得した画像データから、当該画像データに映る車両を識別可能な識別情報を特定する第1特定手段と、
前記第1特定手段で特定した前記識別情報を用いて、前記車両の荷物の運び先を特定する第2特定手段と、
前記第2特定手段で特定した運び先をユーザに認識させるべく、通知する通知手段と
を備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
Vehicle image acquisition means for acquiring image data obtained by imaging a vehicle for delivering a package from an imaging device for imaging a vehicle;
First identification means for identifying identification information capable of identifying a vehicle shown in the image data from the image data acquired by the acquisition means;
A second specifying unit that specifies the carrying destination of the package of the vehicle using the identification information specified by the first specifying unit;
The information processing apparatus according to any one of claims 1 to 3, further comprising: notification means for making a notification so as to make the user recognize the carrying destination specified by the second specifying means.
前記生成手段で生成された画面を介して選択された前記画像データに映る荷物の選択情報を取得する選択情報手段をさらに備え、
前記生成手段は、前記選択情報手段で選択情報を取得した荷物が選択済みであることを識別可能な前記画面を再度生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
The information processing apparatus further comprises selection information means for acquiring selection information of packages displayed in the image data selected via the screen generated by the generation means.
The said generation means produces | generates the said screen which can identify that the package which acquired selection information by the said selection information means has been selected again, It is characterized by the above-mentioned. Information processing device.
前記生成手段は、前記特定手段で特定した荷物の移動先の情報を、前記画像データに映る荷物に重畳した前記画面を生成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The said generation means produces | generates the said screen which superimposed the information of the movement destination of the package specified by the said specification means on the package reflected to the said image data. Information processing equipment. 移動対象の荷物を撮像する撮像手段と、
前記撮像手段で前記荷物を撮像することで得られる画像データを用いて当該画像データに映る荷物の移動先を特定する特定手段と、
前記特定手段で特定した荷物の移動先を識別可能な画面を生成する生成手段と
を備えることを特徴とする情報処理装置。
An imaging unit for imaging a package to be moved;
Specifying means for specifying a movement destination of the package shown in the image data using the image data obtained by imaging the package by the imaging unit;
An information processing apparatus, comprising: generation means for generating a screen capable of identifying the destination of the package identified by the identification means.
移動対象の荷物を撮像する撮像装置と通信可能な情報処理装置の制御方法であって、
前記撮像装置から、画像データを取得する取得工程と、
前記取得工程で取得した画像データを用いて当該画像データに映る荷物の移動先を特定する特定工程と、
前記特定工程で特定した荷物の移動先を識別可能な画面を生成する生成工程と
を備えることを特徴とする情報処理装置の制御方法。
A control method of an information processing apparatus capable of communicating with an imaging apparatus for imaging a package to be moved,
An acquisition step of acquiring image data from the imaging device;
A specifying step of specifying a moving destination of a package shown in the image data using the image data acquired in the acquiring step;
A control method of an information processing apparatus, comprising: a generation step of generating a screen capable of identifying a destination of a package identified in the identification step.
移動対象の荷物を撮像する撮像工程と、
前記撮像工程で前記荷物を撮像することで得られる画像データを用いて当該画像データに映る荷物の移動先を特定する特定工程と、
前記特定工程で特定した荷物の移動先を識別可能な画面を生成する生成工程と
を備えることを特徴とする情報処理装置の制御方法。
An imaging step of imaging a package to be moved;
A specifying step of specifying a moving destination of the package shown in the image data using the image data obtained by imaging the package in the imaging step;
A control method of an information processing apparatus, comprising: a generation step of generating a screen capable of identifying a destination of a package identified in the identification step.
コンピュータを、請求項1乃至7のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 7.
JP2018204645A 2017-10-31 2018-10-31 Information processing device, control method for information processing device, and program Active JP7323757B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017210006 2017-10-31
JP2017210006 2017-10-31

Publications (3)

Publication Number Publication Date
JP2019083522A true JP2019083522A (en) 2019-05-30
JP2019083522A5 JP2019083522A5 (en) 2022-09-01
JP7323757B2 JP7323757B2 (en) 2023-08-09

Family

ID=66670690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018204645A Active JP7323757B2 (en) 2017-10-31 2018-10-31 Information processing device, control method for information processing device, and program

Country Status (1)

Country Link
JP (1) JP7323757B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467075B2 (en) 2019-11-06 2024-04-15 東芝テック株式会社 Information processing device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014091609A (en) * 2012-11-02 2014-05-19 Daifuku Co Ltd Article information display device
JP2014122075A (en) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk Supporting system for article picking operation
JP2015184894A (en) * 2014-03-24 2015-10-22 パイオニア株式会社 Information storage processing device, terminal device, control method, program, and storage medium
JP2017171444A (en) * 2016-03-23 2017-09-28 パナソニックIpマネジメント株式会社 Projection instruction device, goods assort system and projection instruction method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014122075A (en) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk Supporting system for article picking operation
JP2014091609A (en) * 2012-11-02 2014-05-19 Daifuku Co Ltd Article information display device
JP2015184894A (en) * 2014-03-24 2015-10-22 パイオニア株式会社 Information storage processing device, terminal device, control method, program, and storage medium
JP2017171444A (en) * 2016-03-23 2017-09-28 パナソニックIpマネジメント株式会社 Projection instruction device, goods assort system and projection instruction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467075B2 (en) 2019-11-06 2024-04-15 東芝テック株式会社 Information processing device and program

Also Published As

Publication number Publication date
JP7323757B2 (en) 2023-08-09

Similar Documents

Publication Publication Date Title
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
JP5879725B2 (en) Sheet metal work support system
JP6562716B2 (en) Information processing apparatus, information processing method, program, and forklift
KR100643557B1 (en) Information management apparatus, information output system, portable terminal, and information outputting method
US11076130B2 (en) Operation information transmission device, construction management system, operation information transmission method, and program
JP7126251B2 (en) CONSTRUCTION MACHINE CONTROL SYSTEM, CONSTRUCTION MACHINE CONTROL METHOD, AND PROGRAM
US9779551B2 (en) Method for generating a content in augmented reality mode
CN104850835A (en) Scanning method and scanning terminal
EP1833022A1 (en) Image processing device for detecting position of processing object in image
JP2019082869A (en) Information processing apparatus, control method of the same, and program
JP7323757B2 (en) Information processing device, control method for information processing device, and program
JP2020095537A (en) Learning dataset automatic generation system, server, and learning dataset automatic generation program
JP2019083424A (en) Information processing apparatus, control method thereof, and program
JP2016025625A (en) Information processor, information processing method, and program
JP6558145B2 (en) Information processing terminal, information processing system, processing method thereof, and program
JP6850323B2 (en) Information processing device, its control method and program
JP2022145287A (en) Information processing system, position management method, information processing apparatus, and program
JP2017097859A (en) Information processing device, and processing method and program thereof
JP2017111696A (en) Information processing device, printing system, control method and program
JP6712861B2 (en) Information processing device, information processing method, and program
JP2006313480A (en) Id card reissuing system, id card issuing apparatus and id card reissuing method
JPWO2019167277A1 (en) Image collection device, image collection system, image collection method, image generation device, image generation system, image generation method, and program
JPWO2019167278A1 (en) Store equipment, store systems, image acquisition methods, and programs
WO2014064897A1 (en) Information processing device, information processing method, and information processing program
KR101280840B1 (en) Method of identifying the laser point position on screen of presentation system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R151 Written notification of patent or utility model registration

Ref document number: 7323757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151