JP7095574B2 - Image processing programs, image processing methods, and image processing equipment - Google Patents

Image processing programs, image processing methods, and image processing equipment Download PDF

Info

Publication number
JP7095574B2
JP7095574B2 JP2018223436A JP2018223436A JP7095574B2 JP 7095574 B2 JP7095574 B2 JP 7095574B2 JP 2018223436 A JP2018223436 A JP 2018223436A JP 2018223436 A JP2018223436 A JP 2018223436A JP 7095574 B2 JP7095574 B2 JP 7095574B2
Authority
JP
Japan
Prior art keywords
image
baggage
images
identification information
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018223436A
Other languages
Japanese (ja)
Other versions
JP2020087172A (en
Inventor
圭 渡邉
哲二 田代
博信 山崎
宏宣 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018223436A priority Critical patent/JP7095574B2/en
Publication of JP2020087172A publication Critical patent/JP2020087172A/en
Application granted granted Critical
Publication of JP7095574B2 publication Critical patent/JP7095574B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理プログラム、画像処理方法、および画像処理装置に関する。 The present invention relates to an image processing program, an image processing method, and an image processing apparatus.

例えば、空港などにおいて、乗客から預かった手荷物を、乗客が搭乗する航空機に積み込むコンテナが置かれたエリアまで搬送する手荷物取扱システムが利用されている。 For example, at airports and the like, a baggage handling system is used in which baggage checked by passengers is transported to an area where a container to be loaded on an aircraft on which a passenger is boarding is placed.

手荷物取扱システムでは、例えば、手荷物の預け入れ時に、手荷物の持ち主の情報と対応付けられた識別情報が発行される。そして、例えば、識別情報をコード化したバーコードが印刷されたタグが手荷物に取り付けられる。その後、手荷物取扱システムは、手荷物に取り付けられたタグから識別情報をコンベア沿いに設置されたバーコードリーダで読み取る。そして、手荷物取扱システムは、読み取った識別情報を基にコンベアを制御して手荷物を仕分けし、最終的に手荷物の持ち主が搭乗する航空機に積み込まれるコンテナまで手荷物を搬送する。 In the baggage handling system, for example, when baggage is checked in, identification information associated with the baggage owner's information is issued. Then, for example, a tag printed with a barcode encoding identification information is attached to the baggage. The baggage handling system then reads the identification information from the tags attached to the baggage with a barcode reader installed along the conveyor. Then, the baggage handling system controls the conveyor based on the read identification information to sort the baggage, and finally transports the baggage to the container to be loaded on the aircraft on which the baggage owner is boarding.

また、例えば、物品の管理や放置物の検出などに、画像データを利用する技術が知られている。 Further, for example, a technique of using image data for managing articles and detecting abandoned objects is known.

特開平10-149434号公報Japanese Unexamined Patent Publication No. 10-149434 特開2009-152748号公報Japanese Unexamined Patent Publication No. 2009-152748 国際公開第2018/012439号International Publication No. 2018/012439

例えば、手荷物をコンベアで搬送している間に、手荷物に取り付けたタグが外れてしまい、タグから手荷物の持ち主の情報を特定できなくなることがある。例えば、その様な状況に対処するために、乗客の手荷物を写した手荷物画像と、識別情報とを対応付けて予め保存しておくことが考えられる。それにより、例えば、タグの外れた手荷物が見つかった場合にも、タグの外れた手荷物を撮影した画像を検索キーとして画像検索を実行することで、識別情報を特定することが可能である。しかしながら、この様に、例えば、手荷物などの荷物が写る画像を検索キーとして画像検索を実行した場合に、色の異なる荷物を写した荷物画像が検索結果の上位に含まれてしまうことがある。その結果、検索キーとした画像に写る荷物と一致する荷物が写る荷物画像を見つけるまでの効率が低下することがある。 For example, while transporting baggage on a conveyor, the tag attached to the baggage may come off, making it impossible to identify the baggage owner's information from the tag. For example, in order to deal with such a situation, it is conceivable to store the baggage image showing the passenger's baggage in advance in association with the identification information. Thereby, for example, even when the baggage with the tag removed is found, the identification information can be specified by executing the image search using the image of the baggage with the tag removed as the search key. However, in this way, for example, when an image search is performed using an image showing a baggage such as baggage as a search key, a baggage image showing a baggage of a different color may be included in the upper part of the search result. As a result, the efficiency of finding a baggage image that matches the baggage that matches the baggage that appears in the image used as the search key may decrease.

1つの側面では、本発明は、画像検索の際に、検索キーとした画像に写る荷物と一致する荷物が写る荷物画像を効率よく見つけることのできる技術を提供することを目的とする。 In one aspect, it is an object of the present invention to provide a technique capable of efficiently finding a baggage image in which a baggage matching the baggage shown in the image as a search key is shown in an image search.

本発明の一つの態様の画像処理プログラムは、画像検索依頼を受信した場合、異なる荷物が写る複数の荷物画像であって、それぞれが荷物の持ち主を識別するための識別情報と対応付けられている複数の荷物画像に対して、画像検索依頼に含まれる荷物が写る画像を検索キーとして画像検索を実行して、複数の荷物画像のそれぞれと、画像検索依頼に含まれる荷物が写る画像との類似度を評価し、複数の荷物画像のうちで、画像検索依頼に含まれる荷物が写る画像の色と、色が所定の判定条件を満たさないと判定した荷物画像の類似度を低くなるように変更し、変更後の類似度が所定の条件を満たす荷物画像と、所定の条件を満たす荷物画像に対応付けられている識別情報とを返信する、処理を、画像処理装置に実行させる。 The image processing program of one aspect of the present invention is a plurality of baggage images in which different packages are captured when an image search request is received, and each of them is associated with identification information for identifying the owner of the baggage. Perform an image search for multiple baggage images using the image that shows the baggage included in the image search request as the search key, and each of the multiple baggage images is similar to the image that shows the baggage included in the image search request. Changed to reduce the similarity between the color of the image showing the baggage included in the image search request and the baggage image judged that the color does not meet the predetermined judgment conditions among multiple baggage images. Then, the image processing device is made to execute a process of returning the baggage image whose similarity after the change satisfies a predetermined condition and the identification information associated with the baggage image satisfying the predetermined condition.

画像検索の際に、検索キーとした画像に写る荷物と一致する荷物が写る荷物画像を効率よく見つけることができる。 When searching for an image, it is possible to efficiently find a baggage image that shows a baggage that matches the baggage that appears in the image used as the search key.

実施形態に係る手荷物取扱システムのシステム構成を例示する図である。It is a figure which illustrates the system structure of the baggage handling system which concerns on embodiment. 実施形態に係る手荷物取扱システムによる手荷物の取り扱いの流れを説明する図である。It is a figure explaining the flow of the baggage handling by the baggage handling system which concerns on embodiment. 実施形態に係る画像処理装置のブロック構成を例示する図である。It is a figure which illustrates the block structure of the image processing apparatus which concerns on embodiment. 実施形態に係る手荷物管理情報を例示する図である。It is a figure which illustrates the baggage management information which concerns on embodiment. 実施形態に係る手荷物画像の生成処理の動作フローを例示する図である。It is a figure which illustrates the operation flow of the baggage image generation processing which concerns on embodiment. 手荷物画像の生成について例を説明する図である。It is a figure explaining an example about the generation of a baggage image. 実施形態に係る手荷物画像の生成の流れを例示する図である。It is a figure which illustrates the flow of the generation of the baggage image which concerns on embodiment. 実施形態に係る画像検索処理の動作フローを例示する図である。It is a figure which illustrates the operation flow of the image search process which concerns on embodiment. 色相環を例示する図である。It is a figure exemplifying the color wheel. 類似度の評価結果の変化を例示する図である。It is a figure which illustrates the change of the evaluation result of the degree of similarity. 第1の変形例に係る手荷物画像からの複数の手荷物画像の生成を例示する図である。It is a figure which illustrates the generation of a plurality of baggage images from the baggage image which concerns on 1st modification. 第1の変形例に係る手荷物画像の生成処理の動作フローを例示する図である。It is a figure which illustrates the operation flow of the baggage image generation processing which concerns on the 1st modification. 撮影装置で撮影した画像の背景と別のタイミングで撮影した画像の背景とが異なる場合を例示する図である。It is a figure which illustrates the case where the background of an image taken by a shooting apparatus is different from the background of an image taken at another timing. 例示的な背景画像管理情報を示す図である。It is a figure which shows the exemplary background image management information. 第2の変形例に係る手荷物画像の生成処理の動作フローを例示する図である。It is a figure which illustrates the operation flow of the baggage image generation processing which concerns on the 2nd modification. 実施形態に係る画像処理装置を実現するためのコンピュータのハードウェア構成を例示する図である。It is a figure which illustrates the hardware configuration of the computer for realizing the image processing apparatus which concerns on embodiment. 実施形態に係る端末を実現するためのコンピュータのハードウェア構成を例示する図である。It is a figure which illustrates the hardware configuration of the computer for realizing the terminal which concerns on embodiment.

以下、図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、複数の図面において対応する要素には同一の符号を付すことがある。 Hereinafter, some embodiments of the present invention will be described in detail with reference to the drawings. The corresponding elements may be designated by the same reference numerals in a plurality of drawings.

上述のように、空港では、例えば、乗客は、航空機内へ持ち込む手荷物以外の手荷物を、搭乗前に航空会社のチェックインカウンタに預ける。預け入れの際に、手荷物には、手荷物を識別するための識別情報がコード化されたバーコードを含むタグが取り付けられて、ベルトコンベアなどのコンベア上を搬送される。識別情報は、例えば、手荷物の持ち主に関する情報(以下、手荷物情報と呼ぶことがある)と対応付けられており、手荷物の持ち主を識別するために用いられてよい。手荷物情報は、例えば、手荷物の持ち主の氏名、持ち主の性別、持ち主が乗る航空機の航空会社、および航空機の便名などの情報を含んでよい。 As mentioned above, at the airport, for example, passengers check in baggage other than baggage that they bring on board at the airline's check-in counter before boarding. At the time of check-in, the baggage is attached with a tag including a barcode in which identification information for identifying the baggage is coded, and is carried on a conveyor such as a belt conveyor. The identification information is associated with, for example, information about the baggage owner (hereinafter, may be referred to as baggage information), and may be used to identify the baggage owner. Baggage information may include, for example, information such as the name of the owner of the baggage, the gender of the owner, the airline of the aircraft on which the owner is aboard, and the flight number of the aircraft.

また、コンベア沿いにはバーコードリーダを備える読取装置が設置されている。そして、読取装置でタグのバーコードが読み取られ、読み取られた識別情報に従って、最終的に手荷物は持ち主が搭乗する航空機の荷物室に積み込むコンテナのあるメイクエリアまでベルトコンベアにより仕分け搬送される。 In addition, a reading device equipped with a barcode reader is installed along the conveyor. Then, the bar code of the tag is read by the reading device, and the baggage is finally sorted and transported by the belt conveyor to the make area where the container is loaded in the luggage compartment of the aircraft on which the owner is boarding according to the read identification information.

ここで、手荷物の搬送中に、手荷物に取り付けたタグが外れてしまうことがある。例えば、タグは、粘着性のシール等で手荷物に貼りつけられることがあるが、タグの粘着面が露出していると、粘着面が壁などにくっついてしまい、手荷物がコンベアを運ばれる力で引っ張られてタグが切れてしまうことがある。このようにタグが手荷物から外れてしまうと、タグに記載される識別情報から、手荷物情報を取得することができなくなるため、手荷物をどこに搬送すべきか等を特定することが難しくなる。 Here, the tag attached to the baggage may come off during the transportation of the baggage. For example, a tag may be attached to baggage with an adhesive sticker, but if the adhesive surface of the tag is exposed, the adhesive surface will stick to the wall, etc., and the baggage will be carried by the conveyor. It may be pulled and the tag may be cut off. If the tag is removed from the baggage in this way, the baggage information cannot be obtained from the identification information written on the tag, and it becomes difficult to specify where the baggage should be transported.

こうした状況に対処するための一つの手法として、例えば、乗客の手荷物を写した画像(以下、手荷物画像または荷物画像と呼ぶことがある)と、識別情報とを対応付けて予め記憶装置に保存しておくことが考えられる。そして、例えば、タグの外れた手荷物が見つかった場合に、タグの外れた手荷物の画像を撮影装置で撮影し、その撮影した画像を検索キーとして、記憶装置に保存されている手荷物画像を画像検索する。それにより、検索で上位に評価された手荷物画像のうちから、タグの外れた手荷物と対応する手荷物画像を特定して識別情報を迅速に取得することが可能である。 As one method for dealing with such a situation, for example, an image of a passenger's baggage (hereinafter, may be referred to as a baggage image or a baggage image) is associated with identification information and stored in a storage device in advance. It is possible to keep it. Then, for example, when the baggage with the tag removed is found, an image of the baggage with the tag removed is taken with a shooting device, and the shot image is used as a search key to search the baggage image stored in the storage device. do. As a result, it is possible to identify the baggage image corresponding to the baggage with the tag removed from the baggage images ranked high in the search and quickly acquire the identification information.

しかしながら、例えば、画像検索の結果、検索キーとして用いた画像に写る手荷物と、色の明らかに異なる手荷物を写した手荷物画像が上位に現れることがある。 However, for example, as a result of an image search, a baggage image showing a baggage shown in an image used as a search key and a baggage image showing a baggage having a clearly different color may appear at the top.

例えば、画像検索に用いられる局所特徴量に基づく画像の比較は、明るさの変化の分布をもとに行われるため、色が異なっていても形状が似ていると、その画像の類似度を高く評価してしまうことがある。そのため、検索キーとして入力した画像に写る手荷物と色が明らかに異なる手荷物を写した手荷物画像が、画像検索において上位に現れることを抑制し、検索精度を高めることのできる技術の提供が望まれている。 For example, images based on local features used in image retrieval are compared based on the distribution of changes in brightness, so if the shapes are similar even if the colors are different, the similarity of the images will be determined. It may be highly evaluated. Therefore, it is desired to provide a technique that can suppress the appearance of baggage images that show baggage that is clearly different in color from the baggage that appears in the image input as the search key at the top of the image search and improve the search accuracy. There is.

以下で述べる実施形態では、画像検索で検索キーとして用いる手荷物の画像と、記憶装置に保存されている手荷物画像とのそれぞれの画像から、手荷物の色の特徴を表す特徴値を決定する。そして、2つの画像の特徴値が所定の近似度を下回って似ていない場合には、その手荷物画像の類似度の評価を下げる。それにより、画像検索の精度を高め、検索キーとして入力した画像に写る手荷物と一致する手荷物が写る手荷物画像を効率よく特定することを可能にする。以下、実施形態を更に詳細に説明する。 In the embodiment described below, the feature value representing the color feature of the baggage is determined from each image of the baggage used as the search key in the image search and the baggage image stored in the storage device. Then, when the feature values of the two images are less than a predetermined degree of approximation and are not similar, the evaluation of the degree of similarity of the baggage images is lowered. As a result, the accuracy of the image search is improved, and it is possible to efficiently identify the baggage image in which the baggage matching the baggage in the image input as the search key is shown. Hereinafter, embodiments will be described in more detail.

まず、実施形態に係る手荷物取扱システム100について説明する。 First, the baggage handling system 100 according to the embodiment will be described.

(手荷物取扱システム)
図1は、実施形態に係る手荷物取扱システム100のシステム構成を例示する図である。手荷物取扱システム100は、例えば、BHS(Baggage Handling System)であってよい。手荷物取扱システム100は、例えば、コンベア101、コンベア制御装置102、読取装置103、コントローラ104、管理サーバ105、画像処理装置106、および端末107を含む。
(Baggage handling system)
FIG. 1 is a diagram illustrating a system configuration of the baggage handling system 100 according to the embodiment. The baggage handling system 100 may be, for example, a BHS (Baggage Handling System). The baggage handling system 100 includes, for example, a conveyor 101, a conveyor control device 102, a reading device 103, a controller 104, a management server 105, an image processing device 106, and a terminal 107.

コンベア制御装置102、コントローラ104、管理サーバ105、画像処理装置106、および端末107は、例えば、ネットワーク150を介して互いに接続されていてよい。ネットワーク150は、例えば、LAN(Local Area Network)であってよく、有線ネットワーク、および無線ネットワークを含んでよい。 The conveyor control device 102, the controller 104, the management server 105, the image processing device 106, and the terminal 107 may be connected to each other via, for example, the network 150. The network 150 may be, for example, a LAN (Local Area Network) and may include a wired network and a wireless network.

コンベア101は、例えば、ベルトコンベアであってよい。コンベア101は、例えば、通信機能を備えるコンベア制御装置102と接続されていてよく、コンベア制御装置102を介してネットワーク150に接続し、管理サーバ105からの制御を受けて手荷物を仕分け搬送する。 The conveyor 101 may be, for example, a belt conveyor. The conveyor 101 may be connected to, for example, a conveyor control device 102 having a communication function, is connected to the network 150 via the conveyor control device 102, and sorts and conveys baggage under the control of the management server 105.

読取装置103は、例えば、バーコードリーダ131、および撮影装置132を備える。読取装置103のバーコードリーダ131は、例えば、コンベア101上を搬送される手荷物に付加されたタグ260のバーコードから識別情報を読み取る。また、読取装置103の撮影装置132は、例えば、コンベア101上を搬送される手荷物を撮影する。読取装置103は、例えば、通信機能を備えるコントローラ104と接続し、コントローラ104を介して管理サーバ105に識別情報を送信する。また、読取装置103は、例えば、バーコードリーダ131で読み取った識別情報と、撮影装置132で撮影した手荷物の撮影画像とをコントローラ104を介して画像処理装置106に送信する。 The reading device 103 includes, for example, a barcode reader 131 and a photographing device 132. The bar code reader 131 of the reading device 103 reads the identification information from, for example, the bar code of the tag 260 attached to the baggage carried on the conveyor 101. Further, the photographing device 132 of the reading device 103 photographs the baggage carried on the conveyor 101, for example. The reading device 103 is connected to, for example, a controller 104 having a communication function, and transmits identification information to the management server 105 via the controller 104. Further, the reading device 103 transmits, for example, the identification information read by the barcode reader 131 and the captured image of the baggage captured by the photographing device 132 to the image processing device 106 via the controller 104.

管理サーバ105は、例えば、読取装置103のバーコードリーダ131で読み取られた識別情報に基づいて、コンベア101による手荷物の仕分け搬送を制御する。 The management server 105 controls, for example, the sorting and transportation of baggage by the conveyor 101 based on the identification information read by the bar code reader 131 of the reading device 103.

画像処理装置106は、例えば、読取装置103の撮影装置132で撮影されたコンベア101上を搬送される手荷物の撮影画像を解析し、手荷物の写る領域を抽出した手荷物画像を生成する。そして、画像処理装置106は、手荷物画像を、手荷物画像に写る手荷物の識別情報と対応付けて記憶する。また、画像処理装置106は、例えば、端末107から画像検索依頼を受信すると、画像検索依頼に含まれる画像データを検索キーとして、記憶している手荷物画像を画像検索する。 The image processing device 106 analyzes, for example, a photographed image of baggage carried on the conveyor 101 photographed by the photographing device 132 of the reading device 103, and generates a baggage image obtained by extracting an area in which the baggage is captured. Then, the image processing device 106 stores the baggage image in association with the baggage identification information reflected in the baggage image. Further, when the image processing device 106 receives an image search request from the terminal 107, for example, the image processing device 106 uses the image data included in the image search request as a search key to perform an image search for the stored baggage image.

端末107は、例えば、タブレット端末、スマートフォンなどの通信機能を備える端末である。また、端末107は、例えば、カメラなどの撮影装置171を備える。 The terminal 107 is a terminal having a communication function such as a tablet terminal or a smartphone. Further, the terminal 107 includes, for example, a photographing device 171 such as a camera.

なお、図1に示す手荷物取扱システム100は例示であり、実施形態はこれに限定されるものではなく、手荷物取扱システム100は、その他の構成であってもよい。例えば、手荷物取扱システム100は、後述するチェックインカウンタに設置された端末などの更なる構成を含んでもよい。 The baggage handling system 100 shown in FIG. 1 is an example, and the embodiment is not limited to this, and the baggage handling system 100 may have other configurations. For example, the baggage handling system 100 may include a further configuration such as a terminal installed in a check-in counter described later.

続いて、実施形態に係る手荷物取扱システム100による手荷物の取り扱いの流れを説明する。図2は、実施形態に係る手荷物取扱システム100による手荷物の取り扱いの流れを説明する図である。図2には、例えば、コンベア101、読取装置103、管理サーバ105、画像処理装置106、チェックインカウンタ201、手荷物検査装置202、コンテナ270、メイクエリア290が示されている。 Subsequently, the flow of handling baggage by the baggage handling system 100 according to the embodiment will be described. FIG. 2 is a diagram illustrating a flow of baggage handling by the baggage handling system 100 according to the embodiment. FIG. 2 shows, for example, a conveyor 101, a reading device 103, a management server 105, an image processing device 106, a check-in counter 201, a baggage inspection device 202, a container 270, and a make area 290.

ここで、乗客は、例えば、チェックインカウンタ201にて手荷物250を預ける(図2の(1))。チェックインカウンタ201に設置された端末は、例えば、預けられた手荷物250の持ち主に関する手荷物情報と対応付けて識別情報を発行し、その識別情報をコードするバーコードを印刷したタグ260を発券する。発券されたタグ260は、預けられた手荷物250に取り付けられる(図2の(2))。 Here, the passenger, for example, deposits the baggage 250 at the check-in counter 201 ((1) in FIG. 2). The terminal installed in the check-in counter 201, for example, issues identification information in association with baggage information regarding the owner of the checked baggage 250, and issues a tag 260 printed with a barcode encoding the identification information. The issued tag 260 is attached to the checked baggage 250 ((2) in FIG. 2).

続いて、手荷物250は、手荷物検査装置202へとコンベア101上を運ばれ、手荷物検査装置202は、手荷物250に手荷物検査を実行し、検査内容を管理サーバ105に送信する(図2の(3))。手荷物検査の検査員は、例えば、管理サーバ105で受信した手荷物検査装置202の検査内容に基づいて手荷物を検査する。 Subsequently, the baggage 250 is carried on the conveyor 101 to the baggage inspection device 202, and the baggage inspection device 202 performs a baggage inspection on the baggage 250 and transmits the inspection contents to the management server 105 ((3) in FIG. 2 (3). )). The baggage inspection inspector inspects the baggage based on, for example, the inspection content of the baggage inspection device 202 received by the management server 105.

続いて、手荷物250はコンベア101を更に運ばれ、読取装置103を通過する。読取装置103においてバーコードリーダ131は、例えば、コンベア101上を流れてきた手荷物250に付されたタグ260から識別情報を読み取る。また、読取装置103の撮影装置132は、例えば、コンベア101上を流れてきた手荷物250を撮影する。なお、読取装置103の撮影装置132は、所定の画角でコンベア101上を撮影するように設置されていてよい。続いて、読取装置103は、例えば、バーコードリーダ131で読み取った識別情報を、コントローラ104を介して管理サーバ105に送信する(図2の(4))。 Subsequently, the baggage 250 is further carried on the conveyor 101 and passes through the reader 103. In the reading device 103, the barcode reader 131 reads the identification information from, for example, the tag 260 attached to the baggage 250 flowing on the conveyor 101. Further, the photographing device 132 of the reading device 103 photographs, for example, the baggage 250 flowing on the conveyor 101. The photographing device 132 of the reading device 103 may be installed so as to photograph on the conveyor 101 at a predetermined angle of view. Subsequently, the reading device 103 transmits, for example, the identification information read by the barcode reader 131 to the management server 105 via the controller 104 ((4) in FIG. 2).

管理サーバ105は、例えば、識別情報と対応する手荷物250の手荷物情報に基づいてコンベア制御装置102を制御し(図2の(5))、積み込み先のコンテナ270のあるメイクエリア290までコンベア101で手荷物250を仕分け搬送する。それにより、手荷物250は、持ち主が搭乗する便に積載されるコンテナ270への手荷物250の積み込み作業が行われるメイクエリア290に運ばれる(図2の(6))。メイクエリア290では、作業員は、例えば、端末107を用いて手荷物250に取り付けられたタグ260から識別情報を読み取る。そして、作業員は、例えば、端末107で識別情報を用いて手荷物250と対応する手荷物情報を確認し、持ち主が搭乗する航空機のコンテナ270に手荷物250を積み込む。 For example, the management server 105 controls the conveyor control device 102 based on the identification information and the baggage information of the baggage 250 corresponding to the identification information ((5) in FIG. 2), and the conveyor 101 reaches the make area 290 where the container 270 of the loading destination is located. Sort and transport baggage 250. As a result, the baggage 250 is carried to the make area 290 where the baggage 250 is loaded into the container 270 loaded on the flight on which the owner is boarding (FIG. 2 (6)). In the make area 290, the worker reads the identification information from the tag 260 attached to the baggage 250, for example, using the terminal 107. Then, for example, the worker confirms the baggage information corresponding to the baggage 250 by using the identification information on the terminal 107, and loads the baggage 250 into the container 270 of the aircraft on which the owner is boarding.

また、例えば、手荷物検査装置202において、手荷物250から不審物が発見された場合には、手荷物250は回避検査室までコンベア101で運ばれて、更なる検査を受ける(図2の(7))。この様に、手荷物取扱システム100では、タグ260に印刷されたバーコードなどの識別情報により手荷物250の個体管理が行われ、大量の手荷物250が高い精度で仕分けされ航空機に積み込まれている。 Further, for example, when a suspicious object is found in the baggage 250 in the baggage inspection device 202, the baggage 250 is carried by the conveyor 101 to the avoidance inspection room and undergoes further inspection ((7) in FIG. 2). .. As described above, in the baggage handling system 100, the baggage 250 is individually managed by the identification information such as the barcode printed on the tag 260, and a large amount of the baggage 250 is sorted with high accuracy and loaded into the aircraft.

また、実施形態では読取装置103は、例えば、撮影装置132で撮影した手荷物250が写る撮影画像とバーコードリーダ131で読み取った識別情報とを対応付けて画像処理装置106に送信してよい(図2の(8))。画像処理装置106は、例えば、撮影装置132で撮影された手荷物250が写る撮影画像から、手荷物の写る領域を抽出した手荷物画像を生成する。そして、画像処理装置106は、生成した手荷物画像を、読取装置103から受信した識別情報と対応付けて記憶装置に保存する。そのため、手荷物250からタグ260が外れた場合にも、作業員は、手荷物250の画像を撮影し、撮影した画像を検索キーとして、記憶装置に保存した手荷物画像を画像検索することで、手荷物画像と対応付けられている識別情報を取得することが可能になる。 Further, in the embodiment, the reading device 103 may transmit, for example, a photographed image of the baggage 250 photographed by the photographing apparatus 132 and the identification information read by the barcode reader 131 to the image processing apparatus 106 in association with each other (FIG. FIG. 2 (8)). The image processing device 106 generates, for example, a baggage image obtained by extracting an area in which baggage is captured from a captured image in which baggage 250 captured by the photographing device 132 is captured. Then, the image processing device 106 stores the generated baggage image in the storage device in association with the identification information received from the reading device 103. Therefore, even if the tag 260 is removed from the baggage 250, the worker takes an image of the baggage 250 and uses the taken image as a search key to search the baggage image stored in the storage device for the baggage image. It becomes possible to acquire the identification information associated with.

例えば、メイクエリア290でコンテナ270への手荷物の積み込みを担当する作業員が、タグ260が外れてしまった手荷物250を発見したとする。この場合、タグ260から識別情報を取得することができない。ここで、作業員は、例えば、タグ260の外れた手荷物250の画像を端末107の撮影装置171で撮影して、撮影した画像をキーとして画像処理装置106に画像検索を依頼する(図2の(9))。 For example, suppose a worker in charge of loading baggage into a container 270 in the make area 290 finds baggage 250 with the tag 260 removed. In this case, the identification information cannot be acquired from the tag 260. Here, for example, the worker takes an image of the baggage 250 with the tag 260 removed by the taking device 171 of the terminal 107, and requests the image processing device 106 to search the image using the taken image as a key (FIG. 2). (9)).

画像処理装置106は、記憶装置に記憶している手荷物画像と、検索キーとして受信した手荷物250の画像とを比較し、類似度を評価する。また、画像処理装置106は、記憶装置に記憶している手荷物画像と、検索キーとして受信した手荷物250の画像との色の近似度を評価し、近似度に基づいて色が似ていないと判定した手荷物画像の類似度を低くなるように変更する。その後、画像処理装置106は、所定の条件を満たす類似度で類似している手荷物画像を、その手荷物画像と対応付けられる識別情報とともに端末107に返す。なお、所定の条件としては、例えば、類似度が上位の所定の数に入ることであってよい。作業員は、端末107で受信した手荷物画像および識別情報から、タグ260が外れてしまった手荷物250の識別情報を特定することができる。そして、手荷物250の識別情報が分かれば、作業員は、端末107を操作して識別情報と対応する手荷物情報について管理サーバ105に問い合わせを行うことで、手荷物250を積み込むべきコンテナ270などの情報を取得することができる。 The image processing device 106 compares the baggage image stored in the storage device with the image of the baggage 250 received as the search key, and evaluates the similarity. Further, the image processing device 106 evaluates the degree of color approximation between the baggage image stored in the storage device and the image of the baggage 250 received as the search key, and determines that the colors are not similar based on the degree of approximation. Change the similarity of the baggage image to be low. After that, the image processing device 106 returns the baggage image similar to the baggage image with a degree of similarity satisfying a predetermined condition to the terminal 107 together with the identification information associated with the baggage image. The predetermined condition may be, for example, that the degree of similarity falls within a predetermined number of higher ranks. The worker can identify the identification information of the baggage 250 from which the tag 260 has been removed from the baggage image and the identification information received by the terminal 107. Then, if the identification information of the baggage 250 is known, the worker operates the terminal 107 to inquire the management server 105 about the identification information and the corresponding baggage information, so that the information such as the container 270 to be loaded with the baggage 250 can be obtained. Can be obtained.

以上で述べた実施形態に係る手荷物取扱システム100による手荷物の取り扱いの流れに関し、画像処理装置106が実行する処理に関する更なる詳細の例を以下に述べる。 Further detailed examples of the processing executed by the image processing apparatus 106 with respect to the flow of baggage handling by the baggage handling system 100 according to the embodiment described above will be described below.

図3は、実施形態に係る画像処理装置106のブロック構成を例示する図である。画像処理装置106は、例えば、制御部301、記憶部302、および通信部303を含む。制御部301は、例えば、評価部311、変更部312、および返信部313などとして動作してよい。記憶部302は、例えば、上述の手荷物画像と識別情報とを対応付けて記憶していてよい。通信部303は、制御部301の指示に従ってネットワーク150に接続し、端末107と通信したり、コントローラ104を介して読取装置103と通信したりする。これらの各部の詳細および記憶部302に格納されている情報の詳細については後述する。 FIG. 3 is a diagram illustrating a block configuration of the image processing device 106 according to the embodiment. The image processing device 106 includes, for example, a control unit 301, a storage unit 302, and a communication unit 303. The control unit 301 may operate as, for example, an evaluation unit 311, a change unit 312, a reply unit 313, and the like. The storage unit 302 may store, for example, the above-mentioned baggage image and the identification information in association with each other. The communication unit 303 connects to the network 150 according to the instruction of the control unit 301, communicates with the terminal 107, and communicates with the reading device 103 via the controller 104. The details of each of these units and the details of the information stored in the storage unit 302 will be described later.

図4は、実施形態に係る手荷物管理情報400を例示する図である。手荷物管理情報400のエントリには、例えば、航空会社、便、ゲート、識別情報を含む手荷物情報が登録されている。航空会社は、例えば、エントリと対応する手荷物250を運び込む航空便の航空会社を示す情報である。便は、例えば、エントリと対応する手荷物250を運び込む航空便を示す情報である。ゲートは、例えば、エントリと対応する手荷物250を運び込む航空便が停留するゲートを示す情報である。識別情報は、例えば、エントリと対応する手荷物250に対して発行された識別情報である。識別情報は、例えば、エントリと対応する手荷物250がチェックインカウンタ201に預け入れられる際に発行されてよく、手荷物250には識別情報を含むタグ260が取り付けられてよい。なお、図4の例では、手荷物管理情報400のエントリは、航空会社、便、ゲート、識別情報を含むが、実施形態はこれに限定されるものではない。例えば、手荷物管理情報400のエントリは、手荷物の持ち主の氏名、持ち主の性別などのその他の情報を含んでもよい。 FIG. 4 is a diagram illustrating the baggage management information 400 according to the embodiment. In the entry of the baggage management information 400, baggage information including, for example, an airline, a flight, a gate, and identification information is registered. The airline is, for example, information indicating the airline of the flight carrying the entry and the corresponding baggage 250. A flight is information indicating, for example, an airmail carrying an entry and a corresponding baggage 250. The gate is information indicating, for example, the gate at which the airmail carrying the entry and the corresponding baggage 250 is stopped. The identification information is, for example, the identification information issued for the baggage 250 corresponding to the entry. The identification information may be issued, for example, when the baggage 250 corresponding to the entry is checked in at the check-in counter 201, and the baggage 250 may be attached with a tag 260 containing the identification information. In the example of FIG. 4, the entry of the baggage management information 400 includes, but is not limited to, the airline, the flight, the gate, and the identification information. For example, the entry for baggage management information 400 may include other information such as the name of the baggage owner, the gender of the owner, and the like.

図5は、実施形態に係る手荷物画像の生成処理の動作フローを例示する図である。画像処理装置106の制御部301は、例えば、手荷物画像の生成処理の実行指示が入力されると、図5の動作フローを開始してよい。 FIG. 5 is a diagram illustrating an operation flow of a baggage image generation process according to an embodiment. For example, the control unit 301 of the image processing device 106 may start the operation flow of FIG. 5 when an execution instruction of the baggage image generation process is input.

S501において制御部301は、読取装置103から手荷物250を撮影した撮影画像と、その手荷物250に取り付けられたタグ260から読み取った識別情報との組を受信したか否かを判定する。読取装置103から撮影画像と識別情報の組を受信していない場合(S501がNO)、フローはS501の処理を繰り返す。一方、読取装置103から撮影画像と識別情報の組を受信している場合(S501がYES)、フローはS502に進む。 In S501, the control unit 301 determines whether or not a set of a photographed image of the baggage 250 taken from the reading device 103 and the identification information read from the tag 260 attached to the baggage 250 has been received. When the set of the captured image and the identification information is not received from the reading device 103 (S501 is NO), the flow repeats the process of S501. On the other hand, when the set of the captured image and the identification information is received from the reading device 103 (YES in S501), the flow proceeds to S502.

S502において制御部301は、受信した撮影画像と、記憶部302に記憶されている背景画像とに基づいて、撮影画像から手荷物250が写る領域を抽出した手荷物画像を生成する。なお、背景画像は、例えば、撮影装置132で、手荷物250が画角に含まれないタイミングに背景となるコンベア101を撮影した画像であってよく、画像処理装置106の記憶部302に予め記憶されていてよい。 In S502, the control unit 301 generates a baggage image obtained by extracting an area in which the baggage 250 is captured from the photographed image based on the received photographed image and the background image stored in the storage unit 302. The background image may be, for example, an image taken by the photographing device 132 of the conveyor 101 as a background at a timing when the baggage 250 is not included in the angle of view, and is stored in advance in the storage unit 302 of the image processing device 106. You may be.

図6は、S502で実行される手荷物画像の生成について例を説明する図である。図6には、背景となるコンベア101を撮影した背景画像601と、手荷物250が写る撮影画像602と、手荷物画像603とが示されている。制御部301は、読取装置103から受信した撮影画像602と、記憶部302から読み出した背景画像601とに基づいて、撮影画像602から背景となるコンベア101が写る領域を取り除き、手荷物250が写る領域を抽出した手荷物画像603を生成する。このように抽出した手荷物画像603は、画像内の大部分の画素が手荷物250を示す情報となるため、画像検索の精度を高めることが可能である。以下、手荷物画像603の生成の更なる詳細について例示する。 FIG. 6 is a diagram illustrating an example of the generation of the baggage image executed in S502. FIG. 6 shows a background image 601 obtained by photographing the conveyor 101 as a background, a photographed image 602 showing the baggage 250, and a baggage image 603. Based on the captured image 602 received from the reading device 103 and the background image 601 read from the storage unit 302, the control unit 301 removes the region where the background conveyor 101 is captured from the captured image 602, and the region where the baggage 250 is captured. The baggage image 603 extracted from the above is generated. In the baggage image 603 extracted in this way, most of the pixels in the image serve as information indicating the baggage 250, so that the accuracy of the image search can be improved. Further details of the generation of the baggage image 603 will be illustrated below.

図7は、実施形態に係る手荷物画像の生成の流れを例示する図である。図7の(1)において画像処理装置106の制御部301は、読取装置103の撮影装置132で撮影された手荷物250が写る撮影画像を記憶部302から読み出す。(2)において制御部301は、記憶部302から背景画像を読み出し、背景画像と、手荷物250が写る撮影画像との明るさの差分画像を得る。なお、図7の(2)から(7)は、明るさを表す白黒画像で示されており、黒色は暗く、白色は明るいことを表している。 FIG. 7 is a diagram illustrating a flow of generating a baggage image according to an embodiment. In (1) of FIG. 7, the control unit 301 of the image processing device 106 reads out the captured image of the baggage 250 captured by the imaging device 132 of the reading device 103 from the storage unit 302. In (2), the control unit 301 reads the background image from the storage unit 302, and obtains a difference image of the brightness between the background image and the photographed image in which the baggage 250 is captured. It should be noted that (2) to (7) of FIG. 7 are shown by black-and-white images showing brightness, in which black is dark and white is bright.

(3)において制御部301は、得られた差分画像から小さい白色領域などのノイズを除去し、その後、白色領域の輪郭を太線化する。(4)において制御部301は、(1)に示す手荷物250が写る撮影画像からエッジを抽出したエッジ画像を生成し、エッジ画像と(3)で得られた画像とで白色画素の重なる領域を抽出する。 In (3), the control unit 301 removes noise such as a small white region from the obtained difference image, and then thickens the outline of the white region. In (4), the control unit 301 generates an edge image obtained by extracting an edge from the captured image in which the baggage 250 shown in (1) is captured, and creates a region where white pixels overlap between the edge image and the image obtained in (3). Extract.

(5)において制御部301は、(4)で得られた画像から小さい白色領域などのノイズを除去し、その後、白色領域の輪郭を太線化する。(6)において制御部301は、(5)で得られた画像から白色領域で囲まれた黒色の小領域を除去する。(7)において制御部301は、(6)で得られた画像を180度回転させて回転前の画像に重畳する。(8)において制御部301は、(7)で得られた画像に矩形フィッティングを行い、手荷物領域を切り出して、手荷物画像として保存する。フィッティングでは、制御部301は、例えば、白色領域の外形を取り囲む最小の矩形領域を、手荷物画像として切り出してよい。 In (5), the control unit 301 removes noise such as a small white region from the image obtained in (4), and then thickens the outline of the white region. In (6), the control unit 301 removes a small black region surrounded by a white region from the image obtained in (5). In (7), the control unit 301 rotates the image obtained in (6) by 180 degrees and superimposes it on the image before rotation. In (8), the control unit 301 performs rectangular fitting on the image obtained in (7), cuts out a baggage area, and saves it as a baggage image. In the fitting, the control unit 301 may cut out, for example, the smallest rectangular area surrounding the outer shape of the white area as a baggage image.

例えば、以上のようにして、画像処理装置106の制御部301は、撮影装置132で撮影された手荷物250の写る撮影画像から、手荷物画像を生成することができる。 For example, as described above, the control unit 301 of the image processing device 106 can generate a baggage image from the captured image of the baggage 250 captured by the imaging device 132.

なお、図7で述べた手荷物画像の取得は例示であり、実施形態はこれに限定されるものではない。例えば、別の実施形態では、制御部301は、手荷物250の領域が特定された撮影画像と、背景画像とを教師データとして用いて機械学習の手法により、手荷物250の写る領域を認識する学習器を作成し、作成された学習器により手荷物画像を生成してもよい。 The acquisition of the baggage image described in FIG. 7 is an example, and the embodiment is not limited to this. For example, in another embodiment, the control unit 301 recognizes the area in which the baggage 250 is captured by a machine learning method using the captured image in which the area of the baggage 250 is specified and the background image as teacher data. May be created and a baggage image may be generated by the created learner.

続いて、図5のS503において制御部301は、S502で生成した手荷物画像と、S501で受信した識別情報とを対応付けて記憶部302に記憶し、フローはS501に戻る。一例では、制御部301は、手荷物画像を保存する際のファイル名を識別情報とすることで、手荷物画像と識別情報を対応付けて記憶部302に保存してよい。別な実施形態では、制御部301は、データベースに手荷物画像と識別情報とを対応付けたエントリを登録することで、手荷物画像と識別情報とを対応付けて管理してもよい。なお、図5のS503の実行のたびに記憶部302に保存される手荷物画像と識別情報との組は、以下に後述するように、画像検索の検索対象として用いることができる。 Subsequently, in S503 of FIG. 5, the control unit 301 stores the baggage image generated in S502 in the storage unit 302 in association with the identification information received in S501, and the flow returns to S501. In one example, the control unit 301 may store the baggage image and the identification information in the storage unit 302 in association with each other by using the file name when storing the baggage image as the identification information. In another embodiment, the control unit 301 may manage the baggage image and the identification information in association with each other by registering an entry in which the baggage image and the identification information are associated with each other in the database. The set of the baggage image and the identification information stored in the storage unit 302 each time S503 of FIG. 5 is executed can be used as a search target for the image search, as will be described later.

(手荷物画像の画像検索処理)
続いて、実施形態に係る手荷物画像の画像検索処理を説明する。手荷物画像の画像検索処理は、例えば、タグ260の外れてしまった手荷物250が見つかった際に、その手荷物250の識別情報を特定するために実行されてよい。なお、例えば、上述の局所特徴量に基づく画像検索のように、画像検索では、検索キーとして用いた画像に写る手荷物と色の明らかに異なる手荷物を写した手荷物画像が、類似する手荷物画像として上位に現れることがある。そのため、以下で述べる画像検索処理では、制御部301は、検索キーとして用いる手荷物の画像と、記憶装置に保存されている手荷物画像との色の近似度を評価し、2つの画像の色が似ていない場合には、その手荷物画像の類似度の評価を下げる。それにより、画像検索の精度が高まり、検索キーとして入力した画像に写る手荷物と一致する手荷物が写る手荷物画像を効率よく特定することが可能になる。
(Image search process for baggage images)
Subsequently, the image search process of the baggage image according to the embodiment will be described. The image search process for the baggage image may be executed, for example, to identify the identification information of the baggage 250 when the baggage 250 with the tag 260 removed is found. In the image search, for example, in the image search, the baggage image showing the baggage whose color is clearly different from the baggage shown in the image used as the search key is ranked higher as the similar baggage image, for example, as in the image search based on the above-mentioned local feature amount. May appear in. Therefore, in the image search process described below, the control unit 301 evaluates the degree of color approximation between the baggage image used as the search key and the baggage image stored in the storage device, and the colors of the two images are similar. If not, lower the similarity rating of the baggage image. As a result, the accuracy of the image search is improved, and it becomes possible to efficiently identify the baggage image in which the baggage matching the baggage in the image input as the search key is shown.

図8は、実施形態に係る画像検索処理の動作フローを例示する図である。画像処理装置106の制御部301は、例えば、手荷物画像の画像検索処理の実行指示が入力されると、図8の動作フローを開始してよい。 FIG. 8 is a diagram illustrating an operation flow of the image search process according to the embodiment. For example, the control unit 301 of the image processing device 106 may start the operation flow of FIG. 8 when an execution instruction of the image search process of the baggage image is input.

S801において制御部301は、端末107から画像検索依頼を受け付ける。例えば、メイクエリア290でコンテナ270への手荷物250の積み込みを担当する作業員が、タグ260が外れてしまった手荷物250を発見したとする。この場合、作業員は、端末107を用いてタグ260が外れてしまった手荷物250の画像を撮影し、撮影した画像を含む画像検索依頼を端末107から画像処理装置106に送信してよい。S801において制御部301が端末107から画像検索依頼を受信していない場合(S801がNO)、フローはS801の処理を繰り返す。一方、S801において制御部301が端末107から画像検索依頼を受信した場合(S801がYES)、フローはS802に進む。 In S801, the control unit 301 receives an image search request from the terminal 107. For example, suppose a worker in charge of loading baggage 250 into a container 270 in make area 290 finds baggage 250 with the tag 260 removed. In this case, the worker may use the terminal 107 to take an image of the baggage 250 from which the tag 260 has been removed, and send an image search request including the taken image from the terminal 107 to the image processing device 106. When the control unit 301 has not received the image search request from the terminal 107 in S801 (S801 is NO), the flow repeats the process of S801. On the other hand, when the control unit 301 receives the image search request from the terminal 107 in S801 (YES in S801), the flow proceeds to S802.

S802において制御部301は、画像検索依頼からタグ260が外れてしまった手荷物250を写した画像を取得し、取得した画像を検索キーとして記憶部302に記憶されている複数の手荷物画像を画像検索する。なお、記憶部302に記憶されている検索対象の複数の手荷物画像は、それぞれが、例えば、S503で記憶部302に記憶された手荷物画像であってよく、識別情報と対応付けられている。また、画像検索には、例えば、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、BRISK(Binary Robust Invariant Scalable Keypoints)、BRIEF(Binary Robust Independent Elementary Features)、KAZE特徴量、AKAZE(Accelerated-KAZE)特徴量などの局所特徴量ベースの画像比較を用いることができる。制御部301は、例えば、これらの局所特徴量ベースの画像比較により画像の類似度を評価してよい。そして、制御部301は、例えば、手荷物画像を類似度の高い順に並べ替えてよい。例えば、局所特徴量ベースの画像比較では、類似度をスコアで表すことができ、制御部301は、スコアの高い手荷物画像から順に、手荷物画像を並べ替えてよい。 In S802, the control unit 301 acquires an image of the baggage 250 from which the tag 260 has been removed from the image search request, and uses the acquired image as a search key to search for a plurality of baggage images stored in the storage unit 302. do. The plurality of baggage images to be searched stored in the storage unit 302 may be, for example, the baggage images stored in the storage unit 302 in S503, and are associated with the identification information. For image search, for example, SIFT (Scale-Invariant Feature Transform), SURF (Speeded-Up Robust Features), BRISK (Binary Robust Invariant scalable Keypoints), BRIEF (Binary Robust Invariant Elementary Features), KAZE features, AKAZE (Accelerated-KAZE) Image comparisons based on local features such as features can be used. The control unit 301 may evaluate the similarity of images by, for example, image comparison based on these local features. Then, the control unit 301 may sort the baggage images in descending order of similarity, for example. For example, in the image comparison based on the local feature amount, the similarity can be expressed by a score, and the control unit 301 may rearrange the baggage images in order from the baggage image having the highest score.

続いて、S803で制御部301は、色の近似度を評価する。例えば、制御部301は、画像検索依頼に含まれる手荷物250を写した画像から、手荷物の色の特徴を表す特徴値を決定する。また、制御部301は、記憶部302に記憶されている複数の手荷物画像のそれぞれについて、手荷物の色の特徴を表す特徴値を決定する。そして、制御部301は、手荷物250を写した画像から得た特徴値と、記憶部302に記憶されているそれぞれの手荷物画像の特徴値とを比較し、色が近いか否かの近似度を評価する。 Subsequently, in S803, the control unit 301 evaluates the degree of color approximation. For example, the control unit 301 determines a feature value representing the color feature of the baggage from an image of the baggage 250 included in the image search request. Further, the control unit 301 determines a feature value representing the color feature of the baggage for each of the plurality of baggage images stored in the storage unit 302. Then, the control unit 301 compares the feature value obtained from the image of the baggage 250 with the feature value of each baggage image stored in the storage unit 302, and determines the degree of approximation as to whether or not the colors are close to each other. evaluate.

なお、色の近似度の評価に利用可能な特徴値としては、例えば、色相を用いることができる。色相は、例えば、色合い、色味のことであり、彩度および明度とともに、色の三属性の一つである。色相は、色の比較の指標として好ましく用いることができる。以下、色相を例に色の近似度を評価する例を述べるが、実施形態はこれに限定されるものではなく、その他の色の成分を用いて、色の近似度が評価されてもよい。 As the feature value that can be used for evaluating the degree of approximation of color, for example, hue can be used. Hue is, for example, hue and hue, and is one of the three attributes of color together with saturation and lightness. Hue can be preferably used as an index for color comparison. Hereinafter, an example of evaluating the degree of color approximation using hue as an example will be described, but the embodiment is not limited to this, and the degree of color approximation may be evaluated using other color components.

一実施形態において制御部301は、画像内の画素の色相を代表する代表値を算出し、手荷物の色の特徴を表す特徴値として用いてよい。代表値は、一例では、画像全体で色相を平均した値であってよい。例えば、色相の平均は、以下のように求めることができる。 In one embodiment, the control unit 301 may calculate a representative value representing the hue of the pixels in the image and use it as a feature value representing the color feature of the baggage. In one example, the representative value may be a value obtained by averaging the hues of the entire image. For example, the average hue can be calculated as follows.

図9は、色相環を例示する図である。図9に例示するように、色相環は色相の総体を順序立てて円環にして並べたものであり、色相環上での角度θにより色相を値で表すことができる。なお、以下では、色相環上での角度θを、色相値と呼ぶことがある。そして、画像内の1つの画素の色相は、角度θにより表すことができる。また更に、例えば、画像内に含まれる画素の色相の平均値は、以下の計算で求めることができる。 FIG. 9 is a diagram illustrating the color wheel. As illustrated in FIG. 9, the hue circle is formed by arranging the whole hues in an orderly circle, and the hue can be represented by a value by an angle θ on the hue circle. In the following, the angle θ on the hue circle may be referred to as a hue value. The hue of one pixel in the image can be represented by an angle θ. Furthermore, for example, the average value of the hues of the pixels included in the image can be obtained by the following calculation.

まず、以下の式により、画像内の各画素の色相のX軸成分とY軸成分とのそれぞれの総和を求める。 First, the sum of the X-axis component and the Y-axis component of the hue of each pixel in the image is obtained by the following formula.

Figure 0007095574000001
Figure 0007095574000001

ここで、θは画像内の画素の色相である。Sは、画像内の全ての画素の色相のY軸成分の総和である。また、Cは、画像内の全ての画素の色相のX軸成分の総和である。続いて、S/Cのアークタンジェントを計算し、θaverageを求める。 Here, θ is the hue of the pixels in the image. S is the sum of the Y-axis components of the hues of all the pixels in the image. Further, C is the sum of the X-axis components of the hues of all the pixels in the image. Then, the arctangent of S / C is calculated to obtain θ average .

Figure 0007095574000002
Figure 0007095574000002

ただし、アークタンジェントの出力は、-90°<θ<90°の範囲の値をとる。そのため、SおよびCのそれぞれの符号を用いて色相の平均値を決定する。例えば、θaverageが、45°であったとする。この場合に、SとCの符号が正であれば、色相の平均値を45°と決定することができる。一方、SとCの符号がともに負であれば、色相の平均値を225°と決定することができる。また、同様に、θaverageが-45°であったとする。この場合、Sの符号が負であり、Cの符号が正であれば、色相の平均値は-45°で、すなわち、315°と決定することができる。一方、Sの符号が正であり、Cの符号が負であれば、色相の平均値は-45°で、すなわち、135°と決定することができる。例えば、以上のように、色相の平均値を求めることができる。 However, the arctangent output takes a value in the range of −90 ° <θ <90 °. Therefore, the average value of the hue is determined using the respective codes of S and C. For example, it is assumed that θ average is 45 °. In this case, if the signs of S and C are positive, the average value of hue can be determined to be 45 °. On the other hand, if the signs of S and C are both negative, the average value of hue can be determined to be 225 °. Similarly, it is assumed that the θ average is −45 °. In this case, if the sign of S is negative and the sign of C is positive, the average value of hue can be determined to be −45 °, that is, 315 °. On the other hand, if the sign of S is positive and the sign of C is negative, the average value of hue can be determined to be −45 °, that is, 135 °. For example, as described above, the average value of hue can be obtained.

そして、S803の処理において制御部301は、例えば、手荷物250を写した画像から得た色相の平均値と、記憶部302に記憶されている手荷物画像の色相の平均値との角度差の大きさが、所定の判定条件を満たせば色が近いと判定する。一方、制御部301は、例えば、手荷物250を写した画像から得た色相の平均値と、記憶部302に記憶されている手荷物画像の色相の平均値との角度差の大きさが、所定の判定条件を満たさなければ色が似ていないと判定してよい。一例として、制御部301は、手荷物250を写した画像から得た色相の平均値と、記憶部302に記憶されている手荷物画像の色相の平均値との角度差の大きさが、所定の角度未満であれば、色が近いと判定してよい。一方、例えば、手荷物250を写した画像から得た色相の平均値と、記憶部302に記憶されているそれぞれの手荷物画像の色相の平均値との角度差の大きさが、所定の角度以上であれば、制御部301は、色が近くないと判定してよい。なお、所定の角度は、例えば、45°~135°の範囲の角度であってよく、一例では、90°であってよい。 Then, in the process of S803, the control unit 301 has a large angle difference between, for example, the average value of the hue obtained from the image of the baggage 250 and the average value of the hue of the baggage image stored in the storage unit 302. However, if the predetermined determination conditions are satisfied, it is determined that the colors are close to each other. On the other hand, the control unit 301 determines, for example, the magnitude of the angle difference between the average value of the hue obtained from the image of the baggage 250 and the average value of the hue of the baggage image stored in the storage unit 302. If the determination conditions are not satisfied, it may be determined that the colors are not similar. As an example, in the control unit 301, the magnitude of the angle difference between the average value of the hue obtained from the image of the baggage 250 and the average value of the hue of the baggage image stored in the storage unit 302 is a predetermined angle. If it is less than, it may be determined that the colors are close. On the other hand, for example, when the magnitude of the angle difference between the average value of the hue obtained from the image of the baggage 250 and the average value of the hue of each baggage image stored in the storage unit 302 is equal to or larger than a predetermined angle. If so, the control unit 301 may determine that the colors are not close. The predetermined angle may be, for example, an angle in the range of 45 ° to 135 °, and in one example, it may be 90 °.

S804において制御部301は、色が近くないと判定した手荷物画像に対して、S802の画像検索で得られた類似度を低くなるように変更する。例えば、制御部301は、画像検索の結果得られた類似度を表すスコアから所定の値を引くなどして、色が近くないと判定した手荷物画像に対するスコアを引き下げてよい。所定の値としては、例えば、色が近くないと判定された手荷物画像が、類似度による並び順で、上位に入らないような値を用いることができる。 In S804, the control unit 301 changes the baggage image determined that the colors are not close to each other so that the similarity obtained by the image search of S802 is low. For example, the control unit 301 may lower the score for the baggage image determined to be not close in color by subtracting a predetermined value from the score representing the similarity obtained as a result of the image search. As the predetermined value, for example, a value can be used so that the baggage images determined to be not close in color do not rank high in the order of arrangement according to the degree of similarity.

続いて、S805において制御部301は、変更後の類似度において、類似度が所定の条件を満たして類似している手荷物画像と、その手荷物画像の識別情報とを検索結果として端末107に返し、フローはS801に戻る。例えば、制御部301は、類似度が上位の所定の数の手荷物画像を、その識別情報とともに、検索結果として端末107に返してよい。 Subsequently, in S805, the control unit 301 returns the baggage image having the similarity satisfying a predetermined condition and the identification information of the baggage image to the terminal 107 as a search result in the changed similarity. The flow returns to S801. For example, the control unit 301 may return a predetermined number of baggage images having a high degree of similarity to the terminal 107 as a search result together with the identification information.

そのため、作業者は、端末107で受信した手荷物画像の中から、タグ260の外れた手荷物250と一致する手荷物画像を容易に見つけることができ、その手荷物画像と対応付けられた識別情報を取得することができる。そして、作業者は、例えば、手荷物画像と対応付けられた識別情報を端末107から管理サーバ105に通知することで、管理サーバ105から識別情報と対応付けられた手荷物管理情報400のエントリの情報を取得することができる。そのため、作業者は、例えば、タグ260が外れてしまった手荷物250を積み込むべきコンテナ270を迅速に特定することができる。 Therefore, the worker can easily find the baggage image that matches the baggage 250 with the tag 260 removed from the baggage image received by the terminal 107, and acquires the identification information associated with the baggage image. be able to. Then, for example, the worker notifies the management server 105 of the identification information associated with the baggage image from the terminal 107, so that the information of the entry of the baggage management information 400 associated with the identification information is transmitted from the management server 105. Can be obtained. Therefore, the worker can quickly identify, for example, the container 270 to be loaded with the baggage 250 from which the tag 260 has been removed.

また、図8の動作フローによれば、検索キーの画像に色が似ていない手荷物画像は類似度が低く評価されるため、検索キーとした画像に写る手荷物と一致する手荷物が写る手荷物画像を効率よく見つけることができる。 Further, according to the operation flow of FIG. 8, the baggage image whose color does not resemble the image of the search key is evaluated to have a low degree of similarity. You can find it efficiently.

図10は、以上で述べた図8の動作フローの類似度の評価結果の変化を例示する図である。(1)に示すように、制御部301は、タグ260の外れてしまった手荷物250を写した画像を検索キーとして画像検索を実行する(図8のS802)。(2)は検索結果として、手荷物画像が類似度の高い方から順に並べており、図10の例では手荷物画像A>手荷物画像B>手荷物画像C>手荷物画像Dの順に類似度が高い。ここで、手荷物画像Aおよび手荷物画像Bに写る手荷物250は、形状は似ているが、色が全く異なり、検索キーとして入力された画像の手荷物と明らかに異なっている。この様に、明るさの変化の分布をもとに実行される局所特徴量ベースの比較では、異なる色をした明らかに別の手荷物250が、類似する手荷物250として上位に現れることがある。 FIG. 10 is a diagram illustrating changes in the evaluation results of the similarity of the operation flow of FIG. 8 described above. As shown in (1), the control unit 301 executes an image search using an image of the baggage 250 that has been removed from the tag 260 as a search key (S802 in FIG. 8). In (2), the baggage images are arranged in order from the one with the highest similarity as the search result, and in the example of FIG. 10, the similarity is high in the order of baggage image A> baggage image B> baggage image C> baggage image D. Here, the baggage 250 shown in the baggage image A and the baggage image B are similar in shape but completely different in color, and are clearly different from the baggage in the image input as the search key. Thus, in local feature-based comparisons performed based on the distribution of changes in brightness, distinctly different colored baggage 250s may appear higher as similar baggage 250s.

しかし、実施形態では(3)に示す様に、制御部301は、色の近似度を評価し、色が似ていない手荷物画像の類似度を下げる(図8のS803およびS804)。それにより、(4)に示す様に、色が似ていない手荷物画像Aおよび手荷物画像Bを下位にし、類似度が高く、かつ、色も近い手荷物画像Cを上位にすることができる。そして、制御部301は、上位の所定の数の手荷物画像を、その識別情報とともに、検索結果として端末107に返してよい。それにより、作業者は、端末107で受信した手荷物画像の中から、タグ260の外れた手荷物250と一致する手荷物画像を容易に見つけることができ、その手荷物画像と対応付けられた識別情報を取得することができる。 However, in the embodiment, as shown in (3), the control unit 301 evaluates the degree of approximation of the colors and lowers the degree of similarity of the baggage images whose colors are not similar (S803 and S804 in FIG. 8). As a result, as shown in (4), the baggage image A and the baggage image B having dissimilar colors can be placed in the lower position, and the baggage image C having a high degree of similarity and similar colors can be placed in the upper position. Then, the control unit 301 may return a predetermined number of higher-level baggage images to the terminal 107 as a search result together with the identification information. As a result, the worker can easily find the baggage image that matches the baggage 250 with the tag 260 removed from the baggage image received by the terminal 107, and obtains the identification information associated with the baggage image. can do.

以上で述べた様に、実施形態によれば、色の近似度を評価するため、画像検索の精度を高めて、検索キーとして入力した画像に写る手荷物と一致する手荷物が写る手荷物画像を効率よく特定することが可能になる。 As described above, according to the embodiment, in order to evaluate the degree of color approximation, the accuracy of the image search is improved, and the baggage image showing the baggage matching the baggage shown in the image input as the search key is efficiently displayed. It will be possible to identify.

なお、以上で述べた実施形態では、画像の色相を代表する値として、平均値を用いる例を述べたが実施形態はこれに限定されるものでない。例えば、別の実施形態では、最頻値などのその他の統計値を用いることができる。また、例えば、上述の実施形態では、画像全体で色相の平均値を得る例を述べたが、実施形態は、これに限定されるものではない。例えば、作業者がタグ260の外れてしまった手荷物250を撮影装置で撮影する場合、手荷物は画像の中心に寄せて撮影する可能性が高い。また、例えば、S502の処理で生成される手荷物画像においても手荷物は画像の中心に配置されている可能性が高い。即ち、これらの画像において中心付近の画素からは、手荷物の色の情報を、背景などの不要な情報を含まずに取得できる可能性が高い。そのため、制御部301は、別の実施形態では、画像の全体ではなく、中心付近の所定のサイズの領域に含まれる画素から色相の平均値などの代表値を得てもよい。 In the embodiment described above, an example in which an average value is used as a representative value of the hue of an image has been described, but the embodiment is not limited to this. For example, in another embodiment, other statistics such as mode can be used. Further, for example, in the above-described embodiment, an example of obtaining an average value of hue in the entire image has been described, but the embodiment is not limited to this. For example, when the worker takes a picture of the baggage 250 from which the tag 260 has come off with a photographing device, the baggage is likely to be moved to the center of the image and taken. Further, for example, in the baggage image generated by the process of S502, it is highly possible that the baggage is placed in the center of the image. That is, in these images, it is highly possible that the baggage color information can be obtained from the pixels near the center without including unnecessary information such as the background. Therefore, in another embodiment, the control unit 301 may obtain a representative value such as an average value of hues from pixels included in a region of a predetermined size near the center instead of the entire image.

(第1の変形例)
続いて、上述の実施形態の第1の変形例を説明する。例えば、手荷物画像に対して画像検索を実行する場合、検索キーとして用いる画像と、手荷物画像とで、画像に写る手荷物250の向きがおおよそ揃っていた方が類似度の評価精度が向上する。そのため、第1の変形例では制御部301は、手荷物画像から複数の手荷物画像を生成する。
(First modification)
Subsequently, a first modification of the above-described embodiment will be described. For example, when performing an image search on a baggage image, the evaluation accuracy of the similarity is improved when the orientation of the baggage 250 shown in the image is approximately the same for the image used as the search key and the baggage image. Therefore, in the first modification, the control unit 301 generates a plurality of baggage images from the baggage images.

図11は、第1の変形例に係る手荷物画像からの複数の手荷物画像の生成を例示する図である。図11の例では、制御部301は、手荷物画像1101を、90度ずつ回転して、3つの手荷物画像1102を生成している。なお、実施形態に係る手荷物画像からの複数の手荷物画像の生成はこれに限定されるものではない。例えば、別の実施形態では、制御部301は、一周するまで、30度ずつ回転して複数の手荷物画像を生成するなど、その他の角度で手荷物画像を回転して複数の手荷物画像を生成してもよい。或いは、更に別の実施形態では、制御部301は、例えば、手荷物画像の縮尺を変更して、または、向きと縮尺の両方を変更して複数の手荷物画像を生成してもよい。 FIG. 11 is a diagram illustrating the generation of a plurality of baggage images from the baggage images according to the first modification. In the example of FIG. 11, the control unit 301 rotates the baggage image 1101 by 90 degrees to generate three baggage images 1102. It should be noted that the generation of a plurality of baggage images from the baggage images according to the embodiment is not limited to this. For example, in another embodiment, the control unit 301 rotates the baggage image at another angle to generate a plurality of baggage images, such as rotating the baggage image by 30 degrees until it makes a full turn to generate a plurality of baggage images. May be good. Alternatively, in yet another embodiment, the control unit 301 may generate a plurality of baggage images, for example, by changing the scale of the baggage image or changing both the orientation and the scale.

図12は、第1の変形例に係る手荷物画像の生成処理の動作フローを例示する図である。画像処理装置106の制御部301は、例えば、手荷物画像の生成処理の実行指示が入力されると、図12の動作フローを開始してよい。 FIG. 12 is a diagram illustrating an operation flow of a baggage image generation process according to the first modification. For example, the control unit 301 of the image processing device 106 may start the operation flow of FIG. 12 when an execution instruction of the baggage image generation process is input.

続くS1201およびS1202の処理は、S501およびS502の処理と対応していてよく、制御部301は、例えば、S1201およびS1202の処理においてS501およびS502と同様の処理を実行してよい。 Subsequent processing of S1201 and S1202 may correspond to processing of S501 and S502, and the control unit 301 may execute the same processing as S501 and S502 in the processing of S1201 and S1202, for example.

S1203において制御部301は、生成した手荷物画像から複数の手荷物画像を生成する。制御部301は、例えば、図11で述べたように、手荷物画像の向きを変更して複数の手荷物画像を生成してよい。 In S1203, the control unit 301 generates a plurality of baggage images from the generated baggage images. For example, as described in FIG. 11, the control unit 301 may change the orientation of the baggage image to generate a plurality of baggage images.

S1204において制御部301は、S1202で生成した手荷物画像および手荷物画像から生成した複数の手荷物画像のそれぞれを、S1201で受信した識別情報と対応付けて記憶部302に保存し、フローはS1201へと戻る。一例では、制御部301は、手荷物画像および複数の手荷物画像のそれぞれを保存する際のファイル名を、識別情報を含む名称とすることで、手荷物画像および複数の手荷物画像を識別情報と対応付けて記憶部302に保存してよい。 In S1204, the control unit 301 stores each of the baggage image generated in S1202 and the plurality of baggage images generated from the baggage image in the storage unit 302 in association with the identification information received in S1201, and the flow returns to S1201. .. In one example, the control unit 301 associates the baggage image and the plurality of baggage images with the identification information by setting the file name for storing each of the baggage image and the plurality of baggage images as a name including the identification information. It may be stored in the storage unit 302.

以上で述べた様に、図12の動作フローによれば、制御部301は、手荷物画像から複数の手荷物画像を生成し、複数の手荷物画像を識別情報と対応付けて記憶部302に記憶する。そのため、例えば、上述の図8の動作フローで画像検索が実行された場合に、検索キーとして用いる画像と写っている手荷物250の向きが近い手荷物画像が、記憶部302に記憶されている可能性を高めることができる。その結果、画像検索の精度を高めることができる。 As described above, according to the operation flow of FIG. 12, the control unit 301 generates a plurality of baggage images from the baggage images, and stores the plurality of baggage images in the storage unit 302 in association with the identification information. Therefore, for example, when the image search is executed in the operation flow of FIG. 8 described above, there is a possibility that the baggage image in which the direction of the baggage 250 shown is close to the image used as the search key is stored in the storage unit 302. Can be enhanced. As a result, the accuracy of image search can be improved.

(第2の変形例)
例えば、図6を参照して述べた様に、実施形態では制御部301は、撮影装置132で撮影した手荷物250が写る撮影画像と、手荷物250が画角に入らないタイミングでコンベア101を撮影して得た背景画像とに基づいて、手荷物画像を生成する。
(Second modification)
For example, as described with reference to FIG. 6, in the embodiment, the control unit 301 photographs the captured image of the baggage 250 captured by the photographing device 132 and the conveyor 101 at the timing when the baggage 250 does not enter the angle of view. A baggage image is generated based on the background image obtained.

しかしながら、例えば、手荷物250の外面に露出している金属などでコンベア101の表面にキズがついたり、タグ260などのシールがコンベア101に貼りついてしまったりすることがある。例えば、この様な場合に、撮影画像おいて手荷物250が写る領域以外の背景領域と、背景画像に写る背景とが異なってしまうことがある。 However, for example, the surface of the conveyor 101 may be scratched by metal exposed on the outer surface of the baggage 250, or a sticker such as a tag 260 may stick to the conveyor 101. For example, in such a case, the background area other than the area where the baggage 250 is reflected in the photographed image may be different from the background imaged in the background image.

図13は、撮影装置171で撮影した画像の背景が、別のタイミングで撮影した画像の背景と大きく異なってしまう場合を例示する図である。図13(a)では、撮影画像1301においてコンベア101にタグ260が貼りついており、タグ260が写り込んでしまっている。そして、この撮影画像1301と、コンベア101に貼りついたタグ260が写っていない背景画像1302とで差分をとったとする。この場合、手荷物250の写る領域に加えてタグ260が写る領域でも差分が大きく出てしまい、手荷物250が写る領域の画定において邪魔になることがある。 FIG. 13 is a diagram illustrating a case where the background of an image taken by the photographing device 171 is significantly different from the background of an image taken at another timing. In FIG. 13A, the tag 260 is attached to the conveyor 101 in the captured image 1301, and the tag 260 is reflected in the image. Then, it is assumed that the difference is taken between the captured image 1301 and the background image 1302 in which the tag 260 attached to the conveyor 101 is not shown. In this case, in addition to the area where the baggage 250 is captured, a large difference appears in the area where the tag 260 is captured, which may be an obstacle in defining the region where the baggage 250 is captured.

そのため、変形例では、図13(b)に示す様に、画像処理装置106は、画角に手荷物250が含まれない様々なタイミングでコンベア101を撮影した複数の背景画像1302を記憶部302に記憶している。そして、制御部301は、例えば、読取装置103から撮影装置132で撮影された撮影画像1301を受信した際に、受信した撮影画像1301の背景に応じて、複数の背景画像1302のうちから背景画像を選択する。一例では、制御部301は、受信した撮影画像1301と、複数の背景画像1302のそれぞれとの明るさの差分をとった差分画像を生成し、差分の合計が最も小さい差分画像が得られた背景画像を選択して、以降の処理で用いてよい。図13(b)に示す例では、複数の背景画像1302のうちから、タグ260が写る背景画像1302が選択されている。 Therefore, in the modified example, as shown in FIG. 13B, the image processing apparatus 106 stores a plurality of background images 1302 in the storage unit 302 in which the conveyor 101 is photographed at various timings when the baggage 250 is not included in the angle of view. I remember. Then, for example, when the control unit 301 receives the captured image 1301 captured by the imaging device 132 from the reading device 103, the control unit 301 has a background image out of a plurality of background images 1302 according to the background of the received captured image 1301. Select. In one example, the control unit 301 generates a difference image obtained by taking the difference in brightness between the received captured image 1301 and each of the plurality of background images 1302, and the background in which the difference image having the smallest total difference is obtained. An image may be selected and used in subsequent processing. In the example shown in FIG. 13B, the background image 1302 in which the tag 260 appears is selected from the plurality of background images 1302.

以上で例示したように、様々なタイミングで複数の背景画像を撮影し、記憶部302に記憶しておくことで、手荷物画像の生成における手荷物250が写る領域の抽出精度を向上させることができる。なお、実施形態は、以上の例に限定されるものではない。例えば、様々な撮影条件で撮影された複数の背景画像を記憶部302に格納しておくこともできる。 As illustrated above, by taking a plurality of background images at various timings and storing them in the storage unit 302, it is possible to improve the extraction accuracy of the area where the baggage 250 is captured in the generation of the baggage image. The embodiment is not limited to the above examples. For example, a plurality of background images taken under various shooting conditions can be stored in the storage unit 302.

一例として、撮影の際の光の条件が異なる複数の背景画像を記憶部302に格納しておくことができる。光の条件は、例えば、撮影装置132が自然光が入射する建物に設置されている場合、時刻、天気、および、季節に応じた自然光の入射角などに応じて異なる。そのため、記憶部302には、時刻、天気、および、季節に応じた複数の背景画像が格納されていてもよい。 As an example, a plurality of background images having different light conditions at the time of shooting can be stored in the storage unit 302. The light conditions differ depending on, for example, when the photographing device 132 is installed in a building in which natural light is incident, the time of day, the weather, the angle of incidence of natural light according to the season, and the like. Therefore, the storage unit 302 may store a plurality of background images according to the time, weather, and season.

図14は、例示的な背景画像管理情報1400を示す図である。背景画像管理情報1400には、例えば、日付、天気、時刻、および背景画像が対応付けられたエントリが登録されている。日付は、例えば、エントリと対応する背景画像が撮影された日付である。天気は、例えば、エントリと対応する背景画像が撮影されたときの天気である。時刻は、例えば、エントリと対応する背景画像が撮影された時刻である。背景画像は、例えば、エントリの日付、天気、および時刻に示される撮影条件で撮影された背景画像である。そして、一実施形態では、制御部301は、手荷物画像を生成する場合に、手荷物250が写る撮影画像が撮影された季節、天気、および時刻と近い季節、天気、および時刻に撮影された背景画像を背景画像管理情報1400から取得してよい。一例では、制御部301は、撮影画像が撮影日の月および日と、所定の日にち以内で近い月および日に撮影されており、撮影時刻が所定の時間以内で近しく、かつ、同様の天気で撮影された背景画像を背景画像管理情報1400から取得して用いてよい。以下、第2の変形例に係る手荷物画像の生成処理の動作フローを説明する。 FIG. 14 is a diagram showing exemplary background image management information 1400. In the background image management information 1400, for example, an entry associated with a date, a weather, a time, and a background image is registered. The date is, for example, the date on which the background image corresponding to the entry was taken. The weather is, for example, the weather when the background image corresponding to the entry was taken. The time is, for example, the time when the background image corresponding to the entry was taken. The background image is, for example, a background image taken under the shooting conditions indicated by the entry date, weather, and time. Then, in one embodiment, when the control unit 301 generates the baggage image, the control unit 301 takes a background image taken at a season, a weather, and a time close to the season, the weather, and the time when the photographed image showing the baggage 250 is taken. May be obtained from the background image management information 1400. In one example, the control unit 301 captures the captured image on a month and day that is close to the shooting date within a predetermined date, the shooting time is close within a predetermined time, and the weather is similar. The background image taken in 1400 may be acquired from the background image management information 1400 and used. Hereinafter, the operation flow of the baggage image generation process according to the second modification will be described.

図15は、第2の変形例に係る手荷物画像の生成処理の動作フローを例示する図である。画像処理装置106の制御部301は、例えば、手荷物画像の生成処理の実行指示が入力されると、図15の動作フローを開始してよい。 FIG. 15 is a diagram illustrating an operation flow of a baggage image generation process according to a second modification. For example, the control unit 301 of the image processing device 106 may start the operation flow of FIG. 15 when an execution instruction of the baggage image generation process is input.

S1501において制御部301は、読取装置103から手荷物250を撮影した撮影画像と、その手荷物250に取り付けられたタグ260から読み取った識別情報との組を受信したか否かを判定する。読取装置103から撮影画像と識別情報の組を受信していない場合(S1501がNO)、フローはS1501の処理を繰り返す。一方、読取装置103から撮影画像と識別情報の組を受信している場合(S1501がYES)、フローはS1502に進む。 In S1501, the control unit 301 determines whether or not a set of a photographed image of the baggage 250 taken from the reading device 103 and the identification information read from the tag 260 attached to the baggage 250 has been received. When the set of the captured image and the identification information is not received from the reading device 103 (S1501 is NO), the flow repeats the process of S1501. On the other hand, when the set of the captured image and the identification information is received from the reading device 103 (YES in S1501), the flow proceeds to S1502.

S1502において制御部301は、記憶部302に記憶されている複数の背景画像を読み出す。例えば、制御部301は、図13で示したように、異なる背景が写る複数の背景画像を読み出してよい。また、例えば、別の実施形態では制御部301は、S1501で受信した撮影画像の季節、天気、および時刻と近い季節、天気、および時刻に撮影された背景画像を背景画像管理情報1400から読み出してもよい。 In S1502, the control unit 301 reads out a plurality of background images stored in the storage unit 302. For example, as shown in FIG. 13, the control unit 301 may read out a plurality of background images showing different backgrounds. Further, for example, in another embodiment, the control unit 301 reads out the season, the weather, and the background image taken at the season, the weather, and the time of the captured image received in S1501 from the background image management information 1400. May be good.

S1503において制御部301は、複数の背景画像のうちから、手荷物画像の生成に用いる背景画像を選択する。例えば、制御部301は、受信した撮影画像と、複数の背景画像のそれぞれとで各画素の明るさの差分をとり、差分の合計が小さい背景画像を選択して、以降の処理で用いてよい。 In S1503, the control unit 301 selects a background image to be used for generating the baggage image from the plurality of background images. For example, the control unit 301 may take a difference in the brightness of each pixel between the received captured image and each of the plurality of background images, select a background image having a small total difference, and use it in the subsequent processing. ..

続くS1504およびS1505の処理は、例えば、S502およびS503の処理と対応していてよく、制御部301は、S1504およびS1505においてS502およびS503と同様の処理を実行してよい。 Subsequent processing of S1504 and S1505 may correspond to, for example, processing of S502 and S503, and the control unit 301 may execute the same processing as S502 and S503 in S1504 and S1505.

以上の図15の動作フローによれば、受信した撮影画像に応じて適切な背景画像が選択されるため、撮影画像からの手荷物画像の生成の際の手荷物250が写る領域の切り出し精度を向上させることができる。 According to the operation flow of FIG. 15 above, an appropriate background image is selected according to the received captured image, so that the accuracy of cutting out the area where the baggage 250 is captured when the baggage image is generated from the captured image is improved. be able to.

なお、第1の変形例および第2の変形例で記憶部302に記憶される手荷物画像と、識別情報と組に対しても、図8で述べた画像検索処理を実行することが可能である。 It is possible to execute the image search process described in FIG. 8 for the baggage image stored in the storage unit 302 in the first modification and the second modification, and the identification information and the set. ..

以上において、実施形態を例示したが、実施形態はこれに限定されるものではない。例えば、上述の動作フローは例示であり、実施形態はこれに限定されるものではない。可能な場合には、動作フローは、処理の順番を変更して実行されてもよく、別に更なる処理を含んでもよく、または、一部の処理が省略されてもよい。例えば、図15の動作フローにおいて、S1505の処理の代わりに、図12で述べたS1203およびS1204の処理を実行し、手荷物画像から複数の手荷物画像を生成して、識別情報と対応付けて記憶してもよい。 Although the embodiments have been illustrated above, the embodiments are not limited thereto. For example, the above-mentioned operation flow is an example, and the embodiment is not limited thereto. When possible, the operation flow may be executed by changing the order of processing, may include additional processing, or may omit some processing. For example, in the operation flow of FIG. 15, instead of the processing of S1505, the processing of S1203 and S1204 described in FIG. 12 is executed, a plurality of baggage images are generated from the baggage images, and stored in association with the identification information. You may.

また、上述の実施形態では、タグ260には識別情報がコード化されたバーコードが印刷される例を述べているが、実施形態はこれに限定されるものではない。例えば、別の実施形態では、2次元コードとして識別情報がコード化されてもよい。或いは、タグ260は、RFID(radio frequency identifier)タグであってよく、読取装置103は、RFIDリーダを含み、近距離無線通信で識別情報を読み取ってもよい。 Further, in the above-described embodiment, an example in which a barcode in which identification information is encoded is printed on the tag 260 is described, but the embodiment is not limited to this. For example, in another embodiment, the identification information may be encoded as a two-dimensional code. Alternatively, the tag 260 may be an RFID (radio frequency identifier) tag, and the reading device 103 may include an RFID reader and read the identification information by short-range wireless communication.

また、上述の実施形態では読取装置103が、手荷物250の撮影画像と識別情報とを取得し、画像処理装置106に通知する例を述べているが、実施形態はこれに限定されるものではない。例えば、チェックインカウンタ201での手荷物250の預け入れ時に、チェックインカウンタに設置された端末が、手荷物250を撮影し、撮影した撮影画像と、手荷物250に対して発行した識別情報とを対応付けて画像処理装置106に通知してもよい。 Further, in the above-described embodiment, the reading device 103 acquires the captured image and the identification information of the baggage 250 and notifies the image processing device 106, but the embodiment is not limited to this. .. For example, when the baggage 250 is checked in at the check-in counter 201, the terminal installed in the check-in counter photographs the baggage 250, and the photographed image is associated with the identification information issued to the baggage 250. The image processing device 106 may be notified.

また、上述の実施形態では、手荷物を例に説明を行っているが、実施形態はこれに限定されるものではなく、実施形態はその他の荷物に適用されてもよい。例えば、上述の実施形態に係る荷物の管理は、配送センターなどの物流センターにおける荷物の仕分けなどにおいて利用されてもよい。 Further, in the above-described embodiment, the baggage is described as an example, but the embodiment is not limited to this, and the embodiment may be applied to other luggage. For example, the management of packages according to the above-described embodiment may be used for sorting packages in a distribution center such as a distribution center.

なお、上述の実施形態において、例えば、S802の処理では、画像処理装置106の制御部301は、評価部311として動作する。また、例えば、S803~S804の処理では、画像処理装置106の制御部301は、変更部312として動作する。例えば、S805の処理では、画像処理装置106の制御部301は、返信部313として動作する。 In the above-described embodiment, for example, in the processing of S802, the control unit 301 of the image processing device 106 operates as the evaluation unit 311. Further, for example, in the processing of S803 to S804, the control unit 301 of the image processing device 106 operates as the change unit 312. For example, in the process of S805, the control unit 301 of the image processing device 106 operates as the reply unit 313.

図16は、実施形態に係る画像処理装置106を実現するためのコンピュータ1600のハードウェア構成を例示する図である。図16の画像処理装置106を実現するためのハードウェア構成は、例えば、プロセッサ1601、メモリ1602、記憶装置1603、可搬型記憶媒体インタフェース1604、通信インタフェース1606、および入出力インタフェース1607を備える。なお、プロセッサ1601、メモリ1602、記憶装置1603、可搬型記憶媒体インタフェース1604、通信インタフェース1606、入出力インタフェース1607は、例えば、バス1608を介して互いに接続されている。 FIG. 16 is a diagram illustrating a hardware configuration of a computer 1600 for realizing the image processing device 106 according to the embodiment. The hardware configuration for realizing the image processing device 106 of FIG. 16 includes, for example, a processor 1601, a memory 1602, a storage device 1603, a portable storage medium interface 1604, a communication interface 1606, and an input / output interface 1607. The processor 1601, the memory 1602, the storage device 1603, the portable storage medium interface 1604, the communication interface 1606, and the input / output interface 1607 are connected to each other via, for example, the bus 1608.

プロセッサ1601は、例えば、シングルプロセッサであっても、マルチプロセッサやマルチコアであってもよい。プロセッサ1601は、メモリ1602を利用して例えば上述の図5、図8、図12、または図15の動作フローの手順を記述したプログラムを実行することにより、上述した制御部301の一部または全部の機能を提供する。例えば、プロセッサ1601は、プログラムを実行することで、上述の評価部311、変更部312、および返信部313として動作してよい。 The processor 1601 may be, for example, a single processor, a multiprocessor, or a multicore. The processor 1601 uses the memory 1602 to execute, for example, a program describing the procedure of the operation flow of FIG. 5, FIG. 8, FIG. 12, or FIG. Provides the functionality of. For example, the processor 1601 may operate as the evaluation unit 311, the change unit 312, and the reply unit 313 described above by executing the program.

メモリ1602は、例えば半導体メモリであり、RAM領域およびROM領域を含んでいてよい。記憶装置1603は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、または外部記憶装置である。なお、RAMは、Random Access Memoryの略称である。また、ROMは、Read Only Memoryの略称である。 The memory 1602 is, for example, a semiconductor memory and may include a RAM area and a ROM area. The storage device 1603 is, for example, a semiconductor memory such as a hard disk or a flash memory, or an external storage device. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory.

可搬型記憶媒体インタフェース1604は、プロセッサ1601の指示に従って可搬型記憶媒体1605にアクセスする。可搬型記憶媒体1605は、例えば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD-ROM、DVD等)などにより実現される。なお、USBは、Universal Serial Busの略称である。CDは、Compact Discの略称である。DVDは、Digital Versatile Diskの略称である。 The portable storage medium interface 1604 accesses the portable storage medium 1605 according to the instructions of the processor 1601. The portable storage medium 1605 is, for example, a semiconductor device (USB memory or the like), a medium to which information is input / output by magnetic action (magnetic disk or the like), a medium to which information is input / output by optical action (CD-ROM, etc.). It is realized by DVD etc.). USB is an abbreviation for Universal Serial Bus. CD is an abbreviation for Compact Disc. DVD is an abbreviation for Digital Versatile Disk.

画像処理装置106の記憶装置1603は、例えば、手荷物画像と識別情報とを対応付けて記憶していてよい。なお、メモリ1602、記憶装置1603、可搬型記憶媒体1605、およびこれらの組み合わせは、上述の記憶部302の例である。 The storage device 1603 of the image processing device 106 may store, for example, the baggage image and the identification information in association with each other. The memory 1602, the storage device 1603, the portable storage medium 1605, and a combination thereof are examples of the storage unit 302 described above.

通信インタフェース1606は、プロセッサ1601の指示に従ってネットワークを介してデータを送受信する。なお、通信インタフェース1606は、上述の通信部303の一例である。入出力インタフェース1607は、例えば、入力装置および出力装置との間のインタフェースであってよい。入力装置は、例えばユーザからの指示を受け付けるキーボードやマウスなどのデバイスである。出力装置は、例えばディスプレーなどの表示装置、およびプリンタなどの印刷装置である。 The communication interface 1606 transmits and receives data via the network according to the instructions of the processor 1601. The communication interface 1606 is an example of the above-mentioned communication unit 303. The input / output interface 1607 may be, for example, an interface between an input device and an output device. The input device is, for example, a device such as a keyboard or a mouse that receives an instruction from a user. The output device is, for example, a display device such as a display and a printing device such as a printer.

図17は、実施形態に係る端末107を実現するためのコンピュータ1700のハードウェア構成を例示する図である。なお、端末107は、例えば、タブレット端末、スマートフォン、および携帯電話機などであってよい。図17の端末107を実現するためのハードウェア構成は、例えば、プロセッサ1701、メモリ1702、通信装置1703、入力装置1704、表示装置1705、および撮影装置171を備える。なお、メモリ1702、通信装置1703、入力装置1704、表示装置1705、および撮影装置171は、例えば、バスなどの信号線1610を介してプロセッサ1701に接続されていてよい。 FIG. 17 is a diagram illustrating a hardware configuration of a computer 1700 for realizing the terminal 107 according to the embodiment. The terminal 107 may be, for example, a tablet terminal, a smartphone, a mobile phone, or the like. The hardware configuration for realizing the terminal 107 of FIG. 17 includes, for example, a processor 1701, a memory 1702, a communication device 1703, an input device 1704, a display device 1705, and a photographing device 171. The memory 1702, the communication device 1703, the input device 1704, the display device 1705, and the photographing device 171 may be connected to the processor 1701 via, for example, a signal line 1610 such as a bus.

プロセッサ1701は、メモリ1702を利用して例えば上述の端末107が実行する処理の手順を記述したプログラムを実行することにより、端末107が有する機能の一部または全部の機能を提供する。 The processor 1701 provides some or all of the functions of the terminal 107 by, for example, executing a program describing the procedure of the process executed by the terminal 107 by using the memory 1702.

メモリ1702は、例えば半導体メモリであり、RAM領域およびROM領域を含んでいてよい。通信装置1703は、例えば、プロセッサ1701の指示に従ってネットワークを介して管理サーバ105および画像処理装置106とデータを送受信する。入力装置1704は、例えば、静電式タッチパネルおよび感圧式タッチパネルなどであってよい。表示装置1705は、例えば、ディスプレーであってよい。一例では、ユーザは例えば表示装置1705の表示画面に沿って配設されたタッチパネルなどの入力装置1704を介して入力を行ってよい。 The memory 1702 is, for example, a semiconductor memory and may include a RAM area and a ROM area. The communication device 1703 transmits / receives data to / from the management server 105 and the image processing device 106 via the network according to the instruction of the processor 1701, for example. The input device 1704 may be, for example, an electrostatic touch panel, a pressure sensitive touch panel, or the like. The display device 1705 may be, for example, a display. In one example, the user may input via an input device 1704 such as a touch panel arranged along the display screen of the display device 1705, for example.

撮影装置171は、例えば、カメラであり、手荷物250の画像を撮影するために用いられてよい。 The imaging device 171 is, for example, a camera and may be used to capture an image of the baggage 250.

なお、実施形態に係る各プログラムは、例えば、記憶部302、およびメモリ1702に予め記憶されていてよい。または、実施形態に係る各プログラムは、例えば、プログラムサーバなどのサーバからネットワークを介して提供されてもよい。 Each program according to the embodiment may be stored in advance in, for example, the storage unit 302 and the memory 1702. Alternatively, each program according to the embodiment may be provided from a server such as a program server via a network.

また、図16および図17を参照して述べた画像処理装置106および端末107を実現するためのハードウェア構成は、例示であり、実施形態はこれに限定されるものではない。例えば、上述の画像処理装置106および端末107の一部または全部の機能がFPGAおよびSoCなどによるハードウェアとして実装されてもよい。なお、FPGAは、Field Programmable Gate Arrayの略称である。SoCは、System-on-a-chipの略称である。 Further, the hardware configuration for realizing the image processing device 106 and the terminal 107 described with reference to FIGS. 16 and 17 is an example, and the embodiment is not limited thereto. For example, some or all of the functions of the image processing device 106 and the terminal 107 described above may be implemented as hardware by FPGA, SoC, or the like. FPGA is an abbreviation for Field Programmable Gate Array. SoC is an abbreviation for System-on-a-chip.

以上において、いくつかの実施形態が説明される。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態および代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態が実施され得ることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除してまたは置換して、或いは実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。 In the above, some embodiments will be described. However, the embodiments are not limited to the above embodiments and should be understood to include various variants and alternatives of the above embodiments. For example, it will be understood that various embodiments can be embodied by transforming the components within a range that does not deviate from the purpose and scope. It will also be appreciated that various embodiments can be implemented by appropriately combining the plurality of components disclosed in the above-described embodiments. Further, various embodiments are implemented by removing or replacing some components from all the components shown in the embodiments, or by adding some components to the components shown in the embodiments. Those skilled in the art will understand that it can be done.

100 手荷物取扱システム
101 コンベア
102 コンベア制御装置
103 読取装置
104 コントローラ
105 管理サーバ
106 画像処理装置
107 端末
131 バーコードリーダ
132 撮影装置
150 ネットワーク
171 撮影装置
201 チェックインカウンタ
202 手荷物検査装置
250 手荷物
260 タグ
270 コンテナ
290 メイクエリア
301 制御部
302 記憶部
303 通信部
311 評価部
312 変更部
313 返信部
1600 コンピュータ
1601 プロセッサ
1602 メモリ
1603 記憶装置
1604 可搬型記憶媒体インタフェース
1605 可搬型記憶媒体
1606 通信インタフェース
1607 入出力インタフェース
1608 バス
1610 信号線
1700 コンピュータ
1701 プロセッサ
1702 メモリ
1703 通信装置
1704 入力装置
1705 表示装置
100 Baggage handling system 101 Conveyor 102 Conveyor control device 103 Reading device 104 Controller 105 Management server 106 Image processing device 107 Terminal 131 Barcode reader 132 Imaging device 150 Network 171 Imaging device 201 Check-in counter 202 Baggage inspection device 250 Baggage 260 Tag 270 Container 290 Make area 301 Control unit 302 Storage unit 303 Communication unit 311 Evaluation unit 312 Change unit 313 Reply unit 1600 Computer 1601 Processor 1602 Memory 1603 Storage device 1604 Portable storage medium interface 1605 Portable storage medium 1606 Communication interface 1607 Input / output interface 1608 Bus 1610 Signal line 1700 Computer 1701 Processor 1702 Memory 1703 Communication device 1704 Input device 1705 Display device

Claims (7)

画像検索依頼を受信した場合、異なる荷物が写る複数の荷物画像であって、それぞれが荷物の持ち主を識別するための識別情報と対応付けられている前記複数の荷物画像に対して、前記画像検索依頼に含まれる荷物が写る画像を検索キーとして画像検索を実行して、前記複数の荷物画像のそれぞれと、前記画像検索依頼に含まれる荷物が写る画像との類似度を評価し、
前記複数の荷物画像のそれぞれの色と、前記画像検索依頼に含まれる荷物が写る画像の色とが所定の判定条件を満たさないと判定した荷物画像の前記類似度を低くなるように変更し、
変更後の前記類似度が所定の条件を満たす荷物画像と、前記所定の条件を満たす荷物画像に対応付けられている前記識別情報とを返信する、
処理を、画像処理装置に実行させる画像処理プログラム。
When an image search request is received, the image search is performed on a plurality of baggage images showing different packages, each of which is associated with identification information for identifying the owner of the baggage. An image search is performed using the image of the baggage included in the request as a search key, and the similarity between each of the plurality of baggage images and the image of the baggage included in the image search request is evaluated.
The degree of similarity of the baggage image determined that the color of each of the plurality of baggage images and the color of the image showing the baggage included in the image search request do not satisfy the predetermined determination conditions is changed.
The changed baggage image having the similarity satisfying a predetermined condition and the identification information associated with the baggage image satisfying the predetermined condition are returned.
An image processing program that causes an image processing device to execute processing.
前記荷物が写る画像を代表する色相値と、前記複数の荷物画像のそれぞれを代表する色相値との色相環における角度差の大きさが所定の角度以上である場合に、所定の判定条件を満たさないと判定する、
処理を、更に画像処理装置に実行させる、請求項1に記載の画像処理プログラム。
A predetermined determination condition is satisfied when the magnitude of the angle difference in the hue circle between the hue value representing the image in which the luggage is captured and the hue value representing each of the plurality of luggage images is equal to or greater than a predetermined angle. Judge not,
The image processing program according to claim 1, wherein the processing is further executed by an image processing apparatus.
コンベア上を流れる第1の荷物に取り付けられたタグから読取装置で読み取られた第1の識別情報と、撮影装置が撮影した前記第1の荷物が写る第1の撮影画像とを受信した場合、荷物が画角に含まれないタイミングで前記撮影装置が撮影した背景画像と、前記第1の撮影画像とに基づいて、前記第1の撮影画像から前記第1の荷物が写る領域を抽出した第1の荷物画像を生成し、
前記第1の荷物画像を前記第1の識別情報と対応付け、前記画像検索の検索対象として前記複数の荷物画像に含めて記憶部に保存する、
処理を、更に画像処理装置に実行させる、請求項1または2に記載の画像処理プログラム。
When the first identification information read by the reading device from the tag attached to the first baggage flowing on the conveyor and the first photographed image of the first baggage photographed by the photographing device are received. A region in which the first luggage is captured is extracted from the first captured image based on the background image captured by the photographing apparatus at a timing when the luggage is not included in the angle of view and the first captured image. Generate a baggage image of 1 and
The first baggage image is associated with the first identification information, included in the plurality of baggage images as a search target of the image search, and stored in a storage unit.
The image processing program according to claim 1 or 2, wherein the processing is further executed by an image processing apparatus.
前記第1の荷物画像を回転することで第2の荷物画像を生成し、
前記第2の荷物画像を前記第1の識別情報と対応付け、前記画像検索の検索対象として前記複数の荷物画像に含めて前記記憶部に保存する、
処理を、更に前記画像処理装置に実行させる、請求項3に記載の画像処理プログラム。
By rotating the first baggage image, a second baggage image is generated.
The second baggage image is associated with the first identification information, included in the plurality of baggage images as a search target of the image search, and stored in the storage unit.
The image processing program according to claim 3, wherein the processing is further executed by the image processing apparatus.
荷物が画角に含まれないタイミングで前記撮影装置が撮影した複数の背景画像のうちで、前記第1の撮影画像との明るさの差分が最も小さくなる背景画像を選択する、
処理を、更に前記画像処理装置に実行させる、請求項3または4に記載の画像処理プログラム。
Among the plurality of background images taken by the photographing device at the timing when the baggage is not included in the angle of view, the background image having the smallest difference in brightness from the first photographed image is selected.
The image processing program according to claim 3 or 4, wherein the processing is further executed by the image processing apparatus.
画像検索依頼を受信した場合、異なる荷物が写る複数の荷物画像であって、それぞれが荷物の持ち主を識別するための識別情報と対応付けられている前記複数の荷物画像に対して、前記画像検索依頼に含まれる荷物が写る画像を検索キーとして画像検索を実行して、前記複数の荷物画像のそれぞれと、前記画像検索依頼に含まれる荷物が写る画像との類似度を評価し、
前記複数の荷物画像のうちで、前記画像検索依頼に含まれる荷物が写る画像の色と、色が所定の判定条件を満たさないと判定した荷物画像の前記類似度を低くなるように変更し、
変更後の前記類似度が所定の条件を満たす荷物画像と、前記所定の条件を満たす荷物画像に対応付けられている前記識別情報とを返信する、
ことを含む、画像処理装置が実行する画像処理方法。
When an image search request is received, the image search is performed on a plurality of baggage images showing different packages, each of which is associated with identification information for identifying the owner of the baggage. An image search is performed using the image of the baggage included in the request as a search key, and the similarity between each of the plurality of baggage images and the image of the baggage included in the image search request is evaluated.
Among the plurality of baggage images, the color of the image showing the baggage included in the image search request and the baggage image determined that the color does not satisfy the predetermined determination condition are changed so as to be low in similarity.
The changed baggage image having the similarity satisfying a predetermined condition and the identification information associated with the baggage image satisfying the predetermined condition are returned.
An image processing method performed by an image processing apparatus, including the above.
画像検索依頼を受信した場合、異なる荷物が写る複数の荷物画像であって、それぞれが荷物の持ち主を識別するための識別情報と対応付けられている前記複数の荷物画像に対して、前記画像検索依頼に含まれる荷物が写る画像を検索キーとして画像検索を実行して、前記複数の荷物画像のそれぞれと、前記画像検索依頼に含まれる荷物が写る画像との類似度を評価する評価部と、
前記複数の荷物画像のうちで、前記画像検索依頼に含まれる荷物が写る画像の色と、色が所定の判定条件を満たさないと判定した荷物画像の前記類似度を低くなるように変更する変更部と、
変更後の前記類似度が所定の条件を満たす荷物画像と、前記所定の条件を満たす荷物画像に対応付けられている前記識別情報とを返信する返信部と、
を含む、画像処理装置。
When an image search request is received, the image search is performed on a plurality of baggage images showing different packages, each of which is associated with identification information for identifying the owner of the baggage. An evaluation unit that executes an image search using the image of the baggage included in the request as a search key and evaluates the similarity between each of the plurality of baggage images and the image of the baggage included in the image search request.
Among the plurality of baggage images, the color of the image showing the baggage included in the image search request and the baggage image determined that the color does not satisfy the predetermined determination condition are changed so as to be low in similarity. Department and
A reply unit that returns a package image whose similarity after the change satisfies a predetermined condition and the identification information associated with the package image satisfying the predetermined condition.
Image processing equipment, including.
JP2018223436A 2018-11-29 2018-11-29 Image processing programs, image processing methods, and image processing equipment Active JP7095574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018223436A JP7095574B2 (en) 2018-11-29 2018-11-29 Image processing programs, image processing methods, and image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223436A JP7095574B2 (en) 2018-11-29 2018-11-29 Image processing programs, image processing methods, and image processing equipment

Publications (2)

Publication Number Publication Date
JP2020087172A JP2020087172A (en) 2020-06-04
JP7095574B2 true JP7095574B2 (en) 2022-07-05

Family

ID=70908406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018223436A Active JP7095574B2 (en) 2018-11-29 2018-11-29 Image processing programs, image processing methods, and image processing equipment

Country Status (1)

Country Link
JP (1) JP7095574B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022123176A (en) * 2021-02-11 2022-08-24 株式会社デンソーウェーブ Hand baggage searching method and hand baggage information management system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007198963A (en) 2006-01-27 2007-08-09 Hinode Shiki Kogyo Kk Inspection device and method of corrugated cardboard
JP2009242038A (en) 2008-03-31 2009-10-22 Toshiba Tec Corp Portable baggage management device
JP2013203493A (en) 2012-03-27 2013-10-07 Denso Wave Inc System for use in airport
JP2017162103A (en) 2016-03-08 2017-09-14 株式会社東芝 Inspection work support system, inspection work support method, and inspection work support program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850652B2 (en) * 2006-10-13 2012-01-11 キヤノン株式会社 Image search apparatus, control method therefor, program, and storage medium
JP5780083B2 (en) * 2011-09-23 2015-09-16 日本電気株式会社 Inspection device, inspection system, inspection method and program
JP2018005409A (en) * 2016-06-29 2018-01-11 スカイマーク株式会社 Information processing terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007198963A (en) 2006-01-27 2007-08-09 Hinode Shiki Kogyo Kk Inspection device and method of corrugated cardboard
JP2009242038A (en) 2008-03-31 2009-10-22 Toshiba Tec Corp Portable baggage management device
JP2013203493A (en) 2012-03-27 2013-10-07 Denso Wave Inc System for use in airport
JP2017162103A (en) 2016-03-08 2017-09-14 株式会社東芝 Inspection work support system, inspection work support method, and inspection work support program

Also Published As

Publication number Publication date
JP2020087172A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6569532B2 (en) Management system, list creation device, list creation method, management method, and management program
CA3016217C (en) Method for making a description of a piece of luggage and luggage description system
US20150213328A1 (en) Object identification apparatus, object identification method, and program
US20170004384A1 (en) Image based baggage tracking system
US9679221B2 (en) Object identification apparatus, object identification method, and program
US20080152082A1 (en) Method and apparatus for use in security screening providing incremental display of threat detection information and security system incorporating same
CN105701519A (en) Realogram scene analysis of images: superpixel scene analysis
CN112633297B (en) Target object identification method and device, storage medium and electronic device
Schlüter et al. Vision-based identification service for remanufacturing sorting
WO2015115274A1 (en) Object assessment device, image sensor, and object assessment method
US10860877B2 (en) Logistics parcel picture processing method, device and system
CN111985466A (en) Container dangerous goods mark identification method
Yasir et al. Instance segmentation ship detection based on improved Yolov7 using complex background SAR images
EP3113091A1 (en) Image based baggage tracking system
JP7095574B2 (en) Image processing programs, image processing methods, and image processing equipment
Kowkabi et al. Hybrid preprocessing algorithm for endmember extraction using clustering, over-segmentation, and local entropy criterion
US20210016324A1 (en) Determining Distribution and/or Sorting Information for the Automated Distribution and/or Sorting of a Consignment
JP2020087171A (en) Image processing program, image processing method and image processing apparatus
CN110705552A (en) Luggage tray identification method and device
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
AU2018204115B2 (en) A method for automatic material classification and texture simulation for 3d models
Zhao et al. Mobile-based hazmat sign detection and recognition
US10134163B2 (en) Dynamic detection of an object framework in a mobile device captured image
US11676407B2 (en) System and method for supporting user to read X-RAY image
JP2020187438A (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210730

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210730

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210730

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7095574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150