JP7507131B2 - 物品照合システムおよび物品照合方法 - Google Patents

物品照合システムおよび物品照合方法 Download PDF

Info

Publication number
JP7507131B2
JP7507131B2 JP2021142618A JP2021142618A JP7507131B2 JP 7507131 B2 JP7507131 B2 JP 7507131B2 JP 2021142618 A JP2021142618 A JP 2021142618A JP 2021142618 A JP2021142618 A JP 2021142618A JP 7507131 B2 JP7507131 B2 JP 7507131B2
Authority
JP
Japan
Prior art keywords
identification information
unit
learning model
matching
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021142618A
Other languages
English (en)
Other versions
JP2023035619A (ja
Inventor
裕喜 竹内
正人 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2021142618A priority Critical patent/JP7507131B2/ja
Publication of JP2023035619A publication Critical patent/JP2023035619A/ja
Application granted granted Critical
Publication of JP7507131B2 publication Critical patent/JP7507131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は、物品照合システムおよび物品照合方法に関する。
従来、車両の部品等の物品を同じ種類の物品ごとに収容体に収容することが行われている。また、収容体に付された物品の品番等の識別情報と、収容体に収容された複数の物品の各々の品番等の識別情報と、が一致しているか否かを照合する照合作業がユーザにより行われている。照合作業を電子化する技術として、例えば、物品および作業者の手袋に添付された複数のQR(Quick Response)コード(登録商標)を撮影した撮影画像を解析するシステムが知られている(例えば、特許文献1参照)。
特開2008-225913号公報
しかしながら、従来技術では、作業者の動きに応じた作業支援を行うために、物品および作業者の手袋に添付された複数のQRコード(登録商標)の映像を常時撮影する必要があり、処理負荷が問題となる場合があった。
本開示が解決しようとする課題は、低処理負荷で物品の照合を行うことができる物品照合システムおよび物品照合方法を提供することである。
本開示にかかる物品照合システムは、撮影部と、第1取得部と、送信部と、第2取得部と、照合部と、を備える。撮影部は、収容体に収容された物品を撮影可能な位置に配置され、撮影を指示する撮影指示信号を受信したときに撮影を行う。第1取得部は、前記収容体に付された前記物品を識別する第1識別情報を読み取る読取装置から前記第1識別情報を取得する。送信部は、前記第1識別情報を取得したときに前記撮影部に前記撮影指示信号を送信する。第2取得部は、前記撮影部により撮影された画像を示す撮影画像を取得する。照合部は、前記第1識別情報と前記撮影画像に含まれる前記物品を識別する第2識別情報とを照合する。照合部は、前記第1識別情報および前記撮影画像から前記第1識別情報と前記第2識別情報との照合結果および前記第2識別情報を出力する第1学習モデル、前記撮影画像から前記第2識別情報を出力する第2学習モデル、および前記第1識別情報および前記撮影画像から前記照合結果を出力する第3学習モデル、の各々の学習モデルを識別する学習モデル識別情報と、前記撮影画像の種類を表す種類識別情報と、を予め対応付けた記憶部から、照合対象の前記撮影画像の種類を表す前記種類識別情報に対応付けられた前記学習モデル識別情報によって識別される前記学習モデルを用いて、前記第1識別情報と前記第2識別情報とを照合する。
本開示にかかる物品照合システムおよび物品照合方法によれば、低処理負荷で物品の照合を行うことができる。
図1は、実施形態に係る物品照合システムの一例を示す模式図である。 図2Aは、実施形態に係る収容体に収容された物品の一例を示す模式図である。 図2Bは、実施形態に係る収容体の一例の側面図である。 図3は、実施形態に係る情報処理装置の一例のハードウェア構成図である。 図4は、実施形態に係る情報処理装置の一例の機能ブロック図である。 図5は、実施形態に係る撮影画像の一例の模式図である。 図6Aは、実施形態に係る第1学習モデルの一例の説明図である。 図6Bは、実施形態に係る第2学習モデルの一例の説明図である。 図6Cは、実施形態に係る第3学習モデルの一例の説明図である。 図7は、実施形態に係る表示画像の一例の模式図である。 図8は、実施形態に係る情報処理の流れの一例を示すフローチャートである。
以下に添付図面を参照して、本開示に係る物品照合システムおよび物品照合方法の実施形態を説明する。
図1は、本実施形態の物品照合システム1の一例を示す模式図である。物品照合システム1は、情報処理装置10と、撮影部20と、読取装置50と、を備える。
物品照合システム1は、収容体30に収容された物品40の第2識別情報D2と収容体30に付された第1識別情報D1とを照合するシステムである。本実施形態では、第2識別情報D2と第1識別情報D1との照合を、物品40の照合と称して説明する場合がある。
物品40とは、照合対象の物である。物品40は、例えば、車両等の製品、製品または建造物等を構成する部品、果実等の食品、等である。本実施形態では、物品40が、車両を構成する部品である形態を一例として説明する。
収容体30は、物品40を収容する物である。収容体30は、1または複数の物品40を収容する。収容体30は、収容体30に収容された物品40を収容体30の外部から撮影可能に構成されている。本実施形態では、収容体30は開口部を有し、開口部を介して収容された物品40を収容体30の外部から撮影可能に構成されている。なお、収容体30の少なくとも一部を透明な部材で構成し、該透明な部材を介して、収容された収容体30を撮影可能に構成してもよい。
図2Aは、収容体30に収容された物品40の一例を示す模式図である。本実施形態では、収容体30に複数の物品40が収容された形態を一例として説明する。詳細には、本実施形態では、収容体30には、物品40A~物品40Dの4個の物品40が収容された形態を一例として説明する。なお、収容体30に収容される物品40の数は、1個以上であればよく、4個に限定されない。
収容体30には、同じ分類に属する物品40が収容される。分類とは、複数の物品40を予め定められた分類条件に従って分類した各群を意味する。分類は、例えば、物品40の種類、物品40の管理単位、物品40の製造単位、等である。同じ分類に属する物品40を収容した収容体30は、例えば、工程間または事業所間等を受け渡される。
収容体30に収容された物品40には、第2識別情報D2が付与されている。第2識別情報D2は、物品40の識別情報である。本実施形態では、第2識別情報D2は、物品40の属する分類の識別情報である形態を一例として説明する。第2識別情報D2は、例えば、物品40の品番等である。第2識別情報D2は、識別情報を表す文字等によって表される。
第2識別情報D2は、例えば、物品40に付与されたラベルL2等に設けられている。第2識別情報D2は、物品40に直接設けられた形態であってもよい。
図2Bは、収容体30の一例の側面図である。収容体30には、収容体30に収容された物品40の第1識別情報D1が付与されている。
第1識別情報D1は、収容体30に収容された物品40の識別情報である。本実施形態では、第1識別情報D1は、物品40の属する分類の識別情報である形態を一例として説明する。具体的には、例えば、第1識別情報D1および第2識別情報D2は、物品40の品番等である。
第1識別情報D1は、例えば、収容体30に付与されたラベルL1等に設けられている。第1識別情報D1は、識別情報を表す文字、または識別情報を表す識別子等によって表される。識別情報を表す識別子は、例えば、バーコード等の一次元コード、QR(Quick Response)コード(登録商標)等の二次元コードである。本実施形態では、第1識別情報D1がラベルL1に付されたQRコードQによって表される形態を一例として説明する。
なお、第1識別情報D1は、収容体30に直接設けられた形態であってもよい。
本実施形態では、同じ分類に属する物品40が同じ収容体30に収容されて受け渡される場面を想定して説明する。このため、正しい状態では、収容体30に付された第1識別情報D1と、収容体30に収容された複数の物品40の各々の第2識別情報D2と、が一致した状態となる。しかし、収容体30に収容された物品40の少なくとも一部の第2識別情報D2が、収容体30に付された第1識別情報D1とは異なる場合がある。例えば、1つの収容体30に、異なる分類に属する物品40が収容される場合がある。
従来技術では、ユーザが、収容体30に付された第1識別情報D1と、収容体30に収容された複数の物品40の第2識別情報D2の各々と、が一致しているか否かを照合する照合作業を行っていた。本実施形態の物品照合システム1では、この照合作業を電子化した照合処理として実行する。
図1に戻り説明を続ける。撮影部20は、収容体30に収容された物品40を撮影可能な位置に配置されている。撮影部20は、撮影によって撮影画像データを得る。本実施形態では、撮影画像データを、単に、撮影画像と称して説明する。撮影部20は、後述する情報処理装置10から撮影指示信号を受信したときに、収容体30に収容された物品40を撮影し、撮影画像を情報処理装置10へ出力する。本実施形態では、撮影部20は、収容体30に収容された全ての物品40を撮影可能となるように、撮影画角が予め調整されている。このため、撮影部20によって撮影された撮影画像には、収容体30に収容されている物品40A~物品40Bが含まれる。
読取装置50は、収容体30に付された物品40の第1識別情報D1を読取る読取装置である。上述したように、本実施形態では、第1識別情報D1がQRコードQとしてラベルL1に設けられている形態を一例として説明する。このため、本実施形態では、読取装置50が、QRコードQを読取ることで、QRコードQによって表される第1識別情報D1を出力するバーコードリーダである形態を一例として説明する。
本実施形態では、読取装置50は、ユーザによる操作によって読取装置50のQRコードQの読取面がラベルL1のQRコードQに対向配置されることで、ラベルL1に設けられたQRコードQを読取る形態を一例として説明する。
情報処理装置10は、収容体30に収容された物品40の第2識別情報D2と収容体30に付された第1識別情報D1とを照合する。情報処理装置10と、撮影部20および読取装置50とは、通信可能に接続されている。
情報処理装置10のハードウェア構成を説明する。
図3は、情報処理装置10の一例のハードウェア構成図である。
情報処理装置10は、CPU(Central Processing Unit)11A、ROM(Read Only Memory)11B、RAM(Random Access Memory)11C、およびI/F11D等がバス11Eにより相互に接続され、通常のコンピュータを利用したハードウェア構成である。
CPU11Aは、本実施形態の情報処理装置10を制御する演算装置である。ROM11Bは、CPU11Aによる各種処理を実現するプログラムを記憶する。RAM11Cは、CPU11Aによる各種処理に必要なデータを記憶する。I/F11Dは、データを送受信するためのインターフェースである。
本実施形態の情報処理装置10で実行される情報処理を実行するためのプログラムは、ROM11B等に予め組み込んで提供される。なお、本実施形態の情報処理装置10で実行されるプログラムは、情報処理装置10にインストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読取り可能な記録媒体に記録されて提供するように構成してもよい。
次に、情報処理装置10の機能的構成を説明する。
図4は、情報処理装置10の一例の機能ブロック図である。図4には、物品照合システム1に含まれる情報処理装置10以外の構成も併せて示す。
情報処理装置10は、処理部12と、通信部14と、記憶部16と、表示部18と、を備える。処理部12、通信部14、記憶部16、および表示部18は、例えば、バス19を介して通信可能に接続されている。
通信部14は、撮影部20および読取装置50の各々と通信可能に接続されている。通信部14は、撮影部20および読取装置50の各々と通信するための通信インターフェースである。記憶部16は、各種の情報を記憶する。本実施形態では、記憶部16は、学習モデル16Aを予め記憶する。学習モデル16Aの詳細は後述する。
表示部18は、各種の情報を表示する。表示部18は、例えば、画像を表示するディスプレイである。なお、情報処理装置10は、音声を出力するスピーカを更に備えた構成であってもよい。
処理部12は、各種の情報処理を実行する。本実施形態では、処理部12は、第1取得部12Aと、送信部12Bと、第2取得部12Cと、照合部12Dと、表示制御部12Eと、を備える。第1取得部12A、送信部12B、第2取得部12C、照合部12D、および表示制御部12Eの一部または全ては、例えば、CPU等の処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよい。また、第1取得部12A、送信部12B、第2取得部12C、照合部12D、および表示制御部12Eの一部または全ては、IC(Integrated Circuit)等のハードウェアにより実現してもよい。また、第1取得部12A、送信部12B、第2取得部12C、照合部12D、および表示制御部12Eの一部または全ては、ソフトウェアおよびハードウェアを併用して実現してもよい。
第1取得部12A、送信部12B、第2取得部12C、照合部12D、および表示制御部12Eの少なくとも1つを、ネットワーク等を介して情報処理装置10に通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。また、記憶部16に記憶されたデータの少なくとも一部を、ネットワーク等を介して情報処理装置10に通信可能に接続された外部の情報処理装置に記憶した構成としてもよい。
第1取得部12Aは、収容体30に付された物品40を識別する第1識別情報D1を読み取る読取装置50から、第1識別情報D1を取得する。
詳細には、第1取得部12Aは、収容体30に付された識別子によって表される第1識別情報D1を、読取装置50から取得する。
例えば、ユーザは読取装置50を操作することで、読取装置50の読取面を収容体30に付されたラベルL1におけるQRコードQにかざす。読取装置50は、QRコードQを読取ることで、QRコードQによって表される第1識別情報D1を、QRコードQの読取結果として取得する。そして、読取装置50は、QRコードQの読取結果である第1識別情報D1を、情報処理装置10へ送信する。情報処理装置10の第1取得部12Aは、読取装置50から第1識別情報D1を取得する。
送信部12Bは、第1取得部12Aが第1識別情報D1を取得したときに、撮影部20に撮影指示信号を送信する。
撮影部20は、撮影指示信号を受付けると、収容体30に収容された物品40を撮影し、収容体30に収容された物品40の撮影画像を得る。撮影部20は、撮影によって得られた撮影画像を情報処理装置10へ送信する。情報処理装置10の第2取得部12Cは、通信部14を介して撮影部20から撮影画像を取得する。
図5は、撮影画像60の一例の模式図である。撮影部20は、収容体30に収容された物品40を撮影することで、撮影画像60を得る。撮影画像60には、収容体30に収容されている物品40A~物品40Bの各々の物品40が含まれる。また、これらの複数の物品40の各々には、第2識別情報D2を設けられたラベルL2が付されている。このため、撮影画像60には、複数の物品40の各々を識別する第2識別情報D2が含まれる。
図4に戻り説明を続ける。照合部12Dは、第1取得部12Aで取得した第1識別情報D1と、第2取得部12Cで取得した撮影画像60に含まれる物品40の第2識別情報D2の各々と、を照合する。
例えば、照合部12Dは、撮影画像60に含まれる複数の物品40の各々の第2識別情報D2を画像解析処理等により抽出し、第1識別情報D1と一致するか否かを照合する照合処理を実行する。
また、照合部12Dは、学習モデル16Aを用いて、第1取得部12Aで取得した第1識別情報D1と、第2取得部12Cで取得した撮影画像60に含まれる複数の物品40の第2識別情報D2の各々と、を照合してもよい。
本実施形態では、記憶部16は、学習モデル16Aとして、第1学習モデル16A1、第2学習モデル16A2、および第3学習モデル16A3の少なくとも1つを予め記憶する。
まず、第1学習モデル16A1について説明する。
図6Aは、第1学習モデル16A1の一例の説明図である。第1学習モデル16A1は、第1識別情報D1および撮影画像60から、照合結果72および第2識別情報D2を出力する学習モデル16Aである。言い換えると、第1学習モデル16A1は、第1識別情報D1および撮影画像60を入力とし、照合結果72および第2識別情報D2を出力とする学習モデル16Aである。
第1学習モデル16A1から出力される第2識別情報D2は、撮影画像60に含まれる物品40A~物品40Dの各々の第2識別情報D2である。
照合結果72は、第1識別情報D1と、撮影画像60に含まれる物品40A~物品40Dの第2識別情報D2の各々と、の照合結果72を表す情報である。
詳細には、照合結果72は、第1識別情報D1と、撮影画像60に含まれる物品40A~物品40Dの第2識別情報D2の各々と、の一致度を表す情報である。
照合結果72は、一致度を予め定めた分類条件に従って分類した各分類を表す情報であってよい。例えば、照合結果72は、一致度が第1閾値以上である場合に“OK”を表し、一致度が第1閾値未満である場合に“NG”を表す情報であってよい。“OK”は第1識別情報D1と第2識別情報D2との一致を表す情報の一例である。“NG”は、第1識別情報D1と第2識別情報D2との不一致を表す情報の一例である。
また、例えば、照合結果72は、一致度が第2閾値以上である場合に“OK”を表し、一致度が第2閾値未満第3閾値以上である場合に“注意”を表し、一致度が第3閾値未満である場合に“NG”を表す情報であってもよい。“注意”は、第1識別情報D1と第2識別情報D2とが不一致である可能性があることを表す情報の一例である。
第1閾値、第2閾値、および第3閾値は予め定めればよい。また、第3閾値は第2閾値未満の値であればよい。
本実施形態では、照合結果72が、一致度が第1閾値以上である“OK”、または、一致度が第1閾値未満である“NG”を表す形態を一例として説明する。
例えば、情報処理装置10は、教師データを用いた機械学習により予め第1学習モデル16A1を学習する。機械学習には、例えば、CNN(Convolutional Neural Network)等の深層学習等を用いればよい。第1学習モデル16A1の教師データには、第1識別情報D1および複数の物品40を含む撮影画像60と、照合結果72および複数の物品40の各々の第2識別情報D2と、の対を複数用いればよい。また、教師データに用いる撮影画像60には、様々な種類の物品40の撮影画像60を用いる事が好ましい。様々な種類の物品40の撮影画像60を教師データに用いることで、特定の種類の物品40に限定されず、様々な種類の物品40の撮影画像60から照合結果72および第2識別情報D2を導出可能な第1学習モデル16A1を学習することができる。
第1学習モデル16A1を用いる場合、照合部12Dは、第1取得部12Aで取得した第1識別情報D1と、第2取得部12Cで取得した撮影画像60と、を第1学習モデル16A1へ入力する。照合部12Dは、第1学習モデル16A1からの出力として、撮影画像60に含まれる複数の物品40の各々の第2識別情報D2および照合結果72を導出する。
次に、第2学習モデル16A2について説明する。
図6Bは、第2学習モデル16A2の一例の説明図である。第2学習モデル16A2は、撮影画像60から第2識別情報D2を出力する学習モデル16Aである。言い換えると、第2学習モデル16A2は、撮影画像60を入力とし、撮影画像60に含まれる複数の物品40の各々の第2識別情報D2を出力とする学習モデル16Aである。
例えば、情報処理装置10は、教師データを用いた機械学習により予め第2学習モデル16A2を学習する。機械学習には、例えば、CNN等の深層学習等を用いればよい。第2学習モデル16A2の教師データには、複数の物品40を含む撮影画像60と、撮影画像60に含まれる物品40の各々の第2識別情報D2と、の対を複数用いればよい。また、教師データに用いる撮影画像60には、様々な種類の物品40の撮影画像60を用いる事が好ましい。様々な種類の物品40の撮影画像60を教師データに用いることで、特定の種類の物品40に限定されず、様々な種類の物品40の撮影画像60から第2識別情報D2を導出可能な第2学習モデル16A2を学習することができる。
第2学習モデル16A2を用いる場合、照合部12Dは、第2取得部12Cで取得した撮影画像60を第2学習モデル16A2へ入力する。照合部12Dは、第2学習モデル16A2からの出力として、撮影画像60に含まれる複数の物品40の各々の第2識別情報D2を得る。そして、照合部12Dは、第1取得部12Aで取得した第1識別情報D1と、第2学習モデル16A2から出力された複数の物品40の第2識別情報D2の各々と、が一致するか否かを判別することで、照合結果72を導出する。
次に、第3学習モデル16A3について説明する。
図6Cは、第3学習モデル16A3の一例の説明図である。第3学習モデル16A3は、第1識別情報D1および撮影画像60から照合結果72を出力する学習モデル16Aである。言い換えると、第3学習モデル16A3は、第1識別情報D1および撮影画像60を入力とし、第1識別情報D1と撮影画像60に含まれる複数の物品40の第2識別情報D2の各々との照合結果72を出力とする学習モデル16Aである。
例えば、情報処理装置10は、教師データを用いた機械学習により予め第3学習モデル16A3を学習する。機械学習には、例えば、CNN等の深層学習等を用いればよい。第3学習モデル16A3の教師データには、第1識別情報D1および複数の物品40を含む撮影画像60と、照合結果72と、の対を複数用いればよい。また、教師データに用いる撮影画像60には、様々な種類の物品40の撮影画像60を用いる事が好ましい。様々な種類の物品40の撮影画像60を教師データに用いることで、特定の種類の物品40に限定されず、第1識別情報D1および様々な種類の物品40の撮影画像60から照合結果72を導出可能な第3学習モデル16A3を学習することができる。
第3学習モデル16A3を用いる場合、照合部12Dは、第1取得部12Aで取得した第1識別情報D1および第2取得部12Cで取得した撮影画像60を第3学習モデル16A3へ入力する。照合部12Dは、第3学習モデル16A3からの出力として、第1識別情報D1と撮影画像60に含まれる複数の物品40の第2識別情報D2の各々との照合結果72を導出する。
図4に戻り説明を続ける。照合部12Dは、通信部14等を介して接続された外部の情報処理装置で学習された学習モデル16Aを用いて照合処理を行ってもよい。この場合、情報処理装置10は、外部の情報処理装置で予め学習された、第1学習モデル16A1、第2学習モデル16A2、および第3学習モデル16A3を記憶部16に予め記憶すればよい。処理負荷軽減の観点から、第1学習モデル16A1、第2学習モデル16A2、および第3学習モデル16A3は、外部の情報処理装置で予め学習することが好ましい。
照合部12Dは、第1学習モデル16A1、第2学習モデル16A2、または第3学習モデル16A3を用いて、第1識別情報D1と第2識別情報D2とを照合する照合処理を実行すればよい。
例えば、照合部12Dは、予め定められた学習モデル16Aを用いて照合処理を行えばよい。例えば、第1学習モデル16A1を用いる事が予め定められている場合、照合部12Dは、第1学習モデル16A1を用いて照合処理を実行する。
また、照合部12Dは、ユーザによる操作指示等によって入力された学習モデル識別情報によって識別される学習モデル16Aを用いて、照合処理を行ってもよい。また、照合部12Dは、照合対象の撮影画像60の種類に応じた学習モデル16Aを用いて照合処理を行ってもよい。この場合、例えば、記憶部16は、撮影画像60の種類を表す種類識別情報と、学習モデル16Aの識別情報と、を予め対応付けて記憶する。学習モデル16Aの識別情報は、第1学習モデル16A1、第2学習モデル16A2、および第3学習モデル16A3の各々の識別情報である。照合部12Dは、ユーザによる操作指示等によって入力された撮影画像60の種類識別情報に対応する学習モデル16Aの識別情報によって識別される学習モデル16Aを、照合処理に用いればよい。
照合部12Dは、撮影画像60の種類等に応じて照合に用いる学習モデル16Aを切り替えることで、照合部12Dによる照合精度の向上を図ることが出来る。
表示制御部12Eは、照合部12Dによる照合結果72を表示部18に表示する。表示制御部12Eは、照合結果72を撮影画像60の対応する物品40上に重畳した表示画像を表示部18に表示する。
図7は、表示部18に表示された表示画像62の一例を示す模式図である。図7には、照合部12Dが第1学習モデル16A1を用いて照合処理を行うことで、撮影画像60に含まれる複数の物品40の各々の第2識別情報D2および照合結果72を導出した場合を一例として示す。
表示制御部12Eは、第1識別情報D1と撮影画像60に含まれる複数の物品40の第2識別情報D2の各々との照合結果72を、撮影画像60における対応する物品40の画像領域上に重畳した表示画像62を生成する。また、表示制御部12Eは、撮影画像60における対応する物品40の画像領域上に、照合部12Dによる照合処理時に導出された物品40の各々の第2識別情報D2を重畳して表示してもよい。
収容体30に付された第1識別情報D1が“86460-B601000”であった場合を想定する。図7に示す例の場合、撮影画像60に含まれる物品40A、物品40C、および物品40Dの各々の第2識別情報D2は“86460-B601000”であり、第1識別情報D1と一致する。このため、表示制御部12Eは、“OK”を表す照合結果72A、照合結果72C、および照合結果72Dを、撮影画像60における物品40A、物品40C、および物品40Dの画像領域の各々上に重畳表示する。また、表示制御部12Eは、撮影画像60における物品40A、物品40C、および物品40Dの画像領域の各々上に、これらの物品40の第2識別情報D2を重畳表示する。
また、図7に示す例の場合、撮影画像60に含まれる物品40Bの第2識別情報D2は“86460-B602000”であり、第1識別情報D1と不一致である。このため、表示制御部12Eは、“NG”を表す照合結果72Bを、撮影画像60における物品40Bの画像領域上に重畳表示する。また、表示制御部12Eは、撮影画像60における物品40Bの画像領域上に、物品40Bの第2識別情報D2である“86469-B602000”を重畳表示する。
なお、表示制御部12Eは、以下の処理により、複数の物品40の各々の照合結果72および第2識別情報D2を、撮影画像60における対応する物品40の画像領域上に重畳表示すればよい。
例えば、学習モデル16Aを、第2識別情報D2および照合結果72の少なくとも一方と、撮影画像60における物品40の位置情報と、を出力する構成とすればよい。撮影画像60における物品40の位置情報には、例えば、撮影画像60における画素位置等を用いればよい。表示制御部12Eは、照合部12Dから受付けた、撮影画像60に含まれる複数の物品40の各々の照合結果72および第2識別情報D2を、照合部12Dから受付けた対応する画素位置に配置すればよい。
ユーザは、表示部18に表示された表示画像62を視認することで、収容体30に含まれる複数の物品40の各々について、物品40の第2識別情報D2と収容体30に付された第1識別情報D1とが一致するか否かを容易に確認することができる。
なお、表示制御部12Eは、照合結果72を、一致度の低い照合結果72であるほど一致度の高い照合結果72に比べてよりユーザに注意を促すことの可能な表示形態で表示部18に表示してもよい。例えば、表示制御部12Eは、“NG”を表す照合結果72を、赤色等のユーザに対してより注視を促す表示色で表示部18に表示する。また、例えば、表示制御部12Eは、“OK”を表す照合結果72を、青色または黒色等のより注視を促さない表示色で表示部18に表示する。
また、照合部12Dによって所定値以下の低い一致度の照合結果72が導出された場合、表示制御部12Eは、異常を表す音声をスピーカから出力してもよい。また、表示制御部12Eは、照合部12Dによって所定値以下の低い一致度の照合結果72が導出された場合、異常を表す情報を、ネットワーク等を介して情報処理装置10の管理者の管理する情報処理装置等へ送信してもよい。
次に、本実施形態の情報処理装置10で実行する情報処理の流れの一例を説明する。
図8は、本実施形態の情報処理装置10で実行する情報処理の流れの一例を示すフローチャートである。
第1取得部12Aが、第1識別情報D1を読取装置50から取得したか否かを判断する(ステップS100)。第1取得部12Aは、ステップS100で肯定判断(ステップS100:Yes)するまで否定判断(ステップS100:No)を繰り返す。ステップS100で肯定判断すると(ステップS100:Yes)ステップS102へ進む。
ステップS102では、送信部12Bが撮影部20に撮影指示信号を送信する(ステップS102)。撮影指示信号を受付けた撮影部20は、収容体30に収容された物品40を撮影し、収容体30に収容された物品40の撮影画像を得る。撮影部20は、撮影によって得られた撮影画像を情報処理装置10へ送信する。
情報処理装置10の第2取得部12Cは、通信部14を介して撮影部20から撮影画像60を取得する(ステップS104)。
照合部12Dは、ステップS100で取得した第1識別情報D1と、ステップS104で取得した撮影画像60に含まれる複数の物品40の第2識別情報D2の各々と、を照合する(ステップS106)。例えば、照合部12Dは、学習モデル16Aを用いて、ステップS106の照合処理を実行する。
表示制御部12Eは、ステップS106の照合処理による照合結果72を表示部18に表示する(ステップS108)。
次に、処理部12は、情報処理を終了するか否かを判断する(ステップS110)。例えば、処理部12は、ユーザによる操作指示等によって情報処理の終了指示を表す終了指示信号を受付けたか否かを判別することで、ステップS110の判断を行う。ステップS110で否定判断すると(ステップS110:No)、上記ステップS100へ戻る。ステップS110で肯定判断すると(ステップS110:Yes)、本ルーチンを終了する。
以上説明したように、本実施形態の物品照合システム1は、撮影部20と、第1取得部12Aと、第2取得部12Cと、照合部12Dと、を備える。撮影部20は、収容体30に収容された物品40を撮影可能な位置に配置され、撮影を指示する撮影指示信号を受信したときに撮影を行う。第1取得部12Aは、収容体30に付された物品40を識別する第1識別情報D1を読み取る読取装置50から、第1識別情報D1を取得する。送信部12Bは、第1識別情報D1を取得したときに、撮影部20に撮影指示信号を送信する。第2取得部12Cは、撮影部20により撮影された画像を示す撮影画像60を取得する。照合部12Dは、第1識別情報D1と撮影画像60に含まれる物品40を識別する第2識別情報D2とを照合する。
従来技術では、例えば、物品40および作業者の手袋に添付された複数のQRコードの映像を常時撮影し、常時撮影された映像データを解析することで照合処理を行っていた。このため、従来技術では、映像データを常時撮影および常時解析する必要があり、照合処理の処理負荷が問題となる場合があった。
一方、本実施形態の物品照合システム1では、第2取得部12Cが、第1識別情報D1を取得したときに撮影部20に撮影指示信号を送信し、撮影部20から収容体30に収容された物品40の撮影画像60を取得する。そして、物品照合システム1の照合部12Dは、第1識別情報D1と撮影画像60に含まれる物品40の第2識別情報D2とを照合する。
このように、本実施形態の物品照合システム1では、常時撮影された映像データを照合処理に用いるのではなく、第1識別情報D1を取得したときに撮影された撮影画像60を用いて照合処理を実行する。このため、本実施形態の物品照合システム1では、第1識別情報D1を取得したときに撮影された撮影画像60を選択的に用いて照合処理を実行することができるため、低処理負荷で物品40の照合を行うことができる。
従って、本実施形態の物品照合システム1は、低処理負荷で物品40の照合を行うことができる。
また、本実施形態の物品照合システム1では、第1識別情報D1を取得したときに撮影された撮影画像60を用いて照合処理を実行する。このため、収容体30に収容された複数の物品40の撮影画像60を用いた照合処理を実行することで、収容体30に収容された複数の物品40を一括して照合することができる。よって、本実施形態の物品照合システム1は、上記効果に加えて、低処理負荷で且つ効率良く物品40の照合を行うことができる。
また、本実施形態の物品照合システム1は、第1学習モデル16A1、第2学習モデル16A2、または第3学習モデル16A3を用いて、第1識別情報D1と第2識別情報D2とを照合する。第1学習モデル16A1、第2学習モデル16A2、または第3学習モデル16A3等の学習モデル16Aを用いることで、物品照合システム1は、撮影画像60の画像解析処理等を実行せずに物品40の照合を行うことができる。このため、本実施形態の物品照合システム1は、上記効果に加えて、更に、低処理負荷で物品40の照合を行うことができる。また、学習モデル16Aを用いて照合を行うことで、本実施形態の物品照合システム1は、低処理負荷で且つ高精度に物品40の照合を行うことができる。
また、本実施形態の物品照合システム1の表示制御部12Eは、照合結果72を撮影画像60の対応する物品40上に重畳した表示画像62を表示部18に表示する。
照合結果72を撮影画像60の対応する物品40上に重畳した表示画像62を表示するため、本実施形態の物品照合システム1は、ユーザに対して照合結果72を容易に確認可能に提供することができる。
また、第1取得部12Aは、収容体30に付された第1識別情報D1を表すQRコードQ等の識別子の読取結果である第1識別情報D1を、読取装置50から取得する。第1取得部12Aが識別子の読取結果である第1識別情報D1を取得するため、物品照合システム1は、低処理負荷で第1識別情報D1を取得することができる。このため、本実施形態の物品照合システム1は、上記効果に加えて、更に低処理負荷で物品40の照合を行うことができる。
なお、上記実施形態の情報処理装置10で実行される上記各処理を実行するためのプログラムは、HDDに記憶されていてもよい。また、上記実施形態の情報処理装置10で実行される上記各処理を実行するためのプログラムは、ROM11Bに予め組み込まれて提供されていてもよい。
また、上記実施形態の情報処理装置10で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施形態の情報処理装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の情報処理装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 物品照合システム
10 情報処理装置
12A 第1取得部
12B 送信部
12C 第2取得部
12D 照合部
12E 表示制御部
16A1 第1学習モデル
16A2 第2学習モデル
16A3 第3学習モデル
20 撮影部
30 収容体
40 物品
50 読取装置

Claims (4)

  1. 収容体に収容された物品を撮影可能な位置に配置され、撮影を指示する撮影指示信号を受信したときに撮影を行う撮影部と、
    前記収容体に付された前記物品を識別する第1識別情報を読み取る読取装置から前記第1識別情報を取得する第1取得部と、
    前記第1識別情報を取得したときに前記撮影部に前記撮影指示信号を送信する送信部と、
    前記撮影部により撮影された画像を示す撮影画像を取得する第2取得部と、
    前記第1識別情報と前記撮影画像に含まれる前記物品を識別する第2識別情報とを照合する照合部と、
    を備え
    前記照合部は、
    前記第1識別情報および前記撮影画像から前記第1識別情報と前記第2識別情報との照合結果および前記第2識別情報を出力する第1学習モデル、前記撮影画像から前記第2識別情報を出力する第2学習モデル、および前記第1識別情報および前記撮影画像から前記照合結果を出力する第3学習モデル、の各々の学習モデルを識別する学習モデル識別情報と、前記撮影画像の種類を表す種類識別情報と、を予め対応付けた記憶部から、照合対象の前記撮影画像の種類を表す前記種類識別情報に対応付けられた前記学習モデル識別情報によって識別される前記学習モデルを用いて、前記第1識別情報と前記第2識別情報とを照合する、
    物品照合システム。
  2. 前記照合結果を前記撮影画像の対応する前記物品上に重畳した表示画像を表示部に表示する表示制御部、
    を備える請求項に記載の物品照合システム。
  3. 前記第1取得部は、
    前記収容体に付された識別子によって表される前記第1識別情報を前記読取装置から取得する、
    請求項1または請求項に記載の物品照合システム。
  4. 物品を収容した収容体に付された前記物品を識別する第1識別情報を読み取る読取装置から前記第1識別情報を取得する取得ステップと、
    前記第1識別情報を取得したときに、収容体に収容された物品を撮影可能な位置に配置され撮影を指示する撮影指示信号を受信したときに撮影を行う撮影部に前記撮影指示信号を送信する送信ステップと、
    前記撮影部により撮影された画像を示す撮影画像を取得するステップと、
    前記第1識別情報と前記撮影画像に含まれる前記物品を識別する第2識別情報とを照合する照合ステップと、
    を含み、
    前記照合ステップは、
    前記第1識別情報および前記撮影画像から前記第1識別情報と前記第2識別情報との照合結果および前記第2識別情報を出力する第1学習モデル、前記撮影画像から前記第2識別情報を出力する第2学習モデル、および前記第1識別情報および前記撮影画像から前記照合結果を出力する第3学習モデル、の各々の学習モデルを識別する学習モデル識別情報と、前記撮影画像の種類を表す種類識別情報と、を予め対応付けた記憶部から、照合対象の前記撮影画像の種類を表す前記種類識別情報に対応付けられた前記学習モデル識別情報によって識別される前記学習モデルを用いて、前記第1識別情報と前記第2識別情報とを照合する、
    物品照合方法。
JP2021142618A 2021-09-01 2021-09-01 物品照合システムおよび物品照合方法 Active JP7507131B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021142618A JP7507131B2 (ja) 2021-09-01 2021-09-01 物品照合システムおよび物品照合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021142618A JP7507131B2 (ja) 2021-09-01 2021-09-01 物品照合システムおよび物品照合方法

Publications (2)

Publication Number Publication Date
JP2023035619A JP2023035619A (ja) 2023-03-13
JP7507131B2 true JP7507131B2 (ja) 2024-06-27

Family

ID=85504255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021142618A Active JP7507131B2 (ja) 2021-09-01 2021-09-01 物品照合システムおよび物品照合方法

Country Status (1)

Country Link
JP (1) JP7507131B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134079A (ja) 2009-12-24 2011-07-07 Panasonic Corp 照合検査装置および照合検査方法
WO2012005004A1 (ja) 2010-07-09 2012-01-12 パナソニック株式会社 錠剤監査支援方法及び錠剤監査支援装置
JP2019156560A (ja) 2018-03-13 2019-09-19 株式会社日立製作所 搬送システム
JP2020013411A (ja) 2018-07-19 2020-01-23 Zホールディングス株式会社 情報提供装置、情報提供方法、およびプログラム
JP6798067B1 (ja) 2020-08-19 2020-12-09 ファーストアカウンティング株式会社 データ処理装置、データ処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134079A (ja) 2009-12-24 2011-07-07 Panasonic Corp 照合検査装置および照合検査方法
WO2012005004A1 (ja) 2010-07-09 2012-01-12 パナソニック株式会社 錠剤監査支援方法及び錠剤監査支援装置
JP2019156560A (ja) 2018-03-13 2019-09-19 株式会社日立製作所 搬送システム
JP2020013411A (ja) 2018-07-19 2020-01-23 Zホールディングス株式会社 情報提供装置、情報提供方法、およびプログラム
JP6798067B1 (ja) 2020-08-19 2020-12-09 ファーストアカウンティング株式会社 データ処理装置、データ処理方法及びプログラム

Also Published As

Publication number Publication date
JP2023035619A (ja) 2023-03-13

Similar Documents

Publication Publication Date Title
US8736864B2 (en) System and method for producing and inspecting prints having static and variable contents
US10740940B2 (en) Automatic generation of fundus drawings
JP7151875B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN111950557A (zh) 错题处理方法、图像形成装置及电子设备
JP2019117549A (ja) 真贋判定装置、読取装置、真贋判定システム、およびプログラム
JP7507131B2 (ja) 物品照合システムおよび物品照合方法
JP4840978B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
GB2570400A (en) Image to script converter
US20200257894A1 (en) Processing apparatus, processing method, and non-transitory storage medium
JP2020194275A (ja) 読取システム、移動体、読取方法、プログラム、及び記憶媒体
US11443541B2 (en) Classification of person type in a visual medium
CN110569692A (zh) 多车识别方法、装置及设备
US20220327849A1 (en) Computer-Implemented Method For Optical Character Recognition
JP4190209B2 (ja) 鼻紋の照合方法
CN113516131A (zh) 图像处理方法、装置、设备和存储介质
JP7318696B2 (ja) 個体識別装置、個体識別方法及びプログラム
JP6802107B2 (ja) 情報処理装置、方法及びプログラム
US20230298445A1 (en) Learning apparatus, estimation apparatus, learning method, and non-transitory storage medium
JP7176638B2 (ja) 照合位置出力システム
JP2005071208A (ja) 処理情報入力装置、処理情報入力方法、この方法のプログラム、およびこのプログラムを記録した記録媒体
JP2006331247A (ja) Idカード再発行システム
CN107967268B (zh) 路跑活动的拍照系统及其操作方法
US20230196829A1 (en) Authentication management device, authentication management method, and recording medium
US20230386170A1 (en) System and Method to Detect LEDs and Their States in an AR Context

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240617