WO2021153280A1 - 情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法 - Google Patents

情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法 Download PDF

Info

Publication number
WO2021153280A1
WO2021153280A1 PCT/JP2021/001316 JP2021001316W WO2021153280A1 WO 2021153280 A1 WO2021153280 A1 WO 2021153280A1 JP 2021001316 W JP2021001316 W JP 2021001316W WO 2021153280 A1 WO2021153280 A1 WO 2021153280A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
information
unit
processing
destination
Prior art date
Application number
PCT/JP2021/001316
Other languages
English (en)
French (fr)
Inventor
昌孝 佐藤
秀隆 小島
朝日 一隆
Original Assignee
株式会社 東芝
東芝インフラシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝インフラシステムズ株式会社 filed Critical 株式会社 東芝
Priority to EP21746963.4A priority Critical patent/EP4099216A4/en
Priority to CA3166264A priority patent/CA3166264A1/en
Priority to AU2021214042A priority patent/AU2021214042B2/en
Publication of WO2021153280A1 publication Critical patent/WO2021153280A1/ja
Priority to US17/876,178 priority patent/US20220366712A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/424Postal images, e.g. labels or addresses on parcels or postal envelopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30112Baggage; Luggage; Suitcase

Definitions

  • An embodiment of the present invention relates to an information processing device, a program, a computer-readable storage medium, and an information processing method.
  • the article processing system reads the image of the article to be transported, recognizes the destination information contained in the read image, specifies the classification destination according to the destination recognition result, and sends the transported article to the specified classification destination. Divide.
  • various measures are taken to acquire the destination information. For example, when the recognition unit cannot recognize the destination information from the image of the article, the operator visually confirms the image of the article displayed on the display unit and inputs the destination of the article by keyboard. ..
  • keyboard input by the operator can be performed.
  • a mechanism to reduce the frequency is also known.
  • the billing amount fluctuates according to the number of recognized articles, so a technique for presenting highly reliable recognition processing information is required.
  • An object to be solved by the present invention is to provide an information processing device, a program, a computer-readable storage medium, and an information processing method capable of outputting highly reliable recognition processing information.
  • the information processing device includes a second recognition unit, an information processing unit, and an information output unit.
  • the second recognition unit recognizes the destination of the article whose destination has not been recognized by the first recognition process by the first recognition unit in the second recognition process.
  • the information processing unit generates recognition processing information certifying that the second recognition processing by the second recognition unit has been performed.
  • the information output unit outputs the recognition processing information.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of an article processing system according to an embodiment.
  • FIG. 2 is a diagram showing an example of recognition processing information generated by the support system according to the embodiment.
  • FIG. 3 is a flowchart showing an example of article processing by the article processing system according to the embodiment.
  • FIG. 4 is a flowchart showing an example of a second recognition process or the like by the support system according to the embodiment.
  • FIG. 5 is a flowchart showing an example of an invoice creation process by the terminal device according to the embodiment.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of an article processing system according to an embodiment.
  • the article processing system S includes a classification system 1 and a support system 2 (information processing device).
  • the support system 2 can be added later to the article processing system S including the classification system 1. It is also possible to install the article processing system S including the classification system 1 at the article collection point and connect the support system 2 to the article processing system S as a cloud server via a communication network.
  • the classification system 1 includes a first recognition unit 11 (first recognition unit), a division unit 12, a storage unit 13, and a keystroke processing unit 14.
  • the first recognition unit 11, the division unit 12, the storage unit 13, and the keystroke processing unit 14 are connected via a communication network or the like.
  • the support system 2 includes a second recognition unit 21, an information processing unit 22, and an information output unit 23, and the second recognition unit 21, the information processing unit 22, and the information output unit 23 are provided via a communication network or the like. Be connected. Further, the information processing unit 22 includes a storage unit 221, an encryption processing unit 222, and a decryption processing unit 223, and the information output unit 23 includes a display unit 231 and a communication interface 232.
  • the first recognition unit 11 includes a control unit 111, a storage unit 112, an image acquisition unit 113, and an input / output interface (I / F) 114. Based on the first recognition process, the first recognition unit 11 recognizes the destination from the image data obtained by photographing the article transport area. Based on the first recognition process a plurality of times, the recognition process for the plurality of articles to be transported or the plurality of article groups is executed.
  • the article is a paper leaf, a parcel, or the like, and the address information is given to the article.
  • the control unit 111 is a CPU (central processing unit), an MPU (microprocessing unit), a DSP (digital signal processor), or the like. Alternatively, the control unit 111 is a combination of some of these processors.
  • the control unit 111 corresponds to a central portion of a computer that executes calculations and controls to realize various functions based on a program such as system software, application software, or firmware stored in the storage unit 112.
  • the control unit 111 executes calculations and controls necessary for the recognition process of recognizing the destination information of articles such as luggage or paper sheets based on the image data.
  • the recognition of the destination information by the control unit 111 is one or both of the OCR (Optical Character Recognition) process and the code recognition process.
  • OCR Optical Character Recognition
  • the destination information is recognized from the image data of the article in which the destination information (address information) consisting of characters, numbers, symbols, etc. such as a zip code, an address, and an address is recorded or attached.
  • code recognition process the destination information is recognized from the image data of the article in which the bar code or the like indicating the destination information is recorded or attached.
  • the storage unit 112 is a non-temporary computer-readable storage medium, and includes a ROM (read-only memory), a RAM (random-access memory), and an auxiliary storage unit corresponding to the main storage unit of the computer.
  • the ROM is a non-temporary storage medium such as a non-volatile memory used for reading data.
  • the ROM may store at least a part of the program executed by the control unit 111.
  • the ROM also stores data or various set values used by the control unit 111 to perform various processes.
  • RAM is a memory used for reading and writing data.
  • the RAM is used as a so-called work area or the like for storing data temporarily used by the control unit 111 for performing various processes.
  • the auxiliary storage unit is a non-temporary storage medium such as an EEPROM (electric eraseable programmable read-only memory) (registered trademark), an HDD (hard disk drive), or an SSD (solid state drive).
  • the auxiliary storage unit may store at least a part of the program executed by the control unit 111.
  • the auxiliary storage unit stores data used by the control unit 111 to perform various processes, data generated by the processes of the control unit 111, various set values, and the like.
  • the auxiliary storage unit stores a first recognition address database generated from the address database.
  • the image acquisition unit 113 is an image input / output interface, and the image input / output interface acquires image data to be recognized as destination information.
  • the image data is output from the first camera that captures the article transport area.
  • the image input / output interface may also transfer the acquired image data to another system.
  • the image input / output interface may transfer the acquired image data to the support system 2.
  • the input / output interface 114 outputs the recognition result of the destination information by the control unit 111 and the like.
  • the classification unit 12 transports the article to which the destination information is recorded or attached, and classifies the article from the plurality of classification destinations to the designated classification destination based on the classification control signal generated according to the recognition result of the destination information. ..
  • the storage unit 13 stores an address database and the like.
  • the keystroke processing unit 14 includes a display unit and an input unit, the display unit displays an image of an article for which the destination information is not recognized, and the operator visually confirms the image of the display unit and inputs the destination from the input unit. ..
  • the second recognition unit 21 includes a control unit 211, a storage unit 212, an image acquisition unit 213, and an input / output interface (I / F) 214.
  • the second recognition unit 21 recognizes the destination from the image data obtained by photographing the article transport area based on the second recognition process different from the first recognition process. Based on the second recognition process a plurality of times, the recognition process for the plurality of articles to be transported or the plurality of article groups is executed.
  • the second recognition unit 21 performs the second recognition process. Attempts to recognize the destination of the article from the image data based on. That is, the second recognition unit 21 attempts to recognize the destination of the article whose destination has not been recognized by the first recognition process.
  • the control unit 211 is a CPU, MPU, DSP, or the like. Alternatively, the control unit 211 is a combination of some of these processors.
  • the control unit 211 corresponds to a central portion of a computer that executes calculations and controls to realize various functions based on a program such as system software, application software, or firmware stored in the storage unit 212.
  • the control unit 211 executes calculations and controls necessary for the recognition process of recognizing the destination information of articles such as luggage or paper sheets based on the image data.
  • the recognition of the destination information by the control unit 211 is one or both of the OCR process and the code recognition process.
  • the destination information is recognized from the image data of the article in which the destination information (address information) consisting of characters, numbers, symbols, etc. such as a zip code, an address, and an address is recorded or attached.
  • the destination information is recognized from the image data of the article in which the bar code or the like indicating the destination information is recorded or attached.
  • the storage unit 212 is a non-temporary computer-readable storage medium, and includes a ROM, a RAM, and an auxiliary storage unit corresponding to the main storage unit of the computer.
  • the ROM is a non-temporary storage medium such as a non-volatile memory used for reading data.
  • the ROM may store at least a part of the program executed by the control unit 211.
  • the ROM also stores data or various set values used by the control unit 211 to perform various processes.
  • RAM is a memory used for reading and writing data.
  • the RAM is used as a so-called work area or the like for storing data temporarily used by the control unit 211 for performing various processes.
  • the auxiliary storage unit is a non-temporary storage medium such as EEPROM, HDD or SSD.
  • the auxiliary storage unit may store at least a part of the program executed by the control unit 211.
  • the auxiliary storage unit stores data used by the control unit 211 to perform various processes, data generated by the processes of the control unit 211, various set values, and the like.
  • the auxiliary storage unit stores a second recognition address database generated from the address database.
  • the image acquisition unit 213 is an image input / output interface, and the image input / output interface acquires image data to be recognized as destination information.
  • the image data is output from the second camera that captures the article transport area.
  • the image data is image data transferred from the image acquisition unit 213.
  • the input / output interface 214 outputs the recognition result of the destination information by the control unit 211 and the like.
  • the information processing unit 22 generates recognition processing information certifying that the second recognition processing has been performed by the second recognition unit 21, and the storage unit 221 stores the recognition processing information.
  • the encryption processing unit 222 encrypts the recognition processing information.
  • the decryption processing unit 223 decrypts the encrypted recognition processing information.
  • the information output unit 23 outputs recognition processing information.
  • the display unit 231 displays the recognition processing information, and the communication interface 232 transmits the recognition processing information to the terminal device 3.
  • the terminal device 3 is a general-purpose computer, and includes a control unit, a storage unit, a communication interface, an input / output interface, and the like composed of one or more processors.
  • the communication interface receives the recognition processing information, and the control unit generates form data from the received recognition processing information and outputs the form data via the input / output interface.
  • FIG. 2 is a diagram showing an example of recognition processing information generated by the support system according to the embodiment.
  • the recognition processing information stored in the storage unit 221 includes recognition records of each recognition processing (second recognition processing of each time) and aggregated data.
  • the recognition record includes the execution date and time of the recognition process, the success or failure of the recognition process, the number of recognized destination information, the recognized destination information, and the recognized image data.
  • the aggregated data includes the number of successful recognition processes (charged) and the number of failed recognition processes (non-charged).
  • the number of recognition processing successes or recognized destination information (1 or more) included in the recognition processing information indicates that it is a billing target (billing number 1), and the recognition processing failure or the number of recognized destination information (0) is Indicates that it is not subject to billing.
  • the recognition process success is set (that is, the billing target), and all the recognized destination information is recorded.
  • the information processing unit 22 sets a charge flag 1 indicating that the user is charged when the recognition process is successful, and sets a charge flag 0 indicating that the user is not charged when the recognition process fails. You may.
  • the recognition process failure is set (that is, it is not subject to billing), the recognized destination information is not recorded, and the recognized destination information item. May be left blank.
  • the second recognition unit 21 can narrow down one or more destination information from the information such as characters, numbers, and symbols obtained by the recognition process, that is, 1 from the information obtained by the recognition process.
  • the case where a plurality of classification destinations can be specified is regarded as successful recognition
  • the case where the destination information cannot be narrowed down that is, the case where the classification destination cannot be specified is regarded as a recognition failure. Therefore, when one or more destination information can be narrowed down from the information obtained by one recognition process, the number of successful recognition processes is counted (+1), and the information obtained by one recognition process is counted. When the destination information cannot be narrowed down from, the number of failures in the recognition process is counted (+1).
  • FIG. 3 is a flowchart showing an example of article processing by the article processing system according to the embodiment.
  • the division unit 12 transports the article
  • the image acquisition unit 113 acquires the image data from the first camera that captures the article transport area (ST1)
  • the image acquisition unit 213 also captures the article transport area.
  • the first recognition unit 11 executes the first recognition process and tries to recognize the destination information from the image data acquired by the image acquisition unit 113 (ST2).
  • the classification unit 12 designates the classification destination based on the recognized destination information and classifies the article to the designated classification destination (ST3, YES). ST7).
  • the second recognition unit 21 executes the second recognition process and destinations from the image data acquired by the image acquisition unit 213. Try to recognize the information (ST4).
  • the classification unit 12 designates the classification destination based on the recognized destination information and classifies the article to the designated classification destination (ST5, YES). ST7).
  • the keystroke processing unit 14 displays an image based on the image data acquired by the image acquisition units 113 and 213, and the operator displays the image. Visually check the image to be displayed, and enter the destination of the article included in the image with the keyboard.
  • the classification unit 12 designates a classification destination based on the input destination information, and classifies the article to the designated classification destination (ST7).
  • FIG. 4 is a flowchart showing an example of a second recognition process or the like by the support system according to the embodiment.
  • the generation and management of the recognition processing information in the second recognition processing will be described in detail.
  • a case where the charge flag 1 or 0 is set and the charge target or the non-charge target can be determined by the charge flag 1 or 0 is described, but the setting of the charge flag 1 or 0 is not essential and the destination.
  • the billing target or non-billing target may be determined based on information such as success or failure of recognition of the information.
  • the second recognition unit 21 executes the second recognition process (ST400).
  • the information processing unit 22 generates and stores recognition processing information certifying that the second recognition processing has been executed in response to the execution of the second recognition processing (ST401).
  • the recognition process information includes the recognition record of each second recognition process and the aggregated data.
  • the information output unit 23 outputs the generated recognition processing information (ST414).
  • the second recognition unit 21 recognizes one destination information (ST402, YES) in the second recognition process (Nth time), and there is no contradiction in collation between the recognition address database and the recognized destination information.
  • the information processing unit 22 sets the classification destination based on the recognized destination information (ST404), and sets the billing flag 1 (ST405).
  • the information processing unit 22 generates the recognition record of the second recognition process of the Nth time, and the recognition record of the second recognition process of the Nth time is the recognition process execution date and time and the recognition process success (billing flag). 1), the number of recognized destination information (1), the recognized destination information, and the recognized image data are included.
  • the second recognition unit 21 recognizes one destination information (ST402, YES) in the second recognition process (N + 1th time), and there is a contradiction in collation between the recognition address database and the recognized destination information. If it is determined that there is (ST403, NO), the information processing unit 22 sets the rejection classification destination (ST406) and sets the billing flag 0 (ST407). In this case, the information processing unit 22 generates the recognition record of the second recognition process of the N + 1th time, and the recognition record of the second recognition process of the N + 1th time is the recognition process execution date and time and the recognition process success (billing flag). 0), the number of recognized destination information (0), the recognized destination information (none), and the recognized image data.
  • the second recognition unit 21 recognizes a plurality of (for example, two) destination information in the second recognition process (N + 2nd time) (ST402, NO)
  • the information processing unit 22 determines the rejection destination. Is set (ST408), and the billing flag 1 is set (ST409).
  • a plurality of destination information may be recognized. For example, when an article is a paper leaf such as a slip, it may be transported as an article group.
  • the information processing unit 22 generates the recognition record of the N + 2nd second recognition process, and the recognition record of the N + 2nd second recognition process includes the recognition process execution date and time and the recognition process success (billing flag). 1), the number of recognized destination information (for example, 2), the recognized destination information (for example, two destination information), and the recognized image data.
  • the information processing unit 22 When the recognition record includes the billing flag 1 (ST410, YES), the information processing unit 22 counts up the number of bills (ST411) and updates the recognition processing information (ST412).
  • the storage unit 221 stores the updated recognition processing information.
  • the encryption processing unit 222 encrypts the recognition processing information as appropriate in order to prevent falsification of the recognition processing information (ST413).
  • the information processing unit 22 stores the recognition processing information in the memory (storage unit 212) of the second recognition unit in the storage unit 221 and encrypts the recognition processing information stored in the storage unit 221.
  • the information processing unit 22 encrypts the recognition record of each recognition process on the memory, and stores the encrypted recognition record of each recognition process in the storage unit 221.
  • the information output unit 22 outputs recognition processing information to each output destination (ST414).
  • the display unit 231 displays the decrypted recognition processing information of the decoding processing unit 223, and the communication interface 232 transmits the encrypted recognition processing information to the terminal device 3.
  • the first recognition process executed by the first recognition unit 11 and the second recognition process executed by the second recognition unit 21 are supplemented.
  • the first recognition process executed by the first recognition unit 11 and the second recognition process executed by the second recognition unit 21 differ in the following points, and the destination is the destination in the first recognition unit 11. Can not be recognized, but the destination may be recognized by the second recognition unit 21.
  • the first recognition unit 11 generates a first recognition address database from the address database (DB) stored in the storage unit 13, and recognizes the destination based on the first recognition address database.
  • the second recognition unit 21 generates a second recognition address database different from the first recognition address database from the address database stored in the storage unit 13, and recognizes the destination based on the second recognition address database. do.
  • the method for detecting characters, numbers, symbols, and codes is changed between the first recognition process executed by the first recognition unit 11 and the second recognition process executed by the second recognition unit 21.
  • different image data may be used in the first recognition process executed by the first recognition unit 11 and the second recognition process executed by the second recognition unit 21.
  • the different image data is image data obtained by photographing the same article or the same group of articles, but is image data photographed by different methods (different shooting positions, different shooting directions, different light sources, etc.).
  • the first recognition unit 11 and the second recognition unit 21 extract candidates for each character or word from the destination information (address) included in the image data, and the extracted characters or words and the characters registered in the address database. And match words.
  • the load of the collation process is heavy and the collation process requires a lot of time.
  • the recognition address database that can be rewritten from the address database is used.
  • the recognition address database is a database of tree-structured address hierarchies corresponding to a plurality of addresses included in the address database.
  • Address hierarchies include countries, prefectures, wards, cities, towns, villages, and zip codes.
  • Such a recognition address database can compress the data size to a fraction to a few tenths of the data size as compared with the address database while maintaining the amount of information in the address database.
  • the first recognition unit 11 and the second recognition unit 21 use different algorithms to analyze the structure of the address hierarchy of the address database and generate a recognition address database from the address database. Further, the first recognition unit 11 and the second recognition unit 21 collate the extracted characters and words with the characters and words registered in the address database by different algorithms. For example, the addresses may be narrowed down in the order of country name, city name, zip code, and town name, or the priority of the zip code may be increased to narrow down the addresses in the order of country name, zip code, city name, and town name. In this way, by adopting different algorithms in the first recognition unit 11 and the second recognition unit 21, the probability that the destination that cannot be recognized by one recognition unit can be recognized by the other recognition unit can be improved. Can be done.
  • FIG. 5 is a flowchart showing an example of an invoice creation process by the terminal device according to the embodiment.
  • the terminal device 3 is operated by a person in charge who has appropriate authority.
  • the terminal device 3 receives the encrypted recognition processing information (ST21) and decrypts the encrypted recognition processing information (ST22).
  • the terminal device 3 checks the number of charges based on the recognition processing information (ST23), and if it is determined that there is no problem with the validity of the number of charges (ST24, YES), creates an invoice based on the recognition processing information and issues an invoice.
  • Output (ST25).
  • the recognition processing information includes the recognition record and the aggregated data of the second recognition process of each time, but the aggregation result of the billing flag included in the recognition record of the second recognition process of each time and the aggregation indicated by the aggregated data. If the results match, it is judged that there is no problem with the validity.
  • the terminal device 3 determines that there is a problem with the validity of the number of charges (ST24, NO), it displays detailed information based on the recognition processing information (ST26), and accepts a correction input from the person in charge (ST27). Create an invoice and output the invoice (ST25).
  • an information processing device a program, a computer-readable storage medium, and an information processing method capable of outputting recognition processing information that is highly reliable and can be easily proved to be legitimate. Can be provided.
  • the recognition processing information of the classification system 1 and the support system 2 which are the basis of the billing.
  • the recognition processing information of the support system 2 is required to have higher reliability, and depending on the situation, the recognition processing information of the support system 2 is required. Proof of legitimacy may be required.
  • the manufacturer of the classification system 1 and the manufacturer of the support system 2 are different, and the support system 2 whose validity can be easily proved also has an effect of lowering the introduction hurdle to the article processing system S.
  • the support system 2 Since the support system 2 encrypts the recognition processing information and outputs it externally, the risk of the recognition processing information being tampered with can be reduced. Further, the support system 2 executes the second recognition process a plurality of times based on the image data acquired sequentially, but since the recognition process information includes the recognition record of the second recognition process each time, each time. The validity of the second recognition process can be proved.
  • the recognition processing information includes the image data processed in the second recognition processing of each time
  • the validity of the recognition processing information can be proved by verifying the image data after the fact.
  • the recognition processing information includes the execution date and time of the second recognition processing each time
  • the validity of the recognition processing information can be proved from the post-verification in the time series.
  • the recognition processing information includes the execution date and time of each second recognition processing and the recognized destination information
  • the recognition processing information is valid based on the collation between the recognition processing information and the delivery record including the delivery date and time and the delivery destination. Can prove sex.
  • the recognition processing information includes the number of successful second recognition processes to be charged as aggregated data, the number of charges can be clearly presented.
  • the information processing unit 22 recognizes one or a plurality of destinations in one second recognition process, at least one article is recognized by adding one to the number of successful second recognition processes. It is possible to prevent the omission of billing for the matter.
  • the classification system 1 receives the recognition processing information output from the support system 2, and integrates the recognition processing information in the first recognition unit and the recognition processing information in the second recognition unit from the support system 2. Even in the case of managing the information, the recognition processing information of the second recognition unit held by the support system 2 can be presented, so that the validity of the recognition processing on the support system 2 side can be proved. ..

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Character Discrimination (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Quality & Reliability (AREA)
  • Multi Processors (AREA)
  • Saccharide Compounds (AREA)

Abstract

信頼性の高い認識結果を出力することができる情報処理装置を提供すること。実施形態に係る情報処理装置は、第2の認識部、情報処理部、及び情報出力部を備える。前記第2の認識部は、第1の認識部による第1の認識処理により宛先が認識されなかった物品の宛先を第2の認識処理で認識する。前記情報処理部は、前記第2の認識部による前記第2の認識処理を実施したことを証明する認識処理情報を生成する。前記情報出力部は、前記認識処理情報を出力する。

Description

情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法
 本発明の実施形態は、情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法に関する。
 荷物又は紙葉類等の物品を区分する物品処理システムが普及している。物品処理システムは、搬送される物品の画像を読み取り、読み取られた画像に含まれる宛先情報を認識し、宛先認識結果に応じた区分先を指定し、搬送される物品を指定された区分先へ区分する。
 物品処理システムでは、宛先情報の取得するための様々な対策が講じられている。例えば、認識部が物品の画像から宛先情報を認識できなかった場合に、オペレータが、表示部で表示される物品の画像を目視確認し、その物品の宛先をキーボード入力する仕組みが知られている。また、認識率を向上させるために複数の認識部を利用し、各認識部で異なる認識処理を採用し、少なくとも一つの認識部で認識された宛先情報を利用することにより、オペレータによるキーボード入力の頻度を低減する仕組みも知られている。
日本国特開2019-109729号公報
 例えば、物品処理システムにおいて従量課金が採用される場合、認識物品数に応じて課金額が変動するため、信頼性の高い認識処理情報を提示する技術が要望されている。
 本発明が解決しようとする課題は、信頼性の高い認識処理情報を出力することができる情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法を提供することである。
 実施形態に係る情報処理装置は、第2の認識部、情報処理部、及び情報出力部を備える。前記第2の認識部は、第1の認識部による第1の認識処理により宛先が認識されなかった物品の宛先を第2の認識処理で認識する。前記情報処理部は、前記第2の認識部による前記第2の認識処理を実施したことを証明する認識処理情報を生成する。前記情報出力部は、前記認識処理情報を出力する。
図1は、実施形態に係る物品処理システムの概略構成の一例を示すブロック図である。 図2は、実施形態に係る支援システムにより生成される認識処理情報の一例を示す図である。 図3は、実施形態に係る物品処理システムによる物品処理の一例を示すフローチャートである。 図4は、実施形態に係る支援システムによる第2の認識処理等の一例を示すフローチャートである。 図5は、実施形態に係る端末装置による請求書作成処理の一例を示すフローチャートである。
実施形態
 以下、図面を用いて実施形態について説明する。 
 図1は、実施形態に係る物品処理システムの概略構成の一例を示すブロック図である。 
 図1に示すように、物品処理システムSは、区分システム1及び支援システム2(情報処理装置)を備える。例えば、区分システム1を備える物品処理システムSに対して、後から支援システム2を追加することができる。また、区分システム1を備える物品処理システムSを物品集積所に設置し、通信ネットワークを介してクラウドサーバとして支援システム2を物品処理システムSに接続することもできる。
 区分システム1は、第1の認識部11(第1の認識部)、区分部12、記憶部13、及び打鍵処理部14を備える。第1の認識部11、区分部12、記憶部13、及び打鍵処理部14は、通信ネットワーク等を介して接続される。
 支援システム2は、第2の認識部21、情報処理部22、及び情報出力部23を備え、第2の認識部21、情報処理部22、及び情報出力部23は、通信ネットワーク等を介して接続される。また、情報処理部22は、記憶部221、暗号化処理部222、復号処理部223を備え、情報出力部23は、表示部231、及び通信インタフェース232を備える。
 区分システム1及び支援システム2のそれぞれが、宛先を認識する認識部を備えることにより、物品処理システムS全体としての認識率の向上を図ることができる。
 まず、区分システム1について説明する。 
 第1の認識部11は、制御部111、記憶部112、画像取得部113、及び入出力インタフェース(I/F)114を備える。第1の認識部11は、第1の認識処理に基づき、物品搬送エリアを撮影して得られる画像データから宛先を認識する。複数回の第1の認識処理に基づき、搬送される複数の物品又は複数の物品群に対する認識処理が実行される。物品は紙葉類又は小包等であり、物品には宛先情報が付与されている。
 制御部111は、CPU(central processing unit)、MPU(micro processing unit)、又はDSP(digital signal processor)等である。或いは、制御部111は、これらのうちのいくつかのプロセッサを組み合わせたものである。制御部111は、記憶部112に記憶されたシステムソフトウェア、アプリケーションソフトウェア又はファームウェアなどのプログラムに基づいて、各種の機能を実現するべく演算及び制御を実行するコンピュータの中枢部分に相当する。制御部111は、画像データに基づき荷物又は紙葉類等の物品の宛先情報を認識する認識処理に必要な演算及び制御を実行する。
 本実施形態では、制御部111による宛先情報の認識は、OCR(Optical Character Recognition)処理及びコード認識処理の一方又は両方である。OCR処理では、郵便番号、住所、及び宛名などの文字、数字、及び記号等からなる宛先情報(住所情報)が記録又は添付された物品の画像データから、宛先情報を認識する。また、コード認識処理では、宛先情報を示すバーコード等が記録又は添付された物品の画像データから、宛先情報を認識する。
 記憶部112は、非一時的なコンピュータ可読記憶媒体であり、コンピュータの主記憶部に相当するROM(read-only memory)、RAM(random-access memory)、及び補助記憶部を含む。ROMは、データの読み出しに用いられる不揮発性メモリ等の非一時的記憶媒体である。ROMは、制御部111が実行するプログラムの少なくとも一部を記憶してもよい。また、ROMは、制御部111が各種の処理を行う上で使用するデータ又は各種の設定値などを記憶する。
 RAMは、データの読み書きに用いられるメモリである。RAMは、制御部111が各種の処理を行う上で一時的に使用するデータを記憶しておく、いわゆるワークエリアなどとして利用される。
 補助記憶部は、EEPROM(electric erasable programmable read-only memory)(登録商標)、HDD(hard disk drive)又はSSD(solid state drive)等の非一時的記憶媒体である。補助記憶部は、制御部111が実行するプログラムの少なくとも一部を記憶してもよい。また、補助記憶部は、制御部111が各種の処理を行う上で使用するデータ、制御部111での処理によって生成されたデータ又は各種の設定値などを保存する。例えば、補助記憶部は、住所データベースから生成される第1の認識用住所データベースを記憶する。
 画像取得部113は、画像入出力インタフェースであり、画像入出力インタフェースは、宛先情報の認識の対象となる画像データを取得する。画像データは、物品搬送エリアを撮影する第1のカメラから出力される。また、画像入出力インタフェースは、取得された画像データを他のシステムへ転送することもある。例えば、画像入出力インタフェースは、取得された画像データを支援システム2へ転送することもある。入出力インタフェース114は、制御部111による宛先情報の認識結果等を出力する。
 区分部12は、宛先情報が記録又は添付された物品を搬送し、宛先情報の認識結果に応じて生成される区分制御信号に基づき、複数の区分先から指定される区分先へ物品を区分する。記憶部13は、住所データベース等を記憶する。打鍵処理部14は、表示部及び入力部を備え、表示部は、宛先情報が認識されなかった物品の画像を表示し、オペレータは、表示部の画像を目視確認し宛先を入力部から入力する。
 次に、支援システム2について説明する。 
 第2の認識部21は、制御部211、記憶部212、画像取得部213、及び入出力インタフェース(I/F)214を備える。第2の認識部21は、第1の認識処理と異なる第2の認識処理に基づき、物品搬送エリアを撮影して得られる画像データから宛先を認識する。複数回の第2の認識処理に基づき、搬送される複数の物品又は複数の物品群に対する認識処理が実行される。
 例えば、第1の認識部11が、第1の認識処理に基づき画像データから物品の宛先認識を試行し、宛先が認識されなかった場合に、第2の認識部21は、第2の認識処理に基づき画像データから物品の宛先認識を試行する。つまり、第2の認識部21は、第1の認識処理により宛先が認識されなかった物品の宛先の認識を試行する。
 制御部211は、CPU、MPU、又はDSP等である。或いは、制御部211は、これらのうちのいくつかのプロセッサを組み合わせたものである。制御部211は、記憶部212に記憶されたシステムソフトウェア、アプリケーションソフトウェア又はファームウェアなどのプログラムに基づいて、各種の機能を実現するべく演算及び制御を実行するコンピュータの中枢部分に相当する。制御部211は、画像データに基づき荷物又は紙葉類等の物品の宛先情報を認識する認識処理に必要な演算及び制御を実行する。
 本実施形態では、制御部211による宛先情報の認識は、OCR処理及びコード認識処理の一方又は両方である。OCR処理では、郵便番号、住所、及び宛名などの文字、数字、及び記号等からなる宛先情報(住所情報)が記録又は添付された物品の画像データから、宛先情報を認識する。また、コード認識処理では、宛先情報を示すバーコード等が記録又は添付された物品の画像データから、宛先情報を認識する。
 記憶部212は、非一時的なコンピュータ可読記憶媒体であり、コンピュータの主記憶部に相当するROM、RAM、及び補助記憶部を含む。ROMは、データの読み出しに用いられる不揮発性メモリ等の非一時的記憶媒体である。ROMは、制御部211が実行するプログラムの少なくとも一部を記憶してもよい。また、ROMは、制御部211が各種の処理を行う上で使用するデータ又は各種の設定値などを記憶する。
 RAMは、データの読み書きに用いられるメモリである。RAMは、制御部211が各種の処理を行う上で一時的に使用するデータを記憶しておく、いわゆるワークエリアなどとして利用される。
 補助記憶部は、EEPROM、HDD又はSSD等の非一時的記憶媒体である。補助記憶部は、制御部211が実行するプログラムの少なくとも一部を記憶してもよい。また、補助記憶部は、制御部211が各種の処理を行う上で使用するデータ、制御部211での処理によって生成されたデータ又は各種の設定値などを保存する。例えば、補助記憶部は、住所データベースから生成される第2の認識用住所データベースを記憶する。
 画像取得部213は、画像入出力インタフェースであり、画像入出力インタフェースは、宛先情報の認識の対象となる画像データを取得する。画像データは、物品搬送エリアを撮影する第2のカメラから出力される。又は、画像データは、画像取得部213から転送される画像データである。入出力インタフェース214は、制御部211による宛先情報の認識結果等を出力する。
 情報処理部22は、第2の認識部21による第2の認識処理を実施したことを証明する認識処理情報を生成し、記憶部221は、認識処理情報を記憶する。暗号化処理部222は、認識処理情報を暗号化する。復号処理部223は、暗号化された認識処理情報を復号する。情報出力部23は、認識処理情報を出力する。例えば、表示部231は、認識処理情報を表示し、通信インタフェース232は、認識処理情報を端末装置3へ送信する。
 端末装置3は、汎用コンピュータであり、1以上のプロセッサで構成される制御部、記憶部、通信インタフェース、及び入出力インタフェース等を備える。通信インタフェースは、認識処理情報を受信し、制御部は、受信した認識処理情報から帳票データを生成し、入出力インタフェースを介して帳票データを出力する。
 図2は、実施形態に係る支援システムにより生成される認識処理情報の一例を示す図である。 
 図2に示すように、記憶部221に記憶される認識処理情報は、各認識処理(各回の第2の認識処理)の認識記録、及び集計データを含む。例えば、認識記録は、認識処理の実行日時、認識処理成功又は認識処理失敗、認識された宛先情報の数、認識された宛先情報、及び認識処理された画像データを含む。集計データは、認識処理の成功数(課金対象)及び認識処理の失敗数(非課金対象)を含む。認識処理情報に含まれる認識処理成功又は認識された宛先情報の数(1以上)は課金対象(課金数1)であることを示し、認識処理失敗又は認識された宛先情報の数(0)が課金対象外であることを示す。例えば、1回の認識処理で、1又は複数の宛先情報が認識された場合に、認識処理成功を設定し(つまり課金対象)、認識された全ての宛先情報を記録する。また、情報処理部22は、認識処理成功の場合に課金対象であることを示す課金フラグ1を設定し、認識処理失敗の場合に課金対象外であることを示す課金フラグ0を設定するようにしてもよい。なお、1回の認識処理で、複数の宛先情報が認識された場合に、認識処理失敗を設定し(つまり課金対象外)、認識された宛先情報を記録せず、認識された宛先情報の項目を空欄としてもよい。
 ここで認識成功及び失敗について補足する。例えば、第2の認識部21が、認識処理により得られた文字、数字、及び記号等の情報から1又は複数の宛先情報を絞り込むことができる場合、つまり、認識処理により得られた情報から1又は複数の区分先を特定することができる場合を認識成功とし、宛先情報を絞り込むことができない場合、つまり、区分先を特定することができない場合を認識失敗とする。よって、1回の認識処理により得られた情報から1又は複数の宛先情報を絞り込むことができた場合に、認識処理の成功数がカウント(+1)され、1回の認識処理により得られた情報から宛先情報を絞り込むことができなかった場合に、認識処理の失敗数がカウント(+1)される。
 図3は、実施形態に係る物品処理システムによる物品処理の一例を示すフローチャートである。 
 区分部12は、物品を搬送し、画像取得部113は、物品搬送エリアを撮影する第1のカメラからの画像データを取得し(ST1)、また、画像取得部213も、物品搬送エリアを撮影する第2のカメラからの画像データを取得する。第1の認識部11は、第1の認識処理を実行し、画像取得部113により取得された画像データから宛先情報の認識を試行する(ST2)。第1の認識部11が、宛先情報の認識に成功すると(ST3、YES)、区分部12は、認識された宛先情報に基づき区分先を指定し、指定された区分先へ物品を区分する(ST7)。
 第1の認識部11が、宛先情報の認識に失敗すると(ST3、NO)、第2の認識部21は、第2の認識処理を実行し、画像取得部213により取得された画像データから宛先情報の認識を試行する(ST4)。第2の認識部21が、宛先情報の認識に成功すると(ST5、YES)、区分部12は、認識された宛先情報に基づき区分先を指定し、指定された区分先へ物品を区分する(ST7)。
 第2の認識部21が、宛先情報の認識に失敗すると(ST5、NO)、打鍵処理部14は、画像取得部113及び213で取得された画像データに基づく画像を表示し、オペレータは、表示される画像を目視確認し、画像に含まれる物品の宛先をキーボードで入力する。区分部12は、入力された宛先情報に基づき区分先を指定し、指定された区分先へ物品を区分する(ST7)。
 図4は、実施形態に係る支援システムによる第2の認識処理等の一例を示すフローチャートである。本フローチャートでは、第2の認識処理における認識処理情報の生成及び管理について詳細に説明する。本フローチャートでは、課金フラグ1又は0を設定し、課金フラグ1又は0により課金対象又は課金対象外の判別を可能にするケースについて説明するが、課金フラグ1又は0の設定は必須ではなく、宛先情報の認識成否等の情報に基づき課金対象又は課金対象外を判別するようにしてもよい。
 第1の認識部11が、宛先情報の認識に失敗すると、第2の認識部21は、第2の認識処理を実行する(ST400)。情報処理部22は、第2の認識処理の実行に応じて、第2の認識処理を実施したことを証明する認識処理情報を生成し記憶する(ST401)。図2に示すように、認識処理情報は、各回の第2の認識処理の認識記録、及び集計データを含む。情報出力部23は、生成された認識処理情報を出力する(ST414)。
 認識処理情報の生成について詳しく説明する。 
 第2の認識部21が、第2の認識処理(N回目)において、一つの宛先情報を認識し(ST402、YES)、認識用住所データベースと認識された宛先情報との照合において矛盾がないと判断すると(ST403、YES)、情報処理部22は、認識された宛先情報に基づく区分先を設定し(ST404)、課金フラグ1を設定する(ST405)。この場合、情報処理部22は、N回目の第2の認識処理の認識記録を生成するが、このN回目の第2の認識処理の認識記録は、認識処理実行日時、認識処理成功(課金フラグ1)、認識された宛先情報の数(1)、認識された宛先情報、及び認識処理された画像データを含む。
 また、第2の認識部21が、第2の認識処理(N+1回目)において、一つの宛先情報を認識し(ST402、YES)、認識用住所データベースと認識された宛先情報との照合において矛盾があると判断すると(ST403、NO)、情報処理部22は、リジェクト用の区分先を設定し(ST406)、課金フラグ0を設定する(ST407)。この場合、情報処理部22は、N+1回目の第2の認識処理の認識記録を生成するが、このN+1回目の第2の認識処理の認識記録は、認識処理実行日時、認識処理成功(課金フラグ0)、認識された宛先情報の数(0)、認識された宛先情報(無し)、及び認識処理された画像データを含む。
 また、第2の認識部21が、第2の認識処理(N+2回目)において、複数(例えば二つ)の宛先情報を認識すると(ST402、NO)、情報処理部22は、リジェクト用の区分先を設定し(ST408)、課金フラグ1を設定する(ST409)。物品取り込み過程で複数の物品がうまく分離されずに、物品群として搬送されてしまうケースがあり、このようなケースでは、複数の宛先情報が認識されることがある。例えば物品が伝票等の紙葉類である場合、物品群として搬送されることが起こり得る。この場合、情報処理部22は、N+2回目の第2の認識処理の認識記録を生成するが、このN+2回目の第2の認識処理の認識記録は、認識処理実行日時、認識処理成功(課金フラグ1)、認識された宛先情報の数(例えば2)、認識された宛先情報(例えば二つの宛先情報)、及び認識処理された画像データを含む。
 情報処理部22は、認識記録に課金フラグ1が含まれる場合には(ST410、YES)、課金数をカウントアップし(ST411)、認識処理情報を更新する(ST412)。記憶部221は、更新された認識処理情報を記憶する。暗号化処理部222は、認識処理情報の改ざんを防止するために、適宜、認識処理情報を暗号化する(ST413)。例えば、情報処理部22は、第2の認識部のメモリ(記憶部212)上の認識処理情報を記憶部221へ保存し、記憶部221に記憶された認識処理情報を暗号化する。或いは、情報処理部22は、メモリ上の各回の認識処理の認識記録を暗号化し、暗号化された各回の認識処理の認識記録を記憶部221へ保存する。
 情報出力部22は、各出力先へ認識処理情報を出力する(ST414)。例えば、表示部231は、復号処理部223の復号された認識処理情報を表示し、また、通信インタフェース232は、暗号化された認識処理情報を端末装置3へ送信する。
 ここで、第1の認識部11により実行される第1の認識処理、及び第2の認識部21により実行される第2の認識処理について補足する。例えば、第1の認識部11により実行される第1の認識処理と、第2の認識部21により実行される第2の認識処理は、以下の点で異なり、第1の認識部11で宛先が認識できなくても、第2の認識部21で宛先が認識できる場合がある。
 第1の認識部11は、記憶部13に記憶される住所データベース(DB)から第1の認識用住所データベースを生成し、第1の認識用住所データベースに基づき宛先を認識する。第2の認識部21は、記憶部13に記憶される住所データベースから第1の認識用住所データベースと異なる第2の認識用住所データベースを生成し、第2の認識用住所データベースに基づき宛先を認識する。
 或いは、第1の認識部11により実行される第1の認識処理と、第2の認識部21により実行される第2の認識処理とで、文字、数字、記号、及びコードの検出手法を変えてもよい。或いは、第1の認識部11により実行される第1の認識処理と、第2の認識部21により実行される第2の認識処理とで、異なる画像データを利用するようにしてもよい。異なる画像データとは、同一物品又は同一物品群を撮影した画像データであるが、異なる方法(異なる撮影位置、異なる撮影方向、又は異なる光源等)で撮影した画像データである。
 ここで認識用住所データベースについて補足する。第1の認識部11及び第2の認識部21は、画像データに含まれる宛先情報(住所)から文字や単語ごとの候補を抽出し、抽出された文字や単語と住所データベースに登録された文字や単語とを照合する。数百万件を超える膨大な数の住所が登録された住所データベースを利用する場合、照合処理の負荷は重く、照合処理に多くの時間が必要となる。
 そこで、住所データベースから書き換えられる認識用住所データベースが利用される。例えば、認識用住所データベースは、住所データベースに含まれる複数の住所に対応する木構造の住所階層のデータベースである。住所階層としては、国、県、区、市、町、村、及び郵便番号などがある。このような認識用住所データベースは、住所データベースの情報量を維持しつつ、住所データベースと比較してデータサイズを数分の一~数十分の一のデータサイズに圧縮することができる。
 第1の認識部11及び第2の認識部21は、異なるアルゴリズムで、住所データベースの住所階層の構造を分析し、住所データベースから認識用住所データベースを生成する。また、第1の認識部11及び第2の認識部21は、異なるアルゴリズムで、抽出された文字や単語と住所データベースに登録された文字や単語とを照合する。例えば、国名、都市名、郵便番号、及び町名の順に住所を絞ったり、郵便番号の優先度を高くして、国名、郵便番号、都市名、及び町名の順に住所を絞ったりする。このように、第1の認識部11及び第2の認識部21で、異なるアルゴリズムを採用することにより、一方の認識部により認識できなかった宛先を他方の認識部で認識できる確率を向上させることができる。
 図5は、実施形態に係る端末装置による請求書作成処理の一例を示すフローチャートである。 
 例えば、端末装置3は、然るべく権限を有する担当者が操作する。端末装置3は、暗号化された認識処理情報を受信し(ST21)、暗号化された認識処理情報を復号する(ST22)。
 端末装置3は、認識処理情報に基づき課金数をチェックし(ST23)、課金数の正当性に問題が無いと判定すると(ST24、YES)、認識処理情報に基づき請求書を作成し請求書を出力する(ST25)。例えば、認識処理情報は、各回の第2の認識処理の認識記録と集計データとを含むが、各回の第2の認識処理の認識記録に含まれる課金フラグの集計結果と、集計データが示す集計結果とが一致すれば正当性に問題なしと判定する。
 端末装置3が、課金数の正当性に問題が有ると判定すると(ST24、NO)、認識処理情報に基づく詳細情報を表示し(ST26)、担当者からの修正入力を受け付けて(ST27)、請求書を作成し請求書を出力する(ST25)。
 以上説明した実施形態によれば、信頼性が高く且つ正当性を容易に証明することが可能な認識処理情報を出力することができる情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法を提供できる。
 物品処理システムSで従量課金が採用される場合、課金の根拠となる区分システム1及び支援システム2の認識処理情報には高い信頼性が求められる。また、区分システム1に対して支援システム2を後付け又は外付けするようなケースでは、支援システム2の認識処理情報にはさらに高い信頼性が求められ、状況次第では、支援システム2の認識処理情報に対する正当性の証明が要求されることもあり得る。また、区分システム1の製造メーカと支援システム2の製造メーカが異なるケースもあり、正当性が証明し易い支援システム2は、物品処理システムSへの導入ハードルを引き下げる効果もある。
 支援システム2は、認識処理情報を暗号化して外部出力するので、認識処理情報が改ざんされるリスクを低減することができる。また、支援システム2は、順次取得される画像データに基づき複数回の第2の認識処理が実行されるが、認識処理情報は、各回の第2の認識処理の認識記録を含むので、各回の第2の認識処理の正当性を証明することができる。
 例えば、認識処理情報は、各回の第2の認識処理で処理された画像データを含むので、事後の画像データの検証により、認識処理情報の正当性を証明することができる。また、認識処理情報は、各回の第2の認識処理の実行日時を含むので、時系列での事後検証から、認識処理情報の正当性を証明することができる。また、認識処理情報は、各回の第2の認識処理の実行日時及び認識された宛先情報を含むので、認識処理情報と配送日時及び配送先を含む配送記録との照合から、認識処理情報の正当性を証明することができる。また、認識処理情報は、集計データとして課金対象となる第2の認識処理の成功数を含むので、課金数を明確に提示することができる。また、情報処理部22は、1回の第2の認識処理で1又は複数の宛先を認識した場合に第2の認識処理の成功数を1加算することにより、少なくとも一つの物品が認識されたことに対する課金漏れを防止することができる。
 また、区分システム1が、支援システム2から出力される認識処理情報を受取り、第1の認識部での認識処理情報と、支援システム2からの第2の認識部での認識処理情報とを統合して管理するようなケースでも、支援システム2が保持する第2の認識部の単独の認識処理情報を提示することができるので、支援システム2側の認識処理に対する正当性を証明することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (12)

  1.  第1の認識部による第1の認識処理により宛先が認識されなかった物品の宛先を第2の認識処理で認識する第2の認識部と、
     前記第2の認識部による前記第2の認識処理を実施したことを証明する認識処理情報を生成する情報処理部と、
     前記認識処理情報を出力する情報出力部と、
     を備える情報処理装置。
  2.  前記情報処理部は、前記認識処理情報を暗号化する、請求項1の情報処理装置。
  3.  前記認識処理情報は、各回の前記第2の認識処理の認識記録を含む、請求項1又は2の情報処理装置。
  4.  前記認識処理情報は、各回の前記第2の認識処理で処理した画像データを含む、請求項1乃至3の何れか一つの情報処理装置。
  5.  前記認識処理情報は、各回の前記第2の認識処理の実行日時及び認識された宛先を含む、請求項1乃至4の何れか一つの情報処理装置。
  6.  前記認識処理情報は、課金対象となる前記第2の認識処理の成功数を含む、請求項1乃至5の何れか一つの情報処理装置。
  7.  前記情報処理部は、1回の前記第2の認識処理で複数の宛先を認識した場合に前記第2の認識処理が成功したことを示す情報を記録する、請求項6の情報処理装置。
  8.  前記情報処理部は、1回の前記第2の認識処理で複数の宛先を認識した場合に前記第2の認識処理が失敗したことを示す情報を記録する、請求項6の情報処理装置。
  9.  前記第1の認識部は、住所データベースから生成される第1の認識用住所データベースに基づき宛先を認識し、
     前記第2の認識部は、前記住所データベースから生成される第2の認識用住所データベースに基づき宛先を認識する、請求項1乃至7の何れか一つの情報処理装置。
  10.  コンピュータに、
     第1の認識処理により宛先が認識されなかった物品の宛先を第2の認識処理で認識する手順と、
     前記第2の認識処理を実施したことを証明する認識処理情報を生成する手順と、
     前記認識処理情報を出力する手順と、
     を実行させるためのプログラム。
  11.  非一時的なコンピュータ可読記憶媒体は、
     第1の認識処理により宛先が認識されなかった物品の宛先を第2の認識処理で認識する手順と、
     前記第2の認識処理を実施したことを証明する認識処理情報を生成する手順と、
     前記認識処理情報を出力する手順と、
     をコンピュータに実行させるためのプログラムを記憶する。
  12.  第1の認識処理により宛先が認識されなかった物品の宛先を第2の認識処理で認識し、 前記第2の認識処理を実施したことを証明する認識処理情報を生成し、
     前記認識処理情報を出力する、情報処理方法。
PCT/JP2021/001316 2020-01-31 2021-01-15 情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法 WO2021153280A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21746963.4A EP4099216A4 (en) 2020-01-31 2021-01-15 INFORMATION PROCESSING DEVICE, PROGRAM, COMPUTER READABLE STORAGE MEDIUM AND INFORMATION PROCESSING METHOD
CA3166264A CA3166264A1 (en) 2020-01-31 2021-01-15 Information processing apparatus, program, computer-readable storage medium, and information processing method
AU2021214042A AU2021214042B2 (en) 2020-01-31 2021-01-15 Information processing device, program, computer-readable storage medium, and information processing method
US17/876,178 US20220366712A1 (en) 2020-01-31 2022-07-28 Information processing apparatus, computer-readable storage medium, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020015612A JP7379188B2 (ja) 2020-01-31 2020-01-31 情報処理装置、プログラム、及び情報処理方法
JP2020-015612 2020-01-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/876,178 Continuation US20220366712A1 (en) 2020-01-31 2022-07-28 Information processing apparatus, computer-readable storage medium, and information processing method

Publications (1)

Publication Number Publication Date
WO2021153280A1 true WO2021153280A1 (ja) 2021-08-05

Family

ID=77078844

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/001316 WO2021153280A1 (ja) 2020-01-31 2021-01-15 情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法

Country Status (7)

Country Link
US (1) US20220366712A1 (ja)
EP (1) EP4099216A4 (ja)
JP (1) JP7379188B2 (ja)
AU (1) AU2021214042B2 (ja)
CA (1) CA3166264A1 (ja)
TW (1) TWI823052B (ja)
WO (1) WO2021153280A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000279894A (ja) * 1999-03-30 2000-10-10 Nec Corp 住所認識装置及び方法
JP2001009381A (ja) * 1999-07-01 2001-01-16 Hitachi Ltd 情報処理型郵便区分システム
JP2001113233A (ja) * 1999-10-15 2001-04-24 Hitachi Ltd 郵便区分機、郵便区分システム及び郵便区分方法
JP2008080300A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 郵便ポスト、郵便物回収車、郵便物処理端末、郵便物処理システム、および郵便物処理方法
JP2019057307A (ja) * 2018-11-15 2019-04-11 大日本印刷株式会社 書類確認用装置、情報処理システム、書類の確認方法、書類確認用プログラム、文字入力用装置、文字の入力方法及び文字入力用プログラム
JP2019109729A (ja) 2017-12-19 2019-07-04 株式会社東芝 区分装置および区分システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101879A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 郵便物処理装置
JP2001225027A (ja) * 2000-02-18 2001-08-21 Toshiba Corp 配達物処理システムと配達物処理方法
JP2016051211A (ja) * 2014-08-28 2016-04-11 株式会社東芝 住所認識装置、区分装置、統括住所認識装置、住所認識方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000279894A (ja) * 1999-03-30 2000-10-10 Nec Corp 住所認識装置及び方法
JP2001009381A (ja) * 1999-07-01 2001-01-16 Hitachi Ltd 情報処理型郵便区分システム
JP2001113233A (ja) * 1999-10-15 2001-04-24 Hitachi Ltd 郵便区分機、郵便区分システム及び郵便区分方法
JP2008080300A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 郵便ポスト、郵便物回収車、郵便物処理端末、郵便物処理システム、および郵便物処理方法
JP2019109729A (ja) 2017-12-19 2019-07-04 株式会社東芝 区分装置および区分システム
JP2019057307A (ja) * 2018-11-15 2019-04-11 大日本印刷株式会社 書類確認用装置、情報処理システム、書類の確認方法、書類確認用プログラム、文字入力用装置、文字の入力方法及び文字入力用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4099216A4

Also Published As

Publication number Publication date
AU2021214042A1 (en) 2022-08-25
EP4099216A1 (en) 2022-12-07
JP2021124774A (ja) 2021-08-30
EP4099216A4 (en) 2024-01-10
AU2021214042B2 (en) 2023-12-21
CA3166264A1 (en) 2021-08-05
US20220366712A1 (en) 2022-11-17
JP7379188B2 (ja) 2023-11-14
TWI823052B (zh) 2023-11-21
TW202134943A (zh) 2021-09-16

Similar Documents

Publication Publication Date Title
US20210192166A1 (en) Transferring data files using a series of visual codes
US11062106B2 (en) Large data transfer using visual codes with feedback confirmation
JP5105561B2 (ja) ディジタルインプリントと関連付けられるクライアントコードを用いて郵便物を処理する方法
US8996476B2 (en) Correction of check processing defects
CN108009445B (zh) 一种半中心化的可信数据管理系统
US10313510B2 (en) Inmate communication conversion system
JPWO2016186137A1 (ja) 会計支援システム
WO2021153280A1 (ja) 情報処理装置、プログラム、コンピュータ可読記憶媒体、及び情報処理方法
CN114329012A (zh) 一种基于图像识别的数据存储方法及系统
KR102201930B1 (ko) 문서 정보를 포함한 이미지 파일의 자동 문서화 장치 및 방법
US20160321499A1 (en) Learn-Sets from Document Images and Stored Values for Extraction Engine Training
CN103514670A (zh) 税控清单防伪系统及方法
CN113822292B (zh) 车辆特征信息存储方法、装置、计算机设备及存储介质
CN112685439B (zh) 针对风控系统的造数方法、系统、装置及存储介质
WO2023172190A1 (en) Method and apparatus for accessing data in a plurality of machine readable medium
JP5204448B2 (ja) 証明書読取認識装置
US11522715B2 (en) Methods for processing and verifying a document
JP2004005386A (ja) 情報入力方法及びシステム
JP2004005387A (ja) 情報入力システム用の文書
JP2024071309A (ja) 登録番号照合システム
JP2018060474A (ja) 地名抽出プログラム、地名抽出装置および地名抽出方法
Gougeon et al. Memory carving can finally unveil your embedded personal data
CN106203762A (zh) 信息处理系统、信息处理装置、画面生成装置以及显示控制装置
CN117876202A (zh) 追溯码嵌入方法、溯源方法及相关装置
CN116977040A (zh) 一种银行个人客户信息数据质检及管控方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21746963

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3166264

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2021214042

Country of ref document: AU

Date of ref document: 20210115

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021746963

Country of ref document: EP

Effective date: 20220831