WO2022059674A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2022059674A1
WO2022059674A1 PCT/JP2021/033759 JP2021033759W WO2022059674A1 WO 2022059674 A1 WO2022059674 A1 WO 2022059674A1 JP 2021033759 W JP2021033759 W JP 2021033759W WO 2022059674 A1 WO2022059674 A1 WO 2022059674A1
Authority
WO
WIPO (PCT)
Prior art keywords
character string
processor
image
interface
divided
Prior art date
Application number
PCT/JP2021/033759
Other languages
English (en)
French (fr)
Inventor
賢太郎 瀬崎
琢磨 赤木
文平 入江
倫行 浜村
泰弘 大川
Original Assignee
株式会社 東芝
東芝インフラシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝インフラシステムズ株式会社 filed Critical 株式会社 東芝
Priority to EP21869360.4A priority Critical patent/EP4216174A4/en
Priority to CA3190695A priority patent/CA3190695A1/en
Priority to AU2021343666A priority patent/AU2021343666B2/en
Publication of WO2022059674A1 publication Critical patent/WO2022059674A1/ja
Priority to US18/181,947 priority patent/US20230216834A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/04Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/04Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
    • H04L63/0407Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the identity of one or more communicating identities is hidden

Definitions

  • An embodiment of the present invention relates to an information processing device, an information processing method, and a program.
  • a system that displays an image containing a character string and accepts the input of the character string from the operator. Such a system sends an image to a VCD (Video Coding Device) and acquires a character string input to the VCD.
  • VCD Video Coding Device
  • the character string may contain personal information such as address and name that can identify an individual.
  • the system may leak personal information when an image is transmitted to a VCD via an external network such as the Internet.
  • an information processing device, information processing method and program that can accept input of a character string from an external device while preventing leakage of personal information.
  • the information processing apparatus includes a first interface, a second interface, a third interface, and a processor.
  • the first interface acquires a character string image including a character string.
  • the second interface sends and receives data to and from the internal device through the first network.
  • the third interface sends and receives data to and from an external device through the second network.
  • the processor transmits the character string image to the internal device through the second interface, accepts input of the character string from the internal device, and the character string image is the character string image.
  • the personal information is not included, the character string image is transmitted to the external device through the third interface, and the input of the character string is accepted from the external device.
  • FIG. 1 is a block diagram showing a configuration example of an input system according to an embodiment.
  • FIG. 2 is a block diagram showing a configuration example of a server according to an embodiment.
  • FIG. 3 is a block diagram showing a configuration example of the internal VCD according to the embodiment.
  • FIG. 4 is a block diagram showing a configuration example of an external VCD according to an embodiment.
  • FIG. 5 is a diagram showing an operation example of the server according to the embodiment.
  • FIG. 6 is a diagram showing an operation example of the server according to the embodiment.
  • FIG. 7 is a diagram showing an operation example of the server according to the embodiment.
  • FIG. 8 is a diagram showing a configuration example of the integrated table according to the embodiment.
  • FIG. 9 is a diagram showing another configuration example of the integrated table according to the embodiment.
  • FIG. 10 is a flowchart showing an operation example of the server according to the embodiment.
  • the input system performs OCR processing on an image including a character string such as a name or an address in a predetermined processing device.
  • a character string such as a name or an address
  • the input system performs a predetermined operation based on the OCR result in a predetermined processing device.
  • the input system displays the image on the VCD when the OCR processing fails.
  • the input system accepts the input of the character string contained in the image from the operator.
  • the input system inputs the input character string to a predetermined processing device.
  • the input system performs a predetermined operation in a predetermined processing device based on the input character string.
  • FIG. 1 shows a configuration example of the input system 100 according to the embodiment.
  • the input system 100 includes a processing device 2, a server 10, an internal VCD 20, an external VCD 30, and the like.
  • the processing device 2 connects to the server 10.
  • the server 10 connects to the network 40 and the network 50.
  • the internal VCD 20 connects to the network 40.
  • the external VCD 30 connects to the network 50.
  • the input system 100 may further include a configuration as required in addition to the configuration as shown in FIG. 1, or a specific configuration may be excluded from the input system 100.
  • the processing device 2 is a device that performs predetermined processing.
  • the processing device 2 is a sorting machine that sorts articles such as mail or luggage into shooters and the like.
  • the processing device 2 uses a camera to photograph the destination surface (the surface on which the name, address, telephone number, etc. are described) of the article.
  • the processing device 2 performs OCR processing on an image (destination image, character string image) in which the destination surface is captured according to a predetermined algorithm.
  • the processing device 2 acquires the information (descriptive information) described on the destination surface of the article based on the result of the OCR process.
  • the processing device 2 classifies the article based on the acquired description information.
  • the processing device 2 transmits the destination image to the server 10.
  • the server 10 transmits the description information described in the destination image to the processing device 2.
  • the processing device 2 acquires the description information from the server 10.
  • the processing device 2 classifies the article based on the acquired destination.
  • the server 10 (information processing device) accepts the input of the character string included in the destination image using the internal VCD20 and the external VCD30.
  • the server 10 transmits the destination image (or a part of the destination image) to the internal VCD 20 or the external VCD 30.
  • the server 10 acquires the character string input to the internal VCD 20 or the external VCD 30.
  • the server 10 will be described in detail later.
  • the internal VCD20 (internal device) accepts the input of the character string included in the destination image from the server 10.
  • the internal VCD 20 acquires the destination image from the server 10 through the network 40.
  • the internal VCD 20 displays the destination image from the server 10 and accepts the input of the character string from the operator.
  • the internal VCD20 will be described in detail later.
  • the external VCD30 (external device) accepts the input of the character string included in the destination image from the server 10.
  • the external VCD 30 acquires the destination image from the server 10 through the network 50.
  • the external VCD 30 displays the destination image from the server 10 and accepts the input of the character string from the operator.
  • the external VCD30 will be described in detail later.
  • the network 40 (first network) is a network that relays communication between the server 10 and the internal VCD 20.
  • the network 40 is a network that relays local communication.
  • network 40 is a local area network.
  • the network 50 (second network) is a network that relays communication between the server 10 and the external VCD 30.
  • the network 50 is a network that relays global communication.
  • network 50 is the Internet.
  • FIG. 2 is a block diagram showing a configuration example of the server 10.
  • the server 10 includes a processor 11, a ROM 12, a RAM 13, an NVM 14, a first communication unit 15, a second communication unit 16, a third communication unit 17, an operation unit 18, a display unit 19, and the like. Be prepared.
  • the processor 11 and the ROM 12, RAM 13, NVM 14, the first communication unit 15, the second communication unit 16, the third communication unit 17, the operation unit 18, and the display unit 19 are connected to each other via a data bus or the like. To.
  • server 10 may have a configuration as required in addition to the configuration as shown in FIG. 2, or a specific configuration may be excluded from the server 10.
  • the processor 11 has a function of controlling the operation of the entire server 10.
  • the processor 11 may include an internal cache, various interfaces, and the like.
  • the processor 11 realizes various processes by executing a program stored in advance in the internal memory, ROM 12 or NVM 14.
  • processor 11 controls the functions performed by the hardware circuit.
  • ROM 12 is a non-volatile memory in which a control program, control data, and the like are stored in advance.
  • the control program and control data stored in the ROM 12 are preliminarily incorporated according to the specifications of the server 10.
  • the ROM 12 stores, for example, a program for controlling the circuit board of the server 10.
  • RAM 13 is a volatile memory.
  • the RAM 13 temporarily stores data and the like being processed by the processor 11.
  • the RAM 13 stores various application programs based on instructions from the processor 11. Further, the RAM 13 may store data necessary for executing the application program, an execution result of the application program, and the like.
  • NVM14 is a non-volatile memory in which data can be written and rewritten.
  • the NVM 14 is composed of, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • the NVM 14 stores a control program, an application, various data, and the like according to the operational use of the server 10.
  • the first communication unit 15 (first interface) is an interface for transmitting and receiving data to and from the processing device 2.
  • the first communication unit 15 is an interface that supports a wired or wireless LAN (Local Area Network) connection.
  • the second communication unit 16 (second interface) is an interface for transmitting and receiving data to and from the internal VCD 20. That is, the second communication unit 16 connects to the network 40.
  • the second communication unit 16 is an interface that supports a wired or wireless LAN connection.
  • the third communication unit 17 (third interface) is an interface for transmitting and receiving data to and from the external VCD30. That is, the third communication unit 17 connects to the network 50.
  • the third communication unit 17 is an interface that supports a wired or wireless LAN connection.
  • the operation unit 18 receives inputs of various operations from the operator.
  • the operation unit 18 transmits a signal indicating the received operation to the processor 11.
  • the operation unit 18 includes a keyboard, a numeric keypad, and a touch panel.
  • the display unit 19 displays various information under the control of the processor 11.
  • the display unit 19 is composed of a liquid crystal monitor.
  • the operation unit 18 is composed of a touch panel or the like, the display unit 19 may be integrally formed with the operation unit 18.
  • the first communication unit 15, the second communication unit 16, and the third communication unit 17 may be integrally formed.
  • the server 10 is a desktop PC, a notebook PC, or the like.
  • FIG. 3 is a block diagram showing a configuration example of the internal VCD 20.
  • the internal VCD 20 includes a processor 21, a ROM 22, a RAM 23, an NVM 24, a communication unit 25, an operation unit 26, a display unit 27, and the like.
  • the processor 21 and the ROM 22, RAM 23, NVM 24, communication unit 25, operation unit 26, and display unit 27 are connected to each other via a data bus or the like.
  • the internal VCD 20 may have a configuration as required in addition to the configuration shown in FIG. 3, or a specific configuration may be excluded from the internal VCD 20.
  • the processor 21 has a function of controlling the operation of the entire internal VCD 20.
  • the processor 21 may include an internal cache, various interfaces, and the like.
  • the processor 21 realizes various processes by executing a program stored in advance in the internal memory, ROM 22 or NVM 24.
  • processor 21 controls the functions performed by the hardware circuit.
  • ROM 22 is a non-volatile memory in which a control program, control data, and the like are stored in advance.
  • the control program and control data stored in the ROM 22 are preliminarily incorporated according to the specifications of the internal VCD 20.
  • the ROM 22 stores, for example, a program for controlling the circuit board of the internal VCD 20.
  • RAM 23 is a volatile memory.
  • the RAM 23 temporarily stores data and the like being processed by the processor 21.
  • the RAM 23 stores various application programs based on instructions from the processor 21. Further, the RAM 23 may store data necessary for executing the application program, an execution result of the application program, and the like.
  • NVM24 is a non-volatile memory in which data can be written and rewritten.
  • the NVM 24 is composed of, for example, an HDD, an SSD, a flash memory, or the like.
  • the NVM 24 stores a control program, an application, various data, and the like according to the operational use of the internal VCD 20.
  • the communication unit 25 is an interface for transmitting and receiving data to and from the server 10. That is, the communication unit 25 connects to the network 40.
  • the communication unit 25 is an interface that supports a wired or wireless LAN connection.
  • the operation unit 26 receives inputs of various operations from the operator.
  • the operation unit 26 transmits a signal indicating the received operation to the processor 21.
  • the operation unit 26 includes a keyboard, a numeric keypad, and a touch panel.
  • the display unit 27 displays various information under the control of the processor 21.
  • the display unit 27 is composed of a liquid crystal monitor.
  • the operation unit 26 is composed of a touch panel or the like, the display unit 27 may be integrally formed with the operation unit 26.
  • the internal VCD 20 is a desktop PC, a notebook PC, a tablet PC, or the like.
  • the processor 21 acquires the destination image from the server 10 through the communication unit 25.
  • the processor 21 generates an input screen for inputting a character string included in the destination image.
  • the input screen includes a destination image, an input form, and the like.
  • the processor 31 displays the generated input screen on the display unit 27.
  • the operator of the internal VCD 20 visually recognizes the destination image and inputs a character string included in the destination image to the operation unit 26.
  • the processor 21 acquires the character string input through the operation unit 26. When the character string is acquired, the processor 21 transmits the character string acquired through the communication unit 25 to the server 10.
  • FIG. 4 is a block diagram showing a configuration example of the external VCD30.
  • the external VCD 30 includes a processor 31, a ROM 32, a RAM 33, an NVM 34, a communication unit 35, an operation unit 36, a display unit 37, and the like.
  • the processor 31 and the ROM 32, RAM 33, NVM 34, communication unit 35, operation unit 36, and display unit 37 are connected to each other via a data bus or the like.
  • the external VCD 30 may have a configuration as required in addition to the configuration shown in FIG. 4, or a specific configuration may be excluded from the external VCD 30.
  • the processor 31 has a function of controlling the operation of the entire external VCD 30.
  • the processor 31 may include an internal cache, various interfaces, and the like.
  • the processor 31 realizes various processes by executing a program stored in advance in the internal memory, ROM 32, or NVM 34.
  • processor 31 controls the functions performed by the hardware circuit.
  • the ROM 32 is a non-volatile memory in which a control program, control data, and the like are stored in advance.
  • the control program and control data stored in the ROM 32 are preliminarily incorporated according to the specifications of the external VCD 30.
  • the ROM 32 stores, for example, a program for controlling the circuit board of the external VCD 30.
  • RAM 33 is a volatile memory.
  • the RAM 33 temporarily stores data and the like being processed by the processor 31.
  • the RAM 33 stores various application programs based on instructions from the processor 31. Further, the RAM 33 may store data necessary for executing the application program, an execution result of the application program, and the like.
  • NVM34 is a non-volatile memory in which data can be written and rewritten.
  • the NVM 34 is composed of, for example, an HDD, an SSD, a flash memory, or the like.
  • the NVM 34 stores a control program, an application, various data, and the like according to the operational use of the external VCD 30.
  • the communication unit 35 is an interface for transmitting and receiving data to and from the server 10. That is, the communication unit 35 connects to the network 50.
  • the communication unit 35 is an interface that supports a wired or wireless LAN connection.
  • the operation unit 36 receives inputs of various operations from the operator.
  • the operation unit 36 transmits a signal indicating the received operation to the processor 31.
  • the operation unit 36 includes a keyboard, a numeric keypad, and a touch panel.
  • the display unit 37 displays various information under the control of the processor 31.
  • the display unit 37 is composed of a liquid crystal monitor.
  • the operation unit 36 is composed of a touch panel or the like, the display unit 37 may be integrally formed with the operation unit 36.
  • the external VCD30 may be a desktop PC, a notebook PC, a tablet PC, a smartphone, a feature phone, a wearable terminal, or the like.
  • the processor 31 acquires the destination image from the server 10 through the communication unit 35.
  • the processor 31 generates an input screen for inputting a character string included in the destination image.
  • the input screen includes a destination image, an input form, and the like.
  • the processor 31 displays the generated input screen on the display unit 37.
  • the operator of the external VCD 30 visually recognizes the destination image and inputs the character string included in the destination image to the operation unit 36.
  • the processor 31 acquires the character string input through the operation unit 36. When the character string is acquired, the processor 31 transmits the character string acquired through the communication unit 35 to the server 10.
  • the function realized by the server 10 is realized by the processor 11 executing a program stored in the ROM 12 or the NVM 14.
  • the processor 11 has a function of acquiring a destination image from the processing device 2. As described above, when the processing device 2 fails in the OCR processing of the destination image, the processing device 2 transmits the destination image to the server 10.
  • the processor 11 of the server 10 acquires the destination image from the processing device 2 through the first communication unit 15.
  • the processor 11 may collectively acquire the destination images from the processing device 2 at predetermined intervals.
  • the processor 11 has a function of dividing the destination image for each category.
  • the category is the category of the character string described in the destination image.
  • the category may be "name”, “zip code”, “address” or "telephone number”.
  • FIG. 5 shows an operation example in which the processor 11 divides the destination image 0001.
  • the processor 11 has acquired the destination image 0001 from the processing device 2.
  • the baggage ID for identifying the baggage reflected in the destination image 0001 is 0001.
  • the processor 11 performs OCR processing on the destination image 0001.
  • the processor 11 searches the result of the OCR process for a keyword indicating a category.
  • the processor 11 sets the category based on the searched keyword.
  • the processor 11 searches for "NAME”, "ADDRESS”, and "TEL” as keywords indicating the category from the result of the OCR processing.
  • the processor 11 sets "name” as a category corresponding to "NAME”. Further, the processor 11 sets "address” as a category corresponding to "ADDRESS”. Further, the processor 11 sets "telephone number” as a category corresponding to "TEL”.
  • the processor 11 may set the category according to the format stored in advance by the NVM 14.
  • the processor 11 sets a predetermined category for a predetermined area indicated by the format. For example, the processor 11 sets an "name" for the area of the first line and an "address" for the area of the second line.
  • the method by which the processor 11 sets the category is not limited to a specific method.
  • the processor 11 divides the destination image 0001 for each category. That is, the processor 11 extracts an image (divided image) including a character string of one category. For example, the processor 11 extracts the divided image based on the position of the character string read by the OCR process.
  • the processor 11 is a divided image 0001-01 containing a character string of "name” based on a position where "NAME" is described or the like (division in which "name” is set as a category). Image) is extracted. For example, the processor 11 extracts an area (character string area) in which a character string is described in the vicinity of the position where "NAME” is described. Here, the processor 11 searches for and extracts a character string area from the position where "NAME" is described toward the right. The processor 11 acquires the extracted character string area as the divided image 0001-01.
  • the processor 11 extracts a divided image 0001-02 (a divided image in which "address” is set as a category) including a character string of "address” based on the position where "ADDRESS” is described or the like. do.
  • the processor 11 may extract the divided image 0001-02 based on the result of the OCR processing. For example, the processor 11 may extract the divided image 0001-02 based on the position where the character string used in the address description such as "city”, "town", and “ward” is read. For example, the processor 11 may extract a character string area including the character string as a divided image 0001-02.
  • the processor 11 is a divided image 0001-03 containing a character string of the "telephone number” based on the position where the "TEL" is described or the like (a divided image in which the "telephone number” is set as a category). Is divided.
  • FIG. 6 shows another operation example in which the processor 11 divides the destination image 0002.
  • the processor 11 acquires the destination image 0002 from the processing device 2.
  • the cargo ID that identifies the cargo that appears in the destination image 0002 is 0002.
  • the processor 11 searches for "TEL” as a keyword indicating a category from the result of OCR processing.
  • the processor 11 sets "telephone number” as a category corresponding to "TEL".
  • the processor 11 extracts a divided image 0002-02 (a divided image in which the "telephone number” is set as a category) including the character string of the "telephone number” based on the position where the "TEL” is described or the like. ..
  • the processor 11 extracts the divided image 0002-01 whose category is unknown. For example, the processor 11 divides a character string area that does not include a keyword indicating a category as a divided image 0002-01 whose category is unknown. Further, the processor 11 may divide the inseparable character string area including a plurality of keywords as the divided image 0002-01 whose category is unknown.
  • FIG. 7 shows still another operation example in which the processor 11 divides the destination image 0003.
  • the processor 11 acquires the destination image 0003 from the processing device 2.
  • the baggage ID for identifying the baggage shown in the destination image 0003 is 0003.
  • the processor 11 could not search the keyword indicating the category from the result of the OCR processing.
  • the processor 11 divides the character string area of the destination image 0003 as a divided image 0003-01 whose category is unknown.
  • the processor 11 may divide a character string region containing a plurality of keywords and inseparable as a divided image 0003-01.
  • the processor 11 has a function of transmitting a divided image including (possibly included) personal information to the internal VCD 20.
  • Personal information is information that can identify an individual.
  • personal information is information including both a name and an address. That is, the processor 11 transmits a divided image including both the name and the address to the internal VCD 20 at the same time.
  • the definition of personal information is stored in NVM14 or the like. Moreover, the definition of personal information may be updated as appropriate.
  • Processor 11 sets one divided image. When the divided image is set, the processor 11 determines whether or not the divided image contains (can be included) personal information based on the category of the divided image. Here, when the category of the divided image is unknown, the processor 11 determines that the divided image contains personal information.
  • the processor 11 determines that the divided image contains personal information when the category of the divided image is "name" or unknown.
  • the determination method of the processor 11 and the definition of personal information are not limited to a specific configuration.
  • the processor 11 transmits the divided image to the internal VCD 20 through the second communication unit 16. That is, the processor 11 uses the internal VCD 20 to accept the input of the character string described in the divided image. If the category of the divided image is unknown, the processor 11 may accept input of the category.
  • the processor 11 transmits the divided image to the external VCD 30 through the third communication unit 17. That is, the processor 11 uses the external VCD 30 to accept the input of the character string described in the divided image.
  • the processor 11 may transmit a plurality of divided images that do not include personal information to external VCDs 30 that are different from each other through the third communication unit 17.
  • the processor 11 performs the same operation for each divided image divided from the destination image.
  • the processor 11 acquires the character string described in each divided image by the above operation. When each character string is acquired, the processor 11 integrates each character string and acquires the description information described in the destination image.
  • FIG. 8 is an integrated table showing the description information of each destination image. As shown in FIG. 8, the integrated table stores "baggage ID”, "image ID”, “delivery destination”, “category”, “keystroke result”, and the like in association with each other.
  • the "luggage ID” is an ID for identifying the luggage.
  • the "image ID” is an ID that identifies the divided image divided from the destination image. For example, as in the example of FIG. 5, the processor 11 divides the divided image 0001-01, the divided image 0001-02, and the divided image 0001-03 from the destination image 0001.
  • “Delivery destination” indicates the destination to which the processor 11 has transmitted the divided image.
  • “cloud” refers to the external VCD30.
  • site refers to the internal VCD20.
  • Category indicates the category in the divided image.
  • the “category” is the one set by the processor 11 by the OCR process or the one input by the operator.
  • the "keystroke result" is a character string input by the operator to the internal VCD 20 or the external VCD 30 as a character string described in the divided image.
  • the processor 11 integrates the "category” and the "keystroke result” in each baggage ID to generate the description information.
  • the processor 11 transmits the description information generated through the first communication unit 15 to the processing device 2.
  • the processor 11 divides the destination image.
  • the processor 11 further divides the divided image in which the category is set.
  • the processor 11 extracts a space for separating the "last name” and the "first name” in the divided image in which the "name” is set.
  • the processor 11 divides the divided image into an image including a "last name” and a divided image including a "first name” based on the position of the extracted space and the like.
  • the processor 11 divides the divided image in which the "address" is set into a divided image in which the first part of the address is described and a divided image in which the latter part of the address is described. For example, the processor 11 divides into an area (first stage) in which Chinese characters (or alphabetic characters) are described and an area (second stage) in which numbers are described. Further, the processor 11 divides the divided image into a divided image in the first stage and a divided image in the second stage with a character string such as a space, a prefecture, a city, a ward, a town, a district (address), an alphabetic character, a st, a comma, and a semicolon as a boundary. You may.
  • the processor 11 may divide the divided image into three or more divided images.
  • the method by which the processor 11 further divides the divided image is not limited to a specific method.
  • the processor 11 may transmit a plurality of divided images further divided from the divided images to external VCDs 30 different from each other through the third communication unit 17.
  • FIG. 9 is an integrated table showing the description information of each destination image in the modified example.
  • the processor 11 divides the divided image 0001-01 in which the "name” is set into the divided image 0001-01-01 and the divided image 0001-01-02.
  • the divided image 0001-01-01 is an image in which the "last name” of the "name” is described.
  • the divided image 0001-01-02 is an image in which the "name” of the "name” is described.
  • the processor 11 divides the divided image 0002-01 for which the "address" is set into the divided image 0001-02-01 and the divided image 0001-02-02.
  • the divided image 0001-02-01 is an image in which the "previous stage” of the "address” is described.
  • the divided image 0001-02-02 is an image in which the "second stage” of the "address” is described.
  • FIG. 10 is a flowchart for explaining an operation example of the server 10.
  • the processor 11 of the server 10 acquires the destination image from the processing device 2 through the first communication unit 15 (S11).
  • the processor 11 divides the acquired destination image into divided images (S12).
  • the processor 11 sets one divided image (S13). When one divided image is set, the processor 11 determines whether the set divided image includes personal information (S14).
  • the processor 11 transmits the set divided image to the external VCD 30 through the third communication unit 17 (S15).
  • the processor 11 transmits the set divided image to the internal VCD 20 through the second communication unit 16 (S16).
  • the processor 11 determines whether each divided image is transmitted to the internal VCD 20 or the external VCD 30 (S17). ).
  • the processor 11 If it is determined that each divided image has not been transmitted to the internal VCD20 or the external VCD30 (S17, NO), the processor 11 returns to S13.
  • the processor 11 receives the keystroke result from the internal VCD20 or the external VCD30 (S18).
  • the processor 11 determines whether or not the keystroke result has been received for each divided image (S19). If it is determined that the keystroke result has not been received for each divided image (S19, NO), the processor 11 returns to S18.
  • the processor 11 When it is determined that the keystroke result has been received for each divided image (S19, YES), the processor 11 integrates the keystroke result and acquires the description information of the destination image (S20). When the description information of the destination image is acquired, the processor 11 transmits the description information to the processing device 2 through the first communication unit 15 (S21). When the described information is transmitted to the processing device 2, the processor 11 ends the operation.
  • the processor 11 may acquire a plurality of destination images and perform the operations of S11 to 21 for each destination image. Further, the processor 11 may collectively transmit a plurality of described information to the processing device 2.
  • the processor 11 may select a transmission destination from a plurality of external VCDs 30 based on the category of the divided image. For example, the processor 11 may transmit a divided image in which a "telephone number" is set (that is, a divided image in which a numerical value is described) to an external VCD 30 outside the country.
  • a language that can be handled may be set for each external VCD30 or the base of the external VCD30. That is, a language that can be handled is set for the operator who handles the external VCD30.
  • the processor 11 may determine the external VCD 30 to transmit the divided image based on the set language. For example, the processor 11 transmits a divided image that requires input of Japanese to an external VCD 30 in which Japanese is set as a language that can be handled. Further, the processor 11 may transmit a divided image that requires input of a numerical value to an external VCD 30 in which a language other than Japanese is set as a language that can be handled.
  • the processor 11 may transmit a divided image that does not include personal information to the internal VCD 20 through the second communication unit 16. That is, the processor 11 may use the internal VCD 20 to accept the input of the character string described in the divided image that does not include personal information.
  • the processor 11 may perform secondary OCR.
  • the processor 11 performs OCR processing on the destination image acquired from the processing device 2.
  • the processor 11 transmits the described information to the processing device 2 based on the result of the OCR process.
  • the processor 11 divides the destination image and accepts the input of the character string from the operator.
  • the processor 11 does not have to divide the destination image.
  • the processor 11 transmits the destination image to the internal VCD 20. Further, when the destination image does not include personal information, the processor 11 transmits the destination image to the external VCD 30.
  • the input system 100 may include an image management server that manages the destination image in addition to the server 10.
  • the image management server stores the destination image and the ID that identifies the destination image in association with each other.
  • the processor 11 of the server 10 transmits the ID to the internal VCD20 or the external VCD30.
  • the processor 21 of the internal VCD 20 or the processor 31 of the external VCD 30 acquires the destination image corresponding to the ID from the image management server.
  • the server configured as described above divides the destination image into divided images.
  • the server sends a divided image containing personal information to the internal VCD.
  • the server can prevent personal information from being leaked on the global network.
  • the server sends a divided image that does not include personal information to an external VCD.
  • the server can accept the input of the character string described in the divided image regardless of the location of the operator.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Facsimiles In General (AREA)
  • Character Discrimination (AREA)
  • Computer And Data Communications (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

個人情報の漏洩を防止しつつ外部の装置から文字列の入力を受け付けることができる情報処理装置、情報処理方法及びプログラムを提供する。実施形態によれば、情報処理装置は、第1のインターフェースと、第2のインターフェースと、第3のインターフェースと、プロセッサと、を備える。第1のインターフェースは、文字列を含む文字列画像を取得する。第2のインターフェースは、第1のネットワークを通じて内部装置とデータを送受信する。第3のインターフェースは、第2のネットワークを通じて外部装置とデータを送受信する。プロセッサは、前記文字列画像が個人情報を含む場合、前記第2のインターフェースを通じて前記文字列画像を前記内部装置に送信し、前記内部装置から前記文字列の入力を受け付け、前記文字列画像が前記個人情報を含まない場合、前記第3のインターフェースを通じて前記文字列画像を前記外部装置に送信し、前記外部装置から前記文字列の入力を受け付ける。

Description

情報処理装置、情報処理方法及びプログラム
 本発明の実施形態は、情報処理装置、情報処理方法及びプログラムに関する。
 文字列が記載されている画像を表示してオペレータから当該文字列の入力を受け付けるシステムが提供されている。そのようなシステムは、VCD(Video Coding Device)に画像を送信し、VCDに入力された文字列を取得する。
 文字列には、住所、氏名など個人を特定することができる個人情報が含まれることがある。
 従来、システムは、インターネットなど外部のネットワークを通じて画像をVCDに送信すると個人情報が漏洩するおそれがある。
日本国特開2004-005386号公報
 上記の課題を解決するため、個人情報の漏洩を防止しつつ外部の装置から文字列の入力を受け付けることができる情報処理装置、情報処理方法及びプログラムを提供する。
 実施形態によれば、情報処理装置は、第1のインターフェースと、第2のインターフェースと、第3のインターフェースと、プロセッサと、を備える。第1のインターフェースは、文字列を含む文字列画像を取得する。第2のインターフェースは、第1のネットワークを通じて内部装置とデータを送受信する。第3のインターフェースは、第2のネットワークを通じて外部装置とデータを送受信する。プロセッサは、前記文字列画像が個人情報を含む場合、前記第2のインターフェースを通じて前記文字列画像を前記内部装置に送信し、前記内部装置から前記文字列の入力を受け付け、前記文字列画像が前記個人情報を含まない場合、前記第3のインターフェースを通じて前記文字列画像を前記外部装置に送信し、前記外部装置から前記文字列の入力を受け付ける。
図1は、実施形態に係る入力システムの構成例を示すブロック図である。 図2は、実施形態に係るサーバの構成例を示すブロック図である。 図3は、実施形態に係る内部VCDの構成例を示すブロック図である。 図4は、実施形態に係る外部VCDの構成例を示すブロック図である。 図5は、実施形態に係るサーバの動作例を示す図である。 図6は、実施形態に係るサーバの動作例を示す図である。 図7は、実施形態に係るサーバの動作例を示す図である。 図8は、実施形態に係る統合テーブルの構成例を示す図である。 図9は、実施形態に係る統合テーブルの他の構成例を示す図である。 図10は、実施形態に係るサーバの動作例を示すフローチャートである。
実施形態
 以下、実施形態について、図面を参照して説明する。 
 実施形態に係る入力システムは、所定の処理装置において氏名又は住所などの文字列を含む画像にOCR処理を行う。入力システムは、OCR処理(文字認識処理)に成功すると、所定の処理装置においてOCR結果に基づいて所定の動作を行う。
 入力システムは、OCR処理に失敗した場合、画像をVCDに表示する。入力システムは、オペレータから画像に含まれる文字列の入力を受け付ける。入力システムは、入力された文字列を所定の処理装置に入力する。入力システムは、所定の処理装置において、入力された文字列に基づいて所定の動作を行う。
 図1は、実施形態に係る入力システム100の構成例を示す。図1が示すように、入力システム100は、処理装置2、サーバ10、内部VCD20及び外部VCD30などを備える。処理装置2は、サーバ10に接続する。サーバ10は、ネットワーク40及びネットワーク50に接続する。内部VCD20は、ネットワーク40に接続する。外部VCD30は、ネットワーク50に接続する。
 なお、入力システム100は、図1が示すような構成の他に必要に応じた構成をさらに具備したり、入力システム100から特定の構成が除外されたりしてもよい。
 処理装置2は、所定の処理を行う装置である。たとえば、処理装置2は、郵便物又は荷物などの物品をシュータなどに区分する区分機である。処理装置2は、カメラを用いて、物品の宛先面(氏名、住所又は電話番号などが記載されている面)を撮影する。宛先面を撮影すると、処理装置2は、所定のアルゴリズムに従って宛先面が写る画像(宛先画像、文字列画像)にOCR処理を行う。
 OCR処理を行うと、処理装置2は、OCR処理の結果に基づいて物品の宛先面に記載されている情報(記載情報)を取得する。記載情報を取得すると、処理装置2は、取得された記載情報に基づいて物品を区分する。
 OCR処理に失敗して宛先を取得できない場合、処理装置2は、宛先画像をサーバ10に送信する。
 後述するように、サーバ10は、宛先画像に記載されている記載情報を処理装置2に送信する。 
 処理装置2は、サーバ10から記載情報を取得する。記載情報を取得すると、処理装置2は、取得された宛先に基づいて物品を区分する。
 サーバ10(情報処理装置)は、内部VCD20及び外部VCD30を用いて宛先画像に含まれる文字列の入力を受け付ける。サーバ10は、宛先画像(又は、宛先画像の一部)を内部VCD20又は外部VCD30に送信する。サーバ10は、内部VCD20又は外部VCD30に入力された文字列を取得する。サーバ10については、後に詳述する。
 内部VCD20(内部装置)は、サーバ10からの宛先画像に含まれる文字列の入力を受け付ける。内部VCD20は、ネットワーク40を通じてサーバ10から宛先画像を取得する。内部VCD20は、サーバ10からの宛先画像を表示してオペレータから文字列の入力を受け付ける。内部VCD20については、後に詳述する。
 外部VCD30(外部装置)は、サーバ10からの宛先画像に含まれる文字列の入力を受け付ける。外部VCD30は、ネットワーク50を通じてサーバ10から宛先画像を取得する。外部VCD30は、サーバ10からの宛先画像を表示してオペレータから文字列の入力を受け付ける。外部VCD30については、後に詳述する。
 ネットワーク40(第1のネットワーク)は、サーバ10と内部VCD20との間の通信を中継するネットワークである。ネットワーク40は、ローカルな通信を中継するネットワークである。たとえば、ネットワーク40は、ローカルエリアネットワークである。
 ネットワーク50(第2のネットワーク)は、サーバ10と外部VCD30との間の通信を中継するネットワークである。ネットワーク50は、グローバルな通信を中継するネットワークである。たとえば、ネットワーク50は、インターネットである。
 次に、サーバ10の構成例について説明する。 
 図2は、サーバ10の構成例を示すブロック図である。図2が示すように、サーバ10は、プロセッサ11、ROM12、RAM13、NVM14、第1の通信部15、第2の通信部16、第3の通信部17、操作部18及び表示部19などを備える。
 プロセッサ11と、ROM12、RAM13、NVM14、第1の通信部15、第2の通信部16、第3の通信部17、操作部18及び表示部19とは、データバスなどを介して互いに接続される。
 なお、サーバ10は、図2が示すような構成の他に必要に応じた構成を具備したり、サーバ10から特定の構成が除外されたりしてもよい。
 プロセッサ11は、サーバ10全体の動作を制御する機能を有する。プロセッサ11は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ11は、内部メモリ、ROM12又はNVM14が予め記憶するプログラムを実行することにより種々の処理を実現する。
 なお、プロセッサ11がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ11は、ハードウエア回路により実行される機能を制御する。
 ROM12は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM12に記憶される制御プログラム及び制御データは、サーバ10の仕様に応じて予め組み込まれる。ROM12は、たとえば、サーバ10の回路基板を制御するプログラムなどを格納する。
 RAM13は、揮発性のメモリである。RAM13は、プロセッサ11の処理中のデータなどを一時的に格納する。RAM13は、プロセッサ11からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM13は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。
 NVM14は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM14は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。NVM14は、サーバ10の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。
 第1の通信部15(第1のインターフェース)は、処理装置2とデータを送受信するためのインターフェースである。たとえば、第1の通信部15は、有線又は無線のLAN(Local Area Network)接続をサポートするインターフェースである。
 第2の通信部16(第2のインターフェース)は、内部VCD20とデータを送受信するためのインターフェースである。即ち、第2の通信部16は、ネットワーク40に接続する。たとえば、第2の通信部16は、有線又は無線のLAN接続をサポートするインターフェースである。
 第3の通信部17(第3のインターフェース)は、外部VCD30とデータを送受信するためのインターフェースである。即ち、第3の通信部17は、ネットワーク50に接続する。たとえば、第3の通信部17は、有線又は無線のLAN接続をサポートするインターフェースである。
 操作部18は、オペレータから種々の操作の入力を受け付ける。操作部18は、受け付けた操作を示す信号をプロセッサ11へ送信する。たとえば、操作部18は、キーボード、テンキー及びタッチパネルから構成される。
 表示部19は、プロセッサ11の制御により種々の情報を表示する。たとえば、表示部19は、液晶モニタから構成される。なお、操作部18がタッチパネルなどで構成される場合、表示部19は、操作部18と一体的に形成されてもよい。
 なお、第1の通信部15、第2の通信部16及び第3の通信部17は、一体的に形成されてもよい。 
 たとえば、サーバ10は、デスクトップPC又はノートPCなどである。
 次に、内部VCD20の構成例について説明する。 
 図3は、内部VCD20の構成例を示すブロック図である。図3が示すように、内部VCD20は、プロセッサ21、ROM22、RAM23、NVM24、通信部25、操作部26及び表示部27などを備える。
 プロセッサ21と、ROM22、RAM23、NVM24、通信部25、操作部26及び表示部27とは、データバスなどを介して互いに接続される。
 なお、内部VCD20は、図3が示すような構成の他に必要に応じた構成を具備したり、内部VCD20から特定の構成が除外されたりしてもよい。
 プロセッサ21は、内部VCD20全体の動作を制御する機能を有する。プロセッサ21は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ21は、内部メモリ、ROM22又はNVM24が予め記憶するプログラムを実行することにより種々の処理を実現する。
 なお、プロセッサ21がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ21は、ハードウエア回路により実行される機能を制御する。
 ROM22は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM22に記憶される制御プログラム及び制御データは、内部VCD20の仕様に応じて予め組み込まれる。ROM22は、たとえば、内部VCD20の回路基板を制御するプログラムなどを格納する。
 RAM23は、揮発性のメモリである。RAM23は、プロセッサ21の処理中のデータなどを一時的に格納する。RAM23は、プロセッサ21からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM23は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。
 NVM24は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM24は、たとえば、HDD、SSD又はフラッシュメモリなどから構成される。NVM24は、内部VCD20の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。
 通信部25は、サーバ10とデータを送受信するためのインターフェースである。即ち、通信部25は、ネットワーク40に接続する。たとえば、通信部25は、有線又は無線のLAN接続をサポートするインターフェースである。
 操作部26は、オペレータから種々の操作の入力を受け付ける。操作部26は、受け付けた操作を示す信号をプロセッサ21へ送信する。たとえば、操作部26は、キーボード、テンキー及びタッチパネルから構成される。
 表示部27は、プロセッサ21の制御により種々の情報を表示する。たとえば、表示部27は、液晶モニタから構成される。なお、操作部26がタッチパネルなどで構成される場合、表示部27は、操作部26と一体的に形成されてもよい。 
 たとえば、内部VCD20は、デスクトップPC、ノートPC又はタブレットPCなどである。
 プロセッサ21は、通信部25を通じて宛先画像をサーバ10から取得する。宛先画像を取得すると、プロセッサ21は、宛先画像に含まれる文字列を入力するための入力画面を生成する。たとえば、入力画面は、宛先画像及び入力フォームなどを含む。プロセッサ31は、生成された入力画面を表示部27に表示する。
 ここで、内部VCD20のオペレータは、宛先画像を視認して宛先画像に含まれる文字列を操作部26に入力する。
 プロセッサ21は、操作部26を通じて入力された文字列を取得する。文字列を取得すると、プロセッサ21は、通信部25を通じて取得された文字列をサーバ10に送信する。
 次に、外部VCD30の構成例について説明する。 
 図4は、外部VCD30の構成例を示すブロック図である。図4が示すように、外部VCD30は、プロセッサ31、ROM32、RAM33、NVM34、通信部35、操作部36及び表示部37などを備える。
 プロセッサ31と、ROM32、RAM33、NVM34、通信部35、操作部36及び表示部37とは、データバスなどを介して互いに接続される。
 なお、外部VCD30は、図4が示すような構成の他に必要に応じた構成を具備したり、外部VCD30から特定の構成が除外されたりしてもよい。
 プロセッサ31は、外部VCD30全体の動作を制御する機能を有する。プロセッサ31は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ31は、内部メモリ、ROM32又はNVM34が予め記憶するプログラムを実行することにより種々の処理を実現する。
 なお、プロセッサ31がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ31は、ハードウエア回路により実行される機能を制御する。
 ROM32は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM32に記憶される制御プログラム及び制御データは、外部VCD30の仕様に応じて予め組み込まれる。ROM32は、たとえば、外部VCD30の回路基板を制御するプログラムなどを格納する。
 RAM33は、揮発性のメモリである。RAM33は、プロセッサ31の処理中のデータなどを一時的に格納する。RAM33は、プロセッサ31からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM33は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。
 NVM34は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM34は、たとえば、HDD、SSD又はフラッシュメモリなどから構成される。NVM34は、外部VCD30の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。
 通信部35は、サーバ10とデータを送受信するためのインターフェースである。即ち、通信部35は、ネットワーク50に接続する。たとえば、通信部35は、有線又は無線のLAN接続をサポートするインターフェースである。
 操作部36は、オペレータから種々の操作の入力を受け付ける。操作部36は、受け付けた操作を示す信号をプロセッサ31へ送信する。たとえば、操作部36は、キーボード、テンキー及びタッチパネルから構成される。
 表示部37は、プロセッサ31の制御により種々の情報を表示する。たとえば、表示部37は、液晶モニタから構成される。なお、操作部36がタッチパネルなどで構成される場合、表示部37は、操作部36と一体的に形成されてもよい。 
 たとえば、外部VCD30は、デスクトップPC、ノートPC、タブレットPC、スマートフォン、フィーチャーフォン又はウェアラブル端末などである。
 プロセッサ31は、通信部35を通じて宛先画像をサーバ10から取得する。宛先画像を取得すると、プロセッサ31は、宛先画像に含まれる文字列を入力するための入力画面を生成する。たとえば、入力画面は、宛先画像及び入力フォームなどを含む。
 入力画面を生成すると、プロセッサ31は、生成された入力画面を表示部37に表示する。
 ここで、外部VCD30のオペレータは、宛先画像を視認して宛先画像に含まれる文字列を操作部36に入力する。
 プロセッサ31は、操作部36を通じて入力された文字列を取得する。文字列を取得すると、プロセッサ31は、通信部35を通じて取得された文字列をサーバ10に送信する。
 次に、サーバ10が実現する機能について説明する。サーバ10が実現する機能は、プロセッサ11がROM12又はNVM14などに格納されるプログラムを実行することで実現される。
 まず、プロセッサ11は、宛先画像を処理装置2から取得する機能を有する。 
 前述の通り、処理装置2は、宛先画像のOCR処理に失敗すると、宛先画像をサーバ10に送信する。
 サーバ10のプロセッサ11は、第1の通信部15を通じて宛先画像を処理装置2から取得する。 
 なお、プロセッサ11は、所定の間隔でまとめて宛先画像を処理装置2から取得してもよい。
 また、プロセッサ11は、カテゴリごとに宛先画像を分割する機能を有する。
 カテゴリは、宛先画像に記載されている文字列のカテゴリである。たとえば、カテゴリは、「氏名」、「郵便番号」、「住所」又は「電話番号」などである。
 図5は、プロセッサ11が宛先画像0001を分割する動作例を示す。図5が示す例では、プロセッサ11は、宛先画像0001を処理装置2から取得したものとする。また、宛先画像0001に写る荷物を識別する荷物IDは、0001である。
 まず、プロセッサ11は、宛先画像0001に対してOCR処理を行う。OCR処理を行うと、プロセッサ11は、OCR処理の結果から、カテゴリを示すキーワードを検索する。キーワードを検索すると、プロセッサ11は、検索されたキーワードに基づいてカテゴリを設定する。
 図5が示す例では、プロセッサ11は、OCR処理の結果から、カテゴリを示すキーワードとして「NAME」、「ADDRESS」及び「TEL」を検索する。プロセッサ11は、「NAME」に対応するカテゴリとして「氏名」を設定する。また、プロセッサ11は、「ADDRESS」に対応するカテゴリとして「住所」を設定する。また、プロセッサ11は、「TEL」に対応するカテゴリとして「電話番号」を設定する。
 なお、プロセッサ11は、NVM14が予め格納するフォーマットに従ってカテゴリを設定してもよい。プロセッサ11は、フォーマットが示す所定の領域に対して所定のカテゴリを設定する。たとえば、プロセッサ11は、1行目の領域に対して「氏名」、2行目の領域に対して「住所」などを設定する。
 プロセッサ11がカテゴリを設定する方法は、特定の方法に限定されるものではない。
 カテゴリを設定すると、プロセッサ11は、カテゴリごとに宛先画像0001を分割する。即ち、プロセッサ11は、1つのカテゴリの文字列が含まれる画像(分割画像)を抽出する。たとえば、プロセッサ11は、OCR処理によって読み取れた文字列の位置に基づいて分割画像を抽出する。
 図5が示す例では、プロセッサ11は、「NAME」が記載されている位置などに基づいて、「氏名」の文字列が含まれる分割画像0001-01(カテゴリとして「氏名」が設定される分割画像)を抽出する。たとえば、プロセッサ11は、「NAME」が記載されている位置の近傍で文字列が記載されている領域(文字列領域)を抽出する。ここでは、プロセッサ11は、「NAME」が記載されている位置から右方向に向かって文字列領域を探索して抽出する。プロセッサ11は、抽出された文字列領域を分割画像0001-01として取得する。
 同様に、プロセッサ11は、「ADDRESS」が記載されている位置などに基づいて、「住所」の文字列が含まれる分割画像0001-02(カテゴリとして「住所」が設定される分割画像)を抽出する。なお、プロセッサ11は、OCR処理の結果に基づいて分割画像0001-02を抽出してもよい。たとえば、プロセッサ11は、「市」「町」「区」など住所の記載の用いられる文字列を読み取った位置に基づいて分割画像0001-02を抽出してもよい。たとえば、プロセッサ11は、当該文字列を含む文字列領域を分割画像0001-02として抽出してもよい。
 同様に、プロセッサ11は、「TEL」が記載されている位置などに基づいて、「電話番号」の文字列が含まれる分割画像0001-03(カテゴリとして「電話番号」が設定される分割画像)を分割する。
 次に、プロセッサ11が宛先画像を分割する他の動作例について説明する。 
 図6は、プロセッサ11が宛先画像0002を分割する他の動作例を示す。図6が示す例では、プロセッサ11は、宛先画像0002を処理装置2から取得したものとする。また、宛先画像0002に写る荷物を識別する荷物IDは、0002である。
 図6が示す例では、プロセッサ11は、OCR処理の結果から、カテゴリを示すキーワードとして「TEL」を検索する。プロセッサ11は、「TEL」に対応するカテゴリとして「電話番号」を設定する。
 プロセッサ11は、「TEL」が記載されている位置などに基づいて、「電話番号」の文字列が含まれる分割画像0002-02(カテゴリとして「電話番号」が設定される分割画像)を抽出する。
 また、プロセッサ11は、カテゴリが不明である分割画像0002-01を抽出する。たとえば、プロセッサ11は、カテゴリを示すキーワードを含まない文字列領域を、カテゴリが不明である分割画像0002-01として分割する。また、プロセッサ11は、複数のキーワードを含み分離不可能な文字列領域を、カテゴリが不明である分割画像0002-01として分割してもよい。
 次に、プロセッサ11が宛先画像を分割するさらに他の動作例について説明する。  図7は、プロセッサ11が宛先画像0003を分割するさらに他の動作例を示す。図7が示す例では、プロセッサ11は、宛先画像0003を処理装置2から取得したものとする。また、宛先画像0003に写る荷物を識別する荷物IDは、0003である。
 ここでは、プロセッサ11は、OCR処理の結果からカテゴリを示すキーワードを検索できなかったものとする。
 プロセッサ11は、宛先画像0003の文字列領域をカテゴリが不明である分割画像0003-01として分割する。 
 なお、プロセッサ11は、複数のキーワードを含み分離不可能な文字列領域を分割画像0003-01として分割してもよい。
 また、プロセッサ11は、個人情報を含む(含み得る)分割画像を内部VCD20に送信する機能を有する。
 個人情報は、個人を特定可能な情報である。ここでは、個人情報は、氏名及び住所の両者を含む情報である。即ち、プロセッサ11は、氏名及び住所の両者を同時に含む分割画像を内部VCD20に送信する。
 なお、個人情報の定義は、NVM14などに格納される。また、個人情報の定義は、適宜更新されるものであってもよい。
 プロセッサ11は、1つの分割画像を設定する。分割画像を設定すると、プロセッサ11は、当該分割画像のカテゴリに基づいて、当該分割画像に個人情報が含まれるか(含まれ得るか)を判定する。ここでは、プロセッサ11は、当該分割画像のカテゴリが不明である場合、当該分割画像に個人情報が含まれると判定する。
 なお、個人情報が氏名を含む情報であると定義される場合、プロセッサ11は、当該分割画像のカテゴリが「氏名」又は不明である場合に、当該分割画像に個人情報が含まれると判定する。プロセッサ11の判定方法及び個人情報の定義は、特定の構成に限定されるものではない。
 当該分割画像に個人情報が含まれると判定すると、プロセッサ11は、第2の通信部16を通じて当該分割画像を内部VCD20に送信する。即ち、プロセッサ11は、内部VCD20を用いて当該分割画像に記載されている文字列の入力を受け付ける。なお、プロセッサ11は、当該分割画像のカテゴリが不明である場合、カテゴリの入力を受け付けてもよい。
 また、当該分割画像に個人情報が含まれていないと判定すると、プロセッサ11は、第3の通信部17を通じて当該分割画像を外部VCD30に送信する。即ち、プロセッサ11は、外部VCD30を用いて当該分割画像に記載されている文字列の入力を受け付ける。なお、プロセッサ11は、第3の通信部17を通じて、個人情報を含まない複数の分割画像を互いに異なる外部VCD30に送信してもよい。
 プロセッサ11は、宛先画像から分割された各分割画像について同様の動作を行う。
 プロセッサ11は、上記の動作によって各分割画像に記載されている文字列を取得する。各文字列を取得すると、プロセッサ11は、各文字列を統合して宛先画像に記載されている記載情報を取得する。
 図8は、各宛先画像の記載情報を示す統合テーブルである。図8が示すように、統合テーブルは、「荷物ID」、「画像ID」、「配信先」、「カテゴリ」及び「打鍵結果」などを対応づけて格納する。
 「荷物ID」は、前述の通り、荷物を識別するIDである。 
 「画像ID」は、宛先画像から分割された分割画像を識別するIDである。たとえば、図5の例の通り、プロセッサ11は、宛先画像0001から分割画像0001-01、分割画像0001-02及び分割画像0001-03を分割する。
 「配信先」は、プロセッサ11が分割画像を送信した先を示す。ここでは、「クラウド」は、外部VCD30を示す。また、「サイト」は、内部VCD20を示す。前述の通り、分割画像0002-01及び分割画像0003-01のカテゴリが不明であるため、分割画像0002-01及び分割画像0003-01は、内部VCD20に送信される。
 「カテゴリ」は、分割画像にカテゴリを示す。「カテゴリ」は、プロセッサ11がOCR処理によって設定されたもの、又は、オペレータによって入力されたものである。
 「打鍵結果」は、オペレータが分割画像に記載されている文字列として内部VCD20又は外部VCD30に入力した文字列である。
 プロセッサ11は、各荷物IDにおいて、「カテゴリ」及び「打鍵結果」などを統合して記載情報を生成する。記載情報を生成すると、プロセッサ11は、第1の通信部15を通じて生成された記載情報を処理装置2へ送信する。
 次に、プロセッサ11が宛先画像を分割する変形例について説明する。 
 ここでは、プロセッサ11は、カテゴリが設定された分割画像をさらに分割する。
 たとえば、プロセッサ11は、「氏名」が設定された分割画像において「姓」と「名」とを分けるスペースなどを抽出する。プロセッサ11は、抽出されたスペースの位置などに基づいて、分割画像を、「姓」を含む画像と「名」を含む分割画像とに分割する。
 また、プロセッサ11は、「住所」を設定した分割画像を住所の前段が記載されている分割画像と住所の後段が記載されている分割画像とに分割する。たとえば、プロセッサ11は、漢字(又は英字)が記載されている領域(前段)と数字が記載されている領域(後段)とに分割する。また、プロセッサ11は、スペース、都道府県、市区町村、街区(番地)、英字、st、カンマ、セミコロンなどの文字列を境界として、分割画像を前段の分割画像と後段の分割画像とに分割してもよい。
 なお、プロセッサ11は、分割画像を3つ以上の分割画像に分割してもよい。プロセッサ11が分割画像をさらに分割する方法は、特定の方法に限定されるものではない。
 また、プロセッサ11は、第3の通信部17を通じて、分割画像からさらに分割された複数の分割画像を互いに異なる外部VCD30に送信してもよい。
 図9は、変形例における各宛先画像の記載情報を示す統合テーブルである。
 図9が示すように、プロセッサ11は、「氏名」を設定した分割画像0001-01を分割画像0001-01-01と分割画像0001-01-02とに分割する。分割画像0001-01-01は、「氏名」の「姓」が記載されている画像である。また、分割画像0001-01-02は、「氏名」の「名」が記載されている画像である。
 また、プロセッサ11は、「住所」を設定した分割画像0002-01を分割画像0001-02-01と分割画像0001-02-02とに分割する。分割画像0001-02-01は、「住所」の「前段」が記載されている画像である。また、分割画像0001-02-02は、「住所」の「後段」が記載されている画像である。
 次に、サーバ10の動作例について説明する。 
 図10は、サーバ10の動作例について説明するためのフローチャートである。
 まず、サーバ10のプロセッサ11は、第1の通信部15を通じて宛先画像を処理装置2から取得する(S11)。宛先画像を取得すると、プロセッサ11は、取得された宛先画像を分割画像に分割する(S12)。
 宛先画像を分割すると、プロセッサ11は、1つの分割画像を設定する(S13)。1つの分割画像を設定すると、プロセッサ11は、設定された分割画像が個人情報を含むかを判定する(S14)。
 設定された分割画像が個人情報を含まないと判定すると(S14、NO)、プロセッサ11は、第3の通信部17を通じて設定された分割画像を外部VCD30に送信する(S15)。
 設定された分割画像が個人情報を含むと判定すると(S14、YES)、プロセッサ11は、第2の通信部16を通じて設定された分割画像を内部VCD20に送信する(S16)。
 分割画像を外部VCD30に送信した場合(S15)、又は、分割画像を内部VCD20に送信した場合(S16)、プロセッサ11は、各分割画像を内部VCD20又は外部VCD30に送信したかを判定する(S17)。
 各分割画像を内部VCD20又は外部VCD30に送信していないと判定すると(S17、NO)、プロセッサ11は、S13に戻る。
 各分割画像を内部VCD20又は外部VCD30に送信したと判定すると(S17、YES)、プロセッサ11は、内部VCD20又は外部VCD30から打鍵結果を受信する(S18)。
 打鍵結果を受信すると、プロセッサ11は、各分割画像に対して打鍵結果を受信したかを判定する(S19)。各分割画像に対して打鍵結果を受信していないと判定すると(S19、NO)、プロセッサ11は、S18に戻る。
 各分割画像に対して打鍵結果を受信したと判定すると(S19、YES)、プロセッサ11は、打鍵結果を統合して宛先画像の記載情報を取得する(S20)。宛先画像の記載情報を取得すると、プロセッサ11は、第1の通信部15を通じて記載情報を処理装置2に送信する(S21)。 
 記載情報を処理装置2に送信すると、プロセッサ11は、動作を終了する。
 なお、プロセッサ11は、複数の宛先画像を取得して、各宛先画像についてS11乃至21の動作を行ってもよい。また、プロセッサ11は、複数の記載情報をまとめて処理装置2に送信してもよい。
 また、プロセッサ11は、分割画像のカテゴリに基づいて、複数の外部VCD30から送信先を選択してもよい。たとえば、プロセッサ11は、「電話番号」が設定された分割画像(即ち、数値が記載されている分割画像)を国外の外部VCD30に送信してもよい。
 また、外部VCD30又は外部VCD30の拠点ごとに、取り扱い可能な言語が設定されてもよい。即ち、外部VCD30を取り扱うオペレータに、取り扱い可能な言語が設定される。プロセッサ11は、設定された言語に基づいて、分割画像を送信する外部VCD30を決定してもよい。たとえば、プロセッサ11は、日本語の入力が必要な分割画像を、取り扱い可能な言語として日本語が設定されている外部VCD30に送信する。また、プロセッサ11は、数値の入力が必要な分割画像を、取り扱い可能な言語として日本語以外が設定されている外部VCD30に送信してもよい。
 また、プロセッサ11は、第2の通信部16を通じて、個人情報が含まれない分割画像を内部VCD20に送信してもよい。即ち、プロセッサ11は、内部VCD20を用いて個人情報が含まれない分割画像に記載されている文字列の入力を受け付けてもよい。
 また、プロセッサ11は、セカンダリOCRを行うものであってもよい。プロセッサ11は、処理装置2から取得された宛先画像に対してOCR処理を行う。プロセッサ11は、OCR処理に成功した場合、OCR処理の結果に基づいて記載情報を処理装置2に送信する。また、プロセッサ11は、OCR処理に失敗した場合、宛先画像を分割してオペレータから文字列の入力を受け付ける。
 また、プロセッサ11は、宛先画像を分割しなくともよい。プロセッサ11は、宛先画像が個人情報を含む場合、宛先画像を内部VCD20に送信する。また、プロセッサ11は、宛先画像が個人情報を含まない場合、宛先画像を外部VCD30に送信する。
 また、入力システム100は、サーバ10に加えて、宛先画像を管理する画像管理サーバを備えてもよい。画像管理サーバは、宛先画像と宛先画像を特定するIDとを対応付けて格納する。サーバ10のプロセッサ11は、IDを内部VCD20又は外部VCD30に送信する。内部VCD20のプロセッサ21又は外部VCD30のプロセッサ31は、IDに対応する宛先画像を画像管理サーバから取得する。
 以上のように構成されたサーバは、宛先画像を分割画像に分割する。サーバは、個人情報が含まれる分割画像を内部VCDに送信する。その結果、サーバは、個人情報がグローバルなネットワーク上に漏洩することを防止することができる。
 また、サーバは、個人情報を含まない分割画像を外部VCDに送信する。その結果、サーバは、オペレータの場所を問わず分割画像に記載されている文字列の入力を受け付けることができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (14)

  1.  文字列を含む文字列画像を取得する第1のインターフェースと、
     第1のネットワークを通じて内部装置とデータを送受信する第2のインターフェースと、
     第2のネットワークを通じて外部装置とデータを送受信する第3のインターフェースと、
      前記文字列画像が個人情報を含む場合、前記第2のインターフェースを通じて前記文字列画像を前記内部装置に送信し、前記内部装置から前記文字列の入力を受け付け、
      前記文字列画像が前記個人情報を含まない場合、前記第3のインターフェースを通じて前記文字列画像を前記外部装置に送信し、前記外部装置から前記文字列の入力を受け付ける、
     プロセッサと、
    を備える情報処理装置。
  2.  前記プロセッサは、
      前記文字列画像を分割画像に分割し、
      前記第2のインターフェースを通じて前記個人情報を含む前記分割画像を前記内部装置に送信し、前記内部装置から前記文字列の入力を受け付け、
      前記第3のインターフェースを通じて前記個人情報を含まない前記分割画像を前記外部装置に送信し、前記外部装置から前記文字列の入力を受け付ける、
    請求項1に記載の情報処理装置。
  3.  前記プロセッサは、カテゴリごとに前記文字列画像を前記分割画像に分割し、
     前記個人情報を含む前記分割画像は、所定のカテゴリが設定された分割画像又はカテゴリが設定されない分割画像である、
    請求項2に記載の情報処理装置。
  4.  前記プロセッサは、
      前記文字列画像に対して文字認識処理を行い、
      前記文字認識処理の結果に基づいてカテゴリを設定する、
    請求項3に記載の情報処理装置。
  5.  カテゴリは、氏名、住所又は電話番号の何れか1つを含む、
    請求項3又は4に記載の情報処理装置。
  6.  前記プロセッサは、前記第3のインターフェースを通じて、前記個人情報を含まない複数の前記分割画像を互いに異なる前記外部装置に送信する、
    請求項2乃至5の何れか1項に記載の情報処理装置。
  7.  前記プロセッサは、所定のカテゴリが設定された分割画像をさらに複数の分割画像に分割し、前記第3のインターフェースを通じて複数の前記分割画像を前記外部装置に送信する、
    請求項3乃至5の何れか1項に記載の情報処理装置。
  8.  前記プロセッサは、前記分割画像をさらに分割した複数の前記分割画像を互いに異なる前記外部装置に送信する、
    請求項7に記載の情報処理装置。
  9.  前記個人情報は、氏名及び住所である、
    請求項1乃至8の何れか1項に記載の情報処理装置。
  10.  前記文字列は、宛先を含む、
    請求項1乃至9の何れか1項に記載の情報処理装置。
  11.  前記第1のインターフェースは、処理装置に接続し、
     前記プロセッサは、前記第1のインターフェースを通じて、入力された前記文字列を前記処理装置に送信する、
    請求項1乃至10の何れか1項に記載の情報処理装置。
  12.  前記第1のネットワークは、ローカルエリアネットワークであり、
     前記第2のネットワークは、インターネットである、
    請求項1乃至11の何れか1項に記載の情報処理装置。
  13.  プロセッサによって実行される情報処理方法であって、
     文字列を含む文字列画像を取得し、
     前記文字列画像が個人情報を含む場合、第1のネットワークを通じて前記文字列画像を内部装置に送信し、前記内部装置から前記文字列の入力を受け付け、
     前記文字列画像が前記個人情報を含まない場合、第2のネットワークを通じて前記文字列画像を外部装置に送信し、前記外部装置から前記文字列の入力を受け付ける、
    情報処理方法。
  14.  プロセッサによって実行されるプログラムであって、
     前記プロセッサに、
      文字列を含む文字列画像を取得する機能と、
      前記文字列画像が個人情報を含む場合、第1のネットワークを通じて前記文字列画像を内部装置に送信し、前記内部装置から前記文字列の入力を受け付ける機能と、
      前記文字列画像が前記個人情報を含まない場合、第2のネットワークを通じて前記文字列画像を外部装置に送信し、前記外部装置から前記文字列の入力を受け付ける機能と、を実現させるプログラム。
PCT/JP2021/033759 2020-09-18 2021-09-14 情報処理装置、情報処理方法及びプログラム WO2022059674A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21869360.4A EP4216174A4 (en) 2020-09-18 2021-09-14 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
CA3190695A CA3190695A1 (en) 2020-09-18 2021-09-14 Information processing apparatus, information processing method, and program
AU2021343666A AU2021343666B2 (en) 2020-09-18 2021-09-14 Information processing apparatus, information processing method, and program
US18/181,947 US20230216834A1 (en) 2020-09-18 2023-03-10 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020157639A JP7413220B2 (ja) 2020-09-18 2020-09-18 情報処理装置、情報処理方法及びプログラム
JP2020-157639 2020-09-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/181,947 Continuation US20230216834A1 (en) 2020-09-18 2023-03-10 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2022059674A1 true WO2022059674A1 (ja) 2022-03-24

Family

ID=80776126

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033759 WO2022059674A1 (ja) 2020-09-18 2021-09-14 情報処理装置、情報処理方法及びプログラム

Country Status (6)

Country Link
US (1) US20230216834A1 (ja)
EP (1) EP4216174A4 (ja)
JP (1) JP7413220B2 (ja)
AU (1) AU2021343666B2 (ja)
CA (1) CA3190695A1 (ja)
WO (1) WO2022059674A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005386A (ja) 1998-01-28 2004-01-08 Daiwa Computer Service Kk 情報入力方法及びシステム
JP2008259156A (ja) * 2007-03-30 2008-10-23 Sharp Corp 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記録媒体
JP2020107330A (ja) * 2018-12-26 2020-07-09 京都電子計算株式会社 帳票登録装置及び帳票登録用プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160091307A (ko) * 2016-07-22 2016-08-02 주식회사 드라마앤컴퍼니 개인정보 이미지 분할을 통한 텍스트 정보 생성 장치 및 방법
JP7064162B2 (ja) * 2017-11-01 2022-05-10 株式会社リコー 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP6910273B2 (ja) 2017-11-17 2021-07-28 グローリー株式会社 帳票画像処理装置、帳票画像処理システム、帳票画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005386A (ja) 1998-01-28 2004-01-08 Daiwa Computer Service Kk 情報入力方法及びシステム
JP2008259156A (ja) * 2007-03-30 2008-10-23 Sharp Corp 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記録媒体
JP2020107330A (ja) * 2018-12-26 2020-07-09 京都電子計算株式会社 帳票登録装置及び帳票登録用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4216174A4

Also Published As

Publication number Publication date
JP2022051260A (ja) 2022-03-31
EP4216174A1 (en) 2023-07-26
JP7413220B2 (ja) 2024-01-15
EP4216174A4 (en) 2024-09-18
AU2021343666B2 (en) 2024-05-30
CA3190695A1 (en) 2022-03-24
US20230216834A1 (en) 2023-07-06
AU2021343666A1 (en) 2023-04-06

Similar Documents

Publication Publication Date Title
JP5492814B2 (ja) 検索装置、検索システム、方法およびプログラム
US10564846B2 (en) Supplementing a virtual input keyboard
US11640432B2 (en) Document retrieval apparatus and document retrieval method
JP6899797B2 (ja) 問合せ機器特定システム、問合せ機器特定方法
WO2022059674A1 (ja) 情報処理装置、情報処理方法及びプログラム
US10372829B2 (en) Method and computer readable recording medium for providing translation using image
KR20210123119A (ko) 서로 다른 모달의 피처를 이용한 복합 랭킹 모델을 통해 연관 이미지를 검색하는 방법 및 시스템
KR101001134B1 (ko) 휴대용 단말기에서의 한글 검색 시스템 및 그 방법
US12099551B2 (en) Information search system
CN115858742A (zh) 问题文本扩充方法、装置、设备及存储介质
JP5931015B2 (ja) 情報処理装置、システム、サーバ装置、端末及び情報処理方法
US20180253488A1 (en) Personal connection information creating device, computer readable recording medium having a personal connection information creation program stored therein, and a personal connection information creating method
US12099530B2 (en) Search using words from user interface
US12038899B1 (en) Data annotation method and system for unstructured data integrating with data catalog
JP7413219B2 (ja) 情報処理装置及びシステム
US20240037214A1 (en) Information processing device, information processing method, and computer readable medium
US20230135199A1 (en) Maintenance knowledge recommendation across domains
US20230419698A1 (en) Information processing apparatus and information input system
KR101291849B1 (ko) 초성, 중성, 종성을 이용한 텍스트 검색 장치 및 방법
JPH0514304B2 (ja)
JP6866714B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2022152134A (ja) 画像データ編集プログラム、画像データ編集方法及び画像データ編集装置
CN114416980A (zh) 基于智能分类的资产查重方法、系统、设备及计算机可读存储介质
JP2022045557A (ja) 情報処理装置及びプログラム
CN114327379A (zh) 用于辅助软件产品开发的方法、装置、计算机系统和介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21869360

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3190695

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2021343666

Country of ref document: AU

Date of ref document: 20210914

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021869360

Country of ref document: EP

Effective date: 20230418