WO2019093239A1 - 情報処理装置、方法及び記録媒体 - Google Patents

情報処理装置、方法及び記録媒体 Download PDF

Info

Publication number
WO2019093239A1
WO2019093239A1 PCT/JP2018/040828 JP2018040828W WO2019093239A1 WO 2019093239 A1 WO2019093239 A1 WO 2019093239A1 JP 2018040828 W JP2018040828 W JP 2018040828W WO 2019093239 A1 WO2019093239 A1 WO 2019093239A1
Authority
WO
WIPO (PCT)
Prior art keywords
answer
item
business
unit
sentence
Prior art date
Application number
PCT/JP2018/040828
Other languages
English (en)
French (fr)
Inventor
昌子 今西
洋介 本橋
康一 藤堂
紗和子 梅津
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/761,862 priority Critical patent/US11347942B2/en
Priority to JP2019552761A priority patent/JP7136120B2/ja
Publication of WO2019093239A1 publication Critical patent/WO2019093239A1/ja
Priority to US17/739,408 priority patent/US11790167B2/en
Priority to JP2022139022A priority patent/JP7428219B2/ja
Priority to US18/242,904 priority patent/US20230409828A1/en
Priority to JP2024009130A priority patent/JP2024032858A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • G06N5/013Automatic theorem proving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the present invention relates to an information processing apparatus, method, and recording medium.
  • Patent Document 1 discloses an intelligent automatic assistant system that executes a search process and a registration process by interactively accepting a process request from a user and calling an external service based on input data.
  • Patent Document 1 extracts necessary information from the answers based on a predetermined rule. For this reason, in order for the system to respond with high precision to differences in meaning or notational fluctuations due to the context of the same word / phrase, it is necessary to assume a user's answer pattern to the question item and register a large number of rules in advance. there were.
  • the present invention can analyze input natural language with high accuracy without registering a large number of rules in advance, and can automatically input input items necessary for operating a business system. It is an object of the present invention to provide an information processing apparatus, method, and recording medium which can be set as in
  • a receiving unit for receiving a processing request for a business system, a specifying unit for specifying a business task to be executed in the business system based on the processing request, and text analysis of the processing request;
  • An information processing apparatus comprising: an extraction unit which extracts an answer item corresponding to an input item necessary for execution of the business task from the processing request; and an execution unit which executes the business task based on the answer item Provided.
  • a step of receiving a processing request for a business system a step of specifying a business task to be executed in the business system based on the processing request, text analysis of the processing request, and the processing
  • An information processing method comprising the steps of: extracting an answer item corresponding to an input item necessary for execution of the business task from among requests; and executing the business task based on the answer item.
  • the computer receives a processing request for a business system, specifies a business task to be executed in the business system based on the processing request, and analyzes the text of the processing request
  • a program for causing the program to execute steps of extracting an answer item corresponding to an input item necessary for execution of the task from the process request, and executing the task on the basis of the answer item The provided recording medium is provided.
  • An apparatus, method and recording medium can be provided.
  • FIG. 1 is a block diagram showing functions of the information processing apparatus 1 according to the first embodiment.
  • the information processing apparatus 1 is connected to the user terminal 2, various business systems 3, an external system 4, and an employee management system 5 via a communication network (for example, a wired LAN, a wireless LAN, the Internet, etc.) not shown.
  • the information processing apparatus 1 is a computer that receives a processing request from the user terminal 2 in an interactive manner and executes a task in the task system 3.
  • the user terminal 2 is a work terminal such as a smartphone, a tablet terminal, or a personal computer in which a dialog application is installed.
  • the business system 3 is a computer system for registering, updating, and referring to business data such as a transportation expense clearing system, an attendance management system, a schedule management system, and a facility reservation system.
  • the external system 4 is a computer system provided by an operator different from the business system 3, and in the present embodiment, a route search system is illustrated.
  • the employee management system 5 is a user information management system, a personnel information management system, a general affairs information management system, and the like.
  • FIG. 2 is a diagram showing a specific example of the input screen of the business system 3 in the first embodiment.
  • the information processing apparatus 1 when the user applies for transportation expenses at the time of a business trip, “use day”, “destination”, “section”, “one-way fare”, “one-way / round-trip division”, “daily allowance”, “application division” An application content input screen for setting input items such as is shown.
  • the information processing apparatus 1 according to the present embodiment automatically executes an operation on a business system 3 as shown in FIG. 2 in place of the user.
  • the configuration of the information processing apparatus 1 will be described in detail.
  • the information processing apparatus 1 includes a reception unit 10, a specification unit 11, a dialogue setting storage unit 12, a presentation unit 13, an extraction unit 14, a user response storage unit 15, a learning unit 16, and a learning model storage unit 17. , RPA execution unit 18, RPA setting storage unit 19, and script storage unit 20.
  • the receiving unit 10 receives a processing request for the business system 3 input from the user terminal 2.
  • the processing request is referred to as a “task specification sentence”.
  • sentences including the purpose that the user wants to achieve in various business systems 3, such as "I want to settle transportation expenses”, “Reset of train fares”, “Change of delivery date”, and "Reservation of meeting room” are task specific sentences It corresponds to (task declaration statement).
  • the receiving unit 10 can cope with both inputs of task achievement type dialogue and task non-achievement type dialogue.
  • Task-based dialogue is an interactive form in which questions and answers are repeated by inputting sentences that first identify the task.
  • the identifying unit 11 performs text analysis on the task identifying sentence input from the accepting unit 10 with reference to the stored information in the dialogue setting storing unit 12 and identifies the task to be executed in the task system 3.
  • text analysis is a general term for techniques for analyzing text information input or converted by morphological analysis, syntactic analysis, synonym extraction, span extraction, implication recognition and the like.
  • morphological analysis is a process of dividing a sentence into morphemes, which are the smallest unit having meaning as a language, and giving information such as an original form and a part of speech.
  • “Syntax analysis” is called dependency analysis, which calculates naturalness as a dependency relationship between words and clauses while satisfying predetermined structural constraints, and determines dependency relationships between words and clauses It is a process.
  • the “synonym extraction” is a process of inputting text information to be processed, and extracting a pair of synonyms having different notations but having the same meaning. Synonyms may be extracted and stored for each specific domain (field) such as IT related, machine related, and cooking related.
  • “Span extraction” is a process of automatically extracting and extracting important parts from an input sentence using a model learned from learning data.
  • a typical method of span extraction is CRF (Conditional Random Field). For example, it is explained that three learning data, “Go to Hawaii for travel with family,” “Go for travel to America for next month,” and “The destination is New York,” are input as learning data. In this case, by learning the learning data, it is understood that the word between “after travel” + “at” and before “to” + “go” has a high possibility of destination. As a result, when “Go to Italy for travel” is input as unknown data, “Italy” can be extracted as a destination. Further, “implication recognition” is processing for determining whether or not one sentence (target sentence) includes the meaning represented by the other sentence (hypothesis sentence) for two sentences (sentences).
  • the identifying unit 11 refers to the model file when performing text analysis.
  • the model file is a model created by machine learning.
  • the learning unit 16 described later collects a large number of correct pairs of natural language and answer items, and performs machine learning using the data (teacher data).
  • the learning unit 16 generates a model file so that answer items can be extracted from the input text.
  • the dialogue setting storage unit 12 stores a task setting that defines an execution condition of a business task and an input condition setting that defines an input condition of an input item that is necessary when the business task is executed.
  • FIG. 3A and FIG. 3B are diagrams showing an example of data items in the dialogue setting storage unit 12 in the first embodiment.
  • the business task ID unique to each business task the start condition and suspension condition of the business task, the input item ID of the input item necessary for execution of the business task, and the termination process of the business task are items.
  • An example data is shown.
  • the order of the input item IDs indicates the question order.
  • the specification unit 11 performs text analysis based on a model file ("Model_StartCon”) defining start conditions, and a task task ID (“Apply_TransExp”) Identify Also, the input items required to execute the task are the date of use (“Date_use”), the departure station (“From_station”), the arrival station (“To_station”), the via station (“Via_station”), one way, It is a round trip section (“kbn_way”). And, it indicates that the script “Script — 001” is executed as end processing.
  • Model_StartCon defining start conditions
  • a task task ID (“Apply_TransExp") Identify
  • the input items required to execute the task are the date of use (“Date_use”), the departure station (“From_station”), the arrival station (“To_station”), the via station (“Via_station”), one way, It is a round trip section (“kbn_way”). And, it indicates that the script “Script — 001” is executed as end processing.
  • an input item ID a question sentence corresponding to the input item, a data type of the input item, an answer determination condition, and external system cooperation are used as example items, and data examples for each item are shown.
  • the input item ID is "Date_use”
  • "when is the date of use?" Is presented as a question sentence
  • the data type of the data to be set is "date type”
  • the answer determination condition is a model It is indicated that the file "Model_Date” is used.
  • model file is used as the start condition, the interruption condition, and the answer determination condition of the business task
  • the present invention is not limited to the model determination format.
  • regular expression forms such as “* change of date and time *”, “* stop *”, “xxxx-xxxx-xxx [0-9] +” can be used together.
  • other data types in the input condition setting include a string type, a numeric type, and a model type.
  • the presentation unit 13 obtains an input item necessary at the time of execution of the business task, and presents a question sentence regarding the input item on the user terminal 2 side.
  • the number of input items and question sentences vary depending on business tasks.
  • the accepting unit 10 accepts an answer sentence input by the user terminal 2 with respect to the presented question sentence.
  • the extraction unit 14 performs text analysis on the answer sentence received by the reception unit 10, and extracts an answer item corresponding to the input item from the answer sentence.
  • the user response storage unit 15 stores the response items extracted by the extraction unit 14 as setting values.
  • FIG. 4 is a view showing an example of data items of the user response storage unit 15 in the first embodiment.
  • “2017/11/16” on the use day (“Date_use”), “Mita” at the departure station (“From_station”), “Otemachi” at the arrival station (“To_station”), and one-way fares (“fare” “216” is stored in “)” and “1 (one way)” is stored in one-way / reciprocal division (“kbn_way”) as setting values.
  • the learning unit 16 stores the pair of the input answer sentence and the answer item extracted from the answer sentence in the user answer storage unit 15 as learning data.
  • the learning unit 16 also creates a learning model based on the learning data and stores the learning model in the learning model storage unit 17 when the extraction unit 14 can correctly extract the response item from the response sentence.
  • the extraction unit 14 uses a learning model corresponding to the input item for text analysis.
  • the RPA execution unit 18 sets an answer item as an argument, reads a script corresponding to a business task from the script storage unit 20, and executes the business task.
  • RPA Robot Process Automation
  • the RPA execution unit 18 sets an answer item as an argument, reads a script corresponding to a business task from the script storage unit 20, and executes the business task.
  • RPA Robot Process Automation
  • D Labor digital Labor
  • FIG. 5 is a diagram showing an example of data items of the RPA setting storage unit 19 in the first embodiment.
  • the RPA setting storage unit 19 takes a business task ID and an argument for executing a script as a setting item, and shows an example of the data.
  • FIG. 6 is a block diagram showing an example of the hardware configuration of the information processing apparatus 1 according to the first embodiment.
  • the information processing apparatus 1 includes a central processing unit (CPU) 101, a memory 102, a storage device 103, a communication interface 104, an input device 105, and a display device 106.
  • CPU central processing unit
  • the CPU 101 is a processor that performs overall control and arithmetic processing of the information processing apparatus 1 by expanding a program recorded in the storage device 103 on the memory 102 and executing the program. Further, the CPU 101 records the data of the processing result in the storage device 103, and transmits the data of the processing result to the outside via the communication interface 104.
  • the memory 102 includes a RAM (Random Access Memory) for temporarily storing data being processed by the CPU 101 and data read from the storage device 103.
  • RAM Random Access Memory
  • the storage device 103 stores programs executed by the CPU 101, data of processing results of the programs, and the like.
  • the storage device 103 includes a read only memory (ROM), a readable / writable hard disk drive or a flash memory, and the like.
  • the storage device 103 may also include a computer readable portable storage medium such as a CD-ROM.
  • the communication interface 104 is a communication unit that transmits and receives data, and is configured to be able to execute at least one of a wired communication method and a wireless communication method.
  • the communication interface 104 includes a processor, an electric circuit, an antenna, connection terminals, and the like necessary for the communication method.
  • the communication interface 104 performs communication using the communication method in accordance with a signal from the CPU 101.
  • the input device 105 includes a keyboard and the like that receives input from the user, and transmits the input content to the CPU 101 as a signal.
  • a touch screen in which the input device 105 and the display device 106 are integrated may be used.
  • the display device 106 is a display device that displays predetermined information in accordance with a signal from the CPU 101.
  • any display device such as a liquid crystal display can be used.
  • the information processing apparatus 1 is not limited to the hardware configuration illustrated in FIG. 6 and may further include other devices.
  • the information processing device 1 may consist of one or more devices, or may be integrated with other devices.
  • the information processing apparatus 1 may be connected to another apparatus, and at least a part of the processing performed by the information processing apparatus 1 in the present embodiment may be performed by the apparatus.
  • FIG. 7 is a sequence diagram showing an operation example among the information processing device 1, the user terminal 2 and the business system 3 according to the first embodiment.
  • 8 and 9 are diagrams showing an example of the dialogue screen of the user terminal 2 in the first embodiment.
  • the balloon from the right side of the screen indicates the input content from the user terminal 2
  • the balloon from the left side of the screen indicates the output content (question statement) from the information processing apparatus 1.
  • step S101 when the user inputs a task specification sentence at the user terminal 2 (step S101), the specification unit 11 of the information processing apparatus 1 performs text analysis on the task specification sentence received by the reception unit 10 to specify a business task Then, the task task ID is output to the presentation unit 13 (step S102).
  • the presentation unit 13 of the information processing device 1 acquires the question sentence and the question order corresponding to the input items necessary for executing the business task from the dialogue setting storage unit 12 based on the business task ID (step S103) ).
  • the extraction unit 14 of the information processing device 1 determines whether the task specific sentence includes an answer item (step S104).
  • the extraction unit 14 stores the answer item included in the task identification sentence (step S105).
  • the presentation unit 13 changes the question order because the question is not necessary for the answer item stored in step S105 (step S106).
  • the process proceeds to step S107.
  • step S107 the presentation unit 13 determines whether the question type relating to the target input item is a fixed question.
  • the “fixed question” is a question sentence which has a fixed question sentence and which is described in advance in the input condition setting. The determination on the fixed question is performed according to the conditions described in the input condition setting.
  • step S107: YES the process proceeds to step S109.
  • the case of the input item "Date_use (use date)" illustrated in FIG. 3B corresponds.
  • step S107 determines that the question type is not a fixed question
  • step S108 the question sentence created by the execution of the external system cooperation process is acquired (step S108), The process proceeds to step S109.
  • a question sentence whose question type is not a fixed question means a question sentence that changes according to the processing result in the external system 4. For example, the case of the input item “kbn_way (one-way / reciprocal division)” illustrated in FIG. 3B is applicable. The external system cooperation processing will be described later.
  • step S109 when the presentation unit 13 outputs the question sentence corresponding to the input item to the user terminal 2, the user terminal 2 displays the question sentence on the screen (step S110).
  • step S111 when the user inputs an answer sentence to the question sentence in the user terminal 2 (step S111), the extraction unit 14 analyzes the text of the answer sentence accepted in the accepting unit 10, and the answer sentence indicates An answer item is extracted (step S112).
  • text analysis may not be necessary for an answer sentence to a yes / no type question sentence.
  • answer patterns such as “Yes”, “Yes”, “Yes” as answers to the meaning of “Yes”. In this case, text analysis may be performed.
  • step S113 determines whether or not a plurality of answer items have been extracted from the answer sentences in step S112 (step S113).
  • step S113: YES if the extraction unit 14 determines that a plurality of answer items have been extracted, the process proceeds to step S114.
  • step S113: NO when the extraction unit 14 determines that a plurality of answer items are not extracted, the process proceeds to step S120.
  • an answer sentence A12 (“from Mita to Otemachi”) is input for the question sentence Q12 ("Where is the departure station?").
  • the answer sentence A12 not only answer items for the input item (“department station”) to be asked but also answer items for other input items (“arrival station”) are included.
  • "Mita” and "Otemachi” can be said to be vague inputs as station names. In such a case, “Mita” may be extracted as “Mita station” and “Otemachi” as “Otemachi station” based on a predetermined regular expression method.
  • the information processing apparatus 1 receives the answer sentence A12 and presents a question sentence Q13 ("Mita station to Otemachi station is 216 yen without transfer on the Toei Mita line. Is it a round trip?") ing.
  • step S114 the extraction unit 14 determines whether the correspondence between the plurality of answer items extracted from the answer sentence and the input item is clear. Here, if the extraction unit 14 determines that the correspondence between the answer item and the input item is clear (step S114: YES), the process proceeds to step S119.
  • the answer sentence A12 in FIG. 8 includes not only the answer items for the input item for question (“department station”) but also the answer items for other input items (“arrival station”). By analyzing, the correspondence between the answer item and the input item is clear. Therefore, as shown in the question sentence Q13, "Mita” is classified as “department station”, and "Otemachi” is classified as "arrival station”.
  • step S114 determines that the correspondence between the answer item and the input item is unclear (step S114: NO)
  • the presentation unit 13 causes the user terminal 2 to confirm A question sentence is output (step S115).
  • the user terminal 2 displays the question sentence on the screen (step S116).
  • an answer sentence A22 (“From Mita to Oshiage to Aoto") is input for the question sentence Q22 ("Where is the departure station?").
  • the question sentence Q22 (Where is the departure station?").
  • the question sentence A22 it is clear that the "departure station” is the "Mita station".
  • the “passing station” and the “arriving station” are processed as unclear in the information processing apparatus 1. That is, both "Oshiage Station” and "Aoto Station” can be candidates for "Arrival Station”.
  • the question text Q23 for confirmation (“Aoto station is an arrival station?") Is presented, and it is judged whether "Aoto station" should be classified as an arrival station.
  • the extraction unit 14 analyzes the text of the answer sentence and extracts the answer item indicated in the answer sentence. Thereby, the extraction unit 14 clarifies the correspondence between the plurality of answer items and the input item (step S118).
  • the presentation unit 13 changes the question order so as to omit the question regarding the answer item whose correspondence with the input item is clarified (step S119).
  • a question about “Arrival station (To_station)” is performed after “Department station (From_station)”.
  • the question regarding the “arriving station” is omitted.
  • "via station” is also omitted because there is no via station (transfer station) from the search route.
  • Step S121 when the answer item corresponding to the input item is stored in the user answer storage unit 15 (step S120), the extraction unit 14 determines whether the question has ended for all the input items necessary for executing the business task.
  • step S121 if the extraction unit 14 determines that the questions have ended for all the input items (step S121: YES), the process proceeds to step S122.
  • step S121: NO when the extraction unit 14 determines that the question has not ended (step S121: NO), the process returns to the process of step S107.
  • step S122 the RPA execution unit 18 reads the script relating to the business task from the script storage unit 20, and executes the script with the answer item read out from the user response storage unit 15 as an argument.
  • step S123 the business system 3 performs automatic processing based on the script, and outputs the processing result to the information processing apparatus 1 (step S124).
  • FIG. 10 is a flowchart illustrating an example of external system cooperation processing of the information processing device 1 according to the first embodiment. This process is executed when, in the input condition setting of the dialogue setting storage unit 12, a script for external system cooperation and an argument are designated as the question format of the question sentence regarding the input item.
  • the RPA execution unit 18 reads a script relating to a business task from the script storage unit 20, acquires an answer item to be set as an argument from the user response storage unit 15, and executes the script (step S201).
  • the RPA execution unit 18 acquires the processing result based on the script from the external system 4 (step S202), and outputs the processing result to the presentation unit 13.
  • the presentation unit 13 creates a question sentence related to the input item based on the processing result (step S203).
  • the created question sentence is output to the user terminal 2 (step S109 in FIG. 7).
  • the desired business task is automatically interpreted by interpreting the meaning contents of the text input in natural language without registering a large number of rules in advance. It can be done.
  • the processing request for the desired business system 3 can be made simply by simply answering the question asked by the user via the common dialogue application by natural language. And, it accepts input / designation of data and can automatically process on behalf of the user. Thus, the user does not have to learn how to operate the plurality of business systems 3. As a result, the work can be made more efficient.
  • the script storage unit 20 stores, for each business task, an RPA script that causes the business system 3 to execute predetermined processing, and the RPA execution unit 18 reads the RPA script corresponding to the business task, and the RPA script and the answer Execute business tasks based on items (arguments). Because of the configuration using scripts, there is an advantage that the implementation is easy for a plurality of business systems 3.
  • the presentation unit 13 asks a question regarding the other input item. Omit presentation of sentences.
  • an answer item related to an unquestioned input item is obtained at the same time, a re-question is not necessary, and the answer item can be efficiently acquired in the dialog.
  • the presentation unit 13 presents a question sentence for confirming the answer item corresponding to the input item.
  • the learning model obtained by machine learning can improve the accuracy by repeating the learning, but the accuracy may be low at the beginning of the learning.
  • an answer sentence such as “from Mita to push up to Aotoshi” is input for the first time by asking questions again based on the order of classification scores, input with high accuracy It is possible to extract response items for items.
  • the user answer storage unit 15 is further provided which stores the answer item extracted from the answer sentence and the answer sentence of the extraction source.
  • FIG. 11 is a block diagram showing the functions of the information processing apparatus 1 according to the second embodiment.
  • the information processing apparatus 1 according to the second embodiment further includes a monitoring unit 21.
  • the monitoring unit 21 monitors registration data in a plurality of business systems 3. Then, when the data related to the input item is not identical among the plurality of business systems 3 or in a predetermined case (for example, when the data is related to specific event information), the monitoring unit 21 performs the business related to the correction of the data. Identify the task When the monitoring unit 21 detects a non-coincidence of data, the presenting unit 13 presents a message (task recommended statement) proposing the execution of a new business task specified by the monitoring unit 21.
  • a message task recommended statement
  • the extraction unit 14 acquires user information of the user from the employee management system 5 (user information management system), and extracts an answer item corresponding to the input item from the user information. Then, the extraction unit 14 stores the extracted answer item in the user answer storage unit 15. When using the user information, the presentation unit 13 omits presentation of a question sentence regarding an input item overlapping the user information.
  • FIG. 12 is a flowchart showing an example of the information processing apparatus 1 in the second embodiment.
  • FIG.13 and FIG.14 is a figure which shows an example of the interactive screen of the user terminal 2 in 2nd Embodiment.
  • the monitoring unit 21 determines whether a predetermined activation event has been detected (step S301).
  • the monitoring unit 21 detects a start event (step S301: YES)
  • the monitoring unit 21 analyzes registration data relating to the same user among a plurality of business systems 3 (step S302).
  • the activation event includes activation of the user terminal 2 being monitored and registration / update event of data from the user terminal 2 to the business system 3.
  • step S303 the monitoring unit 21 determines the presence or absence of inconsistent data among the plurality of business systems 3.
  • the monitoring unit 21 identifies a business task for data correction, and notifies the presenting unit 13 of the identified business task and the input item to be corrected (step S304). ).
  • the recommended statement TR3 for business tasks shown in Fig. 13 ("Mr. Niommen, good morning. Now, let me confirm the meeting at Company A accepted.") Is one of the business systems 3 from the user terminal 2 It is a sentence presented triggered by having registered a schedule in the schedule management system.
  • the monitoring unit 21 notifies the presenting unit 13 as an input item to be corrected by detecting that the schedule after the meeting is not registered in the schedule management system.
  • the presentation unit 13 acquires the input item and the question sentence regarding the business task (step S305), and selects the question sentence of the input item to be corrected (step S306), and outputs the question sentence to the user terminal 2 (step S306) Step S307).
  • the extracting unit 14 analyzes the text of the answer sentence to extract an answer item from the answer sentence (step S308).
  • the extraction unit 14 stores the extracted answer item in the user answer storage unit 15 (step S309).
  • step S310 determines whether the question has ended for all the input items required to execute the business task.
  • step S310: YES determines that the questions have ended for all the input items.
  • step S311: NO the process returns to the process of step S306.
  • step S311 the RPA execution unit 18 reads a script relating to the business task from the script storage unit 20. Then, the RPA execution unit 18 executes the script using the setting value of the answer item read from the user answer storage unit 15 as an argument.
  • the question / answer type Q31 ("Do you return to the company after the meeting?") Is presented, and the answer A31 ("Yes, return") is input.
  • the information processing device 1 presents the user terminal 2 with a message M32 ("Thank you. Then, the provisional moving time has been added to the scheduler.”).
  • a message M32 indicates that a script relating to the business task of schedule registration is executed, and a provisional schedule is registered in the schedule management system.
  • This dialogue is activated when the information processing device 1 detects the activation of the user terminal 2 on the day after the meeting.
  • the recommendation task TR4 ("Nichiden, Good morning. Check the traffic route and fare yesterday. Are you sure?") Of the task task are presented. This indicates that the travel expense application has been identified as a business task required for the user because the location and time zone of the meeting are registered in the schedule management system.
  • Question Q43 (Is the return route from company A below?") Presents the search results of the route between company A and the user's home.
  • the traffic route is acquired by requesting the route search system, which is the external system 4, using the “department station” and the “arrival station” as arguments to request a search process.
  • the location of the meeting (“Otemachi”) is extracted from the registration data of the schedule management system, and for “arrival station”, for example, from the user information management system It shows the case where the nearest station (“Musashi Kosugi”) of the user's home is extracted and automatically set.
  • the information processing apparatus 1 previously acquires system possession information related to the user from the user information management system, and stores the information in the user response storage unit 15 in association with a predetermined response item.
  • a predetermined response item for example, an employee number or the like is used as a key.
  • the system from which data is acquired is not limited to the user information management system.
  • "home nearest station”, "company nearest station”, “approver information”, "name on family register”, "post”, "home” as user specific information Address information can be acquired.
  • company information, address information, etc. of other companies it is possible to acquire company information, address information, etc. of other companies.
  • the information processing apparatus 1 by monitoring data stored in the business system 3, mismatching of data in input items having relevance between different business systems 3 can be achieved.
  • (contradiction or plagiarism) is detected, it is possible to estimate and present a task required for the user.
  • data are consistent between the schedule management system and the transportation expense application system.
  • information necessary for execution of business tasks can be automatically extracted from the business system 3 and used, the number of questions presented to the user terminal 2 can be reduced and business tasks can be executed efficiently. You can also.
  • the monitoring unit 21 recommends the business task not only when the data do not match between the systems but also when the data is related to specific event information. For example, when data of a company name such as "Company A” or a place name such as "Otemachi” is registered as a business trip destination in the schedule management system and there is a meeting room name such as "234 meeting room” in the facility reservation system Detect events of and correct / register necessary data.
  • FIG. 15 is a flowchart showing an example of the information processing apparatus 1 in the third embodiment.
  • FIG. 16 is a view showing an example of the dialogue screen of the user terminal 2 in the third embodiment. The mark of the microphone shown in FIG. 16 indicates that the answer is input by voice input.
  • the extraction unit 14 of the information processing device 1 analyzes the answer sentence input in the user terminal 2 (step S401), and determines whether or not the correction sentence is included in the answer sentence (step S402).
  • the extraction unit 14 specifies the response item to be corrected from the response sentence (step S403), and extracts the corrected response item (step S403).
  • Step S404 As a method of detecting a correct expression such as "not", "not” or "incorrect” from the answer sentences, there is a rule-based detection method based on a regular expression or a method by machine learning. is there. It should be noted that the same processing will be performed not only when making a correction immediately in the same answer but also when making a correction for a given input item later in a dialog related to the same business task. .
  • step S402 determines that the answer sentence does not include the correction sentence
  • step S405 the answer item corresponding to the input item is extracted from the answer sentence
  • step S406 the extraction unit 14 stores the extracted answer item in the user answer storage unit 15.
  • the task task of the traffic expense application is specified, and a plurality of question sentences corresponding to the input items are presented, but the answer sentence A 52 ("Mita to Musashi Kosugi and not Mita (From “to Otemachi”) includes a correction expression (“from Mita to Otemachi, not from Musashi Kosugi”) that corrects “Arrival Station” from “Musashi Kosugi” to “Otemachi”. If the content of the answer sentence is "Mita to Musashi Kosugi and not Otemachi", then in the information processing apparatus 1, "Otemachi” is not an item to correct either "Mita” or "Musashi Kosugi”. There are cases where it can not be determined. When the contents of the answer sentence can be interpreted in a plurality of meanings, for example, it is assumed that the re-question is performed as “Mita Station to Otemachi Station?”.
  • Answer question A52 next question sentence Q53 ("Mita station to Otemachi station is 216 yen without transfer in Toei Mita line. Is it round trip?") Is "arrival station” from among correction sentences As an answer item, "Otemachi Station” is extracted, indicating that the route search has been executed.
  • the information processing apparatus 1 in the third embodiment it is possible to easily correct the answer item answered in the dialogue.
  • the contents of the answer can not be deleted, and it is effective because it needs to be reworded.
  • FIG. 17 is a flowchart showing an example of the information processing apparatus 1 in the fourth embodiment.
  • the business system 3 is a delivery management system is shown.
  • the identifying unit 11 of the information processing device 1 identifies the task from the task identification sentence input from the user terminal 2 (step S501), and acquires the scenario ID of the classification destination of the task task ID (step S502) .
  • the extraction unit 14 refers to the dialog setting storage unit 12 and searches for common input items (hereinafter referred to as “common input items”) from business tasks associated with the same scenario ID (step). S503).
  • the extraction unit 14 refers to the user response storage unit 15 based on the input item ID of the common input item, and determines whether an answer item for the common input item has already been registered and stored (step S504).
  • the extraction unit 14 acquires data of the answer item for the common input item from the user answer storage unit 15.
  • step S505 the order of questions required for the business task identified in step S501 is changed (step S506). That is, since the answer item is determined for the common input item, the question is omitted.
  • the information processing apparatus 1 extracts an answer item corresponding to an input item necessary for the business task in an interactive manner, and executes the business task (step S507).
  • step S508 when the execution of the business task on the business system 3 is completed, the response item corresponding to the common input item and the time in which the response item is set are stored in association with the scenario ID (step S508), and the process is ended.
  • FIG. 18 is a view showing an example of the dialogue screen of the user terminal 2 in the fourth embodiment.
  • the business tasks of delivery date confirmation and delivery date change will be classified into the same scenario ID, and it will be described on the premise that “slip number” is a common input item in two business tasks.
  • the task specification sentence T6 ("I want to confirm the delivery date and time") is input from the user, and the business task of the delivery date and time confirmation is identified. Please enter ”) is presented.
  • the information processing apparatus 1 displays a message M62 ("It will be delivered from 19:00 to 21:00 on October 31 (Tuesday, October 31).") Present the delivery date and time confirmation business task has been completed.
  • a new task specification sentence T7 ("I want to change the delivery date and time") is inputted with an interval.
  • a question sentence Q63 (“What is your desired delivery date and time?") Regarding the delivery date and time change is presented. Since a new task specification sentence T7 has been input, originally the question sentence of "Please enter the document number.” Is presented first, the business task of delivery date and time confirmation is executed on the same day, and the document number The entry of the slip number is omitted because the entry has already been entered.
  • the setting value of the answer item corresponding to the common input item is newly set. Can be reused when executing business tasks. Therefore, when a new task specification sentence is input, it is not necessary to present a question sentence regarding the common input item, and the related business task can be executed continuously and efficiently.
  • FIG. 19 is a block diagram showing the function of the information processing device 1 in the fifth embodiment.
  • the reception unit 10 includes a text recognition unit 10A, a speech recognition unit 10B, and a speech generation unit 10C.
  • the user terminal 2 includes a microphone 2C for voice input and a speaker 2D for voice output.
  • the microphone 2C and the speaker 2D include those integrated as a wearable device (wireless earphone).
  • the text recognition unit 10A of the reception unit 10 recognizes the text information transmitted from the chat application 2A of the user terminal 2, and outputs the text information to the identification unit 11 and the extraction unit 14.
  • the voice recognition unit 10B recognizes the voice input from the microphone 2C of the user terminal 2, converts the voice into text information, and outputs the text information to the identification unit 11 and the extraction unit 14.
  • the processes in the identification unit 11 and the extraction unit 14 are the same as in the case where text information is input from the text recognition unit 10A.
  • the speech generation unit 10C When the presentation unit 13 determines the question sentence corresponding to the business task based on the task specific sentence, the speech generation unit 10C generates a speech file from the text information of the question sentence. Then, the voice generation unit 10C outputs the voice file to the user terminal 2 via the presentation unit 13.
  • the audio of the audio file is output from the speaker 2D via the audio application 2B.
  • FIG. 20 is a block diagram showing the function of the information processing device 7 according to the sixth embodiment.
  • the information processing apparatus 7 according to the sixth embodiment receives the processing request from the business system, receives the processing request, identifies the business task to be executed in the business system based on the processing request, and analyzes the text of the processing request.
  • the extraction unit 73 extracts an answer item corresponding to an input item necessary for execution of the task from the process request, and an execution unit 74 executes the task on the basis of the answer item.
  • input natural language can be analyzed with high accuracy without registering a large number of rules in advance, and an input item necessary for operating the business system Can be set automatically.
  • business system 3 which performs a business task was a transportation cost application system or a delivery management system
  • business system 3 which becomes object is not restricted to this.
  • business tasks include searching for the availability of facilities such as conference rooms, reservation of facilities, confirmation of reservations, cancellation of reservations, and the like. By specifying and executing a business task by interactive processing via text or voice, it is possible to improve the use efficiency of the facility.
  • business tasks include confirmation of work results by the user or the user's superior, approval of the work results, approval of leave application, and approval of leave application.
  • business tasks include admission application, cancellation of admission application, and change of admission application.
  • admission application In any of the cases (1) to (3), there is no need for the user to directly access the input screen of the business system 3 and manually set the necessary input items, and the input items are automatically set in the dialog.
  • Business tasks can be performed easily and efficiently.
  • a program for operating the configuration of the embodiment to realize the functions of the above-described embodiments is recorded on a recording medium, a program recorded on the recording medium is read as a code, and a processing method is also executed by a computer. It is included in the category of each embodiment. That is, a computer readable recording medium is also included in the scope of each embodiment. Moreover, the computer program itself is included in each embodiment as well as the recording medium in which the computer program described above is recorded.
  • the recording medium for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM (Compact Disc-Read Only Memory), magnetic tape, nonvolatile memory card, ROM can be used.
  • the program is not limited to one in which processing is executed by a single program recorded in the recording medium, but is executed on OS (Operating System) in cooperation with other software and expansion board functions. Are also included in the category of each embodiment.
  • a receiving unit that receives a processing request for the business system;
  • a specification unit that specifies a business task to be executed in the business system based on the processing request;
  • An extraction unit that analyzes the text of the processing request and extracts an answer item corresponding to an input item necessary for executing the business task from the processing request;
  • An execution unit that executes the business task based on the answer item;
  • An information processing apparatus comprising:
  • a storage unit that stores, for each of the business tasks, a script that causes the business system to execute predetermined processing.
  • the information processing apparatus according to claim 1, wherein the execution unit executes the business task based on the script corresponding to the business task and the response item.
  • a presentation unit that identifies the input item corresponding to the business task identified by the identification unit, and presents a question sentence regarding the input item;
  • the reception unit receives an answer sentence to the question sentence,
  • the information processing apparatus according to any one of appendices 1 to 3, wherein the extraction unit analyzes the text of the answer sentence and extracts the answer item corresponding to the input item from the answer sentence. .
  • the presentation unit calculates classification scores indicating the degree of association between the input item and the answer item, and presents the question sentence based on the order of the classification scores.
  • Information processing equipment
  • the extraction unit acquires system possession information possessed by the business system in relation to a user who makes the processing request, and extracts the answer item corresponding to the input item from the system possession information.
  • the information processing apparatus according to any one of appendices 4 to 8, wherein the presentation unit omits presentation of the question sentence regarding the input item overlapping with the system possession information.
  • the extraction unit specifies the answer item to be corrected and the answer item after correction from the answer sentence, when the correction sentence for the answer item is included in the answer sentence, and the correction subject 15.
  • the information processing apparatus according to any one of appendices 4 to 10, wherein the answer item of is replaced with the answer item after the correction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本発明に係る情報処理装置は、業務システムに対する処理要求を受け付ける受付部と、前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定する特定部と、前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出する抽出部と、前記回答項目に基づいて前記業務タスクを実行する実行部と、を備える。

Description

情報処理装置、方法及び記録媒体
 本発明は、情報処理装置、方法及び記録媒体に関する。
 特許文献1には、ユーザからの処理要求を対話形式で受け付け、入力されたデータに基づいて外部サービスを呼び出すことにより、検索処理や登録処理を実行するインテリジェント自動アシスタントシステムが開示されている。
特開2013-517566号公報
 特許文献1に記載のシステムは、所定のルールに基づいて回答の中から必要な情報を抽出する。このため、当該システムが同一語句の文脈による意味の相違や表記ゆれなどに高精度で対応するためには、質問事項に対するユーザの回答パターンを想定し、大量のルールを予め登録しておく必要があった。
 そこで、本発明は、上述の課題に鑑み、大量のルールを予め登録しなくても、入力された自然言語を高精度で解析でき、かつ、業務システムを操作する上で必要な入力項目を自動的に設定できる情報処理装置、方法及び記録媒体を提供することを目的とする。
 本発明の一つの観点によれば、業務システムに対する処理要求を受け付ける受付部と、前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定する特定部と、前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出する抽出部と、前記回答項目に基づいて前記業務タスクを実行する実行部と、を備える情報処理装置が提供される。
 本発明の他の観点によれば、業務システムに対する処理要求を受け付けるステップと、前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定するステップと、前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出するステップと、前記回答項目に基づいて前記業務タスクを実行するステップと、を備える情報処理方法が提供される。
 本発明のさらに他の観点によれば、コンピュータに、業務システムに対する処理要求を受け付けるステップと、前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定するステップと、前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出するステップと、前記回答項目に基づいて前記業務タスクを実行するステップと、を実行させるプログラムが記録された記録媒体が提供される。
 本発明によれば、大量のルールを予め登録しなくても、入力された自然言語を高精度で解析でき、かつ、業務システムを操作する上で必要な入力項目を自動的に設定できる情報処理装置、方法及び記録媒体を提供することができる。
第1実施形態に係る情報処理装置の機能を示すブロック図である。 第1実施形態における業務システムの入力画面の具体例を示す図である。 第1実施形態における対話設定記憶部のデータ項目例を示す図である。 第1実施形態における対話設定記憶部のデータ項目例を示す図である。 第1実施形態におけるユーザ回答記憶部のデータ項目例を示す図である。 第1実施形態におけるRPA設定記憶部のデータ項目例を示す図である。 第1実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。 第1実施形態に係る情報処理装置、ユーザ端末及び業務システムの間の動作例を示すシーケンス図である。 第1実施形態におけるユーザ端末の対話画面の一例を示す図である。 第1実施形態におけるユーザ端末の対話画面の一例を示す図である。 第1実施形態に係る情報処理装置の外部システム連携処理の一例を示すフローチャートである。 第2実施形態に係る情報処理装置の機能を示すブロック図である。 第2実施形態における情報処理装置の一例を示すフローチャートである。 第2実施形態におけるユーザ端末の対話画面の一例を示す図である。 第2実施形態におけるユーザ端末の対話画面の一例を示す図である。 第3実施形態における情報処理装置の一例を示すフローチャートである。 第3実施形態におけるユーザ端末の対話画面の一例を示す図である。 第4実施形態における情報処理装置の一例を示すフローチャートである。 第4実施形態におけるユーザ端末の対話画面の一例を示す図である。 第5実施形態における情報処理装置の機能を示すブロック図である。 第6実施形態に係る情報処理装置の機能を示すブロック図である。
 以下、図面を参照して、本発明の実施形態を説明する。なお、以下で説明する図面においては、同一の機能又は対応する機能を有する要素には同一の符号を付し、その繰り返しの説明を省略する。
[第1実施形態]
 図1は、第1実施形態に係る情報処理装置1の機能を示すブロック図である。情報処理装置1は、図示しない通信ネットワーク(例えば有線LAN、無線LAN、インターネットなど)を介してユーザ端末2、各種の業務システム3、外部システム4及び従業員管理システム5に接続されている。情報処理装置1は、ユーザ端末2から対話形式で処理要求を受け付け、業務システム3における業務タスクを実行するコンピュータである。ユーザ端末2は、対話アプリケーションがインストールされているスマートフォン、タブレット端末、パーソナルコンピュータなどの作業端末である。業務システム3は、交通費清算システム、勤怠管理システム、スケジュール管理システム、施設予約システムなど業務データの登録・更新、参照を行うためのコンピュータシステムである。また、外部システム4は、業務システム3とは異なる事業者によって提供されているコンピュータシステムであり、本実施形態ではルート検索システムを例示している。従業員管理システム5は、ユーザ情報管理システム、人事情報管理システム及び総務情報管理システムなどである。
 図2は、第1実施形態における業務システム3の入力画面の具体例を示す図である。ここでは、ユーザが出張時の交通費申請を行う際に、“利用日”、“行き先”、“区間”、“片道運賃”、“片道・往復区分”、“日当”、“申請区分”などの入力項目をそれぞれ設定する申請内容入力画面が示されている。本実施形態に係る情報処理装置1は、ユーザの代わりに、図2に示すような業務システム3に対する操作を自動的に実行するものである。以下、情報処理装置1の構成を詳細に説明する。
 図1に示すように、情報処理装置1は、受付部10、特定部11、対話設定記憶部12、提示部13、抽出部14、ユーザ回答記憶部15、学習部16、学習モデル記憶部17、RPA実行部18、RPA設定記憶部19、スクリプト記憶部20を備えている。
 受付部10は、ユーザ端末2から入力された業務システム3に対する処理要求を受け付ける。本実施形態では、当該処理要求を「タスク特定文」と呼ぶものとする。例えば、「交通費を清算したい」、「電車代の清算」、「配送日時の変更」、「会議室の予約」など、ユーザが各種の業務システム3において達成したい目的を含む文章がタスク特定文(タスク宣言文)に該当する。なお、受付部10は、タスク達成型対話とタスク非達成型対話の両方の入力に対応できる。タスク達成型対話は、最初にタスクを特定するような文を入力して、質問と回答を相互に繰り返す対話形式である。例えば、ユーザ端末2から「天気はどう?」のタスク特定文を入力すると、情報処理装置1から「どこの天気ですか?」と質問され、ユーザ端末2から「東京の港区」と再度入力するような対話である。最初の入力によりタスクを特定できるため、話題を絞り込んで質問を行える利点がある。これに対し、タスク非達成型対話の場合は、タスク特定文と回答を一緒に行う対話形式である。例えば、「港区の明日の天気はどうですか?」のような対話形式である。この対話形式によれば、ユーザが処理に必要な情報を一度に提供した場合に、質問を繰り返すことなく迅速に処理可能となる。
 特定部11は、対話設定記憶部12内の記憶情報を参照して、受付部10から入力されたタスク特定文に対してテキスト解析を行い、業務システム3において実行する業務タスクを特定する。ここで、「テキスト解析」は、形態素解析、構文解析、同義語抽出、スパン抽出、含意認識などにより、入力あるいは変換されたテキスト情報を解析する技術の総称である。「形態素解析」は、文章を言語として意味を持つ最小単位である形態素に区切り、原形や品詞などの情報を付与する処理である。
 「構文解析」は、係り受け解析と呼ばれ、所定の構造的制約を満たす中で、単語及び文節間の係り受け関係としての自然さを計算し、単語及び文節間の係り受け関係を決定する処理である。
 「同義語抽出」は、処理対象のテキスト情報を入力し、表記が異なるが同一の意味を持つ同義語のペアを抽出する処理である。同義語は、例えばIT関連、機械関連、料理関連など特定のドメイン(分野)ごとに抽出して記憶しておくとよい。
 「スパン抽出」は、学習データから学習したモデルを利用し、入力された文章から重要部分を自動的に切り出して抽出する処理である。スパン抽出の代表的な手法としては、CRF(Conditional Random Field:条件付き確率場)がある。例えば、学習データとして、「家族と旅行でハワイに行きます」、「来月は旅行でアメリカに行く」、「行先はニューヨークです」の3つが入力された場合を説明する。この場合、学習データを学習することで、「旅行」+「で」の後と、「に」+「行く」の前の間にある単語が行先の可能性が高いことが分かる。この結果、未知のデータとして「旅行でイタリアに行きます」と入力されたとき、行先として「イタリア」を抽出することができる。また、「含意認識」とは、2つの文(文章)について、一方の文章(対象文章)が他方の文章(仮説文章)が表す意味を含むか否かを判定する処理である。
 また、特定部11は、テキスト解析を行う際、モデルファイルを参照する。モデルファイルは、機械学習によって作成されたモデルである。後述する学習部16は、抽出部14において自然言語から回答項目を抽出するために、自然言語と回答項目の正しいペアを大量に集め、そのデータ(教師データ)を使って機械学習を行う。これにより、学習部16は、入力されたテキストから回答項目を抽出できるように、モデルファイルを生成する。
 対話設定記憶部12は、業務タスクの実行条件を定義するタスク設定と、業務タスクの実行時に必要となる入力項目の入力条件を定義する入力条件設定とを記憶する。
 図3A及び図3Bは、第1実施形態における対話設定記憶部12のデータ項目例を示す図である。図3Aでは、業務タスクごとに固有な業務タスクID、業務タスクの開始条件及び中断条件、業務タスクの実行に必要な入力項目の入力項目ID、業務タスクの終了時処理を項目とし、各項目に対するデータ例が示されている。入力項目IDの順序は、質問順序を示すものとする。例えば、「電車代の清算」というタスク特定文が入力されたとき、特定部11は開始条件を定義したモデルファイル(“Model_StartCon”)に基づいてテキスト解析を行い、業務タスクID(“Apply_TransExp”)を特定する。また、同タスクを実行する際に必要となる入力項目は、利用日(“Date_use”)、出発駅(“From_station”)、到着駅(“To_station”)、経由駅(“Via_station”)、片道・往復区分(“kbn_way”)である。そして、終了時処理としてスクリプト“Script_001”を実行することを示している。
 図3Bでは、入力項目ID、入力項目に対応する質問文、入力項目のデータ型、回答判別条件、及び外部システム連携を項目例とし、各項目に対するデータ例が示されている。例えば、入力項目IDが“Date_use”の場合、質問文として「ご利用日はいつですか?」が提示され、設定されるデータのデータ型は“日付型”であり、回答判別条件としてはモデルファイル“Model_Date”が使用されることが示されている。
 また、入力項目ID“kbn_way”の場合、外部システム連携によるルート検索結果及び「往復ですか?」の文章の組み合わせた質問文が提示されること、データ型は“はい/いいえ型”であり、外部システム連携として呼び出すプログラムはルート検索システムの“Search_Route”であることが示されている。
 なお、図3A及び図3Bにおいて、業務タスクの開始条件、中断条件、回答判別条件として、モデルファイルを用いるものとしたが、モデル判別形式に限られない。例えば、“*日時の変更*”、“*やめる*”、“xxxx-xxxx-xxx[0-9]+”などの正規表現形式を併せて用いることもできる。また、入力条件設定における他のデータ型としては、文字列型、数値型、モデル型を含むものとする。
 提示部13は、業務タスクの実行時に必要な入力項目を求め、ユーザ端末2側に入力項目に関する質問文を提示する。入力項目及び質問文の数は、業務タスクによって様々である。受付部10は、提示された質問文に対してユーザ端末2で入力された回答文を受け付ける。
 抽出部14は、受付部10が受け付けた回答文に対してテキスト解析を行い、回答文の中から入力項目に対応する回答項目を抽出する。
 ユーザ回答記憶部15は、抽出部14が抽出した回答項目を設定値として記憶する。図4は、第1実施形態におけるユーザ回答記憶部15のデータ項目例を示す図である。ここでは、利用日(“Date_use”)に“2017/11/16”、出発駅(“From_station”)に“三田”、到着駅(“To_station”)に“大手町”、片道の運賃(“fare”)に“216”、片道・往復区分(“kbn_way”)に“1(片道)”がそれぞれ設定値として記憶されている。
 学習部16は、入力された回答文と回答文から抽出した回答項目とのペアを学習データとしてユーザ回答記憶部15に記憶する。また、学習部16は、抽出部14が回答文の中から回答項目を正しく抽出できたときに、学習データに基づいて学習モデルを作成し、学習モデル記憶部17に記憶する。抽出部14は、入力項目に対応する学習モデルをテキスト解析に使用する。
 RPA実行部18は、回答項目を引数に設定して業務タスクに対応するスクリプトをスクリプト記憶部20から読み込み、業務タスクを実行する。ここで、「RPA(Robotic Process Automation)」とは、例えば経理や総務などのバックオフィス業務において、人間の代わりに各種アプリケーションを操作するソフトウェアであり、仮想知的労働者(Digital Labor)とも言われている。すなわち、RPAは、ソフトウェアを動作させるためのソフトウェアであり、手作業によるデータ入力など定型的な操作を自動化できる。
 図5は、第1実施形態におけるRPA設定記憶部19のデータ項目例を示す図である。ここでは、RPA設定記憶部19が、業務タスクID、スクリプトを実行するときの引数を設定項目とし、そのデータ例を示している。
 図6は、第1実施形態に係る情報処理装置1のハードウェア構成例を示すブロック図である。情報処理装置1は、CPU(Central Processing Unit)101、メモリ102、記憶装置103、通信インタフェース104、入力装置105、及び表示装置106を備える。
 CPU101は、記憶装置103に記録されたプログラムをメモリ102上に展開して実行することにより、情報処理装置1の全体の制御及び演算処理を行うプロセッサである。また、CPU101は、記憶装置103に処理結果のデータを記録し、通信インタフェース104を介して処理結果のデータを外部に送信する。
 メモリ102は、CPU101が処理中のデータや記憶装置103から読み出されたデータを一時的に記憶するRAM(Random Access Memory)などを含む。
 記憶装置103は、CPU101が実行するプログラムや、プログラムによる処理結果のデータなどを記憶する。記憶装置103は、読み取り専用のROM(Read Only Memory)や、読み書き可能のハードディスクドライブ又はフラッシュメモリなどを含む。また、記憶装置103は、CD-ROMなどのコンピュータ読取可能な可搬記憶媒体を含んでもよい。
 通信インタフェース104は、データの送受信を行う通信部であり、有線通信及び無線通信の少なくとも一方の通信方式を実行可能に構成される。通信インタフェース104は、該通信方式に必要なプロセッサ、電気回路、アンテナ、接続端子などを含む。通信インタフェース104は、CPU101からの信号に従って、該通信方式を用いて通信を行う。
 入力装置105は、ユーザからの入力を受け付けるキーボードなどを含み、入力された内容を信号としてCPU101に送信する。入力装置105及び表示装置106が一体化されたタッチスクリーンが用いられてもよい。
 表示装置106は、CPU101からの信号に従って、所定の情報を表示する表示装置である。表示装置106としては、液晶ディスプレイなどの任意の表示装置を用いることができる。
 なお、情報処理装置1は、図6に示すハードウェア構成に限定されず、その他の機器をさらに備えてもよい。情報処理装置1は一つ又は複数の装置からなってもよく、あるいは他の装置と一体に構成されてもよい。また、情報処理装置1は別の装置に接続され、本実施形態において情報処理装置1によって行われる処理の少なくとも一部は該装置によって行われてもよい。
 続いて、第1実施形態に係る情報処理装置1の動作について図7乃至図10を参照しながら説明する。
 図7は、第1実施形態に係る情報処理装置1、ユーザ端末2及び業務システム3の間の動作例を示すシーケンス図である。図8及び図9は、第1実施形態におけるユーザ端末2の対話画面の一例を示す図である。ここでは、画面の右側からの吹き出しがユーザ端末2からの入力内容を示し、画面の左側からの吹き出しが情報処理装置1からの出力内容(質問文)を示している。
 先ず、ユーザがユーザ端末2においてタスク特定文を入力すると(ステップS101)、情報処理装置1の特定部11は、受付部10において受け付けたタスク特定文に対してテキスト解析を行って業務タスクを特定し、その業務タスクIDを提示部13に出力する(ステップS102)。
 図8では、ユーザ端末2において「昨日の電車の費用を清算したい」という自然文(タスク特定文T1)を入力したとき、質問文Q11が提示されている。質問文Q11では、タスク特定文T1の中に「電車の費用を清算」という曖昧な入力が含まれている場合でも、テキスト解析によって「交通費清算」という業務タスクを特定できたことを示している。
 次に、情報処理装置1の提示部13は、業務タスクIDに基づいて対話設定記憶部12から業務タスクの実行の際に必要な入力項目に対応する質問文及び質問順序を取得する(ステップS103)。
 次に、情報処理装置1の抽出部14は、タスク特定文の中に回答項目を含むか否かを判定する(ステップS104)。ここで、抽出部14は、タスク特定文の中に回答項目を含むと判定した場合には(ステップS104:YES)、タスク特定文の中に含まれていた回答項目を記憶する(ステップS105)。これに伴い、提示部13は、ステップS105において記憶した回答項目については質問が不要であることから、質問順序を変更する(ステップS106)。これに対し、情報処理装置1が、タスク特定文の中に回答項目を含まないと判定した場合には(ステップS104:NO)、ステップS107の処理へ進む。
 図8の質問文Q11では、タスク特定文T1に含まれていた「昨日の」の語句が、現在日付(11月17日(金))に基づいて「11月16日(木)の」に変換されている。すなわち、「昨日の」という相対的な指定についても対応可能としている。そして、回答文A11の入力によって、“利用日”が「11月16日」に確定されたことで、図8に示す対話の中では“利用日”に関する質問は省略されている。
 ステップS107において、提示部13は、対象となる入力項目に関する質問形式が固定質問であるか否かを判定する。「固定質問」とは、質問文が固定的であり、入力条件設定に予め記載されている質問文である。固定質問に対する判定は、入力条件設定に記載されている条件に従って行われる。ここで、提示部13が、質問形式が固定質問であると判定した場合には(ステップS107:YES)、ステップS109の処理へ進む。例えば、図3Bにおいて例示した入力項目“Date_use(利用日)”の場合が該当する。
 これに対し、提示部13が、質問形式が固定質問ではないと判定した場合には(ステップS107:NO)、外部システム連携処理の実行により作成された質問文を取得して(ステップS108)、ステップS109の処理へ進む。質問形式が固定質問ではない質問文とは、外部システム4における処理結果によって変動する質問文を意味する。例えば、図3Bにおいて例示した入力項目“kbn_way(片道・往復区分)”の場合が該当する。外部システム連携処理については、後述する。
 ステップS109において、提示部13がユーザ端末2に対して入力項目に対応する質問文を出力すると、ユーザ端末2は画面上に質問文を表示する(ステップS110)。
 次に、ユーザがユーザ端末2において質問文に対する回答文を入力すると(ステップS111)、抽出部14は、受付部10において受け付けた回答文に対してテキスト解析を行い、回答文に示されている回答項目を抽出する(ステップS112)。なお、はい/いいえ型の質問文に対する回答文に対しては、テキスト解析が不要となる場合がある。また、音声入力の場合には、「はい」の意味の回答として「はい」、「そうです」、「その通りです」など様々な回答パターンがある。この場合には、テキスト解析を行うとよい。
 次に、抽出部14は、ステップS112において回答文の中から複数の回答項目を抽出したか否かを判定する(ステップS113)。ここで、抽出部14が、複数の回答項目を抽出したと判定した場合には(ステップS113:YES)、ステップS114の処理へ進む。これに対し、抽出部14が、複数の回答項目を抽出していないと判定した場合には(ステップS113:NO)、ステップS120の処理へ進む。
 図8では、質問文Q12(「出発駅はどこですか?」)に対し、回答文A12(「三田から大手町まで」)が入力されている。回答文A12では、質問対象の入力項目(“出発駅”)に対する回答項目のみならず、他の入力項目(“到着駅”)に対する回答項目を含んでいる。また、「三田」及び「大手町」の部分は、駅名としては曖昧な入力といえる。このような場合には、所定の正規表現方式に基づいて、「三田」を「三田駅」、「大手町」を「大手町駅」として抽出するとよい。図8において、情報処理装置1は、回答文A12を受けて、質問文Q13(「三田駅から大手町駅は、都営三田線で乗り換えなしで216円です。往復ですか?」)を提示している。
 ステップS114において、抽出部14は、回答文から抽出した複数の回答項目と入力項目との対応関係が明確であるか否かを判定する。ここで、抽出部14が、回答項目と入力項目との対応関係が明確であると判定した場合(ステップS114:YES)には、ステップS119の処理へ進む。
 図8の回答文A12では、質問対象の入力項目(“出発駅”)に対する回答項目だけでなく、他の入力項目(“到着駅”)に対する回答項目も含んでいるが、回答文A12をテキスト解析することにより、回答項目と入力項目との対応関係は明確となっている。このため、質問文Q13に示すように、「三田」を“出発駅”に分類し、「大手町」を“到着駅”に分類している。
 これに対し、抽出部14が、回答項目と入力項目との対応関係が不明確であると判定した場合(ステップS114:NO)には、提示部13は、ユーザ端末2に対して確認用の質問文を出力する(ステップS115)。これを受けて、ユーザ端末2は、質問文を画面上に表示する(ステップS116)。
 図9では、質問文Q22(「出発駅はどこですか?」)に対して回答文A22(「三田から押上で降りて青砥まで」)が入力されている。回答文A22においては、“出発駅”が「三田駅」であることは明確である。しかし、回答文A22のような文章が未学習である場合には、情報処理装置1において“経由駅”及び“到着駅”については不明確として処理される。すなわち、「押上駅」と「青砥駅」の両方が“到着駅”の候補になり得る。このため、確認用の質問文Q23(「青砥駅が到着駅ですか?」)を提示し、「青砥駅」が“到着駅”に分類されるべきか否かを判定している。確認用の質問文を作成する場合には、質問により合致する回答項目を選択することになる。よって、確認用の質問文は、回答文を機械学習モデルに基づいて分類したときに、入力項目に対する関連度を示す分類スコアが高い方の回答項目から提示することが好ましい。例えば、上述した回答文A22では、「青砥」の直後に「まで」の語句が続くため、“到着駅”に係る分類スコアは「押上駅」よりも「青砥駅」の方が高くなる。
 次に、ユーザがユーザ端末2において質問文に対する回答文を入力すると(ステップS117)、抽出部14は、回答文に対してテキスト解析を行い、回答文に示されている回答項目を抽出する。これにより、抽出部14は、複数の回答項目と入力項目との対応関係を明確化する(ステップS118)。
 図9では、質問文Q23に対し、ユーザが「はい」と回答(A23)することにより、「青砥駅」は“到着駅”に対する回答項目となる。また、“経由駅”の回答項目が空白であるため、先の回答(A23)によって除外された「押上駅」は“経由駅”の回答項目として自動的に割り振られる。この結果、最後の質問文Q24(「三田駅から押上駅経由で青砥駅は、・・・」)に示されるように、3つの入力項目(“出発駅”、“経由駅”及び“到着駅”)と回答項目との対応関係が明確化される。
 次に、提示部13は、入力項目との対応関係が明確化された回答項目に関する質問を省略するように、質問順序を変更する(ステップS119)。図3Aに示すタスク設定の例では、交通費申請の業務タスクについては、“出発駅(From_station)”の後に“到着駅(To_station)”についての質問が行われる。しかし、図8の対話例では回答文A12において回答済みであるため、“到着駅”に関する質問は省略されている。また、“経由駅”についても、検索ルートから経由駅(乗り換え駅)が存在しないことから省略されている。
 次に、抽出部14は、入力項目に対応する回答項目をユーザ回答記憶部15に記憶すると(ステップS120)、業務タスクの実行に必要な全ての入力項目に関して質問が終了したか否かを判定する(ステップS121)。ここで、抽出部14が、全ての入力項目に関して質問が終了したと判定した場合には(ステップS121:YES)、ステップS122の処理へ進む。これに対し、抽出部14が、質問が終了していないと判定した場合には(ステップS121:NO)、ステップS107の処理へ戻る。
 ステップS122において、RPA実行部18は、業務タスクに係るスクリプトをスクリプト記憶部20から読み出すとともに、ユーザ回答記憶部15から読み出した回答項目を引数としてスクリプトを実行する。
 ステップS123において、業務システム3は、スクリプトに基づく自動処理を行い、その処理結果を情報処理装置1に出力する(ステップS124)。
 図10は、第1実施形態に係る情報処理装置1の外部システム連携処理の一例を示すフローチャートである。この処理は、対話設定記憶部12の入力条件設定において、入力項目に関する質問文の質問形式として、外部システム連携用のスクリプト及び引数が指定されているときに実行される。
 先ず、RPA実行部18は、スクリプト記憶部20から業務タスクに係るスクリプトを読み出すともに、ユーザ回答記憶部15から引数に設定する回答項目を取得し、スクリプトを実行する(ステップS201)。
 次に、RPA実行部18は、外部システム4からスクリプトに基づく処理結果を取得し(ステップS202)、その処理結果を提示部13に出力する。
 そして、提示部13は、処理結果に基づいて入力項目に関する質問文を作成する(ステップS203)。作成された質問文は、ユーザ端末2へ出力される(図7のステップS109)。
 上述した図8の質問文Q13における「都営三田線で乗り換えなしで216円です。」の部分は、回答文A12から抽出した“出発駅”と“到着駅”の回答項目を引数としてスクリプトを実行し、図示しないルート検索システムから得られた処理結果(路線及び片道運賃)に基づいている。
 以上のように、本実施形態に係る情報処理装置1によれば、大量のルールを予め登録することなく、自然言語によって入力された文章の意味内容を解釈して所望の業務タスクを自動的に実行できる。
 また、多くの会社では、複数の業務システム3が導入されているが、業務システム3ごとに操作方法が異なる場合が多い。このような場合には、ユーザがシステムの操作方法に慣れるまでに時間を要していた。これに対し、本実施形態に係る情報処理装置1によれば、ユーザが共通の対話アプリケーションを介して聞かれた質問に対して自然言語により簡単に答えるだけで、所望の業務システム3に対する処理要求及びデータの入力・指定を受け付け、ユーザに代わって自動的に処理できる。このため、ユーザは、複数の業務システム3の操作方法を習得する必要がなくなる。この結果、業務の効率化が図られる。
 また、業務システム3に対して所定の処理を実行させるRPAスクリプトを業務タスクごとに記憶するスクリプト記憶部20を備え、RPA実行部18は、業務タスクに対応するRPAスクリプトを読み込み、RPAスクリプト及び回答項目(引数)に基づいて業務タスクを実行する。スクリプトを利用する構成のため、複数の業務システム3に対して実装が容易な利点がある。
 また、抽出部14が、回答文の中に入力項目に対応する回答項目の他に、他の入力項目に対応する他の回答項目を抽出した場合、提示部13は、他の入力項目に関する質問文の提示を省略する。これにより、未質問の入力項目に関する回答項目が同時に得られたときは、再質問が不要となるため、対話の中で効率的に回答項目を取得できる。
 また、抽出部14が、回答文の中から共通の入力項目について複数の回答項目を抽出した場合に、提示部13は、入力項目に対応する回答項目を確認する質問文を提示する。これにより、最初の質問で入力項目に対応する回答項目を一つに絞り込めなかった場合でも、効率的に再質問を行って入力項目と回答項目との対応関係を明確化することができる。
 一般に、機械学習で得られた学習モデルは、学習を繰り返すことにより精度を高めることができるが、学習の初期においては精度が低くなる可能性がある。しかし、本実施形態では、分類スコアの順序に基づいて再質問をすることにより、上述した「三田から押上で降りて青砥まで」のような回答文が初めて入力された場合でも、高精度で入力項目に対する回答項目を抽出できる。
 さらに、回答文から抽出した回答項目と抽出元の回答文を記憶するユーザ回答記憶部15をさらに備える。これにより、ある回答文から入力項目に対応する回答項目を一つに絞り込めなかった場合でも、再質問によって明確化された対応関係を学習データ(教師データ)として記憶し、機械学習に用いることで、同様の回答文が入力された際には高精度で回答項目を抽出することができる。
[第2実施形態]
 以下、第2実施形態に係る情報処理装置1について説明する。なお、第1実施形態の図中において付与した符号と共通する符号は同一の対象を示す。このため、第1実施形態と異なる箇所について詳細に説明する。
 図11は、第2実施形態に係る情報処理装置1の機能を示すブロック図である。第2実施形態に係る情報処理装置1は、監視部21をさらに備える。監視部21は、複数の業務システム3における登録データを監視する。そして、監視部21は、入力項目に関連したデータが複数の業務システム3の間において一致しない場合又は所定の場合(例えばデータが特定のイベント情報に関連する場合)に、データの修正に係る業務タスクを特定する。監視部21がデータの不一致を検出したとき、提示部13は、監視部21が特定した新たな業務タスクの実行を提案するメッセージ(タスクリコメンド文)を提示する。
 また、抽出部14は、ユーザのユーザ情報を従業員管理システム5(ユーザ情報管理システム)から取得して、ユーザ情報の中から入力項目に対応する回答項目を抽出する。そして、抽出部14は、抽出した回答項目をユーザ回答記憶部15に記憶する。提示部13は、ユーザ情報を利用する場合、ユーザ情報と重複する入力項目に関して質問文の提示を省略する。
 以下、第2実施形態に係る情報処理装置1の動作を図12乃至図14に基づいて説明する。図12は、第2実施形態における情報処理装置1の一例を示すフローチャートである。また、図13及び図14は、第2実施形態におけるユーザ端末2の対話画面の一例を示す図である。
 先ず、監視部21は、所定の起動イベントを検知したか否かを判定する(ステップS301)。ここで、監視部21は、起動イベントを検知した場合には(ステップS301:YES)、複数の業務システム3の間で同一ユーザに係る登録データを分析する(ステップS302)。起動イベントとしては、監視しているユーザ端末2の起動、ユーザ端末2から業務システム3へのデータの登録・更新イベントが挙げられる。
 ステップS303において、監視部21は、複数の業務システム3の間で一致しないデータの有無を判定する。ここで、監視部21は、一致しないデータが有ると判定した場合には、データ修正用の業務タスクを特定し、特定した業務タスク及び修正対象の入力項目を提示部13に通知する(ステップS304)。
 図13に示す業務タスクのリコメンド文TR3(「日電さん、おはようございます。いま、承諾されたA社での会議について、確認させてください。」)は、ユーザ端末2から業務システム3の一つであるスケジュール管理システムにスケジュールを登録したことをトリガーとして提示された文章である。ここでは、ユーザ(日電太郎)が自身でスケジュールを登録した場合を示しているが、ユーザの同僚(上司)がユーザについてのスケジュールを登録する場合もある。監視部21は、スケジュール管理システムにおいて会議終了後のスケジュールが登録されていないことを検知することにより、修正対象の入力項目として提示部13に通知する。
 次に、提示部13は、業務タスクに関する入力項目と質問文を取得し(ステップS305)、修正対象の入力項目の質問文を選定すると(ステップS306)、ユーザ端末2に質問文を出力する(ステップS307)。
 次に、抽出部14は、ユーザ端末2において質問文に対して入力された回答文を取得すると、回答文に対してテキスト解析を行うことで回答文から回答項目を抽出する(ステップS308)。抽出部14は、抽出した回答項目をユーザ回答記憶部15に記憶する(ステップS309)。
 次に、抽出部14は、業務タスクの実行に必要な全ての入力項目に関し、質問が終了したか否かを判定する(ステップS310)。ここで、抽出部14が、全ての入力項目に関して質問が終了したと判定した場合には(ステップS310:YES)、ステップS311の処理へ進む。これに対し、抽出部14が、質問が終了していないと判定した場合には(ステップS311:NO)、ステップS306の処理へ戻る。
 ステップS311において、RPA実行部18は、業務タスクに係るスクリプトをスクリプト記憶部20から読み出す。そして、RPA実行部18は、ユーザ回答記憶部15から読み出した回答項目の設定値を引数としてスクリプトを実行する。
 図13の例では、はい/いいえ型の質問文Q31(「会議終了後は自社に戻りますか?」)を提示し、回答文A31(「はい、戻ります」)が入力されている。情報処理装置1は、質問の終了に伴い、メッセージM32(「ありがとうございます。では、暫定の移動時間をスケジューラに追加しておきますね。」)をユーザ端末2に提示している。メッセージM32は、スケジュール登録の業務タスクに係るスクリプトを実行し、スケジュール管理システムに暫定のスケジュールを登録することを示している。
 続いて、図14の対話例について説明する。この対話は、会議の翌日に情報処理装置1がユーザ端末2の起動を検知したときに起動されたものである。先ず、業務タスクのリコメンド文TR4(「日電さん、おはようございます。昨日の交通ルートと運賃を確認します。よろしいですか?」)が提示されている。これは、スケジュール管理システムにおいて会議の場所及び時間帯が登録されているため、交通費申請をユーザにとって必要な業務タスクとして特定したことを示している。
 質問文Q41(「昨日は会議後の会社への入場記録がありませんでした。予定が変わりましたか?」)は、スケジュール管理システム(スケジューラ)と入退室管理システムとの間でデータの矛盾が検出されたことを示す質問である。リコメンド文TR4に対する回答A40によって交通費申請の業務タスクが親タスクとして特定されている。また、親タスクと関連してスケジュール修正の業務タスクを子タスクとして特定し、提示できることが示されている。
 質問文Q41に対する回答文A41(「会議が1時間延びたので、直帰しました」)が入力されると、メッセージM42(「それではスケジューラを修正し、勤怠管理システムの昨日の終業に「直帰」を登録しますね。」)が提示されている。メッセージM42は、回答文A41を解析し、スケジュール管理システム及び勤怠管理システムの両方についてデータ修正を自動的に行うことを示している。
 質問文Q43(「A社からの帰りの交通ルートは下記でしょうか?」)では、A社とユーザの自宅との間の交通ルートの検索結果を提示している。交通ルートは、外部システム4であるルート検索システムに対して“出発駅”及び“到着駅”を引数として検索処理を要求することで取得される。
 図14に示す対話例では、“出発駅”については、例えばスケジュール管理システムの登録データから会議の場所(「大手町」)を抽出するとともに、“到着駅”については、例えばユーザ情報管理システムからユーザの自宅の最寄駅(「武蔵小杉」)を抽出して、自動的に設定した場合を示している。
 すなわち、情報処理装置1は、予めユーザ情報管理システムからユーザに関連するシステム保有情報を取得し、所定の回答項目に関連付けてユーザ回答記憶部15に記憶しておくものとする。取得する際には、例えば社員番号などをキーとする。なお、データの取得先となるシステムはユーザ情報管理システムには限られない。具体例を挙げると、人事情報管理システムからはユーザ固有の情報として「自宅最寄駅」、「会社最寄駅」、「承認者情報」、「戸籍上の名称」、「役職」、「自宅住所情報」などを取得できる。同様に、取引会社の情報を管理するシステムがある場合には、他社の会社情報や住所情報などを取得できる。これらの取得情報は、各種の業務システム3において業務タスクの実行時の入力項目となる場合に利用できる。
 このように、第2実施形態に係る情報処理装置1によれば、業務システム3に蓄積されているデータを監視することで、異なる業務システム3の間で関連性を有する入力項目についてデータの不一致(矛盾や齟齬)を検出した場合に、ユーザにとって必要な業務タスクを推定して提示することができる。これにより、最終的にはデータの不一致を是正することができる。上述の例では、スケジュール管理システムと交通費申請システムの両システムの間でデータが一致している。また、業務タスクの実行のために必要な情報を業務システム3側から自動的に抽出して、利用できるため、ユーザ端末2に提示する質問の数を抑え、業務タスクを効率的に実行することもできる。
 また、監視部21は、システム間でデータが不一致の場合だけでなく、データが特定のイベント情報に関連するような場合にも、業務タスクをリコメンドする。例えば、スケジュール管理システムに出張先として「A社」などの社名あるいは「大手町」などの地名のデータが登録され、施設予約システムに「234会議室」などの会議室名があるときには、社外会議のイベントを検出し、必要なデータを修正・登録する。
[第3実施形態]
 以下、第3実施形態に係る情報処理装置1の動作を図15及び図16に基づいて説明する。図15は、第3実施形態における情報処理装置1の一例を示すフローチャートである。図16は、第3実施形態におけるユーザ端末2の対話画面の一例を示す図である。なお、図16に示すマイクのマークは、音声入力により回答が入力されていることを示している。
 情報処理装置1の抽出部14は、ユーザ端末2において入力された回答文を解析して(ステップS401)、回答文の中に訂正表現を含むか否かを判定する(ステップS402)。ここで、抽出部14は、訂正表現を含むと判定した場合(ステップS402:YES)には、回答文から訂正対象の回答項目を特定し(ステップS403)、訂正後の回答項目を抽出する(ステップS404)。回答文の中から「じゃなくて」、「ではなくて」、「は間違いで」などの訂正表現を検出する方法としては、正規表現に基づいてルールベースで検出する方法や機械学習による方法がある。なお、同一の回答文の中で直ちに訂正を表明した場合だけでなく、同一の業務タスクに係る対話の中で、回答済みの入力項目について後から訂正を表明した場合も、同様に処理される。
 これに対し、抽出部14が、回答文に訂正文が含まれないと判定した場合(ステップS402:NO)には、回答文の中から入力項目に対応する回答項目を抽出する(ステップS405)。
 ステップS406において、抽出部14は、抽出した回答項目をユーザ回答記憶部15に記憶する。
 図16に示す対話例では、交通費申請の業務タスクが特定され、入力項目に対応する質問文が複数提示されているが、音声入力された回答文A52(「三田から武蔵小杉 じゃなくて三田から大手町まで」)の中に“到着駅”を「武蔵小杉」から「大手町」に訂正する訂正表現(「武蔵小杉 じゃなくて三田から大手町まで」)が含まれている。なお、回答文の内容が「三田から武蔵小杉 じゃなくて大手町」であった場合には、情報処理装置1において「大手町」が「三田」と「武蔵小杉」のどちらを訂正する項目なのか判定できない場合が考えられる。回答文の内容が複数の意味で解釈できる場合には、例えば「三田駅から大手町駅ですか?」のように再質問を行うものとする。
 回答文A52を受けた次の質問文Q53(「三田駅から大手町駅は、都営三田線で乗り換えなしで216円です。往復ですか?」)は、訂正文の中から“到着駅”の回答項目として「大手町駅」が抽出され、ルート検索が実行されたことを示している。
 第3実施形態に係る情報処理装置1によれば、対話の中で回答された回答項目について簡単に訂正を行うことができる。特に、ユーザ端末2と情報処理装置1との間で音声を介して対話処理を行う場合には、回答内容を消すことができず、言い直す必要があるため効果的である。
[第4実施形態]
 以下、第4実施形態に係る情報処理装置1の動作を図17及び図18に基づいて説明する。本実施形態は、先に実行した業務タスクにおいて取得した情報を後に実行する業務タスクにおいて利用する点で上述した実施形態とは異なっている。図17は、第4実施形態における情報処理装置1の一例を示すフローチャートである。ここでは、業務システム3が配送管理システムの場合を示している。
 先ず、情報処理装置1の特定部11は、ユーザ端末2から入力されたタスク特定文から業務タスクを特定するともに(ステップS501)、業務タスクIDの分類先のシナリオIDを取得する(ステップS502)。
 次に、抽出部14は、対話設定記憶部12を参照し、同一のシナリオIDに関連付けされた業務タスクの中から共通の入力項目(以下、「共通入力項目」という。)を検索する(ステップS503)。
 次に、抽出部14は、共通入力項目の入力項目IDに基づいてユーザ回答記憶部15を参照し、共通入力項目に対する回答項目が既に登録・記憶されているか否かを判定する(ステップS504)。ここで、抽出部14は、共通入力項目に対する回答項目が既に記憶されていると判定した場合(ステップS504:YES)には、ユーザ回答記憶部15から共通入力項目に対する回答項目のデータを取得するとともに(ステップS505)、ステップS501で特定された業務タスクに必要な質問の順序を変更する(ステップS506)。すなわち、共通入力項目に対しては回答項目が確定していることから、質問を省略する。
 次に、情報処理装置1は、対話形式で業務タスクに必要な入力項目に対応する回答項目を抽出し、業務タスクを実行する(ステップS507)。
 そして、業務システム3に対する業務タスクの実行が完了すると、共通入力項目に対応する回答項目、回答項目を設定した時間をシナリオIDに関連付けて記憶し(ステップS508)、処理を終了する。
 図18は、第4実施形態におけるユーザ端末2の対話画面の一例を示す図である。なお、配達日時確認と配達日時変更の業務タスクは同一のシナリオIDに分類され、「伝票番号」が二つの業務タスクにおいて共通入力項目であることを前提として説明する。
 図18においては、先ず、ユーザからタスク特定文T6(「配達日時を確認したい」)が入力され、配達日時確認の業務タスクが特定されることで、配達日時確認に関する質問文Q61(「伝票番号を入力してください。」)が提示されている。
 ユーザが質問文Q61に対して伝票番号を含む回答文A61を入力すると、情報処理装置1はメッセージM62(「本日10月31日(火)の19時~21時のお届け予定です。」)を提示して、配達日時確認の業務タスクを完了している。
 続いて、配達日時確認の業務タスクを実行した日に、時間を空けて新たなタスク特定文T7(「配達日時を変更したい」)が入力されている。タスク特定文T7を受けて配達日時確認の業務タスクが特定されることで、配達日時変さらに関する質問文Q63(「ご希望の配達日時は?」)が提示されている。新たなタスク特定文T7が入力されているため、本来は「伝票番号を入力してください。」の質問文が最初に提示されるところ、同日に配達日時確認の業務タスクが実行され、伝票番号が既に入力されていることから、伝票番号の入力は省略されている。
 そして、質問文Q63に対する回答文A63(「明日の19時」)が解析されることで、最後の質問文Q64(「11月1日(水)の19時~21時に変更しますが、よろしいですか?」)が提示されている。
 第4実施形態に係る情報処理装置1によれば、同一のシナリオIDに分類される別の業務タスクが既に実行されていた場合には、共通入力項目に対応する回答項目の設定値を新たな業務タスクの実行時に再利用することができる。このため、新たなタスク特定文が入力された場合、共通入力項目に関する質問文を提示する必要はなくなるため、関連する業務タスクを連続して効率的に実行できる。
[第5実施形態]
 図19は、第5実施形態における情報処理装置1の機能を示すブロック図である。ここでは、受付部10がテキスト認識部10A、音声認識部10B及び音声生成部10Cを備えている。また、ユーザ端末2は、チャットアプリケーション2Aと音声アプリケーション2Bの他に、音声入力用のマイク2C、音声出力用のスピーカ2Dを備えている。なお、マイク2C及びスピーカ2Dは、ヒアラブルデバイス(無線イヤホン)として一体化したものを含むものとする。
 受付部10のテキスト認識部10Aは、ユーザ端末2のチャットアプリケーション2Aから送信されたテキスト情報を認識し、特定部11及び抽出部14へ出力する。音声認識部10Bは、ユーザ端末2のマイク2Cから入力された音声を認識し、テキスト情報に変換して特定部11及び抽出部14へ出力する。特定部11及び抽出部14における処理は、テキスト認識部10Aからテキスト情報が入力された場合と同様である。音声生成部10Cは、提示部13においてタスク特定文に基づいて業務タスクに対応する質問文を決定したとき、質問文のテキスト情報から音声ファイルを生成する。そして、音声生成部10Cは、提示部13を介して音声ファイルをユーザ端末2へ出力する。これに伴い、ユーザ端末2では、音声アプリケーション2Bを介してスピーカ2Dから音声ファイルの音声が出力される。
 すなわち、本実施形態では、ユーザ端末2と情報処理装置1との間で、タスク特定文の入力、質問の提示、回答の入力が音声を介して行える。本実施形態によれば、ユーザ端末2においてテキスト情報を手動操作で入力する必要がなくなり、より簡単に業務タスクを実行することができる。
[第6実施形態]
 図20は、第6実施形態に係る情報処理装置7の機能を示すブロック図である。第6実施形態に係る情報処理装置7は、業務システムに対する処理要求を受け付ける受付部71と、処理要求に基づき、業務システムにおいて実行する業務タスクを特定する特定部72と、処理要求をテキスト解析し、処理要求の中から業務タスクの実行時に必要な入力項目に対応する回答項目を抽出する抽出部73と、回答項目に基づいて業務タスクを実行する実行部74と、を備える。
 第6実施形態に係る情報処理装置7によれば、大量のルールを予め登録しなくても、入力された自然言語を高精度で解析でき、かつ、業務システムを操作する上で必要な入力項目を自動的に設定できる。
[変形実施形態]
 以上、実施形態を参照して本発明を説明したが、本発明は上述の実施形態に限定されるものではない。本願発明の構成及び詳細には本発明の要旨を逸脱しない範囲で、当業者が理解し得る様々な変形をすることができる。例えば、いずれかの実施形態の一部の構成を、他の実施形態に追加した実施形態、あるいは他の実施形態の一部の構成と置換した実施形態も本発明を適用し得る実施形態であると理解されるべきである。
 例えば、上述の実施形態では、業務タスクを実行する業務システム3が交通費申請システム又は配送管理システムの場合を説明したが、対象となる業務システム3はこれに限られない。以下、幾つかのユースケースを説明する。
(1)施設予約システムの場合には、業務タスクとして、会議室などの施設の空き状況の検索、施設の予約、予約の確認、予約のキャンセルなどが挙げられる。テキスト又は音声を介した対話処理によって業務タスクを特定して実行することで、施設の使用効率の向上を図ることができる。
(2)勤怠管理システムの場合には、業務タスクとして、ユーザ本人あるいはユーザの上司による勤務実績の確認、勤務実績の承認、休暇申請、及び休暇申請の承認などが挙げられる。
(3)入館申請システムの場合には、業務タスクとして、入館申請、入館申請の取消、入館申請の変更などが挙げられる。(1)~(3)のいずれの場合においても、ユーザが業務システム3の入力画面に直接アクセスして必要な入力項目を手動で設定する必要はなく、対話の中で自動的に入力項目を設定して業務タスクを簡単かつ効率的に実行できる。
 また、上述の各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のコンピュータプログラムが記録された記録媒体はもちろん、そのコンピュータプログラム自体も各実施形態に含まれる。
 該記録媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM(Compact Disc-Read Only Memory)、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 業務システムに対する処理要求を受け付ける受付部と、
 前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定する特定部と、
 前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出する抽出部と、
 前記回答項目に基づいて前記業務タスクを実行する実行部と、
 を備えることを特徴とする情報処理装置。
(付記2)
 前記抽出部は、前記テキスト解析として含意認識処理を行う
 ことを特徴とする付記1に記載の情報処理装置。
(付記3)
 前記業務システムに対して所定の処理を実行させるスクリプトを前記業務タスクごとに記憶する記憶部
 をさらに備え、
 前記実行部は、前記業務タスクに対応する前記スクリプト及び前記回答項目に基づいて前記業務タスクを実行する
 ことを特徴とする付記1又は2に記載の情報処理装置。
(付記4)
 前記特定部が特定した前記業務タスクに対応する前記入力項目を特定し、前記入力項目に関する質問文を提示する提示部
 をさらに備え、
 前記受付部は、前記質問文に対する回答文を受け付け、
 前記抽出部は、前記回答文を前記テキスト解析し、前記回答文の中から前記入力項目に対応する前記回答項目を抽出する
 ことを特徴とする付記1乃至3のいずれかに記載の情報処理装置。
(付記5)
 前記抽出部が、前記回答文の中に前記入力項目に対応する前記回答項目の他に、他の入力項目に対応する他の回答項目を抽出した場合に、
 前記提示部は、前記他の入力項目に関する前記質問文の提示を省略する
 ことを特徴とする付記4に記載の情報処理装置。
(付記6)
 前記抽出部が、前記回答文の中から共通の前記入力項目について複数の前記回答項目を抽出した場合に、
 前記提示部は、前記入力項目に対応する前記回答項目を確認する前記質問文を提示する
 ことを特徴とする付記4又は5に記載の情報処理装置。
(付記7)
 前記提示部は、前記入力項目と前記回答項目との間の関連度を示す分類スコアをそれぞれ算出し、前記分類スコアの順序に基づいて前記質問文を提示する
 ことを特徴とする付記6に記載の情報処理装置。
(付記8)
 前記回答文から抽出した前記回答項目と抽出元の前記回答文を記憶するユーザ回答記憶部
 をさらに備える
 ことを特徴とする付記4乃至7のいずれかに記載の情報処理装置。
(付記9)
 前記抽出部は、前記処理要求を行うユーザに関連して前記業務システムが保有するシステム保有情報を取得して、前記システム保有情報の中から前記入力項目に対応する前記回答項目を抽出するとともに、
 前記提示部は、前記システム保有情報と重複する前記入力項目に関する前記質問文の提示を省略する
 ことを特徴とする付記4乃至8のいずれかに記載の情報処理装置。
(付記10)
 前記入力項目に関連したデータが複数の前記業務システムの間において一致しない場合又は前記データが所定のイベント情報に関連する場合に、前記データを修正する前記業務タスクを特定する監視部
 をさらに備え、
 前記提示部は、前記監視部が特定した前記業務タスクの実行を提案するメッセージを提示する
 ことを特徴とする付記4乃至9のいずれかに記載の情報処理装置。
(付記11)
 前記抽出部は、前記回答文の中に、前記回答項目についての訂正表現が含まれる場合、前記回答文の中から訂正対象の前記回答項目及び訂正後の前記回答項目を特定し、前記訂正対象の前記回答項目を前記訂正後の前記回答項目で置き換える
 ことを特徴とする付記4乃至10のいずれかに記載の情報処理装置。
(付記12)
 業務システムに対する処理要求を受け付けるステップと、
 前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定するステップと、
 前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出するステップと、
 前記回答項目に基づいて前記業務タスクを実行するステップと、
 を備えることを特徴とする情報処理方法。
(付記13)
 コンピュータに、
 業務システムに対する処理要求を受け付けるステップと、
 前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定するステップと、
 前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出するステップと、
 前記回答項目に基づいて前記業務タスクを実行するステップと、
 を実行させることを特徴とするプログラムが記録された記録媒体。
 この出願は、2017年11月7日に出願された日本出願特願2017-214979を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1,7・・・情報処理装置
2・・・ユーザ端末
2A・・・チャットアプリケーション
2B・・・音声アプリケーション
2C・・・マイク
2D・・・スピーカ
3・・・業務システム
4・・・外部システム
5・・・従業員管理システム
10・・・受付部
10A・・・テキスト認識部
10B・・・音声認識部
10C・・・音声生成部
11・・・特定部
12・・・対話設定記憶部
13・・・提示部
14・・・抽出部
15・・・ユーザ回答記憶部
16・・・学習部
17・・・学習モデル記憶部
18・・・RPA実行部
19・・・RPA設定記憶部
20・・・スクリプト記憶部
71・・・受付部
72・・・特定部
73・・・抽出部
74・・・実行部
101・・・CPU
102・・・メモリ
103・・・記憶装置
104・・・通信インタフェース
105・・・入力装置
106・・・表示装置

Claims (13)

  1.  業務システムに対する処理要求を受け付ける受付部と、
     前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定する特定部と、
     前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出する抽出部と、
     前記回答項目に基づいて前記業務タスクを実行する実行部と、
     を備えることを特徴とする情報処理装置。
  2.  前記抽出部は、前記テキスト解析として含意認識処理を行う
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記業務システムに対して所定の処理を実行させるスクリプトを前記業務タスクごとに記憶する記憶部
     をさらに備え、
     前記実行部は、前記業務タスクに対応する前記スクリプト及び前記回答項目に基づいて前記業務タスクを実行する
     ことを特徴とする請求項1又は2に記載の情報処理装置。
  4.  前記特定部が特定した前記業務タスクに対応する前記入力項目を特定し、前記入力項目に関する質問文を提示する提示部
     をさらに備え、
     前記受付部は、前記質問文に対する回答文を受け付け、
     前記抽出部は、前記回答文を前記テキスト解析し、前記回答文の中から前記入力項目に対応する前記回答項目を抽出する
     ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記抽出部が、前記回答文の中に前記入力項目に対応する前記回答項目の他に、他の入力項目に対応する他の回答項目を抽出した場合に、
     前記提示部は、前記他の入力項目に関する前記質問文の提示を省略する
     ことを特徴とする請求項4に記載の情報処理装置。
  6.  前記抽出部が、前記回答文の中から共通の前記入力項目について複数の前記回答項目を抽出した場合に、
     前記提示部は、前記入力項目に対応する前記回答項目を確認する前記質問文を提示する
     ことを特徴とする請求項4又は5に記載の情報処理装置。
  7.  前記提示部は、前記入力項目と前記回答項目との間の関連度を示す分類スコアをそれぞれ算出し、前記分類スコアの順序に基づいて前記質問文を提示する
     ことを特徴とする請求項6に記載の情報処理装置。
  8.  前記回答文から抽出した前記回答項目と抽出元の前記回答文を記憶するユーザ回答記憶部
     をさらに備える
     ことを特徴とする請求項4乃至7のいずれか一項に記載の情報処理装置。
  9.  前記抽出部は、前記処理要求を行うユーザに関連して前記業務システムが保有するシステム保有情報を取得して、前記システム保有情報の中から前記入力項目に対応する前記回答項目を抽出するとともに、
     前記提示部は、前記システム保有情報と重複する前記入力項目に関する前記質問文の提示を省略する
     ことを特徴とする請求項4乃至8のいずれか一項に記載の情報処理装置。
  10.  前記入力項目に関連したデータが複数の前記業務システムの間において一致しない場合又は前記データが所定のイベント情報に関連する場合に、前記データを修正する前記業務タスクを特定する監視部
     をさらに備え、
     前記提示部は、前記監視部が特定した前記業務タスクの実行を提案するメッセージを提示する
     ことを特徴とする請求項4乃至9のいずれか一項に記載の情報処理装置。
  11.  前記抽出部は、前記回答文の中に、前記回答項目についての訂正表現が含まれる場合、前記回答文の中から訂正対象の前記回答項目及び訂正後の前記回答項目を特定し、前記訂正対象の前記回答項目を前記訂正後の前記回答項目で置き換える
     ことを特徴とする請求項4乃至10のいずれか一項に記載の情報処理装置。
  12.  業務システムに対する処理要求を受け付けるステップと、
     前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定するステップと、
     前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出するステップと、
     前記回答項目に基づいて前記業務タスクを実行するステップと、
     を備えることを特徴とする情報処理方法。
  13.  コンピュータに、
     業務システムに対する処理要求を受け付けるステップと、
     前記処理要求に基づき、前記業務システムにおいて実行する業務タスクを特定するステップと、
     前記処理要求をテキスト解析し、前記処理要求の中から前記業務タスクの実行時に必要な入力項目に対応する回答項目を抽出するステップと、
     前記回答項目に基づいて前記業務タスクを実行するステップと、
     を実行させることを特徴とするプログラムが記録された記録媒体。
PCT/JP2018/040828 2017-11-07 2018-11-02 情報処理装置、方法及び記録媒体 WO2019093239A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US16/761,862 US11347942B2 (en) 2017-11-07 2018-11-02 Information processing apparatus, information processing method, and storage medium
JP2019552761A JP7136120B2 (ja) 2017-11-07 2018-11-02 情報処理装置、方法及びプログラム
US17/739,408 US11790167B2 (en) 2017-11-07 2022-05-09 Information processing apparatus, information processing method, and storage medium
JP2022139022A JP7428219B2 (ja) 2017-11-07 2022-09-01 応答処理方法、応答処理装置及びプログラム
US18/242,904 US20230409828A1 (en) 2017-11-07 2023-09-06 Information processing apparatus, information processing method, and storage medium
JP2024009130A JP2024032858A (ja) 2017-11-07 2024-01-25 応答処理方法、応答処理装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017214979 2017-11-07
JP2017-214979 2017-11-07

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/761,862 A-371-Of-International US11347942B2 (en) 2017-11-07 2018-11-02 Information processing apparatus, information processing method, and storage medium
US17/739,408 Continuation US11790167B2 (en) 2017-11-07 2022-05-09 Information processing apparatus, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2019093239A1 true WO2019093239A1 (ja) 2019-05-16

Family

ID=66438369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/040828 WO2019093239A1 (ja) 2017-11-07 2018-11-02 情報処理装置、方法及び記録媒体

Country Status (3)

Country Link
US (3) US11347942B2 (ja)
JP (3) JP7136120B2 (ja)
WO (1) WO2019093239A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197998A (ja) * 2019-06-04 2020-12-10 さくら情報システム株式会社 情報処理装置、方法、プログラム及びシステム
JP2020197997A (ja) * 2019-06-04 2020-12-10 さくら情報システム株式会社 情報処理装置、方法及びプログラム
JP2021033449A (ja) * 2019-08-20 2021-03-01 ソプラ株式会社 業務自動処理の手順定義装置、及び業務自動処理の手順定義システム
JP2021105828A (ja) * 2019-12-26 2021-07-26 富士通株式会社 制御方法、制御プログラムおよび情報処理装置
JP2021128395A (ja) * 2020-02-12 2021-09-02 アマノ株式会社 業務処理装置、情報処理方法及びプログラム
WO2022018996A1 (ja) * 2020-07-22 2022-01-27 ソプラ株式会社 会話文からの業務構築システム
US20220207392A1 (en) * 2020-12-31 2022-06-30 International Business Machines Corporation Generating summary and next actions in real-time for multiple users from interaction records in natural language
JP2022164855A (ja) * 2017-11-07 2022-10-27 日本電気株式会社 応答処理方法、応答処理装置及びプログラム
JP2023056734A (ja) * 2021-10-08 2023-04-20 ウイングアーク1st株式会社 情報処理装置、制御方法、およびコンピュータプログラム
JP2023090625A (ja) * 2021-12-17 2023-06-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話システムのためのデータ処理方法、装置、機器および媒体
WO2024171619A1 (ja) * 2023-02-15 2024-08-22 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2413699B1 (en) 2009-04-01 2019-11-20 Tearscience, Inc. Ocular surface interferometry (osi) apparatus for imaging an ocular tear film
CN108670190A (zh) 2013-05-03 2018-10-19 眼泪科学公司 用于对睑板腺进行成像以供睑板腺分析的眼睑照明系统和方法
US11366857B2 (en) * 2018-08-21 2022-06-21 Directly, Inc. Artificial intelligence communications agent

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
JP2018128943A (ja) * 2017-02-10 2018-08-16 株式会社アナリティックウェア 対話装置、制御装置、対話システム、対話方法、制御方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222725A (ja) 1997-02-05 1998-08-21 Oki Electric Ind Co Ltd 自動取引装置の操作遂行システム
JP2001357172A (ja) 2000-06-13 2001-12-26 Nec Corp 電子申請・届出についてのワンストップサービス方式
JP2003088675A (ja) 2002-05-28 2003-03-25 Daio Denshi Kk 取引処理方法及び取引処理装置
JP4650072B2 (ja) * 2005-04-12 2011-03-16 富士ゼロックス株式会社 質問応答システム、およびデータ検索方法、並びにコンピュータ・プログラム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP5423993B2 (ja) * 2008-12-26 2014-02-19 日本電気株式会社 テキスト処理装置、テキスト処理方法、及びプログラム
JP5527533B2 (ja) 2010-06-02 2014-06-18 日本電気株式会社 Webベースシステム用ユーザビリティ評価支援装置、方法、及びプログラム
US20140351228A1 (en) 2011-11-28 2014-11-27 Kosuke Yamamoto Dialog system, redundant message removal method and redundant message removal program
US9679553B2 (en) * 2012-11-08 2017-06-13 Nec Corporation Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program
JP6045948B2 (ja) 2013-03-15 2016-12-14 株式会社東芝 機械翻訳装置及び機械翻訳プログラム
US9946763B2 (en) * 2014-11-05 2018-04-17 International Business Machines Corporation Evaluating passages in a question answering computer system
US9645994B2 (en) * 2014-12-09 2017-05-09 Conduent Business Services, Llc Methods and systems for automatic analysis of conversations between customer care agents and customers
JP2017130114A (ja) 2016-01-21 2017-07-27 株式会社日立システムズ クラウド向け統合運用サービスシステム及び方法
JP7136120B2 (ja) 2017-11-07 2022-09-13 日本電気株式会社 情報処理装置、方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
JP2018128943A (ja) * 2017-02-10 2018-08-16 株式会社アナリティックウェア 対話装置、制御装置、対話システム、対話方法、制御方法、およびプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022164855A (ja) * 2017-11-07 2022-10-27 日本電気株式会社 応答処理方法、応答処理装置及びプログラム
JP7428219B2 (ja) 2017-11-07 2024-02-06 日本電気株式会社 応答処理方法、応答処理装置及びプログラム
JP2020197997A (ja) * 2019-06-04 2020-12-10 さくら情報システム株式会社 情報処理装置、方法及びプログラム
JP2020197998A (ja) * 2019-06-04 2020-12-10 さくら情報システム株式会社 情報処理装置、方法、プログラム及びシステム
JP2021033449A (ja) * 2019-08-20 2021-03-01 ソプラ株式会社 業務自動処理の手順定義装置、及び業務自動処理の手順定義システム
JP2021105828A (ja) * 2019-12-26 2021-07-26 富士通株式会社 制御方法、制御プログラムおよび情報処理装置
JP2021128395A (ja) * 2020-02-12 2021-09-02 アマノ株式会社 業務処理装置、情報処理方法及びプログラム
JP7449708B2 (ja) 2020-02-12 2024-03-14 アマノ株式会社 業務管理システム
JP7065473B2 (ja) 2020-07-22 2022-05-12 ソプラ株式会社 会話文からの業務構築システム
JP2022021552A (ja) * 2020-07-22 2022-02-03 ソプラ株式会社 会話文からの業務構築システム
WO2022018996A1 (ja) * 2020-07-22 2022-01-27 ソプラ株式会社 会話文からの業務構築システム
US20220207392A1 (en) * 2020-12-31 2022-06-30 International Business Machines Corporation Generating summary and next actions in real-time for multiple users from interaction records in natural language
JP2023056734A (ja) * 2021-10-08 2023-04-20 ウイングアーク1st株式会社 情報処理装置、制御方法、およびコンピュータプログラム
JP2023090625A (ja) * 2021-12-17 2023-06-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話システムのためのデータ処理方法、装置、機器および媒体
JP7520935B2 (ja) 2021-12-17 2024-07-23 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話システムのためのデータ処理方法、装置、機器および媒体
WO2024171619A1 (ja) * 2023-02-15 2024-08-22 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム

Also Published As

Publication number Publication date
JP7428219B2 (ja) 2024-02-06
JP2022164855A (ja) 2022-10-27
US20220261542A1 (en) 2022-08-18
US11790167B2 (en) 2023-10-17
JP2024032858A (ja) 2024-03-12
US20210192127A1 (en) 2021-06-24
US11347942B2 (en) 2022-05-31
JP7136120B2 (ja) 2022-09-13
US20230409828A1 (en) 2023-12-21
JPWO2019093239A1 (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
WO2019093239A1 (ja) 情報処理装置、方法及び記録媒体
Kitchenham et al. Principles of survey research: part 3: constructing a survey instrument
US10699227B2 (en) Workforce strategy insights
EP3648032A1 (en) Information inputting method, information inputting device, and information inputting system
CN112231568B (zh) 酒店标签自动配置化方法、装置、电子设备、存储介质
CN106528759A (zh) 智能问答系统的信息处理方法及装置
US9552552B1 (en) Identification of over-clustered map features
KR102307380B1 (ko) 자연어 처리 기반 콜센터 지원 시스템 및 방법
WO2016136207A1 (ja) 音声対話装置、音声対話システム、音声対話装置の制御方法、および、プログラム
EP3608772A1 (en) Method for executing function based on voice and electronic device supporting the same
JP2019191747A (ja) 情報処理装置、情報処理システム、及びプログラム
US10489728B1 (en) Generating and publishing a problem ticket
CN109754224A (zh) 人事关系图谱构建方法、装置以及计算机存储介质
CN111782803B (zh) 一种工单的处理方法、装置、电子设备及存储介质
CN110263135A (zh) 一种数据交换匹配方法、装置、介质和电子设备
Prasad et al. Training a dialogue act tagger for human-human and human-computer travel dialogues
CN111813948A (zh) 信息处理方法、装置及电子设备
CN112188253B (zh) 语音控制方法、装置、智能电视和可读存储介质
US20220108079A1 (en) Application-Specific Generated Chatbot
KR102381387B1 (ko) 챗봇 학습용 데이터 생성 방법
Tham A conversational question and answer chatbot for university
CN117238293B (zh) 基于大型语言模型的酒店旅游交互方法、装置及计算设备
JP6985322B2 (ja) 文書作成支援装置、文書作成支援方法及びプログラム
CN108108480A (zh) 电力行业信息安全教育设备的动态更新的方法以及系统
JP2007018410A (ja) 情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18877191

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019552761

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18877191

Country of ref document: EP

Kind code of ref document: A1