WO2020241701A1 - コミュニケーション管理装置 - Google Patents

コミュニケーション管理装置 Download PDF

Info

Publication number
WO2020241701A1
WO2020241701A1 PCT/JP2020/020953 JP2020020953W WO2020241701A1 WO 2020241701 A1 WO2020241701 A1 WO 2020241701A1 JP 2020020953 W JP2020020953 W JP 2020020953W WO 2020241701 A1 WO2020241701 A1 WO 2020241701A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
communication
terminal
character string
contact
Prior art date
Application number
PCT/JP2020/020953
Other languages
English (en)
French (fr)
Inventor
篤 掛村
Original Assignee
株式会社 東芝
東芝デジタルソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝デジタルソリューションズ株式会社 filed Critical 株式会社 東芝
Priority to JP2021522822A priority Critical patent/JP7332690B2/ja
Priority to CN202080028990.3A priority patent/CN113728379A/zh
Priority to US17/437,674 priority patent/US20220164758A1/en
Publication of WO2020241701A1 publication Critical patent/WO2020241701A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063118Staff planning in a project environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • H04L67/141Setup of application sessions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information

Definitions

  • An embodiment of the present invention relates to a communication (recognition sharing, communication, etc.) assisting technology using voice and text.
  • the transceiver is a radio that has both a radio wave transmission function and a reception function, and one user can make a call (one-way or two-way information transmission) with a plurality of users. Examples of using transceivers can be seen at construction sites, event venues, hotels, and so on. In addition, taxi radio can be mentioned as an example of transceiver utilization.
  • the purpose is to provide a communication device that uses voice and text to support information transmission such as recognition sharing and communication for multiple users.
  • the communication management device of the embodiment includes a first terminal in which text-formatted contact contents are input by manual input means, a second terminal in which contact information to contacts based on the contact contents is input, and each contact.
  • a plurality of third terminals carried by the user and outputting the communication information by voice are connected via a network.
  • the communication management device includes an instruction support unit for generating character string button information for incorporating a part or all of the communication content in text format received from the first terminal into a character string constituting the communication information, and the character.
  • a first control unit that transmits column button information to the second terminal and receives the communication information in text format created by a selection operation for the character example button information displayed on the communication information input screen of the second terminal.
  • a voice synthesis unit that generates synthetic voice data of the received communication information
  • a second control unit that broadcasts the synthetic voice data of the communication information to each of a plurality of third terminals, the communication content, and the communication.
  • the information and the voice recognition result obtained by voice-recognizing the user's voice data for the communication information received from the third terminal are accumulated as a communication history in chronological order, and the communication history is stored in each of the terminals. It has a third control unit that controls distribution so that it is displayed in synchronization.
  • (First Embodiment) 1 to 9 are network configuration diagrams of the communication system according to the first embodiment.
  • the communication system provides an information transmission support function using voice and text, centering on a communication management device (hereinafter referred to as a management device) 100.
  • a management device hereinafter referred to as a management device 100.
  • a requester terminal 300 operated by a work requester who performs front desk work is connected to the management device 100.
  • the work requester is a person who directly contacts the customer including dialogue, and can operate the requester terminal 300 at the front desk reception.
  • the work requester inputs characters of the transmitted information by manual input means such as a keyboard, a mouse, a screen keyboard, and a touch panel type keyboard (or numeric keypad).
  • the requester terminal 300 transmits the information (transmission information in text format) input through the manual input means to the management device 100.
  • the client terminal 300 is a desktop computer or a tablet computer, and has a data communication function and a calculation function (CPU, etc.) through an IP (Internet protocol) network or a mobile communication network (Mobile communication network). Further, the client terminal 300 includes a display device (or a touch panel type display device) and the above-mentioned manual input means for characters.
  • the management device 100 receives the manually input text-format transmission information from the requester terminal 300 and transmits it to the work manager terminal (hereinafter referred to as a work MG terminal) 400.
  • the management device 100 can also generate voice synthesis data in which transmission information is voice-synthesized based on the text data and transmit it to the work MG terminal 400.
  • the work MG terminal 400 is a terminal operated by the work manager.
  • the work manager is a work manager or a work manager who distributes the transmission information of the work requester to a plurality of workers (the person who responds to the request).
  • the work manager may be a member of a plurality of workers, an administrator who does not perform the work, or the like.
  • the work MG terminal 400 is a mobile communication terminal carried by a work manager, and is, for example, a portable mobile terminal (mobile terminal) such as a multifunctional mobile phone such as a smartphone, a PDA (Personal Digital Assistant), or a tablet terminal. ..
  • the work MG terminal 400 has a communication function, a calculation function, and an input function, and connects to the management device 100 by wireless communication through an IP (Internet protocol) network or a mobile communication network (Mobile communication network) to perform data communication.
  • the worker terminal (corresponding to the corresponding person terminal) 500 carried by the worker also has the same configuration as the work MG terminal 400.
  • the work manager uses the work MG terminal 400 to input work instructions based on the work request in text.
  • the work MG terminal 400 transmits a text-format work instruction to the management device 100.
  • the management device 100 generates a synthetic voice of the work instruction based on the work instruction in the text format, and broadcasts both the voice synthesis data of the work instruction and the text data to each of the plurality of worker terminals 500.
  • the worker terminal 500 reproduces the voice of the voice synthesis data delivered by the broadcast, and transmits the work instruction to the worker by voice output. In addition, the worker can respond by voice to the work instruction heard by voice. The answer voice, that is, the utterance voice of the worker is input to the worker terminal 500.
  • the worker terminal 500 transmits the utterance voice data to the management device 100, and registers the utterance content of the worker as the communication history 124.
  • a voice communication function is provided to the worker so as not to interfere with the work, the work instruction is read aloud, and the utterance for the work instruction is collected.
  • the worker terminal 500 has a manual input function, in the communication system of the present embodiment, the worker can communicate only by a voice dialogue.
  • the communication system of the present embodiment is premised on the fact that the transmission information which is the request information is input by the manual input means and that each of a plurality of workers can have a hands-free dialogue on the work instruction. Support information transmission for recognition sharing and communication in the business flow.
  • a mechanism is introduced in which a work manager mediates between the requester and each of the plurality of workers, and work instructions to the plurality of workers for the work request are facilitated to improve work efficiency. Aim for improvement.
  • the work instruction can be speeded up and erroneous instructions and erroneous communication due to erroneous input can be reduced.
  • Communication and miscommunication can be reduced.
  • the voice of the worker is also voice-recognized and stored as a text-based communication history.
  • the content of utterances through voice recognition is also aggregated as a text-based communication history. For this reason, the text-based communication history becomes a "visible trail" for missed voices, missed voices, misunderstandings, etc., and the occurrence of miscommunication can be suppressed.
  • FIG. 2 is a block diagram of the communication management device 100.
  • the management device 100 includes a control device 110, a storage device 120, and a communication device 130.
  • the communication device 130 manages communication connection and data communication control between the requester terminal 300, the work MG terminal 400, and the plurality of worker terminals 500.
  • the communication device 130 can perform broadcast distribution control for simultaneously transmitting the same contents to each of a plurality of worker terminals 500.
  • the control device 110 includes a user management unit 111, a communication control unit 112, an instruction support unit 112A, a voice recognition unit 113, and a voice synthesis unit 114.
  • the storage device 120 includes user information 121, group information 122, preset information 123, communication history (communication log) information 124, voice recognition dictionary 125, and voice synthesis dictionary 126.
  • FIG. 3 is a block diagram of the work MG terminal 400 and the worker terminal 500, which includes a communication / call unit 410 (510), a communication app control unit 420 (520), a microphone 430 (530), and a speaker 440 (540). It includes a display input unit 450 (550) such as a touch panel and a storage unit 460 (560).
  • the speaker 440 is actually composed of earphones, headphones (wired or wireless), or the like.
  • FIG. 4 is a diagram showing an example of various information, and user information 121 is user registration information for using this communication system.
  • the user management unit 111 controls so that a user ID, a user name, an attribute, and a group can be set through a predetermined management screen.
  • the group information 122 is group identification information divided by a communication group. Transmission / reception and broadcast distribution of transmitted information are controlled for each communication group ID, and information is controlled so as not to be mixed between different communication groups.
  • the communication group registered in the group information 122 can be associated with each user.
  • room management may be divided into multiple departments and managed, and bell persons (luggage carrying), concierge, and housekeeping (cleaning) are set in different groups to manage room management. It is also possible to build a subdivided communication environment for each group. From another point of view, there may be cases where communication is not necessary in terms of role. For example, a food caterer and a bell person (carrying luggage) can be divided into groups because they do not need to communicate directly. In addition, there may be cases where communication is not necessary geographically. For example, when the A branch, the B branch, etc. are geographically separated and it is not necessary to communicate frequently, the groups can be divided.
  • the preset information 123 is component information used on the work instruction creation screen on the work MG terminal 400, which will be described later.
  • the name of the worker and the dialogue fixed phrase exchanged with the worker are registered in advance to make the character string into parts.
  • the work manager creates a work instruction
  • the part information is displayed on the screen, and each part information is selected and combined so that the work instruction can be easily created.
  • FIG. 5 is a diagram showing an example of communication history information 124.
  • the communication history 124 request information of a work requester, text input information of a work manager, work instructions of a work manager, utterance contents of each worker, and the like are accumulated in time series on a text basis together with time information.
  • the voice data converted into the text format can be stored as a voice file in a predetermined storage area. For example, the storage location of the voice file is recorded in the communication history 124.
  • the communication history information 124 is generated and accumulated for each communication group.
  • the work instruction created by the work manager is transmitted to the worker terminal 500 as a synthetic voice and reproduced. Therefore, in the communication history 124, a history indicating that the synthetic voice work instruction is delivered together with the input text format work instruction is recorded.
  • the spoken voice input from the work MG terminal 400 and the worker terminal 500 is subjected to voice recognition processing by the voice recognition unit 113, the voice recognition result is output in a text format, and is stored in the communication history 124.
  • the voice recognition unit 113 performs voice recognition processing using the voice recognition dictionary 125 and outputs text data as a voice recognition result.
  • a known technique can be applied to the voice recognition process.
  • the voice synthesis unit 114 uses the voice synthesis dictionary 126 to synthesize voice data corresponding to the characters of the input text data, and generates voice synthesis data of work instructions.
  • the voice of the work manager registered in advance may be used as the material of the voice data constituting the voice synthesis data.
  • the same communication history 124 is displayed on each screen of the requester terminal 300, the work MG terminal 400, and the worker terminal 500. That is, each of the requester terminal 300, the work MG terminal 400, and the worker terminal 500 receives the communication history 124 from the management device 100 in real time or at a predetermined timing, and the work requester, the work manager, and the worker (plurality) The display is synchronized between them, and past communication logs can be referred to in chronological order.
  • FIG. 6 is an example of a screen displayed on the terminals 300 and 400 of the work requester and the work manager
  • FIG. 7 is an example of a screen displayed on the worker terminal.
  • the work requester screen displayed on the requester terminal 300 of the work requester shown on the left side of FIG. 6 includes a display field D, an input field N, and a transmission button S.
  • the display control function (browser, etc.) of the requester terminal 300 displays the screen information provided by the management device 100 on the display device, or the screen information is downloaded in advance in the requester terminal 300.
  • the control unit of the requester terminal 300 may be controlled to display the screen information on the display device.
  • the work requester manually inputs the contents of the work request in the input field N. Then, when the transmission button S is pressed, the work request content is transmitted to the management device 100 and displayed in the display field D.
  • the display control to the display field D is performed after the contents of the input field N are stored in the communication history 124 in the management device 100 without being transferred to the display field D or the posting process in the requester terminal 300.
  • the management device 100 can control the newly received work request contents to be transmitted to the requester terminal 300 and displayed in the display field D.
  • the work MG screen of the work manager shown on the right side of FIG. 6 is displayed on the work MG terminal 400. Similar to the work requester screen, the work MG screen includes a display field D in which the text-based communication history 124 is displayed, an input field N, and a transmission button S. Further, the work MG screen is a request information input screen, and further includes a work instruction input support area SA as an input function.
  • the preset button group SA1 of the part information of the preset information 123 described above and the request content button group SA2 in which the character string of the work request content input by the worker requester is made into parts are displayed. Area to be.
  • the communication control unit 112 includes an instruction support unit 112A, and the instruction support unit 112A has a preset (character string) button group SA1 based on the text information of the work request content recorded in the preset information 123 and the communication history 124. And the request content (character string) button group SA2 is generated.
  • the communication control unit 112 transmits the button information of each button group SA1 and SA2 generated by the instruction support unit 112A together with the text of the work request content at the time of the display synchronization processing on the work MG screen, and displays the button information on the work MG screen. Control to display.
  • the communication App control unit 320 of the work MG terminal 400 displays the text of the received work instruction content in the display field D, and displays each button group SA1 and SA2 in the work instruction input support area SA based on the received button information. To do. When the buttons of the button groups SA1 and SA2 are selected, the communication App control unit 320 displays the text information corresponding to the buttons (for example, the character text of the button display label) in the input field N, and sequentially selects the buttons. Each text information is listed in the input field N. When the work manager selects the transmission button S, the character string of the work instruction content displayed in the input field N is transmitted to the management device 100. The management device 100 stores the work instruction content received from the work MG terminal 400 in the communication history 124. The text of the work instruction content is transmitted to the requester terminal 300 for display synchronization.
  • the text-format work request content input by the manual input means is directly converted into parts and provided as a character input button, and the part information of the registered preset information 123 is input as preset characters.
  • the character string constituting the work instruction content is provided as a button, so that it does not take time to input the character and the character is erroneously input. It is possible to prevent the occurrence of miscommunication due to misunderstanding or misunderstanding of work request contents.
  • FIG. 7 is an example of a screen displayed on the worker terminal 500.
  • the speech synthesis unit 114 uses the speech synthesis dictionary 126 to generate a synthetic voice corresponding to the received work instruction content.
  • the communication control unit 112 transmits the synthetic voice data of the work instruction content to the worker terminal 500 together with the work instruction content in the text format.
  • the communication App control unit 520 displays the received text-format work instruction content in the display field D, automatically reproduces the synthesized voice data, and outputs the work instruction voice from the speaker 440.
  • the voice mark M may be displayed in the text corresponding to the synthetic voice data in the display field D.
  • the communication App control unit 520 performs sound collection processing through the microphone 530 in conjunction with the automatic reproduction processing of the synthesized voice data, and acquires the collected spoken voice.
  • the communication App control unit 520 transmits the utterance voice data to the management device 100.
  • the voice recognition unit 113 performs voice recognition processing on the received utterance voice data and outputs the voice recognition result of the utterance content.
  • the communication control unit 112 stores the voice recognition result in the communication history 124, and stores the utterance voice data (Mr. Tanaka's live voice data) in the storage device 120.
  • the communication control unit 112 transmits the utterance content (text) of Mr. Tanaka stored in the communication history 124 to each worker terminal 500 including the requester terminal 300, the work MG terminal 400, and Mr. Tanaka for display synchronization. ..
  • the communication App control unit 520 controls so as to display the utterance content (text) of Mr. Tanaka received from the management device 100 in the display field D and display the sound collection mark m indicating that the sound has been collected. can do. Then, the same process is repeatedly performed with other workers.
  • FIG. 8 is a diagram showing another example of the work MG screen displayed on the work MG terminal 400.
  • the request content button group SA2 of the work instruction input support area SA is composed of a plurality of keyword groups in which each sentence of the work request content is subdivided.
  • the instruction support unit 112A performs a well-known morphological analysis process based on the text information of the work request content recorded in the communication history 124, for example, and extracts a keyword (a character string of the minimum unit having meaning). Each keyword can be converted into a button.
  • the sentence “Room 101, please clean” is subdivided into the keywords “Room 101", “cleaning”, and "please”, and these are generated as button information.
  • FIG. 9 is a diagram showing a processing flow of the communication system of the present embodiment.
  • the management device 100 performs the registration process of the user information 121 and the group information 122 as a preliminary preparation. Further, along with the registration of the user information 121, the preset information 123 is registered. Further, each user who operates the requester terminal 300, the work MG terminal 400, and the worker terminal 500 logs in to the management device 100 with the user ID.
  • the work requester inputs characters of the work request content by a manual input means such as a keyboard on the work requester screen displayed on the requester terminal 300.
  • the work request content is transmitted to the management device 100 in text format as transmission information (S301).
  • the communication control unit 112 stores the received text-format work request content in the communication history 124 (S101).
  • the instruction support unit 112A generates the preset button group SA1 and the request content button group SA2 based on the preset information 123 and the work request content (S102).
  • the communication control unit 112 transmits the work request content in text format and the button information of each button group SA1 and SA2 to the work MG terminal 400 (S103).
  • the communication App control unit 320 of the work MG terminal 400 displays the received text-format work instruction content in the display field D, and sets each button group SA1 and SA2 in the work instruction input support area SA based on the received button information. indicate.
  • the communication App control unit 320 displays the text information corresponding to the buttons in the input field N, and sequentially lists the text information of the selected buttons in the input field N. (S401).
  • the communication App control unit 320 transmits the character string of the work instruction content displayed in the input field N to the management device 100 (S402).
  • the communication control unit 112 of the management device 100 stores the work instruction content received from the work MG terminal 400 in the communication history 124 (S104). Further, for display synchronization, the work instruction content in text format is transmitted to the requester terminal 300 and the work MG terminal 500.
  • the voice synthesis unit 114 of the management device 100 generates a work instruction synthesis voice (S105).
  • the communication control unit 112 broadcasts the text-format work instruction content and the synthetic voice data of the work instruction content to each of the plurality of worker terminals 500 (S106).
  • the communication App control unit 520 of each worker terminal 500 displays the received text-format work instruction content in the display field D, automatically reproduces the synthesized voice data, and outputs the work instruction voice (S501).
  • the same work instruction content is synchronously displayed in the display field D of each worker terminal 500, and the work instruction voice output is performed (S501b, S501c).
  • the worker responds by speaking when instructed to himself / herself.
  • the communication App control unit 520 collects the spoken voice (S502) and transmits the spoken voice data to the management device 100 (S503).
  • the voice recognition unit 113 of the management device 100 performs voice recognition processing on the received utterance voice data and outputs the voice recognition result of the utterance content.
  • the communication control unit 112 stores the voice recognition result in the communication history 124, and stores the utterance voice data in the storage device 120 (S107).
  • the communication control unit 112 transmits the utterance content (text) of the worker stored in the communication history 124 to the requester terminal 300, the work MG terminal 400, and each worker terminal 500 including the uttered worker for display synchronization. Transmit (S108).
  • the communication control unit 112 broadcasts the spoken voice data to the work MG terminal 400 and each worker terminal 500 other than the speaker who spoke.
  • the communication App control unit 520 of the work MG terminal 400 and each worker terminal 500 other than the uttered worker displays the received utterance content in the text format in the display field D, and automatically reproduces the utterance voice data.
  • the utterance voice is output (S403, S502b, S502c).
  • the communication system of the present embodiment includes a requester terminal 300 in which work request contents in text format are input by manual input means, and a work MG terminal 400 in which work instructions to workers based on the work request contents are input.
  • a communication management device 100 is provided in which a plurality of worker terminals 500 carried by the worker and output work instructions by voice are connected to each other via a network.
  • the communication management device 100 receives the work request content in text format from the requester terminal 300, and the instruction support unit 112A incorporates a part or all of the work request content into the character string constituting the work instruction.
  • Generate information (request content button group SA2).
  • the communication control unit 112 transmits the character string button information to the work MG terminal 400 as the first control function, and the text created by the selection operation for the character string button information displayed on the work instruction input screen of the work MG terminal 400.
  • Receive formal work instructions Then, the voice synthesis unit 114 generates synthetic voice data of the received work instruction.
  • the communication control unit 112 broadcasts the synthetic voice data of the work instruction created by the work manager to each of the plurality of worker terminals 500.
  • synthetic voice data of work instructions is reproduced and output as voice by earphones or the like.
  • the communication control unit 112 obtains a voice recognition result obtained by voice recognition processing of the work request content, the work instruction, and the voice recognition data of the worker for the work instruction received from the worker terminal 500. , While accumulating the communication history 124 in chronological order, distribution control is performed so that the communication history is displayed synchronously on the terminals 300, 400, and 500.
  • the voice of the worker is also voice-recognized and stored as the text-based communication history, so that the text-based communication history becomes a "visible trail" and miscommunication. Can be further suppressed.
  • the communication management device 100 of the present embodiment supports communication between a plurality of terminals connected via a network, and the plurality of terminals are a plurality of other terminals from the first terminal (for example, the work MG terminal 400). It has a configuration in which a request is presented to a terminal (for example, a worker terminal 500).
  • the communication management device 100 has a first control unit that receives a text-format request content (request content text input from the requester terminal 300) requested to the first terminal, and the received request content. It is configured to have a voice synthesis unit that generates some or all of the synthetic voice data, and a second control unit that broadcasts the synthetic voice data to a plurality of other terminals. The processing of each of the first and second control units is performed by the communication control unit 112 of FIG.
  • the communication management device 100 further includes an instruction support unit 112A that generates character string button information for incorporating a part or all of the received text-format request content as a request to a plurality of other terminals.
  • the first control unit (communication control unit 112) transmits the character string button information to the first terminal, and receives the text-format request created by the selection operation for the character string button information from the first terminal.
  • the communication control unit 112 broadcasts the synthetic voice data of the request received from the first terminal generated by the voice synthesis unit to each of the plurality of other terminals.
  • responses from a plurality of other terminals to the request are accumulated as a communication history 124 in chronological order, and the communication history 124 is stored in the first terminal and the plurality of other terminals. Is controlled so that is displayed in synchronization.
  • the central center where the work requester who is the information source monitors the situation of each building the work manager is the person in charge of the control center of each building, and the worker is the security worker.
  • Another example is berth management work in the logistics industry.
  • the requester who is the information transmission source is the warehouse manager (the person who monitors the availability of the entire warehouse), the work manager is the berth manager, and the worker is the driver. It is possible to reduce the waiting time for waiting for luggage and improve the efficiency of warehousing / delivery operations.
  • Each function constituting the above-mentioned communication management device 100 can be realized by a program, a computer program prepared in advance for realizing each function is stored in the auxiliary storage device, and a control unit such as a CPU is the auxiliary storage device.
  • the functions of each unit can be operated by reading the program stored in the main storage device into the main storage device and executing the program read into the main storage device by the control unit.
  • each function of the voice recognition unit 113 and the voice synthesis unit 114 uses an external voice recognition server, a voice synthesis server, or the like, and the communication management device 100 does not have to have a direct processing function.
  • it can be configured to send voice data to an external voice recognition server and receive the voice recognition result (text), or send the text to an external voice synthesis server to receive the voice synthesis data.
  • each function of voice recognition and voice synthesis can be configured to be provided in the worker mobile communication terminal 500. In this case, the uttered voice of the worker is automatically converted into text data and the uttered voice data and the automatically converted text data are transmitted to the communication management device 100, or the voice is synthesized based on the received text information and the instruction voice is output. Can be done.
  • Computer-readable recording media include optical discs such as CD-ROMs, phase-changing optical discs such as DVD-ROMs, magneto-optical disks such as MO (Magnet Optical) and MD (Mini Disk), floppy (registered trademark) disks, and the like. Examples include magnetic disks such as removable hard disks, compact flash (registered trademarks), smart media, SD memory cards, and memory cards such as memory sticks.
  • a hardware device such as an integrated circuit (IC chip or the like) specially designed and configured for the purpose of the present invention is also included as a recording medium.
  • Communication management device 110 Control device 111 User management unit 112 Communication control unit 112A Instruction support unit 113 Speech recognition unit 114 Speech synthesis unit 120 Storage device 121 User information 122 Group information 123 Preset information 124 Communication history information 125 Speech recognition dictionary 126 Speech synthesis Dictionary 130 Communication device 300 Requester terminal 400 Work manager terminal (work MG terminal) 500 Worker terminal 410,510 Communication / calling unit 420,520 Communication App control unit 430, 530 Microphone (sound collecting unit) 440,540 speakers (audio output section) 450,550 Display / input unit 460,560 Storage unit D Display field N Input field S Send button SA Work instruction input support area SA1 Preset button group SA2 Request content button group

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】音声及びテキストを使用し、複数人のユーザ間の情報伝達を支援するコミュニケーション管理装置を提供する。 【解決手段】実施形態のコミュニケーション管理装置は、テキスト形式の連絡内容の一部又は全部を連絡情報を構成する文字列に組み込むための文字列ボタン情報を生成する。文字列ボタン情報を連絡先のユーザへの連絡情報が入力される第2端末に送信し、第2端末での文字列ボタン情報に対する選択操作によって作成されたテキスト形式の連絡情報を受信する。連絡情報の合成音声データを生成し、該合成音声データを複数の各ユーザの第3端末に同報配信する。連絡内容、連絡情報、及び第3端末から受信したユーザの発話音声認識結果は、時系列にコミュニケーション履歴として蓄積しおき、各端末においてコミュニケーション履歴が同期して表示されるように配信制御を行う。

Description

コミュニケーション管理装置
 本発明の実施形態は、音声及びテキストを使用したコミュニケーション(認識共有、意思疎通など)支援技術に関する。
 音声コミュニケーションの一例として、トランシーバ(transceiver)がある。トランシーバは、無線電波の送信機能と受信機能を兼ね備えた無線機であり、1人のユーザが複数人のユーザと通話(一方向又は双方向の情報伝達)を行うことができる。トランシーバの活用例は、工事現場やイベント会場、ホテルなどで目にすることができる。また、タクシー無線もトランシーバ活用の一例として挙げることができる。
特開2018-7005号公報
 音声及びテキストを使用し、複数人のユーザを対象にした認識共有や意思疎通などの情報伝達を支援するコミュニケーション装置を提供することを目的とする。
 実施形態のコミュニケーション管理装置は、手入力手段でテキスト形式の連絡内容が入力される第1端末と、前記連絡内容に基づく連絡先への連絡情報が入力される第2端末と、各連絡先のユーザが携帯し、前記連絡情報を音声出力する複数の第3端末と、がネットワークを介して接続する。コミュニケーション管理装置は、前記第1端末から受信したテキスト形式の前記連絡内容の一部又は全部を前記連絡情報を構成する文字列に組み込むための文字列ボタン情報を生成する指示支援部と、前記文字列ボタン情報を前記第2端末に送信し、前記第2端末の連絡情報入力画面において表示された前記文字例ボタン情報に対する選択操作によって作成されたテキスト形式の前記連絡情報を受信する第1制御部と、受信した前記連絡情報の合成音声データを生成する音声合成部と、前記連絡情報の合成音声データを複数の各第3端末に同報配信する第2制御部と、前記連絡内容、前記連絡情報、及び前記第3端末から受信した前記連絡情報に対するユーザの発話音声データを音声認識処理して得られる音声認識結果を、時系列にコミュニケーション履歴として蓄積するとともに、前記各端末において前記コミュニケーション履歴が同期して表示されるように配信制御を行う第3制御部と、を有する。
第1実施形態のコミュニケーションシステムのネットワーク構成図である。 第1実施形態のコミュニケーション管理装置の構成ブロック図である。 第1実施形態の移動通信端末の構成ブロック図である。 第1実施形態の各種情報の一例を示す図である。 第1実施形態のコミュニケーション履歴(ログ)情報の一例を示す図である。 第1実施形態の依頼者の端末及び作業マネージャーの移動通信端末に表示される画面例を示す図である。 第1実施形態の作業者の移動通信端末に表示される画面例である。 第1実施形態の作業マネージャーの端末に表示される他の画面例を示す図である。 第1実施形態のコミュニケーションシステムの処理フローを示す図である。
(第1実施形態)
 図1から図9は、第1実施形態に係るコミュニケーションシステムのネットワーク構成図である。コミュニケーションシステムは、コミュニケーション管理装置(以下、管理装置と称する)100を中心に、音声及びテキストを用いた情報伝達支援機能を提供する。
 以下では、ホテルの客室管理を一例に、コミュニケーションシステムを適用した態様について説明する。管理装置100には、フロント業務を行う作業依頼者が操作する依頼者端末300が接続される。作業依頼者は、対話を含むお客様との接触を直接行う者であり、フロント受付にて依頼者端末300を操作することができる。作業依頼者は、キーボード、マウス、スクリーンキーボード、タッチパネル方式のキーボード(又はテンキー)などの手入力手段で、伝達情報の文字入力を行う。依頼者端末300は、手入力手段を通じて入力された情報(テキスト形式の伝達情報)を管理装置100に送信する。
 依頼者端末300は、デスクトップ型コンピュータやタブレット型コンピュータであり、IP(Internet protocol)網又は移動通信回線網(Mobile communication network)を通じたデータ通信機能及び演算機能(CPU等)を備えている。また、依頼者端末300は、ディスプレイ装置(又はタッチパネル方式の表示装置)及び上述した文字の手入力手段を備えている。
 管理装置100は、手入力されたテキスト形式の伝達情報を依頼者端末300から受信し、作業マネージャー端末(以下、作業MG端末と称する)400に送信する。管理装置100は、作業依頼者から入力されたテキストデータに加えて、テキストデータに基づいて伝達情報を音声合成した音声合成データを生成して、作業MG端末400に送信することもできる。作業MG端末400は、作業マネージャーが操作する端末である。作業マネージャーは、複数の作業者(依頼に対するその対応者)に対して作業依頼者の伝達情報を振り分ける作業管理者や作業責任者である。作業マネージャーは、複数の作業者の一員であったり、作業を行わない管理者等であったりしてもよい。
 作業MG端末400は、作業マネージャーが携帯する移動通信端末であり、例えば、スマートフォンなどの多機能携帯電話機やPDA(Personal Digital Assistant)、タブレット型端末などの持ち運び可能な携帯端末(モバイル端末)である。作業MG端末400は、通信機能、演算機能及び入力機能を備え、IP(Internet protocol)網又は移動通信回線網(Mobile communication network)を通じて無線通信で管理装置100と接続し、データ通信を行う。作業者が携帯する作業者端末(対応者端末に相当する)500も、作業MG端末400と同様の構成である。
 作業マネージャーは、作業MG端末400を使用して、作業依頼に基づく作業指示をテキストで入力する。作業MG端末400は、テキスト形式の作業指示を管理装置100に伝送する。管理装置100は、テキスト形式の作業指示に基づいて当該作業指示の合成音声を生成し、作業指示の音声合成データ及びテキストデータの双方を、複数の各作業者端末500に同報配信する。
 作業者端末500は、同報配信された音声合成データの音声再生を行い、作業指示を音声出力で作業者に伝達する。また、作業者は、音声で聞いた作業指示に対して音声で回答することができる。回答音声、つまり、作業者の発話音声は、作業者端末500に入力される。作業者端末500は、発話音声データを管理装置100に送信し、作業者の発話内容をコミュニケーション履歴124として登録する。本実施形態では、作業の邪魔にならないように、作業者に対して音声でのコミュニケーション機能を提供し、作業指示が音声で読み上げられ、作業指示に対する発話が集音される。作業者端末500は、手入力機能を備えているものの、本実施形態のコミュニケーションシステムでは、作業者は音声による対話だけでコミュニケーションを図ることができる。
 このように本実施形態のコミュニケーションシステムは、依頼情報である伝達情報が手入力手段で入力されること、及び複数の各作業者がハンズフリーで作業指示に関する対話を行うことができること、を前提とした業務フローにおいて、認識共有や意思疎通のための情報伝達を支援する。
 特に、本実施形態では、依頼者と複数の各作業者との間に、作業マネージャーが仲介する仕組みを導入し、作業依頼に対する複数の作業者への作業指示を円滑にすることで作業効率の向上を図る。このとき、作業マネージャーに対し、作業指示入力の支援機能を提供することで、作業指示の迅速化を図ると共に、誤入力による誤指示やミスコミュニケーションを低減させる。このように、一例として示した上述の依頼者と複数の各作業者との連絡系統に限らず、連絡を取り合うユーザ間の様々な連絡系統における情報伝達を支援することができ、誤入力による誤連絡やミスコミュニケーションを低減させることができる。
 また、文字入力によるテキストベースのコミュニケーション履歴と共に、作業者(作業マネージャーも含む)の発話音声も音声認識処理を行ってテキストベースのコミュニケーション履歴として記憶する。音声だけ、テキストだけのコミュニケーション環境及びログ収集を行うのではなく、音声認識を通じた発話内容もテキストベースのコミュニケーション履歴として集約する。このため、音声の聞き逃し、聞き漏れ、聞き間違いなどに対し、テキストベースのコミュニケーション履歴が「視認可能な証跡」となり、ミスコミュニケーションの発生を抑制することができる。
 図2は、コミュニケーション管理装置100の構成ブロック図である。管理装置100は、制御装置110、記憶装置120及び通信装置130を含む。通信装置130は、依頼者端末300、作業MG端末400及び複数の作業者端末500との間の通信接続管理及びデータ通信制御を行う。通信装置130は、同じ内容を複数の各作業者端末500に一斉に送る同報配信制御を行うことができる。
 制御装置110は、ユーザ管理部111、コミュニケーション制御部112、指示支援部112A、音声認識部113及び音声合成部114を含んで構成されている。記憶装置120は、ユーザ情報121、グループ情報122、プリセット情報123、コミュニケーション履歴(コミュニケーションログ)情報124、音声認識辞書125、及び音声合成辞書126を含んで構成されている。
 図3は、作業MG端末400及び作業者端末500の構成ブロック図であり、通信・通話部410(510)、コミュニケーションApp制御部420(520)、マイク430(530)、スピーカー440(540)、タッチパネル等の表示入力部450(550)、及び記憶部460(560)を含んで構成されている。なお、スピーカー440は、実際には、イヤホンやヘッドホン(有線又はワイヤレス)などで構成される。
 図4は、各種情報の一例を示す図であり、ユーザ情報121は、本コミュニケーションシステムを利用するユーザ登録情報である。ユーザ管理部111は、所定の管理画面を通じて、ユーザID、ユーザ名、属性、グループを設定することができるように制御する。グループ情報122は、コミュニケーショングループの区画するグループ識別情報である。コミュニケーショングループID別に伝達情報の送受信及び同報配信を制御し、異なるコミュニケーショングループ間で情報が混在しないように制御される。ユーザ情報121において、グループ情報122に登録されたコミュニケーショングループを、各ユーザに紐付けることができる。
 このようなグループ分けは、例えば、客室管理を複数の部門に分割して管理することもあり、ベルパーソン(荷物運び)、コンシェルジュ、ハウスキーピング(清掃)をそれぞれ異なるグループに設定し、客室管理をそれぞれのグループ毎に細分化したコミュニケーション環境を構築することもできる。他の観点として、役割的にコミュニケーションが不要なケースも考えられる。例えば、料理の配膳係と、ベルパーソン(荷物運び)は、直接コミュニケーションをとる必要がないのでグループを分けることができる。また、地理的にコミュニケーションが不要なケースも考えられ、例えば、A支店、B支店などが地理的に離れており、かつ頻繁にコミュニケーションをする必要がない場合などは、グループを分けることができる。
 プリセット情報123は、後述する作業MG端末400での作業指示作成画面において使用する部品情報である。画面での文字入力の手間を低減するために、予め作業者の名前や作業者との間で交わされる対話定型文などを登録して文字列をパーツ化しておく。作業マネージャーが作業指示作成を行う際に、画面に部品情報を表示させ、各部品情報を選択して組み合わせることで、作業指示を容易に作成できるようにする。
 図5は、コミュニケーション履歴情報124の一例を示す図である。コミュニケーション履歴124は、作業依頼者の依頼情報、作業マネージャーのテキスト入力情報、作業マネージャーの作業指示、各作業者の発話内容などが時間情報と共に、テキストベースで時系列に蓄積されている。このとき、テキスト形式に変換された音声データは、音声ファイルとして所定の記憶領域に格納しておくことができ、例えば、コミュニケーション履歴124には、音声ファイルの格納場所を記録する。コミュニケーション履歴情報124は、コミュニケーショングループ別にそれぞれ生成され、蓄積される。
 また、作業マネージャーによって作成された作業指示は、合成音声で作業者端末500に送信されて再生される。このため、コミュニケーション履歴124において、入力されたテキスト形式の作業指示と共に合成音声の作業指示が配信されたことを示す履歴が記録されている。なお、作業MG端末400及び作業者端末500から入力された発話音声は、音声認識部113によって音声認識処理が行われ、音声認識結果がテキスト形式で出力されて、コミュニケーション履歴124に格納される。
 なお、音声認識部113は、音声認識辞書125を用いて音声認識処理を行い音声認識結果としてテキストデータを出力する。音声認識処理については公知の技術を適用することができる。また、音声合成部114は、音声合成辞書126を用いて、入力されたテキストデータの文字に対応する音声データを合成し、作業指示の音声合成データを生成する。このとき、音声合成データを構成する音声データの素材は、予め登録された作業マネージャーの声を利用してもよい。
 図5に示すコミュニケーション履歴124は、例えば、依頼者端末300、作業MG端末400及び作業者端末500の各画面において、同じコミュニケーション履歴124が表示される。つまり、依頼者端末300、作業MG端末400及び作業者端末500それぞれは、管理装置100からリアルタイムに又は所定のタイミングでコミュニケーション履歴124を受信し、作業依頼者、作業マネージャー、作業者(複数)の間で表示同期が取られ、時系列に過去のコミュニケーションログを参照することができる。
 図6は、作業依頼者及び作業マネージャーの各端末300,400に表示される画面例であり、図7は、作業者端末に表示される画面例である。まず、作業依頼者、作業マネーシャー、作業者のそれぞれは、初期操作として、所定のログイン画面からユーザ登録されたユーザID及びパスワードを用いて管理装置100にログインする。ログイン認証処理は、ユーザ管理部111によって遂行される。
 図6の左側に示す作業依頼者の依頼者端末300に表示される作業依頼者画面は、表示欄Dと、入力欄Nと、送信ボタンSを備えている。作業依頼者画面は、管理装置100から提供される画面情報を依頼者端末300の表示制御機能(ブラウザ等)がディスプレイ装置に表示させたり、予め依頼者端末300内に画面情報をダウンロードしておき、ログイン認証OK後に、依頼者端末300の制御部が画面情報をディスプレイ装置に表示するように制御してもよい。
 作業依頼者は、手入力手段で入力欄Nに作業依頼内容を文字入力する。そして、送信ボタンSを押すと、作業依頼内容が管理装置100に送信されると共に、表示欄Dに表示される。なお、表示欄Dへの表示制御は、入力欄Nの内容を表示欄Dに転記したり、依頼者端末300内での転記処理を行わずに、管理装置100におけるコミュニケーション履歴124への蓄積後に管理装置100が表示同期処理として、改めて受信した作業依頼内容を依頼者端末300に送信して表示欄Dに表示させるように制御したりすることができる。
 続いて、図6の右側に示す作業マネージャーの作業MG端末400では、作業MG画面が表示されている。作業MG画面は、作業依頼者画面と同様に、テキストベースのコミュニケーション履歴124が表示される表示欄D、入力欄N、及び送信ボタンSが含まれる。また、作業MG画面は、依頼情報入力画面であり、入力機能として作業指示入力支援領域SAをさらに含む。
 作業指示入力支援領域SAは、上述したプリセット情報123の部品情報のプリセットボタン群SA1と、作業者依頼者によって入力された作業依頼内容の文字列をパーツ化した依頼内容ボタン群SA2と、が表示される領域である。
 コミュニケーション制御部112は、指示支援部112Aを備えており、指示支援部112Aが、プリセット情報123及びコミュニケーション履歴124に記録された作業依頼内容のテキスト情報に基づいて、プリセット(文字列)ボタン群SA1及び依頼内容(文字列)ボタン群SA2を生成する。コミュニケーション制御部112は、作業MG画面への表示同期処理の際に、作業依頼内容のテキストと共に指示支援部112Aによって生成された各ボタン群SA1,SA2のボタン情報を送信し、作業MG画面内に表示させるように制御する。
 作業MG端末400のコミュニケーションApp制御部320は、表示欄Dに受信した作業指示内容のテキストを表示させると共に、受信したボタン情報に基づいて作業指示入力支援領域SAに各ボタン群SA1,SA2を表示する。コミュニケーションApp制御部320は、ボタン群SA1,SA2のボタンが選択されると、ボタンに対応するテキスト情報(例えば、ボタン表示ラベルの文字テキスト)を入力欄Nに表示させ、順次選択されたボタンの各テキスト情報を入力欄Nに羅列する。作業マネージャーが、送信ボタンSを選択すると、入力欄Nに表示されている作業指示内容の文字列が管理装置100に送信される。管理装置100は、作業MG端末400から受信した作業指示内容をコミュニケーション履歴124に記憶する。作業指示内容のテキストは、表示同期のため、依頼者端末300に送信される。
 このように本実施形態では、手入力手段で入力されたテキスト形式の作業依頼内容を、そのままパーツ化して文字入力ボタンとして提供しつつ、かつ登録されているプリセット情報123の部品情報をプリセット文字入力ボタンとして提供する。このため、作業マネージャーは、作業者への作業指示を行う際に、作業指示内容を構成する文字列がボタン化されて提供されるので、文字入力の手間がかからず、かつ文字の誤入力や作業依頼内容の聞き間違いや勘違いなどによるミスコミュニケーションの発生を防止することができる。
 特に、手入力手段で入力されたテキスト形式の作業依頼内容を、そのままパーツ化して文字入力ボタンとして提供しているので、ミスコミュニケーションの発生を防止することができる。
 図7は、作業者端末500に表示される画面例である。管理装置100は、作業MG端末400から作業指示内容を受信すると、音声合成部114は、音声合成辞書126を用いて、受信した作業指示内容に対応する合成音声を生成する。コミュニケーション制御部112は、テキスト形式の作業指示内容と共に、作業指示内容の合成音声データを作業者端末500に送信する。コミュニケーションApp制御部520は、受信したテキスト形式の作業指示内容を表示欄Dに表示させ、かつ合成音声データの自動再生処理を行い、スピーカー440から作業指示音声を出力させる。このとき、図7の例に示すように、表示欄Dにおいて、合成音声データに対応するテキストには、音声マークMを表示するようにしてもよい。
 図7の例において、作業者の田中さんは、自分への指示であった場合、発話応答する。コミュニケーションApp制御部520は、合成音声データの自動再生処理と連動して、マイク530を通じた集音処理を行い、集音された発話音声を取得する。コミュニケーションApp制御部520は、発話音声データを管理装置100に送信する。音声認識部113は、受信した発話音声データを音声認識処理し、発話内容の音声認識結果を出力する。コミュニケーション制御部112は、音声認識結果をコミュニケーション履歴124に記憶し、発話音声データ(田中さんの生声データ)を記憶装置120に記憶する。
 コミュニケーション制御部112は、コミュニケーション履歴124に記憶した田中さんの発話内容(テキスト)を、表示同期のために、依頼者端末300、作業MG端末400及び田中さんを含む各作業者端末500に送信する。このとき、コミュニケーションApp制御部520は、管理装置100から受信した田中さんの発話内容(テキスト)を表示欄Dに表示すると共に、集音されたことを示す集音マークmを表示するように制御することができる。そして、他の作業者との間で同様の処理が繰り返し行われる。
 図7の例に示すように、田中さん以外の他の作業者端末500は、自分以外の作業指示及び自分以外の他の作業者の発話内容が表示欄Dに時系列に表示され、管理装置100に蓄積されるコミュニケーション履歴124がログ情報として共有される。佐藤さんの作業者端末500では、作業マネージャーと田中さんとの間の作業指示と発話応答の次に、自分への作業指示と発話応答が表示欄Dに表示される。鈴木さんの作業者端末500においても同様である。
 このように自分以外の作業指示も複数の作業者間で共有することで、作業者間の自発的なコミュニケーションによる作業の効率化を図ることができる。例えば、作業を依頼された作業者の手が空かないときや、自分がやった方が効率的に行える場合など、作業者が自発的に発話して音声で作業マネージャーと対話し、作業指示を確定することもできる。また、コミュニケーション履歴124が表示同期されるので、複数の作業者間で共有される過去のコミュニケーションを振り返ることができる。
 図8は、作業MG端末400に表示される作業MG画面の他の例を示す図である。図8の例では、作業指示入力支援領域SAの依頼内容ボタン群SA2が、作業依頼内容の各文章を細分化した複数のキーワード群で構成されている。
 指示支援部112Aは、例えば、コミュニケーション履歴124に記録された作業依頼内容のテキスト情報に基づいて、周知の形態素分析処理を行い、キーワード(意味を持つ最小限の単位の文字列)を抽出し、各キーワードをボタン化することができる。「101号室、清掃お願いします。」の文章を、「101号室」、「清掃」、「お願いします。」の各キーワードに細分化し、これらをボタン情報として生成する。なお、他の文章と重複するキーワード、例えば、「お願いします。」のキーワードは、1つだけ依頼内容ボタン群SA2に含まれるように制御することができる。
 このように構成することで、「101号室、清掃お願いします。」、「108号室、清掃お願いします。」の2つの作業依頼に対し、「101号室、108号室、清掃お願いします。」といった1つの文章での作業指示を行うように再構成することができる。このように、ボタン群SA1,SA2を組み合わせることにより、作業マネージャーは「田中さん、101号室、108号室、清掃お願いします。後で折り返してください。」といった、個別の具体的な指示に再構成することもできる。
 図9は、本実施形態のコミュニケーションシステムの処理フローを示す図である。上述のように、管理装置100は、事前準備として、ユーザ情報121及びグループ情報122の登録処理を行う。また、ユーザ情報121の登録に伴い、プリセット情報123の登録処理を行う。また、依頼者端末300、作業MG端末400及び作業者端末500を操作する各ユーザは、ユーザIDで管理装置100にログインする。
 作業依頼者は、依頼者端末300に表示された作業依頼者画面において、キーボード等の手入力手段で作業依頼内容の文字入力を行う。作業依頼内容は、伝達情報としてテキスト形式で管理装置100に送信される(S301)。
 コミュニケーション制御部112は、受信したテキスト形式の作業依頼内容をコミュニケーション履歴124に記憶する(S101)。指示支援部112Aは、プリセット情報123及び作業依頼内容に基づいて、プリセットボタン群SA1及び依頼内容ボタン群SA2を生成する(S102)。コミュニケーション制御部112は、テキスト形式の作業依頼内容と各ボタン群SA1,SA2のボタン情報を作業MG端末400に送信する(S103)。
 作業MG端末400のコミュニケーションApp制御部320は、受信したテキスト形式の作業指示内容を表示欄Dに表示すると共に、受信したボタン情報に基づいて作業指示入力支援領域SAに各ボタン群SA1,SA2を表示する。コミュニケーションApp制御部320は、ボタン群SA1,SA2のボタンが選択されると、ボタンに対応するテキスト情報を入力欄Nに表示させ、順次選択されたボタンの各テキスト情報を入力欄Nに羅列する(S401)。作業マネージャーによって送信ボタンSが選択すると、コミュニケーションApp制御部320は、入力欄Nに表示されている作業指示内容の文字列を管理装置100に送信する(S402)。
 管理装置100のコミュニケーション制御部112は、作業MG端末400から受信した作業指示内容をコミュニケーション履歴124に記憶する(S104)。また、表示同期のため、テキスト形式の作業指示内容を、依頼者端末300及び作業MG端末500に送信する。
 管理装置100の音声合成部114は、作業指示合成音声を生成する(S105)。コミュニケーション制御部112は、テキスト形式の作業指示内容と当該作業指示内容の合成音声データを複数の各作業者端末500に同報配信する(S106)。各作業者端末500のコミュニケーションApp制御部520は、受信したテキスト形式の作業指示内容を表示欄Dに表示させ、かつ合成音声データの自動再生処理を行い、作業指示音声出力を行う(S501)。このとき、各作業者端末500の表示欄Dにおいて、同じ作業指示内容が同期して表示され、かつ作業指示音声出力がそれぞれ行われる(S501b,S501c)。
 作業者(作業者A)は、自分への指示であった場合、発話応答する。コミュニケーションApp制御部520は、発話音声を集音し(S502)、発話音声データを管理装置100に送信する(S503)。管理装置100の音声認識部113は、受信した発話音声データを音声認識処理し、発話内容の音声認識結果を出力する。コミュニケーション制御部112は、音声認識結果をコミュニケーション履歴124に記憶し、発話音声データを記憶装置120に記憶する(S107)。
 コミュニケーション制御部112は、コミュニケーション履歴124に記憶した作業者の発話内容(テキスト)を、表示同期のために、依頼者端末300、作業MG端末400及び発話した作業者を含む各作業者端末500に送信する(S108)。コミュニケーション制御部112は、作業MG端末400及び発話した作業者以外の各作業者端末500に対して発話音声データを同報送信する。作業MG端末400及び発話した作業者以外の各作業者端末500のコミュニケーションApp制御部520は、受信したテキスト形式の発話内容を表示欄Dに表示させ、かつ発話音声データの自動再生処理を行い、発話音声出力を行う(S403,S502b,S502c)。
 本実施形態のコミュニケーションシステムは、手入力手段でテキスト形式の作業依頼内容が入力される依頼者端末300と、作業依頼内容に基づく作業者への作業指示が入力される作業MG端末400と、各作業者が携帯し、作業指示を音声出力する複数の作業者端末500と、がネットワークを介して接続するコミュニケーション管理装置100を備える。
 コミュニケーション管理装置100は、依頼者端末300からテキスト形式の作業依頼内容を受信し、指示支援部112Aは、作業依頼内容の一部又は全部を作業指示を構成する文字列に組み込むための文字列ボタン情報(依頼内容ボタン群SA2)を生成する。
 コミュニケーション制御部112は、第1制御機能として、文字列ボタン情報を作業MG端末400に送信し、作業MG端末400の作業指示入力画面において表示された文字列ボタン情報に対する選択操作によって作成されたテキスト形式の作業指示を受信する。そして、音声合成部114が、受信した作業指示の合成音声データを生成する。
 コミュニケーション制御部112は、第2制御機能として、作業マネージャーによって作成された作業指示の合成音声データを複数の各作業者端末500に同報配信する。各作業者端末500では、作業指示の合成音声データが再生処理されてイヤホン等で音声出力される。
 そして、コミュニケーション制御部112は、第3制御機能として、作業依頼内容、作業指示、及び作業者端末500から受信した作業指示に対する作業者の発話音声データを音声認識処理して得られる音声認識結果を、時系列にコミュニケーション履歴124として蓄積しつつ、各端末300,400,500においてコミュニケーション履歴が同期して表示されるように配信制御を行う。
 したがって、作業マネージャーの作業指示負担を低減させつつ、誤入力による誤指示やミスコミュニケーションを低減させることができる。そして、文字入力によるテキストベースのコミュニケーション履歴と共に、作業者の発話音声も音声認識処理を行ってテキストベースのコミュニケーション履歴として記憶するので、テキストベースのコミュニケーション履歴が「視認可能な証跡」となり、ミスコミュニケーションの発生をさらに抑制することができる。
 このように本実施形態のコミュニケーション管理装置100は、ネットワークを介して接続される複数の端末間でコミュニケーションを支援し、複数の端末は、第1端末(例えば、作業MG端末400)から複数の他の端末(例えば、作業者端末500)に依頼を提示する構成を有する。このとき、コミュニケーション管理装置100は、第1端末に対して依頼されたテキスト形式の依頼内容(依頼者端末300からテキスト入力された依頼内容)を受信する第1制御部と、受信した依頼内容の一部又は全部の合成音声データを生成する音声合成部と、合成音声データを複数の他の端末に同報配信する第2制御部と、を有するように構成される。この第1及び第2の各制御部の処理は、図2のコミュニケーション制御部112によって遂行される。
 そして、コミュニケーション管理装置100は、受信したテキスト形式の依頼内容の一部又は全部を複数の他の端末への依頼として組み込みための文字列ボタン情報を生成する指示支援部112Aをさらに有しており、第1制御部(コミュニケーション制御部112)は、文字列ボタン情報を第1端末に送信し、第1端末からの文字列ボタン情報に対する選択操作によって作成されたテキスト形式の依頼を受信する。コミュニケーション制御部112は、音声合成部によって生成された当該第1端末から受信した依頼の合成音声データを、複数の他の各端末に同報配信する。
 さらに、コミュニケーション制御部112の第3の制御部機能として、依頼に対する複数の他の端末からの応答を時系列にコミュニケーション履歴124として蓄積するとともに、第1端末及び複数の他の端末においてコミュニケーション履歴124が同期して表示されるように配信制御を行う。
 以上、本実施形態について説明したが、上記例示のホテルの客室管理以外にも適用可能な一例として、警備業におけるビル管理業務がある。この場合、情報発信元である作業依頼者が各ビルの状況を監視する中央センター、作業マネージャーが、各ビルの管制センター担当者、作業者が、警備従事者となる。また、他の例としては、物流業のバース管理業務がある。この場合、情報発信元である依頼者は、倉庫管理者(倉庫全体の空き状況などを監視する者)、作業マネージャーは、バース管理者、作業者は、運転手となる。荷物待ち待機時間の削減や入出庫業務の効率化を図ることができる。
 上述のコミュニケーション管理装置100を構成する各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行することで、各部の機能を動作させることができる。
 また、音声認識部113及び音声合成部114の各機能は、外部の音声認識サーバや音声合成サーバなどを利用し、コミュニケーション管理装置100は、直接的な処理機能を備えていなくてもよい。つまり、外部の音声認識サーバに音声データを送信し、音声認識結果(テキスト)を受信したり、テキストを外部の音声合成サーバに送信して音声合成データを受信したりするように構成することができる。また、音声認識及び音声合成の各機能は、作業者移動通信端末500が備えるように構成することもできる。この場合、作業者の発話音声をテキストデータに自動変換してコミュニケーション管理装置100に発話音声データと自動変換テキストデータとを送信したり、受信したテキスト情報に基づいて音声合成して指示音声を出力したりすることができる。
 また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。
 なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 コミュニケーション管理装置
110 制御装置
111 ユーザ管理部
112 コミュニケーション制御部
112A 指示支援部
113 音声認識部
114 音声合成部
120 記憶装置
121 ユーザ情報
122 グループ情報
123 プリセット情報
124 コミュニケーション履歴情報
125 音声認識辞書
126 音声合成辞書
130 通信装置
300 依頼者端末
400 作業マネージャー端末(作業MG端末)
500 作業者端末
410,510 通信・通話部
420,520 コミュニケーションApp制御部
430,530 マイク(集音部)
440,540 スピーカー(音声出力部)
450,550 表示・入力部
460,560 記憶部
D 表示欄
N 入力欄
S 送信ボタン
SA 作業指示入力支援領域
SA1 プリセットボタン群
SA2 依頼内容ボタン群
 

Claims (11)

  1.  手入力手段でテキスト形式の連絡内容が入力される第1端末と、前記連絡内容に基づく連絡先への連絡情報が入力される第2端末と、各連絡先のユーザが携帯し、前記連絡情報を音声出力する複数の第3端末と、がネットワークを介して接続するコミュニケーション管理装置であって、
     前記第1端末から受信したテキスト形式の前記連絡内容の一部又は全部を前記連絡情報を構成する文字列に組み込むための文字列ボタン情報を生成する指示支援部と、
     前記文字例ボタン情報を前記第2端末に送信し、前記第2端末の連絡情報入力画面において表示された前記文字例ボタン情報に対する選択操作によって作成されたテキスト形式の前記連絡情報を受信する第1制御部と、
     受信した前記連絡情報の合成音声データを生成する音声合成部と、
     前記連絡情報の合成音声データを複数の各第3端末に同報配信する第2制御部と、
     前記連絡内容、前記連絡情報、及び前記第3端末から受信した前記連絡情報に対するユーザの発話音声データを音声認識処理して得られる音声認識結果を、時系列にコミュニケーション履歴として蓄積するとともに、前記各端末において前記コミュニケーション履歴が同期して表示されるように配信制御を行う第3制御部と、
     を有することを特徴とするコミュニケーション管理装置。
  2.  連絡先ユーザの氏名及び連絡情報を構成する定型文を含むプリセット情報が予め登録されており、
     前記指示支援部は、前記プリセット情報に基づいて、前記ユーザの氏名及び定型文を前記連絡情報を構成する文字列に組み込むためのプリセット文字列ボタン情報を生成し、
     前記第1制御部は、前記文字列ボタン情報及び前記プリセット文字列ボタン情報を前記第2端末に送信し、前記第2端末の連絡情報入力画面において表示された前記文字列ボタン情報及び前記プリセット文字列ボタン情報に対する選択操作によって作成されたテキスト形式の前記連絡情報を受信することを特徴とする請求項1に記載のコミュニケーション管理装置。
  3.  テキスト形式の前記連絡内容は、複数の異なる連絡内容を含み、
     前記指示支援部は、異なる複数の連絡内容毎の複数の前記文字列ボタン情報を生成することを特徴とする請求項1又は2に記載のコミュニケーション管理装置。
  4.  前記指示支援部は、テキスト形式の前記連絡内容から複数のキーワードを抽出し、各キーワードの文字列ボタン情報を生成することを特徴とする請求項1から3のいずれか1つに記載のコミュニケーション管理装置。
  5.  手入力手段でテキスト形式の連絡内容が入力される第1端末と、前記連絡内容に基づく連絡先への連絡情報が入力される第2端末と、各連絡先のユーザが携帯し、前記連絡情報を音声出力する複数の第3端末と、がネットワークを介して接続するコンピュータによって実行されるプログラムであって、
     前記第1端末から受信したテキスト形式の前記連絡内容の一部又は全部を前記連絡情報を構成する文字列に組み込むための文字列ボタン情報を生成する第1機能と、
     前記文字列ボタン情報を前記第2端末に送信し、前記第2端末の連絡情報入力画面において表示された前記文字列ボタン情報に対する選択操作によって作成されたテキスト形式の前記連絡情報を受信する第2機能と、
     受信した前記連絡情報の合成音声データを生成する第3機能と、
     前記連絡情報の合成音声データを複数の各第3端末に同報配信する第4機能と、
     前記連絡内容、前記連絡情報、及び前記第3端末から受信した前記連絡情報に対するユーザの発話音声データを音声認識処理して得られる音声認識結果を、時系列にコミュニケーション履歴として蓄積するとともに、前記各端末において前記コミュニケーション履歴が同期して表示されるように配信制御を行う第5機能と、
     を前記コンピュータに実現させるためのプログラム。
  6.  ネットワークを介して接続される複数の端末間でコミュニケーションを行うコミュニケーション管理装置あって、
     複数の端末は、第1端末から複数の他の端末に対して連絡を行うものであり、
     第1端末に対して連絡されたテキスト形式の連絡内容を受信する第1制御部と、
     受信した前記連絡内容の一部又は全部の合成音声データを生成する音声合成部と、
     前記合成音声データを複数の他の端末に同報配信する第2制御部と、
     を有することを特徴とするコミュニケーション管理装置。
  7.  受信したテキスト形式の前記連絡内容の一部又は全部を複数の他の端末への前記連絡情報として組み込みための文字列ボタン情報を生成する指示支援部をさらに有し、
     前記第1制御部は、前記文字列ボタン情報を第1端末に送信し、第1端末からの前記文字列ボタン情報に対する選択操作によって作成されたテキスト形式の前記連絡情報を受信し、
     前記音声合成部は、第1端末から受信した前記連絡情報の合成音声データを生成する、ことを特徴とする請求項6に記載のコミュニケーション管理装置。
  8.  連絡先の複数の他の端末のユーザ名及び連絡情報を構成する定型文を含むプリセット情報が予め登録されており、
     前記指示支援部は、前記プリセット情報に基づいて、前記ユーザ名及び定型文を前記連絡情報を構成する文字列に組み込むためのプリセット文字列ボタン情報を生成し、
     前記第1制御部は、前記文字列ボタン情報及び前記プリセット文字列ボタン情報を第1端末に送信し、当該第1端末において各ボタン情報に対応するボタン選択操作によって作成されたテキスト形式の前記連絡情報を受信することを特徴とする請求項7に記載のコミュニケーション管理装置。
  9.  テキスト形式の前記連絡内容は、複数の異なる連絡内容を含み、
     前記指示支援部は、異なる複数の連絡内容毎の複数の前記文字列ボタン情報を生成することを特徴とする請求項7又は8に記載のコミュニケーション管理装置。
  10.  前記指示支援部は、テキスト形式の前記連絡内容から複数のキーワードを抽出し、各キーワードの文字列ボタン情報を生成することを特徴とする請求項7から9のいずれか1つに記載のコミュニケーション管理装置。
  11.  前記連絡に対する複数の他の端末からの応答を時系列にコミュニケーション履歴として蓄積するとともに、第1端末及び複数の他の端末において前記コミュニケーション履歴が同期して表示されるように配信制御を行う第3制御部、をさらに有することを特徴とする請求項6から10のいずれか1つに記載のコミュニケーション管理装置。
PCT/JP2020/020953 2019-05-31 2020-05-27 コミュニケーション管理装置 WO2020241701A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021522822A JP7332690B2 (ja) 2019-05-31 2020-05-27 コミュニケーション管理装置
CN202080028990.3A CN113728379A (zh) 2019-05-31 2020-05-27 交流管理装置
US17/437,674 US20220164758A1 (en) 2019-05-31 2020-05-27 Communication management apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-102543 2019-05-31
JP2019102543 2019-05-31

Publications (1)

Publication Number Publication Date
WO2020241701A1 true WO2020241701A1 (ja) 2020-12-03

Family

ID=73553808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020953 WO2020241701A1 (ja) 2019-05-31 2020-05-27 コミュニケーション管理装置

Country Status (4)

Country Link
US (1) US20220164758A1 (ja)
JP (1) JP7332690B2 (ja)
CN (1) CN113728379A (ja)
WO (1) WO2020241701A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196084A1 (ja) * 2021-03-18 2022-09-22 株式会社 東芝 コミュニケーションシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015710A (ja) * 2002-06-11 2004-01-15 Nippon Telegr & Teleph Corp <Ntt> 通信制御方法、通信制御装置、通信制御プログラム、及びそれを記録した記録媒体
JP2015027369A (ja) * 2013-07-30 2015-02-12 グリー株式会社 メッセージ通信プログラム、メッセージ通信方法及びメッセージ通信システム
JP2018077877A (ja) * 2013-08-07 2018-05-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通信管理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040000898A1 (en) * 2002-06-28 2004-01-01 Trace Technologies, Inc. Method and apparatus for identifying, locating and tracing wires in a multiple wire electrical system
FI119165B (fi) * 2006-12-04 2008-08-15 Tellabs Oy Menetelmä ja järjestelmä kellosignaalien tahdistamiseksi
JP5813912B2 (ja) * 2009-01-28 2015-11-17 任天堂株式会社 プログラム、情報処理装置、および情報処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015710A (ja) * 2002-06-11 2004-01-15 Nippon Telegr & Teleph Corp <Ntt> 通信制御方法、通信制御装置、通信制御プログラム、及びそれを記録した記録媒体
JP2015027369A (ja) * 2013-07-30 2015-02-12 グリー株式会社 メッセージ通信プログラム、メッセージ通信方法及びメッセージ通信システム
JP2018077877A (ja) * 2013-08-07 2018-05-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通信管理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196084A1 (ja) * 2021-03-18 2022-09-22 株式会社 東芝 コミュニケーションシステム

Also Published As

Publication number Publication date
US20220164758A1 (en) 2022-05-26
CN113728379A (zh) 2021-11-30
JPWO2020241701A1 (ja) 2020-12-03
JP7332690B2 (ja) 2023-08-23

Similar Documents

Publication Publication Date Title
CN101341482A (zh) 声音启动的网络操作
JP2002082893A (ja) チャット手段を有する端末装置、編集装置、チャットサーバ、および記録媒体
US20040010549A1 (en) Audio conferencing system with wireless conference control
JP6795668B1 (ja) 議事録作成システム
US11540093B2 (en) Method and apparatus for automatically identifying and annotating auditory signals from one or more parties
US9183563B2 (en) Electronic questionnaire
JP2006203548A (ja) 複数話者の音声信号を処理する音声信号処理装置およびプログラム
WO2020241701A1 (ja) コミュニケーション管理装置
CN113705943A (zh) 基于语音对讲功能的任务管理方法、系统与移动装置
JP7176188B2 (ja) 情報生成システム、情報生成方法、情報処理装置、プログラム
JP2013037512A (ja) ソーシャルネットワーキングサービスシステム、ソーシャルネットワーキングサービスサーバ及びソーシャルネットワーキングサービスプログラム
JP2003177776A (ja) 議事録記録システム
CN115004297A (zh) 交流管理装置及方法
JP2005011089A (ja) 対話装置
JP2008011272A (ja) 会議システム及び制御方法、並びにプログラム及び記憶媒体
JP6554517B2 (ja) サウンドを利用したソーシャルネットワークサービス提供装置及びその方法
CN116134803A (zh) 交流系统
WO2021172125A1 (ja) コミュニケーションシステム
KR20090108821A (ko) 음성인식 및 호 분배를 이용한 정보검색 서비스 시스템 및이를 이용한 정보검색 서비스 방법
WO2022024778A1 (ja) コミュニケーションシステム及び評価方法
WO2022196084A1 (ja) コミュニケーションシステム
JP2013118488A (ja) 音声データ利用システム
JP2009205640A (ja) 情報収集管理システム、方法、及び、プログラム
JP2018054926A (ja) 音声対話装置および音声対話方法
KR200201894Y1 (ko) 전화기를 이용한 정보 검색 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20813924

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021522822

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20813924

Country of ref document: EP

Kind code of ref document: A1