WO2018168998A1 - Bot制御管理プログラム、方法、装置、及びシステム - Google Patents

Bot制御管理プログラム、方法、装置、及びシステム Download PDF

Info

Publication number
WO2018168998A1
WO2018168998A1 PCT/JP2018/010218 JP2018010218W WO2018168998A1 WO 2018168998 A1 WO2018168998 A1 WO 2018168998A1 JP 2018010218 W JP2018010218 W JP 2018010218W WO 2018168998 A1 WO2018168998 A1 WO 2018168998A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
bot
message
user
displayed
Prior art date
Application number
PCT/JP2018/010218
Other languages
English (en)
French (fr)
Inventor
谷口 友彦
祥平 二木
秀之 垣内
徳大 松野
ミンボ バエ
貴大 山田
瑛実 佐藤
Original Assignee
Line株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line株式会社 filed Critical Line株式会社
Publication of WO2018168998A1 publication Critical patent/WO2018168998A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Definitions

  • the present invention relates to an apparatus or the like on which a computer program (BOT) for performing work or the like on behalf of a human being is executed, and more specifically to an apparatus, method, system, or the like for controlling and managing a BOT.
  • BOT computer program
  • Patent Document 1 a virtual online robot (BOT) or a security agent is provided (Patent Document 1).
  • Patent Document 1 can monitor online conversations and meets certain definable criteria that indicate that the content of the conversation is inappropriate or, in some cases, potentially harmful or dangerous.
  • a BOT also called “Guardian” is disclosed.
  • the guardian is configured to utilize natural language processing techniques to evaluate the context of the conversation over its span and / or evaluate conversations between individual users. By using natural language processing techniques, the guardian can provide notifications or warnings to individual users when it is determined that there is a problem with a specific conversation or part thereof.
  • Patent Document 2 a system for managing the use of BOT by computer network users is provided.
  • Patent Document 2 discloses a method of managing the use of a computer service by a computer user by causing the computer to execute the method.
  • the network device Receiving a request from an actual computer user associated with the computer and identifying a virtual user other than the one or more computer users, the information generating associated with the virtual user Using the information associated with the virtual user to send a communication from the network device to a computer service for the actual computer user that provided the request, Communication originated from the virtual user
  • the transmitting step which prevents the computer service from being associated with the actual computer user who provided the request with the communication, and in the network device,
  • a method comprising: receiving a communication for the virtual user originating from a computer service, wherein the communication is sent to the actual computer user who provided the request. Has been.
  • Patent Document 1 discloses a technique for determining or monitoring whether or not the content of online conversation monitored by the guardian (BOT) is appropriate. is not.
  • Patent Document 2 discloses a technique for managing the use of a public BOT by a private computer network user. However, the conversation itself is developed by actively supporting the conversation between users via the BOT. Not intended.
  • a BOT control management program includes a first user associated with a first information processing terminal and one or more second users associated with one or more second information processing terminals.
  • a program for assisting conversation in a participating talk room wherein the first information processing terminal displays a first object in response to a message displayed in the talk room, and the first object is selected.
  • a step of displaying a second object and a step of displaying a third object in response to selection of the second object are executed.
  • FIG. 1 is a diagram illustrating a configuration of a BOT control management system according to an embodiment of the present disclosure.
  • one or more servers server 110, server 120
  • one or more terminals terminal 151, terminal 152, terminal 153
  • the servers 110 and 120 provide a service that realizes transmission and reception of messages between the terminals 151 to 153 owned by the user via the network 199.
  • the number of terminals connected to the network 199 is not limited.
  • the number of servers is not limited (a server for expanding functions can be added as needed. Service may be provided by one server).
  • the network 199 plays a role of connecting one or more servers and one or more terminals. That is, the network 199 means a communication network that provides a connection path so that data can be transmitted and received after the terminals 151 to 153 are connected to the servers 110 to 120.
  • the network 199 may be a wired network or a wireless network.
  • the network 199 includes an ad hoc network, an intranet, an extranet, a virtual private network (VPN), a local area network (LAN), and a wireless LAN (WLAN). ), Wide area network (WAN), wireless WAN (wireless WAN), metropolitan area network (MAN), part of the Internet, public switched telephone network (PSTN) Part of mobile phone networks, ISDNs (integrated services digital networks), wireless LANs, LTE (long term evolution) CDMA (code division multiple access), Bluetooth (Bluetooth (registered trademark)), satellite communications, etc., or these It may include two or more thereof.
  • the network 199 is not limited to these.
  • the network 199 can also include one or more networks.
  • the terminal may be any terminal as long as it is an information processing terminal capable of realizing the functions described in each embodiment.
  • the terminals 151 to 153 are typically smartphones, and in addition, mobile phones (for example, feature phones), computers (for example, desktops, laptops, tablets, etc.), media computer platforms (for example, cables, satellite set-top boxes) Digital video recorders), handheld computer devices (eg, personal digital assistants (PDAs), email clients, etc.), wearable terminals (glass-type devices, watch-type devices, etc.), or other types of computers, or communication platforms.
  • the terminals 151 to 153 are not limited to these. Further, the terminals 151 to 153 may be expressed as information processing terminals.
  • the terminal 151 will be described as a representative, and hereinafter, the terminal 152 and the terminal 153 will be described as other terminals as necessary. .
  • the server 110 will be described as a representative.
  • the server 110 has a function of providing a predetermined service to the terminal 151 and the like.
  • the server 110 may be any device as long as it is an information processing device that can realize the functions described in each embodiment.
  • the server 110 is typically a server device, in addition to a computer (eg, desktop, laptop, tablet, etc.), media computer platform (eg, cable, satellite set-top box, digital video recorder), handheld computing device ( For example, PDA, e-mail client, etc.), or other types of computers or communication platforms.
  • the server 110 is not limited to these. Further, the server 110 may be expressed as an information processing apparatus.
  • HW Hardware
  • the terminal 151 includes a control device 1510 (CPU: central processing unit), a storage device 1515, a communication I / F 1516 (interface), an input / output device 1517, a display device 1518, a microphone 1519a, a speaker 1519b, and a camera 1519c. Prepare.
  • the components of the HW of the terminal 151 are connected to each other via, for example, the bus B2.
  • the communication I / F 1516 transmits and receives various data via the network 199.
  • the communication may be executed either by wire or wireless, and any communication protocol may be used as long as mutual communication can be executed.
  • the communication I / F 1516 has a function of executing communication with the server 110 via the network 199.
  • the communication I / F 1516 transmits various data to the server 110 in accordance with instructions from the control device 1510.
  • the communication I / F 1516 receives various data transmitted from the server 110 and transmits the data to the control device 1510.
  • the input / output device 1517 includes a device that inputs various operations to the terminal 151 and a device that outputs a processing result processed by the terminal 151.
  • the input device and the output device may be integrated, or the input device and the output device may be separated (in the latter case, as an example, the input device 1517a such as a touch panel input sensor).
  • an output device 1517b such as a touch panel output device or a vibration drive mechanism).
  • the input device is realized by any one or a combination of all types of devices that can receive input from the user and transmit information related to the input to the control device 1510.
  • the input device is typically realized by a touch panel or the like, detects contact by a pointing tool such as a user's finger or stylus and the contact position, and transmits the coordinates of the contact position to the control device 1510.
  • the input device may be realized by an input device other than the touch panel.
  • the input device includes, for example, hardware keys typified by a keyboard and the like, a pointing device such as a mouse, a camera (operation input via a moving image), and a microphone (operation input by sound).
  • the input device is not limited to these.
  • the output device is realized by any one or a combination of all types of devices that can output the processing result processed by the control device 1510.
  • the output device is typically realized by a touch panel or the like.
  • the output device may be realized by an output device other than the touch panel.
  • a speaker audio output
  • a lens for example, 3D (three-dimensions) output or hologram output
  • printer and the like can be included.
  • the output device is not limited to these.
  • the display device 1518 is realized by any one or a combination of all types of devices that can display according to display data written in a frame buffer (not shown).
  • the display device 1518 is typically realized by a monitor (for example, a liquid crystal display or OELD (organic electroluminescence display)).
  • the display device 1518 may be a head mounted display (HDM: Head Mounted Display).
  • the display device 1518 may be realized by a device that can display an image, text information, or the like in projection mapping, a hologram, or in the air (may be vacuum). Note that these display devices 1518 may be capable of displaying display data in 3D. However, in the present disclosure, the display device 1518 is not limited thereto.
  • the input / output device 1517 is a touch panel
  • the input / output device 1517 and the display device 1518 may be configured to have substantially the same size and shape, and may be arranged to face each other.
  • the control device 1510 has a physically structured circuit for executing functions realized by codes or instructions included in the program, and is realized by, for example, a data processing device built in hardware. .
  • the control device 1510 is typically a central processing unit (CPU), and in addition, a microprocessor, a processor core, a multiprocessor, an ASIC (application-specific integrated circuit), and an FPGA. (Field programmable gate array). However, in the present disclosure, the control device 1510 is not limited to these.
  • the storage device 1515 has a function of storing various programs and various data necessary for the terminal 151 to operate.
  • the storage device 1515 is realized by various storage media such as a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a random access memory (RAM), and a read only memory (ROM).
  • HDD hard disk drive
  • SSD solid state drive
  • RAM random access memory
  • ROM read only memory
  • the storage device 1515 is not limited to these.
  • the terminal 151 stores the program P in the storage device 1515 and executes the program P, whereby the control device 1510 executes processing as each unit included in the control device 1510. That is, the program P stored in the storage device 1515 causes the terminal 151 to realize each function executed by the control device 1510.
  • the microphone 1519a is used for inputting voice data.
  • the speaker 1519b is used for outputting audio data.
  • the camera 1519c is used for acquiring moving image data.
  • the server 110 includes a control device 1110 (CPU), a storage device 1105, an input / output device 1106, a display 1107, and a communication I / F 1108 (interface). Each component of the HW of the server 110 is connected to each other via a bus B1, for example.
  • the control device 1110 has a physically structured circuit for executing functions realized by codes or instructions included in the program, and is realized by, for example, a data processing device built in hardware. .
  • the control device 1110 is typically a central processing unit (CPU), and may be a microprocessor, a processor core, a multiprocessor, an ASIC, or an FPGA. However, in the present disclosure, the control device 1110 is not limited to these.
  • the storage device 1105 has a function of storing various programs and various data necessary for the server to operate.
  • the storage device 1105 is realized by various storage media such as an HDD, an SSD, and a flash memory. However, in the present disclosure, the storage device 1105 is not limited to these.
  • the input / output device 1106 is realized by a device that inputs various operations to the server 110.
  • the input / output device 1106 is realized by any one or a combination of all types of devices that can receive input from a user and transmit information related to the input to the control device 1110.
  • the input / output device 1106 is typically realized by a hardware key typified by a keyboard or the like, or a pointing device such as a mouse.
  • the input / output device 1106 may include, for example, a touch panel, a camera (operation input via a moving image), and a microphone (operation input by sound).
  • the input / output device 1106 is not limited thereto.
  • the display 1107 is typically realized by a monitor (for example, a liquid crystal display or OELD (organic electroluminescence display)).
  • the display 1107 may be a head mounted display (HDM) or the like. Note that these displays 1107 may be capable of displaying display data in 3D. However, in the present disclosure, the display 1107 is not limited to these.
  • a communication I / F 1108 transmits and receives various data via the network 199.
  • the communication may be executed either by wire or wireless, and any communication protocol may be used as long as mutual communication can be executed.
  • the communication I / F 1108 has a function of executing communication with the terminal 151 via the network 199.
  • Communication I / F 1108 transmits various data to terminal 151 in accordance with instructions from control device 1110.
  • the communication I / F 1108 receives various data transmitted from the terminal 151 and transmits the data to the control device 1110.
  • the server 110 stores the program P in the storage device 1105, and the control device 1110 executes processing as each unit included in the control device 1110 by executing the program P. That is, the program P stored in the storage device 1105 causes the server 110 to realize each function executed by the control device 1110.
  • control device 1510 of the terminal 151 and / or the control device 1110 of the server 110 is not only a CPU but also a logic circuit formed in an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)) or the like. Each processing may be realized by (hardware) or a dedicated circuit. These circuits may be realized by one or a plurality of integrated circuits, and a plurality of processes shown in the embodiments may be realized by a single integrated circuit.
  • An LSI may also be referred to as a VLSI, super LSI, ultra LSI, or the like depending on the degree of integration.
  • program P software program / computer program
  • the storage medium can store the program in “a tangible medium that is not temporary”.
  • the storage medium may be one or more semiconductor-based or other integrated circuits (ICs), such as field programmable gate arrays (FPGAs) or application specific ICs (ASICs), hard Disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid state drive (SSD), RAM drive, secure digital card or drive, any other suitable storage medium, or any suitable combination of two or more thereof.
  • ICs such as field programmable gate arrays (FPGAs) or application specific ICs (ASICs), hard Disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid state drive (SSD), RAM drive, secure digital card or drive, any other suitable storage medium, or any suitable combination of two or more thereof.
  • the server 110 and / or the terminal 151 can realize the functions of a plurality of functional units shown in each embodiment by, for example, reading the program P stored in the storage medium and executing the read program P.
  • the program P may be provided to the server # or the terminal # via any transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • the server 110 and / or the terminal 151 execute the program P downloaded via the Internet or the like, thereby realizing the functions of a plurality of functional units shown in each embodiment.
  • Each embodiment of the present disclosure may also be realized in the form of a data signal embedded in a carrier wave, in which the program P is embodied by electronic transmission.
  • At least a part of the processing in the server 100 and / or the terminal 151 may be realized by cloud computing configured by one or more computers.
  • the server 100 may be configured to perform at least part of the processing in the terminal 151. In this case, for example, at least a part of the processing of each functional unit of the control device 1510 of the terminal 151 may be performed by the server 100. It is good also as a structure which performs at least one part of the process in the server 100 by the terminal 151.
  • each functional unit of the control device 1110 of the server 100 may be performed by the terminal 151.
  • the configuration of determination is not essential, and it is natural that predetermined processing may be performed when the determination condition is satisfied, or predetermined processing may be performed when the determination condition is not satisfied.
  • the program of the present disclosure can be implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), or a markup language such as HTML5. .
  • a script language such as ActionScript or JavaScript (registered trademark)
  • an object-oriented programming language such as Objective-C or Java (registered trademark)
  • a markup language such as HTML5.
  • the present disclosure is not limited to these.
  • FIG. 2 shows a configuration example of a system or apparatus showing variations of the embodiment of the present invention.
  • the characteristic processing operation in the configuration shown in FIG. 3 (and FIG. 3) is not realized only by the cooperative operation with the server or the terminal via the network, but can also be realized on the terminal alone. Is a point.
  • the information processing system 200 includes, as its minimum configuration, an information processing server 210 and various information processing terminals used by the players (exemplarily shown in the figure, PCs 220 and 230, a mobile phone 240). , Portable information terminals or tablet terminals 250 to 252. Hereinafter, they are also collectively referred to as “terminals”), and between the server and various terminals, as shown in FIG. Or the like (wired lines 260, 270, 280, 290) so that they can communicate with each other. Further, the line may be wired or wireless, and in the case of wireless, the mobile phone 240 and the portable information terminal or tablet terminal 250 enter the Internet 290 wirelessly via a base station, a wireless router, etc. (not shown). Further, they are connected to the information processing server 210 via a line 280 so as to be able to communicate with each other.
  • a program or software necessary for implementing the present invention is normally installed or stored in an HDD or SSD in a storage unit of a PC or a portable information terminal.
  • a memory in the storage unit is used as necessary.
  • DSP digital signal processor
  • the hardware configuration of the information processing server 210 can basically adopt a PC.
  • the information processing server 210 is configured to parallelize a plurality of PCs (for example, several tens to several tens of thousands) in order to increase the hardware specifications as necessary. It is also possible to adopt a configuration suitable for processing large-scale data by operating in an automatic manner.
  • FIG. 3 shows a basic operation example in the system or apparatus according to the embodiment of the present invention exemplified in FIG. 1 or FIG. What is particularly desired to be shown here is that the present invention can be realized by a cooperative operation with a server or a terminal via a network, or on a single terminal.
  • “user terminals” correspond to the terminals 151 to 153 in FIG. 1 and the terminals 220, 230, 240, and 250 to 252 in FIG. 2, and “information processing servers” are the servers 110, 120, This corresponds to the information processing server 210 in FIG.
  • t1 to t10 indicate a time-series flow, and operations and processes described later are performed over time.
  • the operation or processing time (t1 etc.) illustrated in the embodiment is illustrated for easy understanding of the concept of the present invention, and the individual time series relationship illustrated in the embodiment of the present invention. It is not limited to.
  • the user downloads application software for operating his / her user terminal as the information processing terminal according to the present invention from the information processing server via the user terminal (step S301).
  • This application software is client software or application software for processing part or all of the program according to the present invention.
  • the downloaded application software is installed in the user terminal (step S302).
  • the user terminal uploads profile information as shown in the following table to the information processing server in addition to the user's own mail address as user registration as necessary (step S303) and manages the registration. (Step S304).
  • the above data items are stored as user data in a storage device on the information processing server (step S305).
  • the user player
  • the server can start providing services to the terminal.
  • step S306 the user who downloaded and installed the application on the user terminal activates the application software at time t4 (step S306). From time t4 to time t5, the user enjoys the service provided by the information processing terminal.
  • the user interrupts or terminates the application software according to the embodiment of the present invention.
  • the status information of the application is transferred to the information processing server (step S307), and the server receives this and updates the status information as the user information of the user (step S308) and saves it (step S307). S309). In FIG. 3, these processes are completed by time t6.
  • Step S304 is possible.
  • Step S305 and Steps S308 to S309 can be omitted, and if necessary information is stored in the memory on the terminal.
  • FIG. 3 from time t7 to time t10, an embodiment example is shown in which at least part of the application software according to an embodiment of the present invention is executed in the information processing server.
  • the user player
  • performs two typical user terminal operations such as a login operation and command transmission, and receives necessary data transmission from the information processing server or receives service provision.
  • step S311 when the user performs login processing to the server through his / her information processing terminal at time t7 (step S310), necessary authentication processing is appropriately performed in the information processing server (step S311).
  • step S312 data for the user to receive service provision is transmitted (step S312).
  • a top menu screen configured to be able to receive commands from the terminal, an application startup screen, and the like.
  • the user transmits some command via the information processing terminal (step S313).
  • This command may be a menu selection displayed on the menu screen, or may be a start command for starting an application if it is an application startup screen.
  • the server side receives this command and starts service processing (step S314).
  • step S315 a service corresponding to the request from the terminal is provided from the server (step S315).
  • a command can be transmitted from the terminal at any time after the time t10 (for example, a message transmission command or a menu selection command), and the server receives a command from the terminal each time. (For example, forwarding the received message to another terminal, analyzing the message and returning the result).
  • a user can also send a message from a user terminal to a specific partner or a specific number of partners (not shown in FIG. 3).
  • This message is relayed by the information processing server, transferred to a specific partner or a specific number of partners, and received at the other party.
  • the sent message can also be confirmed on its own terminal.
  • these message processes are realized by a functional configuration to be described later that is installed in a server or a terminal.
  • the terminal 151 is configured as a function realized by a control device 1510 and a program and data stored in the storage device 1515.
  • a talk participation unit 1511 and a message processing unit 1512 are included.
  • the talk participation unit 1511 has a function of performing processing for participation in a desired talk room. You can participate in the talk room on an individual basis as well as on a group basis.
  • the BOT server for example, the servers 110 and 120
  • the BOT server can participate in the talk room in the same manner as an individual user by providing the functions illustrated with reference to the terminal 151 (in this case, one user).
  • one account of instant messenger service is given to the BOT.
  • a new talk room can be generated.
  • the other participant terminals 2 participating in the same talk room and / or the BOT server (participating in the talk room) via the server 1 Message is sent to the BOT as a single user.
  • the message processing unit 1512 has a function of performing processing such as message generation in the talk room, transmission / reception, and display control of the transmitted / received message at the own terminal.
  • processing such as message generation in the talk room, transmission / reception, and display control of the transmitted / received message at the own terminal.
  • a received message is displayed on the left side and a transmission message is displayed on the right side with respect to the time axis from the top to the bottom.
  • the display processing unit 1513 displays the message data processed by the message processing 1512 on the display device 1518.
  • the display processing unit 1513 has a function of converting display data (for example, a character code) into pixel information (for example, a font or a pictograph) and writing the data to a frame buffer (not shown) of the display device 1518.
  • the server 110 has a talk room management unit 1111 and a message as functions realized by a control device 1110 and programs and data stored in the storage device 1105.
  • a processing unit 1112, a billing information management unit 1113, a billing processing unit 1114, a statistical processing unit 1115, and a BOT processing unit 1116 are included.
  • the talk room management unit 1111 has a function of managing talk room participants and the like.
  • the message processing unit 1112 receives a message transmitted in a specific talk room from the terminal 151, the other participant terminal (for example, the terminal 152, 153) as a destination and / or a BOT server (for example, Server 120) has a function of transmitting (transferring) the message.
  • the charging information management unit 1113 performs calculation processing and management for account charging of a user (including BOT), for example, according to provision of a message or the like (to be described later) to be charged.
  • billing processing for each user (including BOT) account is performed on the billing processing unit 1114.
  • the statistical processing unit 1115 performs statistical processing from various viewpoints based on the data processed by the billing information processing unit 1113 and / or the billing processing unit 1114, and stores and manages it.
  • the BOT processing unit 1116 performs processing for performing work, determination, advice, and the like on behalf of the user (human).
  • the present invention is not limited to these, but more specifically, a search unit 1116a for searching for appropriate data, and a language for processing a language (including a speech language) included in a transmission / reception message.
  • a processing unit 1116b, an AI processing unit 1116c that determines the meaning and value of the processed language and the like, and performs learning based on the success or failure of the determination result, an object that has been subjected to analysis processing or a transferred object
  • a processing module such as an image processing unit 1116d that performs a recognition process or the like is included.
  • the BOT server (as an example, the servers 110 and 120) can also exhibit the same functions as an individual user by providing the functions illustrated with reference to the terminal 151 (at this time, 1 A BOT as a user is given one account of an instant messenger service, similar to a human user). Then, the assistant BOT that the BOT server functions and the human user can establish a predetermined relationship with each other by, for example, forming a friend relationship (linking accounts) as in the case of human users. (The predetermined relationship is described and managed in a database or relationship table (not shown) as appropriate).
  • a user who participates in a talk room operated by a server or the like transmits / receives a message via a terminal or interacts with his / her assistant (BOT).
  • BOT his / her assistant
  • BOT her assistant
  • the server that provides the messaging service is a talk server (the server 110 in FIG. 1 corresponds to this).
  • a BOT server (such as the server 110 in FIG. 1 corresponds to this) that participates in the talk room as one user (one account) is introduced in the same manner as the user terminal.
  • FIG. 4 is a basic operation flow mainly shown from the viewpoint of one user.
  • step S401 in FIG. 4 when one user (a human user who is not a BOT) enters the talk room by starting an application via the user terminal or the like, the process proceeds to step S402, where the user is read from the talk server to the user terminal.
  • status information such as a talk list for operating the application and / or information such as a read message is read into a memory in the user terminal by reading from the storage device of the user terminal itself.
  • the talk list is a list of talk rooms operated by a plurality of talk servers. As an example, a talk room in which a user is a member enters the talk room according to a selection instruction or the like, and other member users. And a group talk. Group talks proceed by members exchanging messages (sending and receiving each other) via a messaging service provided by a talk server.
  • the loop from step S403 to step S411 is a basic operation loop, and message transmission / reception with other members can be continued unless the application is terminated (that is, exiting the talk room) in step S411. it can.
  • an assistant BOT an advisor program having a so-called AI function, which can be allowed to participate in a talk room as a user having one account
  • the assistant BOT can give advice to the user, or at least a part of a received message from another user can be transferred to a talk server or the like.
  • the relationship between the user and the assistant BOT is the same as the relationship between human users.
  • step S403 when a message is transmitted from the user by an operation (not shown) (Yes), the process proceeds to step S404, and a message transmission process to the talk server is performed (in the case of No in step S403, the process proceeds to step S405).
  • steps S404 examples of basic operations processed according to the content of the message transmitted in step S404 are as follows (1) to (3).
  • the talk server transmits (forwards) the received message to other members in the talk room and relates to the received message (that is, received).
  • One or more BOT candidates (which can respond appropriately to the message) are extracted and returned to the user who sent the message.
  • these BOT candidates include a BOT_ID associated with the BOT, a character image representing each BOT, and / or a message representing that the BOT is uttered.
  • BOT_ID (described above) is transmitted from the user terminal to the talk server
  • the talk server makes a request to the corresponding BOT (BOT server) based on the designated BOT_ID.
  • BOT server a request for a content candidate that is currently prepared by the BOT server from the talk server (that can be provided along the flow of conversation in the talk room at that time) is made to the BOT server. Is called.
  • the BOT_ID may be transmitted together with the user's message.
  • step S405 if a message or the like is received for the user (Yes), the process proceeds to step S406, and whether the assistant (or the talk group in which the user is participating) has an assistant BOT (that is, is linked). In the case of Yes, the process proceeds to step S407a, and a part or all of the message (received in step S405) is selected. Then, the process proceeds to step S407b, transferred to the talk server via the assistant BOT, and proceeds to step S408 (if No in step S405, the process proceeds directly to step S408). In steps S407a to S407b, how much of the received messages are transferred to the talk server via the assistant BOT is determined by the permission setting by the user.
  • the transfer timing is as follows: (1) every time a message is received, at least a part of the message is transferred to the talk server; (2) every time a received message is displayed on the terminal, at least a part of the message is transferred. Variations such as forwarding to a talk server can be applied.
  • a message that is not displayed on the terminal among the received messages is transferred to the talk server. It can also be controlled.
  • step S408 the received message or the like is displayed on the user terminal.
  • step S409 if an object display (described later) is received by the user (Yes), the process proceeds to step S410, and the received object is displayed as appropriate on the terminal (described later). Then, the process proceeds to step S411 (in the case of No in step S409, the process proceeds directly to step S411).
  • step S411 when an instruction to leave the talk room is given by a user operation (not shown), this flow ends (step S412).
  • FIG. 5 is a basic operation flow mainly shown from the viewpoint of the talk server.
  • the process proceeds to step S502, and various status information for operating the talk room is read into the memory in the server.
  • the loop from step S503 to step S511 is a basic operation loop, and the talk server does not include a message or the like (typically, a message including BOT_ID unless the processing is terminated in step S511. There is also a message, and there may be a message with only BOT_ID) or content (including the content itself or a designation message for designating the content) is awaited.
  • a message or the like typically, a message including BOT_ID unless the processing is terminated in step S511.
  • step S503 it is determined whether or not a message has been received. If No, the process proceeds to step S509. If Yes, the process further proceeds to step S504, where it is determined whether or not the received message includes BOT_ID. To be judged. In the case of No in step S504, since a message or the like has been received from another user, the process proceeds to step S507 to extract or specify a BOT (which may be a plurality of cases) that can respond in accordance with the received message content. Processing is performed. In one embodiment, this BOT extraction or identification process is realized by an inquiry and response from the talk server to the BOT server (s). In step S508, the BOT candidates extracted or specified in the previous step are transmitted to other users in the talk group, and the process proceeds to step SS509.
  • BOT which may be a plurality of cases
  • step S504 since the received message is typically a designation for a BOT candidate (already presented), the process proceeds to step S505, and content is designated for the designated specific BOT (server). Or send a content candidate request.
  • step S506 when a content candidate is transmitted from a specific BOT (server), the content candidate received in step S506 is transmitted to the user terminal of the message transmission source, and via this user terminal (or this user) The above-mentioned content candidates are transmitted to other users' terminals (without going through a terminal), thereby realizing real-time sharing of the contents. Then, the process proceeds to step S509.
  • step S509 it is determined whether or not the content itself or a designated message for the content has been received. If Yes, the process proceeds to step S510, and the content is transmitted to other users in the group (if No in step S509). Proceed to step S511). At this time, if the received message is a specified message to the content (for example, content information that can be obtained by specifying the URL), the content is acquired by the talk server as necessary, and this is transferred to other groups in the group. Send to user. Then, the process proceeds to step S511.
  • a specified message to the content for example, content information that can be obtained by specifying the URL
  • step S511 it is determined whether or not to end the operation as the talk server.
  • the process proceeds to step S512, and the present flow is ended.
  • the process returns to step S503.
  • Second Embodiment In the second embodiment, exchange of messages and the like between a plurality of user terminals (terminal 1 and terminal 2 as an example), a talk server, and a BOT server will be described as an operation scene of the entire system.
  • a description will be given with reference to FIG. A part or all of the contents described in the second embodiment can be applied to other embodiments except for the case where the features are mutually exclusive.
  • the operation or processing time (t1 etc.) exemplified in the embodiment is exemplified for easy understanding of the concept of the present invention, and the individual time series relationship exemplified in the embodiment of the present invention. (Hereinafter, the same applies to the embodiment that explicitly illustrates the time).
  • the user 1 creates a message at the terminal 1 (601) at time t0 and transmits it to the talk server 603. From time t1 to t2, the talk server 603 analyzes the received message and performs processing for specifying a BOT that can handle this message.
  • the BOT specifying process is realized by an inquiry process to a plurality of BOT servers that can make an inquiry from the talk server.
  • terminal 1 (601) is sent from talk server 603 to terminal 2 (602) of another user (typically, another user participating in the same talk group as the user of terminal 1).
  • the message received from is forwarded.
  • the terminal 2 (604) receives the message from the terminal 1 (601) transferred from the talk server 603, and enters the talk room of the terminal 2 by being notified of the reception, for example. Check the received message. At this time, it is possible to determine a message to be transferred to the talk server among the received messages from the terminal 1 (601) (in one embodiment of the present invention, the terminal 2 (604) is connected to the terminal 1 (601) by this determination process. ) Can be processed as if the consent to receive the message including the advice message from the assistant BOT associated with the terminal 1 (601) is obtained. At time t3, the message determined to be transferred is now transmitted (transferred) from the terminal 2 (604) to the talk server 603.
  • the talk server 603 finishes analyzing the message received from the terminal 1 (601) at time t0, and transmits BOT candidate data corresponding to the received message to the terminal 1 (601).
  • the candidate data of this BOT is exemplarily discarded by a user operation described later with reference to FIG. 7A). Note that the BOT candidate transmission timing from the talk server 603 to the terminal 1 (601) at the time t2 and the message transmission timing from the terminal 2 (604) to the talk server 603 at the time t3 are interchanged depending on the implementation status. There is.
  • the talk server 603 comprehensively analyzes messages received from the terminal 1 (601) and the terminal 2 (604) so far, and identifies BOT candidates that can handle these messages. Processing is done.
  • the BOT candidate specified by the talk server 603 is transmitted to the terminal 2 (604).
  • a BOT associated with the terminal 1 (601) in a friendship relationship
  • the BOT directly associated with the terminal 2 (604) having a direct friendship
  • the terminal 2 (604) can be displayed separately (in one embodiment, the former BOT is displayed as a normal object). And the latter BOT is subjected to mosaic processing and displayed).
  • the BOT candidate specified by the talk server 603 is transmitted to the terminal 1 (601) (in the figure, the terminal is the second flicker UI for the terminal 1 (601)).
  • these BOT candidates are displayed as a flickering UI.
  • a BOT associated with the terminal 2 (604) (having a friendship) can be included in the BOT candidates by the consent process at time t3.
  • the BOT directly associated with the terminal 1 (601) (having a direct friend relationship) and the terminal 1 (601)
  • the BOT that is not linked to the terminal 2 (604) but directly linked can be displayed separately (as one embodiment, the former BOT is displayed as a normal object). And the latter BOT is subjected to mosaic processing and displayed).
  • timing of the flicker UI for terminal 2 (604) at time t4 and the timing of the flicker UI for terminal 1 (601) at time t5 may be interchanged depending on the implementation status.
  • one of the BOT candidates presented on the terminal 1 (601) via the flicker UI is selected (that is, the user of the terminal 1 requests further information provision from the selected BOT).
  • the selected BOT identifier (BOT_ID) is transmitted from the terminal 1 (601) to the talk server 603. It should be noted that the transmission of BOT_ID can be included in the message and transmitted.
  • the talk server identifies the BOT from the received BOT_ID, and requests a message from the identified BOT (server) (time t7).
  • the request message includes further content and related content, or a request for these candidates (content candidates).
  • content candidates are returned from the BOT server 602 to the talk server 603, and at time t9, these content candidates are transferred from the talk server 603 to the terminal 1 (601).
  • the talk server 603 With the transfer of the content candidate from the talk server 603 to the terminal 1 (601) at time t9, or instead of the transfer of the content candidate from the talk server 603 to the terminal 1 (601), the talk server 603 It is also possible to broadcast content candidates to members in the talk room and share the content candidate information substantially in real time (this is an event at time t10 in FIG. 6).
  • one of the content candidates is selected at the terminal 1 (601) and transmitted to the talk server 603. Thereafter, the content is transmitted to the terminal 2 (604) at time t12 with a slight time difference.
  • the above-described content is shared on the terminal 1 (601) and the terminal 2 (604) (for example, when the shared content is a moving image content, substantial real-time playback is performed on both terminals. Made).
  • the content candidate request message is transmitted from the talk server 603 to the BOT server 602 at time t14, the content candidate is returned from the BOT server 602 to the talk server 603 at time t15, and transferred to the terminal 2 (604) at time t16. .
  • the talk server 603 With the transfer of the content candidate from the talk server 603 to the terminal 2 (604) at time t16, or instead of the transfer of the content candidate from the talk server 603 to the terminal 2 (604), the talk server 603 It is also possible to broadcast content candidates to members in the talk room and share the content candidate information substantially in real time (this is an event at time t17 in FIG. 6).
  • one of the content candidates is selected at the terminal 2 (604) and transmitted to the talk server 603. Thereafter, this content is transmitted to the terminal 1 (601) at time t19 with a slight time difference.
  • the above-described content is shared on the terminal 1 (601) and the terminal 2 (604) (for example, when the shared content is a moving image content, substantial real-time playback is performed on both terminals. Made).
  • the user 700 enters the user talk room on the display screen of the terminal 700 (the casing and the like are not shown) to exchange messages with other users in the talk group.
  • the state of doing is shown.
  • the display screen of the terminal 700 is roughly divided into a terminal status information display area 701, a messaging service providing area (hereinafter referred to as "talk room") 702, and a transmission message input and transmission area 703 from the terminal 700. ing.
  • FIG. 7A on the talk room 702, a message 7021a “Ginza” transmitted from another user at time 14:00 is displayed. Further, an assistant BOT 7021b associated with the user is displayed in the vicinity of the message 7021a. In one embodiment of the present invention, the BOT 7021b can be displayed so as to be superimposed on at least a part of the message 7021a (the same applies hereinafter).
  • BOT7021b appeared as a BOT capable of responding to the word “Ginza” (broken line portion) in the message 7021a and providing information related thereto. If the user using the terminal 700 wants to extract related information from the BOT 7021b, further information can be provided by an operation (not shown) (for example, clicking or tapping the BOT 7021b).
  • the user using the terminal 700 does not need information from the BOT 7021b, he / she wants to leave the area 702.
  • the user can leave the BOT 7021b by flicking or swiping the screen outside (edge direction) with his / her hand or finger 7021c (the BOT 7021b disappears from the screen).
  • this relationship when there is a relationship between the user using the terminal 700 and the BOT 7021b (direct or indirect friendship, etc.) along with the retreat to the BOT7021b described above, this relationship is It can also be controlled to cancel.
  • the relationship flag between the user using the terminal 700 and the BOT 7021b is reset from a friend relationship table (not shown).
  • the user using the terminal 700 transmits a message 7022a at 14:30.
  • BOT7022b (may be the same as or different from BOT7021b) is displayed in the vicinity of the message 7022a in response to the word “Roppongi” in the broken line in the message 7022a.
  • the BOT 7022b is waiting for an instruction from the user on the assumption that the related information of the keyword “Roppongi” in the message 7022a can be provided.
  • the user using the terminal 700 desires to receive further information regarding “Roppongi” from the BOT 7022b, and as an example, clicks or taps the position 7022c indicating the BOT 7022b with his / her hand or finger. .
  • option buttons 7023a to 7023c that are themes related to “Roppongi” are displayed in the vicinity of BOT 7022b. That is, the button 7023a is a selection button for obtaining further information about “rice”, the button 7023b is a selection button for obtaining further information about “sake”, and the button 7023c is for obtaining further information about “night”. This is a selection button.
  • the user using the terminal 700 presses the option button 7023c with his / her hand or finger 7021d.
  • facilities or store candidates 7024a to 7024c with the theme of “night” are displayed.
  • the user is interested in 7024b and clicks or taps position 7024d with his / her hand or finger.
  • 7025a is transmitted as a message to other members in the talk group, and the other members can know the content 7025b by receiving the message.
  • each member can obtain detailed information of the facility or the store by tapping the content 7025b.
  • FIG. 7B exemplarily illustrates how other users look on their own terminal 710 as the terminal 700 described with reference to FIG. 7A is used.
  • FIG. 7B a message 711a (corresponding to 7021a) and a message 712a (corresponding to 7022a) of another user are shown on the left side of the talk room of the terminal 710 (the casing and the like are not shown), and the vicinity On the lower side, assistant BOTs 712b, 712c, and 712d are displayed in response to the keyword “Roppongi” in these messages.
  • Each BOT has a different personality (BOT 712d can be associated with BOT 7021b and / or 7022b).
  • the time associated with the talk room is 1 for the message having the newest time.
  • the above BOT can be displayed.
  • Order when multiple BOTs appear Further, in the case where a group of BOTs appear in the vicinity of a specific message in response to the same or similar keywords as in BOT 712b, 712c, and 712d, in one embodiment, in the order extracted or specified in the talk server ( Time series) or in order of the degree of association with the keyword.
  • the BOT 7022b can be associated with the BOT 712d
  • the option buttons 7023a to 7023c can be associated with the option buttons 7131a to 7131c
  • the content candidates 7024a to 7024c can be associated with the content candidates 7132a to 7132c, respectively.
  • a message 714a including the content 714b displayed by being selected on the other user's terminal (for example, the terminal 700) is displayed at the lower left of the talk room.
  • the transmitted message 7025a can be associated with the received message 714a and the transmitted content 7025b can be associated with the received content 714b.
  • FIG. 7C shows another operation example and display example associated with operation on the terminal 720 and the like.
  • a message 7211 and a message 7212a of other users are displayed on the left side of the talk room of the terminal 720 (the casing and the like are not shown), and a plurality of BOTs are displayed in response to these message groups 721. It is displayed in the vicinity.
  • the BOTs 7212b and 7212c are also involved in the speech of the user using the terminal 720 (message on the right side of the talk room) (described later).
  • a characteristic point here is that the BOT 7212c (and BOT 722b) is semi-transparently processed on the talk room of the terminal 720 as shown in the figure. That is, these BOTs are not directly associated with the user using the terminal 720.
  • the BOT 7212c (and BOT 722b) is directly associated with another user who has a friendship with the user using the terminal 720 (for example, a user using the terminal 700). is there. Even in this case, the user using the terminal 720 is not directly associated with the user (that is, indirectly associated with the friend user) from BOT7212c (and BOT722b). Information can be received (described later).
  • BOT722b and 722c are displayed in response to a part of the message 722a ("DANCE" in the figure), but the BOT722b is directly linked to itself. Since this is not done, a translucent process has been performed (however, as described above, advice can also be obtained from this BOT 722b).
  • a user using the terminal 720 taps the BOT 722c at the position 722d and requests provision of related information regarding the dance.
  • the user using the terminal 720 transmits the message 723, and transmits the message 724 after a while (as shown in the drawing, for example, about 30 minutes).
  • the BOT of the same character as the BOT 722c is displayed in the vicinity of the message 724 (the lower left corner of the message in the figure), but as shown in the drawing, the appearance is slightly different from the BOT 722c displayed about 30 minutes ago. (As an example, it seems busy.)
  • the BOT displayed in this way can be given a facial expression to express that a little time is required for information collection or the degree of the time.
  • the user using the terminal 720 transmits the message 725a without waiting for advice information from the BOT 722c.
  • BOT 725b is displayed in the lower left corner of the message 725a (for example, this BOT is the same as BOT 722b and not directly linked to itself), and the user taps BOT 725b with his / her hand or finger 725c. And ask for advice.
  • FIG. 7D shows the terminal 730 (this terminal may be the same as or different from the terminal 720, but may be different from the operation accompanying the operation on the terminal 720 described with reference to FIG. 7C.
  • 720 is the same as 720) and an operation example and a display example accompanying the above operation. That is, the messages 731, 732, 733 a, and 735 correspond to the messages 7211, 7212 a, 722 a, and 724 in FIG. 7C, respectively.
  • the talk room area 734 is an overlay display, and is displayed in response to the BOT 722c tap (DANCE related information request) in FIG. 7C.
  • buttons 7341a, 7341b, and 7341c related to DANCE are displayed. Further, when the user using the terminal 730 presses the button 7341a (for example, taps the position 7341d), it relates to the dance video. Content candidates 7342a, 7342b, and 7342c are displayed.
  • the user using the terminal 730 selects the content candidate 7342b by tapping the position 7342d and displays the content 736 in a reproducible state in the lower right corner of the talk room.
  • FIG. 7E is an example of a screen on the terminal 720 after a series of operations described with reference to FIGS. 7C and 7D (this screen is described as a display example on the terminal 740).
  • the message 741 displayed in the talk room is the message 7211, 731
  • the message 742 is the message 7212a, 732
  • the message 743 is the message 722a, 733a
  • the message 744 is the message 723 (corresponding to FIG. 7D).
  • Message 745 corresponds to messages 724 and 735
  • message 746 corresponds to message 725a (the corresponding message is hidden in the overlay in FIG. 7D)
  • content 747 corresponds to content 736.
  • the message group shown in FIG. 7E also serves as a history of exchanges so far, and the BOT displayed in each message corner remains displayed in the vicinity of the corresponding message, but the present invention is not limited to these. BOTs that have been displayed for a certain period of time after being displayed are automatically deleted, or BOTs that have been displayed for a certain period of time have been displayed for BOTs that have received a request from the user once It can be left as it is or various variations can be adopted.
  • ⁇ First Modification> 8A (A) to 8 (C) illustrate variations in how to display the assistant BOT as a character.
  • the shields 801a, 801b, and 801c in the figure may be physical shields such as corners on the screen, or may be software shields such as messages and display objects on the screen.
  • the shields 801a, 801b, and 801c in the figure may be physical shields such as corners on the screen, or may be software shields such as messages and display objects on the screen.
  • the BOT 810a shown in FIG. 8A (A) is a character object having a chick as an example, and only the face of the shield 801a is looked about half. That is, in FIG. 9A, control is performed so that only a part of the object image representing the BOT 810a is touched by the user.
  • the BOT 810b (which is the same character object as the BOT 810a) shown in FIG. 8A (B) has almost all of its face removed from the shield 801b. That is, in FIG. A (B), a part of the object image representing BOT 810a (but more than that in FIG. 8A (A)) is controlled so as to touch the user's eyes.
  • the BOT 810c shown in FIG. 8A (C) (which is the same character object as the BOTs 810a and 810b) is all removed from the shielding object 801c. That is, in FIG. 3A (C), the entire object image representing the BOT 810a is controlled so as to touch the user's eyes.
  • the following technical significance can be given as an example depending on how much of the object image representing the BOT is to be touched by the user (object display ratio).
  • the quality of information that can be provided from the BOT and the object expression ratio are associated with a proportional relationship, or the amount of information that can be provided and the object expression ratio are associated with a proportional relationship. it can.
  • the above display mode can be applied in order to express a guideline for the time from the request for information provision to the BOT until the reply.
  • the information provision time and the object display ratio are inversely related (that is, when the object display ratio is 100%, it is possible to respond quickly and indicate that the BOT itself is present).
  • the object display ratio is 20%, it is expected that it will take time to reply, and it shows that BOT is somewhat unconfident as BOT). This time can be reflected by calculating the load on the server.
  • FIGS. 8B (A) to 8 (C) illustrate variations in how to display the assistant BOT as a message box in the same manner as a human user.
  • Shields 802a, 802b, and 802c in the figure may be physical shields such as corners on the screen, or may be software shields such as messages and display objects on the screen.
  • the message box 820c shown in FIG. 8B (C) is controlled so that the entire message box 820c can be seen from the shield 802c.
  • the third modification illustrated with reference to FIG. 8C is still another variation of the first to second modifications.
  • the quality of information that can be provided from the BOT and the size of the message object can be associated with a proportional relationship, or the amount of information that can be provided and the size of the message object can be associated with a proportional relationship.
  • the above display mode can also be applied to express a guideline for the time from requesting information provision to BOT until reply.
  • FIG. 8D (A) to (C) illustrate variations of how to display the assistant BOT as a message box in the same manner as a human user.
  • the messages 840a, 840b, and 840c in the figure are illustratively different in the darkness of the lines.
  • various technical significances can be given to the line density, background color, etc. of the message object (as described with reference to the above table as an example).
  • the fifth modified example illustrated with reference to FIG. 9 mainly shows a variation in the case where a plurality of assistant BOTs specifically described with reference to FIGS. 7B to 7E are displayed in the vicinity of a specific message or the like. Especially, the variation in the case of changing the display mode depending on the relationship between the user and the BOT is shown.
  • the assistant BOTs 901a, 902a, and 903a shown in FIG. 9A are displayed side by side in the vicinity of a specific message, for example, BOT712b, 712c, and 712d.
  • the BOTs 901a, 902a, and 903a are directly associated with the terminal user displaying them. In this case, as shown in the figure, display control is performed so that no distinction is made in the way of displaying the assistant BOTs 901a, 902a, and 903a (display mode).
  • the BOTs 901b, 902b, and 903b shown in FIG. 9B the BOTs 901b and 902b are directly associated with the terminal user that displays them, but the BOT 903b is indirect. It is assumed that the relationship (for example, BOT 903b is directly associated with another user in the talk room). In this case, as shown in the figure, the assistant BOTs 901b, 902b, and 903b are displayed in different ways (display modes), and the BOT 903b is controlled to be translucent.
  • the BOT 901c is directly associated with the terminal user that displays them, but the BOTs 902c and 903c have an indirect relationship. It shall remain at Also in this case, as shown in the figure, the assistant BOTs 901c, 902c, and 903c are displayed in different ways (display modes), and the BOTs 902c and 903c are controlled to be translucent.
  • the assistant BOTs 901d, 902d, and 903d shown in FIG. 9D correspond to the BOTs 901c, 902c, and 903c, respectively, and show further variations in how to distinguish display modes. That is, display control is performed so that the BOTs 902c and 903c are translucent, but the display control is performed on the BOTs 902d and 903d so that mosaic processing is performed based on the same purpose.
  • the sixth modified example illustrated with reference to FIG. 10 displays the busyness of the assistant BOT 722c specifically described with reference to FIG. 7C (longer response time based on the amount of processing, etc.). The variation of the case is shown.
  • the BOT shown in FIG. 10A is a display mode when a normal response time can be expected.
  • BOT shown in FIG. 10 (B) is a display mode when a longer response time is expected than in the case shown in FIG. 10 (A).
  • the BOT shown in FIG. 10B is a display mode in the case where a longer response time is expected than in the case shown in FIG.
  • the BOT shown in FIG. 10D represents a state where the remote operation is performed as shown in the figure.
  • the BOT is not manually responding by a computer program but is manually supported by a human (human). It is an example of a display mode for showing the user that there is.
  • the fourth embodiment is an embodiment in which charging processing is introduced in the first to third embodiments.
  • the basic concept will be described with reference to FIGS.
  • a part or all of the contents described in the fourth embodiment can be applied to other embodiments except when the features are mutually exclusive.
  • the typical timing of charging based on the above embodiments is as follows.
  • (B1) the assistant BOT is presented or provided (B2) a plurality of rough themes for the assistant BOT When requesting / providing selectable information or menu, etc.
  • (B3) When requesting / providing content candidates along one or more themes according to the theme, (B4) Requesting one content among the content candidates / When provided, etc.
  • the assistant BOT as exemplified in (B1) is the first object or first information
  • the selectable information or menu as exemplified in (B2) or the content candidate as exemplified in (B3) is the second object.
  • the provided content as exemplified in the second information (B4) is referred to as the third object or the second information.
  • FIG. 11 shows a basic flow of billing processing in the system or the like according to one embodiment of the present invention.
  • step S1101 of FIG. 11 it is assumed that an application (typically, a messaging service) has already been activated.
  • step S1102 the first information presentation (first object presentation) by the assistant BOT is performed at various timings shown in the above-described embodiment, and the process proceeds to step S103.
  • a weight count process is performed for charging due to the first information being presented by BOT in the previous step.
  • the point of processing here is that the billing process can be performed each time the first information is presented, but in some cases, as an example, there is a process to perform a stepwise billing process according to the number of times the first information is presented. Is that it is done. For example, in step S1103, the number of times the first information is presented by the BOT based on the previous step is counted, and when a certain period (for example, one week or one month) has passed, or a certain number of times (for example, 1000 or 10,000). Billing process can be performed when the count is counted. It should be noted that a known technique can be appropriately applied to the billing process itself.
  • step S1104 it is determined whether there is a second information presentation (second object presentation) request to the assistant BOT by the user via various scenes shown in the above-described embodiment. If No, the process skips to step S1110. However, the double of Yes advances to step S1105, and the 2nd information presentation by BOT is made with respect to a user terminal.
  • second information presentation second object presentation
  • step S1106 a weight count process is performed for charging due to the second information presented by the user in the previous step.
  • the point of processing here is that the billing process can be performed each time the second information is presented, but in some cases, as an example, there is a process to perform a stepwise billing process according to the number of times the second information is presented. Is that it is done.
  • step S1107 it is determined whether or not there is a third information presentation (third object presentation) request to the assistant BOT by the user through various scenes shown in the above-described embodiment. If No, the process skips to step S1110. However, the double of Yes advances to step S1108, and the 3rd information presentation by BOT is made with respect to a user terminal.
  • third information presentation third object presentation
  • step S1109 a weight count process is performed for charging due to the third information presented by the user in the previous step.
  • the point of processing here is that the billing process can be performed each time the third information is presented, but in some cases, as an example, there is a process for performing a stepwise billing process according to the number of times the third information is presented. Is that it is done.
  • Step S1110 is the end of this flow, but as long as the application is operating, the processing from step S1102 to step S1109 described above is repeated.
  • the seventh modified example described with reference to FIG. 12 is an extension of the conventional counting process in steps S1103, S1106, and S1109 in FIG. 11, and charging of the same content or the like by a plurality of members in the talk group is performed. Adjustment logic is implemented.
  • step S1202 When the pay-as-you-go process for providing information or the like is started in step S1201 in FIG. 12, the process proceeds to step S1202, the information presentation destination (user) account is specified, and the process further proceeds to step S1203. Identified.
  • step S1202 may be omitted.
  • step S1204 it is determined whether the information related to information provision, which is the basis for starting this flow, is information already requested or provided in the account group specified in the previous step. If No in step S1204, the process skips to step S1206, but if Yes, the process proceeds to step S1205, and the duplication flag is turned on (the duplication flag has been initialized at an appropriate timing not shown).
  • step S1206 it is determined whether or not the duplication flag is on. If Yes, the process skips to step S1208, but if No, the process proceeds to step S1207, and the metering count process is performed.
  • a specific example of the metering count processing is as described with reference to FIG.
  • Step S1208 is the end of this flow. However, as long as the application is operating, the above-described processing from step S1202 to step S1207 is performed in the extended metering count processing.
  • the operation flow of FIG. 12 means that, as an example, the assistant BOT object is displayed in response to a message, and the assistant BOT is selected by the first user in the talk group, and then the assistant BOT is selected in the talk group.
  • the billing information for the BOT provider according to the selection by the second user is not generated (control to avoid duplicate billing within the group).
  • the assistant BOT is displayed in response to a certain message and selected by the first user in the talk group.
  • the billing to the BOT provider by the selection by the second user is the billing by the selection by the first user. Is to be performed separately (control that places importance on charging for each account).
  • the billing information for the BOT providing user's BOT is viewed.
  • a browsing screen is displayed, a terminal status information display area 1301, a BOT information display area 1302, a charging fee confirmation / change area 1303 for presenting first information, etc., and a charging fee confirmation / change area for presenting second information, etc. 1304, a charging fee confirmation / change area 1305 for presenting third information, etc., and a payment means guidance area 1306.
  • a target BOT name and a BOT character image are displayed so that the BOT can be identified at a glance.
  • the number of points per view is displayed as the billing charge unit price by the first information presentation.
  • the point is a virtual currency value when accumulating the number of views (presentation number).
  • the screen changes to another screen (not shown) as an example, and the charging conditions (by default, the charging conditions at the time of application) can be changed as appropriate.
  • the charging fee confirmation / change area 1304 by the second information presentation and the charging fee confirmation / change area 1305 by the third information presentation have the same configuration as the area 1303.
  • the setting change buttons 1304b and 1305c are displayed.
  • the button is pressed, the screen transitions to another screen (not shown) as an example, and the billing conditions for presenting each information (by default, the billing conditions at the time of application) can be changed as appropriate.
  • the user can easily recognize that he / she has been charged (or that a point for charging processing has been added).
  • the billing information for the BOT of the BOT provider user is viewed.
  • the browsing screen is displayed. More specifically, a terminal status information display area 1501, a BOT information display area 1502, billing information (subtotal column) 1503, the same (tax) 1504, and the same (total) 1505 at the present time are displayed.
  • Breakdown column for information presentation including a detailed display button 1506a
  • Breakdown column for second information presentation including a detailed display button 1506b
  • Breakdown column for third information presentation including a detailed display button 1506c
  • a target BOT name and a BOT character image are displayed so that the BOT can be identified at a glance.
  • the current billing information (subtotal field) 1503 for example, the current billing amount (displayed by tax) of the billing month is displayed.
  • the current billing information (tax) 1504 displays the billing amount (tax display) at the present time of the billing month as an example.
  • the current billing information (total) 1505 for example, the current total billed amount (displayed with tax) of the billing month is displayed.
  • the breakdown column by the first information presentation shows that the first information presentation has occurred 8089 times at the present time in the billing month.
  • the detail display button 1506a when the detail display button 1506a is pressed, it is possible to view a statistical breakdown by transitioning to another screen (not shown) as an example.
  • the breakdown column by the second information presentation indicates that the second information presentation has occurred 1607 times at the present time in the billing month.
  • the detailed display button 1506b is pressed, it is possible to transition to another screen (not shown) as an example and browse the statistical breakdown.
  • the breakdown column by the third information presentation shows that the third information presentation has occurred 1008 times at the present time in the billing month.
  • the detail display button 1506c is pressed, it is possible to view a statistical breakdown by transitioning to another screen (not shown) as an example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

ユーザ同士の会話を積極的にサポートするBOT制御管理技術を提供すること。 第1情報処理端末に対応付けられた第1ユーザと、1以上の第2情報処理端末に対応付けられた1以上の第2ユーザとが、参加するトークルームにおける会話補助を行うプログラムであって、前記第1情報処理端末に、トークルームに表示されるメッセージに応じて、第1オブジェクトを表示させるステップと、前記第1オブジェクトが選択されたことに応答して、第2のオブジェクトを表示させるステップと、前記第2オブジェクトが選択されたこと応答して、第3のオブジェクトを表示させるステップと、を実行する。

Description

BOT制御管理プログラム、方法、装置、及びシステム
 本発明は、広く人間に代わって作業等を行うコンピュータプログラム(BOT)が実行される装置等に関し、より具体的には、BOTを制御管理するための装置、方法、システム等に関する。
 近年、コンピュータないしオンラインネットワーク上で動作し、人間に代わって作業等を行うコンピュータプログラム(BOT)が普及し、BOTに関わる様々な工夫が行われてきた。
 一例として、バーチャル(仮想)オンライン・ロボット(BOT)またはセキュリティ・エージェントが提供されている(特許文献1)。
 すなわち、特許文献1には、オンライン会話をモニタすることができ、会話のコンテンツが不適切であるか、場合によっては、有害または危険のおそれがあることを示すある種の定義可能な基準に合致した場合に、介入する働きをする「ガーディアン」とも呼ばれるBOTが開示されている。このガーディアンは、自然言語処理技法を利用して会話のコンテキストをそのスパン(期間)にわたって評価および/または個々のユーザ間の会話を評価するように構成されている。ガーディアンは、自然言語処理技法の使用により、特定の会話やその一部に問題があると判断されたときに、個々のユーザ等に通知または警告を提示することができるものである。
 また、コンピュータ・ネットワーク・ユーザによるBOTの使用を管理するためのシステムも提供されている(特許文献2)。
 すなわち、特許文献2には、コンピュータに実行させることで、コンピュータ・ユーザによるコンピュータ・サービスの使用を管理する方法であって、1以上のコンピュータ・ユーザに関連するネットワーク・デバイスにおいて、そのネットワーク・デバイスに関連する実際のコンピュータ・ユーザからの要求を受信するステップと、前記1以上のコンピュータ・ユーザ以外の仮想ユーザを識別するステップであって、その仮想ユーザに関連する情報を生成する、この識別するステップと、前記仮想ユーザに関連する情報を使用して、前記ネットワーク・デバイスからの通信を、前記要求を提供した前記実際のコンピュータ・ユーザのためのコンピュータ・サービスへ送信するステップであって、この通信は前記仮想ユーザから発信されたものとして識別されるものであり、このコンピュータ・サービスをこの通信と前記要求を提供した前記実際のコンピュータ・ユーザと関連付けることから防ぐものである、この送信するステップと、前記ネットワーク・デバイスにおいて、前記コンピュータ・サービスから発信された前記仮想ユーザについての通信を受信するステップであって、その通信を前記要求を提供した前記実際のコンピュータ・ユーザへ送信する、この受信するステップと、を備える方法が開示されている。
特表2010-509679号公報 特開2015-149082号公報
 しかしながら、特許文献1には、ガーディアン(BOT)がモニタしたオンライン会話の内容が適切であるかどうかを判定ないし監視する技術が開示されているが、ユーザ同士の会話をサポートして盛り上げていくものではない。また、特許文献2には、私設コンピュータ・ネットワーク・ユーザによる公開BOTの使用を管理する技術が開示されているが、BOTを介してユーザ同士の会話を積極的にサポートして会話そのものを発展させようとするものではない。
 本発明の一実施形態に係るBOT制御管理プログラムは、第1情報処理端末に対応付けられた第1ユーザと、1以上の第2情報処理端末に対応付けられた1以上の第2ユーザとが、参加するトークルームにおける会話補助を行うプログラムであって、前記第1情報処理端末に、トークルームに表示されるメッセージに応じて、第1オブジェクトを表示させるステップと、前記第1オブジェクトが選択されたことに応答して、第2のオブジェクトを表示させるステップと、前記第2オブジェクトが選択されたこと応答して、第3のオブジェクトを表示させるステップと、を実行することを特徴とする。
 本発明によれば、BOTを介してユーザ同士の会話を積極的にサポートし、ユーザ同士の会話そのものを発展させるBOT制御管理方法等を提供することができる。
本発明の一実施形態に係るシステムの全体構成を説明する説明図である。 本発明の実施形態のバリエーションを示すシステムないし装置等の構成例を説明する説明図である。 本発明の一実施形態に係るシステムないし装置等における基本動作例を説明する説明図である。 本発明の一実施形態に係るシステム等における動作例を示すフローチャートである。 本発明の一実施形態に係るシステム等における動作例を示すフローチャートである。 本発明の一実施形態に係るシステム等における装置ないし端末間の処理及びデータの流れを説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における動作例を示すフローチャートである。 本発明の一実施形態に係るシステム等における動作例を示すフローチャートである。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。 本発明の一実施形態に係るシステム等における装置ないし端末上の表示例を説明する説明図である。
<通信の秘密の遵守>
 本明細書に記載の開示を実施する場合は、通信の秘密に係る法的事項を遵守の上で実施されるものであることに留意されたい。
 本開示に係るBOT制御管理システム等を実施するための実施形態について、図面を参照して説明する。
<システム構成>
 図1は、本開示の一実施形態におけるBOT制御管理システムの構成を示す図である。図1に示すように、通信システムでは、ネットワーク199を介して1以上のサーバ(サーバ110、サーバ120)と、1以上の端末(端末151、端末152、端末153)とが接続される。サーバ110、120は、ユーザが所有する端末151~153に対し、ネットワーク199を介して端末間でのメッセージの送受信を実現するサービスを提供する。なお、ネットワーク199に接続される端末の数は制限されない。また、サーバの数についても制限されない(必要に応じて機能を拡張するためのサーバを追加することができる。1のサーバによってサービス提供させてもよい)。
 図1に示されるとおり、ネットワーク199は、1以上のサーバと1以上の端末とを接続する役割を担う。すなわち、ネットワーク199は、端末151~153がサーバ110ないし120に接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。
 例えば、ネットワーク199のうちの1つまたは複数の部分は、有線ネットワークや無線ネットワークであってもよい。ネットワーク199は、アドホック・ネットワーク(ad hoc network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(virtual private network:VPN)、ローカル・エリア・ネットワーク(local area network:LAN)、ワイヤレスLAN(wireless LAN:WLAN)、広域ネットワーク(wide area network:WAN)、ワイヤレスWAN(wireless WAN:WWAN)、大都市圏ネットワーク(metropolitan area network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)CDMA(code division multiple access)、ブルートゥース(Bluetooth(登録商標))、衛星通信など、または、これらの2つ以上の組合せを含むことができる。ただし、本開示において、ネットワーク199は、これらに限定されない。また、ネットワーク199は、1つまたは複数のネットワークを含むことができる。
 端末(端末151、端末152、端末153)は、各実施形態において記載する機能を実現できる情報処理端末であればどのような端末であってもよい。端末151~153は、代表的にはスマートフォンであり、その他に携帯電話(例えば、フィーチャーフォン)、コンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA(personal digital assistant)、電子メールクライアントなど)、ウェアラブル端末(メガネ型デバイス、時計型デバイスなど)、または他種のコンピュータ、またはコミュニケーションプラットホームを含む。ただし、本開示において、端末151~153は、これらに限定されない。また、端末151~153は情報処理端末と表現されても良い。
 端末151~153の構成は基本的には同一であるため、以下の説明においては、代表して端末151について説明することとし、以下、必要に応じて端末152や端末153を他端末として説明する。また、サーバ110、120についても同様に、代表してサーバ110について説明する。
 サーバ110は、端末151等に対して、所定のサービスを提供する機能を備える。サーバ110は、各実施形態において記載する機能を実現できる情報処理装置であればどのような装置であってもよい。サーバ110は、代表的にはサーバ装置であり、その他にコンピュータ(例えば、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA、電子メールクライアントなど)、あるいは他種のコンピュータ、またはコミュニケーションプラットホームを含む。ただし、本開示において、サーバ110は、これらに限定されない。また、サーバ110は情報処理装置と表現されても良い。
<ハードウェア(HW)構成> 
 図1を用いて、通信システムに含まれる各装置のHW構成について説明する。
 (1)端末のHW構成
 端末151は、制御装置1510(CPU:central processing unit(中央処理装置))、記憶装置1515、通信I/F1516(インタフェース)、入出力装置1517、表示装置1518、マイク1519a、スピーカ1519b、カメラ1519cを備える。端末151のHWの各構成要素は、例えば、バスB2を介して相互に接続される。
 通信I/F1516は、ネットワーク199を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F1516は、ネットワーク199を介して、サーバ110との通信を実行する機能を有する。通信I/F1516は、各種データを制御装置1510からの指示に従って、サーバ110に送信する。また、通信I/F1516は、サーバ110から送信された各種データを受信し、制御装置1510に伝達する。
 入出力装置1517は、端末151に対する各種操作を入力する装置、および、端末151で処理された処理結果を出力する装置を含む。入出力装置1517は、入力装置と出力装置とが一体化していても良いし、入力装置と出力装置とに分離していてもよい(後者の場合、一例として、タッチパネル入力センサ等の入力装置1517aと、タッチパネル出力デバイス、バイブレーション駆動機構等の出力装置1517bとに分離される)。
 入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報を制御装置1510に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力装置は、代表的にはタッチパネルなどにより実現され、ユーザの指やスタイラスなどの指示具による接触とその接触位置を検出し、当該接触位置の座標を制御装置1510に伝達する。一方で、入力装置は、タッチパネル以外の入力装置により実現されてもよい。入力装置は、例えば、キーボード等に代表されるハードウェアキーや、マウス等のポインティングデバイス、カメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含む。ただし、本開示において、入力装置はこれらに限定されない。
 出力装置は、制御装置1510で処理された処理結果を出力することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力装置は、代表的には、タッチパネルなどにより実現される。一方で、出力装置はタッチパネル以外の出力装置により実現されても良い。例えば、スピーカ(音声出力)、レンズ(例えば3D(three dimensions)出力や、ホログラム出力)、プリンターなどを含むことができる。ただし、本開示において、出力装置はこれらに限定されない。
 表示装置1518は、フレームバッファ(不図示)に書き込まれた表示データに従って、表示することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。表示装置1518は、代表的にはモニタ(例えば、液晶ディスプレイやOELD(organic electroluminescence display))で実現される。表示装置1518は、ヘッドマウントディスプレイ(HDM:Head Mounted Display)であってもよい。また、表示装置1518は、プロジェクションマッピング、ホログラム、空気中など(真空であってもよい)に画像やテキスト情報等を表示可能な装置により実現されてもよい。なお、これらの表示装置1518は、3Dで表示データを表示可能であってもよい。ただし、本開示において、表示装置1518はこれらに限定されない。
 入出力装置1517がタッチパネルの場合、一例として、入出力装置1517及び表示装置1518は、略同一の大きさおよび形状のものとして構成され、互いに対向して配置されていても良い。
 制御装置1510は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。
 制御装置1510は、代表的には中央処理装置(CPU)、であり、その他にマイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)であってもよい。ただし、本開示において、制御装置1510はこれらに限定されない。
 記憶装置1515は、端末151が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置1515は、HDD(hard disk drive)、SSD(solid state drive)、フラッシュメモリ、RAM(random access memory)、ROM(read only memory)など各種の記憶媒体により実現される。ただし、本開示において、記憶装置1515はこれらに限定されない。
 端末151は、プログラムPを記憶装置1515に記憶し、このプログラムPを実行することで、制御装置1510が、制御装置1510に含まれる各部としての処理を実行する。つまり、記憶装置1515に記憶されるプログラムPは、端末151に、制御装置1510が実行する各機能を実現させる。
 マイク1519aは、音声データの入力に利用される。スピーカ1519bは、音声データの出力に利用される。カメラ1519cは、動画像データの取得に利用される。
(2)サーバのHW構成 
 サーバ110は、制御装置1110(CPU)、記憶装置1105、入出力装置1106、ディスプレイ1107、通信I/F1108(インタフェース)を備える。サーバ110のHWの各構成要素は、例えば、バスB1を介して相互に接続される。
 制御装置1110は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。
 制御装置1110は、代表的には中央処理装置(CPU)、であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGAであってもよい。ただし、本開示において、制御装置1110はこれらに限定されない。
 記憶装置1105は、サーバが動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置1105は、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。ただし、本開示において、記憶装置1105はこれらに限定されない。
 入出力装置1106は、サーバ110に対する各種操作を入力する装置により実現される。入出力装置1106は、ユーザからの入力を受け付けて、当該入力に係る情報を制御装置1110に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入出力装置1106は、代表的にはキーボード等に代表されるハードウェアキーや、マウス等のポインティングデバイスで実現される。なお、入出力装置1106は、例えば、タッチパネルやカメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含んでいてもよい。ただし、本開示において、入出力装置1106はこれらに限定されない。
 ディスプレイ1107は、代表的にはモニタ(例えば、液晶ディスプレイやOELD(organic electroluminescence display))で実現される。なお、ディスプレイ1107は、ヘッドマウントディスプレイ(HDM)などであってもよい。なお、これらのディスプレイ1107は、は、3Dで表示データを表示可能であってもよい。ただし、本開示において、ディスプレイ1107はこれらに限定されない。
 通信I/F1108は、ネットワーク199を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F1108は、ネットワーク199を介して、端末151との通信を実行する機能を有する。通信I/F1108は、各種データを制御装置1110からの指示に従って、端末151に送信する。また、通信I/F1108は、端末151から送信された各種データを受信し、制御装置1110に伝達する。
 サーバ110は、プログラムPを記憶装置1105に記憶し、このプログラムPを実行することで、制御装置1110が、制御装置1110に含まれる各部としての処理を実行する。つまり、記憶装置1105に記憶されるプログラムPは、サーバ110に、制御装置1110が実行する各機能を実現させる。
 本発明の各実施形態においては、端末151等および/またはサーバ110等のCPUがプログラムPを実行することにより、実現するものとして説明する。
 なお、端末151の制御装置1510、および/または、サーバ110の制御装置1110は、CPUだけでなく、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。
 また、本開示の各実施形態のプログラムP(ソフトウェアプログラム/コンピュータプログラム)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。
 記憶媒体は適切な場合、1つまたは複数の半導体ベースの、または他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、プログラムPを記憶可能であれば、どのようなデバイスまたは媒体であってもよい。
 サーバ110および/または端末151は、例えば、記憶媒体に記憶されたプログラムPを読み出し、読み出したプログラムPを実行することによって、各実施形態に示す複数の機能部の機能を実現することができる。
 また、本発明の一実施形態に係るプログラムPは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバ#または端末#に提供されてもよい。サーバ110および/または端末151は、例えば、インターネット等を介してダウンロードしたプログラムPを実行することにより、各実施形態に示す複数の機能部の機能を実現する。
 また、本開示の各実施形態は、プログラムPが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 サーバ100および/または端末151における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
 端末151における処理の少なくとも一部を、サーバ100により行う構成としてもよい。この場合、例えば、端末151の制御装置1510の各機能部の処理のうち少なくとも一部の処理を、サーバ100で行う構成としてもよい。
 サーバ100における処理の少なくとも一部を、端末151により行う構成としてもよい。この場合、例えば、サーバ100の制御装置1110の各機能部の処理のうち少なくとも一部の処理を、端末151で行う構成としてもよい。
 本開示において、判定の構成は必須でなく、判定条件を満たした場合に所定の処理が動作されたり、判定条件を満たさない場合に所定の処理がされたりしても良いことは当然である。
 なお、本開示のプログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。ただし本開示はこれらに限定されない。
<システム構成のバリエーション>
 図2に、本発明の実施形態のバリエーションを示すシステムないし装置等の構成例を示す。同図(及び図3)に示した構成での特徴的な処理動作は、本発明がネットワークを介したサーバや端末との連携動作によってのみ実現されるものでなく、端末単体上でも実現可能な点である。
 図2に示されるように、情報処理システム200は、その最小限の構成として、情報処理サーバ210と、プレーヤが使用する各種情報処理端末(図において、例示的に、PC220及び230、携帯電話240、携帯情報端末ないしタブレット端末250~252が示されている。以下、総称して「端末」とも言う)とで構成され、サーバ及び各種端末間は、図2に示されるように専用回線やインターネット等の公衆回線(有線の回線として、260、270、280、290)で相互に通信可能に接続されている。また、回線は有線であっても無線であってもよく、無線の場合、携帯電話240及び携帯情報端末ないしタブレット端末250は、無線で図示しない基地局や無線ルータ等を介してインターネット290に乗り入れ、更に回線280を介して情報処理サーバ210と相互に通信可能に接続されている。
 なお、携帯電話や携帯情報端末ないしタブレットは、パーソナルコンピュータ(PC)に比肩する処理能力(通信処理速度や画像処理能力等)を備えているものも多く、小型のコンピュータとも言うべきものである。
 また、本発明の実施に必要なプログラムないしソフトウェアは、通常、PCや携帯情報端末の記憶部におけるHDDないしSSD等にインストールないし記憶され、プログラムないしソフトウェアの実行時には、必要に応じて記憶部内のメモリにその全部又は一部のソフトウェアモジュールとして読み出され、CPUにおいて演算実行される。
 なお、演算実行は必ずCPU等の中央処理部で行われる必要はなく、図示しないディジタルシグナルプロセッサ(DSP)等の補助演算装置を用いることもできる。
 また、情報処理サーバ210のハードウェア構成も、基本的にはPCを採用することができる。なお、本発明はこれに限定されるものではないが、情報処理サーバ210は、必要に応じてそのハードウェアスペックを上げるにあたり、複数のPC(一例として、数十台~数万台)を並列的に作動させることによって大規模データの処理に適した構成をとることもできる。
<サービス提供形態の基本バリエーション>
 図3に、図1や図2で例示した本発明の一実施形態に係るシステムないし装置等における基本動作例を示す。ここで特に示したいことは、本発明がネットワークを介したサーバや端末との連携動作によっても、あるいは、端末単体上でも単独で実現可能な点である。
 図3において、「ユーザ端末」は、図1における端末151~153、図2における端末220、230、240、250~252に対応し、「情報処理サーバ」は、図1におけるサーバ110、120、図2における情報処理サーバ210に対応する。また、図3中、t1~t10は時系列の流れを示し、経時的に後述する動作や処理が行われるものである。
 なお、実施形態において例示される動作ないし処理時刻(t1等)は、本発明の概念の理解の容易のために例示されたものであり、本発明が実施形態において例示される個別の時系列関係に制限されることはない。
 まず、日時t1において、ユーザ(プレーヤ)は、ユーザ端末を介して情報処理サーバから自身のユーザ端末を本発明にかかる情報処理端末として動作させるためのアプリケーションソフトウェアをダウンロードする(ステップS301)。このアプリケーションソフトウェアは、本発明にかかるプログラムの一部又は全部を処理するためのクライアントソフトウェアないしアプリケーションソフトウェアである。そして、ダウンロードしたアプリケーションソフトウェアをユーザ端末にインストールする(ステップS302)。このとき、時刻t2において、ユーザ端末からは、必要に応じてユーザ登録としてユーザ自身のメールアドレスのほか、次表のようなプロフィール情報を情報処理サーバへアップロード(ステップS303)して登録管理させることもできる(ステップS304)。
Figure JPOXMLDOC01-appb-T000001
 以上のデータ項目は、ユーザデータとして情報処理サーバ上の記憶装置に保存される(ステップS305)。時刻t3以降は、ユーザ(プレーヤ)が情報処理端末を操作することによりアプリを開始する(サーバは端末に対してサービス提供を開始する)ことができる。
 次に、ユーザ端末にアプリをダウンロード及びインストールしたユーザは、時刻t4においてアプリケーションソフトウェアを起動する(ステップS306)。時刻t4~時刻t5まで、例示的にユーザは情報処理端末で提供されるサービスに興じている。
 時刻t5になると、ユーザはいったん本発明の一実施形態にかかるアプリケーションソフトウェアを中断ないし終了する。このとき、必要に応じて、アプリケーションのステータス情報を情報処理サーバへ転送し(ステップS307)、サーバではこれを受信して当該ユーザのユーザ情報としてのステータス情報を更新(ステップS308)及び保存(ステップS309)する。図3においては、これらの処理は、時刻t6までに完了している。
 なお、本発明の一実施形態にかかるアプリケーションソフトウェアを情報処理端末にインストールした後は、端末上で完全にクローズドに実行可能な形態とすることももちろん可能であり、この場合は、上述のステップS304~ステップS305、並びに、ステップS308~ステップS309を省略することができ、必要な情報があれば端末上のメモリに保存管理される。
 次に、図3において、時刻t7~時刻t10では、本発明の一実施形態にかかるアプリケーションソフトウェアの少なくとも一部を情報処理サーバにおいて実施する場合の実施形態例を示している。この場合、ユーザ(プレーヤ)は、ログイン動作と、コマンド送信という2つの典型的なユーザ端末操作を行い、情報処理サーバから必要なデータ送信を受け、あるいは、サービス提供を受けることとなる。
 例えば、図3において、時刻t7においてユーザが自身の情報処理端末を介してサーバへのログイン処理を行う(ステップS310)と、情報処理サーバでは必要な認証処理が適宜行われ(ステップS311)、時刻t8において、ユーザがサービス提供を受けられるためのデータを送信する(ステップS312)。例えば、端末からのコマンドを受信可能に構成されたトップメニュー画面や、アプリケーションの起動画面等である。
 時刻t9において、ユーザは情報処理端末を介して何らかのコマンドを送信する(ステップS313)。このコマンドは、メニュー画面に表示されたメニューの選択でもよく、アプリケーション起動画面であれば、アプリケーションを開始するための開始コマンドの場合もある。サーバ側では、このコマンドを受けて、サービス処理を開始する(ステップS314)。そして、時刻t10において、サーバから端末の要求に応じたサービスが提供される(ステップS315)。
 なお、図3には図示していないが、時刻t10以降も、端末からは随時コマンドを送信することができ(例えば、メッセージ送信コマンドやメニュー選択コマンドなど)、都度、サーバでは端末からのコマンド受信を受けてサービスを提供することができる(例えば、受信したメッセージを他端末に転送したり、メッセージ解析をしてその結果を返信したりするなど)。
 また、本発明の一実施形態において、ユーザ(プレーヤ)は、ユーザ端末から特定の相手もしくは特定多数の相手に向けてメッセージを送信することもできる(図3においては不図示)。このメッセージは、情報処理サーバにて中継され、特定の相手もしくは特定多数の相手に転送され相手方において受信される。また、送信したメッセージは自身の端末でも確認できる。
 特にこれらのメッセージ処理は、サーバや端末に実装された後述する機能構成により実現される。
<機能構成>
(1)端末の機能構成
 本発明の一実施形態においては、図1に示すように、端末151は、制御装置1510、並びに、記憶装置1515に記憶されたプログラム及びデータにより実現される機能として、トーク参加部1511とメッセージ処理部1512とを有する。
 トーク参加部1511は、所望のトークルームへの参加のための処理を行う機能を有している。トークルームへは、個人単位で参加することができるとともに、グループ単位でも参加することができる。
 なお、BOTサーバ(一例として、サーバ110,120)についても、端末151を参照して例示する各機能を備えることにより、個人ユーザと同様にトークルームに参加することができる(このとき、1ユーザとしてのBOTには、人間のユーザと同様に、インスタントメッセンジャーサービスの1アカウントが付与される)。
 また、トークルームを新たに生成することもできる。トークルームに参加した状態でメッセージを送信(発言)することで、サーバ1を経由して、同じトークルームに参加している他の参加者端末2および/またはBOTサーバ(トークルームに参加している1ユーザとしてのBOT)にメッセージが送信される。
 メッセージ処理部1512は、トークルームでのメッセージの生成、送受信および送受信したメッセージの自端末での表示制御等の処理を行う機能を有している。典型的かつ基本的なメッセージ処理及び表示制御例としては、上から下に向かう時間軸に対し、左側に受信メッセージを表示させ、右側に送信メッセージを表示させるというものである。
 表示処理部1513は、メッセージ処理1512が処理したメッセージデータを表示装置1518上に表示させる。表示処理部1513は、表示用データ(一例として、文字コード)を画素情報(一例として、フォントや絵文字等)に変換し、表示装置1518のフレームバッファ(不図示)に書き込む機能を有する。
(2)サーバの機能構成 
 本発明の一実施形態においては、図1に示すように、サーバ110は、制御装置1110、並びに、記憶装置1105に記憶されたプログラム及びデータにより実現される機能として、トークルーム管理部1111とメッセージ処理部1112と課金情報管理部1113と請求処理部1114と統計処理部1115とBOT処理部1116と有する。
 トークルーム管理部1111は、トークルームの参加者等を管理する機能を有している。
 メッセージ処理部1112は、特定のトークルームにおいて送信されたメッセージを端末151から受信した場合に、宛先としての他の参加者端末(例えば、端末152、153)、及び/または、BOTサーバ(例えば、サーバ120)に同メッセージを送信(転送)する機能を有している。
 課金情報管理部1113は、課金対象となるメッセージ等(後述)の提供等に応じて例えばユーザ(BOTも含まれる)アカウント課金ための計算処理及び管理を行う。
 請求処理部1114・BR>ヘ、課金情報管理部1113で処理及び管理された課金情報に基づいて例えばユーザ(BOTも含まれる)アカウントごとの請求処理を行う。
 統計処理部1115は、課金情報処理部1113及び/または請求処理部1114で処理されたデータをもとに様々な視点からの統計処理を行い保存管理する。
 BOT処理部1116は、ユーザ(人間)に代わって作業や判断、アドバイス等を行う処理を行う。本発明は、これらに限定されるものではないが、より詳細には、適切なデータを検索するための検索部1116a、送受信メッセージに含まれる言語(音声言語も含まれる)を処理するための言語処理部1116b、処理された言語等の意味や価値を判断したり判断した結果の成否等に基づいて学習を行ったりするAI処理部1116c、与えられた画像を解析処理したり移り込んだ物体を認識処理等したりする画像処理部1116d等の処理モジュールが含まれる。
 上述したとおり、BOTサーバ(一例として、サーバ110,120)についても、端末151を参照して例示する各機能を備えることにより、個人ユーザと同様の機能を発揮させることもできる(このとき、1ユーザとしてのBOTには、人間のユーザと同様に、インスタントメッセンジャーサービスの1アカウントが付与される)。そして、BOTサーバが機能させるアシスタントBOTと、人間ユーザとは、人間ユーザ同士が行っているのと同様に、友達関係を結ぶ(アカウント同士を紐付ける)などして互いに所定の関係を築くことができる(かかる所定の関係は、適宜図示しないデータベースや関係テーブルに記述され管理される)。
<第1実施形態>
 第1実施形態は、サーバ等(一例として、後述する「トークサーバ」)で運営されるトークルームに参加するユーザが端末を介してメッセージの送受信をしたり、自身のアシスタント(BOT)とのやり取りを行ったりするうえでの基本的な動作フローや、トークサーバの基本動作、そして、トークルームに1ユーザ(1アカウント)として参加するBOTサーバの基本動作について説明するものである(図4~図5を参照して後述する)。
 なお、第1実施形態に記載された内容の一部又は全部は、その特徴が相互に排他的である場合を除いて他の実施形態にも適用可能である。
 図4及び図5に示される本発明の一実施形態において、メッセージングサービスを提供するサーバはトークサーバ(図1におけるサーバ110等がこれに対応する)が担う。また、本発明の一実施形態において、ユーザ端末と同様に1ユーザ(1アカウント)としてトークルームに参加するBOTサーバ(図1におけるサーバ110等がこれに対応する)が導入される。
 図4は、主に1ユーザの観点から示された基本動作フローである。
 図4のステップS401において、1ユーザ(BOTではない人間のユーザ)がユーザ端末を介してアプリを起動するなどしてトークルームに入室すると、ステップS402に進み、トークサーバからユーザ端末に読み込まれるか、あるいは、ユーザ端末それ自体の記憶装置等から読み込まれるかして、アプリを動作させるためのトークリスト等のステータス情報及び/または既読のメッセージ等の情報がユーザ端末内のメモリに読み込まれる。
 なお、トークリストは、トークサーバにおいて複数運営されているトークルームのリストであり、一例として、ユーザがメンバーとなっているトークルームについては選択指示等によって当該トークルームに入室し、他のメンバーユーザとのグループトークを行うことができる。グループトークは、トークサーバが提供するメッセージングサービスを介してメンバーがメッセージを交換する(互いに送受信し合う)ことによって進行される。
 図4において、ステップS403~ステップS411までのループは、基本動作ループであり、ステップS411においてアプリを終了(つまり、トークルームから退出)しない限り、他のメンバーとのメッセージの送受信を継続することができる。また、基本動動作ループ内において、ユーザにアシスタントBOT(いわゆるAI機能を有するアドバイザープログラムであり、このBOTそれ自体も1アカウントを有するユーザとしてトークルームに参加させることができる)が紐付けられている場合には、このアシスタントBOTからユーザに対してアドバイスを行わせたり、他のユーザからの受信メッセージの少なくとも一部をトークサーバ等へ転送させたりすることができる。
 この場合のユーザとアシスタントBOTとの関係は、人間のユーザ同士の関係と同様である。
 ステップS403において、図示しない操作によりユーザからメッセージ等送信がある(Yes)と、ステップS404へ進み、トークサーバに対するメッセージ等送信処理が行われる(ステップS403において、Noの場合はステップS405へ進む)。図4では不図示であるが、ステップS404で送信されるメッセージ等の内容によって処理される基本動作例は次の(1)~(3)のとおりである。
(1)ユーザ端末からトークサーバへユーザ自身のメッセージが送信された場合
 トークサーバでは、受信したメッセージをトークルーム内の他メンバーに送信(転送)するとともに、受信したメッセージに関連する(つまり、受信メッセージに適切な応答が可能な)1以上のBOT候補を抽出してメッセージ送信元のユーザに返信する。
 一実施形態において、これらBOT候補は、BOTに紐付けられたBOT_IDと各BOTを表わすキャラクタ画像及び/またはBOTの発言であることを表わすメッセージとが含まれる。
(2)ユーザ端末からトークサーバへBOT_ID(上述)が送信された場合
 トークサーバでは、指定されたBOT_IDに基づいて対応するBOT(BOTサーバ)にリクエストを行う。一実施形態においては、トークサーバからBOTサーバに対して当該BOTサーバが現時点で用意している(つまり、その時点でトークルームでの会話の流れに沿って提供可能な)コンテンツ候補のリクエストが行われる。
 なお、一実施形態においては、BOT_IDは、ユーザのメッセージとともに送信される場合もある。
(3)ユーザ端末からトークサーバへコンテンツが送信ないし指定された場合
 トークサーバでは、ユーザから送信ないし指定されたコンテンツ(画像情報や特定サイト等へのリンク先などが挙げられる)をグループ内の他メンバーに送信(転送)する。
 ステップS405において、ユーザに対するメッセージ等の受信がある(Yes)と、ステップS406へ進み、ユーザ(あるいは当該ユーザが参加しているトークグループ)にアシスタントBOTが存在するか(つまり、紐付けられているか)どうかが判断され、Yesの場合はステップS407aに進み、メッセージ(ステップS405で既受信)のうちの一部または全部を選択する。そして、ステップS407bへ進み、アシスタントBOT経由でトークサーバへ転送され、ステップS408へ進む(ステップS405においてNoの場合は、直接ステップS408へ進む)。
 なお、ステップS407a~ステップS407bにおいて、受信メッセージのうちのどの程度のメッセージをアシスタントBOT経由でトークサーバへ転送させるかは、ユーザによる許可設定によって決まる。
 さらに、上記転送のタイミングは、(1)メッセージを受信するたびに当該メッセージの少なくとも一部をトークサーバへ転送する、(2)受信メッセージを端末上に表示させるたびに当該メッセージの少なくとも一部をトークサーバへ転送する、などのバリエーションを適用することができる。
 また、上記転送のタイミングにおいて、受信メッセージの少なくとも一部をトークサーバへ転送する際に、当該一部のメッセージとともに、受信メッセージのうち端末には表示されていないメッセージとを合わせてトークサーバへ転送させるように制御することもできる。
 ステップS408では、受信したメッセージ等がユーザ端末上に表示される。
 ステップS409において、ユーザに対するオブジェクト表示(後述)の受信がある(Yes)と、ステップS410に進み、受信したオブジェクトの端末上での見せ方に関して適宜処理する(後述)。そして、ステップS411へ進む(ステップS409においてNoの場合は、直接ステップS411へ進む)。
 ステップS411において、図示しないユーザ操作によりトークルーム退室指示がされると本フローとしては終了する(ステップS412)。
 図5は、主にトークサーバの観点から示された基本動作フローである。
 図5のステップS501において、トークサーバが処理を開始すると、ステップS502に進み、トークルームを運営するための各種ステータス情報等がサーバ内のメモリに読み込まれる。
 図5において、ステップS503~ステップS511までのループは、基本動作ループであり、トークサーバは、ステップS511において処理を終了しない限り、メッセージ等(典型的には、BOT_IDが含まれるメッセージと含まれないメッセージとがある。また、BOT_IDのみのメッセージもあり得る)あるいはコンテンツ(コンテンツそれ自体もしくはコンテンツを指定するための指定メッセージが含まれる)の到来を待つ。
 ステップS503では、メッセージ等の受信があったどうかが判断され、Noの場合はステップS509へ進むが、Yesの場合はさらにステップS504へ進み、受信したメッセージ等の中にBOT_IDが含まれるかどうかが判断される。ステップS504においてNoの場合は他ユーザからのメッセージ等の受信であるため、ステップS507へ進み、受信したメッセージ内容に沿った応答が可能なBOT(複数の場合も有り)を抽出ないし特定するための処理が行われる。一実施形態において、このBOTの抽出ないし特定処理は、トークサーバからBOTサーバ(群)への問い合わせ及び応答によって実現される。
 そして、ステップS508では、前ステップで抽出ないし特定されたBOT候補をトークグループ内の他ユーザに送信し、ステップSS509へ進む。
 一方、ステップS504においてYesの場合は、典型的には受信したメッセージが(既に提示済の)BOT候補に対する指定であるため、ステップS505へ進み、指定された特定のBOT(サーバ)に対し、コンテンツまたはコンテンツ候補のリクエストを送信する。次に、特定のBOT(サーバ)からコンテンツ候補が送信されてきた場合にはステップS506にて受信したコンテンツ候補をメッセージ送信元のユーザ端末へ送信するとともに、このユーザ端末を介して(あるいはこのユーザ端末を介することなく)上述のコンテンツ候補を他ユーザの端末にも送信し、コンテンツのリアルタイム共有を実現する。そして、ステップS509へ進む。
 ステップS509では、コンテンツそれ自体あるいはコンテンツへの指定メッセージの受信があったかどうかが判断され、Yesの場合はステップS510へ進み、コンテンツをグループ内の他ユーザへ送信する(ステップS509において、Noの場合はステップS511へ進む)。このとき、受信したメッセージがコンテンツへの指定メッセージ(一例として、URLの特定によって入手可能なコンテンツ情報)である場合には必要に応じてトークサーバにおいて当該コンテンツを取得してこれをグループ内の他ユーザへ送信する。そして、ステップS511へ進む。
 ステップS511では、トークサーバとしての動作を終了するかどうかが判断され、図示しない操作によりトークサーバの動作を終了する(ステップS511においてYes)場合には、ステップS512へ進み、本フローとしては終了するが、ステップS511においてNoの場合には、ステップS503へ復帰する。
<第2実施形態>
 第2実施形態は、複数のユーザ端末(一例として、端末1及び端末2)とトークサーバとBOTサーバとの間のメッセージ等のやりとりをシステム全体の運用シーンとして説明するものである。以下、図6を参照して説明する。
 なお、第2実施形態に記載された内容の一部又は全部は、その特徴が相互に排他的である場合を除いて他の実施形態にも適用可能である。
 また、実施形態において例示される動作ないし処理時刻(t1等)は、本発明の概念の理解の容易のために例示されたものであり、本発明が実施形態において例示される個別の時系列関係に制限されることはない(以下、時刻を明示して例示している実施形態において同様である)。
 図6に示される本発明の一実施形態において、時刻t0にユーザ1が端末1(601)においてメッセージを作成し、トークサーバ603へ送信する。時刻t1~t2まで、トークサーバ603では受信したメッセージを解析し、このメッセージに対応可能なBOTを特定する処理を行う。図6に示されてはいないが、一実施形態において、BOT特定処理は、トークサーバから問い合わせ可能な複数のBOTサーバへの問い合わせ処理によって実現される。
 時刻t1において、トークサーバ603から他のユーザ(典型的には端末1のユーザと同じトークグループに参加している他のユーザが挙げられる)の端末2(602)に対し、端末1(601)から受信したメッセージが転送される。
 時刻t1において、端末2(604)では、トークサーバ603から転送された端末1(601)からのメッセージを受信し、例えば、当該受信を通知されるなどして端末2のトークルームに入室し、受信メッセージを確認する。このとき、端末1(601)からの受信メッセージのうちトークサーバへ転送するメッセージを決定することができる(本発明の一実施形態では、この決定処理により、端末2(604)が端末1(601)からのメッセージに関し、端末1(601)に紐付けられたアシスタントBOTからのアドバイスメッセージを含めて受信することの同意が得られたものとして処理することができる)。
 時刻t3において、転送決定されたメッセージが今度は端末2(604)からトークサーバ603へ送信(転送)される。
 この間、時刻t2において、トークサーバ603は、時刻t0に端末1(601)から受信したメッセージの解析を終え、受信メッセージに対応可能なBOTの候補データを端末1(601)へ送信する(なお、このBOTの候補データは、例示的に図7Aを参照して後述するユーザ操作によって破棄される)。
 なお、時刻t2におけるトークサーバ603から端末1(601)へのBOT候補送信のタイミングと、時刻t3における端末2(604)からトークサーバ603へのメッセージの送信のタイミングとは、実施状況によって入れ替わることがある。
 次に、時刻t3~t4では、トークサーバ603において、これまで端末1(601)や端末2(604)から受信したメッセージを総合的に解析し、これらのメッセージに対応可能なBOT候補を特定する処理がなされる。
 時刻t4に、トークサーバ603にて特定されたBOT候補が端末2(604)へ送信される。
 このとき、時刻t3における同意処理により、BOT候補の中には端末1(601)と紐付けられた(友達関係にある)BOTを含めることもできる。そして、時刻t4において、端末2(604)上でこれらのBOT候補を表示させる際には、端末2(604)に直接紐付けられた(直接の友達関係にある)BOTと端末2(604)には紐付けられていないが端末1(601)には直接紐付けられた(直接友達関係になる)BOTとを区別して表示させることができる(一実施形態として、前者のBOTを通常のオブジェクトとして表示させ、後者のBOTにモザイク処理を施して表示させるなど)。
 なお、時刻t4において、端末2(604)に対して提示されるBOT候補の見せ方を「チラ見UI」とも呼ぶこととする(より詳細には、図7A等を参照して後述する)。
 時刻t5には、トークサーバ603にて特定されたBOT候補が端末1(601)へ送信される(同図において、端末1(601)へは2回目のチラ見UIとなる)。端末1(601)上では、これらのBOT候補がチラ見UIとして表示される。
 このとき、時刻t3における同意処理により、BOT候補の中には端末2(604)と紐付けられた(友達関係にある)BOTを含めることもできる。そして、時刻t5において、端末1(601)上でこれらのBOT候補を表示させる際には、端末1(601)に直接紐付けられた(直接の友達関係にある)BOTと端末1(601)には紐付けられていないが端末2(604)には直接紐付けられた(直接友達関係になる)BOTとを区別して表示させることができる(一実施形態として、前者のBOTを通常のオブジェクトとして表示させ、後者のBOTにモザイク処理を施して表示させるなど)。
 なお、時刻t4における端末2(604)に対するチラ見UIのタイミングと時刻t5における端末1(601)に対するチラ見UIのタイミングとは、実施状況によって入れ替わることがある。
 時刻t6では、端末1(601)上でチラ見UIを介して提示されたBOT候補のうちの1つが選択される(つまり、端末1のユーザは選択したBOTからのさらなる情報提供をリクエストする)。このとき、端末1(601)からトークサーバ603へは選択されたBOTの識別子(BOT_ID)が送信される。なお、BOT_IDの送信はメッセージの中に含めて送信されることもできる。
 時刻t6~t7においてトークサーバでは受信したBOT_IDからBOTを特定し、特定されたBOT(サーバ)に対してメッセージを要求する(時刻t7)。要求メッセージには、さらなるコンテンツや関連するコンテンツ、あるいはこれらの候補(コンテンツ候補)の要求などが含まれる。
 時刻t8には、BOTサーバ602からトークサーバ603へコンテンツ候補が返信され、時刻t9には、トークサーバ603から端末1(601)へこれらのコンテンツ候補が転送される。
 一実施においては、時刻t9におけるトークサーバ603から端末1(601)へのコンテンツ候補の転送と共に、あるいは、トークサーバ603から端末1(601)へのコンテンツ候補の転送に替えて、トークサーバ603はトークルーム内のメンバーにコンテンツ候補を同報し、コンテンツ候補情報の実質的なリアルタイム共有を図ることもできる(図6における時刻t10での事象である)。
 時刻t11では、端末1(601)においてコンテンツ候補の1つが選択されトークサーバ603へ送信される。その後、わずかな時間差を伴って時刻t12にはこのコンテンツは端末2(604)へ送信される。
 この時点で、端末1(601)及び端末2(604)上では、前述のコンテンツが共有される(一例として、共有されたコンテンツが動画コンテンツの場合は、両端末上で実質的なリアルタイム再生がなされる)。
 時刻13には、今度は端末2上で表示されている1以上のBOTの中から1つが選択され、時刻t13に選択されたBOTの識別子(BOT_ID)がトークサーバ603へ送信される。
 時刻t14には、トークサーバ603からBOTサーバ602へコンテンツ候補要求メッセージが送信され、時刻t15にBOTサーバ602からトークサーバ603へコンテンツ候補が返信され、時刻t16に端末2(604)に転送される。
 一実施においては、時刻t16におけるトークサーバ603から端末2(604)へのコンテンツ候補の転送と共に、あるいは、トークサーバ603から端末2(604)へのコンテンツ候補の転送に替えて、トークサーバ603はトークルーム内のメンバーにコンテンツ候補を同報し、コンテンツ候補情報の実質的なリアルタイム共有を図ることもできる(図6における時刻t17での事象である)。
 時刻t18では、端末2(604)においてコンテンツ候補の1つが選択されトークサーバ603へ送信される。その後、わずかな時間差を伴って時刻t19にはこのコンテンツは端末1(601)へ送信される。
 この時点で、端末1(601)及び端末2(604)上では、前述のコンテンツが共有される(一例として、共有されたコンテンツが動画コンテンツの場合は、両端末上で実質的なリアルタイム再生がなされる)。
<第3実施形態>
 第3実施形態は、ユーザ端末上での表示例にフォーカスして本発明の一実施形態における特徴を説明するものである。以下、図7A~図7Eを参照して説明する。
 なお、第3実施形態に記載された内容の一部又は全部は、その特徴が相互に排他的である場合を除いて他の実施形態にも適用可能である。
 図7Aに示される本発明の一実施形態において、端末700(筐体部等は不図示)の表示画面上にはユーザトークルームに入室してトークグループ内の他のユーザとのメッセージ交換等をしている様子が示されている。端末700の表示画面は大きく分けると端末のステータス情報表示領域701と、メッセージングサービス提供領域(以下、「トークルーム」という)702と、端末700からの送信メッセージン入力及び送信領域703とで構成されている。
 また、図7A~図7Eにおいては、既述したとおり、上から下に向かう時間軸に対し、左側にトークグループ内の他ユーザ(及び他ユーザに紐付けられたBOTも含まれる)からの受信メッセージが表示され、右側に自身(及び自身に紐付けられたBOTも含まれる)からの送信メッセージが時系列に表示される。
 図7Aにおいて、トークルーム702上には、時刻14:00に他ユーザより送信された「銀座」とのメッセージ7021aが表示されている。また、メッセージ7021aの近傍には、自ユーザに紐付けられたアシスタントBOT7021bが表示されている。
 なお、本発明の一実施形態においては、BOT7021bをメッセージ7021aの少なくとも一部に重畳させるように表示させることもできる、以下同様)。
 同図Aにおいて、BOT7021bは、メッセージ7021a中のワード「銀座」(破線部分)に反応して、これに関連する情報を提供可能なBOTとして登場したものである。そして、もし端末700を使用しているユーザがBOT7021bから関連情報を引き出したい場合には、図示しない操作(例えば、BOT7021bをクリックないしタップするなど)によってさらなる情報提供を受けることができる。
 ここでは、端末700を使用しているユーザは、BOT7021bからの情報を必要としないので、領域702から退場させたいと考えている。その場合は、一例として、BOT7021bに対し自身の手ないし指7021cで画面外側(縁方向)へフリック操作またはスワイプ操作するなどして退去させることができる(BOT7021bは画面から消える)。
 なお、本発明の一実施形態においては、上述のBOT7021bに対する退去と共に、端末700を使用しているユーザとこのBOT7021bとの関係(直接ないし間接の友達関係など)がある場合には、かかる関係を解消するよう制御させることもできる。この場合、図示しない友達関係テーブル等から端末700を使用するユーザとBOT7021bとの関係フラグ等がリセットされる。
 一方、端末700を使用しているユーザは、14:30にメッセージ7022aを送信している。その結果、メッセージ7022a中の破線部のワード「六本木」にBOT7022b(BOT7021bと同一の場合もあるし、異なる場合もある)が反応して、メッセージ7022a近傍に表示されている。
 BOT7022bは、メッセージ7022a中のキーワード「六本木」の関連情報を提供可能なものとしてユーザの指示を待っている。
 ここで、端末700を使用しているユーザは、BOT7022bから「六本木」に関するさらなる情報の提供を受けることを希望し、一例として、自身の手ないし指でBOT7022bを指示する位置7022cをクリックないしタップする。
 すると、一実施形態においては、次の段階としてBOT7022bの近傍に「六本木」に関するテーマとなる選択肢ボタン7023a~7023cが表示される。つまり、ボタン7023aは「飯」に関するさらなる情報を得るための選択ボタンであり、ボタン7023bは「酒」に関するさらなる情報を得るための選択ボタンであり、ボタン7023cは「夜」に関するさらなる情報を得るための選択ボタンである。
 次に、端末700を使用しているユーザは、自身の手ないし指7021dで選択肢ボタン7023cを押下する。
 すると、一実施形態においては、次の段階として「夜」をテーマとした施設ないし店舗の候補7024a~7024cが表示される。ユーザは、7024bに興味をもち、自身の手ないし指で位置7024dをクリックないしタップする。
 すると、トークグループ内の他メンバーへのメッセージとして7025aが送信され、他メンバーは当該メッセージの受信によりその内容7025bを知ることができる。図示していないが、各メンバーは内容7025bをタップ等することにより、この施設ないし店舗の詳細情報を得ることができる。
 図7Bは、例示的に、図7Aを参照して説明した端末700の使用に伴い、他ユーザが自身の端末710上でどのように見えているかを説明するものである。
 図7Bにおいて、端末710(筐体部等は不図示)のトークルーム上の左側には、他ユーザのメッセージ711a(7021aに対応)及びメッセージ712a(7022aに対応)が示されており、その近傍(下側)には、これらのメッセージのうちキーワード「六本木」に反応してアシスタントBOT712b、712c、712dが表示されている。それぞれ個性の異なるBOTである(BOT712dは、BOT7021b及び/または7022bに対応付けることができる)。
[BOTを表示させる対象メッセージの特徴]
 ここで、トークルームにおけるどのようなメッセージに対してBOTを登場させるかについては、一実施形態において、トークルームに対応付けられた時刻(トークルームへのアップロード時刻)が最も新しいメッセージに対して1以上のBOTを表示させることができる。[複数のBOTが登場する場合の並び順]
 また、BOT712b、712c、712dのように、同一または類似のキーワードに反応して一群のBOTとして特定メッセージ近傍に登場させる場合には、一実施形態において、トークサーバ内で抽出ないし特定された順(時系列)、あるいは、キーワードとの関連度の高さ順に配列させることができる。
 図7Bにおいて、トークルームの領域713内には、BOT712b~712dのいずれかのBOTが他ユーザの端末(例えば、端末700)上で選択されたことにより表示された選択肢ボタン7131a~7131c、並びに、同端末(例えば、端末700)上で選択肢ボタン7131cが選択されたことにより表示されたコンテンツ候補7132a~7132cである。これらは、端末710を使用しているユーザの操作によるものではなく、他ユーザ(一例として、端末700を使用しているユーザ)の操作によって表れたオブジェクトがトークルーム内の他メンバーである端末710を使用しているユーザにも閲覧可能に制御されるものである。
 すなわち、一実施形態において、BOT7022bはBOT712dに、選択肢ボタン7023a~7023cは選択肢ボタン7131a~7131cに、コンテンツ候補7024a~7024cはコンテンツ候補7132a~7132cに、それぞれ対応付けることができる。
 さらに、図7Bにおいて、トークルームの左下には他ユーザの端末(例えば、端末700)上で選択されたことにより表示されたコンテンツ714bを含むメッセージ714aが表示されている。一実施形態において、送信メッセージ7025aは受信メッセージ714aに、送信コンテンツ7025bは受信コンテンツ714bに、それぞれ対応付けることができる。
 図7Cは、端末720上での操作等に伴う他の動作例及び表示例を示す。
 図7Cにおいて、端末720(筐体部等は不図示)のトークルーム上の左側には、他ユーザのメッセージ7211及びメッセージ7212aが表示され、これらのメッセージ群721に反応して複数のBOTがその近傍に表示されている。そのうち、BOT7212b及び7212cは、端末720を使用しているユーザの発言(トークルーム右側のメッセージ)にも関与する(後述)。
 ここで特徴的な点は、BOT7212c(及びBOT722b)は、図示されるとおり、端末720のトークルーム上では例示的に半透明処理が施されている点である。つまり、これらのBOTは端末720を使用しているユーザとは直接紐付けはされていない。一実施形態において、BOT7212c(及びBOT722b)は、端末720を使用しているユーザと友達関係にある他のユーザ(一例として、端末700を使用しているユーザ)と直接紐付けされているものである。
 この場合であっても、端末720を使用しているユーザは、自身とは直接紐付けされてはいない(つまり、友達ユーザを介して間接的に関連付けられている)BOT7212c(及びBOT722b)からも情報提供を受けることができる(後述)。
 次に、端末720を使用しているユーザがメッセージ722aを送信すると、メッセージ722aの一部(図中「DANCE」)に反応してBOT722b及び722cが表示されるが、BOT722bは自身に直接紐付けされてはいないので、半透明処理が施されている(しかしながら、上述したようにこのBOT722bにもアドバイスを求めることはできる)。
 端末720を使用しているユーザは、BOT722cを位置722dでタップし、ダンスに関する関連情報の提供を求める。
 次に、端末720を使用しているユーザは、メッセージ723を送信し、少し間をおいて(図中に示されるとおり、一例として30分程度)、メッセージ724を送信する。
 このとき、メッセージ724の近傍(図中、メッセージ左下隅)に、BOT722cと同じキャラクタのBOTが表示されるが図示されているとおり、30分ほど前に表示されたBOT722cとは少し様子が異なって(一例として、忙しそうに)表現されている。このように表示させるBOTに表情を持たせ、情報収集に少し時間を要していることやその程度などを表現させることもできる。
 次に、端末720を使用しているユーザは、BOT722cからのアドバイス情報を待たずにメッセージ725aを送信する。すると、今度はメッセージ725aの左下隅にBOT725bが表示され(一例として、このBOTはBOT722bと同じものであり自身に直接紐付けはされていない)、ユーザは自身の手ないし指725cでBOT725bをタップしてアドバイスを求める。
 図7Dは、図7Cを参照して説明した端末720上での操作等に伴う動作等に引き続き、端末730(この端末は端末720と同一の場合も異なる場合もあるが、説明の便宜上、端末720と同一のものとする)上での操作等に伴う動作例及び表示例である。
 つまり、メッセージ731、732、733a、735は、図7Cにおけるメッセージ7211、7212a、722a、724に、それぞれ対応する。
 図7Dにおいて、トークルームの領域734は、オーバーレイ(Overlay)表示であり、図7CにおけるBOT722cのタップ(DANCEの関連情報要求)に応答して表示されたものである。
 オーバレイ734上には、DANCEに関する選択肢ボタン7341a、7341b、7341cが表示され、さらに端末730を使用しているユーザがボタン7341aを押下(一例として、位置7341dをタップ等)することによって、ダンス動画に関するコンテンツ候補7342a、7342b、7342cが表示される。
 さらに、端末730を使用しているユーザは、コンテンツ候補7342bを位置7342dのタップ等により選択し、トークルーム右下隅に再生可能な状態でコンテンツ736を表示させる。
 図7Eは、図7C及び図7Dを参照して説明した一連の動作後の端末720上の画面例である(本図では、端末740上の表示例として説明する)。
 図7Eにおいて、トークルームに表示されたメッセージ741はメッセージ7211、731に、メッセージ742はメッセージ7212a、732に、メッセージ743はメッセージ722a、733aに、メッセージ744はメッセージ723に(図7Dにおいては、対応メッセージはオーバレイに隠れている)、メッセージ745はメッセージ724、735に、メッセージ746はメッセージ725aに(図7Dにおいては、対応メッセージはオーバレイに隠れている)、コンテンツ747はコンテンツ736に、それぞれ対応する。
 図7Eにおいて示されるメッセージ群は、これまでのやりとりの履歴ともなるものであり、それぞれのメッセージ隅に表示されたBOTも対応するメッセージ近傍に表示されたままであるが、本発明はこれらに限定されるものではなく、表示させてから一定時間経過をしたBOTについては自動的に消去させたり、表示させてから一定時間を経過したBOTであっても一度ユーザからのリクエストを受けたBOTについては表示させたままとしたり、様々なバリエーションを採用することができる。
<第1変形例>
 図8A(A)~(C)は、アシスタントBOTをキャラクタとして表示させる場合の表示のさせ方のバリエーションを例示する。同図における遮蔽物801a、801b、801cは、画面上の隅等物理的な遮蔽物の場合もあるし、メッセージや画面上の表示物のようなソフトウェア上の遮蔽物の場合もある。
 図8A(A)~(C)は、アシスタントBOTをキャラクタとして表示させる場合の表示のさせ方のバリエーションを例示する。同図における遮蔽物801a、801b、801cは、画面上の隅等物理的な遮蔽物の場合もあるし、メッセージや画面上の表示物のようなソフトウェア上の遮蔽物の場合もある。
 図8A(A)に示されたBOT810aは、例示的に雛鳥をモチーフとしたキャラクタオブジェクトであり、遮蔽物801aからその顔を半分程度のぞかせているに過ぎない。つまり、同図A(A)においては、BOT810aを表わすオブジェクト画像の一部のみがユーザの目に触れるように制御されている。
 図8A(B)に示されたBOT810b(BOT810aと同一のキャラクタオブジェクトである)は、遮蔽物801bからその顔のほぼ全てをのぞかせている。つまり、同図A(B)においては、BOT810aを表わすオブジェクト画像の一部(しかし、図8A(A)よりは多く)がユーザの目に触れるように制御されている。
 図8A(C)に示されたBOT810c(BOT810a、810bと同一のキャラクタオブジェクトである)は、遮蔽物801cからその全てをのぞかせている。つまり、同図A(C)においては、BOT810aを表わすオブジェクト画像の全部がユーザの目に触れるように制御されている。
 かかる態様において、BOTを表わすオブジェクト画像のどの程度の割合をユーザの目に触れさせるか(オブジェクトの表出割合)によって、一例として、次のような技術的意義付けを行うことができる。
Figure JPOXMLDOC01-appb-T000002
 つまり、BOTから提供可能な情報の質の高低とオブジェクトの表出割合とを比例関係に対応付けたり、提供可能な情報の多少とオブジェクトの表出割合
とを比例関係に対応付けたりすることができる。
 あるいは、BOTへ情報提供をリクエストしてから回答までの時間の目安を表現するために上記表示態様を適用することもできる。この場合は、情報の提供時間の時間とオブジェクトの表示割合とを反比例に対応付けることが考えられる(つまり、オブジェクト表出割合が100%の場合は迅速に回答可能でBOTに自身が有る様を示し、オブジェクト表出割合が20%の場合は回答までに時間がかかる見込みでBOTとしては多少自信がない様子を示す)。この時間はサーバの負荷を計算することで反映させることができる。
<第2変形例>
 図8Bを参照して例示される第2変形例は、第1変形例のさらに他のバリエーションである。
 図8B(A)~(C)は、アシスタントBOTを人間のユーザと同様にメッセージボックスとして表示させる場合の表示のさせ方のバリエーションを例示する。同図における遮蔽物802a、802b、802cは、画面上の隅等物理的な遮蔽物の場合もあるし、メッセージや画面上の表示物のようなソフトウェア上の遮蔽物の場合もある。
 図8B(A)に示されたメッセージボックス820aは、その3分の1程度を遮蔽物802aからのぞかせているに過ぎない。つまり、同図B(A)においては、メッセージボックスを表わすオブジェクト画像の一部のみがユーザの目に触れるように制御されている。
 図8B(B)に示されたメッセージボックス820bは、その3分の2程度を遮蔽物802bからのぞかせているに過ぎない。つまり、同図B(B)においては、メッセージボックスを表わすオブジェクト画像の一部のみ(しかし、同図B(A)よりも多く)がユーザの目に触れるように制御されている。
 図8B(C)に示されたメッセージボックス820cは、その全部を遮蔽物802cからのぞかせるように制御されている。
 かかる態様において、メッセージオブジェクトの表出割合に対する様々な技術的意義付けを行うことができる(一例として、上表等を参照して説明したとおりである)。
<第3変形例>
 図8Cを参照して例示される第3変形例は、第1変形例~第2変形例のさらに他のバリエーションである。
 図8C(A)~(C)は、アシスタントBOTを人間のユーザと同様にメッセージボックスとして表示させる場合の表示のさせ方のバリエーションを例示する。同図におけるメッセージ830a、830b、830cは、それぞれ大きさが異なっている。かかる態様において、メッセージオブジェクトの大きさに対する様々な技術的意義付けを行うことができる(一例として、上表等を参照して説明したとおりである)。
 例えば、BOTから提供可能な情報の質の高低とメッセージオブジェクトの大きさとを比例関係に対応付けたり、提供可能な情報の多少とメッセージオブジェクトの大きさとを比例関係に対応付けたりすることができる。
 あるいは、BOTへ情報提供をリクエストしてから回答までの時間の目安を表現するために上記表示態様を適用することもできる。この場合は、情報の提供時間の時間とメッセージオブジェクトの大きさとを反比例に対応付けることが考えられる(つまり、メッセージオブジェクトが大きい場合は迅速に回答可能でBOTに自身が有る様を示し、メッセージオブジェクトが小さい場合は回答までに時間がかかる見込みでBOTとしては多少自信がない様子を示す)。
<第4変形例>
 図8Dを参照して例示される第4変形例は、第1変形例~第3変形例のさらに他のバリエーションである。
 図8D(A)~(C)は、アシスタントBOTを人間のユーザと同様にメッセージボックスとして表示させる場合の表示のさせ方のバリエーションを例示する。同図におけるメッセージ840a、840b、840cは、例示的に、それぞれの線の濃さが異なっている。かかる態様において、メッセージオブジェクトの線の濃さや背景色等に対する様々な技術的意義付けを行うことができる(一例として、上表等を参照して説明したとおりである)。
<第5変形例>
 図9を参照して例示される第5変形例は、主として図7B~図7Eを参照して具体的に説明したアシスタントBOTを特定のメッセージ近傍等に複数表示させる場合のバリエーションを示すものであり、特にユーザとBOTの関係性によって表示態様を異ならせる場合のバリエーションを示す。
 図9(A)に示されるアシスタントBOT901a、902a、903aは、例えば、BOT712b、712c、712dのように特定のメッセージの近傍等に並んで表示されている。そして、BOT901a、902a、903aは、これらを表示させている端末ユーザと直接の紐付け等がなされているものとする。その場合、図示されているようにアシスタントBOT901a、902a、903aの表示のさせ方(表示態様)に区別を設けないように表示制御する。
 一方で、図9(B)に示されるアシスタントBOT901b、902b、903bについては、BOT901b、902bはこれらを表示させている端末ユーザと直接の紐付け等がなされているが、BOT903bについては間接的な関係(例えば、BOT903bは、トークルームの他ユーザとの直接の紐付けはなされている)に留まるものとする。その場合、図示されているようにアシスタントBOT901b、902b、903bの表示のさせ方(表示態様)に区別を設け、BOT903bは半透明になるように表示制御する。
 また、図9(C)に示されるアシスタントBOT901c、902c、903cについては、BOT901cはこれらを表示させている端末ユーザと直接の紐付け等がなされているが、BOT902c、903cについては間接的な関係に留まるものとする。その場合にも、図示されているようにアシスタントBOT901c、902c、903cの表示のさせ方(表示態様)に区別を設け、BOT902c、903cは半透明になるように表示制御する。
 図9(D)に示されるアシスタントBOT901d、902d、903dについては、それぞれ、BOT901c、902c、903cに対応し、表示態様の区別の設け方のさらなるバリエーションを示すものである。つまり、BOT902c、903cは半透明になるように表示制御されているが、BOT902d、903dはこれと同様の趣旨に基づきモザイク処理が施されるように表示制御される。
<第6変形例>
 図10を参照して例示される第6変形例は、特に図7Cを参照して具体的に説明したアシスタントBOT722cの多忙さ(処理量の多さ等に基づく応答時間の長期化)を表示させる場合のバリエーションを示すものである。
 すなわち、図10(A)に示されるBOTは、通常の応答時間が期待できる場合の表示態様である。図10(B)に示されるBOTは、同図(A)に示された場合よりも応答時間の長期化が予想される場合の表示態様である。そして、図10(B)に示されるBOTは、同図(B)に示された場合よりもさらなる応答時間の長期化が予想される場合の表示態様である。
 また、図10(D)に示されるBOTは、図示されるように遠隔操作されている様子を表現しており、例示的に、コンピュータプログラムによる自動応答ではなく人手(人間)によるマニュアル対応中であることをユーザに示すための表示態様例である。
 このように、BOTの表現方法には、そのBOTの状況に応じた様々な表示態様を適用することできる。
<第4施形態>
 第4実施形態は、第1~第3実施形態において課金処理を導入する実施形態である。図11~12を参照してその基本概念を説明する。
 当然のことながら、第4実施形態に記載された内容の一部又は全部は、その特徴が相互に排他的である場合を除いて他の実施形態にも適用可能である。
[課金のタイミング]
 これまでの実施形態を踏まえた課金の典型的なタイミングは、本発明の一実施形態において、(B1)アシスタントBOTを提示ないし提供させたとき、(B2)アシスタントBOTに対して大まかな複数のテーマなど選択可能な情報ないしメニューを要求/提供したとき、(B3)テーマに沿った1以上のテーマに沿ったコンテンツ候補を要求/提供したとき、(B4)コンテンツ候補のうちの1つのコンテンツを要求/提供したとき、等が挙げられる。
[課金対象]
 上記(B1)については、典型的にはアシスタントBOT提供元に課金することが好適である。また、(B2)~(B4)については、アシスタントBOT提供元、端末ユーザのいずれか又は双方に課金可能と思われる(つまり、アシスタントBOT提供元に対しては広告料聴取の観点から、端末ユーザに対してはサービス提供の観点からである)。
 以下、本発明の理解の容易のために、便宜上、アシスタントBOT提供元への課金を前提とした説明をするが、本発明はこれに限定されない。また、(B1)に例示したようなアシスタントBOTを第1オブジェクトないし第1情報、(B2)に例示したような選択可能な情報ないしメニューや(B3)に例示したようなコンテンツ候補を第2オブジェクトないし第2情報、(B4)に例示したような提供コンテンツを第3オブジェクトないし第2情報というものとする。
 図11に、本発明の一実施形態にかかるシステム等における課金処理の基本フローを示す。図11のステップS1101では、すでにアプリ(典型的には、メッセージングサービス)は起動されているものとする。次にステップS1102では、上述の実施形態に示された様々なタイミングでアシスタントBOTによる第1情報提示(第1オブジェクト提示)が行われ、ステップS103へ進む。
 ステップS1103では、前ステップでBOTによる第1情報提示が行われたことによる課金のための重量カウント処理が行われる。ここでの処理のポイントは、第1情報提示のたびに都度課金処理を行うこともできるが、場合によっては一例として、第1情報提示の回数に応じた段階的な課金処理を行うべく処理が行われるという点である。
 例えば、ステップS1103では前ステップを根拠とするBOTによる第1情報提示の回数がカウントされ、一定期間(例えば、1週間とか1月)が経過したとき、あるいは一定回数(例えば、1000回とか1万回)のカウントが計上されたときに課金処理を行うことができる。
 なお、課金処理それ自体は公知の技術を適宜適用することができる。
 ステップS1104では、上述の実施形態に示された様々なシーンを介してユーザによるアシスタントBOTに対する第2情報提示(第2オブジェクト提示)要求があるかどうかが判断され、Noの場合はステップS1110へスキップするが、Yesの倍位はステップS1105へ進み、BOTによる第2情報提示がユーザ端末に対してなされる。
 ステップS1106では、前ステップでユーザによる第2情報提示が行われたことによる課金のための重量カウント処理が行われる。ここでの処理のポイントは、第2情報提示のたびに都度課金処理を行うこともできるが、場合によっては一例として、第2情報提示の回数に応じた段階的な課金処理を行うべく処理が行われるという点である。
 ステップS1107では、上述の実施形態に示された様々なシーンを介してユーザによるアシスタントBOTに対する第3情報提示(第3オブジェクト提示)要求があるかどうかが判断され、Noの場合はステップS1110へスキップするが、Yesの倍位はステップS1108へ進み、BOTによる第3情報提示がユーザ端末に対してなされる。
 ステップS1109では、前ステップでユーザによる第3情報提示が行われたことによる課金のための重量カウント処理が行われる。ここでの処理のポイントは、第3情報提示のたびに都度課金処理を行うこともできるが、場合によっては一例として、第3情報提示の回数に応じた段階的な課金処理を行うべく処理が行われるという点である。
 ステップS1110は本フローの終了ではあるが、アプリが作動している限り、上述したステップS1102~ステップS1109までの処理が繰り返される。
<第7変形例>
 図12を参照して説明される第7変形例は、図11におけるステップS1103、ステップS1106、ステップS1109の従来カウント処理の拡張であり、トークグループ内の複数のメンバーによる同じコンテンツ等への課金の調整ロジックが実装されたものとなっている。
 図12のステップS1201において情報提供等に伴う従量カウント処理が開始されるとステップS1202へ進み、情報提示先の(ユーザ)アカウントが特定され、さらにステップS1203へ進み、当該アカウントが所属するアカウントグループが特定される。
 ここで、実装形態によってはステップS1202を割愛できる場合がある。
 次に、ステップS1204へ進み、本フローを開始する根拠となっている情報提供等に係る情報は、前ステップで特定されたアカウントグループ内で既に要求ないし提供済みの情報かどうかが判断される。
 ステップS1204でNoの場合はステップS1206へスキップするが、Yesの場合はステップS1205へ進み、重複フラグをオンにする(この重複フラグは図示しない適切なタイミングで初期化済である)。
 ステップS1206では、重複フラグがオンであるかどうかが判断され、Yesの場合はステップS1208へスキップするが、Noの場合はステップS1207へ進み、従量カウント処理が実施される。
 従量カウント処理の具体例は、図11を参照して説明したとおりである。
 ステップS1208は本フローの終了ではあるが、アプリが作動している限り、拡張された従量カウント処理においては上述したステップS1202~ステップS1207までの処理が実施される。
 図12の動作フローが意味するところは、一例として、アシスタントBOTオブジェクトがあるメッセージに応答して表示され、トークグループ内の第1ユーザにより選択されたのちに当該アシスタントBOTが同トークグループ内の第2ユーザにより選択された場合は、この第2ユーザにより選択されたことによるBOT提供元に対する課金情報は生成しない(グループ内での重複課金を回避する制御)、ということである。
  一方で、図12に示したグループ内での重複課金回避のロジックを適用しない場合には、アシスタントBOTが、あるメッセージに応答して表示され、トークグループ内の第1ユーザにより選択されたのちに当該アシスタントBOTが同トークグループ内の第2ユーザにより選択された場合は、この第2ユーザにより選択されたことによるBOT提供元に対する課金については、先の第1ユーザにより選択されたことによる課金とは別に行う(アカウントごとの課金を重視する制御)、ということである。
<第5実施形態>
 第5実施形態は、第4実施形態を踏まえてユーザ端末(特に、BOT提供元端末)上での表示例にフォーカスして本発明の一実施形態における特徴を説明するものである。以下、図13を参照して説明する。
 なお、第5実施形態に記載された内容の一部又は全部は、その特徴が相互に排他的である場合を除いて他の実施形態にも適用可能である。
 図13に示される本発明の一実施形態において、端末1300(筐体部等は不図示)の表示画面上には、例示的に、BOT提供元ユーザの当該BOTに対する課金情報を閲覧するための閲覧画面が表示されており、端末ステータス情報表示領域1301と、BOT情報表示領域1302と、第1情報提示等による課金料金確認/変更領域1303と、第2情報提示等による課金料金確認/変更領域1304と、第3情報提示等による課金料金確認/変更領域1305と、支払手段等案内領域1306とが含まれる。
 BOT情報表示領域1302には、対象BOT名とBOTキャラクタ画像とが表示され、当該BOTが一目で識別できるようになっている。
 第1情報提示等による課金料金確認/変更領域1303には、第1情報提示等による課金料金単価として、1ビューあたり何ポイントになるかが表示されている。ポイントはビュー回数(提示回数)を累積計算する際の仮想的な通貨価値である。また、設定変更ボタン1303bを押下すると、一例として図示しない別画面へ遷移し、課金条件(デフォルトでは申込時の課金条件)を適宜変更することができる。
 第2情報提示等による課金料金確認/変更領域1304、及び第3情報提示等による課金料金確認/変更領域1305も、領域1303と同様の構成となっており、例えば、設定変更ボタン1304bや1305cを押下すると、一例として図示しない別画面へ遷移し、それぞれの情報提示における課金条件(デフォルトでは申込時の課金条件)を適宜変更することができる。
<第6実施形態>
 第6実施形態は、上述した第1情報~第3情報を要求したとき(あるいは、当該要求をして情報提供を受けたとき)、要求元のユーザに課金される際の課金処理実行を通知するための表示例に関する。図14を参照して説明する。
 図14に示されるとおり、アシスタントBOT1401に対してユーザが情報提供要求をするか、あるいは、情報提供要求をして情報提供を受けると、BOT1401aの頭部に描かれているコイン投入口1401bにコイン1402が投入される様子が示される(かかる様子はアニメーションによって表現されても良い)。
 かかる表示態様によって、ユーザは自身に課金がされた(あるいは、課金処理のためのポイントが付加された)ことを容易に認知することができる。
<第7実施形態>
 第7実施形態は、第4実施形態を踏まえてユーザ端末(特に、BOT提供元端末)上での表示例にフォーカスして本発明の一実施形態における特徴を説明するものである。以下、図15を参照して説明する。
 なお、第7実施形態に記載された内容の一部又は全部は、その特徴が相互に排他的である場合を除いて他の実施形態にも適用可能である。
 図15に示される本発明の一実施形態において、端末1500(筐体部等は不図示)の表示画面上には、例示的に、BOT提供元ユーザの当該BOTに対する請求情報を閲覧するための閲覧画面が表示されている。より詳細には、端末ステータス情報表示領域1501と、BOT情報表示領域1502と、現時点における請求情報(小計欄)1503、同(税)1504、同(合計)1505とが表示され、さらに、第1情報提示等による内訳欄(詳細表示ボタン1506aが含まれる)と第2情報提示等による内訳欄(詳細表示ボタン1506bが含まれる)と第3情報提示等による内訳欄(詳細表示ボタン1506cが含まれる)とからなる統計情報欄1506と、支払手段等案内領域1507と、支払ページ遷移ボタン1508とが含まれる。
 BOT情報表示領域1502には、対象BOT名とBOTキャラクタ画像とが表示され、当該BOTが一目で識別できるようになっている。
 現時点における請求情報(小計欄)1503には、一例として、当該請求月の現時点での請求額(税別表示)が表示されている。同様に、現時点における請求情報(税)1504には、一例として、当該請求月の現時点での請求額(税表示)が表示されている。そして、現時点における請求情報(合計)1505には、一例として、当該請求月の現時点での合計請求額(税込表示)が表示されている。
 図15において、第1情報提示等による内訳欄には、第1情報提示等が当該請求月における現時点で8089回発生していることが示されている。同図中、詳細表示ボタン1506aが押下されると、一例として図示しない別画面に遷移してその統計的な内訳を閲覧することができる。
 また、第2情報提示等による内訳欄には、第2情報提示等が当該請求月における現時点で1607回発生していることが示されている。同図中、詳細表示ボタン1506bが押下されると、一例として図示しない別画面に遷移してその統計的な内訳を閲覧することができる。
 また、第3情報提示等による内訳欄には、第3情報提示等が当該請求月における現時点で1008回発生していることが示されている。同図中、詳細表示ボタン1506cが押下されると、一例として図示しない別画面に遷移してその統計的な内訳を閲覧することができる。
 本開示の実施形態を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本開示の範囲に含まれることに留意されたい。例えば、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、各実施形態に示す構成を適宜組み合わせることとしてもよい。
100、200 BOT制御管理システム
110、120 情報処理端末
151、152、153 情報処理装置(サーバ)
199 ネットワーク
210 情報処理サーバ
220、230 PC(情報処理端末)
240 携帯電話(情報処理端末)
250、251、252 タブレット(情報処理端末)
260、270、280,290 ネットワーク

Claims (17)

  1.  第1情報処理端末に対応付けられた第1ユーザと、1以上の第2情報処理端末に対応付けられた1以上の第2ユーザとが、参加するトークルームにおける会話補助を行うプログラムであって、前記第1情報処理端末に、
      トークルームに表示されるメッセージに応じて、第1オブジェクトを表示させるステップと、
      前記第1オブジェクトが選択されたことに応答して、第2のオブジェクトを表示させるステップと、
      前記第2オブジェクトが選択されたこと応答して、第3のオブジェクトを表示させるステップと、を実行するプログラムが記録された記録媒体。
  2.  前記第1オブジェクトは、前記メッセージ内のテキストに応じて2以上の第1オブジェクトが表示される、請求項1に記載の記録媒体。
  3.  前記第1オブジェクトは、前記メッセージ内のテキストに応じて表示されるオブジェクトが異なる、請求項1に記載の記録媒体。
  4.  前記メッセージは、前記第1情報処理端末が前記第2情報処理端末から受信したメッセージである、請求項1に記載の記録媒体。
  5.  前記メッセージは、前記第1情報処理端末が前記第2情報処理端末に送信したメッセージである、請求項1に記載の記録媒体。
  6.  前記第1オブジェクトは、前記トークルームに表示されるメッセージのうち、対応付けられた時刻が最も新しいメッセージに応じて2以上の第1オブジェクトが表示される、請求項1に記載の記録媒体。
  7.  前記第1オブジェクトは、前記トークルームを提供するインスタントメッセンジャーサービスの1アカウントと対応付けられており、
     前記アカウントと前記第1ユーザとが所定の関係を設定されている場合に、前記アカウントに対応づけられた前記第1オブジェクトが表示される、請求項1に記載の記録媒体。
  8.  前記第1オブジェクトは、前記トークルームを提供するインスタントメッセンジャーサービスの1アカウントと対応付けられており、
     前記アカウントと前記第1ユーザとが所定の関係を設定されているか否かに応じて表示態様が異なる、請求項1に記載の記録媒体。
  9.  前記第1オブジェクトは、前記トークルームを提供するインスタントメッセンジャーサービスの1アカウントと対応付けられており、
     前記アカウントと前記第2ユーザとが所定の関係を設定されている場合に、前記第1オブジェクト、前記第2オブジェクト、または、前記第3オブジェクトのうちの少なくとも1つが表示される、請求項1に記載の記録媒体。
  10.  前記第1オブジェクトは、前記トークルームを提供するインスタントメッセンジャーサービスの1アカウントと対応付けられており、
     前記アカウントと前記第2ユーザとの間の所定の関係が設定されていない場合に、前記第1オブジェクト、前記第2オブジェクト、または、前記第3オブジェクトのうちの少なくとも1つが非表示となる、請求項1に記載の記録媒体。
  11.  前記第1オブジェクトが、表示領域の縁方向に操作されることに応答して、前記操作以降には前記第1オブジェクトを非表示設定とする、請求項1に記載の記録媒体。
  12.  前記第1オブジェクトが、表示領域の縁方向に操作されることに応答して、前記第1オブジェクトに対応付けられたアカウントと第1ユーザとの所定の関係を解除する、請求項1に記載の記録媒体。
  13.  前記第1オブジェクトは、前記トークルームを提供するインスタントメッセンジャーサービスの1アカウントと対応付けられており、
     前記アカウントと前記第2ユーザとの間の所定の関係が設定されていない場合に、前記第1オブジェクト、前記第2オブジェクト、または、前記第3オブジェクトのうちの少なくとも1つが、前記第1情報処理端末上での表示態様とは異なる表示態様で前記第2情報処理端末上に表示される、請求項1に記載の記録媒体。
  14.  前記第1オブジェクト、前記第2オブジェクト、または、前記第3オブジェクトのうちの少なくとも1つは、前記第1ユーザのメッセージとして前記第2情報処理端末上に表示される、請求項1に記載の記録媒体。
  15.  前記第1オブジェクト、前記第2オブジェクト、または、前記第3オブジェクトのうちの少なくとも1つは、前記トークルームの画面上にオーバレイの表示態様で表示される、請求項1に記載の記録媒体。
  16.  前記第1オブジェクトは、前記メッセージの近傍に表示される、請求項1に記載の記録媒体。
  17.  前記第1オブジェクトは、前記メッセージに重畳されて表示される、請求項1に記載の記録媒体。
     
PCT/JP2018/010218 2017-03-15 2018-03-15 Bot制御管理プログラム、方法、装置、及びシステム WO2018168998A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-050419 2017-03-15
JP2017050419A JP6929670B2 (ja) 2017-03-15 2017-03-15 プログラム、情報処理方法、端末

Publications (1)

Publication Number Publication Date
WO2018168998A1 true WO2018168998A1 (ja) 2018-09-20

Family

ID=63523833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010218 WO2018168998A1 (ja) 2017-03-15 2018-03-15 Bot制御管理プログラム、方法、装置、及びシステム

Country Status (2)

Country Link
JP (3) JP6929670B2 (ja)
WO (1) WO2018168998A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111124319A (zh) * 2018-10-30 2020-05-08 富士施乐株式会社 信息处理装置、存储介质及信息处理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388665B2 (ja) * 2022-02-08 2023-11-29 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム
JP7421762B1 (ja) 2022-09-27 2024-01-25 グリー株式会社 情報処理システム、制御方法、及びサーバ装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142919A (ja) * 2013-01-22 2014-08-07 Nhn Business Platform Corp マルチユーザメッセンジャーサービスを提供する方法およびシステム
JP2017027443A (ja) * 2015-07-24 2017-02-02 Line株式会社 コンテンツ識別子による別のコンテンツを提供するシステム及びその方法
US20170337209A1 (en) * 2016-05-17 2017-11-23 Google Inc. Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099382A (ja) * 2001-09-20 2003-04-04 Sharp Corp コミュニケーションシステム及び情報処理プログラムを記録した記録媒体
JP2004152057A (ja) * 2002-10-31 2004-05-27 Hitoshi Kimura ビデオチャット等の課金システム
WO2004057507A1 (ja) * 2002-12-20 2004-07-08 Fujitsu Limited 利用者位置による課金システム
KR101266141B1 (ko) * 2011-10-11 2013-05-21 (주)카카오 인스턴트 메시징 서비스 제공 방법 및 그 제공 시스템
JP6681146B2 (ja) 2015-03-31 2020-04-15 Line株式会社 情報処理装置、情報処理方法、及びプログラム
US11477139B2 (en) 2016-02-25 2022-10-18 Meta Platforms, Inc. Techniques for messaging bot rich communication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142919A (ja) * 2013-01-22 2014-08-07 Nhn Business Platform Corp マルチユーザメッセンジャーサービスを提供する方法およびシステム
JP2017027443A (ja) * 2015-07-24 2017-02-02 Line株式会社 コンテンツ識別子による別のコンテンツを提供するシステム及びその方法
US20170337209A1 (en) * 2016-05-17 2017-11-23 Google Inc. Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111124319A (zh) * 2018-10-30 2020-05-08 富士施乐株式会社 信息处理装置、存储介质及信息处理方法

Also Published As

Publication number Publication date
JP7171854B2 (ja) 2022-11-15
JP7458458B2 (ja) 2024-03-29
JP2018156183A (ja) 2018-10-04
JP2022190108A (ja) 2022-12-22
JP6929670B2 (ja) 2021-09-01
JP2021185501A (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
US10965723B2 (en) Instantaneous call sessions over a communications application
JP6760797B2 (ja) プログラム、情報処理方法、及び端末
JP6290278B2 (ja) インスタントメッセージサービスを通じたシナリオエモーティコンの表示方法及びそのためのユーザ端末
US10187484B2 (en) Non-disruptive display of video streams on a client system
JP7458458B2 (ja) プログラム、方法、端末
WO2020214395A1 (en) Contextually-aware control of a user interface displaying a video and related user text
WO2024002047A1 (zh) 会话消息的显示方法、装置、设备及存储介质
KR20150037941A (ko) 협업 환경 및 뷰
JP2016126790A (ja) ユーザカスタム型テンプレートを提供するメッセンジャサービスを提供する方法、システムおよび記録媒体
JP2019102001A (ja) プログラム、情報処理方法、及び情報処理装置
JP2021002699A (ja) 動画配信システム、情報処理方法およびコンピュータプログラム
JP6902133B2 (ja) 動画配信システム、情報処理方法およびコンピュータプログラム
JP2018156184A (ja) Bot制御管理プログラム、方法、装置、及びシステム
JP7126822B2 (ja) プログラム、情報処理方法、及び情報処理装置
JP2022184842A (ja) コンピュータプログラム、方法、及び、サーバ装置
JP2018156185A (ja) Bot制御管理プログラム、方法、装置、及びシステム
JP7338935B2 (ja) 端末の表示方法、端末、端末のプログラム
JP2021168481A (ja) 動画配信システム、情報処理方法およびコンピュータプログラム
CN115857762A (zh) 一种答复问题方法、装置、设备、介质及程序产品
JP7417798B2 (ja) 表示方法,プログラム,端末
KR102095306B1 (ko) 콘텐츠 공유를 위한 장치
CN115334028B (zh) 表情消息的处理方法、装置、电子设备及存储介质
KR101471171B1 (ko) 게시판과 연계된 인스턴트 메시징 서비스 제공 시스템 및 방법
US12130998B1 (en) Application content management in 3D environments
WO2024222594A1 (zh) 信息处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18768586

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18768586

Country of ref document: EP

Kind code of ref document: A1