WO2010095388A1 - 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム - Google Patents
動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム Download PDFInfo
- Publication number
- WO2010095388A1 WO2010095388A1 PCT/JP2010/000741 JP2010000741W WO2010095388A1 WO 2010095388 A1 WO2010095388 A1 WO 2010095388A1 JP 2010000741 W JP2010000741 W JP 2010000741W WO 2010095388 A1 WO2010095388 A1 WO 2010095388A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- operation target
- data
- character
- operation data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
Definitions
- the present invention relates to an operation target control device, an operation target control system, an operation target control method, and a program for controlling an operation target operation based on operation data indicating the operation target operation.
- An object of the present invention is to provide an operation target control device, an operation target control system, an operation target control method, and a program that can change an operation pattern depending on an operation target (character) and can improve entertainment for a user. There is.
- the present invention has been made to solve the above problems.
- the operation target control apparatus controls the operation of the operation target based on operation data indicating the operation of the operation target, and receives input of attribute information indicating the attribute of the operation target And the operation information for controlling the operation of the user operation target generated based on the attribute information input by the user of the operation target control device, based on the attribute information received by the input unit
- a generation unit that generates user operation data
- a control unit that changes the operation of the user operation target based on the user operation data generated by the generation unit.
- An operation target control system includes an operation target control device that controls the operation of the operation target based on operation data indicating the operation of the operation target, and for controlling the operation of the operation target. And a server device that holds operation data.
- the operation target control device controls an operation of the operation target generated based on an input unit that receives input of attribute information indicating the attribute of the operation target, and the attribute information that the input unit has received the input.
- a generation unit that generates the operation data, an identification information generation unit that generates operation data identification information unique to the operation data generated by the generation unit, and the operation data identification information generated by the identification information generation unit in the storage unit
- a registration unit for registration a device-side transmission unit for transmitting operation data generated by the generation unit and operation data identification information generated by the identification information generation unit to the server device, and operation data identification stored by the storage unit
- a device-side receiving unit that receives operation data indicated by the information from the server device; and a control unit that changes an operation to be performed based on the operation data received by the device-side receiving unit; Provided.
- the server device includes a server-side receiving unit that receives the operation data and the operation data identification information from the operation target control device, and a server-side storage unit that associates the received operation data with the received operation data identification information.
- a server-side registration unit that registers the operation data corresponding to the operation data identification information from the server-side storage unit, and transmits the operation data to the operation target control device.
- An operation target control method uses an operation target control device that controls the operation of the operation target based on operation data indicating the operation of the operation target, and an attribute indicating the attribute of the operation target The attribute that has received the input as operation data for controlling the operation of the operation target for the user that is the operation target generated based on the attribute information input by the user of the operation target control device that has received the input of information Generating user operation data based on the information, and changing the operation of the user operation target based on the generated user operation data.
- a program provides an operation target control device that controls an operation of an operation target based on operation data indicating an operation of the operation target, and inputs attribute information indicating the attribute of the operation target.
- An input unit that receives the user operation data, which is operation data for controlling the operation of the user operation target indicating the operation target generated based on the attribute information input by the user of the operation target control device; Is generated based on the attribute information received by the input unit, and is operated as a control unit that changes the operation of the user operation target based on the user operation data generated by the generation unit.
- the operation target control device communicates with another device holding operation data for controlling the operation of the operation target, operates the operation target, and from the other device
- An operation data receiving unit that receives operation data
- a control unit that changes the operation of the operation target based on the operation data received by the operation data receiving unit.
- the program according to the sixth embodiment of the present invention communicates with another device holding operation data for controlling the operation of the operation target, and sets the operation target control device that operates the operation target to the other device.
- An operation data receiving unit that receives operation data from the apparatus, and a control unit that changes the operation of the operation target based on the operation data received by the operation data receiving unit.
- the generation unit of the operation target control device generates operation data based on the input attribute information, and the control unit changes the operation of the operation target based on the operation data.
- FIG. 10 is a second sequence diagram illustrating an operation of the character system illustrated in FIG. 1.
- FIG. 1 is a configuration diagram of a character system according to an embodiment of the present invention.
- the character system (action target control system) includes portable terminals 100-1 to 100-N (action target control devices) and a server device 200.
- the portable terminals 100-1 to 100-N and the server device 200 are connected by a network.
- the portable terminals 100-1 to 100-N can be connected to each other by short-range communication such as a network or infrared communication.
- one mobile terminal 100-1 will be described, but the other mobile terminals 100-2 to 100-N have the same configuration.
- the portable terminal 100-1 displays the character C (action target).
- the character C moves on the screen of the mobile terminal 100-1 and displays a message.
- the server device 200 stores character C information (motion data), character C motion and message patterns.
- FIG. 2A is a schematic block diagram illustrating a configuration of the mobile terminal.
- the portable terminal 100-1 includes an input unit 110, a communication unit 120 (attribute information reception unit, operation data reception unit, electronic document reception unit, electronic document transmission unit, device side transmission unit, device side reception unit), and display unit 130 (standby display unit), photographing unit 140, auxiliary storage unit 150 (storage unit), main storage unit 160, and CPU 170.
- the input unit 110 receives input of information from the user via an input interface such as a numeric keypad.
- the communication unit 120 communicates with other mobile terminals 100-2 to 100-N or the server device 200.
- the display unit 130 controls screen display.
- the photographing unit 140 captures an image with a digital camera built in the portable terminal 100-1.
- the auxiliary storage unit 150 stores system information and programs of the mobile terminal 100-1. Further, the auxiliary storage unit 150 stores a character table for storing the character C and a closeness table for storing closeness between the characters C.
- the main storage unit 160 stores information used by the CPU 170 for calculation. CPU 170 executes a program and controls the operation of portable terminal 100-1.
- the bus 180 is a transmission path for transferring data to each processing unit inside the portable terminal 100-1.
- the generation unit 171 generation unit, identification information generation unit), registration unit 172 (registration unit), image analysis unit 173, sentence analysis unit 174 (electronic document analysis unit) ), Standby control unit 175 (standby display unit), scheduler control unit 176 (schedule registration unit), mail control unit 177 (e-mail transmission unit) and operation determination unit 178 (control unit, emotion determination unit, closeness determination unit, It operates as a document generation unit).
- the generation unit 171 generates the character C based on information input by the user.
- the registration unit 172 registers the character C in the auxiliary storage unit 150.
- the image analysis unit 173 analyzes the image photographed by the photographing unit 140 and generates a portrait image.
- the sentence analysis unit 174 analyzes the contents of the electronic document.
- the standby control unit 175 controls the setting and display of the standby screen.
- the scheduler control unit 176 performs control such as schedule registration and display in the scheduler.
- the mail control unit 177 controls the generation, transmission / reception, display, and the like of electronic mail.
- the action determining unit 178 determines the action and message of the character C.
- FIG. 3A and 3B are diagrams illustrating tables stored in the auxiliary storage unit.
- FIG. 3A shows a character table.
- the character table stored in the auxiliary storage unit 150 includes a character ID for identifying the character C (motion data identification information), an email address of the mobile terminal that generated the character C, an appearance of the character C, and a character C's personality (attributes). ), The preference (attribute) of the character C, and the emotion of the character C are stored.
- FIG. 3A shows an example in which personality is expressed by the values of five parameters: strictness, kindness, calmness, freedom, and obedience. This expression method is an example, and the content and number of parameters are not limited thereto.
- the expression of the personality is not limited to the expression by the parameter.
- the personality may be expressed by classifying the personality into a predetermined type.
- the preference is expressed by a list of keywords.
- FIG. 3B shows a closeness table.
- the closeness table stored in the auxiliary storage unit 150 stores two mail
- FIG. 2B is a schematic block diagram illustrating the configuration of the server device 200.
- the server device 200 includes a communication unit 210 (server side reception unit, server side transmission unit), a control unit 220 (server side registration unit), and a storage unit 230 (server side storage unit, operation pattern storage unit).
- Communication unit 210 communicates with mobile terminals 100-1 to 100-N.
- the control unit 220 controls the server device 200.
- the storage unit 230 is a character table for storing character C, a closeness table for storing closeness between characters C, an action table for storing character C motion patterns, and a message table for storing character C message patterns.
- a recommendation table for storing a recommendation pattern of the character C and a mail table for storing a pattern of an electronic mail text.
- the character table and closeness table have the same configuration as the character table and closeness table stored in the mobile terminal 100-1.
- the action table stores the character C's personality, action pattern, and occurrence probability in association with each other. For example, a character having a high freedom parameter value is set to have a high probability of “lie down” action, and a character having a high “severity” parameter value is set to have a high probability of “anger” action.
- the message table stores the character C's personality and the message pattern in association with each other.
- the recommendation table stores keywords such as the preference of the character C and recommendation patterns in association with each other.
- the mail table stores the character C's personality, keywords, and mail text pattern in association with each other.
- input unit 110 accepts input of attribute information indicating the attribute of character C.
- the generation unit 171 of the CPU 170 generates a character C based on the attribute information.
- the character C generated by the registration unit 172 is registered in the auxiliary storage unit 150.
- the action determination unit 178 changes the action of the character C stored in the auxiliary storage unit 150 in correspondence with the attribute information. Thereby, the mobile terminal 100-1 can perform different operations depending on the character C.
- FIG. 4 is a flowchart showing the operation of the mobile terminal.
- the standby control unit 175 of the CPU 170 determines whether the auxiliary storage unit 150 stores the character C. It is determined whether or not (step S1).
- the input unit 110 sets the character C stored in the auxiliary storage unit 150 on the standby screen. An input of information for selecting whether or not is accepted (step S2).
- step S1 When standby control unit 175 determines in step S1 that auxiliary storage unit 150 does not store character C (step S1: NO), or in step S2, standby control unit 175 stores auxiliary storage unit 150 in memory.
- step S2: NO A case where information indicating that a non-character C is set on the standby screen is received (step S2: NO) will be described.
- the generation unit 171 selects information for selecting whether to newly create a character C via the input unit 110 or to receive the character C from another portable terminal 100-2 to 100-N or the server device 200. Is received (step S3).
- the character C is received from the server device 200
- a case where a character C of a celebrity publicized on the server device 200 is received can be cited.
- step S3 When the generation unit 171 receives information indicating that a character C is newly created (step S3: YES), the generation unit 171 inputs attribute information indicating the character C's personality or preference via the input unit 110 (mobile phone). An input of information for selecting between the terminal 100-1) and the other portable terminals 100-2 to 100-N is accepted (step S4). Examples of the case where the attribute information is input on the other mobile terminals 100-2 to 100-N include cases where the other mobile terminals 100-2 to 100-N do not support the character system.
- step S4 When the generation unit 171 receives information indicating that input of attribute information is to be performed by the terminal itself (step S4: YES), the portable terminal 100-1 receives input of attribute information and generates a character C (step S5). ). Details of this processing will be described later.
- step S4: NO when the standby screen control unit 175 receives information indicating that the other mobile terminals 100-2 to 100-N input attribute information (step S4: NO), the mobile terminal 100-1 The attribute information is received from the portable terminals 100-2 to 100-N, and the character C is generated (step S6). Details of this processing will be described later.
- step S3 when the generation unit 171 receives information indicating that the character C is received from the outside (step S3: NO), the communication unit 120 transmits the other mobile terminals 100-2 to 100-N or the server device 200. Character C is received from (Step S7).
- the registration unit 172 stores the character C in the auxiliary storage unit 150 (step S8).
- step S2 NO
- the attribute information is input in step S5.
- the standby control unit 175 sets the corresponding character C on the standby screen (step S9).
- the standby control unit 175 sets the character C to the standby screen
- the standby control unit 175 causes the character C and the program to reside in the main storage unit 160.
- the display unit 130 reads the character C and the program from the main storage unit 160 and displays the character C on the standby screen.
- FIG. 5 is a first flowchart showing a character generation operation by the mobile terminal.
- step S ⁇ b> 4 described above when the generation unit 171 receives information indicating that the input of attribute information is performed by the own terminal, the generation unit 171 stores the face of the character C in the auxiliary storage unit 150 via the input unit 110. An input of information indicating whether or not to generate from the image being processed is accepted (step S5-1).
- the generation unit 171 When the generation unit 171 receives input of information indicating that the face of the character C is generated from the image stored in the auxiliary storage unit 150 (step S5-1: YES), the generation unit 171 includes the auxiliary storage unit A corresponding image is acquired from 150 (step S5-2). On the other hand, when the generation unit 171 receives input of information indicating that the face of the character C is generated from an image not stored in the auxiliary storage unit 150 (step S5-1: NO), the photographing unit 140 The generation unit 171 acquires the captured image (step S5-3).
- the image analysis unit 173 analyzes the acquired image and generates a portrait image (step S5-4).
- the portrait image is generated as follows, for example. First, the image analysis unit 173 extracts, from the image, a region in which the hue, brightness, and luminance values are within a predetermined range by comparing with the hue, brightness, and luminance values of the skin color. The image analysis unit 173 extracts a region having a substantially elliptical shape as the face region among the extracted regions. Next, the image analysis unit 173 selects a color that touches the upper side of the face area.
- the image analysis unit 173 compares the hue, lightness, and luminance values from the image within a predetermined range compared to the hue, lightness, and luminance values of the selected color, and is an area in contact with the face area information. Are extracted as hair regions. Next, the image analysis unit 173 extracts the contours of the face region and the hair region, and extracts parts such as eyebrows, eyes, nose, mouth, and contour of the face. Next, the image analysis unit 173 extracts a portrait part similar to the part extracted from the portrait parts stored in the auxiliary storage unit 150 in advance, and arranges the portrait part at the corresponding coordinates. Although a portrait image can be generated by such a method, the present invention is not limited to this, and other methods may be used.
- the generation unit 171 reads the body information stored in advance in the auxiliary storage unit 150 (step S5-5).
- the torso information is a set of images showing the torso of the character C.
- the torso information is represented by an associative array in which motion patterns such as “run” and “sit” and a body image corresponding to the motion pattern are stored in association with each other. Is done.
- the image is not limited to a still image and may be a moving image.
- the generation unit 171 combines the portrait image of the character C with the face portion of the read body information, and generates appearance information of the character C (step S5-6).
- the generation unit 171 When generating the appearance information of the character C, the generation unit 171 acquires the question items stored in advance by the auxiliary storage unit 150 and causes the display unit 130 to display them (Step S5-7). With this question, the generation unit 171 collects information used for determining the user's personality and preference. The questions used for character determination are, for example, questions such as “Do you keep time?” Or “Is curious?” The questions used to determine the preference are, for example, “what is your favorite music”, “what is your favorite food”, and the like. When the display unit 130 displays the question item, the generation unit 171 receives an input of an answer to the question item via the input unit 110 (step S5-8).
- the generation unit 171 determines the character C character C based on the answer (step S5-9).
- the personality is expressed by values of five parameters, for example, strictness, kindness, calmness, freedom, and obedience.
- the personality is determined by, for example, associating a parameter with a question item in advance and calculating the parameter based on whether the answer to the question item associated with the parameter is positive or negative. It can be carried out.
- the generating unit 171 When determining the character C, the generating unit 171 generates a character ID for identifying the character C (step S5-10).
- the registration unit 172 associates the character ID with the mail address of the terminal itself, and uses the appearance information, the information indicating the personality, and the information indicating the preference as the character C in the auxiliary storage unit 150. It is stored in the character table (step S5-11).
- the communication unit 120 transmits the character ID, the mail address of the terminal itself, and the character C to the server device 200 (step S5-12). Thereby, the portable terminal 100-1 can generate the character C and store the character C in the auxiliary storage device 150 and the server device 200.
- FIG. 6 is a second flowchart showing the character generation operation by the mobile terminal.
- step S4 when the generation unit 171 receives information indicating that the input of attribute information is performed by the other portable terminals 100-2 to 100-N, the generation unit 171 receives the character C via the input unit 110.
- the input of information indicating whether or not to generate the face from the image stored in the auxiliary storage unit 150 is accepted (step S6-1).
- the generation unit 171 When the generation unit 171 receives input of information indicating that the face of the character C is generated from the image stored in the auxiliary storage unit 150 (step S6-1: YES), the generation unit 171 stores the question stored in the auxiliary storage unit 150 A questionnaire form is generated from the items and transmitted to the other portable terminals 100-2 to 100-N via the communication unit 120 (step S6-2). When the other portable terminals 100-2 to 100-N receive the questionnaire form and transmit the questionnaire response, the communication unit 120 receives the answer from the other portable terminals 100-2 to 100-N (step S6-3). ). When the communication unit 120 receives the answer, the generation unit 171 acquires an image used for generating the face of the character C from the auxiliary storage unit 150 (step S6-4).
- the auxiliary storage unit 150 stores the information.
- a questionnaire form having an image input field is generated from the question items to be transmitted and transmitted to the other portable terminals 100-2 to 100-N via the communication unit 120 (step S6-5).
- the communication unit 120 receives the responses and images from the other mobile terminals 100-2 to 100-N (Ste S6-6).
- the generation unit 171 acquires an image from the reception result received by the communication unit 120 (step S6-7).
- the image analysis unit 173 analyzes the acquired image and generates a portrait image (step S6-8).
- the generation unit 171 reads body information stored in advance in the auxiliary storage unit 150 (step S6-9).
- the generation unit 171 combines the portrait image of the character C with the face part of the read body information, and generates appearance information of the character C (step S6-10).
- the generation unit 171 determines the character of the character C based on the answer received by the communication unit 120 (step S6-11). When the generation unit 171 determines the character C, the generation unit 171 generates a character ID of the character C (step S6-12). When the generation unit 171 generates the character ID, the registration unit 172 associates the character ID with the email addresses of the other portable terminals 100-2 to 100-N, information indicating the portrait image, personality, and information indicating preference. Is stored as a character C in the character table of the auxiliary storage unit 150 (step S6-13).
- the communication unit 120 transmits the character ID, the mail addresses of the other mobile terminals 100-2 to 100-N, and the character C to the server device 200 ( Step S6-14). Thereby, the portable terminal 100-1 can generate the character C and store the character C in the auxiliary storage device 150 and the server device 200.
- FIG. 7 is a first sequence diagram showing the operation of the character system.
- the standby control unit 175 reads the character C set on the standby screen from the auxiliary storage unit 150 (step S11).
- the standby control unit 175 causes the display unit 130 to display an image in a normal state from the appearance information of the character C (step S12).
- the action determination unit 178 transmits the character ID and the mail addresses of the mobile terminals 100-1 to 100-N that created the character C to the server device 200 (step S13).
- step S14 When portable terminal 100-1 transmits the character ID and the mail address to server apparatus 200, communication unit 210 of server apparatus 200 receives the character ID and the mail address (step S14).
- the control unit 220 of the server device 200 is stored in association with the character ID and the mail address from the character table of the storage unit 230 of the server device 200.
- the character C's personality and preference are acquired (step S15).
- the control unit 220 of the server device 200 acquires a plurality of operation patterns stored in association with the acquired character from the operation table of the storage unit 230 of the server device 200 (step S16). .
- control unit 220 of the server device 200 acquires a plurality of message patterns stored in association with the acquired personality from the message table (step S17). Moreover, the control part 220 of the server apparatus 200 acquires the some recommendation pattern (step S18) stored in relation to the keyword with high preference and the acquired preference from a recommendation table.
- the control unit 220 of the server device 200 acquires the operation pattern, the message pattern, and the recommendation pattern
- the communication unit 210 of the server device 200 transmits them to the mobile terminal 100-1 (Step S19).
- the communication unit 120 of the mobile terminal 100-1 receives them (step S20).
- the operation determination unit 178 randomly selects one from the received patterns (step S21), and reflects the selected pattern on the character C displayed on the display unit 130.
- Step S22 For example, when the motion determination unit 178 selects a motion pattern, the display unit 130 displays an image corresponding to the motion pattern selected from the appearance information of the character C.
- the action determination unit 178 selects a message pattern or a recommendation pattern
- the display unit 130 displays a speech bubble storing a character string indicated by the selected message pattern or recommendation pattern above the character C.
- the portable terminal 100-1 causes the character C to perform an operation, a message, and a recommendation that match the personality and preference.
- a character C other than the character C set as the standby may be displayed at the same time, and a message pattern based on the familiarity of both characters C may be received from the server device 200 to have a conversation.
- FIG. 8 is a second sequence diagram showing the operation of the character system.
- the character C is set to standby
- the mail control unit 177 receives an e-mail from another communication device 100-2 via the communication unit 120 (step S31)
- the sentence analysis unit 174 receives the received electronic
- the mail text is analyzed and morphemes are extracted (step S32).
- the mail control unit 177 associates the same mail address with the character C as the mail address of the other communication device 100-2 in the character table. It is determined whether or not it is stored (step S33).
- the sentence analysis unit 174 extracts emotions from the extracted morphemes (step S34).
- emotion extraction can be performed by previously storing morphemes and emotions in the auxiliary storage unit 150 in association with each other and acquiring all the emotions corresponding to the extracted morphemes.
- the auxiliary storage unit 150 stores, for example, the morpheme “Amusement Park” in association with the “Easy” emotion and the “morphic” morpheme in association with the “anger” emotion.
- the action determination unit 178 changes the emotion of the character C of the other communication device 100-2 stored in the character table of the auxiliary storage unit 150 to the extracted emotion. Further, based on the extracted emotion, the closeness between the character C of the terminal itself and the character C of the other communication device 100-2 is changed (step S35). For example, when the sentence analysis unit 174 extracts a positive emotion such as “joy” or “easy”, the intimacy value is increased by increasing the familiarity value based on the degree of emotion. When negative emotions such as “” are extracted, the degree of intimacy can be reduced based on the degree of emotion.
- the display unit 130 displays an image corresponding to the emotion extracted from the appearance information of the character C (step S36).
- the image is not limited to a still image, and may be a moving image.
- the communication unit 120 transmits the mail address of its own terminal, the mail address of the other communication device 100-2, and the modified intimacy to the server device 200 (step S37).
- portable terminal 100-1 transmits the mail address of its own terminal, the mail address of other communication device 100-2, and the modified intimacy
- communication unit 210 of server device 200 receives them (step S38).
- the communication unit 210 of the server device 200 receives the mail address of the own terminal, the mail address of the other communication device 100-2, and the modified intimacy
- the mail address of the own terminal and other information are stored in the familiarity table of the storage unit 230.
- the familiarity value stored in association with the mail address of the communication device 100-2 is changed to the received familiarity (step S39).
- step S33 determines in step S33 that the mail address of the other communication device 100-2 is not stored (step S33: NO), or when the communication unit 120 transmits the familiarity in step S37. explain.
- the mail control unit 177 randomly outputs an automatic generation command to the operation determination unit 178 (step S40).
- “randomly” means that the mail control unit 177 does not always output an automatic generation command every time.
- the action determining unit 178 outputs the automatic generation command (step S40: YES)
- the action determining unit 178 transmits the extracted morpheme and the character C to the server device 200 via the communication unit 120 (step S41). ).
- the communication unit 210 of the server device 200 receives them (step S42).
- the control unit 220 of the server device 200 registers the mail text registered in association with the morpheme and personality received from the mail table of the storage unit 230 of the server device 200.
- a pattern is acquired (step S43).
- the communication unit 210 of the server device 200 transmits the acquired text pattern to the mobile terminal 100-1 (Step S44).
- the communication unit 120 of the mobile terminal 100-1 receives the text pattern (step S45).
- the operation determination unit 178 generates a text of an email based on the received text pattern. That is, the action determination unit 178 generates a reply mail reflecting the character C and the received e-mail text (step S46).
- the action determining unit 178 displays a balloon storing a character string that accepts input of whether reply mail can be transmitted or not above the character C displayed on the display unit 130 (step S47).
- Unit 110 accepts an input indicating whether or not a reply mail can be transmitted (step S48).
- the mail control unit 177 When the input unit 110 receives information indicating that a reply mail is to be transmitted, such as when the user presses the determination button on the portable terminal 100-1 (step S48: YES), the mail control unit 177 performs the operation determination unit 178. The reply mail generated by is transmitted (step S49). When the input unit 110 receives information indicating that the reply mail is not transmitted (for example, NO in step S48), such as when the user presses the cancel button of the portable terminal 100-1, the mail control unit 177 causes the operation determination unit 178 to The reply mail generated by is deleted (step S50). Thereby, the portable terminal 100-1 causes the character C to generate a reply mail that matches the personality and the received electronic mail. In the example described above, the case where the transmission source of the electronic mail is the communication terminal 100-2 has been described. However, the present invention is not limited to this, and the same operation is performed when the other communication terminals 100-3 to 100-N are e-mail transmission sources.
- the scheduler control unit 176 receives an input of a schedule and a character C associated with the schedule via the input unit 110.
- the registration unit 172 registers the schedule and the character C in the auxiliary storage unit 150 in association with each other.
- the action determination unit 178 transmits the preference of the character C registered in association with the schedule and the contents of the schedule to the server device 200 via the communication unit 120.
- the control unit 220 of the server apparatus 200 receives the preference and schedule received from the recommendation table of the storage unit 230 of the server apparatus 200.
- the recommendation pattern registered in association with the keyword having the highest similarity with the content of is acquired.
- the communication unit 210 of the server device 200 transmits the acquired recommendation pattern to the mobile terminal 100-1.
- the operation determination unit 178 causes the display unit 130 to display a speech bubble storing the character string indicated by the received recommendation pattern above the character C. Display.
- the portable terminal 100-1 causes the character C to make a recommendation that matches the preference and schedule. For example, by presenting the character C received from the mobile terminal 100-2 in association with the birthday schedule of the user of the mobile terminal 100-2, a present that matches the user's preference of the mobile terminal 100-2 is recommended. Can do.
- the input unit 110 transmits a message to be transmitted to the mobile terminal 100-2.
- An input for selecting a mediating character C is received. Since the character C that mediates the message is a proxy for the user, the character C that can be selected here is limited to the character generated by the terminal itself.
- the input unit 110 When the input unit 110 receives an input for selecting the character C, the input unit 110 receives an operation pattern of the character C and an input of a message to be transmitted. Entering a message is not mandatory.
- the communication unit 120 transmits the character ID, the operation pattern, and the message of the selected character C to the portable terminal 100-2.
- the communication unit 120 of the portable terminal 100-2 receives them.
- the motion determination unit 178 reads the character C associated with the received character ID from the auxiliary storage unit 150.
- the motion determination unit 178 causes the display unit 130 to display an image of the motion pattern received from the appearance information of the character C, and displays a speech bubble storing the received message above the character C.
- the mobile terminal 100-1 transmits the operation of the character C to the mobile terminal 100-2 in addition to the character string message. Can convey emotional messages.
- the mobile terminal 100-1 transmits the character ID, the motion pattern, and the message
- the closeness between the character C selected based on the motion pattern and the message and the character C of the mobile terminal 100-2 is changed.
- the closeness between the characters C is transmitted to the server device 200, and the closeness value stored in the storage unit 230 of the server device 200 is updated.
- the transmission destination of the electronic mail is the communication terminal 100-2
- the present invention is not limited to this, and the same operation is performed when the other communication terminals 100-3 to 100-N are e-mail transmission destinations.
- the portable terminal 100-1 can list all the characters C stored in the character table of the auxiliary storage unit 150 using functions such as a telephone directory and a data folder. At this time, for example, the mobile terminal 100-1 can display the closeness of the characters C by disposing the characters C having high closeness close to each other and disposing the characters C having low closeness remotely. . In the data folder function, the character C can be registered by being classified into categories such as friends and family.
- the mobile terminal 100-1 determines the action, message, and recommendation of the character C based on the personality and preference. Thereby, the mobile terminal 100-1 can perform different operations depending on the character C.
- the action determining unit 178 determines the action of the character C
- the mobile terminal 100-1 receives an action pattern, a message pattern, and a recommendation pattern corresponding to the character C's personality or preference from the server device 200.
- the control unit 220 of the server device 200 may randomly select one pattern and transmit it to the mobile terminal 100-1, and the operation determination unit 178 may display the received pattern operation on the display unit 130.
- the storage unit 230 of the server device 200 stores a message table, a recommendation table, and a mail table, and the character, message, recommendation, and mail text of the character C is obtained from the fixed pattern pattern stored in the table.
- a program such as an artificial incompetence or a chatbot system may be stored in the mobile terminal 100-1 or the server device 200, and a message, a recommendation, and a mail text may be determined by the program.
- the character system includes the server device 200, and the storage unit 230 of the server device 200 stores the operation table, the message table, the recommendation table, and the mail table.
- the present invention is not limited to this.
- the operation table, the message table, the recommendation table, and the mail table may be stored in the auxiliary storage unit 150 of the mobile terminals 100-1 to 100-N so that the server 200 is not provided.
- the character C's personality, hobby, and preference are determined by the first input
- personality, hobbies, and preferences may be changed based on e-mail and Internet usage history.
- the changed personality, hobby, and preference are transmitted to the server device 200, and the personality C, the hobby, and the preference stored in the storage unit 230 of the server device 200 are updated, so that the character C of the terminal itself is also used in other portable terminals. Can be kept up to date.
- the character C is newly generated when the character C is set on the standby screen.
- the present invention is not limited to this.
- the character C may be generated when a mobile terminal is purchased.
- the closeness between the characters C is changed in the exchange of mail and message has been described, but the present invention is not limited to this.
- the closeness of the character C that is frequently registered in the schedule may be increased.
- the apparatus which displays the character C is a portable terminal
- the character C may be displayed on a personal computer or a dedicated terminal of the character system.
- the case where the mobile terminals 100-1 to 100-N display the character C on the display unit 130 has been described, but the present invention is not limited to this.
- the operation target control apparatus according to the present invention may be built in a stuffed animal with a built-in robot, and the operation determining unit 178 may control the operation of the robot to operate the stuffed toy main body.
- an e-mail address is used as information for specifying the mobile terminals 100-1 to 100-N
- the present invention is not limited to this.
- IMSI International Mobile Subscriber Identity
- SIM Subscriber Identity Module
- the SIM card used in the mobile terminal before the change is continuously used for the mobile terminal after the change, so that even after the mobile terminal is changed.
- the same character C as before the change can be used continuously.
- the server device 200 may include an image analysis unit and the server device 200 may generate a portrait image.
- the communication unit 120 transmits to the server device 200 via the acquired images, and the image analysis unit of the server device 200 Generates a portrait image from images received from the mobile terminals 100-1 to 100-N.
- the server device 200 transmits the generated portrait image to the mobile terminals 100-1 to 100-N.
- the portable terminals 100-1 to 100-N can acquire a portrait image.
- the mobile terminal 100-1 when performing the process of generating the character C in step S5 described above, the mobile terminal 100-1 generates a questionnaire form, and the mobile terminal 100-1 is the character C's based on the answer input by the user.
- the communication unit 120 of the portable terminal 100-1 accesses the server device 200, and the display unit 130 displays a questionnaire form stored in the server device 200.
- the input unit 110 inputs an answer to the questionnaire form.
- the communication unit 120 transmits the answer accepted by the input unit 110 to the server device 200.
- Server device 200 determines the character of character C based on the answer received from portable terminal 100-1.
- server device 200 transmits information indicating the determined character to portable terminal 100-1.
- the portable terminal 100-1 can acquire the character C.
- the attribute information is input on the other portable terminals 100-2 to 100-N, and the portable terminal 100-1 performs the process of generating the character C in the portable terminal 100-1.
- -1 generates a questionnaire form, receives questionnaire form responses from the other mobile terminals 100-2 to 100-N, and the mobile terminal 100-1 determines the character C based on the received answers.
- the mobile terminal 100-1 transmits a URL indicating a questionnaire form stored in the server device 200 to the other mobile terminal 100-2.
- the other mobile terminal 100-2 accesses the server apparatus 200 via the communication unit 120 based on the URL received from the mobile terminal 100-1, and inputs an answer to the questionnaire form stored in the server apparatus 200.
- the server apparatus 200 determines the character C of the character C based on the answer from the other portable terminal 100-2.
- server device 200 transmits information indicating the determined character to portable terminal 100-1.
- the mobile terminal 100-1 can acquire the character C of the character C based on the answer of the mobile terminal 100-2.
- the above-described portable terminals 100-1 to 100-N have a computer system inside.
- the operation of each processing unit described above is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by the computer reading and executing this program.
- the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
- the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
- the program may realize some of the functions described above.
- the program may be a so-called difference file (difference program) that can realize the functions described above in combination with a program already recorded in the computer system.
- the present invention can be applied to an operation target control device, an operation target control system, an operation target control method, and a program.
- the operation pattern can be changed depending on the operation target (character), and the entertainment property for the user can be improved.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
また、ユーザは、アバターの動作を指定することができ、これによりアバターに感情を表現させることができる。
本発明は上記の点に鑑みてなされた。本発明の目的は、動作対象(キャラクター)によって動作パターンを変化させることができ、ユーザに対するエンターテインメント性を向上させることができる動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムを提供することにある。
図1は、本発明の一実施形態によるキャラクターシステムの構成図である。
キャラクターシステム(動作対象制御システム)は、携帯端末100-1~100-N(動作対象制御装置)とサーバ装置200とを備える。携帯端末100-1~100-Nとサーバ装置200とはネットワークによって接続されている。携帯端末100-1~100-N同士は、ネットワークまたは赤外線通信等の近距離通信によって接続できる。以下の説明では1つの携帯端末100-1について説明するが、他の携帯端末100-2~100-Nも同様の構成を備える。
携帯端末100-1は、キャラクターC(動作対象)を表示する。キャラクターCは、携帯端末100-1の画面上で動いたりメッセージを表示させたりする。
サーバ装置200は、キャラクターCの情報(動作データ)並びにキャラクターCの動作及びメッセージのパターンを記憶する。
携帯端末100-1は、入力部110と、通信部120(属性情報受信部、動作データ受信部、電子文書受信部、電子文書送信部、装置側送信部、装置側受信部)と、表示部130(待ち受け表示部)と、撮影部140と、補助記憶部150(記憶部)と、主記憶部160と、CPU170とを備える。
入力部110は、テンキー等の入力インターフェイスを介してユーザからの情報の入力を受け付ける。
通信部120は、他の携帯端末100-2~100-Nまたはサーバ装置200との通信を行う。
表示部130は、画面の表示を制御する。
撮影部140は、携帯端末100-1に内蔵されたデジタルカメラによる画像の撮影を行う。
補助記憶部150は、携帯端末100-1のシステム情報やプログラムを記憶する。また、補助記憶部150は、キャラクターCを格納するキャラクターテーブル、及びキャラクターC同士の親密度を格納する親密度テーブルを記憶する。
主記憶部160は、CPU170が演算に用いる情報を記憶する。
CPU170は、プログラムを実行し、携帯端末100-1の動作を制御する。
バス180は、携帯端末100-1の内部において各処理部へデータを転送する伝送路である。
生成部171は、ユーザが入力した情報に基づいてキャラクターCを生成する。
登録部172は、キャラクターCを補助記憶部150に登録する。
画像解析部173は、撮影部140が撮影した画像を解析し、似顔絵画像を生成する。
文章解析部174は、電子文書の内容を解析する。
待ち受け制御部175は、待ち受け画面の設定、表示等の制御を行う。
スケジューラ制御部176は、スケジューラへのスケジュール登録、表示等の制御を行う。
メール制御部177は、電子メールの生成、送受信、表示等の制御を行う。
動作決定部178は、キャラクターCの動作及びメッセージを決定する。
図3Aはキャラクターテーブルを示している。
補助記憶部150が記憶するキャラクターテーブルは、キャラクターCを識別するキャラクターID(動作データ識別情報)と、キャラクターCを生成した携帯端末のメールアドレスと、キャラクターCの外見と、キャラクターCの性格(属性)と、キャラクターCの嗜好(属性)と、キャラクターCの感情とを格納する。
図3Aでは、厳格さ、優しさ、冷静さ、自由さ、及び従順さの5つのパラメータの値によって性格を表現する場合の例を示している。この表現方法は一例であり、パラメータの内容及び個数はこれに限られない。性格の表現もパラメータによる表現に限られず、例えば性格を所定の類型に分類することで表現しても良い。
嗜好は、キーワードの羅列によって表現している。
図3Bは、親密度テーブルを示している。
補助記憶部150が記憶する親密度テーブルは、2つのメールアドレスと、親密度とを格納する。
サーバ装置200は、通信部210(サーバ側受信部、サーバ側送信部)と、制御部220(サーバ側登録部)と、記憶部230(サーバ側記憶部、動作パターン記憶部)とを備える。
通信部210は、携帯端末100-1~100-Nとの通信を行う。
制御部220は、サーバ装置200の制御を行う。
記憶部は230、キャラクターCを格納するキャラクターテーブルと、キャラクターC同士の親密度を格納する親密度テーブルと、キャラクターCの動作パターンを格納する動作テーブルと、キャラクターCのメッセージパターンを格納するメッセージテーブルと、キャラクターCのレコメンドパターンを格納するレコメンドテーブルと、電子メールの文面のパターンを格納するメールテーブルとを記憶する。
動作テーブルは、キャラクターCの性格と動作パターンと発生確率とを関連付けて格納する。例えば、自由さのパラメータ値が高い性格は「横になる」動作の発生確率を高く設定し、「厳格さ」のパラメータ値が高い性格は「怒る」動作の発生確率を高く設定しておく。
メッセージテーブルは、キャラクターCの性格とメッセージパターンとを関連付けて格納する。
レコメンドテーブルは、キャラクターCの嗜好等のキーワードとレコメンドパターンとを関連付けて格納する。
メールテーブルは、キャラクターCの性格とキーワードとメールの文面パターンとを関連付けて格納する。
これにより、携帯端末100-1は、キャラクターCによって異なる動作をさせることができる。
キャラクターCを携帯端末100-1の待ち受け画面に設定する場合を例に説明する。
図4は、携帯端末の動作を示すフローチャートである。
まず、ユーザが携帯端末100-1の設定画面より、待ち受け画面にキャラクターCを設定することを示す情報を入力すると、CPU170の待ち受け制御部175は、補助記憶部150がキャラクターCを記憶しているか否かを判定する(ステップS1)。待ち受け制御部175が、補助記憶部150がキャラクターCを記憶していると判定した場合(ステップS1:YES)、入力部110は、補助記憶部150が記憶するキャラクターCを待ち受け画面に設定するか否かを選択する情報の入力を受け付ける(ステップS2)。
他方、待ち受け画面制御部175が属性情報の入力を他の携帯端末100-2~100-Nで行うことを示す情報を受け付けた場合(ステップS4:NO)、携帯端末100-1は、他の携帯端末100-2~100-Nから属性情報を受信し、キャラクターCを生成する(ステップS6)。この処理の詳細は後述する。
図5は、携帯端末によるキャラクター生成動作を示す第1のフローチャートである。
上述したステップS4で、生成部171が属性情報の入力を自端末で行うことを示す情報を受け付けると、生成部171は、入力部110を介して、キャラクターCの顔を補助記憶部150が記憶している画像から生成するか否かを示す情報の入力を受け付ける(ステップS5-1)。
他方、生成部171が、キャラクターCの顔を補助記憶部150が記憶していない画像から生成することを示す情報の入力を受け付けた場合(ステップS5-1:NO)、撮影部140は、画像の撮影を受け付け、生成部171は撮影した画像を取得する(ステップS5-3)。
まず、画像解析部173は、画像から、色相、明度、及び輝度の値が肌色の色相、明度、及び輝度の値と比較して所定の範囲内となる領域を抽出する。画像解析部173は、抽出した領域のうち、形状が略楕円形である領域を顔領域として抽出する。次に、画像解析部173は、顔領域の上方に接する色を選択する。次に、画像解析部173は、画像から、色相、明度、及び輝度の値が選択した色の色相、明度、及び輝度の値と比較して所定の範囲内となり、顔領域の情報に接する領域を髪領域として抽出する。次に、画像解析部173は、顔領域及び髪領域の輪郭を抽出し、眉、目、鼻、口、顔の輪郭等のパーツを抽出する。次に、画像解析部173は、予め補助記憶部150が記憶している似顔絵パーツの中から抽出したパーツと類似する似顔絵パーツを抽出し、該当する座標に似顔絵パーツを配置する。このような手法により似顔絵画像を生成することができるが、これに限られず他の手法を用いても良い。
表示部130が質問事項を表示すると、生成部171は、入力部110を介して質問事項に対する回答の入力を受け付ける(ステップS5-8)。
登録部172がキャラクターCを補助記憶部150に記憶させると、通信部120は、キャラクターIDと自端末のメールアドレスとキャラクターCとをサーバ装置200に送信する(ステップS5-12)。
これにより、携帯端末100-1は、キャラクターCを生成し、補助記憶装置150とサーバ装置200にキャラクターCを記憶させることができる。
図6は、携帯端末によるキャラクター生成動作を示す第2のフローチャートである。
上述したステップS4で、生成部171が属性情報の入力を他の携帯端末100-2~100-Nで行うことを示す情報を受け付けると、生成部171は、入力部110を介して、キャラクターCの顔を補助記憶部150が記憶している画像から生成するか否かを示す情報の入力を受け付ける(ステップS6-1)。
他方、生成部171が、キャラクターCの顔を補助記憶部150が記憶している画像から生成しないことを示す情報の入力を受け付けた場合(ステップS6-1:NO)、補助記憶部150が記憶する質問事項から画像入力欄を有するアンケートフォームを生成し、通信部120を介して他の携帯端末100-2~100-Nに送信する(ステップS6-5)。他の携帯端末100-2~100-Nがアンケートフォームを受信し、アンケートの回答及び画像を送信すると、通信部120は他の携帯端末100-2~100-Nから回答及び画像を受信する(ステップS6-6)。通信部120が回答を受信すると、生成部171は、通信部120が受信した受信結果から画像を取得する(ステップS6-7)。
生成部171は、キャラクターCの性格を決定すると、そのキャラクターCのキャラクターIDを生成する(ステップS6-12)。生成部171がキャラクターIDを生成すると、登録部172は、キャラクターIDと他の携帯端末100-2~100-Nのメールアドレスとに関連付けて、似顔絵画像と性格を示す情報と嗜好を示す情報とをキャラクターCとして補助記憶部150のキャラクターテーブルに記憶させる(ステップS6-13)。
登録部172がキャラクターCを補助記憶部150に記憶させると、通信部120は、キャラクターIDと他の携帯端末100-2~100-NのメールアドレスとキャラクターCとをサーバ装置200に送信する(ステップS6-14)。
これにより、携帯端末100-1は、キャラクターCを生成し、補助記憶装置150とサーバ装置200にキャラクターCを記憶させることができる。
図7は、キャラクターシステムの動作を示す第1のシーケンス図である。
まず、ユーザによる携帯端末100-1の電源の投入等によって、携帯端末100-1が起動すると、待ち受け制御部175は、補助記憶部150から待ち受け画面に設定したキャラクターCを読み出す(ステップS11)。次に、待ち受け制御部175は、表示部130にキャラクターCの外見情報の中から通常状態の画像を表示させる(ステップS12)。
サーバ装置200の制御部220が動作パターン、メッセージパターン、及びレコメンドパターンを取得すると、サーバ装置200の通信部210は、それらを携帯端末100-1に送信する(ステップS19)。
これにより、携帯端末100-1は、キャラクターCに、性格及び嗜好に合致した動作、メッセージ及びレコメンデーションを行わせる。
図8は、キャラクターシステムの動作を示す第2のシーケンス図である。
キャラクターCを待ち受けに設定している場合に、メール制御部177が通信部120を介して他の通信装置100-2から電子メールを受信すると(ステップS31)、文章解析部174は、受信した電子メールの文章を解析し、形態素を抽出する(ステップS32)。文章解析部174が電子メールの形態素を抽出すると、メール制御部177は、補助記憶部150がキャラクターテーブルの中に他の通信装置100-2のメールアドレスと同一のメールアドレスをキャラクターCに関連付けて記憶しているか否かを判定する(ステップS33)。
携帯端末100-1が自端末のメールアドレス、他の通信装置100-2のメールアドレス、及び変更後の親密度を送信すると、サーバ装置200の通信部210は、それらを受信する(ステップS38)。サーバ装置200の通信部210が自端末のメールアドレス、他の通信装置100-2のメールアドレス、及び変更後の親密度を受信すると、記憶部230の親密度テーブルに自端末のメールアドレスと他の通信装置100-2のメールアドレスとに関連付けて格納されている親密度の値を受信した親密度に変更する(ステップS39)。
動作決定部178が自動生成命令を出力した場合(ステップS40:YES)、動作決定部178は、通信部120を介してサーバ装置200に抽出した形態素とキャラクターCの性格とを送信する(ステップS41)。
ユーザが携帯端末100-1のキャンセルボタンを押下する等により、入力部110が返信メールを送信しないことを示す情報を受け付けた場合(ステップS48:NO)、メール制御部177は、動作決定部178が生成した返信メールを削除する(ステップS50)。
これにより、携帯端末100-1は、キャラクターCに、性格及び受信した電子メールに合致した返信メールの生成を行わせる。上述した例では電子メールの送信元が通信端末100-2である場合を説明した。しかしながら、これに限られず、他の通信端末100-3~100-Nが電子メールの送信元の場合も同様の動作をする。
まず、スケジューラ制御部176は、入力部110を介して、スケジュール及びそのスケジュールに関連付けるキャラクターCの入力を受け付ける。入力部110がスケジュール及びキャラクターCの入力を受け付けると、登録部172は、補助記憶部150にスケジュールとキャラクターCとを関連付けて登録する。登録部172がスケジュールとキャラクターCとを登録すると、動作決定部178は、スケジュールに関連付けて登録したキャラクターCの嗜好とスケジュールの内容とを通信部120を介してサーバ装置200に送信する。
これにより、携帯端末100-1は、キャラクターCに、嗜好及びスケジュールに合致したレコメンデーションを行わせる。例えば、携帯端末100-2のユーザの誕生日のスケジュールに携帯端末100-2から受信したキャラクターCを関連付けて登録することで、携帯端末100-2のユーザの好みに合致したプレゼントをレコメンドすることができる。
まず、ユーザが携帯端末100-1のキャラクターCを介して携帯端末100-2に対してメッセージを送信することを示す情報を入力すると、入力部110は、携帯端末100-2に送信するメッセージを媒介するキャラクターCの選択の入力を受け付ける。メッセージを媒介するキャラクターCは、ユーザの代理であるため、ここで選択できるキャラクターCは自端末で生成したキャラクター限ると良い。
入力部110が動作パターン及びメッセージの入力を受け付けると、通信部120は、選択されたキャラクターCのキャラクターID、動作パターン、及びメッセージを携帯端末100-2に送信する。
通信部120がキャラクターID、動作パターン、及びメッセージを受信すると、動作決定部178は、補助記憶部150から受信したキャラクターIDに対応付けられたキャラクターCを読み出す。次に、動作決定部178は、表示部130にキャラクターCの外見情報の中から受信した動作パターンの画像を表示させ、受信したメッセージを格納したふきだしをキャラクターCの上方に表示する。
このように、キャラクターシステムによれば、携帯端末100-1が文字列のメッセージに加え、キャラクターCの動作を携帯端末100-2に送信することで、携帯端末100-2のユーザに対してより感情のこもったメッセージを伝えることができる。
上述した例では電子メールの送信先が通信端末100-2である場合を説明した。しかしながら、これに限られず、他の通信端末100-3~100-Nが電子メールの送信先の場合も同様の動作をする。
データフォルダ機能では、キャラクターCを友達や家族等のカテゴリーに振り分けて登録することができる。
例えば、本実施形態では、動作決定部178がキャラクターCの動作を決定する際、携帯端末100-1が、サーバ装置200から、キャラクターCの性格または嗜好に該当する動作パターン、メッセージパターン、レコメンドパターン、及びメールの文面パターンを複数受信し、その中からキャラクターCの動作をランダムに選択する場合を説明したが、これに限られない。例えば、サーバ装置200の制御部220がランダムに1つパターンを選択して携帯端末100-1に送信し、動作決定部178は受信したパターンの動作を表示部130に表示させても良い。
本実施形態では、携帯端末100-1~100-NがキャラクターCを表示部130に表示させる場合を説明したが、これに限られない。例えば、ロボットを内蔵するぬいぐるみ等に本発明による動作対象制御装置を内蔵し、動作決定部178がロボットの動作を制御することで、ぬいぐるみ本体を動作させても良い。
例えば、携帯端末100-1の通信部120がサーバ装置200へアクセスし、表示部130は、サーバ装置200が記憶するアンケートフォームを表示する。アンケートフォームを表示すると、入力部110は、アンケートフォームへの回答の入力を行う。入力部110が回答の入力を受け付けると、通信部120は、入力部110が入力を受け付けた回答をサーバ装置200に送信する。サーバ装置200は、携帯端末100-1から受信した回答に基づき、キャラクターCの性格を決定する。サーバ装置200は、キャラクターCの性格を決定すると、携帯端末100-1に決定した性格を示す情報を送信する。これによって携帯端末100-1は、キャラクターCの性格を取得することができる。
例えば、携帯端末100-1が他の携帯端末100-2に、サーバ装置200が記憶するアンケートフォームを示すURLを送信する。他の携帯端末100-2が、携帯端末100-1から受信したURLに基づいて通信部120を介してサーバ装置200へアクセスし、サーバ装置200が記憶するアンケートフォームへの回答の入力を行う。他の携帯端末100-2が回答の入力を終了すると、サーバ装置200は、他の携帯端末100-2の回答に基づき、キャラクターCの性格を決定する。サーバ装置200は、キャラクターCの性格を決定すると、携帯端末100-1に決定した性格を示す情報を送信する。これによって携帯端末100-1は、携帯端末100-2の回答に基づくキャラクターCの性格を取得することができる。
上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
110 入力部
120 通信部
130 表示部
140 撮影部
150 補助記憶部
160 主記憶部
170 CPU
171 生成部
172 登録部
173 画像解析部
174 文章解析部
175 待ち受け設定部
176 スケジューラ制御部
177 メール制御部
178 動作決定部
200 サーバ装置
210 通信部
220 制御部
230 記憶部
Claims (19)
- 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置であって、
前記動作対象の属性を示す属性情報の入力を受け付ける入力部と、
前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成されるユーザ用動作対象の動作を制御するための動作データとして、前記入力部が入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成する生成部と、
前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部と、
を備える動作対象制御装置。 - 前記動作対象制御装置とは異なる他の装置から前記属性情報を受信する属性情報受信部をさらに備え、
前記生成部は前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、前記属性情報受信部が受信した前記属性情報に基づいて他ユーザ用動作データを生成し、
前記制御部は、前記生成部が生成した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる
請求項1に記載の動作対象制御装置。 - 前記動作対象装置とは異なる他の装置から送信された、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、他ユーザ用動作データを受信する動作データ受信部をさらに備え、
前記制御部は、前記動作データ受信部が受信した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる、
請求項1に記載の動作対象制御装置。 - 前記他の装置から前記他ユーザ用動作対象の動作を指定する動作指定情報を受信する動作指定情報受信部をさらに備え、
前記制御部は、前記動作指定情報受信部が受信した動作指定情報に基づいて前記他ユーザ用動作対象を動作させる、
請求項3に記載の動作対象制御装置。 - 前記動作データは、前記動作データが示す動作対象の感情を示す感情情報を含み、
前記制御部は、前記動作対象の動作を前記感情情報に対応させて変化させる
請求項1から請求項4のいずれか1項に記載の動作対象制御装置。 - 前記他の装置から電子文書を受信する電子文書受信部と、
前記電子文書受信部が受信した電子文書の内容を解析する電子文書解析部と、
前記他ユーザ用動作データに含まれる感情情報を前記電子文書解析部が解析した電子文書の内容に基づいて決定する感情決定部と、
をさらに備える請求項5に記載の動作対象制御装置。 - 前記動作データは、前記動作データが示す動作対象と他の動作対象との親密度を含み、
前記制御部は、前記動作対象の動作を、前記動作データに含まれる親密度に対応させて変化させる
請求項1から請求項4のいずれか1項に記載の動作対象制御装置。 - 前記他の装置から電子文書を受信する電子文書受信部と、
前記電子文書受信部が受信した電子文書の内容を解析する電子文書解析部と、
前記他ユーザ用動作データに含まれる親密度を前記電子文書解析部が解析した電子文書の内容と前記電子文書を受信した時点における前記親密度とに基づいて決定する親密度決定部と、
をさらに備える請求項7に記載の動作対象制御装置。 - 前記動作データに基づいて文章を作成する文章生成部と、
前記文章生成部が生成した文章を電子文書として送信する電子文書送信部と、
をさらに備える請求項1から請求項8のいずれか1項に記載の動作対象制御装置。 - 前記動作対象の属性情報の入力は、前記動作対象制御装置の初回の起動時に行われる請求項1から請求項9のいずれか1項に記載の動作対象制御装置。
- 待ち受け画面に前記動作対象を表示する待ち受け表示部をさらに備える請求項1から10のいずれか1項に記載の動作対象制御装置。
- スケジュールと前記動作データとを関連付けて登録するスケジュール登録部をさらに備え、
前記制御部は、前記スケジュールの内容と前記動作データとに基づいて前記動作対象の動作を変化させる
請求項1から請求項11のいずれか1項に記載の動作対象制御装置。 - 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置と前記動作対象の動作を制御するための動作データを保持するサーバ装置とを備える動作対象制御システムであって、
前記動作対象制御装置は、
前記動作対象の属性を示す属性情報の入力を受け付ける入力部と、
前記入力部が入力を受け付けた前記属性情報に基づいて生成される前記動作対象の動作を制御するための動作データを生成する生成部と、
前記生成部が生成した動作データに固有の動作データ識別情報を生成する識別情報生成部と、
前記識別情報生成部が生成した動作データ識別情報を記憶部に登録する登録部と、
前記サーバ装置に前記生成部が生成した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する装置側送信部と、
前記記憶部が記憶する動作データ識別情報が示す動作データを前記サーバ装置から受信する装置側受信部と、
前記装置側受信部が受信した動作データに基づいて動作対象の動作を変化させる制御部と、
を備え、
前記サーバ装置は、
前記動作対象制御装置から前記動作データと前記動作データ識別情報とを受信するサーバ側受信部と、
前記受信した動作データ識別情報に前記受信した動作データを関連付けてサーバ側記憶部に登録するサーバ側登録部と、
前記動作データ識別情報に対応する動作データをサーバ側記憶部から取得し、前記動作対象制御装置に送信するサーバ側送信部と、
を備える動作対象制御システム。 - 前記動作対象制御装置は、前記動作データを変更する変更部をさらに備え、
前記動作対象制御装置の装置側送信部は、前記サーバ装置に前記変更部が変更した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する、
請求項13に記載の動作対象制御システム。 - 前記サーバ装置は、前記動作データと動作対象の動作パターンとを関連付けて記憶する動作パターン記憶部をさらに備え、
前記サーバ装置のサーバ側送信部は、前記動作データに加えて前記動作データに対応する動作パターンを前記動作対象制御装置に送信し、
前記動作対象制御装置の装置側受信部は、前記動作データに加えて前記動作パターンを受信し、
前記動作対象制御装置の制御部は、前記装置側受信部が受信した前記動作パターンに基づいて前記動作対象の動作を決定する、
請求項13または請求項14に記載の動作対象制御システム。 - 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を用いた動作対象制御方法であって、
前記動作対象の属性を示す属性情報の入力を受け付け、
前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、前記入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、
前記生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる
ことを含む動作対象制御方法。 - 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を、
前記動作対象の属性を示す属性情報の入力を受け付ける入力部、
前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象を示すユーザ用動作対象の動作を制御するための動作データであるユーザ用動作データを前記入力部が入力を受け付けた前記属性情報に基づいて生成する生成部、
前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部、
として動作させるためのプログラム。 - 動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させる動作対象制御装置であって、
前記他の装置から動作データを受信する動作データ受信部と、
前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部と、
を備える動作対象制御装置。 - 動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させる動作対象制御装置を、
前記他の装置から動作データを受信する動作データ受信部、
前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部、
として動作させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/201,712 US20110298810A1 (en) | 2009-02-18 | 2010-02-08 | Moving-subject control device, moving-subject control system, moving-subject control method, and program |
JP2011500488A JP5582135B2 (ja) | 2009-02-18 | 2010-02-08 | 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム |
KR1020147004433A KR20140032506A (ko) | 2009-02-18 | 2010-02-08 | 동작 대상 제어 장치, 동작 대상 제어 시스템, 동작 대상 제어 방법 및 프로그램 |
EP10743518A EP2400462A1 (en) | 2009-02-18 | 2010-02-08 | Device for control of moving subject, system for control of moving subject, method for control of moving subject, and program |
CN2010800080909A CN102317980A (zh) | 2009-02-18 | 2010-02-08 | 动作对象控制装置、动作对象控制系统、动作对象控制方法及程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035422 | 2009-02-18 | ||
JP2009-035422 | 2009-02-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010095388A1 true WO2010095388A1 (ja) | 2010-08-26 |
Family
ID=42633678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/000741 WO2010095388A1 (ja) | 2009-02-18 | 2010-02-08 | 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20110298810A1 (ja) |
EP (1) | EP2400462A1 (ja) |
JP (2) | JP5582135B2 (ja) |
KR (2) | KR20140032506A (ja) |
CN (1) | CN102317980A (ja) |
WO (1) | WO2010095388A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014002551A1 (ja) * | 2012-06-25 | 2014-01-03 | 株式会社コナミデジタルエンタテインメント | メッセージ閲覧システム、サーバ、端末装置、制御方法および記録媒体 |
JP2014029667A (ja) * | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
JP2014067358A (ja) * | 2012-09-27 | 2014-04-17 | Konami Digital Entertainment Co Ltd | メッセージ表示装置、管理サーバ、メッセージ表示制御方法およびプログラム |
US9882859B2 (en) | 2012-06-25 | 2018-01-30 | Konami Digital Entertainment Co., Ltd. | Message-browsing system, server, terminal device, control method, and recording medium |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102022592B1 (ko) * | 2013-03-04 | 2019-09-19 | 삼성전자주식회사 | 전자 장치에서 전송 정보를 관리하기 위한 방법 및 장치 |
CN104158963A (zh) * | 2014-08-05 | 2014-11-19 | 广东欧珀移动通信有限公司 | 一种智能手机的智能表达表情系统 |
JP6669536B2 (ja) * | 2016-03-07 | 2020-03-18 | セイコーソリューションズ株式会社 | 注文入力装置および注文入力方法 |
JP6767224B2 (ja) * | 2016-09-29 | 2020-10-14 | 株式会社東芝 | コミュニケーション装置、コミュニケーション方法、およびコミュニケーションプログラム |
JP7010000B2 (ja) * | 2017-11-14 | 2022-01-26 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7251290B2 (ja) * | 2019-04-23 | 2023-04-04 | 大日本印刷株式会社 | 携帯端末、表示システム、およびプログラム |
CN111773668B (zh) * | 2020-07-03 | 2024-05-07 | 珠海金山数字网络科技有限公司 | 一种动画播放方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11328439A (ja) * | 1998-05-08 | 1999-11-30 | Hitachi Ltd | アニメーションの生成方法およびコンピュータグラフイックス |
JP2002032306A (ja) * | 2000-07-19 | 2002-01-31 | Atr Media Integration & Communications Res Lab | メール伝送システム |
JP2006065684A (ja) * | 2004-08-27 | 2006-03-09 | Kyocera Communication Systems Co Ltd | アバタ通信システム |
JP2008070984A (ja) * | 2006-09-12 | 2008-03-27 | Furyu Kk | メッセージ作成支援装置、その制御方法および制御プログラム、並びに該プログラムを記録した記録媒体 |
JP2009035422A (ja) | 2007-08-01 | 2009-02-19 | Ryozo Ota | 自動廻り階段 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6285380B1 (en) * | 1994-08-02 | 2001-09-04 | New York University | Method and system for scripting interactive animated actors |
CA2248909A1 (en) * | 1996-03-15 | 1997-09-25 | Zapa Digital Arts Ltd. | System for producing an animation sequence according to character behaviour characteristics |
US5982390A (en) * | 1996-03-25 | 1999-11-09 | Stan Stoneking | Controlling personality manifestations by objects in a computer-assisted animation environment |
US5923337A (en) * | 1996-04-23 | 1999-07-13 | Image Link Co., Ltd. | Systems and methods for communicating through computer animated images |
US6064383A (en) * | 1996-10-04 | 2000-05-16 | Microsoft Corporation | Method and system for selecting an emotional appearance and prosody for a graphical character |
US6175857B1 (en) * | 1997-04-30 | 2001-01-16 | Sony Corporation | Method and apparatus for processing attached e-mail data and storage medium for processing program for attached data |
US6112177A (en) * | 1997-11-07 | 2000-08-29 | At&T Corp. | Coarticulation method for audio-visual text-to-speech synthesis |
JP4266411B2 (ja) * | 1998-10-19 | 2009-05-20 | キヤノン株式会社 | 情報処理装置及びその制御方法、情報伝送システム、記憶媒体 |
US6243669B1 (en) * | 1999-01-29 | 2001-06-05 | Sony Corporation | Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation |
US7061493B1 (en) * | 1999-04-07 | 2006-06-13 | Fuji Xerox Co., Ltd. | System for designing and rendering personalities for autonomous synthetic characters |
US6714201B1 (en) * | 1999-04-14 | 2004-03-30 | 3D Open Motion, Llc | Apparatuses, methods, computer programming, and propagated signals for modeling motion in computer applications |
US6947044B1 (en) * | 1999-05-21 | 2005-09-20 | Kulas Charles J | Creation and playback of computer-generated productions using script-controlled rendering engines |
US6559845B1 (en) * | 1999-06-11 | 2003-05-06 | Pulse Entertainment | Three dimensional animation system and method |
US6522333B1 (en) * | 1999-10-08 | 2003-02-18 | Electronic Arts Inc. | Remote communication through visual representations |
US6766299B1 (en) * | 1999-12-20 | 2004-07-20 | Thrillionaire Productions, Inc. | Speech-controlled animation system |
WO2001084275A2 (en) * | 2000-05-01 | 2001-11-08 | Lifef/X Networks, Inc. | Virtual representatives for use as communications tools |
US7035803B1 (en) * | 2000-11-03 | 2006-04-25 | At&T Corp. | Method for sending multi-media messages using customizable background images |
US6976082B1 (en) * | 2000-11-03 | 2005-12-13 | At&T Corp. | System and method for receiving multi-media messages |
US6990452B1 (en) * | 2000-11-03 | 2006-01-24 | At&T Corp. | Method for sending multi-media messages using emoticons |
JP2003223394A (ja) * | 2001-11-20 | 2003-08-08 | Matsushita Electric Ind Co Ltd | 交渉機能を有する装置と合意形成システム |
EP1345179A3 (en) * | 2002-03-13 | 2004-01-21 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for computer graphics animation |
JP4150198B2 (ja) * | 2002-03-15 | 2008-09-17 | ソニー株式会社 | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 |
US20040102973A1 (en) * | 2002-11-21 | 2004-05-27 | Lott Christopher B. | Process, apparatus, and system for phonetic dictation and instruction |
US20040179037A1 (en) * | 2003-03-03 | 2004-09-16 | Blattner Patrick D. | Using avatars to communicate context out-of-band |
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
JP4709598B2 (ja) * | 2005-07-11 | 2011-06-22 | 公立大学法人岡山県立大学 | アバター表示機能付き通話端末 |
CN101268494B (zh) * | 2005-09-21 | 2012-01-04 | 松下电器产业株式会社 | 视频制作装置以及视频制作方法 |
JP2007164408A (ja) * | 2005-12-13 | 2007-06-28 | First:Kk | 顔画像認識と似顔絵作成管理システム |
US8726195B2 (en) * | 2006-09-05 | 2014-05-13 | Aol Inc. | Enabling an IM user to navigate a virtual world |
JP4884918B2 (ja) * | 2006-10-23 | 2012-02-29 | 株式会社野村総合研究所 | 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム |
CN101606190B (zh) * | 2007-02-19 | 2012-01-18 | 松下电器产业株式会社 | 用力声音转换装置、声音转换装置、声音合成装置、声音转换方法、声音合成方法 |
JP4963083B2 (ja) * | 2007-05-28 | 2012-06-27 | 株式会社野村総合研究所 | 仮想空間提供装置、仮想空間管理方法及びコンピュータプログラム |
US8812296B2 (en) * | 2007-06-27 | 2014-08-19 | Abbyy Infopoisk Llc | Method and system for natural language dictionary generation |
US20090113314A1 (en) * | 2007-10-30 | 2009-04-30 | Dawson Christopher J | Location and placement of avatars in virtual worlds |
-
2010
- 2010-02-08 KR KR1020147004433A patent/KR20140032506A/ko not_active Application Discontinuation
- 2010-02-08 US US13/201,712 patent/US20110298810A1/en not_active Abandoned
- 2010-02-08 EP EP10743518A patent/EP2400462A1/en not_active Withdrawn
- 2010-02-08 CN CN2010800080909A patent/CN102317980A/zh active Pending
- 2010-02-08 KR KR1020117018706A patent/KR20110114650A/ko active Application Filing
- 2010-02-08 JP JP2011500488A patent/JP5582135B2/ja not_active Expired - Fee Related
- 2010-02-08 WO PCT/JP2010/000741 patent/WO2010095388A1/ja active Application Filing
-
2014
- 2014-05-21 JP JP2014105658A patent/JP5781666B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11328439A (ja) * | 1998-05-08 | 1999-11-30 | Hitachi Ltd | アニメーションの生成方法およびコンピュータグラフイックス |
JP2002032306A (ja) * | 2000-07-19 | 2002-01-31 | Atr Media Integration & Communications Res Lab | メール伝送システム |
JP2006065684A (ja) * | 2004-08-27 | 2006-03-09 | Kyocera Communication Systems Co Ltd | アバタ通信システム |
JP2008070984A (ja) * | 2006-09-12 | 2008-03-27 | Furyu Kk | メッセージ作成支援装置、その制御方法および制御プログラム、並びに該プログラムを記録した記録媒体 |
JP2009035422A (ja) | 2007-08-01 | 2009-02-19 | Ryozo Ota | 自動廻り階段 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014002551A1 (ja) * | 2012-06-25 | 2014-01-03 | 株式会社コナミデジタルエンタテインメント | メッセージ閲覧システム、サーバ、端末装置、制御方法および記録媒体 |
JP2014029667A (ja) * | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
JP2014029668A (ja) * | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム |
US9882859B2 (en) | 2012-06-25 | 2018-01-30 | Konami Digital Entertainment Co., Ltd. | Message-browsing system, server, terminal device, control method, and recording medium |
US9954812B2 (en) | 2012-06-25 | 2018-04-24 | Konami Digital Entertainment Co., Ltd. | Message-browsing system, server, terminal device, control method, and recording medium |
JP2014067358A (ja) * | 2012-09-27 | 2014-04-17 | Konami Digital Entertainment Co Ltd | メッセージ表示装置、管理サーバ、メッセージ表示制御方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2400462A1 (en) | 2011-12-28 |
JP5582135B2 (ja) | 2014-09-03 |
JPWO2010095388A1 (ja) | 2012-08-23 |
CN102317980A (zh) | 2012-01-11 |
JP2014186744A (ja) | 2014-10-02 |
KR20140032506A (ko) | 2014-03-14 |
US20110298810A1 (en) | 2011-12-08 |
JP5781666B2 (ja) | 2015-09-24 |
KR20110114650A (ko) | 2011-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5781666B2 (ja) | 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム | |
CN107294838B (zh) | 社交应用的动画生成方法、装置、系统以及终端 | |
KR102530264B1 (ko) | 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치 | |
CN111541950B (zh) | 表情的生成方法、装置、电子设备及存储介质 | |
JP4869340B2 (ja) | キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム | |
JP2016524751A (ja) | バイオメトリックアイデンティティに基づくユーザアクションの帰属先の判定 | |
WO2022105846A1 (zh) | 虚拟对象显示方法及装置、电子设备、介质 | |
CN113014471B (zh) | 会话处理方法,装置、终端和存储介质 | |
CN102902704B (zh) | 信息处理设备、短语输出方法 | |
JP3135098U (ja) | 電子メール画像提供システム | |
JP2009223419A (ja) | ネットワークチャットサービスにおけるアバターの作成編集方法、チャットサービスシステム、および画像データの作成編集方法 | |
JP7460839B1 (ja) | プログラム及びシステム | |
JP6482037B2 (ja) | 制御装置、制御方法及び制御プログラム | |
CN114945949A (zh) | 化身显示装置、化身显示系统、化身显示方法以及化身显示程序 | |
JP5224538B2 (ja) | メールコミュニケーションシステム | |
CN109656362B (zh) | 虚拟增强现实设备及其控制方法、系统、计算机存储介质 | |
JP2018151966A (ja) | 情報処理装置及びプログラム | |
US20070003140A1 (en) | Electronic device and method for outputting response information in electronic device | |
KR20230103665A (ko) | 텍스트 기반 아바타 생성 기능을 제공하는 메타버스 공간 장치, 방법, 및 프로그램 | |
CN114021022A (zh) | 一种妆容信息获取方法、装置、车辆及存储介质 | |
US10601741B2 (en) | Message transmission device and message transmission method | |
JP2022071467A (ja) | コミュニケーション支援プログラム、コミュニケーション支援方法及びコミュニケーション支援システム | |
Kurtzberg et al. | The 10-Second Commute: New Realities of Virtual Work | |
Wright | Eye of the Taika: New Zealand Comedy and the Films of Taika Waititi, Matthew Bannister (2021). | |
CN116129006A (zh) | 一种数据处理方法、装置、设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201080008090.9 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10743518 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2011500488 Country of ref document: JP |
|
ENP | Entry into the national phase |
Ref document number: 20117018706 Country of ref document: KR Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010743518 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13201712 Country of ref document: US Ref document number: 5892/CHENP/2011 Country of ref document: IN |
|
NENP | Non-entry into the national phase |
Ref country code: DE |