WO2010095388A1 - 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム - Google Patents

動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム Download PDF

Info

Publication number
WO2010095388A1
WO2010095388A1 PCT/JP2010/000741 JP2010000741W WO2010095388A1 WO 2010095388 A1 WO2010095388 A1 WO 2010095388A1 JP 2010000741 W JP2010000741 W JP 2010000741W WO 2010095388 A1 WO2010095388 A1 WO 2010095388A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
operation target
data
character
operation data
Prior art date
Application number
PCT/JP2010/000741
Other languages
English (en)
French (fr)
Inventor
冬野哲也
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/201,712 priority Critical patent/US20110298810A1/en
Priority to JP2011500488A priority patent/JP5582135B2/ja
Priority to KR1020147004433A priority patent/KR20140032506A/ko
Priority to EP10743518A priority patent/EP2400462A1/en
Priority to CN2010800080909A priority patent/CN102317980A/zh
Publication of WO2010095388A1 publication Critical patent/WO2010095388A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Definitions

  • the present invention relates to an operation target control device, an operation target control system, an operation target control method, and a program for controlling an operation target operation based on operation data indicating the operation target operation.
  • An object of the present invention is to provide an operation target control device, an operation target control system, an operation target control method, and a program that can change an operation pattern depending on an operation target (character) and can improve entertainment for a user. There is.
  • the present invention has been made to solve the above problems.
  • the operation target control apparatus controls the operation of the operation target based on operation data indicating the operation of the operation target, and receives input of attribute information indicating the attribute of the operation target And the operation information for controlling the operation of the user operation target generated based on the attribute information input by the user of the operation target control device, based on the attribute information received by the input unit
  • a generation unit that generates user operation data
  • a control unit that changes the operation of the user operation target based on the user operation data generated by the generation unit.
  • An operation target control system includes an operation target control device that controls the operation of the operation target based on operation data indicating the operation of the operation target, and for controlling the operation of the operation target. And a server device that holds operation data.
  • the operation target control device controls an operation of the operation target generated based on an input unit that receives input of attribute information indicating the attribute of the operation target, and the attribute information that the input unit has received the input.
  • a generation unit that generates the operation data, an identification information generation unit that generates operation data identification information unique to the operation data generated by the generation unit, and the operation data identification information generated by the identification information generation unit in the storage unit
  • a registration unit for registration a device-side transmission unit for transmitting operation data generated by the generation unit and operation data identification information generated by the identification information generation unit to the server device, and operation data identification stored by the storage unit
  • a device-side receiving unit that receives operation data indicated by the information from the server device; and a control unit that changes an operation to be performed based on the operation data received by the device-side receiving unit; Provided.
  • the server device includes a server-side receiving unit that receives the operation data and the operation data identification information from the operation target control device, and a server-side storage unit that associates the received operation data with the received operation data identification information.
  • a server-side registration unit that registers the operation data corresponding to the operation data identification information from the server-side storage unit, and transmits the operation data to the operation target control device.
  • An operation target control method uses an operation target control device that controls the operation of the operation target based on operation data indicating the operation of the operation target, and an attribute indicating the attribute of the operation target The attribute that has received the input as operation data for controlling the operation of the operation target for the user that is the operation target generated based on the attribute information input by the user of the operation target control device that has received the input of information Generating user operation data based on the information, and changing the operation of the user operation target based on the generated user operation data.
  • a program provides an operation target control device that controls an operation of an operation target based on operation data indicating an operation of the operation target, and inputs attribute information indicating the attribute of the operation target.
  • An input unit that receives the user operation data, which is operation data for controlling the operation of the user operation target indicating the operation target generated based on the attribute information input by the user of the operation target control device; Is generated based on the attribute information received by the input unit, and is operated as a control unit that changes the operation of the user operation target based on the user operation data generated by the generation unit.
  • the operation target control device communicates with another device holding operation data for controlling the operation of the operation target, operates the operation target, and from the other device
  • An operation data receiving unit that receives operation data
  • a control unit that changes the operation of the operation target based on the operation data received by the operation data receiving unit.
  • the program according to the sixth embodiment of the present invention communicates with another device holding operation data for controlling the operation of the operation target, and sets the operation target control device that operates the operation target to the other device.
  • An operation data receiving unit that receives operation data from the apparatus, and a control unit that changes the operation of the operation target based on the operation data received by the operation data receiving unit.
  • the generation unit of the operation target control device generates operation data based on the input attribute information, and the control unit changes the operation of the operation target based on the operation data.
  • FIG. 10 is a second sequence diagram illustrating an operation of the character system illustrated in FIG. 1.
  • FIG. 1 is a configuration diagram of a character system according to an embodiment of the present invention.
  • the character system (action target control system) includes portable terminals 100-1 to 100-N (action target control devices) and a server device 200.
  • the portable terminals 100-1 to 100-N and the server device 200 are connected by a network.
  • the portable terminals 100-1 to 100-N can be connected to each other by short-range communication such as a network or infrared communication.
  • one mobile terminal 100-1 will be described, but the other mobile terminals 100-2 to 100-N have the same configuration.
  • the portable terminal 100-1 displays the character C (action target).
  • the character C moves on the screen of the mobile terminal 100-1 and displays a message.
  • the server device 200 stores character C information (motion data), character C motion and message patterns.
  • FIG. 2A is a schematic block diagram illustrating a configuration of the mobile terminal.
  • the portable terminal 100-1 includes an input unit 110, a communication unit 120 (attribute information reception unit, operation data reception unit, electronic document reception unit, electronic document transmission unit, device side transmission unit, device side reception unit), and display unit 130 (standby display unit), photographing unit 140, auxiliary storage unit 150 (storage unit), main storage unit 160, and CPU 170.
  • the input unit 110 receives input of information from the user via an input interface such as a numeric keypad.
  • the communication unit 120 communicates with other mobile terminals 100-2 to 100-N or the server device 200.
  • the display unit 130 controls screen display.
  • the photographing unit 140 captures an image with a digital camera built in the portable terminal 100-1.
  • the auxiliary storage unit 150 stores system information and programs of the mobile terminal 100-1. Further, the auxiliary storage unit 150 stores a character table for storing the character C and a closeness table for storing closeness between the characters C.
  • the main storage unit 160 stores information used by the CPU 170 for calculation. CPU 170 executes a program and controls the operation of portable terminal 100-1.
  • the bus 180 is a transmission path for transferring data to each processing unit inside the portable terminal 100-1.
  • the generation unit 171 generation unit, identification information generation unit), registration unit 172 (registration unit), image analysis unit 173, sentence analysis unit 174 (electronic document analysis unit) ), Standby control unit 175 (standby display unit), scheduler control unit 176 (schedule registration unit), mail control unit 177 (e-mail transmission unit) and operation determination unit 178 (control unit, emotion determination unit, closeness determination unit, It operates as a document generation unit).
  • the generation unit 171 generates the character C based on information input by the user.
  • the registration unit 172 registers the character C in the auxiliary storage unit 150.
  • the image analysis unit 173 analyzes the image photographed by the photographing unit 140 and generates a portrait image.
  • the sentence analysis unit 174 analyzes the contents of the electronic document.
  • the standby control unit 175 controls the setting and display of the standby screen.
  • the scheduler control unit 176 performs control such as schedule registration and display in the scheduler.
  • the mail control unit 177 controls the generation, transmission / reception, display, and the like of electronic mail.
  • the action determining unit 178 determines the action and message of the character C.
  • FIG. 3A and 3B are diagrams illustrating tables stored in the auxiliary storage unit.
  • FIG. 3A shows a character table.
  • the character table stored in the auxiliary storage unit 150 includes a character ID for identifying the character C (motion data identification information), an email address of the mobile terminal that generated the character C, an appearance of the character C, and a character C's personality (attributes). ), The preference (attribute) of the character C, and the emotion of the character C are stored.
  • FIG. 3A shows an example in which personality is expressed by the values of five parameters: strictness, kindness, calmness, freedom, and obedience. This expression method is an example, and the content and number of parameters are not limited thereto.
  • the expression of the personality is not limited to the expression by the parameter.
  • the personality may be expressed by classifying the personality into a predetermined type.
  • the preference is expressed by a list of keywords.
  • FIG. 3B shows a closeness table.
  • the closeness table stored in the auxiliary storage unit 150 stores two mail
  • FIG. 2B is a schematic block diagram illustrating the configuration of the server device 200.
  • the server device 200 includes a communication unit 210 (server side reception unit, server side transmission unit), a control unit 220 (server side registration unit), and a storage unit 230 (server side storage unit, operation pattern storage unit).
  • Communication unit 210 communicates with mobile terminals 100-1 to 100-N.
  • the control unit 220 controls the server device 200.
  • the storage unit 230 is a character table for storing character C, a closeness table for storing closeness between characters C, an action table for storing character C motion patterns, and a message table for storing character C message patterns.
  • a recommendation table for storing a recommendation pattern of the character C and a mail table for storing a pattern of an electronic mail text.
  • the character table and closeness table have the same configuration as the character table and closeness table stored in the mobile terminal 100-1.
  • the action table stores the character C's personality, action pattern, and occurrence probability in association with each other. For example, a character having a high freedom parameter value is set to have a high probability of “lie down” action, and a character having a high “severity” parameter value is set to have a high probability of “anger” action.
  • the message table stores the character C's personality and the message pattern in association with each other.
  • the recommendation table stores keywords such as the preference of the character C and recommendation patterns in association with each other.
  • the mail table stores the character C's personality, keywords, and mail text pattern in association with each other.
  • input unit 110 accepts input of attribute information indicating the attribute of character C.
  • the generation unit 171 of the CPU 170 generates a character C based on the attribute information.
  • the character C generated by the registration unit 172 is registered in the auxiliary storage unit 150.
  • the action determination unit 178 changes the action of the character C stored in the auxiliary storage unit 150 in correspondence with the attribute information. Thereby, the mobile terminal 100-1 can perform different operations depending on the character C.
  • FIG. 4 is a flowchart showing the operation of the mobile terminal.
  • the standby control unit 175 of the CPU 170 determines whether the auxiliary storage unit 150 stores the character C. It is determined whether or not (step S1).
  • the input unit 110 sets the character C stored in the auxiliary storage unit 150 on the standby screen. An input of information for selecting whether or not is accepted (step S2).
  • step S1 When standby control unit 175 determines in step S1 that auxiliary storage unit 150 does not store character C (step S1: NO), or in step S2, standby control unit 175 stores auxiliary storage unit 150 in memory.
  • step S2: NO A case where information indicating that a non-character C is set on the standby screen is received (step S2: NO) will be described.
  • the generation unit 171 selects information for selecting whether to newly create a character C via the input unit 110 or to receive the character C from another portable terminal 100-2 to 100-N or the server device 200. Is received (step S3).
  • the character C is received from the server device 200
  • a case where a character C of a celebrity publicized on the server device 200 is received can be cited.
  • step S3 When the generation unit 171 receives information indicating that a character C is newly created (step S3: YES), the generation unit 171 inputs attribute information indicating the character C's personality or preference via the input unit 110 (mobile phone). An input of information for selecting between the terminal 100-1) and the other portable terminals 100-2 to 100-N is accepted (step S4). Examples of the case where the attribute information is input on the other mobile terminals 100-2 to 100-N include cases where the other mobile terminals 100-2 to 100-N do not support the character system.
  • step S4 When the generation unit 171 receives information indicating that input of attribute information is to be performed by the terminal itself (step S4: YES), the portable terminal 100-1 receives input of attribute information and generates a character C (step S5). ). Details of this processing will be described later.
  • step S4: NO when the standby screen control unit 175 receives information indicating that the other mobile terminals 100-2 to 100-N input attribute information (step S4: NO), the mobile terminal 100-1 The attribute information is received from the portable terminals 100-2 to 100-N, and the character C is generated (step S6). Details of this processing will be described later.
  • step S3 when the generation unit 171 receives information indicating that the character C is received from the outside (step S3: NO), the communication unit 120 transmits the other mobile terminals 100-2 to 100-N or the server device 200. Character C is received from (Step S7).
  • the registration unit 172 stores the character C in the auxiliary storage unit 150 (step S8).
  • step S2 NO
  • the attribute information is input in step S5.
  • the standby control unit 175 sets the corresponding character C on the standby screen (step S9).
  • the standby control unit 175 sets the character C to the standby screen
  • the standby control unit 175 causes the character C and the program to reside in the main storage unit 160.
  • the display unit 130 reads the character C and the program from the main storage unit 160 and displays the character C on the standby screen.
  • FIG. 5 is a first flowchart showing a character generation operation by the mobile terminal.
  • step S ⁇ b> 4 described above when the generation unit 171 receives information indicating that the input of attribute information is performed by the own terminal, the generation unit 171 stores the face of the character C in the auxiliary storage unit 150 via the input unit 110. An input of information indicating whether or not to generate from the image being processed is accepted (step S5-1).
  • the generation unit 171 When the generation unit 171 receives input of information indicating that the face of the character C is generated from the image stored in the auxiliary storage unit 150 (step S5-1: YES), the generation unit 171 includes the auxiliary storage unit A corresponding image is acquired from 150 (step S5-2). On the other hand, when the generation unit 171 receives input of information indicating that the face of the character C is generated from an image not stored in the auxiliary storage unit 150 (step S5-1: NO), the photographing unit 140 The generation unit 171 acquires the captured image (step S5-3).
  • the image analysis unit 173 analyzes the acquired image and generates a portrait image (step S5-4).
  • the portrait image is generated as follows, for example. First, the image analysis unit 173 extracts, from the image, a region in which the hue, brightness, and luminance values are within a predetermined range by comparing with the hue, brightness, and luminance values of the skin color. The image analysis unit 173 extracts a region having a substantially elliptical shape as the face region among the extracted regions. Next, the image analysis unit 173 selects a color that touches the upper side of the face area.
  • the image analysis unit 173 compares the hue, lightness, and luminance values from the image within a predetermined range compared to the hue, lightness, and luminance values of the selected color, and is an area in contact with the face area information. Are extracted as hair regions. Next, the image analysis unit 173 extracts the contours of the face region and the hair region, and extracts parts such as eyebrows, eyes, nose, mouth, and contour of the face. Next, the image analysis unit 173 extracts a portrait part similar to the part extracted from the portrait parts stored in the auxiliary storage unit 150 in advance, and arranges the portrait part at the corresponding coordinates. Although a portrait image can be generated by such a method, the present invention is not limited to this, and other methods may be used.
  • the generation unit 171 reads the body information stored in advance in the auxiliary storage unit 150 (step S5-5).
  • the torso information is a set of images showing the torso of the character C.
  • the torso information is represented by an associative array in which motion patterns such as “run” and “sit” and a body image corresponding to the motion pattern are stored in association with each other. Is done.
  • the image is not limited to a still image and may be a moving image.
  • the generation unit 171 combines the portrait image of the character C with the face portion of the read body information, and generates appearance information of the character C (step S5-6).
  • the generation unit 171 When generating the appearance information of the character C, the generation unit 171 acquires the question items stored in advance by the auxiliary storage unit 150 and causes the display unit 130 to display them (Step S5-7). With this question, the generation unit 171 collects information used for determining the user's personality and preference. The questions used for character determination are, for example, questions such as “Do you keep time?” Or “Is curious?” The questions used to determine the preference are, for example, “what is your favorite music”, “what is your favorite food”, and the like. When the display unit 130 displays the question item, the generation unit 171 receives an input of an answer to the question item via the input unit 110 (step S5-8).
  • the generation unit 171 determines the character C character C based on the answer (step S5-9).
  • the personality is expressed by values of five parameters, for example, strictness, kindness, calmness, freedom, and obedience.
  • the personality is determined by, for example, associating a parameter with a question item in advance and calculating the parameter based on whether the answer to the question item associated with the parameter is positive or negative. It can be carried out.
  • the generating unit 171 When determining the character C, the generating unit 171 generates a character ID for identifying the character C (step S5-10).
  • the registration unit 172 associates the character ID with the mail address of the terminal itself, and uses the appearance information, the information indicating the personality, and the information indicating the preference as the character C in the auxiliary storage unit 150. It is stored in the character table (step S5-11).
  • the communication unit 120 transmits the character ID, the mail address of the terminal itself, and the character C to the server device 200 (step S5-12). Thereby, the portable terminal 100-1 can generate the character C and store the character C in the auxiliary storage device 150 and the server device 200.
  • FIG. 6 is a second flowchart showing the character generation operation by the mobile terminal.
  • step S4 when the generation unit 171 receives information indicating that the input of attribute information is performed by the other portable terminals 100-2 to 100-N, the generation unit 171 receives the character C via the input unit 110.
  • the input of information indicating whether or not to generate the face from the image stored in the auxiliary storage unit 150 is accepted (step S6-1).
  • the generation unit 171 When the generation unit 171 receives input of information indicating that the face of the character C is generated from the image stored in the auxiliary storage unit 150 (step S6-1: YES), the generation unit 171 stores the question stored in the auxiliary storage unit 150 A questionnaire form is generated from the items and transmitted to the other portable terminals 100-2 to 100-N via the communication unit 120 (step S6-2). When the other portable terminals 100-2 to 100-N receive the questionnaire form and transmit the questionnaire response, the communication unit 120 receives the answer from the other portable terminals 100-2 to 100-N (step S6-3). ). When the communication unit 120 receives the answer, the generation unit 171 acquires an image used for generating the face of the character C from the auxiliary storage unit 150 (step S6-4).
  • the auxiliary storage unit 150 stores the information.
  • a questionnaire form having an image input field is generated from the question items to be transmitted and transmitted to the other portable terminals 100-2 to 100-N via the communication unit 120 (step S6-5).
  • the communication unit 120 receives the responses and images from the other mobile terminals 100-2 to 100-N (Ste S6-6).
  • the generation unit 171 acquires an image from the reception result received by the communication unit 120 (step S6-7).
  • the image analysis unit 173 analyzes the acquired image and generates a portrait image (step S6-8).
  • the generation unit 171 reads body information stored in advance in the auxiliary storage unit 150 (step S6-9).
  • the generation unit 171 combines the portrait image of the character C with the face part of the read body information, and generates appearance information of the character C (step S6-10).
  • the generation unit 171 determines the character of the character C based on the answer received by the communication unit 120 (step S6-11). When the generation unit 171 determines the character C, the generation unit 171 generates a character ID of the character C (step S6-12). When the generation unit 171 generates the character ID, the registration unit 172 associates the character ID with the email addresses of the other portable terminals 100-2 to 100-N, information indicating the portrait image, personality, and information indicating preference. Is stored as a character C in the character table of the auxiliary storage unit 150 (step S6-13).
  • the communication unit 120 transmits the character ID, the mail addresses of the other mobile terminals 100-2 to 100-N, and the character C to the server device 200 ( Step S6-14). Thereby, the portable terminal 100-1 can generate the character C and store the character C in the auxiliary storage device 150 and the server device 200.
  • FIG. 7 is a first sequence diagram showing the operation of the character system.
  • the standby control unit 175 reads the character C set on the standby screen from the auxiliary storage unit 150 (step S11).
  • the standby control unit 175 causes the display unit 130 to display an image in a normal state from the appearance information of the character C (step S12).
  • the action determination unit 178 transmits the character ID and the mail addresses of the mobile terminals 100-1 to 100-N that created the character C to the server device 200 (step S13).
  • step S14 When portable terminal 100-1 transmits the character ID and the mail address to server apparatus 200, communication unit 210 of server apparatus 200 receives the character ID and the mail address (step S14).
  • the control unit 220 of the server device 200 is stored in association with the character ID and the mail address from the character table of the storage unit 230 of the server device 200.
  • the character C's personality and preference are acquired (step S15).
  • the control unit 220 of the server device 200 acquires a plurality of operation patterns stored in association with the acquired character from the operation table of the storage unit 230 of the server device 200 (step S16). .
  • control unit 220 of the server device 200 acquires a plurality of message patterns stored in association with the acquired personality from the message table (step S17). Moreover, the control part 220 of the server apparatus 200 acquires the some recommendation pattern (step S18) stored in relation to the keyword with high preference and the acquired preference from a recommendation table.
  • the control unit 220 of the server device 200 acquires the operation pattern, the message pattern, and the recommendation pattern
  • the communication unit 210 of the server device 200 transmits them to the mobile terminal 100-1 (Step S19).
  • the communication unit 120 of the mobile terminal 100-1 receives them (step S20).
  • the operation determination unit 178 randomly selects one from the received patterns (step S21), and reflects the selected pattern on the character C displayed on the display unit 130.
  • Step S22 For example, when the motion determination unit 178 selects a motion pattern, the display unit 130 displays an image corresponding to the motion pattern selected from the appearance information of the character C.
  • the action determination unit 178 selects a message pattern or a recommendation pattern
  • the display unit 130 displays a speech bubble storing a character string indicated by the selected message pattern or recommendation pattern above the character C.
  • the portable terminal 100-1 causes the character C to perform an operation, a message, and a recommendation that match the personality and preference.
  • a character C other than the character C set as the standby may be displayed at the same time, and a message pattern based on the familiarity of both characters C may be received from the server device 200 to have a conversation.
  • FIG. 8 is a second sequence diagram showing the operation of the character system.
  • the character C is set to standby
  • the mail control unit 177 receives an e-mail from another communication device 100-2 via the communication unit 120 (step S31)
  • the sentence analysis unit 174 receives the received electronic
  • the mail text is analyzed and morphemes are extracted (step S32).
  • the mail control unit 177 associates the same mail address with the character C as the mail address of the other communication device 100-2 in the character table. It is determined whether or not it is stored (step S33).
  • the sentence analysis unit 174 extracts emotions from the extracted morphemes (step S34).
  • emotion extraction can be performed by previously storing morphemes and emotions in the auxiliary storage unit 150 in association with each other and acquiring all the emotions corresponding to the extracted morphemes.
  • the auxiliary storage unit 150 stores, for example, the morpheme “Amusement Park” in association with the “Easy” emotion and the “morphic” morpheme in association with the “anger” emotion.
  • the action determination unit 178 changes the emotion of the character C of the other communication device 100-2 stored in the character table of the auxiliary storage unit 150 to the extracted emotion. Further, based on the extracted emotion, the closeness between the character C of the terminal itself and the character C of the other communication device 100-2 is changed (step S35). For example, when the sentence analysis unit 174 extracts a positive emotion such as “joy” or “easy”, the intimacy value is increased by increasing the familiarity value based on the degree of emotion. When negative emotions such as “” are extracted, the degree of intimacy can be reduced based on the degree of emotion.
  • the display unit 130 displays an image corresponding to the emotion extracted from the appearance information of the character C (step S36).
  • the image is not limited to a still image, and may be a moving image.
  • the communication unit 120 transmits the mail address of its own terminal, the mail address of the other communication device 100-2, and the modified intimacy to the server device 200 (step S37).
  • portable terminal 100-1 transmits the mail address of its own terminal, the mail address of other communication device 100-2, and the modified intimacy
  • communication unit 210 of server device 200 receives them (step S38).
  • the communication unit 210 of the server device 200 receives the mail address of the own terminal, the mail address of the other communication device 100-2, and the modified intimacy
  • the mail address of the own terminal and other information are stored in the familiarity table of the storage unit 230.
  • the familiarity value stored in association with the mail address of the communication device 100-2 is changed to the received familiarity (step S39).
  • step S33 determines in step S33 that the mail address of the other communication device 100-2 is not stored (step S33: NO), or when the communication unit 120 transmits the familiarity in step S37. explain.
  • the mail control unit 177 randomly outputs an automatic generation command to the operation determination unit 178 (step S40).
  • “randomly” means that the mail control unit 177 does not always output an automatic generation command every time.
  • the action determining unit 178 outputs the automatic generation command (step S40: YES)
  • the action determining unit 178 transmits the extracted morpheme and the character C to the server device 200 via the communication unit 120 (step S41). ).
  • the communication unit 210 of the server device 200 receives them (step S42).
  • the control unit 220 of the server device 200 registers the mail text registered in association with the morpheme and personality received from the mail table of the storage unit 230 of the server device 200.
  • a pattern is acquired (step S43).
  • the communication unit 210 of the server device 200 transmits the acquired text pattern to the mobile terminal 100-1 (Step S44).
  • the communication unit 120 of the mobile terminal 100-1 receives the text pattern (step S45).
  • the operation determination unit 178 generates a text of an email based on the received text pattern. That is, the action determination unit 178 generates a reply mail reflecting the character C and the received e-mail text (step S46).
  • the action determining unit 178 displays a balloon storing a character string that accepts input of whether reply mail can be transmitted or not above the character C displayed on the display unit 130 (step S47).
  • Unit 110 accepts an input indicating whether or not a reply mail can be transmitted (step S48).
  • the mail control unit 177 When the input unit 110 receives information indicating that a reply mail is to be transmitted, such as when the user presses the determination button on the portable terminal 100-1 (step S48: YES), the mail control unit 177 performs the operation determination unit 178. The reply mail generated by is transmitted (step S49). When the input unit 110 receives information indicating that the reply mail is not transmitted (for example, NO in step S48), such as when the user presses the cancel button of the portable terminal 100-1, the mail control unit 177 causes the operation determination unit 178 to The reply mail generated by is deleted (step S50). Thereby, the portable terminal 100-1 causes the character C to generate a reply mail that matches the personality and the received electronic mail. In the example described above, the case where the transmission source of the electronic mail is the communication terminal 100-2 has been described. However, the present invention is not limited to this, and the same operation is performed when the other communication terminals 100-3 to 100-N are e-mail transmission sources.
  • the scheduler control unit 176 receives an input of a schedule and a character C associated with the schedule via the input unit 110.
  • the registration unit 172 registers the schedule and the character C in the auxiliary storage unit 150 in association with each other.
  • the action determination unit 178 transmits the preference of the character C registered in association with the schedule and the contents of the schedule to the server device 200 via the communication unit 120.
  • the control unit 220 of the server apparatus 200 receives the preference and schedule received from the recommendation table of the storage unit 230 of the server apparatus 200.
  • the recommendation pattern registered in association with the keyword having the highest similarity with the content of is acquired.
  • the communication unit 210 of the server device 200 transmits the acquired recommendation pattern to the mobile terminal 100-1.
  • the operation determination unit 178 causes the display unit 130 to display a speech bubble storing the character string indicated by the received recommendation pattern above the character C. Display.
  • the portable terminal 100-1 causes the character C to make a recommendation that matches the preference and schedule. For example, by presenting the character C received from the mobile terminal 100-2 in association with the birthday schedule of the user of the mobile terminal 100-2, a present that matches the user's preference of the mobile terminal 100-2 is recommended. Can do.
  • the input unit 110 transmits a message to be transmitted to the mobile terminal 100-2.
  • An input for selecting a mediating character C is received. Since the character C that mediates the message is a proxy for the user, the character C that can be selected here is limited to the character generated by the terminal itself.
  • the input unit 110 When the input unit 110 receives an input for selecting the character C, the input unit 110 receives an operation pattern of the character C and an input of a message to be transmitted. Entering a message is not mandatory.
  • the communication unit 120 transmits the character ID, the operation pattern, and the message of the selected character C to the portable terminal 100-2.
  • the communication unit 120 of the portable terminal 100-2 receives them.
  • the motion determination unit 178 reads the character C associated with the received character ID from the auxiliary storage unit 150.
  • the motion determination unit 178 causes the display unit 130 to display an image of the motion pattern received from the appearance information of the character C, and displays a speech bubble storing the received message above the character C.
  • the mobile terminal 100-1 transmits the operation of the character C to the mobile terminal 100-2 in addition to the character string message. Can convey emotional messages.
  • the mobile terminal 100-1 transmits the character ID, the motion pattern, and the message
  • the closeness between the character C selected based on the motion pattern and the message and the character C of the mobile terminal 100-2 is changed.
  • the closeness between the characters C is transmitted to the server device 200, and the closeness value stored in the storage unit 230 of the server device 200 is updated.
  • the transmission destination of the electronic mail is the communication terminal 100-2
  • the present invention is not limited to this, and the same operation is performed when the other communication terminals 100-3 to 100-N are e-mail transmission destinations.
  • the portable terminal 100-1 can list all the characters C stored in the character table of the auxiliary storage unit 150 using functions such as a telephone directory and a data folder. At this time, for example, the mobile terminal 100-1 can display the closeness of the characters C by disposing the characters C having high closeness close to each other and disposing the characters C having low closeness remotely. . In the data folder function, the character C can be registered by being classified into categories such as friends and family.
  • the mobile terminal 100-1 determines the action, message, and recommendation of the character C based on the personality and preference. Thereby, the mobile terminal 100-1 can perform different operations depending on the character C.
  • the action determining unit 178 determines the action of the character C
  • the mobile terminal 100-1 receives an action pattern, a message pattern, and a recommendation pattern corresponding to the character C's personality or preference from the server device 200.
  • the control unit 220 of the server device 200 may randomly select one pattern and transmit it to the mobile terminal 100-1, and the operation determination unit 178 may display the received pattern operation on the display unit 130.
  • the storage unit 230 of the server device 200 stores a message table, a recommendation table, and a mail table, and the character, message, recommendation, and mail text of the character C is obtained from the fixed pattern pattern stored in the table.
  • a program such as an artificial incompetence or a chatbot system may be stored in the mobile terminal 100-1 or the server device 200, and a message, a recommendation, and a mail text may be determined by the program.
  • the character system includes the server device 200, and the storage unit 230 of the server device 200 stores the operation table, the message table, the recommendation table, and the mail table.
  • the present invention is not limited to this.
  • the operation table, the message table, the recommendation table, and the mail table may be stored in the auxiliary storage unit 150 of the mobile terminals 100-1 to 100-N so that the server 200 is not provided.
  • the character C's personality, hobby, and preference are determined by the first input
  • personality, hobbies, and preferences may be changed based on e-mail and Internet usage history.
  • the changed personality, hobby, and preference are transmitted to the server device 200, and the personality C, the hobby, and the preference stored in the storage unit 230 of the server device 200 are updated, so that the character C of the terminal itself is also used in other portable terminals. Can be kept up to date.
  • the character C is newly generated when the character C is set on the standby screen.
  • the present invention is not limited to this.
  • the character C may be generated when a mobile terminal is purchased.
  • the closeness between the characters C is changed in the exchange of mail and message has been described, but the present invention is not limited to this.
  • the closeness of the character C that is frequently registered in the schedule may be increased.
  • the apparatus which displays the character C is a portable terminal
  • the character C may be displayed on a personal computer or a dedicated terminal of the character system.
  • the case where the mobile terminals 100-1 to 100-N display the character C on the display unit 130 has been described, but the present invention is not limited to this.
  • the operation target control apparatus according to the present invention may be built in a stuffed animal with a built-in robot, and the operation determining unit 178 may control the operation of the robot to operate the stuffed toy main body.
  • an e-mail address is used as information for specifying the mobile terminals 100-1 to 100-N
  • the present invention is not limited to this.
  • IMSI International Mobile Subscriber Identity
  • SIM Subscriber Identity Module
  • the SIM card used in the mobile terminal before the change is continuously used for the mobile terminal after the change, so that even after the mobile terminal is changed.
  • the same character C as before the change can be used continuously.
  • the server device 200 may include an image analysis unit and the server device 200 may generate a portrait image.
  • the communication unit 120 transmits to the server device 200 via the acquired images, and the image analysis unit of the server device 200 Generates a portrait image from images received from the mobile terminals 100-1 to 100-N.
  • the server device 200 transmits the generated portrait image to the mobile terminals 100-1 to 100-N.
  • the portable terminals 100-1 to 100-N can acquire a portrait image.
  • the mobile terminal 100-1 when performing the process of generating the character C in step S5 described above, the mobile terminal 100-1 generates a questionnaire form, and the mobile terminal 100-1 is the character C's based on the answer input by the user.
  • the communication unit 120 of the portable terminal 100-1 accesses the server device 200, and the display unit 130 displays a questionnaire form stored in the server device 200.
  • the input unit 110 inputs an answer to the questionnaire form.
  • the communication unit 120 transmits the answer accepted by the input unit 110 to the server device 200.
  • Server device 200 determines the character of character C based on the answer received from portable terminal 100-1.
  • server device 200 transmits information indicating the determined character to portable terminal 100-1.
  • the portable terminal 100-1 can acquire the character C.
  • the attribute information is input on the other portable terminals 100-2 to 100-N, and the portable terminal 100-1 performs the process of generating the character C in the portable terminal 100-1.
  • -1 generates a questionnaire form, receives questionnaire form responses from the other mobile terminals 100-2 to 100-N, and the mobile terminal 100-1 determines the character C based on the received answers.
  • the mobile terminal 100-1 transmits a URL indicating a questionnaire form stored in the server device 200 to the other mobile terminal 100-2.
  • the other mobile terminal 100-2 accesses the server apparatus 200 via the communication unit 120 based on the URL received from the mobile terminal 100-1, and inputs an answer to the questionnaire form stored in the server apparatus 200.
  • the server apparatus 200 determines the character C of the character C based on the answer from the other portable terminal 100-2.
  • server device 200 transmits information indicating the determined character to portable terminal 100-1.
  • the mobile terminal 100-1 can acquire the character C of the character C based on the answer of the mobile terminal 100-2.
  • the above-described portable terminals 100-1 to 100-N have a computer system inside.
  • the operation of each processing unit described above is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by the computer reading and executing this program.
  • the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
  • the program may realize some of the functions described above.
  • the program may be a so-called difference file (difference program) that can realize the functions described above in combination with a program already recorded in the computer system.
  • the present invention can be applied to an operation target control device, an operation target control system, an operation target control method, and a program.
  • the operation pattern can be changed depending on the operation target (character), and the entertainment property for the user can be improved.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 動作対象制御装置は、動作対象の動作を示す動作データに基づいて動作対象の動作を制御し、動作対象の属性を示す属性情報の入力を受け付ける入力部と、動作対象制御装置のユーザが入力した属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、入力部が入力を受け付けた属性情報に基づいてユーザ用動作データを生成する生成部と、生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部とを備える。

Description

動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
 本発明は、動作対象の動作を示す動作データに基づいて動作対象の動作を制御する動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムに関する。
 近年、仮想空間における自己表現の方法として、自分の分身であるアバター(Avatar)を生成し、利用したサービスが利用されている(例えば、非特許文献1を参照)。このようなサービスによって、ユーザは、思い通りのアバターを作成し、他人に披露することによる優越感を得ることができる。さらにユーザは、他のアバターを有するユーザとコミュニケーションを図ることができる。
 また、ユーザは、アバターの動作を指定することができ、これによりアバターに感情を表現させることができる。
"livedoor アバター"、[online]、株式会社ライブドア、[2009年1月22日検索]、インターネット〈URL:http://avatar.livedoor.com/〉
 しかしながら、従来のアバターは、外見の情報のみを有するキャラクターである。このため、アバターの動作は、ユーザに指定された動作に限られ、またアバターが自発的に動作する場合も、その動作は定型化された動作に限られてしまう。このため、ユーザに対して十分な楽しみや満足を与えることができなかった。
 本発明は上記の点に鑑みてなされた。本発明の目的は、動作対象(キャラクター)によって動作パターンを変化させることができ、ユーザに対するエンターテインメント性を向上させることができる動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムを提供することにある。
 本発明は上記の課題を解決するためになされた。本発明の第1の実施態様に係る動作対象制御装置は、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御し、前記動作対象の属性を示す属性情報の入力を受け付ける入力部と、前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成されるユーザ用動作対象の動作を制御するための動作データとして、前記入力部が入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成する生成部と、前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部とを備える。
 本発明の第2の実施態様に係る動作対象制御システムは、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置と前記動作対象の動作を制御するための動作データを保持するサーバ装置とを備える。前記動作対象制御装置は、前記動作対象の属性を示す属性情報の入力を受け付ける入力部と、前記入力部が入力を受け付けた前記属性情報に基づいて生成される前記動作対象の動作を制御するための動作データを生成する生成部と、前記生成部が生成した動作データに固有の動作データ識別情報を生成する識別情報生成部と、前記識別情報生成部が生成した動作データ識別情報を記憶部に登録する登録部と、前記サーバ装置に前記生成部が生成した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する装置側送信部と、前記記憶部が記憶する動作データ識別情報が示す動作データを前記サーバ装置から受信する装置側受信部と、前記装置側受信部が受信した動作データに基づいて動作対象の動作を変化させる制御部とを備える。前記サーバ装置は、前記動作対象制御装置から前記動作データと前記動作データ識別情報とを受信するサーバ側受信部と、前記受信した動作データ識別情報に前記受信した動作データを関連付けてサーバ側記憶部に登録するサーバ側登録部と、前記動作データ識別情報に対応する動作データをサーバ側記憶部から取得し、前記動作対象制御装置に送信するサーバ側送信部とを備える。
 本発明の第3の実施態様に係る動作対象制御方法は、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を用い、前記動作対象の属性を示す属性情報の入力を受け付け前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、前記入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、前記生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させることを含む。
 本発明の第4の実施態様に係るプログラムは、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を、前記動作対象の属性を示す属性情報の入力を受け付ける入力部、前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象を示すユーザ用動作対象の動作を制御するための動作データであるユーザ用動作データを前記入力部が入力を受け付けた前記属性情報に基づいて生成する生成部、前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部として動作させる。
 本発明の第5の実施態様に係る動作対象制御装置は、動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させ、前記他の装置から動作データを受信する動作データ受信部と、前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部とを備える。
 本発明の第6の実施態様に係るプログラムは、動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させる動作対象制御装置を、前記他の装置から動作データを受信する動作データ受信部、前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部として動作させる。
 本発明によれば、動作対象制御装置の生成部が、入力された属性情報に基づいて動作データを生成し、制御部が、動作データに基づいて動作対象の動作を変化させる。これにより、属性情報が異なる動作対象の動作を異ならせることができるので、エンターテインメント性に富んだキャラクターを生成することができる。
本発明の一実施形態によるキャラクターシステムの構成図である。 図1に示す携帯端末の構成を示す概略ブロック図である。 図1に示すサーバ装置の構成を示す概略ブロック図である。 図1に示す携帯端末の補助記憶部が記憶するキャラクターテーブルを示す図である。 図1に示す携帯端末の補助記憶部が記憶する親密度テーブルを示す図である。 図1に示す携帯端末の動作を示すフローチャートである。 図1に示す携帯端末によるキャラクター生成動作を示す第1のフローチャートである。 図1に示す携帯端末によるキャラクター生成動作を示す第2のフローチャートである。 図1に示すキャラクターシステムの動作を示す第1のシーケンス図である。 図1に示すキャラクターシステムの動作を示す第2のシーケンス図である。
 以下、図面を参照しながら本発明の実施形態について詳しく説明する。
 図1は、本発明の一実施形態によるキャラクターシステムの構成図である。
 キャラクターシステム(動作対象制御システム)は、携帯端末100-1~100-N(動作対象制御装置)とサーバ装置200とを備える。携帯端末100-1~100-Nとサーバ装置200とはネットワークによって接続されている。携帯端末100-1~100-N同士は、ネットワークまたは赤外線通信等の近距離通信によって接続できる。以下の説明では1つの携帯端末100-1について説明するが、他の携帯端末100-2~100-Nも同様の構成を備える。
 携帯端末100-1は、キャラクターC(動作対象)を表示する。キャラクターCは、携帯端末100-1の画面上で動いたりメッセージを表示させたりする。
 サーバ装置200は、キャラクターCの情報(動作データ)並びにキャラクターCの動作及びメッセージのパターンを記憶する。
 図2Aは、携帯端末の構成を示す概略ブロック図である。
 携帯端末100-1は、入力部110と、通信部120(属性情報受信部、動作データ受信部、電子文書受信部、電子文書送信部、装置側送信部、装置側受信部)と、表示部130(待ち受け表示部)と、撮影部140と、補助記憶部150(記憶部)と、主記憶部160と、CPU170とを備える。
 入力部110は、テンキー等の入力インターフェイスを介してユーザからの情報の入力を受け付ける。
 通信部120は、他の携帯端末100-2~100-Nまたはサーバ装置200との通信を行う。
 表示部130は、画面の表示を制御する。
 撮影部140は、携帯端末100-1に内蔵されたデジタルカメラによる画像の撮影を行う。
 補助記憶部150は、携帯端末100-1のシステム情報やプログラムを記憶する。また、補助記憶部150は、キャラクターCを格納するキャラクターテーブル、及びキャラクターC同士の親密度を格納する親密度テーブルを記憶する。
 主記憶部160は、CPU170が演算に用いる情報を記憶する。
 CPU170は、プログラムを実行し、携帯端末100-1の動作を制御する。
 バス180は、携帯端末100-1の内部において各処理部へデータを転送する伝送路である。
 CPU170は、補助記憶部150が記憶するプログラムを実行すると、生成部171(生成部、識別情報生成部)、登録部172(登録部)、画像解析部173、文章解析部174(電子文書解析部)、待ち受け制御部175(待ち受け表示部)、スケジューラ制御部176(スケジュール登録部)、メール制御部177(電子メール送信部)及び動作決定部178(制御部、感情決定部、親密度決定部、文書生成部)として動作する。
 生成部171は、ユーザが入力した情報に基づいてキャラクターCを生成する。
 登録部172は、キャラクターCを補助記憶部150に登録する。
 画像解析部173は、撮影部140が撮影した画像を解析し、似顔絵画像を生成する。
 文章解析部174は、電子文書の内容を解析する。
 待ち受け制御部175は、待ち受け画面の設定、表示等の制御を行う。
 スケジューラ制御部176は、スケジューラへのスケジュール登録、表示等の制御を行う。
 メール制御部177は、電子メールの生成、送受信、表示等の制御を行う。
 動作決定部178は、キャラクターCの動作及びメッセージを決定する。
 図3Aおよび図3Bは、補助記憶部が記憶するテーブルを示す図である。
 図3Aはキャラクターテーブルを示している。
 補助記憶部150が記憶するキャラクターテーブルは、キャラクターCを識別するキャラクターID(動作データ識別情報)と、キャラクターCを生成した携帯端末のメールアドレスと、キャラクターCの外見と、キャラクターCの性格(属性)と、キャラクターCの嗜好(属性)と、キャラクターCの感情とを格納する。
 図3Aでは、厳格さ、優しさ、冷静さ、自由さ、及び従順さの5つのパラメータの値によって性格を表現する場合の例を示している。この表現方法は一例であり、パラメータの内容及び個数はこれに限られない。性格の表現もパラメータによる表現に限られず、例えば性格を所定の類型に分類することで表現しても良い。
 嗜好は、キーワードの羅列によって表現している。
 図3Bは、親密度テーブルを示している。
 補助記憶部150が記憶する親密度テーブルは、2つのメールアドレスと、親密度とを格納する。
 図2Bは、サーバ装置200の構成を示す概略ブロック図である。
 サーバ装置200は、通信部210(サーバ側受信部、サーバ側送信部)と、制御部220(サーバ側登録部)と、記憶部230(サーバ側記憶部、動作パターン記憶部)とを備える。
 通信部210は、携帯端末100-1~100-Nとの通信を行う。
 制御部220は、サーバ装置200の制御を行う。
 記憶部は230、キャラクターCを格納するキャラクターテーブルと、キャラクターC同士の親密度を格納する親密度テーブルと、キャラクターCの動作パターンを格納する動作テーブルと、キャラクターCのメッセージパターンを格納するメッセージテーブルと、キャラクターCのレコメンドパターンを格納するレコメンドテーブルと、電子メールの文面のパターンを格納するメールテーブルとを記憶する。
 キャラクターテーブル及び親密度テーブルは、携帯端末100-1が記憶するキャラクターテーブル及び親密度テーブルと同様の構成である。
 動作テーブルは、キャラクターCの性格と動作パターンと発生確率とを関連付けて格納する。例えば、自由さのパラメータ値が高い性格は「横になる」動作の発生確率を高く設定し、「厳格さ」のパラメータ値が高い性格は「怒る」動作の発生確率を高く設定しておく。
 メッセージテーブルは、キャラクターCの性格とメッセージパターンとを関連付けて格納する。
 レコメンドテーブルは、キャラクターCの嗜好等のキーワードとレコメンドパターンとを関連付けて格納する。
 メールテーブルは、キャラクターCの性格とキーワードとメールの文面パターンとを関連付けて格納する。
 携帯端末100-1においては、入力部110がキャラクターCの属性を示す属性情報の入力を受け付ける。CPU170の生成部171がその属性情報に基づいてキャラクターCを生成する。登録部172が生成したキャラクターCを補助記憶部150に登録する。動作決定部178は、補助記憶部150が記憶するキャラクターCの動作を属性情報に対応させて変化させる。
 これにより、携帯端末100-1は、キャラクターCによって異なる動作をさせることができる。
 次に、携帯端末100-1の動作を説明する。
 キャラクターCを携帯端末100-1の待ち受け画面に設定する場合を例に説明する。
 図4は、携帯端末の動作を示すフローチャートである。
 まず、ユーザが携帯端末100-1の設定画面より、待ち受け画面にキャラクターCを設定することを示す情報を入力すると、CPU170の待ち受け制御部175は、補助記憶部150がキャラクターCを記憶しているか否かを判定する(ステップS1)。待ち受け制御部175が、補助記憶部150がキャラクターCを記憶していると判定した場合(ステップS1:YES)、入力部110は、補助記憶部150が記憶するキャラクターCを待ち受け画面に設定するか否かを選択する情報の入力を受け付ける(ステップS2)。
 待ち受け制御部175がステップS1によって補助記憶部150がキャラクターCを記憶していないと判定した場合(ステップS1:NO)、またはステップS2で、待ち受け制御部175が、補助記憶部150が記憶していないキャラクターCを待ち受け画面に設定することを示す情報を受け付けた場合(ステップS2:NO)について説明する。この場合には、生成部171は、入力部110を介してキャラクターCを新規作成するか、他の携帯端末100-2~100-Nまたはサーバ装置200からキャラクターCを受信するかを選択する情報の入力を受け付ける(ステップS3)。サーバ装置200からキャラクターCを受信する場合としては、サーバ装置200で公開されている著名人のキャラクターCを受信する場合等が挙げられる。
 生成部171は、キャラクターCを新規作成することを示す情報を受け付けた場合(ステップS3:YES)、入力部110を介してキャラクターCの性格や嗜好などを示す属性情報の入力を自端末(携帯端末100-1)で行うか、他の携帯端末100-2~100-Nで行うかを選択する情報の入力を受け付ける(ステップS4)。他の携帯端末100-2~100-Nで属性情報の入力を行う場合としては、例えば、他の携帯端末100-2~100-Nがキャラクターシステムに対応していない場合等がある。
 生成部171が属性情報の入力を自端末で行うことを示す情報を受け付けた場合(ステップS4:YES)、携帯端末100-1は、属性情報の入力を受け付け、キャラクターCを生成する(ステップS5)。この処理の詳細は後述する。
 他方、待ち受け画面制御部175が属性情報の入力を他の携帯端末100-2~100-Nで行うことを示す情報を受け付けた場合(ステップS4:NO)、携帯端末100-1は、他の携帯端末100-2~100-Nから属性情報を受信し、キャラクターCを生成する(ステップS6)。この処理の詳細は後述する。
 ステップS3で、生成部171がキャラクターCを外部から受信することを示す情報を受け付けた場合(ステップS3:NO)、通信部120は、他の携帯端末100-2~100-Nまたはサーバ装置200からキャラクターCを受信する(ステップS7)。通信部120がキャラクターCを受信すると、登録部172は、キャラクターCを補助記憶部150に記憶させる(ステップS8)。
 ステップS2で、待ち受け制御部175が、補助記憶部150が記憶していないキャラクターCを待ち受け画面に設定することを示す情報を受け付けた場合(ステップS2:NO)、ステップS5で属性情報の入力を受け付けてキャラクターCを生成した場合、ステップS6で属性情報を受信してキャラクターCを生成した場合、またはステップS8でキャラクターCを補助記憶部150に記憶させた場合について説明する。この場合は、待ち受け制御部175は、該当するキャラクターCを待ち受け画面に設定する(ステップS9)。
 待ち受け制御部175は、キャラクターCを待ち受け画面に設定すると、主記憶部160にキャラクターC及びプログラムを常駐させる。表示部130は、待ち受け画面を表示させる際、主記憶部160からキャラクターC及びプログラムを読み出し、待ち受け画面にキャラクターCを表示させる。
 次に、上述したステップS5による、属性情報の入力を自端末で行い、キャラクターCを生成する処理について説明する。
 図5は、携帯端末によるキャラクター生成動作を示す第1のフローチャートである。
 上述したステップS4で、生成部171が属性情報の入力を自端末で行うことを示す情報を受け付けると、生成部171は、入力部110を介して、キャラクターCの顔を補助記憶部150が記憶している画像から生成するか否かを示す情報の入力を受け付ける(ステップS5-1)。
 生成部171が、キャラクターCの顔を補助記憶部150が記憶している画像から生成することを示す情報の入力を受け付けた場合(ステップS5-1:YES)、生成部171は、補助記憶部150から該当する画像を取得する(ステップS5-2)。
 他方、生成部171が、キャラクターCの顔を補助記憶部150が記憶していない画像から生成することを示す情報の入力を受け付けた場合(ステップS5-1:NO)、撮影部140は、画像の撮影を受け付け、生成部171は撮影した画像を取得する(ステップS5-3)。
 ステップS5-2またはステップS5-3で生成部171が画像を取得すると、画像解析部173は、取得した画像を解析し、似顔絵画像を生成する(ステップS5-4)。似顔絵画像の生成は、例えば以下のように行う。
 まず、画像解析部173は、画像から、色相、明度、及び輝度の値が肌色の色相、明度、及び輝度の値と比較して所定の範囲内となる領域を抽出する。画像解析部173は、抽出した領域のうち、形状が略楕円形である領域を顔領域として抽出する。次に、画像解析部173は、顔領域の上方に接する色を選択する。次に、画像解析部173は、画像から、色相、明度、及び輝度の値が選択した色の色相、明度、及び輝度の値と比較して所定の範囲内となり、顔領域の情報に接する領域を髪領域として抽出する。次に、画像解析部173は、顔領域及び髪領域の輪郭を抽出し、眉、目、鼻、口、顔の輪郭等のパーツを抽出する。次に、画像解析部173は、予め補助記憶部150が記憶している似顔絵パーツの中から抽出したパーツと類似する似顔絵パーツを抽出し、該当する座標に似顔絵パーツを配置する。このような手法により似顔絵画像を生成することができるが、これに限られず他の手法を用いても良い。
 ステップS5-4で画像解析部173が似顔絵画像を生成すると、生成部171は、補助記憶部150が予め記憶する胴体情報を読み出す(ステップS5-5)。胴体情報とは、キャラクターCの胴体を示す画像の集合であり、例えば、「走る」、「座る」等の動作パターンと動作パターンに対応する胴体の画像とを関連付けて格納した連想配列等によって表される。画像は静止画像に限られず、動画像であっても良い。生成部171は、胴体情報を読み出すと、読み出した胴体情報の顔部分にキャラクターCの似顔絵画像を合成し、キャラクターCの外見情報を生成する(ステップS5-6)。
 生成部171は、キャラクターCの外見情報を生成すると、補助記憶部150が予め記憶する質問事項を取得し、表示部130に表示させる(ステップS5-7)。この質問事項により、生成部171はユーザの性格及び嗜好の判定に用いる情報を収集する。性格の判定に用いる質問は、例えば、「時間を守るか」や「好奇心が強いか」等の質問である。嗜好の判定に用いる質問は、例えば、「好きな音楽は何か」や「好きな食べ物は何か」等である。
 表示部130が質問事項を表示すると、生成部171は、入力部110を介して質問事項に対する回答の入力を受け付ける(ステップS5-8)。
 生成部171は、回答の入力を受け付けると、回答に基づいてキャラクターCの性格を決定する(ステップS5-9)。性格は、例えば厳格さ、優しさ、冷静さ、自由さ、従順さの5つのパラメータの値によって表現する。性格の決定は、例えば、パラメータと質問事項とを予め対応付けておき、パラメータに対応付けられた質問事項への回答が肯定的であるか否定的であるかに基づいてパラメータを算出することで行うことができる。
 生成部171は、キャラクターCの性格を決定すると、そのキャラクターCを識別するキャラクターIDを生成する(ステップS5-10)。生成部171がキャラクターIDを生成すると、登録部172は、キャラクターIDと自端末のメールアドレスとに関連付けて、外見情報と性格を示す情報と嗜好を示す情報とをキャラクターCとして補助記憶部150のキャラクターテーブルに記憶させる(ステップS5-11)。
 登録部172がキャラクターCを補助記憶部150に記憶させると、通信部120は、キャラクターIDと自端末のメールアドレスとキャラクターCとをサーバ装置200に送信する(ステップS5-12)。
 これにより、携帯端末100-1は、キャラクターCを生成し、補助記憶装置150とサーバ装置200にキャラクターCを記憶させることができる。
 次に、上述したステップS6による、属性情報の入力を他の携帯端末100-2~100-Nで行い、自端末でキャラクターCを生成する処理について説明する。
 図6は、携帯端末によるキャラクター生成動作を示す第2のフローチャートである。
 上述したステップS4で、生成部171が属性情報の入力を他の携帯端末100-2~100-Nで行うことを示す情報を受け付けると、生成部171は、入力部110を介して、キャラクターCの顔を補助記憶部150が記憶している画像から生成するか否かを示す情報の入力を受け付ける(ステップS6-1)。
 生成部171は、キャラクターCの顔を補助記憶部150が記憶している画像から生成することを示す情報の入力を受け付けた場合(ステップS6-1:YES)、補助記憶部150が記憶する質問事項からアンケートフォームを生成し、通信部120を介して他の携帯端末100-2~100-Nに送信する(ステップS6-2)。他の携帯端末100-2~100-Nがアンケートフォームを受信し、アンケートの回答を送信すると、通信部120は他の携帯端末100-2~100-Nから回答を受信する(ステップS6-3)。通信部120が回答を受信すると、生成部171は、補助記憶部150からキャラクターCの顔の生成に用いる画像を取得する(ステップS6-4)。
 他方、生成部171が、キャラクターCの顔を補助記憶部150が記憶している画像から生成しないことを示す情報の入力を受け付けた場合(ステップS6-1:NO)、補助記憶部150が記憶する質問事項から画像入力欄を有するアンケートフォームを生成し、通信部120を介して他の携帯端末100-2~100-Nに送信する(ステップS6-5)。他の携帯端末100-2~100-Nがアンケートフォームを受信し、アンケートの回答及び画像を送信すると、通信部120は他の携帯端末100-2~100-Nから回答及び画像を受信する(ステップS6-6)。通信部120が回答を受信すると、生成部171は、通信部120が受信した受信結果から画像を取得する(ステップS6-7)。
 ステップS6-4またはステップS6-7で生成部171が画像を取得すると、画像解析部173は、取得した画像を解析し、似顔絵画像を生成する(ステップS6-8)。画像解析部173が似顔絵画像を生成すると、生成部171は、補助記憶部150が予め記憶する胴体情報を読み出す(ステップS6-9)。次に、生成部171は、読み出した胴体情報の顔部分にキャラクターCの似顔絵画像を合成し、キャラクターCの外見情報を生成する(ステップS6-10)。
 生成部171は、キャラクターCの外見情報を生成すると、通信部120が受信した回答に基づいてキャラクターCの性格を決定する(ステップS6-11)。
 生成部171は、キャラクターCの性格を決定すると、そのキャラクターCのキャラクターIDを生成する(ステップS6-12)。生成部171がキャラクターIDを生成すると、登録部172は、キャラクターIDと他の携帯端末100-2~100-Nのメールアドレスとに関連付けて、似顔絵画像と性格を示す情報と嗜好を示す情報とをキャラクターCとして補助記憶部150のキャラクターテーブルに記憶させる(ステップS6-13)。
 登録部172がキャラクターCを補助記憶部150に記憶させると、通信部120は、キャラクターIDと他の携帯端末100-2~100-NのメールアドレスとキャラクターCとをサーバ装置200に送信する(ステップS6-14)。
 これにより、携帯端末100-1は、キャラクターCを生成し、補助記憶装置150とサーバ装置200にキャラクターCを記憶させることができる。
 次に、キャラクターCを待ち受け画面に設定した携帯端末100-1の動作を説明する。
 図7は、キャラクターシステムの動作を示す第1のシーケンス図である。
 まず、ユーザによる携帯端末100-1の電源の投入等によって、携帯端末100-1が起動すると、待ち受け制御部175は、補助記憶部150から待ち受け画面に設定したキャラクターCを読み出す(ステップS11)。次に、待ち受け制御部175は、表示部130にキャラクターCの外見情報の中から通常状態の画像を表示させる(ステップS12)。
 表示部130がキャラクターCを表示すると、動作決定部178は、キャラクターIDとキャラクターCを作成した携帯端末100-1~100-Nのメールアドレスとをサーバ装置200に送信する(ステップS13)。
 携帯端末100-1がサーバ装置200にキャラクターIDとメールアドレスとを送信すると、サーバ装置200の通信部210は、キャラクターIDとメールアドレスとを受信する(ステップS14)。サーバ装置200の通信部210がキャラクターIDとメールアドレスとを受信すると、サーバ装置200の制御部220は、サーバ装置200の記憶部230のキャラクターテーブルからキャラクターIDとメールアドレスとに関連付けて格納されているキャラクターCの性格と嗜好とを取得する(ステップS15)。サーバ装置200の制御部220は、キャラクターCの性格を取得すると、サーバ装置200の記憶部230の動作テーブルから、取得した性格に関連付けて格納されている複数の動作パターンを取得する(ステップS16)。また、サーバ装置200の制御部220は、メッセージテーブルから、取得した性格に関連付けて格納されている複数のメッセージパターンを取得する(ステップS17)。また、サーバ装置200の制御部220は、レコメンドテーブルから、取得した嗜好と類似度が高いキーワードに関連付けて格納されている複数のレコメンドパターン(ステップS18)を取得する。
 サーバ装置200の制御部220が動作パターン、メッセージパターン、及びレコメンドパターンを取得すると、サーバ装置200の通信部210は、それらを携帯端末100-1に送信する(ステップS19)。
 サーバ装置200が動作パターン、メッセージパターン、及びレコメンドパターンを送信すると、携帯端末100-1の通信部120が、それらを受信する(ステップS20)。通信部120がそれぞれのパターンを受信すると、動作決定部178は、受信したパターンの中からランダムに1つを選択し(ステップS21)、表示部130が表示するキャラクターCに選択したパターンを反映させる(ステップS22)。例えば、動作決定部178が動作パターンを選択した場合、表示部130は、キャラクターCの外見情報の中から選択した動作パターンに該当する画像を表示する。また、動作決定部178がメッセージパターン、またはレコメンドパターンを選択した場合、表示部130は、選択したメッセージパターンまたはレコメンドパターンが示す文字列を格納したふきだしをキャラクターCの上方に表示する。
 これにより、携帯端末100-1は、キャラクターCに、性格及び嗜好に合致した動作、メッセージ及びレコメンデーションを行わせる。
 このとき、待ち受けに設定しているキャラクターC以外のキャラクターCを同時に表示させ、サーバ装置200から両キャラクターCの親密度に基づいたメッセージパターンを受信し、会話をさせても良い。
 次に、携帯端末100-1においてキャラクターCを待ち受けに設定している場合に、電子メール(電子文書)を受信したときの動作を説明する。
 図8は、キャラクターシステムの動作を示す第2のシーケンス図である。
 キャラクターCを待ち受けに設定している場合に、メール制御部177が通信部120を介して他の通信装置100-2から電子メールを受信すると(ステップS31)、文章解析部174は、受信した電子メールの文章を解析し、形態素を抽出する(ステップS32)。文章解析部174が電子メールの形態素を抽出すると、メール制御部177は、補助記憶部150がキャラクターテーブルの中に他の通信装置100-2のメールアドレスと同一のメールアドレスをキャラクターCに関連付けて記憶しているか否かを判定する(ステップS33)。
 メール制御部177が、他の通信装置100-2のメールアドレスを記憶していると判定した場合(ステップS33:YES)、文章解析部174は、抽出した形態素から感情を抽出する(ステップS34)。感情の抽出は、例えば、予め補助記憶部150に形態素と感情とを対応付けて記憶させておき、抽出した形態素に対応する感情を全て取得することで行うことができる。補助記憶部150は、例えば、「遊園地」という形態素に「楽」の感情を対応付け、「むかつく」という形態素に「怒」の感情を対応付けて記憶する。
 文章解析部174が感情を抽出すると、動作決定部178は、補助記憶部150のキャラクターテーブルが格納している他の通信装置100-2のキャラクターCの感情を、抽出した感情に変更する。また、抽出した感情に基づいて、自端末のキャラクターCと他の通信装置100-2のキャラクターCとの親密度を変更する(ステップS35)。親密度の変更は、例えば、文章解析部174が「喜」や「楽」等のポジティブな感情を抽出した場合に感情の度合いに基づいて親密度の値を上昇させ、「哀」や「怒」等のネガティブな感情を抽出した場合に感情の度合いに基づいて親密度の値を低下させることで行うことができる。
 動作決定部178が他の通信装置100-2のキャラクターCの感情及び親密度を変更すると、表示部130は、キャラクターCの外見情報の中から抽出した感情に該当する画像を表示する(ステップS36)。上述したように画像は静止画像に限られず、動画像であっても良い。
 表示部130がキャラクターCを表示すると、通信部120は、サーバ装置200に自端末のメールアドレス、他の通信装置100-2のメールアドレス、及び変更後の親密度とを送信する(ステップS37)。
 携帯端末100-1が自端末のメールアドレス、他の通信装置100-2のメールアドレス、及び変更後の親密度を送信すると、サーバ装置200の通信部210は、それらを受信する(ステップS38)。サーバ装置200の通信部210が自端末のメールアドレス、他の通信装置100-2のメールアドレス、及び変更後の親密度を受信すると、記憶部230の親密度テーブルに自端末のメールアドレスと他の通信装置100-2のメールアドレスとに関連付けて格納されている親密度の値を受信した親密度に変更する(ステップS39)。
 ステップS33でメール制御部177が、他の通信装置100-2のメールアドレスを記憶していないと判定した場合(ステップS33:NO)、またはステップS37で通信部120が親密度を送信した場合について説明する。この場合、メール制御部177は、ランダムに動作決定部178へ自動生成命令を出力する(ステップS40)。ここで、ランダムにとは、必ずしもメール制御部177が毎回自動生成命令を出力するとは限らないことを意味する。
 動作決定部178が自動生成命令を出力した場合(ステップS40:YES)、動作決定部178は、通信部120を介してサーバ装置200に抽出した形態素とキャラクターCの性格とを送信する(ステップS41)。
 携帯端末100-1が形態素と性格とを送信すると、サーバ装置200の通信部210は、それらを受信する(ステップS42)。携帯端末100-1が形態素と性格とを受信すると、サーバ装置200の制御部220は、サーバ装置200の記憶部230のメールテーブルから受信した形態素と性格とに関連付けて登録されているメールの文面パターンを取得する(ステップS43)。サーバ装置200の制御部220が文面パターンを取得すると、サーバ装置200の通信部210は、取得した文面パターンを携帯端末100-1に送信する(ステップS44)。
 サーバ装置200が文面パターンを送信すると、携帯端末100-1の通信部120は、文面パターンを受信する(ステップS45)。通信部120がサーバ装置200から文面パターンを受信すると、動作決定部178は、受信した文面パターンに基づいて電子メールの文面を生成する。すなわち、動作決定部178は、キャラクターCの性格と受信した電子メールの文章を反映した返信メールを生成する(ステップS46)。動作決定部178は、返信メールを生成すると、表示部130が表示するキャラクターCの上方に、返信メールの送信可否の入力を受け付ける旨の文字列を格納したふきだしを表示させ(ステップS47)、入力部110は返信メールの送信可否の入力を受け付ける(ステップS48)。
 ユーザが携帯端末100-1の決定ボタンを押下する等により、入力部110が返信メールを送信することを示す情報を受け付けた場合(ステップS48:YES)、メール制御部177は、動作決定部178が生成した返信メールを送信する(ステップS49)。
 ユーザが携帯端末100-1のキャンセルボタンを押下する等により、入力部110が返信メールを送信しないことを示す情報を受け付けた場合(ステップS48:NO)、メール制御部177は、動作決定部178が生成した返信メールを削除する(ステップS50)。
 これにより、携帯端末100-1は、キャラクターCに、性格及び受信した電子メールに合致した返信メールの生成を行わせる。上述した例では電子メールの送信元が通信端末100-2である場合を説明した。しかしながら、これに限られず、他の通信端末100-3~100-Nが電子メールの送信元の場合も同様の動作をする。
 次に、キャラクターCを携帯端末100-1のスケジューラに関連付けて登録する場合の動作を説明する。
 まず、スケジューラ制御部176は、入力部110を介して、スケジュール及びそのスケジュールに関連付けるキャラクターCの入力を受け付ける。入力部110がスケジュール及びキャラクターCの入力を受け付けると、登録部172は、補助記憶部150にスケジュールとキャラクターCとを関連付けて登録する。登録部172がスケジュールとキャラクターCとを登録すると、動作決定部178は、スケジュールに関連付けて登録したキャラクターCの嗜好とスケジュールの内容とを通信部120を介してサーバ装置200に送信する。
 サーバ装置200の通信部210が、携帯端末100-1から嗜好とスケジュールの内容とを受信すると、サーバ装置200の制御部220は、サーバ装置200の記憶部230のレコメンドテーブルから受信した嗜好及びスケジュールの内容と最も類似度が高いキーワードに関連付けて登録されているレコメンドパターンを取得する。サーバ装置200の制御部220がレコメンドパターンを取得すると、サーバ装置200の通信部210は、取得したレコメンドパターンを携帯端末100-1に送信する。
 携帯端末100-1の通信部120が、サーバ装置200からレコメンドパターンを受信すると、動作決定部178は、表示部130に、受信したレコメンドパターンが示す文字列を格納したふきだしをキャラクターCの上方に表示させる。
 これにより、携帯端末100-1は、キャラクターCに、嗜好及びスケジュールに合致したレコメンデーションを行わせる。例えば、携帯端末100-2のユーザの誕生日のスケジュールに携帯端末100-2から受信したキャラクターCを関連付けて登録することで、携帯端末100-2のユーザの好みに合致したプレゼントをレコメンドすることができる。
 次に、携帯端末100-1がキャラクターCを介して他の携帯端末100-2に対してメッセージを送信する場合の動作を説明する。
 まず、ユーザが携帯端末100-1のキャラクターCを介して携帯端末100-2に対してメッセージを送信することを示す情報を入力すると、入力部110は、携帯端末100-2に送信するメッセージを媒介するキャラクターCの選択の入力を受け付ける。メッセージを媒介するキャラクターCは、ユーザの代理であるため、ここで選択できるキャラクターCは自端末で生成したキャラクター限ると良い。
 入力部110は、キャラクターCの選択の入力を受け付けると、キャラクターCの動作パターン、及び送信するメッセージの入力を受け付ける。メッセージの入力は必須ではない。
 入力部110が動作パターン及びメッセージの入力を受け付けると、通信部120は、選択されたキャラクターCのキャラクターID、動作パターン、及びメッセージを携帯端末100-2に送信する。
 携帯端末100-1がキャラクターID、動作パターン、及びメッセージを送信すると、携帯端末100-2の通信部120は、それらを受信する。
 通信部120がキャラクターID、動作パターン、及びメッセージを受信すると、動作決定部178は、補助記憶部150から受信したキャラクターIDに対応付けられたキャラクターCを読み出す。次に、動作決定部178は、表示部130にキャラクターCの外見情報の中から受信した動作パターンの画像を表示させ、受信したメッセージを格納したふきだしをキャラクターCの上方に表示する。
 このように、キャラクターシステムによれば、携帯端末100-1が文字列のメッセージに加え、キャラクターCの動作を携帯端末100-2に送信することで、携帯端末100-2のユーザに対してより感情のこもったメッセージを伝えることができる。
 一方、携帯端末100-1は、キャラクターID、動作パターン、及びメッセージを送信すると、動作パターン及びメッセージに基づいて選択されたキャラクターCと携帯端末100-2のキャラクターCとの親密度を変更してサーバ装置200にキャラクターC同士の親密度を送信し、サーバ装置200の記憶部230が記憶する親密度の値を更新させる。
 上述した例では電子メールの送信先が通信端末100-2である場合を説明した。しかしながら、これに限られず、他の通信端末100-3~100-Nが電子メールの送信先の場合も同様の動作をする。
 携帯端末100-1は、電話帳やデータフォルダ等の機能により、補助記憶部150のキャラクターテーブルに格納されている全てのキャラクターCを一覧することができる。このとき、携帯端末100-1は、例えば親密度が高いキャラクターC同士を近接に配置し、親密度が低いキャラクターC同士を遠隔に配置することでキャラクターC同士の親密度を表示させることができる。
 データフォルダ機能では、キャラクターCを友達や家族等のカテゴリーに振り分けて登録することができる。
 このように、本実施形態によれば、キャラクターCを待ち受け画面に設定することで、携帯端末100-1は、キャラクターCの動作、メッセージ及びレコメンデーションを性格及び嗜好に基づいて決定する。これにより、携帯端末100-1は、キャラクターCによって異なる動作をさせることができる。
 以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 例えば、本実施形態では、動作決定部178がキャラクターCの動作を決定する際、携帯端末100-1が、サーバ装置200から、キャラクターCの性格または嗜好に該当する動作パターン、メッセージパターン、レコメンドパターン、及びメールの文面パターンを複数受信し、その中からキャラクターCの動作をランダムに選択する場合を説明したが、これに限られない。例えば、サーバ装置200の制御部220がランダムに1つパターンを選択して携帯端末100-1に送信し、動作決定部178は受信したパターンの動作を表示部130に表示させても良い。
 本実施形態では、サーバ装置200の記憶部230がメッセージテーブル、レコメンドテーブル、及びメールテーブルを記憶し、そのテーブルに格納されている定型文のパターンからキャラクターCのメッセージ、レコメンド、及びメールの文面を決定する場合を説明したが、これに限られない。例えば、携帯端末100-1またはサーバ装置200に人工無能やチャットボット(chatterbot)システムのようなプログラムを記憶させておき、そのプログラムによってメッセージ、レコメンド、及びメールの文面を決定しても良い。
 本実施形態では、キャラクターシステムがサーバ装置200を備え、サーバ装置200の記憶部230が動作テーブル、メッセージテーブル、レコメンドテーブル、及びメールテーブルを記憶する場合を説明したが、これに限られない。例えば携帯端末100-1~100-Nの補助記憶部150に動作テーブル、メッセージテーブル、レコメンドテーブル、及びメールテーブルを記憶させることで、サーバ200を備えない構成としても良い。
 本実施形態では、キャラクターCの性格、趣味及び嗜好を初回の入力によって決定する場合を説明したが、これに限られない。例えば電子メールやインターネットの利用履歴に基づいて性格、趣味及び嗜好を変更しても良い。このとき、変更した性格、趣味及び嗜好をサーバ装置200に送信し、サーバ装置200の記憶部230が記憶する性格、趣味及び嗜好を更新させることで、他の携帯端末においても自端末のキャラクターCを最新の状態にすることができる。
 本実施形態では、キャラクターCとして人物を入力する場合を説明したが、これに限られない。例えば動物をキャラクターCとして登録しても良い。
 本実施形態では、待ち受け画面にキャラクターCを設定する際に新たにキャラクターCを生成する場合を説明したが、これに限られない。例えば携帯端末の購入時などにキャラクターCを生成しても良い。
 本実施形態では、メール及びメッセージのやりとりにおいてキャラクターC同士の親密度を変更する場合を説明したが、これに限られない。例えばスケジュールに多く登録するキャラクターCの親密度を上げてもよい。
 本実施形態では、キャラクターCを表示する装置が携帯端末である場合を説明したが、これに限られない。パーソナルコンピュータや、本キャラクターシステムの専用端末にキャラクターCを表示させても良い。
 本実施形態では、携帯端末100-1~100-NがキャラクターCを表示部130に表示させる場合を説明したが、これに限られない。例えば、ロボットを内蔵するぬいぐるみ等に本発明による動作対象制御装置を内蔵し、動作決定部178がロボットの動作を制御することで、ぬいぐるみ本体を動作させても良い。
 本実施形態では、携帯端末100-1~100-Nを特定する情報としてメールアドレスを用いる場合を説明したが、これに限られない。例えば、携帯端末100-1~100-Nの固体識別番号や、携帯端末100-1~100-Nに搭載されているSIM(Subscriber Identity Module)カードのIMSI(International Mobile Subscriber Identity)番号を用いても良い。特に、IMSI番号を用いる場合においては、ユーザが携帯端末の変更したとき、変更前の携帯端末で用いていたSIMカードを変更後の携帯端末に継続して用いることで、携帯端末の変更後も変更前と同じキャラクターCを継続して用いることができる。
 本実施形態では、携帯端末100-1~100-Nが画像解析部173を備え、携帯端末100-1~100-Nで似顔絵画像を生成する場合を説明したが、これに限られない。例えばサーバ装置200が画像解析部を備え、サーバ装置200で似顔絵画像を生成しても良い。この場合、携帯端末100-1~100-Nが上述したステップS6-7で画像を取得すると、通信部120は、取得した画像を介してサーバ装置200へ送信し、サーバ装置200の画像解析部は携帯端末100-1~100-Nから受信した画像から似顔絵画像を生成する。画像解析部が似顔絵画像を生成すると、サーバ装置200は、生成した似顔絵画像を携帯端末100-1~100-Nに送信する。これにより、携帯端末100-1~100-Nは、似顔絵画像を取得することができる。
 本実施形態では、上述したステップS5によってキャラクターCを生成する処理を行う際に、携帯端末100-1がアンケートフォームを生成し、ユーザが入力した回答に基づいて携帯端末100-1がキャラクターCの性格を決定する場合を説明したが、これに限られない。
 例えば、携帯端末100-1の通信部120がサーバ装置200へアクセスし、表示部130は、サーバ装置200が記憶するアンケートフォームを表示する。アンケートフォームを表示すると、入力部110は、アンケートフォームへの回答の入力を行う。入力部110が回答の入力を受け付けると、通信部120は、入力部110が入力を受け付けた回答をサーバ装置200に送信する。サーバ装置200は、携帯端末100-1から受信した回答に基づき、キャラクターCの性格を決定する。サーバ装置200は、キャラクターCの性格を決定すると、携帯端末100-1に決定した性格を示す情報を送信する。これによって携帯端末100-1は、キャラクターCの性格を取得することができる。
 本実施形態では、上述したステップS6によって、属性情報の入力を他の携帯端末100-2~100-Nで行い、携帯端末100-1でキャラクターCを生成する処理を行う際に、携帯端末100-1がアンケートフォームを生成し、他の携帯端末100-2~100-Nからアンケートフォームの回答を受信し、受信した回答に基づいて携帯端末100-1がキャラクターCの性格を決定する場合を説明したが、これに限られない。
 例えば、携帯端末100-1が他の携帯端末100-2に、サーバ装置200が記憶するアンケートフォームを示すURLを送信する。他の携帯端末100-2が、携帯端末100-1から受信したURLに基づいて通信部120を介してサーバ装置200へアクセスし、サーバ装置200が記憶するアンケートフォームへの回答の入力を行う。他の携帯端末100-2が回答の入力を終了すると、サーバ装置200は、他の携帯端末100-2の回答に基づき、キャラクターCの性格を決定する。サーバ装置200は、キャラクターCの性格を決定すると、携帯端末100-1に決定した性格を示す情報を送信する。これによって携帯端末100-1は、携帯端末100-2の回答に基づくキャラクターCの性格を取得することができる。
 上述の携帯端末100-1~100-Nは内部に、コンピュータシステムを有している。上述した各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータがそのプログラムを実行するようにしても良い。
 上記プログラムは、前述した機能の一部を実現しても良い。
 上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 この出願は、2009年2月18日に出願された日本出願特願2009-035422を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムに適用することがきる。本発明を適用した動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムによれば、動作対象(キャラクター)によって動作パターンを変化させることができ、ユーザに対するエンターテインメント性を向上させることができる。
100-1~100-N      携帯端末
110 入力部
120 通信部
130 表示部
140 撮影部
150 補助記憶部
160 主記憶部
170 CPU
171 生成部
172 登録部
173 画像解析部
174 文章解析部
175 待ち受け設定部
176 スケジューラ制御部
177 メール制御部
178 動作決定部
200 サーバ装置
210 通信部
220 制御部
230 記憶部

Claims (19)

  1.  動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置であって、
     前記動作対象の属性を示す属性情報の入力を受け付ける入力部と、
     前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成されるユーザ用動作対象の動作を制御するための動作データとして、前記入力部が入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成する生成部と、
     前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部と、
     を備える動作対象制御装置。
  2.  前記動作対象制御装置とは異なる他の装置から前記属性情報を受信する属性情報受信部をさらに備え、
     前記生成部は前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、前記属性情報受信部が受信した前記属性情報に基づいて他ユーザ用動作データを生成し、
     前記制御部は、前記生成部が生成した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる
     請求項1に記載の動作対象制御装置。
  3.  前記動作対象装置とは異なる他の装置から送信された、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、他ユーザ用動作データを受信する動作データ受信部をさらに備え、
     前記制御部は、前記動作データ受信部が受信した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる、
     請求項1に記載の動作対象制御装置。
  4.  前記他の装置から前記他ユーザ用動作対象の動作を指定する動作指定情報を受信する動作指定情報受信部をさらに備え、
     前記制御部は、前記動作指定情報受信部が受信した動作指定情報に基づいて前記他ユーザ用動作対象を動作させる、
     請求項3に記載の動作対象制御装置。
  5.  前記動作データは、前記動作データが示す動作対象の感情を示す感情情報を含み、
     前記制御部は、前記動作対象の動作を前記感情情報に対応させて変化させる
     請求項1から請求項4のいずれか1項に記載の動作対象制御装置。
  6.  前記他の装置から電子文書を受信する電子文書受信部と、
     前記電子文書受信部が受信した電子文書の内容を解析する電子文書解析部と、
     前記他ユーザ用動作データに含まれる感情情報を前記電子文書解析部が解析した電子文書の内容に基づいて決定する感情決定部と、
     をさらに備える請求項5に記載の動作対象制御装置。
  7.  前記動作データは、前記動作データが示す動作対象と他の動作対象との親密度を含み、
     前記制御部は、前記動作対象の動作を、前記動作データに含まれる親密度に対応させて変化させる
     請求項1から請求項4のいずれか1項に記載の動作対象制御装置。
  8.  前記他の装置から電子文書を受信する電子文書受信部と、
     前記電子文書受信部が受信した電子文書の内容を解析する電子文書解析部と、
     前記他ユーザ用動作データに含まれる親密度を前記電子文書解析部が解析した電子文書の内容と前記電子文書を受信した時点における前記親密度とに基づいて決定する親密度決定部と、
     をさらに備える請求項7に記載の動作対象制御装置。
  9.  前記動作データに基づいて文章を作成する文章生成部と、
     前記文章生成部が生成した文章を電子文書として送信する電子文書送信部と、
     をさらに備える請求項1から請求項8のいずれか1項に記載の動作対象制御装置。
  10.  前記動作対象の属性情報の入力は、前記動作対象制御装置の初回の起動時に行われる請求項1から請求項9のいずれか1項に記載の動作対象制御装置。
  11.  待ち受け画面に前記動作対象を表示する待ち受け表示部をさらに備える請求項1から10のいずれか1項に記載の動作対象制御装置。
  12.  スケジュールと前記動作データとを関連付けて登録するスケジュール登録部をさらに備え、
     前記制御部は、前記スケジュールの内容と前記動作データとに基づいて前記動作対象の動作を変化させる
     請求項1から請求項11のいずれか1項に記載の動作対象制御装置。
  13.  動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置と前記動作対象の動作を制御するための動作データを保持するサーバ装置とを備える動作対象制御システムであって、
     前記動作対象制御装置は、
     前記動作対象の属性を示す属性情報の入力を受け付ける入力部と、
     前記入力部が入力を受け付けた前記属性情報に基づいて生成される前記動作対象の動作を制御するための動作データを生成する生成部と、
     前記生成部が生成した動作データに固有の動作データ識別情報を生成する識別情報生成部と、
     前記識別情報生成部が生成した動作データ識別情報を記憶部に登録する登録部と、
     前記サーバ装置に前記生成部が生成した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する装置側送信部と、
     前記記憶部が記憶する動作データ識別情報が示す動作データを前記サーバ装置から受信する装置側受信部と、
     前記装置側受信部が受信した動作データに基づいて動作対象の動作を変化させる制御部と、
     を備え、
     前記サーバ装置は、
     前記動作対象制御装置から前記動作データと前記動作データ識別情報とを受信するサーバ側受信部と、
     前記受信した動作データ識別情報に前記受信した動作データを関連付けてサーバ側記憶部に登録するサーバ側登録部と、
     前記動作データ識別情報に対応する動作データをサーバ側記憶部から取得し、前記動作対象制御装置に送信するサーバ側送信部と、
     を備える動作対象制御システム。
  14.  前記動作対象制御装置は、前記動作データを変更する変更部をさらに備え、
     前記動作対象制御装置の装置側送信部は、前記サーバ装置に前記変更部が変更した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する、
     請求項13に記載の動作対象制御システム。
  15.  前記サーバ装置は、前記動作データと動作対象の動作パターンとを関連付けて記憶する動作パターン記憶部をさらに備え、
     前記サーバ装置のサーバ側送信部は、前記動作データに加えて前記動作データに対応する動作パターンを前記動作対象制御装置に送信し、
     前記動作対象制御装置の装置側受信部は、前記動作データに加えて前記動作パターンを受信し、
     前記動作対象制御装置の制御部は、前記装置側受信部が受信した前記動作パターンに基づいて前記動作対象の動作を決定する、
     請求項13または請求項14に記載の動作対象制御システム。
  16.  動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を用いた動作対象制御方法であって、
     前記動作対象の属性を示す属性情報の入力を受け付け、
     前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、前記入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、
     前記生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる
     ことを含む動作対象制御方法。
  17.  動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を、
     前記動作対象の属性を示す属性情報の入力を受け付ける入力部、
     前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象を示すユーザ用動作対象の動作を制御するための動作データであるユーザ用動作データを前記入力部が入力を受け付けた前記属性情報に基づいて生成する生成部、
     前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部、
     として動作させるためのプログラム。
  18.  動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させる動作対象制御装置であって、
     前記他の装置から動作データを受信する動作データ受信部と、
     前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部と、
     を備える動作対象制御装置。
  19.  動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させる動作対象制御装置を、
     前記他の装置から動作データを受信する動作データ受信部、
     前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部、
     として動作させるためのプログラム。
PCT/JP2010/000741 2009-02-18 2010-02-08 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム WO2010095388A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US13/201,712 US20110298810A1 (en) 2009-02-18 2010-02-08 Moving-subject control device, moving-subject control system, moving-subject control method, and program
JP2011500488A JP5582135B2 (ja) 2009-02-18 2010-02-08 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
KR1020147004433A KR20140032506A (ko) 2009-02-18 2010-02-08 동작 대상 제어 장치, 동작 대상 제어 시스템, 동작 대상 제어 방법 및 프로그램
EP10743518A EP2400462A1 (en) 2009-02-18 2010-02-08 Device for control of moving subject, system for control of moving subject, method for control of moving subject, and program
CN2010800080909A CN102317980A (zh) 2009-02-18 2010-02-08 动作对象控制装置、动作对象控制系统、动作对象控制方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009035422 2009-02-18
JP2009-035422 2009-02-18

Publications (1)

Publication Number Publication Date
WO2010095388A1 true WO2010095388A1 (ja) 2010-08-26

Family

ID=42633678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000741 WO2010095388A1 (ja) 2009-02-18 2010-02-08 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム

Country Status (6)

Country Link
US (1) US20110298810A1 (ja)
EP (1) EP2400462A1 (ja)
JP (2) JP5582135B2 (ja)
KR (2) KR20140032506A (ja)
CN (1) CN102317980A (ja)
WO (1) WO2010095388A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002551A1 (ja) * 2012-06-25 2014-01-03 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法および記録媒体
JP2014029667A (ja) * 2012-06-25 2014-02-13 Konami Digital Entertainment Co Ltd メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
JP2014067358A (ja) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd メッセージ表示装置、管理サーバ、メッセージ表示制御方法およびプログラム
US9882859B2 (en) 2012-06-25 2018-01-30 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102022592B1 (ko) * 2013-03-04 2019-09-19 삼성전자주식회사 전자 장치에서 전송 정보를 관리하기 위한 방법 및 장치
CN104158963A (zh) * 2014-08-05 2014-11-19 广东欧珀移动通信有限公司 一种智能手机的智能表达表情系统
JP6669536B2 (ja) * 2016-03-07 2020-03-18 セイコーソリューションズ株式会社 注文入力装置および注文入力方法
JP6767224B2 (ja) * 2016-09-29 2020-10-14 株式会社東芝 コミュニケーション装置、コミュニケーション方法、およびコミュニケーションプログラム
JP7010000B2 (ja) * 2017-11-14 2022-01-26 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7251290B2 (ja) * 2019-04-23 2023-04-04 大日本印刷株式会社 携帯端末、表示システム、およびプログラム
CN111773668B (zh) * 2020-07-03 2024-05-07 珠海金山数字网络科技有限公司 一种动画播放方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328439A (ja) * 1998-05-08 1999-11-30 Hitachi Ltd アニメーションの生成方法およびコンピュータグラフイックス
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
JP2006065684A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
JP2008070984A (ja) * 2006-09-12 2008-03-27 Furyu Kk メッセージ作成支援装置、その制御方法および制御プログラム、並びに該プログラムを記録した記録媒体
JP2009035422A (ja) 2007-08-01 2009-02-19 Ryozo Ota 自動廻り階段

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285380B1 (en) * 1994-08-02 2001-09-04 New York University Method and system for scripting interactive animated actors
CA2248909A1 (en) * 1996-03-15 1997-09-25 Zapa Digital Arts Ltd. System for producing an animation sequence according to character behaviour characteristics
US5982390A (en) * 1996-03-25 1999-11-09 Stan Stoneking Controlling personality manifestations by objects in a computer-assisted animation environment
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
US6064383A (en) * 1996-10-04 2000-05-16 Microsoft Corporation Method and system for selecting an emotional appearance and prosody for a graphical character
US6175857B1 (en) * 1997-04-30 2001-01-16 Sony Corporation Method and apparatus for processing attached e-mail data and storage medium for processing program for attached data
US6112177A (en) * 1997-11-07 2000-08-29 At&T Corp. Coarticulation method for audio-visual text-to-speech synthesis
JP4266411B2 (ja) * 1998-10-19 2009-05-20 キヤノン株式会社 情報処理装置及びその制御方法、情報伝送システム、記憶媒体
US6243669B1 (en) * 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US7061493B1 (en) * 1999-04-07 2006-06-13 Fuji Xerox Co., Ltd. System for designing and rendering personalities for autonomous synthetic characters
US6714201B1 (en) * 1999-04-14 2004-03-30 3D Open Motion, Llc Apparatuses, methods, computer programming, and propagated signals for modeling motion in computer applications
US6947044B1 (en) * 1999-05-21 2005-09-20 Kulas Charles J Creation and playback of computer-generated productions using script-controlled rendering engines
US6559845B1 (en) * 1999-06-11 2003-05-06 Pulse Entertainment Three dimensional animation system and method
US6522333B1 (en) * 1999-10-08 2003-02-18 Electronic Arts Inc. Remote communication through visual representations
US6766299B1 (en) * 1999-12-20 2004-07-20 Thrillionaire Productions, Inc. Speech-controlled animation system
WO2001084275A2 (en) * 2000-05-01 2001-11-08 Lifef/X Networks, Inc. Virtual representatives for use as communications tools
US7035803B1 (en) * 2000-11-03 2006-04-25 At&T Corp. Method for sending multi-media messages using customizable background images
US6976082B1 (en) * 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
US6990452B1 (en) * 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
JP2003223394A (ja) * 2001-11-20 2003-08-08 Matsushita Electric Ind Co Ltd 交渉機能を有する装置と合意形成システム
EP1345179A3 (en) * 2002-03-13 2004-01-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for computer graphics animation
JP4150198B2 (ja) * 2002-03-15 2008-09-17 ソニー株式会社 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
US20040102973A1 (en) * 2002-11-21 2004-05-27 Lott Christopher B. Process, apparatus, and system for phonetic dictation and instruction
US20040179037A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4709598B2 (ja) * 2005-07-11 2011-06-22 公立大学法人岡山県立大学 アバター表示機能付き通話端末
CN101268494B (zh) * 2005-09-21 2012-01-04 松下电器产业株式会社 视频制作装置以及视频制作方法
JP2007164408A (ja) * 2005-12-13 2007-06-28 First:Kk 顔画像認識と似顔絵作成管理システム
US8726195B2 (en) * 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
JP4884918B2 (ja) * 2006-10-23 2012-02-29 株式会社野村総合研究所 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
CN101606190B (zh) * 2007-02-19 2012-01-18 松下电器产业株式会社 用力声音转换装置、声音转换装置、声音合成装置、声音转换方法、声音合成方法
JP4963083B2 (ja) * 2007-05-28 2012-06-27 株式会社野村総合研究所 仮想空間提供装置、仮想空間管理方法及びコンピュータプログラム
US8812296B2 (en) * 2007-06-27 2014-08-19 Abbyy Infopoisk Llc Method and system for natural language dictionary generation
US20090113314A1 (en) * 2007-10-30 2009-04-30 Dawson Christopher J Location and placement of avatars in virtual worlds

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328439A (ja) * 1998-05-08 1999-11-30 Hitachi Ltd アニメーションの生成方法およびコンピュータグラフイックス
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
JP2006065684A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
JP2008070984A (ja) * 2006-09-12 2008-03-27 Furyu Kk メッセージ作成支援装置、その制御方法および制御プログラム、並びに該プログラムを記録した記録媒体
JP2009035422A (ja) 2007-08-01 2009-02-19 Ryozo Ota 自動廻り階段

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002551A1 (ja) * 2012-06-25 2014-01-03 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法および記録媒体
JP2014029667A (ja) * 2012-06-25 2014-02-13 Konami Digital Entertainment Co Ltd メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
JP2014029668A (ja) * 2012-06-25 2014-02-13 Konami Digital Entertainment Co Ltd メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
US9882859B2 (en) 2012-06-25 2018-01-30 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
US9954812B2 (en) 2012-06-25 2018-04-24 Konami Digital Entertainment Co., Ltd. Message-browsing system, server, terminal device, control method, and recording medium
JP2014067358A (ja) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd メッセージ表示装置、管理サーバ、メッセージ表示制御方法およびプログラム

Also Published As

Publication number Publication date
EP2400462A1 (en) 2011-12-28
JP5582135B2 (ja) 2014-09-03
JPWO2010095388A1 (ja) 2012-08-23
CN102317980A (zh) 2012-01-11
JP2014186744A (ja) 2014-10-02
KR20140032506A (ko) 2014-03-14
US20110298810A1 (en) 2011-12-08
JP5781666B2 (ja) 2015-09-24
KR20110114650A (ko) 2011-10-19

Similar Documents

Publication Publication Date Title
JP5781666B2 (ja) 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
CN107294838B (zh) 社交应用的动画生成方法、装置、系统以及终端
KR102530264B1 (ko) 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치
CN111541950B (zh) 表情的生成方法、装置、电子设备及存储介质
JP4869340B2 (ja) キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム
JP2016524751A (ja) バイオメトリックアイデンティティに基づくユーザアクションの帰属先の判定
WO2022105846A1 (zh) 虚拟对象显示方法及装置、电子设备、介质
CN113014471B (zh) 会话处理方法,装置、终端和存储介质
CN102902704B (zh) 信息处理设备、短语输出方法
JP3135098U (ja) 電子メール画像提供システム
JP2009223419A (ja) ネットワークチャットサービスにおけるアバターの作成編集方法、チャットサービスシステム、および画像データの作成編集方法
JP7460839B1 (ja) プログラム及びシステム
JP6482037B2 (ja) 制御装置、制御方法及び制御プログラム
CN114945949A (zh) 化身显示装置、化身显示系统、化身显示方法以及化身显示程序
JP5224538B2 (ja) メールコミュニケーションシステム
CN109656362B (zh) 虚拟增强现实设备及其控制方法、系统、计算机存储介质
JP2018151966A (ja) 情報処理装置及びプログラム
US20070003140A1 (en) Electronic device and method for outputting response information in electronic device
KR20230103665A (ko) 텍스트 기반 아바타 생성 기능을 제공하는 메타버스 공간 장치, 방법, 및 프로그램
CN114021022A (zh) 一种妆容信息获取方法、装置、车辆及存储介质
US10601741B2 (en) Message transmission device and message transmission method
JP2022071467A (ja) コミュニケーション支援プログラム、コミュニケーション支援方法及びコミュニケーション支援システム
Kurtzberg et al. The 10-Second Commute: New Realities of Virtual Work
Wright Eye of the Taika: New Zealand Comedy and the Films of Taika Waititi, Matthew Bannister (2021).
CN116129006A (zh) 一种数据处理方法、装置、设备以及可读存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080008090.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10743518

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011500488

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20117018706

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010743518

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13201712

Country of ref document: US

Ref document number: 5892/CHENP/2011

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE