WO2007138911A1 - キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム - Google Patents

キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム Download PDF

Info

Publication number
WO2007138911A1
WO2007138911A1 PCT/JP2007/060365 JP2007060365W WO2007138911A1 WO 2007138911 A1 WO2007138911 A1 WO 2007138911A1 JP 2007060365 W JP2007060365 W JP 2007060365W WO 2007138911 A1 WO2007138911 A1 WO 2007138911A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
scenario
clothing
costume
determination
Prior art date
Application number
PCT/JP2007/060365
Other languages
English (en)
French (fr)
Inventor
Seiya Miyazaki
Sachiko Uranaka
Makoto Yasugi
Toshiyuki Tanaka
Koichi Emura
Hiroyuki Suzuki
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to US12/302,866 priority Critical patent/US8140460B2/en
Priority to JP2008517850A priority patent/JP4869340B2/ja
Publication of WO2007138911A1 publication Critical patent/WO2007138911A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Definitions

  • Character costume determination device character costume determination method, and character costume determination program
  • the present invention relates to a character costume determining device, a character costume determining method, and a character costume determining program for determining the costume of a character appearing in a scenario from a scenario.
  • a mail application that sends a mail with a decoration by freely combining images and mail templates on a mobile phone, or a specific pictogram or character string included in a received mail
  • applications that display CG animation on the receiving screen
  • services that send messages with gestures and facial expressions of characters by simple key operations.
  • Patent Document 1 and Patent Document 2 can be selected and combined with character clothing and eye-nose packs.
  • the method is used.
  • Patent Document 3 uses user environment information (location, weather, time, etc.). If you decide on the avatar (character that represents the user) you want to give to your email using a band, etc., you will take a technique.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-167287
  • Patent Document 2 Japanese Patent Laid-Open No. 2003-346173
  • Patent Document 3 Japanese Patent Laid-Open No. 11-346267
  • An object of the present invention is to provide a character clothing determination device, a character clothing determination method, and a character clothing determination method capable of determining the clothing of a character that matches the content of the scenario without using the user's clothing specification or the user's environmental information. It is to provide a character costume determination program.
  • the character costume determining apparatus of the present invention is a character costume determining apparatus that determines a scenario power character's costume, a scenario classifying unit that classifies the scenario based on the continuity of the character's clothes, and the scenario. For each scenario classification of the scenario classified by the classification section, the costume of the character is determined based on the contents of the scenario classification. The structure which has the clothing determination part to determine is taken.
  • the character apparel determination method of the present invention is based on the character apparel determination method that determines the apparel of a scenario power character, and the scenario classification that classifies the scenario based on the continuity of the character apparel. And a costume determination step for determining the costume of the character based on the contents of the scenario classification for each scenario classification of the scenario classified by the scenario classification step.
  • the character clothing determination program is a character clothing determination program for causing a computer to execute a process for determining a character's clothing as well as scenario power, and classifies the scenario based on the continuity of the clothing of the character. And a costume determination process for determining the costume of the character based on the contents of the scenario classification for each scenario classification of the scenario classified by the scenario classification process. It is a thing.
  • FIG. 1 is a block diagram showing a configuration of an animation creating apparatus equipped with a character costume determining apparatus according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of a semantic dictionary table stored in the semantic dictionary database of FIG. 1.
  • FIG. 4 is a diagram showing an example of a scenario generated by the scenario generation unit of FIG.
  • FIG. 6 A diagram showing an example of a clothing continuation determination rule table stored in the clothing continuation determination rule database of FIG.
  • FIG.7 A diagram showing an example of a scenario that is segmented by consecutive units of clothing by the scenario segmentation unit in Fig. 1.
  • FIG. 8 is a diagram showing an example of a character data table stored in the character database of FIG.
  • FIG. 9 is a diagram showing an example of a first clothing determination rule table stored in the clothing determination rule database of FIG.
  • FIG. 10 A diagram showing an example of a second clothing determination rule table stored in the clothing determination rule database of FIG.
  • Figure 11 Diagram showing an example of a scenario rewritten by the scenario rewriting unit in Figure 1
  • FIG. 12 is a diagram showing an example of an animation generated by the animation generation unit in FIG.
  • FIG. 13 is a flowchart showing the operation of the animation creation device in FIG.
  • FIG. 14 is a flowchart showing the contents of the scenario generation process (step S2000) in FIG.
  • FIG.15 Flow chart showing the contents of the character costume determination process (step S3000) in Fig. 13.
  • FIG. 16 is a flowchart showing the contents of the clothing determination process (step S3300) in FIG.
  • FIG. 1 is a block diagram showing a configuration of an animation creation device equipped with a character costume determination device according to an embodiment of the present invention.
  • the animation creating apparatus 100 shown in FIG. 1 has a function of determining the text writing ability as well, and roughly includes a scenario generation unit 200, a character costume determination unit 300, and an animation generation unit 400.
  • the scenario generation unit 200 includes a semantic dictionary database 210 and a language information extraction unit 220.
  • the character costume determining unit 300 includes a clothing continuous determination rule database 310, a scenario classification unit 320, a character database 330, a clothing determination rule database 340, a costume determining unit 350, and a scenario rewriting unit 360.
  • the animation creation device 100 is a system that inputs a text sentence, generates animation information (for example, text etc.) corresponding to the animation itself or the animation corresponding to the content, and outputs it. is there.
  • the animation may be a two-dimensional animation such as FlasM (registered trademark) or a three-dimensional CG animation using a well-known technology such as OpenGL (registered trademark) or DirectX (registered trademark).
  • animations are a series of still images presented along a story, such as a four-frame comic book, or a plurality of still images, such as a flip book, that are displayed in a flipped manner along a story.
  • the content of the animation is not particularly limited. It may be an animation in which at least one character appears (for example, an animation of only an avatar whose clothes change).
  • the animation creating apparatus in order to generate the text writing power animation, generally determines a scenario generation unit that generates a text writing power animation scenario and a character appearing in the scenario power animation.
  • the animation creating apparatus 100 according to the present embodiment has a function for determining the costume of the character appearing in the animation by the character costume determining unit 300 when generating the text sentence caption.
  • clothing broadly means clothes, accessories, and accessories.
  • the costume of the character appearing in the animation is a costume that can be easily inferred from the content of the message.
  • many people will think of a scene in which a character wearing kendo wears kendo when they read the text “I was doing Kendo in the morning.” This is because, from the linguistic information representing the act of “doing kendo”, it is considered appropriate that the character is wearing kendo.
  • the scenario generation unit 200 is provided with the semantic dictionary database 210 and the language information extraction unit 220, and the character costume determination unit 300 is newly provided, so that the scenario obtained from the input text sentence can be obtained. Is used to automatically determine the costume of the character appearing in the animation to match the content of the text.
  • a mobile phone will be described as an example, but the present invention is not limited to this.
  • the animation creation device equipped with the character clothing determination device according to the present invention can be applied to various hardware such as a PC (Personal Computer), a PDA (Personal Digital Assistant), a video camera, and an electronic book. Is equally applicable. Also applicable not only to e-mail software but also to various application software and services such as chat software, web (web) bulletin board, SNS (Social Network Service), blog (weblog), diary creation tool, etc. It is.
  • the animation creation device 100 is incorporated in, for example, a mail creation / display function of a mobile phone.
  • the mobile phone displays a 'function to create a mail, a function to input the text of the created mail to the animation creation device 100, and an animation that is the output result of the animation creation device 100. It has a function to do. These functions are started by user key operations.
  • the mobile phone has a function of inputting the text of the received mail to the animation creating apparatus 100 and a function of displaying and saving an animation that is an output result of the animation creating apparatus 100. This makes it possible to display the contents of the text sentence as an animation not only from the text sentence written by itself but also from the text sentence written by others.
  • FIG. 2 is a diagram illustrating an example of a text sentence.
  • Figure 2 shows that in four different genres: mail, mobile mail, blog, and diary.
  • the content of many texts for communication purposes consists of the actions, feelings, and scenes of yourself or the other party.
  • This embodiment also targets texts with such a structure.
  • the present embodiment can also be applied to movie and play scenarios, books, magazines, and newspaper articles.
  • the scenario generation unit 200 receives a text sentence, generates an animation scenario by natural language analysis processing, and outputs the generated scenario.
  • Natural language analysis processing is generally performed in the order of morphological analysis, syntax analysis, and semantic analysis.
  • As a scenario generation method a method of complementing information such as subject, performance, and location in the result of semantic analysis is known. Natural language analysis and animation scenario generation are described in detail in, for example, RC Shank, CK Leeds Beck, Shun Ishizaki (Translation), “Introduction to Natural Language Understanding”, Soken Publishing, pages 224-258. Therefore, detailed description is omitted here.
  • the semantic dictionary database 210 stores a semantic dictionary table for generating a scenario by extracting linguistic information particularly necessary for determining the character's clothing. Meaning
  • the dictionary table consists of pairs of items and vocabulary.
  • FIG. 3 is a diagram illustrating an example of a semantic dictionary table stored in the semantic dictionary database 210.
  • a vocabulary 213 is registered in association with the item 212 as a key.
  • item 212 has values such as “clothing designation” indicating the character's clothing designation, “acting” indicating the character's performance, “person” indicating the character's name, and “emotion” indicating the character's emotion. , “Objective” indicating the purpose of the character performance, “adjective” indicating the adjective expression of the scene, “place” indicating the location of the scene, “time” indicating the time of the scene, “weather” indicating the weather of the scene, and scenario It consists of “pictograms” indicating pictographs in the sentence. Note that the item 212 in the semantic dictionary table 211 need not be composed of all these items, and may be composed of at least one of these items.
  • one or more vocabularies are registered for each item 212.
  • “taxide” and “white robe” are registered as the vocabulary 213 corresponding to the item 212 “designate clothing”.
  • the language information extraction unit 220 performs text matching on the vocabulary included in the semantic dictionary table 211 (see Fig. 3) stored in the semantic dictionary database 210 from the input text sentence (see Fig. 2). Then, the corresponding vocabulary 213 and its item 212 are extracted as linguistic information, and a scenario is generated and output based on the obtained linguistic information (vocabulary 213 and item 212). However, for the item 212 “person”, a scenario is generated by changing the value of the item 212 to “subject” or “partner” according to the content of the text sentence by natural language processing.
  • the vocabulary 213 appears in a text sentence with “ga”
  • the scenario generated by the scenario generation unit 200 is output to the character costume determination unit 300.
  • FIG. 4 is a diagram illustrating an example of a scenario generated by the scenario generation unit 200.
  • a scenario 230 shown in FIG. 4 is composed of a plurality of scenes 231.
  • a scene 231 is a unit of animation scene, and generally indicates an animation in the same time zone and the same place.
  • the animation corresponding to each scene 231 is sequentially reproduced in order of the upper power of the scenario 230.
  • Each scene 231 further includes a plurality of directions 232.
  • the direction 232 is a unit of animation direction, and generally indicates an animation at the same time.
  • the animation corresponding to each direction 232 is played sequentially in the order of the top of scenario 230.
  • Each direction 232 further includes an item 233 for language information and an item value 234 for language information.
  • the item 233 indicates the item of the corresponding direction 232, and the content is described in the item value 234.
  • the possible values for item 233 are, for example, “clothing designation”, “acting”, “subject”, “partner”, “emotion”, “purpose”, “adjective”, “location”, “time”, “weather” , And “Emoji”.
  • the value that the item value 234 can take is an arbitrary character string.
  • the character string of the item value 234 is determined based on the contents of the text sentence related to the corresponding item 233.
  • FIG. 5 is a diagram showing an example of the data configuration of scenario 230 shown in FIG. Shown in Figure 5
  • the scenario 230 takes, for example, an XML (eXtens3 ⁇ 4le Markup Language) format data structure.
  • the value designated as “Scene id” corresponds to the scene 231 in FIG. 4
  • the value designated as “Dir section id” corresponds to the direction 232 in FIG.
  • “Location”, “Subject”, “Action”, “Emotion”, and “Time” are “location”, “subject”, “act”, “emotion”, “ The character string corresponding to “hour” and written together corresponds to the item value 234 in FIG.
  • the character costume determining unit 300 inputs the scenario generated by the scenario generating unit 200, determines character data representing the actual character appearing in the animation using the character database 330, and outputs the character data.
  • the character / apparel determination unit 300 uses the apparel continuous determination rule database 310 to classify the input scenarios by apparel units, and further, the character database 330 and the apparel determination rule beta.
  • the segmented scenario power uses the base 340, the segmented scenario power also determines the character's costume.
  • the character costume determining unit 300 outputs the decorated character as character data.
  • clothes and characters are treated as one unit, and the character database 330 is described as storing character data for each piece of clothes.
  • the present invention is not limited to this. Do not mean.
  • character data and clothing data can be handled as separate data.
  • the character / clothing determination unit refers to the clothing database in addition to the character database, and outputs character data and clothing data.
  • an arbitrary pointer that specifies the substance of the character such as a file name or URL indicating a decorated character is output.
  • the form of is not limited to this. For example, depending on the implementation, you should output the character data itself that is the substance of the decorated character.
  • the clothing continuity determination rule database 310 includes a clothing continuity determination rule table in which rules necessary for determining the continuity of clothing in the scenario classification unit 320 (hereinafter referred to as “clothes continuity determination rule” ⁇ ⁇ ) are described. Storing.
  • the apparel continuous judgment rule is This is a rule for determining how long a character's clothing continues and at what timing among the scenarios, and indicates a condition for the clothing to continue. By using such a garment continuous determination rule, it is possible to determine the timing for changing the garment.
  • FIG. 6 is a diagram illustrating an example of a clothing continuous determination rule table stored in the clothing continuous determination rule database 310.
  • the clothing continuation determination rule table 311 shown in FIG. 6 includes a set of an ID 312 and a clothing continuity determination rule 313.
  • the clothing continuous determination rule 313 describes rules necessary for classifying scenarios for determining clothing.
  • the clothing continuation determination rule table 311 is composed of three sets 311-1, 311-2, and 311-3.
  • the group 311—1 ⁇ describes the rule “Apparel is set for each character” as the apparel continuous judgment rule 313 corresponding to ID312 “ID1”.
  • a rule “313” is described as a clothing continuation determination rule 313 corresponding to ID 312 of “ID2”, “Character clothing does not change between directions in the scene”.
  • the garment continuous judgment rule 313 corresponding to ID312 of “ID3” is as follows: “If the scene does not change even if the scene is different, the garment will inherit the garment of the previous scene” The rule is described. Scenarios are classified so as to satisfy all the clothing continuous judgment rules 313 described in the clothing continuous judgment rule table 311.
  • the clothing continuation determination rule 313 is written in a program code that can be interpreted by a computer. Here, the contents are written in a language.
  • the scenario classification unit 320 uses the clothing continuous judgment rule table 311 (see Fig. 6) stored in the clothing continuous judgment rule database 310, and the scenario 230 (see Fig. 4) is a section in which the character's clothing continues. Divide by unit (hereinafter “scenario category” and “!”).
  • scenario category means that the character's clothing is contiguous with specific clothing within the same scenario category, and the character's clothing may be different between different scenario categories.
  • FIG. 7 is a diagram showing an example of a scenario divided by a continuous unit of clothing by the scenario dividing unit 320. As shown in FIG.
  • the segmented scenario 321 shown in FIG. 7 is composed of a plurality of scenario segments 322.
  • Scenario category 322 is a category of the apparel unit of scenario 230 shown in Figure 4.
  • Each scenario segment 322 is composed of one or more segments 326, and each segment 326 is further composed of a main body 326.
  • the subject 323 only characters appearing in the scene included in the scenario category are shown.
  • a scenario that is divided to determine the costume of the character in the scenario division is described.
  • the scenario consists of item 324 and item value 325. Therefore, scenario category 322 is set for each subject 323 for each scene.
  • the segmented scenario 321 is composed of two scenario segments 322.
  • Scenario category 322 “Scenario category 1” consists of one category 326-1 corresponding to scene 1 shown in Figure 4.
  • Scenario category 322, “Scenario category 2”, consists of two categories 326-2 and 326-3 corresponding to scene 2 in Fig. 4, and two categories 326-4 and 326-5 corresponding to scene 3 in Fig. 4. It consists of
  • scenario category 322 “scenario category 1" describes a scenario for determining the clothing of the subject 323 "Hanako” as category 326-1.
  • “Sinari Age Category 2” and! ⁇ ⁇ Sinari Age Category 322 describe scenarios for determining the clothing of the subject 323 “Hanako” as Categories 326-2 and 326-4.
  • 326-3 and 326-5 describe scenarios for determining the clothing of the subject 323, “Nozomi”.
  • a character database 330 shown in FIG. 1 stores a character data table for extracting character data using a character name and a set of clothes as a key.
  • the character data table is composed of character names, clothing, and character data.
  • FIG. 8 is a diagram showing an example of a character data table stored in the character database 330.
  • Character data table 331 shown in FIG. 8 includes character name 332 and clothing 333 as keys, and character data 334 corresponding thereto. Character data 334 is determined by a combination of name 332 and clothing 333.
  • the character data 334 includes a file name indicating a decorated character, It takes the form of a pointer that specifies the character entity such as a URL.
  • a pointer that specifies the character entity such as a URL.
  • the costumed character is handled as one character data, and thus the above configuration is adopted.
  • character data and clothing data may be used in separate files, and character data and clothing data may be combined and used for animation.
  • the force method that requires a separate clothing database is not significantly different, and the explanation is omitted here.
  • the clothing determination rule database 340 stores a first clothing determination rule table and a second clothing determination rule table.
  • the first clothing determination rule table is a table showing the correspondence between language information and clothing.
  • linguistic information can be described by combining multiple pieces of linguistic information using logical symbols (eg, AND, OR, parentheses, etc.). By combining multiple language information using logical symbols in this way, multiple language information can be processed.
  • the second clothing decision rule table consists of at least one piece of meta-knowledge for resolving conflicts and conflicts. By using such meta-knowledge, even if there are contradictions or conflicts, it is possible to resolve the conflicts and conflicts and determine one outfit.
  • FIG. 9 is a diagram illustrating an example of a first clothing determination rule table stored in the clothing determination rule database 340.
  • the first clothing determination rule table 341 shown in Fig. 9 includes an ID 342 and character clothing 343. And language information 344.
  • Language information 344 is composed of items and item values (see Fig. 4 and Fig. 7), and multiple pairs of items and item values must be combined with logical symbols (eg, AND, OR, parentheses). This can also be described.
  • the first clothing determination rule table 341 includes nine groups 341-1 to 341-9 having IDs 342 from “1” to “9”.
  • the group 341-1 indicates that when the item of the language information 344 is “act” and the corresponding item value is “ski”, “ski wear” and clothing 343 are appropriate.
  • Group 341-2 indicates that if the item of language information 344 is “Place” and the corresponding item value is “Nihon Ryokan”, “Yukata” and ⁇ ⁇ Clothing 343 will correspond accordingly!
  • group 341-3 when the item of language information 344 is “act” and the corresponding item value is “swimming”, or the item value corresponding to item power S “purpose” of language information 344 is “swimming” Or, if the language information 344 item is “Location” and the corresponding item value is “Sea”, and the language information 344 item is “Season” and the corresponding item value is “Summer”, “Swimsuits” and “Usu garment 343” are suitable. Group 341-4 indicates that if the item value of linguistic information 344 is “subject” and the corresponding item value is “groom”, “tuxedo” and apparel 343 are correspondingly U!
  • the group 341-5 indicates that the clothing item 343 “Jeep” is appropriate when the item of the language information 344 is “Emoji” and the corresponding item value is “(Jeep mark)”.
  • the pair 341-6 indicates that the clothing item 343 of “rain coat” is appropriate when the corresponding item value is “rain” in the item power S “weather” of the language information 344.
  • group 341-7 when the item of language information 344 is “place” and the corresponding item value is “company”, or the item value S of “language” 344 “S Objective” and the corresponding item value is “work” In the case of, or when the item of language information 344 is “partner” and the corresponding item value is “wife's parents”, “suit” t and apparel 343 indicate that they are appropriate.
  • Group 341-8 indicates that apparel 343 “outing and going out” is appropriate when the item of language information 344 is “location” and the corresponding item value is “restaurant”, “hotel” or “Japanese inn”. And for group 341-9, the item of language information 344 is “place” and the corresponding item value is “home”, and the item of language information 344 is “hour” and the corresponding item value S is “night” “Pajamas” and Ugly 343 correspond to each other.
  • FIG. 10 is a diagram showing an example of a second clothing determination rule table stored in the clothing determination rule database 340.
  • the second costume determination rule table 345 shown in FIG. 10 is composed of a set of ID 346 and meta-knowledge 347.
  • Meta-knowledge 347 is knowledge about how to operate the rules, and it is a knowledge rule that shows how to resolve when there is a contradiction or conflict.
  • the second clothing determination rule table 345 includes four groups 345-1 to 345-4 having ID3 46 of “1” to “4”.
  • the pair 345-1 describes meta-knowledge 347, which “adopts the strict conditions connected by AND and adopts the rule result”.
  • group 345-2 meta-knowledge 347 of “taking over the previous clothes” is described.
  • meta-knowledge 347 is described as "Use the following priority for items. Apparel specification>Acting>Purpose>Place>Subject>Opponent>Emotion>Adjective>Time>Weather>Emoji" Yes.
  • meta-knowledge 347 “prioritize in ascending order of rule IDs” is described.
  • Meta-knowledge 347 is a power that can be described in program code that can be interpreted by a computer. Here, the contents are expressed in language.
  • the costume determination unit 350 includes a character data table 331 (see FIG. 8) stored in the character database 330, a first costume determination rule table 341 (see FIG. 9) stored in the costume determination rule database 340, and Using the second costume determination rule table 34 5 (see FIG. 10), the costume of the character is determined from the classified scenario (see FIG. 7), and the character data with the costume is output.
  • the scenario rewriting unit 360 rewrites the scenario input from the scenario generation unit 200 using the character data with clothing output from the clothing determination unit 350. Specifically, the scenario rewriting unit 360 rewrites the item value 234 corresponding to the item 233 “subject” in the input scenario to the character data with clothing determined by the clothing determining unit 350.
  • FIG. 11 is a diagram illustrating an example of a scenario rewritten by the scenario rewriting unit 360.
  • the scenario 370 after rewriting shown in FIG. 11 is the same as the scenario 230 before rewriting shown in FIG. 4, and “Hana_skiwear.cg” is set as the “Hanako” in the direction 232-2! !
  • scenario rewriting unit 360 is provided in character costume determining unit 300, but the present invention is not limited to this.
  • the character data with costumes output from the costume determination unit 350 of the character costume determination unit 300 without providing the scenario rewriting unit 360 in the character costume determination unit 300 may be sent to the animation generation unit 400 as it is. It may be.
  • the scenario generated by the scenario generation unit 200 is output not only to the character costume determination unit 300 but also to the animation generation unit 400.
  • Animation generation section 400 generates an animation using at least a scenario after rewriting, that is, a scenario including character data with clothes (see FIG. 11).
  • the animation generator 400 determines the placement and performance of the character based on the scenario after rewriting, and if necessary, performs camera work, lighting, deformed expression, BGM, sound effects, etc. By adding it, the animation is generated and output as 2D animation or 3D animation.
  • it is also possible to generate an animation using the scenario from the scenario generation unit 200 and the character data with clothing from the clothing determination unit 350 of the character clothing determination unit 300. It is a spear.
  • FIG. 12 is a diagram illustrating an example of an animation generated by the animation generation unit 400.
  • Each animation shown in FIG. 12A, FIG. 12B, and FIG. 12C is a force that is actually a moving image, and one scene is cut out as a still image.
  • Fig. 12A shows a scene where Hanako is skiing while wearing ski wear, and "Direction 2" (Direction 23 2) of “Scene 1" in scenario 370 after rewriting shown in Fig. 11. — Corresponds to 2).
  • Figure 12B shows a scene where Hanako is wearing a yukata.
  • “Revision 3” (Direction 2 32-6) and “Scene 3” of “Scene 2” in scenario 370 shown in FIG. 11 after rewriting.
  • “Direction 3” (Direction 232-9).
  • Fig. 12C shows a scene where Hanako puts on a pan and makes a peace sign. As shown in Fig.
  • the animation creating apparatus 100 has a CPU (Central Processing Unit) and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the ROM stores a control program
  • the RAM is a working memory.
  • the functions of each unit shown in Fig. 1 are realized by the CPU executing the control program.
  • the mobile phone described above includes a communication circuit as existing hardware, and the animation creation device 100 is connected to communication devices such as other mobile phones and personal computers via a mobile phone network.
  • the animation information generated by can be sent.
  • the above mobile phone can receive a text sentence, a scenario, and animation information transmitted from another mobile phone or a base station via a communication circuit.
  • FIG. 13 is a flowchart showing the operation of the animation creating apparatus 100 shown in FIG.
  • step S 1000 the scenario generation unit 200 determines whether or not a text sentence has been input.
  • the text sentence is input by, for example, the operation of the mobile phone by the user or the reception from the outside through the communication circuit.
  • the user is instructed to start creating animation by operating the mobile phone.
  • step S2000 if a text sentence is entered (S1000: YES), the process proceeds to step S2000. If no text sentence is entered (S1000: NO), the process waits until a text sentence is entered.
  • step S2000 scenario generation unit 200 executes scenario generation processing. Specifically, a text sentence is input, and a animation scenario is generated from the input text sentence by natural language analysis processing and output. This scenario generation process will be described later.
  • step S3000 the character costume determining unit 300 executes a character costume determining process. Specifically, the scenario generated in step S 2000 is input, and the costumed character representing the substance of the character appearing in the animation using the costume continuity determination rule database 310, the character database 330, and the costume determination rule database 340 is used. Determine and output data. This character costume determination process will be described later.
  • step S4000 the animation generation unit 400 executes an animation generation process. Specifically, an animation is generated based on the scenario generated in step S2000 and the character data with clothes determined in step S3000. This animation generation process will be described later.
  • the animation file format is not limited here.
  • Animation file formats include not only video file formats such as MPEG (Moving Picture Experts Group) and A VI (Audio Video Interleaving), but also data formats for CG animation, script language formats, flash animation formats, etc. It may be in the form of a gap.
  • step S5000 the animation generation unit 400 outputs the animation generated in step S4000.
  • the mobile phone provided with the animation creating apparatus 100 is provided with a display unit for displaying the animation output from the animation creating apparatus 100.
  • a similar device is also provided at the communication partner of the mobile phone equipped with the animation creating device 100. Therefore, by sending this animation to the other party of communication, it is possible to show the animation according to the contents of the text sentence input by the user of the mobile phone equipped with the animation creating device 100 to the user of the other party of communication. it can.
  • FIG. 14 is a flowchart showing the contents of the scenario generation process (step S2000) of FIG. This scenario generation process is executed by the scenario generation unit 200.
  • step S 2100 it is determined whether or not a text sentence (see FIG. 2) input to animation creating apparatus 100 has been input. As a result of this determination, if a text sentence has been entered (S2100: YES), go to step S2200 and if no text sentence has been entered. If this is the case (S2100: NO), it waits until a text sentence is entered.
  • step S2200 morphological analysis, syntax analysis, and semantic analysis are sequentially executed as natural language analysis of the input text sentence, and the analysis result is output.
  • step S2300 the language information extraction unit 220 performs text matching on the vocabulary contained in the semantic dictionary table 211 (see Fig. 3) stored in the semantic dictionary database 210 from the analysis result of step S2200. Then, the corresponding vocabulary 213 and its item 212 are extracted as linguistic information, and a scenario is generated based on the obtained linguistic information (vocabulary 213 and item 212) and output.
  • step S2400 based on the analysis result in step S2200 and the scenario extracted in step S2300, an animation scenario (see FIG. 4) that matches the contents of the input text sentence is generated.
  • step S2500 the scenario generated in step S2400 is output to character costume determination unit 300, and then the process returns to the flowchart of FIG.
  • the scenario 230 in which the text sentence power is also generated is divided into three scenes, up to the second sentence, the third sentence, and the fourth sentence.
  • the first scene 1 consists of three directions 232-1 to 232-3. In other words, the first scene 1 is directed to direction 1 (direction 232-1) indicating that “place” is “skiing area” and direction indicating that “acting” is “skiing”. It consists of Chillon 2 (Direction 232-2) and Direction 3 (Direction 232-3) indicating that “Emotion” is “Fun! /,”.
  • the second scene 2 is composed of three directions 232-4 to 232-6. In other words, the second scene 2 is Direction 1 (Direction 232-4 indicating that the place is a Japanese inn.
  • Direction 2 (Direction 232-5) indicating that “Time” is “Night”
  • Direction 3 (Direction 232-6) indicating that “Performance” is “Meal” It consists of and.
  • the third scene 3 is Direction 1 (Direction 232-7) indicating that “Place” is “Japanese Ryokan”, and Direction 2 indicating that “Time” is “Night”. (Division 232-8) and Direction 3 (Direction 232-9), which indicates that “Acting” is “Staying”!
  • a character (avatar) indicating a user of the mobile phone is preliminarily registered.
  • the scenario generation unit 200 sets the registered character name as the subject when there is no subject in the text sentence. This is to deal with the characteristic that Japanese users often omit the subject of the user who is the writer, especially in text sentences for communication. In the scenario 230 example shown in Fig. 4, this is determined.
  • “Nozomi” is further set for the subject of Direction 3 of Scene 2 and Direction 3 of Scene 3 from the description of scenario 230.
  • FIG. 15 is a flowchart showing the contents of the character costume determination process (step S3000) of FIG. This character costume determining process is executed by the character costume determining unit 300.
  • step S3100 it is determined whether or not a scenario (see FIG. 4) generated by scenario generation unit 200 has been input. As a result of this judgment, if a scenario is entered (S 3100: YES), step S3200 [Proceed, manually maneuver the scenario! / ⁇ ! If you enter a scenario (S3100: NO), until you enter the scenario stand by.
  • step S3200 the scenario classification unit 320 satisfies all the clothing continuous determination rules 313 described in the clothing continuous determination rule table 311 (see Fig. 6) stored in the clothing continuous determination rule database 310. In this way, the section (scenario section) in which the character's clothing continues is determined. Then, the scenario 230 shown in FIG. 4 is divided based on the determined section, and the divided scenario 321 shown in FIG. 7 is generated and output to the clothing determination unit 350. [0088] As an example, the processing procedure for creating the segmented scenario 321 shown in Fig. 7 from the scenario 230 shown in Fig. 4 is shown below.
  • the scenario classification unit 320 first stores the input scenario 230 in a memory (not shown). Next, the scenario classification unit 320 scans the scenario 230 in order according to the clothing continuous judgment rule 313 (group 311-1) of “ID1” in the clothing continuous judgment rule table 311 and the characters appearing in the scenario 230 are also scanned. Create a separate table.
  • the scenario classification unit 320 scans the scenario 230 again in order, and inputs the items and values of the direction of the scenario 230 to the respective tables in order. At this time, even if the direction is the same, the scenario division unit 320 inputs the same table in accordance with the “ID2” clothing continuation determination rule 313 (group 311-2) in the same scene. When the location or time changes with respect to the immediately preceding scene, the scenario classification unit 320 divides the table according to the “ID3” clothing continuation determination rule 313 (group 311-3) and Enter the direction items and values in the new table.
  • Direction 232-7 “Japan Ryokan” and Direction 232-8 “Night” belonging to the same scene belong to a different scene from Direction 232-6, but Direction 232—4 to 232— Since the time and place do not change with respect to 6, the “Hanako” table is not divided and is entered following the same table. The process for “Nozomi” is the same.
  • the scenario sorting unit 320 integrates the created tables to create the sorted scenario 321 shown in FIG. Specifically, the scenario classification unit 320 uses the same table generated for each subject. The items corresponding to the scene are grouped into one scenario category, and the scenario categories and direction items and values are rearranged so as to follow the order of the original scenario 230.
  • a scenario 321 divided into two scene divisions 322 is obtained.
  • segmented scenario 321 scene 2 and scene 3 are combined into one scenario segment.
  • scene 2 and scene 3 are determined to be sections in which the character's clothing continues.
  • the classified scenario 321 is output to the costume determination unit 350.
  • step S3300 the clothing determination unit 350 executes the clothing determination processing for each scenario category.
  • the character data table 331 (see FIG. 8) stored in the character database 330
  • the first clothing determination rule table 341 (see FIG. 9) stored in the clothing determination rule database 340
  • the second clothing determination Using rule table 345 (see Fig. 10), the character's clothing is determined from the classified scenarios (see Fig. 7), and character data with clothing is output. This clothing determination process will be described in detail later.
  • step S3400 scenario rewriting unit 360 rewrites the scenario input to character clothing determination unit 300 using the character data with clothing determined in step S3300, and after rewriting.
  • scenario including decorated characters
  • the item value 234 corresponding to “subject” and ⁇ ⁇ item 233 is rewritten to the character data with clothes determined in step S3300, and the rewritten scenario is output.
  • FIG. 16 is a flowchart showing the contents of the costume determination process (step S3300) of FIG. This clothing determination process is executed by the clothing determination unit 350.
  • step S3310 the determination and output of the character data is completed among the scenario categories constituting the scenario (see Fig. 7) classified in step S3200 in Fig. 15 and the main entities included in the scenario categories. Select one that is not.
  • step S3320 clothing candidates are listed from the input classified scenarios using the first clothing determination rule table 341 (see FIG. 9) stored in the clothing determination rule database 340.
  • step S3330 the character data table stored in the character database 330 using the name of the subject 323 in the classified scenario 321 and the clothing candidates enumerated in step S3320 as keys, respectively. Search 331 (see Fig. 8) and obtain the corresponding character data 334.
  • step S3340 it is determined whether there is no corresponding character data 334 as the processing result of step S3330. As a result of this determination, if there is no applicable character data 334 (S3340: YES), the process proceeds to step S3350. If there is one or more applicable character data 334 (S3340: NO), the process proceeds to step S3360. move on.
  • step S3350 the character data corresponding to the default clothing is searched because the corresponding character data could not be acquired for the given subject 323 name and clothing.
  • the search searches the character data table 331 using only the name of the subject 323 as a key, and after the costume 333 acquires the “default” character data 334, the process proceeds to step S3380.
  • the character database 330 is configured to extract the character data 334 with the “default” clothing 333 when a search is executed using only the name of the subject 323 as a key. Further, if the corresponding character data 334 is not obtained even if only the name of the subject 323 is used as a key, it is assumed that the arbitrary character data 334 is extracted.
  • step S3360 it is further determined whether or not there are a plurality of corresponding character data 334 as the processing result of step S3330. As a result of this determination, if there are a plurality of corresponding character data 334 (S3360: YES), the process proceeds to step S3370, and there is no corresponding character data 334, that is, there is only one corresponding character data 334. (S3360: NO), immediately go to step S3380.
  • step S3370 the meta data described in the second clothing determination rule table 345 (see Fig. 10) stored in the clothing determination rule database 340 in order to narrow down the corresponding character data 334 to one.
  • Knowledge 347 is applied one by one in the order of ID346, and one character data 334 is determined.
  • meta-knowledge 347 of ID346 "ID1" is applied, and character data 3 Try to narrow down 34.
  • ID2 the next meta-knowledge 347 of ID346 called “ID2” is applied.
  • Meta Knowledge 347 is applied in order until it is narrowed down to one character data.
  • step S3380 only character data 334 obtained in step S3330, step S3350, or step S3370 is output.
  • step S3390 it is determined whether a combination of unprocessed scenario categories and subjects remains. As a result of this determination, if there is still a combination of unprocessed scenario categories and entities (S3390: YES), return to step S3310, and if processing has been completed for all scenario category and entity combinations (S3390: NO), the process returns to the flowchart of FIG. As a result, the series of processing in steps S3320 to S3380 is performed for each scenario category and for each subject of the classified scenario 321, so that the number of character data 334 finally output from the clothing determination unit 350 is classified. It is equal to the number of combinations of scenario categories and subjects in scenario 321.
  • step S3320 If “Location: Nihon Ryokan” and “Performance: Swim” exist in the same scenario classification of the classified scenarios, in step S3320, the first garment determination rule table 341 set 341— 2 and pair 341-3 powers, “Yukata” and “Swimsuit” two candidate clothes. In this case, since there are a plurality of corresponding character data 334, the meta-knowledge 347 described in the second costume determination rule table 345 is applied one by one.
  • the meta-knowledge 347 described in the pair 345-1 “is to adopt the strict rule result of conditions connected by AND”. In this case, the first garment decision rule test is performed. Since both the pair 341-2 and the pair 341-3 of the table 341 have the same conditions, the following knowledge 347 is applied.
  • the meta-knowledge 347 described in the next set 345-2 is “takes over the previous clothes”. In this case, since there is no previous clothes, the same meta-knowledge 347 applies.
  • the meta-knowledge 347 described in the next group 345-3 is “use the following priority for items” and it is described that “act” takes precedence over “place”.
  • the language information 344 of “act: swim” is applied, and the costume 343 is determined as “swimsuit”. If there is too much power here, meta-knowledge 347 described in the last pair 345-4, “Set priority in ascending order of rule IDs” is applied, and there is always one. It is becoming possible to focus on.
  • FIG. 17 is a flowchart showing the contents of the animation generation process (step S4000) in FIG. This animation generation process is performed by the animation generation unit 400. Executed.
  • step S4200 to step S4500 are described in detail in, for example, Japanese Patent Application Laid-Open No. 2005-44181, detailed description thereof is omitted here.
  • step S4100 it is determined whether or not a scenario in which the scenario after rewriting (including character data with clothing) (see Fig. 11) output in step S3400 in Fig. 15 is input is input. As a result of this judgment, if the scenario after rewriting is entered (S4100: YES), proceed to step S4200, and if the scenario after rewriting is correct (S4100: NO), rewrite Wait until you enter a later scenario.
  • step S4200 the placement of the character is determined from the input location of the scenario 370 after rewriting and the acting of the subject.
  • “Arrangement” includes specific coordinates and postures. The simplest method for determining the character placement is, for example, a method of referring to a database that pre-arranges and stores where characters should be placed for each combination of place and performance.
  • step S4300 the motion of the character is determined from the input of the subject of the rewritten scenario 370.
  • “Motion” includes the shape, timing, and time of a specific figure.
  • the simplest way to determine a character's motion is, for example, to refer to a database that has a one-to-one correspondence between performance and motion.
  • step S4400 effects such as camera work and writing are determined from the input location and subject performance of scenario 370 after rewriting.
  • the simplest method for determining the production is, for example, a method of referring to a database in which performance and production are associated one-to-one.
  • step S4500 an animation composed of the character included in the input scenario and the arrangement information, motion information, and effect information determined in steps S4200 to S4400, respectively, is output.
  • the input text sentence scenario is extracted using the semantic dictionary database 210, and the costume is determined using the clothing continuous determination rule database 310.
  • the scenario power is also determined by the character database 330 and the costume decision rule database 340. Determine. Therefore, it is possible to determine the costume of the character that matches the contents of the input text sentence, that is, the contents of the generated scenario without using the costume designation by the user or the user's environment information.
  • the character is displayed in a swimsuit, and the text sentence says “I came to the interview venue.” If the word is included, the character can be displayed while wearing a suit. Thereby, it is possible to automatically determine the costume of the character that matches the content of the scenario without using the fashion designation by the user or the user's environment information.
  • the animation to be generated is composed of a plurality of performances, a plurality of persons, and a plurality of scenes.
  • the character's clothing in order to determine the character's clothing, how to process multiple pieces of language information, how to resolve contradictions and conflicts, and how to determine how long the clothing will change and at what timing It becomes an important point.
  • the clothing continuation determination rule database 310 since the clothing continuation determination rule database 310 is provided, it is possible to determine to what extent the clothing continues and at what timing.
  • the garment continuous determination rule database 310 including the first garment determination rule table 341 and the second garment determination rule table 345 is provided, it is possible to process multiple language information, and there are contradictions and conflicts. In some cases, it is possible to resolve the contradiction and conflict and decide on one piece of clothing.
  • a clothing continuation determination rule is applied in which a scenario classification is composed of one or more scenes.
  • a clothing continuation determination rule such as a direction, where the scenario classification is composed of other units, may be applied.
  • a clothing continuation determination rule may be applied so that a scenario is classified into one scenario from the middle of one scene to the middle of another scene.
  • a plurality of types of tables such as a garment continuous determination rule table, a first garment determination rule table, a second garment determination rule table, and a character data table are prepared. You may make it switch and use it according to preference. This makes it possible to determine the character's clothing that matches the content of the scenario and the character's clothing that matches the user's preferences.
  • the animation creation device equipped with the character costume determination device according to the present invention is applied to a mobile phone has been described as an example.
  • the present invention is not limited to this. It can also be applied to various hardware, application software, and services that make up the system.
  • the character clothing information generating device is a linguistic information power device that automatically generates the clothing of the language information ability character obtained from the input text sentence.
  • a garment continuation determination rule storage unit for storing a garment continuation determination rule for determining sex and a linguistic information category for categorizing language information for determining a character's clothing with reference to the garment continuation determination rule storage unit
  • Language information segmented by the language information segmentation unit with reference to the costume determination rule storage unit storing the first costume determination rule indicating the relationship between the language information and the costume, and the clothing determination rule storage unit From the above, a costume determining unit that determines the costume of the character is employed.
  • a character clothing information generation method is a clothing information generation method for automatically generating clothing of a language information power character obtained from an input text sentence.
  • a language information classification step for classifying language information for determining the clothing of the character with reference to the clothing continuation determination rule storage unit for storing the clothing continuation determination rule for determining the continuity of the clothing; Refer to the clothing determination rule storage unit that stores the first clothing determination rule indicating the relationship between the language information and the clothing, and determine the clothing to determine the character's clothing from the language information classified in the language information classification step. Steps.
  • a character costume information generation program is a costume information generation program for automatically generating the text information ability of the input text information ability and character costume.
  • a linguistic information classification step for classifying language information for deciding a character's clothing with reference to a clothing continuation determination rule storage unit storing a clothing continuation determination rule for determining continuity of the clothing;
  • a clothing determination step for determining the clothing of the character from the language information classified in the language information classification step with reference to a clothing determination rule storage unit that stores a first clothing determination rule indicating the relationship between the language information and the clothing; Is executed by a computer.
  • the character costume determination device is capable of determining the character costume matching the content of the scenario without using the user's costume designation or the environment information of the user. It is useful for mobile terminal devices such as PCs, game machines, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 ユーザによる服飾指定や、ユーザの環境情報を用いることなく、シナリオの内容と合致するキャラクタの服飾を決定するキャラクタ服飾決定装置。この装置は、シナリオからキャラクタの服飾を決定するキャラクタ服飾決定装置において、前記キャラクタの服飾の連続性に基づいて前記シナリオを区分するシナリオ区分部(320)と、前記シナリオ区分部によって区分されたシナリオのシナリオ区分毎に、前記シナリオ区分の内容に基づいて前記キャラクタの服飾を決定する服飾決定部(350)とを有するキャラクタ服飾決定装置(300)である。

Description

明 細 書
キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾 決定プログラム
技術分野
[0001] 本発明は、シナリオから、シナリオに登場するキャラクタの服飾を決定するキャラクタ 服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラムに関 する。
背景技術
[0002] 現在、電子メールやチャット、ブログなどは、すでに日常的なコミュニケーション手段 として定着している。特に近年では、テキスト文のみのメッセージだけではなぐ静止 画や動画の CG (Computer Graphics)によってテキスト文を装飾した、遊びの要素を 含んだメッセージをやり取りできるアプリケーションやサービスが増えている。
[0003] このようなアプリケーションやサービスとして、例えば、携帯電話で画像やメールの テンプレートを自由に組み合わせ、装飾付きのメールを送信するメールアプリケーシ ヨンや、受信したメールに含まれる特定の絵文字や文字列を判別して、受信画面に C Gアニメーションを表示するアプリケーション、簡単なキー操作によりキャラクタの身振 り手振りや表情が付いたメッセージを送信するサービスなどがある。
[0004] また、コミュニケーション用途で用いるキャラクタを手軽に自作できるようにするため に、特許文献 1および特許文献 2に記載された技術は、キャラクタの服飾や目鼻のパ ーッを選択して組み合わせると 、う簡単な操作で、コミュニケーション用途で用いるキ ャラクタを作成すると 、う手法を採って 、る。
[0005] また、煩わしい操作を必要とせず、コミュニケーション用のアニメーションをより臨場 感あるものにすることを目的に、特許文献 3に記載された技術は、利用者の環境情報 (場所や天候、時間帯など)を用いてメールに付与するアバター (利用者を表すキヤ ラクタ)の服飾を決定すると 、う手法を採って 、る。
特許文献 1:特開 2001— 167287号公報
特許文献 2:特開 2003— 346173号公報 特許文献 3:特開平 11― 346267号公報
発明の開示
発明が解決しょうとする課題
[0006] ところで、上記のような、電子メールやチャット、ブログなどのテキスト文を装飾するた めのアニメーションは、メッセージの内容と関係するものでなくてはならない。特に、ァ 二メーシヨンに登場するキャラクタの服飾は、メッセージの内容力も容易に類推できる 服飾であることが望ましい。
[0007] し力しながら、上記の特許文献に記載された技術は、 V、ずれも、キャラクタの服飾を 決める上で、ユーザが記述したテキスト文をまったく考慮して ヽな 、。
[0008] 特許文献 1および特許文献 2に記載された技術においては、キャラクタのプロパティ 選択画面でユーザがキャラクタの服飾を明示的に選択するようにしている。しかし、こ の方法では、テキスト文の内容力 Sストーリー性を有するシナリオである場合、その内容 に合致したキャラクタを表示するためには、ストーリー上で場面が変化するたびにキヤ ラクタの服飾を選択し直さなくてはならず、不便である。
[0009] また、特許文献 3に記載された技術にぉ 、ては、ユーザの環境情報を用いてキャラ クタの服飾を自動的に選択できるため、煩わしい操作を回避することができるものの、 一方で、メッセージ作成者の周囲の環境と関係のない内容のシナリオには対応する ことができないため、汎用性のある方法ではない。すなわち、シナリオの内容に合致 したキャラクタの服飾を決定することはできな 、。
[0010] 本発明の目的は、ユーザによる服飾指定や、ユーザの環境情報を用いることなぐ シナリオの内容に合致するキャラクタの服飾を決定することができるキャラクタ服飾決 定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラムを提供するこ とである。
課題を解決するための手段
[0011] 本発明のキャラクタ服飾決定装置は、シナリオ力 キャラクタの服飾を決定するキヤ ラクタ服飾決定装置において、前記キャラクタの服飾の連続性に基づいて前記シナリ ォを区分するシナリオ区分部と、前記シナリオ区分部によって区分されたシナリオの シナリオ区分毎に、前記シナリオ区分の内容に基づいて前記キャラクタの服飾を決 定する服飾決定部と、を有する構成を採る。
[0012] 本発明のキャラクタ服飾決定方法は、シナリオ力 キャラクタの服飾を決定するキヤ ラクタ服飾決定方法にぉ 、て、前記キャラクタの服飾の連続性に基づ 、て前記シナリ ォを区分するシナリオ区分ステップと、前記シナリオ区分ステップによって区分された シナリオのシナリオ区分毎に、前記シナリオ区分の内容に基づいて前記キャラクタの 服飾を決定する服飾決定ステップと、を有するようにした。
[0013] 本発明のキャラクタ服飾決定プログラムは、シナリオ力もキャラクタの服飾を決定す る処理をコンピュータに実行させるためのキャラクタ服飾決定プログラムにおいて、前 記キャラクタの服飾の連続性に基づいて前記シナリオを区分するシナリオ区分処理と 、前記シナリオ区分処理によって区分されたシナリオのシナリオ区分毎に、前記シナ リオ区分の内容に基づいて前記キャラクタの服飾を決定する服飾決定処理と、をコン ピュータに実行させるようにしたものである。
発明の効果
[0014] 本発明によれば、ユーザによる服飾指定や、ユーザの環境情報を用いることなぐ 入力されたシナリオの内容に合致するキャラクタの服飾を決定することができる。 図面の簡単な説明
[0015] [図 1]本発明の一実施の形態に係るキャラクタ服飾決定装置を搭載したアニメーショ ン作成装置の構成を示すブロック図
[図 2]テキスト文の一例を示す図
[図 3]図 1の意味辞書データベースに格納された意味辞書テーブルの一例を示す図 [図 4]図 1のシナリオ生成部によって生成されるシナリオの一例を示す図
[図 5]図 4のシナリオのデータ構成の一例を示す図
[図 6]図 1の服飾連続判定ルールデータベースに格納された服飾連続判定ルールテ ーブノレの一例を示す図
[図 7]図 1のシナリオ区分部によって服飾の連続単位で区分されたシナリオの一例を 示す図
[図 8]図 1のキャラクタデータベースに格納されたキャラクタデータテーブルの一例を 示す図 [図 9]図 1の服飾決定ルールデータベースに格納された第 1の服飾決定ルールテー ブノレの一例を示す図
[図 10]図 1の服飾決定ルールデータベースに格納された第 2の服飾決定ルールテー ブノレの一例を示す図
[図 11]図 1のシナリオ書替部によって書き替えられたシナリオの一例を示す図
[図 12]図 1のアニメーション生成部によって生成されるアニメーションの一例を示す図
[図 13]図 1のアニメーション作成装置の動作を示すフローチャート
[図 14]図 13のシナリオ生成処理 (ステップ S2000)の内容を示すフローチャート
[図 15]図 13のキャラクタ服飾決定処理 (ステップ S3000)の内容を示すフローチヤ一 卜
[図 16]図 15の服飾決定処理 (ステップ S3300)の内容を示すフローチャート
[図 17]図 13のアニメーション生成処理 (ステップ S4000)の内容を示すフローチヤ一 卜
発明を実施するための最良の形態
[0016] 以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
[0017] 図 1は、本発明の一実施の形態に係るキャラクタ服飾決定装置を搭載したアニメ一 シヨン作成装置の構成を示すブロック図である。
[0018] 図 1に示すアニメーション作成装置 100は、テキスト文力もアニメーションを決定する 機能を有し、大別して、シナリオ生成部 200、キャラクタ服飾決定部 300、およびァ- メーシヨン生成部 400を有する。シナリオ生成部 200は、意味辞書データベース 210 と言語情報抽出部 220を有する。キャラクタ服飾決定部 300は、服飾連続判定ルー ルデータベース 310、シナリオ区分部 320、キャラクタデータベース 330、服飾決定 ルールデータベース 340、服飾決定部 350、およびシナリオ書替部 360を有する。
[0019] アニメーション作成装置 100は、テキスト文を入力して、その内容に応じたアニメ一 シヨンそのものまたはアニメーションに 1対 1に対応するアニメーション情報(例えば、 テキストなど)を生成し、出力するシステムである。
[0020] アニメーションを表示するためには、どのキャラクタや背景、小物を用いるかという情 報と、キャラクタが時系列でどのように動作する力、キャラクタなどをどこに配置するか といったシナリオとが必要である。ここでは、アニメーションの種類は、特に限定されな い。例えば、アニメーションは、 FlasM登録商標)などの 2次元アニメーションであつ ても、 OpenGL (登録商標)や DirectX (登録商標)などの周知の技術を用いた 3次 元 CGアニメーションであってもよい。さらに、アニメーションは、 4コマ漫画のようにスト 一リーに沿って提示される複数の静止画や、パラパラ漫画のように複数の静止画がス トーリーに沿ってパラパラと切り替わって表示されるものであってもよい。また、ここで は、アニメーションの内容も、特に限定されない。少なくとも 1体以上のキャラクタが登 場するアニメーション (例えば、服飾が変化するアバターのみのアニメーション)であ ればよい。
[0021] ところが、上記のように、システムに入力される情報は、テキスト文だけである。そこ で、本実施の形態のアニメーション作成装置は、テキスト文力もアニメーションを生成 するために、一般的に、テキスト文力 アニメーションのシナリオを生成するシナリオ 生成部と、シナリオ力 アニメーションに登場するキャラクタを決定するキャラクタ決定 部と、それらの情報力 アニメーションを生成するアニメーション生成部とを備えて ヽ る。さらに、本実施の形態におけるアニメーション作成装置 100は、テキスト文カもァ 二メーシヨンを生成する際に、キャラクタ服飾決定部 300により、アニメーションに登場 するキャラクタの服飾を決定する機能を有する。より具体的には、入力されたテキスト 文から得られる情報 (例えば、服飾指定、演技、主体 (呼称)、相手、感情、形容詞、 絵文字、場所、 目的、時、天候など)から、アニメーションにおけるキャラクタの服飾を 決定する機能を有する。ここで、「服飾」とは、衣服やアクセサリ、小物などを広く意味 する。
[0022] 上記のように、アニメーションに登場するキャラクタの服飾は、メッセージの内容から 容易に類推できる服飾であることが望ましい。例えば、多くの人は、「今日は朝力 剣 道をしていました。」というテキスト文を読むと、剣道着を着たキャラクタが剣道をして いる情景を思い浮かべるであろう。これは、「剣道をする」という演技を表す言語情報 から、そのキャラクタが剣道着を着ているのが妥当であると考えるからである。他にも、 「この夏は暑い」というテキスト文から、 Tシャツを着たキャラクタを思い浮かべたり、「プ 一ルに 、ます」と 、うテキスト文から、水着を着たキャラクタを多くの人は思 、浮かべる ものである。これらは、「暑い」という天候を表す言語情報や、「プール」という場所を表 す言語情報から、それぞれ Tシャツ姿や水着姿を連想するためである。このようにテ キスト文には、キャラクタの服飾を決める可能性の高い言語情報が数多く含まれてい る。そこで、本実施の形態では、シナリオ生成部 200に意味辞書データベース 210と 言語情報抽出部 220を設けるとともに、新たにキャラクタ服飾決定部 300を設けること により、入力されたテキスト文カゝら得られるシナリオを用いて、テキスト文の内容に合 致するようにアニメーションに登場するキャラクタの服飾を自動的に決定するようにし ている。
[0023] なお、本実施の形態では、携帯電話機を例にとって説明するが、これに限定されな い。本発明に係るキャラクタ服飾決定装置を搭載したアニメーション作成装置は、携 帯電話機以外にも、例えば、 PC (Personal Computer)や PDA (Personal Digital Assi stant)、ビデオカメラ、電子ブックといった各種のハードウェアにも同様に適用可能で ある。また、電子メールソフトウェアのみならず、チャットソフトウェアやウェブ (web)掲 示板、 SNS (Social Network Service)、ブログ(weblog)、日記帳作成ツールなどの、 各種アプリケーションソフトウェアや各種サービスにも同様に適用可能である。
[0024] アニメーション作成装置 100は、例えば、携帯電話機のメール作成 ·表示機能に組 み込まれている。この場合、携帯電話機は、ユーザがメールを作成する機能と、作成 されたメールのテキスト文をアニメーション作成装置 100に入力する機能と、アニメ一 シヨン作成装置 100の出力結果であるアニメーションを表示 '保存する機能とを有す る。これらの機能は、ユーザのキー操作によって開始される。また、携帯電話機は、 受信したメールのテキスト文をアニメーション作成装置 100に入力する機能と、アニメ ーシヨン作成装置 100の出力結果であるアニメーションを表示'保存する機能とを有 する。これにより、自分が書いたテキスト文のみならず、他人が書いたテキスト文から も、当該テキスト文の内容をアニメーションとして表示することが可能になる。
[0025] ここでは、アニメーション作成装置 100の構成についての詳細な説明に先立って、 まず、アニメーション作成装置 100に入力されるテキスト文について説明しておく。
[0026] 図 2は、テキスト文の一例を示す図である。
[0027] 図 2は、メール、携帯メール、ブログ、および日記の 4つの異なるジャンルにおけるそ れぞれのテキスト文の例を示して!/、る。多くのコミュニケーション用途のテキスト文の 内容は、自分または相手の行動や気持ち、情景などで構成されている。本実施の形 態でも、そのような構成のテキスト文を対象としている。また、本実施の形態は、上記 の例以外にも、映画や劇のシナリオ、書籍、雑誌、および新聞記事などにも適用可能 である。
[0028] 図 1に戻って、アニメーション作成装置 100の構成について詳細に説明する。
[0029] シナリオ生成部 200は、テキスト文を入力し、自然言語解析処理などによりアニメ一 シヨンのシナリオを生成し、出力する。自然言語解析処理は、形態素解析、構文解析 、意味解析の順番で解析するのが一般的な方法である。シナリオ生成方法としては、 意味解析の結果に主体や演技、場所などの情報を補完する方法が知られている。自 然言語解析とアニメーションシナリオの生成については、例えば、 R.C.シャンク、 C.K .リーズベック、石崎俊 (訳)、「自然言語理解入門」、総研出版、第 224頁〜第 258頁 に詳細に記載されて 、るため、ここでは詳細な説明を省略する。
[0030] 意味辞書データベース 210は、特にキャラクタの服飾を決定する上で必要な言語 情報を抽出してシナリオを生成するための意味辞書テーブルを格納して 、る。意味 辞書テーブルは、項目と語彙の組で構成されている。
[0031] 図 3は、意味辞書データベース 210に格納された意味辞書テーブルの一例を示す 図である。
[0032] 図 3に示す意味辞書テーブル 211には、キーとなる項目 212に対応付けて、語彙 2 13が登録されている。図 3において、項目 212は、その値として、キャラクタの服飾の 指定を示す「服飾指定」、キャラクタの演技を示す「演技」、キャラクタの名称を示す「 人物」、キャラクタの感情を示す「感情」、キャラクタ演技の目的を示す「目的」、シーン の形容詞表現を示す「形容詞」、シーンの場所を示す「場所」、シーンの時を示す「時 」、シーンの天候を示す「天候」、およびシナリオ文の中の絵文字を示す「絵文字」で 構成されている。なお、意味辞書テーブル 211の項目 212は、これらすベての項目 で構成されている必要はなぐこれらの項目のうち、少なくとも 1つの項目で構成され ていればよい。
[0033] また、語彙 213には、項目 212ごとに、 1つ以上の語彙が登録されている。例えば、 図 3に示す例では、「服飾指定」という項目 212に対応する語彙 213として、「タキシ ード」と「白衣」が登録されて 、る。
[0034] 言語情報抽出部 220は、入力されたテキスト文(図 2参照)から意味辞書データべ ース 210に格納された意味辞書テーブル 211 (図 3参照)に含まれる語彙をテキスト マッチングして、該当する語彙 213とその項目 212を言語情報として抽出し、得られ た言語情報 (語彙 213と項目 212)に基づいてシナリオを生成し、出力する。ただし、 「人物」という項目 212については、自然言語処理によりテキスト文の内容に応じて項 目 212の値を「主体」か「相手」のどちらかに変更して、シナリオを生成する。例えば、 語彙 213が「ガ格」でテキスト文に現れた場合は、主格を表すために項目 212の値を 「主体」に変更し、語彙 213が「二格」でテキスト文に現れた場合は、目的格を表すた めに項目 212の値を「相手」に変更する。最後に、シナリオ生成部 200によって生成 されたシナリオは、キャラクタ服飾決定部 300に出力される。
[0035] 図 4は、シナリオ生成部 200によって生成されるシナリオの一例を示す図である。
[0036] 図 4に示すシナリオ 230は、複数のシーン 231で構成されている。シーン 231は、ァ 二メーシヨンのシーンの単位であり、一般的に、同一時間帯、同一場所におけるァ- メーシヨンを示している。各シーン 231に対応するアニメーションは、シナリオ 230の 上力も順に逐次的に再生される。各シーン 231は、さらに、複数のディレクシヨン 232 で構成されている。ディレクシヨン 232は、アニメーションのディレクシヨンの単位であり 、一般的に、同一時刻におけるアニメーションを示している。各ディレクシヨン 232に 対応するアニメーションは、シナリオ 230の上力 順に逐次的に再生される。各ディレ クシヨン 232は、さらに、言語情報の項目 233と言語情報の項目値 234で構成されて いる。項目 233は、対応するディレクシヨン 232の項目を示すものであり、その内容は 、項目値 234に記述される。項目 233が取り得る値は、例えば、「服飾指定」、「演技」 、「主体」、「相手」、「感情」、「目的」、「形容詞」、「場所」、「時」、「天候」、および「絵 文字」である。また、項目値 234が取り得る値は、任意の文字列である。項目値 234 の文字列は、対応する項目 233に関係する、テキスト文の内容に基づいて、決定さ れる。
[0037] 図 5は、図 4に示すシナリオ 230のデータ構成の一例を示す図である。図 5に示すよ うに、シナリオ 230は、例えば XML (eXtens¾le Markup Language)形式のデータ構 成を採る。ここで、「Scene id」として指定される値は、図 4のシーン 231に対応し、「Dir ection id」として指定される値は、図 4のディレクシヨン 232に対応する。また、「Locati on」、「Subject」、「Action」、「Emotion」、「Time」は、図 4の項目 233のうち、それぞれ「 場所」、「主体」、「演技」、「感情」、「時」に対応し、併せて記述される文字列は、図 4 の項目値 234に対応する。
[0038] キャラクタ服飾決定部 300は、シナリオ生成部 200によって生成されたシナリオを入 力し、キャラクタデータベース 330を用いて、アニメーションに登場するキャラクタの実 体を表すキャラクタデータを決定し、出力する。その際、本実施の形態では、キャラク タ服飾決定部 300は、服飾連続判定ルールデータベース 310を用いて、入力された シナリオを服飾の単位で区分し、さらに、キャラクタデータベース 330および服飾決 定ルールベータベース 340を用いて、区分されたシナリオ力もキャラクタの服飾を決 定する。キャラクタ服飾決定部 300は、服飾されたキャラクタを、キャラクタデータとし て出力する。
[0039] なお、本実施の形態では、服飾とキャラクタを 1つのまとまりとして扱い、キャラクタデ ータベース 330には、服飾ごとのキャラクタデータが格納されているものとして説明を 行うが、これに限定されるわけではない。例えば、実装の形態によっては、キャラクタ データと服飾データを別々のデータとして扱うことも可能である。この場合、キャラクタ 服飾決定部は、キャラクタデータベースにカ卩えて服飾データベースをも参照し、キヤ ラクタデータと服飾データを出力することになる。
[0040] また、本実施の形態では、キャラクタデータとして、服飾されたキャラクタを示すファ ィル名や URLなどキャラクタの実体を指定する任意のポインタを出力するようにして いるが、出力するキャラクタデータの形態は、これに限定されない。例えば、実装の形 態によっては、服飾されたキャラクタの実体であるキャラクタデータそのものを出力す るようにしてちょい。
[0041] 服飾連続判定ルールデータベース 310は、シナリオ区分部 320で服飾の連続性を 判定するために必要なルール (以下「服飾連続判定ルール」 ヽぅ)が記述された服 飾連続判定ルールテーブルを格納している。服飾連続判定ルールは、与えられた複 数のシナリオのうち、キャラクタの服飾がどこまで連続し、どのタイミングで変わるかを 判定するためのルールであり、服飾が連続する条件を示すものである。このような服 飾連続判定ルールを用いることにより、服飾の変更タイミングを決定することが可能に なる。
[0042] 図 6は、服飾連続判定ルールデータベース 310に格納された服飾連続判定ルール テーブルの一例を示す図である。
[0043] 図 6に示す服飾連続判定ルールテーブル 311は、 ID312と服飾連続判定ルール 3 13の組で構成されている。服飾連続判定ルール 313には、服飾を決定するための、 シナリオを区分する上で必要なルールが記述されている。図 6に示す例では、服飾 連続判定ルールテーブル 311は、 3つの組 311— 1、 311— 2、 311— 3で構成され ている。組 311— 1〖こは、「ID1」という ID312に対応する服飾連続判定ルール 313と して、「服飾はキャラクタ毎に設定される」というルールが記述されている。組 311— 2 には、「ID2」という ID312に対応する服飾連続判定ルール 313として、「シーン内の ディレクシヨン間でキャラクタの服飾は変化しな 、」 t 、うルールが記述されて 、る。組 311— 3には、「ID3」という ID312に対応する服飾連続判定ルール 313として、「シ ーンが異なっても場所と時刻が変化しないシーンの場合、服飾は前のシーンの服飾 を引き継ぐ」というルールが記述されている。シナリオの区分は、服飾連続判定ルー ルテーブル 311に記述されたすベての服飾連続判定ルール 313を満たすように行 われる。なお、服飾連続判定ルール 313は、コンピュータが解釈可能なプログラムコ ードで記述されるが、ここでは、その内容を言語で表記している。
[0044] シナリオ区分部 320は、服飾連続判定ルールデータベース 310に格納された服飾 連続判定ルールテーブル 311 (図 6参照)を用いて、シナリオ 230 (図 4参照)をキャラ クタの服飾が連続する区間単位 (以下「シナリオ区分」と!、う)で区分する。シナリオ区 分は、同一シナリオ区分内ではキャラクタの服飾は特定の服飾で連続され、異なるシ ナリオ区分間ではキャラクタの服飾は異なる可能性が有ることを意味する。
[0045] 図 7は、シナリオ区分部 320によって服飾の連続単位で区分されたシナリオの一例 を示す図である。
[0046] 図 7に示す区分されたシナリオ 321は、複数のシナリオ区分 322で構成されている 。シナリオ区分 322は、図 4に示すシナリオ 230の服飾単位での区分である。各シナ リオ区分 322は、 1つまたは複数の区分 326で構成され、各区分 326は、さらに、主 体 326で構成されている。主体 323には、そのシナリオ区分に含まれるシーンで登場 するキャラクタのみが示される。各主体 323に対応付けて、そのシナリオ区分でその キャラクタの服飾を決定する上で必要な区分されたシナリオが記述されて 、る。シナリ ォは、項目 324と項目値 325で構成されている。したがって、シナリオ区分 322の設 定は、各シーンに対して、主体 323ごとに行われる。
[0047] 図 7に示す例では、区分されたシナリオ 321は、 2つのシナリオ区分 322で構成され ている。「シナリオ区分 1」というシナリオ区分 322は、図 4に示すシーン 1に対応する 1 つの区分 326— 1で構成されている。「シナリオ区分 2」というシナリオ区分 322は、図 4のシーン 2に対応する 2つの区分 326— 2、 326— 3と、図 4のシーン 3に対応する 2 つの区分 326— 4、 326— 5とで構成されている。
[0048] 図 7に示すように、「シナリオ区分 1」というシナリオ区分 322には、区分 326— 1とし て、「花子」という主体 323の服飾を決定するためのシナリオが記述されている。また、 「シナリ才区分 2」と!ヽぅシナリ才区分 322には、区分 326— 2、 326— 4として、「花子」 という主体 323の服飾を決定するためのシナリオが記述されるとともに、区分 326— 3 、 326— 5として、「のぞみ」という主体 323の服飾を決定するためのシナリオが記述さ れている。
[0049] 図 1に示すキャラクタデータベース 330は、キャラクタの名称と服飾の組をキーにし てキャラクタデータを抽出するためのキャラクタデータテーブルを格納して 、る。キヤ ラクタデータテーブルは、キャラクタの名称および服飾ならびにキャラクタデータの組 で構成されている。
[0050] 図 8は、キャラクタデータベース 330に格納されたキャラクタデータテーブルの一例 を示す図である。
[0051] 図 8に示すキャラクタデータテーブル 331は、キーとなるキャラクタの名称 332およ び服飾 333と、それに対応したキャラクタデータ 334とで構成されている。キャラクタ データ 334は、名称 332と服飾 333の組によって 1つに決まるようになつている。ここ では、キャラクタデータ 334は、一例として、服飾されたキャラクタを示すファイル名や URLなどキャラクタの実体を指定するポインタの形態をとつて 、る。図 8に示す例で は、「花子」という名称 332の場合において、服飾 333が「デフォルト」、「スキーウエア 」、「浴衣」、「外出着」のときは、それぞれ「Hana.cg」、「Hana— skiwear.cgj、「Hana_yuk ata.cg」、「Hana_street.cg」というキャラクタデータ 334が抽出される。また、「のぞみ」と いう名称 332の場合において、服飾 333が「デフォルト」、「浴衣」、「外出着」のときは 、てれそれ「Nozomi.cg」、「Nozomi_yukata.cg」、「Nozomi— street.cgjと ヽっキヤフクタテ ータ 334が抽出される。また、「太郎」という名称 332の場合において、服飾 333が「 デフォルト」、「タキシード」のときは、それぞれ「Taro.cg」、「Taro_tuxedo.cg」というキヤ ラクタデータ 334が抽出される。
[0052] なお、本実施の形態では、上記のように、服飾されたキャラクタを 1つのキャラクタデ ータとして扱っているため、上記の構成を採っている。しかし、上記のように、実装の 形態によっては、キャラクタデータと服飾データを別々のファイルで使用し、キャラクタ データと服飾データを組み合わせてアニメーションに利用する場合もあり得る。この 場合は、別に服飾データベースが必要となる力 方式が大きく異なるものではないた め、ここでは、その説明を省略する。
[0053] 服飾決定ルールデータベース 340は、第 1の服飾決定ルールテーブルと、第 2の 服飾決定ルールテーブルとを格納している。第 1の服飾決定ルールテーブルは、言 語情報と服飾の対応関係を示すテーブルである。この第 1の服飾決定ルールテープ ルにおいて、言語情報は、論理記号 (例えば、 AND、 OR、括弧など)を用いて複数 の言語情報を結合することによって記述することができる。このように論理記号を用い て複数の言語情報を結合することにより、複数の言語情報を処理することが可能にな る。また、第 2の服飾決定ルールテーブルは、矛盾や競合を解消するための少なくと も 1つのメタ知識によって構成されている。このようなメタ知識を用いることにより、たと え矛盾や競合があった場合にも、その矛盾や競合を解消して、 1つの服飾を決定す ることが可能になる。
[0054] 図 9は、服飾決定ルールデータベース 340に格納された第 1の服飾決定ルールテ ーブノレの一例を示す図である。
[0055] 図 9に示す第 1の服飾決定ルールテーブル 341は、 ID342とキャラクタの服飾 343 と言語情報 344の組で構成される。言語情報 344は、項目と項目値で構成されてお り(図 4、図 7参照)、項目と項目値の複数の組を論理記号 (例えば、 AND, OR、括 弧)で結合すること〖こよって記述することもできる。
[0056] 図 9に示す例では、第 1の服飾決定ルールテーブル 341は、「1」から「9」の ID342 を持つ 9つの組 341— 1〜341— 9で構成されている。組 341— 1は、言語情報 344 の項目が「演技」で対応する項目値が「スキーする」の場合、「スキーウエア」 、う服 飾 343が相応しいことを示している。組 341— 2は、言語情報 344の項目が「場所」で 対応する項目値が「日本旅館」の場合、「浴衣」と ヽぅ服飾 343が相応 Uヽことを示し て!、る。組 341— 3は、言語情報 344の項目が「演技」で対応する項目値が「泳ぐ」の 場合、または、言語情報 344の項目力 S「目的」で対応する項目値が「海水浴」の場合 、または、言語情報 344の項目が「場所」で対応する項目値が「海」の場合で、かつ、 言語情報 344の項目が「季節」で対応する項目値が「夏」の場合は、「水着」と!、う服 飾 343が相応しいことを示している。組 341— 4は、言語情報 344の項目力 ^主体」で 対応する項目値が「新郎」の場合、「タキシード」 、う服飾 343が相応 U、ことを示し て!、る。組 341— 5は、言語情報 344の項目が「絵文字」で対応する項目値が「(ジー パンマーク)」の場合、「ジーパン」という服飾 343が相応しいことを示している。組 341 —6は、言語情報 344の項目力 S「天候」で対応する項目値が「雨」の場合、「レインコ ート」という服飾 343が相応しいことを示している。組 341— 7は、言語情報 344の項 目が「場所」で対応する項目値が「会社」の場合、または、言語情報 344の項目力 S「目 的」で対応する項目値が「仕事」の場合、または、言語情報 344の項目が「相手」で対 応する項目値が「妻の両親」の場合、「スーツ」 t 、う服飾 343が相応 、ことを示して いる。組 341— 8は、言語情報 344の項目が「場所」で対応する項目値が「レストラン」 、「ホテル」、または「日本旅館」の場合、「外出着」という服飾 343が相応しいことを示 して 、る。組 341— 9は、言語情報 344の項目が「場所」で対応する項目値が「家」で あり、かつ、言語情報 344の項目が「時」で対応する項目値力 S「夜」の場合、「パジャマ 」と 、う服飾 343が相応し 、ことを示して 、る。
[0057] 図 10は、服飾決定ルールデータベース 340に格納された第 2の服飾決定ルール テーブルの一例を示す図である。 [0058] 図 10に示す第 2の服飾決定ルールテーブル 345は、 ID346とメタ知識 347の組で 構成されている。メタ知識 347は、ルールをどのように運用するかという知識のことで あり、矛盾や競合があった場合にどのように解決するかを示す知識ルールのことであ る。図 10に示す例では、第 2の服飾決定ルールテーブル 345は、「1」から「4」の ID3 46を持つ 4つの組 345— 1〜345— 4で構成されている。組 345— 1には、「ANDで 接続された条件の厳し 、ルール結果を採用する」 t 、うメタ知識 347が記述されて 、 る。組 345— 2には、「直前の服装を引き継ぐ」というメタ知識 347が記述されている。 組 345— 3には、「項目に以下の優先順位を用いる。服飾指定 >演技 >目的 >場所 >主体 >相手〉感情 >形容詞 >時〉天候 >絵文字」と 、うメタ知識 347が記述され ている。組 345— 4には、「ルール IDの昇順で優先順位をつける」というメタ知識 347 が記述されている。なお、メタ知識 347は、コンピュータが解釈可能なプログラムコー ドで記述される力 ここでは、その内容を言語で表記している。
[0059] 服飾決定部 350は、キャラクタデータベース 330に格納されたキャラクタデータテー ブル 331 (図 8参照)ならびに服飾決定ルールデータベース 340に格納された第 1の 服飾決定ルールテーブル 341 (図 9参照)および第 2の服飾決定ルールテーブル 34 5 (図 10参照)を用いて、区分されたシナリオ (図 7参照)から、キャラクタの服飾を決 定し、服飾付きキャラクタデータを出力する。
[0060] シナリオ書替部 360は、服飾決定部 350から出力された服飾付きキャラクタデータ を用いて、シナリオ生成部 200から入力したシナリオの書き替えを行う。具体的には、 シナリオ書替部 360は、入力したシナリオにおける、「主体」という項目 233に対応す る項目値 234を、服飾決定部 350で決定された服飾付きキャラクタデータに書き替え る。
[0061] 図 11は、シナリオ書替部 360によって書き替えられたシナリオの一例を示す図であ る。図 11に示す書き替え後のシナリオ 370は、図 4に示す書き替え前のシナリオ 230 にお 、て、ディレクシヨン 232— 2の「花子」と!、う項目値 234を「Hana_skiwear.cg」と!ヽ う服飾付きキャラクタデータ(ポインタ形式)に、ディレクシヨン 232— 3の「花子」という 項目値 234を「Hana_skiwear.cg」 t 、う服飾付きキャラクタデータ(ポインタ形式)に、 ディレクシヨン 232— 9の「花子」と!、う項目値 234を「Hanajoikata.cg」 t 、う服飾付き キャラクタデータ (ポインタ形式)に、それぞれ書き替えて構成されている。
[0062] なお、本実施の形態では、シナリオ書替部 360をキャラクタ服飾決定部 300に設け ているが、これに限定されるわけではない。例えば、実装の形態によっては、シナリオ 書替部 360をキャラクタ服飾決定部 300に設けることなぐキャラクタ服飾決定部 300 の服飾決定部 350から出力される服飾付きキャラクタデータをそのままアニメーション 生成部 400に送るようにしてもよい。この場合、シナリオ生成部 200によって生成され たシナリオは、キャラクタ服飾決定部 300のみならずアニメーション生成部 400にも出 力されること〖こなる。
[0063] アニメーション生成部 400は、少なくとも、書き替え後のシナリオ、つまり、服飾付き キャラクタデータを含むシナリオ(図 11参照)を用いて、アニメーションを生成する。す なわち、アニメーション生成部 400は、書き替え後のシナリオに基づいて、キャラクタ の配置と演技を決定し、必要であれば、カメラワークやライティング、デフォルメ的な 演出表現、 BGM、効果音などを追加することにより、 2次元アニメーションまたは 3次 元アニメーションとしてアニメーションを生成し、出力する。なお、上記のように、実装 の形態によっては、シナリオ生成部 200からのシナリオと、キャラクタ服飾決定部 300 の服飾決定部 350からの服飾付きキャラクタデータとを用いて、アニメーションを生成 することも可會である。
[0064] 図 12は、アニメーション生成部 400によって生成されるアニメーションの一例を示す 図である。なお、図 12A、図 12B、および図 12Cに示す各アニメーションは、実際は 動画である力 その一場面を静止画として切り出したものである。
[0065] 図 12Aは、花子がスキーウエアを着てスキーをしている一場面であり、図 11に示す 書き替え後のシナリオ 370における「シーン 1」の「ディレクシヨン 2」(ディレクシヨン 23 2— 2)に対応している。図 12Bは、花子が浴衣を着ている一場面であり、図 11に示 す書き替え後のシナリオ 370における「シーン 2」の「ディレクシヨン 3」(ディレクシヨン 2 32— 6)および「シーン 3」の「ディレクシヨン 3」(ディレクシヨン 232— 9)に対応してい る。図 12Cは、花子がシーパンをはいてピースサインをしている一場面であり、図 2に 示す、ジャンルが「携帯メール」でテキスト文が「(ジーパンマーク)買つちゃった(ピー スサイン)」を処理した結果に対応して 、る。 [0066] なお、アニメーション作成装置 100は、図示しな!、が、 CPU (Central Processing Un it)と、 ROM (Read Only Memory)や RAM (Random Access Memory)などのメモリと を有する。例えば、 ROMには制御プログラムが記憶されており、 RAMは作業用のメ モリである。図 1に示す各部の機能は、 CPUが制御プログラムを実行することによつ て実現される。
[0067] また、上記の携帯電話機は、既存のハードウェアとして通信回路を備えており、携 帯電話機網を介して他の携帯電話機やパーソナルコンピュータなどの通信機器に対 して、アニメーション作成装置 100で生成したアニメーション情報を送信可能となって いる。また、上記の携帯電話機は、通信回路を介して、他の携帯電話機または基地 局から送信されたテキスト文やシナリオ、アニメーション情報を受信可能となって 、る
[0068] 次いで、上記の構成を有するアニメーション作成装置 100の動作について、図 13 〜図 17に示すフローチャートを用いて説明する。なお、図 13〜図 17に示すフローチ ヤートは、アニメーション作成装置 100の ROMに制御プログラムとして記憶されてお り、 CPUによって実行される。
[0069] 図 13は、図 1に示すアニメーション作成装置 100の動作を示すフローチャートであ る。
[0070] まず、ステップ S 1000では、シナリオ生成部 200で、テキスト文を入力したか否かを 判断する。テキスト文は、例えば、ユーザによる携帯電話機の操作によってまたは通 信回路を介した外部からの受信によって入力される。テキスト文の入力に際しては、 ユーザによる携帯電話機の操作によってアニメーションの作成開始が指示される。こ の判断の結果として、テキスト文を入力した場合は(S1000 :YES)、ステップ S2000 に進み、テキスト文を入力していない場合は(S1000 :NO)、テキスト文を入力するま で待機する。
[0071] ステップ S2000では、シナリオ生成部 200で、シナリオ生成処理を実行する。具体 的には、テキスト文を入力し、入力したテキスト文から自然言語解析処理などによりァ 二メーシヨンのシナリオを生成し、出力する。このシナリオ生成処理については、後で 説明する。 [0072] 次に、ステップ S3000では、キャラクタ服飾決定部 300で、キャラクタ服飾決定処理 を実行する。具体的には、ステップ S 2000で生成されたシナリオを入力し、服飾連続 判定ルールデータベース 310、キャラクタデータベース 330、および服飾決定ルール データベース 340を用いて、アニメーションに登場するキャラクタの実体を表す服飾 付きキャラクタデータを決定し、出力する。このキャラクタ服飾決定処理については、 後で説明する。
[0073] 次に、ステップ S4000では、アニメーション生成部 400で、アニメーション生成処理 を実行する。具体的には、ステップ S2000で生成されたシナリオと、ステップ S3000 で決定された服飾付きキャラクタデータとに基づいて、アニメーションを生成する。こ のアニメーション生成処理については、後で説明する。なお、ここでは、アニメーショ ンのファイル形式は、何ら限定されない。アニメーションのファイル形式は、 MPEG ( Moving Picture Experts Group)や A VI (Audio Video Interleaving)などの動画フアイ ル形式のみならず、 CGアニメーションのためのデータ形式やスクリプト言語形式、フ ラッシュアニメーション形式など、 、ずれの形式であってもよ 、。
[0074] 次に、ステップ S5000では、アニメーション生成部 400で、ステップ S4000で生成 されたアニメーションを出力する。
[0075] 図示しないが、アニメーション作成装置 100を備えた携帯電話機には、このアニメ ーシヨン作成装置 100から出力されるアニメーションを表示する表示部が設けられて いる。また、アニメーション作成装置 100を備えた携帯電話機の通信の相手先にも、 同様の装置が設けられている。したがって、このアニメーションを通信の相手先に送 信することにより、アニメーション作成装置 100を備えた携帯電話機のユーザが入力 したテキスト文の内容に応じたアニメーションを、通信の相手先のユーザに見せること ができる。
[0076] 図 14は、図 13のシナリオ生成処理 (ステップ S2000)の内容を示すフローチャート である。このシナリオ生成処理は、シナリオ生成部 200によって実行される。
[0077] まず、ステップ S2100では、アニメーション作成装置 100に入力されたテキスト文( 図 2参照)を入力したか否かを判断する。この判断の結果として、テキスト文を入力し た場合は(S2100 :YES)、ステップ S2200〖こ進み、テキスト文を入力していない場 合は(S2100 : NO)、テキスト文を入力するまで待機する。
[0078] ステップ S2200では、入力されたテキスト文の自然言語解析として、形態素解析、 構文解析、および意味解析を逐次実行し、解析結果を出力する。
[0079] 次に、ステップ S2300では、言語情報抽出部 220で、ステップ S 2200の解析結果 から、意味辞書データベース 210に格納された意味辞書テーブル 211 (図 3参照)に 含まれる語彙をテキストマッチングして、該当する語彙 213とその項目 212を言語情 報として抽出し、得られた言語情報 (語彙 213と項目 212)に基づいてシナリオを生 成し、出力する。
[0080] 次に、ステップ S2400では、ステップ S2200の解析結果と、ステップ S2300で抽出 したシナリオとに基づいて、入力されたテキスト文の内容に合致するアニメーションの シナリオ (図 4参照)を生成する。
[0081] 次に、ステップ S2500では、ステップ S2400で生成したシナリオをキャラクタ服飾決 定部 300に出力した後、図 13のフローチャートにリターンする。
[0082] 例えば、このような処理によって、図 2に示す、ジャンルが「メール」のテキスト文(「明 日からニセコスキー場でスキーをします。楽しみ。夜はのぞみちゃんと日本旅館で食 事をします。もちろん、そのまま泊まります。」)から、図 4のシナリオ 230が生成される 。図 2のメールテキスト文は、 4つの文章からなり、場所を示す語彙として「スキー場」、 演技を示す形態素として「スキーする」、感情を表す語彙として「楽しい」、さらに、時 を表す語彙として「夜」、場所を示す語彙として「日本旅館」、演技を示す形態素とし て「食事する」および「泊まる」、をそれぞれ含んで 、る。
[0083] このテキスト文力も生成されるシナリオ 230は、まず、 2文目までと、 3文目と、 4文目 とで、 3つのシーンに分けられる。 1つ目のシーン 1は、 3つのディレクシヨン 232— 1〜 232— 3で構成されている。すなわち、 1つ目のシーン 1は、「場所」が「スキー場」であ ることを示すディレクシヨン 1 (ディレクシヨン 232— 1)と、「演技」が「スキーする」である ことを示すディレクシヨン 2 (ディレクシヨン 232— 2)と、「感情」が「楽し!/、」であることを 示すディレクシヨン 3 (ディレクシヨン 232— 3)とで構成されている。 2つ目のシーン 2は 、 3つのディレクシヨン 232— 4〜232— 6で構成されている。すなわち、 2つ目のシー ン 2は、「場所」が「日本旅館」であることを示すディレクシヨン 1 (ディレクシヨン 232— 4 )と、「時」が「夜」であることを示すディレクシヨン 2 (ディレクシヨン 232— 5)と、「演技」 が「食事する」であることを示すディレクシヨン 3 (ディレクシヨン 232— 6)とで構成され て ヽる。 3つ目のシーン 3ί¾、 3つのディレクシヨン 232— 7〜232— 9で されて!/ヽ る。すなわち、 3つ目のシーン 3は、「場所」が「日本旅館」であることを示すディレクシ ヨン 1 (ディレクシヨン 232— 7)と、「時」が「夜」であることを示すディレクシヨン 2 (ディレ クシヨン 232— 8)と、「演技」が「泊まる」であることを示すディレクシヨン 3 (ディレクショ ン 232— 9)とで構成されて!、る。
[0084] アニメーション作成装置 100には、携帯電話機のユーザを示すキャラクタ (アバター )が、あら力じめ登録されている。シナリオ生成部 200は、テキスト文に主体がない場 合には、登録されているキャラクタ名を主体として設定する。これは、 日本語には、特 にコミュニケーション用途のテキスト文では、書き手であるユーザ自身の主体を省略 することが多いという特徴に対応するためである。図 4に示すシナリオ 230の例では、 定する。また、シーン 2のディレクシヨン 3およびシーン 3のディレクシヨン 3の主体には 、シナリオ 230の記述から、さらに「のぞみ」を設定する。
[0085] 図 15は、図 13のキャラクタ服飾決定処理 (ステップ S3000)の内容を示すフローチ ヤートである。このキャラクタ服飾決定処理は、キャラクタ服飾決定部 300によって実 行される。
[0086] まず、ステップ S3100では、シナリオ生成部 200で生成されたシナリオ(図 4参照) を入力したか否かを判断する。この判断の結果として、シナリオを入力した場合は(S 3100 :YES)、ステップ S3200【こ進み、シナリオを人力して!/ヽな!ヽ場合 ίま(S3100 : NO)、シナリオを入力するまで待機する。
[0087] ステップ S3200では、シナリオ区分部 320で、服飾連続判定ルールデータベース 3 10に格納された服飾連続判定ルールテーブル 311 (図 6参照)に記述されたすベて の服飾連続判定ルール 313を満たすように、キャラクタの服飾が連続する区間(シナ リオ区間)を決定する。そして、決定した区間に基づいて図 4に示すシナリオ 230を区 分けし、図 7に示す区分けされたシナリオ 321を生成し、服飾決定部 350に出力する [0088] 例として、図 4に示すシナリオ 230から、図 7に示す区分されたシナリオ 321を作成 する場合の処理手順を以下に示す。
[0089] シナリオ区分部 320は、まず入力されたシナリオ 230をメモリ(図示せず)に格納す る。次に、シナリオ区分部 320は、服飾連続判定ルールテーブル 311の「ID1」の服 飾連続判定ルール 313 (組 311— 1)に従って、シナリオ 230を上力も順に走査し、シ ナリオ 230に登場するキャラクタ別にテーブルを作成する。
[0090] この例では、項目 233力 「主体」である値 234として、「花子」と「のぞみ」が存在する ため、「花子」と「のぞみ」の 2つのテーブル(図示せず)を作成する。
[0091] 次に、シナリオ区分部 320は、再びシナリオ 230を上力も順に走査し、シナリオ 230 のディレクシヨンの項目と値を順にそれぞれのテーブルに入力する。このとき、シナリ ォ区分部 320は、異なるディレクシヨンであったとしても、同じシーンであれば、「ID2」 の服飾連続判定ルール 313 (組 311— 2)に従って同じテーブルに続けて入力する。 また、シナリオ区分部 320は、直前のシーンに対して場所または時刻が変化する場 合は、「ID3」の服飾連続判定ルール 313 (組 311 - 3)に従って、テーブルを分割し 、該当シーンからは新たなテーブルにディレクシヨンの項目と値を入力する。
[0092] この例では、まず、同一シーンに属するディレクシヨン 232—1の「スキー場」、ディレ クシヨン 232— 2の「スキーする」、およびディレクシヨン 232— 3の「楽しい」が、それぞ れ「花子」の同一のテーブルに入力される。次に、ディレクシヨン 232— 4で場所が「ス キー場」から「日本旅館」に変化するため、「花子」のテーブルは分割され、次のテー ブルに、同一シーンに属するディレクシヨン 232— 4の「日本旅館」、ディレクシヨン 23 2— 5の「夜」、およびディレクシヨン 232— 6の「泊まる」が入力される。次の同一シー ンに属するディレクシヨン 232— 7の「日本旅館」、ディレクシヨン 232— 8の「夜」、は、 ディレクシヨン 232— 6と異なるシーンに属するが、ディレクシヨン 232— 4〜232— 6 に対して時間も場所も変化しないため、「花子」のテーブルは分割されず、同一のテ 一ブルに続けて入力される。「のぞみ」についての処理も同様である。
[0093] そして、シナリオ 230のすべてに対するテーブル作成を完了すると、シナリオ区分 部 320は、作成したテーブルを統合して、図 7に示す区分されたシナリオ 321を作成 する。具体的には、シナリオ区分部 320は、主体ごとに生成されたテーブルを、同一 シーンに対応するものでまとめて 1つのシナリオ区分とし、かつ、元のシナリオ 230の 順序に沿うようにシナリオ区分とディレクシヨンの項目および値を並び替える。
[0094] この結果、図 7に示すように、 2つのシーン区分 322に区分されたシナリオ 321が得 られる。区分されたシナリオ 321において、シーン 2およびシーン 3は、 1つのシナリオ 区分にまとめられる。すなわち、シーン 2およびシーン 3は、キャラクタの服飾が連続 する区間であることが決定される。区分されたシナリオ 321は、服飾決定部 350に出 力される。
[0095] 次に、ステップ S3300では、服飾決定部 350で、シナリオ区分ごとに服飾決定処理 を実行する。具体的には、キャラクタデータベース 330に格納されたキャラクタデータ テーブル 331 (図 8参照)ならびに服飾決定ルールデータベース 340に格納された第 1の服飾決定ルールテーブル 341 (図 9参照)および第 2の服飾決定ルールテープ ル 345 (図 10参照)を用いて、区分されたシナリオ(図 7参照)から、キャラクタの服飾 を決定し、服飾付きキャラクタデータを出力する。この服飾決定処理については、後 で詳細に説明する。
[0096] 次に、ステップ S3400では、シナリオ書替部 360で、ステップ S3300で決定した服 飾付きキャラクタデータを用いて、キャラクタ服飾決定部 300に入力されたシナリオの 書き替えを行い、書き替え後のシナリオ (服飾されたキャラクタを含む)を出力した後、 図 13のフローチャートにリターンする。具体的には、入力されたシナリオにおける、「 主体」と ヽぅ項目 233に対応する項目値 234を、ステップ S3300で決定した服飾付き キャラクタデータに書き替えて、書き替え後のシナリオを出力する。
[0097] 図 16は、図 15の服飾決定処理 (ステップ S3300)の内容を示すフローチャートであ る。この服飾決定処理は、服飾決定部 350によって実行される。
[0098] まず、ステップ S3310では、図 15のステップ S3200で区分されたシナリオ(図 7参 照)を構成するシナリオ区分およびそのシナリオ区分に含まれる主体のうち、キャラク タデータの決定および出力が完了していないものを 1つ選択する。
[0099] ステップ S3320では、服飾決定ルールデータベース 340に格納された第 1の服飾 決定ルールテーブル 341 (図 9参照)を用いて、入力した区分されたシナリオから服 飾の候補を列挙する。 [0100] 次に、ステップ S3330では、区分されたシナリオ 321における主体 323の名称と、 ステップ S3320で列挙した服飾の候補とを、それぞれキーとして、キャラクタデータべ ース 330に格納されたキャラクタデータテーブル 331 (図 8参照)を検索し、該当する キャラクタデータ 334を取得する。
[0101] 次に、ステップ S3340では、ステップ S3330の処理結果として、該当するキャラクタ データ 334が 1つもないか否かを判断する。この判断の結果として、該当するキャラク タデータ 334が 1つもない場合は(S3340 :YES)、ステップ S3350に進み、該当す るキャラクタデータ 334が 1つ以上ある場合は(S3340 :NO)、ステップ S3360に進 む。
[0102] ステップ S3350では、与えられた主体 323の名称と服飾とで該当するキャラクタデ ータを取得できなかったため、デフォルトの服飾に対応するキャラクタデータを検索 する。検索は、主体 323の名称のみをキーとして、キャラクタデータテーブル 331を検 索し、服飾 333が「デフォルト」のキャラクタデータ 334を取得した後、ステップ S3380 に進む。なお、キャラクタデータベース 330は、主体 323の名称のみをキーとして検 索を実行した場合、服飾 333が「デフォルト」のキャラクタデータ 334を抽出するように なっているものとする。さらに、主体 323の名称のみをキーとして検索しても該当する キャラクタデータ 334が得られな 、場合は、任意のキャラクタデータ 334を抽出するよ うになつているものとする。
[0103] ステップ S3360では、ステップ S3330の処理結果として、さらに、該当するキャラク タデータ 334が複数あるか否かを判断する。この判断の結果として、該当するキャラク タデータ 334が複数ある場合は(S3360 :YES)、ステップ S3370に進み、該当する キャラクタデータ 334が複数ない場合、つまり、該当するキャラクタデータ 334が 1つ のみの場合は(S3360 :NO)、ただちにステップ S3380に進む。
[0104] ステップ S3370では、複数の該当するキャラクタデータ 334を 1つに絞るために、服 飾決定ルールデータベース 340に格納された第 2の服飾決定ルールテーブル 345 ( 図 10参照)に記述されたメタ知識 347を ID346の順序に従い 1つずつ適用して、 1 つのキャラクタデータ 334を決定する。
[0105] 具体的には、まず、「ID1」という ID346のメタ知識 347を適用し、キャラクタデータ 3 34の絞り込みを試みる。適用の結果、 1つのキャラクタデータに絞り込まれない場合 には、次の「ID2」という ID346のメタ知識 347を適用する。以降、同様に、 1つのキヤ ラクタデータに絞り込まれるまでメタ知識 347を順に適用していく。
[0106] ステップ S3380では、ステップ S3330、ステップ S3350、またはステップ S3370で 得られた唯一のキャラクタデータ 334を出力する。
[0107] ステップ S3390では、未処理のシナリオ区分と主体との組み合わせが残っているか 否かを判断する。この判断の結果として、未処理のシナリオ区分と主体との組み合わ せが残っている場合は(S3390 :YES)、ステップ S3310に戻り、すべてのシナリオ 区分と主体との組み合わせについて処理を完了した場合は(S3390 : NO)、図 15の フローチャートにリターンする。この結果、ステップ S3320〜S3380の一連の処理は 、区分されたシナリオ 321のシナリオ区分ごとおよび主体ごとに行われるため、最終 的に服飾決定部 350から出力されるキャラクタデータ 334の数は、区分されたシナリ ォ 321におけるシナリオ区分と主体との組み合わせの数に等しくなる。
[0108] 例えば、図 7に示す区分されたシナリオ 321の「シナリオ区分 1」の場合、図 9の服飾 決定ルールテーブル 341において、記述された言語情報 344に該当するのは、組 3 41— 1のみである。したがって、「花子」の服飾 343の候補として、対応する服飾「スキ 一ウェア」のみが抽出され、 1つのキャラクタデータ「Hana_skiwear.cg」に絞り込まれる ため、キャラクタデータ「Hana_skiwear.cg」が出力される。
[0109] 一方、 2つ目のシナリオ区分である「シナリオ区分 2」の場合、主体「花子」にのみ着 目すると、図 9の服飾決定ルールテーブル 341において、記述された言語情報 344 に該当するのは、糸且 341— 2と糸且 341— 8の 2つである。すなわち、該当するキャラク タデータは、「浴衣」に対応する「Hanajoikata.cg」と、「外出着」に対応する「Hana_str eet.cg」の 2つである。したがって、まず、図 10に示す第 2の服飾決定ルールテープ ル 345の「ID1」という ID346のメタ知識 347を適用する。ところが、組 341— 2と組 34 1— 8の!、ずれも ANDを含まな!/、ため、次の「ID2」と!、う ID346のメタ知識 347を適 用する。ところが、直前の服装である「スキーウエア」は選択肢に含まれていないため 、次の「ID3」という ID346のメタ知識 347を適用する。ところが、組 341— 2と組 341 - 8の 、ずれも「場所」に関する言語情報のみであるため、次の「ID4」 t 、う ID346 のメタ知識 347を適用する。この結果、ルール IDの優先順位の高い組 341— 2に対 応する服飾「浴衣」のみが抽出され、キャラクタデータ「Hana_yukata.cg」が出力される
[0110] すなわち、各シナリオ区分において、抽出されたキャラクタデータ 334は 1つのみで あり、「スキーウエア」と「浴衣」がそれぞれ最終的な出力となる。
[0111] 服飾の連続性を考慮しない場合には、例えば、図 4に示すシナリオ 230のシーン 2 に対して、服飾「外出着」が決定される可能性がある。 日本旅館に立ち寄って食事を するだけの場合には、キャラクタの服飾として外出着が相応しい。ところが、食事に続 けて宿泊する場合には、外出着よりも浴衣が相応しい。このように、服飾の連続性を 考慮することによって、より適切な服飾を決定することが可能となる。
[0112] なお、仮に、区分されたシナリオの同一シナリオ区分に「場所:日本旅館」と「演技: 泳ぐ」とが存在する場合、ステップ S3320では、第 1の服飾決定ルールテーブル 341 の組 341— 2と組 341— 3力 、「浴衣」と「水着」の 2つの服飾候補が得られる。この 場合、該当するキャラクタデータ 334が複数存在するため、第 2の服飾決定ルールテ 一ブル 345に記述されたメタ知識 347を 1つずつ適用する。
[0113] 具体的には、組 345— 1に記述されたメタ知識 347は、「ANDで接続された条件の 厳しいルール結果を採用する」というものであり、この場合、第 1の服飾決定ルールテ 一ブル 341の組 341— 2と組 341— 3は、どちらも、同程度の条件であるため、次のメ タ知識 347を適用する。次の組 345— 2に記述されたメタ知識 347は、「直前の服装 を引き継ぐ」というものであり、この場合、いずれも直前の服装がないため、同じく次の メタ知識 347を適用する。次の組 345— 3に記述されたメタ知識 347は、「項目に以 下の優先順位を用いる」というものであり、「演技」が「場所」よりも優先されると記述さ れているため、ここで、「演技:泳ぐ」の言語情報 344が適用され、服飾 343は「水着」 に決定される。なお、仮に、ここでも 1つに絞れな力つた場合は、最後の組 345— 4に 記述されたメタ知識 347である「ルール IDの昇順で優先順をつける」が適用され、必 ず 1つに絞ることができるようになつている。
[0114] 図 17は、図 13のアニメーション生成処理 (ステップ S4000)の内容を示すフローチ ヤートである。なお、このアニメーション生成処理は、アニメーション生成部 400によつ て実行される。また、ステップ S4200〜ステップ S4500の処理の具体的な内容は、 例えば、特開 2005— 44181号公報に詳細に記載されているため、ここでは詳細な 説明を省略する。
[0115] まず、ステップ S4100では、図 15のステップ S3400で出力された書き替え後のシ ナリオ (服飾付きキャラクタデータを含む)(図 11参照)を入力したカゝ否かを判断する。 この判断の結果として、書き替え後のシナリオを入力した場合は(S4100 : YES)、ス テツプ S4200に進み、書き替え後のシナリオを入力して ヽな 、場合は(S4100: NO )、書き替え後のシナリオを入力するまで待機する。
[0116] ステップ S4200では、入力した書き替え後のシナリオ 370の場所や主体の演技か ら、キャラクタの配置を決定する。「配置」には、具体的な座標や姿勢が含まれる。キ ャラクタの配置を決定する最も単純な方法は、例えば、場所と演技の組み合わせごと にどこにキャラクタを配置すべきかをあら力じめ記憶したデータベースを参照する方 法である。
[0117] 次に、ステップ S4300では、入力した書き替え後のシナリオ 370の主体の演技から 、キャラクタのモーションを決定する。「モーション」には、具体的な姿態の形状やタイ ミング、時間が含まれる。キャラクタのモーションを決定する最も単純な方法は、例え ば、演技とモーションを 1対 1に対応付けたデータベースを参照する方法である。
[0118] 次に、ステップ S4400では、入力した書き替え後のシナリオ 370の場所や主体の演 技から、カメラワークやライティングなどの演出を決定する。演出を決定する最も単純 な方法は、例えば、演技と演出を 1対 1に対応付けたデータベースを参照する方法で ある。
[0119] 次に、ステップ S4500では、入力したシナリオに含まれるキャラクタならびにステツ プ S4200〜ステップ S4400でそれぞれ決定した配置情報、モーション情報、および 演出情報で構成されるアニメーションを出力する。
[0120] このように、本実施の形態によれば、意味辞書データベース 210を用いて、入力さ れたテキスト文カゝらシナリオを抽出し、服飾連続判定ルールデータベース 310を用い て、シナリオを服飾の連続単位で区分し、キャラクタデータベース 330および服飾決 定ルールデータベース 340を用いて、区分されたシナリオ力もキャラクタの服飾を決 定する。したがって、ユーザによる服飾指定や、ユーザの環境情報を用いることなぐ 入力されたテキスト文の内容、つまり生成されたシナリオの内容に合致するキャラクタ の服飾を決定することができる。
[0121] 具体的には、意味辞書を用いることにより、テキスト文力 キャラクタの服飾を決定 する上で必要なシナリオを抽出し、服飾連続判定ルールを用いることにより、シナリオ を服飾の連続単位で区分し、キャラクタデータベースと服飾決定ルールを用いること により、区分されたシナリオ力 キャラクタの服飾を決定する。
[0122] 例えば、テキスト文に「泳いでいます。」という言葉が含まれている場合、キャラクタ は、水着を着た状態で表示され、また、テキスト文に「面接会場まで来ました。」という 言葉が含まれている場合、キャラクタは、スーツを着た状態で表示されることが可能に なる。これにより、ユーザによる服飾指定や、ユーザの環境情報を用いることなぐシ ナリオの内容に合致するキャラクタの服飾を自動的に決定することができる。
[0123] また、メッセージの内容が多く、かつ長 、シナリオになると、生成するアニメーション は、複数の演技や複数の人物、複数のシーンで構成される。このような場合において 、キャラクタの服飾を決定するためには、複数の言語情報をいかに処理するか、矛盾 や競合をいかに解消する力 さらに、服飾をどこまで連続しどのタイミングで変えるか をいかに判定するか力 重要なポイントになる。
[0124] この点、本実施の形態によれば、服飾連続判定ルールデータベース 310を設けた ため、服飾をどこまで連続しどのタイミングで変えるかを判定することができる。また、 第 1の服飾決定ルールテーブル 341と第 2の服飾決定ルールテーブル 345を含む 服飾連続判定ルールデータベース 310を設けたため、複数の言語情報を処理する ことができるとともに、たとえ矛盾や競合があった場合にも、その矛盾や競合を解消し て、 1つの服飾を決定することができる。
[0125] また、シナリオにおける服飾決定の標準の区分 (ディレクシヨンなど)において、区分 されたシナリオに情報が乏しい場合、シナリオの内容に相応しくない服飾が決定され てしまう可能性がある。
[0126] この点、本実施の形態によれば、服飾の連続する複数の区分を一まとまりとして扱 い、より多くの情報に基づいて服飾を決定できるため、シナリオの内容により相応しい 服飾を決定することができる。
[0127] なお、本実施の形態では、シナリオ区分が 1つまたは複数のシーンで構成されるよ うな服飾連続判定ルールを適用した場合について説明したが、これに限定されるも のではない。ディレクシヨンなど、シナリオ区分が他の単位で構成されるような服飾連 続判定ルールを適用してもよい。例えば、あるシーンの途中から他のシーンの途中ま で力 S1つのシナリオ区分となるような服飾連続判定ルールを適用してもよい。
[0128] また、図 9に示す第 1の服飾決定ルールテーブルを書き換えることにより、例えば、「 水着一〉"演技:スキーをする"」、「タキシード—〉"演技:泳ぐ"」等、遊び心のある服 飾を決定することができる。
[0129] また、服飾連続判定ルールテーブル、第 1の服飾決定ルールテーブル、第 2の服 飾決定ルールテーブル、キャラクタデータテーブルなどのテーブルを複数種類用意 し、元のテキスト文の種類や、ユーザの嗜好に応じて、切り替えて用いるようにしても よい。これにより、シナリオの内容により合致したキャラクタの服飾や、ユーザの嗜好 に沿ったキャラクタの服飾を決定することが可能となる。
[0130] また、本実施の形態では、本発明に係るキャラクタ服飾決定装置を搭載したアニメ ーシヨン作成装置を携帯電話機に適用する場合を例にとって説明したが、これに限 定されるわけではなぐアニメーションを構成する各種のハードウェアやアプリケーショ ンソフトウェア、サービスにも適用することができる。
[0131] 本発明の一態様に係るキャラクタ服飾情報生成装置は、入力されたテキスト文から 得られる言語情報力 キャラクタの服飾を自動的に生成する服飾情報生成装置にお V、て、服飾の継続性を判定するための服飾継続判定ルールを記憶する服飾継続判 定ルール記憶部と、前記服飾継続判定ルール記憶部を参照して、キャラクタの服飾 を決定するための言語情報を区分する言語情報区分部と、前記言語情報と服飾の 関係を示す第 1の服飾決定ルールを記憶する服飾決定ルール記憶部と、前記服飾 決定ルール記憶部を参照して、前記言語情報区分部によって区分された言語情報 から、キャラクタの服飾を決定する服飾決定部と、を有する構成を採る。
[0132] 本発明の他の態様に係るキャラクタ服飾情報生成方法は、入力されたテキスト文か ら得られる言語情報力 キャラクタの服飾を自動的に生成する服飾情報生成方法に ぉ 、て、服飾の継続性を判定するための服飾継続判定ルールを記憶する服飾継続 判定ルール記憶部を参照して、キャラクタの服飾を決定するための言語情報を区分 する言語情報区分ステップと、前記言語情報と服飾の関係を示す第 1の服飾決定ル ールを記憶する服飾決定ルール記憶部を参照して、前記言語情報区分ステップで 区分した言語情報から、キャラクタの服飾を決定する服飾決定ステップと、を有するよ うにした。
[0133] 本発明のさらに他の態様に係るキャラクタ服飾情報生成プログラムは、入力された テキスト文力 得られる言語情報力 キャラクタの服飾を自動的に生成するための服 飾情報生成プログラムにお 、て、服飾の継続性を判定するための服飾継続判定ル ールを記憶する服飾継続判定ルール記憶部を参照して、キャラクタの服飾を決定す るための言語情報を区分する言語情報区分ステップと、前記言語情報と服飾の関係 を示す第 1の服飾決定ルールを記憶する服飾決定ルール記憶部を参照して、前記 言語情報区分ステップで区分した言語情報から、キャラクタの服飾を決定する服飾 決定ステップと、をコンピュータに実行させるようにしたものである。
[0134] 2006年 5月 30日出願の特願 2006— 150364の日本出願に含まれる明細書、図 面および要約書の開示内容は、すべて本願に援用される。
産業上の利用可能性
[0135] 本発明に係るキャラクタ服飾決定装置は、ユーザによる服飾指定や、ユーザの環境 情報を用いることなぐシナリオの内容に合致するキャラクタの服飾を決定することが できるものであって、携帯電話機をはじめとする携帯端末装置や、パソコン、ゲーム 機などとして有用である。

Claims

請求の範囲
[1] シナリオ力 キャラクタの服飾を決定するキャラクタ服飾決定装置において、
前記キャラクタの服飾の連続性に基づいて前記シナリオを区分するシナリオ区分部 と、
前記シナリオ区分部によって区分されたシナリオのシナリオ区分毎に、前記シナリ ォ区分の内容に基づいて前記キャラクタの服飾を決定する服飾決定部と、
を有するキャラクタ服飾決定装置。
[2] 前記シナリオは、言語情報の項目と前記項目の内容を示す項目値とを含み、 前記言語情報の項目と語彙の組で構成される意味辞書を記憶する意味辞書記憶 部と、
前記意味辞書を参照し、テキスト文に含まれる言語情報を前記項目と対応付けて 前記シナリオを生成するシナリオ生成部と、をさらに有する、
請求項 1記載のキャラクタ服飾決定装置。
[3] 前記シナリオは、前記項目として、キャラクタの服飾の指定、キャラクタの演技、キヤ ラクタの名称、演技の対象相手、キャラクタの感情、キャラクタ演技の目的、シーンの 形容詞表現、シーンの場所、シーンの時、シーンの天候、および文中の絵文字のう ち、少なくとも 1つを含む、
請求項 1記載のキャラクタ服飾決定装置。
[4] 前記キャラクタの服飾が連続する条件を示す服飾連続判定ルールを記憶する服飾 連続判定ルール記憶部、をさらに有し、
前記シナリオ区分部は、
前記服飾連続判定ルールを参照して前記シナリオの前記キャラクタの服飾が連続 する区分を判定し、判定した区分で前記シナリオを区分する、
請求項 1記載のキャラクタ服飾決定装置。
[5] 前記シナリオと前記キャラクタの服飾の関係を示す第 1の服飾決定ルールを記憶す る服飾決定ルール記憶部、をさらに有し、
前記服飾決定部は、
前記第 1の服飾決定ルールを参照して前記キャラクタの服飾を決定する、 請求項 1記載のキャラクタ服飾決定装置。
[6] 前記第 1の服飾決定ルールは、論理記号を用いて複数組の言語情報を結合して 構成される、
請求項 5記載のキャラクタ服飾決定装置。
[7] 前記服飾決定ルール記憶部は、
前記第 1の服飾決定ルールを適用した場合の矛盾または競合を解消するメタ知識 を示す第 2の服飾決定ルールを記憶し、
前記服飾決定部は、
前記第 2の服飾決定ルールを参照して前記キャラクタの服飾を決定する、 請求項 1記載のキャラクタ服飾決定装置。
[8] キャラクタの名称と服飾にキャラクタデータを対応付けたキャラクタデータテーブル を記憶するキャラクタデータ記憶部、をさらに有し、
前記服飾決定部は、
前記キャラクタデータテーブルを参照して、決定したキャラクタの服飾に対応する服 飾付きのキャラクタデータを抽出する、
請求項 1記載のキャラクタ服飾決定装置。
[9] 前記キャラクタデータは、キャラクタの実体を指定するポインタである、
請求項 8記載のキャラクタ服飾決定装置。
[10] シナリオ力 キャラクタの服飾を決定するキャラクタ服飾決定方法にぉ 、て、前記キ ャラクタの服飾の連続性に基づいて前記シナリオを区分するシナリオ区分ステップと 前記シナリオ区分ステップによって区分されたシナリオのシナリオ区分毎に、前記シ ナリオ区分の内容に基づいて前記キャラクタの服飾を決定する服飾決定ステップと、 を有するキャラクタ服飾決定方法。
[11] シナリオ力 キャラクタの服飾を決定する処理をコンピュータに実行させるためのキ ャラクタ服飾決定プログラムにお 、て、
前記キャラクタの服飾の連続性に基づいて前記シナリオを区分するシナリオ区分処 理と、 前記シナリオ区分処理によって区分されたシナリオのシナリオ区分毎に、前記シナ リオ区分の内容に基づいて前記キャラクタの服飾を決定する服飾決定処理と、 をコンピュータに実行させるためのキャラクタ服飾決定プログラム。
PCT/JP2007/060365 2006-05-30 2007-05-21 キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム WO2007138911A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/302,866 US8140460B2 (en) 2006-05-30 2007-05-21 Character outfit autoconfiguration device, character outfit autoconfiguration method, and character outfit autoconfiguration program
JP2008517850A JP4869340B2 (ja) 2006-05-30 2007-05-21 キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-150364 2006-05-30
JP2006150364 2006-05-30

Publications (1)

Publication Number Publication Date
WO2007138911A1 true WO2007138911A1 (ja) 2007-12-06

Family

ID=38778430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/060365 WO2007138911A1 (ja) 2006-05-30 2007-05-21 キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム

Country Status (4)

Country Link
US (1) US8140460B2 (ja)
JP (1) JP4869340B2 (ja)
CN (1) CN101375314A (ja)
WO (1) WO2007138911A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118992A (ja) * 2014-12-22 2016-06-30 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
JP2020140326A (ja) * 2019-02-27 2020-09-03 みんとる合同会社 コンテンツ生成システム、及びコンテンツ生成方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101473335B1 (ko) * 2008-02-05 2014-12-16 삼성전자 주식회사 애니메이션 기반의 메시지 전송을 위한 장치 및 방법
US9319640B2 (en) * 2009-12-29 2016-04-19 Kodak Alaris Inc. Camera and display system interactivity
WO2012055100A1 (en) * 2010-10-27 2012-05-03 Nokia Corporation Method and apparatus for identifying a conversation in multiple strings
CN103645903B (zh) * 2013-12-18 2016-06-08 王飞 一种脚本生成装置及方法
US10074200B1 (en) * 2015-04-22 2018-09-11 Amazon Technologies, Inc. Generation of imagery from descriptive text
CN105574912A (zh) * 2015-12-15 2016-05-11 南京偶酷软件有限公司 一种自然语言转换为动画分镜头剧本数据的方法
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10454857B1 (en) * 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US11199957B1 (en) * 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US11748570B2 (en) 2020-04-07 2023-09-05 International Business Machines Corporation Automated costume design from dynamic visual media
CN113050795A (zh) * 2021-03-24 2021-06-29 北京百度网讯科技有限公司 虚拟形象的生成方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123976A (ja) * 1994-10-28 1996-05-17 Matsushita Electric Ind Co Ltd アニメーション作成装置
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09153145A (ja) * 1995-12-01 1997-06-10 Matsushita Electric Ind Co Ltd エージェント表示装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054897B2 (ja) 1998-03-26 2008-03-05 雅信 鯨田 会話のための装置
JP2001167287A (ja) * 1999-10-25 2001-06-22 Cmaker Corp キャラクター生成方法及びそれを利用した絵文書生成方法
JP2003346173A (ja) * 2002-05-24 2003-12-05 Tokei Jikake:Kk キャラクタ・アニメーションの配信システム
JP2005149481A (ja) * 2003-10-21 2005-06-09 Zenrin Datacom Co Ltd 音声認識を用いた情報入力を伴う情報処理装置
US7812840B2 (en) * 2004-11-30 2010-10-12 Panasonic Corporation Scene modifier representation generation apparatus and scene modifier representation generation method
US7973793B2 (en) * 2005-06-10 2011-07-05 Panasonic Corporation Scenario generation device, scenario generation method, and scenario generation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123976A (ja) * 1994-10-28 1996-05-17 Matsushita Electric Ind Co Ltd アニメーション作成装置
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09153145A (ja) * 1995-12-01 1997-06-10 Matsushita Electric Ind Co Ltd エージェント表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TERASAKI T. ET AL.: "Object Shiko ni yoru Dosa Data no Kanri Shuho to Shizen Gengo Kara no Animation Seisei System (An Object-Orientated Motion Database and Animation System Using Natural Language)", VISUAL COMPUTING GRAPHICS AND CAD GODO SYMPOSIUM 2004 YOKOSHU, 3 June 2004 (2004-06-03), pages 197 - 202, XP003019810 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118992A (ja) * 2014-12-22 2016-06-30 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
JP2020140326A (ja) * 2019-02-27 2020-09-03 みんとる合同会社 コンテンツ生成システム、及びコンテンツ生成方法

Also Published As

Publication number Publication date
CN101375314A (zh) 2009-02-25
US8140460B2 (en) 2012-03-20
JPWO2007138911A1 (ja) 2009-10-01
JP4869340B2 (ja) 2012-02-08
US20100010951A1 (en) 2010-01-14

Similar Documents

Publication Publication Date Title
JP4869340B2 (ja) キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム
JP5980432B2 (ja) 拡張現実見本の生成
CN104933113B (zh) 一种基于语义理解的表情输入方法和装置
US11620001B2 (en) Pictorial symbol prediction
CN113569088B (zh) 一种音乐推荐方法、装置以及可读存储介质
US20140164506A1 (en) Multimedia message having portions of networked media content
CN104854539B (zh) 一种对象搜索方法及装置
US20140164507A1 (en) Media content portions recommended
US20140163980A1 (en) Multimedia message having portions of media content with audio overlay
Waugh ‘My laptop is an extension of my memory and self’: Post-Internet identity, virtual intimacy and digital queering in online popular music
CN115212561B (zh) 基于玩家的语音游戏数据的服务处理方法及相关产品
US20150067538A1 (en) Apparatus and method for creating editable visual object
CN107786432A (zh) 信息展示方法、装置、计算机装置及计算可读存储介质
CN108885555A (zh) 基于情绪的交互方法和装置
CN113746874A (zh) 一种语音包推荐方法、装置、设备及存储介质
CN114969282B (zh) 基于富媒体知识图谱多模态情感分析模型的智能交互方法
CN111813236B (zh) 输入方法、装置、电子设备及可读存储介质
Johnson Josō or “gender free”? Playfully queer “lives” in visual kei
CN110837307A (zh) 一种输入法及其系统
CN110489581A (zh) 一种图像处理方法和设备
JP2012253673A (ja) Html文書に基づく短編動画作品の自動制作
Calderon Body politix: QTIBPOC/NB drag revolutions in Vancouver
CN111324466A (zh) 信息处理方法、设备、系统及存储介质
CN112040329B (zh) 动态处理并播放多媒体内容的方法及多媒体播放装置
CN117009574B (zh) 热点视频模板的生成方法、系统、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743799

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 200780003281.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2008517850

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12302866

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 07743799

Country of ref document: EP

Kind code of ref document: A1