WO2005071616A1 - 画像作成装置および画像作成方法 - Google Patents

画像作成装置および画像作成方法 Download PDF

Info

Publication number
WO2005071616A1
WO2005071616A1 PCT/JP2005/000989 JP2005000989W WO2005071616A1 WO 2005071616 A1 WO2005071616 A1 WO 2005071616A1 JP 2005000989 W JP2005000989 W JP 2005000989W WO 2005071616 A1 WO2005071616 A1 WO 2005071616A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
character
input
character string
name
Prior art date
Application number
PCT/JP2005/000989
Other languages
English (en)
French (fr)
Inventor
Koichi Emura
Toshiyuki Tanaka
Yuji Okada
Katsunao Takahashi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/597,464 priority Critical patent/US7797330B2/en
Priority to EP05704126A priority patent/EP1703468A1/en
Publication of WO2005071616A1 publication Critical patent/WO2005071616A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the present invention relates to an image creating apparatus and an image creating method for creating computer 'graphics from text.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2001-307137
  • the engine for searching for material data and the engine for creating computer 'graphics are different. Therefore, the search engine is activated to search for material data, and then the material data is searched, and then the computer's engine for creating graphics is reactivated, and the computer 'graphics using the searched material data Process of creating Need to move to For this reason, it is possible that the scenario considered before the search is forgotten during the search process and the scenario considered is recalled when the computer's processing for creating the graphics is performed again. In addition, when you move on to the process of creating computer graphics, you may even forget what the retrieved material data was.
  • the retrieved material data may be frequently used by the user.
  • the searched material data since the searched material data is not managed, there is a problem that the same material data is searched many times.
  • An object of the present invention is to provide an image forming apparatus and an image forming method capable of easily using searched material data as well as performing a computer 'graphics creation process and a search of material data by a series of operations. To provide.
  • a character data in which material data for creating computer's graphics are associated with a set of material names of the material data], a material correspondence table, and a feature hierarchy of material data A hierarchical structure description to be described is provided, and when there is a feature input, material data corresponding to the feature is searched using the hierarchical structure description, and the searched material data is stored and searched.
  • the material name of the material data and material data is registered in the text IJ ⁇ material correspondence table, and when the material name is input, the material data corresponding to the material name is acquired using the character string ⁇ material correspondence table.
  • the computer's graphics were made using acquired material data.
  • the computer 'graphics creation process and the search of material data can be performed by a series of operations, and the searched material data can be easily used thereafter.
  • FIG. 1 is a block diagram of an image creating apparatus according to an embodiment of the present invention.
  • FIG. 2 A first diagram showing a description example of character data to be applied to the present embodiment.
  • FIG. 3 A second diagram showing a description example of character data to be applied to the present embodiment.
  • FIG. 6 A block diagram of the character, character correspondence table of force, light according to the present embodiment.
  • FIG. 8 Power of the present embodiment, a block diagram of the character ⁇ IJ ⁇ set correspondence table
  • FIG. 10 A diagram showing an example of description of search results for a metadata database according to the present embodiment.
  • Plane 11 A first diagram showing the concept of hierarchical structure description according to the present embodiment.
  • FIG. 12 A first diagram showing an example of description of hierarchical structure description according to the present embodiment.
  • FIG. 13 A second diagram showing a description example of the hierarchical structure description according to the present embodiment.
  • FIG. 15 A diagram showing a GUI displayed at the time of creating an animation that contributes to the present embodiment.
  • FIG. 16 Configuration of GUI displayed when searching for material data that contributes to the present embodiment
  • FIG. 17 Flow chart of the image creating apparatus scenario determination process according to the present embodiment 18] Flow chart of set determination process of the image creating apparatus according to the present embodiment solid 19) Image creation according to the present mode Diagram for explaining the set determination process of the device
  • FIG. 20 Flow chart of character determination process of image forming apparatus according to the present embodiment 21] A figure for explaining character determination process of the image forming apparatus according to the present embodiment.
  • FIG. 22 is a flowchart of operation determination processing of the image generation apparatus according to the present embodiment.
  • FIG. 23 is a diagram for explaining operation determination processing of the image generation device according to the present embodiment. The flow of object determination processing of the image creation device
  • FIG. 25 A diagram for explaining the object determining process of the image creating apparatus according to the present embodiment.
  • FIG. 26 A diagram for explaining scenario input of the image creating apparatus according to the present embodiment.
  • FIG. 27 A diagram for explaining the relationship of the objects that contributes to the present embodiment.
  • FIG. 28 A flowchart of a search process of an image creation apparatus according to the present embodiment
  • FIG. 29 A flowchart of material data search processing of an image creating apparatus according to the present embodiment.
  • FIG. 30 A first diagram for explaining material data search processing of an image creating apparatus according to the present embodiment.
  • FIG. 31 A second diagram for explaining the material data search process of the image creation device according to the present embodiment.
  • FIG. 1 is a block diagram of an image forming apparatus according to the present embodiment.
  • the image creating apparatus 100 is provided with a CPU 101 that controls the entire apparatus.
  • the CPU 101 also operates as a processing unit having various functions by loading a program stored in the HDD 102 into the RAM 103 and executing the program.
  • the image creating apparatus 100 is provided with an input unit 104 such as a keyboard and a mouse. Further, the image creating apparatus 100 is provided with a monitor 105 as a display means.
  • a character data database 108 storing character data 112, animation data of computer 'graphics, an action data database 109 storing action data 113, and set data 114 are provided.
  • a transmitting / receiving unit 106 is provided which receives character data, operation data and set data via the stored set data database 110, the Internet 107. The transmitting and receiving unit 106 also receives metadata from the metadata database 111.
  • the image creating apparatus 100 further includes a character data storage unit 115 storing a plurality of character data 112 acquired via the Internet 107 and an operation for storing a plurality of operation data 113 acquired via the Internet 107.
  • a data storage unit 116 and a set data storage unit 117 for storing a plurality of set data 114 acquired via the Internet 107 are provided.
  • Metadata is material data, and character data 112, motion data 113, and Metadata for explaining the set data 114.
  • the metadata describes the feature of the corresponding material data, the thumbnail image, the link address to the material data, and the like. The details of the metadata will be described later.
  • the character data 112 is a group of parameters such as vertex coordinates of the character.
  • the motion data 113 is a group of parameters for causing the character to perform a predetermined motion.
  • the parameters include rotation matrix and movement matrix.
  • the set data 114 is a group of parameters such as vertex coordinates of set data which is information of a set such as an object operable on a place or a character. The details of the character data 112, the operation data 113, and the set data 114 will be described later.
  • Character data 112 is associated with a predetermined character string (subject noun character string).
  • the character string and character correspondence table storage unit 119 stores the character string and character correspondence table 118 in which the character string and the character data 112 are stored in association with each other. Correspondence with the character data 112 to be
  • the image creating apparatus 100 is provided with a character / action correspondence table storage unit 121 for storing a character / action correspondence table 120 for obtaining correspondence between the character data 112 and the action data 113.
  • a character string / set correspondence table for obtaining correspondence between a predetermined character string (place name character string), the set data 114, and an object included in the set data 114.
  • a character set for storing a set correspondence table storage unit 123 is provided.
  • the operation data 113 includes an operation using an object included in the set data 114 and an operation not using the object. Therefore, the image creating apparatus 100 is provided with a motion dictionary storage unit 125 storing a motion dictionary 124 in which information on whether or not the verb data 113 uses an object is described.
  • the image generation apparatus 100 is provided with an input control unit 126.
  • Input control unit 12 6 extracts a place name character string representing a place, a subject noun character string representing a subject, and a verb character string representing an action from the scenario input to the input unit 104, and sends it to the character string * CG conversion processing unit 131.
  • the character string 'CG conversion processing unit 131 refers to the character / one-character correspondence table 118, the character / action correspondence table 120, the character string' set correspondence table 122, and the action dictionary 124, and transmits from the input control unit 126. Character data 112, action data 113, and set data 114 corresponding to the received character string are selected. Then, the character string 'CG conversion processing unit 131 selects the selected character data.
  • operation data 113 and set data 114 are sent to the display control unit 127.
  • the display control unit 127 creates computer's graphics based on the sent character data 112, operation data 113, and set data 114, and displays it on the monitor 105.
  • the image creation device 100 is provided with a search unit 128.
  • the search unit 128 acquires a plurality of metadata stored in the metadata database 111, extracts features from the acquired plurality of metadata, and manages it as a hierarchical structure description 130. Details of the hierarchical structure description 130 will be described later.
  • the search unit 128 refers to the hierarchical structure description 130 and detects a feature whose character string sent from the input control unit 126 partially matches. Then, the search unit 128 sends the detected feature to the display control unit 127.
  • the search unit 128 sends information related to the character data 112, the operation data 113, and the set data 114 corresponding to the feature selected from the list of features sent from the input control unit 126 to the registration unit 129.
  • the registration unit 129 receives the sent character data 112, the operation data 113, and the set data 1.
  • the image creating apparatus 100 is configured.
  • FIGS. 2 and 3 are diagrams showing an example of description of the character data 112.
  • the character data 112 is described in BAC format (Ver. 6.0), but may be other description examples.
  • the character data 112 includes coordinate values indicating the basic posture of the character as indicated by 201 in the figure, the type of character display method as indicated by 202 in the figure, and the character type as indicated by 203 in the figure. And the data of polygons used for the character as shown in FIG.
  • the description method of the set data 114 is also the same as the description method of the character data 112, and thus the detailed description will be omitted.
  • FIG. 4 and FIG. 4 and 5 show examples of description of the operation data 113.
  • FIG. In the present embodiment, the operation data 113 is described in TRA format (Ver. 4.0), but may be other description examples.
  • Movement data 113 includes movement in each coordinate direction as indicated by 401a-401 in the figure, enlargement / reduction with respect to each coordinate direction as indicated by 402a-402f in the figure, and each as indicated by 403a-403f in the figure.
  • the vector to the direction, the rotation angle of the center as shown in 404a-404f in the figure, is described and re-.
  • Character] character correspondence table 118 represents the features of subject noun character string 601 which is the name of character data 112, link information 602 to character data 112 corresponding to subject noun character string 601, and character data 112. It is a table that has multiple sets of character adjective strings 603.
  • link information 602 to a plurality of character data 112 is associated with one subject noun character string 601. That is, one subject noun string 601 has at least one or more character data 112.
  • the character string 'CG conversion processing unit 131 refers to the character-to-character correspondence table 118, and the subject noun character string 601 corresponding to the character string input from the input unit 104. It is possible to easily detect whether or not the subject noun string 601 is sent to the display control unit 127. In addition, the character string 'CG conversion processing unit 131 can easily detect the acquisition destination of the character data 112 for the input character string (subject noun character string 601) by referring to the character ⁇ IJ' character correspondence table 118. .
  • FIG. 7 is a configuration diagram of a character's operation correspondence table 120 that is applied to the present embodiment.
  • Character 'action correspondence table 120 includes character data name 701, verb string 702, expression name string 703 corresponding to verb string 702, and action data 113 corresponding to verb string 702. It is a table having a plurality of sets of link information 704 and.
  • a plurality of verb strings 702 are associated with one character data name 701. That is, one character data 112 has at least one or more operation data 113.
  • link information 704 to a plurality of action data is associated with one verb string 702.
  • one or more expression name strings 703 may be associated with one verb string 702.
  • action data 113 having at least one expression is associated with one verb string 702.
  • Character string 'CG conversion processing section 131 easily detects whether there is a verb string 702 corresponding to an action that the character input from input section 104 can perform by referring to character' action correspondence table 120.
  • the list of verb strings 702 can be sent to the display control unit 127.
  • the character string 'CG conversion processing unit 131 can easily detect the acquisition destination of the operation data 113 for the input verb string 702 by referring to the character' operation correspondence table 120.
  • FIG. 8 is a block diagram of the character / set correspondence table 122. As shown in FIG. 8
  • the character string 'set correspondence table 122 includes objects of the place name character string 801, the link information 802 of the set data 114 corresponding to the place name character string 801, and the set data 114 corresponding to the place name character string 801.
  • Name 803 represents the feature of the object indicated by object name 803 It is a table having a plurality of combinations of an object adjective character string 804 and an object parameter 805 such as the position, size, and action range of an object.
  • link information 802 to a plurality of set data is associated with one place name character string 801. That is, one place name string 802 has at least one set data 114 or more.
  • a plurality of object names 803 are associated with link information 802 to one set data 114. That is, at least one object 803 is associated with one set data 114.
  • String “CG conversion processing unit 131 can easily detect whether the location name character string 801 input from the input unit 104 can be used or not by referring to the string / set correspondence table 122, and the location name A list of character strings 801 can be sent to the display control unit 127.
  • the character string 'CG conversion processing unit 131 can easily detect the acquisition destination of the set data 114 for the input location name character string by referring to the character / set correspondence table 122.
  • FIG. 9 is a block diagram of the action dictionary 124. As shown in FIG.
  • the action dictionary 124 describes information on whether a plurality of verb strings and a verb string require an object.
  • a verb string describing "cow” for example, "sit on” means that an object is required behind it.
  • a verb string for example, rsand up in which "*" is described means that an object is required in between.
  • a verb string (for example, “made up”) in which "hi” and "*" are written means that an object is required between and after.
  • the character string 'CG conversion processing unit 131 can easily detect whether the input verb unit 104 needs an object or not and the position thereof by referring to the motion dictionary 124. Information as to whether or not an object is required can be sent to the display control unit 127.
  • FIG. 10 is a diagram showing an example of description of search results in the metadata database.
  • the search result 1000 for the metadata database shown in FIG. 10 is described in XML based on the element “SearchRe sultsj.
  • the element“ SearchResult ” is composed of a plurality of“ item ”elements. .
  • metadata 1006 a link address to a location where a thumbnail of material data for metadata 1006 is stored is described.
  • the metadata 1006 describes a link address to a location where information of material data for the metadata 1006 is stored.
  • the metadata 1006 describes a link address to a place where the material data for the metadata 1006 is stored.
  • the metadata 1006 describes the feature of the material data with respect to the metadata 1006.
  • the feature 1005 is described by an attribute (type) and a value (value).
  • the attribute "061 ⁇ 6" value " ⁇ 11111 &11”
  • the attribute "36" value Feature information defined by a pair of “Blue” and attribute “Ag ej value“ Young ”is described.
  • the metadata 1006 describes the reference destination regarding the storage location of the material data, the reference destination of the thumbnail indicating the material data, and the information indicating the feature of the material data.
  • FIG. 11 is a view showing the concept of the hierarchical structure description 130 for the character data 112 and the set data 114.
  • the conceptual model 1100 of the hierarchical structure description 130 is an attribute “Key” of the upper concept (parent element) and an attribute “Key” of the lower concept (child element) and a value “Term” below the value “Term”. Is described. That is, the conceptual model 1100 of the hierarchical structure description 130 hierarchically describes a plurality of attributes "Key” and values "Term”. For example, in the conceptual model 1100 of the hierarchical structure description 130 shown in FIG. 11, the topmost “Contentj and Re, Key 1101 Force S Character Character”, “Picture” and “Sound” and several Term 1102 a—I have an 1102c.
  • Term “: Human” 1104a is a key “Sex” 1105a, Key “Age” of a plurality of child elements.
  • Key “Wear” 1105 c has a plurality of child elements Term “Shirt” 1106 a, Term “Tro user” 1106 b, and Term “Glasses” 1106 c.
  • Trouser 1106b is a key of a plurality of child elements "Trouser. ColorJ 1107a
  • Key “Trouser. Color” 1107 a has a plurality of Term “Blue” 1108 a, Term “Gra y” 1108 b, Term “Green” 1108 c, and Term “Brown” 1108 d.
  • the conceptual model 1100 of the hierarchical structure description 130 manages the features of the material data by hierarchically managing a plurality of attributes “Key” and values “Term”.
  • FIG. 12 shows an example of description of the hierarchical structure description 130.
  • the description example 1200 corresponds to the conceptual model 1100 of the vocabulary management table shown in FIG.
  • the description example 12 00 is an example of the hierarchical structure description 130
  • the following description example 1200 will be described as the hierarchical structure description 120.
  • the hierarchical structure description 1200 shown in FIG. 12 describes the concept model 1100 of the vocabulary management table shown in FIG. 11 in XML. Note that for convenience of explanation, the vocabulary management table 1200 and the conceptual model 1100 of the vocabulary management table completely coincide with each other.
  • the vocabulary management table 1200 has the top-level Key “Contentj 1201 has a plurality of Term“ Characters ”1202 a,“ Picture ”1202 b, and“ Sound ”1202 c.
  • Term “Human” 1204 a has a plurality of child elements Key “Sex” 1205 a, Key “Age”
  • Key “Wear” 1205c has a plurality of child elements Term “Shirt” 1206a, Term “Tro user” 1206b, and Term “Glasses” 1206c.
  • Term “Trouser” 1206 b has a child element Key “Trouser. Color” 1207 a.
  • Key “Trouser. Color” 1207a has a plurality of Term “: Blue” 1208a, Term “Gray” 1208b, Term “Green” 1208c, and Term “Brown” 1208d.
  • Term “Picture” 1202 b there is a child element “Key“ Format ”1209, and for the K ey“ Format ”1209, a plurality of child elements Term“ JPEG ”1210 a and Term“ GIF ”1210 b And the term "PNG” 1210c.
  • Term “JPEG” 1210a has a child element Key as shown in 1211 and, further, As shown in 1212, eyl 211 has a plurality of child element terms.
  • 0 111 & '1213 has multiple child elements Ding 61' 11112 14 & 12146.
  • the term “MP3” 1214d has a link destination in which the key or the like of the lower child element is described.
  • the link destination 1215 has a Key “Bit Rate” 1301 as shown in FIG. 13, and the Key “Bit Rate j 1301 has a Term of a plurality of child elements as shown in 1302.
  • the description example 1200 can describe the lower description of the term “MP3” 1214 d using the link destination, that is, the other description. In this way, it is possible to separately describe in multiple parts of the vocabulary management table and manage each description separately.
  • the hierarchical structure description 130 hierarchically manages the attribute “Key” and the value “Term” which are the features of the material data. This makes it possible to search the material data roughly using the upper concept vocabulary and then search the material data in detail using the lower vocabulary S.
  • the conceptual model 4000 of the hierarchical structure description 130 for the operation data 113 has a plurality of attributes “Key” and values !!! ”in the same manner as the conceptual model 1100 shown in FIG. Is described.
  • the topmost “Content” and the key “Keyl lOl” have “Motion” and a plurality of terms “Terml l 02d”.
  • 13 ⁇ 4 “? ⁇ 011_0 6 ( ⁇ 011 & 1” 11091) is a child element of 111 “31 & ( ⁇ 13 ⁇ 4” 111001, Term “Posing” ll lOe, and Term “Bowing” ll lOf With the term "Kicking" ll lOg
  • Walking 1110a is a key “Speed” 1112a of a plurality of child elements, and a key “E”. motionj 1112b, with Key “Direction” 1112c.
  • Key “Direction” 1112 c has a plurality of child elements: Term “Forward” 1113 a, Term “Backward” 1113 b, Term “Rightward” 1113 c, and Term “Leftward” 1113 d.
  • the conceptual model 4000 of the hierarchical structure description 130 manages the features of the material data by hierarchically managing a plurality of attributes “Key” and values “Term”.
  • the management data can be simplified and the characteristics become clearer.
  • FIG. 15 is a diagram showing a GUI displayed when creating an animation.
  • a scene input unit 1401 for setting a computer's graphic scene name is provided.
  • the scene input unit 1401 receives a scene name such as a scene number.
  • a place name character string input unit 1402 for inputting information such as a scene of a computer, a situation, a location, etc. is provided.
  • the place name character string input unit 1402 displays a list of place name character strings 801 that are available when the user inputs a character. For example, when the user enters a single character, all location name strings 801 having that character at the beginning are displayed. Also, when the user inputs two characters, all the place name character strings 801 at the beginning of these two characters are displayed.
  • the user can recognize the place name character string 801 having the set data 114 by referring to the place name character string input unit 1402 and recognizes the desired place name character string 80 1 after recognizing it. It is possible to input. Further, below the place name character string input unit 1402 of the GUI 1400, there is a subject input unit 1403 for inputting the subject of the computer graphics.
  • the subject input unit 1403 displays a list of subject noun strings 601 that are available when the user inputs a character. For example, when the user inputs one character, all subject noun strings 601 having that character at the beginning are displayed. Also, when the user inputs two characters, all the subject noun strings 601 at the beginning of the two characters are displayed.
  • the subject noun string 601 having 112 can be recognized, and the desired subject noun string can be recognized
  • an operation input unit 1404 for inputting the content to be operated by the character.
  • the action input unit 1404 displays a list of verb strings 702 corresponding to the set subject noun character string 601. Also, the action input unit 1404 displays a list of the corresponding verb string 702 at the time when the user inputs a letter. For example, when the user inputs one character, all verb strings 702 preceded by that character are displayed. Also, when the user inputs two characters, all verb strings 702 at the beginning of the two characters are displayed.
  • the action input unit 1404 displays a list of expression name strings 703 corresponding to the verb string 702 which has been manually input. Also in this case, the operation input unit 1404 displays a list of the corresponding expression name character strings 703 when the user inputs characters.
  • the user can recognize the verb string 702 corresponding to the input character by referring to the operation input unit 1404, and can input the desired verb string 702 after recognition.
  • a target word input unit 1405 for inputting an object on which an operation acts.
  • the object input unit 1405 displays a list of object names 803 on which the set verb string 702 operates when the user sets the verb string 702 in the operation input unit 1404. Also, the object input unit 1405 displays a list of object names 803 that can be operated when the user inputs a character. For example, when the user inputs one character, all object names 803 having that character at the beginning are displayed.
  • the user can recognize the object name 803 corresponding to the input verb character string 702 by referring to the object input unit 1405, and can input the desired object name 803 after recognizing the object name 803. .
  • GUI 1400 At the lower right of GUI 1400, a computer corresponding to the scenario input by the user from place name character string input unit 14 02, subject input unit 1403, operation input unit 1404, and object input unit 1405 of GUI 1400.
  • 'A preview display unit 1406 is provided to display a graphic preview.
  • the preview button 1408 located below the preview display unit 1406 is used.
  • preview display unit 1406 includes a preview corresponding to place name character string 801, a preview corresponding to subject noun character string 601, a preview corresponding to verb character string 702, and a preview corresponding to object name 803. Also display.
  • the user selects a place name character string 801 selected by the place name character string input unit 1402, the subject input unit 1403, the action input unit 1404, and the object input unit 1405, and the subject If there is a plurality of data corresponding to the noun string 601, the verb string 702, and the object name 803, the location name string 801 used for the preview currently displayed on the preview display unit 1406, the subject noun string 601, A next candidate button 14 07 for selecting data other than the data corresponding to the verb string 702 and the object name 803 is provided.
  • a send button 1409 is provided to send to the display control unit 127 the selected place name character string 801, the subject noun character string 601, the verb character string 702, and the object name 803 corresponding to one.
  • FIG. 16 is a block diagram of a GUI displayed when searching for material data.
  • a feature input unit 1502 for inputting features to search for material data is disposed.
  • the feature input unit 1502 extracts from the hierarchical structure description 130 and displays a feature (Term, Key) that partially matches the character input when the user inputs the character. For example, when you enter a user's character, all features (Term, Key) with the character at the beginning are displayed. Also, when the user inputs two characters, all the features (Term, Key) at the beginning of these two characters are displayed.
  • the GUI 1500 displays a feature display (Term, Key) corresponding to the determined feature (Term, Key). It has part 1503. Furthermore, when the user determines a feature in the feature display unit 1503, the GUI 1500 displays a feature display unit 1504 that displays lower or upper feature (Term, Key) corresponding to the determined feature (Term, Key). Have.
  • the number of feature display sections 1503 and 1504 is not limited to the example shown in FIG. 15 and may be any number.
  • a thumbnail display unit 1505 for displaying a thumbnail of material data for the determined feature is provided.
  • the user can grasp the outline and the number of the material data corresponding to the feature determined in the feature display units 1503 and 1504 by looking at the thumbnail display unit 1505.
  • FIG. 17 is a flowchart of scenario determination processing of the image creating apparatus 100 according to the present embodiment.
  • the input control unit 126 is configured to input a scene of the GUI 1400. It is monitored whether there is a scene input from the unit 1401. If there is a scene input, the character string 'CG conversion processing unit 131 sets the scene (S1701). There may be times when you need to set the scene. Also, there may be a plurality of scenes set.
  • image creation apparatus 100 monitors input control section 126 whether there is an input of place name character string 801 from place name character string input section 1402 of GUI 1400, and there is an input of place name character string 801. If so, the character string 'CG conversion processing unit 131 determines the set (S1702). The details of the process of S1702 will be described later. There is also a case where animation is created with default or no set without selecting a set.
  • the character string 'CG conversion processing unit 131 determines the character (S1703). In addition, the terms of the processing of S1703 Ivy (it will be described later.
  • the image creating apparatus 100 searches the motion dictionary 124 (S1705), and determines whether the motion determined in S1704 requires an object (S1706).
  • the character string “CG conversion processing unit 131 refers to the character string / set correspondence table 122, extracts the object list, and sends it to the display control unit 127. Then, the display control unit 127 displays the object name list. Then, the image creating apparatus 100 monitors in the input control unit 127 whether there is an input of the object name 803 from the word input unit 1005 of the GUI 1400, and if there is an input of the object name 803, the character string ' The CG conversion processing unit 131 determines an object (S1707). The details of the process of S 1 707 will be described later.
  • the image creating apparatus 100 monitors, in the input control unit 126, whether there is a scene addition from the scene input unit 1401 of the GUI 1400 (S1708), and if there is a scene addition, the scene is added to the added scene. Then, the processing of S1701 and later is performed. If it is determined in S1706 that the object is not necessary, the image creating apparatus 10 skips the process of S1707 and shifts to the process of S1708.
  • the character string 'CG conversion storage unit 131 receives material data (character data 112, operation data 113, set data 114) for the set, characters, operation, and object determined in the above-described processing. Acquired (S1709), a moving image is generated using the acquired material data (S1710), and the generated moving image is displayed on the monitor 105 (S1711).
  • the image creating apparatus 100 receives the input of the feature for the scenario, acquires the material data according to the feature, and uses the material data to obtain the material data. Create a video.
  • the image creating apparatus 100 determines a scenario for creating computer 'graphics, and creates a moving image.
  • FIG. 18 is a flowchart of the set determination process of the image creating apparatus 100.
  • the input control unit 126 of the image creating apparatus 100 monitors whether there is a scenario input from the input unit 104 to the GUI 1400 (S 1801). Specifically, in S1801, it is monitored whether the place name character string input unit 1402 receives a force such as mouse selection (click processing) or the input of the place name character string 801.
  • the input control unit 126 displays the input character when there is an input of the place name character string 801, and when there is a click processing, the character string ⁇ Send to CG conversion processing unit 131.
  • the character string 'CG conversion processing unit 131 searches the character string' set correspondence table 122 (S 18 02). Then, when the character string 'CG conversion processing unit 131 receives a character related to the place name character string 801, it searches for a place name character string 801 having the sent character at the beginning.
  • the character string'CG conversion unit 131 receives the information indicating that the click processing has been performed, the character string' 1'-set correspondence table 122 is searched for all the place name character strings 801 (S 1803). ).
  • the processing unit 131 sends the detected place name character string 801 to the display control unit 127. Then, the display control unit 127 arranges and displays the sent place name character string 801 in the input characters of the place name character string input unit 1402 (S1804).
  • the character string 'CG conversion processing unit 131 searches all the place name characters from the character string' set correspondence table 122 ⁇ IJ801. (S 1802, 1803), and sends it to the display control unit 127. Then, as shown in FIG. 19, the display control unit 127 performs the search processing of the set data 114 by the search unit 128 and the “" " " " 3 ⁇ 1001 " "More ⁇ ⁇ ⁇ " are displayed side by side in the place name string input unit 1402 (S 1804).
  • the input control unit 126 monitors whether there is an input of an additional scenario of the scenario input in S1801 (S1805). Then, if there is an additional scenario in S1805, the processing after S1803 is performed on the character string including the additional scenario.
  • the input control unit 126 monitors whether the user determines the place name character string 801 using the place name character string input unit 1402, and when the user determines the place name character string 801, the determination is made.
  • the place name string 801 is sent to the character string ⁇ CG conversion processing unit 131.
  • the character string 'CG conversion processing unit 131 refers to the character / set correspondence table 122 and extracts the link 802 to the set data 114 corresponding to the location name character string 801 sent. .
  • the character string 'CG conversion processing unit 131 extracts the set data 114 using the extracted link information 802, and sends the extracted set data 114 to the display control unit 127.
  • the display control unit 127 displays a preview on the preview display unit 1406 of the GUI 1400 on the sent set data 114 (S 1806).
  • display control unit 127 For example, by selecting the first set data 114 or the like, a preview for the selected set data 114 is displayed on the preview display unit 1406 of the GUI 1400.
  • the input control unit 126 forces the next candidate button 1407 of the GUI 1400 to be pressed, and the “more '-is selected force displayed on the place name character string input unit 1402. Send button 1309 is pressed. It is monitored that it is done (S1807).
  • the display control unit 127 ends the processing, and sends the generated animation from the transmitting / receiving unit 106 to another image creating apparatus 100 on the Internet 107. .
  • sending to another image creating apparatus 100 only animation data or animation data and scenario data are sent.
  • the other image creating apparatus 100 causes the display control unit 127 to display a preview on the preview display unit 1406 of the GUI 1400.
  • the display control unit 127 displays a preview on the preview display unit 1406 of the GUI 1400 and also inputs the scenario in the same manner as the transmitting image forming apparatus 100. Editable.
  • the character string 'CG conversion processing unit 131 corresponds to the place name character string 80 1 selected by the user in the place name character string input unit 1402. Of the set data 114, a preview is displayed at S1806 to select a set data 114 other than the set data 114. Then, the character string 'CG conversion processing unit 131 sends the selected set data 114 to the display control unit 127, and the display control unit 127 creates a preview using the sent set data 114, and the preview display unit 1406. Display (S1808), and shift to the processing of S1807.
  • search unit 128 performs search processing (S1809), and shifts to the processing of S1807. The details of the search process (S1809) will be described later. As described above, it is possible to display a list of the place name character strings 801 of the set data 114 held for the user. This allows the user to easily grasp what set data 114 exists.
  • FIG. 20 is a flow chart of character determination processing of the image creating apparatus 100.
  • the input control unit 126 of the image creating apparatus 100 monitors whether there is a scenario input from the input unit 104 to the GUI 1400 (S 2001). Specifically, in S2001, it is monitored whether the subject input unit 1403 has an input of a force ⁇ or a place name character string with a selection (click processing) such as a mouse.
  • the character string 'CG conversion processing unit 131 searches the character ⁇ ⁇ 1'-character correspondence table 118 (S2002). Then, when the character string 'CG conversion processing unit 131 receives a character related to the subject noun character string 601, the character string' CG conversion processing unit 131 searches for the subject noun character string 601 having the sent character at the beginning. Also, upon receiving information indicating that the click processing has been performed, the character string 'CG conversion unit 131 searches all subject noun character strings 601 in the character / character correspondence table 118 (S2003).
  • the character string 'CG conversion processing unit 131 sends the detected subject noun character string 601 to the display control unit 127. Then, the display control unit 127 arranges and displays the sent subject noun character string 601 on the characters input in the subject input unit 1403 (S2004).
  • the character string / CG conversion processing unit 131 starts the “G” in the character string / character correspondence table 118.
  • Lord of the The word noun string 601 is searched (S 2002, 2003), and sent to the display control unit 127.
  • the display control unit 127 executes the search processing of the character data 112 by the search unit 128 and “Girl” and “Gorilla” which are the subject noun character strings 601 sent. “More '''” are displayed side by side in the subject input unit 1403 (S2004).
  • the subject noun character strings 601 with the largest number of selections are arranged in order. Furthermore, the subject noun strings 601 may be arranged in descending order of frequency of use of the subject noun strings 601 when the place name string 801 is selected.
  • the input control unit 126 monitors that there is an input of an additional scenario of the scenario input in S2001 (S2005). Then, if there is an additional scenario in S2005, the processing after S2003 is performed on the string including the additional scenario.
  • the input control unit 126 monitors whether the user determines the subject noun character string 601 by using the subject input unit 1403, and when the user determines the subject noun character string 601, the determined subject noun character Send the column 601 to the character string ⁇ CG conversion processing unit 131.
  • the character string 'CG conversion processing unit 131 refers to the character ⁇ IJ' character correspondence table 118 and links 602 to the character data 112 corresponding to the subject noun character string 601 sent. Extract.
  • the character string ′ CG conversion processing unit 131 extracts the character data 112 using the extracted link information 602, and sends the extracted character data 112 to the display control unit 127.
  • the display control unit 127 displays a preview of the sent character data 112 on the preview display unit 1406 of the GUI 1400 (S2006).
  • display control unit 127 selects, for example, the first character data 112, etc., and selects it in preview display unit 1406 of GUI 1400. A preview for the character data 112 is displayed.
  • the input control unit 126 forces the next candidate button 1407 of the GUI 1400 to be pressed, and the key transmit button 1409 to which "more ','" displayed on the subject input unit 1403 is selected is pressed. Monitor the situation (S2007).
  • the display control unit 127 ends the processing, and the generated animation is transmitted from the transmitting / receiving unit 106 to another image creating apparatus 100 on the Internet 107.
  • Send to When sending to another image creating apparatus 100 only animation data or animation data and scenario data are sent.
  • the display control unit 127 displays a preview on the preview display unit 1406 of the GUI 1400 when another apparatus for image creation 100 receives the animation data.
  • animation data and scenario data are received by the transmitting and receiving unit 106, the display control unit 127 displays a preview on the preview display unit 1406 of the GUI 14 ⁇ °, and scenario input 'editing' It can do.
  • the character string 'CG conversion processing unit 131 determines the character data corresponding to the subject noun character string 601 selected by the user at the subject input unit 1403 112 Among them, the preview is displayed in S2006, and character data 112 other than character data 112 is selected. Then, the character string 'CG conversion processing unit 131 sends the selected character data 112 to the display control unit 127, and the display control unit 127 creates a preview using the sent character data 112, and displays a preview. Word 1406 Display (S2008), and move on to the processing of S2007.
  • S2008 Word 1406 Display
  • the preview of all the character data 112 corresponding to the subject noun character string 601 selected by the user can be displayed.
  • the user can select the character data 112 corresponding to the selected subject noun string 601 after viewing the preview.
  • search unit 128 If “more '' '” displayed in subject input unit 1403 is selected in S2007, that is, if it is determined that execution of a search process for character data 112 by search unit 128 is instructed, the search is performed.
  • the part 128 performs search processing (S2009), and shifts to the processing of S2007. The details of the search process (S2009) will be described later.
  • a list of subject noun character strings 601 of the character data 112 to be held can be displayed for the user. Thereby, the user can easily grasp the power of what character data 112 exists. Further, by displaying a list of selectable subject noun strings 601 of selectable character data 112 in the GUI 1400, the user does not have to analyze the character ⁇ 1J ′ character correspondence table 118, and can be easily selected. The list of subject noun strings 601 can be grasped.
  • FIG. 22 is a flowchart of operation determination processing of the image creating apparatus 100.
  • the input control unit 126 of the image creating apparatus 100 monitors whether there is a scenario input from the input unit 104 to the GUI 1400 (S 2201). Specifically, it checks in S2201 whether there is a selection (click processing) such as a mouse in the operation input unit 1404 or whether there is an input of the verb string 702.
  • the input character is sent, and if there is a click processing, the character string ⁇ CG conversion processing unit 131 is sent to that effect.
  • the character string 'CG conversion processing unit 131 searches the character' operation correspondence table 120 (S2 202). Then, when the character string 'CG conversion processing unit 131 receives a character related to the verb character string 702, it corresponds to the subject name character string 601 determined in the character determination processing (S1703) shown in FIG. Search for a verb string 802 that starts with the character that has been entered. In addition, when the character string 'CG conversion unit 131 receives the information indicating that the click processing has been performed, all verb character strings 702 corresponding to the subject noun character string 601 determined in the character determination processing (S1703) shown in FIG. Is searched (S2203).
  • the string “CG conversion processing unit 131 sends the detected verb string 702 to the display control unit 127.
  • the display control unit 127 displays the sent verb string 702 side by side with the input characters of the operation input unit 1404 (S2204).
  • the character string ′ CG conversion processing unit 131 is determined in the character determination process (S 1703) shown in FIG.
  • All verb strings 702 corresponding to the subject noun string 601 (for example, “Girl”) are retrieved (S 2202, 2203), and sent to the display control unit 127.
  • the display control unit 127 sends the verb strings 702 "goes cl ose to", "sits 011" and "31: & 11 (13 up)", and the characters by the search unit 128.
  • “More” ⁇ for executing search processing of the data 112 are displayed side by side on the operation input unit 1404 (S2204).
  • the user can recognize what verb strings 702 can be selected.
  • the verb strings 702 with the largest number of selections are arranged in order, using the history that the user has selected so far. Furthermore, the verb strings 702 are arranged in descending order of usage frequency of the verb string 702 when the subject noun string 601 is selected. Or, let's arrange the verb string 702 in descending order of frequency of use of the verb string 702 when both the place name string 801 and the subject noun character ⁇ IJ 601 are selected.
  • the input control unit 126 monitors that there is an input of an additional scenario of the scenario input in S2201 (S2205). Then, if there are additional scenarios in S2205, the process from S2203 is performed on the character string including the additional scenarios.
  • the character string 'CG conversion processing unit 131 searches the character' action correspondence table 120 and corresponds to the verb string 702 displayed in S2204. A search is made for the expression name string 703 (S2206).
  • the character string 'CG conversion processing unit 131 sends the detected expression name character string 703 to the display control unit 127. Then, the display control unit 127 arranges and displays the sent presentation name character string 703 in the vicinity of the operation input unit 1404 (S2207).
  • the input control unit 126 monitors that there is an (additional) character (scenario) input for the expression name character string 703 (S2208). Then, if there is an additional scenario in S2208, the processing after S2206 is performed on the character string including the additional scenario.
  • the character string 'CG conversion processing unit 131 searches for the expression name character string 703 having the input character at the beginning. Then, the display control unit 127 displays the expression name letter IJ 703 retrieved on the monitor. As described above, by displaying the list of expression name character strings 703, the user can recognize what expression name character strings 703 can be selected.
  • the history selected by the user is arranged in order from the expression name character string 703 which is frequently selected.
  • the expression name character string 703 is arranged in descending order of frequency of use of the expression name character string 703 when the subject noun character string 601 is selected, or the state name character string 801 and the subject noun character string 601 are both selected.
  • the verb string 702 is arranged in descending order of frequency of use of the expression name string 703 in, or the expression name string 703 is ordered in order of frequent use of the expression name string 703 in a state where the verb string 702 is selected.
  • Place name string 801, subject noun string 601, and subject verb string 601, and verb letters by placing place name string 703 in descending order of frequency of use of place name string 703 with place name string 801 and verb string 702 both selected.
  • the expression name strings 703 may be arranged in descending order of the frequency of use of the expression name strings 703 in a state where three columns 702 are selected.
  • the input control unit 127 monitors whether or not the user determines the verb string 702 and the expression name string 703 using the operation input unit 1404 of the GUI 1400, etc., and the user determines the verb string 702 and the expression name When the string 703 is determined, the determined verb string 702 and the expression name string 703 are sent to the string / CG conversion processing unit 131.
  • the character string 'CG conversion processing unit 131 refers to the character' operation correspondence table 120, and links to the operation data corresponding to the verb string 702 and the expression name character string 703 that have been sent. Extract
  • the character string ′ CG conversion processing unit 131 extracts the operation data 113 using the extracted link information 704, and sends the extracted operation data 113 to the display control unit 127.
  • the display control unit 127 displays a preview of the received operation data 113 on the preview display unit 1406 of the GUI 1400 (S 2209).
  • the display control unit 127 selects, for example, the first operation data 113 and the like, and the operation selected in the preview display unit 1406 of the GUI 1400. Display a preview for data 113.
  • the input control unit 126 causes the next candidate button 1407 of the GUI 1400 to be pressed. Force to select “more, ⁇ ” displayed on the input unit 1404. It is monitored that the send button 1309 is pressed (S2210).
  • the display control unit 127 ends the process. If it is determined that the next candidate button 1407 has been pressed, the character string 'CG conversion processing unit 131 selects S2209 of the action data 113 corresponding to the verb character string 702 and the expression name character string 703 selected by the user in the GUI 1400. Select the operation data other than the operation data displaying the preview in. Then, the character string 'CG conversion processing unit 131 sends the selected operation data to the display control unit 127, and the display control unit 127 creates a preview using the sent operation data and displays it on the preview display unit 1406. (S2211), the process proceeds to S2210.
  • search unit 128 when “more '' '” displayed in the operation input unit 1404 is selected in S 2207, that is, when it is judged that the execution of the search processing of the operation data 113 by the search unit 128 is instructed, the search is performed.
  • the unit 128 performs a search process (S2212), and shifts to the process of S2207. The details of the search process (S2212) will be described later.
  • the user does not need to analyze the character 'action correspondence table 120, and can easily select. You can understand the list of the verb string 702 and the expression name string 703.
  • FIG. 24 is a flowchart of object determination processing of the image creating apparatus 100.
  • the input control unit 126 of the image creating apparatus 100 monitors whether there is a scenario input from the input unit 104 to the GUI 1400 (S 2401). Specifically, in S 2401, it is monitored whether the object input unit 1405 has a certain selection (click processing) such as mouse or input of an object name.
  • the input control unit 127 if there is an input of an object name, the character that was input, and if there is a click processing, the character string ⁇ CG Send to the conversion processing unit 131.
  • the character string 'CG conversion processing unit 131 searches the character string / set correspondence table 122 (S2402). Then, when the character string 'CG conversion processing unit 131 receives the character related to the object name 803, the object name corresponding to the place name character string 801 determined in S1702 and having the sent character at the beginning. Search for 803. Also, when the character string 'CG conversion unit 131 receives the information indicating that the click processing has been performed, all objects corresponding to the place name character string 801 determined in S1702 stored in the character / one-set correspondence table 122 The name 803 is searched (S2403).
  • the character string “CG conversion processing unit 131 sends the detected object name 803 to the display control unit 131. Then, the display control unit 131 arranges and displays the sent object name 803 on the characters input in the object input unit 1405 (S2404).
  • the character conversion unit CG conversion processing unit 131 converts the character name set correspondence table 122 into the place name character string 801 determined in S 1702. All corresponding object names 803 are retrieved (S 2402, 2403) and sent to the display control unit 127. Then, as shown in FIG. 25, the display control unit 127 executes the search processing of the set data 114 by the search unit 128, “the 611 (11) and“ s 116 slide ”which are the transmitted object names 803. In order to display "more ' ⁇ and", the object input unit 1405 is displayed side by side (S2404).
  • the user can recognize what object names 803 can be selected.
  • the objects are arranged in order from the object name 803 with the highest number of selections.
  • the input control unit 126 monitors that there is an input of an additional scenario of the scenario input in S2401 (S2405). Then, if there are additional scenarios in S2405, the processing after S2403 is performed on the character string including the additional scenarios.
  • the input control unit 126 monitors whether or not the user determines the object name 8003 using the object input unit 1405, and when the user determines the object name 803, the determined field parameter 805 is determined.
  • the display control unit 127 operates in an operation in which a character that has already been selected and selected is sent to the selected object parameter 805 (eg, sitting on a chair).
  • a preview is displayed on the preview display unit 1406 of the GUI 1400 (S2406).
  • the input control unit 126 forces the next candidate button 1407 of the GUI 1400 to be pressed.
  • the force to which “more '' '” displayed on the object input unit 1405 is selected. It is monitored that it is done (S2407).
  • the display control unit 127 ends the process, and if it is determined that the next candidate button 1407 has been pressed, a character string • CG conversion process
  • the unit 131 selects an object other than the object displaying the preview in S2406 among the object data corresponding to the object name 803 selected by the user in the object input unit 1405. Then, the character string 'CG conversion processing unit 131 sends the selected object parameter to the display control unit 127, and the display control unit 127 creates a preview using the sent object parameter, and the preview display unit 1406 Display (S2408), and process S2407 ii (This moves on.
  • search unit 128 executes the search process of the set data (object data) 114. Is determined, the search unit 128 performs a search process (S2409), and shifts to the process of S2407. The details of the search process (S2409) will be described later.
  • a list of selectable object names 803 can be displayed for the user.
  • the user can easily grasp what object name 803 can be selected.
  • the object names 803 are arranged in descending order of frequency of use of the object name 803.
  • a location name string 801 and a verb string 702 are used when both object names 803 are used.
  • the object names 803 are arranged in order of frequency, or the object names 803 are arranged in order of frequency of use of the object names 803 when three place name character strings 801, subject noun character strings 601 and verb character strings 702 are selected. Let's see.
  • the image creating apparatus 100 can also input a scenario consisting of a plurality of sentences to the GUI 1400. In this case, you can create computer graphics arranged in order of upper level writing ability.
  • a character (“Man”) different from the character (“Girl”) of the first sentence appears as shown in 2601 in the figure. I have something to do.
  • the other character is added to the target object on which one character operates.
  • “Man” 2701 is added to the “Giri” object
  • “Girl” 2702 is added to the “Man” object.
  • the place name character string is Park, School
  • the subject noun character string is Giri, Man
  • the verb character string is “Jitabata”, “Jijinpu”, sits on, goes close To, stands up, says, ⁇ ⁇ [J as really, power with arguably S, not limited to these.
  • examples of subject noun strings are general nouns, but they are frequently used It is also possible to use proper nouns by assigning names of proper nouns to character data and storing them (example: Girl as Ai).
  • the character adjective character string 603 and the object adjective character string 804 are displayed before and at the time of displaying character data and object data so that differences in data can be easily understood. It may be shown, and character data and object data may be further searched (filtered) by displaying a list in or next to the subject input unit 1403 and the subject input unit 1405, respectively.
  • one or more users place character 'character correspondence table 118, character' operation correspondence table 120, character collection 'set correspondence table 122 on server 108 114 of Internet 107. Can be shared. Also, it is possible to use the latest material data created by other users, etc. which can use a large amount of material data.
  • object name 803 can be described and stored sequentially from the character string with the highest number of selections based on the history selected by multiple users so that the most frequently used character string can be searched first.
  • the link information 802 may be stored in the order of the number of selections based on the history selected by a plurality of users, and the link information power to the data in order of description, so that data with high usage frequency may be displayed first. .
  • the motion dictionary 124 may be stored on the Internet 104 and shared by one or more users.
  • FIG. 28 is a flowchart of search processing of the image creating apparatus 100 according to the present embodiment.
  • the image creating apparatus 100 searches for the set data 114 in S1809, searches for character data 112 in S20 09, searches for operation data 113 in S2209, and S2409. Searches the object data (set data 114).
  • character data 112, operation data 113, and set data 114 will be described as material data.
  • the display control unit 127 of the image creating apparatus 100 creates a GUI 1500 which is a screen for searching for material data, and displays it on the monitor 105 (S 2801). And image creation device
  • the input control unit 126 of the image creating apparatus 100 monitors whether or not the material is input from the feature input unit 1502 (S 2802), and when a feature is input, sends a notification to that effect to the search unit 128.
  • the image creating apparatus 100 refers to the hierarchical structure description 130, and the Term or Key partially matches the input feature.
  • the list is displayed on the feature input unit 1502.
  • the search unit 128 performs a search process of material data for the feature input in S2802 (S2803).
  • S2803 The details of the process of S2803 will be described later.
  • the registration unit 129 of the image creating apparatus 100 acquires metadata corresponding to the material data determined in S2803 from the metadata database 111.
  • the registration unit 129 uses the link information described in the acquired metadata to select the material data (characters) determined in S2803 from the character data database 108, the action data database 109, or the set data database 110.
  • Data 112, operation data 113, and set data 114) are acquired (S2804).
  • the registration unit 129 registers the content of the metadata acquired in S2804, that is, the search result. Specifically, if the metadata acquired in S2804 relates to a character, the registration unit 129 adds the content of the metadata to the character string / character correspondence table 118, and if the metadata acquired in S2804 relates to an operation, The contents of the data are added to the character operation correspondence table 120, and if the metadata acquired in S2804 relates to a set, the contents of the metadata are registered in the character ⁇ IJ 'set correspondence table 122 (S2805).
  • the search results can be reflected in the character string 1] character correspondence table 118, the character / operation correspondence table 120, and the character string 'set correspondence table 122.
  • the material searched by the user once Information on data will be displayed on the GUI 1400 for scenario input thereafter. Therefore, it is possible for the user to use the material data once searched without searching again.
  • the registration unit 129 adds the acquired material data. Specifically, when the acquired material data is the character data 112, the registration unit 129 stores the acquired operation data in the operation data storage unit 116 in the case of the operation data 113, and the acquired material data is the set data 114. In the case, the acquired material data is stored in the set data storage unit 117 (S2806).
  • FIG. 29 is a flowchart of material data search processing of the image creating apparatus 100 according to the present embodiment.
  • the search unit 128 of the image creation device 100 inputs the feature (word) sent from the input control unit 126 (S2901).
  • the search unit 128 refers to the hierarchical structure description 130 and searches for a feature (word) or a similar word of the feature input in S2 901 (S2902).
  • the search unit 128 determines whether the searched word is a word related to Key or a word related to Term (S2903).
  • the retrieval unit 128 refers to the hierarchical structure description 130 and retrieves the Term of the child element of the word (Key) retrieved in S2902, and performs retrieval Sends a list of the terms that have been sent to the display control unit 127. Then, the display control unit 127 displays the list of sent terms on the feature display unit 1503 of the GUI 1500 (S2904).
  • the terms to be displayed are prioritized in terms of user usage history, in alphabetical order, or prioritized in advance in terms of high priority.
  • input control unit 126 monitors whether or not the desired Term has been selected from the list of terms displayed on feature display unit 1503 by the user, and if the desired Term is selected, the selection is made. Send the existing Term to the search unit 128. Then, the search unit 128 determines the term that has been sent (S2905).
  • the search unit 128 refers to the metadata database 111 and searches metadata corresponding to the determined Term.
  • the search unit 128 sends the searched metadata to the character string 'CG conversion storage unit 131, and using the metadata sent from the character string / CG conversion storage unit 131, obtains a thumbnail of the determined Term.
  • the list of acquired thumbnails (search results) is sent to the display control unit 127.
  • the display control unit 127 displays the list of thumbnails on the thumbnail display unit 1505 of the GUI 1500 (S2906).
  • the step S 128 refers to the hierarchical structure description 130, searches K ey of the child element of the Term determined in S 2905, and sends a list of the searched keys to the display control unit 127. Then, the display control unit 127 displays the list of sent keys on the feature display unit 1504 of the GUI 1500 (S2909).
  • the input control unit 126 monitors whether the desired Key has been selected from the list of Keys displayed on the feature display unit 1504 by the user, and if the desired Key has been selected, it is selected.
  • the selected Key is sent to the search unit 128.
  • the search unit 128 determines the sent Key (S2910).
  • the search unit 128 processes the processing of S2904 and subsequent steps for the key determined in S2910. To determine the material data for the scenario material.
  • the image creation apparatus 100 inputs “Wear”, “Key” to the feature input unit 1502 (S 2901), the hierarchical structure description 130 to “Wear” are used.
  • the terms “Shirt”, “Trouser”, and “Glasses”, which are terms of the child elements of, are searched and displayed on the feature display unit 1503 (S2902 to S2904).
  • the image creating apparatus 100 displays the hierarchical structure description 130
  • the image creating apparatus 100 determines “Trouser. Color” (S 2910), refers to the hierarchical structure description 130, and “Trouser.
  • the terms “Blue”, “Gray”, “Green”, and “Brown”, which are child elements of “Color”, are searched and displayed on the feature display unit 3001 (S2904).
  • the image creating apparatus 100 determines “Blue” (S2905), and displays thumbnails of material data for "Blue” as thumbnails. Display on the display unit 1505 (S2906). Then, by selecting a desired thumbnail from the displayed thumbnails, the user selects material data for that thumbnail.
  • the image creating apparatus 100 searches for the material data for the input key and the term corresponding thereto.
  • the search unit 128 refers to the hierarchical structure description 130 and searches K ey of the parent element of the word (Term) searched in S2902. It is determined whether there is a plurality of retrieved keys (S2911). If it is determined in S 2911 that there are a plurality of Keys that can be parent elements, a list of the Keys is sent to the display control unit 127. Then, the display control unit 127 displays the list of sent keys on the feature display unit 1503 of the GUI 1500 (S2912).
  • the number of displayed keys may be set to the number desired by the user, etc.
  • the Displayed Key gives priority to those with a large usage history of the user, gives an alphabetical order, gives priority to those with high priority given to the Key in advance, and various applications. Is considered.
  • the input control unit 126 monitors whether the user has selected a desired key from the list of keys displayed on the feature display unit 1503 by the user. If the desired key has been selected, the user selects the desired key. The selected Key is sent to the search unit 128. Then, the search unit 128 determines the sent Key (S2913).
  • the search team sends the Key determined in S2913 and the term compiled in S2901 to the search unit 128, and the search unit 128 refers to the metadata database 111 and determines the Key and Term determined. Retrieve the corresponding metadata.
  • the search unit 128 sends the searched metadata to the character string / CG conversion storage unit 131, and the character string / CG conversion storage unit 131 uses the metadata sent from it to determine the thumbnails of the determined Key and Term. Is acquired, and a list of the acquired thumbnails (search results) is sent to the display control unit 127. Then, the display control unit 127 displays a list of thumbnails on the thumbnail display unit 1505 of the GUI 1500 (S2914).
  • the user can visually recognize the outline of the material data for the determined Key and Term by looking at the thumbnails.
  • the image creating apparatus 100 determines in the input control unit 126 whether there is an input for setting the search conditions (Term) in more detail by the user, that is, an input to be searched using the upper concept (see FIG. S2915).
  • the search unit 128 refers to the hierarchical structure description 130 and searches for a Term to be a parent element of the Key determined in S2913, It is determined whether there are a plurality of retrieved terms (S2916).
  • input control section 126 monitors whether the desired Term has been selected from the list of Terms displayed on feature display section 1504 by the user, and if the desired Term has been selected, select Send the existing Term to the search unit 128. Then, the search unit 128 determines the sent Term (S2918).
  • the search unit 128 performs the processing of S2911 and later on the Term determined in S2918.
  • the search unit 128 determines whether this Key is a force that is the Root element, that is, the highest key (S2919). )
  • the search unit 128 sends the Key determined in S2919 and the Key determined in S2911 or S2913 to the search unit 128, and the search unit 128 refers to the metadata database 105 for determination. Search metadata corresponding to Key and Term.
  • the search unit 128 sends the searched metadata to the character string 'CG conversion storage unit 131, and the character string' CG conversion storage unit 1
  • a list 31 (search results) of thumbnails acquired from link information in the search results to which 31 is sent is sent to the display control unit 127.
  • the display control unit 127 displays a list of thumbnails on the thumbnail display unit 605 of the GUI 600 (S2921).
  • the image creating apparatus 100 waits for selection of any thumbnail from the list of thumbnails displayed in S2921, and when selected, determines material data corresponding to the selected thumbnail, and performs processing finish.
  • the image creating apparatus 100 displays thumbnails corresponding to “Shirt. Color” selected by the user as thumbnails 1 505 (S2913, S2914).
  • the image creating apparatus 100 determines that the key of the parent element of “3 11” and “31 111” “Wear” is displayed on the feature display unit 1504, thumbnails for “Shirt” and “Wea” are displayed, and are selected by the user (S2915, S2916, S2911 and S2914).
  • the image creation device 100 determines that the key “Genre” of the parent element of "Human” and “Human” is used. Are displayed on the feature display unit 3101, thumbnails for "Human” and “Genre” are displayed, and the user selects (S2915, S2916, S2911-S2914).
  • the image creating apparatus 100 when the user tries to perform a search using “Character,” which is an upper Term of “Genre,” the image creating apparatus 100 generates “01 & & 61 ⁇ ” and “01 & ( ⁇ 61 ⁇ )
  • the key “Content” of the parent element of is displayed on the feature display unit 3102, thumbnails for “Character” and “Content” are displayed, and the user is selected (S2915, S2916, S2911, S2919, S2921)
  • the image creating device 100 searches for material data using a set of a key and a parent element Key having the input Term when the characteristic force STerm for the material of the scenario is input.
  • the search range is expanded by using the upper Term and the key of the parent element to search Can.
  • the user can search for desired material data from a suitable number of material data candidates.
  • material data can be searched while expanding the search range from the features of the lower concept to the features of the upper concept, in other words, from the detailed features to the rough features.
  • computer 'graphics creation processing can be performed while material data can be searched, and computer' graphic creation processing can be performed using the searched material data.
  • computer 'graphics creation process and material data search process can be performed in a series of operations.
  • the computer 'graphics creation process can be accelerated and assured.
  • material data corresponding to the feature can be searched. This makes it possible to easily search for desired material data without knowing the name of the material data.
  • processing performed by the image generation device 100 may be a program that is executed by a general-purpose computer.
  • the processing of creating computer 'graphics from scenario input, processing of newly searching for material data, and processing of registering newly searched material data are performed by a series of operations.
  • the processing of creating computer's graphics from scenario input, the processing of newly searching for material data, and the processing of registering newly searched material data may be performed in different apparatuses.
  • the present invention can be applied to a wide range of fields such as mobile phones and other communication devices such as mobile phones that use computer's graphics to transmit desired messages and information to other users.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 本発明は、コンピュータ・グラフィックスを作成するための素材データとこの素材データの素材名の組を対応付けた文字列・素材対応表と、素材データの特徴を階層構造で記述する階層構造記述とを設けておき、特徴の入力があった際に階層構造記述を用いて特徴に対応する素材データを検索し、検索した前記素材データを記憶すると共に検索した素材データおよび素材データの素材名を文字列・素材対応表に登録し、素材名の入力があった際に文字列・素材対応表を用いて素材名に対応する素材データを取得し、取得した素材データを用いてコンピュータ・グラフィックスを作成するようにした。

Description

明 細 書
画像作成装置および画像作成方法
技術分野
[0001] 本発明は、テキストからコンピュータ 'グラフィックスを作成する画像作成装置および 画像作成方法に関する。
背景技術
[0002] 従来、チャットなどのテキストを入力することで、テキストに対応するコンピュータ'グ ラフィックスを自動的に作成する方法が提案されている (例えば、特許文献 1参照)。
[0003] この方法は、テキストと動作データ(素材データ)とを対応させて蓄積しておき、テキ ストが入力された場合に、入力されたテキストを解析し、解析したテキストに対応する 動作データを検索する。そして、検索した動作データを実行することで、テキストに対 応するコンビュ一タ'グラフィックスを作成するものである。
特許文献 1 :特開 2001 - 307137号公報
発明の開示
発明が解決しょうとする課題
[0004] し力 ながら、従来の方法では、ユーザは、装置がどのような動画を作成するため の素材データを使用できるかを認識することはできなレ、。このため、ユーザがコンビュ ータ'グラフィックスを作成する際に、シナリオを入力しても、入力したテキストに対応 する素材データが使用できず、コンピュータ 'グラフィックスを作成できないという場合 力 sある。
[0005] そこで、シナリオからコンピュータ 'グラフィックスを作成する処理から、どのような素 材データが使用できるかを検索する処理に移行し、使用できる素材データを検索す るということが考えられる。
[0006] しかし、素材データの検索用のエンジンと、コンピュータ 'グラフィックスを作成する エンジンが異なる。よって、素材データの検索をするために検索用のエンジンを起動 し、その後素材データを検索し、再度コンピュータ 'グラフィックスを作成するエンジン を起動しなおし、検索した素材データを用いてコンピュータ 'グラフィックスの作成処 理に移行する必要がある。このため、検索処理中に検索前に考えていたシナリオを 忘れてしまい、再度コンピュータ 'グラフィックスの作成処理に移行した際に、考えて いたシナリオを思い出すという事態も考えられる。さらに、コンピュータ 'グラフィックス の作成処理に移行した際に、検索した素材データが何であつたかを忘れてしまうとい う可能性さえある。
[0007] このように、従来の方法では、コンピュータ 'グラフィックスを作成する処理がスムー ズに行えないという問題がある。
[0008] また、検索した素材データは、ユーザにとって使用頻度の高いものである可能性が 高レ、。しかし、従来、検索した素材データを管理していないので、同じ素材データを 何度も検索してしまうという問題がある。
[0009] 本発明の目的は、コンピュータ 'グラフィックス作成処理と素材データの検索とを一 連の動作により行うと共に、検索した素材データをそれ以降容易に使用できることが できる画像作成装置および画像作成方法を提供することである。
課題を解決するための手段
[0010] 本発明は、コンピュータ 'グラフィックスを作成するための素材データとこの素材デ ータの素材名の組を対応付けた文字歹 ι】·素材対応表と、素材データの特徴を階層構 造で記述する階層構造記述とを設けておき、特徴の入力があった際に階層構造記 述を用いて特徴に対応する素材データを検索し、検索した前記素材データを記憶す ると共に検索した素材データおよび素材データの素材名を文字歹 IJ ·素材対応表に登 録し、素材名の入力があった際に文字列 ·素材対応表を用いて素材名に対応する素 材データを取得し、取得した素材データを用いてコンピュータ 'グラフィックスを作成 するようにした。
発明の効果
[0011] 本発明によれば、コンピュータ 'グラフィックス作成処理と素材データの検索とを一 連の動作により行うと共に、検索した素材データをそれ以降容易に使用できることが できる。
図面の簡単な説明
[0012] [図 1]本発明の一実施の形態にかかる画像作成装置の構成図 [図 2]本実施の形態に力かるキャラクタデータの記述例を示す第 1の図
[図 3]本実施の形態に力かるキャラクタデータの記述例を示す第 2の図
固 4]本実施の形態に力かる動作データの記述例を示す第 1の図
固 5]本実施の形態に力、かる動作データの記述例を示す第 2の図
[図 6]本実施の形態に力、かる文字列,キャラクタ対応表の構成図
固 7]本実施の形態に力、かるキャラクタ '動作対応表の構成図
[図 8]本実施の形態に力、かる文字歹 IJ ·セット対応表の構成図
固 9]本実施の形態に力、かる動作辞書の構成図
[図 10]本実施の形態に力 るメタデータデータベースに対する検索結果の記述例を 示す図
面 11]本実施の形態に力、かる階層構造記述の概念を示す第 1の図
[図 12]本実施の形態に力、かる階層構造記述の記述例を示す第 1の図
[図 13]本実施の形態に力かる階層構造記述の記述例を示す第 2の図
園 14]本実施の形態に力かる階層構造記述の概念を示す第 2の図
[図 15]本実施の形態に力かるアニメーション作成時に表示される GUIを示す図
[図 16]本実施の形態に力かる素材データ検索時に表示される GUIの構成図
[図 17]本実施の形態に力かる画像作成装置シナリオ決定処理のフローチャート 園 18]本実施の形態に力かる画像作成装置のセット決定処理のフローチャート 固 19]本実施の形態に力かる画像作成装置のセット決定処理を説明するための図
[図 20]本実施の形態に力かる画像作成装置のキャラクタ決定処理のフロ一チャート 園 21]本実施の形態に力かる画像作成装置のキャラクタ決定処理を説明するための 図
[図 22]本実施の形態にかかる画像作成装置の動作決定処理のフローチャート [図 23]本実施の形態にかかる画像作成装置の動作決定処理を説明するための図 [図 24]本実施の形態に力、かる画像作成装置のオブジェクト決定処理のフローチヤ一 卜
固 25]本実施の形態に力、かる画像作成装置のオブジェクト決定処理を説明するため の図 [図 26]本実施の形態に力かる画像作成装置のシナリオ入力を説明するための図
[図 27]本実施の形態に力かるオブジェクトの関係を説明するための図
[図 28]本実施の形態に力かる画像作成装置の検索処理のフローチャート
[図 29]本実施の形態に力、かる画像作成装置の素材データ検索処理のフローチャート
[図 30]本実施の形態に力、かる画像作成装置の素材データ検索処理を説明するため の第 1の図
[図 31]本実施の形態に力、かる画像作成装置の素材データ検索処理を説明するため の第 2の図
発明を実施するための最良の形態
[0013] 以下、本発明の一実施の形態に力かる画像作成装置の構成について図 1を用いて 説明する。図 1は、本実施の形態に力かる画像作成装置の構成図である。
[0014] 本実施の形態の画像作成装置 100には、装置全体を制御する CPU101が設けら れている。 CPU101は、 HDD102に格納されたプログラムを RAM103にロードして 実行することで、各種機能を持つ処理部としても動作する。
[0015] また、画像作成装置 100には、キーボード、マウスなどの入力部 104が設けられて いる。また、画像作成装置 100には、表示手段としてモニタ 105が設けられている。
[0016] また、画像作成装置 100には、コンピュータ 'グラフィックスのアニメーションデータ である、キャラクタデータ 112を格納したキャラクタデータデータベース 108や、動作 データ 113を格納した動作データデータベース 109や、セットデータ 114を格納した セットデータデータベース 110力、らインターネット 107を介してキャラクタデータや動 作データやセットデータを受信する送受信部 106が設けられている。また、送受信部 106は、メタデータデータベース 111からメタデータの受信もする。
[0017] また、画像作成装置 100には、インターネット 107を介して取得した複数のキャラク タデータ 112を格納するキャラクタデータ記憶部 115、インターネット 107を介して取 得した複数の動作データ 113を記憶する動作データ記憶部 116、およびインターネ ット 107を介して取得した複数のセットデータ 114を格納するセットデータ記憶部 117 が設けられている。
[0018] また、メタデータは素材データである、キャラクタデータ 112、動作データ 113、およ びセットデータ 114を説明するためのメタデータである。具体的には、メタデータには 、対応する素材データの特徴およびサムネイル画像や素材データへのリンクアドレス 等が記述されている。なお、メタデータの詳細については後述する。
[0019] キャラクタデータ 112は、キャラクタの頂点座標などのパラメータ群である。また、動 作データ 113は、キャラクタを所定動作させるためのパラメータ群である。パラメータと しては、回転行列、移動行列などがある。セットデータ 114は、場所やキャラクタに対 して作用可能なオブジェクトなどのセットの情報であるセットデータの頂点座標などの パラメータ群である。なお、キャラクタデータ 112、動作データ 113、およびセットデー タ 114の詳細については、後述する。
[0020] また、キャラクタデータ 112は、所定の文字列(主語名詞文字列)に対応付けられて いる。本実施の形態では、文字列とキャラクタデータ 112とを対応付けて格納した文 字列 ·キャラクタ対応表 118を文字列 ·キャラクタ対応表記憶部 119に格納することに より、文字列とこれに対応するキャラクタデータ 112との対応を取つてレ、る。
[0021] なお、文字歹 Iトキャラクタ対応表 118の詳細については、後述する。
[0022] また、画像作成装置 100には、キャラクタデータ 112と動作データ 113との対応を 取るためのキャラクタ ·動作対応表 120を格納するキャラクタ ·動作対応表記憶部 121 が設けられている。
[0023] なお、キャラクタ '動作対応表 121の詳細については、後述する。
[0024] また、画像作成装置 100には、所定の文字列(場所名文字列)と、セットデータ 114 と、セットデータ 114に含まれるオブジェクトとの対応を取るための文字列 ·セット対応 表 122を格納する文字列 ·セット対応表記憶部 123が設けられてレ、る。
[0025] なお、文字歹 1」·セット対応表 122の詳細については、後述する。
[0026] また、動作データ 113には、セットデータ 114に含まれるオブジェクトを用いる動作 と用いない動作がある。そこで、画像作成装置 100には、動詞データ 113がオブジェ タトを用いるか否かの情報を記述した動作辞書 124を格納する動作辞書記憶部 125 が設けられている。
[0027] なお、動作辞書 124の詳細は、後述する。
[0028] また、画像作成装置 100には、入力制御部 126が設けられている。入力制御部 12 6は、入力部 104に入力されたシナリオから、場所を表す場所名文字列、主語を表す 主語名詞文字列、動作を表す動詞文字列を抽出し、文字列 *CG変換処理部 131へ 送る。
[0029] 文字列 ' CG変換処理部 131は、文字歹 1 キャラクタ対応表 118、キャラクタ ·動作対 応表 120、文字列'セット対応表 122、動作辞書 124を参照し、入力制御部 126から 送られてきた文字列に対応するキャラクタデータ 112、動作データ 113、セットデータ 114を選択する。そして、文字列 ' CG変換処理部 131は、選択したキャラクタデータ
112、動作データ 113、セットデータ 114を表示制御部 127へ送る。
[0030] 表示制御部 127は、送られてきたキャラクタデータ 112、動作データ 113、セットデ ータ 114を基にコンピュータ 'グラフィックスを作成し、モニタ 105に表示する。
[0031] また、画像作成装置 100には、検索部 128が設けられている。検索部 128は、メタ データデータベース 111に格納された複数のメタデータを取得し、取得した複数のメ タデータから特徴を抽出し、階層構造記述 130にして管理する。なお、階層構造記 述 130詳細については後述する。
[0032] また、検索部 128は、階層構造記述 130を参照し、入力制御部 126から送られてき た文字列が部分一致する特徴を検出する。そして、検索部 128は、検出した特徴を 表示制御部 127へ送る。
[0033] また、検索部 128、入力制御部 126から送られてきた、特徴の一覧から選択された 特徴に対応するキャラクタデータ 112、動作データ 113、セットデータ 114に関する 情報を登録部 129に送る。
[0034] 登録部 129は、送られてきたキャラクタデータ 112、動作データ 113、セットデータ 1
14に関する情報が文字列'キャラクタ対応表 118、キャラクタ '動作対応表 120、文字 歹 IJ 'セット対応表 122にない場合は、送られてきたキャラクタデータ 112、動作データ
113、セットデータ 114に関する情報を文字歹 1 キャラクタ対応表 118、キャラクタ '動 作对応表 120、文字歹 1 セット対応表 122に登録する。
[0035] 以上のように、画像作成装置 100は、構成されている。
[0036] 次に、キャラクタデータ 112について、図 2および図 3を用いて説明する。図 2およ び図 3は、キャラクタデータ 112の記述例を示す図である。なお、本実施の形態では 、キャラクタデータ 112を BACフォーマット (Ver. 6. 0)で記述するが、これ以外の記 述例であっても良い。
[0037] キャラクタデータ 112には、図中 201に示すようにキャラクタの基本姿勢を示す座標 値、図中 202に示すようにキャラクタの表示方法のタイプ、図中 203に示すようにキヤ ラクタに用いられるテクスチャ、図中 204に示すようにキャラクタに用いられるポリゴン のデータからなる。
[0038] なお、セットデータ 114の記述方法も、キャラクタデータ 112の記述方法と同じなの で詳細な説明を省略する。
[0039] 次に、動作データ 113について、図 4および図 5を用いて説明する。図 4および図 5 は、動作データ 113の記述例を示す図である。なお、本実施の形態では、動作デー タ 113を TRAフォーマット(Ver. 4. 0)で記述するが、これ以外の記述例であっても 良い。
[0040] 動作データ 113には、図中 401a— 401ίに示すように各座標方向に対する移動、 図中 402a— 402fに示すように各座標方向に対する拡大縮小、図中 403a— 403fに 示すように各方向へのベクトル、図中 404a— 404fに示すように中心の回転角度、が 記述されてレ、る。
[0041] 次に、文字歹 1J 'キャラクタ対応表 118について図 6を用いて詳細に説明する。図 6は
、文字歹 1」·キャラクタ対応表 118の構成図である。
[0042] 文字歹 キャラクタ対応表 118は、キャラクタデータ 112の名称である主語名詞文字 列 601と、主語名詞文字列 601に対応したキャラクタデータ 112へのリンク情報 602 と、キャラクタデータ 112の特徴を現すキャラクタ形容詞文字列 603の組を複数持つ テーブルになっている。
[0043] また、文字歹 1 キャラクタ対応表 118には、ひとつの主語名詞文字列 601に対して、 複数のキャラクタデータ 112へのリンク情報 602が対応付けられている。つまり、ひと つの主語名詞文字列 601に対して少なくともひとつ以上のキャラクタデータ 112を持 つている。
[0044] これにより、文字列 ' CG変換処理部 131は、文字歹 キャラクタ対応表 118を参照 することにより、入力部 104から入力された文字列に対応する主語名詞文字列 601 力 るか容易に検出でき、その主語名詞文字列 601の一覧を表示制御部 127へ送 ること力 Sできる。また、文字列 ' CG変換処理部 131は、文字歹 IJ 'キャラクタ対応表 118 を参照することにより、入力された文字列(主語名詞文字列 601)に対するキャラクタ データ 112の取得先を容易に検出できる。
[0045] 次に、キャラクタ '動作対応表 120の構成について、図 7を用いて詳細に説明する。
図 7は、本実施の形態に力かるキャラクタ '動作対応表 120の構成図である。
[0046] キャラクタ '動作対応表 120は、キャラクタデータ名 701と、動詞文字列 702と、動詞 文字列 702に対応した表現名文字列 703と、動詞文字列 702に対応した動作デー タ 113へのリンク情報 704と、の組を複数持つテーブルになっている。
[0047] また、キャラクタ '動作対応表 120には、ひとつのキャラクタデータ名 701に対して、 複数の動詞文字列 702が対応付けられている。つまり、ひとつのキャラクタデータ 11 2に対して少なくともひとつ以上の動作データ 113を持っている。
[0048] また、キャラクタ '動作対応表 120には、ひとつの動詞文字列 702に対して複数の 動作データへのリンク情報 704が対応付けられている。また、キャラクタ '動作対応表 120には、ひとつの動詞文字列 702に対してひとつ以上の表現名文字列 703が対 応付けられていてもよい。つまり、ひとつの動詞文字列 702に対して少なくともひとつ 以上の表現を持つ動作データ 113が対応付けられている。
[0049] 文字列 ' CG変換処理部 131は、キャラクタ '動作対応表 120を参照することにより、 入力部 104から入力されたキャラクタが行える動作に対応する動詞文字列 702があ るか容易に検出でき、その動詞文字列 702の一覧を表示制御部 127へ送ることがで きる。また、文字列 ' CG変換処理部 131は、キャラクタ '動作対応表 120を参照するこ とにより、入力された動詞文字列 702に対する動作データ 113の取得先を容易に検 出できる。
[0050] 次に、文字列 ·セット対応表 122の構成について、図 8を用いて詳細に説明する。
図 8は、文字歹 セット対応表 122の構成図である。
[0051] 文字列'セット対応表 122は、場所名文字列 801と、場所名文字列 801に対応した セットデータ 114のリンク情報 802と、場所名文字列 801に対応したセットデータ 114 が備えるオブジェクト名 803と、オブジェクト名 803が示すオブジェクトの特徴を表す オブジェクト形容詞文字列 804と、オブジェクトの位置や大きさ、作用範囲などのォブ ジェタトパラメータ 805と、の組を複数持つテーブルになっている。
[0052] また、文字歹 IJ 'セット対応表 122には、ひとつの場所名文字列 801に対して、複数 のセットデータへのリンク情報 802が対応付けられている。つまり、ひとつの場所名文 字列 802に対して少なくともひとつ以上のセットデータ 114を持っている。
[0053] また、文字歹 1 セット対応表 122には、ひとつのセットデータ 114へのリンク情報 802 に対して複数のオブジェクト名 803が対応付けられている。つまり、ひとつのセットデ ータ 114に対して少なくともひとつ以上のオブジェクト 803が対応付けられている。
[0054] 文字列 'CG変換処理部 131は、文字列 ·セット対応表 122を参照することにより、 入力部 104から入力された場所名文字列 801が利用できるか容易に検出でき、その 場所名文字列 801の一覧を表示制御部 127へ送ることができる。また、文字列 ' CG 変換処理部 131は、文字歹 セット対応表 122を参照することにより、入力された場所 名文字列に対するセットデータ 114の取得先を容易に検出できる。
[0055] 次に、動作辞書 124の構成について図 9を用いて説明する。図 9は、動作辞書 124 の構成図である。
[0056] 動作辞書 124には、複数の動詞文字列と動詞文字列がオブジェクトを必要とするか 否かの情報が記述されている。図 9の例では、「牛」が記述された動詞文字列(例え ば、「sit on」)は後ろにオブジェクトを要することを意味する。また、「*」が記述され た動詞文字列(例えば、 rsand up」)は間にオブジェクトを要することを意味する。ま た、 「干」と「 *」が記述された動詞文字列 (例えば、「made up 」)は、間と後ろにォ ブジェクトを要することを意味する。
[0057] 文字列 ' CG変換処理部 131は、動作辞書 124を参照することにより、入力部 104 力、ら入力された動詞文字列がオブジェクトを必要とするかどうかとその位置を容易に 検出でき、オブジェクトを必要とするか否かの情報を表示制御部 127へ送ることがで きる。
[0058] 次に、メタデータデータベース 111に格納されたメタデータについて、図 10を用い て詳細に説明する。図 10は、メタデータデータベースに対する検索結果の記述例を 示す図である。 [0059] 図 10に示すメタデータデータベースに対する検索結果 1000は、要素「SearchRe sultsjを根とする XMLで記述されてレ、る。要素「SearchResult」は、複数の「item」 要素で構成されている。各「item」要素力 検索された素材のメタデータ 1006となつ ており、素材の内容が記述されている。
[0060] 図 10に示すメタデータ 1006は、 1001に示すように、コンテンツのタイプが記述さ れている。図 10の例では、コンテンツタイプとして「Character」が記述されている。
[0061] また、メタデータ 1006は、 1002に示すように、メタデータ 1006に対する素材デー タのサムネイルが格納された場所へのリンクアドレスが記述されている。
[0062] また、メタデータ 1006には、 1003に示すように、メタデータ 1006に対する素材デ ータの情報が格納された場所へのリンクアドレスが記述されている。
[0063] また、メタデータ 1006には、 1004に示すように、メタデータ 1006に対する素材デ ータが格納された場所へのリンクアドレスが記述されている。
[0064] また、メタデータ 1006には、 1005に示すように、メタデータ 1006に対する素材デ ータの特徴が記述されている。特徴 1005は、属性 (type)と値 (value)により記述さ れている。図 10の例では、特徴 1005として、属性「061^6」値「^^11111&11」、属性「36 」値
Figure imgf000012_0001
「Blue」、属性「Ag ej値「Young」の組で定義された特徴情報が記述されてレ、る。
[0065] このように、メタデータ 1006には、素材データの格納場所に関する参照先、素材デ ータを示すサムネイルの参照先、素材データの特徴を示す情報が記述されている。
[0066] 次に、検索部 128が複数のメタデータから作成する階層構造記述 130の構成につ いて図 11を用いて詳細に説明する。図 11は、キャラクタデータ 112やセットデータ 1 14に対する階層構造記述 130の概念を示す図である。
[0067] 図 11に示すように、階層構造記述 130の概念モデル 1100は、素材データの属性 を示す「Key」と、属性に対する値を示す「Term」の組を複数記述してレ、る。
[0068] また、階層構造記述 130の概念モデル 1100は、上位概念 (親要素)の属性「Key」 および値「Term」の下位に下位概念(子要素)の属性「Key」および値「Term」が記 述されている。つまり、階層構造記述 130の概念モデル 1100は、複数の属性「Key」 および値「Term」を階層化して記述している。 [0069] 例えば、図 11に示す階層構造記述 130の概念モデル 1100では、最上位の「Con tentjとレ、う Key 1101力 S Γ Character」「Picture」「 Sound」とレ、う複数の Term 1102 a— 1102cを持つ。
[0070] また、 Term「Character」1102aの下には、子要素の Key「Genre」 1103力 Sあり、 Key「Genre」 1103は子要素の Temi「Human」 1104aと、 Term「Animal」 1104b を持つ。
[0071] また、 Term「: Human」1104aは、複数の子要素の Key「Sex」 1105a、 Key「Age」
1105b, Key「Wear」 1105c、「Motion」 1105dを持つ。
[0072] また、 Key「Wear」1105cは、複数の子要素の Term「Shirt」 1106a、 Term「Tro user」 1106b、 Term「Glasses」 1106cを持つ。
[0073] また、 Term「Trouser」 1106bは、複数の子要素の Key「Trouser. ColorJ 1107a
、「Trouser. LengthJ 1107bを持つ。
[0074] また、 Key「Trouser. Color」 1107aは、複数の Term「Blue」 1108a、 Term「Gra y」 1108b、 Term「Green」 1108c、 Term「Brown」 1108dを持つ。
[0075] なお、 Key「Sex」 1105a、 Key「Age」 1105b、 key「Motion」 1105dの下位にも 複数の子要素の Termがあるが詳細な説明を省略する。また、 Term「shirt」 1106a
、 Term「Glasses」 1106cの下にも子要素の Keyがあるが詳細な説明は省略する。 また、 key「Trouser. Length」 1107bの下にも複数の子要素 Termがある。
[0076] このように、階層構造記述 130の概念モデル 1100は、素材データの特徴を複数の 属性「Key」と値「Term」を階層化して管理してレ、る。
[0077] これにより、メタデータデータベースで管理されているキャラクタデータ 112、セット データ 114に関する「属性」や「値」に使われている語彙だけでなぐ意味的な制約ま でを記述できる。
[0078] また、キャラクタデータ 112、セットデータ 114の特徴を複数の属性「Key」と値「Ter m」で管理することにより、例えば、自動車や家電製品は商品カタログに「属性」と「値 」の組を用いた表が掲載されることが多レ、が、キャラクタデータ 112、セットデータ 114 もこれらと同じように管理することで、管理データを単純化することができ、特徴がより 明確になる。 [0079] 次に、階層構造記述 130の具体的な記述例 1200について、図 12を用いて詳細に 説明する。図 12は、階層構造記述 130の記述例を示す図である。なお、記述例 120 0は、図 11に示す語彙管理表の概念モデル 1100に対応している。また、記述例 12 00は、階層構造記述 130の一例であるので、以下記述例 1200を階層構造記述 12 ◦0として説明する。
[0080] 図 12に示す階層構造記述 1200は、図 11に示す語彙管理表の概念モデル 1100 を XMLで記述したものである。なお、説明の便宜上、語彙管理表 1200と語彙管理 表の概念モデル 1100とは完全に一致してレ、なレ、部分もある。
[0081] 具体的には、語彙管理表 1200は、最上位の Key「 Contentj 1201が複数の Ter m「Character」1202a、 「Picture」 1202b、 「Sound」 1202cを持つ。
[0082] また、 Term「Character」 1202aの下には、子要素の Key「Genre」 1203a力 Sあり、
Key「Genre」 1203aは子要素の Term「Human」 1204aと、 Term「Animal」 1204 bを持つ。
[0083] また、 Term「Human」 1204aは、複数の子要素の Key「Sex」 1205a, Key「Age」
1205b, Key「Wear」 1205c、 key「Motion」 1205dを持つ。
[0084] また、 Key「Wear」 1205cは、複数の子要素の Term「Shirt」 1206a, Term「Tro user」 1206b、 Term「Glasses」 1206cを持つ。
[0085] また、 Term「Trouser」 1206bは、子要素の Key「Trouser. Color」 1207aを持つ
[0086] また、 Key「Trouser. Color」 1207aは、複数の Term「: Blue」 1208a、 Term「Gra y」 1208b、 Term「Green」 1208c、 Term「Brown」 1208dを持つ。
[0087] なお、 Key「Sex」 1205a、 Key「Age」 1205bの下位にも複数の Termがあるが詳 細な説明を省略する。また、 Term「shirt」 1206a、 Term「Glasses」 1206cの下にも
Keyがあるが詳細な説明は省略する。
[0088] また、 Term「Picture」 1202bの下には、子要素の Key「Format」 1209があり、 K ey「Format」 1209は複数の子要素の Term「JPEG」 1210aと、 Term「GIF」 1210b と、 Term「PNG」 1210cを持つ。
[0089] また、 Term「JPEG」 1210aは、 1211に示すように子要素の Keyがあり、さらに、 K eyl 211には 1212に示すように複数の子要素の Termを持つ。
[0090] また、 Term「Sound」1202cの下には、子要素の1¾ 「?0:01131」1213がぁり、1¾
0 111& 」1213は複数の子要素の丁61"1111214& 12146を持っ。
[0091] さらに、 Term「MP3」 1214dは、 1215に示すように、下位の子要素の keyなどを記 述したリンク先を持つ。
[0092] リンク先 1215は、図 13に示すように、 Key「Bit Rate」 1301を持ち、 Key「Bit R atej 1301は、 1302に示すように複数の子要素の Termを持つ。
[0093] このように、記述例 1200は、 Term「MP3」 1214dの下位の説明をリンク先つまり、 他の記述を用いて記述することができる。これにより、語彙管理表の複数の部分に分 け記述し、それぞれの記述を別々に管理することができる。
[0094] このように、階層構造記述 130は、素材データの特徴である属性「Key」と値「Term 」を階層化して管理している。これにより、上位の概念の語彙を使用して大まかに素 材データを検索し、その後下位の語彙を用いて詳細に素材データを検索するという こと力 Sできる。
[0095] 次に、動作データ 113に対する階層構造記述 130の構成について図 14を用いて 詳細に説明する。
[0096] 図 14に示すように、動作データ 113に対する階層構造記述 130の概念モデル 400 0は、図 11に示す概念モデル 1100と同様に、複数の属性「Key」および値 !!!」 を階層化して記述している。
[0097] 例えば、概念モデル 4000は、最上位の「Content」とレヽぅ Keyl lOlが「Motion」と レヽぅ複数の Terml l02dを持つ。
[0098] また、 Term「Motion」 1102dの下には、子要素の Key「Directional」「Non_Dir ectionalj 1109a, 1109b力ある。 Key「Directional」 1109aは子要素の Term「W
Figure imgf000015_0001
、 Term「Jumping」 1110cを持つ。
[0099] また、 1¾ 「?^011_0 6(^011&1」11091)は子要素の丁6で111「31& (^1¾」111001と、 T erm「Posing」 l l lOeと、 Term「Bowing」 l l lOfと、 Term「Kicking」 l l lOgを持つ
[0100] また、 Term「Walking」1110aは、複数の子要素の Key「Speed」 1112a、 Key「E motionj 1112b、 Key「Direction」 1112cを持つ。
[0101] また、 Key「Direction」1112cは、複数の子要素の Term「Forward」 1113a、 Ter m「Backward」 1113b、 Term「Rightward」 1113c、 Term「Leftward」 1113dを 持つ。
[0102] なお、 Key「Emotion」 1112bの下位にも複数の子要素の Termがあるが詳細な説 明を省略する。
[0103] このように、階層構造記述 130の概念モデル 4000は、素材データの特徴を複数の 属性「Key」と値「Term」を階層化して管理してレ、る。
[0104] これにより、メタデータデータベースで管理されている動作データ 113に関する「属 性」や「値」に使われている語彙だけでなぐ意味的な制約までを記述できる。
[0105] また、動作データ 113の特徴を複数の属性「Key^値「Terai」で管理することによ り、管理データを単純化することができ、特徴がより明確になる。
[0106] 次に、表示制御部 127がアニメーション作成時に作成する GUIについて、図 15を 用いて詳細に説明する。図 15は、アニメーション作成時に表示される GUIを示す図 である。
[0107] GUI1400の上部には、コンピュータ 'グラフィックスのシーン名を設定するシーン入 力部 1401が設けられている。シーン入力部 1401には、シーン番号等のシーン名が 入力される。
[0108] また、 GUI1400のシーン入力部 1401の下方には、コンピュータ 'グラフィックスの 場面、状況、ロケーション等の情報を入力する場所名文字列入力部 1402が設けら れている。
[0109] 場所名文字列入力部 1402は、ユーザが文字を入力した時点において利用可能で ある場所名文字列 801の一覧を表示する。例えば、ユーザが 1文字入力するとその 文字を先頭に持つ場所名文字列 801を全て表示する。また、ユーザが 2文字入力す るとこの 2文字先頭に持つ場所名文字列 801を全て表示する。
[0110] これにより、ユーザは、場所名文字列入力部 1402を参照することにより、セットデー タ 114を持つ場所名文字列 801を認識でき、認識した上で所望の場所名文字列 80 1を入力できる。 [0111] また、 GUI1400の場所名文字列入力部 1402の下方には、コンピュータ 'グラフィ ックスの主語を入力するための主語入力部 1403がある。
[0112] 主語入力部 1403は、ユーザが文字を入力した時点において利用可能である主語 名詞文字列 601の一覧を表示する。例えば、ユーザが 1文字入力するとその文字を 先頭に持つ主語名詞文字列 601を全て表示する。また、ユーザが 2文字入力すると この 2文字先頭に持つ主語名詞文字列 601を全て表示する。
[0113] これにより、ユーザは、主語名詞文字列 601を参照することにより、キャラクタデータ
112を持つ主語名詞文字列 601を認識でき、認識した上で所望の主語名詞文字列
601を入力できる。
[0114] また、 GUI1400の主語入力部 1403の右方には、キャラクタに動作させる内容を入 力する動作入力部 1404がある。
[0115] 動作入力部 1404は、ユーザが主語入力部 1403に主語名詞文字列 601を設定し た時点で、設定した主語名詞文字列 601に対応する動詞文字列 702の一覧を表示 する。また、動作入力部 1404は、ユーザが文字を入力した時点において対応する動 詞文字列 702の一覧を表示する。例えば、ユーザが 1文字入力するとその文字を先 頭に持つ動詞文字列 702を全て表示する。また、ユーザが 2文字入力するとこの 2文 字先頭に持つ動詞文字列 702を全て表示する。
[0116] また、動作入力部 1404は、ユーザが動詞文字列 702の入力が終わると、人力され た動詞文字列 702に対応する表現名文字列 703がある場合その一覧を表示する。 また、この場合も、動作入力部 1404は、ユーザが文字を入力した時点において対応 する表現名文字列 703の一覧を表示する。
[0117] これにより、ユーザは、動作入力部 1404を参照することにより、入力したキャラクタ に対応する動詞文字列 702を認識でき、認識した上で所望の動詞文字列 702を入 力できる。
[0118] また、 GUI1400の動作入力部 1404の右方には、動作が作用するオブジェクトを 入力する目的語入力部 1405がある。
[0119] 目的語入力部 1405は、ユーザが動作入力部 1404に動詞文字列 702を設定した 時点で、設定した動詞文字列 702が作用するオブジェクト名 803の一覧を表示する。 また、 目的語入力部 1405は、ユーザが文字を入力した時点において作用可能なォ ブジェクト名 803の一覧を表示する。例えば、ユーザが 1文字入力するとその文字を 先頭に持つオブジェクト名 803を全て表示する。
[0120] これにより、ユーザは、 目的語入力部 1405を参照することにより、入力した動詞文 字列 702に対応するオブジェクト名 803を認識でき、認識した上で所望のオブジェク ト名 803を入力できる。
[0121] また、 GUI1400の右方下部には、ユーザが GUI1400の場所名文字列入力部 14 02、主語入力部 1403、動作入力部 1404、および目的語入力部 1405から入力した シナリオに対応するコンピュータ 'グラフィックスのプレビューを表示するプレビュー表 示部 1406が設けられている。また、プレビュー表示部 1406にコンピュータ 'グラフィ ックスを表示する際には、プレビュー表示部 1406の下方にあるプレビューボタン 140 8を用いる。
[0122] また、プレビュー表示部 1406は、場所名文字列 801に対応するプレビュー、主語 名詞文字列 601に対応するプレビュー、動詞文字列 702に対応するプレビュー、お よびオブジェクト名 803に対応するプレビューの表示もする。
[0123] これにより、ユーザは、入力したシナリオに対応するコンピュータ 'グラフィックスの内 容を確認できる。
[0124] また、 GUI1400の下部右方には、ユーザが場所名文字列入力部 1402、主語入 力部 1403、動作入力部 1404、および目的語入力部 1405で選択した場所名文字 列 801、主語名詞文字列 601、動詞文字列 702、およびオブジェクト名 803に対応 するデータが複数ある場合、現在プレビュー表示部 1406に表示しているプレビュー に用いている場所名文字列 801、主語名詞文字列 601、動詞文字列 702、およびォ ブジェクト名 803に対応するデータ以外のデータを選択するための次候補ボタン 14 07が設けられている。
[0125] これにより、ユーザは、選択した場所名文字列 801、主語名詞文字列 601、動詞文 字列 702、およびオブジェクト名 803に対応するデータが複数ある場合にも、これら のデータから所望のデータを選択できる。
[0126] また、 GUI1400の下部右方には、プレビュー表示部 1406に表示されたプレビュ 一に対応する場所名文字列 801、主語名詞文字列 601、動詞文字列 702、および オブジェクト名 803を選択したデータとして表示制御部 127へ送る送信ボタン 1409 が設けられている。
[0127] 次に、表示制御部 127が素材データ検索時に作成する GUIについて、図 16を用 いて詳細に説明する。図 16は、素材データ検索時に表示される GUIの構成図であ る。
[0128] GUI1500の上部には、素材データを検索するため特徴を入力するための特徴入 力部 1502が配置されている。
[0129] 特徴入力部 1502は、ユーザが文字を入力した時点において入力した文字と部分 一致する特徴 (Term、 Key)を階層構造記述 130から抽出して表示する。例えば、 ユーザ力 文字入力するとその文字を先頭に持つ特徴 (Term、 Key)を全て表示す る。また、ユーザが 2文字入力するとこの 2文字先頭に持つ特徴 (Term、 Key)を全 て表示する。
[0130] また、 GUI1500は、ユーザが特徴入力部 1502において特徴を決定した場合、決 定した特徴 (Term、 Key)に対応する下位、もしくは上位の特徴 (Term、 Key)を表 示する特徴表示部 1503を持つ。さらに、 GUI1500は、ユーザが特徴表示部 1503 において特徴を決定した場合、決定した特徴 (Term、 Key)に対応する下位、もしく は上位の特徴 (Term、 Key)を表示する特徴表示部 1504を持つ。なお、特徴表示 部 1503、 1504の数は、図 15の例には限定されず、いくつあっても良い。
[0131] また、 GUI1500の下部には、ユーザが特徴表示部 1503、 1504において特徴を 決定した場合、決定した特徴に対する素材データのサムネイルを表示するサムネィ ル表示部 1505が設けられてレ、る。
[0132] これにより、ユーザは、サムネイル表示部 1505を見ることにより、特徴表示部 1503 、 1504において決定した特徴に対応する素材データの概要や数を把握できる。
[0133] 次に、画像作成装置 100のシナリオ決定処理について、図 17を用いて詳細に説明 する。図 17は、本実施の形態に力かる画像作成装置 100のシナリオ決定処理のフロ 一チャートである。
[0134] まず、画像作成装置 100は、入力制御部 126において、 GUI1400のシーン入力 部 1401からシーンの入力があるか監視し、シーンの入力があった場合は、文字列' CG変換処理部 131において、シーンの設定をする(S1701)。なお、シーンの設定 力 い場合がある。また、シーンは複数設定することもある。
[0135] 次に、画像作成装置 100は、入力制御部 126において、 GUI1400の場所名文字 列入力部 1402から場所名文字列 801の入力があるか監視し、場所名文字列 801入 力があった場合は、文字列 ' CG変換処理部 131において、セットの決定をする(S17 02)。なお、 S1702の処理の詳細については、後述する。なお、セットを選択せずデ フォルトまたはセットなしでのアニメーション作成を行う場合もある。
[0136] 次に、画像作成装置 100は、入力制御部 126において、 GUI1400の主語入力部
1403から主語名詞文字列 601の入力があるか監視し、主語名詞文字列 601の入力 があった場合は、文字列 ' CG変換処理部 131において、キャラクタの決定をする(S 1703)。なお、 S1703の処理の言羊糸田 (こつレヽて (ま、後述する。
[0137] 次に、画像作成装置 100は、入力制御部 126において、 GUI1400の動作入力部
1404から動詞文字列 702の入力があるか監視し、動詞文字列 702の入力があった 場合は、文字列 ' CG変換処理部 131において、動作の決定をする(S1704)。なお 、 S 1704の処理の詳細については、後述する。
[0138] 次に、画像作成装置 100は、動作辞書 124を検索し(S1705)、 S1704において 決定した動作がオブジェクトを必要とするか否かを判断する(S 1706)。
[0139] そして、 S 1706でオブジェクトが必要な場合は、文字列 ' CG変換処理部 131は、 文字列 ·セット対応表 122を参照し、オブジェクト一覧を抽出し、表示制御部 127へ 送る。そして、表示制御部 127がオブジェクト名一覧を表示する。そして、画像作成 装置 100は、入力制御部 127において、 GUI1400の目的語入力部 1005からォブ ジヱタト名 803の入力があるか監視し、オブジェクト名 803の入力があった場合は、文 字列 'CG変換処理部 131において、オブジェクトの決定をする(S 1707)。なお、 S 1 707の処理の詳細については、後述する。
[0140] そして、画像作成装置 100は、入力制御部 126において、 GUI1400のシーン入 力部 1401からシーンの追加があるか監視し(S1708)、シーンの追加があった場合 は、追加したシーンに対して S1701以降の処理を行う。 [0141] —方、 S1706において、オブジェクトが必要でないと判断すると、画像作成装置 10 Οίま、 S 1707の処理を省レヽて、 S 1708の処理 ίこ移行する。
[0142] 次に、文字列 ' CG変換記憶部 131は、上述した処理において決定したセット、キヤ ラクタ、動作、およびオブジェクトに対する素材データ(キャラクタデータ 112、動作デ ータ 113、セットデータ 114)を取得し(S 1709)、取得した素材データを用いて動画 を生成し(S1710)、生成した動画をモニタ 105に表示する(S1711)。
[0143] このように、画像作成装置 100は、シナリオの入力を受けた後に、このシナリオに対 する特徴の入力を受け、この特徴に応じた素材データを取得し、この素材データを用 いて、動画を作成する。
[0144] 以上のように画像作成装置 100は、コンピュータ 'グラフィックスを作成するためのシ ナリオを決定し、動画を作成する。
[0145] 次に、画像作成装置 100のセット決定処理(S1702)の動作について、図 18を用 いて詳細に説明する。図 18は、画像作成装置 100のセット決定処理のフローチヤ一 トである。
[0146] まず、画像作成装置 100の入力制御部 126が、入力部 104から GUI1400に対し てシナリオの入力があるか監視する(S1801)。具体的には、 S1801において、場所 名文字列入力部 1402にマウスなどの選択(クリック処理)がある力、もしくは場所名文 字列 801の入力があるかを監視する。
[0147] そして、 S1801においてシナリオの入力があると、入力制御部 126は、場所名文字 列 801の入力があった場合は入力された文字を、クリック処理があった場合はその旨 を文字列 · CG変換処理部 131へ送る。
[0148] 次に、文字列 ' CG変換処理部 131は、文字列'セット対応表 122を検索する(S18 02)。そして、文字列 ' CG変換処理部 131は、場所名文字列 801に関する文字を受 信した場合は、送られてきた文字を先頭に持つ場所名文字列 801があるか検索する
[0149] また、文字列 ' CG変換部 131は、クリック処理があった旨の情報を受信すると、文 字歹 1」·セット対応表 122の全ての場所名文字列 801を検索する(S 1803)。
[0150] そして、 S1803において場所名文字列 801を検出した場合には、文字列 'CG変換 処理部 131は、検出した場所名文字列 801を表示制御部 127へ送る。そして、表示 制御部 127が、送られてきた場所名文字列 801を場所名文字列入力部 1402の入 力された文字に並べて表示する(S1804)。
[0151] 例えば、 S1801において、場所名文字列入力部 1402にクリック処理があった場合 、文字列 ' CG変換処理部 131は、文字列'セット対応表 122から全ての場所名文字 歹 IJ801を検索し(S1802、 1803)、表示制御部 127へ送る。そして、表示制御部 127 力 図 19に示すように、送られてきた場所名文字列801でぁる & 」と「3^1001」と 、検索部 128によるセットデータ 114の検索処理を実行するための「more · · ·」とを場 所名文字列入力部 1402に並べて表示する(S 1804)。
[0152] このように、場所名文字列 801の一覧を表示することにより、ユーザは、どのような 場所が利用できるかを認識できる。
[0153] また、 S1804において、場所名文字列 801の一覧を表示する際に、今までユーザ が選択した履歴を用いて、選択回数の多い場所名文字列 801から順に並べるように する。
[0154] 次に、入力制御部 126は、 S1801において入力されたシナリオの追加シナリオの 入力があるか監視する(S1805)。そして、 S1805において、追加シナリオがある場 合は、追加シナリオを含んだ文字列に対して S1803以降の処理をする。
[0155] 次に、入力制御部 126は、ユーザが場所名文字列入力部 1402を用いて場所名文 字列 801を決定するか監視し、ユーザが場所名文字列 801を決定すると、決定した 場所名文字列 801を文字列 · CG変換処理部 131へ送る。
[0156] これに対し、文字列 ' CG変換処理部 131は、文字歹 セット対応表 122を参照し、 送られてきた場所名文字列 801に対応するセットデータ 114へのリンク 802を抽出す る。
[0157] 次に、文字列 'CG変換処理部 131は、抽出したリンク情報 802を用いて、セットデ ータ 114を抽出し、抽出したセットデータ 114を表示制御部 127へ送る。
[0158] これに対し、表示制御部 127は、送られてきたセットデータ 114を、 GUI1400のプ レビュー表示部 1406にプレビューを表示する(S 1806)。
[0159] なお、この際、表示制御部 127は、送られてきたセットデータ 114が複数ある場合は 、例えば先頭のセットデータ 114などを選択して、 GUI1400のプレビュー表示部 14 06に選択したセットデータ 114に対するプレビューを表示する。
[0160] 次に、入力制御部 126は、 GUI1400の次候補ボタン 1407が押下される力、場所 名文字列入力部 1402に表示された「more ' - が選択される力 \送信ボタン 1309 が押下されるのを監視する(S 1807)。
[0161] S1807において送信ボタン 1409が押下されたと判断した場合には、表示制御部 1 27は処理を終了し、生成されたアニメーションを送受信部 106からインターネット 107 上の別の画像作成装置 100へ送る。別の画像作成装置 100へ送る際にはアニメ一 シヨンデータのみ又はアニメーションデータとシナリオデータを送る。別の画像作成装 置 100は、送受信部 106でアニメーションデータを受信した場合は、表示制御部 127 で GUI1400のプレビュー表示部 1406にプレビュー表示する。送受信部 106でァニ メーシヨンデータとシナリオデータを受信した場合は、表示制御部 127で GUI1400 のプレビュー表示部 1406にプレビュー表示すると共に、送信側の画像作成装置 10 0と同様にシナリオの入力 '編集が行える。
[0162] また、次候補ボタン 1407が押下されたと判断した場合には、文字列 ' CG変換処理 部 131は、ユーザが場所名文字列入力部 1402において選択した場所名文字列 80 1に対応するセットデータ 114のうち、 S 1806にお!/、てプレビューを表示してレ、るセッ トデータ 114以外のセットデータ 114を選択する。そして、文字列 ' CG変換処理部 1 31は、選択したセットデータ 114を表示制御部 127に送り、表示制御部 127が送ら れてきたセットデータ 114を用いてプレビューを作成し、プレビュー表示部 1406に表 示し(S1808)、 S1807の処理に移行する。
[0163] このように、ユーザが選択した場所名文字列 801に対応するセットデータ 114の全 てのプレビューを表示できる。この結果、ユーザは、選択した場所名文字列 801に対 応するセットデータ 114を、プレビューを見た上で選択することができる。
[0164] また、 S1807において場所名文字列入力部 1402に表示された「more " '」が選 択されたと、つまり検索部 128によるセットデータ 114の検索処理の実行が指示され たと判断した場合は、検索部 128は、検索処理を行い(S1809)、 S1807の処理に 移行する。なお、検索処理(S1809)の詳細については、後述する。 [0165] 以上のように、ユーザに対して保持するセットデータ 114の場所名文字列 801の一 覧を表示することができる。これにより、ユーザは、どのようなセットデータ 114が存在 するのか容易に把握できる。
[0166] また、 GUI1400に選択可能なセットデータ 114の場所名文字列 801の一覧を表示 することにより、ユーザが文字列 ·セット対応表 122を解析する必要がなくなり、容易 に選択可能な場所名文字列 801の一覧を把握できる。
[0167] 次に、画像作成装置 100のキャラクタ決定処理(S1703)の動作について、図 20を 用いて詳細に説明する。図 20は、画像作成装置 100のキャラクタ決定処理のフロー チャートである。
[0168] 画像作成装置 100の入力制御部 126が、入力部 104から GUI1400に対してシナ リオの入力があるか監視する(S2001)。具体的には、 S2001において、主語入力部 1403にマウスなどの選択(クリック処理)がある力 \もしくは場所名文字列の入力があ るかを監視する。
[0169] そして、 S2001においてシナリオの入力があると、入力制御部 127は、主語名詞文 字列 601の入力があった場合は入力された文字を、クリック処理があった場合はその 旨を文字列 · CG変換処理部 131へ送る。
[0170] 次に、文字列 ' CG変換処理部 131は、文字歹 1」·キャラクタ対応表 118を検索する( S2002)。そして、文字列 ' CG変換処理部 131は、主語名詞文字列 601に関する文 字を受信した場合は、送られてきた文字を先頭に持つ主語名詞文字列 601があるか 検索する。また、文字列 ' CG変換部 131は、クリック処理があった旨の情報を受信す ると、文字歹 キャラクタ対応表 118の全ての主語名詞文字列 601を検索する(S200 3)。
[0171] そして、 S2003において主語名詞文字列 601を検出した場合には、文字列 'CG変 換処理部 131は、検出した主語名詞文字列 601を表示制御部 127へ送る。そして、 表示制御部 127が、送られてきた主語名詞文字列 601を主語入力部 1403の入力さ れた文字に並べて表示する(S2004)。
[0172] 例えば、 S2001におレ、て、主語入力部 1403に「G」という入力があった場合、文字 列 · CG変換処理部 131は、文字列 ·キャラクタ対応表 118から「G」を先頭に持つ主 語名詞文字列 601を検索し(S2002、 2003)、表示制御部 127へ送る。そして、表 示制御部 127が、図 21に示すように、送られてきた主語名詞文字列 601である「Girl 」と「Gorilla」と、検索部 128によるキャラクタデータ 112の検索処理を実行するため の「more ' ' '」とを主語入力部 1403に並べて表示する(S2004)。
[0173] このように、主語名詞文字列 601の一覧を表示することにより、ユーザは、どのよう な主語名詞文字列 601があるかを認識できる。
[0174] また、 S2004において、主語名詞文字列 601の一覧を表示する際に、今までユー ザが選択した履歴を用いて、選択回数の多い主語名詞文字列 601から順に並べる ようにする。さらに、場所名文字列 801が選択された状態における主語名詞文字列 6 01の利用頻度の多い順に主語名詞文字列 601を並べてもよい。
[0175] 次に、入力制御部 126は、 S2001において入力されたシナリオの追加シナリオの 入力がある監視する(S2005)。そして、 S2005において、追加シナリオがある場合 は、追加シナリオを含んだ文字列に対して S2003以降の処理をする。
[0176] 次に、入力制御部 126は、ユーザが主語入力部 1403を用いて主語名詞文字列 6 01を決定するか監視し、ユーザが主語名詞文字列 601を決定すると、決定した主語 名詞文字列 601を文字列 · CG変換処理部 131へ送る。
[0177] これに対し、文字列 ' CG変換処理部 131は、文字歹 IJ 'キャラクタ対応表 118を参照 し、送られてきた主語名詞文字列 601に対応するキャラクタデータ 112へのリンク 60 2を抽出する。
[0178] 次に、文字列 ' CG変換処理部 131は、抽出したリンク情報 602を用いて、キャラクタ データ 112を抽出し、抽出したキャラクタデータ 112を表示制御部 127へ送る。
[0179] これに対し、表示制御部 127は、送られてきたキャラクタデータ 112を、 GUI1400 のプレビュー表示部 1406にプレビューを表示する(S2006)。
[0180] なお、この際、表示制御部 127は、送られてきたキャラクタデータ 112が複数ある場 合は、例えば先頭のキャラクタデータ 112などを選択して、 GUI1400のプレビュー表 示部 1406に選択したキャラクタデータ 112に対するプレビューを表示する。
[0181] 次に、入力制御部 126は、 GUI1400の次候補ボタン 1407が押下される力 \主語 入力部 1403に表示された「more ','」が選択されるカ 送信ボタン 1409が押下され るのを監視する(S2007)。
[0182] S2007において送信ボタン 1409が押下されたと判断した場合には、表示制御部 1 27は、処理を終了し、生成されたアニメーションを送受信部 106からインターネット 1 07上の別の画像作成装置 100へ送る。別の画像作成装置 100へ送る際にはアニメ ーシヨンデータのみ又はアニメーションデータとシナリオデータを送る。別の画像作成 装置 100は、送受信部 106でアニメーションデータを受信した場合は、表示制御部 1 27で GUI1400のプレビュー表示部 1406にプレビュー表示する。送受信部 106で アニメーションデータとシナリオデータを受信した場合は、表示制御部 127で GUI14 ◦◦のプレビュー表示部 1406にプレビュー表示すると共に、送信側の画像作成装置 100と同様にシナリオの入力'編集が行える。
[0183] また、次候補ボタン 1407が押下されたと判断した場合には、文字列 ' CG変換処理 部 131は、ユーザが主語入力部 1403において選択した主語名詞文字列 601に対 応するキャラクタデータ 112のうち、 S2006においてプレビューを表示してレ、るキャラ クタデータ 112以外のキャラクタデータ 112を選択する。そして、文字列 ' CG変換処 理部 131は、選択したキャラクタデータ 112を表示制御部 127に送り、表示制御部 1 27が送られてきたキャラクタデータ 112を用いてプレビューを作成し、プレビュー表 示言 1406ίこ表示し(S2008)、 S2007の処理 ίこ移行する。
[0184] このように、ユーザが選択した主語名詞文字列 601に対応する全てのキャラクタデ ータ 112のプレビューを表示できる。この結果、ユーザは、選択した主語名詞文字列 601に対応するキャラクタデータ 112を、プレビューを見た上で選択することができる
[0185] また、 S2007において主語入力部 1403に表示された「more ' ' '」が選択されたと 、つまり検索部 128によるキャラクタデータ 112の検索処理の実行が指示されたと判 断した場合は、検索部 128は、検索処理を行い(S2009)、 S2007の処理に移行す る。なお、検索処理(S2009)の詳細については、後述する。
[0186] 以上のように、ユーザに対して保持するキャラクタデータ 112の主語名詞文字列 60 1の一覧を表示することができる。これにより、ユーザは、どのようなキャラクタデータ 1 12が存在するの力容易に把握できる。 [0187] また、 GUI1400に選択可能なキャラクタデータ 112の主語名詞文字列 601の一覧 を表示することにより、ユーザが文字歹 1J 'キャラクタ対応表 118を解析する必要がなく なり、容易に選択可能な主語名詞文字列 601の一覧を把握できる。
[0188] 次に、画像作成装置 100の動作決定処理(S1704)の動作について、図 22を用い て詳細に説明する。図 22は、画像作成装置 100の動作決定処理のフローチャートで ある。
[0189] まず、画像作成装置 100の入力制御部 126が、入力部 104から GUI1400に対し てシナリオの入力があるか監視する(S2201)。具体的には、 S2201におレ、て、動作 入力部 1404にマウスなどの選択 (クリック処理)がある力、、もしくは動詞文字列 702の 入力があるかを監視する。
[0190] そして、 S2201においてシナリオの入力があると、入力制御部 126は、動詞文字列
702の入力があった場合は入力された文字を、クリック処理があった場合はその旨を 文字列 · CG変換処理部 131へ送る。
[0191] 次に、文字列 ' CG変換処理部 131は、キャラクタ '動作対応表 120を検索する(S2 202)。そして、文字列 ' CG変換処理部 131は、動詞文字列 702に関する文字を受 信した場合は、図 17に示すキャラクタ決定処理(S1703)において決定した主語名 詞文字列 601に対応し、かつ送られてきた文字を先頭に持つ動詞文字列 802がある か検索する。また、文字列 ' CG変換部 131は、クリック処理があった旨の情報を受信 すると、図 17に示すキャラクタ決定処理(S1703)において決定した主語名詞文字 列 601に対応する全ての動詞文字列 702を検索する(S2203)。
[0192] そして、 S2203において動詞文字列 702を検出した場合には、文字列 ' CG変換処 理部 131は、検出した動詞文字列 702を表示制御部 127へ送る。そして、表示制御 部 127が、送られてきた動詞文字列 702を動作入力部 1404の入力された文字に並 ベて表示する(S2204)。
[0193] 例えば、 S2201において、動作入力部 1404にクリック処理があった場合、文字列' CG変換処理部 131は、キャラクタ '動作対応表 120から、図 17に示すキャラクタ決定 処理(S1703)において決定した主語名詞文字列 601 (例えば「Girl」)に対応する全 ての動詞文字列 702を検索し (S2202、 2203)、表示制御部 127へ送る。そして、表 示制御部 127が、図 23に示すように、送られてきた動詞文字列 702である「goes cl ose to」、「sits 011」と「31:&11(13 up」と、検索部 128によるキャラクタデータ 112の検 索処理を実行するための「more' · ·」とを動作入力部 1404に並べて表示する(S22 04)。
[0194] このように、動詞文字列 702の一覧を表示することにより、ユーザは、どのような動 詞文字列 702が選択可能か認識できる。
[0195] また、 S2204において、動詞文字列 702の一覧を表示する際に、今までユーザが 選択した履歴を用いて、選択回数の多い動詞文字列 702から順に並べるようにする 。さらに、主語名詞文字列 601が選択された状態における動詞文字列 702の利用頻 度の多い順に動詞文字列 702を並べる。または、場所名文字列 801と主語名詞文字 歹 IJ601が両方選択された状態における動詞文字列 702の利用頻度の多い順に動詞 文字列 702を並べるようにしてもょレ、。
[0196] 次に、入力制御部 126は、 S2201において入力されたシナリオの追加シナリオの 入力がある監視する(S2205)。そして、 S2205におレ、て、追加シナリオがある場合 は、追加シナリオを含んだ文字列に対して S2203以降の処理をする。
[0197] 一方、 S2205におレ、て、追加シナリオがない場合は、文字列 ' CG変換処理部 131 は、キャラクタ '動作対応表 120を検索し、 S2204において表示した動詞文字列 702 に対応する表現名文字列 703があるか検索する(S2206)。
[0198] そして、 S2206において表現名文字列 703を検出した場合には、文字列 ' CG変換 処理部 131は、検出した表現名文字列 703を表示制御部 127へ送る。そして、表示 制御部 127が、送られてきた表現名文字列 703を動作入力部 1404の近傍に並べて 表示する(S2207)。
[0199] 次に、入力制御部 126は、表現名文字列 703に対して(追加の)文字 (シナリオ)入 力がある監視する(S2208)。そして、 S2208において、追加シナリオがある場合は、 追加シナリオを含んだ文字列に対して S2206以降の処理をする。
[0200] 具体的には、文字列 ' CG変換処理部 131は、入力された文字を先頭に持つ表現 名文字列 703を検索する。そして、表示制御部 127がモニタに検索した表現名文字 歹 IJ703を表示する。 [0201] このように、表現名文字列 703の一覧を表示することにより、ユーザは、どのような 表現名文字列 703が選択可能か認識できる。
[0202] また、 S2207において、表現名文字列 703の一覧を表示する際に、今までユーザ が選択した履歴を用いて、選択回数の多い表現名文字列 703から順に並べるように する。さらに、主語名詞文字列 601が選択された状態における表現名文字列 703の 利用頻度の多い順に表現名文字列 703を並べるか、場所名文字列 801と主語名詞 文字列 601が両方選択された状態における表現名文字列 703の利用頻度の多い順 に動詞文字列 702を並べるか、動詞文字列 702が選択された状態における表現名 文字列 703の利用頻度の多い順に表現名文字列 703を並べる、場所名文字列 801 と動詞文字列 702が両方選択された状態における表現名文字列 703の利用頻度の 多い順に表現名文字列 703を並べる、場所名文字列 801と主語名詞文字列 601と 動詞文字列 702が三つ選択された状態における表現名文字列 703の利用頻度の多 い順に表現名文字列 703を並べるようにしてもよい。
[0203] 次に、入力制御部 127は、ユーザが GUI1400の動作入力部 1404などを用いて 動詞文字列 702および表現名文字列 703を決定するか監視し、ユーザが動詞文字 列 702および表現名文字列 703を決定すると、決定した動詞文字列 702および表現 名文字列 703を文字列 · CG変換処理部 131へ送る。
[0204] これに対し、文字列 ' CG変換処理部 131は、キャラクタ '動作対応表 120を参照し 、送られてきた動詞文字列 702および表現名文字列 703に対応する動作データへ のリンク 704を抽出する。
[0205] 次に、文字列 ' CG変換処理部 131は、抽出したリンク情報 704を用いて、動作デ ータ 113を抽出し、抽出した動作データ 113を表示制御部 127へ送る。
[0206] これに対し、表示制御部 127は、送られてきた動作データ 113を、 GUI1400のプ レビュー表示部 1406にプレビューを表示する(S2209)。
[0207] なお、この際、表示制御部 127は、送られてきた動作データ 113が複数ある場合は 、例えば先頭の動作データ 113などを選択して、 GUI1400のプレビュー表示部 140 6に選択した動作データ 113に対するプレビューを表示する。
[0208] 次に、入力制御部 126は、 GUI1400の次候補ボタン 1407が押下される力 動作 入力部 1404に表示された「more, · ·」が選択される力 \送信ボタン 1309が押下され るのを監視する(S2210)。
[0209] S2210において送信ボタン 1409が押下されたと判断した場合には、表示制御部 1 27は、処理を終了する。次候補ボタン 1407が押下されたと判断した場合には、文字 列 ' CG変換処理部 131は、ユーザが GUI1400において選択した動詞文字列 702 および表現名文字列 703に対応する動作データ 113のうち、 S2209においてプレビ ユーを表示している動作データ以外の動作データを選択する。そして、文字列 ' CG 変換処理部 131は、選択した動作データを表示制御部 127に送り、表示制御部 127 が送られてきた動作データを用いてプレビューを作成し、プレビュー表示部 1406に 表示し(S2211)、 S2210の処理に移行する。
[0210] このように、ユーザが選択した動詞文字列 702および表現名文字列 703に対応す る動作データ 113の全てのプレビューを表示できる。この結果、ユーザは、選択した 動詞文字列 702および表現名文字列 703に対応する動作データ 113を、プレビュー を見た上で選択することができる。
[0211] また、 S2207において動作入力部 1404に表示された「more ' ' '」が選択されたと 、つまり検索部 128による動作データ 113の検索処理の実行が指示されたと判断し た場合は、検索部 128は、検索処理を行い(S2212)、 S2207の処理に移行する。 なお、検索処理(S2212)の詳細については、後述する。
[0212] 以上のように、ユーザに対して保持する動詞文字列 702および表現名文字列 703 の一覧を表示することができる。これにより、ユーザは、どのような動作データ 113が 存在されているのか容易に把握できる。
[0213] また、 GUI1400に選択可能な動作データ 113の動詞文字列 702および表現名 70 1の一覧を表示することにより、ユーザがキャラクタ '動作対応表 120を解析する必要 がなくなり、容易に選択可能な動詞文字列 702および表現名文字列 703の一覧を把 握できる。
[0214] 次に、画像作成装置 100のオブジェクト決定処理(S1707)の動作について、図 24 を用いて詳細に説明する。図 24は、画像作成装置 100のオブジェクト決定処理のフ ローチャートである。 [0215] 画像作成装置 100の入力制御部 126が、入力部 104から GUI1400に対してシナ リオの入力があるか監視する(S2401)。具体的には、 S2401において、 目的語入力 部 1405にマウスなどの選択(クリック処理)がある力、もしくはオブジェクト名の入力が あるかを監視する。
[0216] そして、 S2401においてシナリオの入力があると、入力制御部 127は、オブジェクト 名の入力があった場合は入力された文字を、クリック処理があった場合はその旨を文 字列 · CG変換処理部 131へ送る。
[0217] 次に、文字列 ' CG変換処理部 131は、文字列 ·セット対応表 122を検索する(S24 02)。そして、文字列 'CG変換処理部 131は、オブジェクト名 803に関する文字を受 信した場合は、 S1702で決定した場所名文字列 801に対応し、かつ送られてきた文 字を先頭に持つオブジェクト名 803があるか検索する。また、文字列 ' CG変換部 131 は、クリック処理があった旨の情報を受信すると、文字歹 1 セット対応表 122に保存さ れた S1702で決定した場所名文字列 801に対応する全てのオブジェクト名 803を検 索する(S2403)。
[0218] そして、 S2403においてオブジェクト名 803を検出した場合には、文字列 ' CG変換 処理部 131は、検出したオブジェクト名 803を表示制御部 131へ送る。そして、表示 制御部 131が、送られてきたオブジェクト名 803を目的語入力部 1405の入力された 文字に並べて表示する(S2404)。
[0219] 例えば、 S2401において、 目的語入力部 1405にクリック処理があった場合、文字 歹 ' CG変換処理部 131は、文字歹 セット対応表 122から、 S1702において決定し た場所名文字列 801に対応する全てのオブジェクト名 803を検索し(S2402、 2403 )、表示制御部 127へ送る。そして、表示制御部 127が、図 25に示すように、送られ てきたオブジェクト名 803である「the 611( 11」と「セ116 slide」と、検索部 128によるセ ットデータ 114の検索処理を実行するための「 more ' · と、を目的語入力部 1405に 並べて表示する(S2404)。
[0220] このように、オブジェクト名 803の一覧を表示することにより、ユーザは、どのようなォ ブジェクト名 803が選択可能か認識できる。
[0221] また、 S2404において、オブジェクト名 803の一覧を表示する際に、今までユーザ が選択した履歴を用いて、選択回数の多いオブジェクト名 803から順に並べるように する。
[0222] 次に、入力制御部 126は、 S2401において入力されたシナリオの追加シナリオの 入力がある監視する(S2405)。そして、 S2405におレ、て、追加シナリオがある場合 は、追加シナリオを含んだ文字列に対して S2403以降の処理をする。
[0223] 次に、入力制御部 126は、ユーザが目的語入力部 1405を用いてオブジェクト名 8 03を決定するか監視し、ユーザがオブジェクト名 803を決定すると、決定したォブジ ヱタトパラメータ 805を文字列 ' CG変換処理部 131へ送る。
[0224] これに対し、表示制御部 127は、送られてきたオブジェクトパラメータ 805を、既に 選択されてレ、るキャラクタが選択されてレ、る動作の中で作用する(例:椅子に座る)よ うに GUI1400のプレビュー表示部 1406にプレビューを表示する(S2406)。
[0225] 次に、入力制御部 126は、 GUI1400の次候補ボタン 1407が押下される力 \ 目的 語入力部 1405に表示された「more ' ' '」が選択される力 \送信ボタン 1409が押下さ れるのを監視する(S2407)。
[0226] S2407において送信ボタン 1409が押下されたと判断した場合には、表示制御部 1 27は、処理を終了し、次候補ボタン 1407が押下されたと判断した場合には、文字列 •CG変換処理部 131は、ユーザが目的語入力部 1405において選択したオブジェク ト名 803に対応するオブジェクトデータのうち、 S2406においてプレビューを表示し ているオブジェクト以外のオブジェクトを選択する。そして、文字列 ' CG変換処理部 1 31は、選択したオブジェクトパラメータを表示制御部 127に送り、表示制御部 127が 送られてきたオブジェクトパラメータを用いてプレビューを作成し、プレビュー表示部 1 406ίこ表示し(S2408)、 S2407の処 ii (こ移行する。
[0227] このように、ユーザが選択したオブジェクト名 803に対応する全てのオブジェクトに 対応するオブジェクトパラメータ 805のプレビューを表示できる。この結果、ユーザは 、選択したオブジェクト名 803に対応するオブジェクトを、プレビューを見たうえで選 択すること力できる。
[0228] また、 S2407において目的語入力部 1405に表示された「more " '」が選択された と、つまり検索部 128によるセットデータ(オブジェクトデータ) 114の検索処理の実行 が指示されたと判断した場合は、検索部 128は、検索処理を行い(S2409)、 S2407 の処理に移行する。なお、検索処理(S2409)の詳細については、後述する。
[0229] このように、ユーザに対して選択可能なオブジェクト名 803の一覧を表示することが できる。これにより、ユーザは、どのようなオブジェクト名 803を選択できるのか容易に 把握できる。さらに、動詞文字列 702が選択された状態におけるオブジェクト名 803 の利用頻度の多い順にオブジェクト名 803を並べるカ 場所名文字列 801と動詞文 字列 702が両方選択された状態におけるオブジェクト名 803の利用頻度の多い順に オブジェクト名 803を並べるか、場所名文字列 801と主語名詞文字列 601と動詞文 字列 702が三つ選択された状態におけるオブジェクト名 803の利用頻度の多い順に オブジェクト名 803を並べるようにしてもょレ、。
[0230] 以上説明したように、本実施の形態によれば、ユーザが選択可能な動作、キャラク タ、セット、さらに動作の対象であるオブジェクトを一覧として表示することができる。こ れにより、ユーザは、選択可能な動作、キャラクタ、セット、さらに動作の対象であるォ ブジェクトを容易に認識でき、認識したうえで選択できるので、容易にかつ確実にシ ナリオからコンピュータ ·グラフィックスを作成できる。
[0231] また、画像作成装置 100は、図 26に示すように、 GUI1400に、複数の文章からな るシナリオを入力することもできる。この場合は、上位の文章力 順に並んだコンビュ ータ ·グラフィックスを作成できる。
[0232] また、図 26のように複数の文章からなるシナリオを入力する場合は、図中 2601のよ うに最初の文章のキャラクタ(「 Girl」 )とは別のキャラクタ (「 Man」 )が登場することが ある。この場合は、図 27に示すように、複数のキャラクタが登場した時点で、一方のキ ャラクタが動作する対象のオブジェクトに他方のキャラクタを加える。図 27の例では、 「Giri」のオブジェクトに「Man」 2701を、「Man」のオブジェクトに「Girl」 2702を加え る。
[0233] なお、本実施の形態では場所名文字列として Park、 School,主語名詞文字列とし て Giri、 Man、動詞文字列として「じたばたする」、「じやんぷする」、 sits on、 goes close to, stands up、 says、表現名文子歹 [Jとして happily、 sadlyを用いた力 S、こ れらに限定されなレ、。特に、主語名詞文字列の例は一般名詞であるが、頻繁に利用 したレ、キャラクタデータに対し、固有名詞の名前を付与し (例: Girlを Aiとする)保存し ておくことにより固有名詞を用いても良い。
[0234] なお、本実施の形態において、キャラクタ形容詞文字列 603とオブジェクト形容詞 文字列 804は、それぞれキャラクタデータとオブジェクトデータを表示する前およびそ の時に表示することによりデータの違いが分かりやすいように示しても良いし、それぞ れ主語入力部 1403と目的語入力部 1405の中または横に一覧表示することで、キヤ ラクタデータとオブジェクトデータの更なる検索(フィルタリング)を行っても良い。
[0235] また、本実施の形態において、文字列'キャラクタ対応表 118、キャラクタ '動作対応 表 120、文字歹リ'セット対応表 122をインターネット 107のサーバ 108 114上に置き 、一人または複数のユーザで共有することができる。また、多くの素材データを使用 することができるだけでなぐ他のユーザ等によって作成された最新の素材データを 使用できる。
[0236] また、文字歹 キャラクタ対応表 118の主語名詞文字列 601、キャラクタ '動作対応 表 120の動詞文字列 702および表現名文字列 703、文字列'セット対応表 122の場 所名文字列 801およびオブジェクト名 803を、複数のユーザが選択した履歴を基に 選択回数の多い文字列から順に記述保存し、利用頻度の高い文字列が先に検索さ れるようにしても良レ、。また同様に、文字歹 IJ 'キャラクタ対応表 118のキャラクタデータ へのリンク情報 602、キャラクタ '動作対応表 120の動作データへのリンク情報 704、 文字歹 I] ·セット対応表 122のセットデータへのリンク情報 802を、複数のユーザが選択 した履歴を基に選択回数の多!/、データへのリンク情報力 順に記述保存し、利用頻 度の高いデータが先に表示されるようにしても良い。
[0237] また、動作辞書 124をインターネット 104上におき、一人または複数のユーザで共 有する用にしても良い。
[0238] 次に、本実施の形態に力 >かる画像作成装置 100の検索処理(S 1809、 2009、 22 12、 2409)について、図 28を用いて詳細に説明する。図 28は、本実施の形態にか 力、る画像作成装置 100の検索処理のフローチャートである。
[0239] なお、実際には、画像作成装置 100は、 S1809ではセットデータ 114の検索、 S20 09ではキャラクタデータ 1 12の検索、 S2209では動作データ 1 13の検索、 S2409で はオブジェクトデータ(セットデータ 114)の検索を行う。しかし、以下の説明では、キ ャラクタデータ 112、動作データ 113、およびセットデータ 114を素材データとして説 明する。
[0240] まず、画像作成装置 100の表示制御部 127が、素材データを検索するための画面 である GUI1500を作成し、モニタ 105に表示する(S2801)。そして、画像作成装置
100は、特徴から素材データを検索するモードに移行する。
[0241] 次に、画像作成装置 100の入力制御部 126が、素材に対する特徴入力部 1502か ら入力されたか監視し(S2802)、特徴が入力された場合はその旨を検索部 128に 送る。
[0242] また、 S2802において、画像作成装置 100は、特徴入力部 1502に特徴が入力さ れた時点で、階層構造記述 130を参照し、入力された特徴に部分一致する Termも しくは Keyの一覧を特徴入力部 1502に表示する。
[0243] そして、検索部 128は、 S2802において入力された特徴に対する素材データの検 索処理を行う(S2803)。なお、 S2803の処理の詳細については、後述する。
[0244] 次に、画像作成装置 100の登録部 129が、メタデータデータベース 111から、 S28 03において決定した素材データに対応するメタデータを取得する。次に、登録部 12 9は、取得したメタデータに記述されたリンク情報を用いてキャラクタデータデータべ ース 108、動作データデータベース 109、もしくはセットデータデータベース 110から 、 S2803において決定した素材データ(キャラクタデータ 112、動作データ 113、セッ トデータ 114)を取得する(S2804)。
[0245] 次に、登録部 129は、 S2804において取得したメタデータの内容、つまり検索結果 を登録する。詳細には、登録部 129は、 S2804において取得したメタデータがキャラ クタに関する場合はメタデータの内容を文字列 ·キャラクタ対応表 118に追加し、 S28 04において取得したメタデータが動作に関する場合はメタデータの内容をキャラクタ •動作対応表 120に追加し、 S2804において取得したメタデータがセットに関する場 合はメタデータの内容を文字歹 IJ 'セット対応表 122に登録する(S2805)。
[0246] これにより、文字歹 1】·キャラクタ対応表 118、キャラクタ ·動作対応表 120、文字列 'セ ット対応表 122に検索した結果を反映できる。この結果、ユーザが一度検索した素材 データに関する情報がそれ以降シナリオ入力用の GUI1400に表示されるようになる 。よって、ユーザが、一度検索した素材データを再度検索することなぐ使用するよう にできる。
[0247] 次に、登録部 129は、取得した素材データを追加する。具体的には、登録部 129 は、取得した素材データがキャラクタデータ 112の場合動作データ 113の場合は取 得した動作データを動作データ記憶部 116に記憶し、取得した素材データがセット データ 114の場合は取得した素材データをセットデータ記憶部 117に記憶する(S28 06)。
[0248] これにより、一度取得した素材データを再度インターネット 107を介して取得する必 要がなくなる。検索した素材データは、ユーザが頻繁に使用する可能性が大きいの で、その効果は大きい。
[0249] 次に、画像作成装置 100の素材データ検索処理(図 28の S2803)の処理につい て、図 29を用いて詳細に説明する。図 29は、本実施の形態にかかる画像作成装置 100の素材データ検索処理のフローチャートである。
[0250] まず、画像作成装置 100の検索部 128が、入力制御部 126から送られてきた特徴( 単語)を入力する(S2901)。次に、検索部 128は、階層構造記述 130を参照し、 S2 901におレ、て入力された特徴(単語)もしくは特徴の類似語を検索する(S2902)。
[0251] 次に、検索部 128は、 S2902において、検索した単語が Keyに関する単語なのか Termに関する単語なのか判断する(S2903)。
[0252] S2903において、検索した単語が Keyであると判断すると、検索部 128は、階層構 造記述 130を参照し、 S2902において検索した単語(Key)の子要素の Termを検 索し、検索した Termの一覧を表示制御部 127に送る。そして、表示制御部 127は、 送られてきた Termの一覧を GUI1500の特徴表示部 1503に表示する(S2904)。
[0253] なお、 S2904におレ、て、表示する Termの数をユーザの所望の数などに設定しても 良レ、。この場合、表示する Termは、ユーザの利用履歴の多いものを優先したり、ァ ルファベット順にしたり、 Termに予め付与しておいた優先度の高いものを優先したり
、いろいろな応用例が考えられる。この結果、ユーザは、選択肢を少なくできるので、 検索効率を上げることができる。 [0254] 次に、入力制御部 126が、ユーザにより特徴表示部 1503に表示された Termの一 覧から所望の Termの選択があつたか監視し、所望の Termの選択があった場合は、 選択のあった Termを検索部 128に送る。そして、検索部 128が、送られてきた Term を決定する(S2905)。
[0255] 次に、検索部 128は、メタデータデータベース 111を参照し、決定した Termに対 応するメタデータを検索する。次に、検索部 128は、検索したメタデータを文字列 ' C G変換記憶部 131に送り、文字列 · CG変換記憶部 131が送られてきたメタデータを 用いて、決定した Termのサムネイルを取得し、取得したサムネイル (検索結果)の一 覧を表示制御部 127に送る。そして、表示制御部 127がサムネイルの一覧を GUI15 00のサムネイル表示部 1505に表示する(S2906)。
[0256] これにより、ユーザは、サムネイルを見ることにより、決定した Termに对する素材デ ータの概要を視覚的に認識することができる。
[0257] 次に、画像作成装置 100は、入力制御部 126において、ユーザによりさらに細かく 検索条件 (Key)の設定をする入力、つまり下位の概念を用いてさらに詳細な検索を 行う入力があるか判断する(S2907)。
[0258] そして、 S2907において、これ以上細力べ設定して検索を行わないと判断した場合 、つまり S2906において表示したサムネイルの一覧力らいずれのサムネイルの選択 があった場合、処理を終了する。
[0259] 一方、 S2907において、さらに細かく設定して検索を行う判断した場合は、検索部
128は、階層構造記述 130を参照し、 S2905において決定した Termの子要素の K eyを検索し、検索した Keyの一覧を表示制御部 127に送る。そして、表示制御部 12 7は、送られてきた Keyの一覧を GUI1500の特徴表示部 1504に表示する(S2909
[0260] 次に、入力制御部 126が、ユーザにより特徴表示部 1504に表示された Keyの一 覧から所望の Keyの選択があつたか監視し、所望の Keyの選択があった場合は、選 択のあった Keyを検索部 128に送る。そして、検索部 128が、送られてきた Keyを決 定する(S2910)。
[0261] そして、検索部 128は、 S2910において、決定した Keyに対して S2904以降の処 理を行い、シナリオの素材に対する素材データを決定する。
[0262] 例えば、図 30に示すように、画像作成装置 100は、特徴入力部 1502に「Wear」と レ、う Keyが入力された場合(S2901)、階層構造記述 130から「Wear」という Keyの 子要素の Termである「Shirt」「Trouser」「Glasses」を検索し、特徴表示部 1503に 表示する(S2902— S2904)。
[0263] 次に、ユーザが、特徴表示部 1503から「Trouser」を選択した場合、画像作成装置
100は、「Trouser」を決定し(S2905)、「Trouser」に対する素材データのサムネィ ルをサムネイル表示部 1505に表示する(S2906)。
[0264] 次に、ユーザが、表示されたサムネィノレの数が多すぎる等と判断し、さらに細力べ検 索するという入力をすると(S2907)、画像作成装置 100は、階層構造記述 130から「 TrouserJの子要素の Keyである「Trouser. Color」と「Trouser. LengthJを検索し 、特徴表示部 1504に表示する(S2908)。
[0265] 次に、ュ一ザが「Trouser. Color」を選択した場合、画像作成装置 100は、「Trou ser. Color」を決定し(S2910)、階層構造記述 130を参照し、「Trouser. Color」の 子要素の Termである「Blue」「Gray」「Green」「Brown」を検索し、特徴表示部 300 1に表示する(S2904)。
[0266] 次に、ユーザが、特徴表示部 1503から「Blue」を選択した場合、画像作成装置 10 0は、「Blue」を決定し(S2905)、「Blue」に対する素材データのサムネイルをサムネ ィル表示部 1505に表示する(S2906)。そして、ユーザが表示されたサムネイルから 所望のサムネィノレを選択することにより、そのサムネィノレに対する素材データを選択 する。
[0267] このように、画像作成装置 100は、シナリオの素材に対する特徴が Keyで入力され た場合に、入力された Keyとそれに対応する Termに対する素材データを検索する。
[0268] また、最初に入力した Keyを用いた検索では対応する素材データが多すぎる場合 は、下位の Keyを用いることで検索範囲を絞り込んで検索ができる。これにより、ユー ザは、適当な数の素材データの候補から所望の素材データを検索できる。
[0269] つまり、上位の概念の特徴から下位の概念の特徴へ、言い換える大まかな特徴か ら詳細な特徴へ検索範囲を狭めながら、素材データの検索ができる。 [0270] 一方、 S2903において、検索した単語が Termであると判断すると、検索部 128は 、階層構造記述 130を参照し、 S2902において検索した単語 (Term)の親要素の K eyを検索し、検索した Keyが複数あるか判断する(S2911)。そして、 S2911におい て、親要素になれる Keyが複数あると判断すると、その Keyの一覧を表示制御部 12 7に送る。そして、表示制御部 127は、送られてきた Keyの一覧を GUI1500の特徴 表示部 1503に表示する(S2912)。
[0271] なお、 S2912において、表示する Keyの数をユーザの所望の数などに設定しても 良レ、。この場合、表示する Keyは、ユーザの利用履歴の多いものを優先したり、アル ファベット順にしたり、 Keyに予め付与しておいた優先度の高いものを優先したり、い ろいろな応用例が考えられる。
[0272] 次に、入力制御部 126が、ユーザにより特徴表示部 1503に表示された Keyの一 覧から所望の Keyの選択があつたか監視し、所望の Keyの選択があった場合は、選 択のあった Keyを検索部 128に送る。そして、検索部 128が、送られてきた Keyを決 定する(S2913)。
[0273] 次に、検索咅 は、 S2913において決定された Keyと S2901で人力された Ter mを検索部 128に送り、検索部 128がメタデータデータベース 111を参照し、決定し た Keyと Termに対応するメタデータを検索する。次に、検索部 128は、検索したメタ データを文字列 · CG変換記憶部 131に送り、文字列 · CG変換記憶部 131が送られ てきたメタデータを用いて、決定した Keyと Termのサムネイルを取得し、取得したサ ムネイル (検索結果)の一覧を表示制御部 127に送る。そして、表示制御部 127がサ ムネイルの一覧を GUI1500のサムネイル表示部 1505に表示する(S2914)。
[0274] これにより、ユーザは、サムネイルを見ることにより、決定した Keyと Termに対する 素材データの概要を視覚的に認識することができる。
[0275] 次に、画像作成装置 100は、入力制御部 126において、ユーザによりさらに細かく 検索条件 (Term)の設定をする入力、つまり上位の概念を用いて検索する入力があ るか判断する(S2915)。
[0276] そして、 S2915において、これ細力べ設定して検索を行わないと判断した場合は処 理を終了する。 [0277] 一方、 S2915において、さらに細かく設定して検索を行う判断した場合は、検索部 128は、階層構造記述 130を参照し、 S2913において決定した Keyの親要素にな れる Termを検索し、検索した Termが複数あるか判断する(S2916)。
[0278] S2916において複数の Termがあると判断した場合は、ユーザにいずれかの Ter mを選択させる必要があるので、検索した Termの一覧を表示制御部 127に送る。そ して、表示制御部 127は、送られてきた Termの一覧を GUI1500の特徴表示部 150 4に表示する(S2917)。
[0279] 次に、入力制御部 126が、ユーザにより特徴表示部 1504に表示された Termの一 覧から所望の Termの選択があつたか監視し、所望の Termの選択があった場合は、 選択のあった Termを検索部 128に送る。そして、検索部 128が、送られてきた Term を決定する(S2918)。
[0280] そして、検索部 128は、 S2918において決定した Termに対して、 S2911以降の 処理をする。
[0281] 一方、 S2916において、複数の Termがないと判断した場合は、ユーザに Termを 選択させる必要がないので、この Termに対して、 S2911以降の処理をする。そして 、検索咅 128ίま、 S291CHこおレヽて、決定した Key【こ対して S2904以降の処理を行レヽ 、シナリオの素材に対する素材データを決定する。
[0282] また、 S2911におレ、て、親要素になれる Keyが複数ないと判断すると、検索部 128 は、この Keyが Root要素である力、つまり最上位の Keyであるか判断する(S2919)
[0283] そして、 S2919において、この Keyが Root要素であると判断した場合は、この親要 素の Keyは Root要素しかないので、検索部 128は、 S2921の処理に移行し、この eyが Root要素でない場合は、この Keyを選択したものとして自動決定し、 S2914の 処理に移行する(S2920)。
[0284] 次に、検索部 128は、 S2919におレヽて決定された Keyと S2911もしくは S2913で 決定された Keyを検索部 128に送り、検索部 128がメタデータデータベース 105を参 照し、決定した Keyと Termに対応するメタデータを検索する。次に、検索部 128は、 検索したメタデータを文字列 ' CG変換記憶部 131に送り、文字列 'CG変換記憶部 1 31が送られてきた検索結果内のリンク情報から取得したサムネイルの一覧 (検索結 果)を表示制御部 127に送る。そして、表示制御部 127がサムネイルの一覧を GUI6 00のサムネイル表示部 605に表示する(S2921)。
[0285] 次に、画像作成装置 100は、 S2921において表示したサムネイルの一覧からいず れのサムネイルの選択待ち、選択されると選択されたサムネイルに対応する素材デ ータを決定し、処理を終了する。
[0286] 例えば、図 31に示すように、画像作成装置 100は、特徴入力部 1502に「Blue」と レ、う Keyが入力された場合(S2901)、階層構造記述 130から「Blue」という Termの 親要素の Keyである「Shirt. ColorJ「Trouser. Color」を検索し、特徴表示部 150 3に表示する(S2901— S2903、 S2911、 S2912)。
[0287] 次に、画像作成装置 100は、ユーザが選択した「Shirt. Color]に対応するサムネ ィゾレをサム才ヽィノレ表示 l 505 (こ表示する(S2913、 S2914)。
[0288] さらに、ユーザが「Shirt. ColorJの上位の Termである「Shirt」を用いた検索を行 おうとした場合、画像作成装置 100は、「3 11」と「31 111」の親要素の Key「Wear」を 特徴表示部 1504に表示し、「Shirt」 「Wea]^ 対するサムネイルを表示し、ユーザ に選択される(S2915、 S2916、 S2911— S2914)。
[0289] さらに、ユーザが「Wear」の上位の Termである「Hmnan」を用いた検索を行おうと した場合、画像作成装置 100は、「Human」と「Human」の親要素の Key「Genre」 を特徴表示部 3101に表示し、「Human」と「Genre」に対するサムネイルを表示し、 ユーザに選択される(S2915、 S2916、 S2911— S2914)。
[0290] さらに、ユーザが「Genre」の上位の Termである「Character」を用いた検索を行お うとした場合、画像作成装置 100は、「01& & 61~」と「01& (^61~」の親要素の Key「 Content]を特徴表示部 3102に表示し、「Character」と「Content」に対するサム ネィノレを表示し、ユーザ ίこ選択される(S2915、 S2916、 S291 1、 S2919、 S2921 )
[0291] このように、画像作成装置 100は、シナリオの素材に対する特徴力 STermで入力さ れた場合に、入力された Termを持つ親要素 Keyとの組を用いて素材データを検索 する。 [0292] また、最初に入力した Termと親要素の Keyを用いた検索では対応する素材デー タが少なすぎる場合は、上位の Termとその親要素の Keyを用いることで検索範囲を 広げて検索ができる。これにより、ユーザは、適当な数の素材データの候補から所望 の素材データを検索できる。
[0293] つまり、下位の概念の特徴から上位の概念の特徴へ、言い換えると細かな特徴から 大まかな特徴へ検索範囲を広げながら、素材データの検索ができる。
[0294] 以上説明したように、コンピュータ 'グラフィックス作成処理をしながら素材データの 検索ができ、検索した素材データを用いてコンピュータ 'グラフィックスの作成処理を 行うことができる。このように、コンピュータ 'グラフィックス作成処理と素材データの検 索処理を一連の動作で行える。この結果、コンピュータ 'グラフィックス作成処理の高 速化および確実化が図れる。
[0295] また、ユーザが頭に浮かんだ特徴を入力するだけで、その特徴に対応する素材デ ータを検索できる。これにより、素材データの名前など知らなくても、簡単に所望の素 材データの検索ができる。
[0296] 以上説明したように、本実施の形態によれば、ユーザが装置の持っている素材デ ータを確認しながらコンピュータ 'グラフィックスのシナリオ作成をできる。また、シナリ ォ入力からコンピュータ 'グラフィックスを作成する処理と、新たに素材データを検索 する処理とを一連の動作により行うことができる。また、新たに検索した素材データを 登録することで、検索した素材データをそれ以降容易に用いることができる。
[0297] なお、画像作成装置 100の行う処理をプログラムにして、汎用のコンピュータに実 行させる形態であっても良い。
[0298] また、本実施の形態では、シナリオ入力からコンピュータ 'グラフィックスを作成する 処理と、新たに素材データを検索する処理および新たに検索した素材データを登録 する処理を一連の動作により行う形態で説明したが、シナリオ入力からコンピュータ' グラフィックスを作成する処理、新たに素材データを検索する処理、新たに検索した 素材データを登録する処理をそれぞれ別の装置において行う形態であっても良い。
[0299] 本明糸田書は、 2004年 1月 27曰出願の特願 2004— 018839、 2004年 2月 5曰出願 の特願 2004— 029599、および 2005年 1月 25日出願の特願 2005— 17468に基づ く。この内容はすべてここに含めておく。
産業上の利用可能性
本発明は、画像を作成する装置だけでな コンピュータ 'グラフィックスを用いて所 望のメッセージや情報を他のユーザに伝える携帯電話のような通信装置など幅広い 分野に利用できる。

Claims

請求の範囲
[1] 各種情報を入力する入力部と、各種情報を表示する表示部と、コンピュータ 'グラフ イツタスを作成するための素材データを記憶する素材データ記憶部と、前記素材デ ータと前記素材データの素材名の組を対応付けた文字列'素材対応表と、前記素材 データの特徴を階層構造で記述する階層構造記述と、前記入力部から前記特徴の 入力があった際に前記階層構造記述を用いて前記特徴に対応する前記素材データ を検索する検索部と、検索した前記素材データを前記素材データ記憶部に記憶する と共に前記検索した素材データおよび当該素材データの前記素材名を文字歹 素 材対応表に登録する登録部と、前記入力部から前記素材名の入力があった際に前 記文字列'素材対応表を用いて前記素材名に対応する素材データを取得し、取得し た前記素材データを用いてコンピュータ ·グラフィックスを作成する文字列 · CG変換 処理部と、を具備する画像作成装置。
[2] 前記検索部は、前記特徴が入力された際に前記階層構造記述を参照し、入力され た前記特徴より下位の階層の前記特徴を検索し、検索した前記下位の特徴に対する 前記素材データを検索する請求項 1記載の画像作成装置。
[3] 前記検索部は、前記特徴が入力された際に前記階層構造記述を参照し、入力され た前記特徴より上位の前記特徴を検索し、検索した前記上位の特徴に対する前記素 材データを検索する請求項 1記載の画像作成装置。
[4] 検索した前記特徴の一覧を前記表示部に表示する表示制御部を具備し、前記検 索部は、前記一覧から前記特徴の選択があった場合に選択された前記特徴に対す る前記素材データを検索する請求項 1記載の画像作成装置。
[5] 前記表示制御部は、前記一覧から選択のあった前記特徴に対する前記素材デー タのサムネイルの一覧を表示する請求項 4記載の画像作成装置。
[6] 前記表示制御部は、予め設定した数の前記特徴を表示する請求項 4記載の画像 作成装置。
[7] 前記特徴は属性と前記属性の値により定義されている請求項 1記載の画像作成装 置。
[8] 前記階層構造記述はネットワーク上に格納された前記素材データに関する前記特 徴が記述され、前記検索部は前記ネットワーク上に格納された前記素材データの検 索を行い、前記登録部は前記ネットワーク上に格納された素材データの登録を行う 請求項 1記載の画像作成装置。
[9] 前記文字列 ' CG変換処理部は、前記入力画面に前記素材名を指示するテキスト の入力があった場合に、前記文字列'素材対応表を参照し、入力された前記テキスト が部分一致する前記素材名を検索し、前記表示制御部は、検索された前記素材名 の一覧を表示する請求項 1記載の画像作成装置。
[10] 前記素材名には表現を表す表現形容詞がさらに対応付けられ、前記文字列 ' CG 変換処理部は、前記表現形容詞を指示するテキストの入力があった場合に、入力さ れた前記テキストが部分一致する前記表現形容詞を検索し、前記表示制御部が前 記表現形容詞を表示する請求項 1記載の画像作成装置。
[11] 前記素材名には表現を表す表現副詞がさらに対応付けられ、前記文字列 ' CG変 換処理部は、前記表現副詞を指示するテキストの入力があった場合に、入力された 前記テキストが部分一致する前記表現副詞を検索し、前記表示制御部が前記表現 副詞を表示する請求項 1記載の画像作成装置。
[12] 前記素材データは動作データ、キャラクタデータ、オブジェクトデータ、セットデータ の少なくともひとつであり、前記素材名は前記動作データ、キャラクタデータ、ォブジ ェクトデータ、セットデータに対応する動作名、キャラクタ名、オブジェクト名、セット名 であり、前記文字列'素材対応表は前記動作データ、キャラクタデータ、オブジェクト データ、セットデータに対応する文字列 ·動作対応表、文字列 ·キャラクタ対応表、文 字列'セット対応表、文字列'セット対応表である請求項 1記載の画像作成装置。
[13] 前記動作名が前記キャラクタデータと対応付けられ、文字列 ' CG変換処理部は、 選択された前記キャラクタデータに対応する前記動作名を検索する請求項 12記載 の画像作成装置。
[14] 前記動作データは目的語を取り、文字列 ' CG変換処理部は、前記動作データが 取りうる目的語を表すオブジェクト名が入力された際に、入力された前記オブジェ外 名に対応するオブジェクトデータを取得し、取得した前記オブジェクトデータを用いて コンピュータ 'グラフィックスを作成する請求項 12記載の画像作成装置。
[15] 前記文字列 ' CG変換処理部は、前記動作名が取り得る目的語を表すオブジェクト 名を指示するテキストの入力があった場合に、文字列'セット対応表を参照し、入力さ れた前記テキストが部分一致する前記オブジェクト名を検索する請求項 14記載の画 像作成装置。
[16] コンピュータ 'グラフィックスを作成するための素材データと前記素材データの素材 名の組を対応付けた文字列 ·素材対応表を備えるステップと、前記素材データの特 徴を階層構造で記述する階層構造記述を備えるステップと、前記特徴の入力があつ た際に前記階層構造記述を用いて前記特徴に対応する前記素材データを検索する ステップと、検索した前記素材データを記憶するステップと、前記検索した素材デー タおよび当該素材データの前記素材名を文字歹 1 素材対応表に登録するステップと 、前記素材名の入力があった際に前記文字歹 1』·素材対応表を用いて前記素材名に 対応する素材データを取得するステップと、取得した前記素材データを用いてコンビ ユータ 'グラフィックスを作成するステップと、を具備する画像作成方法。
PCT/JP2005/000989 2004-01-27 2005-01-26 画像作成装置および画像作成方法 WO2005071616A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/597,464 US7797330B2 (en) 2004-01-27 2005-01-26 Image formation device and image formation method
EP05704126A EP1703468A1 (en) 2004-01-27 2005-01-26 Image formation device and image formation method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004-018839 2004-01-27
JP2004018839 2004-01-27
JP2004029599 2004-02-05
JP2004-029599 2004-02-05
JP2005017468A JP4603373B2 (ja) 2004-01-27 2005-01-25 画像作成装置および画像作成方法
JP2005-017468 2005-01-25

Publications (1)

Publication Number Publication Date
WO2005071616A1 true WO2005071616A1 (ja) 2005-08-04

Family

ID=34811795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000989 WO2005071616A1 (ja) 2004-01-27 2005-01-26 画像作成装置および画像作成方法

Country Status (5)

Country Link
US (1) US7797330B2 (ja)
EP (1) EP1703468A1 (ja)
JP (1) JP4603373B2 (ja)
KR (1) KR20060128962A (ja)
WO (1) WO2005071616A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134966A (ja) * 2006-11-29 2008-06-12 Sony Corp データ管理サーバ、データ管理システム、データ管理方法およびプログラム
US20100077359A1 (en) * 2006-12-19 2010-03-25 Yoshihiro Shinawaki Map display device
JP2008299493A (ja) * 2007-05-30 2008-12-11 Kaoru Sumi コンテンツ作成支援システム及びコンピュータプログラム
US8296438B2 (en) * 2007-07-11 2012-10-23 International Business Machines Corporation Dynamically configuring a router to find the best DHCP server
US20140198109A1 (en) * 2013-01-16 2014-07-17 International Business Machines Corporation Method and system for preserving a graphics file
JP5908855B2 (ja) * 2013-02-21 2016-04-26 日本電信電話株式会社 3次元オブジェクト生成装置、方法、及びプログラム
GB2519312A (en) * 2013-10-16 2015-04-22 Nokia Technologies Oy An apparatus for associating images with electronic text and associated methods
US20220084424A1 (en) * 2020-09-16 2022-03-17 Daniel Gray Interactive communication system for special needs individuals

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264972A (ja) * 1991-02-20 1992-09-21 Sharp Corp 自然言語処理装置及びそれを利用した動画形成装置
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09167251A (ja) * 1995-12-14 1997-06-24 Canon Inc アニメーション生成装置及びその方法
JPH09167165A (ja) * 1995-12-15 1997-06-24 Matsushita Electric Ind Co Ltd 動画像生成方法
JP2000331182A (ja) * 1999-05-21 2000-11-30 Fujitsu Ltd アニメーション編集装置とアニメーション再生装置とプログラム記録媒体
JP2001243221A (ja) * 2000-03-02 2001-09-07 Takuo Kitamura 電子機器の文字入力方法と文字入力システム
JP2002108875A (ja) * 2000-10-04 2002-04-12 Soatec Inc 電子マニュアル装置及び電子マニュアルの変更方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3133243B2 (ja) 1995-12-15 2001-02-05 株式会社エヌケーインベストメント オンラインショッピングシステム
US6654031B1 (en) * 1999-10-15 2003-11-25 Hitachi Kokusai Electric Inc. Method of editing a video program with variable view point of picked-up image and computer program product for displaying video program
JP2001125894A (ja) 1999-10-29 2001-05-11 Sony Corp 文書編集処理装置及び文書編集処理方法およびプログラム提供媒体
US20020016707A1 (en) * 2000-04-04 2002-02-07 Igor Devoino Modeling of graphic images from text
JP2001307137A (ja) 2000-04-21 2001-11-02 Sony Corp 情報処理装置および方法、並びに格納媒体
US6721706B1 (en) * 2000-10-30 2004-04-13 Koninklijke Philips Electronics N.V. Environment-responsive user interface/entertainment device that simulates personal interaction

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264972A (ja) * 1991-02-20 1992-09-21 Sharp Corp 自然言語処理装置及びそれを利用した動画形成装置
JPH08263681A (ja) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
JPH09167251A (ja) * 1995-12-14 1997-06-24 Canon Inc アニメーション生成装置及びその方法
JPH09167165A (ja) * 1995-12-15 1997-06-24 Matsushita Electric Ind Co Ltd 動画像生成方法
JP2000331182A (ja) * 1999-05-21 2000-11-30 Fujitsu Ltd アニメーション編集装置とアニメーション再生装置とプログラム記録媒体
JP2001243221A (ja) * 2000-03-02 2001-09-07 Takuo Kitamura 電子機器の文字入力方法と文字入力システム
JP2002108875A (ja) * 2000-10-04 2002-04-12 Soatec Inc 電子マニュアル装置及び電子マニュアルの変更方法

Also Published As

Publication number Publication date
EP1703468A1 (en) 2006-09-20
US7797330B2 (en) 2010-09-14
US20080228713A1 (en) 2008-09-18
KR20060128962A (ko) 2006-12-14
JP2005251174A (ja) 2005-09-15
JP4603373B2 (ja) 2010-12-22

Similar Documents

Publication Publication Date Title
US8856163B2 (en) System and method for providing a user interface with search query broadening
JP4622589B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
US9092173B1 (en) Reviewing and editing word processing documents
WO2005071616A1 (ja) 画像作成装置および画像作成方法
JPH0991314A (ja) 情報探索装置
US10698917B2 (en) Managing electronic slide decks
US10656814B2 (en) Managing electronic documents
US11372873B2 (en) Managing electronic slide decks
EP1212697A1 (en) Method and apparatus for building a user-defined technical thesaurus using on-line databases
JP2023519816A (ja) データ品質を自動的に改善すること
JP2023521558A (ja) デザイン空間の自動的かつ知的な探索
JP2010086455A (ja) 検索条件指定装置、検索条件指定方法及びプログラム
RU2698405C2 (ru) Способ поиска в базе данных
JP3356519B2 (ja) 文書情報検索装置
JP2006350477A (ja) ファイル管理装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
JPH09231238A (ja) テキスト検索結果表示方法及び装置
JP2007316743A (ja) 部分文書検索プログラム、部分文書検索方法および部分文書検索装置
CN110297965B (zh) 课件页面的显示及页面集的构造方法、装置、设备和介质
JP2007279978A (ja) 文書検索装置及び文書検索方法
KR101835994B1 (ko) 키워드 맵을 이용한 전자책 검색 서비스 제공 방법 및 장치
JPH1145252A (ja) 情報検索装置およびその装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2021120790A (ja) 文章構造描画装置
Caenen et al. Show me what you mean! PARISS: A CBIR-interface that learns by example
JP7441576B1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6979738B1 (ja) サーバおよびアニメーション推薦システム、アニメーション推薦方法、プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005704126

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020067015171

Country of ref document: KR

Ref document number: 200580003380.3

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2005704126

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10597464

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020067015171

Country of ref document: KR