WO2013180266A1 - Image generation system, image generation application server, image generation method, and program - Google Patents

Image generation system, image generation application server, image generation method, and program Download PDF

Info

Publication number
WO2013180266A1
WO2013180266A1 PCT/JP2013/065187 JP2013065187W WO2013180266A1 WO 2013180266 A1 WO2013180266 A1 WO 2013180266A1 JP 2013065187 W JP2013065187 W JP 2013065187W WO 2013180266 A1 WO2013180266 A1 WO 2013180266A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
avatar
unit
data
feature point
Prior art date
Application number
PCT/JP2013/065187
Other languages
French (fr)
Japanese (ja)
Inventor
将也 二階堂
孝 末永
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Publication of WO2013180266A1 publication Critical patent/WO2013180266A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the present invention relates to an image creation system, an image creation application server, an image creation method, and a program.
  • This application claims priority based on Japanese Patent Application No. 2012-125331 filed in Japan on May 31, 2012 and Japanese Patent Application No. 2012-285883 filed in Japan on December 27, 2012. Is incorporated herein by reference.
  • a user is expressed by an avatar that is a character of his / herself.
  • This avatar is generally represented by an image of a two-dimensional model or a three-dimensional model.
  • Such an avatar's face can be regarded as a portrait of the user.
  • the following face image recognition system is known as a technique for easily creating and digitizing his own portrait. That is, this face image recognition system performs matching between a face image obtained by capturing a face and face parts stored in a database in advance, and adds data such as size, position, color, and inclination to the part and encodes it. .
  • the face image recognition system automatically outputs a portrait on a screen or the like based on the encoded data.
  • the face image recognition system can adjust the displayed face parts so as to be deformed in accordance with a user operation (see, for example, Patent Document 1).
  • the quality of the avatar will be improved if the avatar's similarity to the avatar creation image is as high as possible. It becomes.
  • Patent Document 1 no particular consideration is given to improving the avatar similarity to the image of the avatar creation source.
  • the above-described similarity depends on the degree of enhancement of the face part database. Therefore, for example, in the configuration of Patent Document 1, if the number of face parts stored in the database is insufficient, face parts having a tendency of low similarity are continuously created.
  • Some aspects of the present invention provide an image creation system, an image creation application server, an image creation method, and a program in which the similarity of an avatar to an avatar creation source image is improved.
  • An image creation system as an aspect of the present invention includes an image input unit that inputs image data, an analysis data acquisition unit that acquires analysis data indicating an analysis result by analyzing the input image data, Based on the result of comparing the analysis data and the comparison data stored in the comparison data storage unit, an element image selection unit that selects an element image from among a plurality of element images stored in the element image storage unit is selected.
  • An overall image creation unit that creates an overall image based on an element image
  • an overall image provision unit that provides the created overall image to a user, and edits the contents of the provided overall image according to an instruction from the user
  • An entire image editing unit and an update unit that updates the comparison data based on the content of the entire image when the content of the entire image is confirmed according to the content of the entire image being confirmed Provided.
  • FIG. 1 It is a figure which shows the structural example of the avatar preparation system of this embodiment. It is a figure which shows the structural example of the feature point database production
  • FIG. 1 It is a figure which shows the example of a process sequence which the user terminal device and avatar preparation application server in 1st Embodiment perform. It is a figure which shows the example of a process sequence which the avatar image preparation part of a user terminal device performs in 2nd Embodiment. It is a figure which shows the example of a process sequence which the display control part of a user terminal device performs in 2nd Embodiment. It is a figure which shows the example of a process sequence which the avatar image preparation part of a user terminal device performs in 3rd Embodiment. It is a figure which shows the structural example of the avatar preparation application server and user terminal device in a modification.
  • FIG. 1 shows a configuration example of an avatar creation system (image creation system) of the present embodiment.
  • the avatar creation system shown in this figure includes a feature point database generation device 100, an avatar creation application server 200, a user terminal device 300, and an avatar utilization application server 400.
  • the avatar creation application server 200, the user terminal device 300, and the avatar utilization application server 400 are connected to the network 500.
  • the feature point database generation device 100 is a device that generates a feature point database.
  • the feature point database is a database having a structure in which a part image is associated with a feature point for each object.
  • An object corresponds to a predetermined part such as an eye, nose, mouth, or eyebrows extracted for each of a plurality of face image data.
  • the predetermined part corresponding to this object corresponds to the type (part type) of part images such as eyes, nose, mouth, eyebrows and the like that are necessary for creating an avatar.
  • the avatar creation application server 200 stores the feature point database generated by the feature point database generation device 100.
  • the avatar creation application server (image creation application server) 200 is a server that executes processing related to the avatar creation application.
  • a native avatar creation application runs on the user terminal device 300.
  • the user terminal device 300 transmits operation information to the avatar creation application server 200 in response to a user operation on the avatar creation application.
  • the avatar creation application server 200 executes a predetermined process in response to this operation information.
  • the avatar creation application of this embodiment automatically creates an avatar similar to the face indicated by the face image data using the face image data acquired by the user terminal device 300.
  • the face image data acquired by the user terminal device 300 is, for example, captured image data generated by capturing the face of the user or the like. Further, for example, it may be image data such as an illustration depicting a portrait of a user or the like.
  • the face image data acquired by the user terminal device 300 is transmitted to the avatar creation application server 200 in response to being designated as the avatar creation source face image by an operation on the avatar creation application operating on the user terminal device 300. Is done.
  • the avatar creation application server 200 automatically creates an avatar similar to the face indicated by the face image data received from the user terminal device 300. At this time, the avatar creation application server 200 specifies similar part images for each part in the face image by comparing the received face image data with the feature point database stored by itself, and these specified parts are identified. Create an avatar with an image.
  • the user terminal device 300 is a network terminal device operated by a user, and specifically, for example, a mobile phone, a smartphone, a tablet terminal, or the like.
  • the avatar creation application operates on the user terminal device 300 by connecting the user terminal device 300 to the avatar creation application server 200.
  • the avatar creation application operates on the user terminal device 300 by connecting the user terminal device 300 to an avatar use application server 400 described later.
  • the avatar use application server 400 is a server that provides an avatar use application to the user of the user terminal device 300.
  • An avatar utilization application is an application which uses the avatar created by the avatar creation application server.
  • An example of an avatar utilization application is a virtual space community application.
  • the user's own avatar that operates the user terminal device 300 and the avatars of other users exist in the virtual space. These avatars are expressed as, for example, talking about tweets posted by the corresponding user.
  • a user touches another avatar by operating the screen of the virtual space and, for example, strokes the appearance of the avatar being pleased is also displayed. In this way, in the virtual space community application, communication with other users can be achieved using an avatar.
  • FIG. 2 shows a configuration example of the feature point database generation apparatus 100.
  • an operator for generating a feature point database inputs a sample face image to the feature point database generation device 100.
  • the worker is most similar to each of the objects (parts such as eyes, nose, mouth, eyebrows corresponding to the part image for creating the avatar) in the sample face image among the plurality of part images prepared in advance. Judgment is made visually.
  • the operator performs an operation for associating the object in the sample image with the part image determined to be most similar to the object on the feature point database generation apparatus 100.
  • the feature point database generation device 100 generates a feature point database indicating part images corresponding to the feature points for each object.
  • a sample face image data input unit 101 includes a sample face image data input unit 101, a feature point data acquisition unit 102, a display control unit 103, a part ID acquisition unit 104, a feature point database generation unit 105, a storage unit 106, and a feature.
  • a point database transmission unit 107, an operation unit 108, and a display unit 109 are provided.
  • the sample face image data input unit 101 inputs sample face image data, which is face image data prepared in advance as a sample for generating a feature point database, from the outside. This sample face image data is obtained, for example, by imaging real human faces collected as sample targets. Further, the sample face image data input unit 101 may input sample face image data via, for example, a predetermined data interface or a network.
  • the feature point data acquisition unit 102 performs analysis processing including face recognition on the input sample face image data, thereby supporting predefined objects (parts for creating avatars such as eyes, nose, mouth, eyebrows, etc.) To be extracted). In addition, the feature point data acquisition unit 102 obtains feature point data for each extracted object. Note that feature points in an object are defined in advance for each type of object. Further, the feature point data acquisition unit 102 obtains coordinates for each feature point, for example, as feature point data.
  • the display control unit 103 stores the face image image input by the sample face image data input unit 101 and the part image stored in the part image table 600 stored in the storage unit 106 as a user interface image for generating a feature point database. Are displayed on the display unit 109.
  • the operator visually determines from the list of part images displayed on the display unit 109 the most similar one for each part corresponding to the object in the face indicated by the face image displayed on the same display unit 109. Then, the operator performs an operation on the operation unit 108 for selecting a part image determined to be most similar for each object from the part image list.
  • the part ID acquisition unit 104 acquires a part ID associated with the selected part image from the part image table 600 stored in the storage unit 106. That is, the part ID acquisition unit 104 acquires a part ID that specifies a part image determined to be most similar to the object.
  • the feature point database generation unit 105 is based on the feature point for each object acquired from the face image data by the feature point data acquisition unit 102 and the part ID associated with each object acquired by the part ID acquisition unit 104.
  • a feature point database 700 is generated.
  • the feature point database generation unit 105 includes an object definition table generation unit 105A and a feature point hash table generation unit 105B.
  • the object definition table generation unit 105A generates an object definition table 710 included in the feature point database 700.
  • the feature point hash table generation unit 105B generates a feature point hash table 720 included in the feature point database 700.
  • the storage unit 106 stores programs and various types of information necessary for realizing the operation as the feature point database generation apparatus 100.
  • a part image table 600 and a feature point database 700 among the information stored in the storage unit 106 are shown.
  • the part image table 600 corresponds to part IDs of images (part images) of plural types respectively corresponding to predetermined parts such as eyes, nose, mouth, eyebrows of avatars prepared in advance for use in avatar creation. It is a table that has been added and stored.
  • the feature point database 700 is information generated by the feature point database generation unit 105, and is a database having a structure in which a part ID of a part image is associated with a feature point for each object.
  • An example of hardware supported by the storage unit 106 is an HDD (Hard Disk Drive), a flash memory, or the like.
  • the feature point database transmission unit 107 transmits the feature point database 700 generated by the feature point database generation unit 105 to the avatar creation application server 200 via a predetermined data interface or network. At this time, the feature point database transmission unit 107 reads and transmits the feature point database 700 stored in the storage unit 106. The feature point database 700 transmitted in this way is stored in the avatar creation application server 200.
  • the operation unit 108 collectively indicates operation devices and operators for operating the feature point database generation apparatus 100.
  • An example of an operation device included in the operation unit 108 is, for example, a mouse or a keyboard.
  • the display unit 109 displays an image according to the control of the display control unit 103.
  • the functional units such as the sample face image data input unit 101, the feature point data acquisition unit 102, the display control unit 103, the part ID acquisition unit 104, and the feature point database generation unit 105 in the feature point database generation device 100 are in the computer device. This can be realized by causing a CPU (Central Processing Unit) to execute a program.
  • a CPU Central Processing Unit
  • the part image table 600 shown in FIG. 3 is formed by associating a part ID with a part type ID for each part image.
  • the parts image is an image of parts corresponding to eyes, nose, mouth, eyebrows and the like for forming an avatar.
  • the data stored as the part image is information that refers to the substance of the image data, such as the file name of the image data.
  • the part ID is an identifier for uniquely identifying the corresponding part image.
  • the part type ID is an identifier for uniquely identifying the part type to which the corresponding part image belongs.
  • the part type corresponds to each part of parts such as eyes, nose, mouth, and eyebrows. Note that the part types of the part images specifically shown in FIG. 3 are common to eyes. Accordingly, the part type ID associated with these part images is “0” indicating that both are eyes.
  • the part image table 600 corresponds to other part types such as nose, mouth, and eyebrows, for example. Also includes a part image record. That is, the part image table 600 stores part images corresponding to each of a plurality of part types. A structural example of the feature point database 700 will be described later.
  • the feature point data acquisition unit 102 obtains feature point data for each object (face part) from the face image data input by the sample face image data input unit 101 as follows.
  • the feature point data acquisition unit 102 associates, for example, the input sample face image data with a two-dimensional absolute coordinate system in the x direction and the y direction.
  • the feature point data acquisition unit 102 obtains coordinates (absolute coordinates (x, y)) in the absolute coordinate system for each feature point of the object obtained from the sample face image data.
  • FIG. 4 schematically shows an example of acquiring feature point data in the case of an object OBJ as an eye.
  • the feature point data acquisition unit 102 for example, as shown in the figure, from the eye image portion recognized from the face image data, each of the absolute coordinate systems of the six feature points ER1 to ER6.
  • the feature point data of the object OBJ is obtained by obtaining the absolute coordinates at.
  • the object definition table generation unit 105A in the feature point database generation unit 105 generates the object definition table 710 as follows. First, the object definition table generation unit 105A obtains coordinate information indicating the absolute coordinates of two representative points preset for each part from the absolute coordinates of a plurality of feature points acquired by the feature point data acquisition unit 102. Generate.
  • the object OBJ shown in FIG. 4 is an eye.
  • the representative points set in advance corresponding to the part of the eye are, for example, the corner of the eye and the head of the eye.
  • the feature points ER1 to ER6 shown in FIG. 4 correspond to the corners of the eyes and the eyes. Therefore, the representative points in FIG. 4 are feature points ER1 and ER4.
  • the feature points ER1 and ER4 may be referred to as representative points ER1 and ER4.
  • the object definition table generating unit 105A acquires the absolute coordinates (x, y) of the representative points ER1 and ER4 from the representative points ER1 to ER6 as representative point coordinate information.
  • FIG. 5 shows representative point coordinate information 810 indicating the absolute coordinates of the representative points ER1 and ER4 of FIG.
  • the representative point coordinate information 810 shown in this figure indicates that the absolute coordinate of the representative point ER1 is (356, 421) and the absolute coordinate of the representative point ER2 is (53, 383).
  • the operator performs an operation of designating a part image visually determined to be most similar to the eye of FIG. 4 in the face image displayed on the display unit 109.
  • the part ID acquisition unit 104 acquires a part ID associated with the object as the eye of FIG. Therefore, the object definition table generation unit 105A uses the representative point coordinate information 810 and the part ID acquired by the part ID acquisition unit 104 to record a record of the object definition table 710 corresponding to the object OBJ as an eye in FIG. Generate.
  • FIG. 6 shows an example of the contents of the record 711 of the object definition table 710 corresponding to the object OBJ of FIG.
  • the record 711 of the object definition table 710 includes a part type ID, an object ID, a part ID, and representative point coordinates.
  • the part type ID indicates the type of the part image corresponding to the corresponding object. Since the object in FIG. 4 is an eye, the type of part image corresponding to this object is also an eye. Accordingly, the part type ID in FIG. 6 stores a value (for example, “0”) indicating that the part image type is eye. From this, it can be said that the part type ID in the record 711 indicates the type of eyes, nose, mouth, eyebrows, etc., for the face part to which the object corresponds.
  • the object ID is an identifier that uniquely identifies the corresponding object. This object ID is added after being generated by the object definition table generation unit 105A when the record 711 is generated.
  • the part ID is a part ID indicating a part image associated with the object. This part ID is acquired by the part ID acquisition unit 104.
  • the representative point coordinates indicate the coordinates of two representative points. In the case of this figure, the contents of the representative point coordinate information 810 of FIG. 5 are reflected. In this case, the representative point coordinates (X0, Y0) indicate the absolute coordinates (356, 421) of the representative point ER1, and the representative point coordinates (X1, Y1) indicate the absolute coordinates (53, 383) of the representative point ER4. .
  • the feature point hash table generation unit 105B In parallel with the processing of the object definition table generation unit 105A, the feature point hash table generation unit 105B generates the feature point hash table 720 in the feature point database 700 as follows. The following description is processing for generating the record 721 of the feature point hash table 720 corresponding to the object OBJ in FIG.
  • the feature point hash table generation unit 105B first converts the absolute coordinates of the feature points ER1 to ER6 acquired by the feature point data acquisition unit 102 into normalized coordinates (Xnz, Ynz) in the normalized coordinate system. .
  • the feature point hash table generation unit 105B uses a normalized coordinate system.
  • FIG. 7A shows an example of a normalized coordinate system used by the feature point hash table generation unit 105B.
  • This normalized coordinate system is a two-dimensional coordinate of an X coordinate and a Y coordinate.
  • the X coordinate of the normalized coordinate system is represented by Xnz
  • the Y coordinate is represented by Ynz.
  • reference coordinates REF1 and REF2 that are normalized in advance for the representative points ER1 and ER4 are set.
  • the reference coordinate REF1 corresponding to the representative point ER1 is set as (8, 5)
  • the reference coordinate REF2 corresponding to the representative point ER4 is set as (1, 5).
  • the feature point hash table generation unit 105B makes the absolute coordinates of the feature points ER1 to ER6 match the representative point ER4 with the reference coordinates REF2, and then sets the feature points ER1 to ER6. Place absolute coordinates on a normalized coordinate system.
  • the feature point hash table generation unit 105B changes the enlargement ratio using another representative point ER1 as a reference and the reference coordinate REF2 where the representative point ER4 is already arranged. And move to the reference coordinate REF1. Then, the magnification and rotation angle when the representative point ER1 is moved to the reference coordinate REF1 as described above are also applied to the remaining feature points ER2, ER3, ER5, and ER6 other than the representative points ER1 and ER4. .
  • the absolute coordinates of the feature points ER1 to ER6 are converted into normalized coordinates.
  • the coordinate values in the normalized coordinate system of the remaining feature points ER2, ER3, ER5, and ER6 other than the representative points ER1 and ER4 include values after the decimal point. This means that there is an error with respect to the normalized coordinates that should take an integer value. Therefore, as shown in FIG. 8B, the feature point hash table generation unit 105B moves the feature points ER2, ER3, ER5, and ER6 to the coordinates of integer values approximated in the normalized coordinate system. As a result, the absolute coordinates of the feature points ER1 to ER6 are converted into normalized coordinates.
  • the feature point hash table generation unit 105B uses the normalized coordinates of the feature points ER2, ER3, ER5, ER6 other than the representative points ER1, ER4 among the normalized coordinates obtained as shown in FIG. (Hereinafter also referred to as coordinate hash). For this purpose, the feature point hash table generation unit 105B generates normalized coordinate information 820 indicating the normalized coordinates of the feature points ER2, ER3, ER5, and ER6, for example, as shown in FIG.
  • the normalized coordinate information 820 in FIG. 9 indicates the feature points ER2, ER3, ER5, and ER6 obtained as a result of the normalization illustrated in FIG. 8B.
  • the normalized coordinate of the feature point ER2 indicates (7, 6)
  • the normalized coordinate of the feature point ER3 indicates (3, 6)
  • the normalized coordinate of the feature point ER5 indicates (3, 4)
  • the normalized coordinates of the feature point ER6 indicate (7, 4).
  • the feature point hash table generation unit 105B indicates each of the normalized coordinates of the feature points ER2, ER3, ER5, and ER6 of the normalized coordinate information 820 shown in FIG. 9 as the shift calculation coordinates 820A of FIG. Perform a shift operation.
  • the shift calculation is performed with the coordinate values Xnz and Ynz in normalized coordinates being 16 bits each.
  • the feature point hash table generation unit 105B for example, as shown in FIG. 11, for example, coordinate hash information 830 in which coordinate hashes for feature points ER2, ER3, ER5, and ER6 are arranged. Is generated.
  • coordinate hashes of feature points ER2, ER3, ER5, and ER6 are sequentially arranged from left to right.
  • the feature point hash table generation unit 105B generates an object ID for uniquely identifying the object OBJ in FIG.
  • the feature point hash table generation unit 105B uses the part type ID corresponding to the type of the object OBJ in FIG. 4, the object ID generated as described above, and the contents of the coordinate hash information 830 in FIG.
  • the record 721 shown in FIG. 12 is to be included in the feature point hash table 720, and indicates the hash value of the normalized coordinates of the feature points ER2, 3, 5, and 6 corresponding to the object OBJ shown in FIG. .
  • FIG. 13 shows a structure example of the feature point database 700 stored in the storage unit 106.
  • the feature point database 700 includes an object definition table 710 and a feature point hash table 720.
  • the object definition table 710 includes a table for each part (object) type indicated by the part type ID, for example.
  • the table corresponding to the part type ID is formed by a plurality of records in which the object ID, the part ID, and the representative point coordinates for each object are associated with each other.
  • the feature point hash table 720 also includes a table for each part type (object type) indicated by the part type ID.
  • the table corresponding to the part type ID is formed by a plurality of records in which the object ID and the coordinate hash are associated with each object.
  • the feature point database generation apparatus 100 performs new registration of the record corresponding to the object OBJ in the feature point database 700 for each object corresponding to each different part type extracted from one sample face image data.
  • new registration of a record corresponding to a plurality of part types in such sample face image data is performed every time the sample face image data is acquired.
  • the feature point database 700 is formed including records (s ⁇ p) corresponding to the total number s of input sample face image data and the number of part types p.
  • the sample face image data input unit 101 inputs one sample face image data (step S101).
  • the feature point data acquisition unit 102 performs face recognition on the input sample face image data, and acquires feature point data for each object extracted from the sample face image data. (Step S102).
  • the display control unit 103 causes the display unit 109 to display the input sample face image data and the part images stored in the part image table 600 stored in the storage unit 106 in a predetermined manner (step S103).
  • the operator determines the most similar part image for each part corresponding to the object in the sample face image data by viewing the image displayed on the display unit 109 in step S103. Then, an operation of selecting the part image as the most similar to the object is performed. In response to this operation, the part ID acquisition unit 104 acquires a part ID associated with the selected part image from the part image table 600 (step S104).
  • the object definition table generation unit 105A In parallel with the part ID acquisition process in step S104, the object definition table generation unit 105A generates representative point coordinate information 810 indicating the absolute coordinates (x, y) of the representative points ER1 and ER4 for each object. (Step S105).
  • the object definition table generation unit 105A generates a record 711 of the object definition table 710 for each object (step S106). For this purpose, the object definition table generation unit 105A newly generates an object ID for each object. Then, the object definition table generation unit 105A generates a record 711 for each object using the newly generated object ID, the part ID acquired in step S104, and the representative point coordinate information 810 generated in step S105.
  • the feature point hash table generation unit 105B generates a record 721 of the feature point hash table 720 using feature point data other than the representative points (step S107).
  • the object definition table generation unit 105A and the feature point hash table generation unit 105B newly register each record generated in steps S106 and S107 in the feature point database 700 as described with reference to FIG. (Step S108). That is, the object definition table generation unit 105A newly registers the record 711 for each object generated in step S106 in the object definition table 710 in the feature point database 700. In addition, the feature point hash table generation unit 105B newly registers the record 721 generated in step S107 in the feature point hash table 720 in the feature point database 700.
  • the feature point database generation unit 105 (the object definition table generation unit 105A or the feature point hash table generation unit 105B) performs a process of newly registering in the feature point database 700 corresponding to all the prepared sample face image data. It is determined whether or not the processing has been completed (step S109).
  • step S109—NO when the processing has not been completed for all the sample face image data (step S109—NO), the sample face image data input unit 101 returns to step S101 to input the next sample face image data. To do. Thereby, the process of generating the feature point database 700 corresponding to the next sample face image data is started.
  • the feature point database 700 including the records for the objects for all the sample face image data is formed. . Therefore, the feature point database transmission unit 107 reads the feature point database 700 from the storage unit 106 and transmits it to the avatar creation application server 200 (step S110).
  • the avatar creation application server 200 shown in this figure includes a face image data input unit 201, a feature point data acquisition unit 202, a storage unit 203, a part image selection unit 204, a feature point database update unit 205, and a communication unit 206.
  • the face image data input unit 201 (image input unit) inputs face image data (image data) as an avatar creation source.
  • the face image data as the avatar creation source is transmitted from the user terminal device 300 connected to the avatar creation application server 200 and operating the avatar creation application, and is received by the communication unit 206.
  • the face image data input unit 201 inputs the face image data received by the communication unit 206 in this way.
  • the feature point data acquisition unit 202 acquires the analysis data indicating the analysis result by analyzing the input face image data. That is, the feature point data acquisition unit 202 acquires the feature point data (analysis data) for each object extracted from the face image data by analyzing the input face image data.
  • the feature point data acquisition unit 202 may have the same configuration as the feature point data acquisition unit 102 in FIG.
  • the feature point data acquisition unit 202 of the present embodiment generates, for example, coordinate hash information 910 having a structure shown in FIG. 16 for each object as the feature point data extraction result.
  • the coordinate hash information 910 has a structure in which coordinate hash information is associated with each part type ID.
  • the part type ID in the coordinate hash information 910 in FIG. 16 indicates the part of the face to which the object corresponds (that is, the type of part image).
  • the coordinate hash indicates a hash value of coordinates for each feature point other than the representative point obtained for the corresponding object. Note that the coordinate hash calculation method for each feature point may be the same as described with reference to FIGS.
  • the storage unit (comparison data storage unit, element image storage unit) 203 stores various types of information necessary for the avatar creation application server 200 to realize its functions.
  • a parts image table 600A and a feature point database 700A are shown.
  • the part image table 600A corresponds to part IDs of images (part images) of a plurality of types respectively corresponding to predetermined parts such as eyes, nose, mouth and eyebrows of an avatar prepared in advance for use in avatar creation. It is a table that has been added and stored.
  • the contents of the parts image table 600A are the same as the parts image table 600 (FIG. 3) stored in the feature point database generation device 100, for example. That is, the storage unit 203 stores a part image corresponding to each of a plurality of part types as a part image table 600A.
  • the feature point database 700A is obtained by storing the feature point database 700 received from the feature point database generation device 100 in the storage unit 203.
  • the storage unit 203 may store the feature point database 700 received from the feature point database generation device 100 as an initial feature point database 700A in advance, for example, in a stage before providing an avatar creation application.
  • the initial feature point database 700A has the same contents as the feature point database 700.
  • the object definition table 710A and the feature point hash table 720A of the feature point database 700A in the initial stage have the same contents as the object definition table 710 and the feature point hash table 720, respectively.
  • the feature point database update unit 205 updates the initial feature point database 700A to add a new record (comparison data).
  • the part image selection unit (element image selection unit) 204 based on the result of comparing the feature point data and the feature point database 700A (comparison data), from the part image table 600A (a plurality of part images) Element image). At this time, the part image selection unit 204 selects a part image for each of a plurality of part types. Thereby, the part image selection part 204 can select the part image for every site
  • the part image selection unit 204 inputs the coordinate hash information 910 (FIG. 16) generated by the feature point data acquisition unit 202 as the feature point data. Then, the part image selection unit 204 compares the coordinate hash in the coordinate hash information 910 with the coordinate hash in the feature point hash table 720A of the feature point database 700A for each feature point.
  • the coordinate hash of the coordinate hash information 910 in FIG. 16 is compared with the coordinate hash of the feature point hash table 720A of the feature point database 700A shown in FIG.
  • the part type ID 0 corresponding to the eye part type Only the table corresponding to is shown.
  • the part image selection unit 204 recognizes that the coordinate hashes of feature points corresponding to the thick-line cells shown in FIG. FIG. 18 schematically shows the recognition result.
  • the number of feature points (coordinate hash coincidence number) with which coordinate hash coincides is shown by the comparison result.
  • the objects in the feature point hash table 720 in FIG. 17 are the objects corresponding to the coordinate hash information 910 in FIG. 16 as the number of feature points matching the coordinate hash information in the coordinate hash information 910 in FIG. The degree of similarity is high.
  • FIG. 19 shows the comparison results shown in FIG. 18 and the tabulation results corresponding to the contents of the object definition table 710A shown in FIG.
  • the part image selection part 204 selects a part image for every object corresponding to other part classification ID based on the result of having compared similarly to the above. And the part image selection part 204 will produce
  • the avatar information is information used to create an avatar image in the user terminal device 300.
  • FIG. 20 shows a structural example of the avatar information 920 generated by the part image selection unit 204.
  • the avatar information 920 has a structure in which a part ID and part image data are associated with each part type ID for every part type required to create an avatar.
  • the face of the avatar image created by the part image stored in the avatar information 920 is similar to the face of the face image data of the avatar creation source.
  • the parts image selection part 204 transmits the avatar information 920 produced
  • the avatar creation application on the user terminal device 300 creates an avatar image using the avatar information 920 received from the avatar creation application server 200 as described above, and displays the avatar image.
  • the face of the avatar image displayed in this way is similar to, for example, the face of the face image data transmitted earlier, but the user, for example, in order to make the face of the avatar image more similar to the face of the face image data
  • An operation for editing the avatar can be performed.
  • the operation for editing the avatar here is to select and change the part image used for creating the avatar from the part image list.
  • the user does not need to edit.
  • the user terminal device 300 edits and obtains a satisfactory avatar face, the user terminal device 300 performs an operation for avatar determination on the avatar creation application. Note that if the user likes the avatar image created by the received avatar information 920 as it is, the user may perform a confirmation operation without editing.
  • the avatar creation application on the user terminal device 300 transmits a confirmation notification to the avatar creation application server 200.
  • the user terminal device 300 transmits the confirmation avatar information indicating the content of the avatar when the confirmation operation is performed.
  • the confirmed avatar information included in the confirmation notification has a structure in which, for example, an avatar image is omitted from the avatar information 920 in FIG. 20 and a part ID is associated with each part type ID. However, if the contents are changed by editing, the changed contents are reflected.
  • the feature point database update unit (update unit) 205 stores the content of the avatar image (the entire image) based on the content of the avatar image when the content is determined.
  • the feature point database 700A stored in the unit 203 is updated.
  • the feature point database update unit (update unit) 205 first updates the object definition table 710A as follows to update the feature point database 700A. That is, the feature point database update unit 205 generates a new object ID for each object extracted from the avatar creation source face image data. Next, the feature point database update unit 205 newly generates a record 711 of the object definition table 710A associated with the newly generated object ID. For this purpose, the feature point database update unit 205 associates the newly generated object ID with the part ID indicated by the confirmed avatar information included in the received confirmation notification. Furthermore, the feature point database update unit 205 associates the newly generated object ID with the representative point coordinates that the feature point data acquisition unit 102 acquired from the avatar creation source face image data.
  • the feature point database update unit 205 generates a record 711 corresponding to the newly generated object ID for each part type. Then, the feature point database update unit 205 newly registers the newly generated record 711 in the table for each corresponding part type ID in the object definition table 710A.
  • the feature point database update unit 205 also updates the feature point hash table 720A as follows.
  • the feature point data acquisition unit 202 uses the coordinate hash information 910 having the structure shown in FIG. 16 for creating an avatar. Generated for every part type.
  • the feature hash data acquisition unit 202 holds the coordinate hash information 910 generated in this way. Therefore, the feature point database update unit 205 associates the newly generated object ID with the coordinate hash of the coordinate hash information 910 generated for the object indicated by the object ID, thereby recording the record 721 of the feature point hash table 720A. Is generated. Also about this record 721, the feature point data acquisition part 202 produces
  • the feature point database update unit 205 newly registers the newly generated record 721 in the table for each corresponding part type ID in the feature point hash table 720A. In this way, the feature point database update unit 205 updates the feature point database 700A by updating the object definition table 710 and the feature point hash table 720.
  • the communication unit 206 communicates with the user terminal device 300, the avatar utilization application server 400, and the like via the network 500.
  • the user terminal device 300 includes a control unit 301, an operation unit 302, a display unit 303, and a communication unit 304.
  • the control unit 301 executes processing corresponding to the avatar creation application operating on the user terminal device 300.
  • the avatar creation application is installed in the user terminal device 300 as, for example, a native application program.
  • the control unit 301 includes a face image data transmission unit 311, an avatar image creation unit 312, a display control unit 313, and an avatar editing unit 314. These functional units are realized by, for example, a CPU configuring the control unit 301 executing an avatar creation application.
  • the face image data transmission unit 311 transmits the face image data to the avatar creation application server 200 in response to an operation for instructing the avatar creation application to transmit face image data including the face of the avatar creation source. .
  • the face image data is acquired as, for example, image data obtained by imaging the face of the user himself (or another person) by an imaging unit (not shown here) provided in the user terminal device 300, for example. can do. Further, the face image data may be acquired via a network, a data interface, or the like, or by reading from a removable medium loaded in the user terminal device 300. Moreover, designation as face image data for the image data acquired in this way can also be performed by an operation on the avatar creation application on the user terminal device 300.
  • the user can edit the avatar created by the avatar creating application server 200 in response to an operation on the avatar creating application operating on the user terminal device 300.
  • the avatar image creation unit (overall image creation unit) 312 creates an avatar image based on the part image selected by the part image selection unit 204. That is, the avatar image creation unit 312 generates an avatar image based on the avatar information 920 generated by the part image selection unit 204 of the avatar creation application server 200.
  • the avatar information 920 stores a part image selected by the part image selection unit 204.
  • the avatar image creating unit 312 creates an avatar image using the part images stored in the avatar information 920.
  • the display control unit (overall image providing unit) 313 provides the user with the avatar image created by the avatar image creating unit 312. Specifically, the display control unit 313 provides the user with the avatar image by causing the display unit 303 to display the avatar image.
  • the editing operation for changing the avatar is performed. Can be done against.
  • this editing operation for example, as described above, a desired part image is selected from the list of part images displayed on the screen of the avatar creation application, and the part image used for the avatar is changed. It becomes that.
  • the avatar editing unit (whole image editing unit) 314 edits the avatar according to the avatar editing operation performed as described above. That is, the avatar editing unit 314 edits the content of the avatar image provided to the user according to the user's instruction. Specifically, the avatar editing unit 314 requests the part image by specifying the part ID of the part image selected by the operation from the avatar creation application server 200. In response to this request, the avatar creation application server 200 reads the designated part image from the part image table 600A and transmits it to the user terminal device 300. The avatar editing unit 314 changes the part image used so far to the received part image. The avatar image creation unit 312 creates an avatar image in which the change of the part image is reflected, and the display control unit 313 displays the avatar image. Thus, the avatar image is edited in accordance with the avatar editing operation performed by the user.
  • the content of the avatar Perform a confirmation operation to confirm
  • the avatar editing unit 314 In response to the confirmation operation being performed, the avatar editing unit 314 generates, for example, confirmed avatar information indicating the content of the avatar when the confirmation operation is performed using the avatar information in which the edited content is reflected. To do. Then, a confirmation notification including the confirmed avatar information is transmitted to the avatar creation application server 200. As described above, the feature point database update unit 205 in the avatar creation application server 200 updates the feature point database 700A using the confirmed avatar information in response to receiving the confirmation notification.
  • the avatar creation application server 200 automatically creates an avatar using the face image data and the feature point database 700A.
  • the automatically created avatar can be edited on the user terminal device 300.
  • the user terminal device 300 transmits the editing result (including a case where editing is not performed) to the avatar creation application server 200 as a confirmation notification in response to the confirmation operation of the user.
  • the avatar creation application server 200 updates the feature point database 700A so as to add a record about the object extracted from the face image data that is the creation source of the current avatar according to the received editing result.
  • the operation unit 302 collectively indicates operation devices necessary for operating an avatar creation application that operates on the user terminal device 300.
  • the operation unit 302 is various keys or a touch panel provided on the mobile phone or the smartphone.
  • the display unit 303 displays an image according to the control of the display control unit 313 in the user terminal device 300.
  • the communication unit 304 communicates with the avatar creation application server 200, the avatar utilizing application server 400, and the like via the network 500.
  • the feature point database 700A is updated every time an avatar is automatically created. This means that each time an avatar is automatically created, information indicating the correspondence between an object and a part image similar to the object increases in the feature point database 700A. For example, since human faces are different from each other, it can be said that the feature amount of an object for each face image data is various even in the same part (part type).
  • records in the feature point database 700A are added based on the contents of different face image data for each opportunity for an avatar to be automatically created. This corresponds to an improvement in the accuracy of the similarity of the part images corresponding to the objects in the feature point database 700A corresponding to the above-described diversity of objects. Then, the feature point database 700A whose accuracy is improved in this way is used for automatic creation of an avatar, so that the accuracy of automatically creating an avatar similar to the face of the face image data of the creation source is also improved.
  • the feature point database 700A is updated in correspondence with an avatar that is not substantially edited by the user. For example, when an avatar is automatically created, even if a part image corresponding to an object that does not match all of the feature points is selected, editing is performed because the user has the impression that they are very similar It is conceivable that the confirmation operation may be performed without performing it. In such a case, the record newly registered in the feature point database 700A may be different from the content of the record already stored in the feature point database 700A without overlapping. At this time, the record newly registered in the feature point database 700A reflects a result determined to be more similar to the user's subjectivity. Therefore, the update of the feature point database 700A corresponding to an avatar that is not substantially edited also leads to an improvement in the accuracy of the feature point database 700A.
  • the following other methods may be employed. That is, when the feature point database generation apparatus 100 creates the feature point database 700, a huge number of sample face image data is prepared. Then, the feature point database 700 is generated by processing the sample face image data. However, as described above, when the feature point database generation apparatus 100 creates the feature point database 700, it is necessary for an operator to visually determine similarity. For this reason, the burden on the operator increases as the number of sample face image data increases. On the other hand, in the case of this embodiment, every time a user creates an avatar using an avatar application, the accuracy of the feature point database 700A is improved, and the burden on the worker increases. There is no.
  • the face image data transmission unit 311 causes the communication unit 304 to transmit the face image data to the avatar creation application server 200 in response to an operation instructing transmission of the face image data (step S201).
  • the avatar creation application server 200 In response to the transmission of the face image data, the avatar creation application server 200 automatically creates an avatar and transmits the avatar information 920. In response to the avatar information being received by the communication unit 304, the avatar image creating unit 312 creates an avatar image using the received avatar information (step S202).
  • the display control unit 313 causes the display unit 303 to display the avatar image created in step S202 (step S203).
  • the avatar editing unit 314 executes the avatar editing process so as to change the avatar information in accordance with the avatar editing operation performed by the user (step S204).
  • step S204 can be repeatedly executed until, for example, a confirmation operation for confirming the content of the avatar is performed (NO in step S205).
  • the avatar editing unit transmits a confirmation notification including the confirmed avatar information to the avatar creation application server 200 (step S206).
  • the face image data transmitted from the user terminal device 300 in step S201 is received by the communication unit 206.
  • the face image data input unit 201 inputs the received face image data (step S301).
  • the feature point data acquisition unit 202 extracts objects by analyzing the face image data, and acquires feature point data for each of these objects (step S302). Then, the feature point data acquisition unit 202 generates the coordinate hash information 910 described in FIG. 16 for each object as the extraction result of the feature point data, and holds these (step S303).
  • the part image selection unit 204 compares the coordinate hash indicated by the coordinate hash information 910 as the feature point data with the coordinate hash in the feature point hash table 720A of the feature point database 700A for each feature point. Based on the comparison result, the part image selection unit 204 selects a similar part image for each object from the part image table 600A (step S304).
  • the part image selection unit 204 generates avatar information 920 based on the selection result of the part image in step S304 (step S305).
  • the avatar information generated in this way indicates the contents of the automatically created avatar.
  • the parts image selection part 204 transmits the avatar information produced
  • a confirmation notification is transmitted from the user terminal device 300 in step S206.
  • the feature point database update unit 205 stores the records 711 in the object definition table 710A and the feature point hash table 720A for each object extracted corresponding to step S302.
  • a new record 721 is generated (step S307).
  • the feature point database update unit 205 updates the feature point database 700A (step S308). That is, the feature point database update unit 205 newly registers the records 711 and 721 generated in step S307 in the object definition table 710A and the feature point hash table 720A in the feature point database 700A, respectively.
  • one avatar is created using one face image data as a creation source.
  • the second embodiment corresponds to a case where a plurality of avatars may be created using one face image data as a creation source.
  • the part image selection unit 204 generates a plurality of avatar information corresponding to a plurality of avatars in the following cases. That is, in the total result of the part IDs shown in FIG. 19, when there are a plurality of part IDs with the largest number of searches, the part image selection unit 204 selects the part images corresponding to the plurality of part IDs. To do. In this way, the part image selection unit 204 selects a plurality of part images from the part images corresponding to the same part type. When a plurality of part images are selected in this way, the part image selection unit 204 generates a plurality of avatar information reflecting the part IDs of these part images. And the parts image selection part 204 transmits these avatar information with respect to a user terminal device. And in the user terminal device 300, according to reception of a plurality of avatar information, creation and display of an avatar image are performed as follows.
  • FIG. 22 is a processing procedure in the case of corresponding to the second embodiment in which a plurality of avatar information may be transmitted as described above as processing for creating an avatar image in step S202 of FIG. An example is shown.
  • the avatar image creation unit 312 of the user terminal device 300 determines whether or not the received avatar information is plural (step S401). When there is one avatar information (step S401—NO), the avatar image creation unit 312 creates one avatar image corresponding to the received one avatar information (step S402). On the other hand, when there is a plurality of avatar information (step S401—YES), the avatar image creation unit 312 creates a plurality of avatar images corresponding to each of the received plurality of avatar information (step S403).
  • FIG. 23 shows an example of a processing procedure in the case of corresponding to the second embodiment as processing for avatar image display in step S203 of FIG.
  • the display control unit 313 of the user terminal device 300 determines whether or not there are a plurality of avatar images created in step S202 (step S501). When there is one created avatar image (step S501-NO), the display control unit 313 displays this one avatar image on the display unit 303 (step S502). On the other hand, when there is a plurality of avatar information (step S501—YES), the display control unit 313 causes the display unit 303 to display the plurality of created avatar images (step S503).
  • the user When a plurality of avatar images are displayed, the user first selects one avatar image from the plurality of avatar images as an avatar editing operation. If necessary, a confirmation operation is performed after performing an operation of changing the part of the selected avatar image. Therefore, the avatar edit part 314 should just transmit the confirmation notification containing the avatar confirmation information about one avatar according to confirmation operation.
  • the avatar creating application server 200 generates a plurality of avatar information when the similarity of the part images to be selected in the same part type is equal or close.
  • the user terminal device 300 receives a plurality of avatar information
  • the user terminal device 300 creates an avatar image for each of the plurality of avatar information and displays the avatar image on the display unit 303.
  • a some candidate can be provided to a user as an avatar image supposed to be similar to face image data.
  • the user can select what he / she determined to be most similar from among a plurality of avatar image candidates.
  • This result is reflected in the update of the feature point database 700A.
  • the feature point database 700A reflects, for example, the user's preference tendency with respect to the face of the avatar. That is, it is possible to improve the accuracy of the feature point database 700A so as to suit the user's preference tendency and the like.
  • the avatar image creation unit 312 when a plurality of avatar information is received from the avatar creation application server 200, the avatar image creation unit 312 creates a plurality of avatar images based on each of the plurality of avatar information.
  • the part image of the part ID having a high matching frequency is similar to other part images in that part type. Can be estimated. Therefore, the avatar image creation unit 312 in the third embodiment does not create an avatar image for each avatar information, but applies a part ID having a high matching frequency to a plurality of avatar information in common.
  • the avatar image creation unit 312 creates an avatar image based on avatar information in which part IDs having a high matching frequency are shared.
  • the plurality of created avatar images all have high similarity to the original face image data. That is, when a plurality of part images are selected from the part images corresponding to the same part type based on the result of the part image selection unit 204 comparing the feature point data with the feature point database 700A, an avatar image is created.
  • the unit 312 creates a plurality of avatar images corresponding to each of the selected plurality of part images.
  • the display control unit 313 causes the display unit 303 to display a plurality of avatar images created as described above.
  • FIG. 24 illustrates an example of a processing procedure when the processing for creating an avatar image in step S202 in FIG. 21 corresponds to the third embodiment.
  • the same steps as those in FIG. 22 are denoted by the same reference numerals.
  • the avatar image creation unit 312 of the user terminal device 300 determines whether or not the received avatar information is plural (step S401). When there is one avatar information (step S401—NO), the avatar image creation unit 312 creates one avatar image corresponding to the received one avatar information (step S402).
  • the avatar image creation unit 312 determines the part type ID corresponding to the part ID having the highest matching frequency in the received plurality of avatar information (step S401—YES). S403A). Next, for the part ID corresponding to the part type ID determined in step S403A in the plurality of avatar information, the avatar image creating unit 312 stores the plurality of avatar information so that the part ID having a higher matching frequency is stored in common. It is regenerated (step S403B). Then, the avatar image creating unit 312 creates a plurality of avatar images corresponding to each of the plurality of avatar information regenerated as described above (step S403C).
  • the processing of the display control unit 313 in the third embodiment is the same as that in FIG. Thereby, a plurality of avatar images created by the processing of FIG. 24 are displayed on the display unit 303.
  • FIG. 25 shows a configuration example of the avatar creating application server 200A and the user terminal device 300A in the avatar creating system as a modification adopting the browser type avatar creating application as described above.
  • the user terminal device 300A shown in this figure includes a web browser unit 315 as a function corresponding to avatar creation.
  • the avatar creation application server 200 ⁇ / b> A transmits the file of the avatar creation application to the user terminal device 300 ⁇ / b> A connected via the network 500.
  • This file is described in a markup language such as XML (Extensible Markup Language) or HTML (HyperText Markup Language).
  • the web browser unit 315 of the user terminal device 300A reproduces the file transmitted as described above. By reproducing the file in this manner, the application screen of the avatar creation application is displayed on the display unit 303 of the user terminal device 300A.
  • the functions of the face image data transmission unit 311 and the display control unit 313 in FIG. 15 are realized by the web browser unit 315 that reproduces the avatar creation application file as described above.
  • the web browser unit 315 sends a command corresponding to the operation to the avatar creation application server 200A.
  • the avatar creation application server 200A executes a predetermined process related to avatar creation in response to the received command. Thereby, for example, the same operation as that of the embodiment described so far is realized.
  • the avatar creating application server 200A shown in this figure further includes an avatar image creating unit 211 and an avatar editing unit 212 in addition to the configuration of the avatar creating application server 200 shown in FIG.
  • the avatar image creation unit 211 creates an avatar image based on the part image selected by the part image selection unit 204. That is, the avatar image creation unit 211 generates an avatar image based on the avatar information 920 generated by the part image selection unit 204 in the avatar creation application server 200A. And the avatar image preparation part 211 produces
  • the web browser unit 315 of the user terminal device 300A reproduces the file, an application screen on which the created avatar image exists is displayed on the display unit 303.
  • the avatar editing unit 212 edits the avatar image created by the avatar image creating unit 211 in accordance with a user instruction (avatar editing operation) performed on the user terminal device 300A.
  • the user of the user terminal device 300A can perform an avatar editing operation on the application screen on which the avatar image is displayed as described above.
  • the web browser unit 315 transmits a command corresponding to the operation from the avatar creation application server 200A to the output.
  • the avatar editing unit 212 performs avatar editing according to the command transmitted as described above.
  • the avatar editing process itself may be the same as that of the avatar editing unit 314 in FIG.
  • the avatar image creating unit 211 changes the avatar image based on the avatar information changed according to the editing result of the avatar editing unit 212.
  • the avatar image creation unit 211 generates a file reflecting the contents of the avatar image changed in this way, and transmits the file to the user terminal device 300A.
  • the web browser part 315 transmits a notification of confirmation with respect to the avatar preparation application server 200A.
  • the feature point database update unit 205 updates the feature point database 700A as in the case of FIG.
  • the feature amount of the object is feature point data based on the coordinates.
  • the color of the object may be further included in the feature amount.
  • the program for realizing each functional unit shown in FIG. 2, FIG. 15 and FIG. 25 is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system and executed.
  • generation of feature point databases 700 and 700A, creation of avatars, update of feature point databases 700 and 700A, and the like may be performed.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.
  • RAM volatile memory
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
  • An image creation system includes an image input unit (201) that inputs image data, and analysis data acquisition that acquires analysis data indicating the analysis result by analyzing the input image data Element image selection for selecting an element image from among a plurality of element images stored in the element image storage unit based on a result of comparing the unit (202) with the analysis data and the comparison data stored in the comparison data storage unit Unit (204), an overall image creation unit (312) that creates an overall image based on the selected element image, and an overall image provision unit (313) that provides the created overall image to the user.
  • a whole image editing unit (314) for editing the contents of the whole image according to the user's instruction, and when the contents of the whole image are confirmed
  • a update unit that updates the comparison data based on the contents of the serial whole image (205).
  • the comparison data storage unit stores in advance initial comparison data created by using a plurality of image data prepared in advance, and the update The unit (205) may update the initial comparison data so as to add new comparison data.
  • the element image storage unit stores a plurality of element images corresponding to a plurality of element types, and the element image selection unit (204) Element images may be selected for each of the plurality of element types.
  • the overall image creation unit (312) includes elements corresponding to the same element type based on a result of comparing the analysis data and the comparison data.
  • a plurality of element images are selected from the images, a plurality of the whole images are created corresponding to each of the selected plurality of element images, and the whole image providing unit generates the plurality of whole images An image may be provided to the user.
  • the overall image creation unit (312) is most effective when a plurality of element images are selected from element images corresponding to the same element type.
  • the plurality of whole images may be created using the element image having the highest matching frequency in common.
  • the image creation application server includes a communication unit that communicates with a user terminal device via a network, an image input unit (201) that inputs image data, and analyzes the input image data. Then, based on the result of comparing the analysis data acquisition unit (202) that acquires the analysis data indicating the analysis result and the comparison data stored in the comparison data storage unit, the element image storage unit An element image selection unit (204) for selecting an element image from among a plurality of element images to be stored, and the content of the entire image created based on the selected element image in accordance with a user instruction to the user terminal device An update unit (205) that updates the comparison data based on the content of the whole image when it is confirmed in response to the confirmation.
  • the image creation application server includes a communication unit that communicates with a user terminal device via a network, an image input unit (201) that inputs image data, and analyzes the input image data. Then, based on the result of comparing the analysis data acquisition unit (202) that acquires the analysis data indicating the analysis result and the comparison data stored in the comparison data storage unit, the element image storage unit An element image selection unit (204) for selecting an element image from a plurality of element images to be stored, an entire image generation unit (312) for generating an entire image based on the selected element image, and the user terminal device An overall image editing unit (314) that edits the content of the created overall image in response to a user instruction made to the user, and the content of the overall image Serial in response to is determined in accordance with an instruction from a user to the user terminal device, and a update unit for updating the comparison data based on the contents of the entire image when it is determined (205).
  • An image creation method as one aspect of the present invention includes an image input step for inputting image data, and an analysis data acquisition step for acquiring analysis data indicating the analysis result by analyzing the input image data. And an element image selection step for selecting an element image from among a plurality of element images based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit, and based on the selected element image
  • a whole image creating step for creating a whole image, a whole image providing step for providing the created whole image to a user, and a whole image editing for editing the content of the provided whole image in accordance with an instruction from the user And comparing the comparison data based on the content of the whole image when confirmed, according to the step and the content of the whole image being confirmed. And an updating step of new to.
  • the image creation method as one aspect of the present invention is stored in a communication step of communicating with a user terminal device via a network, an image input step of inputting image data, and the analysis data and comparison data storage unit.
  • An element image selection step for selecting an element image from a plurality of element images based on the result of comparison with the comparison data, and the content of the entire image created based on the selected element image for the user terminal device
  • An update step of updating the comparison data based on the content of the whole image when confirmed in response to being confirmed according to a user instruction.
  • the image creating method as one aspect of the present invention includes a communication step of communicating with a user terminal device via a network, an image input step of inputting image data, and analyzing the input image data. Select an element image from a plurality of element images based on the result of comparing the analysis data and the comparison data stored in the comparison data storage unit with an analysis data acquisition step for acquiring analysis data indicating the analysis result An element image selection step, an entire image creation step for creating an entire image based on the selected element image, A whole image editing step for editing the contents of the created whole image in accordance with a user instruction given to the user terminal apparatus; and a contents of the whole image in accordance with a user instruction to the user terminal apparatus An update step of updating the comparison data based on the content of the whole image when it is confirmed.
  • a program as one aspect of the present invention is stored in a computer in a communication step for communicating with a user terminal device via a network, an image input step for inputting image data, and the analysis data and comparison data storage unit.
  • the update step of updating the comparison data based on the content of the whole image when confirmed is performed in response to the confirmation according to the user's instruction.
  • a program comprising: a communication step of communicating with a user terminal device via a network; an image input step of inputting image data; and analyzing the input image data.
  • the analysis data acquisition step for acquiring the analysis data indicating the analysis result, and the result of comparing the analysis data and the comparison data stored in the comparison data storage unit, the element image from among the plurality of element images
  • An element image selection step to select, an entire image creation step to create an entire image based on the selected element image, and the entire image created in response to a user instruction given to the user terminal device
  • An overall image editing step for editing the contents of the Depending on the contents is confirmed, it is intended for executing an updating step of updating the comparison data based on the contents of the entire image when it is determined.
  • the degree of avatar similarity to an avatar creation source image is improved.
  • Feature point database generation apparatus 101 Sample face image data input part 102 Feature point data acquisition part 103 Display control part 104 Acquisition part 105 Feature point database generation part 105A Object definition table generation part 105B Feature point hash table generation part 106 Storage part 107 Feature Point database transmission unit 108 operation unit 109 display unit 200 avatar creation application server 201 face image data input unit 202 feature point data acquisition unit 203 storage unit 204 part image selection unit 205 feature point database update unit 206 communication unit 300 user terminal device 301 control Unit 302 Operation unit 303 Display unit 304 Communication unit 311 Face image data transmission unit 312 Avatar image creation unit 313 Display control unit 314 Avatar editing unit 400 Application for avatar use Server 500 network 600 parts image table 600A parts image table 700 feature point database 700A feature point database 710 object definition table 710A object definition table 711 record 720 feature point hash table 720A feature point hash table 721 record 810 representative point coordinate information 820 normalization Coordinate information 820A Shift calculation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

An avatar generation application server receives face image data and acquires feature point data for the object corresponding to each part of the face, compares the feature point data with a feature point database stored in a storage section, and selects the avatar part image most similar to the object. Then, a user terminal device generates an avatar image on the basis of the selected part image and displays the avatar image on a display section. The user edits the displayed avatar image, if necessary, and finalizes the image. In response to this finalization, the avatar generation application server updates the feature point database so as to add information indicating the relationship between the avatar part image and the object when the image is finalized.

Description

画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラムImage creation system, image creation application server, image creation method and program
 本発明は、画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラムに関する。
 本願は、2012年5月31日に、日本に出願された特願2012-125331及び、2012年12月27日に、日本に出願された特願2012-285883に基づき優先権を主張し、それらの内容をここに援用する。
The present invention relates to an image creation system, an image creation application server, an image creation method, and a program.
This application claims priority based on Japanese Patent Application No. 2012-125331 filed in Japan on May 31, 2012 and Japanese Patent Application No. 2012-285883 filed in Japan on December 27, 2012. Is incorporated herein by reference.
 SNS(ソーシャルネットワーキングサービス)などのネットワーク上でのコミュニケーションサービスにおいて、自己の分身のキャラクターであるアバターによりユーザを表現することが行われている。このアバターは、一般的に二次元モデルまたは三次元モデルの画像で表される。 In a communication service on a network such as an SNS (social networking service), a user is expressed by an avatar that is a character of his / herself. This avatar is generally represented by an image of a two-dimensional model or a three-dimensional model.
 このようなアバターの顔はユーザの似顔絵であると捉えることができる。この観点から、自分の似顔絵を簡単に作成してデジタル化するための技術として、以下のような顔画像認識システムが知られている。
 つまり、この顔画像認識システムは、顔を撮像した顔画像と予めデータベース化されている顔パーツとのマッチングを行い、大きさ・位置・色・傾き等のデータをパーツに付加してコード化する。そして、顔画像認識システムは、コード化されたデータをもとに似顔絵を画面等に自動出力するとうものである。また、この顔画像認識システムは、表示された顔パーツをユーザ操作に応じて変形するように調整することが可能とされている(例えば、特許文献1参照)。
Such an avatar's face can be regarded as a portrait of the user. From this point of view, the following face image recognition system is known as a technique for easily creating and digitizing his own portrait.
That is, this face image recognition system performs matching between a face image obtained by capturing a face and face parts stored in a database in advance, and adds data such as size, position, color, and inclination to the part and encodes it. . The face image recognition system automatically outputs a portrait on a screen or the like based on the encoded data. In addition, the face image recognition system can adjust the displayed face parts so as to be deformed in accordance with a user operation (see, for example, Patent Document 1).
特開2007-164408号公報JP 2007-164408 A
 上記のように顔画像を元としてアバターを自動作成するにあたり、アバターが似顔絵であるとの観点のもとでは、アバター作成元の画像に対するアバターの類似度ができるだけ高いほうがアバターの質も向上することとなる。 When automatically creating an avatar based on a face image as described above, from the viewpoint that the avatar is a caricature, the quality of the avatar will be improved if the avatar's similarity to the avatar creation image is as high as possible. It becomes.
 しかし、特許文献1においては、アバター作成元の画像に対するアバターの類似度を向上させることについては特に配慮されていない。例えば、特許文献1の構成の場合、上記の類似度は顔パーツのデータベースの充実度に依存する。したがって、例えば特許文献1の構成において、データベースが格納する顔パーツの数が不十分であれば、類似度の低い傾向の顔パーツが継続して作成されてしまうことになる。 However, in Patent Document 1, no particular consideration is given to improving the avatar similarity to the image of the avatar creation source. For example, in the case of the configuration of Patent Document 1, the above-described similarity depends on the degree of enhancement of the face part database. Therefore, for example, in the configuration of Patent Document 1, if the number of face parts stored in the database is insufficient, face parts having a tendency of low similarity are continuously created.
 本発明の幾つかの態様は、アバター作成元の画像に対するアバターの類似度が向上される画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラムを提供する。 Some aspects of the present invention provide an image creation system, an image creation application server, an image creation method, and a program in which the similarity of an avatar to an avatar creation source image is improved.
 本発明の一態様としての画像作成システムは、画像データを入力する画像入力部と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、選択された要素画像に基づいて全体画像を作成する全体画像作成部と、作成された前記全体画像をユーザに提供する全体画像提供部と、提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集部と、前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部とを備える。 An image creation system as an aspect of the present invention includes an image input unit that inputs image data, an analysis data acquisition unit that acquires analysis data indicating an analysis result by analyzing the input image data, Based on the result of comparing the analysis data and the comparison data stored in the comparison data storage unit, an element image selection unit that selects an element image from among a plurality of element images stored in the element image storage unit is selected. An overall image creation unit that creates an overall image based on an element image, an overall image provision unit that provides the created overall image to a user, and edits the contents of the provided overall image according to an instruction from the user An entire image editing unit, and an update unit that updates the comparison data based on the content of the entire image when the content of the entire image is confirmed according to the content of the entire image being confirmed Provided.
本実施形態のアバター作成システムの構成例を示す図である。It is a figure which shows the structural example of the avatar preparation system of this embodiment. 本実施形態における特徴点データベース生成装置の構成例を示す図である。It is a figure which shows the structural example of the feature point database production | generation apparatus in this embodiment. 本実施形態におけるパーツ画像テーブルの構成例を示す図である。It is a figure which shows the structural example of the parts image table in this embodiment. 本実施形態における特徴点データ取得部による特徴点データの取得例を示す図である。It is a figure which shows the example of acquisition of the feature point data by the feature point data acquisition part in this embodiment. 本実施形態におけるオブジェクト定義テーブル生成部が生成する代表点座標情報の一例を示す図である。It is a figure which shows an example of the representative point coordinate information which the object definition table production | generation part in this embodiment produces | generates. 本実施形態におけるオブジェクト定義テーブル生成部が生成するオブジェクト定義テーブルのレコードの一例を示す図である。It is a figure which shows an example of the record of the object definition table which the object definition table production | generation part in this embodiment produces | generates. 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。It is a figure which shows the example of a procedure for calculating | requiring the normalization coordinate of the feature point in this embodiment. 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。It is a figure which shows the example of a procedure for calculating | requiring the normalization coordinate of the feature point in this embodiment. 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。It is a figure which shows the example of a procedure for calculating | requiring the normalization coordinate of the feature point in this embodiment. 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。It is a figure which shows the example of a procedure for calculating | requiring the normalization coordinate of the feature point in this embodiment. 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。It is a figure which shows the example of a procedure for calculating | requiring the normalization coordinate of the feature point in this embodiment. 特徴点ハッシュテーブル生成部が生成する正規化座標情報の一例を示す図である。It is a figure which shows an example of the normalization coordinate information which a feature point hash table production | generation part produces | generates. 特徴点ハッシュテーブル生成部が正規化座標情報をハッシュ値に変換するためのシフト演算処理の一例を示す図である。It is a figure which shows an example of the shift calculation process for a feature point hash table production | generation part to convert normalized coordinate information into a hash value. 特徴点ハッシュテーブル生成部が生成する座標ハッシュ情報の一例を示す図である。It is a figure which shows an example of the coordinate hash information which a feature point hash table production | generation part produces | generates. 特徴点ハッシュテーブル生成部が生成する特徴点ハッシュテーブルのレコードの一例を示す図である。It is a figure which shows an example of the record of the feature point hash table which a feature point hash table production | generation part produces | generates. 本実施形態の特徴点データベース生成装置が生成する特徴点データベースの構造例を示す図である。It is a figure which shows the structural example of the feature point database which the feature point database production | generation apparatus of this embodiment produces | generates. 本実施形態の特徴点データベース生成装置が実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the feature point database production | generation apparatus of this embodiment performs. 本実施形態におけるアバター作成アプリケーションサーバとユーザ端末装置の構成例を示す図である。It is a figure which shows the structural example of the avatar preparation application server and user terminal device in this embodiment. 本実施形態におけるアバター作成アプリケーションサーバの特徴点データ取得部が生成する座標ハッシュ情報の一例を示す図である。It is a figure which shows an example of the coordinate hash information which the feature point data acquisition part of the avatar preparation application server in this embodiment produces | generates. 本実施形態におけるアバター作成アプリケーションサーバが記憶する特徴点データベースの内容例を示す図である。It is a figure which shows the example of the content of the feature point database which the avatar preparation application server in this embodiment memorize | stores. 本実施形態のパーツ画像選択部による座標ハッシュ情報の座標ハッシュと特徴点データベースの座標ハッシュとの比較結果の一例を示す図である。It is a figure which shows an example of the comparison result of the coordinate hash of the coordinate hash information by the part image selection part of this embodiment, and the coordinate hash of a feature point database. 本実施形態のパーツ画像選択部によるパーツIDの集計結果を示す図である。It is a figure which shows the total result of part ID by the parts image selection part of this embodiment. 本実施形態のパーツ画像選択部が生成するアバター情報の一例を示す図である。It is a figure which shows an example of the avatar information which the parts image selection part of this embodiment produces | generates. 第1の実施形態におけるユーザ端末装置とアバター作成アプリケーションサーバが実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the user terminal device and avatar preparation application server in 1st Embodiment perform. 第2の実施形態においてユーザ端末装置のアバター画像作成部が実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the avatar image preparation part of a user terminal device performs in 2nd Embodiment. 第2の実施形態においてユーザ端末装置の表示制御部が実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the display control part of a user terminal device performs in 2nd Embodiment. 第3の実施形態においてユーザ端末装置のアバター画像作成部が実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the avatar image preparation part of a user terminal device performs in 3rd Embodiment. 変形例におけるアバター作成アプリケーションサーバとユーザ端末装置の構成例を示す図である。It is a figure which shows the structural example of the avatar preparation application server and user terminal device in a modification.
 <第1の実施形態>
 [アバター作成システムの構成例]
 図1は、本実施形態のアバター作成システム(画像作成システム)の構成例を示している。
 この図に示すアバター作成システムは、特徴点データベース生成装置100と、アバター作成アプリケーションサーバ200と、ユーザ端末装置300と、アバター利用アプリケーションサーバ400を備える。また、アバター作成アプリケーションサーバ200と、ユーザ端末装置300と、アバター利用アプリケーションサーバ400は、ネットワーク500と接続される。
<First Embodiment>
[Configuration example of avatar creation system]
FIG. 1 shows a configuration example of an avatar creation system (image creation system) of the present embodiment.
The avatar creation system shown in this figure includes a feature point database generation device 100, an avatar creation application server 200, a user terminal device 300, and an avatar utilization application server 400. The avatar creation application server 200, the user terminal device 300, and the avatar utilization application server 400 are connected to the network 500.
 特徴点データベース生成装置100は、特徴点データベースを生成する装置である。特徴点データベースは、オブジェクトごとの特徴点にパーツ画像を対応付けた構造のデータベースである。オブジェクトとは、例えば複数の顔画像データごとに抽出された目、鼻、口、眉毛などの所定の部位に対応する。このオブジェクトに対応する所定の部位は、アバターを作成するにあたって必要とされている目、鼻、口、眉毛などのパーツ画像の種別(パーツ種別)に対応する。特徴点データベース生成装置100が生成した特徴点データベースは、アバター作成アプリケーションサーバ200が記憶する。 The feature point database generation device 100 is a device that generates a feature point database. The feature point database is a database having a structure in which a part image is associated with a feature point for each object. An object corresponds to a predetermined part such as an eye, nose, mouth, or eyebrows extracted for each of a plurality of face image data. The predetermined part corresponding to this object corresponds to the type (part type) of part images such as eyes, nose, mouth, eyebrows and the like that are necessary for creating an avatar. The avatar creation application server 200 stores the feature point database generated by the feature point database generation device 100.
 アバター作成アプリケーションサーバ(画像作成アプリケーションサーバ)200は、アバター作成アプリケーションに関連した処理を実行するサーバである。
 本実施形態においては、ユーザ端末装置300において、ネイティブ型のアバター作成アプリケーションが動作する。例えば、このアバター作成アプリケーションに対するユーザの操作に応じて、ユーザ端末装置300がアバター作成アプリケーションサーバ200に対して操作情報を送信する。アバター作成アプリケーションサーバ200は、この操作情報に応答した所定の処理を実行する。
The avatar creation application server (image creation application server) 200 is a server that executes processing related to the avatar creation application.
In the present embodiment, a native avatar creation application runs on the user terminal device 300. For example, the user terminal device 300 transmits operation information to the avatar creation application server 200 in response to a user operation on the avatar creation application. The avatar creation application server 200 executes a predetermined process in response to this operation information.
 そして、本実施形態のアバター作成アプリケーションは、ユーザ端末装置300にて取得した顔画像データを利用して、この顔画像データが示す顔に類似したアバターを自動作成する。ここで、ユーザ端末装置300が取得する顔画像データは、例えば、ユーザなどの顔を撮像することによって生成された撮像画像データである。また、例えば、ユーザなどの似顔絵を描いたイラストのようなものの画像データであってもよい。 Then, the avatar creation application of this embodiment automatically creates an avatar similar to the face indicated by the face image data using the face image data acquired by the user terminal device 300. Here, the face image data acquired by the user terminal device 300 is, for example, captured image data generated by capturing the face of the user or the like. Further, for example, it may be image data such as an illustration depicting a portrait of a user or the like.
 ユーザ端末装置300が取得した顔画像データは、ユーザ端末装置300上で動作するアバター作成アプリケーションに対する操作によりアバター作成元の顔画像として指定されるのに応じて、アバター作成アプリケーションサーバ200に対して送信される。
 アバター作成アプリケーションサーバ200は、ユーザ端末装置300から受信した顔画像データが示す顔に類似したアバターを自動作成する。この際に、アバター作成アプリケーションサーバ200は、受信した顔画像データと、自己が記憶する特徴点データベースとを照合することにより顔画像における部位ごとに類似したパーツ画像を特定し、これらの特定したパーツ画像によりアバターを作成する。
The face image data acquired by the user terminal device 300 is transmitted to the avatar creation application server 200 in response to being designated as the avatar creation source face image by an operation on the avatar creation application operating on the user terminal device 300. Is done.
The avatar creation application server 200 automatically creates an avatar similar to the face indicated by the face image data received from the user terminal device 300. At this time, the avatar creation application server 200 specifies similar part images for each part in the face image by comparing the received face image data with the feature point database stored by itself, and these specified parts are identified. Create an avatar with an image.
 ユーザ端末装置300は、ユーザが操作するネットワーク端末装置であり、具体的には、例えば携帯電話やスマートフォン、タブレット端末などである。
 上記のように、ユーザ端末装置300をアバター作成アプリケーションサーバ200と接続することにより、ユーザ端末装置300上でアバター作成アプリケーションが動作する。
 また、ユーザ端末装置300を、後述するアバター利用アプリケーションサーバ400と接続することにより、ユーザ端末装置300上でアバター作成アプリケーションが動作する。
The user terminal device 300 is a network terminal device operated by a user, and specifically, for example, a mobile phone, a smartphone, a tablet terminal, or the like.
As described above, the avatar creation application operates on the user terminal device 300 by connecting the user terminal device 300 to the avatar creation application server 200.
Moreover, the avatar creation application operates on the user terminal device 300 by connecting the user terminal device 300 to an avatar use application server 400 described later.
 アバター利用アプリケーションサーバ400は、アバター利用アプリケーションをユーザ端末装置300のユーザに提供するサーバである。アバター利用アプリケーションとは、アバター作成アプリケーションサーバにより作成されたアバターを利用するアプリケーションである。
 アバター利用アプリケーションの一例は、仮想空間コミュニティーアプリケーションである。
The avatar use application server 400 is a server that provides an avatar use application to the user of the user terminal device 300. An avatar utilization application is an application which uses the avatar created by the avatar creation application server.
An example of an avatar utilization application is a virtual space community application.
 ユーザ端末装置300上で動作する仮想空間コミュニティーアプリケーションの画面においては、そのユーザ端末装置300を操作するユーザ自身のアバターと、他のユーザのアバターが仮想空間において存在している。これらのアバターは、例えば対応のユーザが投稿したつぶやきなどを話しているように表現される。また、例えば仮想空間の画面を操作して他のアバターに触れて例えばなでてあげたりすると、そのアバターが喜ぶ様子なども表示されるようになっている。このように、仮想空間コミュニティーアプリケーションにおいては、アバターを利用して、他のユーザとコミュニケーションを図ることができる。 On the screen of the virtual space community application that runs on the user terminal device 300, the user's own avatar that operates the user terminal device 300 and the avatars of other users exist in the virtual space. These avatars are expressed as, for example, talking about tweets posted by the corresponding user. In addition, for example, when a user touches another avatar by operating the screen of the virtual space and, for example, strokes, the appearance of the avatar being pleased is also displayed. In this way, in the virtual space community application, communication with other users can be achieved using an avatar.
 [特徴点データベース生成装置の構成例]
 図2は、特徴点データベース生成装置100の構成例を示している。本実施形態においては、特徴点データベースを生成するための作業者が、特徴点データベース生成装置100にサンプル顔画像を入力する。そして、作業者は、予め用意された複数のパーツ画像のうちから、サンプル顔画像におけるオブジェクト(アバター作成のためのパーツ画像に対応する目、鼻、口、眉毛などの部位)の各々と最も類似しているものを目視により判断する。そして、作業者は、サンプル画像におけるオブジェクトと、このオブジェクトに最も類似していると判断したパーツ画像とを対応付ける操作を特徴点データベース生成装置100に対して行う。この操作に応じて、特徴点データベース生成装置100は、オブジェクトごとの特徴点に対応するパーツ画像を示す特徴点データベースを生成する。
[Configuration example of feature point database generation device]
FIG. 2 shows a configuration example of the feature point database generation apparatus 100. In the present embodiment, an operator for generating a feature point database inputs a sample face image to the feature point database generation device 100. The worker is most similar to each of the objects (parts such as eyes, nose, mouth, eyebrows corresponding to the part image for creating the avatar) in the sample face image among the plurality of part images prepared in advance. Judgment is made visually. Then, the operator performs an operation for associating the object in the sample image with the part image determined to be most similar to the object on the feature point database generation apparatus 100. In response to this operation, the feature point database generation device 100 generates a feature point database indicating part images corresponding to the feature points for each object.
 図2に示す特徴点データベース生成装置100は、サンプル顔画像データ入力部101、特徴点データ取得部102、表示制御部103、パーツID取得部104、特徴点データベース生成部105、記憶部106、特徴点データベース送信部107、操作部108および表示部109を備える。 2 includes a sample face image data input unit 101, a feature point data acquisition unit 102, a display control unit 103, a part ID acquisition unit 104, a feature point database generation unit 105, a storage unit 106, and a feature. A point database transmission unit 107, an operation unit 108, and a display unit 109 are provided.
 サンプル顔画像データ入力部101は、特徴点データベースの生成のために予めサンプルとして用意された顔画像データであるサンプル顔画像データを外部から入力する。このサンプル顔画像データは、例えば、サンプル対象として集められた現実の人の顔を撮像することにより得られるものである。また、サンプル顔画像データ入力部101は、例えば所定のデータインターフェースまたはネットワークを経由してサンプル顔画像データを入力すればよい。 The sample face image data input unit 101 inputs sample face image data, which is face image data prepared in advance as a sample for generating a feature point database, from the outside. This sample face image data is obtained, for example, by imaging real human faces collected as sample targets. Further, the sample face image data input unit 101 may input sample face image data via, for example, a predetermined data interface or a network.
 特徴点データ取得部102は、入力したサンプル顔画像データについて顔認識を含む解析処理を実行することにより、予め定義されたオブジェクト(目、鼻、口、眉毛などのアバター作成のためのパーツに対応する部位)を抽出する。そのうえで、特徴点データ取得部102は、抽出したオブジェクトごとの特徴点データを求める。なお、オブジェクトにおける特徴点は、オブジェクトの種別ごとに予め定義されている。また、特徴点データ取得部102は、例えば特徴点データとして、特徴点ごとの座標を求める。 The feature point data acquisition unit 102 performs analysis processing including face recognition on the input sample face image data, thereby supporting predefined objects (parts for creating avatars such as eyes, nose, mouth, eyebrows, etc.) To be extracted). In addition, the feature point data acquisition unit 102 obtains feature point data for each extracted object. Note that feature points in an object are defined in advance for each type of object. Further, the feature point data acquisition unit 102 obtains coordinates for each feature point, for example, as feature point data.
 表示制御部103は、特徴点データベース生成のためのユーザインターフェース画像として、サンプル顔画像データ入力部101が入力した顔画像の画像と、記憶部106に記憶されるパーツ画像テーブル600が格納するパーツ画像のリストを表示部109に表示させる。 The display control unit 103 stores the face image image input by the sample face image data input unit 101 and the part image stored in the part image table 600 stored in the storage unit 106 as a user interface image for generating a feature point database. Are displayed on the display unit 109.
 作業者は、表示部109に表示されるパーツ画像のリストのうちから、同じ表示部109に表示される顔画像が示す顔におけるオブジェクトに対応する部位ごとに最も類似するものを目視により判断する。そして、作業者は、パーツ画像のリストのうちからオブジェクトごとに最も類似すると判断したパーツ画像を選択するための操作を操作部108に対して行う。 The operator visually determines from the list of part images displayed on the display unit 109 the most similar one for each part corresponding to the object in the face indicated by the face image displayed on the same display unit 109. Then, the operator performs an operation on the operation unit 108 for selecting a part image determined to be most similar for each object from the part image list.
 パーツID取得部104は、選択されたパーツ画像に対応付けられているパーツIDを記憶部106に記憶されるパーツ画像テーブル600から取得する。つまり、パーツID取得部104は、オブジェクトに最も類似しているものと判定されたパーツ画像を特定するパーツIDを取得する。 The part ID acquisition unit 104 acquires a part ID associated with the selected part image from the part image table 600 stored in the storage unit 106. That is, the part ID acquisition unit 104 acquires a part ID that specifies a part image determined to be most similar to the object.
 特徴点データベース生成部105は、特徴点データ取得部102により顔画像データから取得されたオブジェクトごとの特徴点と、パーツID取得部104により取得されたオブジェクトごとに対応付けられるパーツIDとに基づいて特徴点データベース700を生成する。 The feature point database generation unit 105 is based on the feature point for each object acquired from the face image data by the feature point data acquisition unit 102 and the part ID associated with each object acquired by the part ID acquisition unit 104. A feature point database 700 is generated.
 また、特徴点データベース生成部105は、オブジェクト定義テーブル生成部105Aと特徴点ハッシュテーブル生成部105Bを備える。
 オブジェクト定義テーブル生成部105Aは、特徴点データベース700に含まれるオブジェクト定義テーブル710を生成する。
 特徴点ハッシュテーブル生成部105Bは、特徴点データベース700に含まれる特徴点ハッシュテーブル720を生成する。
The feature point database generation unit 105 includes an object definition table generation unit 105A and a feature point hash table generation unit 105B.
The object definition table generation unit 105A generates an object definition table 710 included in the feature point database 700.
The feature point hash table generation unit 105B generates a feature point hash table 720 included in the feature point database 700.
 記憶部106は、特徴点データベース生成装置100としての動作を実現するのに必要なプログラムや各種の情報を記憶する。この図においては、記憶部106が記憶する情報のうち、パーツ画像テーブル600と特徴点データベース700が示されている。 The storage unit 106 stores programs and various types of information necessary for realizing the operation as the feature point database generation apparatus 100. In this figure, a part image table 600 and a feature point database 700 among the information stored in the storage unit 106 are shown.
 パーツ画像テーブル600は、アバター作成に使用するものとして予め用意されたアバターの目、鼻、口、眉毛などの所定の部位にそれぞれ対応する複数種類のパーツの画像(パーツ画像)をパーツIDに対応付けて格納したテーブルである。 The part image table 600 corresponds to part IDs of images (part images) of plural types respectively corresponding to predetermined parts such as eyes, nose, mouth, eyebrows of avatars prepared in advance for use in avatar creation. It is a table that has been added and stored.
 特徴点データベース700は、特徴点データベース生成部105により生成される情報であり、オブジェクトごとの特徴点にパーツ画像のパーツIDを対応付けた構造のデータベースである。
 なお、記憶部106が対応するハードウェアの一例は、HDD(Hard Disk Drive)やフラッシュメモリなどである。
The feature point database 700 is information generated by the feature point database generation unit 105, and is a database having a structure in which a part ID of a part image is associated with a feature point for each object.
An example of hardware supported by the storage unit 106 is an HDD (Hard Disk Drive), a flash memory, or the like.
 特徴点データベース送信部107は、特徴点データベース生成部105により生成された特徴点データベース700を、所定のデータインターフェースまたはネットワークを経由してアバター作成アプリケーションサーバ200に送信する。この際、特徴点データベース送信部107は、記憶部106に記憶されている特徴点データベース700を読み出して送信する。
 このように送信された特徴点データベース700は、アバター作成アプリケーションサーバ200において記憶される。
The feature point database transmission unit 107 transmits the feature point database 700 generated by the feature point database generation unit 105 to the avatar creation application server 200 via a predetermined data interface or network. At this time, the feature point database transmission unit 107 reads and transmits the feature point database 700 stored in the storage unit 106.
The feature point database 700 transmitted in this way is stored in the avatar creation application server 200.
 操作部108は、特徴点データベース生成装置100を操作するための操作デバイスや操作子などを一括して示したものである。操作部108に含まれる操作デバイスの一例は、例えばマウスやキーボードなどである。
 表示部109は、表示制御部103の制御に応じて画像を表示する。
The operation unit 108 collectively indicates operation devices and operators for operating the feature point database generation apparatus 100. An example of an operation device included in the operation unit 108 is, for example, a mouse or a keyboard.
The display unit 109 displays an image according to the control of the display control unit 103.
 なお、特徴点データベース生成装置100におけるサンプル顔画像データ入力部101、特徴点データ取得部102、表示制御部103、パーツID取得部104および特徴点データベース生成部105などの機能部は、コンピュータ装置におけるCPU(Central Processing Unit)にプログラムを実行させることにより実現できる。 Note that the functional units such as the sample face image data input unit 101, the feature point data acquisition unit 102, the display control unit 103, the part ID acquisition unit 104, and the feature point database generation unit 105 in the feature point database generation device 100 are in the computer device. This can be realized by causing a CPU (Central Processing Unit) to execute a program.
 [パーツテーブル画像の構造例]
 ここで、図3を参照して、記憶部106に記憶されるパーツ画像テーブル600の構造例について説明する。
 図3に示すパーツ画像テーブル600は、パーツ画像ごとにパーツIDとパーツ種別IDを対応付けて形成される。
 パーツ画像は、アバターを形成するための目、鼻、口、眉毛などにそれぞれ対応するパーツの画像である。なお、このパーツ画像として格納されるデータは、例えば画像データのファイル名など、その画像データの実体を参照する情報である。
 パーツIDは、対応のパーツ画像を一意に識別するための識別子である。
 パーツ種別IDは、対応のパーツ画像が属するパーツ種別を一意に識別するための識別子である。パーツ種別とは、例えば目、鼻、口、眉毛などのパーツの各部位に対応する。
 なお、図3において具体的に示されているパーツ画像のパーツ種別は目で共通である。
これに応じて、これらのパーツ画像に対応付けられているパーツ種別IDは、いずれも目であることを示す「0」である。
[Example structure of parts table image]
Here, with reference to FIG. 3, a structural example of the part image table 600 stored in the storage unit 106 will be described.
The part image table 600 shown in FIG. 3 is formed by associating a part ID with a part type ID for each part image.
The parts image is an image of parts corresponding to eyes, nose, mouth, eyebrows and the like for forming an avatar. The data stored as the part image is information that refers to the substance of the image data, such as the file name of the image data.
The part ID is an identifier for uniquely identifying the corresponding part image.
The part type ID is an identifier for uniquely identifying the part type to which the corresponding part image belongs. The part type corresponds to each part of parts such as eyes, nose, mouth, and eyebrows.
Note that the part types of the part images specifically shown in FIG. 3 are common to eyes.
Accordingly, the part type ID associated with these part images is “0” indicating that both are eyes.
 また、図3においては、図示を簡略にすることの便宜上、目のみに対応する内容例が示されているが、パーツ画像テーブル600は、例えば鼻、口、眉毛などの他のパーツ種別に対応するパーツ画像のレコードも含む。つまり、パーツ画像テーブル600は、複数のパーツ種別のそれぞれに対応するパーツ画像を格納する。
 なお、特徴点データベース700の構造例については後述する。
In FIG. 3, for convenience of simplifying the illustration, an example of content corresponding to only the eyes is shown, but the part image table 600 corresponds to other part types such as nose, mouth, and eyebrows, for example. Also includes a part image record. That is, the part image table 600 stores part images corresponding to each of a plurality of part types.
A structural example of the feature point database 700 will be described later.
 [特徴点データベース生成例]
 次に、上記構成の特徴点データベース生成装置100が実行する特徴点データベース生成のための処理の具体例について説明する。
[Feature point database generation example]
Next, a specific example of processing for generating a feature point database executed by the feature point database generating apparatus 100 having the above configuration will be described.
 まず、特徴点データ取得部102は、サンプル顔画像データ入力部101が入力した顔画像データから、オブジェクト(顔の部位)ごとについての特徴点データを以下のように求める。
 特徴点データ取得部102は、例えば入力したサンプル顔画像データに対してx方向とy方向の二次元による絶対座標系を対応させる。そして、特徴点データ取得部102は、サンプル顔画像データから求めたオブジェクトの特徴点ごとに、その絶対座標系における座標(絶対座標(x、y))を求める。
First, the feature point data acquisition unit 102 obtains feature point data for each object (face part) from the face image data input by the sample face image data input unit 101 as follows.
The feature point data acquisition unit 102 associates, for example, the input sample face image data with a two-dimensional absolute coordinate system in the x direction and the y direction. Then, the feature point data acquisition unit 102 obtains coordinates (absolute coordinates (x, y)) in the absolute coordinate system for each feature point of the object obtained from the sample face image data.
 図4は、目としてのオブジェクトOBJの場合の特徴点データの取得例を模式的に示している。
 このようにオブジェクトOBJが目である場合、特徴点データ取得部102は、例えば図示するように、顔画像データから認識した目の画像部分から、6つの特徴点ER1~ER6のそれぞれの絶対座標系における絶対座標を求めることで、オブジェクトOBJの特徴点データを取得する。
FIG. 4 schematically shows an example of acquiring feature point data in the case of an object OBJ as an eye.
Thus, when the object OBJ is an eye, the feature point data acquisition unit 102, for example, as shown in the figure, from the eye image portion recognized from the face image data, each of the absolute coordinate systems of the six feature points ER1 to ER6. The feature point data of the object OBJ is obtained by obtaining the absolute coordinates at.
 次に、特徴点データベース生成部105におけるオブジェクト定義テーブル生成部105Aは、以下のようにオブジェクト定義テーブル710を生成する。
 まず、オブジェクト定義テーブル生成部105Aは、特徴点データ取得部102により取得された複数の特徴点の絶対座標のうちから部位ごとに予め設定されている2つの代表点の絶対座標を示す座標情報を生成する。
Next, the object definition table generation unit 105A in the feature point database generation unit 105 generates the object definition table 710 as follows.
First, the object definition table generation unit 105A obtains coordinate information indicating the absolute coordinates of two representative points preset for each part from the absolute coordinates of a plurality of feature points acquired by the feature point data acquisition unit 102. Generate.
 図4に示したオブジェクトOBJは目である。目の部位に対応して予め設定されている代表点は、例えば目尻と目頭である。図4に示す特徴点ER1~ER6のうちで、目尻と目頭に対応するものは特徴点ER1とER4である。したがって、図4における代表点は、特徴点ER1とER4である。以降の説明において、特徴点ER1とER4については、代表点ER1とER4ともいう場合がある。 The object OBJ shown in FIG. 4 is an eye. The representative points set in advance corresponding to the part of the eye are, for example, the corner of the eye and the head of the eye. Among the feature points ER1 to ER6 shown in FIG. 4, the feature points ER1 and ER4 correspond to the corners of the eyes and the eyes. Therefore, the representative points in FIG. 4 are feature points ER1 and ER4. In the following description, the feature points ER1 and ER4 may be referred to as representative points ER1 and ER4.
 そして、オブジェクト定義テーブル生成部105Aは、代表点ER1~ER6のうちから代表点ER1とER4の絶対座標(x、y)を代表点座標情報として取得する。
 図5は、図4の代表点ER1とER4の各絶対座標を示す代表点座標情報810を示している。この図に示す代表点座標情報810は、代表点ER1の絶対座標が(356,421)で、代表点ER2の絶対座標が(53,383)であることを示している。
Then, the object definition table generating unit 105A acquires the absolute coordinates (x, y) of the representative points ER1 and ER4 from the representative points ER1 to ER6 as representative point coordinate information.
FIG. 5 shows representative point coordinate information 810 indicating the absolute coordinates of the representative points ER1 and ER4 of FIG. The representative point coordinate information 810 shown in this figure indicates that the absolute coordinate of the representative point ER1 is (356, 421) and the absolute coordinate of the representative point ER2 is (53, 383).
 また、これと並行して、作業者は、表示部109に表示される顔画像における図4の目に最も類似すると目視により判断したパーツ画像を指定する操作を行っている。これに応じて、パーツID取得部104は、図4の目としてのオブジェクトに対応付けられたパーツIDを取得している。
 そこで、オブジェクト定義テーブル生成部105Aは、代表点座標情報810とパーツID取得部104が取得したパーツIDとを利用して、図4の目としてのオブジェクトOBJに対応するオブジェクト定義テーブル710のレコードを生成する。
In parallel with this, the operator performs an operation of designating a part image visually determined to be most similar to the eye of FIG. 4 in the face image displayed on the display unit 109. In response to this, the part ID acquisition unit 104 acquires a part ID associated with the object as the eye of FIG.
Therefore, the object definition table generation unit 105A uses the representative point coordinate information 810 and the part ID acquired by the part ID acquisition unit 104 to record a record of the object definition table 710 corresponding to the object OBJ as an eye in FIG. Generate.
 図6は、図4のオブジェクトOBJに対応するオブジェクト定義テーブル710のレコード711の内容例を示している。
 この図に示すように、オブジェクト定義テーブル710のレコード711は、パーツ種別IDとオブジェクトIDとパーツIDと代表点座標とを含む。
FIG. 6 shows an example of the contents of the record 711 of the object definition table 710 corresponding to the object OBJ of FIG.
As shown in this figure, the record 711 of the object definition table 710 includes a part type ID, an object ID, a part ID, and representative point coordinates.
 パーツ種別IDは、対応のオブジェクトに対応するパーツ画像の種別を示す。
 図4のオブジェクトは目であるので、このオブジェクトに対応するパーツ画像の種別も目である。したがって、図6におけるパーツ種別IDには、パーツ画像の種別が目であることを示す値(例えば「0」)を格納する。このことからすれば、レコード711におけるパーツ種別IDは、オブジェクトが対応する顔の部位についての目、鼻、口、眉毛などの種別を示しているといえる。
The part type ID indicates the type of the part image corresponding to the corresponding object.
Since the object in FIG. 4 is an eye, the type of part image corresponding to this object is also an eye. Accordingly, the part type ID in FIG. 6 stores a value (for example, “0”) indicating that the part image type is eye. From this, it can be said that the part type ID in the record 711 indicates the type of eyes, nose, mouth, eyebrows, etc., for the face part to which the object corresponds.
 オブジェクトIDは、対応のオブジェクトを一意に識別する識別子である。このオブジェクトIDは、レコード711を生成する際に、オブジェクト定義テーブル生成部105Aが生成したうえで付加する。 The object ID is an identifier that uniquely identifies the corresponding object. This object ID is added after being generated by the object definition table generation unit 105A when the record 711 is generated.
 パーツIDは、オブジェクトに対応付けられたパーツ画像を示すパーツIDである。このパーツIDが、パーツID取得部104により取得されたものである。
 代表点座標は、2つの代表点の座標を示すもので、この図の場合には、図5の代表点座標情報810の内容が反映されている。この場合、代表点座標(X0,Y0)が代表点ER1の絶対座標(356,421)を示し、代表点座標(X1,Y1)が代表点ER4の絶対座標(53,383)を示している。
The part ID is a part ID indicating a part image associated with the object. This part ID is acquired by the part ID acquisition unit 104.
The representative point coordinates indicate the coordinates of two representative points. In the case of this figure, the contents of the representative point coordinate information 810 of FIG. 5 are reflected. In this case, the representative point coordinates (X0, Y0) indicate the absolute coordinates (356, 421) of the representative point ER1, and the representative point coordinates (X1, Y1) indicate the absolute coordinates (53, 383) of the representative point ER4. .
 また、上記のオブジェクト定義テーブル生成部105Aの処理と並行して、特徴点ハッシュテーブル生成部105Bは、特徴点データベース700における特徴点ハッシュテーブル720を以下のように生成する。なお、以降の説明は、図4のオブジェクトOBJに対応する特徴点ハッシュテーブル720のレコード721を生成する処理となる。 In parallel with the processing of the object definition table generation unit 105A, the feature point hash table generation unit 105B generates the feature point hash table 720 in the feature point database 700 as follows. The following description is processing for generating the record 721 of the feature point hash table 720 corresponding to the object OBJ in FIG.
 このために、まず、特徴点ハッシュテーブル生成部105Bは、特徴点データ取得部102が取得した特徴点ER1~ER6の各絶対座標を正規化座標系における正規化座標(Xnz,Ynz)に変換する。 For this purpose, the feature point hash table generation unit 105B first converts the absolute coordinates of the feature points ER1 to ER6 acquired by the feature point data acquisition unit 102 into normalized coordinates (Xnz, Ynz) in the normalized coordinate system. .
 この正規化座標への変換にあたり、特徴点ハッシュテーブル生成部105Bは正規化座標系を用いる。
 図7Aは、特徴点ハッシュテーブル生成部105Bが用いる正規化座標系の例を示している。この正規化座標系は、X座標とY座標の二次元座標である。ここでは、正規化座標系のX座標をXnzにより表し、Y座標をYnzにより表している。
 そして、この正規化座標においては、代表点ER1とER4について予め正規化した基準座標REF1とREF2が設定されている。図7Aの例では、代表点ER1に対応する基準座標REF1が(8,5)で、代表点ER4に対応する基準座標REF2が(1,5)として設定されている。
In the conversion to the normalized coordinates, the feature point hash table generation unit 105B uses a normalized coordinate system.
FIG. 7A shows an example of a normalized coordinate system used by the feature point hash table generation unit 105B. This normalized coordinate system is a two-dimensional coordinate of an X coordinate and a Y coordinate. Here, the X coordinate of the normalized coordinate system is represented by Xnz, and the Y coordinate is represented by Ynz.
In the normalized coordinates, reference coordinates REF1 and REF2 that are normalized in advance for the representative points ER1 and ER4 are set. In the example of FIG. 7A, the reference coordinate REF1 corresponding to the representative point ER1 is set as (8, 5), and the reference coordinate REF2 corresponding to the representative point ER4 is set as (1, 5).
 そして、特徴点ハッシュテーブル生成部105Bは、例えば図7Bに示すように、特徴点ER1~ER6の各絶対座標を、代表点ER4を基準座標REF2に一致させたうえで特徴点ER1~ER6の各絶対座標を正規化座標系上に配置する。 Then, as shown in FIG. 7B, for example, the feature point hash table generation unit 105B makes the absolute coordinates of the feature points ER1 to ER6 match the representative point ER4 with the reference coordinates REF2, and then sets the feature points ER1 to ER6. Place absolute coordinates on a normalized coordinate system.
 次に、特徴点ハッシュテーブル生成部105Bは、図7Cにおいて矢印A、Bにより示すように、もう1つの代表点ER1を、代表点ER4が配置済みの基準座標REF2を基準として、拡大率の変更と回転を行うことにより基準座標REF1に移動させる。
 そして、上記のように代表点ER1を基準座標REF1に移動させた際の拡大率と回転角度を、代表点ER1、ER4以外の残る特徴点ER2、ER3、ER5、ER6にも適用して移動させる。
Next, as shown by arrows A and B in FIG. 7C, the feature point hash table generation unit 105B changes the enlargement ratio using another representative point ER1 as a reference and the reference coordinate REF2 where the representative point ER4 is already arranged. And move to the reference coordinate REF1.
Then, the magnification and rotation angle when the representative point ER1 is moved to the reference coordinate REF1 as described above are also applied to the remaining feature points ER2, ER3, ER5, and ER6 other than the representative points ER1 and ER4. .
 この結果、図8Aに示すように、特徴点ER1~ER6の各絶対座標は、正規化座標に変換される。
 ただし、図8Aの段階では、代表点ER1、ER4以外の残る特徴点ER2、ER3、ER5、ER6の正規化座標系における各座標値は、小数点以下の値を含む。これは、整数値をとるべき正規化座標に対して誤差を有していることを意味する。
 そこで、特徴点ハッシュテーブル生成部105Bは、図8Bに示すように、各特徴点ER2、ER3、ER5、ER6について、正規化座標系において近似する整数値の座標に移動させる。これにより、特徴点ER1~ER6の各絶対座標が正規化座標に変換される。
As a result, as shown in FIG. 8A, the absolute coordinates of the feature points ER1 to ER6 are converted into normalized coordinates.
However, at the stage of FIG. 8A, the coordinate values in the normalized coordinate system of the remaining feature points ER2, ER3, ER5, and ER6 other than the representative points ER1 and ER4 include values after the decimal point. This means that there is an error with respect to the normalized coordinates that should take an integer value.
Therefore, as shown in FIG. 8B, the feature point hash table generation unit 105B moves the feature points ER2, ER3, ER5, and ER6 to the coordinates of integer values approximated in the normalized coordinate system. As a result, the absolute coordinates of the feature points ER1 to ER6 are converted into normalized coordinates.
 次に、特徴点ハッシュテーブル生成部105Bは、図8Bに示すように求めた正規化座標のうち、代表点ER1、ER4以外の特徴点ER2、ER3、ER5、ER6の正規化座標をハッシュ値(以下、座標ハッシュともいう)に変換する。
 このために、特徴点ハッシュテーブル生成部105Bは、例えば、図9に示すように、特徴点ER2、ER3、ER5、ER6の正規化座標を示す正規化座標情報820を生成する。
 この図9の正規化座標情報820は、図8Bに示した正規化の結果により得られた特徴点ER2、ER3、ER5、ER6を示している。つまり、特徴点ER2の正規化座標は(7,6)を示し、特徴点ER3の正規化座標は(3,6)を示し、特徴点ER5の正規化座標は(3,4)を示し、特徴点ER6の正規化座標は(7,4)を示す。
Next, the feature point hash table generation unit 105B uses the normalized coordinates of the feature points ER2, ER3, ER5, ER6 other than the representative points ER1, ER4 among the normalized coordinates obtained as shown in FIG. (Hereinafter also referred to as coordinate hash).
For this purpose, the feature point hash table generation unit 105B generates normalized coordinate information 820 indicating the normalized coordinates of the feature points ER2, ER3, ER5, and ER6, for example, as shown in FIG.
The normalized coordinate information 820 in FIG. 9 indicates the feature points ER2, ER3, ER5, and ER6 obtained as a result of the normalization illustrated in FIG. 8B. That is, the normalized coordinate of the feature point ER2 indicates (7, 6), the normalized coordinate of the feature point ER3 indicates (3, 6), the normalized coordinate of the feature point ER5 indicates (3, 4), The normalized coordinates of the feature point ER6 indicate (7, 4).
 そして、特徴点ハッシュテーブル生成部105Bは、図9に示される正規化座標情報820の特徴点ER2、ER3、ER5、ER6の正規化座標の各々について、図10のシフト演算座標820Aとして示すようにシフト演算を行う。この図10の場合には、正規化座標における座標値Xnz、Ynzをそれぞれ16ビットとしてシフト演算を行った場合を示している。
 特徴点ハッシュテーブル生成部105Bは、図10に示したシフト演算の結果から、例えば、図11に示すように、例えば特徴点ER2、ER3、ER5、ER6ごとの座標ハッシュを配列した座標ハッシュ情報830を生成する。
 この図11に示す座標ハッシュ情報830は、左から右にかけて、順次、特徴点ER2、ER3、ER5、ER6の座標ハッシュが配列されている。
Then, the feature point hash table generation unit 105B indicates each of the normalized coordinates of the feature points ER2, ER3, ER5, and ER6 of the normalized coordinate information 820 shown in FIG. 9 as the shift calculation coordinates 820A of FIG. Perform a shift operation. In the case of FIG. 10, the shift calculation is performed with the coordinate values Xnz and Ynz in normalized coordinates being 16 bits each.
From the result of the shift operation shown in FIG. 10, the feature point hash table generation unit 105B, for example, as shown in FIG. 11, for example, coordinate hash information 830 in which coordinate hashes for feature points ER2, ER3, ER5, and ER6 are arranged. Is generated.
In the coordinate hash information 830 shown in FIG. 11, coordinate hashes of feature points ER2, ER3, ER5, and ER6 are sequentially arranged from left to right.
 次に、特徴点ハッシュテーブル生成部105Bは、図4のオブジェクトOBJを一意に識別するためのオブジェクトIDを生成する。
 そのうえで、特徴点ハッシュテーブル生成部105Bは、図4のオブジェクトOBJの種別に対応するパーツ種別IDと、上記のように生成したオブジェクトIDと、図11の座標ハッシュ情報830の内容とにより、図12に示すレコード721を生成する。
 この図12に示すレコード721は、特徴点ハッシュテーブル720に含まれるべきものであり、図4に示したオブジェクトOBJに対応する特徴点ER2、3、5、6の正規化座標のハッシュ値を示す。
Next, the feature point hash table generation unit 105B generates an object ID for uniquely identifying the object OBJ in FIG.
In addition, the feature point hash table generation unit 105B uses the part type ID corresponding to the type of the object OBJ in FIG. 4, the object ID generated as described above, and the contents of the coordinate hash information 830 in FIG. A record 721 shown in FIG.
The record 721 shown in FIG. 12 is to be included in the feature point hash table 720, and indicates the hash value of the normalized coordinates of the feature points ER2, 3, 5, and 6 corresponding to the object OBJ shown in FIG. .
 図13は、記憶部106に記憶される特徴点データベース700の構造例を示している。この図に示すように、特徴点データベース700は、オブジェクト定義テーブル710と特徴点ハッシュテーブル720を含む。
 オブジェクト定義テーブル710は、例えばパーツ種別IDが示すパーツ(オブジェクト)の種別ごとのテーブルから成る。そのうえで、パーツ種別IDに対応するテーブルは、オブジェクトごとのオブジェクトIDとパーツIDと代表点座標とを対応付けた複数のレコードにより形成される。
 また、特徴点ハッシュテーブル720も、パーツ種別IDが示すパーツの種別(オブジェクトの種別)ごとのテーブルから成る。そのうえで、パーツ種別IDに対応するテーブルは、オブジェクトごとにオブジェクトIDと座標ハッシュとを対応付けた複数のレコードにより形成される。
FIG. 13 shows a structure example of the feature point database 700 stored in the storage unit 106. As shown in this figure, the feature point database 700 includes an object definition table 710 and a feature point hash table 720.
The object definition table 710 includes a table for each part (object) type indicated by the part type ID, for example. In addition, the table corresponding to the part type ID is formed by a plurality of records in which the object ID, the part ID, and the representative point coordinates for each object are associated with each other.
The feature point hash table 720 also includes a table for each part type (object type) indicated by the part type ID. In addition, the table corresponding to the part type ID is formed by a plurality of records in which the object ID and the coordinate hash are associated with each object.
 そして、オブジェクト定義テーブル生成部105Aは、図13のオブジェクト定義テーブル710において波線で示すように、パーツ種別ID=0に対応するテーブルに対して自己が生成した図6のレコード711を新規レコードとして登録する。 Then, the object definition table generation unit 105A registers, as a new record, the record 711 of FIG. 6 that it has generated for the table corresponding to the part type ID = 0 as indicated by the wavy line in the object definition table 710 of FIG. To do.
 また、特徴点ハッシュテーブル生成部105Bは、同じ図13の特徴点ハッシュテーブル720において波線で示すように、同じパーツ種別ID=0に対応するテーブルに対して自己が生成した図12のレコード721を新規レコードとして登録する。
 これにより、特徴点データベース700において1つのオブジェクトOBJに対応するレコードが新規登録される。
In addition, the feature point hash table generation unit 105B generates the record 721 of FIG. 12 generated by itself for the table corresponding to the same part type ID = 0, as indicated by the wavy line in the feature point hash table 720 of FIG. Register as a new record.
As a result, a record corresponding to one object OBJ is newly registered in the feature point database 700.
 特徴点データベース生成装置100は、オブジェクトOBJに対応するレコードの特徴点データベース700に対する新規登録を、1つのサンプル顔画像データから抽出された異なるパーツ種別ごとに対応するオブジェクトごとに実行する。また、このようなサンプル顔画像データにおける複数のパーツ種別に応じたレコードの新規登録を、サンプル顔画像データが取得されるごとに行う。
 これにより、特徴点データベース700は、入力されたサンプル顔画像データの総数sとパーツ種別数pに応じた数(s×p)のレコードを含んで形成される。
The feature point database generation apparatus 100 performs new registration of the record corresponding to the object OBJ in the feature point database 700 for each object corresponding to each different part type extracted from one sample face image data. In addition, new registration of a record corresponding to a plurality of part types in such sample face image data is performed every time the sample face image data is acquired.
As a result, the feature point database 700 is formed including records (s × p) corresponding to the total number s of input sample face image data and the number of part types p.
 [特徴点データベース生成のための処理手順例]
 次に、図14のフローチャートを参照して、特徴点データベース生成装置100が実行する処理手順例について説明する。
[Example of processing procedure for generating feature point database]
Next, an example of a processing procedure executed by the feature point database generation device 100 will be described with reference to the flowchart of FIG.
 特徴点データベース生成装置100において、サンプル顔画像データ入力部101は、1つのサンプル顔画像データを入力する(ステップS101)。 In the feature point database generation device 100, the sample face image data input unit 101 inputs one sample face image data (step S101).
 次に、特徴点データ取得部102は、先に図4にて説明したように、入力したサンプル顔画像データについて顔認識を行い、サンプル顔画像データから抽出したオブジェクトごとの特徴点データを取得する(ステップS102)。 Next, as described above with reference to FIG. 4, the feature point data acquisition unit 102 performs face recognition on the input sample face image data, and acquires feature point data for each object extracted from the sample face image data. (Step S102).
 また、表示制御部103は、入力されたサンプル顔画像データと、記憶部106に記憶されるパーツ画像テーブル600が格納するパーツ画像とを所定の態様により表示部109に表示させる(ステップS103)。 Also, the display control unit 103 causes the display unit 109 to display the input sample face image data and the part images stored in the part image table 600 stored in the storage unit 106 in a predetermined manner (step S103).
 作業者は、ステップS103により表示部109に表示された画像を見ることにより、サンプル顔画像データにおけるオブジェクトに対応する部位ごとに、最も類似しているパーツ画像を判断する。そして、このパーツ画像をオブジェクトに最も類似するものとして選択する操作を行う。
 この操作に応じて、パーツID取得部104は、選択されたパーツ画像に対応付けられているパーツIDをパーツ画像テーブル600から取得する(ステップS104)。
The operator determines the most similar part image for each part corresponding to the object in the sample face image data by viewing the image displayed on the display unit 109 in step S103. Then, an operation of selecting the part image as the most similar to the object is performed.
In response to this operation, the part ID acquisition unit 104 acquires a part ID associated with the selected part image from the part image table 600 (step S104).
 また、ステップS104によるパーツID取得の処理と並行するように、オブジェクト定義テーブル生成部105Aは、代表点ER1とER4の絶対座標(x、y)を示す代表点座標情報810をオブジェクトごとに生成する(ステップS105)。 In parallel with the part ID acquisition process in step S104, the object definition table generation unit 105A generates representative point coordinate information 810 indicating the absolute coordinates (x, y) of the representative points ER1 and ER4 for each object. (Step S105).
 そして、オブジェクト定義テーブル生成部105Aは、オブジェクトごとにオブジェクト定義テーブル710のレコード711を生成する(ステップS106)。
 このために、オブジェクト定義テーブル生成部105Aは、オブジェクトごとのオブジェクトIDを新規生成する。そして、オブジェクト定義テーブル生成部105Aは、新規生成したオブジェクトIDと、ステップS104により取得したパーツIDと、ステップS105により生成した代表点座標情報810を利用してオブジェクトごとのレコード711を生成する。
Then, the object definition table generation unit 105A generates a record 711 of the object definition table 710 for each object (step S106).
For this purpose, the object definition table generation unit 105A newly generates an object ID for each object. Then, the object definition table generation unit 105A generates a record 711 for each object using the newly generated object ID, the part ID acquired in step S104, and the representative point coordinate information 810 generated in step S105.
 次に、特徴点ハッシュテーブル生成部105Bは、図9~図12により説明したように、代表点以外の特徴点データを利用して特徴点ハッシュテーブル720のレコード721を生成する(ステップS107)。 Next, as described with reference to FIGS. 9 to 12, the feature point hash table generation unit 105B generates a record 721 of the feature point hash table 720 using feature point data other than the representative points (step S107).
 そして、オブジェクト定義テーブル生成部105Aと特徴点ハッシュテーブル生成部105Bは、それぞれ、図13にて説明したように、ステップS106とS107により生成した各レコードを特徴点データベース700に対して新規に登録する(ステップS108)。
 つまり、オブジェクト定義テーブル生成部105Aは、ステップS106により生成したオブジェクトごとのレコード711を、特徴点データベース700におけるオブジェクト定義テーブル710に新規登録する。また、特徴点ハッシュテーブル生成部105Bは、ステップS107により生成したレコード721を、特徴点データベース700における特徴点ハッシュテーブル720に新規登録する。
Then, the object definition table generation unit 105A and the feature point hash table generation unit 105B newly register each record generated in steps S106 and S107 in the feature point database 700 as described with reference to FIG. (Step S108).
That is, the object definition table generation unit 105A newly registers the record 711 for each object generated in step S106 in the object definition table 710 in the feature point database 700. In addition, the feature point hash table generation unit 105B newly registers the record 721 generated in step S107 in the feature point hash table 720 in the feature point database 700.
 次に、特徴点データベース生成部105(オブジェクト定義テーブル生成部105Aまたは特徴点ハッシュテーブル生成部105B)は、用意されたすべてのサンプル顔画像データに対応して特徴点データベース700に新規登録する処理が終了したか否かについて判定する(ステップS109)。 Next, the feature point database generation unit 105 (the object definition table generation unit 105A or the feature point hash table generation unit 105B) performs a process of newly registering in the feature point database 700 corresponding to all the prepared sample face image data. It is determined whether or not the processing has been completed (step S109).
 ここで、未だすべてのサンプル顔画像データについての処理が終了していない場合(ステップS109-NO)、サンプル顔画像データ入力部101は、ステップS101に戻ることで、次のサンプル顔画像データを入力する。これにより、次のサンプル顔画像データに対応して特徴点データベース700を生成する処理が開始される。 Here, when the processing has not been completed for all the sample face image data (step S109—NO), the sample face image data input unit 101 returns to step S101 to input the next sample face image data. To do. Thereby, the process of generating the feature point database 700 corresponding to the next sample face image data is started.
 これに対して、すべてのサンプル顔画像データについての処理を終了した場合には(ステップS109-YES)、すべてのサンプル顔画像データごとのオブジェクトについてのレコードを含む特徴点データベース700が形成されている。そこで、特徴点データベース送信部107は、記憶部106から特徴点データベース700を読み出し、アバター作成アプリケーションサーバ200に対して送信する(ステップS110)。 On the other hand, when the processing for all the sample face image data is completed (step S109-YES), the feature point database 700 including the records for the objects for all the sample face image data is formed. . Therefore, the feature point database transmission unit 107 reads the feature point database 700 from the storage unit 106 and transmits it to the avatar creation application server 200 (step S110).
 [アバター作成アプリケーションサーバの構成例]
 次に、図15を参照して、アバター作成アプリケーションサーバ200の構成例について説明する。
 この図に示すアバター作成アプリケーションサーバ200は、顔画像データ入力部201、特徴点データ取得部202、記憶部203、パーツ画像選択部204、特徴点データベース更新部205および通信部206を備える。
[Configuration example of avatar creation application server]
Next, a configuration example of the avatar creation application server 200 will be described with reference to FIG.
The avatar creation application server 200 shown in this figure includes a face image data input unit 201, a feature point data acquisition unit 202, a storage unit 203, a part image selection unit 204, a feature point database update unit 205, and a communication unit 206.
 顔画像データ入力部201(画像入力部)は、アバター作成元としての顔画像データ(画像データ)を入力する。このアバター作成元としての顔画像データは、アバター作成アプリケーションサーバ200と接続してアバター作成アプリケーションが動作しているユーザ端末装置300から送信され、通信部206にて受信される。顔画像データ入力部201は、このように通信部206により受信された顔画像データを入力する。 The face image data input unit 201 (image input unit) inputs face image data (image data) as an avatar creation source. The face image data as the avatar creation source is transmitted from the user terminal device 300 connected to the avatar creation application server 200 and operating the avatar creation application, and is received by the communication unit 206. The face image data input unit 201 inputs the face image data received by the communication unit 206 in this way.
 特徴点データ取得部202(解析データ取得部)は、入力された顔画像データを解析することにより、その解析結果を示す解析データを取得する。
 つまり、特徴点データ取得部202は、入力した顔画像データを解析することにより、顔画像データから抽出したオブジェクトごとに特徴点データ(解析データ)を取得する。
なお、この特徴点データ取得部202は、例えば、図2の特徴点データ取得部102と同様の構成でよい。
The feature point data acquisition unit 202 (analysis data acquisition unit) acquires the analysis data indicating the analysis result by analyzing the input face image data.
That is, the feature point data acquisition unit 202 acquires the feature point data (analysis data) for each object extracted from the face image data by analyzing the input face image data.
The feature point data acquisition unit 202 may have the same configuration as the feature point data acquisition unit 102 in FIG.
 そのうえで、本実施形態の特徴点データ取得部202は、特徴点データの抽出結果として、オブジェクトごとに、例えば図16に示す構造の座標ハッシュ情報910を生成する。
 座標ハッシュ情報910は、図16に示すように、パーツ種別IDごとに座標ハッシュ情報を対応付けた構造である。
 図16の座標ハッシュ情報910におけるパーツ種別IDは、オブジェクトが対応する顔の部位(すなわち、パーツ画像の種別)を示している。
 座標ハッシュは、対応のオブジェクトについて求められた代表点以外の特徴点ごとの座標のハッシュ値を示す。なお、これらの特徴点ごとの座標ハッシュの算出手法については、図9から図11による説明と同様でよい。
In addition, the feature point data acquisition unit 202 of the present embodiment generates, for example, coordinate hash information 910 having a structure shown in FIG. 16 for each object as the feature point data extraction result.
As shown in FIG. 16, the coordinate hash information 910 has a structure in which coordinate hash information is associated with each part type ID.
The part type ID in the coordinate hash information 910 in FIG. 16 indicates the part of the face to which the object corresponds (that is, the type of part image).
The coordinate hash indicates a hash value of coordinates for each feature point other than the representative point obtained for the corresponding object. Note that the coordinate hash calculation method for each feature point may be the same as described with reference to FIGS.
 記憶部(比較データ記憶部、要素画像記憶部)203は、アバター作成アプリケーションサーバ200がその機能を実現するのに必要な各種の情報を記憶する。図においては、このような情報として、パーツ画像テーブル600Aと、特徴点データベース700Aが示される。 The storage unit (comparison data storage unit, element image storage unit) 203 stores various types of information necessary for the avatar creation application server 200 to realize its functions. In the figure, as such information, a parts image table 600A and a feature point database 700A are shown.
 パーツ画像テーブル600Aは、アバター作成に使用するものとして予め用意されたアバターの目、鼻、口、眉毛などの所定の部位にそれぞれ対応する複数種類のパーツの画像(パーツ画像)をパーツIDに対応付けて格納したテーブルである。このパーツ画像テーブル600Aの内容は、例えば特徴点データベース生成装置100が記憶するパーツ画像テーブル600(図3)と同じ内容である。つまり、記憶部203は、複数のパーツ種別のそれぞれに対応するパーツ画像をパーツ画像テーブル600Aとして記憶する。 The part image table 600A corresponds to part IDs of images (part images) of a plurality of types respectively corresponding to predetermined parts such as eyes, nose, mouth and eyebrows of an avatar prepared in advance for use in avatar creation. It is a table that has been added and stored. The contents of the parts image table 600A are the same as the parts image table 600 (FIG. 3) stored in the feature point database generation device 100, for example. That is, the storage unit 203 stores a part image corresponding to each of a plurality of part types as a part image table 600A.
 特徴点データベース700Aは、特徴点データベース生成装置100から受信した特徴点データベース700を記憶部203に記憶させたものである。 The feature point database 700A is obtained by storing the feature point database 700 received from the feature point database generation device 100 in the storage unit 203.
 ここで、記憶部203は、特徴点データベース生成装置100から受信した特徴点データベース700を初期の特徴点データベース700Aとして、例えばアバター作成アプリケーションを提供する前の段階において予め記憶しておいてもよい。
 この場合、初期段階の特徴点データベース700Aは、特徴点データベース700と同じ内容である。これに応じて、初期段階における特徴点データベース700Aのオブジェクト定義テーブル710Aおよび特徴点ハッシュテーブル720Aは、オブジェクト定義テーブル710および特徴点ハッシュテーブル720とそれぞれ同じ内容を有する。
 そして、特徴点データベース更新部205は、初期の特徴点データベース700Aに対して新たにレコード(比較データ)を追加するように更新する。
Here, the storage unit 203 may store the feature point database 700 received from the feature point database generation device 100 as an initial feature point database 700A in advance, for example, in a stage before providing an avatar creation application.
In this case, the initial feature point database 700A has the same contents as the feature point database 700. Accordingly, the object definition table 710A and the feature point hash table 720A of the feature point database 700A in the initial stage have the same contents as the object definition table 710 and the feature point hash table 720, respectively.
Then, the feature point database update unit 205 updates the initial feature point database 700A to add a new record (comparison data).
 パーツ画像選択部(要素画像選択部)204は、特徴点データと特徴点データベース700A(比較データ)とを比較した結果に基づいて、パーツ画像テーブル600A(複数のパーツ画像)のうちからパーツ画像(要素画像)を選択する。
 この際、パーツ画像選択部204は、複数のパーツ種別ごとにパーツ画像を選択する。
  これにより、パーツ画像選択部204は、例えば目、口、鼻などの部位ごとのパーツ画像を選択することができる。
The part image selection unit (element image selection unit) 204, based on the result of comparing the feature point data and the feature point database 700A (comparison data), from the part image table 600A (a plurality of part images) Element image).
At this time, the part image selection unit 204 selects a part image for each of a plurality of part types.
Thereby, the part image selection part 204 can select the part image for every site | parts, such as eyes, a mouth, a nose, for example.
 具体的に、パーツ画像選択部204は、特徴点データとして、特徴点データ取得部202が生成した座標ハッシュ情報910(図16)を入力する。そして、パーツ画像選択部204は、座標ハッシュ情報910における座標ハッシュと、特徴点データベース700Aの特徴点ハッシュテーブル720Aにおける座標ハッシュとを特徴点ごとに比較する。 Specifically, the part image selection unit 204 inputs the coordinate hash information 910 (FIG. 16) generated by the feature point data acquisition unit 202 as the feature point data. Then, the part image selection unit 204 compares the coordinate hash in the coordinate hash information 910 with the coordinate hash in the feature point hash table 720A of the feature point database 700A for each feature point.
 具体例として、図16の座標ハッシュ情報910の座標ハッシュと、図17に示す特徴点データベース700Aの特徴点ハッシュテーブル720Aの座標ハッシュとを比較した場合について説明する。なお、図17の特徴点データベース700Aにおいては、図示を簡単で分かりやすくすることの便宜上、オブジェクト定義テーブル710Aと特徴点ハッシュテーブル720Aのいずれについても、目のパーツ種別に対応するパーツ種別ID=0に対応したテーブルのみを示している。 As a specific example, a case will be described in which the coordinate hash of the coordinate hash information 910 in FIG. 16 is compared with the coordinate hash of the feature point hash table 720A of the feature point database 700A shown in FIG. In the feature point database 700A of FIG. 17, for the convenience of making the illustration simple and easy to understand, in both the object definition table 710A and the feature point hash table 720A, the part type ID = 0 corresponding to the eye part type Only the table corresponding to is shown.
 図17の特徴点ハッシュテーブル720Aにおいては、図16の座標ハッシュ情報910と座標ハッシュが一致する特徴点に対応するセルを太枠により示している。パーツ画像選択部204は、比較結果として、図17に示す太枠のセルに対応する特徴点の座標ハッシュが一致していることを認識する。
 図18は、上記の認識結果を模式的に示したものである。この図においては、オブジェクトID=0~29までのオブジェクトごとに、比較結果により座標ハッシュが一致した特徴点の数(座標ハッシュ一致数)が示される。
In the feature point hash table 720A of FIG. 17, cells corresponding to feature points whose coordinate hashes match the coordinate hash information 910 of FIG. The part image selection unit 204 recognizes that the coordinate hashes of feature points corresponding to the thick-line cells shown in FIG.
FIG. 18 schematically shows the recognition result. In this figure, for each object with object ID = 0 to 29, the number of feature points (coordinate hash coincidence number) with which coordinate hash coincides is shown by the comparison result.
 この場合において、図17の特徴点ハッシュテーブル720におけるオブジェクトは、図16の座標ハッシュ情報910の座標ハッシュと一致する特徴点の数が多いものほど、図16の座標ハッシュ情報910が対応するオブジェクトとの類似度が高い。 In this case, the objects in the feature point hash table 720 in FIG. 17 are the objects corresponding to the coordinate hash information 910 in FIG. 16 as the number of feature points matching the coordinate hash information in the coordinate hash information 910 in FIG. The degree of similarity is high.
 そこで、パーツ画像選択部204は、図18の比較結果に基づいて、まず、今回の座標ハッシュ一致数の最大値maxを認識する。この場合、図18を参照して分かるように、座標ハッシュ一致数の最大値max=4である。これは、図16の座標ハッシュ情報910の座標ハッシュとすべての特徴点の座標ハッシュが一致するオブジェクトが認識されたことを意味している。 Therefore, the parts image selection unit 204 first recognizes the maximum value max of the number of coordinate hash matches this time based on the comparison result of FIG. In this case, as can be seen with reference to FIG. 18, the maximum value of the coordinate hash match number is max = 4. This means that an object in which the coordinate hash of the coordinate hash information 910 in FIG. 16 matches the coordinate hash of all feature points is recognized.
 次に、パーツ画像選択部204は、座標ハッシュ一致数が最大値max=4のパーツIDを集計する集計処理を実行する。
 このために、パーツ画像選択部204は、特徴点ハッシュテーブル720Aにおいて座標ハッシュ一致数が最大値max=4のオブジェクトIDを検索する。次に、パーツ画像選択部204は、検索したオブジェクトIDに対応付けられているパーツIDをオブジェクト定義テーブル710Aから検索する。そして、パーツ画像選択部204は、パーツIDごとの検索数を集計する。
Next, the part image selection unit 204 executes a totaling process for totalizing the part IDs whose coordinate hash match number is the maximum value max = 4.
For this purpose, the part image selection unit 204 searches the feature point hash table 720A for an object ID having a maximum number of coordinate hash matches max = 4. Next, the part image selection unit 204 searches the part definition associated with the searched object ID from the object definition table 710A. And the parts image selection part 204 totals the number of searches for every part ID.
 図19は、図18に示す比較結果と、図17に示すオブジェクト定義テーブル710Aの内容に応じた集計結果を示している。この図に示すように、パーツID=0についての検索数は「1」であり、パーツID=1についての検索数は「0」であり、パーツID=2についての検索数は「2」であり、パーツID=3についての検索数は「0」であり、パーツID=4について検索数は「1」である。 FIG. 19 shows the comparison results shown in FIG. 18 and the tabulation results corresponding to the contents of the object definition table 710A shown in FIG. As shown in this figure, the number of searches for part ID = 0 is “1”, the number of searches for part ID = 1 is “0”, and the number of searches for part ID = 2 is “2”. Yes, the number of searches for part ID = 3 is “0”, and the number of searches for part ID = 4 is “1”.
 これらのうちで、検索数が最多であるものはパーツID=2である。これは、パーツ画像テーブル600Aに格納されるパーツ画像のうち、パーツID=2のパーツ画像が、顔画像データから抽出したパーツ種別ID=0に対応する部位のオブジェクトに最も類似していることを意味する。
 そこで、パーツ画像選択部204は、パーツ種別ID=0に対応するパーツ画像として、パーツID=2のパーツ画像を選択する。
Of these, the part with the largest number of searches is part ID = 2. This means that among the part images stored in the part image table 600A, the part image with the part ID = 2 is most similar to the object of the part corresponding to the part type ID = 0 extracted from the face image data. means.
Therefore, the part image selection unit 204 selects a part image with a part ID = 2 as a part image corresponding to the part type ID = 0.
 図示による説明は省略するが、パーツ画像選択部204は、上記と同様に比較を行った結果に基づいて、他のパーツ種別IDに対応するオブジェクトごとにパーツ画像を選択する。
 そして、パーツ画像選択部204は、すべてのパーツ種別IDに対応するオブジェクトごとのパーツ画像の選択を終了すると、これまでのパーツ画像の選択結果を反映したアバター情報を生成する。アバター情報は、ユーザ端末装置300においてアバターの画像を作成するのに利用する情報である。
Although description by illustration is abbreviate | omitted, the part image selection part 204 selects a part image for every object corresponding to other part classification ID based on the result of having compared similarly to the above.
And the part image selection part 204 will produce | generate the avatar information reflecting the selection result of the part images so far, if selection of the part image for every object corresponding to all the part classification IDs is complete | finished. The avatar information is information used to create an avatar image in the user terminal device 300.
 図20は、パーツ画像選択部204が生成するアバター情報920の構造例を示している。この図に示すように、アバター情報920は、アバターを作成するのに必要とされるすべてのパーツ種別ごとのパーツ種別IDごとに、パーツIDとパーツ画像データを対応付けた構造である。
 このアバター情報920が格納するパーツ画像により作成されるアバターの画像の顔は、アバター作成元の顔画像データの顔に似たものとなる。
 そして、パーツ画像選択部204は、上記のように生成したアバター情報920を、通信部206からユーザ端末装置300に対して送信する。
FIG. 20 shows a structural example of the avatar information 920 generated by the part image selection unit 204. As shown in this figure, the avatar information 920 has a structure in which a part ID and part image data are associated with each part type ID for every part type required to create an avatar.
The face of the avatar image created by the part image stored in the avatar information 920 is similar to the face of the face image data of the avatar creation source.
And the parts image selection part 204 transmits the avatar information 920 produced | generated as mentioned above with respect to the user terminal device 300 from the communication part 206. FIG.
 ユーザ端末装置300上のアバター作成アプリケーションは、上記のようにアバター作成アプリケーションサーバ200から受信したアバター情報920を利用してアバター画像を作成し、このアバター画像を表示する。 The avatar creation application on the user terminal device 300 creates an avatar image using the avatar information 920 received from the avatar creation application server 200 as described above, and displays the avatar image.
 このように表示されたアバター画像の顔は、例えば先に送信した顔画像データの顔と似ているものであるが、ユーザは、例えばアバター画像の顔をさらに顔画像データの顔に似せるためにアバターを編集するための操作を行うことができる。ここでのアバターを編集するための操作は、アバターの作成に用いるパーツ画像をパーツ画像リストの中から選択して変更するというものである。もちろん、ユーザは、受信されたアバター情報920により作成されたアバターの画像が気に入れば、特に、編集を行う必要はない。 The face of the avatar image displayed in this way is similar to, for example, the face of the face image data transmitted earlier, but the user, for example, in order to make the face of the avatar image more similar to the face of the face image data An operation for editing the avatar can be performed. The operation for editing the avatar here is to select and change the part image used for creating the avatar from the part image list. Of course, if the user likes the avatar image created by the received avatar information 920, the user does not need to edit.
 そして、ユーザ端末装置300のユーザは、編集を行って納得のいくアバターの顔が得られたのであれば、アバター確定のための操作をアバター作成アプリケーション上で行う。なお、ユーザが受信されたアバター情報920により作成されたアバターの画像のままで気に入っていれば、ユーザは編集を行うことなく確定操作を行えばよい。 Then, if the user of the user terminal device 300 edits and obtains a satisfactory avatar face, the user terminal device 300 performs an operation for avatar determination on the avatar creation application. Note that if the user likes the avatar image created by the received avatar information 920 as it is, the user may perform a confirmation operation without editing.
 上記の確定操作に応じて、ユーザ端末装置300上のアバター作成アプリケーションは、アバター作成アプリケーションサーバ200に対して、確定通知を送信する。ユーザ端末装置300は、この確定通知に対して、確定操作が行われたときのアバターの内容を示す確定アバター情報を含めて送信する。
 この確定通知に含められる確定アバター情報は、例えば図20のアバター情報920からアバター画像を省略してパーツ種別IDごとにパーツIDを対応付けた構造である。ただし、その内容については、編集による変更があった場合には、その変更された内容が反映される。
In response to the above confirmation operation, the avatar creation application on the user terminal device 300 transmits a confirmation notification to the avatar creation application server 200. In response to the confirmation notification, the user terminal device 300 transmits the confirmation avatar information indicating the content of the avatar when the confirmation operation is performed.
The confirmed avatar information included in the confirmation notification has a structure in which, for example, an avatar image is omitted from the avatar information 920 in FIG. 20 and a part ID is associated with each part type ID. However, if the contents are changed by editing, the changed contents are reflected.
 アバター作成アプリケーションサーバ200において、特徴点データベース更新部(更新部)205は、アバター画像(全体画像)の内容が確定されるのに応じて、確定されたときのアバター画像の内容に基づいて、記憶部203に記憶される特徴点データベース700Aを更新する。 In the avatar creation application server 200, the feature point database update unit (update unit) 205 stores the content of the avatar image (the entire image) based on the content of the avatar image when the content is determined. The feature point database 700A stored in the unit 203 is updated.
 具体的に、特徴点データベース更新部(更新部)205は、特徴点データベース700Aの更新として、まず、以下のようにオブジェクト定義テーブル710Aを更新する。
 つまり、特徴点データベース更新部205は、アバター作成元の顔画像データから抽出したオブジェクトごとに、新規のオブジェクトIDを生成する。
 次に、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対応付けられたオブジェクト定義テーブル710Aのレコード711を新規に生成する。
 このために、特徴点データベース更新部205は、新規に生成したオブジェクトIDに受信した確定通知に含まれる確定アバター情報が示すパーツIDを対応付ける。さらに、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対して、特徴点データ取得部102がアバター作成元の顔画像データから取得した代表点座標を対応付ける。特徴点データベース更新部205は、このように、新規に生成したオブジェクトIDに対応するレコード711を、パーツ種別ごとに生成する。
 そして、特徴点データベース更新部205は、このように新規に生成したレコード711を、オブジェクト定義テーブル710Aにおける対応のパーツ種別IDごとのテーブルに対して新規に登録する。
Specifically, the feature point database update unit (update unit) 205 first updates the object definition table 710A as follows to update the feature point database 700A.
That is, the feature point database update unit 205 generates a new object ID for each object extracted from the avatar creation source face image data.
Next, the feature point database update unit 205 newly generates a record 711 of the object definition table 710A associated with the newly generated object ID.
For this purpose, the feature point database update unit 205 associates the newly generated object ID with the part ID indicated by the confirmed avatar information included in the received confirmation notification. Furthermore, the feature point database update unit 205 associates the newly generated object ID with the representative point coordinates that the feature point data acquisition unit 102 acquired from the avatar creation source face image data. In this way, the feature point database update unit 205 generates a record 711 corresponding to the newly generated object ID for each part type.
Then, the feature point database update unit 205 newly registers the newly generated record 711 in the table for each corresponding part type ID in the object definition table 710A.
 また、特徴点データベース更新部205は、特徴点ハッシュテーブル720Aについても以下のように更新する
 ここで、特徴点データ取得部202は、図16に示す構造の座標ハッシュ情報910を、アバター作成に利用するすべてのパーツ種別ごとに生成している。このように生成した座標ハッシュ情報910は、特徴点データ取得部202が保持している。
 そこで、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対して、このオブジェクトIDが示すオブジェクトについて生成された座標ハッシュ情報910の座標ハッシュを対応付けることにより、特徴点ハッシュテーブル720Aのレコード721を生成する。このレコード721についても、特徴点データ取得部202は、パーツ種別ごとに生成する。
 そして、特徴点データベース更新部205は、このように新規に生成したレコード721を、特徴点ハッシュテーブル720Aにおいて対応のパーツ種別IDごとのテーブルに対して新規に登録する。
 このようにして、特徴点データベース更新部205は、オブジェクト定義テーブル710と特徴点ハッシュテーブル720とを更新することにより特徴点データベース700Aを更新する。
The feature point database update unit 205 also updates the feature point hash table 720A as follows. Here, the feature point data acquisition unit 202 uses the coordinate hash information 910 having the structure shown in FIG. 16 for creating an avatar. Generated for every part type. The feature hash data acquisition unit 202 holds the coordinate hash information 910 generated in this way.
Therefore, the feature point database update unit 205 associates the newly generated object ID with the coordinate hash of the coordinate hash information 910 generated for the object indicated by the object ID, thereby recording the record 721 of the feature point hash table 720A. Is generated. Also about this record 721, the feature point data acquisition part 202 produces | generates for every part classification.
Then, the feature point database update unit 205 newly registers the newly generated record 721 in the table for each corresponding part type ID in the feature point hash table 720A.
In this way, the feature point database update unit 205 updates the feature point database 700A by updating the object definition table 710 and the feature point hash table 720.
 また、アバター作成アプリケーションサーバ200において、通信部206は、ネットワーク500経由で、ユーザ端末装置300やアバター利用アプリケーションサーバ400などと通信を実行する。 In the avatar creation application server 200, the communication unit 206 communicates with the user terminal device 300, the avatar utilization application server 400, and the like via the network 500.
 [ユーザ端末装置の構成例]
 次に、ユーザ端末装置300の構成例について、再度、図15を参照して説明する。
 ユーザ端末装置300は、制御部301、操作部302、表示部303および通信部304を備える。
[Configuration example of user terminal device]
Next, a configuration example of the user terminal device 300 will be described again with reference to FIG.
The user terminal device 300 includes a control unit 301, an operation unit 302, a display unit 303, and a communication unit 304.
 制御部301は、ユーザ端末装置300上で動作するアバター作成アプリケーションに対応する処理を実行する。本実施形態において、アバター作成アプリケーションは、例えばネイティブ型のアプリケーションプログラムとして、ユーザ端末装置300にインストールされている。 The control unit 301 executes processing corresponding to the avatar creation application operating on the user terminal device 300. In this embodiment, the avatar creation application is installed in the user terminal device 300 as, for example, a native application program.
 制御部301は、顔画像データ送信部311、アバター画像作成部312、表示制御部313およびアバター編集部314を備える。これらの機能部は、例えば制御部301を構成するCPUがアバター作成アプリケーションを実行することにより実現されるものである。 The control unit 301 includes a face image data transmission unit 311, an avatar image creation unit 312, a display control unit 313, and an avatar editing unit 314. These functional units are realized by, for example, a CPU configuring the control unit 301 executing an avatar creation application.
 顔画像データ送信部311は、アバター作成アプリケーションに対してアバター作成元の顔を含む顔画像データの送信を指示する操作が行われるのに応じて、顔画像データをアバター作成アプリケーションサーバ200に送信する。 The face image data transmission unit 311 transmits the face image data to the avatar creation application server 200 in response to an operation for instructing the avatar creation application to transmit face image data including the face of the avatar creation source. .
 なお、前述のように、顔画像データは、例えばユーザ端末装置300が備える撮像部(ここでは図示せず)によりユーザ自身(または他者)の顔を撮像して得られた画像データなどとして取得することができる。また、ネットワークやデータインターフェースなどを経由して、または、ユーザ端末装置300に装填されたリムーバブルメディアからの読み出しなどにより顔画像データを取得してもよい。また、このように取得した画像データについての顔画像データとしての指定も、ユーザ端末装置300上のアバター作成アプリケーションに対する操作によって行うことができる。 As described above, the face image data is acquired as, for example, image data obtained by imaging the face of the user himself (or another person) by an imaging unit (not shown here) provided in the user terminal device 300, for example. can do. Further, the face image data may be acquired via a network, a data interface, or the like, or by reading from a removable medium loaded in the user terminal device 300. Moreover, designation as face image data for the image data acquired in this way can also be performed by an operation on the avatar creation application on the user terminal device 300.
 前述のように、ユーザは、ユーザ端末装置300上で動作するアバター作成アプリケーションに対する操作に応じて、アバター作成アプリケーションサーバ200により作成されたアバターを編集することができる。 As described above, the user can edit the avatar created by the avatar creating application server 200 in response to an operation on the avatar creating application operating on the user terminal device 300.
 アバター画像作成部(全体画像作成部)312は、パーツ画像選択部204により選択されたパーツ画像に基づいてアバター画像を作成する。
 つまり、アバター画像作成部312は、アバター作成アプリケーションサーバ200のパーツ画像選択部204により生成されたアバター情報920に基づいてアバターの画像を生成する。アバター情報920には、パーツ画像選択部204が選択したパーツ画像が格納されている。アバター画像作成部312は、このアバター情報920に格納されているパーツ画像を利用してアバター画像を作成するものである。
The avatar image creation unit (overall image creation unit) 312 creates an avatar image based on the part image selected by the part image selection unit 204.
That is, the avatar image creation unit 312 generates an avatar image based on the avatar information 920 generated by the part image selection unit 204 of the avatar creation application server 200. The avatar information 920 stores a part image selected by the part image selection unit 204. The avatar image creating unit 312 creates an avatar image using the part images stored in the avatar information 920.
 表示制御部(全体画像提供部)313は、アバター画像作成部312により作成されたアバター画像をユーザに提供する。具体的に、表示制御部313は、アバター画像を表示部303に表示させることによりアバター画像をユーザに提供する。 The display control unit (overall image providing unit) 313 provides the user with the avatar image created by the avatar image creating unit 312. Specifically, the display control unit 313 provides the user with the avatar image by causing the display unit 303 to display the avatar image.
 表示部303に表示されるアバター画像を見て、例えばユーザがさらにアバターを作成元の顔画像データの顔に似せたいなどと思った場合には、アバターを変更するための編集操作をアバター作成アプリケーションに対して行うことができる。
 この編集操作は、例えば前述のように、アバター作成アプリケーションの画面において表示されるパーツ画像のリストのうちから所望のパーツ画像を選択して、これまでにアバターに使用していたパーツ画像から変更するというものになる。
When the user looks at the avatar image displayed on the display unit 303 and, for example, the user wants to further resemble the face of the original face image data, the editing operation for changing the avatar is performed. Can be done against.
In this editing operation, for example, as described above, a desired part image is selected from the list of part images displayed on the screen of the avatar creation application, and the part image used for the avatar is changed. It becomes that.
 アバター編集部(全体画像編集部)314は、上記のように行われるアバター編集操作に応じてアバターを編集する。つまり、アバター編集部314は、ユーザに提供されたアバター画像の内容をユーザの指示に応じて編集する。
 具体的に、アバター編集部314は、アバター作成アプリケーションサーバ200に対して、操作により選択されたパーツ画像のパーツIDを指定してパーツ画像を要求する。
 この要求に応答してアバター作成アプリケーションサーバ200は、指定されたパーツ画像をパーツ画像テーブル600Aから読み出してユーザ端末装置300に送信する。アバター編集部314は、これまでに使用していたパーツ画像を受信したパーツ画像に変更する。アバター画像作成部312は、パーツ画像の変更が反映されたアバター画像を作成し、表示制御部313により、このアバター画像が表示される。このように、ユーザが行うアバター編集操作に応じてアバター画像の編集が行われる。
The avatar editing unit (whole image editing unit) 314 edits the avatar according to the avatar editing operation performed as described above. That is, the avatar editing unit 314 edits the content of the avatar image provided to the user according to the user's instruction.
Specifically, the avatar editing unit 314 requests the part image by specifying the part ID of the part image selected by the operation from the avatar creation application server 200.
In response to this request, the avatar creation application server 200 reads the designated part image from the part image table 600A and transmits it to the user terminal device 300. The avatar editing unit 314 changes the part image used so far to the received part image. The avatar image creation unit 312 creates an avatar image in which the change of the part image is reflected, and the display control unit 313 displays the avatar image. Thus, the avatar image is edited in accordance with the avatar editing operation performed by the user.
 また、ユーザは、前述のように、編集したアバター画像に納得した場合、あるいは、編集をしなくともアバター作成アプリケーションが自動作成したままのアバター画像に納得している場合には、そのアバターの内容を確定させるための確定操作を行う。 If the user is satisfied with the edited avatar image as described above, or if the user is satisfied with the avatar image that the avatar creation application has automatically created without editing, the content of the avatar Perform a confirmation operation to confirm
 この確定操作が行われるのに応じて、アバター編集部314は、例えば、確定操作が行われたときのアバターの内容を示す確定アバター情報を、編集内容が反映されたアバター情報を利用して生成する。そして、この確定アバター情報を含む確定通知をアバター作成アプリケーションサーバ200に対して送信する。
 アバター作成アプリケーションサーバ200における特徴点データベース更新部205は、前述のように、確定通知の受信に応答して、確定アバター情報を利用して特徴点データベース700Aを更新する。
In response to the confirmation operation being performed, the avatar editing unit 314 generates, for example, confirmed avatar information indicating the content of the avatar when the confirmation operation is performed using the avatar information in which the edited content is reflected. To do. Then, a confirmation notification including the confirmed avatar information is transmitted to the avatar creation application server 200.
As described above, the feature point database update unit 205 in the avatar creation application server 200 updates the feature point database 700A using the confirmed avatar information in response to receiving the confirmation notification.
 このように、本実施形態のアバター作成システムでは、アバター作成アプリケーションサーバ200が顔画像データと特徴点データベース700Aを利用してアバターを自動作成する。
 そのうえで、自動作成されたアバターは、ユーザ端末装置300上で編集することができる。ユーザ端末装置300は、ユーザの確定操作に応じて、この編集結果(編集を行わない場合も含む)を確定通知としてアバター作成アプリケーションサーバ200に送信する。
 そして、アバター作成アプリケーションサーバ200は、受信した編集結果に応じて、今回のアバターの作成元である顔画像データから抽出したオブジェクトについてのレコードを追加するように特徴点データベース700Aを更新する。
Thus, in the avatar creation system of this embodiment, the avatar creation application server 200 automatically creates an avatar using the face image data and the feature point database 700A.
In addition, the automatically created avatar can be edited on the user terminal device 300. The user terminal device 300 transmits the editing result (including a case where editing is not performed) to the avatar creation application server 200 as a confirmation notification in response to the confirmation operation of the user.
Then, the avatar creation application server 200 updates the feature point database 700A so as to add a record about the object extracted from the face image data that is the creation source of the current avatar according to the received editing result.
 また、ユーザ端末装置300において、操作部302は、ユーザ端末装置300上で動作するアバター作成アプリケーションを操作するのに必要な操作デバイスを一括して示している。例えばユーザ端末装置300が携帯電話またはスマートフォンなどである場合、操作部302は、携帯電話やスマートフォンに備えられる各種のキーやタッチパネルなどとなる。
 表示部303は、ユーザ端末装置300において表示制御部313の制御に応じて画像を表示する。
In the user terminal device 300, the operation unit 302 collectively indicates operation devices necessary for operating an avatar creation application that operates on the user terminal device 300. For example, when the user terminal device 300 is a mobile phone or a smartphone, the operation unit 302 is various keys or a touch panel provided on the mobile phone or the smartphone.
The display unit 303 displays an image according to the control of the display control unit 313 in the user terminal device 300.
 通信部304は,ネットワーク500経由でアバター作成アプリケーションサーバ200やアバター利用アプリケーションサーバ400などと通信を実行する。 The communication unit 304 communicates with the avatar creation application server 200, the avatar utilizing application server 400, and the like via the network 500.
 このように、本実施形態においては、アバターを自動作成するごとに特徴点データベース700Aが更新される。このことは、アバターが自動作成されるごとに、特徴点データベース700Aにおいて、オブジェクトとこのオブジェクトに類似するパーツ画像との対応を示す情報が増加していくことを意味する。例えば人の顔はそれぞれが異なるものであるから、同じ部位(パーツ種別)であっても、顔画像データごとにおけるオブジェクトの特徴量は多様であるということがいえる。
 本実施形態においては、アバターが自動作成される機会ごとに異なる顔画像データの内容に基づいて特徴点データベース700Aのレコードが追加されていく。このことは、上記のようなオブジェクトの多様性に対応して、特徴点データベース700Aにおけるオブジェクトに対応するパーツ画像の類似性についての精度が向上していくことに相当する。
 そして、このように精度が向上していく特徴点データベース700Aがアバターの自動作成に利用されることで、作成元の顔画像データの顔に類似したアバターを自動作成する精度も向上していく。
Thus, in this embodiment, the feature point database 700A is updated every time an avatar is automatically created. This means that each time an avatar is automatically created, information indicating the correspondence between an object and a part image similar to the object increases in the feature point database 700A. For example, since human faces are different from each other, it can be said that the feature amount of an object for each face image data is various even in the same part (part type).
In the present embodiment, records in the feature point database 700A are added based on the contents of different face image data for each opportunity for an avatar to be automatically created. This corresponds to an improvement in the accuracy of the similarity of the part images corresponding to the objects in the feature point database 700A corresponding to the above-described diversity of objects.
Then, the feature point database 700A whose accuracy is improved in this way is used for automatic creation of an avatar, so that the accuracy of automatically creating an avatar similar to the face of the face image data of the creation source is also improved.
 なお、本実施形態においては、ユーザによって実質的な編集が行われないアバターにも対応して特徴点データベース700Aの更新が行われる。
 例えば、アバターの自動作成に際して、特徴点のすべてが一致していないオブジェクトに対応するパーツ画像が選択されたような場合であっても、ユーザがよく似ているとの印象を持ったために編集を行うことなく確定操作を行う場合のあることは考えられる。
 このような場合、特徴点データベース700Aに新規登録されるレコードは、特徴点データベース700Aにおいて既に格納されているレコードの内容と重複せずに異なる可能性がある。そして、この際に特徴点データベース700Aに新規登録されるレコードは、ユーザの主観により類似していると判断された結果が反映されている。したがって、実質的な編集が行われないアバターにも対応して特徴点データベース700Aの更新が行われることも、特徴点データベース700Aの精度を向上させることに繋がるものである。
In the present embodiment, the feature point database 700A is updated in correspondence with an avatar that is not substantially edited by the user.
For example, when an avatar is automatically created, even if a part image corresponding to an object that does not match all of the feature points is selected, editing is performed because the user has the impression that they are very similar It is conceivable that the confirmation operation may be performed without performing it.
In such a case, the record newly registered in the feature point database 700A may be different from the content of the record already stored in the feature point database 700A without overlapping. At this time, the record newly registered in the feature point database 700A reflects a result determined to be more similar to the user's subjectivity. Therefore, the update of the feature point database 700A corresponding to an avatar that is not substantially edited also leads to an improvement in the accuracy of the feature point database 700A.
 ここで、特徴点データベース700Aの精度を向上させるためには、以下のような他の手法をとることもできる。
 つまり、特徴点データベース生成装置100により特徴点データベース700を作成するにあたって、膨大な数のサンプル顔画像データを用意する。そして、これらのサンプル顔画像データを処理して特徴点データベース700を生成するというものである。
 しかし、前述のように、特徴点データベース生成装置100により特徴点データベース700を作成するにあたっては作業者が目視により類似性を判断する必要がある。このために、サンプル顔画像データの数が増加するほど作業者の負担も増加してしまう。
 これに対して、本実施形態の場合には、ユーザがアバターアプリケーションを利用してアバターを作成するごとに特徴点データベース700Aの精度が向上されていくものであり、作業者の負担が増加することはない。
Here, in order to improve the accuracy of the feature point database 700A, the following other methods may be employed.
That is, when the feature point database generation apparatus 100 creates the feature point database 700, a huge number of sample face image data is prepared. Then, the feature point database 700 is generated by processing the sample face image data.
However, as described above, when the feature point database generation apparatus 100 creates the feature point database 700, it is necessary for an operator to visually determine similarity. For this reason, the burden on the operator increases as the number of sample face image data increases.
On the other hand, in the case of this embodiment, every time a user creates an avatar using an avatar application, the accuracy of the feature point database 700A is improved, and the burden on the worker increases. There is no.
 [特徴点データベース更新のための処理手順例]
 次に、図21のフローチャートを参照して、特徴点データベース700Aを更新するためにユーザ端末装置300とアバター作成アプリケーションサーバ200が実行する処理手順例について説明する。
[Example of processing procedure for updating feature point database]
Next, an example of a processing procedure executed by the user terminal device 300 and the avatar creation application server 200 in order to update the feature point database 700A will be described with reference to a flowchart of FIG.
 ユーザ端末装置300において、顔画像データ送信部311は、顔画像データの送信を指示する操作に応じて、通信部304からアバター作成アプリケーションサーバ200に対して顔画像データを送信させる(ステップS201)。 In the user terminal device 300, the face image data transmission unit 311 causes the communication unit 304 to transmit the face image data to the avatar creation application server 200 in response to an operation instructing transmission of the face image data (step S201).
 顔画像データの送信に応じて、アバター作成アプリケーションサーバ200はアバターを自動作成してアバター情報920を送信する。このアバター情報が通信部304にて受信されるのに応じて、アバター画像作成部312は、受信されたアバター情報を利用してアバター画像を作成する(ステップS202)。 In response to the transmission of the face image data, the avatar creation application server 200 automatically creates an avatar and transmits the avatar information 920. In response to the avatar information being received by the communication unit 304, the avatar image creating unit 312 creates an avatar image using the received avatar information (step S202).
 表示制御部313は、ステップS202により作成されたアバター画像を表示部303に表示させる(ステップS203)。 The display control unit 313 causes the display unit 303 to display the avatar image created in step S202 (step S203).
 また、アバター編集部314は、ユーザが行うアバター編集操作に応じてアバター情報を変更するようにアバター編集処理を実行する(ステップS204)。 Further, the avatar editing unit 314 executes the avatar editing process so as to change the avatar information in accordance with the avatar editing operation performed by the user (step S204).
 ステップS204の処理は、例えばアバターの内容を確定させるための確定操作が行われるまで(ステップS205-NO)、繰り返し実行することができる。 The process in step S204 can be repeatedly executed until, for example, a confirmation operation for confirming the content of the avatar is performed (NO in step S205).
 そして、確定操作が行われるのに応じて(ステップS205-YES)、アバター編集部は、確定アバター情報を含めた確定通知をアバター作成アプリケーションサーバ200に対して送信する(ステップS206)。 Then, in response to the confirmation operation being performed (step S205—YES), the avatar editing unit transmits a confirmation notification including the confirmed avatar information to the avatar creation application server 200 (step S206).
 また、アバター作成アプリケーションサーバ200においては、ステップS201によりユーザ端末装置300から送信された顔画像データが通信部206にて受信される。これに応じて、顔画像データ入力部201は、受信された顔画像データを入力する(ステップS301)。 Further, in the avatar creation application server 200, the face image data transmitted from the user terminal device 300 in step S201 is received by the communication unit 206. In response to this, the face image data input unit 201 inputs the received face image data (step S301).
 次に、特徴点データ取得部202は、顔画像データに対する解析処理によってオブジェクトを抽出し、これらのオブジェクトごとの特徴点データを取得する(ステップS302)。そして、特徴点データ取得部202は、特徴点データの抽出結果として、図16にて説明した座標ハッシュ情報910をオブジェクトごとに生成し、これらを保持する(ステップS303)。 Next, the feature point data acquisition unit 202 extracts objects by analyzing the face image data, and acquires feature point data for each of these objects (step S302). Then, the feature point data acquisition unit 202 generates the coordinate hash information 910 described in FIG. 16 for each object as the extraction result of the feature point data, and holds these (step S303).
 次に、パーツ画像選択部204は、特徴点データとしての座標ハッシュ情報910が示す座標ハッシュと、特徴点データベース700Aの特徴点ハッシュテーブル720Aにおける座標ハッシュとを特徴点ごとに比較する。そして、この比較結果に基づいて、パーツ画像選択部204は、オブジェクトごとに類似するパーツ画像をパーツ画像テーブル600Aから選択する(ステップS304)。 Next, the part image selection unit 204 compares the coordinate hash indicated by the coordinate hash information 910 as the feature point data with the coordinate hash in the feature point hash table 720A of the feature point database 700A for each feature point. Based on the comparison result, the part image selection unit 204 selects a similar part image for each object from the part image table 600A (step S304).
 そのうえで、パーツ画像選択部204は、ステップS304によるパーツ画像の選択結果に基づいてアバター情報920を生成する(ステップS305)。このように生成されたアバター情報が、すなわち、自動作成されたアバターの内容を示すものである。
 そして、パーツ画像選択部204は、ステップS305により生成したアバター情報を、ユーザ端末装置300に対して送信する(ステップS306)。
In addition, the part image selection unit 204 generates avatar information 920 based on the selection result of the part image in step S304 (step S305). The avatar information generated in this way indicates the contents of the automatically created avatar.
And the parts image selection part 204 transmits the avatar information produced | generated by step S305 with respect to the user terminal device 300 (step S306).
 ステップS306によりアバター情報を送信した後、ユーザ端末装置300からは、ステップS206により確定通知が送信される。この確定通知が通信部206にて受信されるのに応じて、特徴点データベース更新部205は、ステップS302に対応して抽出したオブジェクトごとのオブジェクト定義テーブル710Aのレコード711と特徴点ハッシュテーブル720Aのレコード721を新規に生成する(ステップS307)。
 そして、特徴点データベース更新部205は、特徴点データベース700Aを更新する(ステップS308)。つまり、特徴点データベース更新部205は、ステップS307により生成したレコード711と721を、それぞれ、特徴点データベース700Aにおけるオブジェクト定義テーブル710Aと特徴点ハッシュテーブル720Aに新規登録する。
After the avatar information is transmitted in step S306, a confirmation notification is transmitted from the user terminal device 300 in step S206. In response to the confirmation notification being received by the communication unit 206, the feature point database update unit 205 stores the records 711 in the object definition table 710A and the feature point hash table 720A for each object extracted corresponding to step S302. A new record 721 is generated (step S307).
Then, the feature point database update unit 205 updates the feature point database 700A (step S308). That is, the feature point database update unit 205 newly registers the records 711 and 721 generated in step S307 in the object definition table 710A and the feature point hash table 720A in the feature point database 700A, respectively.
 <第2の実施形態>
 [概要]
 次に、第2の実施形態について説明する。なお、第2の実施形態における特徴点データベース生成装置100、アバター作成アプリケーションサーバ200およびユーザ端末装置300の構成は、例えば図2と図15と同様でよい。
<Second Embodiment>
[Overview]
Next, a second embodiment will be described. In addition, the structure of the feature point database production | generation apparatus 100 in 2nd Embodiment, the avatar preparation application server 200, and the user terminal device 300 may be the same as that of FIG. 2 and FIG. 15, for example.
 第1の実施形態において、1つの顔画像データを作成元として作成されるアバターは1つであった。これに対して、第2の実施形態は、1つの顔画像データを作成元として複数のアバターを作成してもよい場合に対応するものである。 In the first embodiment, one avatar is created using one face image data as a creation source. On the other hand, the second embodiment corresponds to a case where a plurality of avatars may be created using one face image data as a creation source.
 第2の実施形態において、パーツ画像選択部204は、以下のような場合に複数のアバターに対応する複数のアバター情報を生成する。
 つまり、図19に示したパーツIDの集計結果において、最多の検索数のパーツIDが複数存在するような場合に、パーツ画像選択部204は、これらの複数のパーツIDに対応するパーツ画像を選択する。このように、パーツ画像選択部204は、同じパーツ種別に対応するパーツ画像のうちから複数のパーツ画像を選択する。
 そして、このように複数のパーツ画像を選択した場合、パーツ画像選択部204は、これらのパーツ画像のパーツIDをそれぞれ反映させた複数のアバター情報を生成する。そして、パーツ画像選択部204は、これらの複数のアバター情報をユーザ端末装置に対して送信する。
 そして、ユーザ端末装置300においては、複数のアバター情報が受信されるのに応じて、以下のように、アバター画像の作成と表示を行う。
In the second embodiment, the part image selection unit 204 generates a plurality of avatar information corresponding to a plurality of avatars in the following cases.
That is, in the total result of the part IDs shown in FIG. 19, when there are a plurality of part IDs with the largest number of searches, the part image selection unit 204 selects the part images corresponding to the plurality of part IDs. To do. In this way, the part image selection unit 204 selects a plurality of part images from the part images corresponding to the same part type.
When a plurality of part images are selected in this way, the part image selection unit 204 generates a plurality of avatar information reflecting the part IDs of these part images. And the parts image selection part 204 transmits these avatar information with respect to a user terminal device.
And in the user terminal device 300, according to reception of a plurality of avatar information, creation and display of an avatar image are performed as follows.
 [第2の実施形態に対応する処理手順例]
 図22のフローチャートは、図21のステップS202によるアバター画像作成のための処理として、上記のように複数のアバター情報が送信されてくる可能性のある第2の実施形態に対応する場合の処理手順例を示している。
[Example of processing procedure corresponding to the second embodiment]
The flowchart of FIG. 22 is a processing procedure in the case of corresponding to the second embodiment in which a plurality of avatar information may be transmitted as described above as processing for creating an avatar image in step S202 of FIG. An example is shown.
 この場合、ユーザ端末装置300のアバター画像作成部312は、受信されたアバター情報が複数であるか否かについて判定する(ステップS401)。
 アバター情報が1つである場合(ステップS401-NO)、アバター画像作成部312は、この受信された1つのアバター情報に対応する1つのアバター画像を作成する(ステップS402)。
 一方、アバター情報が複数である場合(ステップS401-YES)、アバター画像作成部312は、受信された複数のアバター情報のそれぞれに対応する複数のアバター画像を作成する(ステップS403)。
In this case, the avatar image creation unit 312 of the user terminal device 300 determines whether or not the received avatar information is plural (step S401).
When there is one avatar information (step S401—NO), the avatar image creation unit 312 creates one avatar image corresponding to the received one avatar information (step S402).
On the other hand, when there is a plurality of avatar information (step S401—YES), the avatar image creation unit 312 creates a plurality of avatar images corresponding to each of the received plurality of avatar information (step S403).
 また、図23のフローチャートは、図21のステップS203によるアバター画像表示のための処理として第2の実施形態に対応する場合の処理手順例を示している。 Further, the flowchart of FIG. 23 shows an example of a processing procedure in the case of corresponding to the second embodiment as processing for avatar image display in step S203 of FIG.
 この場合、ユーザ端末装置300の表示制御部313は、ステップS202により作成されたアバター画像が複数であるか否かについて判定する(ステップS501)。
 作成されたアバター画像が1つである場合(ステップS501-NO)、表示制御部313は、この1つのアバター画像を表示部303に表示させる(ステップS502)。
 一方、アバター情報が複数である場合(ステップS501-YES)、表示制御部313は、作成された複数のアバター画像を表示部303に表示させる(ステップS503)。
In this case, the display control unit 313 of the user terminal device 300 determines whether or not there are a plurality of avatar images created in step S202 (step S501).
When there is one created avatar image (step S501-NO), the display control unit 313 displays this one avatar image on the display unit 303 (step S502).
On the other hand, when there is a plurality of avatar information (step S501—YES), the display control unit 313 causes the display unit 303 to display the plurality of created avatar images (step S503).
 複数のアバター画像が表示された場合、ユーザは、アバター編集操作として、まず、複数のアバター画像のうちから1つのアバター画像を選択する。そして、必要があれば、この選択したアバター画像のパーツを変更する操作を行ったうえで確定操作を行う。したがって、アバター編集部314は、確定操作に応じて、1つのアバターについてのアバター確定情報を含む確定通知を送信すればよい。 When a plurality of avatar images are displayed, the user first selects one avatar image from the plurality of avatar images as an avatar editing operation. If necessary, a confirmation operation is performed after performing an operation of changing the part of the selected avatar image. Therefore, the avatar edit part 314 should just transmit the confirmation notification containing the avatar confirmation information about one avatar according to confirmation operation.
 このように、第2の実施形態において、アバター作成アプリケーションサーバ200は、同じパーツ種別における選択対象のパーツ画像の類似度が同等あるいは近い場合に、複数のアバター情報を生成する。そして、ユーザ端末装置300は、複数のアバター情報を受信した場合、これら複数のアバター情報ごとのアバター画像を作成し、表示部303に表示させる。
 これにより、第2の実施形態においては、顔画像データに似ているとされるアバター画像として複数の候補をユーザに提供できる。これにより、ユーザは、複数のアバター画像の候補のうちから、最も似ていると自分が判断したものを選択することができる。そして、この結果が特徴点データベース700Aの更新に反映される。これにより、特徴点データベース700Aには、例えばアバターの顔に対するユーザの好みの傾向など反映されることになる。つまり、ユーザの好みの傾向などに適合するように特徴点データベース700Aの精度向上を図ることができる。
As described above, in the second embodiment, the avatar creating application server 200 generates a plurality of avatar information when the similarity of the part images to be selected in the same part type is equal or close. When the user terminal device 300 receives a plurality of avatar information, the user terminal device 300 creates an avatar image for each of the plurality of avatar information and displays the avatar image on the display unit 303.
Thereby, in 2nd Embodiment, a some candidate can be provided to a user as an avatar image supposed to be similar to face image data. Thereby, the user can select what he / she determined to be most similar from among a plurality of avatar image candidates. This result is reflected in the update of the feature point database 700A. As a result, the feature point database 700A reflects, for example, the user's preference tendency with respect to the face of the avatar. That is, it is possible to improve the accuracy of the feature point database 700A so as to suit the user's preference tendency and the like.
 <第3の実施形態>
 [概要]
 次に、第3の実施形態について説明する。
 先の第2の実施形態において、アバター画像作成部312は、アバター作成アプリケーションサーバ200から複数のアバター情報が受信された場合、これら複数のアバター情報のそれぞれに基づいて複数のアバター画像を作成した。
 しかし、例えば、複数のアバター情報において或るパーツ種別IDにおけるパーツIDの一致頻度が高い場合、そのパーツ種別においては、その一致頻度が高いパーツIDのパーツ画像が他のパーツ画像よりも類似していると推定できる。
 そこで、第3の実施異形態におけるアバター画像作成部312は、アバター情報ごとにアバター画像を作成するのではなく、一致頻度が高いパーツIDについては、複数のアバター情報に共通に適用する。そして、アバター画像作成部312は、このように一致頻度が高いパーツIDを共通化したアバター情報によりアバター画像を作成する。これにより、作成された複数のアバター画像は、いずれも作成元の顔画像データに対する類似度が高くなる。
 つまり、パーツ画像選択部204が特徴点データと特徴点データベース700Aとを比較した結果に基づいて、同一のパーツ種別に対応するパーツ画像のうちから複数のパーツ画像が選択された場合、アバター画像作成部312は、選択された複数のパーツ画像のそれぞれに対応して複数のアバター画像を作成する。また、表示制御部313は、上記のように作成された複数のアバター画像を表示部303に表示させる。
<Third Embodiment>
[Overview]
Next, a third embodiment will be described.
In the previous second embodiment, when a plurality of avatar information is received from the avatar creation application server 200, the avatar image creation unit 312 creates a plurality of avatar images based on each of the plurality of avatar information.
However, for example, when the part ID matching frequency in a certain part type ID is high in a plurality of avatar information, the part image of the part ID having a high matching frequency is similar to other part images in that part type. Can be estimated.
Therefore, the avatar image creation unit 312 in the third embodiment does not create an avatar image for each avatar information, but applies a part ID having a high matching frequency to a plurality of avatar information in common. Then, the avatar image creation unit 312 creates an avatar image based on avatar information in which part IDs having a high matching frequency are shared. As a result, the plurality of created avatar images all have high similarity to the original face image data.
That is, when a plurality of part images are selected from the part images corresponding to the same part type based on the result of the part image selection unit 204 comparing the feature point data with the feature point database 700A, an avatar image is created. The unit 312 creates a plurality of avatar images corresponding to each of the selected plurality of part images. In addition, the display control unit 313 causes the display unit 303 to display a plurality of avatar images created as described above.
 [第3の実施形態に対応する処理手順例]
 図24のフローチャートは、図21のステップS202によるアバター画像作成のための処理として、第3の実施形態に対応する場合の処理手順例を示している。なお、この図において、図22と同じステップについては、同一符号を付している。
[Example of processing procedure corresponding to the third embodiment]
The flowchart in FIG. 24 illustrates an example of a processing procedure when the processing for creating an avatar image in step S202 in FIG. 21 corresponds to the third embodiment. In this figure, the same steps as those in FIG. 22 are denoted by the same reference numerals.
 この場合、ユーザ端末装置300のアバター画像作成部312は、受信されたアバター情報が複数であるか否かについて判定する(ステップS401)。
 アバター情報が1つである場合(ステップS401-NO)、アバター画像作成部312は、この受信された1つのアバター情報に対応する1つのアバター画像を作成する(ステップS402)。
In this case, the avatar image creation unit 312 of the user terminal device 300 determines whether or not the received avatar information is plural (step S401).
When there is one avatar information (step S401—NO), the avatar image creation unit 312 creates one avatar image corresponding to the received one avatar information (step S402).
 一方、アバター情報が複数である場合(ステップS401-YES)、アバター画像作成部312は、受信された複数のアバター情報において、一致頻度が最も高いパーツIDに対応するパーツ種別IDを判定する(ステップS403A)。
 次に、アバター画像作成部312は、複数のアバター情報においてステップS403Aにより判定したパーツ種別IDに対応するパーツIDについては、一致頻度がもっと高いパーツIDを共通に格納するように複数のアバター情報を再生成する(ステップS403B)。
 そして、アバター画像作成部312は、上記のように再生成した複数のアバター情報ごとに対応して複数のアバター画像を作成する(ステップS403C)。
On the other hand, when there is a plurality of avatar information (step S401—YES), the avatar image creation unit 312 determines the part type ID corresponding to the part ID having the highest matching frequency in the received plurality of avatar information (step S401—YES). S403A).
Next, for the part ID corresponding to the part type ID determined in step S403A in the plurality of avatar information, the avatar image creating unit 312 stores the plurality of avatar information so that the part ID having a higher matching frequency is stored in common. It is regenerated (step S403B).
Then, the avatar image creating unit 312 creates a plurality of avatar images corresponding to each of the plurality of avatar information regenerated as described above (step S403C).
 また、第3の実施形態における表示制御部313の処理は、図23と同様である。これにより、図24の処理により作成された複数のアバター画像が表示部303に表示される。 Further, the processing of the display control unit 313 in the third embodiment is the same as that in FIG. Thereby, a plurality of avatar images created by the processing of FIG. 24 are displayed on the display unit 303.
 <変形例>
 次に、本実施形態の変形例について説明する。
 これまでの実施形態において、アバター作成アプリケーションはネイティブ型のアプリケーションプログラムとしてユーザ端末装置300にインストールされている場合を例に挙げてきた。しかし、アバター作成アプリケーションを、ブラウザ型のアプリケーション(ウェブアプリケーションともいう)として構成することもできる。
 そこで、本実施形態の変形例として、ブラウザ型のアバター作成アプリケーションに対応するアバター作成システムの構成を挙げる。
<Modification>
Next, a modification of this embodiment will be described.
In the embodiments so far, the case where the avatar creation application is installed in the user terminal device 300 as a native application program has been described as an example. However, the avatar creation application can be configured as a browser-type application (also referred to as a web application).
Thus, as a modification of the present embodiment, a configuration of an avatar creation system corresponding to a browser-type avatar creation application is given.
 図25は、上記のようにブラウザ型のアバター作成アプリケーションを採用した変形例としてのアバター作成システムにおけるアバター作成アプリケーションサーバ200Aとユーザ端末装置300Aの構成例を示している。なお、この図において、図15と同一部分には同一符号を付して説明を省略する。 FIG. 25 shows a configuration example of the avatar creating application server 200A and the user terminal device 300A in the avatar creating system as a modification adopting the browser type avatar creating application as described above. In this figure, the same parts as those in FIG.
 この図に示すユーザ端末装置300Aは、アバター作成に対応する機能としてウェブブラウザ部315を備える。 The user terminal device 300A shown in this figure includes a web browser unit 315 as a function corresponding to avatar creation.
 アバター作成アプリケーションがブラウザ型の場合、アバター作成アプリケーションサーバ200Aは、ネットワーク500経由で接続されているユーザ端末装置300Aに対して、アバター作成アプリケーションのファイルを送信する。このファイルは、例えばXML(Extensible Markup Language)やHTML(HyperText Markup Language)などのマークアップ言語により記述されたものである。
 ユーザ端末装置300Aのウェブブラウザ部315は、上記のように送信されるファイルを再生する。このようにファイルを再生することにより、ユーザ端末装置300Aの表示部303にアバター作成アプリケーションのアプリケーション画面を表示させる。なお、この変形例の場合、図15における顔画像データ送信部311と表示制御部313の機能は、上記のようにアバター作成アプリケーションのファイルを再生するウェブブラウザ部315により実現される。
When the avatar creation application is a browser type, the avatar creation application server 200 </ b> A transmits the file of the avatar creation application to the user terminal device 300 </ b> A connected via the network 500. This file is described in a markup language such as XML (Extensible Markup Language) or HTML (HyperText Markup Language).
The web browser unit 315 of the user terminal device 300A reproduces the file transmitted as described above. By reproducing the file in this manner, the application screen of the avatar creation application is displayed on the display unit 303 of the user terminal device 300A. In the case of this modification, the functions of the face image data transmission unit 311 and the display control unit 313 in FIG. 15 are realized by the web browser unit 315 that reproduces the avatar creation application file as described above.
 そして、ユーザ端末装置300Aのユーザが上記のように表示されるアプリケーション画面に対して操作部302を用いて操作を行うことで、ウェブブラウザ部315は操作に応じたコマンドをアバター作成アプリケーションサーバ200Aに対して送信する。アバター作成アプリケーションサーバ200Aは、受信したコマンドに応答してアバター作成に関連する所定の処理を実行する。これにより、例えばこれまでに説明した実施形態と同様の動作が実現される。 Then, when the user of the user terminal device 300A operates the application screen displayed as described above using the operation unit 302, the web browser unit 315 sends a command corresponding to the operation to the avatar creation application server 200A. Send to. The avatar creation application server 200A executes a predetermined process related to avatar creation in response to the received command. Thereby, for example, the same operation as that of the embodiment described so far is realized.
 次に、この図に示すアバター作成アプリケーションサーバ200Aは、図15に示したアバター作成アプリケーションサーバ200の構成に対して、さらに、アバター画像作成部211とアバター編集部212を備える。 Next, the avatar creating application server 200A shown in this figure further includes an avatar image creating unit 211 and an avatar editing unit 212 in addition to the configuration of the avatar creating application server 200 shown in FIG.
 アバター画像作成部211は、パーツ画像選択部204により選択されたパーツ画像に基づいてアバター画像を作成する。つまり、アバター画像作成部211は、アバター作成アプリケーションサーバ200Aにおいて、パーツ画像選択部204により生成されたアバター情報920に基づいてアバターの画像を生成する。そして、アバター画像作成部211は、作成したアバター画像を反映させたアバター作成アプリケーションのファイルを生成し、このファイルをユーザ端末装置300Aに送信する。ユーザ端末装置300Aのウェブブラウザ部315がこのファイルを再生することにより、作成されたアバターの画像が存在するアプリケーション画面が表示部303に表示される。 The avatar image creation unit 211 creates an avatar image based on the part image selected by the part image selection unit 204. That is, the avatar image creation unit 211 generates an avatar image based on the avatar information 920 generated by the part image selection unit 204 in the avatar creation application server 200A. And the avatar image preparation part 211 produces | generates the file of the avatar preparation application which reflected the created avatar image, and transmits this file to the user terminal device 300A. When the web browser unit 315 of the user terminal device 300A reproduces the file, an application screen on which the created avatar image exists is displayed on the display unit 303.
 また、アバター編集部212は、ユーザ端末装置300Aに対して行われたユーザの指示(アバター編集操作)に応じて、アバター画像作成部211により作成されたアバター画像を編集する。
 ユーザ端末装置300Aのユーザは、上記のようにアバター画像が表示されたアプリケーション画面に対して、アバター編集のための操作を行うことができる。アバター編集のための操作が行われるのに応じて、ウェブブラウザ部315は、その操作に応じたコマンドをアバター作成アプリケーションサーバ200Aから出力に対して送信する。
In addition, the avatar editing unit 212 edits the avatar image created by the avatar image creating unit 211 in accordance with a user instruction (avatar editing operation) performed on the user terminal device 300A.
The user of the user terminal device 300A can perform an avatar editing operation on the application screen on which the avatar image is displayed as described above. In response to the operation for editing the avatar, the web browser unit 315 transmits a command corresponding to the operation from the avatar creation application server 200A to the output.
 アバター編集部212は、上記のように送信されたコマンドに応じて、アバター編集を行う。このアバター編集の処理自体については、図15のアバター編集部314と同様でよい。また、アバター画像作成部211は、アバター編集部212の編集結果に応じて変更されたアバター情報に基づいてアバター画像を変更する。そのうえで、アバター画像作成部211は、このように変更したアバター画像の内容を反映させたファイルを生成し、ユーザ端末装置300Aに送信する。
 そして、ユーザが、アプリケーション画面に対してアバター確定のための操作を行うのに応じて、ウェブブラウザ部315は、アバター作成アプリケーションサーバ200Aに対して確定通知を送信する。この確定通知の受信に応答して、特徴点データベース更新部205は、図15の場合と同様に、特徴点データベース700Aを更新するものである。
The avatar editing unit 212 performs avatar editing according to the command transmitted as described above. The avatar editing process itself may be the same as that of the avatar editing unit 314 in FIG. In addition, the avatar image creating unit 211 changes the avatar image based on the avatar information changed according to the editing result of the avatar editing unit 212. In addition, the avatar image creation unit 211 generates a file reflecting the contents of the avatar image changed in this way, and transmits the file to the user terminal device 300A.
And according to a user performing operation for avatar confirmation with respect to an application screen, the web browser part 315 transmits a notification of confirmation with respect to the avatar preparation application server 200A. In response to receiving the confirmation notification, the feature point database update unit 205 updates the feature point database 700A as in the case of FIG.
 なお、上記各実施形態における特徴点データベース700、700Aの生成手法や、パーツ画像選択のための手法については、これまでに説明した以外の手法が採られてもよい。また、これに伴って、特徴点データベース700、700Aの構造も変更されてよい。 It should be noted that methods other than those described so far may be adopted as the method for generating the feature point databases 700 and 700A and the method for selecting the part image in each of the above embodiments. Along with this, the structure of the feature point databases 700 and 700A may be changed.
 また、これまでの説明において、オブジェクトの特徴量は、その座標に基づく特徴点データとしているが、例えばオブジェクトの色などをさらに特徴量に含めてもよい。 In the above description, the feature amount of the object is feature point data based on the coordinates. However, for example, the color of the object may be further included in the feature amount.
 また、図2と図15と図25において示した各機能部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより特徴点データベース700、700Aの生成、アバター作成および特徴点データベース700、700Aの更新などを行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 Further, the program for realizing each functional unit shown in FIG. 2, FIG. 15 and FIG. 25 is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system and executed. By doing so, generation of feature point databases 700 and 700A, creation of avatars, update of feature point databases 700 and 700A, and the like may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
 本発明の一態様としての画像作成システムは、画像データを入力する画像入力部(201)と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部(202)と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部(204)と、選択された要素画像に基づいて全体画像を作成する全体画像作成部(312)と、作成された前記全体画像をユーザに提供する全体画像提供部(313)と、提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集部(314)と、前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部(205)とを備える。 An image creation system according to an aspect of the present invention includes an image input unit (201) that inputs image data, and analysis data acquisition that acquires analysis data indicating the analysis result by analyzing the input image data Element image selection for selecting an element image from among a plurality of element images stored in the element image storage unit based on a result of comparing the unit (202) with the analysis data and the comparison data stored in the comparison data storage unit Unit (204), an overall image creation unit (312) that creates an overall image based on the selected element image, and an overall image provision unit (313) that provides the created overall image to the user. A whole image editing unit (314) for editing the contents of the whole image according to the user's instruction, and when the contents of the whole image are confirmed And a update unit that updates the comparison data based on the contents of the serial whole image (205).
 また、上記の本発明の一態様としての画像作成システムにおいて、前記比較データ記憶部は、予め用意した複数の画像データを利用して作成された初期の比較データを予め記憶しており、前記更新部(205)は、前記初期の比較データに対して新たな比較データを追加するように更新してもよい。 In the image creation system as one aspect of the present invention, the comparison data storage unit stores in advance initial comparison data created by using a plurality of image data prepared in advance, and the update The unit (205) may update the initial comparison data so as to add new comparison data.
 また、上記の本発明の一態様としての画像作成システムにおいて、前記要素画像記憶部は、複数の要素種別のそれぞれに対応する複数の要素画像を記憶し、前記要素画像選択部(204)は、前記複数の要素種別ごとに要素画像を選択してもよい。 In the image creation system as one aspect of the present invention, the element image storage unit stores a plurality of element images corresponding to a plurality of element types, and the element image selection unit (204) Element images may be selected for each of the plurality of element types.
 また、上記の本発明の一態様としての画像作成システムにおいて、前記全体画像作成部(312)は、前記解析データと前記比較データとを比較した結果に基づいて、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合、選択された複数の要素画像のそれぞれに対応して複数の前記全体画像を作成し、前記全体画像提供部は、作成された前記複数の全体画像をユーザに提供してもよい。 In the image creation system as one aspect of the present invention described above, the overall image creation unit (312) includes elements corresponding to the same element type based on a result of comparing the analysis data and the comparison data. When a plurality of element images are selected from the images, a plurality of the whole images are created corresponding to each of the selected plurality of element images, and the whole image providing unit generates the plurality of whole images An image may be provided to the user.
 また、上記の本発明の一態様としての画像作成システムにおいて、前記全体画像作成部(312)は、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合に、最も一致頻度が高い要素画像に対応する要素種別については、前記最も一致頻度が高い要素画像を共通に使用して前記複数の全体画像を作成してもよい。 In the image creation system as one aspect of the present invention, the overall image creation unit (312) is most effective when a plurality of element images are selected from element images corresponding to the same element type. For element types corresponding to element images having a high matching frequency, the plurality of whole images may be created using the element image having the highest matching frequency in common.
 また、本発明の一態様としての画像作成アプリケーションサーバは、ネットワーク経由でユーザ端末装置と通信を行う通信部と、画像データを入力する画像入力部(201)と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部(202)と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部(204)と、選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部(205)とを備える。 The image creation application server as one aspect of the present invention includes a communication unit that communicates with a user terminal device via a network, an image input unit (201) that inputs image data, and analyzes the input image data. Then, based on the result of comparing the analysis data acquisition unit (202) that acquires the analysis data indicating the analysis result and the comparison data stored in the comparison data storage unit, the element image storage unit An element image selection unit (204) for selecting an element image from among a plurality of element images to be stored, and the content of the entire image created based on the selected element image in accordance with a user instruction to the user terminal device An update unit (205) that updates the comparison data based on the content of the whole image when it is confirmed in response to the confirmation.
 また、本発明の一態様としての画像作成アプリケーションサーバは、ネットワーク経由でユーザ端末装置と通信を行う通信部と、画像データを入力する画像入力部(201)と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部(202)と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部(204)と、選択された要素画像に基づいて全体画像を作成する全体画像作成部(312)と、前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集部(314)と、前記全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部(205)とを備える。 The image creation application server as one aspect of the present invention includes a communication unit that communicates with a user terminal device via a network, an image input unit (201) that inputs image data, and analyzes the input image data. Then, based on the result of comparing the analysis data acquisition unit (202) that acquires the analysis data indicating the analysis result and the comparison data stored in the comparison data storage unit, the element image storage unit An element image selection unit (204) for selecting an element image from a plurality of element images to be stored, an entire image generation unit (312) for generating an entire image based on the selected element image, and the user terminal device An overall image editing unit (314) that edits the content of the created overall image in response to a user instruction made to the user, and the content of the overall image Serial in response to is determined in accordance with an instruction from a user to the user terminal device, and a update unit for updating the comparison data based on the contents of the entire image when it is determined (205).
 また、本発明の一態様としての画像作成方法は、画像データを入力する画像入力ステップと、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、作成された前記全体画像をユーザに提供する全体画像提供ステップと、提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集ステップと、前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。 An image creation method as one aspect of the present invention includes an image input step for inputting image data, and an analysis data acquisition step for acquiring analysis data indicating the analysis result by analyzing the input image data. And an element image selection step for selecting an element image from among a plurality of element images based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit, and based on the selected element image A whole image creating step for creating a whole image, a whole image providing step for providing the created whole image to a user, and a whole image editing for editing the content of the provided whole image in accordance with an instruction from the user And comparing the comparison data based on the content of the whole image when confirmed, according to the step and the content of the whole image being confirmed. And an updating step of new to.
 また、本発明の一態様としての画像作成方法は、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。 The image creation method as one aspect of the present invention is stored in a communication step of communicating with a user terminal device via a network, an image input step of inputting image data, and the analysis data and comparison data storage unit. An element image selection step for selecting an element image from a plurality of element images based on the result of comparison with the comparison data, and the content of the entire image created based on the selected element image for the user terminal device An update step of updating the comparison data based on the content of the whole image when confirmed in response to being confirmed according to a user instruction.
 また、本発明の一態様としての画像作成方法は、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
 前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。
The image creating method as one aspect of the present invention includes a communication step of communicating with a user terminal device via a network, an image input step of inputting image data, and analyzing the input image data. Select an element image from a plurality of element images based on the result of comparing the analysis data and the comparison data stored in the comparison data storage unit with an analysis data acquisition step for acquiring analysis data indicating the analysis result An element image selection step, an entire image creation step for creating an entire image based on the selected element image,
A whole image editing step for editing the contents of the created whole image in accordance with a user instruction given to the user terminal apparatus; and a contents of the whole image in accordance with a user instruction to the user terminal apparatus An update step of updating the comparison data based on the content of the whole image when it is confirmed.
 また、本発明の一態様としてのプログラムは、コンピュータに、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを実行させるためのものである。 A program as one aspect of the present invention is stored in a computer in a communication step for communicating with a user terminal device via a network, an image input step for inputting image data, and the analysis data and comparison data storage unit. An element image selection step of selecting an element image from a plurality of element images based on the result of comparison with the comparison data to be obtained, and the content of the entire image created based on the selected element image is the user terminal device The update step of updating the comparison data based on the content of the whole image when confirmed is performed in response to the confirmation according to the user's instruction.
 また、本発明の一態様としてのプログラムは、コンピュータに、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを実行させるためのものである。 According to another aspect of the present invention, there is provided a program comprising: a communication step of communicating with a user terminal device via a network; an image input step of inputting image data; and analyzing the input image data. The analysis data acquisition step for acquiring the analysis data indicating the analysis result, and the result of comparing the analysis data and the comparison data stored in the comparison data storage unit, the element image from among the plurality of element images An element image selection step to select, an entire image creation step to create an entire image based on the selected element image, and the entire image created in response to a user instruction given to the user terminal device An overall image editing step for editing the contents of the Depending on the contents is confirmed, it is intended for executing an updating step of updating the comparison data based on the contents of the entire image when it is determined.
 以上説明したように、本発明の幾つかの態様によれば、アバター作成元の画像に対するアバターの類似度が向上する。 As described above, according to some aspects of the present invention, the degree of avatar similarity to an avatar creation source image is improved.
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design and the like within the scope not departing from the gist of the present invention.
 100 特徴点データベース生成装置
 101 サンプル顔画像データ入力部
 102 特徴点データ取得部
 103 表示制御部
 104 取得部
 105 特徴点データベース生成部
 105A オブジェクト定義テーブル生成部
 105B 特徴点ハッシュテーブル生成部
 106 記憶部
 107 特徴点データベース送信部
 108 操作部
 109 表示部
 200 アバター作成アプリケーションサーバ
 201 顔画像データ入力部
 202 特徴点データ取得部
 203 記憶部
 204 パーツ画像選択部
 205 特徴点データベース更新部
 206 通信部
 300 ユーザ端末装置
 301 制御部
 302 操作部
 303 表示部
 304 通信部
 311 顔画像データ送信部
 312 アバター画像作成部
 313 表示制御部
 314 アバター編集部
 400 アバター利用アプリケーションサーバ
 500 ネットワーク
 600 パーツ画像テーブル
 600A パーツ画像テーブル
 700 特徴点データベース
 700A 特徴点データベース
 710 オブジェクト定義テーブル
 710A オブジェクト定義テーブル
 711 レコード
 720 特徴点ハッシュテーブル
 720A 特徴点ハッシュテーブル
 721 レコード
 810 代表点座標情報
 820 正規化座標情報
 820A シフト演算座標
 830 座標ハッシュ情報
 910 座標ハッシュ情報
 920 アバター情報
DESCRIPTION OF SYMBOLS 100 Feature point database generation apparatus 101 Sample face image data input part 102 Feature point data acquisition part 103 Display control part 104 Acquisition part 105 Feature point database generation part 105A Object definition table generation part 105B Feature point hash table generation part 106 Storage part 107 Feature Point database transmission unit 108 operation unit 109 display unit 200 avatar creation application server 201 face image data input unit 202 feature point data acquisition unit 203 storage unit 204 part image selection unit 205 feature point database update unit 206 communication unit 300 user terminal device 301 control Unit 302 Operation unit 303 Display unit 304 Communication unit 311 Face image data transmission unit 312 Avatar image creation unit 313 Display control unit 314 Avatar editing unit 400 Application for avatar use Server 500 network 600 parts image table 600A parts image table 700 feature point database 700A feature point database 710 object definition table 710A object definition table 711 record 720 feature point hash table 720A feature point hash table 721 record 810 representative point coordinate information 820 normalization Coordinate information 820A Shift calculation coordinates 830 Coordinate hash information 910 Coordinate hash information 920 Avatar information

Claims (12)

  1.  画像データを入力する画像入力部と、
     入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
     前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
     選択された要素画像に基づいて全体画像を作成する全体画像作成部と、
     作成された前記全体画像をユーザに提供する全体画像提供部と、
     提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集部と、
     前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
     を少なくとも含む画像作成システム。
    An image input unit for inputting image data;
    By analyzing the input image data, an analysis data acquisition unit that acquires analysis data indicating the analysis result;
    An element image selection unit that selects an element image from among a plurality of element images stored in the element image storage unit, based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    An overall image creation unit for creating an overall image based on the selected element image;
    A whole image providing unit for providing the created whole image to a user;
    An overall image editing unit that edits the content of the provided entire image according to an instruction of the user;
    And an update unit that updates the comparison data based on the content of the whole image when the content of the whole image is confirmed.
  2.  前記比較データ記憶部は、
     予め用意した複数の画像データを利用して作成された初期の比較データを予め記憶しており、
    前記更新部は、
    前記初期の比較データに対して新たな比較データを追加するように更新する
     請求項1に記載の画像作成システム。
    The comparison data storage unit
    The initial comparison data created using a plurality of image data prepared in advance is stored in advance,
    The update unit
    The image creation system according to claim 1, wherein the initial comparison data is updated so as to add new comparison data.
  3.  前記要素画像記憶部は、
     複数の要素種別のそれぞれに対応する複数の要素画像を記憶し、
     前記要素画像選択部は、
     前記複数の要素種別ごとに要素画像を選択する
     請求項1または2に記載の画像作成システム。
    The element image storage unit
    Storing a plurality of element images corresponding to each of a plurality of element types;
    The element image selection unit
    The image creation system according to claim 1, wherein an element image is selected for each of the plurality of element types.
  4.  前記全体画像作成部は、
     前記解析データと前記比較データとを比較した結果に基づいて、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合、選択された複数の要素画像のそれぞれに対応して複数の前記全体画像を作成し、
    前記全体画像提供部は、
     作成された前記複数の全体画像をユーザに提供する
    請求項3に記載の画像作成システム。
    The overall image creation unit
    Based on the result of comparing the analysis data and the comparison data, when a plurality of element images are selected from among the element images corresponding to the same element type, each of the selected plurality of element images corresponds. To create a plurality of the whole images,
    The overall image providing unit includes:
    The image creation system according to claim 3, wherein the plurality of created overall images are provided to a user.
  5.  前記全体画像作成部は、
     同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合に、最も一致頻度が高い要素画像に対応する要素種別については、前記最も一致頻度が高い要素画像を共通に使用して前記複数の全体画像を作成する
     請求項4に記載の画像作成システム。
    The overall image creation unit
    When a plurality of element images are selected from element images corresponding to the same element type, the element image having the highest matching frequency is commonly used for the element type corresponding to the element image having the highest matching frequency. The image creation system according to claim 4, wherein the plurality of whole images are created.
  6.  ネットワーク経由でユーザ端末装置と通信を行う通信部と、
     画像データを入力する画像入力部と、
     入力された前記画像データを解析することにより取得された、その解析結果を示す解析データを取得する解析データ取得部と、
     前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
     選択された前記要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
     を少なくとも含む画像作成アプリケーションサーバ。
    A communication unit that communicates with a user terminal device via a network;
    An image input unit for inputting image data;
    An analysis data acquisition unit for acquiring analysis data indicating the analysis result acquired by analyzing the input image data;
    An element image selection unit that selects an element image from among a plurality of element images stored in the element image storage unit based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    The comparison based on the content of the whole image when the content of the whole image created based on the selected elemental image is decided according to the user's instruction to the user terminal device An image creation application server including at least an update unit for updating data.
  7.  ネットワーク経由でユーザ端末装置と通信を行う通信部と、
     画像データを入力する画像入力部と、
     入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
     前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
     選択された前記要素画像に基づいて全体画像を作成する全体画像作成部と、
     前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集部と、
     前記全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
     を少なくとも含む画像作成アプリケーションサーバ。
    A communication unit that communicates with a user terminal device via a network;
    An image input unit for inputting image data;
    By analyzing the input image data, an analysis data acquisition unit that acquires analysis data indicating the analysis result;
    An element image selection unit that selects an element image from among a plurality of element images stored in the element image storage unit, based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    An overall image creation unit for creating an overall image based on the selected element image;
    A whole image editing unit that edits the contents of the created whole image in response to a user instruction given to the user terminal device;
    An update unit that updates the comparison data based on the content of the whole image when the content of the whole image is confirmed according to a user instruction to the user terminal device. Image creation application server.
  8.  画像データを入力する画像入力ステップと、
     入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
     前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
     選択された前記要素画像に基づいて全体画像を作成する全体画像作成ステップと、
     作成された前記全体画像をユーザに提供する全体画像提供ステップと、
     提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集ステップと、
     前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
     を少なくとも含む画像作成方法。
    An image input step for inputting image data;
    By analyzing the input image data, an analysis data acquisition step of acquiring analysis data indicating the analysis result;
    An element image selection step of selecting an element image from a plurality of element images based on the result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    A whole image creating step for creating a whole image based on the selected element image;
    A whole image providing step of providing the created whole image to a user;
    A whole image editing step of editing the contents of the provided whole image according to an instruction of the user;
    An image creating method including at least an update step of updating the comparison data based on the content of the whole image when the content of the whole image is confirmed.
  9.  ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
     画像データを入力する画像入力ステップと、
     前記画像データを解析することにより取得された解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
     選択された前記要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
     を少なくとも含む画像作成方法。
    A communication step for communicating with a user terminal device via a network;
    An image input step for inputting image data;
    An element image selection step of selecting an element image from a plurality of element images based on the result of comparing the analysis data obtained by analyzing the image data and the comparison data stored in the comparison data storage unit; ,
    The content of the entire image created based on the selected element image is determined according to the user's instruction to the user terminal device, and based on the content of the entire image when determined. An image generation method including at least an update step for updating the comparison data.
  10.  ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
     画像データを入力する画像入力ステップと、
     入力された前記画像データを解析することにより、その解析結果を示す前記解析データを取得する解析データ取得ステップと、
     前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
     選択された前記要素画像に基づいて全体画像を作成する全体画像作成ステップと、
     前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、
     前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
     を少なくとも含む画像作成方法。
    A communication step for communicating with a user terminal device via a network;
    An image input step for inputting image data;
    By analyzing the input the image data, the analysis data acquisition step of acquiring the analysis data indicating the result of the analysis,
    An element image selection step of selecting an element image from a plurality of element images based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    A whole image creating step for creating a whole image based on the selected element image;
    A whole image editing step for editing the contents of the created whole image in accordance with a user instruction given to the user terminal device;
    An update step of updating the comparison data based on the content of the whole image when the content is confirmed in response to the content of the whole image being confirmed according to a user instruction to the user terminal device. Image creation method.
  11.  コンピュータに、
     ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
     画像データを入力する画像入力ステップと、
     前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
     選択された前記要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
     を実行させるためのプログラム。
    On the computer,
    A communication step for communicating with a user terminal device via a network;
    An image input step for inputting image data;
    An element image selection step of selecting an element image from a plurality of element images based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    The content of the entire image created based on the selected element image is determined according to the user's instruction to the user terminal device, and based on the content of the entire image when determined. A program for executing an update step for updating comparison data.
  12.  コンピュータに、
     ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
     画像データを入力する画像入力ステップと、
     入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
     前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
     選択された前記要素画像に基づいて全体画像を作成する全体画像作成ステップと、
     前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、
     前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
     を実行させるためのプログラム。

     
    On the computer,
    A communication step for communicating with a user terminal device via a network;
    An image input step for inputting image data;
    By analyzing the input image data, an analysis data acquisition step for acquiring analysis data indicating the analysis result;
    An element image selection step of selecting an element image from a plurality of element images based on a result of comparing the analysis data and comparison data stored in the comparison data storage unit;
    A whole image creating step for creating a whole image based on the selected element image;
    A whole image editing step of editing the contents of the created whole image in response to a user instruction given to the user terminal device;
    An update step of updating the comparison data based on the content of the whole image when the content is confirmed in response to the content of the whole image being confirmed according to a user instruction to the user terminal device. Program for.

PCT/JP2013/065187 2012-05-31 2013-05-31 Image generation system, image generation application server, image generation method, and program WO2013180266A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012125331 2012-05-31
JP2012-125331 2012-05-31
JP2012285883A JP5420056B2 (en) 2012-05-31 2012-12-27 Image creation system, image creation application server, image creation method and program
JP2012-285883 2012-12-27

Publications (1)

Publication Number Publication Date
WO2013180266A1 true WO2013180266A1 (en) 2013-12-05

Family

ID=49673449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065187 WO2013180266A1 (en) 2012-05-31 2013-05-31 Image generation system, image generation application server, image generation method, and program

Country Status (2)

Country Link
JP (1) JP5420056B2 (en)
WO (1) WO2013180266A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712210A (en) * 2018-12-17 2019-05-03 重庆长安汽车股份有限公司 Image generation method based on block chain
CN112036241A (en) * 2020-07-27 2020-12-04 北京达佳互联信息技术有限公司 Image processing method and device, electronic equipment and storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789008B2 (en) * 2016-06-15 2020-11-25 ヤフー株式会社 Character evaluation device, character evaluation method, and character evaluation program
JP7041484B2 (en) * 2017-09-26 2022-03-24 株式会社コロプラ Programs, information processing devices, information processing systems, and information processing methods
KR102002863B1 (en) * 2018-04-13 2019-07-24 라인플러스 주식회사 Method and system for creating avatar of animal shape using human face

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221812A (en) * 2010-04-09 2011-11-04 Sony Corp Information processing device, method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221812A (en) * 2010-04-09 2011-11-04 Sony Corp Information processing device, method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKASHI KONDO ET AL.: "Converting Faces by Preserving the Expression from the Actor's Viewpoint Based on Examples Obtained from User Interactions", TRANSACTION OF THE INSTITUTE OF SYSTEMS, CONTROL AND INFORMATION ENGINEERS, vol. 14, no. 6, 15 June 2001 (2001-06-15), pages 308 - 315 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712210A (en) * 2018-12-17 2019-05-03 重庆长安汽车股份有限公司 Image generation method based on block chain
CN109712210B (en) * 2018-12-17 2023-03-28 重庆长安汽车股份有限公司 Block chain-based graph generation method
CN112036241A (en) * 2020-07-27 2020-12-04 北京达佳互联信息技术有限公司 Image processing method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2014006873A (en) 2014-01-16
JP5420056B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
KR101737725B1 (en) Content creation tool
JP5420056B2 (en) Image creation system, image creation application server, image creation method and program
JP5134664B2 (en) Annotation device
JP5270027B1 (en) Information processing apparatus and handwritten document search method
US20160012612A1 (en) Display control method and system
JP2015501044A (en) Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata
CN110070556A (en) Use the structural modeling of depth transducer
CN109155084A (en) The system and method compiled with asynchronous document are communicated very much on a large scale in virtual reality and augmented reality environment
CN104081307A (en) Image processing apparatus, image processing method, and program
TW202009682A (en) Interactive method and device based on augmented reality
JP7337428B1 (en) CONTROL METHOD, CONTROL DEVICE, AND RECORDING MEDIUM FOR INTERACTIVE THREE-DIMENSIONAL REPRESENTATION OF OBJECT
US20140142900A1 (en) Information processing apparatus, information processing method, and program
CN104102759B (en) Building model image display system and method thereof
KR101425672B1 (en) Building Information Modeling Based Communication System, Building Information Modeling Based Communication Server, and Building Information Modeling Based Communication Method in Mobile Terminal and Recording Medium Thereof
JP2010039932A (en) Image processing apparatus, image processing method and program
JP2022022244A (en) Information processing apparatus, method for generating management data, and management data
JP6531302B1 (en) Intellectual Property System, Intellectual Property Support Method and Intellectual Property Support Program
JP6862331B2 (en) Thinking / discussion support system and thinking / discussion support device
Zhou et al. FMASketch: Freehand Mid-Air Sketching in AR
JP2013050970A (en) Image processing device, image processing method, and program
JP7320414B2 (en) 3D DATA DESIGNER SEARCH SYSTEM, 3D DATA DESIGNER SEARCH METHOD, AND PROGRAM
JP2017049984A (en) Information processing device, control method thereof and program, and information processing system, control method thereof and program
JP7388065B2 (en) Image output device and program
WO2022107282A1 (en) Terminal, input display method, and input display system
JP4648017B2 (en) Drawing management method and drawing management program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13796335

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13796335

Country of ref document: EP

Kind code of ref document: A1