WO2009133710A1 - キャラクタ表示用データの生成装置および方法 - Google Patents

キャラクタ表示用データの生成装置および方法 Download PDF

Info

Publication number
WO2009133710A1
WO2009133710A1 PCT/JP2009/001972 JP2009001972W WO2009133710A1 WO 2009133710 A1 WO2009133710 A1 WO 2009133710A1 JP 2009001972 W JP2009001972 W JP 2009001972W WO 2009133710 A1 WO2009133710 A1 WO 2009133710A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
character display
character
display
avatar
Prior art date
Application number
PCT/JP2009/001972
Other languages
English (en)
French (fr)
Inventor
堤純也
西山純一
川本学
Original Assignee
株式会社アクロディア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アクロディア filed Critical 株式会社アクロディア
Priority to JP2010510047A priority Critical patent/JP5383668B2/ja
Priority to KR1020107026573A priority patent/KR101687689B1/ko
Publication of WO2009133710A1 publication Critical patent/WO2009133710A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Definitions

  • the present invention relates to an apparatus and method for creating character display data, and more particularly to creation of character display data called an avatar.
  • avatars In recent years, simple human-type images (human-type images) called avatars have been used in various fields.
  • the avatar is, for example, a character in a game, a character in a virtual space connectable by a computer network such as the Internet, a part of content transmitted in a communication tool such as chat or mail, an information device such as a personal computer, a PDA, or a mobile phone. It is used as a part of a user interface, etc. and is being studied for use.
  • Japanese Patent Publication No. 2006-119788 discloses a character generation device.
  • the generating apparatus includes a CPU, and the CPU randomly selects one for each part from a plurality of parts data stored in advance.
  • a plurality of coupling points indicating the coupling position with the element part image to be synthesized are drawn.
  • a coupling point selected from a plurality of coupling point set data may be drawn.
  • reference points 72 to 78 indicating the coupling positions with the corresponding coupling points are respectively drawn.
  • the CPU searches the positions of the plurality of connection points and the respective reference points, and combines the corresponding connection points and the reference points to synthesize the contour part image and each element part image. Then, a character is generated based on the synthesized face image, and the character appears in the game.
  • An avatar is a virtual character that varies from face-to-body ratios similar to the human body to face-to-body ratios or faces larger than the body.
  • the composition of the avatar's face is important for distinguishing the avatar and giving the avatar a facial expression.
  • the parts that make up the face include eyes, nose, mouth, contour, etc., and there are many variations, and there are many variations of each part, and if factors such as size and arrangement are included, the combination of parts that make up the face is It can be said that it is almost infinite.
  • One aspect of the present invention is an apparatus that generates character display data for displaying a character including a portion represented by a combination of a plurality of parts.
  • This apparatus includes a character display unit that displays an image based on character display data in a character display area of a display device, and a display device that displays at least a part of at least one of a plurality of selectable elements including a plurality of parts.
  • an edit unit that scrolls to be selectable by the user interface and selects one variation displayed at a predetermined position (selected state), and an edited character reflecting the selected variation
  • a unit for storing or outputting display data in a memory or the like.
  • the editing unit further includes a function of displaying, in the character display area, an image of the character display data in which the variation being selected (selected state) is reflected, and making the variation reflected in the display already selected.
  • a plurality of variations are scrolled and one variation displayed at a predetermined position is being selected. For this reason, one of the variations is always selected.
  • the selected variation can be easily changed by scrolling with it. Since one variation is always selected, the character display data image (character image) that reflects the selected variation can be displayed on the display device, and the character being edited can be grasped intuitively (visually). it can.
  • the operation to make it selected may be performed, but the character display data that reflects the selected variation is reflected without performing the selected operation. Generated. For example, at the stage where the variation is being selected for the next selectable element, the variation being selected for the previous selectable element is already selected. For this reason, the character in which the user's intention was reflected about each selectable element is displayed only by the user selecting the variation for the selectable element one after another.
  • the user can intuitively grasp the change of the character through the character displayed on the display device (by changing or editing the character display) by operating the user interface. Also, data for displaying a desired character while enjoying the change of the character can be generated as edited character display data.
  • the user can change the character while selecting a large number of selectable element variations one after another.
  • data edited character display data
  • data for displaying a character composed of a large number of selectable elements and various variations of these selectable elements can be easily generated.
  • the editing unit displays in a first scroll area outside the character display area so as to scroll at least a part of the plurality of first images (for example, index images) respectively indicating the plurality of selectable elements. And a plurality of variations of one selectable element displayed at a predetermined location in the first scroll area among the plurality of selectable elements in the second scroll area outside the character display area. It is preferable to include a second display selection unit that displays at least a part of a plurality of second images (for example, part images) shown in a scrolling manner and selects one of the plurality of variations.
  • a second display selection unit that displays at least a part of a plurality of second images (for example, part images) shown in a scrolling manner and selects one of the plurality of variations.
  • selectable elements and variations for changing the character are displayed outside the character display area where the character is displayed in a state that is easily understood visually by the first image and the second image. For this reason, it is possible to intuitively grasp the variation being selected and the variation that can be performed next by scrolling. Furthermore, it is possible to intuitively grasp the selectable elements being selected and the selectable elements that can be subsequently selected.
  • the first scroll area is arranged along a first direction outside the character display area, and the second scroll area is aligned with the first scroll area along a second direction outside the character display area. It is desirable to arrange the parts so that they intersect. Furthermore, it is desirable that the second display selection unit scrolls and displays a plurality of variations of one selectable element displayed at a location where the first scroll area and the second scroll area intersect. For example, a variation displayed at a crossing location among a plurality of variations can be selected.
  • the scroll direction in the first and second directions for example, up, down, left, and right
  • variations of the selectable elements can be selected one after another, and the characters displayed in the character display area change one after another. Can be made.
  • the character display data can be easily generated.
  • the first and second scroll areas may be operable with a finger or a pen.
  • the first direction and the second direction coincide with the direction in which the cursor is moved by a key included in the user interface.
  • a cursor key (navigation key, scroll key) is frequently used as a user interface of a handy information terminal such as a mobile phone, and the scroll direction can be selected up, down, left and right with the cursor key. Therefore, when the first direction and the second direction match up, down, left, and right, simply select the scroll direction with the cursor key one after another up, down, left, and right, and the selection key (execution key) at the center of the cursor key. Even without (or may be pressed), the characters displayed in the character display area can be changed one after another, and character display data can be generated.
  • the second display selection unit can display a plurality of variations such as color, pattern, etc. associated with the selected variation in the second scroll area, and one of them can be selected.
  • the editing unit includes a third display selection unit that displays a property common to a plurality of variations of the selectable element whose variation is selected and enables selection.
  • the properties of the selectable elements such as the color of the selectable element, the left / right / up / down display positions, and the like can be displayed and selected separately from the variations. For this reason, the number of items to be selected by the second display selection unit can be reduced, and characters can be displayed while displaying different characters such as shapes while keeping properties such as color and position (without changing). Data can be generated.
  • the third display selection unit includes at least one of the following four functions (functional units).
  • F1. A function for displaying the size and changing the size of the selected face part (first function).
  • F2. A function to display the vertical movement direction and to change the vertical position of the selected face part (second function).
  • Multiple facial parts include eyes and eyebrows, and when the eye or eyebrow variation is selected, the moving direction to narrow and widen the gap is displayed, and the selected eye or the selected eyebrow spacing is variable Function (third function).
  • F4 When the eye or eyebrow variation is selected, a function to display the direction of rotation and to change the tilt of the selected eyes or the tilt of the selected eyebrows (fourth function) .
  • the character display data includes data for displaying at least a part of the body in addition to the character's face, and the plurality of selectable elements preferably include body elements that differ depending on the gender of the character. Thereby, it is possible to generate character display data for displaying not only the face but also the character including the body.
  • the plurality of selectable elements include an action expressed by at least a part of the face and / or body.
  • character display data for displaying a dynamic character can be generated.
  • the character display unit includes a function of displaying an image based on the character display data on an image based on image data different from the character display data.
  • character display data can be generated while referring to characters included in images based on different image data.
  • imaged data photographs
  • Character display data can include data for displaying characters in three dimensions.
  • the editing unit includes a display unit that displays the character in a state where the character is rotated back and forth on the character display unit.
  • the character display unit can display the state of the character viewed from the front, back, left and right, and can confirm the state of the character being edited viewed from the front, back, left and right.
  • the unit for saving or outputting includes a function (functional unit) for generating image data for two-dimensional image display from edited character display data.
  • Image data that can display the character displayed by the edited character display data, and can be generated by other applications such as e-mail creation and display software.
  • the unit for saving or outputting includes a function (functional unit) for outputting the character display data edited to be converted into data for a desired application to the server.
  • the edited character display data can be converted into data or information applicable to various applications using abundant resources prepared on the server side.
  • One of the different aspects of the present invention includes a portion represented by a combination of a plurality of parts by an apparatus including a display device for displaying an image and a user interface for selecting an item displayed by the display device. This is a method of generating character display data for displaying a character.
  • the method includes the following steps. 1. Scrolling at least a part of at least one of a plurality of variations of a plurality of selectable elements including a plurality of parts on the display device; 2. One variation displayed at a predetermined position is being selected. 3. Displaying the character display data image reflecting the selected variation in the character display area of the display device. 4). Saving or outputting edited character display data, including variations reflected in the display.
  • a plurality of variations are scroll-displayed, one variation displayed at a predetermined position is being selected, and when a character including the variation is displayed, the variation is already selected.
  • the user intuitively grasps the change of the character displayed on the display device, and easily enjoys the data for displaying the desired character while enjoying the change of the character. And it can be generated in a short time.
  • the scroll display (step 1) preferably includes the following steps. A1. Displaying at least a part of the plurality of first images respectively indicating the plurality of selectable elements in the first scroll region arranged along the first direction outside the character display region. . A2. The first scroll among the plurality of selectable elements is arranged in a second scroll area arranged so as to partially intersect the first scroll area along the second direction outside the character display area. Displaying at least a part of a plurality of second images respectively showing a plurality of variations of one selectable element displayed at a location intersecting with the area so as to be scrolled.
  • the displayed character is changed simply by selecting the scroll direction in the first and second directions, for example, up, down, left and right. be able to.
  • data for displaying a character can be generated simply by selecting the scroll direction up / down / left / right with a cursor key or the like.
  • the method preferably includes the following steps. 5). Displaying multiple properties associated with the selected variation in the second scroll area and making one of them selected.
  • this method includes the following steps. 6).
  • a property common to multiple variations of the selectable element whose variation is selected is displayed outside the character display area of the display device so that the property can be selected.
  • the property selection can include: B1. Display the size and change the size of the selected face part. B2. Display the vertical movement direction and change the vertical position of the selected face part. B3. Multiple facial parts include eyes and eyebrows, and when the eye or eyebrow variation is selected, the moving direction to narrow and widen the gap is displayed, and the selected eye or the selected eyebrow spacing is variable thing. B4. When an eye or eyebrow variation is selected, the direction of rotation is displayed, and the inclination of the eyes on both sides being selected or the inclination of the eyebrows on both sides being selected are made variable in synchronization.
  • the character display data includes data that displays at least a part of the body in addition to the character's face, and the plurality of selectable elements preferably include actions represented by at least a part of the face and / or body. . Actions can be included in variations selected by scroll display, and data for displaying dynamic characters can be generated.
  • step 3 It is desirable to display in the character display area (step 3) by superimposing an image based on the character display data on an image based on image data different from the character display data.
  • character display data can be generated based on the imaged image data (photograph).
  • the step of displaying in the character display area includes displaying the character in a state where the character is rotated back and forth.
  • the step of saving or outputting includes outputting the character display data edited to be converted into data for a desired application to the server.
  • One of the different aspects of the present invention is a program executed by a computer including a display device for displaying an image and a user interface for selecting an item displayed by the display device.
  • a program (program product) that, when executed, causes a computer to function as a device for generating character display data for displaying a character including a portion represented by a combination of a plurality of parts.
  • An apparatus implemented by the program includes a user interface including a function for selecting an item displayed by a display device, and a character display unit for displaying an image based on character display data in a character display area of the display device. And an editing unit that scrolls at least a part of at least one of a plurality of selectable elements including a plurality of parts on a display device and selects one variation displayed at a predetermined position. In addition, an image of the character display data that reflects the selected variation is displayed in the character display area, the editing unit that makes the variation reflected in the display selected, and the selected variation is reflected. Edited character The ⁇ data and a unit for storage or output to the memory.
  • This program can be provided by being recorded on an appropriate medium, such as a CD-ROM, a flash memory, or a card memory.
  • the program can be provided through a computer network such as the Internet or a data transmission / reception network.
  • a personal information processing apparatus such as a mobile phone, a PDA, or a personal computer, or an information terminal.
  • An information terminal such as a mobile phone, a PDA, or a personal computer in which this program is installed can be used as a character display data generation device.
  • this program on a server and connecting the server and the above information terminal via a data link such as the Internet, the information terminal can be used to generate character display data even if this program is not installed. Can be used as
  • FIGS. 8A to 8C show how index images indicating selectable elements are scroll-displayed.
  • FIGS. 9A and 9B show a state where a part image showing a variation is scroll-displayed.
  • FIGS. 10A to 10D show how properties are displayed and selected. Shows how to select an action. Shows the menu display when photo use is selected.
  • FIGS. 15A and 15B show a state where a photograph and an avatar are displayed in an overlapping manner.
  • the other example of a display of an avatar maker is shown.
  • Another different display example of an avatar maker is shown.
  • a display example for selecting an element is shown.
  • the example of a display which selects a variation is shown.
  • the example of a display which selects a color is shown.
  • a display example for selecting another property is shown.
  • the example which displays an avatar in three dimensions is shown.
  • FIGS. 24A to 24C show examples of selection of closets.
  • FIGS. 25A to 25C show examples of background selection.
  • FIGS. 26A to 26C show examples of makeup selection.
  • An example of uploading avatar data by server communication is shown.
  • a typical character is an avatar, and an apparatus (avatar manufacturer or manufacturer) that generates data for avatar display (avatar data) will be described below.
  • a typical handy information processing terminal is a mobile phone.
  • FIG. 1 shows a schematic configuration of hardware of a terminal including the functions of the avatar maker 50 or a terminal (mobile phone) 1 that operates as the avatar maker 50.
  • the terminal 1 includes a camera 2 that is an imaging device, a camera interface 3 that controls the camera 2 to acquire captured image data, and a display (display device) 4 such as an LCD that displays data including images.
  • the display 4 includes the function of the touch panel 4a, and can select the content displayed by the finger and / or pen and can operate the display content.
  • the terminal 1 further includes a display interface 5 that controls the display 4, a user interface 8 that accepts data and control operations via cursor keys (scroll keys, navigation keys) 6, numeric keys 7, etc., a speaker 9, a microphone 10, and the like. And an audio interface 11 for inputting and outputting audio data via the.
  • the user interface 8 includes a function of selecting an item displayed on the display device 4 by an operation of the cursor key 6 or an operation input by the touch panel 4a.
  • the terminal 1 includes a control unit 14 including a CPU 12 and an image processing IC 13, and a storage 15.
  • a typical storage 15 is a flash memory, which may be another storage device such as an HDD (Hard Disk Device).
  • the terminal 1 includes a wireless communication interface 17, and can access or connect to an external data link wirelessly (including other than RF such as infrared rays) via the antenna 16.
  • a typical data ring is a computer network in which a large number of information terminals are connected via a public telephone network or the Internet.
  • the storage 15 includes a program (program product) 71 that causes the terminal 1 to function as the avatar maker 50 by executing, and data for displaying the character to be edited for displaying the character to be edited (data for avatar display, avatar data). 35) and a library 72 including part images displayed by the avatar maker 50 are stored.
  • the avatar data 35 to be edited may be prepared by default by the side providing the avatar maker 50, or may be avatar data stocked as an editing target by the user.
  • the voice interface 11 can include a function that causes the avatar maker 50 to select a terminal operation instruction by voice, for example, a scroll direction by voice. If there is no such need, functions such as the voice interface 11 are not necessary for the avatar maker 50.
  • FIG. 2 is a block diagram showing the functions of the avatar maker 50.
  • the avatar maker 50 edits or changes the display of the avatar 30 including the face 31 and the body 32 as shown in FIG. 3 to display data (character display data, From the avatar data) 35, data (edited character display data, edited avatar data) 75 for displaying a desired avatar is generated.
  • the avatar data 35 and 75 include data for displaying the body 32 in addition to data for displaying the face 31.
  • elements (items, part names) 36 that can be selected when the avatar data 35 is generated, the number of variations 37 of each element 36, and the presence or absence of properties such as colors that can be specified for each element are shown together.
  • “ ⁇ ” indicates that the variation or property of the element is valid and there are options
  • “X” indicates that the variation or property of the element is invalid and there is no option. It should be noted that the number of elements, variations, or properties and the presence / absence of options shown in these drawings are merely examples, and elements, variations, and / or properties can be added or deleted.
  • the properties are roughly classified into color designation (first property) 38 and designation other than color, for example, designation of enlargement / reduction, position, etc. (second property) 39.
  • first property designation
  • second property designation of enlargement / reduction, position, etc.
  • the properties 38 and 39 selectable for each of the selectable elements 36
  • the number of variations 37 for each element 36 can be greatly reduced.
  • the operation load for selecting the variation 37 can be greatly reduced.
  • the selected properties 38 and 39 are commonly applied to the variation 37, so that the avatar 30 having the desired properties 38 and 39 is displayed only by selecting the variation 37. it can.
  • This avatar maker 50 edits or changes an avatar image (avatar) 30 displayed by editing avatar data 35 including 14 types of selectable elements E1 to E14, thereby displaying a desired avatar. (Edited avatar data) 75.
  • the edited avatar data 75 may be edited or edited data or data being edited.
  • Element E1 is sex, and as variation 37, two patterns of men and women are prepared as parts. By selecting male and female, any part is selected as the body 32, and the basic shape of the body 32 changes. Furthermore, in the avatar maker 50, the T-shirt is the default clothing of the body 32, and the color of the T-shirt can be changed as the first property of the element E1.
  • the selectable elements E1 to E14 described in this specification are merely examples. For example, clothes can be included (added) to selectable elements, and the closet may be set as a new element.
  • the selectable elements 36, variations 37, and properties 38 are not limited to those described below.
  • Element E2 is a body shape. There is no variation in the body shape, and the second property 39 can be enlarged or reduced. Enlargement / reduction indicates that the cursor key 6 can be used to instruct a change in size in the vertical direction and a change in size in the horizontal direction. The balance between the face 31 and the body 32 can be changed by scaling the body shape in the vertical direction. By enlarging and reducing the body shape in the left-right direction, the body 32 can be made thicker or thinner.
  • Element E3 is a contour (the contour of the face 31).
  • variation 37 eight patterns of parts are prepared, and the skin color can be changed to six types as the first property 38.
  • the first property 38 is the same as the second property 39, but is stored as the property of the element E3, and the property set immediately before is applied in common regardless of which of the eight patterns of parts is selected. . The same applies to each of the following elements.
  • Element E4 is a hairstyle. As the variation 37, 72 patterns of parts are prepared, and the first property 38 can be changed to eight types of colors.
  • Element E5 is eyebrows.
  • the variation 37 12 patterns of parts are prepared, and the first property 38 can be changed to eight colors.
  • the second property 39 enlargement / reduction, rotation, and movement are prepared.
  • Enlarging / reducing includes specifying the enlargement / reduction of the size (display area) of the eyebrows (eyebrows as parts) and the enlargement / reduction of the distance between the eyebrows on both sides.
  • the rotation includes synchronizing the eyebrows on both sides and rotating in a symmetric direction, and the inclination of the eyebrows can be arbitrarily set.
  • Moving includes moving the positions of the eyebrows on both sides up and down in the face 31.
  • Element E6 is an eye.
  • the first property 38 can be changed to six types of colors.
  • the second property 39 enlargement / reduction, rotation, and movement are prepared.
  • Enlarging / reducing includes designating the enlargement / reduction of the size (display area) of the eyes (eyes as parts) and the enlargement / reduction of the distance between the eyes on both sides.
  • Rotating includes rotating in a symmetric direction in synchronization with the eyes on both sides, and the tilt of the eyes can be arbitrarily set.
  • Moving includes moving the positions of the eyes on both sides up and down in the face 31.
  • Element E7 is a nose.
  • the first property 38 can be changed to six types of colors. However, the color is linked to the color of the contour E3. Further, enlargement / reduction and movement are prepared as the second property 39.
  • Scaling includes scaling the size of the nose (the nose as a part). Moving includes moving the position of the nose up and down in the face 31.
  • Element E8 is a mouth.
  • Enlarging / reducing includes enlarging / reducing the size (display area) of the mouth (mouth as a part). Moving includes moving the position of the mouth up and down in the face 31.
  • Element E9 is a mustache.
  • variation 37 three patterns of parts are prepared, and four variations including the presence or absence of a mustache can be selected.
  • the first property 38 can be changed to eight colors.
  • enlargement / reduction and movement are prepared as the second property 39.
  • Enlarging / reducing includes specifying an enlargement / reduction of the size (display area) of a mustache (mustache as a part) and an enlargement / reduction of only the width (length). Moving includes moving the mustache position (display position) up and down in the face 31.
  • Element E10 is a mustache.
  • variation 37 three patterns of parts are prepared, and four variations including the presence or absence of a beard can be selected.
  • the first property 38 can be changed to eight colors.
  • enlargement / reduction is prepared as the second property 39.
  • Enlarging / reducing includes designating the enlargement / reduction of the size (display area) of the beard (the mustache as a part) and the enlargement / reduction of only the width (length).
  • Element E11 is a mole.
  • variation 37 one pattern of parts is prepared, and two variations including the presence or absence of a mole can be selected. Further, enlargement / reduction and movement are prepared as the second property 39.
  • Enlarging / reducing includes enlarging / reducing the size (display area) of a mole (a mole as a part). Moving includes moving the mole position (display position) up and down, left and right within the face 31, and can move the mole to a desired position within the face 31.
  • Element E12 is glasses and sunglasses.
  • variation 37 5 patterns of glasses and 3 patterns of sunglasses are prepared, and nine variations including presence or absence can be selected.
  • the colors glass frame color and sunglasses color
  • enlargement / reduction and movement are prepared as the second property 39.
  • Enlarging / reducing includes enlarging / reducing the size (display area) of glasses (glasses as a part). The movement includes moving the position (display position) of the glasses up and down in the face 31.
  • Element E13 is an expression of face 31 and the like.
  • As variation 37 12 patterns of parts are prepared, and 13 variations including presence or absence can be selected. Although the color can be changed to six types as the first property 38, it is linked with the contour E3.
  • the 12 patterns of parts include expressions showing the appearance of the cheeks being depressed or the cheeks being swollen.
  • Element E14 is an action.
  • seven patterns of movement are prepared, and avatar data 35 for displaying the moving avatar 30 can be generated.
  • action patterns are: female default movement, male default movement, sloppy movement, movement showing farewell, movement showing guts pose, movement showing a bouquet, movement showing anger.
  • the avatar 30 repeats the movement pattern.
  • the avatar maker 50 generates avatar data 75 for displaying an avatar (avatar image) 30 expressed by a combination of these selectable elements E1 to E14 in accordance with the user's wishes.
  • the avatar maker 50 includes a character display unit 51 that displays an image based on the avatar data (character display data) 35 in the character display area 29 of the display (display device) 4 and an editing unit (manually editing the avatar 30).
  • An editor) 52, an automatic editing unit 53 that automatically generates avatar data 35 from the captured data (photograph), and the edited avatar data 35 is stored in the storage 15, or a two-dimensional image such as GIF from the avatar data 35.
  • a storage / output unit 54 for generating data is provided.
  • the editing unit 52 scrolls at least a part of at least one of the plurality of selectable elements E1 to E14 including a plurality of parts on the display device 4, and can be selected by the user interface 8 including the cursor key 6. To. Furthermore, the editing unit 52 selects one variation displayed at a predetermined position, for example, the center of the scroll display, from among the plurality of variations 37 displayed in the scroll display. Furthermore, the avatar image 30 of the character display data 35 reflecting the selected variation 37 is displayed in the character display area 29 by the character display unit 51, and the variation 37 reflected in the display is selected.
  • the editing unit 52 includes a first display selection unit 56 that displays a plurality of index images (a plurality of first images) respectively indicating a plurality of selectable elements 36 and a plurality of variations.
  • 37 includes a second display selection unit 57 that displays a plurality of part images (a plurality of second images) 37 respectively, and a third display selection unit 58 that displays and selects properties.
  • the first display selection unit 56 indicates a plurality of selectable elements 36 in the first scroll area 21 arranged along the first direction (vertical direction) outside the rectangular character display area 29.
  • a plurality of index images 61 are scroll-displayed.
  • the second display selection unit 57 is placed outside the character display area 29 in the second scroll area 22 arranged along the second direction (lateral direction), at a predetermined location in the first scroll area 21.
  • a plurality of part images 62 each showing a plurality of variations of one displayed selectable element are displayed so as to be scrolled.
  • the second scroll area 22 is arranged so as to partially intersect the first scroll area 21, and the second display selection unit 57 includes the first scroll area 21 and the second scroll area 21.
  • a plurality of variations 37 of one selectable element 36 displayed at the place 28 where the scroll area 22 intersects is displayed to be scrolled.
  • the scroll direction (vertical direction) of the first scroll area 21 and the scroll direction (horizontal direction) of the second scroll area 22 coincide with the scroll direction by the cursor key 6. Therefore, the index image 61 displayed in the first scroll area 21 can be scrolled by operating the up and down keys 6a and 6c of the cursor key 6, and the second scroll area 22 can be operated by operating the left and right keys 6b and 6d.
  • the part image 62 displayed on the screen can be scrolled.
  • the second display selection unit 57 selects the variation displayed in the center 27 of the second scroll area 22 and reflects the selected variation 37, that is, the part of the selected variation 37 is displayed.
  • the included avatar 30 is displayed in the character display area 29.
  • edited avatar data (data being edited) 75 in which the part of the variation 37 reflected in the displayed avatar 30 has been selected is generated.
  • the avatar data 75 being edited and the avatar data 35 stored in the storage (memory) 15 are basically the same and are managed by a file management system supported by the OS of the terminal 1. There is only a difference.
  • the edited avatar data 75 is stored in the storage 15 by the storage / output unit 54 as character display data reflecting the selected variation, or output to a server or the like.
  • the edited avatar data 75 stored in the storage 15 can be used as the avatar data 35 to be edited at the next opportunity. Therefore, the edited or edited avatar data 75 and the pre-edited avatar data 35 are generally different in character displayed by the data, but the type of information included for displaying the character The structure is common. For this reason, in this specification, items common as character display data may be described using the avatar data 35 as an example.
  • the third display selection unit 58 displays the properties 38 and 39 common to the plurality of variations of the selectable element 36 for which the variation 37 is selected on the outside of the character display area 29 of the display device 4 so that selection is possible.
  • the third display selection unit 58 displays an up / down / left / right selection icon 26 corresponding to the cursor key 6 on the first scroll area 21 and selects a color below the second scroll area 22.
  • An icon 25 for displaying is displayed.
  • the third display selection unit 58 includes a first function (functional unit) 58a.
  • the first function 58a displays a size on the icon 26 for a plurality of face parts constituting a part of the face, and includes a cursor key. 6 is used to change the size (display area and / or display width) of the selected face part.
  • the third display selection unit 58 includes a second function 58b.
  • the second function 58b displays the vertical movement direction on the icon 26, and the cursor key 6 is used to change the vertical position of the selected face part.
  • the third display selection function 58 includes a third function 58c, and when the eye or eyebrow variation is selected, the third function 58c displays a moving direction in which the interval is narrowed and widened on the icon 26. The interval between the eyes or the selected eyebrows is made variable by the cursor key 6.
  • the third display selection function 58 further includes a fourth function 58d.
  • the fourth function 58d displays a rotating direction on the icon 26 when a variation of eyes or eyebrows is selected. The inclination of the eyes on both sides being selected or the inclination of the eyebrows on both sides being selected are made variable in synchronization.
  • the third display selection unit 58 includes a function 58e for displaying the color selection icon 25 and setting the color of the part whose variation is being selected.
  • selectable colors color display
  • the cursor key 6 is used for scrolling, the color of the part of the variation 37 being selected for the avatar 30 displayed in the character display area 29 is changed to the color shown in the center 25 c of the icon 25. It is saved as the first property 38 of the element 36 being selected.
  • the automatic editing unit 53 when the avatar maker 50 is activated, “create avatar with reference to a photo” is selected.
  • the automatic editing unit 53 automatically generates the avatar data 35 to be edited from the photographic image data 73 acquired by the camera interface 3 or the photographic image data 73 previously stored in the storage 15.
  • the character display unit 51 includes a function for displaying an avatar (avatar image) 30 based on the avatar data 35 on the image of the photo data 73 in the character display area 29. Therefore, the user selects a part prepared as a variation of the selectable elements E1 to E14 while referring to the photo, edits the avatar image 30, and displays the edited avatar image 30.
  • Data 75 can be generated.
  • the save / output unit 54 includes a function for outputting and storing (saving) the avatar data 75 being edited or edited in the storage system 15 in a state where the file system can be managed. Further, it includes a function of converting the avatar data 35 stored in the storage or the avatar data 75 being edited into image data 79 having a format common to other applications such as GIF and JPEG and outputting the image data 79.
  • the storage / output unit 54 includes a function of converting the avatar data 75 into material or pictographic data that can be displayed in a state where the data is included as an e-mail content.
  • the storage / output unit 54 includes a function of converting the data into data that can be displayed as an avatar in another application such as a game. Further, the storage / output unit 54 uses the wireless interface 17 to send the edited avatar data 75 to the server for conversion in order to convert the avatar data 75 into data for a desired application such as a game or mail. The function to output to is included.
  • FIG. 6 is a flowchart showing an outline of operations in the avatar maker 50.
  • the avatar data 75 for displaying the desired avatar 30 can be generated by a method according to this flowchart.
  • the first menu is displayed in step 81, and “new creation” and “saved data editing” can be selected.
  • the first menu may further include other options such as “Saved data output”, “Server communication”, and the like.
  • “stored data output” is selected, the function of converting the avatar data 75 is activated by the storage / output unit 54.
  • server communication is selected, a function of connecting to an external server or the like via the wireless interface 17 and downloading avatar data from the server or uploading avatar data to the server is activated.
  • a function for selecting the avatar data 35 stored in the storage 15 is activated in step 82, and the selected avatar data 35 becomes the avatar data 35 to be edited.
  • “Create New” a menu as shown in FIG. 7 is displayed, “Create an avatar without using a photo”, “Create an avatar with reference to a photograph taken with a camera”, and “Data BOX “Create avatar with reference to photos” can be selected.
  • “Create avatar without using a photo” is selected in step 83, default avatar data is set as avatar data 75 being edited in step 84. The case of using photos will be explained later.
  • the editing unit 52 When the avatar data 35 to be edited is set, the editing unit 52 is activated and generation (editing) of the avatar data 75 starts. Therefore, hereinafter, it is shown how the edited (editing) avatar data 75 is edited (changed) by editing or changing the avatar 30 displayed thereby.
  • step 85 the avatar 30 is displayed in the character display area 29 of the display device 4 by the avatar data 75 being edited.
  • an area 41 for displaying a telop indicating an operation procedure of the avatar maker 50 and an area 42 for displaying an operation switching icon are provided below the character display area 29 of the display device 4.
  • a menu icon 43 is displayed in the area 42, and when the menu icon 43 is clicked during editing, a process included in the menu can be selected.
  • the save / output unit 54 can be activated by selecting save / output from the menu.
  • a method for saving / outputting the avatar data 75 being edited in step 87 can be selected.
  • the avatar data 75 being edited can be saved or output as the edited (after editing) avatar data 75 by the selected method. For example, by storing the avatar data 75 in the storage 15, the editing of the avatar data 75 can be finished. It is also possible to convert the avatar data 75 being edited into image data that can be used by another application and output it.
  • the first display selection unit 56 displays the plurality of index images 61 so as to scroll (see FIGS. 8A to 8C).
  • the first display selection unit 56 includes a plurality of index images each indicating a plurality of selectable elements 36 in the first scroll region 21 arranged to extend in the vertical direction on the right side of the rectangular character display region 29. 61 is scroll-displayed.
  • the plurality of index images 61 scroll-displayed in the vertical direction are icons or images for showing the selectable elements 36, in this example, the elements E1 to E14 so as to be visually easy to understand.
  • the index image 61 of the sex E1 is an icon of two faces with different hairstyles
  • the index image 61 of the body shape E2 is an icon of two bodies with different body shapes
  • the index image 61 of the hairstyle E4 is only hair Are pasted icons, and these are prepared in the library 72 in advance.
  • the index image 61 moves (scrolls) from top to bottom and from bottom to top.
  • step 92 the element (selectable element) 36 indicated by the index image 61 displayed in the intersecting frame 28 of the first scroll area 21 is slightly enlarged, and the selection key 6e at the center of the cursor key 6 is not operated. However, it is automatically selected (selected state).
  • the sex E1 among the plurality of selectable elements 36 is being selected, and in FIG. 8C, the figure E2 is being selected.
  • the second display selection unit 57 displays the plurality of part images 62 so as to scroll (see FIGS. 9A and 9B).
  • the second display selection unit 57 includes a plurality of selectable elements 36 selected in the first scroll area 21 in the second scroll area 22 arranged along the left-right direction below the character display area 29.
  • a plurality of part images 62 each indicating the variation 37 are scroll-displayed.
  • FIG. 9A among the index images 61 scroll-displayed in the vertical direction, the index image 61 indicating the hairstyle E4 is being selected. For this reason, as shown in FIG.9 (b), the parts image 62 which shows the variation 37 of the hairstyle E4 is scroll-displayed in the horizontal direction.
  • the second scroll area 22 showing the part image 62 of the variation is arranged so that a part thereof intersects the first scroll area 21 showing the index image 61 of the selectable element (element) 36.
  • the element 36 of the index image 61 displayed in the intersecting portion 28 is being selected, and the variation 37 is scroll-displayed by the second display selection unit 57.
  • the index image 61 is scrolled up and down by operating the up and down direction keys 61a and 61c of the cursor key 6, the selected index image 61 displayed in the intersecting portion 28 is changed. Therefore, only by operating the up and down direction keys 61a and 61c of the cursor key 6, the part image 62 displayed so as to extend in the horizontal direction from the intersecting portion 28 is automatically changed so that the variation 37 can be selected.
  • the plurality of part images 62 that are scroll-displayed in the second scroll region 22 in the horizontal direction are part images respectively showing a plurality of patterns prepared as variations in the selectable element 36.
  • 72 patterns of part images 62 are prepared in the library 72.
  • four part images 62 are displayed side by side in the second scroll region 22, and by operating the left and right keys 6 b and 6 d of the cursor key 6, the part images are displayed. 62 can move (scroll) from left to right and from right to left, and display all the remaining part images 62.
  • step 94 the part image 62 displayed in the frame 27 at the substantially center of the second scroll area 22 is slightly enlarged and displayed. Therefore, even if the selection key 6e at the center of the cursor key 6 is not operated, the pattern (one variation) of the part image 62 is automatically selected (selected state).
  • FIG. 9B a waved hairstyle is being selected from the part images 62 showing a plurality of variations 37.
  • the displayed avatar 30 reflects the selected variation at substantially the same time as the part image 62 displayed in the frame 27 of the second scroll area 22 is enlarged and selected. It turns into a thing. That is, the hairstyle of the avatar 30 displayed in the character display area 29 is also changed to the same pattern as the part image 62, that is, a waved hairstyle, and the display of the avatar 30 can be changed or edited. Also in the avatar data 75 being edited, for the hairstyle E4, the part image 62 being selected and the pattern of the part image 62 included in the displayed avatar 30 is already selected.
  • the index image 61 is scrolled by the up and down keys 6a and 6c of the cursor key 6, and the part image 62 is scrolled by the left and right keys 6b and 6d of the cursor key 6, so that the selection key 6e is not operated.
  • the avatar 30 in which desired ones are combined from the plurality of variations 37 of the plurality of selectable elements 36 can be displayed.
  • the avatar data 75 for displaying the edited avatar 30 can be generated by changing or editing the display of the avatar 30.
  • the user of the avatar maker 50 can enjoy changing the display of the avatar 30 only by operating the cursor key 6 and scrolling the images 61 and 62 vertically and horizontally.
  • a selectable element 36 and a variation 37 for changing the avatar 30 are displayed on the outside of the character display area 29 where the avatar 30 is displayed in a state that is easily understood visually by the index image 61 and the part image 62. . Therefore, the user can intuitively understand the variation 37 being selected and the variation 37 that can be selected next by scrolling. It is possible to intuitively grasp the selectable element 36 being selected and the selectable element 36 that can be selected next.
  • selectable part images 62 are arranged, displayed in a state where selectable parts are extracted in the part image 62, and further in the center selection area 27 being selected. The part of is enlarged and displayed. Therefore, a minute difference in patterns prepared as variations can be easily grasped by comparing the part images 62 displayed side by side. For this reason, the user can select the part more suitable for his image, sensitivity, and atmosphere, and can change the display of the avatar 30.
  • step 96 the third display selection unit 58 determines the possibility of editing the properties 38 and 39 of the selectable element 36 whose variation is being selected by the second display selection unit 57.
  • the third display selection unit 58 determines whether the properties 38 and 39 that can be changed to the elements 36 of the index image 61 displayed in the intersecting area 28 are included. If there is a selectable property 38 or 39, in step 97, a display for selecting the property is displayed.
  • the index image 61 of the element E6 (eyes) is being selected in the intersection region 28, and one part image 62 of the pattern included in the eye variation is being selected.
  • a color can be selected as the first property 38, and scaling, rotation, and movement can be selected as the second property 39.
  • the third display selection unit 58 first displays the color selection icon 25 below the second scroll region 22.
  • step 98 when the selection key 6e of the cursor key 6 is operated, the variation 37 of the part image 62 displayed in the selection area 27 of the second scroll area 22 is fixed and already selected. At the same time, the operation target of the cursor key 6 moves to the color selection icon 25. If the up and down keys 6a and 6c are operated without operating the selection key 6e of the cursor key 6, the index image 61 is scrolled and a different selectable element 36 is being selected. If the left and right keys 6b and 6d are operated without operating the selection key 6e of the cursor key 6, the part image 62 scrolls and a different variation 37 is being selected.
  • step 99 when the operation target of the cursor key 6 moves to the color selection icon 25, an arrow icon indicating that scrolling is possible is superimposed on the icon 25 as shown in FIG. The color located in the window 25c is being selected.
  • step 100 the avatar 30 in which the color of the selected part is changed to the selected color is displayed in the character display area 29, and the display of the avatar 30 is changed.
  • FIG. 10A the avatar 30 whose eye color has changed is displayed by scrolling the color selection icon 25 with the left and right keys 6b and 6d of the cursor key 6.
  • the first property (color) 38 reflected in the display of the avatar 30 is selected and saved in the avatar data 75 being edited.
  • step 99 when the selection key 6e of the cursor key 6 is operated, the color selection is completed. If there are other properties that can be selected, the same display and selection as described above are repeated, so that other properties are selected. Make a selection.
  • the element E6 (eyes) can be enlarged / reduced, rotated and moved. Therefore, as shown in FIGS. 10A and 10B, an arrow indicating vertical movement and rotation is displayed on the icon 26 corresponding to the cursor key on the upper side of the first scroll area 21.
  • the selected part can be moved up and down and rotated.
  • the operation of the cursor key 6 is reflected in the display of the parts (eyes) of the avatar 30 displayed in the character display area 29.
  • the up and down keys 6a and 6c of the cursor key 6 are moved, the eyes displayed on the face 31 of the avatar 30 move up and down.
  • the left and right keys 6b and 6d of the cursor key 6 are moved, the eyes displayed on the face 31 of the avatar 30 rotate inward and outward.
  • these properties 39 reflected in the display of the avatar 30 are selected and stored in the avatar data 75 being edited.
  • an “operation switching” icon 44 is displayed in the area 42.
  • the display of the icon 26 can be switched as shown in FIG.
  • an arrow indicating the size (display area) enlargement / reduction and an arrow for increasing / decreasing the distance between the eyes on both sides which are the selected parts are displayed.
  • the operation of the cursor key 6 is reflected in the display of the parts (eyes) of the avatar 30 displayed in the character display area 29.
  • the up / down keys 6a and 6c of the cursor key 6 are moved, the size of the eyes displayed on the face 31 of the avatar 30 changes.
  • the left and right keys 6b and 6d of the cursor key 6 are moved, the distance between both eyes displayed on the face 31 of the avatar 30 is changed.
  • these properties 39 reflected in the display of the avatar 30 are selected and stored in the avatar data 75 being edited.
  • FIG. 10D shows a display of an icon 26 indicating a cursor key operation when another element E2 (body type) is being selected.
  • the element E2 (body shape) has no variation, and if the index image 61 indicating the body shape is held in a state displayed in the intersection area 28 (no scrolling for about several tens of ms), the element E2 (body shape) is being selected. become. Alternatively, even when the selection key 6e of the cursor key 6 is operated, the element E2 (body type) can be selected. The same applies to other elements.
  • the ratio between the face 31 and the body 32 is changed with the display that the body shape is fat and thin. Display. Therefore, when the up / down keys 6a and 6c of the cursor key 6 are moved, the thickness of the body 32 of the displayed avatar 30 changes. When the left and right keys 6b and 6d of the cursor key 6 are moved, the balance between the face 31 and the body 32 of the displayed avatar 30 changes. At the same time, these properties 39 reflected in the display of the avatar 30 are selected and stored in the avatar data 75 being edited.
  • FIG. 11 shows a state where the variation 37 of the element E14 (action) is selected.
  • an index image 61 indicating an action is displayed in the intersection area 28
  • a part image 62 indicating a variation of the action is displayed in the second scroll area 22.
  • the action of the part image 62 displayed in the selection area 27 is being selected, and the avatar 30 displayed in the character display area 29 starts to move the action being selected.
  • the avatar 30 shown in FIG. 11 performs an angry action, moves both hands up and down, and moves the face 31 back and forth (makes it appear to move back and forth).
  • Such a movement typically includes, in the avatar data 35, data (bone data) indicating the connection of a rod-shaped link member called a bone corresponding to the bone of the human body and a skin corresponding to the skin of the human body.
  • data skin data
  • various actions can be displayed by displaying the avatar 30 on the bone data with skin data indicating the surface of the human body covered.
  • the part image 62 of the variation 37 of the element E14 instructs to select one of several sets of bone data prepared in advance in the library 72, and the variation 37 of the other element 36 is prepared in advance in the library 72. Instructs the generation of skin data by the combination of the patterns. Accordingly, by preparing bone data in advance, various movements can be given to the avatar 30. Further, by increasing the variation of bone data that can be selected by the avatar maker 50 through server communication or the like, the data 35 for displaying the avatar 30 performing various movements can be easily generated.
  • Step 83 when “Create avatar with reference to photograph taken by camera” shown in FIG. 7 is selected, a menu for selecting a camera as shown in FIG. 12 is displayed on display 4 in Step 101. In this menu, an out camera and an in camera can be selected. By using the in-camera, the user can create an avatar with reference to a photograph of his / her face. By using an out-camera, an avatar can be created with reference to another person's face photo.
  • step 110 a photograph is taken using a camera, and in step 111, the image is stored. Images are stored in a general-purpose folder such as My Picture.
  • step 112 the image storage state is confirmed, and in step 113, clipping is performed.
  • step 113 as shown in FIG. 14, an operation for matching the contour of the face included in the photograph is performed.
  • the automatic editing unit 53 is activated and the cut face image is automatically analyzed. An appropriate variation 37 and properties 38 and 39 of each selectable element 36 are selected by the automatic editing unit 53, and avatar data 75 is automatically generated.
  • step 103 the analysis source photograph 34 and the avatar 30 based on the automatically generated avatar data 75 are set to be displayed in the character display area 29 in an overlapping manner.
  • the avatar 30 is displayed on the photo 34 so that the user can intuitively compare the photo 34 and the avatar 30 generated with reference to the photo 34. Further, the user can perform the above-described editing work (editing operation) while comparing the photograph 34 and the avatar 30 in a superimposed state.
  • FIG. 15 (b) it is possible to switch between overlapping display and displaying only the avatar 30 in the character display area 29. Further, although not shown in the drawing, it is possible to display the photograph 34 on the avatar 30 in a semi-transparent state or to display only the photograph 34, and the display can be arbitrarily switched by the user. is there.
  • the system for displaying the avatar 30 and the photo 34 in an overlapping manner is not limited, typically, a system in which a plurality of display layers are set in the character display area 29 can be adopted.
  • One display layer can be assigned to the display of the avatar 30 and the other display layer can be assigned to the display of the photograph 34.
  • the avatar 30 and the photograph 34 are singly or simply overlapped, and in various states. It can be displayed overlaid.
  • the arrangement of the scroll areas 21 and 22 and the arrangement of the icons 25 and 26 for selecting properties are not limited to the above.
  • the icon 25 may be disposed on the second scroll area 22. Further, as shown in FIG. 17, the icon 25 may be arranged in the vicinity of the first scroll area 21.
  • the arrangement shown in FIG. 17 is suitable when a rectangular display device 4 of a mobile phone is used in landscape orientation. Therefore, it is automatically detected whether the display device 4 of the cellular phone is used in the portrait or landscape orientation. When the display device 4 is used in the landscape orientation, the layout automatically changes to the arrangement shown in FIG. When used in the above, a function that automatically changes to the arrangement shown in FIG. 16 may be added.
  • the avatar maker 50 displays the avatar 30 by default avatar data, saved avatar data, or automatically generated avatar data, and displays the desired avatar 30 by editing the avatar 30.
  • the avatar data 75 to be generated is generated. Therefore, it is not a type of generation device that selects and adds each one of the avatars 30 from a state where there are no parts or items.
  • the avatar 30 in a state where one of the variations 37 of each selectable element 36 is selected is always displayed in the character display area 29. For this reason, the user can always grasp the entire avatar 30 being edited or generated.
  • the user can intuitively grasp whether or not the user is approaching the avatar 30 desired by the user.
  • this avatar maker 50 employs an editing function (editing method) in which selectable elements and variations thereof are scroll-displayed, and variations displayed at predetermined positions are being selected. For this reason, one variation displayed in a predetermined position, for example, the selection area 27 is always selected, and the avatar 30 including the selected variation (part image) 62 can be displayed. Further, by scrolling the part image 62, the selected variation can be easily changed. For this reason, the change of the avatar 30 being edited can be grasped intuitively (visually), and the result is stored in the avatar data 75 being edited.
  • editing function editing method
  • the variation (part image) 62 of the avatar 30 reflected in the display is automatically selected, so that the selected variation can be performed without performing the selection operation with the selection key 6e of the cursor key 6.
  • Avatar data 75 reflecting the above is generated. For example, using the up / down or left / right direction keys of the cursor key 6, the variation 37 that was being selected for the previous selectable element 36 is selected only by selecting the variation 37 for the next selectable element 36. The data is saved in the avatar data 75 being edited. For this reason, the user can display the avatar 30 reflecting the user's intention by simply selecting the variation 37 for the selectable elements 36 one after another, and the avatar data 75 for displaying the avatar 30 is displayed. Can be generated.
  • first scroll area 21 for scrolling the index image 61 and the second scroll area 22 for scrolling the part image 62 are arranged so as to be orthogonal to each other.
  • first scroll area 21 and the second scroll area 22 may be reversed.
  • the left and right keys 6b and 6d can be used to scroll through the index image 61 and select different selectable elements 36.
  • part image 62 can be scrolled by the up and down keys 6a and 6c of the cursor key 6 to select different variations 37.
  • the user selects a desired part and freely selects the avatar 30 simply by selecting the up / down and left / right scroll directions by using the cursor keys 6 that are used frequently for mobile phones and the like. You can edit freely.
  • a selection function selection method for scrolling and displaying the index image 61 and the part image 62
  • a large number of variations can be displayed on a portable information terminal such as a cellular phone with a small displayable area.
  • the index image 61 and the part image 62 show the characteristics of a certain part of the avatar, it is easy to visually understand the variation during selection and before and after the selection by these images.
  • the variation 37 currently selected and the variation 37 which can be selected next by scrolling can be grasped
  • the selectable element 36 being selected and the selectable element 36 that can be subsequently selected are also easily understood. For this reason, the display gives the user an opportunity to make an appropriate selection.
  • scroll regions 21 and 22 are arranged so as to surround the character display region 29, a narrow display area can be efficiently used, the area of the character display region 29 can be secured, and the avatar 30 being edited is enlarged. Can be displayed.
  • the editing unit 52 of the avatar maker 50 includes properties 38 and 39 in addition to the first display selection unit 56 for selecting the selectable element 36 and the second display selection unit 57 for selecting the variation 37.
  • a third display selection unit 58 for selecting is provided. For this reason, the pattern of the variation 37 to be selected by the second display selection unit 57 does not need to include contents common to the variation 37 of one selectable element 36 such as color and position. Therefore, the pattern to be selected by the second display selection unit 57 being scroll-displayed can be reduced, and the software required for selection and the load on the user can be reduced.
  • the avatar maker 50 includes a function specialized for generating the avatar 30 including the face 31.
  • the eyes and eyebrows change their expressions with wide and narrow intervals, and the expressions change by changing the inclination. Therefore, not only can the display area and display position of the parts be made variable, but also the selection and adjustment including the interval and inclination can be made, and the avatar 30 with more expressions can be displayed.
  • the data 75 for displaying the avatar 30 of such an expression can be produced
  • the avatar maker 50 can process the avatar data 35 and 75 including data for displaying at least a part of the body 32 in addition to the face 31. Furthermore, the avatar 30 with movement (action) can be displayed by the avatar data 35 and 75.
  • the avatar data 35 and 75 includes multi-node bone data for expressing an action and skin data associated with the nodes of the bone data.
  • the avatar data 35 and 75 have various movements by combining them, and have various expressions.
  • 30 can be displayed.
  • the avatar maker 50 can generate the avatar data 75 for displaying the avatar 30 that makes such a movement by editing the avatar 30 so as to make a desired movement.
  • the avatar maker 50 can generate data 75 that displays the avatar 30 performing different actions by selecting a desired one from a set of several bone data.
  • the avatar maker 50 can display the avatar 30 in a superimposed manner on another image, typically a photographic image 34, in the character display area 29. For this reason, it is possible to edit the avatar data 35 (75) while referring to the photographic image 34, and it is possible to easily generate the data 35 (75) for displaying the avatar 30 in which the user's own face is deformed.
  • FIG. 18 is a block diagram showing different examples of avatar makers.
  • the avatar maker 50a also edits or changes the display of the avatar 30 to display data (character display data, avatar data) 35 for displaying a character before editing from the data (edit) for displaying a desired avatar. Character display data and edited avatar data) 75 are generated. Therefore, about the structure and function which are common with said avatar maker 50, a common code
  • the touch panel 4a is enabled. Therefore, each function of the avatar maker 50 a can be operated with the finger 4 f in addition to the cursor 6 or instead of the cursor 6. You may operate with a touch pen instead of the finger 4f.
  • the first display selection unit 56 scrolls the index image 61 up and down when the first scroll area 21 is flicked up and down by the finger 4f.
  • the second display selection unit 57 scrolls the part image 62 when the second scroll area 22 is flicked left and right with the finger 4f.
  • the third display selection unit 58x selects each function when the button of the up / down / left / right selection icon 26 corresponding to the cursor key is tapped with the finger 4f.
  • the first display selection unit 56 determines the selectable element 36 (selected)
  • the second display selection unit 57 determines the variation 37 (selected). To do.
  • the first display selection unit 56 can select the variation 37 by setting the index image (selectable element) 61 corresponding to the part in the intersection frame 28. Like that.
  • the character display unit 51 changes the size of the character display area 29 in the display 4 when the character display area 29 is pinched with the finger 4f, or changes the size of the avatar 30 displayed in the character display area 29. Can be. When the size of the avatar 30 does not fit in the character display area 29, the character display unit 51 scrolls the avatar 30 when the character display area 29 is flicked with the finger 4f.
  • the operation of the avatar maker 50 with these fingers 4f is an example, and is not limited to these.
  • the upper part of the character display area (avatar display frame) 29 of the display 4 is a caption frame 41.
  • the help function 59 of the editing unit 52 displays a message suggesting items that can be operated by the user at each stage of editing and an error message.
  • an intersection (intersection frame) 28 between the first scroll area 21 and the second scroll area 22 indicates an index image 61 of a selectable element being selected, and a variation being selected. It also serves as a selection frame 27 showing 37 part images 62.
  • the avatar maker 50a includes third display selection units 58x and 58y.
  • the third display selection unit 58 x uses the cursor display 26 to display and select the property 39.
  • the third display selection unit 58y displays the property 38 using the second scroll area 22, and selects the property 38 displayed in the intersection frame 28.
  • the third display selection unit 58y includes a function 58e for selecting the part color.
  • the third display selection unit 58x can select the property 39 by displaying the cursor display 26 below the character display area 29 instead of displaying the first scroll area 21 and the second scroll area 22. . Further, in the element 36 that requires a plurality of cursor displays 26x and 26y to select the property 39, for example, eyebrows (E5) and eyes (E6), a plurality of cursor displays 26x and 26y are displayed. Then, one cursor display 26x is enlarged and displayed, and the selection by the cursor display 26x is validated. For this reason, the user can understand items that can be selected as the property 39 at a glance without switching the screen.
  • the avatar maker 50a can edit the avatar data 35 for displaying the face 31 and the body 32 in three dimensions (3D), and generate avatar data 75 for displaying a desired 3D avatar.
  • the editing unit 52 includes a unit 120 that displays the avatar 30 in three dimensions.
  • buttons 124, 125, and 126 for controlling the direction in which the avatar 30 is displayed in the character display area 29 are displayed on the left and right and lower sides of the character display area 29.
  • 19 to 23 show how the avatar 30 is edited by the avatar maker 50a and the avatar data 75 is generated.
  • the flow of processing for generating the avatar data 75 is as shown in the flowchart of FIG.
  • a plurality of index images 61 are displayed in the first scroll area 21 next to the character display area 29 of the display 4 so as to scroll up and down.
  • the index image 61 is enlarged and displayed in the lower frame 28 of the character display area 29 and the index image 61 is selected by the finger 4f or the cursor key 6, the element 36 is being selected. If the index image 61 displayed in the intersecting frame 28 does not change for a predetermined time, the selectable element 36 of the index image 61 displayed in the intersecting frame 28 is being selected.
  • the second scroll area 22 below the character display area 29 of the display 4 extends to the left from the intersection frame 28.
  • a plurality of part images 62 are displayed on the left and right.
  • the plurality of part images 62 are displayed so as to scroll left and right with the finger 4 f or the cursor 6.
  • the scrolled part image 62 shows a variation 37 of the selectable element 36 selected by the intersecting frame 28.
  • the parts image 62 is enlarged and displayed in the intersecting frame 28 with the first scroll area 21, and the intersecting frame 28 becomes the selection frame 27.
  • the variation 37 is being selected. If the part image 62 displayed in the intersection frame 28 does not change for a predetermined time, the variation 37 of the part image 62 displayed in the intersection frame 28 is being selected. At the same time, the corresponding part of the avatar 30 displayed in the character display area 29 is changed to the part displayed in the intersection frame 28.
  • the plurality of properties 38 of the selected variation 37 are scroll-displayed in the second scroll display area 22 by the third display selection unit 58y.
  • selectable colors (color display) 63 of the parts are scroll-displayed in the second scroll region 22.
  • the color of the corresponding part of the avatar 30 displayed in the character display area 29 is changed to the color 63 shown in the intersection frame 28. If the color of the intersection frame 28 is selected by the finger 4f or the cursor key 6 or if the color 63 displayed on the intersection frame 28 does not change for a predetermined time, the color 63 displayed on the intersection frame 28 is being selected. Further, the variation 37 and the property (color) 38 of the selected part are stored in the avatar data 75 being edited.
  • icons 26x and 26y corresponding to the cursor keys are displayed below the character display area 29 of the display 4.
  • the display of the first scroll area 21 and the second scroll area 22 is once erased, and the icons 26x and 26y are displayed instead.
  • an operation switching icon 44 is displayed in the area 42 at the lower end of the display 4. The operation of each icon 26x and 26y and how the parts of the avatar 30 are changed by the operation are as described with reference to FIG.
  • An effective icon can be selected from the icons 26x and 26y by the operation switching icon 44, and the effective icon is displayed in a large size.
  • the avatar 30 in the character display area 29 can be rotated and displayed.
  • a part such as the hairstyle (E4) variation 37 that cannot be identified in three dimensions when viewed from the front alone, it is desirable to rotate the avatar 30 to display the side and back.
  • the avatar 30 can be rotated to the right by tapping the left button 124 of the character display area 29 with the finger 4f or the number “4” of the numeric keypad 7, and the left side and the back can be displayed.
  • the avatar 30 can be rotated to the left by tapping the right button 126 of the character display area 29 with the finger 4f or the number “6” of the numeric keypad 7, and the right side and the back can be displayed.
  • the avatar 30 can be displayed facing the front by tapping the lower button 125 of the character display area 29 with the finger 4 f or tapping the number “5” of the numeric keypad 7.
  • An example of the avatar data 35 and 75 for displaying the avatar 30 in three dimensions includes data (bone data) indicating connection of a rod-shaped link member called a bone corresponding to a human bone, and three-dimensional data corresponding to a human skin.
  • Data indicating skins (skin data). 3D human movement can also be provided by bone data.
  • the three-dimensional avatar 30 can be displayed by displaying the avatar 30 in a state where the bone data is covered with the three-dimensional skin data indicating the surface of the human body.
  • the avatar 30 that performs various actions in three dimensions can be displayed.
  • numeric keypad 7 in addition to the above numeric keys, other keys can be used for the operation of the avatar maker 50a.
  • the clear key can be used to return to the previous edit item.
  • the end key can be used to end the avatar maker 50a.
  • FIGS. 24 to 26 show examples of selectable elements 36 added by the avatar maker 50a.
  • One of the selectable elements 36 added by the avatar maker 50a is clothes of the avatar 30 (hereinafter referred to as a closet).
  • FIGS. 24A to 24C show some of the variations 37 prepared under the theme “Sheep Butler”, which is one of the variations (themes, items) prepared in the closet.
  • FIG. 24 (a) is a head covering
  • FIG. 24 (b) is a mask
  • FIG. 24 (c) is an example of a costume.
  • the closet includes themes (items) such as western clothing, Japanese clothing, wedding dresses, masks of specific themes, and costumes.
  • the closet includes not only changing parts related to the body 32 of the avatar 30 but also parts related to the face 31.
  • Each theme associated with the closet includes smaller themes (medium and / or sub-items).
  • the western clothing includes, for example, small items such as formal, semi-formal, and casual, and each small item includes a plurality of variations 37.
  • One of the selectable elements 36 further added by the avatar maker 50 a is the background 33 of the avatar 30.
  • 25A to 25C show some examples of variations 37 of the background 33.
  • FIG. 25A shows an example in which the color of the background 33 is set
  • FIG. 25B shows an example in which a material is read in the background 33
  • FIG. 25C shows an example in which a photograph is read in the background 33. ing.
  • FIGS. 26A to 26C show some examples of the makeup variation 37.
  • FIG. 26A shows no makeup
  • FIG. 26B shows lipstick makeup
  • FIG. 26C shows cheek makeup.
  • the variation 37 of makeup (make setting) includes a pierced earring and a necklace.
  • FIG. 27 shows a case where “server communication” is selected in the save / output menu in step 87 of FIG.
  • the name of a specific application for which the avatar 30 is to be used may be displayed as a button.
  • the storage / output unit 54 of the avatar maker 50a includes a function 54a for storing the avatar data 75 in the memory (storage) 15, and a function for converting the avatar data 75 into image data such as JPEG and outputting the image data. 54c and a function 54b for uploading the avatar data 75 to the server.
  • the uploading function 54 b uses the server 135 for encoding the edited avatar data 75 via the wireless interface 17 of the terminal 1 on which the avatar maker 50 a operates, the base station 131, and the Internet 132. Upload to.
  • the encoding server 135 is used in applications (applications) such as an application character 181, mail attachment material (image) 182, mail attachment material (animation) 183, game data (game character) 184, and user interface character 185.
  • the avatar data 75 is converted into data that can be used for the purpose specified by the user. For example, the avatar data 75a of the avatar 30a created by the user A and the avatar data 75b of the avatar 30b created by the user B are uploaded to the server 135, respectively. Thereby, game data 138 in which avatars 30a and 30b appear as characters is provided to terminal 1 such as user A.
  • a function for encoding the avatar data 75 for a desired application may be provided on the terminal 1 side.
  • the avatar data 75 can be converted for many applications that cannot be implemented with the limited capacity of the terminal 1, using the resources of the server 135.
  • the processing time required for the conversion can be shortened, and further, it becomes easy to convert the avatar data 75 into a character corresponding to a newly appearing application or an updated application.
  • the avatar maker 50 having these functions and / or the avatar data manufacturing method shown in FIG. 6 can be provided as a program or a program product 71 recorded on an appropriate medium.
  • the program 71 can be provided through a computer network such as the Internet or a data transmission / reception network.
  • a computer network such as the Internet or a data transmission / reception network.
  • the example which mounted the avatar maker 50 as one application of a mobile telephone is demonstrated above, it is also possible to mount not only in a mobile telephone but in other portable information processing terminals, such as PDA.
  • the avatar maker 50 described above is suitable for a terminal having a cursor key 6 that has a small display area and that allows selection of up / down / left / right or a user interface similar thereto.
  • a personal information processing apparatus such as a personal computer or an information terminal.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 複数のパーツの組み合わせにより表現される部分を含むアバター(30)を表示させるアバターデータ(75)を生成する装置(50)を提供する。装置(50)は、アバターデータ(35、75)に基づく画像を表示デバイス(4)のキャラクタ表示領域(29)に表示するキャラクタ表示ユニット(51)と、複数の選択可能要素および複数のバリエーションを表示デバイス(4)にスクロール表示し、所定の位置に表示された1つのバリエーションを選択中にする編集ユニット(52)を含む。編集ユニット(52)は、選択中のバリエーションが反映されたアバターデータ(75)のアバター(30)をキャラクタ表示領域(29)に表示し、表示に反映されたバリエーションを選択済みにする。

Description

キャラクタ表示用データの生成装置および方法
 本発明は、キャラクタ表示用のデータを作成する装置および方法に関し、特に、アバターと呼ばれるキャラクタの表示用データの作成に関するものである。
 近年、アバター(avatar)と呼ばれる簡易な人型の画像(人型映像)が種々の分野に用いられている。アバターは、たとえば、ゲームにおけるキャラクタ、インターネットなどのコンピュータネットワークにより接続可能な仮想空間のキャラクタ、チャットあるいはメールといったコミュニケーションツールにおいて伝達されるコンテンツの一部、パーソナルコンピュータ、PDA、携帯電話などの情報機器のユーザインターフェイスの一部などとして用いられ、また、用いられることが検討されている。
 日本国2006-119788号公開公報には、キャラクタ生成装置が開示されている。この生成装置はCPUを含み、CPUは、予め記憶された複数のパーツデータから、パーツごとに1つをランダムに選択する。輪郭パーツ画像では、合成される要素パーツ画像との結合位置を示す複数の結合ポイントが描画されている。あるいは、複数の結合ポイントセットデータから選択された結合ポイントが描画されてもよい。各要素パーツ画像では、対応する結合ポイントとの結合位置を示す基準ポイント72-78がそれぞれ描画されている。CPUは、複数の結合ポイントと各基準ポイントの位置を検索し、対応する結合ポイントと基準ポイントとを合わせて輪郭パーツ画像と各要素パーツ画像とを合成する。そして、合成した顔画像に基づいてキャラクタを生成し、そのキャラクタをゲームに登場させる。
 アバターは仮想的なキャラクタであり、顔と体との比率が人体と同じ程度のものから、顔の比率が体と同じ、あるいは顔が体より大きいものなど、様々である。いずれのケースでも、アバターの顔の構成は、アバターを区別したり、アバターに表情を与える上で重要である。顔を構成するパーツは、目、鼻、口、輪郭などを含み、数が多く、さらに、それぞれのパーツのバリエーションも多く、大小、配置などのファクタを含めると、顔を構成するパーツの組み合わせはほとんど無限であると言ってよい。
 様々なアプリケーションにおいてアバターが有用に使用されるためには、アプリケーションを使用するユーザが、簡単に、ユーザ自身が用いたいと考えるアバターを生成できることが望ましい。したがって、アバターを、特に、様々な組み合わせが考えられるアバターの顔を簡単に、ユーザの希望にしたがって生成できるツールおよび方法を提供することが要望されている。
 本発明の1つの態様は、複数のパーツの組み合わせにより表現される部分を含むキャラクタを表示させるキャラクタ表示用データを生成する装置である。この装置は、キャラクタ表示用データに基づく画像を表示デバイスのキャラクタ表示領域に表示するキャラクタ表示ユニットと、複数のパーツを含む複数の選択可能要素の少なくとも1つの複数のバリエーションの少なくとも一部を表示デバイスに、ユーザインターフェイスにより選択可能なようにスクロール表示し、所定の位置に表示された1つのバリエーションを選択中(選択状態)にする編集ユニットと、選択済みのバリエーションが反映された、編集されたキャラクタ表示用データをメモリなどに保存または出力するユニットとを有する。編集ユニットは、さらに、選択中(選択状態)のバリエーションが反映されたキャラクタ表示用データの画像をキャラクタ表示領域に表示し、表示に反映されたバリエーションを選択済みにする機能を含む。
 この装置は、複数のバリエーションがスクロール表示され、所定の位置に表示された1つのバリエーションが選択中になる。このため、常にいずれかのバリエーションが選択中となる。それとともにスクロールすることにより選択中のバリエーションを簡単に変えることができる。常に1つのバリエーションが選択中になるので、その選択中のバリエーションが反映されたキャラクタ表示用データの画像(キャラクタ画像)を表示デバイスに表示でき、編集中のキャラクタが直観的(視覚的)に把握できる。
 さらに、表示に反映されたバリエーションを選択済みにすることにより、選択済みにする操作をしても良いが、選択済みの操作をしなくても選択中のバリエーションが反映されたキャラクタ表示用データが生成される。例えば、次の選択可能要素について、バリエーションを選択中にした段階では、前の選択可能要素について選択中のバリエーションは選択済みになっている。このため、ユーザが次々と選択可能要素についてバリエーションを選択中にするだけで、それぞれの選択可能要素についてユーザの意図が反映されたキャラクタが表示される。
 この装置を用いることにより、ユーザは、ユーザインターフェイスを操作することにより、表示デバイスに表示されるキャラクタを通じて(キャラクタの表示を変更あるいは編集することにより)、キャラクタの変化を直観的に把握できる。また、そのキャラクタの変化を楽しみながら、所望のキャラクタを表示するためのデータを、編集されたキャラクタ表示データとして生成できる。
 さらに、この装置を用いることにより、ユーザは、数多くの選択可能要素のバリエーションを次々と選択中にしてキャラクタを変化させることができる。それにより、数多くの選択可能要素と、それらの選択可能要素の種々のバリエーションとにより構成されるキャラクタを表示するためのデータ(編集されたキャラクタ表示データ)を簡単に生成できる。
 編集ユニットは、キャラクタ表示領域の外側の第1のスクロール領域に、複数の選択可能要素をそれぞれ示す複数の第1の画像(たとえば、インデックス画像)の少なくとも一部をスクロールするように表示する第1の表示選択ユニットと、キャラクタ表示領域の外側の第2のスクロール領域に、複数の選択可能要素のうち、第1のスクロール領域の所定の場所に表示された1つの選択可能要素の複数のバリエーションをそれぞれ示す複数の第2の画像(たとえば、パーツ画像)の少なくとも一部をスクロールするように表示し、複数のバリエーションの1つを選択中とする第2の表示選択ユニットとを含むことが好ましい。
 この装置では、キャラクタが表示されるキャラクタ表示領域の外側に、そのキャラクタを変えるための選択可能要素およびバリエーションが、第1の画像と第2の画像により視覚的に分かりやすい状態で表示される。このため、選択中のバリエーションおよびスクロールすることにより次に選択中にできるバリエーションを直観的に把握できる。さらに、選択中の選択可能要素および次に選択中にできる選択可能要素も直観的に把握できる。
 第1のスクロール領域は、キャラクタ表示領域の外側の第1の方向に沿って配置し、第2のスクロール領域は、キャラクタ表示領域の外側の第2の方向に沿って第1のスクロール領域と一部が交差するように配置することが望ましい。さらに、第2の表示選択ユニットは、第1のスクロール領域と第2のスクロール領域とが交差する場所に表示された1つの選択可能要素の複数のバリエーションをスクロールするように表示することが望ましい。たとえば、複数のバリエーションのうち、交差する場所に表示されたバリエーションを選択中にすることができる。
 この装置では、スクロール方向を第1および第2の方向、例えば、上下左右に選択することにより、次々と選択可能要素のバリエーションを選択中にでき、キャラクタ表示領域に表示されるキャラクタを次々に変化させることができる。そして、キャラクタ表示用データを簡単に生成できる。
 第1および第2のスクロール領域は指またはペンで操作できるものであってもよい。特に、第1の方向および第2の方向は、ユーザインターフェイスに含まれるキーによりカーソルが移動する方向と一致していることが望ましい。例えば、カーソルキー(ナビゲーションキー、スクロールキー)は、携帯電話などのハンディーな情報端末のユーザインターフェイスとして多用されており、カーソルキーでスクロールする方向を上下左右に選択できる。したがって、第1の方向および第2の方向が上下左右に一致している場合は、カーソルキーでスクロールする方向を上下左右に次々と選択するだけで、カーソルキーの中央の選択キー(実行キー)を押さなくても(押しても良いが)、キャラクタ表示領域に表示されるキャラクタを次々に変化でき、キャラクタ表示用データを生成できる。
 第2の表示選択ユニットは、選択中のバリエーションに付随するプロパティ、たとえば色、柄などの複数のバリエーションを第2のスクロール領域に表示し、それらの1つを選択中にすることが可能である。さらに、編集ユニットは、バリエーションが選択中の選択可能要素の複数のバリエーションに共通のプロパティを表示し、選択可能とする第3の表示選択ユニットを含むことが望ましい。第3の表示選択ユニットにより、選択可能要素の色、左右上下の表示位置などの選択可能要素のプロパティをバリエーションとは別に表示選択できる。このため、第2の表示選択ユニットにより選択するアイテムを減らすことができるとともに、色、位置などのプロパティを保存した状態で(変えないで)、形などのバリエーションの異なるキャラクタを表示しながらキャラクタ表示用データを生成できる。
 複数のパーツが、顔の一部を構成する複数の顔パーツを含む場合、第3の表示選択ユニットは、以下の4つの機能(機能ユニット)の少なくともいずれかを含むことが望ましい。
F1.大小を表示し、選択中の顔パーツの大小を可変にする機能(第1の機能)。
F2.上下の移動方向を表示し、選択中の顔パーツの上下位置を可変にする機能(第2の機能)。
F3.複数の顔パーツは目および眉毛を含み、目または眉毛のバリエーションが選択されると、間隔を狭く、および広くする移動方向を表示し、選択中の目または選択中の眉毛の間隔を可変にする機能(第3の機能)。
F4.目または眉毛のバリエーションが選択されると、回転する方向を表示し、選択中の両側の目の傾き、または選択中の両側の眉毛の傾きを同期して可変にする機能(第4の機能)。
 キャラクタ表示用データは、キャラクタの顔に加えてボディの少なくとも一部を表示させるデータを含み、複数の選択可能要素は、キャラクタの性別により相違する体型要素を含むことが望ましい。これにより、顔だけではなく、ボディも含めたキャラクタを表示するためのキャラクタ表示用データを生成できる。
 さらに、複数の選択可能要素は、顔および/またはボディの少なくとも一部により表現されるアクションを含むことが望ましい。これにより、動的なキャラクタを表示するためのキャラクタ表示用データを生成できる。
 キャラクタ表示ユニットは、キャラクタ表示用データとは異なる画像データによる画像に、キャラクタ表示用データに基づく画像を重ねて表示する機能を含むことが望ましい。例えば、異なる画像データによる画像に含まれるキャラクタを参照しながら、キャラクタ表示用データを生成できる。異なる画像データの典型的なものは撮像されたデータ(写真)である。
 異なる画像データから、初期表示用のキャラクタ表示用データを自動生成するユニットを、さらに有することが望ましい。異なる画像データによる画像に含まれたキャラクタに似せた、あるいはディフォルメしたキャラクタを表示するためのデータの作成が容易になる。
 キャラクタ表示用データは3次元でキャラクタを表示させるデータを含むことが可能である。その場合、編集ユニットは、キャラクタ表示ユニットにキャラクタを前後に回転させた状態で表示する表示ユニットを含むことが望ましい。キャラクタ表示ユニットに、キャラクタを前後左右から見た状態を表示することができ、編集中のキャラクタの前後左右から見た状態を確認できる。
 保存または出力するユニットは、編集されたキャラクタ表示用データから2次元画像表示用の画像データを生成する機能(機能ユニット)を含むことが望ましい。編集されたキャラクタ表示用データにより表示されるキャラクタを表示できる画像データであって、電子メールの作成表示ソフトなどの他のアプリケーションで使用できる画像データを生成できる。
 保存または出力するユニットは、所望のアプリケーション用のデータに変換させるために編集されたキャラクタ表示用データをサーバー宛に出力する機能(機能ユニット)を含むことが望ましい。サーバー側に用意される豊富な資源を用いて様々なアプリケーションに適用できるデータあるいは情報に、編集されたキャラクタ表示データを変換できる。
 本発明の異なる態様の1つは、画像を表示するための表示デバイスと、表示デバイスにより表示されたアイテムを選択するユーザインターフェイスとを含む装置により、複数のパーツの組み合わせにより表現される部分を含むキャラクタを表示するためのキャラクタ表示用データを生成する方法である。
 この方法は、以下のステップを含む。
1.表示デバイスに、複数のパーツを含む複数の選択可能要素の少なくとも1つの複数のバリエーションの少なくとも一部を表示デバイスにスクロール表示すること。
2.所定の位置に表示された1つのバリエーションを選択中にすること。
3.選択中のバリエーションが反映されたキャラクタ表示用データの画像を表示デバイスのキャラクタ表示領域に表示すること。
4.表示に反映されたバリエーションを含む、編集されたキャラクタ表示用データを保存または出力すること。
 この方法では、複数のバリエーションがスクロール表示され、所定の位置に表示された1つのバリエーションが選択中になり、そのバリエーションを含むキャラクタが表示されるとバリエーションが選択済みになる。したがって、ユーザが次の選択可能要素のバリエーションに興味が移ると、前の選択可能要素のバリエーションは選択済みとなり保存される。このため、この方法を用いることにより、ユーザは、表示デバイスに表示されるキャラクタの変化を直観的に把握し、そのキャラクタの変化を楽しみながら、所望のキャラクタを表示するためのデータを簡単に、そして短時間に生成できる。
 スクロール表示すること(ステップ1)は、以下のステップを含むことが望ましい。
A1.キャラクタ表示領域の外側に、第1の方向に沿って配置された第1のスクロール領域に、複数の選択可能要素をそれぞれ示す複数の第1の画像の少なくとも一部をスクロールするように表示すること。
A2.キャラクタ表示領域の外側に、第2の方向に沿って、第1のスクロール領域と一部が交差するように配置された第2のスクロール領域に、複数の選択可能要素のうち、第1のスクロール領域と交差する場所に表示された1つの選択可能要素の複数のバリエーションをそれぞれ示す複数の第2の画像の少なくとも一部をスクロールするように表示すること。
 ユーザインターフェイスに含まれるカーソルキーや、ジョグダイヤル、ジョイスティックなどといったスクロール方向を選択できる手段により、スクロール方向を第1および第2の方向、例えば、上下左右に選択するだけで、表示されるキャラクタを変化させることができる。さらに、カーソルキーなどでスクロール方向を上下左右に選択するだけで、キャラクタを表示するためのデータを簡単に生成できる。
 さらに、この方法は、以下のステップを含むことが望ましい。
5.選択中のバリエーションに付随する複数のプロパティを第2のスクロール領域に表示し、それらの1つを選択中にすること。
 また、この方法は、以下のステップを含むことも有効である。
6.バリエーションが選択中の選択可能要素の複数のバリエーションに共通のプロパティを表示デバイスのキャラクタ表示領域の外側に表示し、プロパティを選択可能とすること。
 複数のバリエーションに共通する色、位置などのプロパティを選択するステップを、バリエーションの選択とは別に設けることにより、バリエーションの選択に要するユーザの負担を減らすことができる。複数のパーツが、顔の一部を構成する複数の顔パーツを含む場合は、プロパティの選択には以下を含めることができる。
B1.大小を表示し、選択中の顔パーツの大小を可変にすること。
B2.上下の移動方向を表示し、選択中の顔パーツの上下位置を可変にすること。
B3.複数の顔パーツは目および眉毛を含み、目または眉毛のバリエーションが選択されると、間隔を狭く、および広くする移動方向を表示し、選択中の目または選択中の眉毛の間隔を可変にすること。
B4.目または眉毛のバリエーションが選択されると、回転する方向を表示し、選択中の両側の目の傾き、または選択中の両側の眉毛の傾きを同期して可変にすること。
 キャラクタ表示用データは、キャラクタの顔に加えてボディの少なくとも一部を表示するデータを含み、複数の選択可能要素は、顔および/またはボディの少なくとも一部により表現されるアクションを含むことが望ましい。スクロール表示により選択するバリエーションに、アクションを含めることができ、動的なキャラクタを表示するためのデータを生成できる。
 キャラクタ表示領域に表示すること(ステップ3)は、キャラクタ表示用データとは異なる画像データによる画像に、キャラクタ表示用データに基づく画像を重ねて表示することが望ましい。典型的には撮像された画像データ(写真)に基づき、キャラクタ表示用データを生成できる。
 キャラクタ表示用データが3次元でキャラクタを表示させるデータを含む場合は、キャラクタ表示領域に表示するステップは、キャラクタを前後に回転させた状態で表示することを含むことが望ましい。
 さらに、保存または出力するステップは、所望のアプリケーション用のデータに変換させるために編集されたキャラクタ表示用データをサーバー宛に出力することを含むことが望ましい。
 本発明のさらに異なる態様の1つは、画像を表示するための表示デバイスと、表示デバイスにより表示されたアイテムを選択するためのユーザインターフェイスとを含むコンピュータにより実行されるプログラムであって、コンピュータにより実行されることにより、コンピュータを、複数のパーツの組み合わせにより表現される部分を含むキャラクタを表示するためのキャラクタ表示用データを生成する装置として機能させることを含むプログラム(プログラム製品)である。
 このプログラム(プログラム製品)により実装される装置は、表示デバイスにより表示されたアイテムを選択する機能を含むユーザインターフェイスと、キャラクタ表示用データに基づく画像を表示デバイスのキャラクタ表示領域に表示するキャラクタ表示ユニットと、複数のパーツを含む複数の選択可能要素の少なくとも1つの複数のバリエーションの少なくとも一部を表示デバイスにスクロール表示し、所定の位置に表示された1つのバリエーションを選択中にする編集ユニットであって、さらに、選択中のバリエーションが反映されたキャラクタ表示用データの画像をキャラクタ表示領域に表示し、表示に反映されたバリエーションを選択済みにする編集ユニットと、選択済みのバリエーションが反映された、編集されたキャラクタ表示用データをメモリなどに保存または出力するユニットとを含む。
 このプログラム(プログラム製品)は、適当なメディア、例えば、CD-ROM、フラッシュメモリ、カードメモリなどに記録して提供できる。また、このプログラムはインターネットなどのコンピュータネットワーク、データ送受信網を通じて提供することができる。さらに、携帯電話、PDA、パーソナルコンピュータなどの個人的な情報処理装置あるいは情報端末にプレインストールして提供することも可能である。そして、このプログラムが実装された携帯電話、PDA、パーソナルコンピュータなどの情報端末をキャラクタ表示用データの生成装置として使用できる。また、このプログラムをサーバーに実装し、サーバーと、上記の情報端末とをインターネットなどのデータリンクにより接続することにより、このプログラムが実装されていなくても、情報端末をキャラクタ表示用データの生成装置として使用することができる。
アバターメーカーが実装される端末のハードウェア構成の概要を示すブロックダイアグラム。 アバターメーカーの機能を示すブロックダイアグラム。 アバターおよびアバターデータを示す図。 選択可能要素、バリエーションおよびプロパティを示す図。 選択可能要素およびプロパティを示す図。 アバターメーカーでアバターデータを生成する手順(方法)を示すフローチャート。 新規作成のメニュー表示を示す。 図8(a)~(c)は、選択可能要素を示すインデックス画像がスクロール表示される様子を示す。 図9(a)および(b)は、バリエーションを示すパーツ画像がスクロール表示される様子を示す。 図10(a)~(d)は、プロパティを表示および選択する様子を示す。 アクションを選択する様子を示す。 写真利用を選択したときのメニュー表示を示す。 写真利用を選択したときの処理の流れを示す。 写真からアバター表示する顔を切りだす様子を示す。 図15(a)および(b)は、写真とアバターとを重複して表示する様子を示す。 アバターメーカーの他の表示例を示す。 アバターメーカーのさらに異なる他の表示例を示す。 異なるアバターメーカーの機能を示すブロックダイアグラム。 要素を選択する表示例を示す。 バリエーションを選択する表示例を示す。 色を選択する表示例を示す。 他のプロパティを選択する表示例を示す。 3次元でアバターを表示する例を示す。 図24(a)~(c)はクローゼットの選択例を示す。 図25(a)~(c)は背景の選択例を示す。 図26(a)~(c)はメイクの選択例を示す。 サーバー通信によりアバターデータをアップロードする例を示す。
 以下では、図面を参照して、さらに詳しい説明をする。以下では、ハンディーな情報処理端末に、本発明のキャラクタ表示用データを生成する装置としての機能を実装した例を説明する。キャラクタの典型的なものは、アバターであり、以下では、アバター表示用のデータ(アバターデータ)を生成する装置(アバターメーカー、あるいはメーカ)について説明する。ハンディーな情報処理端末の典型的なものは携帯電話である。
 図1に、アバターメーカー50の機能を含む端末、またはアバターメーカー50として動作する端末(携帯電話)1のハードウェアの概略構成を示している。この端末1は、撮像装置であるカメラ2と、カメラ2を制御して、撮像された画像データを取得するカメラインターフェイス3と、画像を含めたデータを表示するLCDなどのディスプレイ(表示デバイス)4とを含む。ディスプレイ4は、タッチパネル4aの機能を含み、指および/またはペンにより表示された内容を選択したり、表示内容を操作できる。
 端末1は、さらに、ディスプレイ4を制御する表示インターフェイス5と、カーソルキー(スクロールキー、ナビゲーションキー)6、テンキー7などを介してデータおよび制御動作を受け入れるユーザインターフェイス8と、スピーカ9、マイク10などを介して音声データを入出力するための音声インターフェイス11とを備えている。ユーザインターフェイス8は、表示デバイス4により表示されたアイテムを、カーソルキー6の操作、あるいはタッチパネル4aにより入力された操作により選択する機能を含む。
 さらに、端末1は、CPU12および画像処理用のIC13を含む制御ユニット14と、ストレージ15とを含む。ストレージ15の典型的なものはフラッシュメモリであり、HDD(ハードディスクデバイス)などの他のストレージデバイスであってもよい。さらに、端末1は、無線通信インターフェイス17を備えており、アンテナ16を介して無線(赤外線などのRF以外も含めて)で外部のデータリンクにアクセスあるいは接続可能である。データリングの典型的なものは、公衆電話網、インターネットなどを介し多数の情報端末が接続されたコンピュータネットワークである。
 端末1においては、上述したいくつかのモジュールおよび/または機能(機能ユニット)が内部バス18などにより接続されている。ストレージ15には、実行することにより端末1をアバターメーカー50として機能させるプログラム(プログラム製品)71と、編集対象のキャラクタを表示する編集対象のキャラクタ表示用のデータ(アバター表示用のデータ、アバターデータ)35と、アバターメーカー50で表示されるパーツ画像などを含むライブラリ72などが格納されている。編集対象のアバターデータ35は、アバターメーカー50を提供する側がディフォルトで用意したものであってもよく、ユーザが編集対象としてストックしたアバターデータであってもよい。
 これらのハードウェア構成は、携帯電話、PDAなどのポータブルな情報端末としては典型的なものであり、アバターメーカー50として機能するための必須の要件ではない。たとえば、音声インターフェイス11は、アバターメーカー50に、音声による端末動作の指示、たとえば、スクロール方向を音声により選択させるような機能を含ませることが可能である。そのような必要がなければ、音声インターフェイス11をはじめとする機能はアバターメーカー50としては不要である。
 図2は、アバターメーカー50の機能を示すブロックダイアグラムである。このアバターメーカー50は、図3に示したような顔31とボディ32とを含めたアバター30の表示を編集あるいは変更することにより、編集前のキャラクタを表示するためのデータ(キャラクタ表示用データ、アバターデータ)35から、所望のアバターを表示するためのデータ(編集されたキャラクタ表示用データ、編集されたアバターデータ)75を生成する。この例では、アバターデータ35および75は、顔31を表示するためのデータに加えて、ボディ32を表示するためのデータを含む。
 図4および図5に、アバターデータ35を生成する際に選択可能な要素(項目、パーツ名)36と、各要素36のバリエーション37の数、および要素毎に指定可能な色などのプロパティの有無とを纏めて示している。なお、これらの図の中で「○」はその要素のバリエーションあるいはプロパティが有効で選択肢があり、「×」はその要素のバリエーションあるいはプロパティが無効で選択肢がないことを示している。なお、これらの図に示した要素、バリエーションあるいはプロパティの数および選択肢の有無は一例にすぎず、要素、バリエーションおよび/またはプロパティを付加したり、削除したりすることが可能である。
 プロパティは大きく分けて色の指定(第1のプロパティ)38と、色以外の指定、例えば、拡大縮小、位置などの指定(第2のプロパティ)39とを含む。バリエーション37とは別に、選択可能要素36のそれぞれにプロパティ38および39を選択可能とすることにより、各要素36のバリエーション37の数を大幅に削減できる。たとえば、色38をバリエーション37に含めると、バリエーション37として表示するパーツ画像の数が数倍に拡大し、スクロール表示でそれらを選択することは非現実的になる。要素毎に、バリエーション37とは別にプロパティ38および39を選択できるようにすることにより、バリエーション37を選択する操作の負荷を大幅に低減できる。また、各要素36においては、選択されたプロパティ38および39を、バリエーション37に対して共通に適応することにより、バリエーション37を選択するだけで、所望のプロパティ38および39を備えたアバター30を表示できる。
 このアバターメーカー50は、14種類の選択可能な要素E1~E14を含むアバターデータ35を、それにより表示されるアバター画像(アバター)30を編集または変更することにより、所望のアバターを表示させるアバターデータ(編集されたアバターデータ)75にすることができる。編集されたアバターデータ75は、編集後または編集済みのデータであっても、編集中のデータであってもよい。
 要素E1は、性別であり、バリエーション37としては、男女の2パターンがパーツとして用意されている。男女を選択することにより、いずれかのパーツがボディ32として選択され、ボディ32の基本的な形状が変化する。さらに、このアバターメーカー50では、ボディ32の服装はTシャツがディフォルトであり、要素E1の第1のプロパティとしてTシャツの色を変えることができる。なお、本明細書において説明する選択可能な要素E1~E14は例示である。たとえば、服装を選択可能な要素に含める(追加する)ことが可能であり、クローゼットを新たな要素として設定してもよい。このように、選択可能な要素36、バリエーション37、プロパティ38は以下で説明するものに限られない。
 要素E2は、体型である。体型は、バリエーションはなく、第2のプロパティ39として拡大縮小が可能である。拡大縮小は、カーソルキー6により上下方向のサイズの変化と、左右方向のサイズの変化を指示できることを示す。体型を上下方向に拡大縮小することにより、顔31とボディ32とのバランスを変えることができる。体型を左右方向に拡大縮小することにより、ボディ32を太くしたり、細くしたりすることができる。
 要素E3は、輪郭(顔31の輪郭)である。バリエーション37としては、8パターンのパーツが用意されており、第1のプロパティ38として肌の色を6種類に変更できる。第1のプロパティ38は、第2のプロパティ39も同様であるが、要素E3のプロパティとして保存され、8パターンのパーツのいずれを選択しても、直前に設定されたプロパティが共通に適用される。以下の各要素においても同様である。
 要素E4は、髪型である。バリエーション37としては、72パターンのパーツが用意されており、第1のプロパティ38として色を8種類に変更できる。
 要素E5は、眉毛である。バリエーション37としては、12パターンのパーツが用意されており、第1のプロパティ38として色を8種類に変更できる。さらに、第2のプロパティ39として、拡大縮小、回転、移動が用意されている。拡大縮小することは、眉毛(パーツとしての眉毛)のサイズ(表示面積)の拡大縮小と、両側の眉毛の間隔の拡大縮小とをそれぞれ指定することを含む。回転することは、両側の眉毛を同期して、対称な方向に回転することを含み、眉毛の傾きを任意に設定できる。移動することは、両側の眉毛の位置を顔31の中で、上下に移動することを含む。
 要素E6は、目である。バリエーション37としては、48パターンのパーツが用意されており、第1のプロパティ38として色を6種類に変更できる。さらに、第2のプロパティ39として、拡大縮小、回転、移動が用意されている。拡大縮小することは、目(パーツとしての目)のサイズ(表示面積)の拡大縮小と、両側の目の間隔の拡大縮小とをそれぞれ指定することを含む。回転することは、両側の目を同期して、対称な方向に回転することを含み、目(まなじり)の傾きを任意に設定できる。移動することは、両側の目の位置を顔31の中で、上下に移動することを含む。
 要素E7は、鼻である。バリエーション37としては、12パターンのパーツが用意されており、第1のプロパティ38として色を6種類に変更できる。ただし、色は輪郭E3の色と連動する。さらに、第2のプロパティ39として、拡大縮小、移動が用意されている。拡大縮小することは、鼻(パーツとしての鼻)のサイズを拡大縮小することを含む。移動することは、鼻の位置を顔31の中で、上下に移動することを含む。
 要素E8は、口である。バリエーション37としては、24パターンのパーツが用意されており、第2のプロパティ39として、拡大縮小、移動が用意されている。拡大縮小することは、口(パーツとしての口)のサイズ(表示面積)を拡大縮小することを含む。移動することは、口の位置を顔31の中で、上下に移動することを含む。
 要素E9は、口ひげである。バリエーション37としては、3パターンのパーツが用意されており、口ひげの有無も含めて4つのバリエーションを選択できる。第1のプロパティ38として色を8種類に変更できる。さらに、第2のプロパティ39として、拡大縮小、移動が用意されている。拡大縮小することは、口ひげ(パーツとしての口ひげ)のサイズ(表示面積)の拡大縮小と、幅のみ(長さ)の拡大縮小とをそれぞれ指定することを含む。移動することは、口ひげの位置(表示位置)を顔31の中で、上下に移動することを含む。
 要素E10は、顎ひげである。バリエーション37としては、3パターンのパーツが用意されており、顎ひげの有無を含めて4つのバリエーションを選択できる。第1のプロパティ38として色を8種類に変更できる。さらに、第2のプロパティ39として、拡大縮小が用意されている。拡大縮小することは、顎ひげ(パーツとしての顎ひげ)のサイズ(表示面積)の拡大縮小と、幅のみ(長さ)の拡大縮小とをそれぞれ指定することを含む。
 要素E11は、ほくろである。バリエーション37としては、1パターンのパーツが用意されており、ほくろの有無を含めて2つのバリエーションを選択できる。さらに、第2のプロパティ39として、拡大縮小、移動が用意されている。拡大縮小することは、ほくろ(パーツとしてのほくろ)のサイズ(表示面積)を拡大縮小することを含む。移動することは、ほくろの位置(表示位置)を顔31の中で、上下、左右に移動することを含み、顔31の中の所望の位置にほくろを動かすことができる。
 要素E12は、メガネおよびサングラスである。バリエーション37としては、メガネの5パターン、サングラスの3パターンのパーツが用意されており、有無も含めて9つのバリエーションを選択できる。第1のプロパティ38として色(メガネフレームの色およびサングラスの色)を12種類に変更できる。さらに、第2のプロパティ39として、拡大縮小、移動が用意されている。拡大縮小することは、メガネ(パーツとしてのメガネ)のサイズ(表示面積)を拡大縮小することを含む。移動することは、メガネの位置(表示位置)を顔31の中で、上下に移動することを含む。
 要素E13は、顔31の表情などである。バリエーション37としては、12パターンのパーツが用意されており、有無も含めて13のバリエーションを選択できる。第1のプロパティ38として色を6種類に変更できるが、輪郭E3と連動する。12パターンのパーツには、頬がくぼんだり、頬が膨らんだりしている様子を示す表現を含む。
 要素E14は、アクションである。バリエーション37としては、7パターンの動きが用意されており、動きのあるアバター30を表示するアバターデータ35を生成できる。アクションのパターンの例は、女性のディフォルトの動き、男性のディフォルトの動き、ルンルンとした動き、別れ(バイバイ)を示す動き、ガッツポーズを示す動き、花束を差し出す動き、怒りを示す動きである。パターンを指定することにより、アバター30は、その動きのパターンを繰り返す。
 図2に示すように、アバターメーカー50は、これらの選択可能な要素E1~E14の組み合わせにより表現されるアバター(アバター画像)30をユーザの希望に沿って表示するためのアバターデータ75を生成する。アバターメーカー50は、アバターデータ(キャラクタ表示用データ)35に基づく画像をディスプレイ(表示デバイス)4のキャラクタ表示領域29に表示するキャラクタ表示ユニット51と、アバター30をマニュアルで編集するための編集ユニット(エディタ)52と、撮像されたデータ(写真)からアバターデータ35を自動生成する自動編集ユニット53と、編集されたアバターデータ35をストレージ15に保存したり、アバターデータ35からGIFなどの2次元画像データを生成するための保存・出力ユニット54とを備えている。
 編集ユニット52は、複数のパーツを含む複数の選択可能要素E1~E14の少なくとも1つの複数のバリエーション37の少なくとも一部を表示デバイス4にスクロール表示し、カーソルキー6を含むユーザインターフェイス8により選択可能にする。さらに、編集ユニット52は、スクロール表示された複数のバリエーション37のうち、所定の位置、例えば、スクロール表示の中央に表示された1つのバリエーションを選択中にする。さらに、選択中のバリエーション37が反映されたキャラクタ表示用データ35のアバター画像30をキャラクタ表示ユニット51によりキャラクタ表示領域29に表示し、表示に反映されたバリエーション37を選択済みにする。
 具体的には、編集ユニット52は、複数の選択可能要素36をそれぞれ示す複数のインデックス画像(複数の第1の画像)をスクロールするように表示する第1の表示選択ユニット56と、複数のバリエーション37をそれぞれ示す複数のパーツ画像(複数の第2の画像)をスクロールするように表示する第2の表示選択ユニット57と、プロパティを表示して選択する第3の表示選択ユニット58とを含む。第1の表示選択ユニット56は、長方形のキャラクタ表示領域29の外側に、第1の方向(縦方向)に沿って配置された第1のスクロール領域21に、複数の選択可能要素36をそれぞれ示す複数のインデックス画像61をスクロール表示する。
 第2の表示選択ユニット57は、キャラクタ表示領域29の外側に、第2の方向(横方向)に沿って配置された第2のスクロール領域22に、第1のスクロール領域21の所定の場所に表示された1つの選択可能要素の複数のバリエーションをそれぞれ示す複数のパーツ画像62をスクロールするように表示する。具体的には、第2のスクロール領域22は、第1のスクロール領域21と一部が交差するように配置されており、第2の表示選択ユニット57は、第1のスクロール領域21と第2のスクロール領域22とが交差する場所28に表示された1つの選択可能要素36の複数のバリエーション37をスクロールするように表示する。
 第1のスクロール領域21のスクロール方向(縦方向)と、第2のスクロール領域22のスクロール方向(横方向)は、カーソルキー6によりスクロールする方向と一致している。したがって、カーソルキー6の上下キー6aおよび6cを操作することにより第1のスクロール領域21に表示されているインデックス画像61をスクロールでき、左右キー6bおよび6dを操作することにより第2のスクロール領域22に表示されているパーツ画像62をスクロールできる。
 さらに、第2の表示選択ユニット57は、第2のスクロール領域22の中央27に表示されたバリエーションを選択中にし、選択中のバリエーション37が反映された、すなわち、選択中のバリエーション37のパーツを含むアバター30をキャラクタ表示領域29に表示する。そして、表示されているアバター30に反映されたバリエーション37のパーツを選択済みにした、編集されたアバターデータ(編集中のデータ)75を生成する。
 編集中のアバターデータ75と、ストレージ(メモリ)15に保存されているアバターデータ35とは基本的に同じであり、端末1のOSによりサポートされるファイル管理システムにより管理されるか否か程度の相違しかない。編集が終了すると、編集されたアバターデータ75は、保存・出力ユニット54により、選択済みのバリエーションが反映されたキャラクタ表示用データとしてストレージ15に格納されたり、サーバーなどへ出力される。
 ストレージ15に格納された編集されたアバターデータ75を、次の機会には、編集対象のアバターデータ35にすることが可能である。したがって、編集されたあるいは編集後のアバターデータ75と、編集前のアバターデータ35とは、それらのデータにより表示されるキャラクタは一般的に異なるが、キャラクタを表示するために含まれる情報の種類・構造は共通する。このため、本明細書において、キャラクタ表示用データとして共通する事項については、アバターデータ35を例に説明することがある。
 第3の表示選択ユニット58は、バリエーション37を選択中の選択可能要素36の複数のバリエーションに共通のプロパティ38および39を表示デバイス4のキャラクタ表示領域29の外側に表示し、選択可能とする。この第3の表示選択ユニット58は、第1のスクロールエリア21の上に、カーソルキー6に対応した上下左右選択用のアイコン26を表示し、第2のスクロールエリア22の下にカラーを選択するためのアイコン25を表示する。
 第3の表示選択ユニット58は第1の機能(機能ユニット)58aを含み、第1の機能58aは、顔の一部を構成する複数の顔パーツについて、アイコン26に大小を表示し、カーソルキー6を用いて選択中の顔パーツの大小(表示面積および/または表示幅)を可変にする。第3の表示選択ユニット58は第2の機能58bを含み、第2の機能58bは、アイコン26に上下の移動方向を表示し、カーソルキー6を用いて選択中の顔パーツの上下位置を可変にする。
 第3の表示選択機能58は第3の機能58cを含み、第3の機能58cは、目または眉毛のバリエーションを選択しているときは、アイコン26に間隔を狭く、および広くする移動方向を表示し、カーソルキー6により、目または選択中の眉毛の間隔を可変にする。第3の表示選択機能58はさらに第4の機能58dを含み、第4の機能58dは、目または眉毛のバリエーションが選択されると、アイコン26に回転する方向を表示し、カーソルキー6により、選択中の両側の目の傾き、または選択中の両側の眉毛の傾きを同期して可変にする。
 さらに、第3の表示選択ユニット58は、カラー選択アイコン25を表示し、バリエーションを選択中のパーツの色を設定する機能58eを含む。アイコン25には、選択可能な色(色の表示)がスクロール表示される。カーソルキー6によりスクロールすると、キャラクタ表示領域29に表示されているアバター30について選択中のバリエーション37のパーツの色が、アイコン25の中央25cに示された色に変わり、その色が、バリエーション37を選択中の要素36の第1のプロパティ38として保存される。
 自動編集ユニット53は、アバターメーカー50の起動時に、「写真を参考にしたアバター作成」が選択される。自動編集ユニット53は、カメラインターフェイス3により取得された写真画像データ73または予めストレージ15に格納されていた写真画像データ73から、編集対象のアバターデータ35を自動生成する。キャラクタ表示ユニット51は、キャラクタ表示領域29に、写真データ73の画像に、アバターデータ35に基づくアバター(アバター画像)30を重ねて表示する機能を含む。したがって、ユーザは、写真を参照しながら、選択可能な要素E1~E14のバリエーションとして用意されているパーツを選択してアバター画像30を編集し、その編集されたアバター画像30を表示するためのアバターデータ75を生成できる。
 保存・出力ユニット54は、編集中あるいは編集済みのアバターデータ75をストレージ15にファイルシステムが管理可能な状態で出力して格納(保存)する機能を含む。さらに、ストレージに格納されたアバターデータ35または編集中のアバターデータ75をGIF、JPEGなどの他のアプリケーションに共通なフォーマットの画像データ79に変換して出力する機能を含む。例えば、保存・出力ユニット54は、アバターデータ75を電子メールのコンテンツとして含まれた状態で表示できる素材あるいは絵文字のデータに変換する機能を含む。また、保存・出力ユニット54は、ゲームなどの他のアプリケーションにおいてアバターとして表示できるデータに変換する機能を含む。さらに、保存・出力ユニット54は、アバターデータ75を、ゲーム、メールなどの所望のアプリケーション用のデータに変換させるために、編集されたアバターデータ75を、無線インターフェイス17を使って変換用のサーバー宛に出力する機能を含む。
 図6は、アバターメーカー50における操作の概要を示すフローチャートである。所望のアバター30を表示するアバターデータ75は、このフローチャートに沿った方法により生成できる。アバターメーカー50を起動すると、ステップ81において、最初のメニューが表示され、「新規作成」および「保存データ編集」が選択可能になる。最初のメニューには、さらに、「保存データ出力」、「サーバー通信」などの別の選択肢を含めることが可能である。「保存データ出力」が選択されると、保存・出力ユニット54により、アバターデータ75を変換する機能を起動する。「サーバー通信」が選択されると、無線インターフェイス17を介して外部のサーバーなどに接続し、サーバーからアバターデータをダウンロードしたり、サーバーにアバターデータをアップロードしたりする機能が起動する。
 「保存データ編集」が選択されると、ステップ82において、ストレージ15に格納されているアバターデータ35を選択する機能が起動され、選択されたアバターデータ35が編集対象のアバターデータ35となる。「新規作成」が選択されると、図7に示すようなメニューが表示され、「写真を使わずにアバターを作成」、「カメラで撮影した写真を参考にアバターを作成」および「データBOXの写真を参考にアバターを作成」が選択可能になる。ステップ83において、「写真を使わずにアバターを作成」を選択すると、ステップ84においてディフォルトのアバターデータが編集中のアバターデータ75として設定される。写真を使うケースについては後に説明する。
 編集対象のアバターデータ35が設定されると、編集ユニット52が起動され、アバターデータ75の生成(編集)が始まる。したがって、以降では、編集された(編集中)のアバターデータ75が、それにより表示されるアバター30の編集あるいは変更により、どのように編集(変更)されていくかを示している。
 ステップ85で、図8(a)に示すように、編集中のアバターデータ75により、表示デバイス4のキャラクタ表示領域29にアバター30が表示される。表示デバイス4のキャラクタ表示領域29の下方には、アバターメーカー50の操作手順を示すテロップを表示する領域41と、操作切替用のアイコンとが表示される領域42とが設けられている。領域42にはメニューアイコン43が表示されており、編集中にこのメニューアイコン43をクリックすると、メニューに含まれている処理を選択できる。たとえば、ステップ86において、メニューから保存・出力を選択して、保存・出力ユニット54を起動できる。
 保存・出力のメニューにより、ステップ87において編集中のアバターデータ75を保存・出力する方法が選択できる。ステップ88において、選択された方法により編集中のアバターデータ75を編集済み(編集後)のアバターデータ75として保存または出力できる。たとえば、アバターデータ75をストレージ15に格納することにより、アバターデータ75の編集を終了できる。編集中のアバターデータ75を他のアプリケーションで使用できる画像データに変換して出力することも可能である。
 キャラクタ表示領域29にアバター30が表示されると、ステップ91において、第1の表示選択ユニット56が、複数のインデックス画像61をスクロールするように表示する(図8(a)~(c)参照)。第1の表示選択ユニット56は、長方形のキャラクタ表示領域29の右横側に縦方向に延びるように配置された第1のスクロール領域21に、複数の選択可能要素36をそれぞれ示す複数のインデックス画像61をスクロール表示する。
 縦方向にスクロール表示される複数のインデックス画像61は、それぞれ、選択可能な要素36、本例では要素E1~E14を視覚的に分かりやすいように示すためのアイコンあるいは画像である。例えば、性別E1のインデックス画像61は、髪型の異なる2つの顔のアイコンであり、体型E2のインデックス画像61は、体型の異なる2つのボディのアイコンであり、髪型E4のインデックス画像61は、髪だけが貼り付けられたアイコンであり、これらはライブラリ72に予め用意されている。カーソルキー6の上下方向のキー6aおよび6cを操作することにより、図8(a)~(c)に示すように、インデックス画像61は、上から下、下から上に移動(スクロール)する。
 ステップ92において、第1のスクロールエリア21の交差枠28に表示されたインデックス画像61により示される要素(選択可能要素)36が若干拡大表示され、カーソルキー6の中央の選択キー6eを操作しなくても、自動的に選択中(選択状態)となる。図8(a)では、複数の選択可能要素36のうちの性別E1が選択中になり、図8(c)では、体型E2が選択中になる。
 ステップ93において、第2の表示選択ユニット57が、複数のパーツ画像62をスクロールするように表示する(図9(a)および(b)参照)。第2の表示選択ユニット57は、キャラクタ表示領域29の下側に、左右方向に沿って配置された第2のスクロール領域22に、第1のスクロール領域21で選択中の選択可能要素36の複数のバリエーション37をそれぞれ示す複数のパーツ画像62をスクロール表示する。図9(a)では、縦方向にスクロール表示されたインデックス画像61のうち、髪型E4を示すインデックス画像61が選択中になっている。このため、図9(b)に示すように、横方向に、髪型E4のバリエーション37を示すパーツ画像62がスクロール表示される。
 バリエーションのパーツ画像62を示す第2のスクロール領域22は、選択可能要素(要素)36のインデックス画像61を示す第1のスクロール領域21と一部が交差するように配置されている。その交差する部分28に表示されたインデックス画像61の要素36が選択中になり、第2の表示選択ユニット57によりバリエーション37がスクロール表示される。カーソルキー6の上下方向のキー61aおよび61cを操作してインデックス画像61を上下にスクロールすると、交差する部分28に表示される選択中のインデックス画像61が変わる。このため、カーソルキー6の上下方向のキー61aおよび61cを操作するだけで、交差する部分28から横方向に延びるように表示されるパーツ画像62も自動的に変わり、バリエーション37を選択できるようになる。
 第2のスクロール領域22に横方向にスクロール表示される複数のパーツ画像62は、選択可能な要素36にバリエーションとして用意されている複数のパターンをそれぞれ示すパーツ画像である。たとえば、髪型E4では、72パターンのパーツ画像62がライブラリ72に用意されている。この例では、それらのパーツ画像62のうち、4つパーツ画像62が第2のスクロール領域22に同時に並んで表示され、カーソルキー6の左右方向のキー6bおよび6dを操作することにより、パーツ画像62は、左から右、右から左に移動(スクロール)し、残りのパーツ画像62を全て表示できる。
 ステップ94において、第2のスクロール領域22のほぼ中央の枠27に表示されたパーツ画像62が若干拡大表示され、選択中になる。したがって、カーソルキー6の中央の選択キー6eを操作しなくても、自動的に、そのパーツ画像62のパターン(バリエーションの1つ)が選択中(選択状態)となる。図9(b)では、複数のバリエーション37を示すパーツ画像62のうち、ウェーブがかかった髪型が選択中になる。
 ステップ95において、第2のスクロール領域22の枠27に表示されたパーツ画像62が拡大表示されて選択中になるのと実質的に同時に、表示中のアバター30は選択中のバリエーションが反映されたものに変わる。すなわち、キャラクタ表示領域29に表示されているアバター30の髪型も、パーツ画像62と同じパターン、すなわち、ウェーブがかかった髪型に変わり、アバター30の表示を変更あるいは編集できる。そして、編集中のアバターデータ75においても、髪型E4については、選択中のパーツ画像62であって、表示されたアバター30に含まれるパーツ画像62のパターンが選択済みとなる。
 このアバターメーカー50においては、カーソルキー6の上下キー6aおよび6cによりインデックス画像61をスクロールさせ、カーソルキー6の左右キー6bおよび6dによりパーツ画像62をスクロールさせることにより、選択キー6eを操作しなくても、複数の選択可能要素36の複数のバリエーション37の中から所望のものが組み合わされたアバター30を表示できる。さらに、アバター30の表示を変更あるいは編集することにより、編集されたアバター30を表示するためのアバターデータ75を生成できる。このため、アバターメーカー50のユーザは、カーソルキー6を操作し、画像61および62を上下、左右にスクロールさせるだけで、アバター30の表示が変化するのを楽しむことができる。それとともに、カーソルキー6の上下左右の操作で変わるアバター30の表示を直観的あるいは視覚的に把握し、ユーザが望むアバター30を表示するためのデータ75を極めて簡単に生成できる。
 さらに、アバター30が表示されるキャラクタ表示領域29の外側に、アバター30を変えるための選択可能要素36およびバリエーション37が、インデックス画像61とパーツ画像62とにより視覚的に分かりやすい状態で表示される。このため、選択中のバリエーション37と、スクロールすることにより次に選択中にできるバリエーション37とをユーザは直観的に把握できる。選択中の選択可能要素36と、次に選択中にできる選択可能要素36も直観的に把握できる。さらに、第2のスクロール領域22には、選択可能なパーツ画像62が並び、パーツ画像62には選択可能なパーツが抜き出された状態で表示され、さらに、中央の選択エリア27には選択中のパーツが拡大して表示されている。したがって、バリエーションとして用意されたパターンの微細な相違も、並んで表示されたパーツ画像62を比較することにより容易に把握することができる。このため、ユーザは、自分のイメージ、感性、雰囲気に、より適したパーツを的確に選択でき、アバター30の表示を変更できる。
 ステップ96において、第3の表示選択ユニット58は、第2の表示選択ユニット57でバリエーションが選択中になっている選択可能要素36のプロパティ38および39の編集の可能性を判断する。第3の表示選択ユニット58は、交差する領域28に表示されているインデックス画像61の要素36に変えることができるプロパティ38および39が含まれているかを判断する。選択可能なプロパティ38または39があれば、ステップ97において、プロパティを選択するための表示を行う。
 図10(a)は、要素E6(目)のインデックス画像61が交差領域28で選択中になっており、目のバリエーションに含まれるパターンの1つのパーツ画像62が選択中になっている。この要素E6は、第1のプロパティ38として色が選択でき、第2のプロパティ39として、拡大縮小、回転および移動が選択できる。このため、第3の表示選択ユニット58は、まず、第2のスクロール領域22の下側に、色選択用のアイコン25を表示する。
 ステップ98において、カーソルキー6の選択キー6eが操作されると、第2のスクロール領域22の選択領域27に表示されているパーツ画像62のバリエーション37が固定されて選択済みになる。それとともに、カーソルキー6の操作対象が色選択アイコン25に移動する。カーソルキー6の選択キー6eを操作せずに、上下キー6aおよび6cの操作を行えば、インデックス画像61がスクロールして、異なる選択可能要素36が選択中になる。カーソルキー6の選択キー6eを操作せずに、左右キー6bおよび6dの操作を行えば、パーツ画像62がスクロールして、異なるバリエーション37が選択中になる。
 ステップ99において、カーソルキー6の操作対象が色選択アイコン25に移動すると、図10(a)に示すようにアイコン25にスクロール可能なことを示す矢印アイコンが重ねて表示され、アイコン25の中央の窓25cに位置する色が選択中になる。それとともに、ステップ100において、選択中のパーツの色が、選択中の色に変わったアバター30がキャラクタ表示領域29に表示され、アバター30の表示が変わる。図10(a)の場合、カーソルキー6の左右キー6bおよび6dで、色選択アイコン25をスクロールすることにより、目の色が変わったアバター30が表示される。それともに、アバター30の表示に反映された第1のプロパティ(色)38が選択済みになり、編集中のアバターデータ75に保存される。
 ステップ99において、カーソルキー6の選択キー6eが操作されると、色の選択が終了し、他に選択可能なプロパティがあれば、上記と同様の表示と選択を繰り返すことにより、他のプロパティの選択を行う。この要素E6(目)においては、拡大縮小、回転および移動が可能である。このため、図10(a)および(b)に示すように、第1のスクロール領域21の上側のカーソルキーに対応したアイコン26に、上下移動および回転を示す矢印が表示される。これにより、カーソルキー6を操作することにより、選択中のパーツ(目)の上下移動および回転移動が可能になる。
 カーソルキー6の操作は、キャラクタ表示領域29に表示されているアバター30のパーツ(目)の表示に反映される。カーソルキー6の上下キー6aおよび6cを動かすと、アバター30の顔31に表示された目が上下に移動する。カーソルキー6の左右キー6bおよび6dを動かすと、アバター30の顔31に表示された目が内側および外側に回転する。それともに、アバター30の表示に反映された、これらのプロパティ39が選択済みになり、編集中のアバターデータ75に保存される。
 同時に、領域42に「操作切替」のアイコン44が表示される。ユーザインターフェイス8のメニュー選択キーを操作することにより、アイコン26の表示を図10(c)に示すように切り替えることができる。カーソルキーに対応したアイコン26に、サイズ(表示面積)拡大縮小を示す矢印と、選択中のパーツである両側の目の間隔を広げる、狭める矢印とが表示される。これにより、カーソルキー6を操作することにより、選択中のパーツ(目)の拡大縮小および間隔の調整が可能になる。
 カーソルキー6の操作は、キャラクタ表示領域29に表示されているアバター30のパーツ(目)の表示に反映される。カーソルキー6の上下キー6aおよび6cを動かすと、アバター30の顔31に表示された目の大きさが変わる。カーソルキー6の左右キー6bおよび6dを動かすと、アバター30の顔31に表示された両目の間隔が変わる。それともに、アバター30の表示に反映された、これらのプロパティ39が選択済みになり、編集中のアバターデータ75に保存される。
 図10(d)は、他の要素E2(体型)が選択中のときの、カーソルキー操作を示すアイコン26の表示を示している。要素E2(体型)は、バリエーションがなく、体型を示すインデックス画像61が交差領域28に表示された状態で保持されると(数10ms程度、スクロールされないと)、その要素E2(体型)が選択中になる。あるいは、カーソルキー6の選択キー6eを操作しても、その要素E2(体型)を選択中にできる。他の要素においても同様である。
 要素E2(体型)では、バリエーションのパーツ画像62が表示される代わりに、アイコン26に図10(d)に示すように、体型が太る、やせる表示と、顔31およびボディ32との比率を変える表示とが示される。したがって、カーソルキー6の上下キー6aおよび6cを動かすと、表示されているアバター30のボディ32の太さが変わる。カーソルキー6の左右キー6bおよび6dを動かすと、表示されているアバター30の顔31とボディ32とのバランスが変わる。それともに、アバター30の表示に反映された、これらのプロパティ39が選択済みになり、編集中のアバターデータ75に保存される。
 図11は、要素E14(アクション)のバリエーション37を選択している様子を示している。アクションを示すインデックス画像61が交差領域28に表示されると、アクションのバリエーションを示すパーツ画像62が第2のスクロール領域22に表示される。そして、選択領域27に表示されたパーツ画像62のアクションが選択中になり、キャラクタ表示領域29に表示されているアバター30は、選択中のアクションの動きを開始する。図11に示したアバター30は、怒りのアクションを行い、両手を上下に動かし、顔31を前後に動かす(前後に動かしているように見せる)。
 このような動き(アクション)は、典型的には、アバターデータ35に、人体の骨に相当するボーンという棒状のリンク部材の連結を示すデータ(ボーンデータ)と、人体の皮膚に相当するスキンを示すデータ(スキンデータ)とを含めることにより実現できる。人体の動きはボーンデータにより提供できるので、アバター30をボーンデータに、人体の表面を示すスキンデータを被せた状態で表示することにより、種々のアクションを表示できる。要素E14のバリエーション37のパーツ画像62は、予めライブラリ72に用意されている幾つかのセットのボーンデータのいずれかを選択することを指示し、他の要素36のバリエーション37は予めライブラリ72に用意されているパターンの組み合わせによるスキンデータの生成を指示する。したがって、ボーンデータを予め用意することにより、様々な動きをアバター30に与えることが可能となる。また、サーバー通信などにより、アバターメーカー50により選択できるボーンデータのバリエーションを増やすことにより、様々な動きを行うアバター30を表示するためのデータ35を簡単に生成できる。
 ステップ83において、図7に示した「カメラで撮影した写真を参考にアバターを作成」を選択すると、ステップ101において、ディスプレイ4に、図12に示すようなカメラを選択するメニューが表示される。このメニューでは、アウトカメラと、インカメラとの選択が可能となる。インカメラを用いることにより、ユーザは自らの顔の写真を参考にアバターを作成できる。アウトカメラを用いることにより、他人の顔の写真を参考にアバターを作成できる。
 具体的には、図13に示すように、ステップ110で、カメラを用いて写真を撮って、ステップ111で、その画像を保存する。画像はたとえばマイピクチャーなどの汎用的なフォルダに保存される。次に、ステップ112で、画像保存状態を確認し、ステップ113で切り出しを行う。ステップ113では、図14に示すように写真に含まれる顔の輪郭を合わせる作業が行われる。この段階で、図6に示したように、ステップ102において、自動編集ユニット53が起動され、切り出された顔の画像が自動解析される。自動編集ユニット53により、各選択可能要素36の適当なバリエーション37およびプロパティ38および39が選択され、アバターデータ75が自動生成される。
 ステップ103において、キャラクタ表示領域29に、解析元の写真34と、自動生成されたアバターデータ75によるアバター30とが重複して表示されるように設定される。図15(a)に示すように、写真34に、アバター30が重ねて表示されることにより、ユーザは、写真34と、それを参照して生成されたアバター30とを直観的に比較できる。また、ユーザは、写真34と、アバター30とを重ねた状態で比較しながら、上記に示した編集作業(編集操作)を行うことができる。
 図15(b)に示すように、重複して表示することと、アバター30だけをキャラクタ表示領域29に表示することとを切り換えることも可能である。さらに、図示していないが、写真34をアバター30の上に半透過の状態で表示したり、写真34だけを表示することも可能であり、これらの表示をユーザは任意に切り換えることが可能である。
 アバター30と写真34とを重複して表示するシステムは限定されないが、典型的には、キャラクタ表示領域29に、表示レイヤーを複数設定するシステムを採用できる。1つの表示レイヤーをアバター30の表示に割り当て、他の1つの表示レイヤーを写真34の表示に割り当てることが可能である。ユーザの操作により、これらの表示レイヤーの前後を入れ替えたり、表示レイヤーを半透過に設定したりすることにより、アバター30と、写真34とを単独で、あるいは単純に重ねて、さらに種々の状態で重ねて表示できる。
 なお、アバターメーカー50において、スクロール領域21および22の配置、プロパティの選択を行うアイコン25および26の配置は上記に限定されるものではない。図16に示すように、アイコン25を第2のスクロール領域22の上に配置しても良い。さらに、図17に示すように、アイコン25を第1のスクロール領域21の近傍に配置しても良い。図17に示した配置は、携帯電話の長方形の表示デバイス4を横長に使用して表示するときに適している。したがって、携帯電話の表示デバイス4が縦長に用いられているか、横長に用いられているかを自動的に検出し、横長に用いられているときは図17に示した配置に自動的に変わり、縦長に用いられているときは図16に示した配置に自動的に変わるような機能を付加しても良い。
 以上に説明したように、アバターメーカー50は、ディフォルトのアバターデータ、保存済みのアバターデータあるいは自動生成されたアバターデータによりアバター30を表示させ、そのアバター30を編集することにより所望のアバター30を表示させるアバターデータ75を生成するものである。したがって、アバター30を構成する各パーツあるいはアイテムが全くない状態から1つ1つを選択して追加していくタイプの生成装置でない。アバターメーカー50では、キャラクタ表示領域29に、各選択可能要素36のバリエーション37の1つが選択された状態のアバター30が常に表示される。このため、ユーザは、編集あるいは生成しているアバター30の全体を常に把握することが可能である。さらに、ユーザは、選択可能要素36のバリエーション37を選択するときは、直観的に、ユーザが望むアバター30に近づいているか否かを把握できる。
 さらに、このアバターメーカー50は、選択可能要素と、そのバリエーションをスクロール表示し、所定の位置に表示されたバリエーションが選択中になる編集機能(編集方法)を採用している。このため、所定の位置、例えば、選択領域27に表示された1つのバリエーションが常に選択中になり、その選択中のバリエーション(パーツ画像)62を備えたアバター30を表示できる。また、パーツ画像62をスクロールすることにより選択中のバリエーションを簡単に変えることができる。このため、編集中のアバター30の変化を直観的(視覚的)に把握でき、その結果が編集中のアバターデータ75に保存される。
 さらに、表示に反映されたアバター30のバリエーション(パーツ画像)62を自動的に選択済みにすることにより、カーソルキー6の選択キー6eで選択済みにする操作をしなくても、選択中のバリエーションが反映されたアバターデータ75が生成される。例えば、カーソルキー6の上下あるいは左右の方向キーを用いて、次の選択可能要素36について、バリエーション37を選択中にするだけで、前の選択可能要素36について選択中であったバリエーション37は選択済みとなり、編集中のアバターデータ75に保存される。このため、ユーザは、単に、次々と選択可能要素36についてバリエーション37を選択中にするだけで、ユーザの意図が反映されたアバター30を表示でき、そのアバター30を表示するためのアバターデータ75を生成できる。
 また、インデックス画像61をスクロール表示する第1のスクロール領域21と、パーツ画像62をスクロール表示する第2のスクロール領域22とを直交するように配置している。この配置を採用することにより、カーソルキー6の上下キー6aおよび6cによりインデックス画像61をスクロールし、左右キー6bおよび6dによりパーツ画像62をスクロールすることを直観的に把握できる。したがって、ユーザはヘルプメニューなどをほとんど用いなくてもアバターメーカー50を操作できる。
 第1のスクロール領域21と第2のスクロール領域22との配置を逆転しても良い。この場合は、左右キー6bおよび6dによりインデックス画像61をスクロールして異なる選択可能要素36を選択中にできる。また、カーソルキー6の上下キー6aおよび6cによりパーツ画像62をスクロールして異なるバリエーション37のパターンを選択中にできる。いずれの場合も、ユーザは、携帯電話などに多用されており、操作に慣れているカーソルキー6により、上下および左右のスクロール方向を選択するだけで、所望のパーツを選択し、アバター30を自由自在に編集することができる。
 また、インデックス画像61およびパーツ画像62をスクロール表示する選択機能(選択方法)を採用することにより、表示可能な面積の小さい携帯電話などのポータブルの情報端末においても、数多くのバリエーションを大きな表示により、見やすく表示できる。さらに、インデックス画像61とパーツ画像62とはアバターのある部分の特徴を抜き出して示しているので、それらの画像により選択中およびその前後のバリエーションが視覚的に分かりやすい。このため、選択中のバリエーション37およびスクロールすることにより次に選択できるバリエーション37を容易に把握できる。さらに、選択中の選択可能要素36および次に選択中にできる選択可能要素36も容易に理解できる。このため、ユーザに、適切に選択できる機会を与えるような表示となっている。
 また、これらのスクロール領域21および22を、キャラクタ表示領域29を囲むように配置することにより、狭い表示面積を効率良く利用でき、キャラクタ表示領域29の面積を確保でき、編集中のアバター30を大きく表示できる。
 さらに、アバターメーカー50の編集ユニット52は、選択可能要素36を選択するための第1の表示選択ユニット56、バリエーション37を選択するための第2の表示選択ユニット57に加え、プロパティ38および39を選択するための第3の表示選択ユニット58を備えている。このため、第2の表示選択ユニット57で選択すべきバリエーション37のパターンに、色、位置などの、1つの選択可能要素36のバリエーション37に共通な内容を含めずに済む。したがって、第2の表示選択ユニット57がスクロール表示することにより選択するパターンを削減でき、選択に要するソフトウェアおよびユーザの負荷を低減できる。
 さらに、このアバターメーカー50は、顔31を含むアバター30の生成に特化された機能を含んでいる。たとえば、複数の顔パーツのうち、目、眉毛は、間隔が広い狭いで表情が変わり、さらに、傾きを変えることによって表情が変わる。したがって、パーツの表示面積、表示位置を可変にするだけではなく、間隔、傾きを含めて選択あるいは調整することが可能であり、より多くの表情をもったアバター30を表示できる。また、そのような表情のアバター30を編集することにより、そのような表情のアバター30を表示するためのデータ75を生成できる。
 さらに、このアバターメーカー50は、顔31に加えてボディ32の少なくとも一部を表示するデータを含むアバターデータ35および75を処理できる。さらに、アバターデータ35および75により、動き(アクション)のあるアバター30を表示できる。アバターデータ35および75は、アクションを表現するための多節のボーンデータと、ボーンデータの節点と関連づけられたスキンデータとを含み、それらを組み合わせることにより種々の動きをもち、様々な表情のアバター30を表示できる。また、アバターメーカー50により、アバター30が所望の動きをするように編集することにより、そのような動きをするアバター30を表示させるアバターデータ75を生成できる。アバターメーカー50は、幾つかのボーンデータのセットの中から所望の1つを選択することにより異なるアクションを行うアバター30を表示するデータ75を生成できる。
 さらに、このアバターメーカー50は、キャラクタ表示領域29に、他の画像、典型的には写真画像34に、アバター30を重ねて表示することができる。このため、写真画像34を参照しながら、アバターデータ35(75)を編集することが可能であり、ユーザ自身の顔をディフォルメしたアバター30を表示するデータ35(75)を簡単に生成できる。
 図18は、アバターメーカーの異なる例を示すブロックダイアグラムである。このアバターメーカー50aもアバター30の表示を編集あるいは変更することにより、編集前のキャラクタを表示するためのデータ(キャラクタ表示用データ、アバターデータ)35から、所望のアバターを表示するためのデータ(編集されたキャラクタ表示用データ、編集されたアバターデータ)75を生成する。したがって、上記のアバターメーカー50と共通する構成および機能については、共通の符号をつけて説明を省略する。
 このアバターメーカー50aにおいては、タッチパネル4aが有効になっている。したがって、カーソル6に加え、あるいはカーソル6に代えて指4fによりアバターメーカー50aの各機能を操作できる。指4fに代えてタッチペンで操作してもよい。たとえば、第1の表示選択ユニット56は、第1のスクロール領域21が指4fにより上下にフリックされると、インデックス画像61を上下にスクロールする。第2の表示選択ユニット57は、第2のスクロール領域22が指4fで左右にフリックされると、パーツ画像62をスクロールする。
 また、第3の表示選択ユニット58xは、カーソルキーに対応した上下左右選択用のアイコン26のボタンが指4fでタップされると、それぞれの機能を選択する。インデックス画像61やパーツ画像62がタップされると、第1の表示選択ユニット56は選択可能要素36を決定(選択済み)とし、第2の表示選択ユニット57はバリエーション37を決定(選択済み)とする。さらに、アバター30の部位が指4fでタップされると、第1の表示選択ユニット56は、その部位に対応するインデックス画像(選択可能要素)61を交差枠28にセットしてバリエーション37を選択できるようにする。
 また、キャラクタ表示ユニット51は、キャラクタ表示領域29が指4fでピンチされるとディスプレイ4内のキャラクタ表示領域29のサイズを変えたり、キャラクタ表示領域29に表示されているアバター30の大きさを変えたりすることができる。アバター30がキャラクタ表示領域29に収まらないサイズになると、キャラクタ表示ユニット51は、キャラクタ表示領域29が指4fでフリックされるとアバター30をスクロール表示する。これらの指4fによるアバターメーカー50の操作は一例であり、これらに限定されない。
 ディスプレイ4のキャラクタ表示領域(アバター表示枠)29の上部がキャプション枠41になっている。このキャプション枠41に、編集ユニット52のヘルプ機能59が、編集の各段階においてユーザが操作可能な項目を示唆するメッセージや、エラーメッセージを表示する。
 このアバターメーカー50aにおいては、第1のスクロール領域21と第2のスクロー路領域22との交差部(交差枠)28が、選択中の選択可能要素のインデックス画像61を示すとともに、選択中のバリエーション37のパーツ画像62を示す選択枠27を兼ねている。このアバターメーカー50aは、第3の表示選択ユニット58xおよび58yを備えている。第3の表示選択ユニット58xは、カーソル表示26を用いてプロパティ39を表示選択させる。第3の表示選択ユニット58yは、第2のスクロール領域22を用いてプロパティ38を表示し、交差枠28に表示されたプロパティ38を選択する。この例では、第3の表示選択ユニット58yにパーツの色を選択する機能58eが含まれている。
 第3の表示選択ユニット58xは、第1のスクロール領域21および第2のスクロール領域22の表示の代わりに、キャラクタ表示領域29の下側にカーソル表示26を表示してプロパティ39を選択可能とする。さらに、プロパティ39を選択するために複数のカーソル表示26xおよび26yを必要とする要素36、たとえば眉毛(E5)、目(E6)においては、複数のカーソル表示26xおよび26yを表示する。そして、一方のカーソル表示26xを拡大して表示し、そのカーソル表示26xによる選択を有効にする。このため、ユーザは、プロパティ39として選択可能な項目を、画面を切り替えなくても一目で理解できる。
 さらに、このアバターメーカー50aは、顔31およびボディ32を3次元(3D)で表示させるアバターデータ35を編集し、所望の3Dアバターを表示するアバターデータ75を生成できる。このため、編集ユニット52は、アバター30を3次元で表示するユニット120を含む。また、キャラクタ表示領域29の左右および下側に、アバター30がキャラクタ表示領域29に表示される向きを制御するためのボタン124、125および126が表示される。
 図19ないし図23に、アバターメーカー50aでアバター30が編集され、アバターデータ75が生成される様子を示している。アバターデータ75が生成される処理の流れは、図6のフローチャートに示した通りである。
 図19に示すように、アバターメーカー50aにおいて編集が開始されると、ディスプレイ4のキャラクタ表示領域29の横の第1のスクロール領域21に、複数のインデックス画像61が上下にスクロールするように表示される。キャラクタ表示領域29の下側の交差枠28にインデックス画像61が拡大表示され、そのインデックス画像61が指4fあるいはカーソルキー6により選択されると要素36が選択中になる。また、所定の時間、交差枠28に表示されたインデックス画像61が変わらないと、交差枠28に表示されたインデックス画像61の選択可能要素36が選択中になる。
 図20に示すように、交差枠28のインデックス画像61の選択可能要素36が選択中になると、ディスプレイ4のキャラクタ表示領域29の下の第2のスクロール領域22に、交差枠28から左に延びるように、複数のパーツ画像62が左右に表示される。複数のパーツ画像62は、指4fあるいはカーソル6で左右にスクロールするように表示される。スクロール表示されるパーツ画像62は、交差枠28により選択された選択可能要素36のバリエーション37を示す。第1のスクロール領域21との交差枠28にパーツ画像62が拡大表示され、交差枠28が選択枠27となる。交差枠28のパーツ画像62が指4fあるいはカーソルキー6により選択されるとバリエーション37が選択中になる。所定の時間、交差枠28に表示されたパーツ画像62が変わらないと、交差枠28に表示されたパーツ画像62のバリエーション37が選択中になる。それとともに、キャラクタ表示領域29に表示されているアバター30の該当するパーツが交差枠28に表示されたパーツに変わる。
 図21に示すように、バリエーション37が選択中になると、第3の表示選択ユニット58yにより、第2のスクロール表示領域22に、選択中のバリエーション37の複数のプロパティ38がスクロール表示される。このアバターメーカー50aでは、第2のスクロール領域22に、パーツの選択可能な色(色の表示)63がスクロール表示される。それとともに、キャラクタ表示領域29に表示されているアバター30の該当するパーツの色が、交差枠28に示された色63に変わる。交差枠28の色が指4fあるいはカーソルキー6により選択されたり、所定の時間、交差枠28に表示された色63が変わらないと、交差枠28に表示された色63が選択中になる。また、選択されたパーツのバリエーション37とプロパティ(色)38が、編集中のアバターデータ75に保存される。
 図22に示すように、選択中の要素36について、色の他に選択可能なプロパティ39があると、ディスプレイ4のキャラクタ表示領域29の下側に、カーソルキー対応のアイコン26xおよび26yが表示される。その際、第1のスクロール領域21および第2のスクロール領域22の表示はいったん消去され、アイコン26xおよび26yが代わって表示される。同時にディスプレイ4の下端の領域42に、操作切替アイコン44が表示される。それぞれのアイコン26xおよび26yの操作およびそれによりアバター30のパーツがどのように変動するかは、図10に基づき説明した通りである。操作切替アイコン44により、アイコン26xおよび26yのうち、有効なアイコンを選択でき、有効なアイコンは大きく表示される。
 図23に示すように、キャラクタ表示領域29のアバター30を回転して表示できる。髪型(E4)のバリエーション37などのように、正面だけでは3次元で表示されたときの形状などが特定できないパーツにおいては、アバター30を回転して側面および背面を表示することが望ましい。キャラクタ表示領域29の左側のボタン124を指4fでタップするか、テンキー7の数字「4」をタップすることによりアバター30を右側に回転させることができ、左側面および背面を表示できる。キャラクタ表示領域29の右側のボタン126を指4fでタップするか、テンキー7の数字「6」をタップすることによりアバター30を左側に回転させることができ、右側面および背面を表示できる。キャラクタ表示領域29の下側のボタン125を指4fでタップするか、テンキー7の数字「5」をタップすることによりアバター30を正面に向くように表示できる。
 3次元でアバター30を表示するためのアバターデータ35および75の一例は、人体の骨に相当するボーンという棒状のリンク部材の連結を示すデータ(ボーンデータ)と、人体の皮膚に相当する3次元のスキンを示すデータ(スキンデータ)とを含むものである。3次元の人体の動きもボーンデータにより提供できる。アバター30をボーンデータに、人体の表面を示す3次元のスキンデータを被せた状態で表示することにより3次元のアバター30を表示できる。さらに、3次元で種々のアクションを行うアバター30を表示できる。
 なお、テンキー7のうち、上記の数字キーに加え、他のキーもアバターメーカー50aの操作に利用できる。クリアキーは、前の編集項目に戻るために使用できる。終了キーはアバターメーカー50aを終了するために使用できる。
 図24ないし図26は、アバターメーカー50aで追加された選択可能要素36の例を示している。アバターメーカー50aで追加された選択可能要素36の1つは、アバター30の服装(以降ではクローゼットと呼ぶ)である。図24(a)~(c)は、クローゼットに用意されているバリエーションの1つ(テーマ、項目)である「羊の執事」というテーマで用意されたバリエーション37の幾つかを示している。図24(a)はかぶり物、図24(b)はお面、図24(c)は着ぐるみの一例である。
 クローゼットは、この他に、洋装、和装、ウェディングドレス、特定のテーマのお面、着ぐるみといったテーマ(項目)を含む。また、クローゼットは、アバター30のボディ32に関連するパーツを変更するだけにとどまらず、顔31に関連するパーツも含む。クローゼットに関連するそれぞれのテーマは、より小規模なテーマ(中項目および/または小項目)を含む。洋装は、たとえば、フォーマル、セミフォーマル、カジュアルなどの小項目を含み、それぞれの小項目が複数のバリエーション37を含む。
 アバターメーカー50aでさらに追加された選択可能要素36の1つは、アバター30の背景33である。図25(a)~(c)は、背景33のバリエーション37の幾つかの例を示している。図25(a)は背景33の色を設定した例を示し、図25(b)は背景33に素材を読み込んだ例を示し、図25(c)は背景33に写真を読み込んだ例を示している。
 アバターメーカー50aでさらに追加された選択可能要素36の1つは、アバター30の顔31の化粧(メイク)である。図26(a)~(c)は、メイクのバリエーション37の幾つかの例を示している。図26(a)はメイクなし、図26(b)は口紅メイク、図26(c)はチークメイクを示している。口紅メイクおよびチークメイクにおいては、アバター30の顔31のメイクの対象となる場所の色、柄などをプロパティ38として変更することができる。メイク(メイク設定)のバリエーション37には、この他に、ピアス、ネックレスなどが含まれる。
 図27は、図6のステップ87において、保存・出力メニューで「サーバー通信」が選択された場合を示している。保存・出力メニューには「サーバー通信」というボタン表示の代わりに、アバター30を使用したい具体的なアプリケーションの名称をボタン表示してもよい。図18に示すように、アバターメーカー50aの保存・出力ユニット54は、メモリ(ストレージ)15にアバターデータ75を保存する機能54aと、アバターデータ75をJPEGなどの画像データに変換して出力する機能54cと、アバターデータ75をサーバーへアップロードする機能54bとを含む。
 「サーバー通信」が選択されると、アップロードする機能54bが、編集されたアバターデータ75を、アバターメーカー50aが動く端末1の無線インターフェイス17、基地局131、インターネット132を介してエンコード用のサーバー135にアップロードする。エンコードサーバー135は、アプリケーションのキャラクタ181、メール添付素材(画像)182、メール添付素材(アニメーション)183、ゲームデータ(ゲーム用のキャラクタ)184、ユーザインターフェイス用のキャラクタ185などの用途(アプリケーション)の中からユーザが指定した用途で使用できるデータにアバターデータ75を変換する。たとえば、ユーザAが作ったアバター30aのアバターデータ75aと、ユーザBが作ったアバター30bのアバターデータ75bとがサーバー135にそれぞれアップロードされる。それにより、アバター30aおよび30bがキャラクタとして登場するゲームデータ138がユーザAなどの端末1に提供される。
 端末1の側に、アバターデータ75を所望のアプリケーション用にエンコードする機能を付与してもよい。しかしながら、サーバー135でアバターデータ75をエンコードするサービスを提供することにより、サーバー135の資源を用い、端末1の限られた容量では実装できない数多くのアプリケーション用にアバターデータ75を変換できる。また、サーバー135を利用することにより、変換に要する処理時間を短縮でき、さらに、新しく登場したアプリケーションや、アップデートされたアプリケーションに対応したキャラクタにアバターデータ75を変換することも容易となる。
 これらの機能を備えたアバターメーカー50、および/または、図6に示したアバターデータの製造方法は、プログラムまたはプログラム製品71として、適当なメディアに記録して提供できる。また、プログラム71はインターネットなどのコンピュータネットワーク、データ送受信網を通じて提供できる。さらに、上記では携帯電話の1つのアプリケーションとしてアバターメーカー50を実装した例を説明しているが、携帯電話に限らずPDAなどの他のポータブルな情報処理端末に実装することも可能である。上述したアバターメーカー50は、表示面積が小さく、上下左右を選択できるカーソルキー6あるいはそれに類似するユーザインターフェイスを備えた端末に適している。さらに、パーソナルコンピュータなどの個人的な情報処理装置あるいは情報端末にインストールして用いることも可能である。また、アバターメーカー50のプログラム71をサーバーに実装してウェブサーバーとして機能させ、HTMLなどの言語を介して携帯電話を単なる表示デバイス4およびユーザインターフェイス8の機能を提供する操作端末として使用するシステムを構築することも可能である。

Claims (29)

  1.  複数のパーツの組み合わせにより表現される部分を含むキャラクタを表示させるキャラクタ表示用データを生成する装置であって、
     前記キャラクタ表示用データに基づく画像を表示デバイスのキャラクタ表示領域に表示するキャラクタ表示ユニットと、
     前記複数のパーツを含む複数の選択可能要素の少なくとも1つの複数のバリエーションの少なくとも一部を前記表示デバイスに、ユーザインターフェイスにより選択可能なようにスクロール表示し、所定の位置に表示された1つのバリエーションを選択中にする編集ユニットであって、さらに、選択中のバリエーションが反映された前記キャラクタ表示用データの画像を前記キャラクタ表示領域に表示し、表示に反映されたバリエーションを選択済みにする、編集ユニットと、
     選択済みのバリエーションが反映された、編集されたキャラクタ表示用データを保存または出力するユニットとを有する装置。
  2.  請求項1において、
     前記編集ユニットは、前記キャラクタ表示領域の外側の第1のスクロール領域に、前記複数の選択可能要素をそれぞれ示す複数の第1の画像の少なくとも一部をスクロールするように表示する第1の表示選択ユニットと、
     前記キャラクタ表示領域の外側の第2のスクロール領域に、前記複数の選択可能要素のうち、前記第1のスクロール領域の所定の場所に表示された1つの選択可能要素の複数のバリエーションをそれぞれ示す複数の第2の画像の少なくとも一部をスクロールするように表示し、前記複数のバリエーションの1つを選択中にする第2の表示選択ユニットとを含む、装置。
  3.  請求項2において、
     前記第1のスクロール領域は、前記キャラクタ表示領域の外側の第1の方向に沿って配置され、前記第2のスクロール領域は、前記キャラクタ表示領域の外側の第2の方向に沿って前記第1のスクロール領域と一部が交差するように配置され、
     前記第2の表示選択ユニットは、前記第1のスクロール領域と前記第2のスクロール領域とが交差する場所に表示された1つの選択可能要素の複数のバリエーションをスクロールするように表示する、装置。
  4.  請求項3において、前記第2の表示選択ユニットは、前記複数のバリエーションの前記交差する場所に表示されたバリエーションを選択中にする、装置。
  5.  請求項3において、
     前記第1の方向および前記第2の方向は、前記ユーザインターフェイスに含まれるキーによるカーソルの移動方向と一致している、装置。
  6. 請求項2において、前記第2の表示選択ユニットは、前記選択中のバリエーションに付随する選択可能なプロパティを前記第2のスクロール領域に表示し、それらの1つを選択中にする、装置。
  7.  請求項1において、前記編集ユニットは、バリエーションを選択中の選択可能要素の複数のバリエーションに共通のプロパティを前記表示デバイスの前記キャラクタ表示領域の外側に表示し、選択可能とする第3の表示選択ユニットを、さらに含む、装置。
  8.  請求項7において、前記複数のパーツは、顔の一部を構成する複数の顔パーツを含み、前記第3の表示選択ユニットは、
     大小を表示し、選択中の顔パーツの大小を可変にする機能、
     上下の移動方向を表示し、選択中の顔パーツの上下位置を可変にする機能、
     前記複数の顔パーツは目および眉毛を含み、目または眉毛のバリエーションが選択されると、間隔を狭く、および広くする移動方向を表示し、選択中の目または選択中の眉毛の間隔を可変にする機能、および、
     目または眉毛のバリエーションが選択されると、回転する方向を表示し、選択中の両側の目の傾き、または選択中の両側の眉毛の傾きを同期して可変にする機能の少なくともいずれかを含む、装置。
  9.  請求項1において、前記キャラクタ表示用データは、前記キャラクタの顔に加えてボディの少なくとも一部を表示させるデータを含み、前記複数の選択可能要素は、前記キャラクタの性別により相違する体型要素を含む、装置。
  10.  請求項9において、前記複数の選択可能要素は、前記顔および/またはボディの少なくとも一部により表現されるアクションを含む、装置。
  11.  請求項1において、前記キャラクタ表示ユニットは、前記キャラクタ表示用データとは異なる画像データによる画像に、前記キャラクタ表示用データに基づく画像を重ねて表示する機能を含む、装置。
  12.  請求項11において、前記異なる画像データから、初期表示用のキャラクタ表示用データを自動生成するユニットを、さらに有する、装置。
  13.  請求項1において、前記キャラクタ表示用データは3次元で前記キャラクタを表示させるデータを含み、
     前記編集ユニットは、前記キャラクタ表示ユニットに前記キャラクタを前後に回転させた状態で表示する表示ユニットをさらに含む、装置。
  14.  請求項1において、前記保存または出力するユニットは、前記編集されたキャラクタ表示用データから2次元画像表示用の画像データを生成する機能を含む、装置。
  15.  請求項1において、前記保存または出力するユニットは、所望のアプリケーション用のデータに変換させるために前記編集されたキャラクタ表示用データをサーバー宛に出力する機能を含む、装置。
  16.  画像を表示するための表示デバイスと、前記表示デバイスにより表示されたアイテムを選択するユーザインターフェイスとを含む装置により、複数のパーツの組み合わせにより表現される部分を含むキャラクタを表示させるキャラクタ表示用データを生成する方法であって、
     前記表示デバイスに、前記複数のパーツを含む複数の選択可能要素の少なくとも1つの複数のバリエーションの少なくとも一部を前記表示デバイスにスクロール表示することと、
     所定の位置に表示された1つのバリエーションを選択中にすることと、
     選択中のバリエーションが反映された前記キャラクタ表示用データの画像を前記表示デバイスのキャラクタ表示領域に表示することと、
     前記キャラクタ表示領域に表示することに反映されたバリエーションを含む編集されたキャラクタ表示用データを保存または出力することとを含む、方法。
  17.  請求項16において、前記スクロール表示することは、
     前記キャラクタ表示領域の外側に、第1の方向に沿って配置された第1のスクロール領域に、前記複数の選択可能要素をそれぞれ示す複数の第1の画像の少なくとも一部をスクロールするように表示することと、
     前記キャラクタ表示領域の外側に、第2の方向に沿って、前記第1のスクロール領域と一部が交差するように配置された第2のスクロール領域に、前記複数の選択可能要素のうち、前記第1のスクロール領域と交差する場所に表示された1つの選択可能要素の複数のバリエーションをそれぞれ示す複数の第2の画像の少なくとも一部をスクロールするように表示することとを含む、方法。
  18.  請求項16において、前記選択中のバリエーションに付随する複数のプロパティを前記第2のスクロール領域に表示し、それらの1つを選択中にすることを、さらに含む、方法。
  19.  請求項16において、バリエーションを選択中の選択可能要素の複数のバリエーションに共通のプロパティを前記表示デバイスの前記キャラクタ表示領域の外側に表示し、前記プロパティを選択可能とすることを、さらに含む、方法。
  20.  請求項19において、前記複数のパーツは、顔の一部を構成する複数の顔パーツを含み、前記プロパティを選択することは、
     大小を表示し、選択中の顔パーツの大小を可変にすることと、
     上下の移動方向を表示し、選択中の顔パーツの上下位置を可変にすることと、
     前記複数の顔パーツは目および眉毛を含み、目または眉毛のバリエーションが選択されると、間隔を狭く、および広くする移動方向を表示し、選択中の目または選択中の眉毛の間隔を可変にすることと、
     目または眉毛のバリエーションが選択されると、回転する方向を表示し、選択中の両側の目の傾き、または選択中の両側の眉毛の傾きを同期して可変にすることと、の少なくともいずれかを含む、方法。
  21.  請求項16において、前記キャラクタ表示用データは、前記キャラクタの顔に加えてボディの少なくとも一部を表示させるデータを含み、前記複数の選択可能要素は、前記顔および/またはボディの少なくとも一部により表現されるアクションを含む、方法。
  22.  請求項16において、前記キャラクタ表示領域に表示することは、前記キャラクタ表示用データとは異なる画像データによる画像に、前記キャラクタ表示用データに基づく画像を重ねて表示することを含む、方法。
  23.  請求項16において、前記キャラクタ表示用データは3次元で前記キャラクタを表示させるデータを含み、
     前記キャラクタ表示領域に表示することは、前記キャラクタを前後に回転させた状態で表示することを含む、方法。
  24.  請求項16において、前記保存または出力することは、所望のアプリケーション用のデータに変換させるために前記編集されたキャラクタ表示用データをサーバー宛に出力することを含む、方法。
  25.  画像を表示するための表示デバイスと、前記表示デバイスにより表示されたアイテムを選択するためのユーザインターフェイスとを含むコンピュータにより実行されるプログラムであって、前記コンピュータにより実行されることにより、前記コンピュータを、複数のパーツの組み合わせにより表現される部分を含むキャラクタを表示させるキャラクタ表示用データを生成する装置として機能させることを含むプログラムであって、
     前記装置は、
     前記表示デバイスにより表示されたアイテムを選択する機能を含むユーザインターフェイスと、
     前記キャラクタ表示用データに基づく画像を表示デバイスのキャラクタ表示領域に表示するキャラクタ表示ユニットと、
     前記複数のパーツを含む複数の選択可能要素の少なくとも1つの複数のバリエーションの少なくとも一部を前記表示デバイスにスクロール表示し、所定の位置に表示された1つのバリエーションを選択中にする編集ユニットであって、さらに、選択中のバリエーションが反映された前記キャラクタ表示用データの画像を前記キャラクタ表示領域に表示し、表示に反映されたバリエーションを選択済みにする、編集ユニットと、
     選択済みのバリエーションが反映された、編集されたキャラクタ表示用データを保存または出力するユニットとを含む、プログラム。
  26.  請求項25において、前記編集ユニットは、
     前記キャラクタ表示領域の外側に、第1の方向に沿って配置された第1のスクロール領域に、前記複数の選択可能要素をそれぞれ示す複数の第1の画像の少なくとも一部をスクロールするように表示する第1の表示選択ユニットと、
     前記キャラクタ表示領域の外側に、第2の方向に沿って、前記第1のスクロール領域と一部が交差するように配置された第2のスクロール領域に、前記複数の選択可能要素のうち、前記第1のスクロール領域と交差する場所に表示された1つの選択可能要素の複数のバリエーションをそれぞれ示す複数の第2の画像の少なくとも一部をスクロールするように表示する第2の表示選択ユニットとを含む、プログラム。
  27.  請求項25において、前記キャラクタ表示用データは、前記キャラクタの顔に加えてボディの少なくとも一部を表示させるデータを含み、前記複数の選択可能要素は、前記顔および/またはボディの少なくとも一部により表現されるアクションを含む、プログラム。
  28.  請求項25において、前記キャラクタ表示ユニットは、前記キャラクタ表示用データとは異なる画像データによる画像に、前記キャラクタ表示用データに基づく画像を重ねて表示する機能を含む、プログラム。
  29.  請求項25において、前記保存または出力するユニットは、所望のアプリケーション用のデータに変換させるために前記編集されたキャラクタ表示用データをサーバー宛に出力する機能を含む、プログラム。
PCT/JP2009/001972 2008-04-30 2009-04-30 キャラクタ表示用データの生成装置および方法 WO2009133710A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010510047A JP5383668B2 (ja) 2008-04-30 2009-04-30 キャラクタ表示用データの生成装置および方法
KR1020107026573A KR101687689B1 (ko) 2008-04-30 2009-04-30 캐릭터 표시용 데이터의 생성 장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008119079 2008-04-30
JP2008-119079 2008-04-30

Publications (1)

Publication Number Publication Date
WO2009133710A1 true WO2009133710A1 (ja) 2009-11-05

Family

ID=41254934

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/001972 WO2009133710A1 (ja) 2008-04-30 2009-04-30 キャラクタ表示用データの生成装置および方法

Country Status (3)

Country Link
JP (1) JP5383668B2 (ja)
KR (1) KR101687689B1 (ja)
WO (1) WO2009133710A1 (ja)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011127309A1 (en) * 2010-04-07 2011-10-13 Apple Inc. Avatar editing environment
JP2013117956A (ja) * 2012-11-28 2013-06-13 Konami Digital Entertainment Co Ltd サーバ装置およびプログラム
JP2014002678A (ja) * 2012-06-20 2014-01-09 Celsys:Kk オブジェクト表示方法、プログラム、及び装置
JP5603452B1 (ja) * 2013-04-11 2014-10-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP2014210213A (ja) * 2014-08-21 2014-11-13 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
KR101500798B1 (ko) * 2010-07-06 2015-03-10 한국전자통신연구원 아바타 생성 방법 및 장치
WO2015151670A1 (ja) * 2014-04-01 2015-10-08 ビッグローブ株式会社 通信端末、スタンプ画像作成方法およびプログラム
JP6043893B2 (ja) * 2014-12-24 2016-12-14 ザワン ユニコム プライベート リミテッド カンパニー メッセージ送信装置、メッセージ送信方法、および記録媒体
JP2017004270A (ja) * 2015-06-10 2017-01-05 日本電信電話株式会社 会議支援システム、及び会議支援方法
US9542038B2 (en) 2010-04-07 2017-01-10 Apple Inc. Personalizing colors of user interfaces
JP2017073145A (ja) * 2016-11-07 2017-04-13 株式会社セルシス オブジェクト表示方法、プログラム、及び装置
JP2017150957A (ja) * 2016-02-25 2017-08-31 株式会社 ミックウェア ナビゲーション装置、ナビゲーション方法およびプログラム
JP2019145108A (ja) * 2018-02-23 2019-08-29 三星電子株式会社Samsung Electronics Co.,Ltd. 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
JP2019192116A (ja) * 2018-04-27 2019-10-31 株式会社 ディー・エヌ・エー 画像生成装置及び画像生成プログラム
EP3696655A1 (en) * 2018-05-07 2020-08-19 Apple Inc. Avatar creation user interface
EP3700179A1 (en) * 2019-02-19 2020-08-26 Samsung Electronics Co., Ltd. Electronic device supporting avatar recommendation and download
US10845968B2 (en) 2017-05-16 2020-11-24 Apple Inc. Emoji recording and sending
US10846905B2 (en) 2017-05-16 2020-11-24 Apple Inc. Emoji recording and sending
US10861248B2 (en) 2018-05-07 2020-12-08 Apple Inc. Avatar creation user interface
US11061372B1 (en) 2020-05-11 2021-07-13 Apple Inc. User interfaces related to time
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US20210349612A1 (en) * 2020-05-11 2021-11-11 Apple Inc. Editing features of an avatar
US11178335B2 (en) 2018-05-07 2021-11-16 Apple Inc. Creative camera
JP2022008470A (ja) * 2018-05-07 2022-01-13 アップル インコーポレイテッド アバター作成ユーザインターフェース
JP2022075926A (ja) * 2020-01-09 2022-05-18 グリー株式会社 ゲーム制御方法、コンピュータ及び制御プログラム
JP2023011719A (ja) * 2016-09-23 2023-01-24 アップル インコーポレイテッド アバターの作成及び編集
EP3584679B1 (en) * 2018-05-07 2023-04-19 Apple Inc. Avatar creation user interface
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11941223B2 (en) 2016-06-12 2024-03-26 Apple Inc. User interfaces for retrieving contextually relevant media content
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US12099713B2 (en) 2023-07-11 2024-09-24 Apple Inc. User interfaces related to time

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101711684B1 (ko) * 2012-12-14 2017-03-03 한국전자통신연구원 3d 아바타 출력 장치 및 방법
NL2011234C2 (en) * 2013-07-29 2015-02-02 Koninkl Douwe Egberts Bv Beverage preparation system and method for preparing a beverage.
DK201670609A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
KR20220100410A (ko) * 2021-01-08 2022-07-15 삼성전자주식회사 전자 장치 및 그의 아바타 생성을 위한 정보를 관리하는 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04360276A (ja) * 1991-06-06 1992-12-14 Brother Ind Ltd 似顔絵作成装置
JPH06203122A (ja) * 1992-12-30 1994-07-22 Casio Comput Co Ltd 表示装置及び生命体情報読み上げ装置
JPH0844898A (ja) * 1994-07-29 1996-02-16 Brother Ind Ltd モンタージュ作成装置
JPH1040422A (ja) * 1996-07-22 1998-02-13 Nec Corp 3次元キャラクタ作成装置および3次元キャラクタ作成方法
JPH10187931A (ja) * 1996-12-20 1998-07-21 Omron Corp 似顔絵送信及び受信装置、似顔絵通信装置及び方法、似顔絵通信プログラム記憶媒体
JP2000067255A (ja) * 1998-08-21 2000-03-03 Sony Corp 描画装置
JP2005512244A (ja) * 2001-12-11 2005-04-28 スーパースケイプ グループ ピーエルシー 画像構成及びアニメーションのための方法及び装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04360276A (ja) * 1991-06-06 1992-12-14 Brother Ind Ltd 似顔絵作成装置
JPH06203122A (ja) * 1992-12-30 1994-07-22 Casio Comput Co Ltd 表示装置及び生命体情報読み上げ装置
JPH0844898A (ja) * 1994-07-29 1996-02-16 Brother Ind Ltd モンタージュ作成装置
JPH1040422A (ja) * 1996-07-22 1998-02-13 Nec Corp 3次元キャラクタ作成装置および3次元キャラクタ作成方法
JPH10187931A (ja) * 1996-12-20 1998-07-21 Omron Corp 似顔絵送信及び受信装置、似顔絵通信装置及び方法、似顔絵通信プログラム記憶媒体
JP2000067255A (ja) * 1998-08-21 2000-03-03 Sony Corp 描画装置
JP2005512244A (ja) * 2001-12-11 2005-04-28 スーパースケイプ グループ ピーエルシー 画像構成及びアニメーションのための方法及び装置

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542038B2 (en) 2010-04-07 2017-01-10 Apple Inc. Personalizing colors of user interfaces
US10607419B2 (en) 2010-04-07 2020-03-31 Apple Inc. Avatar editing environment
US11869165B2 (en) 2010-04-07 2024-01-09 Apple Inc. Avatar editing environment
US11481988B2 (en) 2010-04-07 2022-10-25 Apple Inc. Avatar editing environment
WO2011127309A1 (en) * 2010-04-07 2011-10-13 Apple Inc. Avatar editing environment
US9576400B2 (en) 2010-04-07 2017-02-21 Apple Inc. Avatar editing environment
KR101500798B1 (ko) * 2010-07-06 2015-03-10 한국전자통신연구원 아바타 생성 방법 및 장치
JP2014002678A (ja) * 2012-06-20 2014-01-09 Celsys:Kk オブジェクト表示方法、プログラム、及び装置
JP2013117956A (ja) * 2012-11-28 2013-06-13 Konami Digital Entertainment Co Ltd サーバ装置およびプログラム
JP2014206817A (ja) * 2013-04-11 2014-10-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
US9710974B2 (en) 2013-04-11 2017-07-18 Kabushiki Kaisha Square Enix Video game processing apparatus and video game processing program
JP5603452B1 (ja) * 2013-04-11 2014-10-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP2015198335A (ja) * 2014-04-01 2015-11-09 ビッグローブ株式会社 通信端末、スタンプ画像作成方法およびプログラム
WO2015151670A1 (ja) * 2014-04-01 2015-10-08 ビッグローブ株式会社 通信端末、スタンプ画像作成方法およびプログラム
JP2014210213A (ja) * 2014-08-21 2014-11-13 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP6043893B2 (ja) * 2014-12-24 2016-12-14 ザワン ユニコム プライベート リミテッド カンパニー メッセージ送信装置、メッセージ送信方法、および記録媒体
JPWO2016104267A1 (ja) * 2014-12-24 2017-04-27 ザワン ユニコム プライベート リミテッド カンパニー メッセージ送信装置、メッセージ送信方法、および記録媒体
US10601741B2 (en) 2014-12-24 2020-03-24 Theone Unicom Pte. Ltd. Message transmission device and message transmission method
JP2017004270A (ja) * 2015-06-10 2017-01-05 日本電信電話株式会社 会議支援システム、及び会議支援方法
JP2017150957A (ja) * 2016-02-25 2017-08-31 株式会社 ミックウェア ナビゲーション装置、ナビゲーション方法およびプログラム
US11941223B2 (en) 2016-06-12 2024-03-26 Apple Inc. User interfaces for retrieving contextually relevant media content
JP7551712B2 (ja) 2016-09-23 2024-09-17 アップル インコーポレイテッド アバターの作成及び編集
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
JP2023011719A (ja) * 2016-09-23 2023-01-24 アップル インコーポレイテッド アバターの作成及び編集
JP2017073145A (ja) * 2016-11-07 2017-04-13 株式会社セルシス オブジェクト表示方法、プログラム、及び装置
US10845968B2 (en) 2017-05-16 2020-11-24 Apple Inc. Emoji recording and sending
US12045923B2 (en) 2017-05-16 2024-07-23 Apple Inc. Emoji recording and sending
US10997768B2 (en) 2017-05-16 2021-05-04 Apple Inc. Emoji recording and sending
US10846905B2 (en) 2017-05-16 2020-11-24 Apple Inc. Emoji recording and sending
US11532112B2 (en) 2017-05-16 2022-12-20 Apple Inc. Emoji recording and sending
JP2019145108A (ja) * 2018-02-23 2019-08-29 三星電子株式会社Samsung Electronics Co.,Ltd. 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
US11798246B2 (en) 2018-02-23 2023-10-24 Samsung Electronics Co., Ltd. Electronic device for generating image including 3D avatar reflecting face motion through 3D avatar corresponding to face and method of operating same
JP2019192116A (ja) * 2018-04-27 2019-10-31 株式会社 ディー・エヌ・エー 画像生成装置及び画像生成プログラム
US11682182B2 (en) 2018-05-07 2023-06-20 Apple Inc. Avatar creation user interface
EP4227787A1 (en) * 2018-05-07 2023-08-16 Apple Inc. Avatar creation user interface
EP4024190A1 (en) * 2018-05-07 2022-07-06 Apple Inc. Avatar creation user interface
EP3696655A1 (en) * 2018-05-07 2020-08-19 Apple Inc. Avatar creation user interface
US10861248B2 (en) 2018-05-07 2020-12-08 Apple Inc. Avatar creation user interface
JP2022008470A (ja) * 2018-05-07 2022-01-13 アップル インコーポレイテッド アバター作成ユーザインターフェース
US11178335B2 (en) 2018-05-07 2021-11-16 Apple Inc. Creative camera
JP7249392B2 (ja) 2018-05-07 2023-03-30 アップル インコーポレイテッド アバター作成ユーザインターフェース
EP3584679B1 (en) * 2018-05-07 2023-04-19 Apple Inc. Avatar creation user interface
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11380077B2 (en) 2018-05-07 2022-07-05 Apple Inc. Avatar creation user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US10921958B2 (en) 2019-02-19 2021-02-16 Samsung Electronics Co., Ltd. Electronic device supporting avatar recommendation and download
EP3700179A1 (en) * 2019-02-19 2020-08-26 Samsung Electronics Co., Ltd. Electronic device supporting avatar recommendation and download
JP7312415B2 (ja) 2020-01-09 2023-07-21 グリー株式会社 ゲーム制御方法、コンピュータ及び制御プログラム
JP2022075926A (ja) * 2020-01-09 2022-05-18 グリー株式会社 ゲーム制御方法、コンピュータ及び制御プログラム
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11061372B1 (en) 2020-05-11 2021-07-13 Apple Inc. User interfaces related to time
US12008230B2 (en) 2020-05-11 2024-06-11 Apple Inc. User interfaces related to time with an editable background
US20210349612A1 (en) * 2020-05-11 2021-11-11 Apple Inc. Editing features of an avatar
US11822778B2 (en) 2020-05-11 2023-11-21 Apple Inc. User interfaces related to time
US11442414B2 (en) 2020-05-11 2022-09-13 Apple Inc. User interfaces related to time
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US12099713B2 (en) 2023-07-11 2024-09-24 Apple Inc. User interfaces related to time

Also Published As

Publication number Publication date
KR101687689B1 (ko) 2016-12-19
JPWO2009133710A1 (ja) 2011-08-25
JP5383668B2 (ja) 2014-01-08
KR20110028581A (ko) 2011-03-21

Similar Documents

Publication Publication Date Title
JP5383668B2 (ja) キャラクタ表示用データの生成装置および方法
US20230379573A1 (en) Avatar creation and editing
JP7033152B2 (ja) ユーザインタフェースカメラ効果
EP4273682B1 (en) Avatar integration with multiple applications
KR102140295B1 (ko) 사용자 인터페이스 카메라 효과들
US20220245185A1 (en) Presentation Features for Performing Operations and Selecting Content
JP5843331B1 (ja) 写真撮影遊戯装置、写真シール作成装置、写真撮影遊戯装置の制御方法、及び写真撮影遊戯装置の制御プログラム
US11710288B2 (en) Editing a virtual reality space
JP5911116B2 (ja) 写真撮影遊戯装置、写真シール作成装置、写真撮影遊戯装置の制御方法、及び写真撮影遊戯装置の制御プログラム
JP6453500B1 (ja) ゲームプログラム、方法、および情報処理装置
JP6356299B2 (ja) 写真撮影遊戯装置、写真撮影遊戯装置の制御方法、及び写真撮影遊戯装置の制御プログラム
JP6142277B2 (ja) 写真撮影遊戯装置、写真撮影遊戯装置の制御方法、及び写真撮影遊戯装置の制御プログラム
KR20150135591A (ko) 스마트폰에서 얼굴사진 캡쳐(capture) 툴(tool)을 이용하여 2장이상의 얼굴사진을 캡쳐, 이를 애니메이션 아바타 이미지에 맞춰 조합, 합성하는, 사진 애니메이션 아바타 편집 방법 및 서버시스템, 아바타 데이터베이스 연동 및 전송방법, 그리고 스마트폰에서 사진 애니메이션 아바타 디스플레이(display) 발신자 표시 방법
JP6367733B2 (ja) 画面制御装置、画面制御方法及び画面制御プログラム
KR100378142B1 (ko) 캐릭터 생성 방법 및 그 기록매체
JP5930351B2 (ja) 写真撮影遊戯装置、写真シール作成装置、写真撮影遊戯装置の制御方法、及び写真撮影遊戯装置の制御プログラム
JP6578476B2 (ja) 写真撮影遊戯装置、写真シール作成装置、写真撮影遊戯装置の制御方法、及び写真撮影遊戯装置の制御プログラム
JP6096341B1 (ja) 表示制御方法、端末、プログラム、及び情報処理装置
JP2001167287A (ja) キャラクター生成方法及びそれを利用した絵文書生成方法
KR20240093238A (ko) 아바타 애니메이션을 생성하는 이동 단말기, 서버, 시스템 및 그것의 제어 방법
KR100518001B1 (ko) 이동 통신 단말기의 아바타 편집 방법
CN117218249A (zh) 动画生成方法、装置、设备、存储介质和产品
JP5311315B2 (ja) メールシステム及びそれに用いる機器及びプログラム
JP2011253310A (ja) 情報データ管理装置、情報データ管理方法、及びプログラム
JP2014057258A (ja) 制御装置、制御方法、および制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09738647

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010510047

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20107026573

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 09738647

Country of ref document: EP

Kind code of ref document: A1