WO2024075512A1 - アバター画像生成装置 - Google Patents

アバター画像生成装置 Download PDF

Info

Publication number
WO2024075512A1
WO2024075512A1 PCT/JP2023/033906 JP2023033906W WO2024075512A1 WO 2024075512 A1 WO2024075512 A1 WO 2024075512A1 JP 2023033906 W JP2023033906 W JP 2023033906W WO 2024075512 A1 WO2024075512 A1 WO 2024075512A1
Authority
WO
WIPO (PCT)
Prior art keywords
avatar
parts
head
motion
range
Prior art date
Application number
PCT/JP2023/033906
Other languages
English (en)
French (fr)
Inventor
晃平 大山
一太郎 塚田
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2024075512A1 publication Critical patent/WO2024075512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to an avatar image generation device.
  • Patent Document 1 discloses a technology for easily generating a high-quality three-dimensional avatar based on a two-dimensional facial image.
  • the three-dimensional avatar creation device described in Patent Document 1 includes a facial image input unit, a head shape generation unit, a surface image generation unit, a head avatar creation unit, and an avatar synthesis unit.
  • the facial image input unit is used to input a two-dimensional image of a facial image of an object.
  • the head shape generation unit generates three-dimensional shape information of the object's head based on the facial image of the object and a head base avatar.
  • the surface image generation unit generates information on the surface image on the head shape surface based on the facial image of the object.
  • the head avatar creation unit generates a head avatar based on the three-dimensional shape information and surface image information of the head.
  • the avatar synthesis unit synthesizes the head avatar, torso avatar, and hair avatar to generate an integrated full-body avatar.
  • moved body parts may interfere with other body parts.
  • the arm may appear to pass through the head.
  • the movement of an avatar is restricted according to the shape of each individual avatar, the movement must be calculated for each avatar shape, which increases the processing load on the system.
  • the objective of the present invention is to achieve natural movement that matches the shape of the avatar through simple processing.
  • An avatar image generating device is an avatar image generating device that generates an image of an avatar including at least two or more parts, and includes a determination unit that determines the range of motion of a moving part of the avatar based on the dimensions of a first part included in the avatar and the dimensions of a second part different from the first part, and an image generating unit that generates an image of the avatar based on the range of motion determined by the determination unit.
  • natural movement that matches the shape of the avatar can be achieved through simple processing.
  • FIG. 1 is a block diagram showing a configuration of a system 1 according to an embodiment.
  • 2 is a block diagram showing the configuration of a terminal device 10.
  • FIG. FIG. 2 is a block diagram showing the configuration of the avatar creation server 20.
  • FIG. 2 is a schematic diagram showing an example of an avatar A.
  • 13A and 13B are schematic diagrams showing the movement of avatar A.
  • FIG. 2 is a schematic diagram showing an example of an avatar A.
  • FIG. 2 is a flow chart showing the operation of the avatar creation server 20.
  • FIG. 2 is a schematic diagram showing an example of an avatar A.
  • FIG. 1 is a block diagram showing the configuration of a system 1 according to an embodiment.
  • the system 1 includes a terminal device 10 and an avatar creation server 20.
  • the avatar creation server 20 is an example of an avatar image generation device.
  • the terminal device 10 and the avatar creation server 20 are connected via a network N.
  • the terminal device 10 is held by a user U.
  • the terminal device 10 is, for example, a smartphone, a tablet terminal, a personal computer, or a mobile information processing terminal such as a head-mounted display.
  • the terminal device 10 is a smartphone.
  • the avatar creation server 20 creates an avatar A (see FIG. 4, etc.) corresponding to the user U in response to a request from the user U.
  • the avatar A is an object that is displayed as an alter ego of the user U in a virtual space.
  • the avatar A created by the avatar creation server 20 is used in services that utilize the virtual space.
  • a service that utilizes a virtual space may be, for example, a communication service in which the user U interacts with others in the virtual space, or a game service that provides a game in which the user U accomplishes a predetermined mission in the virtual space.
  • the avatar creation server 20 may be an independent server, or may be part of a service server that provides a service that utilizes the virtual space.
  • Terminal device 10 2 is a block diagram showing the configuration of the terminal device 10.
  • the terminal device 10 includes a display device 101, an input device 102, a communication device 103, a storage device 104, a processing device 105, and a bus 109.
  • the display device 101, the input device 102, the communication device 103, the storage device 104, and the processing device 105 are connected to each other by the bus 109 for communicating information.
  • the bus 109 may be configured using a single bus, or may be configured using different buses between elements such as devices.
  • the display device 101 is a display device (e.g., various display panels such as a liquid crystal display panel or an organic EL display panel) that displays information to the outside.
  • the input device 102 is an input device (e.g., a keyboard, a mouse, a microphone, a switch, a button, or a sensor) that accepts input from the outside.
  • the display device 101 and the input device 102 may be integrated into one device (e.g., a touch panel).
  • the terminal device 10 is a head-mounted display
  • a projection device is provided instead of the display device 101.
  • the projection device projects an image onto lenses placed in front of both eyes of the user U.
  • the communication device 103 communicates with the avatar creation server 20 using wireless or wired communication.
  • the communication device 103 has an interface that can be connected to a network N.
  • the communication device 103 communicates with a communication device 201 (see FIG. 3) of the avatar creation server 20 via the network N.
  • the storage device 104 is a recording medium that can be read by the processing device 105.
  • the storage device 104 includes, for example, a non-volatile memory and a volatile memory.
  • the non-volatile memory is, for example, a ROM (Read Only Memory), an EPROM (Erasable Programmable Read Only Memory), and an EEPROM (Electrically Erasable Programmable Read Only Memory).
  • the volatile memory is, for example, a RAM (Random Access Memory).
  • the storage device 104 stores a program PG1.
  • the program PG1 is a program for operating the terminal device 10.
  • the processing device 105 includes one or more central processing units (CPUs).
  • the one or more CPUs are an example of one or more processors.
  • Each of the processor and the CPU is an example of a computer.
  • the processing device 105 reads the program PG1 from the storage device 104.
  • the processing device 105 executes the program PG1 to function as a communication control unit 111 and a display control unit 112.
  • At least some of the functions of the communication control unit 111 or the display control unit 112 may be realized by a circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), or an FPGA (Field Programmable Gate Array).
  • the communication control unit 111 controls the transmission and reception of data between the terminal device 10 and the avatar creation server 20.
  • the communication control unit 111 receives from the avatar creation server 20 an interface image for creating avatar A, or an image of avatar A created by user U.
  • the communication control unit 111 also transmits, for example, information input by user U when creating avatar A (hereinafter referred to as "user instruction information") to the avatar creation server 20.
  • the user instruction information is, for example, information instructing the start of the creation of avatar A, information specifying the parts that make up avatar A, information specifying the positions of the parts, or information such as the name of avatar A (a nickname indicating user U).
  • the display control unit 112 controls the display of images on the display device 101.
  • the display control unit 112 mainly causes the display device 101 to display images transmitted from the avatar creation server 20 (such as an interface image for creating avatar A and an image of the created avatar A).
  • Avatar creation server 20 3 is a block diagram showing the configuration of the avatar creation server 20.
  • the avatar creation server 20 includes a communication device 201, a storage device 202, a processing device 203, and a bus 209.
  • the communication device 201, the storage device 202, and the processing device 203 are connected to each other by the bus 209 for communicating information.
  • the bus 209 may be configured using a single bus, or may be configured using different buses between each device.
  • the communication device 201 communicates with the terminal device 10 using wireless communication or wired communication.
  • the communication device 201 has an interface that can be connected to a network N.
  • the communication device 201 communicates with the terminal device 10 via the network N.
  • the storage device 202 is a recording medium that can be read by the processing device 203.
  • the storage device 202 includes, for example, a non-volatile memory and a volatile memory.
  • the non-volatile memory is, for example, a ROM, an EPROM, and an EEPROM.
  • the volatile memory is, for example, a RAM.
  • the storage device 202 stores the program PG2.
  • the program PG2 is a program for operating the avatar creation server 20.
  • the processing device 203 includes one or more CPUs.
  • the one or more CPUs are an example of one or more processors.
  • Each of the processors and the CPUs is an example of a computer.
  • the processing device 203 reads the program PG2 from the storage device 202.
  • the processing device 203 executes the program PG2 to function as the creation unit 211, the determination unit 212, and the image generation unit 213.
  • At least some of the functions of the creation unit 211, the determination unit 212, and the image generation unit 213 may be realized by circuits such as a DSP, an ASIC, a PLD, and an FPGA.
  • the creation unit 211 generates an avatar A corresponding to the user U based on the user instruction information.
  • the avatar A generated by the creation unit 211 includes two or more parts. One of the two or more parts is referred to as a first part, and the other is referred to as a second part.
  • the method of generating avatar A performed by the creation unit 211 may be any method.
  • the creation unit 211 may present multiple avatars A prepared in advance to the user U, and the avatar A selected by the user U becomes the avatar A corresponding to the user U.
  • the creation unit 211 may also present multiple types of parts that make up the avatar A, and generate avatar A by combining the parts selected by the user U.
  • the creation unit 211 may also receive a photo of the user U as user instruction information, and generate avatar A that resembles the user U.
  • FIG. 4 is a schematic diagram showing an example of avatar A.
  • Avatar A1 is a humanoid avatar A that resembles user U.
  • Avatar A2 is a dog-shaped avatar A that includes elements that resemble user U.
  • Avatars A1 and A2 each include multiple parts.
  • Avatar A1 broadly includes head part P11 and body part P12.
  • Head part P11 is a part that corresponds to the head of avatar A1.
  • Body part P12 is a part that corresponds to the body of avatar A1.
  • Body part P12 further includes arm part P12-1, torso part P12-2, and foot part P12-3.
  • Avatar A2 also broadly includes head part P21 and body part P22.
  • Body part P22 further includes arm part P22-1, torso part P22-2, and foot part P22-3.
  • the determination unit 212 determines the range of motion of the moving parts of avatar A based on the dimensions of a first part included in avatar A and the dimensions of a second part different from the first part.
  • the moving parts are parts that move when avatar A performs a predetermined action.
  • the dimensions of the first part and the dimensions of the second part may be included in the meta information of avatar A, for example.
  • the determination unit 212 determines the range of motion of the moving parts based on the meta information. As described below, when the range of motion of the moving parts is determined based on the ratio of the dimensions of the second part to the dimensions of the first part, the value of the ratio of the dimensions of the second part to the dimensions of the first part may be included in the meta information of avatar A instead of the dimension value.
  • the determination unit 212 determines the range of motion of the moving parts in the preview display action. That is, in this embodiment, the predetermined action is the action in the preview display of avatar A.
  • the predetermined action may be an action other than the preview display.
  • the type of avatar A created as a result of processing based on the user instruction information is provisionally displayed. At this time, the avatar A performs a simple action.
  • the avatars A1 and A2 perform an action in the preview display to move the arm parts P12-1 and P22-1 up and down.
  • the moving parts in this action are the arm parts P12-1 and P22-1. If the preview displayed avatar A is in the desired form, the user U performs a determination operation and starts using avatar A. Furthermore, if the preview displayed avatar A is not in the desired form, the user U performs a correction operation as necessary.
  • the determination unit 212 determines the range of motion of the arm parts P12-1, P22-1 based on the ratio of the dimensions of the body parts P12, P22 to the dimensions of the head parts P11, P21.
  • the head parts P11, P21 are an example of the first parts
  • the body parts P12, P22 are an example of the second parts.
  • the head parts P11, P21, the torso parts P12-2, P22-2, and the foot parts P12-3, P22-3 are parts that are different from the moving parts.
  • the ratio of the dimensions of the body parts P12, P22 to the dimensions of the head parts P11, P21 is, for example, the ratio between the dimensions of the head parts P11, P21 along the height of the avatars A1, A2 and the dimensions of the body parts P12, P22 along the height of the avatars A1, A2. More specifically, the head parts P11, P21 and the body parts P12, P22 are arranged side by side along a first axis that extends vertically from the ground. The first axis is along the height of the avatars A1, A2.
  • the dimensions of the head parts P11, P21 are the lengths H11, H21 of the head parts P11, P21 along the first axis.
  • the dimensions of the body parts P12, P22 are the lengths H12, H22 of the body parts P12, P22 along the first axis.
  • the length H12 is the sum of the length of the torso part P12-2 along the first axis and the length of the foot part P12-3 along the first axis.
  • the length H22 is the sum of the length of the torso part P22-2 along the first axis and the length of the foot part P22-3 along the first axis.
  • the ratio between the dimension of the head parts P11, P21 along the first axis and the dimension of the body parts P12, P22 along the first axis is also expressed as "head-to-body ratio.”
  • the head-to-body ratio is the ratio of the overall dimension of avatars A1, A2 along the first axis (length H11 + H12, in the case of avatar A1 as an example) when the dimension of head parts P11, P21 along the first axis is taken as 1.
  • the head-to-body ratio is calculated as the dimension of avatar A1 along the first axis as a whole divided by the dimension of head part P11 along the first axis.
  • the dimension of head part P11 along the first axis is length H11.
  • the dimension of body part P12 along the first axis is length H12.
  • Length H12 is approximately four times longer than length H11. That is, the ratio of the dimension of body part P12 to the dimension of head part P11 is 4. In other words, avatar A1 has 5 heads.
  • the dimension of head part P21 along the first axis is length H21.
  • the dimension of body part P22 along the first axis is length H22.
  • Length H22 is approximately equal to length H21. That is, the ratio of the dimension of body part P22 to the dimension of head part P21 is 1. In other words, avatar A2 has 2 heads. Comparing avatar A1 and avatar A2, avatar A1 has a larger ratio of the dimension of body part P12 to the dimension of head part P11.
  • the determination unit 212 increases the range of motion of the arm parts P12-1, P22-1 as the ratio of the dimensions of the body parts P12, P22 to the dimensions of the head parts P11, P21 increases. In other words, the determination unit 212 increases the range of motion of the moving parts for avatar A with a larger head-to-body ratio. Comparing avatar A1 and avatar A2, avatar A1 has a larger ratio of the dimensions of the body part P12 to the dimensions of the head part P11 (larger head-to-body ratio). Therefore, the determination unit 212 increases the range of motion of the arm part P12-1 of avatar A1 compared to the range of motion of the arm part P22-1 of avatar A2.
  • the determination unit 212 widens the range of motion of the arm parts P12-1, P22-1 the greater the ratio of the dimensions of the body parts P12, P22 to the dimensions of the head parts P11, P21.
  • FIG. 5 is a schematic diagram showing the movement of avatar A.
  • the movement in the preview display is the movement of avatars A1 and A2 moving arm parts P12-1 and P22-1 up and down.
  • the positions of arm parts P12-1 and P22-1 of avatars A1 and A2 shown in FIG. 4 are set as a first position
  • the positions of arm parts P12-1 and P22-1 of avatars A1 and A2 shown in FIG. 5 are set as a second position.
  • the movement in the preview display is the movement of moving arm parts P12-1 and P22-1 back and forth between the first position and the second position several times.
  • the determination unit 212 determines the range of motion of the arm part P12-1 of the avatar A1 to be wider than the range of motion of the arm part P22-1 of the avatar A2. Specifically, as shown in FIG. 4, when the arm part P12-1 of the avatar A1 is in the first position, the orientation of the arm part P12-1 (the direction from the fixed point F of the arm part P12-1 toward the fingertip) is 90 degrees downward with respect to the horizontal plane. Also, as shown in FIG. 5, when the arm part P12-1 of the avatar A1 is in the second position, the orientation of the arm part P12-1 is 90 degrees upward with respect to the horizontal plane. Therefore, the range of motion of the arm part P12-1 of the avatar A1 is 180 degrees. Also, as shown in FIG.
  • the ratio of the dimensions of the body parts P12, P22 to the dimensions of the head parts P11, P21 is not limited to the dimension (length) along the back height as shown in Figures 4 and 5, but may be, for example, the dimension along the body width of the avatars A1, A2.
  • FIG. 6 is a schematic diagram showing an example of avatar A.
  • Two avatars, A3 and A4, are shown in FIG. 6.
  • Both avatars A3 and A4 are avatars A modeled after frogs.
  • Avatar A3 broadly includes a head part P31 and a body part P32.
  • Body part P32 further includes an arm part P32-1, a torso part P32-2, and a foot part P32-3.
  • avatar A4 broadly includes a head part P41 and a body part P42.
  • Body part P42 further includes an arm part P42-1, a torso part P42-2, and a foot part P42-3.
  • the ratio of the dimensions of the body parts P32, P32 to the dimensions of the head parts P31, P41 is the ratio of the dimensions of the head parts P31, P41 and the dimensions of the body parts P32, P42 along the body width of the avatars A1, A2. More specifically, a second axis is set along the body width of the avatars A1, A2.
  • the dimensions of the head parts P31, P41 are set to the lengths W31, W41 of the head parts P31, P41 along the second axis.
  • the dimensions of the body parts P32, P42 are set to the lengths W32, W42 of the torso parts P32-2, P42-2 along the second axis.
  • Body parts P32 and P42 include arm parts P32-1 and P42-1, but it is the torso parts P32-2 and P42-2 that determine the overall impression of avatars A1 and A2, and because arm parts P32-1 and P42-1 are movable parts whose positions change, the dimensions of torso parts P32-2 and P42-2 are treated as the dimensions of body parts P32 and P42.
  • the length W31 of the head part P31 along the second axis is smaller than the length W32 of the body part P32 along the second axis. In other words, the ratio of the dimension of the body part P32 to the dimension of the head part P31 exceeds 1.
  • the length W41 of the head part P41 along the second axis is larger than the length W42 of the body part P42 along the second axis. In other words, the ratio of the dimension of the body part P42 to the dimension of the head part P41 is less than 1.
  • the determination unit 212 increases the range of motion of the arm parts P32-1, P42-1 as the ratio of the dimensions of the body parts P32, P42 to the dimensions of the head parts P31, P41 increases. Comparing avatar A3 and avatar A4, avatar A3 has a greater ratio of the dimensions of the body part P32 to the dimensions of the head part P31. Therefore, the determination unit 212 increases the range of motion of the arm part P32-1 of avatar A3 compared to the range of motion of the arm part P42-1 of avatar A4.
  • the movement of avatars A3 and A4 in the preview display is assumed to be a movement of moving arm parts P32-1, P42-1 up and down.
  • the positions of arm parts P32-1, P42-1 shown by solid lines in FIG. 6 are assumed to be a first position
  • the positions of arm parts P32-1, P42-1 shown by dotted lines in FIG. 6 are assumed to be a second position.
  • the movement in the preview display is assumed to be a movement of moving arm parts P32-1, P42-1 back and forth between the first position and the second position.
  • the range of motion of the arm part P32-1 of avatar A3 is wider than the range of motion of the arm part P42-1 of avatar A4.
  • the orientation of the arm part P32-1 of avatar A3 in the first position and the orientation of the arm part P32-1 in the second position are separated by an angle ⁇ around fixed point F. That is, the range of motion of the arm part P32-1 of avatar A3 is angle ⁇ .
  • the orientation of the arm part P42-1 of avatar A4 in the first position and the orientation of the arm part P42-1 in the second position are separated by an angle ⁇ ( ⁇ angle ⁇ ) around fixed point F. That is, the range of motion of the arm part P42-1 of avatar A4 is angle ⁇ ( ⁇ angle ⁇ ).
  • the image generation unit 213 generates an image of avatar A based on the range of motion determined by the determination unit 212. In this embodiment, the image generation unit 213 generates an image of avatar A performing a predetermined motion based on the range of motion determined by the determination unit 212. Using avatar A1 as an example, the image generation unit 213 generates an image of the arm part P12-1 of avatar A1 performing a motion of reciprocating several times between a first position and a second position. The first position and the second position are separated by 180 degrees around a fixed point F. The image generation unit 213 transmits the generated image to the terminal device 10. The terminal device 10 displays the image on the display device 101 as a preview display of avatar A1.
  • FIG. 7 is a flow diagram showing the operation of the avatar creation server 20.
  • the avatar creation server 20 waits until an instruction to create an avatar is received from the terminal device 10 (step S100: NO).
  • the processing device 203 functions as the creation unit 211 and creates the avatar A1 based on the user instruction information transmitted from the terminal device 10 (step S102).
  • the creation unit 211 includes a value of the ratio of the dimensions of the body part P12 to the dimensions of the head part P11 in the meta information of the avatar A1.
  • step S104 Until an instruction to display a preview is received from the terminal device 10 (step S104: NO), the processing device 203 returns to step S102 and continues creating avatar A1 (adjusting parts, etc.) based on the user instruction information.
  • the processing device 203 functions as the determination unit 212 and determines the range of motion of the arm part P12-1 of avatar A1 (step S106). At this time, the determination unit 212 determines the range of motion of the arm part P12-1 based on the value of the ratio of the dimensions of the body part P12 to the dimensions of the head part P11 contained in the meta information of avatar A1.
  • the range of motion may be determined prior to issuing an instruction to display the preview. For example, the range of motion may be determined each time each part of avatar A1 is changed based on user instruction information.
  • the processing device 203 functions as the image generation unit 213, and generates an image of avatar A1 moving arm part P12-1 up and down within the range of motion determined in step S106 as an image for preview display (step S108).
  • the processing device 203 transmits the image generated by the image generation unit 213 to the terminal device 10 (step S110).
  • the user U checks the image displayed on the display device 101 of the terminal device 10 and confirms whether avatar A1 is complete.
  • step S112 If a completion instruction is received from the terminal device 10 confirming the completion of avatar A1 (step S112: YES), the processing device 203 ends the processing of this flowchart. If a completion instruction is not received from the terminal device 10 (step S112: NO), the processing device 203 returns to step S102 and continues creating avatar A1.
  • the avatar creation server 20 determines the range of motion of the moving parts of avatar A based on the dimensions of the first part constituting avatar A and the dimensions of the second part different from the first part. Therefore, the range of motion of the moving parts can be determined using only the dimensions of the two parts, and movement according to the shape of avatar A can be realized by simple processing.
  • the avatar creation server 20 uses the dimensions of parts other than the moving parts (in this embodiment, head parts P11, P21, torso parts P12-2, P22-2, and foot parts P12-3, P22-3) when avatar A is in motion to determine the range of motion of the moving parts (in this embodiment, arm parts P12-1, P22-1). This allows the range of motion of the moving parts to be determined regardless of the specific movement of the moving parts, reducing the processing load on the avatar creation server 20 compared to determining the range of motion based on the specific movement of the moving parts.
  • the avatar creation server 20 also uses a part corresponding to the head of avatar A (hereinafter, head part P11 as an example) as the first part, and a part corresponding to the body of avatar A (hereinafter, body part P12 as an example) as the second part.
  • the head part P11 and body part P12 are parts that determine the overall impression of avatar A. Therefore, the range of motion suitable for avatar A can be determined with high precision.
  • the avatar creation server 20 also determines the range of motion of the moving parts based on the ratio between the length H11 of the head part P11 along the first axis and the length H12 of the body part P12 along the first axis.
  • the moving parts are more likely to interfere with other parts constituting avatar A (particularly the head parts) than when the head accounts for a small proportion of the entire avatar A.
  • a smaller range of motion for avatar A appears to be a more natural movement than when the head accounts for a small proportion of the entire avatar A.
  • the greater the ratio of the dimensions of the body parts to the dimensions of the head parts of avatar A the wider the range of motion of the moving parts can be, thereby achieving natural movement that reflects the overall impression of avatar A.
  • the avatar creation server 20 determines the range of motion of the moving parts based on the ratio between the length W31 of the head part P31 along the second axis and the length W32 of the body part P32 along the second axis.
  • the moving parts are more likely to interfere with other parts constituting avatar A (particularly the head parts) compared to when the head accounts for a small proportion of the entire avatar A.
  • the greater the ratio of the dimension of the body part P32 along the second axis to the dimension of the head part P31 along the second axis the wider the range of motion of the moving parts, reducing interference between the parts and achieving natural movement.
  • the first part and the second part are parts that are not moving parts.
  • the second embodiment a case will be described in which at least one of the first part and the second part is a moving part.
  • FIG. 8 is a schematic diagram showing an example of avatar A.
  • Two avatars, A5 and A6, are shown in FIG. 8. Both avatars A5 and A6 are avatars A modeled after women.
  • Avatar A5 broadly includes a head part P51 and a body part P52.
  • Body part P52 further includes arm part P52-1, torso part P52-2, foot part P52-3, and skirt part P52-4.
  • avatar A6 broadly includes a head part P61 and a body part P62.
  • Body part P62 further includes arm part P62-1, torso part P62-2, foot part P62-3, and skirt part P62-4.
  • avatars A5 and A6 also perform the action of moving arm parts P52-1 and P62-1 up and down in the preview display.
  • the position of arm parts P52-1 and P62-1 shown by solid lines in FIG. 8 is the first position
  • the position of arm parts P52-1 and P62-1 shown by dotted lines in FIG. 8 is the second position.
  • the action in the preview display is to move the positions of arm parts P52-1 and P62-1 back and forth between the first position and the second position.
  • the overall dimensions of the parts are similar, but the dimensions of the skirt parts P52-4 and P62-4, which are part of the body parts P52 and P62, are different.
  • the length W52-4 along the second axis of the skirt part P52-4 of avatar A5 is approximately the same as the length along the second axis of the torso part P52-2.
  • the length W62-4 along the second axis of the skirt part P62-4 of avatar A6 is approximately 1.5 times longer than the length along the second axis of the torso part P62-2.
  • the determination unit 212 sets the arm parts P52-1, P62-1, which are moving parts, as the first parts, and the skirt parts P52-4, P62-4, which may overlap with the moving parts during operation, as the second parts.
  • the determination unit 212 determines the range of motion of the arm parts P52-1, P62-1 based on the dimensions of the arm parts P52-1, P62-1 and the dimensions of the skirt parts P52-4, P62-4.
  • the dimensions of the arm parts P52-1, P62-1 are the lengths L52-1, L62-1 from the fixed point F to the tip of the arm parts P52-1, P62-1, and the dimensions of the skirt parts P52-4, P62-4 are the lengths W52-4, W62-4 along the second axis of the skirt parts P52-4, P62-4.
  • the lengths W52-4, W62-4 of the skirt parts P52-4, P62-4 along the second axis vary along the first axis. Specifically, the lengths W52-4, W62-4 are shorter the closer they are to the torso parts P52-2, P62-2, and longer the closer they are to the foot parts P52-3, P62-3. For convenience, the maximum values of the lengths W52-4, W62-4 are shown in FIG. 8.
  • the determination unit 212 determines the range of motion of the arm parts P52-1, P62-1 to a range where the arm parts P52-1, P62-1 do not overlap with the skirt parts P52-4, P62-4 when the arm parts P52-1, P62-1 move.
  • the length W52-4 along the second axis of the skirt part P52-4 of avatar A5 is approximately the same as the length of the torso part P52-2 along the second axis. Therefore, in the first position, the arm part P52-1 of avatar A5 can be positioned vertically (90 degrees) downward relative to the horizontal plane. Also, in the second position, the arm part P52-1 of avatar A5 can be positioned vertically (90 degrees) upward relative to the horizontal plane. Therefore, the determination unit 212 determines the range of motion of the arm part P52-1 of avatar A5 to be 180 degrees.
  • the width W62-4 of the skirt part P62-4 of avatar A6 is wider than the torso part P62-2. Therefore, in order for the arm part P62-1 of avatar A6 to not overlap with the skirt part P62-4 in the first position, the arm part P62-1 needs to be positioned at an angle of ⁇ degrees ( ⁇ 90 degrees) downward from the horizontal plane. Furthermore, in the second position, the arm part P52-1 of avatar A5 can be positioned vertically (90 degrees) upward from the horizontal plane. Therefore, the determination unit 212 determines the range of motion of the arm part P62-1 of avatar A6 to be ⁇ +90 degrees ( ⁇ 180 degrees).
  • the arm parts P52-1 and P62-1 which are the first parts
  • the skirt parts P52-4 and P62-4 which are the second parts
  • both the first and second parts may be moving parts.
  • the determination unit 212 determines the range of motion to a range in which the first and second parts, which are moving parts, do not overlap each other when they move together.
  • the avatar creation server 20 determines the range of motion of a moving part using the dimensions of two parts including the moving part. Therefore, the range of motion of the moving part can be determined taking into account the degree of interference between the moving part and other parts (or between moving parts), realizing natural movement of avatar A.
  • the determination unit 212 of the avatar creation server 20 determines the range of motion of the moving parts so that the first part and the second part do not overlap when the moving parts move. This prevents interference between the moving parts and other parts (or between moving parts), realizing natural movements of avatar A.
  • the determination unit 212 determines the range of motion of the avatar A in the preview display motion.
  • the determination unit 212 may determine the range of motion of the avatar A in another motion.
  • the other motion may be, for example, the motion of the avatar A in a service (such as a communication service or a game service) that uses a virtual space.
  • the creation unit 211, the determination unit 212, and the image generation unit 213 are provided in the avatar creation server 20.
  • the present invention is not limited to this, and at least one of the creation unit 211, the determination unit 212, and the image generation unit 213 may be provided in the terminal device 10.
  • each functional block may be realized using one device that is physically or logically coupled, or may be realized using two or more devices that are physically or logically separated and directly or indirectly connected (for example, using wires, wirelessly, etc.) and these multiple devices.
  • the functional block may be realized by combining the one device or the multiple devices with software.
  • Functions include, but are not limited to, judgment, determination, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, consideration, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocation, mapping, and assignment.
  • a functional block (component) that functions as a transmission is called a transmitting unit or a transmitter.
  • the implementation method of each is not particularly limited.
  • notification of information is not limited to the aspects/embodiments described in this disclosure and may be performed using other methods.
  • notification of information may be performed by physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or combinations thereof.
  • RRC signaling may be referred to as an RRC message, such as an RRC Connection Setup message or an RRC Connection Reconfiguration message.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • SUPER 3G IMT-Advanced
  • 4G 4th generation mobile communication system
  • 5G 5th generation mobile communication system
  • 6G 6th generation mobile communication system
  • xG xG (x is, for example, an integer or a decimal)
  • FRA Frequency
  • the present invention may be applicable to at least one of systems utilizing IEEE 802.11 (Wi-Fi®), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-Wide Band), Bluetooth®, or other suitable systems, and next-generation systems that are extended, modified, created, or defined based thereon.
  • multiple systems may be combined (for example, a combination of at least one of LTE and LTE-A with 5G, etc.)
  • (1-6) Information, etc. can be output from a higher layer (or a lower layer) to a lower layer (or a higher layer). It may be input/output via multiple network nodes.
  • Input and output information, etc. may be stored in a specific location (e.g., memory) or may be managed using a management table. Input and output information, etc. may be overwritten, updated, or added to. Output information, etc. may be deleted. Input information, etc. may be sent to another device.
  • a specific location e.g., memory
  • Input and output information, etc. may be overwritten, updated, or added to.
  • Output information, etc. may be deleted.
  • Input information, etc. may be sent to another device.
  • the determination may be made based on a value represented by one bit (0 or 1), a Boolean value (true or false), or a comparison of numerical values (e.g., a comparison with a predetermined value).
  • Software shall be construed broadly to mean instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, threads of execution, procedures, functions, and the like, whether referred to as software, firmware, middleware, microcode, hardware description language, or otherwise.
  • Software, instructions, information, etc. may also be transmitted or received over a transmission medium.
  • the software is transmitted from a website, server, or other remote source using wired technologies (such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL)), and/or wireless technologies (such as infrared, microwave, etc.), then these wired and/or wireless technologies are included within the definition of transmission media.
  • wired technologies such as coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL)
  • wireless technologies such as infrared, microwave, etc.
  • Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be represented by voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, optical fields or photons, or any combination thereof.
  • the channel and the symbol may be a signal (signaling).
  • the signal may be a message.
  • a component carrier (CC) may be called a carrier frequency, a cell, a frequency carrier, etc.
  • the information, parameters, etc. described in this disclosure may be represented using absolute values, relative values from a predetermined value, or other corresponding information.
  • radio resources may be indicated by an index.
  • the names used for the parameters described above are not limiting in any respect.
  • the formulas, etc. using these parameters may differ from those explicitly disclosed in this disclosure.
  • the various channels (e.g., PUCCH, PDCCH, etc.) and information elements may be identified by any suitable names, and therefore the various names assigned to these various channels and information elements are not limiting in any respect.
  • base station BS
  • radio base station fixed station
  • NodeB NodeB
  • eNodeB eNodeB
  • gNodeB gNodeB
  • a base station may also be referred to by terms such as a macro cell, small cell, femto cell, and pico cell.
  • a base station may accommodate one or more (e.g., three) cells.
  • the entire coverage area of the base station can be divided into multiple smaller areas, and each smaller area can provide communication services by a base station subsystem (e.g., a small indoor base station (RRH: Remote Radio Head).
  • a base station subsystem e.g., a small indoor base station (RRH: Remote Radio Head).
  • RRH Remote Radio Head
  • the term "cell” or “sector” refers to a part or the entire coverage area of at least one of the base station and base station subsystem that provides communication services in this coverage.
  • the base station transmitting information to a terminal may be interpreted as the base station instructing the terminal to control and operate based on the information.
  • a mobile station may also be referred to by those skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
  • At least one of the base station and the mobile station may be called a transmitting device, a receiving device, a communication device, etc.
  • At least one of the base station and the mobile station may be a device mounted on a moving object, the moving object itself, etc.
  • the moving object is a movable object, and the moving speed is arbitrary. It also includes the case where the moving object is stopped.
  • the moving object includes, but is not limited to, for example, a vehicle, a transport vehicle, an automobile, a motorcycle, a bicycle, a connected car, an excavator, a bulldozer, a wheel loader, a dump truck, a forklift, a train, a bus, a handcart, a rickshaw, a ship and other watercraft, an airplane, a rocket, an artificial satellite, a drone (registered trademark), a multicopter, a quadcopter, a balloon, and objects mounted thereon.
  • the moving object may also be a moving object that travels autonomously based on an operation command.
  • the base station may be a vehicle (e.g., a car, an airplane, etc.), an unmanned moving body (e.g., a drone, an autonomous vehicle, etc.), or a robot (manned or unmanned).
  • At least one of the base station and the mobile station may include a device that does not necessarily move during communication operation.
  • at least one of the base station and the mobile station may be an IoT (Internet of Things) device such as a sensor.
  • the base station in the present disclosure may be read as a user terminal.
  • each aspect/embodiment of the present disclosure may be applied to a configuration in which communication between a base station and a user terminal is replaced with communication between multiple user terminals (which may be called, for example, D2D (Device-to-Device), V2X (Vehicle-to-Everything), etc.).
  • the user terminal may be configured to have the functions of the above-mentioned base station.
  • terms such as "upstream” and "downstream” may be read as terms corresponding to terminal-to-terminal communication (e.g., "side").
  • the uplink channel, downlink channel, etc. may be replaced with a side channel.
  • the user terminal in this disclosure may be replaced with a base station.
  • the base station may be configured to have the functions of the user terminal described above.
  • determining and “determining” as used in this disclosure may encompass a wide variety of actions. “Determining” and “determining” may include, for example, judging, calculating, computing, processing, deriving, investigating, looking up, search, inquiry (e.g., searching in a table, database, or other data structure), and considering something that has been ascertained as having been “determined” or “determined.” In addition, “judgment” and “decision” may include regarding receiving (e.g., receiving information), transmitting (e.g., sending information), input, output, and accessing (e.g., accessing data in memory) as having been “judged” or “decided”.
  • judgment and “decision” may include regarding resolving, selecting, choosing, establishing, comparing, and the like as having been “judged” or “decided”. In other words, “judgment” and “decision” may include regarding some action as having been “judged” or “decided”. In addition, “judgment” may be interpreted as “assuming”, “expecting”, “considering”, and the like.
  • connection and “coupled”, or any variation thereof refer to any direct or indirect connection or coupling between two or more elements, and may include the presence of one or more intermediate elements between two elements that are “connected” or “coupled” to each other.
  • the coupling or connection between elements may be physical, logical, or a combination thereof.
  • “connected” may be read as "access”.
  • two elements may be considered to be “connected” or “coupled” to each other using at least one of one or more wires, cables, and printed electrical connections, as well as electromagnetic energy having wavelengths in the radio frequency range, microwave range, and optical (both visible and invisible) range, as some non-limiting and non-exhaustive examples.
  • the reference signal may be abbreviated as RS (Reference Signal) or may be called a pilot depending on the applicable standard.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

アバター作成サーバは、2以上のパーツを含むアバターを作成する。決定部は、アバターに含まれる第1パーツの寸法と、第1パーツと異なる第2パーツの寸法とに基づいて、アバターの移動パーツの可動域を決定する。画像生成部は、決定部が決定した可動域に基づいて、移動パーツが移動するアバターの画像を生成する。

Description

アバター画像生成装置
 本発明は、アバター画像生成装置に関する。
 従来、仮想空間において、ユーザに代わって行動するオブジェクトであるアバターが知られている。例えば、下記特許文献1は、2次元の顔面画像に基づき高品質な3次元アバターを容易に生成する技術を開示する。特許文献1に記載の3次元アバター作成装置は、顔面画像入力部と、頭部形状生成部と、表面画像生成部と、頭部アバター作成部と、アバター合成部とを備える。顔面画像入力部は、2次元画像である対象物の顔面画像を入力するために用いられる。頭部形状生成部は、対象物の顔面画像および頭部素体アバターに基づき対象物の頭部の3次元形状情報を生成する。表面画像生成部は、対象物の顔面画像に基づき頭部形状表面における表面画像に関する情報を生成する。頭部アバター作成部は、頭部の3次元形状情報および表面画像情報に基づき頭部アバターを生成する。アバター合成部は、頭部アバターと胴体アバターおよび頭髪アバターを合成して一体の全身アバターを生成する。
特許7076861号公報
 しかし、従来技術で生成されたアバターでは、その形状によっては、動かした身体のパーツが他のパーツに干渉することがある。例えば、3頭身のアバターにおいては、腕のパーツを垂直に上げる動作を行う場合、腕のパーツが頭部のパーツを突き抜けて表示されるといった問題があった。また、仮に個々のアバターの形状に応じてアバターの動きを制限する場合には、アバターの形状ごとに動きを演算する必要があるため、システムの処理負荷が高くなるといった問題があった。
 本発明の目的は、アバターの形状に応じた違和感のない動きを簡易な処理で実現することにある。
 本発明の一態様に係るアバター画像生成装置は、少なくとも2以上のパーツを含むアバターの画像を生成するアバター画像生成装置であって、前記アバターに含まれる第1パーツの寸法と、前記第1パーツと異なる第2パーツの寸法とに基づいて、前記アバターの移動パーツの可動域を決定する決定部と、前記決定部が決定した前記可動域に基づいて、前記アバターの画像を生成する画像生成部と、を備える。
 本発明の一態様によれば、アバターの形状に応じた違和感のない動きを簡易な処理で実現することができる。
実施形態に係るシステム1の構成を示すブロック図である。 端末装置10の構成を示すブロック図である。 アバター作成サーバ20の構成を示すブロック図である。 アバターAの一例を示す模式図である。 アバターAの動作を示す模式図である。 アバターAの一例を示す模式図である。 アバター作成サーバ20の動作を示すフロー図である。 アバターAの一例を示す模式図である。
 A.第1実施形態
 A-1.システム構成
 図1は、実施形態に係るシステム1の構成を示すブロック図である。システム1は、端末装置10と、アバター作成サーバ20とを含む。アバター作成サーバ20は、アバター画像生成装置の一例である。端末装置10と、アバター作成サーバ20とは、ネットワークNを介して接続されている。端末装置10は、ユーザUに保持される。
 端末装置10は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ、またはヘッドマウントディスプレイ等の携帯情報処理端末である。本実施形態では、端末装置10がスマートフォンであるものとする。
 アバター作成サーバ20は、ユーザUの求めに応じて、ユーザUに対応するアバターA(図4等参照)を作成する。アバターAは、仮想空間において、ユーザUの分身として表示されるオブジェクトである。アバター作成サーバ20で作成されたアバターAは、仮想空間を利用したサービスで用いられる。仮想空間を利用したサービスとは、例えば仮想空間でユーザUが他者と交流するコミュニケーションサービス、または、ユーザUが仮想空間で所定のミッションを達成するゲームを提供するゲームサービス等であってもよい。アバター作成サーバ20は、独立したサーバであってもよいし、仮想空間を利用したサービスを提供するサービスサーバの一部であってもよい。
 A-2.端末装置10
 図2は、端末装置10の構成を示すブロック図である。端末装置10は、表示装置101と、入力装置102と、通信装置103と、記憶装置104と、処理装置105と、バス109とを備える。表示装置101と、入力装置102と、通信装置103と、記憶装置104と、処理装置105とは、情報を通信するためのバス109によって相互に接続される。バス109は、単一のバスを用いて構成されてもよいし、装置等の要素間ごとに異なるバスを用いて構成されてもよい。
 表示装置101は、外部に対して情報を表示する表示デバイス(例えば、液晶表示パネルまたは有機EL表示パネル等の各種の表示パネル)である。入力装置102は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタンまたはセンサなど)である。なお、表示装置101および入力装置102は、一体となった構成(例えば、タッチパネル)であってもよい。
 なお、端末装置10がヘッドマウントディスプレイである場合には、表示装置101に代えて、投影装置が設けられる。投影装置は、ユーザUの両目の前方に配置されるレンズに画像を投影する。
 通信装置103は、無線通信または有線通信を用いてアバター作成サーバ20と通信する。本実施形態において、通信装置103は、ネットワークNに接続可能なインターフェースを備える。通信装置103は、ネットワークNを介してアバター作成サーバ20の通信装置201(図3参照)と通信する。
 記憶装置104は、処理装置105が読み取り可能な記録媒体である。記憶装置104は、例えば、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリは、例えば、RAM(Random Access Memory)である。記憶装置104は、プログラムPG1を記憶する。プログラムPG1は、端末装置10を動作させるためのプログラムである。
 処理装置105は、1または複数のCPU(Central Processing Unit)を含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
 処理装置105は、記憶装置104からプログラムPG1を読み取る。処理装置105は、プログラムPG1を実行することによって、通信制御部111および表示制御部112として機能する。通信制御部111または表示制御部112の少なくとも一部の機能は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって実現されてもよい。
 通信制御部111は、端末装置10とアバター作成サーバ20との間のデータの送受信を制御する。通信制御部111は、例えばアバター作成サーバ20から、アバターAを作成するためのインターフェース画像、またはユーザUが作成したアバターAの画像等を受信する。また、通信制御部111は、例えばアバターAの生成時にユーザUが入力した情報(以下、「ユーザ指示情報」という)をアバター作成サーバ20に送信する。ユーザ指示情報は、例えばアバターAの生成の開始を指示する情報、アバターAを構成するパーツを指定する情報、パーツの位置を指定する情報、またはアバターAの名前(ユーザUを示すニックネーム)等の情報である。
 表示制御部112は、表示装置101への画像の表示を制御する。本実施形態では、表示制御部112は、主にアバター作成サーバ20から送信された画像(アバターAを作成するためのインターフェース画像および作成したアバターAの画像等)を表示装置101に表示させる。
 A-3.アバター作成サーバ20
 図3は、アバター作成サーバ20の構成を示すブロック図である。アバター作成サーバ20は、通信装置201と、記憶装置202と、処理装置203と、バス209とを含む。通信装置201と、記憶装置202と、処理装置203とは、情報を通信するためのバス209によって相互に接続される。バス209は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 通信装置201は、無線通信または有線通信を用いて端末装置10と通信する。本実施形態において、通信装置201は、ネットワークNに接続可能なインターフェースを備える。通信装置201は、ネットワークNを介して端末装置10と通信する。
 記憶装置202は、処理装置203が読み取り可能な記録媒体である。記憶装置202は、例えば、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM、EPROMおよびEEPROMである。揮発性メモリは、例えば、RAMである。記憶装置202は、プログラムPG2を記憶する。プログラムPG2は、アバター作成サーバ20を動作させるためのプログラムである。
 処理装置203は、1または複数のCPUを含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
 処理装置203は、記憶装置202からプログラムPG2を読み取る。処理装置203は、プログラムPG2を実行することによって、作成部211、決定部212および画像生成部213として機能する。作成部211、決定部212および画像生成部213の少なくとも一部の機能は、DSP、ASIC、PLDおよびFPGA等の回路によって実現されてもよい。
 A-4.処理装置203の詳細
 つぎに、処理装置203がプログラムPG2を実行することで実現する、作成部211、決定部212および画像生成部213について説明する。
 作成部211は、ユーザ指示情報に基づいて、ユーザUに対応するアバターAを生成する。本実施形態では、作成部211が生成するアバターAは、2以上のパーツを含む。2以上のパーツのうち1つを第1パーツ、他の1つを第2パーツとする。
 作成部211が行うアバターAの生成方法は、任意の方法であってよい。例えば、作成部211は、予め用意された複数のアバターAをユーザUに提示し、ユーザUが選択したアバターAをユーザUに対応するアバターAとしてもよい。また、作成部211は、アバターAを構成するパーツを複数種類提示し、ユーザUが選択したパーツを組み合わせてアバターAを生成してもよい。また、作成部211は、ユーザ指示情報としてユーザUの写真を受信してユーザUに似せたアバターAを生成してもよい。
 図4は、アバターAの一例を示す模式図である。図4には、2体のアバターA1およびA2が示される。アバターA1は、ユーザUを模した人型のアバターAである。アバターA2は、ユーザUに似せた要素を含む犬型のアバターAである。アバターA1およびA2は、それぞれ複数のパーツを含む。アバターA1は、大きく分けて、頭部パーツP11と、体部パーツP12とを含む。頭部パーツP11は、アバターA1の頭部に対応するパーツである。体部パーツP12は、アバターA1の体部に対応するパーツである。体部パーツP12は、更に腕パーツP12-1、胴体パーツP12-2および足パーツP12-3を含む。アバターA2も、大きく分けて、頭部パーツP21と、体部パーツP22とを含む。体部パーツP22は、更に腕パーツP22-1、胴体パーツP22-2および足パーツP22-3を含む。
 決定部212は、アバターAに含まれる第1パーツの寸法と、第1パーツと異なる第2パーツの寸法とに基づいて、アバターAの移動パーツの可動域を決定する。移動パーツは、アバターAが所定の動作を行う際に移動するパーツである。第1パーツの寸法および第2パーツの寸法は、例えばアバターAのメタ情報に含まれていてもよい。この場合、決定部212は、メタ情報に基づいて移動パーツの可動域を決定する。後述するように、第1パーツの寸法に対する第2パーツの寸法の比率に基づいて移動パーツの可動域が決定される場合は、寸法の値に代えて、第1パーツの寸法に対する第2パーツの寸法の比率の値がアバターAのメタ情報に含まれてもよい。
 本実施形態では、決定部212は、プレビュー表示の動作における移動パーツの可動域を決定する。すなわち、本実施形態において、所定の動作とは、アバターAのプレビュー表示における動作である。所定の動作は、プレビュー表示以外における動作であってもよい。プレビュー表示では、ユーザ指示情報に基づく処理の結果、どのようなアバターAが作成されたかが暫定的に表示される。この時、アバターAは簡単な動作を行う。本実施形態では、アバターA1,A2が腕パーツP12-1,P22-1を上下させる動作をプレビュー表示において行うものとする。この動作における移動パーツは、腕パーツP12-1,P22-1である。ユーザUは、プレビュー表示されたアバターAが所望の形態であれば決定操作を行い、アバターAの利用を開始する。また、ユーザUは、プレビュー表示されたアバターAが所望の形態でなければ、必要に応じて修正操作を行う。
 第1実施形態において、決定部212は、頭部パーツP11,P21の寸法に対する体部パーツP12,P22の寸法の比率に基づいて、腕パーツP12-1,P22-1の可動域を決定する。頭部パーツP11,P21は第1パーツの一例であり、体部パーツP12,P22は第2パーツの一例である。また、頭部パーツP11,P21、胴体パーツP12-2,P22-2および足パーツP12-3,P22-3は、移動パーツとは異なるパーツである。   
 頭部パーツP11,P21の寸法に対する体部パーツP12,P22の寸法の比率は、例えば、アバターA1,A2の背丈に沿った頭部パーツP11,P21の寸法と、アバターA1,A2の背丈に沿った体部パーツP12,P22の寸法との比率である。より詳細には、頭部パーツP11,P21および体部パーツP12,P22は、地面から垂直に延びる第1軸に沿って並んで配置される。第1軸は、アバターA1,A2の背丈に沿っている。頭部パーツP11,P21の寸法を、第1軸に沿った頭部パーツP11,P21の長さH11,H21とする。体部パーツP12,P22の寸法を、第1軸に沿った体部パーツP12,P22の長さH12,H22とする。長さH12は、第1軸に沿った胴体パーツP12-2の長さと、第1軸に沿った足パーツP12-3の長さとの和である。長さH22は、第1軸に沿った胴体パーツP22-2の長さと、第1軸に沿った足パーツP22-3の長さとの和である。
 第1軸に沿った頭部パーツP11,P21の寸法と、第1軸に沿った体部パーツP12,P22の寸法との比率は、「頭身数」でも表現される。頭身数は、頭部パーツP11,P21の第1軸に沿った寸法を1とした場合の、アバターA1,A2全体の第1軸に沿った寸法(アバターA1を例にすると、長さH11+H12)の比である。すなわち、頭身数は、アバターA1を例にした場合、アバターA1全体の第1軸に沿った寸法÷頭部パーツP11の第1軸に沿った寸法、で算出される。
 アバターA1を例にすると、頭部パーツP11の第1軸に沿った寸法は長さH11である。また、体部パーツP12の第1軸に沿った寸法は長さH12である。長さH12は、長さH11の約4倍である。すなわち、頭部パーツP11の寸法に対する体部パーツP12の寸法の比率は4である。言い換えると、アバターA1は、5頭身である。アバターA2を例にすると、頭部パーツP21の第1軸に沿った寸法は長さH21である。また、体部パーツP22の第1軸に沿った寸法は長さH22である。長さH22は、長さH21と略等しい。すなわち、頭部パーツP21の寸法に対する体部パーツP22の寸法の比率は1である。言い換えると、アバターA2は、2頭身である。アバターA1とアバターA2とを比較すると、アバターA1の方が、頭部パーツP11の寸法に対する体部パーツP12の寸法の比率が大きい。
 決定部212は、頭部パーツP11,P21の寸法に対する体部パーツP12,P22の寸法の比率が大きいほど、腕パーツP12-1,P22-1の可動域を広くする。言い換えると、決定部212は、頭身数が大きいアバターAほど、移動パーツの可動域を広くする。アバターA1とアバターA2とを比較すると、アバターA1の方が、頭部パーツP11の寸法に対する体部パーツP12の寸法の比率が大きい(頭身数が大きい)。よって、決定部212は、アバターA1の腕パーツP12-1の可動域を、アバターA2の腕パーツP22-1の可動域よりも広くする。
 一般に、アバターA全体に占める頭部の割合が大きい場合、アバターA全体に占める頭部の割合が小さい場合と比較して、移動パーツとアバターAに含まれる他のパーツ(特に頭部パーツP11,P21)とが干渉やすい。また、アバターA全体に占める頭部の割合が大きい場合、アバターA全体に占める頭部の割合が小さい場合と比較して、アバターAの動きが小さい方が、より自然な動きに見える。このため、決定部212は、頭部パーツP11,P21の寸法に対する体部パーツP12,P22の寸法の比率が大きいほど、腕パーツP12-1,P22-1の可動域を広くする。
 可動域の具体的な決定方法は、アバターAの具体的な動作によって異なる。例えば、アバターA1の移動パーツの可動域をM1、頭部パーツP11の寸法に対する体部パーツP12の寸法の比率をN1とすると、M1=N1×K1(K1は正の係数)とすることができる。同様にアバターA2の移動パーツの可動域をM2、頭部パーツP21の寸法に対する体部パーツP22の寸法の比率をN2とすると、M2=N2×K2(K2は正の係数、K1=K2であってもよい)とすることができる。なお、可動域M1,M2は、移動パーツの固定点周りの角度であってもよいし、移動パーツの移動距離であってもよい。
 図5は、アバターAの動作を示す模式図である。上述のように、プレビュー表示における動作は、アバターA1,A2が腕パーツP12-1,P22-1を上下させる動作である。具体的には、図4に示すアバターA1,A2の腕パーツP12-1,P22-1の位置を第1位置とし、図5に示すアバターA1,A2の腕パーツP12-1,P22-1の位置を第2位置とする。プレビュー表示における動作は、腕パーツP12-1,P22-1の位置を第1位置と第2位置との間で数回往復させる動作である。
 決定部212は、アバターA1の腕パーツP12-1の可動域を、アバターA2の腕パーツP22-1の可動域よりも広い範囲に決定する。具体的には、図4に示すように、アバターA1の腕パーツP12-1が第1位置にある時、腕パーツP12-1の向き(腕パーツP12-1の固定点Fから指先に向かう方向)は、水平面に対して下方向に90度である。また、図5に示すように、アバターA1の腕パーツP12-1が第2位置にある時、腕パーツP12-1の向きは、水平面に対して上方向に90度である。よって、アバターA1の腕パーツP12-1の可動域は、180度である。また、図4に示すように、アバターA2の腕パーツP22-1が第1位置にある時、腕パーツP22-1の向きは、水平面に対して下方向にα度(<90度)である。また、図5に示すように、アバターA2の腕パーツP22-1が第2位置にある時、腕パーツP22-1の向きは、水平面に対して上方向にβ度(<90度)である。よって、アバターA2の腕パーツP22-1の可動域は、α+β度(<180度)である。このように、アバターA1の腕パーツP12-1の可動域の方が、アバターA2の腕パーツP22-1の可動域よりも広くなっている。
 頭部パーツP11,P21の寸法に対する体部パーツP12,P22の寸法の比率とは、図4および図5に示すような背丈に沿った寸法(長さ)に限らず、例えば、アバターA1,A2の身幅に沿った寸法であってもよい。
 図6は、アバターAの一例を示す模式図である。図6には、2体のアバターA3およびA4が示される。アバターA3およびA4は、共にカエルを模したアバターAである。アバターA3は、大きく分けて、頭部パーツP31と、体部パーツP32とを含む。体部パーツP32は、更に腕パーツP32-1、胴体パーツP32-2および足パーツP32-3を含む。同様に、アバターA4も、大きく分けて、頭部パーツP41と、体部パーツP42とを含む。体部パーツP42は、更に腕パーツP42-1、胴体パーツP42-2および足パーツP42-3を含む。
 図6の例では、頭部パーツP31,P41の寸法に対する体部パーツP32,P32の寸法の比率は、アバターA1,A2の身幅に沿った頭部パーツP31,P41の寸法と体部パーツP32,P42の寸法との比率である。より詳細には、アバターA1,A2の身幅に沿って第2軸を設定する。頭部パーツP31,P41の寸法を、第2軸に沿った頭部パーツP31,P41の長さW31,W41とする。体部パーツP32,P42の寸法を、第2軸に沿った胴体パーツP32-2,P42-2の長さW32,W42とする。なお、体部パーツP32,P42は、腕パーツP32-1,P42-1を含むが、アバターA1,A2の全体的な印象を決めるのは胴体パーツP32-2,P42-2であること、腕パーツP32-1,P42-1は移動パーツであり、位置が変化することから、胴体パーツP32-2,P42-2の寸法を体部パーツP32,P42の寸法として取り扱っている。   
 アバターA3を例にすると、頭部パーツP31の第2軸に沿った長さW31は、体部パーツP32の第2軸に沿った長さW32よりも小さい。すなわち、頭部パーツP31の寸法に対する体部パーツP32の寸法の比率は1を超えている。一方、アバターA4を例にすると、頭部パーツP41の第2軸に沿った長さW41は、体部パーツP42の第2軸に沿った長さW42よりも大きい。すなわち、頭部パーツP41の寸法に対する体部パーツP42の寸法の比率は1未満である。
 決定部212は、頭部パーツP31,P41の寸法に対する体部パーツP32,P42の寸法の比率が大きいほど、腕パーツP32-1,P42-1の可動域を広くする。アバターA3とアバターA4とを比較すると、アバターA3の方が、頭部パーツP31の寸法に対する体部パーツP32の寸法の比率が大きい。よって、決定部212は、アバターA3の腕パーツP32-1の可動域を、アバターA4の腕パーツP42-1の可動域よりも広くする。
 例えば、プレビュー表示におけるアバターA3およびA4の動作が、腕パーツP32-1,P42-1を上下させる動作であるものとする。具体的には、図6に実線で示す腕パーツP32-1,P42-1の位置を第1位置とし、図6に点線で示す腕パーツP32-1,P42-1の位置を第2位置とする。プレビュー表示における動作は、腕パーツP32-1,P42-1の位置を第1位置と第2位置との間で往復させる動作であるものとする。
 アバターA3とアバターA4とを比較すると、アバターA3の腕パーツP32-1の可動域の方が、アバターA4の腕パーツP42-1の可動域よりも広くなっている。具体的には、アバターA3の腕パーツP32-1の第1位置における向きと、第2位置における向きとは、固定点F周りに角度γ離れている。すなわち、アバターA3の腕パーツP32-1の可動域は、角度γである。一方、アバターA4の腕パーツP42-1の第1位置における向きと、第2位置における向きとは、固定点F周りに角度δ(<角度γ)離れている。すなわち、アバターA4の腕パーツP42-1の可動域は、角度δ(<角度γ)である。
 このように、2つのパーツの寸法を比較するに際して、2つのパーツの配置方向(図4~図6では第1軸)に沿った寸法を比較してもよいし、2つのパーツの配置方向に沿っていない寸法(例えば第1軸と直交する第2軸)を比較してもよい。
 画像生成部213は、決定部212が決定した可動域に基づいて、アバターAの画像を生成する。本実施形態では、画像生成部213は、決定部212が決定した可動域に基づいて、所定の動作を行うアバターAの画像を生成する。アバターA1を例にすると、画像生成部213は、アバターA1の腕パーツP12-1が第1位置と第2位置との間で数回往復する動作を行う画像を生成する。第1位置と第2位置とは、固定点F周りに180度離れている。画像生成部213は、生成した画像を端末装置10に送信する。端末装置10は、アバターA1のプレビュー表示として画像を表示装置101に表示する。
 A-5.アバター作成サーバ20の動作
 図7は、アバター作成サーバ20の動作を示すフロー図である。以下のフローチャートの説明では、ユーザUがアバターA1を作成したものとして説明する。アバター作成サーバ20は、端末装置10からアバター作成が指示されるまで待機し(ステップS100:NO)、アバター作成が指示されると(ステップS100:YES)、処理装置203が作成部211として機能し、端末装置10から送信されるユーザ指示情報に基づいてアバターA1を作成する(ステップS102)。この時、作成部211は、頭部パーツP11の寸法に対する体部パーツP12の寸法の比率の値をアバターA1のメタ情報に含める。
 端末装置10からプレビュー表示の指示を受信するまでは(ステップS104:NO)、処理装置203は、ステップS102に戻り、ユーザ指示情報に基づくアバターA1の作成(パーツの調整等)を継続する。端末装置10からプレビュー表示の指示を受信すると(ステップS104:YES)、処理装置203は、決定部212として機能し、アバターA1の腕パーツP12-1の可動域を決定する(ステップS106)。この時、決定部212は、アバターA1のメタ情報に含まれる頭部パーツP11の寸法に対する体部パーツP12の寸法の比率の値に基づいて、腕パーツP12-1の可動域を決定する。
 なお、可動域の決定は、プレビュー表示の指示に先立って行われてもよい。例えば、ユーザ指示情報に基づいてアバターA1の各部が変更される都度、可動域が決定されてもよい。
 処理装置203は、画像生成部213として機能し、アバターA1がステップS106で決定された可動域で腕パーツP12-1を上下させる画像をプレビュー表示用の画像として生成する(ステップS108)。処理装置203は、画像生成部213が生成した画像を端末装置10に送信する(ステップS110)。ユーザUは、端末装置10の表示装置101に表示された画像を確認し、アバターA1が完成したかを確認する。
 端末装置10からアバターA1の完成を確認する完成指示を受信した場合(ステップS112:YES)、処理装置203は、本フローチャートの処理を終了する。また、端末装置10から完成指示を受信しない場合(ステップS112:NO)、処理装置203は、ステップS102に戻り、アバターA1の作成を継続する。
 A-6.実施形態のまとめ
 以上説明したように、アバター作成サーバ20は、アバターAを構成する第1パーツの寸法と、第1パーツと異なる第2パーツの寸法とに基づいて、アバターAの移動パーツの可動域を決定する。よって、2つのパーツの寸法のみを用いて移動パーツの可動域を決定することができ、簡易な処理でアバターAの形状に応じた動きが実現される。
 また、アバター作成サーバ20は、アバターAの動作時において移動パーツとは異なるパーツ(本実施形態では、頭部パーツP11,P21、胴体パーツP12-2,P22-2および足パーツP12-3,P22-3)の寸法を用いて、移動パーツ(本実施形態では、腕パーツP12-1,P22-1の可動域を決定する。よって、移動パーツの具体的な動きに関係なく移動パーツの可動域を決定することができ、移動パーツの具体的な動きに合わせて可動域を決定するのと比較してアバター作成サーバ20の処理負荷が軽減される。
 また、アバター作成サーバ20は、第1パーツとしてアバターAの頭部に対応するパーツ(以下、一例として頭部パーツP11)を、第2パーツとしてアバターAの体部に対応するパーツ(以下、一例として体部パーツP12)を用いる。頭部パーツP11および体部パーツP12は、アバターAの全体的な印象を決めるパーツである。よって、アバターAに適した可動域が精度よく決定される。
 また、アバター作成サーバ20は、頭部パーツP11の第1軸に沿った長さH11と、体部パーツP12の第1軸に沿った長さH12との比率に基づいて、移動パーツの可動域を決定する。一般に、アバターA全体に占める頭部の割合が大きい場合、アバターA全体に占める頭部の割合が小さい場合と比較して、移動パーツとアバターAを構成する他のパーツ(特に頭部のパーツ)とが干渉やすい。また、アバターA全体に占める頭部の割合が大きい場合、アバターA全体に占める頭部の割合が小さい場合と比較して、アバターAの可動域が小さい方が、より自然な動きに見える。よって、アバターAの頭部のパーツの寸法に対する体部のパーツの寸法の比率が大きいほど、移動パーツの可動域を広くすることで、アバターAの全体的な印象を反映した違和感のない動きが実現される。
 また、図6のアバターA3を用いて例示するように、アバター作成サーバ20は、頭部パーツP31の第2軸に沿った長さW31と、体部パーツP32の第2軸に沿った長さW32との比率に基づいて、移動パーツの可動域を決定する。アバターA全体に占める頭部の割合が大きい場合、アバターA全体に占める頭部の割合が小さい場合と比較して、移動パーツとアバターAを構成する他のパーツ(特に頭部のパーツ)とが干渉やすい。よって、第2軸に沿った頭部パーツP31の寸法に対する、第2軸に沿った体部パーツP32の寸法の比率が大きいほど、移動パーツの可動域を広くすることでパーツ間の干渉を低減し、違和感のない動きが実現される。
 B.第2実施形態
 第1実施形態では、決定部212が移動パーツの可動域を決定する際に寸法を考慮する第1パーツおよび第2パーツは、移動パーツではないパーツであった。第2実施形態では、第1パーツおよび第2パーツの少なくとも一方が移動パーツである場合について説明する。
 図8は、アバターAの一例を示す模式図である。図8には、2体のアバターA5およびA6が示される。アバターA5およびA6は、共に女性を模したアバターAである。アバターA5は、大きく分けて、頭部パーツP51と、体部パーツP52とを含む。体部パーツP52は、更に腕パーツP52-1、胴体パーツP52-2、足パーツP52-3およびスカートパーツP52-4を含む。同様に、アバターA6も、大きく分けて、頭部パーツP61と、体部パーツP62とを含む。体部パーツP62は、更に腕パーツP62-1、胴体パーツP62-2、足パーツP62-3およびスカートパーツP62-4を含む。
 アバターA5,A6も、アバターA1~A4と同様に、プレビュー表示では、腕パーツP52-1,P62-1を上下させる動作を行うものとする。具体的には、図8に実線で示す腕パーツP52-1,P62-1の位置を第1位置とし、図8に点線で示す腕パーツP52-1,P62-1の位置を第2位置とする。プレビュー表示における動作は、腕パーツP52-1,P62-1の位置を第1位置と第2位置との間で往復させる動作であるものとする。
 アバターA5とアバターA6とを比較すると、全体的なパーツの寸法は類似しているものの、体部パーツP52,P62の一部であるスカートパーツP52-4,P62-4の寸法が異なっている。具体的には、アバターA5のスカートパーツP52-4の第2軸に沿った長さW52-4は胴体パーツP52-2の第2軸に沿った長さと同程度である。これに対して、アバターA6のスカートパーツP62-4の第2軸に沿った長さW62-4は、胴体パーツP62-2の第2軸に沿った長さより1.5倍程度大きい。このため、第1位置において、アバターA6の腕パーツP62-1を水平面に対して垂直に配置すると、スカートパーツP62-4と腕パーツP62-1が重なってしまい、違和感が生じる。スカートパーツP62-4と腕パーツP62-1とを自然に重ねるには、例えば腕パーツP62-1を前後いずれかにずらす必要がある。しかし、個々のアバターAに応じて奥行き方向の動きを変更するのは、アバター作成サーバ20の処理負荷が大きくなる。
 このため、第2実施形態では、決定部212は、移動パーツである腕パーツP52-1,P62-1を第1パーツ、動作中の移動パーツと重なる可能性があるスカートパーツP52-4,P62-4を第2パーツとする。決定部212は、腕パーツP52-1,P62-1の寸法とスカートパーツP52-4,P62-4の寸法とに基づいて、腕パーツP52-1,P62-1の可動域を決定する。腕パーツP52-1,P62-1の寸法とは、腕パーツP52-1,P62-1の固定点Fから先端までの長さL52-1,L62-1であり、スカートパーツP52-4,P62-4の寸法とは、スカートパーツP52-4,P62-4の第2軸に沿った長さW52-4,W62-4である。なお、スカートパーツP52-4,P62-4の第2軸に沿った長さW52-4,W62-4は、第1軸に沿って変化する。具体的には、長さW52-4,W62-4は、胴体パーツP52-2,P62-2に近いほど短く、足パーツP52-3,P62-3に近いほど長くなっている。図8では便宜上、長さW52-4,W62-4の最大値を図示している。
 決定部212は、腕パーツP52-1,P62-1が移動した際に、腕パーツP52-1,P62-1とスカートパーツP52-4,P62-4と重ならない範囲に、腕パーツP52-1,P62-1の可動域を決定する。例えば、上述のように、アバターA5のスカートパーツP52-4の第2軸に沿った長さW52-4は、第2軸に沿った胴体パーツP52-2の長さと同程度である。よって、第1位置においてアバターA5の腕パーツP52-1は、水平面に対して下方向に垂直(90度)に配置可能である。また、第2位置において、アバターA5の腕パーツP52-1は、水平面に対して上方向に垂直(90度)に配置可能である。よって、決定部212は、アバターA5の腕パーツP52-1の可動域を180度に決定する。
 また、上述のように、アバターA6のスカートパーツP62-4の幅方向の長さW62-4は胴体パーツP62-2よりも広い。よって、第1位置においてアバターA6の腕パーツP62-1がスカートパーツP62-4と重ならないためには、腕パーツP62-1は水平面に対して角度下方向にε度(<90度)で配置される必要がある。また、第2位置において、アバターA5の腕パーツP52-1は、水平面に対して上方向に垂直(90度)に配置可能である。よって、決定部212は、アバターA6の腕パーツP62-1の可動域をε+90度(<180度)に決定する。
 なお、上述した実施形態では、第1パーツである腕パーツP52-1,P62-1が移動パーツであり、第2パーツであるスカートパーツP52-4,P62-4は移動パーツとは異なるパーツであった。これに限らず、第1パーツと第2パーツとが共に移動パーツであってもよい。この場合においても、決定部212は、移動パーツである第1パーツと第2パーツとが共に移動した際に、第1パーツと第2パーツとが相互に重ならない範囲に可動域を決定する。
 以上説明したように、第2実施形態では、アバター作成サーバ20は、移動パーツを含む2つパーツの寸法を用いて、移動パーツの可動域を決定する。よって、移動パーツと他のパーツ(または移動パーツ同士)との干渉度合いを考慮して移動パーツの可動域を決定することができ、違和感のないアバターAの動きが実現される。
 また、アバター作成サーバ20は、決定部212は、移動パーツが移動した際に、第1パーツと第2パーツとが重ならない範囲に移動パーツの可動域を決定する。よって、移動パーツと他のパーツ(または移動パーツ同士)との干渉を防止することができ、違和感のないアバターAの動きが実現される。
 C:変形例
 上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
 C1:第1変形例
 上述した実施形態では、決定部212は、プレビュー表示の動作におけるアバターAの可動域を決定するものとした。これに限らず、決定部212は、他の動作時におけるアバターAの可動域を決定してもよい。他の動作時とは、例えば仮想空間を利用したサービス(コミュニケーションサービスまたはゲームサービス等)におけるアバターAの動きである。
 C2:第2変形例
 上述した実施形態では、作成部211、決定部212および画像生成部213がアバター作成サーバ20に設けられていた。これに限らず、作成部211、決定部212および画像生成部213の少なくともいずれかが、端末装置10に設けられていてもよい。
 D:その他
 (1-1)上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)または送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
 (1-2)情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
 (1-3)本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG)(xG(xは、例えば整数、小数))、FRA(Future Radio Access)、NR(new Radio)、New radio access(NX)、Future generation radio access(FX)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張、修正、作成、規定された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい
 (1-4)本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 (1-5)本開示において基地局によって行われるとした特定動作は、場合によってはその上位ノード(upper node)によって行われることもある。基地局を有する1つ又は複数のネットワークノード(network nodes)からなるネットワークにおいて、端末との通信のために行われる様々な動作は、基地局及び基地局以外の他のネットワークノード(例えば、MME又はS-GWなどが考えられるが、これらに限られない)の少なくとも1つによって行われ得ることは明らかである。上記において基地局以外の他のネットワークノードが1つである場合を例示したが、複数の他のネットワークノードの組み合わせ(例えば、MME及びS-GW)であってもよい。
 (1-6)情報等(※「情報、信号」の項目参照)は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。
 (1-7)入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 (1-8)判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 (1-9)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
 (2-1)ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 (2-2)本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
 (2-3)本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
 (2-4)また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。更に、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
 (2-5)本開示においては、「基地局(BS:Base Station)」、「無線基地局」、「固定局(fixed station)」、「NodeB」、「eNodeB(eNB)」、「gNodeB(gNB)」、「アクセスポイント(access point)」、「送信ポイント(transmission point)」、「受信ポイント(reception point)、「送受信ポイント(transmission/reception point)」、「セル」、「セクタ」、「セルグループ」、「キャリア」、「コンポーネントキャリア」などの用語は、互換的に使用され得る。基地局は、マクロセル、スモールセル、フェムトセル、ピコセルなどの用語で呼ばれる場合もある。基地局は、1つ又は複数(例えば、3つ)のセルを収容することができる。基地局が複数のセルを収容する場合、基地局のカバレッジエリア全体は複数のより小さいエリアに区分でき、各々のより小さいエリアは、基地局サブシステム(例えば、屋内用の小型基地局(RRH:Remote Radio Head)によって通信サービスを提供することもできる。「セル」又は「セクタ」という用語は、このカバレッジにおいて通信サービスを行う基地局及び基地局サブシステムの少なくとも一方のカバレッジエリアの一部又は全体を指す。本開示において、基地局が端末に情報を送信することは、基地局が端末に対して、情報に基づく制御・動作を指示することと読み替えられてもよい。
 (2-6)本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
 (2-7)基地局及び移動局の少なくとも一方は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、基地局及び移動局の少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、移動可能な物体をいい、移動速度は任意である。また移動体が停止している場合も当然含む。当該移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン(登録商標)、マルチコプター、クアッドコプター、気球、およびこれらに搭載される物を含み、またこれらに限らない。また、当該移動体は、運行指令に基づいて自律走行する移動体であってもよい。乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、基地局及び移動局の少なくとも一方は、必ずしも通信動作時に移動しない装置も含む。例えば、基地局及び移動局の少なくとも一方は、センサなどのIoT(Internet of Things)機器であってもよい。また、本開示における基地局は、ユーザ端末で読み替えてもよい。例えば、基地局及びユーザ端末間の通信を、複数のユーザ端末間の通信(例えば、D2D(Device-to-Device)、V2X(Vehicle-to-Everything)などと呼ばれてもよい)に置き換えた構成について、本開示の各態様/実施形態を適用してもよい。この場合、上述の基地局が有する機能をユーザ端末が有する構成としてもよい。また、「上り」及び「下り」などの文言は、端末間通信に対応する文言(例えば、「サイド(side)」)で読み替えられてもよい。例えば、上りチャネル、下りチャネルなどは、サイドチャネルで読み替えられてもよい。同様に、本開示におけるユーザ端末は、基地局で読み替えてもよい。この場合、上述のユーザ端末が有する機能を基地局が有する構成としてもよい。
 (3-1)本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
 (3-2)「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
 (3-3)参照信号は、RS(Reference Signal)と略称することもでき、適用される標準によってパイロット(Pilot)と呼ばれてもよい。
 (3-4)本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 (3-5)本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 (3-6)上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。
 (3-7)本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 (3-8)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 (3-9)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
 (4)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
1…システム、10…端末装置、20…アバター作成サーバ、101…表示装置、102…入力装置、103…通信装置、104…記憶装置、105…処理装置、111…通信制御部、112…表示制御部、201…通信装置、202…記憶装置、203…処理装置、211…作成部、212…決定部、213…画像生成部、A(A1~A6)…アバター、N…ネットワーク、U…ユーザ。

Claims (7)

  1.  2以上のパーツを含むアバターの画像を生成するアバター画像生成装置であって、
     前記アバターに含まれる第1パーツの寸法と、前記第1パーツと異なる第2パーツの寸法とに基づいて、前記アバターの移動パーツの可動域を決定する決定部と、
     前記決定部が決定した前記可動域に基づいて、前記アバターの画像を生成する画像生成部と、
     を備えるアバター画像生成装置。
  2.  前記第1パーツおよび前記第2パーツは、前記移動パーツと異なるパーツである、
     請求項1記載のアバター画像生成装置。
  3.  前記第1パーツは前記アバターの頭部に対応する頭部パーツであり、前記第2パーツは前記アバターの体部に対応する体部パーツである、
     請求項1記載のアバター画像生成装置。
  4.  前記頭部パーツおよび前記体部パーツは、第1軸に沿って並んで配置され、
     前記頭部パーツの寸法は、前記第1軸に沿った前記頭部パーツの長さであり、
     前記体部パーツの寸法は、前記第1軸に沿った前記体部パーツの長さであり、
     前記決定部は、前記頭部パーツの寸法に対する前記体部パーツの寸法の比率が大きいほど、前記移動パーツの前記可動域を広くする、
     請求項3記載のアバター画像生成装置。
  5.  前記頭部パーツおよび前記体部パーツは、第1軸に沿って並んで配置され、
     前記頭部パーツの寸法は、前記第1軸と直交する第2軸に沿った前記頭部パーツの長さであり、
     前記体部パーツの寸法は、前記第2軸に沿った前記体部パーツの長さであり、
     前記決定部は、前記頭部パーツの寸法に対する前記体部パーツの寸法の比率が大きいほど、前記移動パーツの前記可動域を広くする、
     請求項3記載のアバター画像生成装置。
  6.  前記第1パーツまたは前記第2パーツの少なくともいずれかは、前記移動パーツである、
     請求項1記載のアバター画像生成装置。
  7.  前記決定部は、前記移動パーツが移動した際に、前記第1パーツと前記第2パーツとが重ならない範囲に前記移動パーツの前記可動域を決定する、
     請求項6記載のアバター画像生成装置。
PCT/JP2023/033906 2022-10-03 2023-09-19 アバター画像生成装置 WO2024075512A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-159238 2022-10-03
JP2022159238 2022-10-03

Publications (1)

Publication Number Publication Date
WO2024075512A1 true WO2024075512A1 (ja) 2024-04-11

Family

ID=90607682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/033906 WO2024075512A1 (ja) 2022-10-03 2023-09-19 アバター画像生成装置

Country Status (1)

Country Link
WO (1) WO2024075512A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337884A (ja) * 1993-03-31 1994-12-06 Toshiba Corp 作業環境評価装置
JP2008033521A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP2012208536A (ja) * 2011-02-16 2012-10-25 Square Enix Co Ltd 動作モデリング装置及び方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337884A (ja) * 1993-03-31 1994-12-06 Toshiba Corp 作業環境評価装置
JP2008033521A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
JP2012208536A (ja) * 2011-02-16 2012-10-25 Square Enix Co Ltd 動作モデリング装置及び方法、並びにプログラム

Similar Documents

Publication Publication Date Title
US20210168684A1 (en) Apparatus and method for load balancing in wireless communication system
Yeh et al. Perspectives on 6G wireless communications
US11770724B2 (en) Mobile terminal for displaying whether QoS is satisfied in wireless communication system
CN113439486B (zh) 用于显示用于使用ma pdu会话的信息的方法和终端
US20170083275A1 (en) Method and device for controlling mirroring services
KR20180092535A (ko) 근거리 무선 통신 시스템에서 디바이스의 연결 방법 및 장치
WO2024075512A1 (ja) アバター画像生成装置
KR20230062821A (ko) 무선 통신 시스템에서 연합학습을 수행하는 방법 및 이를 위한 장치
JP7127648B2 (ja) 通信装置及び通信方法
JP2022523082A (ja) スペクトル管理装置、電子装置、無線通信方法及び記憶媒体
US20240073732A1 (en) Method and device for adjusting split point in wireless communication system
US20230319667A1 (en) Apparatus and method for handover in wireless communication system
US20240049097A1 (en) Methods, apparatuses, and computer program products for fast cell selection using conditional handover and intercell beam management reporting
WO2024085084A1 (ja) アバター制御装置
JP7376580B2 (ja) 端末、基地局、システム、及び通信方法
WO2023243300A1 (ja) レンダリング制御装置
JP2021158600A (ja) 端末及び通信方法
KR20230049664A (ko) 무선 통신 시스템에서 주파수 대역 간 채널 공간 정보의 유사성에 기반한 통신 방법 및 이를 위한 장치
WO2021029049A1 (ja) 端末及び通信方法
WO2023228856A1 (ja) 仮想オブジェクトデータ選択装置
WO2023228565A1 (ja) 表示制御装置
JP2023183554A (ja) 管理装置
WO2023093777A1 (zh) 一种通信方法及装置
WO2024018610A1 (ja) 無線中継装置及び通信方法
WO2022113151A1 (ja) 通信装置、ユーザ装置、通信システムおよび通信方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23874641

Country of ref document: EP

Kind code of ref document: A1