WO2022075479A1 - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
WO2022075479A1
WO2022075479A1 PCT/JP2021/037490 JP2021037490W WO2022075479A1 WO 2022075479 A1 WO2022075479 A1 WO 2022075479A1 JP 2021037490 W JP2021037490 W JP 2021037490W WO 2022075479 A1 WO2022075479 A1 WO 2022075479A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
information processing
scene
user
display
Prior art date
Application number
PCT/JP2021/037490
Other languages
English (en)
French (fr)
Inventor
聖二 安藤
悠作 永岡
Original Assignee
株式会社バンダイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイ filed Critical 株式会社バンダイ
Publication of WO2022075479A1 publication Critical patent/WO2022075479A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • the present invention relates to a technique of an information processing device for children.
  • Examples of information processing devices or toys for children include devices and toys that imitate information processing devices such as PCs (personal computers) for adults.
  • the child who is the user, operates such a device and enjoys learning. This makes it possible to promote the step-up to the use of devices such as PCs for adults.
  • Examples of functions by application programs and the like provided in such information processing devices for children include learning English and programming, creating moving images, and the like.
  • Patent Document 1 describes that as a digital toy with a built-in camera, an effect can be easily added to a captured image.
  • Patent Document 1 discloses that a user can create and edit a moving image with an effect such as a video clip by automatically adding an effect to a moving image captured by selecting a template.
  • Prior art examples such as Patent Document 1 target users who are relatively young, and describe that the users can create and edit moving images.
  • An object of the present invention is to provide a technique for enhancing the interest in creating a moving image by a child with respect to the technique of an information processing device for children.
  • the information processing apparatus of the embodiment includes an input unit for inputting a user's operation, a moving image creating unit capable of creating a moving image by a combination including scene information as an element based on the user's operation by the input unit, and the like.
  • the control unit includes a display unit that displays the moving image and a control unit that controls input, creation, and display.
  • the created first moving image is controlled to be displayable on the display unit, and the predetermined state is at least one of the start, end, processing, sleep, and user set time of the information processing apparatus or program. It is in a state.
  • An outline of the configuration of the appearance of the information processing apparatus according to the first embodiment of the present invention is shown.
  • the functional block configuration of the information processing apparatus of Embodiment 1 is shown.
  • the main processing flow of the information processing apparatus of Embodiment 1 is shown.
  • a standard screen or the like is shown.
  • a scene selection screen and a first character selection screen are shown.
  • a second character selection screen and a movement selection screen are shown.
  • the effect element selection screen is shown.
  • a configuration example of a scene is shown.
  • a configuration example of a continuous scene moving image is shown.
  • the first of the display examples of the scene moving images is shown.
  • the second of the display example of the scene moving image is shown.
  • the first example of the menu screen for creating a moving image is shown.
  • a second example of a menu screen for creating a moving image is shown.
  • a display example of a special effect image is shown.
  • a display example of the tutorial is shown.
  • a display example of a moving image-based editing format is shown.
  • the main body as the hardware for them is the processor or the controller composed of the processor or the like.
  • the computer executes processing according to the program read on the memory by the processor while appropriately using resources such as the memory.
  • the processor is composed of, for example, a semiconductor device such as a CPU.
  • a processor is composed of a device or a circuit capable of performing a predetermined operation.
  • the processing is not limited to software program processing, but can be implemented by a dedicated circuit. FPGA, ASIC, etc. can be applied to the dedicated circuit.
  • the program may be pre-installed as data in the target computer, or may be distributed and installed as data in the target computer from the program source.
  • the program source may be a program distribution server on a communication network or a non-transient computer-readable storage medium.
  • the program may be composed of a plurality of program modules.
  • the program of the first embodiment is a computer program that causes the information processing apparatus of the first embodiment to execute processing, in other words, a program that realizes each processing unit of the information processing apparatus of the first embodiment.
  • the information processing device of the first embodiment is a PC toy for children, and has a moving image creation function realized based on program processing.
  • the information processing device 1 of the first embodiment shown in FIG. 1 or the like has a mechanism that allows a child user to enjoy and easily create a moving image by combining elements including scenes and characters on fiction. Then, the information processing apparatus 1 controls to display the moving image created by the user (may be described as the first moving image for the sake of explanation) when the information processing apparatus 1 is in a predetermined state.
  • the predetermined state is when the information processing device 1 or the program running on the device is started (including immediately after the start), at the end (including immediately before the end), during processing (including during loading, etc.), sleep (power saving mode, etc.). (Including), and at least one of the user-set time (including, for example, the time set by the alarm function or the like).
  • the information processing apparatus 1 of the first embodiment can be set by the user for a function of displaying the first moving image created / selected by the user in a predetermined state. That is, the user can also select and set a predetermined state for displaying the selected first moving image based on the operation on the screen. For example, the user can play the first moving image as an opening moving image when the information processing apparatus 1 is started.
  • a predetermined display specified in advance by the business operator is set in the initial setting (for example, at the time of shipment from the factory).
  • the information processing apparatus 1 of the first embodiment is set to reproduce the predetermined display in a predetermined state specified in advance by the business operator, for example, when the information processing apparatus 1 is started.
  • the predetermined display is, for example, an opening moving image of a predetermined moving image.
  • the predetermined moving image is a moving image having a fixed content including a predetermined scene information on fiction and a predetermined character.
  • the predetermined display is not limited to the moving image of fiction, and may be an image of predetermined information (for example, a product name or the like).
  • the information processing apparatus 1 of the first embodiment can be changed by replacing the predetermined display displayed in the predetermined state with the first moving image by the setting by the user.
  • the information processing device 1 of the first embodiment provides a graphical user interface (GUI) including an element selection procedure on a display screen, and a user can easily and enjoyably create a first moving image according to the graphical user interface (GUI). Further, the information processing apparatus 1 of the first embodiment is a GUI in which the user edits the first moving image by changing elements based on a predetermined display configuration as a GUI. It is also possible to create a moving image of 1.
  • GUI graphical user interface
  • FIG. 1 shows an outline configuration of the appearance of the information processing apparatus 1 according to the first embodiment.
  • the information processing apparatus 1 of the first embodiment includes a main body 1A and a mouse 1B.
  • the mouse 1B which is an input device, is connected to the main body 1A by wireless or wired communication.
  • the main body 1A has a foldable mechanism like a notebook PC, and has a main body portion 1A1 on the horizontal plane side and the other main body portion 1A2 connected to the main body portion 1A1.
  • a keyboard 1C which is an input device, is arranged on the main body 1A1 on the horizontal surface side.
  • a display screen 1D is partially arranged on the other main body 1A2.
  • An image of a character or the like on a predetermined fiction may be formed by printing, a sticker, or the like around the display screen 1D.
  • a user who is a child operates and uses the information processing device 1.
  • the appearance of the information processing apparatus 1 is an appearance imitating a notebook PC for adults, but is not limited to this, and is an appearance imitating another type of device such as a desktop PC or a tablet PC. May be. Since the information processing device 1 is a toy for children, it does not need to be equipped with advanced functions and resources like a PC for adults.
  • the information processing apparatus 1 is pre-installed with data such as a predetermined program including the program of the first embodiment and related contents at the time of initial setting such as at the time of factory shipment.
  • the information processing apparatus 1 may be additionally installed with data such as a program or content after the initial setting data.
  • communication with an external device may be used, or in particular, a storage medium such as a memory card may be used.
  • Content is a general term that includes text, images, sounds, games, etc.
  • Images include still images and moving images.
  • Video includes animations and effects.
  • the effect is a special effect for directing, and includes image processing and screen processing.
  • the information processing device 1 does not have to be provided with a communication interface device or the like because it is not essential for the communication function with the external device, but it is provided with the communication interface device or the like when it is provided with the communication function with the external device. It should be noted that the relatives of the child can also operate the information processing device 1 to set the functions and the like.
  • An external device may be connected to the information processing device 1 of the first embodiment.
  • the external device include a server of a business operator on a communication network, a mobile terminal device of a user, a home device, and the like.
  • an application program or content data may be distributed from a server or the like to the information processing apparatus 1 of the first embodiment. Data may be transferred and stored from the information processing apparatus 1 of the first embodiment to a server or the like.
  • FIG. 2 shows an example of a functional block configuration as a computer in the information processing apparatus 1 of the first embodiment.
  • the information processing device 1 includes a processor 101, a memory 102, a display device 103, a mouse 1B, a keyboard 1C, a speaker 105, an interface device 107, a battery 106, and the like, and they are connected to each other via a bus, an input / output interface, and the like. Has been done.
  • the processor 101 is composed of a CPU, ROM, RAM, etc., and constitutes a controller that controls the entire information processing apparatus 1 and each part.
  • the processor 101 realizes each processing unit by processing based on the program of the first embodiment.
  • the information processing device 1 has a control unit 11, a moving image creation unit 12, a storage unit 13, a display unit 14, and an input unit 15 as the processing unit.
  • the memory 102 is composed of a non-volatile storage device or the like, and stores various data and information handled by the processor 101 and the like.
  • the control program 51, the setting information 52, the moving image data 53, the content data 54, and the like are stored in the memory 102.
  • the control program 51 corresponds to the program of the first embodiment and various application programs.
  • the setting information 52 is setting information by the control program 51, and includes user setting information.
  • the moving image data 53 includes data of each moving image created and saved by the moving image creating function by the program of the first embodiment.
  • the content data 54 includes data of various contents used in the moving image creation function. This content includes data of materials such as images that are elements constituting the moving image.
  • the display device 103 has a display drive circuit and the display screen 1D of FIG.
  • the display device 103 is a liquid crystal display device.
  • the display device 103 may be a touch panel.
  • the mouse 1B accepts input operations such as position and button press, and generates corresponding input information.
  • the keyboard 1C accepts input operations of various keys and generates corresponding input information.
  • the speaker 105 is an audio output device.
  • the battery 106 supplies electric power to each part.
  • the information processing device 1 may be provided with an interface device 107 to which a storage medium such as a memory card can be mounted, a microphone, another sensor, or the like.
  • the moving image creation function of the information processing apparatus 1 is a moving image programming learning function, and is a function that allows fun learning how to make a moving image based on the concept of programming.
  • the control unit 11 in FIG. 2 is a part that controls the moving image creation function, and controls each part such as the moving image creating unit 12.
  • the input unit 15 is a portion for inputting an operation by the user using the mouse 1B or the like.
  • the moving image creation unit 12 is a part capable of creating a moving image by a combination including scene information as an element based on a user's operation.
  • the moving image creation unit 12 creates the moving image using the data of the material such as the scene and the character.
  • the display unit 14 is a portion for displaying a moving image, a GUI, or the like on the display screen 1D of the display device 103.
  • the storage unit 13 is a portion that stores (in other words, stores) moving images and information in a memory 102 or the like.
  • the control unit 11 controls the display unit 14 to display a predetermined display or a first moving image created by the moving image creating unit 12 when the information processing device 1 is in a predetermined state.
  • the control unit 11 controls the storage unit 13 to store the moving image created by the moving image creating unit 12 based on the user's operation.
  • the control unit 11 controls the display unit 14 to display the moving image selected by the user from the moving image stored in the storage unit 13 in a predetermined state.
  • FIG. 3 shows a flow of main processing related to the moving image creation function by the information processing apparatus 1, and includes steps S0 to S13.
  • step S0 the information processing apparatus 1 is activated, for example, in response to a user pressing the power button.
  • the information processing apparatus 1 automatically reproduces the specified opening moving image as a predetermined display.
  • the information processing apparatus 1 displays a standard screen (FIG. 4 described later).
  • menus and the like of various functions of the information processing apparatus 1 are displayed.
  • the user selects and operates the video creation function (“How is programming”) from the menu on the standard screen.
  • the information processing apparatus 1 executes the corresponding program in response to the operation to bring the moving image creation function (corresponding application) into the activated state.
  • step S1 the information processing apparatus 1 displays the menu of the moving image creation function on the display screen 1D. On this screen, if there is a moving image already created and saved by the user, it is displayed as a list (for example, FIG. 12 described later). Available commands are displayed with buttons, icons, etc.
  • a movie creation button S1-Y (not shown).
  • the information processing device 1 displays the GUI for each element selection procedure in order on the display screen 1D when creating a scene moving image.
  • the information processing apparatus 1 displays a scene selection screen ((A) in FIG. 5).
  • a character image such as "where?" Is displayed to prompt the user to select a scene, and the user selects a desired scene from the candidates.
  • the user selects a desired scene from a plurality of scene candidates displayed as a list at the bottom of the screen.
  • step S3 the first character selection screen is displayed ((B) in FIG. 5).
  • a character image such as "who?" Is displayed so as to prompt the selection of the first character to appear in the scene.
  • information on the selected element (“where?” Scene) is also displayed on the left side of the center frame.
  • the user selects the first character from the candidates displayed as a list at the bottom of the screen.
  • step S4 the second character selection screen is displayed.
  • a character image such as "who?" Is displayed so as to prompt the selection of the second character to appear together with the first character in the scene.
  • the user selects a second character from the candidates displayed as a list at the bottom of the screen.
  • step S5 the movement selection screen is displayed ((B) in FIG. 6).
  • a character image such as "What happened?" Is displayed so as to prompt the selection of the movement (in other words, action, action) of the characters (first character and second character selected above) to appear in the scene. Will be done.
  • the user selects a movement from the candidates displayed as a list displayed at the bottom of the screen.
  • the selected movement may be a movement related to both the first character and the second character, or may be a movement related to either one of the first character and the second character, but may be a movement related to both. By doing so, it is possible to create more interesting videos.
  • step S6 the "bonus” (effect element) selection screen is displayed (FIG. 7).
  • a character image such as “bonus” is displayed so as to prompt the selection of the "bonus” effect element to appear in the scene.
  • the user selects an "extra” effect element from the candidates displayed as a list displayed at the bottom of the screen.
  • the "bonus” production element here means a predetermined object such as an item (tool, weapon, etc.), a creature, food, etc. that appears on the fiction, and is a production element as one of the elements constituting the scene video. In the final part of the scene video, it is an element for expressing the production as a bonus and spice.
  • step S7 the user can display and confirm the scene video created by the above selection.
  • the user presses a predetermined operation on the screen, for example, the display confirmation button (triangular "see” button) shown in FIG. 7.
  • the information processing device 1 displays a scene moving image according to the operation.
  • the user confirms the content by watching the scene video.
  • the save button the "honest” button in FIG. 11.
  • the storage unit 13 stores the data of the scene moving image together with the management information. If the user does not like the scene video, he / she can delete it without saving it (“Do not save” button).
  • step S8 the user can perform a predetermined operation on the screen, for example, "opening" of the scene video created or saved above or a desired scene video (first video) selected from the list.
  • a predetermined operation on the screen, for example, "opening" of the scene video created or saved above or a desired scene video (first video) selected from the list.
  • the control unit 11 sets the first moving image as the opening moving image.
  • the information processing apparatus 1 displays the set first moving image as an opening moving image in a predetermined state, for example, at the time of activation.
  • the predetermined display is not the opening moving image but the ending moving image.
  • the business operator may provide a predetermined display (for example, an opening video and an ending video) having different contents depending on the predetermined state.
  • the user can also confirm the display of the opening video by a predetermined operation on the screen, for example, by pressing the display confirmation button.
  • the information processing apparatus 1 displays the set opening moving image (predetermined display or first moving image) even if it is not at the time of activation, and returns to the original screen state after the display.
  • step S9 the information processing device 1 returns to the menu screen of the moving image creation function.
  • the user can similarly create and save the scene video as described above a plurality of times, and can create and save a plurality of scene videos.
  • Information on a plurality of saved scene videos is displayed in the list on the menu screen (FIG. 12).
  • step S10 the user can select and instruct the creation of a continuous scene moving image on the menu screen.
  • the user can select a desired plurality of scene videos from the list of scene videos on the screen (FIG. 12) and create the continuous scene video.
  • step S11 the user can display and confirm the continuous scene video created above.
  • the user presses a predetermined operation on the screen, for example, a display confirmation button (“all” button in FIG. 12).
  • the information processing apparatus 1 displays a continuous scene moving image, and returns to the original screen state after the display.
  • the user confirms the content by watching the continuous scene video. If the user likes the continuous scene video, he / she can save the continuous scene video by pressing a predetermined operation on the screen, for example, the save button (the "honor" button in FIG. 12). can.
  • the storage unit 13 stores the data of the continuous scene moving image together with the management information. If the user does not like the continuous scene video, he / she can delete it without saving it (“Do not save” button).
  • step S12 the user presses a predetermined operation on the menu screen, for example, the "Opening" button in FIG. 12, for the continuous scene video created or saved above or the desired continuous scene video selected from the list. By pressing it, you can set it as an opening movie.
  • the control unit 11 sets the continuous scene moving image as the opening moving image. In the state in which this setting is made, the set continuous scene moving image is displayed as an opening moving image in a predetermined state of the information processing apparatus 1, for example, at the time of activation.
  • step S13 the information processing apparatus 1 ends the process by the moving image creation function in response to a predetermined operation on the menu screen by the user, for example, pressing the back button, and returns to the standard screen.
  • FIG. 4A shows an example of a screen at the end of an opening moving image with a predetermined moving image as a predetermined display at the time of starting the information processing apparatus 1.
  • a fiction name, a product name of the information processing apparatus 1, a logo, a character, and the like are displayed.
  • the screen transitions from the screen (A) to the standard screen of (B) in response to an operation such as a click by the user.
  • each function includes "how programming", “eigo”, “sansu”, and the like.
  • the "How programming” button corresponds to the item of the video creation function. The user operates a cursor or the like to select a function to be used.
  • FIG. 5A shows an example of a scene selection screen as one of the element selection procedures at the time of creating a scene moving image.
  • a plurality of scene candidates are displayed side by side in a card-like manner, and they are displayed cyclically according to a predetermined operation.
  • a cursor for operation (indicated by an arrow image) is also displayed on the screen. The user moves the cursor by operating the mouse 1B or the like, selects a card of a desired scene, slides it, and carries it into the center frame. As a result, the scene is selected.
  • the card may be in the selected state only by pressing a desired card.
  • an image of the selected scene may be displayed in the background or a part of the scene selection screen.
  • FIG. 5B shows an example of a first character selection screen as one of the element selection procedures.
  • a plurality of first character candidates are displayed side by side in a card-like manner.
  • the name of the character is displayed as identification information such as "character A1”.
  • the pose of the character is represented by a picture. Information such as the pose name may be displayed along with the name on the character card. For example, "Character A1" represents the first pose of character A.
  • FIG. 6A shows an example of a second character selection screen as one of the element selection procedures.
  • a plurality of second character candidates are displayed side by side in a card-like manner.
  • the second character can be selected along with the pose as well as the first character.
  • the second character can be set to "none". This may be, for example, pressing the "None" button on the screen or selecting the "None" card.
  • three or more characters may be similarly selectable.
  • FIG. 6B shows an example of a motion selection screen as one of the element selection procedures.
  • multiple movement candidates are displayed side by side in a card-like manner.
  • the movement of the character in the scene is determined and prepared in advance as a plurality of types of movement. This movement defines the movement of the character image in the entire area of the display screen 1D as an image of the scene.
  • the rough movement of the character is represented by an arrow.
  • “Movement 1" represents a movement in which two people approach each other by two arrows facing each other.
  • the display of the identification information such as "movement 1" may actually be a name representing an action or an action, for example.
  • Names representing actions and actions are, for example, "hello”, “go-kakekko”, “jump”, and the like.
  • the movement card is not limited to the arrow, and the movement may be expressed by a picture of a character, an animation, or the like.
  • the movement may be an animation or the like in the character image area.
  • the animation may be such that the character moves his / her hand in the character image area at that position.
  • the movements of the first character and the second character are selected as a set on the movement selection screen, but the present invention is not limited to this, and the movements of the respective characters are selected. Etc. are also possible.
  • FIG. 7 shows an example of an extra (effect element) selection screen as one of the element selection procedures.
  • the cards of the directing element include items such as hammers and sky and splashes appearing on fiction, creatures such as dogs and cats, and foods such as rice balls.
  • FIG. 8 shows a configuration example of a moving image.
  • the structure of the moving image may be set in advance in the moving image composition information such as a script.
  • a plurality of scenes, a time schedule, etc. for composing a moving image may be set in the script.
  • FIG. 8 shows the connection of a plurality of parts (corresponding to so-called cuts) constituting a moving image in the vertical direction as a time series. Images such as scenes are assigned to each part.
  • FIG. 8A shows a configuration example of the opening video as a predetermined display.
  • This predetermined display is composed of one main scene as scene information.
  • FIG. 8B shows a configuration example of a scene moving image as a first moving image created by the user.
  • This scene video is composed of one main scene as scene information.
  • the scene referred to here refers to a scene excluding a scene in a start image and a scene in an end image, which are fixed contents.
  • the predetermined display is roughly divided into four parts from the first part to the fourth part.
  • the predetermined display in the initial setting has the contents specified in advance by the business operator.
  • the first part is the start image and the fourth part is the end image.
  • the second part and the third part are images that can be set between the first part and the fourth part, and the second part is a scene image in a predetermined scene.
  • the third part may be a production image corresponding to the production element appearing in the scene, which is continuous with the second part.
  • a predetermined character makes a predetermined movement in a predetermined scene, and a predetermined production element (item on fiction, etc.) appears.
  • the effect image is an image having contents corresponding to a predetermined character and a predetermined effect element.
  • the scene image and the effect image are shown separately for the sake of explanation, they may be regarded as an integrated scene image.
  • the parts of the start image and the end image are set as fixed contents and are fixed parts that cannot be changed by the user.
  • the scene image of the second part and the effect image of the third part are variable parts that can be changed by the user. That is, in the variable portion, it is possible to assign an image created / edited by the user by combining elements (scenes, characters, movements, effect elements, etc.) selected by the user from the candidates.
  • each part has a predetermined time length set in advance.
  • the predetermined display is set to accompany the reproduction of the predetermined music (BGM) in the time from the start to the end.
  • the second part and the third part are described as a scene image and an effect image, but the image form is not limited to such an image form, and any image can be used.
  • the predetermined display does not have to include all of the first part, the second part, the third part, and the fourth part, and may include at least one of them.
  • the predetermined display to include a fixed part such as the first part and the fourth part, even if the predetermined display becomes the first moving image, the guidance to the user is provided. It is preferable because necessary information can be presented.
  • a predetermined moving image is automatically displayed as a predetermined display.
  • the display automatically transitions between the images of each portion according to the above configuration.
  • a fiction name, a product name of the information processing apparatus 1, and the like may be displayed.
  • the portion of the end image is connected to the standard screen immediately after the information processing device 1 is started. For example, in response to an operation such as clicking, the screen transitions to the standard screen.
  • the standard screen immediately after the start of the information processing apparatus 1 may be brought to the portion of the end image itself.
  • the fixed content portion in the moving image is not limited to the start image and the end image, but may be a part of the image in the middle.
  • the first moving image is mainly composed of one scene as in the predetermined display.
  • the start image of the first part and the end image of the fourth part have the same fixed contents as those of the predetermined display.
  • the user selects a combination of elements such as a scene, a character, a movement, and an effect element in the second part and the third part to create a scene image and an effect image. It is also possible to create it by changing the elements according to the GUI based on the original predetermined display. As a result, the user can easily create his / her own video based on the predetermined video which is the original predetermined display, and the original predetermined according to the combination using elements such as one or more scenes. It is possible to create videos with more complicated content and longer time than the videos in.
  • the user may be able to select and set the time length of each part in the moving image, or may be able to set the number of times the image is displayed repeatedly for each scene.
  • the user may be able to set the BGM to be assigned to the moving image.
  • FIG. 9 shows a configuration example of a continuous scene moving image as an example of a first moving image having a more complicated content than that of FIG. 8 and a predetermined display.
  • (A) is an example of a predetermined display having a plurality of scene information
  • (B) is an example of a first moving image having a plurality of scene information.
  • the user can also create the first moving image as shown in (B) by changing the elements based on the predetermined display predetermined moving image of (A), for example.
  • the predetermined display of (A) has from the start image of the first part to the end image of the eighth part, and the part of the start image and the end image is the same as that of FIG.
  • the second part is the first scene image
  • the third part is the first effect image.
  • the fourth part is the second scene image
  • the fifth part is the second effect image.
  • the sixth part is the third scene image
  • the seventh part is the third effect image.
  • the contents from the second part to the seventh part are variable.
  • the first moving image of (B) has from the start image of the first part to the end image of the eighth part, and the parts of the start image and the end image are the same as those of the predetermined display. ..
  • the second part to the seventh part are images of the contents created by the user by selecting and changing the elements.
  • the user can also create a continuous scene video as shown in FIG. 9 by combining a plurality of scene videos as shown in FIG. 8, or change elements based on a predetermined video which is a predetermined display in FIG. 9. It is also possible to create a continuous scene video such as.
  • FIGS. 8 and 9 the predetermined display and the number of variable content parts constituting the first moving image are described so as to correspond to each other, but the number of variable content parts constituting the first moving image is shown. It is not necessary to correspond to the number of variable content parts that make up a predetermined display, and the number of variable content parts that make up the first video can be set appropriately when the user creates the first video. can.
  • [Display example of scene video] 10 to 11 show a display example of one scene moving image.
  • a display example relating to the effect element will be described in particular.
  • the space between the images is displayed by, for example, fade-in / fade-out.
  • the scene moving image which is the first moving image selected and created by the user, is composed of the scene A, the character A2, the character B2, the movement 5, and the effect element 2 (item 2).
  • Scene A is in front of the house.
  • Character A2 refers to the second pose of character A.
  • Character B2 refers to the second pose of character B.
  • Motion 5 is, for example, a jumping motion.
  • the production element 2 (item 2) is "Soratobuhane".
  • FIG. 10 shows, as a scene image, an image in which character A2 and character B2 move 5 in scene A as a schematic diagram.
  • character A2 and character B2 use the effect element 2 (item 2).
  • (B) is an image of the effect element 2 (item 2) as a part of the effect image.
  • the transition is made to the image of (A) of FIG.
  • (A) in FIG. 11 is an image of characters A2 and B2 flying in the sky using the item 2 "Soratobuhane" as a part of the continuation of the production image.
  • the sky image here is a part of the production, and belongs to the scene A as the management scene information.
  • the screen transitions to the end screen of (B).
  • the screen at the end of (B) is superimposed and displayed with the image of (A) as a background, or is displayed as a gray display or the like.
  • the screen (B) has a "do not do” button, a "do not do” button, a "view from the beginning" button, and an "open” button.
  • the storage unit 12 of the information processing apparatus 1 does not save this scene moving image when the "Do not read” button is pressed.
  • the storage unit 12 of the information processing apparatus 1 saves this scene moving image when the "remember” button is pressed.
  • the information processing apparatus 1 reproduces this scene moving image from the beginning.
  • the "Set to Open” button is pressed, the information processing apparatus 1 sets this scene moving image as an opening moving image which is a predetermined display in a predetermined state.
  • the first embodiment an example of displaying the "Opening" button on the screen in an operable manner as a case of setting the opening video is described, but there is another predetermined display in which the created scene video can be set. In that case, it is also possible to further display an image of an operable button according to a predetermined display that can be set.
  • one element for example, a "bonus” effect element may be used alone, or a combination of a plurality of elements, for example, a combination of a first character and an "extra” effect element may be used.
  • a “bonus” effect element may be used alone, or a combination of a plurality of elements, for example, a combination of a first character and an "extra” effect element may be used.
  • the character C will fly with the item 2 attached to the sky background in the same manner.
  • the scene itself may be transitioned / transformed by using the above-mentioned effect.
  • the transition to the second scene is performed via the effect image.
  • it may be treated as if the user has selected the second scene as an element.
  • FIG. 12 shows a configuration example of a menu screen of the moving image creation function.
  • the screen (A) of FIG. 12 includes a list of scene videos on the left side and a GUI for creating a continuous scene video on the right side.
  • each scene video is numbered and displayed.
  • the user may be able to give a name to each video.
  • Each scene video is represented by a combination of cards for each of the above-mentioned elements.
  • You can also check the display with the triangular button for each scene video.
  • the "Return" button can also be used to return to the standard screen shown in FIG. 4 (B).
  • the GUI for creating a continuous scene movie on the right side shows a large frame and the connection of a plurality of small parts in the frame.
  • the user selects a desired scene video ( ⁇ scene) in order from the list on the left side, slides it, and carries it into the large frame on the right side.
  • two or more scene videos can be selected up to four.
  • the state in which a plurality of scene videos having an order are selected in a large frame corresponds to the state in which a continuous scene video is created.
  • the start image and the end image of the moving image are not displayed. When a plurality of scene moving images are combined, the start image and the ending image of each scene moving image are omitted, and one continuous scene moving image having only one start image and one end image is configured.
  • the GUI when creating a continuous scene movie is not limited to the illustrated example.
  • multiple scene videos are displayed as pieces, and can be freely arranged according to the user's operation in the range area of the screen, and the connection of multiple pieces is created according to the arrangement. You may try to do it.
  • the connection between the scene moving images ( ⁇ scenes) may be displayed as a line image so that the user can operate the line image, and the connection between a plurality of scene moving images may be created by the operation.
  • FIG. 12 shows a display example at the end of the display confirmation (“all” button) of the continuous scene video.
  • the "tenon” button, “tenon” button, “view from the beginning” button, "opening” "To” button is displayed.
  • the storage unit 12 of the information processing apparatus 1 does not save this continuous scene moving image when the "Do not read” button is pressed.
  • the storage unit 12 of the information processing apparatus 1 saves this continuous scene moving image when the "remember” button is pressed.
  • the information processing apparatus 1 reproduces this continuous scene moving image from the beginning.
  • the information processing apparatus 1 sets this continuous scene moving image as an opening moving image which is a predetermined display in a predetermined state.
  • an "Open” button together with a "Honse” button, etc. it is possible to guide the user to set the continuous scene video created in response to the creation of the continuous scene video as the opening video. preferable. ..
  • the first embodiment an example of displaying the "Opening" button on the screen in an operable manner as a case of setting the opening video is described, but another predetermined display in which the created continuous scene video can be set is described. In some cases, it is also possible to further display an image of the operable button according to a predetermined display that can be set.
  • FIG. 13 shows a configuration example of a menu screen relating to a continuous scene moving image as another configuration example of the menu screen of the moving image creation function.
  • This screen displays a list of continuous scene videos when there is a continuous scene video that has been created by the user.
  • a plurality of continuous scene videos are identified by numbering from the left side, and two continuous scene videos indicated by numbers 1 and 2 have been created and saved.
  • the composition of each scene moving image is shown by the number of the continuous moving image, but it may be displayed by a combination of elements as in FIG.
  • the composition of each moving image may be displayed as thumbnails or the like on the GUI. You can check the display with the triangular button for each continuous scene video.
  • FIG. 14 shows an example of a special production image of a scene moving image.
  • the information processing apparatus 1 of the first embodiment generates a special effect image when the combination of elements is a specific combination among all combinations when displaying a scene moving image.
  • the control unit 11 generates, for example, a special effect image prepared in advance corresponding to a combination of a specific scene, a first character, a second character, a movement, and an effect element.
  • the example of (A) in FIG. 14 shows a scene image by a scene D, a character A2, a character C2, a movement 2, and an effect element 3 (organism 1) as a specific combination.
  • the control unit 11 displays a special effect image peculiar to the specific combination as in (B).
  • the special production image has the content that the creature 1 (for example, a dog) barks, the character A2 and the character C2 escape, and another character X appears.
  • the special production image has the content that the creature 1 (for example, a dog) barks, the character A2 and the character C2 escape, and another character X appears.
  • FIG. 15 shows a display example when the information processing apparatus 1 provides a guide, a tutorial, or the like regarding moving image creation as a GUI for the user on the display screen 1D.
  • a mission-style tutorial provides a step-by-step guide according to the degree of understanding of the user. This makes it easier for children to create videos.
  • the information processing apparatus 1 is not limited to the GUI display, and may perform such a guide by using a voice output or the like.
  • (A) in FIG. 15 is an example of a screen displaying the theme of the mission.
  • character X that conveys the theme of the mission appears
  • the message of the theme for example, "Let's say hello to character B in scene A” is displayed as shown in the lower column.
  • This example is an easy mission.
  • the scene A and the character A1 are already displayed on the screen.
  • the screen transitions to the scene selection screen as in (B).
  • the screen in (B) is the same as in (A) in FIG.
  • an image such as a guide message (for example, "Select a scene from here and slide it into the middle frame") is displayed. The user operates according to the guide.
  • the answer is correct, and the screen moves to the next selection screen and guide. If the card of another scene is selected, it is an error. , A guide to the effect of an error is displayed. Similarly, a guide is displayed on the selection screen of each element.
  • the mission is cleared. After that, more difficult missions will be available.
  • the first easy mission for example, if the scene and character (regardless of pose) match the theme, the answer will be correct.
  • the answer for more difficult missions, for example, if the scene, character and pose, movement, and staging elements match the subject, the answer is correct.
  • the user can move to making a video in the normal format without a guide.
  • a tutorial such as a mission format may be provided for creating a continuous scene video as shown in FIG.
  • a tutorial such as a mission format
  • the screen in Fig. 12 as the background, as a guide message, "Slide the scene into the frame to connect”, "Let's select the scene A first and put it in the frame”, etc. Is displayed.
  • the answer will be correct if multiple scene videos are selected in the order specified in the theme.
  • FIG. 16 shows, as one of the moving image creation functions of the information processing apparatus 1, when a user creates a first moving image, an element is edited based on an existing moving image, for example, an opening moving image which is a predetermined display.
  • an existing moving image for example, an opening moving image which is a predetermined display.
  • a display example of a GUI or the like related to video creation in a format is shown.
  • the screen (A) of FIG. 16 is an example of a screen in which editing is performed based on a predetermined moving image as a predetermined display set as an existing opening moving image.
  • the components in the script of the predetermined moving image are It is displayed.
  • the example of this predetermined moving image corresponds to the example including the three scene information of FIG. 9A.
  • the elements shown in the first scene image to the third scene image and the like may actually be displayed as a scene image, a thumbnail or the like.
  • a message such as "Which scene do you want to change?" Is displayed on the screen as a guide message.
  • the start image and the end image have fixed contents, it may be displayed that they cannot be changed.
  • the user selects which part of the scene is to be changed by the operation. In this example, it is assumed that the part of the second scene image is selected and operated.
  • the information processing apparatus 1 displays a screen as shown in (B).
  • the element configuration for the selected second scene image portion is displayed in the balloon portion.
  • the scene, the character, the movement, and the effect elements constituting the part of the second scene image are displayed in the form of a card or the like.
  • something like "What should I change?" Is displayed.
  • the user selects the element to be changed by the operation. For example, suppose that the second character of "who?" Is selected.
  • the information processing apparatus 1 displays an element selection list for the selected element at the bottom (similar to (A) in FIG. 6).
  • the user can select and operate the changed element from the list.
  • the user can easily create a moving image in a format in which some elements are modified based on the existing moving image structure.
  • the above example is based on a predetermined moving image, but the present invention is not limited to this, and it is also possible to create a moving image in the same format based on the first moving image already created and selected by the user.
  • the information processing apparatus 1 As one of the user settings by the user, it is possible to set a predetermined state for displaying a desired first moving image.
  • the information processing apparatus 1 has a selection field of the first moving image to be displayed, and as predetermined candidate states, for example, at startup, at the end, during processing, sleep, user set time, and the like. Display the item of. A child or a relative who is a user can select a predetermined state to be displayed from those items and set it in association with the moving image to be displayed. Especially the effect when making an opening video
  • the information processing apparatus 1 of the first embodiment it is possible to enhance the fun of creating a moving image by a child.
  • a child who is a user can easily create a video with more complicated or long contents based on a predetermined video, and can enjoy the created video.
  • the user can set and enjoy the video created by himself / herself as an opening video or the like. Therefore, according to the first embodiment, it is easy to motivate the child who is the user to create a moving image.
  • 1 Information processing device, 1A ... Main body, 1B ... Mouse, 1C ... Keyboard, 1D ... Display screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】子供向けの情報処理装置の技術に関して、子供による動画作成に係る興趣性等を高めることができる技術を提供する。 【解決手段】情報処理装置1は、利用者の操作を入力する入力部と、要素として場面情報を含む組み合わせによる動画を入力部による利用者の操作に基づいて作成可能な動画作成部と、動画を表示する表示部と、制御部とを備える。制御部は、情報処理装置が所定の状態である時に、動画として動画作成部で作成された第1の動画を表示部で表示可能に制御する。所定の状態は、情報処理装置またはプログラムの起動、終了、処理中、スリープ、および利用者設定時刻のうち少なくとも1つの状態である。

Description

情報処理装置およびプログラム
 本発明は、子供向けの情報処理装置の技術に関する。
 子供向けの情報処理装置または玩具として、大人向けのPC(パーソナルコンピュータ)等の情報処理装置を模した装置や玩具が挙げられる。利用者である子供は、このような装置を操作して楽しみながら学習等を行う。これにより、大人向けのPC等の装置の利用へステップアップすることを促進することができる。このような子供向けの情報処理装置に備えるアプリケーションプログラム等による機能の例としては、英語やプログラミング等の学習、動画作成等が挙げられる。
 子供向けの情報処理装置における動画作成に係る先行技術例としては、特開2008-177996号公報(特許文献1)が挙げられる。特許文献1には、カメラ内蔵型デジタル玩具として、撮像した画像に対するエフェクトの付加を簡単に行う旨が記載されている。
特開2008-177996号公報
 特許文献1では、ユーザがテンプレートを選択して撮像した動画にエフェクトを自動的に付加することでビデオクリップといったエフェクト付きの動画を作成し編集できる旨が開示されている。特許文献1のような先行技術例では、比較的年齢層が低い利用者を対象としており、その利用者が動画を作成・編集できることについては記載されている。しかしながら、子供が動画を作成・編集する際に、より楽しく容易に作成・編集できることや、子供の意欲等を高めることについては、工夫の余地がある。
 本発明の目的は、子供向けの情報処理装置の技術に関して、子供による動画作成に係る興趣性等を高めることができる技術を提供することである。
 本発明のうち代表的な実施の形態は以下に示す構成を有する。実施の形態の情報処理装置は、利用者の操作を入力する入力部と、要素として場面情報を含む組み合わせによる動画を前記入力部による前記利用者の操作に基づいて作成可能な動画作成部と、前記動画を表示する表示部と、前記入力、作成、および表示を制御する制御部と、を備え、前記制御部は、情報処理装置が所定の状態である時に、前記動画として前記動画作成部で作成された第1の動画を前記表示部で表示可能に制御し、前記所定の状態は、前記情報処理装置またはプログラムの起動、終了、処理中、スリープ、および利用者設定時刻のうち少なくとも1つの状態である。
 本発明のうち代表的な実施の形態によれば、子供向けの情報処理装置の技術に関して、子供による動画作成に係る興趣性等を高めることができる。
本発明の実施の形態1の情報処理装置の外観の構成概要を示す。 実施の形態1の情報処理装置の機能ブロック構成を示す。 実施の形態1の情報処理装置の主な処理のフローを示す。 実施の形態1で、標準画面等を示す。 実施の形態1で、場面選択画面および第1キャラクター選択画面を示す。 実施の形態1で、第2キャラクター選択画面および動き選択画面を示す。 実施の形態1で、演出要素選択画面を示す。 実施の形態1で、場面の構成例を示す。 実施の形態1で、連続場面動画の構成例を示す。 実施の形態1で、場面動画の表示例のその1を示す。 実施の形態1で、場面動画の表示例のその2を示す。 実施の形態1で、動画作成のメニュー画面の第1例を示す。 実施の形態1で、動画作成のメニュー画面の第2例を示す。 実施の形態1で、特別演出画像の表示例を示す。 実施の形態1で、チュートリアルの表示例を示す。 実施の形態1で、動画ベース編集形式の表示例を示す。
発明を施するための形態
 以下、図面を参照しながら本発明の実施の形態を詳細に説明する。図面において、同一部には原則として同一符号を付し、繰り返しの説明を省略する。図面において、各構成要素の表現は、発明の理解を容易にするために、実際の位置、大きさ、形状、および範囲等を表していない場合があり、本発明は、図面に開示された位置、大きさ、形状、および範囲等には限定されない。また、説明上、各種のデータや情報を、例えばテーブル等の表現で説明する場合があるが、このような構造や形式には限定されない。また、各種の要素について識別するためのデータや情報を、識別情報、識別子、ID、名、番号等の表現で説明する場合があるが、これらの表現は互いに置換可能である。
 説明上、プログラムによる処理について説明する場合に、プログラムや機能や処理部等を主体として説明する場合があるが、それらについてのハードウェアとしての主体は、プロセッサ、あるいはそのプロセッサ等で構成されるコントローラ、装置、計算機、システム等である。計算機は、プロセッサによって、適宜にメモリ等の資源を用いながら、メモリ上に読み出されたプログラムに従った処理を実行する。これにより、所定の機能や処理部等が実現される。プロセッサは、例えばCPU等の半導体デバイス等で構成される。プロセッサは、所定の演算が可能な装置や回路で構成される。処理は、ソフトウェアプログラム処理に限らず、専用回路でも実装可能である。専用回路は、FPGA、ASIC等が適用可能である。プログラムは、対象計算機に予めデータとしてインストールされていてもよいし、プログラムソースから対象計算機にデータとして配布されてインストールされてもよい。プログラムソースは、通信網上のプログラム配布サーバでもよいし、非一過性のコンピュータ読み取り可能な記憶媒体でもよい。プログラムは、複数のプログラムモジュールから構成されてもよい。
 <実施の形態1>
 図1~図16を用いて、本発明の実施の形態1の情報処理装置等について説明する。実施の形態1のプログラムは、実施の形態1の情報処理装置に処理を実行させるコンピュータプログラムであり、言い換えると、実施の形態1の情報処理装置の各処理部を実現するプログラムである。実施の形態1の情報処理装置は、子供向けのPC玩具であり、プログラム処理に基づいて実現される動画作成機能を備える。
 図1等に示す実施の形態1の情報処理装置1は、子供である利用者が、フィクション上の場面やキャラクターを含む要素の組み合わせによる動画を楽しく容易に作成できる仕組みを有する。そして、情報処理装置1は、利用者が作成した動画(説明上、第1の動画と記載する場合がある)を、情報処理装置1が所定の状態である時に表示するように制御する。所定の状態は、情報処理装置1または当該装置で稼働するプログラムの起動時(起動直後を含む)、終了時(終了直前を含む)、処理中(ローディング中等を含む)、スリープ(省電力モード等を含む)、および利用者設定時刻(例えばアラーム機能等で設定した時刻を含む)のうち少なくとも1つの状態である。
 また、実施の形態1の情報処理装置1は、利用者が作成・選択した第1の動画を所定の状態の時に表示する機能についてのユーザ設定も可能である。すなわち、利用者は、画面での操作に基づいて、選択した第1の動画を表示対象とする所定の状態を選択して設定することもできる。例えば、利用者は、第1の動画を、情報処理装置1の起動時にオープニング動画として再生させることができる。
 また、実施の形態1の情報処理装置1は、初期設定(例えば工場出荷時)では、予め事業者が規定した所定の表示が設定されている。実施の形態1の情報処理装置1は、初期設定では、予め事業者が規定した所定の状態の時に、例えば情報処理装置1の起動時に、その所定の表示を再生するように設定されている。所定の表示は、例えば、所定の動画によるオープニング動画である。所定の動画は、フィクション上の所定の場面情報や所定のキャラクターを含む固定内容の動画である。所定の表示は、フィクションの動画に限らず、所定の情報(例えば商品名等)の画像等としてもよい。そして、実施の形態1の情報処理装置1は、利用者による設定で、所定の状態の時に表示する所定の表示を第1の動画に差し替える変更が可能である。
 実施の形態1の情報処理装置1は、表示画面での要素選択手順を含むグラフィカル・ユーザ・インタフェース(GUI)を提供し、これに従って利用者が第1の動画を楽しく容易に作成できる。また、実施の形態1の情報処理装置1は、利用者が第1の動画を作成する際に、GUIとして、所定の表示の構成をベースとして要素を変更する等して編集する形式での第1の動画の作成も可能とする。
 [情報処理装置(1)]
 図1は、実施の形態1の情報処理装置1の外観の概要構成を示す。実施の形態1の情報処理装置1は、本体1Aと、マウス1Bとを備える。入力機器であるマウス1Bは、無線または有線の通信で本体1Aと接続されている。本体1Aは、ノートPCのように折り畳みが可能な機構を有し、水平面側の本体部1A1と、それに接続された他方の本体部1A2とを有する。水平面側の本体部1A1には、入力機器であるキーボード1Cが配置されている。他方の本体部1A2には、一部に表示画面1Dが配置されている。表示画面1Dの周囲には、所定のフィクション上のキャラクター等の画像が印刷やシール等で形成されていてもよい。子供である利用者は、情報処理装置1を操作して利用する。実施の形態1では、情報処理装置1の外観は、大人向けのノートPCを模した外観であるが、これに限定されず、他の種類の装置、例えばデスクトップPCやタブレットPC等を模した外観としてもよい。情報処理装置1は、子供向けの玩具なので、大人向けのPCのような高度な機能や資源の具備は不要である。
 情報処理装置1は、予め、工場出荷時等の初期設定時においては、実施の形態1のプログラムを含む所定のプログラムおよび関連するコンテンツ等のデータがインストールされている。なお、情報処理装置1は、初期設定のデータに対し、後に追加でプログラムやコンテンツ等のデータがインストールされてもよい。情報処理装置1へのデータの入出力は、外部装置との通信を利用してもよいし、特にメモリカード等の記憶媒体を利用してもよい。
 コンテンツとは、テキスト、画像、音声、ゲーム等を含む総称である。画像は、静止画や動画を含む。動画とは、アニメーションやエフェクトを含む。エフェクトは、演出のための特殊効果等であり、画像加工や画面加工を含む。
 情報処理装置1は、外部装置との通信機能については必須ではないので通信インタフェース装置等を備えなくてもよいが、外部装置との通信機能を持たせる場合には通信インタフェース装置等を備える。なお、子供の親等が情報処理装置1を操作して機能の設定等を行うこともできる。
 実施の形態1の情報処理装置1には、外部装置が接続されてもよい。外部装置の例としては、通信網上の事業者のサーバ、利用者の携帯端末装置や宅内機器等が挙げられる。例えば、サーバ等から実施の形態1の情報処理装置1へアプリケーションプログラムやコンテンツデータが配信されてもよい。実施の形態1の情報処理装置1からサーバ等へデータが転送され保存されてもよい。
 [情報処理装置(2)]
 図2は、実施の形態1の情報処理装置1における計算機としての機能ブロック構成例を示す。情報処理装置1は、プロセッサ101、メモリ102、表示装置103、マウス1B、キーボード1C、スピーカ105、インタフェース装置107、およびバッテリ106等を備え、それらはバスや入出力インタフェース等を介して相互に接続されている。
 プロセッサ101は、CPU、ROM、RAM等で構成され、情報処理装置1の全体および各部を制御するコントローラを構成する。プロセッサ101は、実施の形態1のプログラムに基づいた処理によって、各処理部を実現する。情報処理装置1は、この処理部として、制御部11、動画作成部12、記憶部13、表示部14、および入力部15を有する。
 メモリ102は、不揮発性記憶装置等で構成され、プロセッサ101等が扱う各種のデータや情報が記憶される。メモリ102には、例えば、制御プログラム51、設定情報52、動画データ53、コンテンツデータ54等が記憶される。制御プログラム51は、実施の形態1のプログラムや、各種のアプリケーションプログラムに相当する。設定情報52は、制御プログラム51による設定情報であり、ユーザ設定情報を含む。動画データ53は、実施の形態1のプログラムによる動画作成機能によって作成および保存される各動画のデータを含む。コンテンツデータ54は、動画作成機能で使用される各種のコンテンツのデータを含む。このコンテンツは、動画を構成する要素となる画像等の素材のデータを含む。
 表示装置103は、表示駆動回路や図1の表示画面1Dを有する。実施の形態1では、表示装置103は、液晶表示装置である。変形例では、表示装置103は、タッチパネルとしてもよい。マウス1Bは、位置やボタン押下等の入力操作を受け付けて、対応する入力情報を生成する。キーボード1Cは、各種のキーの入力操作を受け付けて、対応する入力情報を生成する。スピーカ105は、音声出力装置である。バッテリ106は、各部に電力を供給する。その他、情報処理装置1には、メモリカード等の記憶媒体を装着できるインタフェース装置107、マイクや他のセンサ等を備えてもよい。
 [動画作成機能]
 情報処理装置1の動画作成機能は、言い換えると、動画プログラミング学習機能であり、プログラミングの考え方に基づいて動画の作り方を楽しく学ぶことができる機能である。図2の制御部11は、動画作成機能を制御する部分であり、動画作成部12等の各部を制御する。入力部15は、マウス1B等を用いて利用者による操作を入力する部分である。動画作成部12は、要素として場面情報を含む組み合わせによる動画を利用者の操作に基づいて作成可能な部分である。動画作成部12は、場面やキャラクター等の素材のデータを用いてその動画を作成する。表示部14は、表示装置103の表示画面1Dに動画やGUI等を表示する部分である。記憶部13は、メモリ102等に動画や情報を記憶(言い換えると保存)する部分である。制御部11は、情報処理装置1が所定の状態である時に、所定の表示、または動画作成部12で作成された第1の動画を表示部14で表示するように制御する。制御部11は、利用者の操作に基づいて動画作成部12で作成された動画を記憶部13に記憶するように制御する。制御部11は、記憶部13に記憶されている動画から利用者が選択した動画を所定の状態である時に表示部14で表示するように制御する。
 [処理フロー]
 図3は、情報処理装置1による動画作成機能に係わる主な処理のフローを示し、ステップS0~S13を有する。ステップS0で、情報処理装置1は、例えば利用者による電源ボタンの押下に応じて起動される。情報処理装置1は、起動直後、自動的に、規定されたオープニング動画を所定の表示として再生する。オープニング動画の終了部分が表示された後の状態で、例えば利用者がクリック等の操作を行うと、情報処理装置1は、標準画面を表示する(後述の図4)。標準画面では、情報処理装置1の各種の機能のメニュー等が表示される。利用者は、標準画面のメニューから動画作成機能(「どうがプログラミング」)を選択操作する。情報処理装置1は、その操作に応じて、対応するプログラムを実行して、動画作成機能(対応するアプリケーション)が起動された状態とする。
 ステップS1で、情報処理装置1は、表示画面1Dに、動画作成機能のメニュー等を表示する。この画面では、利用者が既に作成し保存済みの動画がある場合には一覧として表示される(例えば後述の図12)。利用可能なコマンドはボタンやアイコン等で表示される。利用者は、新たに場面動画を作成したい場合、例えば図示しない動画作成ボタンを押す(S1-Y)。後述の連続場面動画を作成する場合にはステップS9へ進む。
 情報処理装置1は、場面動画の作成の際、表示画面1Dに、要素選択手順毎のGUIを順に表示する。まず、ステップS2で、情報処理装置1は、場面選択画面を表示する(図5の(A))。この場面選択画面では、場面の選択を促すように、「どこで?」といった文字画像が表示され、利用者は、候補から所望の場面を選択する。利用者は、画面の下部にリストとして表示される複数の場面候補から、所望の場面を選択する。
 次に、ステップS3で、第1キャラクター選択画面が表示される(図5の(B))。第1キャラクター選択画面では、場面に登場させる第1キャラクターの選択を促すように、「だれが?」といった文字画像等が表示される。また、中央の枠の左側には、選択済みの要素(「どこで?」の場面)の情報も表示される。利用者は、同様に、画面の下部にリストとして表示される候補から第1キャラクターを選択する。
 次に、ステップS4で、第2キャラクター選択画面が表示される。第2キャラクター選択画面では、場面に第1キャラクターとともに登場させる第2キャラクターの選択を促すように、「だれと?」といった文字画像等が表示される。利用者は、同様に、画面の下部のリストとして表示される候補から第2キャラクターを選択する。
 次に、ステップS5で、動き選択画面が表示される(図6の(B))。動き選択画面では、場面に登場させるキャラクター(上記選択された第1キャラクターおよび第2キャラクター)の動き(言い換えると行動、動作)の選択を促すように、「どうした?」といった文字画像等が表示される。利用者は、同様に、画面の下部に表示されるリストとして表示される候補から動きを選択する。選択される動きは、第1キャラクターおよび第2キャラクター両方に係る動きであってもよいし、第1キャラクターおよび第2キャラクターの何れか一方に係る動きであってもよいが、両方に係る動きであることでより興趣性の高い動画を作成することが可能である。
 次に、ステップS6で、「おまけ」(演出要素)の選択画面が表示される(図7)。「おまけ」(演出要素)の選択画面では、場面に登場させる「おまけ」演出要素の選択を促すように、「おまけ」といった文字画像等が表示される。利用者は、同様に、画面の下部に表示されるリストとして表示される候補から「おまけ」演出要素を選択する。ここでの「おまけ」演出要素は、フィクション上で登場するアイテム(道具や武器等)や生物や食べ物等の所定の物体を意味しており、場面動画を構成する要素の1つとしての演出要素であり、場面動画の最後の部分において、おまけ、スパイスとしての演出を表現するための要素である。ステップS6の演出要素までが選択されると、1つの場面動画を構成する要素の組み合わせが一通り選択されたので、場面動画の内容が決まったこととなる。
 ステップS7で、利用者は、上記選択によって作成された場面動画を表示して確認することができる。利用者は、画面での所定の操作、例えば図7の表示確認ボタン(三角の「みる」ボタン)を押す。情報処理装置1は、その操作に応じて場面動画を表示する。利用者は、その場面動画を見て内容を確認する。利用者は、その場面動画が気に入った場合には、画面での所定の操作、例えば保存ボタン(図11の「ほぞんする」ボタン)を押すことで、その場面動画を保存することができる。記憶部13は、その場面動画のデータを管理用情報とともに保存する。利用者は、その場面動画が気に入らない場合には、保存せずに削除することもできる(「ほぞんしない」ボタン)。
 また、ステップS8で、利用者は、上記作成や保存した場面動画や、リストから選択した所望の場面動画(第1の動画)を、画面での所定の操作、例えば図12での「オープニングにする」ボタンを押すことで、所定の状態時に表示する動画であるオープニング動画として設定することができる。制御部11は、その第1の動画をオープニング動画に設定する。この設定がされた状態では、情報処理装置1は、所定の状態時、例えば起動時に、その設定されている第1の動画をオープニング動画として表示する。所定の状態が例えば情報処理装置1の電源オフ等による終了である場合、所定の表示は、オープニング動画ではなく、エンディング動画となる。また、事業者は、所定の状態に応じて異なる内容を持つ所定の表示(例えばオープニング動画とエンディング動画)を提供してもよい。
 また、利用者は、画面での所定の操作、例えば表示確認ボタンの押下に応じて、オープニング動画の表示確認も可能である。情報処理装置1は、この操作に応じて、起動時ではなくても、設定されているオープニング動画(所定の表示または第1の動画)を表示し、表示後に元の画面状態に戻る。
 ステップS9で、情報処理装置1は、動画作成機能のメニュー画面に戻る。利用者は、上記のような場面動画の作成・保存を、同様に複数回行うことができ、複数の場面動画を作成・保存することができる。メニュー画面のリストには、保存されている複数の場面動画の情報が表示される(図12)。ステップS10で、利用者は、メニュー画面で、連続場面動画の作成を選択し指示することができる。利用者は、連続場面動画を作成する場合、画面(図12)で、場面動画のリストから、所望の複数の場面動画を選択し、連続場面動画を作成することができる。
 ステップS11で、利用者は、上記で作成した連続場面動画を表示確認することができる。利用者は、画面での所定の操作、例えば表示確認ボタン(図12の「ぜんぶみる」ボタン)を押す。情報処理装置1は、連続場面動画を表示し、表示後に元の画面状態に戻る。利用者は、その連続場面動画を見て内容を確認する。利用者は、その連続場面動画が気に入った場合には、画面での所定の操作、例えば保存ボタン(図12の「ほぞんする」ボタン)を押すことで、その連続場面動画を保存することができる。記憶部13は、その連続場面動画のデータを管理用情報とともに保存する。利用者は、その連続場面動画が気に入らない場合には、保存せずに削除することもできる(「ほぞんしない」ボタン)。
 また、ステップS12で、利用者は、上記作成や保存した連続場面動画や、リストから選択した所望の連続場面動画を、メニュー画面での所定の操作、例えば図12の「オープニングにする」ボタンを押すことで、オープニング動画として設定することができる。制御部11は、その連続場面動画をオープニング動画に設定する。この設定がされた状態では、情報処理装置1の所定の状態、例えば起動時に、その設定されている連続場面動画がオープニング動画として表示される。
 ステップS13で、情報処理装置1は、利用者によるメニュー画面での所定の操作、例えば戻るボタンの押下に応じて、動画作成機能による処理を終了し、標準画面に戻る。
 [標準画面]
 図4の(A)は、情報処理装置1の起動時の所定の表示として、所定の動画によるオープニング動画の終了時の画面例を示す。この画面の画像では、フィクション名や情報処理装置1の商品名、ロゴ、キャラクター等が表示される。(A)の画面から利用者によるクリック等の操作に応じて(B)の標準画面に遷移する。
 図4の(B)の標準画面では、利用者が利用可能である機能のメニュー等が表示される。本例では、各機能として、「どうがプログラミング」、「えいご」、「さんすう」等がある。「どうがプログラミング」ボタンは、動画作成機能の項目に対応する。利用者は、カーソル等を操作して、利用する機能を選択する。
 [場面選択画面]
 図5の(A)は、場面動画の作成時における要素選択手順のうちの1つとして場面選択画面の例を示す。例えば、画面の下部のリストにおいて、複数の場面候補がカードのような態様で横に並んで表示され、それらは所定の操作に応じて巡回的に表示される。また、画面内には、操作のためのカーソル(矢印画像で示す)も表示される。利用者は、マウス1B等の操作によってカーソルを動かして、所望の場面のカードを選択し、スライドさせて、中央の枠の中に運んで入れる。これにより、その場面が選択された状態となる。なお、このような操作に限らず、変形例では、所望のカードを押下する操作のみで、そのカードが選択状態となるようにしてもよい。また、場面選択画面の背景または一部領域には、選択された場面の画像を表示してもよい。画面内の「つぎへ」ボタンや、「まえへ」ボタンが操作されることで、要素の選択画面間を遷移できる。利用者は、前の要素の選択画面に戻って要素の選択をやり直すことも容易にできる。場面の例は、家の前、家の中、街中、公園、海、山、空、宇宙等、各種が挙げられる。フィクション上の場面であるため、過去や未来等、特殊な場面も可能である。
 [第1キャラクター選択画面]
 図5の(B)は、要素選択手順のうちの1つとして、第1キャラクター選択画面の例を示す。画面の下部のリストにおいて、複数の第1キャラクター候補がカードのような態様で横に並んで表示される。実施の形態1では、キャラクターのみならず、その場面でのそのキャラクターのポーズも一緒に選択できる形式である。キャラクターのカードでは、「キャラA1」等の識別情報として、キャラクターの名前が表示される。また、キャラクターのカードでは、そのキャラクターのポーズが絵で表現されている。キャラクターのカードでは、名前とともにポーズ名等の情報が表示されてもよい。例えば「キャラA1」は、キャラクターAでの第1ポーズを表す。
 [第2キャラクター選択画面]
 図6の(A)は、要素選択手順のうちの1つとして、第2キャラクター選択画面の例を示す。画面の下部のリストにおいて、複数の第2キャラクター候補がカードのような態様で横に並んで表示される。第2キャラクターも第1キャラクターと同様にポーズとともに選択できる。実施の形態1では、第2キャラクターは「なし」にも設定できる。これは、例えば、画面内の「なし」ボタンの押下としてもよいし、「なし」カードの選択操作としてもよい。変形例では、3人以上のキャラクターを同様に選択可能としてもよい。
 [動き選択画面]
 図6の(B)は、要素選択手順のうちの1つとして、動き選択画面の例を示す。画面の下部のリストにおいて、複数の動き候補がカードのような態様で横に並んで表示される。実施の形態1では、場面でのキャラクターの動きは、予め複数の種類の動きとして決められ用意されている。この動きは、表示画面1Dの領域全体を場面の画像として、その中でのキャラクター画像の動きを規定するものである。動きカードでは、キャラクターの大まかな動きが矢印で表されている。例えば「動き1」は、向かい合う2つの矢印によって、二人が近付くような動きを表している。「動き1」等の識別情報の表示は、実際には、例えば行動や動作を表す名称としてもよい。行動や動作を表す名称は、例えば「こんにちは」「おいかけっこ」「ジャンプ」等である。また、動きカードでは、矢印に限らず、キャラクターの絵やアニメーション等で動きが表現されてもよい。
 これに限らず、動きの定義は各種が可能である。動きは、キャラクター画像領域内でのアニメーション等としてもよい。例えば、行動が「あいさつ」である場合に、場面内でのキャラクターの位置を固定として、その位置のキャラクター画像領域内でキャラクターが手を動かす等のアニメーションとしてもよい。また、実施の形態1では、動き選択画面で第1キャラクターと第2キャラクターとの二人の動きをセットとして選択する形式であるが、これに限らずに、それぞれのキャラクターの動きを選択する形式等も可能である。
 [おまけ(演出要素)選択画面]
 図7は、要素選択手順のうちの1つとして、おまけ(演出要素)選択画面の例を示す。画面の下部のリストにおいて、複数の演出要素候補がカードのような態様で横に並んで表示される。本例では、演出要素のカードは、フィクション上で登場するハンマーやそらとぶはね等のアイテム、犬や猫等の生物、おにぎり等の食べ物、等がある。
 [動画の構成例]
 図8は、動画の構成例を示す。動画の構成は、予め台本のような動画構成情報において設定されていてもよい。台本において動画を構成するための複数の場面やタイムスケジュール等が設定されていてもよい。図8では、縦方向を時系列として、動画を構成する複数の部分(いわゆるカット等に相当する)のつながりを示す。各部分には、場面(シーン)等による画像が割り当てられている。
 図8の(A)は、所定の表示としてオープニング動画の構成例を示す。この所定の表示は、場面情報としては主となる1つの場面で構成される。図8の(B)は、利用者が作成する第1の動画として場面動画の構成例を示す。この場面動画は、場面情報としては主となる1つの場面で構成される。なお、ここでいう場面とは、固定内容である開始画像内の場面や終了画像内の場面等を除くものを指す。
 図8の(A)の例では、所定の表示は、大別して第1の部分から第4の部分までの4個の部分で構成されている。初期設定での所定の表示は、予め事業者が規定した内容を持つ。第1の部分は、開始画像であり、第4の部分は、終了画像である。第2の部分および第3の部分は、第1の部分と第4の部分との間に設定可能な画像であって、第2の部分は、所定の1つの場面での場面画像であってもよく、第3の部分は、第2の部分に連続して、その場面で登場する演出要素に応じた演出画像であってもよい。場面画像では、所定の場面で所定のキャラクターが所定の動きをし、所定の演出要素(フィクション上のアイテム等)が登場する。演出画像は、所定のキャラクターおよび所定の演出要素に応じた内容の画像である。なお、説明上、場面画像と演出画像とを分けて示しているが、それらを一体の場面画像として捉えてもよい。所定の表示のうち、開始画像および終了画像の部分は、固定的な内容として設定されており、利用者による変更ができない固定部分とされている。第2の部分の場面画像および第3の部分の演出画像は、利用者による変更ができる可変部分とされている。すなわち、その可変部分では、利用者が候補から選択した要素(場面、キャラクター、動き、および演出要素等)の組み合わせによる利用者が作成・編集した画像を割り当てることが可能となっている。台本において、各部分は、予め所定の時間長さが設定されている。また、所定の表示には、開始から終了までの時間で、所定の音楽(BGM)の再生を伴うように設定されている。本実施の形態1では、第2の部分および第3の部分は、場面画像および演出画像として記載しているが、このような画像形態に限られず、任意の画像とすることが可能である。また、所定の表示としては、第1の部分、第2の部分、第3の部分、および第4の部分を全て含む必要はなく、それらから少なくとも何れか1つを含む表示でもよい。ただし、所定の表示に第1の部分および第4の部分のような固定部分を含むように設定しておくことで所定の表示が第1の動画となった場合にも利用者への案内が必要な情報は提示可能であるので好ましい。
 情報処理装置1の起動直後、自動的に、所定の表示として例えば所定の動画が表示される。所定の動画の表示時には、上記のような構成に従って、各部分の画像間で自動的に表示が遷移する。開始画像や終了画像の部分では、フィクション名や情報処理装置1の商品名等が表示されてもよい。終了画像の部分は、情報処理装置1の起動直後の標準画面につながる。例えばクリック等の操作に応じて、その標準画面に遷移する。もしくは、この終了画像の部分自体に、情報処理装置1の起動直後の標準画面を持ってきてもよい。また、動画中の固定内容部分は、開始画像や終了画像に限らず、途中の一部の画像としてもよい。
 図8の(B)の例では、第1の動画は、所定の表示と同様に、主に1つの場面から構成されている。第1の部分の開始画像および第4の部分の終了画像は、所定の表示のそれらと同じ固定内容である。利用者は、第2の部分および第3の部分における場面、キャラクター、動き、および演出要素等の要素の組み合わせを選択して場面画像および演出画像を作成する。また、その作成の際、元の所定の表示をベースとするGUIに従って要素を変更することで作成することも可能である。これにより、利用者は、元の所定の表示である所定の動画をベースとして自分の動画を容易に作成でき、また、1つ以上の場面等の要素を用いた組み合わせに応じて、元の所定の動画よりも複雑な内容を持つ動画や時間が長い動画も作成可能である。
 なお、変形例として、動画中の各部分の時間長さを利用者が選択して設定できるようにしてもよいし、場面毎の画像の表示の繰り返し回数を設定できるようにしてもよい。動画に割り当てるBGMを利用者が設定できるようにしてもよい。
 [連続場面動画の構成例]
 図9は、図8に比べてより複雑な内容を持つ第1の動画および所定の表示の例として、連続場面動画の構成例を示す。(A)は、複数の場面情報を持つ所定の表示の例であり、(B)は、複数の場面情報を持つ第1の動画の例である。利用者は例えば(A)の所定の表示所定の動画をベースとして要素を変更することで(B)のような第1の動画を作成することも可能である。
 (A)の所定の表示は、第1の部分の開始画像から第8の部分の終了画像までを有し、開始画像および終了画像の部分は図8のものと同じである。第2の部分は第1場面画像、第3の部分は第1演出画像である。第4の部分は第2場面画像、第5の部分は第2演出画像である。第6の部分は第3場面画像、第7の部分は第3演出画像である。第2の部分から第7の部分までが可変内容とされている。
 (B)の第1の動画は、同様に、第1の部分の開始画像から第8の部分の終了画像までを有し、開始画像および終了画像の部分は所定の表示のものと同じである。第1の動画で、第2の部分から第7の部分までは、利用者が要素を選択・変更して作成した内容の画像である。利用者は、図8のような場面動画を複数組み合わせて図9のような連続場面動画を作成することもできるし、所定の表示である所定の動画をベースに要素を変更することで図9のような連続場面動画を作成することもできる。
 図8、9では、所定の表示と第1の動画を構成する可変内容の部分の数が対応するようなかたちで記載しているが、第1の動画を構成する可変内容の部分の数を所定の表示を構成する可変内容の部分の数と対応させる必要はなく、第1の動画を構成する可変内容の部分の数は利用者が第1の動画を作成する際に適宜設定することができる。
 [場面動画の表示例]
 図10~図11は、1つの場面動画の表示例を示す。ここでは特に演出要素に関する表示例を説明する。なお各画像間は例えばフェードイン・フェードアウト等で表示される。本例では、利用者が選択し作成した第1の動画である場面動画は、場面A、キャラA2、キャラB2、動き5、演出要素2(アイテム2)で構成されている。場面Aは家の前である。キャラA2は、キャラクターAの第2ポーズを指す。キャラB2は、キャラクターBの第2ポーズを指す。動き5は、例えばジャンプする動作である。演出要素2(アイテム2)は、「そらとぶはね」である。
 図10の(A)は、場面画像として、場面AでキャラA2とキャラB2が動き5を行う画像を、模式図として示す。場面AでキャラA2とキャラB2は、演出要素2(アイテム2)を使用する。(A)の場面画像の後、(B)の演出画像に遷移する。(B)は、演出画像の一部として、まず演出要素2(アイテム2)の画像である。(B)の画像の後、図11の(A)の画像に遷移する。
 図11の(A)は、演出画像の続きの一部として、キャラA2とキャラB2がアイテム2である「そらとぶはね」を使って空を飛ぶ様子の画像である。なお、ここでの空の画像は、演出の一部であり、管理上の場面情報としては場面Aに属する。(A)のような演出画像の終了後、(B)の終了時画面に遷移する。(B)の終了時画面は、(A)の画像を背景として重畳表示するか、あるいはグレー表示等として表示される。(B)の画面では、「ほぞんしない」ボタン、「ほぞんする」ボタン、「さいしょからみる」ボタン、「オープニングにする」ボタンを有する。情報処理装置1の記憶部12は、「ほぞんしない」ボタンが押された場合、この場面動画を保存しない。情報処理装置1の記憶部12は、「ほぞんする」ボタンが押された場合、この場面動画を保存する。情報処理装置1は、「さいしょからみる」ボタンが押された場合、この場面動画を最初から再生する。情報処理装置1は、「オープニングにする」ボタンが押された場合、この場面動画を、所定の状態時の所定の表示であるオープニング動画として設定する。このように「オープニングにする」ボタンを「ほぞんする」ボタンなどと共に設けておくことにより、場面動画を作成したことに応じて作成した場面動画をオープニング動画に設定するように利用者に誘導できるため好ましい。実施の形態1では、オープニング動画に設定する場合として「オープニングにする」ボタンを操作可能に画面に表示する例を記載しているが、作成した場面動画を設定可能な他の所定の表示がある場合は、設定可能な所定の表示に応じた操作可能なボタンの画像をさらに表示することも可能である。実施の形態1のようにオープニング動画として作成した場面動画を設定可能にしておくことで、利用者である子供が実施の形態1の情報処理装置1のPC玩具の使用を開始する際に毎回目にすることになるため、好ましい。 
 演出画像を発生させる条件としては、1つの要素、例えば「おまけ」演出要素のみでもよいし、複数の要素の組み合わせ、例えば第1キャラクターと「おまけ」演出要素との組み合わせでもよい。上記演出画像の例では、キャラクターとして例えば別のキャラクターCが選択された場合でも、同じように空の背景でそのキャラクターCがアイテム2を付けて飛ぶ内容となる。
 変形例としては、上記のような演出を用いて、場面自体を遷移・転換させるという扱いとしてもよい。例えば、第1場面で第1アイテムが使用された場合に、演出画像を経て、第2場面に遷移させる。この場合、連続場面動画の作成の観点では、利用者が要素として第2場面を選択したという扱いとしてもよい。
 [メニュー画面(1)]
 図12は、動画作成機能のメニュー画面の構成例等を示す。図12の(A)の画面は、左側の場面動画のリストと、右側の連続場面動画の作成のためのGUIとを含んでいる。左側の場面動画のリストでは、利用者が作成済みの場面動画がある場合に、例えば場面動画毎に番号を付けて表示する。本例では番号1~4の4個の場面動画がある。なお、利用者が動画毎に名前を付けることができるようにしてもよい。各場面動画は、前述の要素毎のカードの組み合わせで表現されている。場面動画毎に、三角のボタンで表示確認もできる。メニュー画面内には、ごみ箱アイコン等もあり、利用者は、場面動画を選択して削除することもできる。「もどる」ボタンでは、図4の(B)の標準画面に戻ることもできる。
 メニュー画面内では、利用者に対し連続場面動画の作成を促すガイドのメッセージとして、例えば「シーンをつなげてどうがをつくろう」と表示されている。右側の連続場面動画の作成のためのGUIは、大きな枠と、その枠の中の複数の小さな部分のつながりとが表示されている。利用者は、左側のリストから、順に、所望の場面動画(≒シーン)を選択し、スライドして、右側の大きな枠の中に運んで入れる。本例では、2個以上で4個までの場面動画を選択できる。大きな枠の中で順序を持つ複数の場面動画が選択された状態は、連続場面動画が作成された状態に対応する。なお、画面のGUIでは、動画を構成するうちの開始画像や終了画像については表示しない。複数の場面動画が組み合わされた場合、各場面動画の開始画像や終了画像については省略され、1つの開始画像および終了画像のみを持つ1つの連続場面動画として構成される。
 連続場面動画の作成の際のGUIは、図示の例に限定されない。他の例としては、複数の場面動画をそれぞれピースのようにして表示し、画面内範囲領域において利用者の操作に応じて自由に配置できるようにし、配置に応じて複数のピースのつながりを作成するようにしてもよい。あるいは、場面動画(≒シーン)同士のつながりをライン画像で表示し、利用者がライン画像を操作できるようにし、その操作によって複数の場面動画のつながりを作成できるようにしてもよい。
 図12の(B)は、連続場面動画の表示確認(「ぜんぶみる」ボタン)の終了時の表示例を示す。この画面では、連続場面動画の最後の画像の上に重畳表示する形式、あるいはグレー背景の形式で、「ほぞんしない」ボタン、「ほぞんする」ボタン、「さいしょからみる」ボタン、「オープニングにする」ボタンが表示されている。情報処理装置1の記憶部12は、「ほぞんしない」ボタンが押された場合、この連続場面動画を保存しない。情報処理装置1の記憶部12は、「ほぞんする」ボタンが押された場合、この連続場面動画を保存する。情報処理装置1は、「さいしょからみる」ボタンが押された場合、この連続場面動画を最初から再生する。情報処理装置1は、「オープニングにする」ボタンが押された場合、この連続場面動画を、所定の状態時の所定の表示であるオープニング動画として設定する。「オープニングにする」ボタンを「ほぞんする」ボタンなどと共に設けておくことにより、連続場面動画を作成したことに応じて作成した連続場面動画をオープニング動画に設定するように利用者に誘導できるため好ましい。。実施の形態1では、オープニング動画に設定する場合として「オープニングにする」ボタンを操作可能に画面に表示する例を記載しているが、作成した連続場面動画を設定可能な他の所定の表示がある場合は、設定可能な所定の表示に応じた操作可能なボタンの画像をさらに表示することも可能である。実施の形態1のようにオープニング動画として作成した連続場面動画を設定可能にしておくことで、利用者である子供が実施の形態1の情報処理装置1のPC玩具の使用を開始する際に毎回目にすることになるため、好ましい。
 [メニュー画面(2)]
 図13は、動画作成機能のメニュー画面の他の構成例として、連続場面動画に関するメニュー画面の構成例を示す。この画面は、利用者が作成済みである連続場面動画がある場合に、連続場面動画のリストを表示する。本例では、左側から番号を付けて複数の連続場面動画が識別されており、番号1,2で示す2つの連続場面動画が作成・保存済みとなっている。本例では、各場面動画の構成については連続動画の番号で図示しているが、図12と同様に要素の組み合わせで表示されてもよい。GUI上で各動画の構成はサムネイル等で表示されてもよい。連続場面動画毎に、三角のボタンで表示確認ができる。
 [特別演出画像]
 図14は、場面動画の特別演出画像の例を示す。実施の形態1の情報処理装置1は、場面動画の表示の際に、要素の組み合わせが、全組み合わせのうち特定の組み合わせである場合、特別演出画像を発生させる。制御部11は、例えば、特定の場面、第1キャラクター、第2キャラクター、動き、および演出要素の組み合わせである場合のみに、それに対応させて予め用意された特別演出画像を発生させる。図14の(A)の例は、特定の組み合わせとして、場面D、キャラA2、キャラC2、動き2、および演出要素3(生物1)による場面画像を示す。この場合に、制御部11は、(B)のように、その特定の組み合わせに固有の特別演出画像を表示する。本例では、特別演出画像は、生物1(例えば犬)が吠えて、キャラクターA2およびキャラクターC2が逃げ、別のキャラクターXが登場する、といった内容となっている。これにより、特別演出画像によるアクシデントやサプライズ等の内容で利用者を楽しませることができ、また、利用者に特定の組み合わせを探して動画を作成する楽しみや意欲を惹起させることができる。
 [ガイド、チュートリアル]
 図15は、情報処理装置1が表示画面1Dで利用者に対するGUIとして動画作成に関するガイドやチュートリアル等を提供する場合の表示例を示す。図15の例では、ミッション形式のチュートリアルで、利用者の理解の度合いに応じた段階的なガイドを提供する。これにより、子供は、より容易に動画作成が可能となる。情報処理装置1は、GUI表示のみに限らず、音声出力等を用いて、このようなガイドを行ってもよい。
 図15の(A)は、ミッションのお題を表示する画面例である。本例では、ミッションのお題を伝えるキャラクターXが登場し、下部の欄のようにお題のメッセージ(例えば「シーンAでキャラクターBとあいさつをしよう」が表示される。本例は、易しいミッションの場合であり、画面には既にシーンAとキャラクターA1が表示されている。その後、(B)のような場面選択画面に遷移する。(B)の画面では、図5の(A)と同様の場面選択画面を背景として、さらに、ガイドのメッセージ(例えば「ここからシーンをえらんでまんなかのわくのなかにスライドしてね」)等の画像が表示される。利用者は、ガイドに従って操作を行う。例えば、お題に従って場面Aのカードが選択された場合には、正解であり、次の選択画面およびガイドに移行される。他の場面のカードが選択された場合には、誤りであり、誤りの旨のガイドが表示される。同様に、各要素の選択画面でガイドが表示される。一通りの要素の組み合わせの選択後、お題を達成した場合には、そのミッションがクリアとなる。その後、より難しい内容のミッションが利用可能となる。最初の方の易しいミッションの場合、例えば場面とキャラクター(ポーズは問わない)がお題に合致している場合には正解とされる。より難しいミッションの場合、例えば場面、キャラクターとポーズ、動き、および演出要素がお題に合致している場合には正解とされる。動画作成に慣れていない利用者は、上記のようなチュートリアルに従いながら、動画作成のやり方を学ぶことができる。利用者は、ミッションクリアを通じてある程度慣れた後には、ガイド無しの通常形式での動画作成に移行できる。
 同様に、図12のような連続場面動画の作成に関しても、ミッション形式等のチュートリアルが提供されてもよい。例えば図12の画面を背景に、ガイドのメッセージとして、「つなげたいじゅんにシーンをえらんでわくのなかにスライドしてね」、「まずシーンAをえらんでわくのなかにいれよう」といったように表示される。ミッションとしては、お題で指定された順序で複数の場面動画が選択された場合に正解となる。
 [動画ベース編集]
 図16は、情報処理装置1の動画作成機能の1つとして、利用者が第1の動画を作成する際に、既存の動画、例えば所定の表示であるオープニング動画をベースとして、要素を編集する形式での動画作成に関するGUI等の表示例を示す。
 図16の(A)の画面は、既存のオープニング動画として設定されている所定の表示としての所定の動画をベースとして編集する場合の画面例であり、まず、所定の動画の台本における構成要素が表示されている。この所定の動画の例は、図9の(A)の3つの場面情報を含む例と対応している。第1場面画像~第3場面画像等で示す要素は、実際には、場面画像あるいはサムネイル等で表示されてもよい。また、画面には、ガイドのメッセージとして、「どのシーンをかえる?」といったように表示される。また、開始画像および終了画像は固定内容であるため、変更できない旨の表示がされてもよい。利用者は、操作によって、どの場面の部分を変更するかを選択する。本例では、第2場面画像の部分が選択操作されたとする。これに応じて、情報処理装置1は、(B)のような画面を表示する。
 (B)の画面では、まず、選択された第2場面画像の部分についての要素構成が吹き出し部分に表示されている。本例では、第2場面画像の部分を構成している、場面、キャラクター、動き、および演出要素がカード等の態様で表示されている。また、ガイドのメッセージとして、「なにをかえる?」といったように表示されている。利用者は、操作によって、変更したい要素を選択する。例えば、「だれと?」の第2キャラクターが選択されたとする。情報処理装置1は、選択された要素に関する要素選択リストを下部に表示する(図6の(A)と同様)。利用者は、リストから変更後の要素を選択操作できる。このような手順によって、利用者は、既存の動画の構成をベースとして要素を一部変更する形式で、動画を容易に作成することができる。上記例は所定の動画をベースとする場合であるが、これに限らず、利用者が作成済みで選択した第1の動画をベースとして、同様の形式での動画作成も可能である。
 [ユーザ設定]
 情報処理装置1では、利用者によるユーザ設定の1つとして、所望の第1の動画を表示する対象とする所定の状態を設定可能である。情報処理装置1は、画面のGUIでは、表示対象とする第1の動画の選択欄とともに、候補となる所定の状態として、例えば起動時、終了時、処理中、スリープ、および利用者設定時刻等の項目を表示する。利用者である子供または親等は、それらの項目から、表示対象とする所定の状態を選択して、表示対象の動画と関連付けて設定することができる。特にオープニング動画にする場合の効果
 [効果等]
 上記のように、実施の形態1の情報処理装置1によれば、子供による動画作成に係る興趣性等を高めることができる。利用者である子供は、所定の動画に基づいて、より複雑または長い内容にした動画を容易に作成することができ、作成後の動画を楽しむことができる。また、利用者は、自らが作成した動画をオープニング動画等として設定して楽しむことができる。そのため、実施の形態1によれば、利用者である子供に、動画作成に係る意欲等を惹起しやすい。
 以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。
 1…情報処理装置、1A…本体、1B…マウス、1C…キーボード、1D…表示画面。

Claims (11)

  1.  利用者の操作を入力する入力部と、
     要素として場面情報を含む組み合わせによる動画を前記入力部による前記利用者の操作に基づいて作成可能な動画作成部と、
     前記動画を表示する表示部と、
     前記入力、作成、および表示を制御する制御部と、
     を備え、
     前記制御部は、情報処理装置が所定の状態である時に、前記動画として前記動画作成部で作成された第1の動画を前記表示部で表示可能に制御し、
     前記所定の状態は、前記情報処理装置またはプログラムの起動、終了、処理中、スリープ、および利用者設定時刻のうち少なくとも1つの状態である、
     情報処理装置。
  2.  請求項1記載の情報処理装置において、
     前記利用者の操作に基づいて、前記動画を表示する対象とする前記所定の状態を設定可能である、情報処理装置。
  3.  請求項1または2に記載の情報処理装置において、
     前記制御部は、初期設定では、前記情報処理装置が前記所定の状態である時に、所定の表示を前記表示部で表示可能に制御し、
     前記所定の動画は、初期設定では、所定の場面情報を含む組み合わせによる動画であり、
     前記制御部は、前記利用者の操作に基づいて、前記所定の状態である時に表示する前記所定の表示を前記第1の動画に変更可能に制御する、情報処理装置。
  4.  請求項1~3のいずれか一項に記載の情報処理装置において、
     前記制御部は、前記表示部に前記動画の作成に係る要素選択手順を含むグラフィカル・ユーザ・インタフェースを表示し、前記利用者の操作に基づいて選択された場面情報を含む要素を組み合わせることで、前記第1の動画を作成可能に制御する、情報処理装置。
  5.  請求項1~4のいずれか一項に記載の情報処理装置において、
     前記制御部は、前記利用者の操作に基づいて選択された1つの場面情報による場面動画を前記動画作成部で作成し、前記利用者の操作に基づいて選択された複数の場面動画の組み合わせによって複数の場面情報が時系列でつながる連続場面動画を作成可能に制御し、前記利用者の操作に基づいて前記連続場面動画を前記所定の状態である時に表示可能に制御する、情報処理装置。
  6.  請求項1~5のいずれか一項に記載の情報処理装置において、
     前記動画を記憶する記憶部を備え、
     前記制御部は、前記利用者の操作に基づいて前記動画作成部で作成された動画を前記記憶部に記憶可能に制御し、前記記憶部に記憶されている動画から前記利用者が選択した動画を前記所定の状態である時に前記表示部で表示可能に制御する、情報処理装置。
  7.  請求項1~6のいずれか一項に記載の情報処理装置において、
     前記場面情報に登場するキャラクターを設定可能である、情報処理装置。
  8.  請求項7記載の情報処理装置において、
     前記場面情報での前記キャラクターの動きも設定可能である、情報処理装置。
  9.  請求項7記載の情報処理装置において、
     前記場面情報に登場する演出要素を設定可能であって、
     前記制御部は、前記場面情報に前記キャラクターおよび前記演出要素が設定された動画を表示する際には、前記演出要素の画像と前記演出要素に応じた前記キャラクターの画像とを含む演出画像を表示可能に制御する、情報処理装置。
  10.  請求項1~9のいずれか一項に記載の情報処理装置において、
     前記制御部は、前記動画を表示する際に、前記動画を構成する要素の組み合わせが全組み合わせのうちの特定の組み合わせである場合には、前記特定の組み合わせに応じた特別演出画像を表示可能に制御する、情報処理装置。
  11.  情報処理装置に処理を実行させるプログラムであって、
     前記情報処理装置は、
     利用者の操作を入力する入力部と、
     場面情報の組み合わせによる動画を前記入力部による前記利用者の操作に基づいて作成可能な動画作成部と、
     前記動画を表示する表示部と、
     前記入力、作成、および表示を制御する制御部と、
     を備え、
     前記制御部は、前記情報処理装置が所定の状態である時に、前記動画として前記動画作成部で作成された第1の動画を前記表示部で表示可能に制御し、
     前記所定の状態は、前記情報処理装置またはプログラムの起動、終了、処理中、スリープのうち少なくとも1つの状態である、
     プログラム。
PCT/JP2021/037490 2020-10-09 2021-10-08 情報処理装置およびプログラム WO2022075479A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020171575A JP6966616B1 (ja) 2020-10-09 2020-10-09 情報処理装置およびプログラム
JP2020-171575 2020-10-09

Publications (1)

Publication Number Publication Date
WO2022075479A1 true WO2022075479A1 (ja) 2022-04-14

Family

ID=78509556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037490 WO2022075479A1 (ja) 2020-10-09 2021-10-08 情報処理装置およびプログラム

Country Status (3)

Country Link
JP (2) JP6966616B1 (ja)
CN (1) CN113849064A (ja)
WO (1) WO2022075479A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143922A (ja) * 2014-01-31 2015-08-06 オムロン株式会社 画像処理装置、管理システムおよび管理方法
JP2018032330A (ja) * 2016-08-26 2018-03-01 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
US20200320764A1 (en) * 2019-04-04 2020-10-08 Dreamworks Animation Llc Generating animation rigs using scriptable reference modules

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009155A (ja) * 1999-06-30 2001-01-16 Namco Ltd ゲームシステム及び情報記憶媒体
JP4191769B2 (ja) * 2007-03-22 2008-12-03 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置及びゲーム制御方法
JP2008299493A (ja) * 2007-05-30 2008-12-11 Kaoru Sumi コンテンツ作成支援システム及びコンピュータプログラム
JP7014551B2 (ja) * 2017-09-12 2022-02-01 株式会社バンダイナムコエンターテインメント プログラム、サーバ装置及びゲームシステム
JP6450485B1 (ja) * 2018-03-29 2019-01-09 株式会社コロプラ ゲームプログラム、方法、及び情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143922A (ja) * 2014-01-31 2015-08-06 オムロン株式会社 画像処理装置、管理システムおよび管理方法
JP2018032330A (ja) * 2016-08-26 2018-03-01 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
US20200320764A1 (en) * 2019-04-04 2020-10-08 Dreamworks Animation Llc Generating animation rigs using scriptable reference modules

Also Published As

Publication number Publication date
JP2022063166A (ja) 2022-04-21
CN113849064A (zh) 2021-12-28
JP2022063260A (ja) 2022-04-21
JP6966616B1 (ja) 2021-11-17

Similar Documents

Publication Publication Date Title
AU2016214083B2 (en) Systems and methods for dynamically creating personalized storybooks based on user interactions within a virtual environment
Murphy How television invented new media
US8633934B2 (en) Creating animations
US8656283B2 (en) Interactive storybook system and method
Schwebs Affordances of an app: A reading of the fantastic flying books of Mr. Morris Lessmore
US20170337841A1 (en) Interactive multimedia story creation application
Ryokai et al. Storyfaces: pretend-play with ebooks to support social-emotional storytelling
Sutcliffe Multimedia user interface design
WO2021157595A1 (ja) コンテンツ作成支援システム
CN112533037A (zh) 连麦合唱作品的生成方法和显示设备
Werning Making games: the politics and poetics of game creation tools
WO2022075479A1 (ja) 情報処理装置およびプログラム
KR100953476B1 (ko) 복수의 소스파일을 이용한 창작영상생성장치 및 방법
JP4463531B2 (ja) 画像処理装置
WO2020093865A1 (zh) 媒体文件及其生成方法和播放方法
US20020199191A1 (en) System for presenting interactive content
JP4376856B2 (ja) 画像処理装置
Davis et al. Multimodal Direct Manipulation in Video Conferencing: Challenges and Opportunities
KR20130088619A (ko) 자작 동화 제작 시스템 및 이를 이용한 자작 동화 공유 서비스 제공 방법
Park Camtasia Studio 4: The Definitive Guide
Fan et al. ContextCam: Bridging Context Awareness with Creative Human-AI Image Co-Creation
Grover Flash CS4: The Missing Manual: The Missing Manual
Kuitunen Designing Control Surfaces for Video Editing: A Human-Centred Approach
Pasman et al. Exploring interaction styles through video
Tobita et al. Enformanga: Interactive comic creation using drag-and-drop and deformation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21877778

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21877778

Country of ref document: EP

Kind code of ref document: A1