WO2005026933A1 - 背景画像を設定する情報処理装置、情報表示方法、およびプログラム - Google Patents

背景画像を設定する情報処理装置、情報表示方法、およびプログラム Download PDF

Info

Publication number
WO2005026933A1
WO2005026933A1 PCT/JP2003/011556 JP0311556W WO2005026933A1 WO 2005026933 A1 WO2005026933 A1 WO 2005026933A1 JP 0311556 W JP0311556 W JP 0311556W WO 2005026933 A1 WO2005026933 A1 WO 2005026933A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information processing
information
setting
displayed
Prior art date
Application number
PCT/JP2003/011556
Other languages
English (en)
French (fr)
Inventor
Kenichi Tamaki
Takeo Asawa
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to JP2005508907A priority Critical patent/JP4533315B2/ja
Priority to AU2003264402A priority patent/AU2003264402A1/en
Priority to PCT/JP2003/011556 priority patent/WO2005026933A1/ja
Priority to CNB038269198A priority patent/CN100410849C/zh
Priority to EP03818646A priority patent/EP1667010A4/en
Publication of WO2005026933A1 publication Critical patent/WO2005026933A1/ja
Priority to US11/340,688 priority patent/US20060176317A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Definitions

  • Information processing apparatus for setting background image, information display method, and program
  • the present invention relates to an information processing device such as a personal computer.
  • the power of the screen saver could be customized, for example, by providing a function to take a snapshot of the current desktop screen and use that image as the screen saver screen. Therefore, there was no consideration to easily update the background screen and the like of the information processing device and to use the user in a fresh atmosphere.
  • Patent Document 1
  • an object of the present invention is to enable a user's own image to be easily generated and set as a background screen in an information processing device such as a personal computer.
  • the present invention is an information processing device that displays information together with a background image and that can control such display means.
  • Display control means for displaying an image on the display means
  • Setting means for setting a background image based on the _h image when a predetermined operation is detected while the image is displayed.
  • a spine when a predetermined operation, for example, an operation on the information processing device by a user is detected, a spine; 1: an image is set based on the image displayed on the display device.
  • a predetermined operation for example, an operation on the information processing device by a user is detected
  • a spine 1: an image is set based on the image displayed on the display device.
  • the display control means causes a video to be displayed on the display means
  • the setting means may set a still image at a specific time included in the moving image as a background image in response to the predetermined operation. According to the present information processing apparatus, the image at a specific point in time included in the moving image is set as the background image.
  • the display control means causes the moving image to be displayed on a standby screen displayed in a state where no user operation is performed on the information processing apparatus,
  • the setting means may set the still image as a background image when the operation is detected while the standby screen is being displayed.
  • the information processing apparatus may further include holding means for holding a plurality of still images, and means for generating a moving image from the held still images.
  • the information processing device includes an image storage unit that configures the moving image and stores a still image that is displayed at a predetermined time.
  • the setting means may set the still image stored in the storage means as the background image.
  • the still image included in the moving image is stored in the image storage unit, and the still image stored when the above operation is detected is set as the background image.
  • the information processing apparatus includes a step of referring to procedure information for generating the moving image,
  • Storage means for configuring the moving surface, and for storing a procedure for generating a still image displayed at a predetermined point in time
  • the setting means may generate the still image according to the procedure information and set the still image as a background image.
  • procedural information for generating a still image is stored, and when the above operation is detected, a still image is generated according to the procedural information and set as a background image.
  • the information processing device further includes a unit that communicates with another information processing device,
  • the table control means may display the image in response to an instruction from the other information processing device.
  • the information processing apparatus may further include means for transmitting information on an image displayed by the other information processing apparatus to the other information processing apparatus.
  • a background image can be set in cooperation with another information processing apparatus.
  • the present invention provides a computer or other device, machine, or the like that performs any of the above processes. It may be the person who executes. Further, the present invention may be a program that causes a computer or other device, machine, or the like to realize any of the functions, steps, or processes described above. Further, the present invention may be a program in which such a program is recorded on a recording medium readable by a computer or other device, machine, or the like.
  • FIG. 1 is a system configuration diagram of an information processing apparatus according to a first embodiment of the present invention
  • FIG. 2 is an external view in the case where the information processing apparatus is configured by a general personal computer.
  • FIG. 3 is a diagram showing a data structure of a record stored in the plane image database 3.
  • FIG. 4 is a diagram showing a data structure of a record stored in the plane image synthesis rule database 8.
  • FIG. 5 is a data flow (1) in the information processing device of FIG.
  • Figure 6 shows the data flow (2) in this information processing device.
  • Fig. 7 shows the data flow (3) in this information processing device.
  • Fig. 8 is an example of a screen (1) generated by this information processing device.
  • FIG. 9 shows an example of a screen (2) generated by this information processing apparatus.
  • FIG. 10 is an example of a screen (3) generated by the information processing device
  • FIG. 11 is a flowchart (1) showing a background image setting process of the information processing device.
  • FIG. 12 is a flowchart (2) showing a background image setting process of the information processing apparatus.
  • FIG. 13 is a flowchart (1) showing a modified example of the background image setting process
  • FIG. 14 is a flowchart (2) showing a modified example of the background image setting process
  • FIG. FIG. 8 is a diagram showing a procedure for saving a specific image (or a rule for synthesizing the surface image) from the displayed moving image in the image storage unit 2,
  • FIG. 16 is a flowchart showing the process of storing an image in the composite image storage unit 2 with respect to the video stream of Fig. 1.5 (details of step 2 in Fig. _1).
  • FIG. 17 is a diagram showing another example of a procedure for storing a specific image (or a rule for synthesizing the image) in the image storage unit 2 from the moving image displayed on the standby screen. Is an example in which three information processing devices synchronously display a standby screen (screen saver).
  • Fig. 19 shows an example where waves generated on the screen of the central information processing device propagate as ripples and are displayed on the screens of the left and right emotion processing devices.
  • FIG. 20 is a process flow showing a setting procedure for setting a client and a server.
  • FIG. 21 is a flowchart of a background image setting process in the second embodiment of the present invention.
  • FIG. 22 is a flowchart of a background image setting process according to the second embodiment of the present invention.
  • FIG. 23 is a processing flow showing a setting procedure for setting a client and a server in the modification.
  • FIG. 24 is a flowchart showing the setting processing of a background image by a plurality of information processing apparatuses.
  • FIG. 25 is a flowchart showing a background image setting process performed by a plurality of information processing apparatuses.
  • FIG. 26 is a flowchart showing the setting processing of a background image by a plurality of information processing apparatuses.
  • a video displayed on a display device for example, a standby screen (a so-called screen saver image) waiting for a user operation is identified at a predetermined point in time (for example, a moving image output by a screen saver).
  • a predetermined point in time for example, a moving image output by a screen saver.
  • the image corresponding to one frame is set) and set as the background image.
  • the specific point in time is, for example, when the user starts operating the information processing device while the screen saver is being displayed on the information processing device. Is the time when the display of the screen saver was stopped.
  • An image is generated by changing the color, pattern, etc. of the image displayed by the screen saver over time in accordance with a predetermined rule (also referred to as Norelle). .
  • An image is generated by temporally changing the viewpoint of the image displayed by the screen saver, for example, the viewpoint of the landscape, the object in the screen, etc. according to a predetermined rule.
  • the engine ignites, the logo burns, etc.
  • a rule for converting a video in accordance with the operation history input by the user to the information processing device in the past is prepared. Then, based on the actual operation history, a rule to be applied is determined, and a video is generated.
  • the rule is, for example, a designation such that the color, brightness, and the like near the position where the user clicks with the mouse on the screen are changed by a predetermined amount over a predetermined time. Also, the pattern in the video may be changed according to the click interval with the mouse. Further, the display speed of the image and the rate of change may be controlled in accordance with the key input of the keyboard.
  • the rules include, for example, changing the zoom of the screen according to the input volume from a microphone connected to the information processing device.
  • the screen pattern may be changed according to the reaction of the human sensor.
  • the color of the screen may be changed according to the illuminance of the lighting in the room.
  • Images may be generated in cooperation with other information processing devices connected via a network.
  • the coordination procedure is, for example, such that a plurality of information processing devices synchronously display the same video, that a plurality of information processing devices sequentially propagate a change in video and display the video with a delay. is there.
  • the above (1) to (7) may be applied in combination.
  • the background screen generated by this function may be identified from the storage location of the background screen generated by this function (for example, a file name or phonoreda name).
  • the screen saver When the screen saver is activated, if the background screen is generated by this function, the screen saver according to this function is activated. If the background screen is not generated by this function, the conventional screen saver (for example, Alternatively, a device designated by the user or a device provided in advance in the information processing device) may be started.
  • FIG. 1 is a system configuration diagram of the information processing apparatus. As shown in FIG. 1, this information processing apparatus is input to a computer main body 10 such as a personal computer, a display device 7 such as a monitor connected to the computer book 10 and a computer main body 10.
  • Input unit 4 which is an interface for data to be input, an input device 6 such as a keyboard or it mouse (indicated as keyboard / mouse input in Fig. 1), and output of data to other aggression processing devices.
  • Interface 9 is an interface for data to be input, an input device 6 such as a keyboard or it mouse (indicated as keyboard / mouse input in Fig. 1), and output of data to other aggression processing devices.
  • the computer body 10 stores images in the image database 3 that stores images, an image synthesis rule database 8 that stores rules for synthesizing images, and an image synthesis rule database 8 by referring to the rules in the image database 8.
  • Image compositing unit 1 that composes a new image based on the combined images, etc.
  • composite image accumulating unit 2 that accumulates the image that is composed by image compositing unit 1, and the image that is composed by image compositing unit 1
  • a display device control unit 5 for outputting the image stored in the storage unit 2 or the information input from the input device 6 to the display device T;
  • the input unit 4 includes a video interface 4A for inputting an image from a camera or a connection destination via a LAN, a data interface 4B for inputting sensor detection data from various sensors or a connection destination via a LAN, and An input device 6 such as a keyboard or a mouse is connected.
  • a video interface 4A for inputting an image from a camera or a connection destination via a LAN
  • a data interface 4B for inputting sensor detection data from various sensors or a connection destination via a LAN
  • An input device 6 such as a keyboard or a mouse is connected.
  • the image synthesizing unit 1 captures data from various sensors, images from a camera, images from a connection destination via LAN, data from a keyboard, data from a mouse, and the like via an input unit 4. Then, the image synthesizing unit 1 reads out the Norail from the image synthesizing rule database 8 and synthesizes an image according to the rule and the data input from the input unit 4.
  • an image may be synthesized based on a surface image stored in the image database 3 in addition to the image from the camera input from the input unit 4. Then, the image synthesizing unit 1 transmits the synthesized image to the display device control unit 5 or the synthesized image storage unit 2.
  • the synthesized image storage unit 2 stores the image synthesized by the image synthesis unit 1. Note that the synthesized image storage unit 2 may store a rule for synthesizing the image instead of directly storing the image. When a rule is stored instead of an image, the composite image storage unit 2 calls the image synthesis unit 1 when outputting to the display device control unit 5, synthesizes a plane image, and then displays the image on the display device control unit. What is necessary is just to output to part 5.
  • the image database 3 stores image data necessary for synthesizing images. Alternatively, the image database 3 temporarily stores image data (moving images or still images) taken by a camera or the like.
  • the input section 4 stores image data of the external environment captured by a camera, etc., image data of the external environment captured by a camera of another information processing device via LAN, detection data from various sensors, keyboard Z mouse, etc. Data and the like are input from the input device. (Display control section 5)
  • the display device control unit 5 determines whether the information processing device is in a special device state waiting for a user operation or in an operation state in which the user is operating. Then, the display device control section 5 executes the following processing depending on whether the information processing device is in the special device state or the operation state. (1) In the standby state, the display device controller 5 performs the following processing. That is, the display device control unit 5 monitors the input device 6 via the input unit 4 and checks whether there is a user input (input from a keyboard mouse or the like).
  • the display device control unit 5 switches the display of the display device 7 to a user operation screen. In this case, the display device control unit 5 displays the image stored in the composite image storage unit 2 on the display device 7 as a background image.
  • the display device control unit 5 performs the following processing. That is, the display device control unit 5 monitors the input device 4 via the input unit 4 and measures a period during which there is no user input. Then, when a predetermined period of time elapses without user input, the display device control unit 5 switches the display of the display device 7 to a standby screen (an image synthesized by the image synthesis unit 1, an image from the camera, etc.). Is displayed).
  • the image synthesis Noor database 8 stores the rules required to synthesize images.
  • FIG. 2 is an external view of the case where the information processing apparatus is configured by a general personal computer.
  • this information processing device is composed of a computer 11 such as a personal computer, a camera 11 (digital camera, digital video camera, infrared camera terminal, etc.), a keyboard 6A, a mouse 6B, and a monitor.
  • the display device 7 is connected.
  • the computer main body 10 incorporates various interface cards, hard disk drives, and the like. Since the configuration and operation of such an information processing apparatus are widely known, the description thereof is omitted.
  • FIG. 3 is a diagram showing a data structure of a record stored in the image database 3.
  • One row in the table shown in Fig. 3 corresponds to one record.
  • the record of the image database 3 has fields of an image ID, an image category ID, the same category, a display order, and image data.
  • One image data is managed for one record by the data of these fields.
  • the image ID is information that uniquely identifies each image in the image database 3.
  • the image category ID is information for identifying the category of the image data managed by the record.
  • the image category is information that classifies the image I and the image as follows, for example.
  • Image used when video flows (temporal changes in landscape, temporal changes in viewpoint, etc.)
  • the display order within the same category is information that defines a display j jet for image data belonging to one image category. For example, by displaying image data belonging to the image power category used when a video flows in the same category in the display order, the video is displayed on the display device 7 so that the video flows.
  • the location of the data file storing the image data and the file name are stored.
  • the location of the data file is, for example, the host name and folder name (directory name) on the network of the computer where the file is stored. If the location of the data file is the information processing device itself, the host name may be omitted. Further, instead of the location and file name of the data file storing the image data, the image data itself may be stored in the image data field.
  • FIG. 4 is a diagram showing a data structure of a record stored in the image composition rule database 8.
  • Each record of the image composition rule database 8 defines, for each image category, a composition rule to be applied when a predetermined application condition is satisfied.
  • the synthetic rune-leave is "change the color of the screen according to the history of the mouse pointer position of the direct ifi for the group of images used when the color changes”.
  • Another example of the rule is “change the screen switching speed according to the history of the most recent key input for the image group used when the color changes”.
  • the records in the image composition rule database 8 are the Norail ID, the image category ID, and the rule category. It has fields for Goli ID, composition rule, and application condition.
  • the rule ID is information for uniquely identifying each rule in the image composition rule database 8, for example, a serial number.
  • the image category ID specifies the ID of the image category to which the composition rule of the record should be applied.
  • the rule category ID indicates the category of the composition rule.
  • the synthesis rule is information for specifying a specific synthesis nore.
  • rule 1 of the composition rule specifies, for example, the amount of change in the hue. Therefore, it is possible to define a plurality of rules that have the same rule category for the same image category and specify different synthesis rules.
  • the application condition specifies the condition under which the composition rule is applied. For example, rules applied to mouse input, rules applied to keyboard input, rules applied to microphone phone input, rules applied to input from interpersonal sensors, etc. It is.
  • FIG. 5 to 7 show data flows in the information processing device.
  • FIG. 5 is a data flow when the image synthesizing unit 1 generates a screen saver image at predetermined time intervals.
  • the type of change of the screen saver and the time for switching the screen server are set in advance.
  • the image synthesizing unit 1 extracts an image from the image database 3 from an image group ordered according to the type of screen saver change (arrow 100). Then, the image synthesis unit 1 stores the corresponding image or the ID of the image in the synthesized image storage unit 2.
  • FIG. 6 is a data flow in the case where the 1-image combining unit 1 generates a screen saver image according to the history of the keyboard operation or the mouse operation of the user f.
  • the image synthesizing unit 1 captures an input from the keyboard 6A or the mouse 6B input immediately before the transition to the standby screen (arrow 101).
  • Image synthesis unit 1 The image composition rule corresponding to the input from the keyboard 6A or the mouse 6B is retrieved from the image composition rule database 8 (arrow 102).
  • the image synthesizing unit 1 extracts the image data from the image database 3 based on the image synthesizing rule (arrow 103) and synthesizes them.
  • the image synthesizing unit 1 stores the synthesized image or a rule when the image is synthesized in the synthesized image storage unit 2.
  • image 3 is composited on image 1 in image database 3 at the position where the user clicked the mouse.
  • “composite at the position where the mouse is clicked” refers to processing such as combining the origin of image 3 with the position on image 1 corresponding to the mouse click position of the user in the screen of display device 7, and compositing.
  • Figure 7 shows the screen saver based on the image data from the video interface 4A or the data of various sensors (or the connection destination via LAN) from the data interface 4B and the rules of the image synthesis Lounole database 8. This is a data flow for generating an image.
  • the image synthesizing unit 1 acquires information indicating the internal state of the information processing apparatus (processing speed, CPU execution efficiency, memory occupancy, etc.) from a system program such as OS (Operating System). Further, for example, the image synthesizing unit 1 captures the output of the human sensor from the data interface 4B (arrow 104). Further, for example, the image synthesizing unit 1 may take in the video from the camera from the video interface 4A. Further, these data may be taken in from the information processing device of the connection destination via the LAN.
  • OS Operating System
  • the image synthesizing unit 1 converts the image synthesizing rules corresponding to the acquired data (data from the system program, data from various sensors, image input, data from LAN, etc.) from the plane image synthesizing rule database '8. Take it out (arrow 105).
  • the image synthesizing unit 1 extracts image data from the image database 3 based on the plane image synthesizing rule (arrow 106) and synthesizes them.
  • the image synthesizing unit 1 stores the synthesized image or a rule when the image is synthesized in the synthesized image storage unit 2.
  • the following processing may be used to detect the motion of a person from the video of the camera.
  • the image synthesizing unit 1 captures an input image from a camera or the like, and Store in 3.
  • the image synthesizing unit 1 compares the input image from the camera or the like with the immediately preceding input image from the camera or the like stored in the image database 3. In this comparison, if the amount of change is equal to or more than a predetermined value, it may be determined that a person is detected and the rule in that case may be applied.
  • the image synthesized by the above-described hand jet is stored in the image synthesis storage unit 2 and output as a screen saver standby screen as time elapses. Then, when the user starts using the information processing device, the standby screen at that point (the image stored in the image combining / accumulating unit 2) is acquired and displayed as a background image on the desktop screen.
  • Fig. 8 shows an example in which the background image on the desktop screen of the information processing device changes depending on the position where the mouse is clicked.
  • the information processing device stores the history of the click position of the mouse, and generates a standby screen (moving image) that changes in shade every moment according to the history of the click position. Then, the screen at the time when the user starts using the information processing device is set as the back-most image.
  • FIG. 9 and FIG. 10 are examples in which the standby screen is changed according to the change in the illuminance of the room.
  • FIG. 9 and FIG. 10 show changes of two screens as an example.
  • the information processing apparatus holds a plurality of sequentially changing images in the image database 3, for example, ff. Then, the information processing apparatus sequentially displays such images according to a change in the illuminance of the room, and forms a standby screen. Then, the screen at the time when the user starts using the information processing device is set as the background image.
  • FIGS. 11 and 12 are flowcharts showing the background image setting process of the information processing apparatus.
  • this information processing apparatus first, in an image synthesizing section 1, an image is synthesized based on data of an image database 3 and various input data from an input section 4 (Step 1, hereinafter referred to as S1). To omit).
  • the information processing apparatus stores the image synthesized in step 1 or a rune showing the synthesis procedure of the image in the synthesized image storage unit 2 (S 2).
  • the information processing device displays the image synthesized in step 1 in the display device control section 5 on the display device 7 such as a monitor as a screen saver (standby screen) (S3).
  • the information processing device determines whether there is a keyboard operation or a mouse operation (S4). If neither the keyboard operation nor the mouse operation is performed, the information processing device returns the control to S1. On the other hand, when either the keyboard operation or the mouse operation is detected, the information processing apparatus determines whether or not the image is stored in the composite image storage unit 2 (determines the force at which the rule is stored (S Five) .
  • the information processing apparatus uses the rule stored in the composite image storage unit 2 in the composite image storage unit 2. Use to combine images. Further, the information processing apparatus transmits the synthesized image to the display device 7 such as a monitor in the display device control unit 5 and the background image.
  • the image stored in the composite image storage unit 2 in the information processing device and the display device control unit 5 is stored in the display device 7 such as a remote controller.
  • Display as a background image (wallpaper) (S7).
  • the information processing apparatus starts normal processing for the user's operation (S8).
  • the information processing apparatus checks whether there has been no keyboard or mouse operation for a predetermined time (S9). If neither the keyboard operation nor the mouse operation is performed for a predetermined time, then the information processing apparatus determines whether the background image (wallpaper) is an image stored in the image storage unit 2 or not. (S10).
  • the information processing device determines whether the default standby screen (screen server) is used. Is determined (S11).
  • the information processing apparatus uses the conventional standby screen according to the setting (S12). On the other hand, if it is not set to use the default screen of the default, the information processing device returns control to S 9. return. Therefore, in this case, the standby screen is not displayed.
  • an image synthesized by the image synthesizing unit 1 based on a user's operation history, data from various sensors, and the like is displayed on the display device 7 as a standby screen.
  • the image displayed on the standby screen when a user operation with the keyboard 6A, the mouse 6B, or the like is detected during the display of the standby screen.
  • the image stored in the composite image storage 2 is set as is on the desktop background screen.
  • the background screen is updated each time a user operation is detected for the output of the standby screen.
  • FIGS. 13 and 14 show modified examples of the background image setting process.
  • the information processing device determines that the background image (wallpaper) is stored in the synthetic image storage if there is no keyboard operation or mouse operation for a predetermined period of time. It was determined whether or not the image power stored in the stacking unit 2 was 3.
  • the background image (wallpaper) is set to “the image stored in the composite image storage unit 2”. Determine whether or not.
  • Other procedures in FIGS. 13 and 14 are the same as those in FIGS. 11 and 12. Therefore, the same processing steps are denoted by the same reference numerals, and description thereof will be omitted.
  • the information processing device stores the background image (wallpaper) in a normal operation state by the user in the synthetic image accumulation mode. It is determined whether or not the image is stored in the part 2 (S4A).
  • step 5 the information processing device executes the processing of step 5 to step 9.
  • the information processing apparatus determines a default background image (such as a conventional personal computer) according to the user setting. Wallpaper). After that, the information processing device executes the processing of step 8 and subsequent steps.
  • Fig. 15 shows the procedure for saving a specific image (or a rule for synthesizing the image) from the moving image displayed on the standby screen in the image storage unit 2.
  • the moving image stream is moving image data that is continuously displayed on the standby screen.
  • Flags are set for specific frame data in the frame data (for example, MPEG frame) constituting the moving picture stream.
  • the start point for the frame data at 0 seconds after the start of the movie the flag 1 for the frame data at about 10 seconds
  • the flag 2 for the frame data at about 20 seconds
  • the end point for the frame data at the time is set.
  • a still image is associated with each flag in advance (for example, an image associated with flag 1, an image associated with flag 2 ⁇ , an end point H Images etc.).
  • Fig. 16 shows the process of storing an image in the composite image storage unit 2 for the video stream of Fig. 15 (details of step 2 in Fig. 11). Note that the processing in FIG. 16 exemplifies processing when flags 1 and 2 and an end point are set for a moving image frame. However, the number of flags need not be limited to these three points (the flag need not be limited to one or two, and generally N can be set).
  • the image synthesizing unit 1 first determines whether or not the current playback point on the stream of the moving image is the end point (S21). If the current playback point is the end point, the image compositing unit 1 returns the current playback position to the start point of the video stream, and returns the processing to the start.
  • the image synthesizing unit 1 determines whether or not the current playback point on the stream of the moving image has passed the flag 2 (S22). If the current playback point has passed the flag 2, the image synthesizing unit 1 stores the image data associated with the end point in the synthesized image storage unit 2 (S23). Then, the image synthesizing unit 1 returns the processing to the start. However, instead of saving the image data directly, the rules for generating the image data
  • the image synthesizing unit 1 determines whether or not the current playback point on the moving image stream has passed the flag 1 (S24). If the current playback point has passed the flag 1, ⁇ ; the image combining unit 1 stores the image data associated with the flag 2 in the combined image storage unit 2. Then, the image synthesizing unit 1 returns the processing to the start.
  • you may save the rules for generating the image data for example, the rule for passing the playback point of Flag 1).
  • the image compositing unit 1 stores the image data associated with the flag 1 in the composite plane image storage unit 2. Then, the image synthesizing unit 1 returns the processing to the start.
  • rules for generating the image data for example, rules for the playback point from the start point to flag 1 may be saved.
  • a flag is set in advance to the frame data of the moving image stream, and an image to be stored in the composite image storage ⁇
  • the process for determining is shown.
  • an image to be stored in the composite image storage unit 2 may be designated according to the elapsed time. For example, if the standby screen is data captured in real time from a camera or the like, or if it is a moving image generated in real time by computer graphics, for example, at the point of 10 seconds from the start of playback, at the point of 20 seconds, Information specifying the elapsed time, such as 25 seconds, may be stored as a parameter.
  • FIG. 17 shows another example of a procedure for storing a specific image (or a rule for synthesizing the image) from the moving image displayed on the standby screen in the image storage unit 2.
  • a process such as storing the image at the time of 25 seconds in the composite image storage unit 2 may be executed.
  • FIG. 17 shows another example of a procedure for storing a specific image (or a rule for synthesizing the image) from the moving image displayed on the standby screen in the image storage unit 2.
  • an image element A whose color is changed stepwise is sequentially generated with respect to the image element B which is the original image, and is displayed on the standby screen.
  • RGB R average value for all pixels in the screen reaches a predetermined value (for example, 60)
  • a predetermined value for example, 60
  • an image to be stored in the composite image storage unit 2 may be determined based on the evaluation value of the image, such as when the flag 2 has elapsed when the value reaches 100).
  • an image synthesized by adding a stepwise weight to the image element A and the image element B may be displayed on the standby screen.
  • the flag 1 has passed
  • the flag for the image to be stored in the composite image storage unit 2 may be determined based on the evaluation value of the image, such as when 2 has elapsed.
  • the image synthesized by the image synthesizing unit 1 is displayed on the clean saver as the special machine image.
  • a camera or the like may be used to display an externally input image on a screen. In that case, in the procedure shown in FIG. 15, the elapsed time from the start of the output of the moving image may be used as a flag.
  • the present information processing apparatus can perform various operations such as video from a camera, data from various sensors, an image from another information processing apparatus via a LAN, and an image synthesized by the image synthesis unit 1.
  • the image is used as the standby screen. Therefore, the background image can be easily and frequently updated in combination with the background image setting opportunity.
  • the image stored in the composite image storage unit 2 or the combination of the images is referred to, and the desktop background image is displayed. displayed.
  • an image memory such as a video RAM may be referred to and set as a desktop background image.
  • the processing of setting the desktop background image based on the moving image displayed on the standby screen of the screen saver has been described.
  • the present invention is not limited to the screen saver standby screen.
  • the browser that displays the data is output to the display device 7 such as a monitor, and when a specific operation by the user is detected, the window or the image displayed in the browser at that time is used as the background image. You may make it set.
  • the specific operation by the menus is, for example, pressing of a predetermined key, clicking of a predetermined icon or an object such as a menu on the desktop of the display device 7 (pointing, pressing by a device, Selection, instruction).
  • FIGS. 15-17 A second embodiment of the present invention will be described with reference to FIGS.
  • various moving images are displayed as the standby screen of the information processing device, and the image displayed when the user starts operating the keyboard or the mouse is replaced by the image.
  • the process of setting an image (see Fig. 15-17) that is in a relationship with the desktop as the desktop background screen (so-called wallpaper) in normal operation has been described.
  • a plurality of information processing apparatuses are connected via a network such as a LAN (Local Area Network) and cooperate to display a standby screen.
  • FIGS. 18 and 19 show examples of screens generated by the information processing apparatus of the present embodiment. Each of the rectangular areas in FIGS. 18 and 19 shows the screen of the information processing apparatus linked through the network.
  • FIG. 18 shows an example in which three information processing devices synchronously display a standby screen (screen saver).
  • FIG. 19 shows an example in which waves generated on the screen of the central information processing device propagate as ripples and are displayed on the screens of the left and right information processing devices.
  • the information processing apparatus detects a user's operation of the keyboard or the mouse during the display of the standby screen as described above, the screen at that time is displayed as a background image (wallpaper) of the desktop screen.
  • a plurality of information processing apparatuses control output of a standby screen in cooperation with other information processing apparatuses.
  • one of the information processing devices; ⁇ functions as a server, and the other information processing device functions as a client.
  • FIG. 20 is a processing flow showing a setting procedure for setting a client and a server.
  • the user first sets the information processing device to be a server as a server (S31). For example, you can specify the string "SEVER" in a given data file.
  • the program that executes the cooperative processing with another information processing device may provide the information processing device as a server.
  • the user selects an information processing device to be a client and sets it as a client (S32).
  • the character IJ of "CLIENT" may be set in a predetermined data file.
  • a program that executes a cooperative process with another information processing apparatus may provide the function of the information processing apparatus as a client.
  • the user sets communication means between the information processing apparatus serving as a server and the information processing apparatus serving as a client (S33). For example, select the LAN interface.
  • a program that executes a cooperative process with another information processing device may communicate via LAN.
  • the user causes the information processing apparatus serving as a server to recognize the information processing apparatus serving as a client (S34).
  • client recognition for example, an information processing device serving as a server transmits a broadcast on a LAN and sends You may wait for a reply from.
  • the host name of the client may be manually entered in the data file of the information processing device serving as a server by manually inputting the host name.
  • FIGS. 21 and 22 show a flowchart of the background image (wallpaper) setting processing in the present embodiment.
  • the client processes the information of the input unit 4 by the image synthesizing unit 1, and then transmits the data to the information processing apparatus serving as a server through the output interface 9 (S40) ).
  • the client obtains a screenseno, wallpaper, and rules from the information processing device serving as the server through the input unit 4 (S41). Then, the client saves the image or rule obtained in step 2 in the composite image storage unit 2 (S4
  • the client displays the image synthesized in step 41 on the display device controller 5 on the display device 7 such as a monitor as a screen saver (S 4
  • the client determines whether or not there is a keyboard operation or a mouse operation (S44). If neither the keyboard operation nor the mouse operation is detected, the client returns control to S40.
  • the client determines whether or not the image is stored in the composite image storage unit 2 of the client (rules are stored) (S45). ).
  • the client uses the rule stored in the composite image storage unit 2 to store the image in the composite image storage unit 2.
  • the client displays the synthesized image as a background image (wallpaper) on the display device 7 such as a monitor in the display device control unit 5 (S46). Thereafter, the client starts a normal process for the user operation 1 (S48).
  • the client transmits the image stored in the composite image storage unit 2 in the display device control unit 5 to the display device 7 such as a monitor. Display as an image (wallpaper) (S47). Thereafter, the client starts normal processing for the user's operation (S48).
  • the client monitors whether there has been no keyboard or mouse operation for a predetermined time; ⁇ or not (S49). If neither the keyboard operation nor the mouse operation is performed for a predetermined time, the client determines whether the background image (wallpaper) is an image stored in the composite image storage unit 2 (S50). .
  • the client If the background image (wallpaper) is an image stored in the composite image storage unit 2, the client returns the control to S40. On the other hand, if the background image (wallpaper) is not an image stored in the composite image storage unit 2, the client determines whether or not it is set to use the default standby screen (screen saver) (S5). 1).
  • the client uses the conventional standby screen (screen saver) according to the setting.
  • the client returns control to S49. Therefore, in this case, the standby screen is not displayed.
  • the information processing apparatus described in the first embodiment outputs a standby screen by continuously rubbing a plurality of pieces.
  • a standby screen by continuously rubbing a plurality of pieces.
  • an image of the standby surface at that time (stored in the composite image storage unit 2). Image) is set as the desktop background image. Therefore, similarly to the information processing apparatus of the first embodiment, the background screen of the desktop can be updated simply and frequently, and the background screen maintaining the relevance can be set between the plurality of information processing apparatuses.
  • FIG. 23 is a flowchart showing a setting procedure of such an information processing device.
  • the user causes the target information processing device to recognize the information processing device that has replaced the information processing device (S61).
  • Adjacent information processing devices are destinations to which each information processing device can directly transfer data.
  • each information processing device the user selects a communication stage with an adjacent information processing device (S62). For example, select the LAN interface.
  • an adjacent information processing device For example, select the LAN interface.
  • FIGS. 24 to 26 are flowcharts showing the setting processing of the background image by the multiple information processing apparatuses.
  • each information processing device obtains information of the adjacent information processing device and information of its own device via the input unit 4.
  • the information processing apparatus synthesizes an image in the image synthesizing unit 1 based on the data of the image database 3 and various input data from the input unit 4 (S70).
  • the information processing device transmits a standby screen (screen saver), wallpaper, and rules to the adjacent information processing device (S71).
  • the information processing apparatus stores the image synthesized in step 71 or a rune showing a synthesis procedure of the image in the synthesized image storage unit 2 (S72).
  • the information processing device displays the image synthesized in step 71 in the display device control section 5 on the display device '7 such as a monitor as a screen saver (standby screen) (S73).
  • the information processing device determines whether there is a keyboard operation or a mouse operation (S74). If neither the keyboard operation nor the mouse operation is performed, the information processing device returns the control to S71. On the other hand, when either the keyboard operation or the mouse operation is detected, the information processing device determines whether or not the image is stored in the composite image storage unit 2 (whether or not the Norelle is stored) (S 7 5).
  • the information processing apparatus uses the rule stored in the composite image storage unit 2 in the composite image storage unit 2. To compose the image. Further, the information processing apparatus transmits the synthesized image to the display device 7 such as a monitor in the display device control unit 5 and the background image. Display as (wallpaper) (S76). After that, the information processing apparatus starts normal processing for the user's operation (S78).
  • the information processing apparatus stores the image stored in the composite image storage unit 2 in the display device control unit 5 in the display device 7 such as a motor. Display as a background image (wallpaper) (S77). Thereafter, the information processing device starts normal processing for the user's operation (S78).
  • the information processing device obtains the information of the adjacent information processing device and the information of its own device through the information of the TV input unit 4. Then, the information processing device combines the solid image based on the data of the image database 3 and the various input data from the input unit 4 in the image combining unit 1 (S79).
  • the information processing device transmits the screen saver, the wallpaper, and the rule to the adjacent information processing device (S80).
  • the information processing apparatus monitors whether there has been no operation of the keyboard and the mouse for a predetermined time (S81). If neither the keyboard operation nor the mouse operation has been performed for a predetermined time, the information processing apparatus determines whether the background image (wallpaper) is an image stored in the composite image storage unit 2 (S82). .
  • the information processing device If the background image (wallpaper) is an image stored in the composite image storage unit 2, the information processing device returns the control to 1. On the other hand, if the background image (wallpaper) is not stored in the composite image storage unit 2, if the information processing device is set to use the default standby screen (screen saver), it is determined. Yes (S83).
  • the information processing apparatus uses the conventional standby screen (screen saver) according to the setting (S84). On the other hand, if the setting is not such that the default standby screen (screen saver) is used promptly, the information processing device returns the control to S9. Therefore, in this case, the standby screen is not displayed.
  • the individual information processing apparatuses cooperate autonomously without the intervention of the server, and even output the standby screen without any user operation. Then, when a user operation from a keyboard or a mouse is detected, the screen at that time is set as a desktop background screen. As described with reference to FIGS. 15-17 of the first embodiment type crane, also in this embodiment, when a user operation is detected, the image of the standby screen displayed at that time is related to the user operation. You can set the linked image as the background image.
  • a program that causes a computer or other C device, machine, or the like (hereinafter, a computer, etc.) to implement any of the above functions can be recorded on a recording medium that can be read by a computer or the like.
  • the function can be provided by causing a computer or the like to read and execute the program on the recording medium.
  • a recording medium readable by a computer or the like is a recording medium that stores information such as data and programs by electrical, aerial, optical, mechanical, or chemical actions and can be read from a computer.
  • a recording medium that can be removed from a computer include, for example, a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a DAT, an 8 mm tape, and a memory card. is there.
  • a recording medium fixed to a computer or the like includes a hard disk and a ROM (read only memory).
  • the above program can be stored in a hard disk or a memory of a computer or the like, and can be distributed to other computers via a communication medium.
  • the program is transmitted over a communication medium as a data communication signal embodied by a carrier wave. Then, the computer or the like that has received the distribution can provide the above functions.
  • the communication medium may be a wired communication medium such as a metal cable including a coaxial cable and a twisted pair cable, an optical communication cable, or a wireless communication medium such as a satellite communication and a terrestrial radio communication. Either may be used.
  • a wired communication medium such as a metal cable including a coaxial cable and a twisted pair cable, an optical communication cable, or a wireless communication medium such as a satellite communication and a terrestrial radio communication. Either may be used.
  • the carrier is an electromagnetic wave or light for modulating a data communication signal.
  • the carrier may be a DC signal.
  • the data communication signal has a baseband waveform without a carrier. Therefore, the data communication signal embodied in the carrier is a modulated broadband signal and an unmodulated baseband signal (voltage (Corresponding to the case where the DC signal is a carrier wave).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

背景画像とともに情報を表示する、そのような表示手段を制御可能な情報処理装置であり、上記表示手段に画像を表示させる表示制御手段と、上記画像が表示されている状態で所定の操作が検出されたときに、上記画像に基づいて背景画像を設定する手段とを備える。

Description

背景画像を設定する情報処理装置、 情報表示方法、 およびプログラム 技術分野
本発明は、 パーソナルコンピュータ等の情報処理装置に関する。 明
背景技術
細 1
従来、 パーソナルコンピュータ等の情報処理装置においては、 例えば、 ユーザ 書
が使用中には画面の背景に各種の静止画または模様 (いわゆる背景画像) が表示 されていた。 また、 ユーザが情報処理装置を使用していない間は、 待機画面 (い わゆるスクリーンセーバの画面) が表示されていた。 さらに、 スクリーンセーバ においては、 単なる模様の他、 様々な情報、 例えば、 メールの受信状況、 情報処 理装置の状態等を表示する機能が提案されている (例えば、 特許文献 1〜 3参 照) 。
しかし、 従来のパーソナルコンピュータ等では、 ユーザが、 例えば、 背景の静 止画像を設定する場合には、 当該パーソナルコンピュータに事前に保存された画 像ファイルを参照し、 背景画像として設定しなれければならなかった。 また、 ュ 一ザが独自の画像を背景画像に設定するためには、 事前にその画像を格納した画 像ファイルをそのパーソナルコンピュータが参照可能な状態に設定 (例えば、 ノ 一ソナルコンピュータの所定のフォルダに登録) する必要があった。
一方、 スクリーンセーバの設定でも、 同様に、 ユーザは、 事前に登録された定 型パターンの 1つを選択する方式が主流であった。 また、 スクリーンセーバの力 スタマイズとしては、 例えば、 現在のデスクトップ画面をスナップショットにと り、 その画像をスクリーンセーバ画面とする機能が提供されるいた程度であった。 したがって、 情報処理装置の背景画面等を簡易に更新し、 ユーザに新鮮な雰囲気 で使用させるような配慮はなかった。
特許文献 1
特開 2 0 0 0— 6 6 6 4 8号公報 特許文献 2
特開 2 0 0 2— 5 5 9 2 9号公報
特許文献 3
特開 2 0 0 1— 3 3 7 6 6 3号公報 発明の開示
本発明はこのような従来の技術の問題点に鑑みてなされたものである。 すなわ ち、 本発明の課題は、 パーソナルコンピュータ等の情報処理装置において、 ユー ザ独自の画像を簡易に生成し、 背景画面として設定できるようにすることにある, 本発明は上記課題を解決するために、 以下の手段を採用した。 すなおち、 本発 明は、 背景画像とともに情報を表示する、 そのような表示手段を制御可能な情報 処理装置であり、
上記表示手段に画像を表示させる表示制御手段と、
上記画像が表示されている状態で所定の操作が検出されたときに、 _h記画像に 基づいて背景画像を設定する設定手段とを備えるものである。
本情報処理装置によれば、 所定の操作、 例えば、 ユーザによる情報処理装置へ の操作が検出されたときに、 表示装置に表示された画像に基づいて背; 1:画像が設 定される。 その結果、 ユーザ操作により頻繁に背景画像を変更することが可能に なる。
好ましくは、 上記表示制御手段は、 動画を上記表示手段に表示させ、
上記設定手段は、 上記所定の操作に応じて上記動画に含まれる特定時点の静止 画像を背景画像に設定するようにしてもよい。 本情報処理装置によれぱ 動画に 含まれる特定時点の画像が背景画像に設定される。
好ましくは、 上記表示制御手段は、 上記情報処理装置へのユーザ操作がなされ ない状態で表示される待機画面において上記動画を表示させ、
上記設定手段は、 上記待機画面表示中に上記操作が検出されたときに上記静止 画像を背景画像に設定するようにしてもよい。
本発明によれば、 待機画面に対して操作が検出されたときに、 その特機画面に 表示される動画に基づいて背景画像が設定される。 好ましく は、 上記情報処理装置は、 複数個の静止画像を保持する保持手段と、 上記ィ ¾持された静止画像から動画を生成する手段とをさらに備えるものでも よい。
好ましく は、 上記情報処理装置は、 上記動画を構成し、 所定の時点で表示され る静止画傲を記憶する画像蓄積手段を
さらに倫 ^、
上記設定手段は、 上記蓄積手段に記憶された静止画像を上記背景画像に設定す るようにしてもよレ、。
本発明によれば、 動画に含まれる静止画像が画像蓄積手段に記憶され、 上記操 作が検出された時点で記憶されていた静止画像が背景画像に設定される。
好ましく は、 上記情報処理装置は、 上記動画を生成する手順情報を参照する手 段と、
上記動面を構成し、 所定の時点で表示される静止画像を生成する手順情拳艮を記 憶する蓄積手段とをさらに備え、
上記設定手段は、 上記手順情報にしたがい上記静止画像を生成して背景画像に 設定するようにしてもよい。
本発明によれば、 静止画像を生成するための手順情報が記憶され、 上記操作が 検出されこときにその手順情報にしたがって静止画像が生成され、 背景画像に設 定される。
好ましく は、 上記情報処理装置は、 他の情報処理装置と通信する手段をさらに 備え、
上記表 制御手段は、 上記他の情報処理装置からの指示に応じて上記画 ί象を表 示させるようにしてもよい。
好ましく は、 上記情報処理装置は、 上記他の情報処理装置に対して当該他の情 報処理装置が表示させる画像に係る情報を送信する手段をさらに備えるようにし てもよい。
本発明^:よれば、 他の情報処理装置と連携して背景画像を設定できるようにな る。
また、 本発明は、 コンピュータその他の装置、 機械等が上記いずれかの処理を 実行する方 であってもよい。 また、 本発明は、 コンピュータその他の装置、 機 械等に、 以上のいずれかの機能、 ステップ、 または処理を実現させるプログラム であってもよい。 また、 本発明は、 そのようなプログラムをコンピュータその他 の装置、 機械等が読み取り可能な記録媒体に記録したものでもよレ、。 図面の簡単な説明
図 1は、 本発明の第 1実施形態に係る情報処理装置のシステム構成図であり 、 図 2は、 この情報処理装置を一般的なパーソナルコンピュータで構成する場合 の外観図であり、
図 3は、 面像データベース 3に格納されるレコードのデータ構造を示す図であ り、
図 4は、 面像合成ルールデータベース 8に格納されるレコードのデータ構造を 示す図であり、
図 5は、 図 1の情報処理装置におけるデータフロー (1 ) であり、
図 6は、 この情報処理装置におけるデータフロー (2 ) であり、
図 7は、 この情報処理装置におけるデータフロー (3 ) であり、
図 8は、 この情報処理装置により生成される画面例 (1 ) であり、
図 9は、 この情報処理装置により生成される画面例 (2 ) であり、
図 1 0は、 この情報処理装置により生成される画面例 (3 ) であり、 図 1 1は、 この情報処理装置の背景画像設定処理を示すフローチャート (1 ) であり、
図 1 2は、 この情報処理装置の背景画像設定処理を示すフローチャート (2 ) であり、 .
図 1 3は、 背景画像設定処理の変形例を示すフローチャート (1 ) であり、 図 1 4は、 背景画像設定処理の変形例を示すフローチャート (2 ) であり、 図 1 5は、 待機画面で表示される動画像から、 特定の画像 (またはその面像を 合成するルール) を画像蓄積部 2に保存する手順を示す図であり、
図 1 6は、 図 1. 5の動画ストリームに対して合成画像蓄積部 2に画像を蓄積す る処理 (図!_ 1のステップ 2の詳細) を示すフローチャートであり、 図 1 7は、 待機画面で表示される動画像から、 特定の画像 (またはその画傲を 合成するルール) を画像蓄積部 2に保存する手順の他の例を示す図であり、 図 1 8は、 3台の情報処理装置が同期して待機画面 (スクリーンセーパ) を表 示する例であり、
図 1 9は、 中央の情報処理装置の画面で発生した波が波紋として伝搬し、 左右 の情幸 処理装置の画面に表示される例であり、
図 2 0は、 クライアントとサーバを設定する設定手順を示す処理フローで り 図 2 1は、 本発明の第 2実施形態における背景画像設定処理のフローチヤ一ト
( 1 ) であり、
図 2 2は、 本発明の第 2実施形態における背景画像設定処理のフローチヤ一ト
( 2 ) であり、 ·
図 2 3は、 変形例においてクライアントとサーバを設定する設定手順を示す処 理フローであり、
図 2 4は、 複数情報処理装置による背景画像の設定処理を示すフローチヤ一ト
( 1 ) であり、
図 2 5は、 複数情報処理装置による背景画像の設定処理を示すフローチヤ一ト
( 2 ) であり、
図 2 6は、 複数情報処理装置による背景画像の設定処理を示すフローチヤ一ト
( 3 ) である。 発明を実施するための最良の形態
以 、 図面を参照して、 本発明の好適な実施の形態に係る情報処理装置を |&明 する。
《機能概要》 ,
本†青報処理装置は、 表示装置に表示されている映像、 例えば、 ユーザ操作待ち の待機画面 (いわゆるスクリーンセーバの画像) が所定の時点で特定され (例え ば、 スク リーンセーバが出力する動画のうち、 1フレームに対応する画像が 定 され) 、 背景画像に設定される。 特定の時点は、 例えば、 情報処理装置において スクリーンセーバ表示中に、 ユーザがその情報処理装置への操作を開始するこ と により、 スク リーンセーバの表示が中止された時点である。
スクリーンセーバが表示する映像としては、 以下の様々なものを利用できる。
( 1 ) スクリーンセーバが表示する映像の色、 模様等を所定の規則 (ノレールとも いう) にしたがって時間的に変化させることで映像を生成する。 .
( 2 ) スクリーンセーバが表示する映像に対する視点、 例えば、 風景に対する視 点、 画面内の才ブジェク ト等を所定の規則にしたがって時間的に変化させること で映像を生成する。 例えば、 エンジンが点火する、 ロゴが燃える等である。
( 3 ) ユーザが情報処理装置に過去に入力した操作履歴に対応して映像を変換す る規則を用意しておく。 そして、 実際の操作履歴に基づき、 適用すべき規則を求 め、 映像を生成する。 ここで、 規則は、 例えば、 画面上でユーザがマウスでタリ ックした位置近傍の色、 輝度等を所定の時間経過で所定量変化させる等の指定で ある。 また、 マウスによるクリック間隔に応じて、 映像中の模様を変化させても よい。 さらに、 キーボードのキー入力に対応させて映像の表示速度、 変化の割合 を制御してもよい。
( 4 ) 情報処理装置に接続されるセンサの出力に対応する規則を用意しておき、 センサの出力に,規則を適用して映像を生成する。 ここで、 規則は、 例えば、 情報 処理装置に接続されたマイクロフオンからの入力音量に応じて画面のズームを変 更する等である。 また、 対人センサの反応に対応して画面の模様を変更してもよ い。 また、 部屋の照明の照度に応じて画面の色合いを変更してもよい。
( 5 ) 情報処理装置の入出力ィンターフェースに直接またはネットワークを介し て接続されたカメラの映像をスクリーンセーバ動作中に表示する。
( 6 ) 情報処理装置の内部状態、 例えば、 C P U等の処理速度、 実行効率、 メモ リ占有率、 実行プロセス数等に応じて予め適用する規則を用意しておき、 その規 則にしたがい、 映像を変化させる。
( 7 ) ネットワークを通じて接続される他の情報処理装置と連携して、 画像を生 成してもよい。 連携の手順は、 例えば、 複数台の情報処理装置が同期して同一の 映像を表示する、 複数台の情報処理装置に順次、 映像の変化を伝搬させ、 時間遅 れを伴って表示させる等である。
( 8 ) 以上の (1 ) 〜 (7 ) を組み合わせて適用してもよい。 このよ うな機能により、 ユーザは、 簡易に背景画面を更新できる。 なお、 本機 能により生成された背景画面の格納先 (例えば、 ファイル名またはフォノレダ名) から本機能により生成された背景画面であることを識別できるようにしてもよレ、。 そして、 スクリーンセーバ起動時、 背景画面が本機能により生成されたものであ る場合、 本機能に係るスクリーンセーバを起動し、 背景画面が本機能によ り生成 されたものでない場合、 従来のスクリーンセーバ (例えば、 ユーザにより 指定さ れたもの、 あるいは、 情報処理装置に予め備えられたもの) を起動するよ うにし てもよレヽ。
《第 1実施形態》
以下、 本発明の第 1実施形態に係る情報処理装置を図 1から図 1 7の図面に基づ いて説 13月する。
<システム構成 >
図 1は、 この情報処理装置のシステム構成図である。 図 1に示すようにこの情 報処理装置は、 パーソナルコンピュータ等のコンピュータ本体 1 0と、 コ ンビュ ータ本 1 0に接続されるモニタ等の表示装置 7と、 コンピュータ本体 1 0に入 力されるデータのィンターフェースである入力部 4と、 キーボードまた itマウス 等の入力装置 6 (図 1には、 キーボード/マウス入力と記載) と、 他の愾報処理 装置等へのデータの出カインターフェース 9とを有している。
また、 コンピュータ本体 1 0は、 画像を格納する画像データベース 3と、 画像 を合成するルールを格納する画像合成ルールデータベース 8と、 画像合^;ルール データベース 8のルールを参照して画像データベース 3に格納された画像等を基 に新たに画像を合成する画像合成部 1と、 画像合成部 1により合成されこ画像を 蓄積する合成画像蓄積部 2と、 画像合成部 1で合成された画像、 合成画像蓄積部 2に蓄積された画像、 または入力装置 6から入力された情報を表示装置 Tに出力 する表 装置コントロール部 5とを有している。
また、 入力部 4には、 カメラまたは L A Nを介した接続先から映像を入力する 映像ィンターフェース 4 A、 各種センサまたは L A Nを介した接続先からセンサ 検出データを入力するデータインターフェース 4 B、 およびキーボード たはマ ウス等の入力装置 6が接続されている。 以下、 各構成要素を説明する。 (画像合成部 1 )
画像合成部 1 は、 入力部 4を介して、 各種センサからのデータ、 カメラからの 画像、 L A Nを経由した接続先からの画像、 キーボードからのデータ、 またはマ ウスからのデータ等を取り込む。 そして、 画像合成部 1は、 画像合成ルールデー タベース 8よりノレールを読み出し、 そのルールと、 上記入力部 4から入力さ; Hた データにしたがい、 画像を合成する。
その際、 入力部 4から入力されたカメラからの画像の他、 画像データベース 3 に格納された面像に基づいて画像を合成してもよい。 そして、 画像合成部 1は、 合成された画像を表示装置コントロール部 5、 または、 合成画像蓄積部 2に送信 する。
(合成画像蓄積音 2 )
合成画像蓄積部 2は、 画像合成部 1で合成した画像を保存する。 なお、 合成画 像蓄積部 2は、 画像を直接保存する代わりに、 その画像を合成するためのルール を保存してもよい。 画像の代わりにルールを保存した場合には、 合成画像蓄 部 2は、 表示装置コントロール部 5への出力時に、 画像合成部 1を呼び出し、 面像 を合成した上で、 その画像を表示装置コントロール部 5に出力すればよい。
(画像データベース 3 )
画像データベース 3は、 画像を合成するのに必要な画像データを保存する。 ま たは、 画像データベース 3は、 カメラ等で撮影した画像データ (動画、 静止 ®い ずれでもよい) を一時的に保存する。
(入力部 4 )
入力部 4には、 カメラなどで撮影した外部環境の画像データ、 L A Nを通じて、 他の情報処理装置のカメラなどで撮影した外部環境の画像データ、 各種センサか らの検出データ、 キーボード Zマウス等の入力装置からのデータ等が入力される。 (表示装置コン トロール部 5 )
表示装置コン トローノレ部 5は、 本情報処理装置がユーザ操作を待っている特機 状態か、 ユーザが操作中の操作状態かを判定する。 そして、 情報処理装置が特機 状態か、 操作状態かに応じて、 表示装置コントロール部 5は、 以下の処理を実行 する。 ( 1 ) 待機 態では、 表示装置コントロール部 5は以下の処理を行う。 すなわち、 表示装置コントロール部 5は、 入力部 4を介して入力装置 6を監視し、 ユーザ入 力 (キーボードノマウス等からの入力) があるかどうかをチェックする。
ユーザ入力があった場合は、 表示装置コントロール部 5は、 表示装置 7の表示 をユーザ操作画面に切り替える。 その場合、 表示装置コントロール部 5は、 合成 画像蓄積部 2に保存された画像を、 表示装置 7に、 背景画像として表示する。
( 2 ) ユーザ操作状態では、 表示装置コントロール部 5は以下の処理を行う。 す なわち、 表示装置コントロール部 5は、 入力部 4を介して入力装置 4を監提し、 ユーザ入力 ない期間を測定する。 そして、 ユーザ入力がない状態で予め設定さ れたある所定時間が経過すると、 表示装置コントロール部 5は表示装置 7の表示 を待機画面 (画像合成部 1で合成された画像、 カメラからの画像等が表示され る) に切り替える。
(画像合成ノレールデータベース 8 )
画像合成ノレールデータベース 8は、 画像を合成するのに必要なルールを保存す る。
図 2は、 この情報処理装置を一般的なパーソナルコンピュータで構成する場合 の外観図でおる。 図 2のように、 この情報処理装置は、 パーソナルコンピュータ 等のコンピュータ本体 1 0に、 カメラ 1 1 (デジタルカメラ、 デジタルビデオ力 メラ、 赤外線カメラ端末等) 、 キーポード 6 A、 マウス 6 B、 およびモニタ等の 表示装置 7を接続して構成される。 コンピュータ本体 1 0には、 各種のインター フェースカード、 ハードディスクドライブ等が内蔵されている。 このような情報 処理装置の構成おょぴ作用は、 広く知られているのでその説明を省略する。
<データ構造〉
図 3は、 画像データベース 3に格納されるレコードのデータ構造を示す図であ る。 図 3に した表の 1行が 1つのレコードに相当する。 図 3のように画像デー タベース 3のレコードは、 画像 I D、 画像カテゴリ I D、 同一カテゴリ內表示順、 および画像データの各フィールドを有している。 これらのフィールドのデータに より、 1つのレコードについて 1つの画像データが管理される。
画像 I Dは、 この画像データベース 3において各画像をユニークに識別する情 報、 例えほ、、 通し番号である。 画像カテゴリ I Dは、 そのレコードによって管理 される画像データのカテゴリを識別する情報である。 画像カテゴリは、 画像ヲ、一 タを、 例えば、 以下のように分類する情報である。
( 1 ) 色が変化する場合に利用する画像;
( 2 ) 模様が変化する場合に利用する画像;
( 3 ) 映像が流れる (風景の時間変化、 視点の時間変化等) 場合に利用する画像
( 4 ) 画面内のオブジェクトが切り替わる (エンジンが点火する、 ロゴが燃 る 等) 場合に利用する画像;
同一カテゴリ内表示順は、 1つの画像カテゴリに属する画像データについて、 その表示 j噴を定義する情報である。 例えば、 映像が流れる場合に利用する画像力 テゴリに属する画像データを同一カテゴリ内表示順に表示することで、 表示装置 7には、 映像が流れるように表示されることになる。
画像データのフィールドには、 画像データを格納するデータファイルの存在場 所おょぴファイル名を格納する。 データフアイルの存在場所は、 例えば、 そのフ アイルが格納されるコンピュータのネッ トワーク上のホス ト名、 フォルダ名 (デ ィレクトリ名) 等である。 なお、 データファイルの存在場所が当該情報処理装置 自体である場合には、 ホス ト名を省略すればよい。 ま.た、 画像データを格納する データフアイルの存在場所およびファイル名に代え、 画像データそのものを上記 画像データのフィールドに格納してもよレ、。
図 4は、 画像合成ルールデータベース 8に格納されるレコードのデータ構造を 示す図である。 画像合成ルールデータベース 8の各レコードは、 各画像カテゴリ に対して、 所定の適用条件が満たされたときに適用すべき合成ルールを定義する。 合成ルーノレは、 例えば、 「色が変化する場合に利用する画像群に対して、 直 ifiの マウスポィンタ位置の履歴に対応して画面の色合いを変える」 というものである。 また、 他のルールの例は、 「色が変化する場合に利用する画像群に対して、 直近 キ一入力の履歴に対応して画面の切り替え速度を変化させる」 等である。
図 4に示した表の 1行が 1つのレコードに相当する。 図 4のように画像合成ル ールデータベース 8のレコードは、 ノレール I D、 画像カテゴリ I D、 ル ルカテ ゴリ I D、 合成ルール、 および適用条件の各フィールドを有している。 ルール I Dは、 画像合成ルールデータベース 8において、 各ルールをユニーク に識別する情報、 例えば、 通し番号である。 画像カテゴリ I Dは、 当該レコード の合成ルールを適用すべき画像カテゴリの I Dを指定する。 ルールカテゴリ I D は、 合成ルールのカテゴリを示す。 そして、 合成ルールは、 具体的な合成ノレール を指定する情報である。
例えば、 画像カテゴリの I Dが 「色が変化する場合に利用する画像群」 を示し ている場合に、 ノレールカテゴリ 1 0の八1カ 「マウスポインタの位置に ¾ "応し て画面の色合いが変わる」 というルールカテゴリを示す。 そして、 合成ルールの ルール 1は、 例えば、 その色合いの変更量を指定する。 したがって、 同一の画像 カテゴリに同一のルールカテゴリを有し、 異なる合成ルールを指定する複数のル ールを定義できる。
適用条件は、 その合成ルールが適用される条件を指定する。 例えば、 マ ウス入 力に対して適用されるルール、 キーボード入力に対して適用されるルール、 マイ ク口フォン入力に対して適用されるルール、 対人センサからの入力に対して適用 されるルール等である。
くデータフロー >
図 5から図 7に、 本情報処理装置におけるデータフローを示す。 図 5は、 所定時 間ごとに画像合成部 1がスクリーンセーバの画像を生成する場合のデータ フロー である。
この処理では、 予め、 スクリーンセーパの変化の種類、 および、 スク リ ーンセ 一バが切り替わる時間が設定される。 画像合成部 1は、 設定時間が経過すると、 画像データベース 3から、 スクリーンセーバの変化の種類に対応して順序づけら れた画像群の中 ら、 画像を取り出す (矢印 1 0 0 ) 。 そして、 画像合成部 1は、 合成画像蓄積部 2に、 対応画像もしくは、 画像の I Dを保存する。
図 6は、 ユー fのキーボード操作またはマウス操作の履歴に応じて、 1Γ像合成 部 1がスクリーンセーバの画像を生成する場合のデータフローである。
この処理では、 画像合成部 1は、 待機画面に遷移する直前のキーボード 6 Aあ るいは、 マウス 6 B入力からの入力を取り込む (矢印 1 0 1 ) 。 画像合成部 1は、 キーボード 6 Aまたはマウス 6 Bからの入力に対応する画像合成ルールを画像合 成ルールデータベース 8から取り出す (矢印 1 0 2 ) 。 次に、 画像合成部 1は、 画像合成ルーノレに基づき、 画像データベース 3から画像データを取り出し (矢印 1 0 3 ) 、 合成する。 そして、 画像合成部 1は、 合成画像蓄積部 2に、 合成した 画像もしくは、 その画像を合成したときのルールを保存する。
この処理の例は、 例えば、 「最後のユーザ操作が、 マウスクリックの場合、 画像データベース 3の画像 1の上に、 画像 3をユーザがマウスクリックした位置 で合成する。 」 等である。 ここで、 「マウスクリックした位置で合成」 とは、 表 示装置 7の画面内でユーザがマウスクリック位置に対応する画像 1上の位置に、 画像 3の原点を合わせて合成する等の処理をいう。
図 7は、 映像インターフェース 4 Aからの画像データ、 または、 データインタ 一フェース 4 Bからの各種センサ (または L A Nを介した接続先) のデータと、 画像合成ルーノレデータベース 8のルールとによりスクリーンセーバの画像を生成 する場合のデータフローである。
この処理では、 例えば、 画像合成部 1は、 情報処理装置の内部状態 (処理速度、 C P U実行効率、 メモリ占有率等) を示す情報を O S (Operating System) 等の システムプログラムから取得する。 また、 例えば、 画像合成部 1は、 対人センサ の出力等をデータインターフェース 4 Bから取り込む (矢印 1 0 4 ) 。 また、 例 えば、 画像合成部 1は、 カメラからの映像を映像インターフェース 4 Aから取り 込んでもよい。 また、 これらのデータを L A Nを介して接続先の情報処理装置か ら取り込んでもよい。
次に、 画像合成部 1は、 取り込んだデータ (システムプログラムからのデータ、 各種センサからのデータ、 画像入力、 L A Nからのデータ等) に対応する画像合 成ルールを面像合成ルールデータベース' 8から取り出す (矢印 1 0 5 ) 。 画像合 成部 1は、 面像合成ルールに基づき、 画像データベース 3から画像データを取り 出し (矢印 1 0 6 ) 、 合成する。 画像合成部 1は、 合成画像蓄積部 2に、 合成し た画像、 または、 その画像を合成したときのルールを保存する。
なお、 以下のような処理により、 カメラの映像から人の動きを検出してもよい o 例えば、 画像合成部 1がカメラ等からの入力画像を取り込み、 画像データベース 3に格納する。 次に、 画像合成部 1は、 カメラ等からの入力画像と、 画像データ ベース 3に格納されているカメラ等からの直前の入力画像とを比較する。 この比 較において、 変化量が所定値以上である場合に、 人.が検出されたとしてその場合 のルールを適用するようにしてもよい。
以上のような手 j噴で合成された画像は、 画像合成蓄積部 2に保存されるともも に、 スクリーンセーバの待機画面として時間経過にしたがい出力される。 そして、 ユーザが情報処理装置の使用を開始したときに、 その時点の待機画面 (画像合成 蓄積部 2に保存さ; ていた画像) が取得され、 デスクトップ画面の背景画像とし て表示される。
<画面例 >
図 8から図 1 0に、 本情報処理装置により生成される画面例を示す。 図 8は、 情報処理装置のデスク トップ画面の背景画像がマウスのクリックした位置によつ て変化する例である。 この例では、 情報処理装置は、 マウスのクリック位置の履 歴を記憶してお'き、 そのクリック位置の履歴に応じて刻々と濃淡を変化する待機 画面 (動画) を生成する。 そして、 ユーザが情報処理装置の使用を開始した時点 における画面が背最画像として設定される。
図 9および図 1 0 は、 部屋の照度の変化により、 待機画面を変化させる例であ る。 図 9および図 1 0は、 一例として 2枚の画面の変化を示しているが、 本情報 処理装置は、 例え ff、 画像データベース 3に順次変化していく複数枚の画像を保 持する。 そして、 本情報処理装置は、 例えば、 部屋の照度の変化にしたがい、 そ のような画像を順 表示し、 待機画面を構成する。 そして、 ユーザが情報処理装 置の使用を開始しナ 時点における画面が背景画像として設定される。
<背景画像設定処理フロー〉
図 1 1および図 1 2は、 本情報処理装置の背景画像設定処理を示すフローチヤ ートである。 この 報処理装置は、 まず、 画像合成部 1において、 画像データべ ース 3のデータと、 入力部 4からの各種入力データを基に画像を合成する (ステ ップ 1、 以下 S 1のように省略する) 。
次に、 本情報処理装置は、 ステップ 1で合成した画像、 または、 その画像の合 成手順を示すルーノレを合成画像蓄積部 2に保存する (S 2 ) 。 次に、 本情報処理装置は、 表示装置コントロール部 5においてステップ 1で合 成した画像を、 モニタ等表示装置 7に、 スクリーンセーバ (待機画面) として表 示する (S 3) 。
次に、 本情報処理装置は、 キーボード操作またはマウス操作があるか否かを判 定する (S 4) 。 キーボード操作およびマウス操作の双方いずれもがない場合、 情報処理装置は、 制」御を S 1に戻す。 一方、 キーボード操作またはマウス操作の いずれかを検出した場合、 情報処理装置は、 合成画像蓄積部 2に、 画像が保存さ れているか、 否か (ルールが保存されている力 を判定する (S 5) 。
合成画像蓄積部 2に、 画像が保存されていない場合 (ルールが保存されてレ、る 場合) 、 本情報処理装置は、 合成画像蓄積部 2において、 合成画像蓄積部 2に保 存されたルールを使って画像を合成する。 さらに、 本情報処理装置は、 合成した 画像を、 表示装置コントロール部 5においてモニタ等表示装置 7に、 背景画像
(壁紙) として表示する (S 6) 。 その後、 情報処理装置は、 ユーザの操作に対 する通常処理を開女台する (S 8) 。
一方、 合成画像蓄積部 2に、 画像が保存されている場合、 本情報処理装置 ίま、 表示装置コントロール部 5において合成画像蓄積部 2に保存された画像を、 二 タ等表示装置 7に、 背景画像 (壁紙) として表示する (S 7) 。 その後、 情幸艮処 理装置は、 ユーザの操作に対する通常処理を開始する (S 8) 。
次に、 情報処理装置は、 所定時間、 キーボードおよびマウス操作のいずれ が なかったか否かを 視する (S 9) 。 所定時間、 キーボード操作おょぴマウス操 作の双方いずれも力 Sない場合、 次に、 情報処理装置は、 背景画像 (壁紙) が 成 画像蓄積部 2に保存された画像か否かを判定する (S 1 0) 。
背景画像 (壁紙) が合成画像蓄積部 2に保存された画像である場合、 情報 理 装置は、 制御を S 1 に戻す。 一方、 背景画像 (壁紙) が合成画像蓄積部 2に 存 された画像でない湯合、 情報処理装置は、 デフォルトの待機画面 (スクリー Ζセ ーバ) を使用する言殳定になっているか否かを判定する (S 1 1) 。
デフォルトの待機画面を使用する設定になっている場合、 本情報処理装置 ίよ、 その設定にしたがい、 従来の待機画面を使用する (S 1 2) 。 一方、 デフオノレト の待機画面を使用する設定になっていない場合、 情報処理装置は、 制御を S 9 に 戻す。 したがって、 この場合には、 待機画面は表示されない。
以上述べたように、 本情報処理装置によれば、 ユーザの操作履歴、 各種センサ からのデータ等に基づき画像合成部 1において合成された画像が待機画面として 表示装置 7に表示される。 そして、 そのような待機画面表示中にキーボード 6 A マウス 6 B等によるユーザの操作が検出された時点で待機画面に表示中の画像
(合成画像蓄積き 2に保存された画像) がそのまま、 デスク トップの背景画面に 設定される。 この処理では、 待機画面の出力に対してユーザ操作が検出されるご とに背景画面が更新される。
<背景画像設定処理の変形〉
図 1 3および図 1 4に、 背景画像設定処理の変形例を示す。 上記図 1 1および 図 1 2の処理で《:、 情報処理装置は、 所定時間、 キーボード操作およびマウス操 作の双方いずれもがない場合、 情報処理装置は、 背景画像 (壁紙) が合成画像蓄 積部 2に保存さ 3 た画像力否かを判定した。 一方、 図 1 3および図 1 4の処理例 では、 待機画面【こ対するキーポード操作またはマウス操作が検出されたときに、 背景画像 (壁紙) は、'合成画像蓄積部 2に保存された画像か否かを判定する。 図 1 3およぴ図 1 4におけるその他の手順は、 図 1 1および図 1 2の場合と同様で ある。 そこで、 同一の処理ステップについては、 同一の符号を付してその説明を 省略する。
すなわち、 F I G . 1 3のステップ 4において、 待機画面表示中にキーボード 操作またはマウス操作が検出されたとき、 情報処理装置は、 ユーザによる通常操 作状態での背景画像 (壁紙) は、 合成画像蓄積部 2に保存された画像か否かを判 定する (S 4 A) 。
そして、 ユーザによる通常操作状態での背景画像 (壁紙) 力 合成画像蓄積部 2に保存された画像である場合、 情報処理装置は、 ステップ 5からステップ 9の 処理を実行する。 これらの処理は、 図 1 2の場合と同様である。
一方、 ユーザこよる通常操作状態での背景画像 (壁紙) 力 合成画像蓄積部 2 に保存された画像でない場合、 情報処理装置は、 ユーザの設定にしたがいデフォ ルト背景画像 (従来のパーソナルコンピュータ等の壁紙) を表示する。 その後、 情報処理装置は、 ステップ 8以下の処理を実行する。 く画像 (ルール) 蓄積処理の例〉
図 1 5に、 待機画面で表示される動画像から、 特定の画像 (またはその画像を 合成するルール) を画像蓄積部 2に保存する手順を示す。 図 1 5で動画ストリー ムとは、 待機画面に連続的に表示される動画データをいう。
この動画ス トリームを構成するフレームデータ (例えば、 M P E Gのフレー ム) には、 特定のフレームデータに対してフラグが設定されている。 図 1 5では 動画開始後 0秒時点のフレームデータに対する開始ボイント、 約 1 0秒経過時点 のフレームデータに対するフラグ 1、 約 2 0秒経過時点のフレームデータに対す るフラグ 2、 約 3 5秒経過時点のフレームデータに対する終了ボイント等が設定 されている。 また、 図 1 5の例では、 各フラグに対して、 予め静止画が関連付け られている (例えば、 フラグ 1に関連付けられた画像、 フラグ 2に関連付けられ た画^、 終了ポイン Hこ関連付けられた画像等) 。
図 1 6に、 図 1 5の動画ストリームに対して合成画像蓄積部 2に画像を蓄積す る処理 (図 1 1のステップ 2の詳細) を示す。 なお、 図 1 6の処理では、 動画フ レームに対してフラグ 1、 2および終了ポイントが設定される場合の処理が例示 されている。 しかし、 フラグの数が、 この 3ポイントに限定される必要はない (フラグが 1、 2に限定される必要はなく、 一般的に N個設定してよい) 。 この処理では、 画像合成部 1は、 まず、 動画像のス トリーム上における現在の 再生ポイントが終了ポイントか否かを判定する (S 2 1 ) 。 現在の再生ポイント が終了ボイントの場合には、 画像合成部 1は、 現在の再生位置を動画ストリーム の開始ポイントに戻し、 処理をスタートに戻す。
一方、 現在の再生ポイントが終了ポイントでない場合には、 画像合成部 1は、 動画像のストリーム上における現在の再生ポィントがフラグ 2を過ぎたか否かを 判定する (S 2 2 ) 。 ξ¾在の再生ポイントがフラグ 2を過ぎた場合には、 画像合 成部 1は、 合成画像蓄積部 2に、 終了ポイントに関連づけられた画像データを保 存する (S 2 3 ) 。 そして、 画像合成部 1は、 処理をスタートに戻す。 ただし、 画像データを直接保存する代わりに、 その画像データを生成するためのルール
(例えば、 フラグ 2の再生ポイントを経過したことに対するルール) を保存して よい。 また、 現在の再生ポイントがフラグ 2を過ぎていない場合には、 画像合成部 1 は、 動画像のストリーム上における現在の再生ボイントがフラグ 1を過ぎたか否 かを判定する (S 2 4 ) 。 現在の再生ポイントがフラグ 1を過ぎた場合に^;、 画 像合成部 1は、 合成画像蓄積部 2に、 フラグ 2に関連づけられた画像データを保 存する。 そして、 画像合成部 1は、 処理をスタートに戻す。 ただし、 画像データ を直接保存する代わりに、 その画像データを生成するためのルール (例え 、 フ ラグ 1の再生ポイントを経過したことに対するルール) を保存してもよレ、。
さらに、 現在の再生ポイントがフラグ 1を過ぎていない場合には、 画像合成部 1は、 合成面像蓄積部 2に、 フラグ 1に関連づけられた画像データを保存する。 そして、 画像合成部 1は、 処理をスタートに戻す。 ただし、 画像データを直接保 存する代わりに、 その画像データを生成するためのルール (例えば、 開始ポイン トからフラグ 1までの再生ポイントに対するルール) を保存してもよレ、。
図 1 5の処理では、 予め動画像ストリームのフレームデータにフラグを設定し' ておき、 動面再生中に、 各フラグを経過したか否かにより、 合成画像蓄積耷| 2に 保存する画像を決定する処理を示した。 しかし、 このようなフラグに代えて、 経 過時間によって合成画像蓄積部 2に保存する画像を指定してもよい。 例え f 、 待 機画面がカメラ等からリアルタイムに取り込むデータ、 または、 コンピュータグ ラフィックスによりリアルタイムに生成する動画像の場合には、 例えば、 再生開 始から 1 0禾少時点、 2 0秒時点、 2 5秒時点等のように、 経過時間を指定する情 · 報をパラメータとして保持しておけばよい。 そして、 再生開始から 1 0秒までは、 1 0秒時点の画像を合成画像蓄積部 2に保存し、 1 0秒から 2 0秒までの |¾は、 2 0秒時点の画像を合成画像蓄積部 2に保存し、 2 0秒から 2 5秒までの は、 2 5秒時点の画像を合成画像蓄積部 2に保存する等の処理を実行すればよレ、。 図 1 7に、 待機画面で表示される動画像から、 特定の画像 (またはその画像を 合成するルール) を画像蓄積部 2に保存する手順の他の例を示す。 この処理では、 元の画像である画像エレメント Bに対して、 例えば、 色を段階的に変化させた画 像エレメン ト Aを逐次生成し、 待機画面に表示する。 このような画像生成^:際し て、 例えば、 画面内の全画素に対する R G Bの Rの平均値が所定値 (例え 、、 6 0 ) に達した場合に、 フラグ 1を経過したとし、 Rの平均値が第 2の所定 ί直 (例 えば、 1 0 0 ) に達した場合に、 フラグ 2を経過したとする等、 画像の評価値に より、 合成画像蓄積部 2に保存する画像を決定してよい。
また、 例えば、 画像エレメント Aと画像エレメント Bとに段階的に変化する重 みを付加して合成した画像を待機画面に表示するようにしてもよレ、。 そのような 場合に、 例えば、 画像エレメント Aに対する重みが第 1の所定値になったときに、 フラグ 1を経過したとし、 画像エレメント Aに対する重みが第 2の所定値になつ たときに、 フラグ 2を経過したとする等、 画像の評価値により、 合成画像蓄積部 2に保存する画像を決定してよい。
<待機画面の変开 >
上記実施形態では、 画像合成部 1において合成した画像合成した画像を特機画 面としてクリーンセーバで表示した。 しかし、 これに代えて、 カメラ等を;^して 外部から入力した画像をスクリーンセ一で表示してもよい。 その場合、 図 1 5に 示した手順では、 動画像の出力開始時からの経過時間をフラグにして用いればよ レ、。
このように、 本情報処理装置は、 カメラからの映像、 各種センサからのデータ、 L ANを経由した他の情報処理装置からの画像、 あるいは、 画像合成部 1で合成 された画像等、 様々な画像を上記待機画面として使用する。 したがって、 上記背 景画像の設定機會 との組み合わせにより、 背景画像を簡易かつ頻繁に更新するこ とができる。
<その他の変形 {列>
上記実施形態では、 スクリーンセーパによる待機画面表示中にユーザ操作を検 出すると、 合成画像蓄積部 2に保存された画像またはその画像を合成する/ ール を参照し、 デスク トップの背景画像を表示した。 しかし、 合成画像蓄積部 2に代 えて例えば、 ユーザ操作を検出した直後にビデオ R AM等の画像メモリを参照し、 デスクトップの背景画像に設定してもよい。
上記実施形態では、 スクリーンセーバの待機画面に表示される動画に基づいて デスクトップの背景画像を設定する処理を示した。 しカゝし、 本発明の実施は、 ス クリーンセーバの待機画面には限定されない。 例えば、 カメラからの動画、 テレ ビジョン放送の動画等を表示するウィンドウ、 または、 動画を提供するウェブサ ィ トを表示するブラウザをモニタ等表示装置 7に出力しておき、 ユーザによる特 定の操作が検出されたときにその時点で上記ウィンドウ、 あるいは、 ブラウザに 表示されてレヽる画像を背景画像に設定するようにしてもよい。 ここで、 ュ' ~ ~ に よる特定の操作とは、 例えば、 所定のキーの押下、 表示装置 7のデスクトップ上 の所定のアイコンまたはメニュー等オブジェクトのクリ ック (ポインティンク、デ バイスによる押下、 選択、 指示) 等である。
《第 2実施 態》
図 1 8から図 2 3により、 本発明の第 2実施形態を説明する。 上記第 1実施形 態では、 情報処理装置の待機画面として、 様々な動画像を表示しておき、 ユーザ がキーボードまたはマウス等の操作を開始した時点で表示されていた画像まナこは その画像と折定の関係にある画像 (図 1 5— 1 7参照) を通常操作におけるデス クトップの背景画面 (いわゆる壁紙) として設定する処理を説明した。
本実施形鶴では、 ネットワークで接続された複数台の情報処理装置が連携して そのような S 画像を表示する例を示す。 本実施形態の他の構成および作用は第 1 実施形態の湯合と同様である。 そこで、 同一の構成要素については同一の符号を 付してその説明を省略する。 また、 必要に応じて図 1から図 1 7の図面を参 filす る。
<画面例>
本実施形態では、 複数台の情報処理装置が L A N (Local Area Network) 等の ネットワークを介して接続されており、 連携して待機画面を表示する。 図 1 8お よび図 1 9に、 本実施形態の情報処理装置により生成される画面例を示す。 図 1 8およぴ図 1 9の矩形領域は、 いずれも、 ネットワークを通じて連携する情滓艮処 理装置の画面を示している。
図 1 8は、 3台の情報処理装置が同期して待機画面 (スクリーンセーバ) を表 示する例で fcる。 図 1 9は、 中央の情報処理装置の画面で発生した波が波紋とし て伝搬し、 左右の情報処理装置の画面に表示される例である。 本実施形態におけ る情報処理装置は、 以上のような待機画面表示中に、 ユーザによるキーポー ドま たはマウスの操作を検出すると、 その時点の画面をデスクトップ画面の背景面像 (壁紙) に設定する。 く処理フロー >
上述のように、 本実施形態では、 複数の情報処理装置が、 他の情報処理装置と 連携し、 待機画面の出力を制御する。 この場合、 いずれかの情報処理装置;^サー バとして機能し、 他の情報処理装置はクライアントとして機能すればょレ、。
そして、 サーバとしての役割を果たす場合は、 入力部 4から他のパソコンの入 力情報を入手し、 各パソコンごとに画像を合成して、 出力インターフェース 9を 介して合成画像もしくは合成ルールを他のパソコンに供給する。
一方、 クライアントとして役割を果たす場合には、 情報処理装置は、 サーバと なる ソコンに、 画像を合成するため、 自身の入力部 4から取り込んだ各種セン サ /カメラ/ LANからの情報を出力インターフェース 9から送信する。 また、 入力部 4を通じてサーバとなるパソコンから合成画像もしくは合成ルールを入手する。 図 2 0は、 クライアントとサーバを設定する設定手順を示す処理フローである。 この手順では、 ユーザは、 まず、 サーバとなる情報処理装置をサーバとして設定 する (S 3 1 ) 。 例えば、 所定のデータファイルに" SEVER" の文字列を言殳定する ようにすればよレ、。 この設定により、 他の情報処理装置との連携処理を実行する プログラムが、 当該情報処理装置をサーバとしての機能を提供するようにすれば よい。
また、 ユーザは、 クライアントとなる情報処理装置を選択し、 クライアントと して設定する ( S 3 2 ) 。 例えば、 所定のデータファイルに" CLIENT" の文字歹 IJ を設定するようにすればよい。 この設定により、 他の情報処理装置との連携処理 を実行するプログラムが、 当該情報処理装置をクライアントとしての機能を提供 するようにすればよい。
次に、 ユーザは、 サーバとなる情報処理装置とクライアントになる情報処理装 置の通信手段を設定する (S 3 3 ) 。 例えば、 L A Nのインターフェースを選択 すれ よい。 この設定にしたがい、 他の情報処理装置との連携処理を実行するプ ログラムが、 L A Nを介して通信するようにすればよい。
次に、 ユーザは、 サーバとなる情報処理装置にクライアントになる情報 理装 置を認識させる (S 3 4 ) 。 このようなクライアント認識のため、 例えば、 サー バとなる情報処理装置は、 L A N上にブロードキャストを送信し、 クライアント からの返信を待つようにしてもよい。 また、 ユーザが手入力で、 サーバとなる情 報処理装置の戸万定のデータファイルに、 クライアントのホスト名を列記するよう にしてもよレ、。
以上の手順により、 本実施形態における情報処理装置 (クライアントおよびサ ーバ) の設定を終了する。
図 2 1および、図 2 2に、 本実施形態における背景画像 (壁紙) 設定処理のフロ 一チヤ一トを す。
この処理で fま、 まず、 クライアントが、 入力部 4の情報を、 画像合成き ί 1で処 理した後、 出力インターフェース 9を通じて、 サーバとなる情報処理装置にデー タを送信する (S 4 0 ) 。
次に、 クライアントは、 入力部 4を通じて、 サーバとなる情報処理装置からス クリーンセーノ や壁紙、 ルールを得る ( S 4 1 ) 。 そして、 クライアントは、 ス テツプ 2で入手した画像もしくはルールを、 合成画像蓄積部 2に保存する ( S 4
2 ) 。
次に、 クライアントは、 表示装置コントロール部 5においてステップ 4 1で合 成した画像を、 モニタ等表示装置 7に、 スクリーンセーバとして表示する ( S 4
3 ) 。
次に、 クライアントは、 キーボード操作またはマウス操作があるか否力 を判定 する (S 4 4 ) 。 キーボード操作おょぴマウス操作のいずれもが検出できない場 合、 クライアントは、 制御を S 4 0に戻す。
一方、 キーポード操作またはマウス操作が検出できた場合、 クライアントは、 クライアントの合成画像蓄積部 2に画像が保存されている力 \ 否か (ルールが保 存されている ) を判定する (S 4 5 ) 。
合成画像蓄積部 2に、 画像が保存されていない場合 (ルールが保存さ l^ている 場合) 、 クライアントは、 合成画像蓄積部 2において、 合成画像蓄積部 2に保存 されたルールを使って画像を合成する。 さらに、 クライアントは、 合成した画像 を、 表示装置コ ントロール部 5においてモニタ等表示装置 7に、 背景画傲 (壁 紙) として表示する ( S 4 6 ) 。 その後、 クライアントは、 ユーザの操ィ1≡に対す る通常処理を開始する (S 4 8 ) 。 一方、 合成画像蓄積部 2に、 画像が保存されている場合、 クライアントは、 表 示装置コント口ール部 5において合成画像蓄積部 2に保存された画像を、 モニタ 等表示装置 7に、 背景画像 (壁紙) として表示する (S 4 7 ) 。 その後、 クライ アントは、 ユーザの操作に対する通常処理を開始する (S 4 8 ) 。
次に、 クライアントは、 所定時間、 キーボードおよびマウス操作のいずれもが なかった;^否かを監視する (S 4 9 ) 。 所定時間、 キーボード操作おょぴマウス 操作の双方いずれもがない場合、 クライアントは、 背景画像 (壁紙) は、 合成画 像蓄積部 2に保存された画像か否かを判定する (S 5 0 ) 。
背景画像 (壁紙) が合成画像蓄積部 2に保存された画像である場合、 クライア ントは、 制御を S 4 0に戻す。 一方、 背景画像 (壁紙) が合成画像蓄積部 2に保 存された画像でない場合、 クライアントは'、 デフォルトの待機画面 (スクリーン セーバ) を使用する設定になっているか否かを判定する (S 5 1 ) 。
デフオノレトの待機画面 (スクリーンセーバ) を使用する設定になっている場合、 クライアントは、 その設定にしたがい、 従来の待機画面 (スクリーンセーバ) を 使用する。 一方、 デフォルトの待機画面 (スクリーンセーパ) を使用する設定に なっていない場合、 クライアントは、 制御を S 4 9に戻す。 したがって、 この場 合には、 待機画面は表示されない。
以上述べたように、 本実施形態によれば、 第 1実施形態で述べた情報処理装置 が複数連擦して待機画面を出力する。 また、 第 1実施形態と同様、 待機画面に対 してキー ード 6 A、 または、 マウス 6 Bによる操作が検出された時点でその時 点の待機面面の画像 (合成画像蓄積部 2に保存された画像) がデスク トップの背 景画像に設定される。 したがって、 第 1実施形態の情報処理装置と同様、 簡易か つ頻繁にデスクトップの背景画面を更新するとともに、 複数の情報処理装置間で、 関連性を,維持した背景画面を設定することができる。
ぐ変形例 >
上記第 2実施形態では、 いずれかの情報処理装置がサーバとして機能し、 他の 情報処理装置はクライアントとして機能して、 複数情報処理装置により、 待機画 面を連携して表示する例を示した。 しかし、 複数の情報処理装置間において、 サ ーバを設けずにこれらの情報処理装置を連携させるようにしてもよレ、。 図 2 3は、 そのよ うな情報処理装置の設定手順を示すフローチャートである。 この処理では、 ユーザは、 対象となる情報処理装置に、 その情報処理装置と隣換 した情報処理装置を認識させる (S 6 1 ) 。 隣接した情報処理装置とは、 各情幸 処理装置がデータを直接転送可能な転送先である。
次に、 ユーザは、 各情報処理装置において、 隣接した情報処理装置との通信 段を選択する (S 6 2 ) 。 例えば、 L A Nのインターフェースを選択すればよ 、。 以上の手順により、 本実施形態における情報処理装置 (クライアントおよび - ーバ) の設定を終了する。
図 2 4から図 2 6は、 複数情報処理装置による背景画像の設定処理を示すフロ 一チャートである。 この処理では、 各情報処理装置は、 入力部 4を通じて隣接し た情報処理装置の情 ¾および自装置の情報を入手する。 そして、 情報処理装置は、 画像合成部 1において、 画像データベース 3のデータと入力部 4からの各種入力 データをもとに、 画像を合成する (S 7 0 ) 。
次に、 情報処理装置は、 隣接した情報処理装置に、 待機画面 (スクリーンセー バ) や壁紙、 ルールを送信する (S 7 1 ) 。
次に、 本情報処理装置は、 ステップ 7 1で合成した画像、 または、 その画像の 合成手順を示すルーノレを合成画像蓄積部 2に保存する (S 7 2 ) 。
次に、 本情報処理装置は、 表示装置コントロール部 5においてステップ 7 1で 合成した画像を、 モニタ等表示装置' 7に、 スクリーンセーバ (待機画面) として 表示する (S 7 3 ) 。
次に、 本情報処理装置は、 キーボード操作またはマウス操作があるか否かを判 定する (S 7 4 ) 。 キーボード操作およびマウス操作のいずれもがない場合、 情 報処理装置は、 制御を S 7 1に戻す。 一方、 キーボード操作またはマウス操作の いずれかを検出した場合、 情報処理装置は、 合成画像蓄積部 2に、 画像が保存さ れているか、 否か (ノレールが保存されているか) を判定する ( S 7 5 ) 。
合成画像蓄積部 2に、 画像が保存されていない場合 (ルールが保存されている 場合) 、 本情報処理装置は、 合成画像蓄積部 2において、 合成画像蓄積部 2に保 存されたルールを使って画像を合成する。 さらに、 本情報処理装置は、 合成した 画像を、 表示装置コントロール部 5においてモニタ等表示装置 7に、 背景画像 (壁紙) として表示する (S 7 6 ) 。 その後、 情報処理装置は、 ユーザの操作こ 対する通常処理を開始する (S 7 8 ) 。
一方、 合成画像蓄積部 2に、 画像が保存されている場合、 本情報処理装置は、 表示装置コントロール部 5において合成画像蓄積部 2に保存された画像を、 モ- タ等表示装置 7に、 背景画像 (壁紙) として表示する (S 7 7 ) 。 その後、 情報 処理装置は、 ユーザの操作に対する通常処理を開始する (S 7 8 ) 。
次に、 情報処理装置は、 隣接した情報処理装置の情報おょぴ自装置の情報を TV 力部 4の情報を通じて入手する。 そして、 情報処理装置は、 画像合成部 1におレ、 て、 画像データベース 3のデータと入力部 4からの各種入力データをもとに、 固 像を合成する (S 7 9 ) 。
次に、 情報処理装置は、 隣接した情報処理装置に、 スクリーンセーバや壁紙、 ルールを送信する (S 8 0 ) 。
次に、 情報処理装置は、 所定時間、 キーボードおよびマウス操作のいずれも S なかったか否かを監視する (S 8 1 ) 。 所定時間、 キーボード操作およびマウス 操作の双方いずれもがない場合、 情報処理装置は、 背景画像 (壁紙) は、 合成画 像蓄積部 2に保存された画像か否かを判定する (S 8 2 ) 。
背景画像 (壁紙) が合成画像蓄積部 2に保存された画像である場合、 情報処理 装置は、 制御を 1に戻す。 一方、 背景画像 (壁紙) が合成画像蓄積部 2に保: 存された画像でなレ、場合、 情報処理装置 、 デフォルトの待機画面 (スクリーン セーバ) を使用する設定になっているか否かを判定する (S 8 3 ) 。
デフォルトの待機画面 (スク リーンセーバ) を使用する設定になっている場合、 本情報処理装置は、 その設定にしたがい、 従来の待機画面 (スク リーンセーバ) を使用する (S 8 4 ) 。 一方、 デフォルトの待機画面 (スク リーンセーバ) を俊 用する設定になっていない場合、 情報処理装置は、 制御を S 9に戻す。 したがつ て、 この場合には、 待機画面は表示されない。
以上述べたように、 本変形例のシステムによれば、 個々の情報処理装置は、 t ーバの介在なしに自律的に連携し、 ユーザ操作のない状態で待機画面を出力すら。 そして、 キーボードまたはマウス等からのユーザ操作が検出されたときに、 そ 時点の画面がデスク トップの背景画面として設定される。 なお、 第 1実施形鶴の図 1 5— 1 7で説明したように、 本実施形態においても、 ュ一ザ操作が検出さ たときに、 その時点で表示されている待機画面の画像と関 係付けられた画像を背景画像として設定してもよレ、。
《コンピュータ等が読み取り可能な記録媒体》
コンピュータその他 C 装置、 機械等 (以下コンピュータ等) に上記いずれかの機 能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録す ることができる。 そして、 コンピュータ等に、 この記録媒体のプログラムを読み 込ませて実行させることにより、 その機能を提供させることができる。
ここで、 コンピュータ等が読み取り可能な記録媒体とは、 データやプログラム 等の情報を電気的、 碟気的、 光学的、 機械的、 または化学的作用によって蓄積し、 コンピュータから読 取ることができる記録媒体をいう。 このような記録媒体の うち、 コンピュータ寧から取り外し可能なものとしては、 例えばフレキシブルデ イスク、 光磁気ディスク、 CD-ROM, CD - R/W、 DVD, DAT, 8 mmテープ、 メモリカー ド等がある。
また、 コンピュータ等に固定された記録媒体としてハードディスクや R OM (リードオンリーメモリ) 等がある。
《搬送波に具現化さ; たデータ通信》
また、 上記プログラムは、 コンピュータ等のハードディスクやメモリに格納し、 通信媒体を通じて他のコンピュータに配布することができる。 この場合、 プログ ラムは、 搬送波によって具現化されたデータ通信信号として、 通信媒体を伝送さ れる。 そして、 その配布を受けたコンピュータ等に上記機能を提供させることが できる。
ここで通信媒体としては、 有線通信媒体、 例えば、 同軸ケーブルおよぴッイス トペアケーブルを含む金属ケーブル類、 光通信ケーブル等、 または、 無線通信媒 体例えば、 衛星通信、 地上波無線通信等のいずれでもよい。
また、 搬送波は、 データ通信信号を変調するための電磁波または光である。 た だし、 搬送波は、 直流信号でもよい。 この場合、 データ通信信号は、 搬送波がな いベースバンド波形になる。 したがって、 搬送波に具現化されたデータ通信信号 は、 変調されたブロー ドバンド信号と変調されていないベースバンド信号 (電圧 の直流信号を搬送波とした場合に相当) のいずれでもよい。

Claims

請求の範囲
1 . 背景画像とともに情報を表示する、 そのような表示手段を制御可能な情報処 理装置であり、
前記表示手段に画像を表示させる表示制御手段と、
前記画像が表示されている状態で所定の操作が検出されたときに、 前記画像に 基づいて背景画像を設定する設定手段とを備える情報処理装置。
2 . 前記表示制御手段は、 動画を前記表示手段に表示させ、
前記設定手段は、 前記所定の操作に応じて前記動画に含まれる特定時点の静止 画像を背景画像に設定する請求項 1に記載の情報処理装置。
3 . 前記表示制御手段は、 前記情報処理装置へのユーザ操作がなされない状態で 表示される待機画面において前記動画を表示させ、
前記設定手段は、 前言己待機画面表示中に前記操作が検出されたときに前記静止 画像を背景画像に設定する請求項 2に記載の情報処理装置。
4 . 複数個の静止画像を保持する保持手段と、
前記保持された静 Jh画像から動画を生成する手段とをさらに備える請求項 2 または 3に記載の情報処理装置。
5 . 前記動画を構成し、 所定の時点で表示される静止画像を記憶する画像蓄積手 段をさらに備え、
前記設定手段は、 前言己蓄積手段に記憶された静止画像を前記背景画像に設定す る請求項 2から 4のいずれかに記載の情報処理装置。
6 . 前記動画を生成する手順情報を参照する手段と、
前記動画を構成し、 所定の時点で表示される静止画像を生成する手順情報を記 憶する蓄積手段とをさ らに備え、
前記設定手段は、 前言己手順情報にしたがい前記静止画像を生成して背景画像に 設定する請求項 2から 4のいずれかに記載の情報処理装置
7 . 他の情報処理装置と通信する手段をさらに備え、
'前記表示制御手段は、 前記他の情報処理装置からの指示に応じて前記画像を表 示させる請求項 1から 6のいずれかに記載の情報処理装置。
8 . 前記他の情報処理装置に対して当該他の情報処理装置が表示させる画像に係 る情報を送信する手段をさらに備える請求項 7に記載の情報処理装置。
9 . コンピュータが背景画像とともに情報を表示する情報表示方法であり、 画像を表示する表示ステップと、
前記画像が表示されている ^態で所定の操作が検出されたときに、 前記画像に 基づいて背景画像を設定する設定ステップとを備える情報表示方法。
1 0 . 前記画像は動画であり、
前記設定ステップは、 前記戸 jf定の操作に応じて前記動画に含まれる特定時点の 静止画像を背景画像に設定するステップを有する請求項 9に記載の情報表示方法。
1 1 . 前記情報処理装置へのユーザ操作がなされない状態で表示される待機画面 において前記動画を表示するステップをさらに備え、
前記設定ステップでは、 前言己待機画面表示中に前記操作が検出されたときに前 記静止画像が背景画像に設定される請求項 1 0に記載の情報表示方法。
1 2 . 複数個の静止画を参照するステップと、
前記静止画から動画を生成するステップとをさらに備える請求項 1 0または 1 1に記載の情報表示方法。
1 3 . 前記動画を構成し、 所定の時点で表示される静止画像を記憶するステップ をさらに備え、 前記設定ステップでは、 前記記憶された静止画像が前記背景画像に設定される 請求項 1 0から 1 2のいずれかに記載の情報表示方法。
1 4 . 前記動画を生成する手順情報を参照するステップと、
前記動画を構成し、 所定の時点で表示される静止画像を生成する手順情報を記 憶するステップとをさ らに備え、
前記設定ステップは、 前記手順情報にしたがい前記静止画像を生成するステツ プと、 前記静止画像を ¾=景画像に設定するステップとを有する請求項 1 0から 1 2のいずれかに記載の'隋報表示方法。
1 5 . 他のコンピュータからの指示を受信するステップさらに備え、
前記表示ステツプでは、 前記指示に応じて前記画像が表示される請求項 9から 1 4のいずれかに記載の情報表示方法。
1 6 . 前記他のコンピュータに対して表示させる画像に係る情報を送信するステ ップをさらに備える請求項 1 5に記載の情報表示方法。
1 7 . コンピュータに、 背景画像とともに情報を表示させるプログラムであり、 画像を表示する表示ステップと、
前記画像が表示されている状態で所定の操作が検出されたときに、 前記画像に 基づいて背景画像を設定する設定ステップとを備えるプログラム。
1 8 . 前記画像は動画であり、
前記設定ステップは、 前記所定の操作に応じて前記動画に含まれる特定時点の 静止画像を背景画像に穀定するステップを有する請求項 1 7に記載のプログラム。
1 9 . 前記コンピュータへのユーザ操作がなされない状態で表示される待機画面 において前記動画を表;^するステップをさらに備え、
前記設定ステップでは、 前記待機画面表示中に前記操作が検出されたときに前 β静止画ィ象が背景画像に設定される請求項 1 8に記載のプログラム。
2 0 . 複数個の静止画を参照するステップと、
前記静止画から動画を生成するステップとをさらに備える請求項 1 8また (ま 1 9に記載のプログラム。
2 1 . 前 f己動画を構成し、 所定の時点で表示される静止画像を記憶するステグプ をさらに備え、
前記設定ステップでは、 前記記憶された静止画像が前記背景画像に設定さ^^る 請求項 1 8から 2 0のいずれかに記載のプログラム。
2 2 . 前 IE動画を生成する手順情報を参照するステップと、
前記動面を構成し、 所定の時点で表示される静止画像を生成する手順情報を記 憶するステップとをさらに備え、
前記設定ステップは、 前記手順情報にしたがい前記静止画像を生成するステッ プと、 前記静止画像を背景画像に設定するステップとを有する請求項 1 8から 2 0のいずれ力に記載のプログラム。
2 3 . 他のコンピュータからの指示を受信するステップさらに備え、
前記表示ステップでは、 前記指示に応じて前記画像が表示される請求項 1 7か ら 2 2のいずれかに記載のプログラム。
2 4 . 前記他のコンピュータに対して表示させる画像に係る情報を送信するスヲ ップをさらに備える請求項 2 3に記載のプログラム。
2 5 . コンピュータに、 背景画像とともに情報を表示させるプログラムであり、 画像を表示する表示ステツプと、
前記画像が表示されている状態で所定の操作が検出されたときに、 前記画像に 基づいて背景画像を設定する設定ステップとを備えるプログラムを記録したコン ユータ読み取り 可能な記録媒体。
PCT/JP2003/011556 2003-09-10 2003-09-10 背景画像を設定する情報処理装置、情報表示方法、およびプログラム WO2005026933A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005508907A JP4533315B2 (ja) 2003-09-10 2003-09-10 背景画像を設定する情報処理装置、情報表示方法、およびプログラム
AU2003264402A AU2003264402A1 (en) 2003-09-10 2003-09-10 Information processing device for setting background image, information display method, and program
PCT/JP2003/011556 WO2005026933A1 (ja) 2003-09-10 2003-09-10 背景画像を設定する情報処理装置、情報表示方法、およびプログラム
CNB038269198A CN100410849C (zh) 2003-09-10 2003-09-10 对背景图像进行设定的信息处理装置、信息显示方法及程序
EP03818646A EP1667010A4 (en) 2003-09-10 2003-09-10 INFORMATION PROCESSING DEVICE FOR SETTING A BACKGROUND IMAGE, INFORMATION DISPLAY PROCESS AND PROGRAM
US11/340,688 US20060176317A1 (en) 2003-09-10 2006-01-27 Information processing apparatus for setting background image, information display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/011556 WO2005026933A1 (ja) 2003-09-10 2003-09-10 背景画像を設定する情報処理装置、情報表示方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/340,688 Continuation US20060176317A1 (en) 2003-09-10 2006-01-27 Information processing apparatus for setting background image, information display device and program

Publications (1)

Publication Number Publication Date
WO2005026933A1 true WO2005026933A1 (ja) 2005-03-24

Family

ID=34308200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/011556 WO2005026933A1 (ja) 2003-09-10 2003-09-10 背景画像を設定する情報処理装置、情報表示方法、およびプログラム

Country Status (6)

Country Link
US (1) US20060176317A1 (ja)
EP (1) EP1667010A4 (ja)
JP (1) JP4533315B2 (ja)
CN (1) CN100410849C (ja)
AU (1) AU2003264402A1 (ja)
WO (1) WO2005026933A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519489A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 人工雰囲気を創出するシステム及び方法
JP2010197965A (ja) * 2009-02-27 2010-09-09 Toshiba Corp 表示システム及び表示方法
JPWO2020148949A1 (ja) * 2019-01-18 2021-12-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101167120A (zh) * 2005-04-21 2008-04-23 汤姆森许可贸易公司 视频画面屏幕保护功能的提取
JP2007025862A (ja) * 2005-07-13 2007-02-01 Sony Computer Entertainment Inc 画像処理装置
JP2009044328A (ja) * 2007-08-07 2009-02-26 Seiko Epson Corp 会議システム、サーバ、画像表示方法、コンピュータプログラム及び記録媒体
JP2009177320A (ja) * 2008-01-22 2009-08-06 Brother Ind Ltd 情報処理装置及びプログラム
JP5438412B2 (ja) * 2009-07-22 2014-03-12 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ゲーム情報表示制御方法及びゲーム情報表示制御プログラム
US20110304636A1 (en) * 2010-06-14 2011-12-15 Acer Incorporated Wallpaper image generation method and portable electric device thereof
KR101044320B1 (ko) * 2010-10-14 2011-06-29 주식회사 네오패드 가상 키입력수단의 배경화면 컨텐츠 제공 방법 및 시스템
KR102104350B1 (ko) * 2013-05-16 2020-04-24 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
JP6992342B2 (ja) * 2017-09-13 2022-01-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628120A (ja) * 1992-07-10 1994-02-04 Brother Ind Ltd 印刷装置
JPH07104927A (ja) * 1993-10-08 1995-04-21 Youzan:Kk ポインティング装置
JPH09269923A (ja) * 1995-06-12 1997-10-14 Pointcast Inc 情報及び広告分配システム及び方法
JP2001332006A (ja) * 2000-05-17 2001-11-30 Toshiba Corp 背景画像取り込みシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6807558B1 (en) * 1995-06-12 2004-10-19 Pointcast, Inc. Utilization of information “push” technology
US6788314B1 (en) * 1996-03-22 2004-09-07 Interval Research Corporation Attention manager for occupying the peripheral attention of a person in the vicinity of a display device
US7010801B1 (en) * 1999-06-11 2006-03-07 Scientific-Atlanta, Inc. Video on demand system with parameter-controlled bandwidth deallocation
US6486900B1 (en) * 2000-06-28 2002-11-26 Koninklijke Philips Electronics N.V. System and method for a video display screen saver
JP2002247528A (ja) * 2001-02-19 2002-08-30 Funai Electric Co Ltd 画像再生装置
KR100516638B1 (ko) * 2001-09-26 2005-09-22 엘지전자 주식회사 화상 통신 시스템
JP3826073B2 (ja) * 2002-06-05 2006-09-27 キヤノン株式会社 スクリーンセーバ作成システムおよび方法
US7039247B2 (en) * 2003-01-31 2006-05-02 Sony Corporation Graphic codec for network transmission

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628120A (ja) * 1992-07-10 1994-02-04 Brother Ind Ltd 印刷装置
JPH07104927A (ja) * 1993-10-08 1995-04-21 Youzan:Kk ポインティング装置
JPH09269923A (ja) * 1995-06-12 1997-10-14 Pointcast Inc 情報及び広告分配システム及び方法
JP2001332006A (ja) * 2000-05-17 2001-11-30 Toshiba Corp 背景画像取り込みシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519489A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 人工雰囲気を創出するシステム及び方法
JP2013047820A (ja) * 2005-12-15 2013-03-07 Koninkl Philips Electronics Nv 人工雰囲気を創出するシステム及び方法
JP2010197965A (ja) * 2009-02-27 2010-09-09 Toshiba Corp 表示システム及び表示方法
JPWO2020148949A1 (ja) * 2019-01-18 2021-12-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法

Also Published As

Publication number Publication date
AU2003264402A1 (en) 2005-04-06
CN100410849C (zh) 2008-08-13
US20060176317A1 (en) 2006-08-10
EP1667010A1 (en) 2006-06-07
JPWO2005026933A1 (ja) 2006-11-24
CN1820240A (zh) 2006-08-16
EP1667010A4 (en) 2011-05-04
JP4533315B2 (ja) 2010-09-01

Similar Documents

Publication Publication Date Title
US11032514B2 (en) Method and apparatus for providing image service
CN105190511B (zh) 图像处理方法、图像处理装置和图像处理程序
JP6460228B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20060176317A1 (en) Information processing apparatus for setting background image, information display device and program
JP4363166B2 (ja) コミュニケーションサービス提供システム、サーバ、サービス提供方法およびサービス提供プログラム
US7155679B2 (en) Digital media frame
JP2004054783A5 (ja)
US20120042265A1 (en) Information Processing Device, Information Processing Method, Computer Program, and Content Display System
EP4243409A1 (en) System and method for displaying image, image-capturing device, and carrier means
WO2014205658A1 (zh) 数据处理方法和数据处理系统
CN115529378A (zh) 一种视频处理方法及相关装置
US8395669B2 (en) Image data transmission apparatus and method, remote display control apparatus and control method thereof, program, and storage medium
JP6053365B2 (ja) サーバシステム、画像処理システム、プログラム及び画像処理方法
US10291883B1 (en) System, method, and computer program for receiving device instructions from one user to be overlaid on an image or video of the device for another user
US20080036695A1 (en) Image display device, image display method and computer readable medium
US20180359422A1 (en) Transmission apparatus, setting apparatus, transmission method, reception method, and storage medium
KR100814592B1 (ko) 배경 화상을 설정하는 정보 처리 장치, 정보 표시 방법 및프로그램
CN111787115A (zh) 服务器、显示设备和文件传输方法
EP1453291A2 (en) Digital media frame
CN111782606A (zh) 显示设备、服务器和文件管理方法
JP3774521B2 (ja) カメラ制御システム、カメラサーバ、カメラ操作装置、及びカメラ操作情報の表示制御方法
CN114979054B (zh) 视频生成方法、装置、电子设备及可读存储介质
CN111491206B (zh) 视频处理方法、视频处理装置及电子设备
CN117294896A (zh) 一种视频窗口调整方法及显示设备
JP2003018570A (ja) データシステム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 03826919.8

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BY BZ CA CH CN CO CR CU CZ DE DM DZ EC EE EG ES FI GB GD GE GH HR HU ID IL IN IS JP KE KG KP KR KZ LK LR LS LT LU LV MA MD MG MK MW MX MZ NI NO NZ OM PG PH PL RO RU SC SD SE SG SK SL SY TJ TM TR TT TZ UA UG US UZ VC VN YU ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ UG ZM ZW AM AZ BY KG KZ RU TJ TM AT BE BG CH CY CZ DK EE ES FI FR GB GR HU IE IT LU NL PT RO SE SI SK TR BF BJ CF CI CM GA GN GQ GW ML MR NE SN TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005508907

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11340688

Country of ref document: US

Ref document number: 2003818646

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020067003881

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003818646

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11340688

Country of ref document: US