WO2010061661A1 - 画像表示装置、画像表示方法及び情報記憶媒体 - Google Patents

画像表示装置、画像表示方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2010061661A1
WO2010061661A1 PCT/JP2009/061941 JP2009061941W WO2010061661A1 WO 2010061661 A1 WO2010061661 A1 WO 2010061661A1 JP 2009061941 W JP2009061941 W JP 2009061941W WO 2010061661 A1 WO2010061661 A1 WO 2010061661A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
arrangement
display
area
display element
Prior art date
Application number
PCT/JP2009/061941
Other languages
English (en)
French (fr)
Inventor
津田 宗孝
好伸 的野
匡人 平林
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008299853A external-priority patent/JP2010128587A/ja
Priority claimed from JP2008299850A external-priority patent/JP4871345B2/ja
Priority claimed from JP2008299852A external-priority patent/JP5265315B2/ja
Priority claimed from JP2008299851A external-priority patent/JP4871346B2/ja
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US12/810,118 priority Critical patent/US8797348B2/en
Priority to EP09828911.9A priority patent/EP2352118B1/en
Publication of WO2010061661A1 publication Critical patent/WO2010061661A1/ja
Priority to US14/314,136 priority patent/US20140320524A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to an image display device, an image display method, and an information storage medium.
  • software that displays images while grouping images according to attributes such as the shooting date and clearly indicating the group to which the images belong, it is possible to allow a user to view a large number of images in an easy-to-understand manner.
  • software that collectively displays images belonging to the same group on an image representing a folder.
  • software that displays images belonging to the same group in a partly overlapping manner at a predetermined location on the image representing the table.
  • a cursor image for specifying an image as a target of processing for selecting one image from a plurality of images, such as processing for selecting an image to be enlarged.
  • the cursor image is displayed, for example, as an arrow image displayed over the specified image or as a frame-shaped image surrounding the specified image.
  • a cursor image is generally used to identify one of display elements such as an icon indicating the presence of a folder or a file, a moving image, and a still image. Then, the user moves the cursor image with an operation means such as a keyboard and a mouse, and instructs one of the plurality of display elements to perform processing such as display (for example, the mouse is operated). Click), a process such as display is executed for the identified display element.
  • Patent Document 1 discloses a technique related to a face image display device that displays an image representing a person's face.
  • the display elements are enlarged so that only a small number of display elements are displayed on the screen, or the display elements are reduced so that a large number of display elements are displayed on the screen, as many displays as the user needs
  • An overview of the elements or a small number of display elements can be viewed in detail, and the convenience of the user is improved.
  • a mode of displaying that one display element is identified is a display element when a small number of display elements are displayed.
  • each display element belonging to a group classified by shooting date can be associated with the rank by sorting in order of shooting time.
  • the conventional software it was possible to display each display element while clearly indicating the group, but the order of each image within the group was not presented to the user in an easy-to-understand manner.
  • An advantage of some aspects of the invention is that it provides an image display device, an image display method, and an information storage medium that allow a user to easily recognize an image belonging to a group. There is.
  • Another object of the present invention is to provide an image display device, an image display method, and an information storage medium having a cursor function that makes it easy to understand an object to be pointed out while preventing an image from becoming difficult to see.
  • Still another object of the present invention is to provide an image display device that makes it easier for a user to recognize an identified display element when displaying the display element by enlarging or reducing the display element as required by the user,
  • An object is to provide an image display method and an information storage medium.
  • Still another object of the present invention is to provide an image display device, an image, and a plurality of display elements that are displayed together, in which the order of each display element among the plurality of display elements can be easily presented to the user.
  • a display method and an information storage medium are provided.
  • an image display device includes an image acquisition unit that acquires a plurality of images, and an image classification unit that classifies the plurality of images into one or a plurality of groups associated with ranks.
  • group image arrangement means for arranging the group images corresponding to each group according to the order of the groups along a group image arrangement reference line provided in the display area, and a representative image arrangement area in the display area.
  • Representative image arrangement means for arranging the image belonging to one of the groups corresponding to the range on the group image arrangement reference line corresponding to the representative image arrangement area as a representative image, and at least a part of the display area Display means for displaying on the screen.
  • the image display method includes an image acquisition step of acquiring a plurality of images, an image classification step of classifying the plurality of images into one or a plurality of groups associated with ranks, and a display area.
  • An information storage medium is provided in an image acquisition unit that acquires a plurality of images, an image classification unit that classifies the plurality of images into one or a plurality of groups associated with ranks, and a display area.
  • a group image arrangement unit that arranges group images corresponding to each group along the group image arrangement reference line according to the order of the groups, a representative image arrangement area in the display area, and a corresponding representative image arrangement area
  • a computer as representative image arrangement means for arranging the image belonging to one of the groups corresponding to the range on the group image arrangement reference line as a representative image, and display means for displaying at least a part of the display area on the screen.
  • This is a computer-readable information storage medium storing a program characterized by causing the function to function.
  • an image belonging to one or a plurality of groups into which a plurality of images are classified is arranged as a representative image in the representative image arrangement area in the display area.
  • the representative image arrangement area corresponds to the range on the group image arrangement reference line in the display area. Then, at least a part of the display area is displayed to the user. For this reason, the user can easily recognize the images belonging to the group.
  • representative image arrangement area position determining means for determining the position of the representative image arrangement area based on at least one of the position of the group image arrangement reference line or the position where the group image is arranged, Is further included. By doing this, it is possible to determine the representative image arrangement area in consideration of the position of the group image arrangement reference line or the position where the group image is arranged.
  • the representative image placement unit includes the group corresponding to a range on the group image placement reference line determined based on a distance from a representative point in the representative image placement region.
  • the image belonging to any one of the above is arranged as a representative image. In this way, an image to be arranged as a representative image can be determined based on the positional relationship between the representative point in the representative image arrangement area and the range on the group image arrangement reference line.
  • the representative image arrangement unit arranges the images belonging to any one of the plurality of groups having consecutive ranks as a representative image. In this way, it is possible to associate the representative image with a group having consecutive ranks.
  • the representative image arrangement unit arranges the image selected based on a random number as a representative image. In this way, the representative image is randomly determined from the plurality of images.
  • the representative image is switched every predetermined time. In this way, it is possible to arrange a plurality of representative images that are switched every predetermined time in one representative image arrangement region.
  • the image classification unit classifies the image into one or a plurality of groups based on an attribute associated with each image.
  • an image belonging to one or a plurality of groups classified based on an attribute associated with each of a plurality of images can be arranged as a representative image in the representative image arrangement area in the display area.
  • a plurality of the representative image arrangement areas exist in the display area.
  • an image belonging to any one of the groups corresponding to the range on the group image arrangement reference line corresponding to each representative image arrangement area can be arranged as a representative image.
  • the representative image arrangement unit arranges each representative image arrangement area in another representative image arrangement area whose distance from a representative point in the representative image arrangement area is within a predetermined range.
  • An image different from the image may be arranged as a representative image in the representative image arrangement area.
  • another image display device is an image display device that displays an image representing a state in which the line-of-sight direction is viewed from a viewpoint arranged in the virtual three-dimensional space.
  • a target image placement unit that places at least one target image on the placement surface
  • a cursor image placement unit that places a cursor image indicating a closed region on the placement surface, and the cursor according to an operation signal received from a user.
  • another image display method is an image display method for displaying an image representing a view of a viewing direction from a viewpoint arranged in a virtual three-dimensional space, wherein the image is displayed in the virtual three-dimensional space.
  • An object image placement step for placing at least one target image on the placement surface a cursor image placement step for placing a cursor image indicating a closed region on the placement surface, and the cursor according to an operation signal received from a user.
  • An image positional relationship changing step of changing characterized in that it contains.
  • another information storage medium stores a program that causes a computer to function as an image display device that displays an image representing a sight line direction viewed from a viewpoint arranged in a virtual three-dimensional space.
  • a computer-readable information storage medium target image placement means for placing at least one target image on a placement surface in the virtual three-dimensional space, and a cursor for placing a cursor image indicating a closed region on the placement surface Image placement means, cursor image movement means for moving the cursor image along the placement surface in accordance with an operation signal received from a user, between the position of the cursor image on the placement surface and the position of the target image When the distance is within a predetermined range, the distance from the viewpoint to the target image is the distance from the viewpoint to the cursor image.
  • Computer-readable information storing a program that causes the computer to function as image positional relationship changing means for changing a relative positional relationship between the cursor image and the target image so as to be shorter It is a storage medium.
  • the target image when the distance between the position of the cursor image and the position of the target image is within a predetermined range, the target image is arranged closer to the viewpoint than the cursor image, so that the target image is difficult to see. Can be prevented.
  • the distance between the position of the cursor image and the position of the target image is within a predetermined range, the relative positional relationship between the cursor image and the target image changes.
  • the object Presented to the user in an easy-to-understand manner. Therefore, it is possible to present the object to be pointed to the user in an easy-to-understand manner while preventing the image from becoming difficult to see.
  • the image positional relationship changing means changes the distance of the target image from the arrangement surface. By doing this, the distance between the target image and the arrangement plane changes, and the target image to be pointed is presented to the user in an easy-to-understand manner.
  • the cursor image is larger in size than the target image. In this way, the user can recognize the position of the cursor image even when the target image is arranged closer to the viewpoint than the cursor image.
  • the cursor image moving unit may be configured such that when the distance between the position of the cursor image on the arrangement surface and the position of the target image is within a predetermined range, The cursor image and the target image are brought close to each other according to the distance between the representative point in the target image and the representative point in the target image. In this way, if the distance between the position of the cursor image and the position of the target image is within a predetermined range, the cursor image and the target image come close to each other, so that the target image can be easily indicated.
  • another image display device includes image display means for displaying an image representing at least a part of an area where a plurality of display elements are arranged on the screen, and the plurality of images displayed on the screen.
  • Identification display means for identifying and displaying at least one of the display elements, area size changing means for changing the size of the area displayed on the screen in response to an operation signal received from a user, and the screen
  • an identification degree changing means for changing the degree of identification according to a change in the size of the area displayed on the screen.
  • another image display method includes an image display step of displaying an image representing at least a part of an area in which a plurality of display elements are arranged on the screen, and the plurality of images displayed on the screen.
  • An identification display step for identifying and displaying at least one of the display elements, an area size changing step for changing the size of the area displayed on the screen according to an operation signal received from a user, and the screen
  • an identification degree changing step for changing the degree of identification according to the size of the area displayed on the screen.
  • Still another information storage medium includes an image display means for displaying an image representing at least a part of an area in which a plurality of display elements are arranged on the screen, and the plurality of the plurality of information displayed on the screen.
  • Identification display means for identifying and displaying at least one of the display elements, area size changing means for changing the size of the area displayed on the screen in response to an operation signal received from a user, and displayed on the screen
  • a computer-readable information storage medium storing a program that causes a computer to function as an identification degree changing unit that changes the degree of identification according to the size of the area.
  • the degree of identification of the display element changes according to the change in the size.
  • the display element is enlarged or reduced and displayed, the user can easily recognize the identified display element.
  • the image display means views the display element arrangement plane in the virtual three-dimensional space in which the objects of the plurality of display elements are arranged from the viewpoint arranged in the virtual three-dimensional space.
  • An image representing the state is displayed on the screen, and the identification display means identifies and displays at least one of the objects of the plurality of display elements displayed on the screen, and the area size changing means includes the user
  • the distance between the viewpoint and the display element arrangement plane is changed according to an operation signal received from the display element, and the identification degree changing unit is configured to change the distance between the viewpoint and the display element arrangement plane. The distance of the display element object from the display element arrangement plane is changed.
  • the degree of identification of the display element changes according to the change in the distance.
  • the display element is enlarged or reduced and displayed, the user can easily recognize the identified display element.
  • the image processing apparatus further includes a cursor image arrangement unit that arranges a cursor image indicating at least one of the display elements at a position corresponding to the display element that is identified and displayed,
  • An identification degree changing unit changes a display mode of the cursor image.
  • the identification degree changing means may change the transparency of the cursor image. In this way, when the size of the area displayed on the screen changes according to the operation signal received from the user, the transparency of the cursor image changes according to the change in the size. When the image is enlarged or reduced, the user can easily recognize the identified display element.
  • another image display device is an image display device that displays an image representing a state of viewing the line-of-sight direction from a viewpoint arranged in a virtual three-dimensional space, and is associated with a rank.
  • Display element acquisition means for acquiring a plurality of display elements, and according to the order associated with each display element, the display element approaches a placement surface provided in the virtual three-dimensional space, and a reference on the placement surface
  • Display element arrangement means for arranging each display element and an image showing the appearance of each display element from the viewpoint so that many things separated from a line perpendicular to the arrangement plane passing through the point appear.
  • an image display means is an image display device that displays an image representing a state of viewing the line-of-sight direction from a viewpoint arranged in a virtual three-dimensional space, and is associated with a rank.
  • another image display method is an image display method for displaying an image representing a view of the viewing direction from a viewpoint arranged in a virtual three-dimensional space, and is associated with a rank.
  • a display element acquisition step for acquiring a plurality of display elements, and an approach to a placement surface provided in the virtual three-dimensional space according to a rank associated with each display element, and a reference on the placement surface
  • Display element placement step for placing each display element so that many things that are separated from a line perpendicular to the placement plane that passes through the point appear, and an image showing how each display element is seen from the viewpoint
  • an image display step for displaying an image representing a view of the viewing direction from a viewpoint arranged in a virtual three-dimensional space, and is associated with a rank.
  • another information storage medium stores a program that causes a computer to function as an image display device that displays an image representing a view of a viewing direction from a viewpoint arranged in a virtual three-dimensional space.
  • a computer-readable information storage medium provided with display element acquisition means for acquiring a plurality of display elements associated with ranks, in the virtual three-dimensional space according to the ranks associated with the display elements
  • Display element arrangement means for arranging the display elements so that many of them appear close to the arranged arrangement plane and apart from a line perpendicular to the arrangement plane passing through the reference point on the arrangement plane
  • a program for causing a computer to function as image display means for displaying an image representing a state of viewing each display element from a viewpoint Is stored computer-readable information storage medium.
  • each display element is arranged so that many things that pass through a reference point on the arrangement plane and that are separated from a line perpendicular to the arrangement plane appear.
  • the user can recognize the rank of each display element based on the distance from the line perpendicular to the arrangement plane passing through the reference point on the arrangement plane at the position where the display element is arranged. In this way, for a plurality of images displayed together, the order of each image among the plurality of images can be presented to the user in an easy-to-understand manner.
  • the size of the arrangement area serving as the basis of the position where the display element is arranged corresponds to the order of each image. Therefore, among the plurality of images displayed together, The order of each image can be presented to the user in an easy-to-understand manner.
  • the arrangement area determination means may determine the arrangement area that becomes larger according to the order associated with the display element for each display element.
  • the size of the placement area which is the basis of the position where the display element is placed, and the order of each image correspond to each other so that the placement area becomes larger according to the order.
  • the order of each image among the plurality of images can be presented to the user in an easy-to-understand manner.
  • the display element arrangement unit determines a position in the arrangement area based on a random number for each display element, and arranges the display element at a position based on the determined position. Also good. In this way, since the position that is the basis of the position where each display element is arranged is randomly determined in the arrangement area, it is possible to have dispersion in the position where a plurality of images that are displayed together are arranged. .
  • the display element arrangement unit is determined based on a distance from the reference point on the arrangement surface corresponding to the order associated with the display element for each display element.
  • the display element is arranged at a position on the arrangement surface. In this way, since the distance from the reference point of the position on the arrangement plane that is the basis of the position where the display element is arranged corresponds to the order of each image, for a plurality of images displayed together, The order of each image among the plurality of images can be presented to the user in an easy-to-understand manner.
  • the display element arrangement unit is determined on the arrangement plane determined based on the distance from the reference point on the arrangement plane that becomes longer according to the order associated with the display element for each display element.
  • the display element may be arranged at the position. In this way, the distance from the reference point at the position on the arrangement plane that is the basis of the position where the display element is arranged corresponds to the rank of each image so that the distance from the reference point increases according to the rank. Therefore, for a plurality of images displayed together, the order of each image among the plurality of images can be presented to the user in an easy-to-understand manner.
  • the display element arranging unit rotates each display element by an angle corresponding to the display element and arranges the display element on the arrangement surface. In this way, it is possible to make the rotation angles scattered when the images are arranged.
  • FIG. 1 is a diagram showing a hardware configuration of an entertainment system (image display device) 10 according to the present embodiment.
  • the entertainment system 10 includes an MPU (Micro Processing Unit) 11, a main memory 20, an image processing unit 24, a monitor 26, an input / output processing unit 28, an audio processing unit 30, and a speaker. 32, an optical disk reading unit 34, an optical disk 36, a hard disk 38, interfaces (I / F) 40, 44, a controller 42, a camera unit 46, and a network interface 48. It is.
  • MPU Micro Processing Unit
  • FIG. 2 is a diagram showing the configuration of the MPU 11.
  • the MPU 11 includes a main processor 12, sub-processors 14 a, 14 b, 14 c, 14 d, 14 e, 14 f, 14 g, 14 h, a bus 16, a memory controller 18, and an interface (I / F) 22. And comprising.
  • the main processor 12 is an operating system stored in a ROM (Read Only Memory) (not shown), for example, a program and data read from an optical disc 36 such as a DVD (Digital Versatile Disk) -ROM, and a program supplied via a communication network. Based on the data and the like, various information processing is performed, and the sub-processors 14a to 14h are controlled.
  • ROM Read Only Memory
  • optical disc 36 such as a DVD (Digital Versatile Disk) -ROM
  • the sub-processors 14a to 14h perform various types of information processing according to instructions from the main processor 12, and each part of the entertainment system 10 is read via an optical disk 36 such as a DVD-ROM, a program and data, and a communication network. Control based on supplied programs and data.
  • the bus 16 is used for exchanging addresses and data between each part of the entertainment system 10.
  • the main processor 12, the sub processors 14a to 14h, the memory controller 18, and the interface 22 are connected to each other via the bus 16 so as to be able to exchange data.
  • the memory controller 18 accesses the main memory 20 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Programs and data read from the optical disk 36 and the hard disk 38 and programs and data supplied via the communication network are written into the main memory 20 as necessary.
  • the main memory 20 is also used for work of the main processor 12 and the sub processors 14a to 14h.
  • the image processing unit 24 and the input / output processing unit 28 are connected to the interface 22. Data exchange between the main processor 12 and the sub processors 14 a to 14 h and the image processing unit 24 or the input / output processing unit 28 is performed via the interface 22.
  • the image processing unit 24 includes a GPU (Graphical Processing Unit) and a frame buffer.
  • the GPU renders various screens in the frame buffer based on the image data supplied from the main processor 12 and the sub processors 14a to 14h.
  • the screen formed in the frame buffer is converted into a video signal at a predetermined timing and output to the monitor 26.
  • the monitor 26 for example, a home television receiver is used.
  • the audio processing unit 30, the optical disk reading unit 34, the hard disk 38, and the interfaces 40 and 44 are connected to the input / output processing unit 28.
  • the input / output processing unit 28 controls data exchange between the main processor 12 and the sub-processors 14a to 14h, the audio processing unit 30, the optical disc reading unit 34, the hard disk 38, the interfaces 40 and 44, and the network interface 48.
  • the audio processing unit 30 includes an SPU (Sound Processing Unit) and a sound buffer.
  • the sound buffer stores various audio data such as game music, game sound effects and messages read from the optical disk 36 and the hard disk 38.
  • the SPU reproduces these various audio data and outputs them from the speaker 32.
  • As the speaker 32 for example, a built-in speaker of a home television receiver is used.
  • the optical disk reading unit 34 reads programs and data stored on the optical disk 36 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Note that the entertainment system 10 may be configured to be able to read a program or data stored in a computer-readable information storage medium other than the optical disk 36.
  • the optical disc 36 is a general optical disc (computer-readable information storage medium) such as a DVD-ROM.
  • the hard disk 38 is a general hard disk device. Various programs and data are stored in the optical disk 36 and the hard disk 38 so as to be readable by a computer.
  • Interfaces (I / F) 40 and 44 are interfaces for connecting various peripheral devices such as the controller 42 and the camera unit 46.
  • an interface for example, a USB (Universal Serial Bus) interface is used.
  • the controller 42 is a general-purpose operation input means, and is used for a user to input various operations (for example, game operations).
  • the input / output processing unit 28 scans the state of each unit of the controller 42 every predetermined time (for example, 1/60 seconds), and supplies the operation state representing the result to the main processor 12 and the sub processors 14a to 14h.
  • the main processor 12 and the sub processors 14a to 14h determine the content of the operation performed by the user based on the operation state.
  • the entertainment system 10 is configured so that a plurality of controllers 42 can be connected, and the main processor 12 and the sub-processors 14a to 14h execute various processes based on an operation state input from each controller 42. ing.
  • the camera unit 46 includes, for example, a known digital camera, and inputs black and white, gray scale, or color photographed images every predetermined time (for example, 1/60 seconds).
  • the camera unit 46 in this embodiment is configured to input a captured image as image data in JPEG (Joint Photographic Experts Group) format.
  • the camera unit 46 is installed on the monitor 26 with the lens facing the user, for example, and is connected to the interface 44 via a cable.
  • the network interface 48 is connected to the input / output processing unit 28 and the network, and relays that the entertainment system 10 performs data communication with other entertainment systems 10 via the network.
  • FIG. 3A is a perspective view showing an example of the controller 42.
  • FIG. 3B is an upper side view showing an example of the controller 42.
  • the controller 42 is connected to the entertainment system 10 by a controller cable 62, and a direction button group 60 (a left button 60L, a right button 60R, an up button 60U, and a down button on the left side of the surface 42a.
  • a direction button 60D) and a left operation stick 54 are provided, and a button group 58 (a left button 58L, a right button 58R, an upper button 58U, and a lower button 58D) and a right operation stick 56 are provided on the right side.
  • a direction button group 60 a left button 60L, a right button 60R, an up button 60U, and a down button on the left side of the surface 42a.
  • a direction button 60D and a left operation stick 54
  • a button group 58 a left button 58L, a right button 58R, an upper button
  • a first left button 50 ⁇ / b> L and a first right button 50 ⁇ / b> R are provided on the left and right sides of the front surface 42 a, respectively,
  • a left button 52L and a second right button 52R are provided.
  • the left thumb is positioned on the direction button group 60 and the left operation stick 54
  • the right thumb is positioned on the button group 58 and the right operation stick 56.
  • at least one of the right index finger or middle finger is positioned on the first right button 50R or the second right button 52R, and at least one of the left index finger or middle finger is the first left button 50L or second The left button 52L is located.
  • the direction button group 60, the button group 58, the first left button 50L, the first right button 50R, the second left button 52L, and the second right button 52R are configured as pressure sensitive buttons and include a pressure sensor. ing.
  • a 256-step digital value having a value of 0 to 255 is input to the entertainment system 10 according to the pressing force. That is, in the entertainment system 10, when the digital value input from the controller 42 is 0, the button is not pressed, and when the digital value is 255, the digital button indicates that the button is pressed with the maximum pressing force. It can be judged from the value.
  • the left operation stick 54 and the right operation stick 56 are stick-like operation members that stand upright on the surface of the housing of the controller 42, and can be tilted by a predetermined angle in all directions from this upright state.
  • the casing longitudinal direction of the controller 42 is the X-axis direction (the right direction in FIG. 3A is the positive direction), and the casing depth direction orthogonal to the X-axis direction is the Y-axis direction (see FIG. 3A).
  • the direction from the front to the back is the positive direction.
  • the posture (operation state) of the left operation stick 54 is the inclination (posture data (X, Y)) in the X-axis direction and the Y-axis direction.
  • Digital values of 0 to 255 are input to the entertainment system 10 respectively.
  • the right operation stick 56 is the same as that of the left operation stick 54. In this way, the entertainment system 10 can grasp the current tilt state (posture) of the left operation stick 54 and the right operation stick 56.
  • the left operation stick 54 and the right operation stick 56 are also configured as pressure-sensitive buttons similar to the direction button group 60 and the button group 58, and can be pressed in the axial direction of the stick.
  • controller 42 includes a built-in vibrator (vibrator).
  • the vibrator vibrates in accordance with an instruction from the MPU 11.
  • FIG. 4 is a diagram showing an example of a library view screen 70 which is an example of a screen displayed on the monitor 26 of the entertainment system 10 operating as an image display device.
  • the library view screen 70 shown in FIG. 4 is a visualization of a virtual three-dimensional space (in this embodiment, for example, the library view space 72 shown in FIG. 5). Specifically, for example, a state in which a library view space 72 in which a large number of photographic image objects 74 that are virtual three-dimensional models showing L-sized white-framed photographs are arranged is viewed from a viewpoint 76 in the same space is publicly known.
  • the library view screen 70 is generated by imaging in real time using the three-dimensional computer graphics technique.
  • FIG. 5 is a perspective view showing an example of the entire image of the library view space 72.
  • a group image object 78 composed of one or a plurality of photographic image objects 74 is arranged on an arrangement plane object 80 provided in the virtual three-dimensional space. ing.
  • the photographic image objects 74 are grouped for each group.
  • Each three-dimensional model is composed of polygons, and each photographic image object 74 is mapped with a photographic image possessed by the user, for example, taken with a digital camera or acquired via the Internet as a texture.
  • each group image object 78 is mapped with a photographic image having a common attribute such as the same shooting date as a texture.
  • a character string indicating the common attribute may be displayed in the vicinity of the group image object 78.
  • the common attributes described above include, for example, attributes indicating the type of subject, such as “photos that may show children” and “photos that may show adults” It may be an attribute indicating the color of the photo, such as “reddish photo” or “blueish photo”.
  • a plurality of elliptical representative image objects 82 are arranged.
  • this representative image object 82 an image corresponding to one of the photographic images mapped to the photographic image object 74 constituting the group image object 78 in the vicinity thereof is a photographic image object constituting the group image object 78. It is displayed larger than 74.
  • the photographic images mapped to the representative image object 82 are switched at a predetermined time interval.
  • the outline of the representative image object 82 may be smoothed (ie, blurred).
  • the photographic image mapped to the representative image object 82 is trimmed along the outline of the representative image object 82.
  • a library view cursor image object 84 indicating a circular closed region is arranged.
  • the library view cursor image object 84 is displayed on the library view screen 70 with its central portion shining translucently. In this way, the user can recognize the central portion of the library view cursor image object 84.
  • one group image object 78 selected group image object 78 a is indicated by the library view cursor image object 84.
  • a library view space 72 illustrated in FIG. 5 is virtually constructed on the main memory 20 of the entertainment system 10, and a group image object arrangement reference line 86 is arranged on a vast flat arrangement object 80.
  • Group image objects 78 are arranged at almost equal intervals.
  • a plurality of representative image arrangement areas 88 are provided in an area different from the area where the group image object 78 is arranged.
  • a representative image object 82 to which any one of the photographic images mapped to the photographic image object 74 constituting the neighboring group image object 78 is mapped is arranged.
  • a viewpoint 76 is provided above the placement plane object 80.
  • an image representing a view of the viewing direction from the viewpoint 76 is generated in real time, that is, every predetermined time (for example, 1/60 seconds), and this is displayed on the monitor 26. I have to.
  • the user When the library view screen 70 is displayed on the monitor 26, the user operates the controller 42 to move the library view cursor image object 84.
  • the user when the library view screen 70 is displayed on the monitor 26, the user operates the controller 42 so that the viewpoint 76 approaches (zooms in) or moves away (zooms out) the placement plane object 80. That is, the user can change the size of the area (display area) on the placement plane object 80 displayed on the monitor 26.
  • FIGS. 6A and 6B are diagrams showing an example of a tile view screen 90 which is another example of a screen displayed on the monitor 26 of the entertainment system 10 operating as an image display device.
  • the tile view screen 90 shown in FIGS. 6A and 6B is a visualization of a virtual three-dimensional space (in this embodiment, for example, the tile view space 92 shown in FIG. 7).
  • a state in which a tile view space 92 in which a large number of photographic image objects 74, which are virtual three-dimensional models showing L-sized white-framed photographs, are arranged, is viewed from the viewpoint 76 in the space is publicly known.
  • the tile view screen 90 is generated by imaging in real time using the three-dimensional computer graphics technique.
  • FIG. 7 is a perspective view showing an example of an overall image of the tile view space 92.
  • the photographic image objects 74 are divided into groups corresponding to the group image objects 78 described above, and each group is placed on the arrangement plane object 80. They are arranged side by side.
  • photographic images having common attributes are mapped as textures to the photographic image objects 74 constituting each group.
  • the character string which shows the common attribute mentioned above, the number of sheets which belong to a group, etc. may be displayed in the vicinity of each group.
  • a tile view cursor image object 94 is arranged between one of the photo image objects 74 (selected photo image object 74a) and the arrangement plane object 80.
  • the tile view cursor image object 94 is, for example, a square image in which semi-transparent corners are formed in a circle.
  • the selected photo image object 74 a pointed to by the tile view cursor image object 94 is arranged away from the arrangement plane object 80.
  • the tile view space 92 illustrated in FIG. 7 is virtually constructed on the main memory 20 of the entertainment system 10, and is spaced apart for each group on the vast plate-like arrangement plane object 80.
  • the photo image objects 74 are arranged in alignment.
  • a viewpoint 76 is provided above the placement plane object 80.
  • an image representing a state in which the viewing direction is viewed from the viewpoint 76 is generated in real time, that is, every predetermined time (for example, 1/60 seconds), and this image is displayed on the monitor 26. I am doing so.
  • the tile view cursor image object 94 is moved by the user operating the controller 42.
  • the user when the tile view screen 90 is displayed on the monitor 26, the user operates the controller 42 so that the viewpoint 76 approaches (zooms in) or moves away (zooms out) the placement plane object 80. That is, the user can change the size of the area (display area) on the placement plane object 80 displayed on the monitor 26.
  • the tile view screen 90 illustrated in FIG. 6A when the user performs a zoom-in operation, the tile view screen 90 illustrated in FIG. 6B is displayed on the monitor 26. become.
  • the screen displayed on the monitor 26 is not limited to the above-described screen. Specifically, for example, an image representing a state where a playlist space (not shown) in which a favorite photo image object 74 is arranged is viewed from the position of the viewpoint 76 is generated, and the image is played on the monitor 26. You may make it display as a list screen (not shown).
  • 8A, 8B, 8C, and 8D are functional block diagrams illustrating examples of functions realized by the entertainment system 10 according to the present embodiment.
  • the entertainment system 10 functionally includes an image storage unit 100, an operation signal receiving unit 102, a view switching unit 104, a library view space generation display unit 106, a library view cursor.
  • the entertainment system 10 does not have to include all of these elements.
  • the image storage unit 100 is mainly realized by a storage device provided in the entertainment system 10 such as the main memory 20 and the hard disk 38.
  • the tile view space generation / display unit 116, the tile view cursor image moving unit 118, the tile view image positional relationship changing unit 120, the tile view viewpoint moving unit 122, the tile view identification degree changing unit 124, and the entertainment system 10 such as the MPU 11 or the like. It is mainly realized by the control device provided in.
  • the library view space generation display unit 106 includes a library view target image arrangement unit 126, a library view cursor image arrangement unit 128, and a library view space display unit 130.
  • the library view target image arrangement unit 126 includes a library view image acquisition unit 132, a library view image classification unit 134, a library view group image arrangement unit 136, a library view representative image arrangement region determination unit 138, and a library view representative. And an image arrangement unit 140.
  • the library view group image arrangement unit 136 includes a group image arrangement region determination unit 142, a display element acquisition unit 144, a display element arrangement region determination unit 146, a display element arrangement unit 148, It is comprised including.
  • the tile view space generation display unit 116 includes a tile view target image arrangement unit 150 and a tile view identification display unit 152.
  • the tile view target image arrangement unit 150 includes a tile view image acquisition unit 154, a tile view image classification unit 156, and a tile view image arrangement unit 158.
  • the tile view identification display unit 152 includes a tile view cursor image arrangement unit 160 and a tile view space display unit 162.
  • These elements are realized by executing a program installed in the entertainment system 10, which is a computer, by a control device such as the MPU 11 provided in the entertainment system 10.
  • This program is supplied to the entertainment system 10 via an information transmission medium such as a CD-ROM or DVD-ROM, or via a communication network such as the Internet.
  • the image storage unit 100 stores a still image taken by a user with a digital camera, a still image downloaded from a site on the Internet via the network interface 48, and the like.
  • the image storage unit 100 stores, for example, a photographic image.
  • a photographic image taken by the digital camera is read directly from the digital camera or from a portable storage medium removed from the digital camera via an interface (not shown) connected to the input / output processing unit 28 of the entertainment system 10.
  • the image storage unit 100 also stores attribute information such as the image size, shooting date and time, comments, hue, and subject type of each image.
  • the image storage unit 100 may store a photographic image object 74 in which a photographic image is mapped as a texture.
  • the operation signal receiving unit 102 receives an operation signal corresponding to a user operation on the controller 42. Specifically, for example, a digital value indicating the tilt of the left operation stick 54 and the right operation stick 56, a digital value indicating a pressing force on the button group 58, the direction button group 60, and the like are received from the controller 42.
  • the view switching unit 104 displays the view displayed on the monitor 26 when the operation signal receiving unit 102 receives an operation signal (for example, an operation signal indicating that a predetermined button included in the button group 58 has been pressed). Switch. Specifically, for example, when the library view screen 70 is displayed on the monitor 26, when the operation signal receiving unit 102 receives an operation signal indicating that the right button 58R is pressed, the view switching unit 104 causes the tile view space generation / display unit 116 to generate the tile view space 92.
  • an operation signal for example, an operation signal indicating that a predetermined button included in the button group 58 has been pressed.
  • the operation signal receiving unit 102 receives an operation signal indicating that the down button 58D is pressed while the tile view screen 90 is displayed on the monitor 26, the view switching unit 104
  • the library view space 72 is generated by the library view space generation display unit 106.
  • the library view space generation display unit 106 generates a library view space 72. Then, the library view space generation display unit 106 displays the library view screen 70 on the monitor 26. As described above, in this embodiment, the library view space generation display unit 106 includes the library view target image arrangement unit 126, the library view cursor image arrangement unit 128, and the library view space display unit 130.
  • the library view target image placement unit 126 places at least one target image (for example, the representative image object 82 or the group image object 78) on the placement plane object 80 in the library view space 72.
  • the library view target image arrangement unit 126 includes the library view image acquisition unit 132, the library view image classification unit 134, the library view group image arrangement unit 136, and the library view representative image arrangement region.
  • a determination unit 138 and a library view representative image arrangement unit 140 are included.
  • the library view image acquisition unit 132 acquires a plurality of images (for example, photographic images) stored in the image storage unit 100.
  • the library view image classification unit 134 classifies the plurality of images acquired by the library view image acquisition unit 132 into one or a plurality of groups associated with ranks.
  • the library view image classifying unit 134 specifically includes one or a plurality of photographic images in which ranks are associated with each other based on an attribute (for example, a shooting date) associated with each photographic image. Classify into groups.
  • the library view image classification unit 134 may classify photographic images based on attributes (for example, color and subject type) different from the shooting date.
  • the library view group image arrangement unit 136 is along a group image arrangement reference line (in this embodiment, a group image object arrangement reference line 86) provided on a display area (for example, the arrangement plane object 80) displayed on the monitor 26.
  • group images in this embodiment, group image objects 78
  • group image objects 78 corresponding to each group are arranged according to the order of the groups.
  • the group image arrangement area determination unit 142 acquires the number of groups classified by the library view image classification unit 134 (S101). And the group image arrangement
  • the data indicating the relationship between the number of photographic images acquired in the process illustrated in S102 and the size of the group image arrangement area 166 calculated in the process illustrated in S103 is, for example, in advance in the main memory 20 or the hard disk 38. It may be stored in a storage device. In the process exemplified in S103, the group image arrangement region determination unit 142 may acquire this data.
  • the group image arrangement area determination unit 142 sets a given point on the arrangement plane object 80 as the start point 164 of the group image object arrangement reference line 86 (S104).
  • the group image arrangement area determination unit 142 for example, the arrangement plane object occupied by the group image object arrangement reference line 86 with respect to the width of the arrangement plane object 80 that becomes a display area when the arrangement plane object 80 is displayed most widely on the monitor 26.
  • the position of the start point 164 of the group image object arrangement reference line 86 is set so that the ratio of the width of 80 is 70%.
  • the group image arrangement region determination unit 142 generates, for example, a group image object arrangement reference line 86, which is a Bezier curve having a given range of inclination, on the arrangement plane object 80 from the position of the start point 164 (S105). .
  • the group image arrangement region determination unit 142 determines a Bezier curve that is the group image object arrangement reference line 86 based on the positions of four points including the start point 164, for example.
  • An example of the group image object arrangement reference line 86 generated in this way is shown in FIG.
  • the group image arrangement area determination unit 142 arranges the group image arrangement area 166 having a size corresponding to the group on the group image object arrangement reference line 86 at a given interval d according to the order of the group (S106). ).
  • An example of the group image arrangement area 166 arranged on the group image object arrangement reference line 86 is shown in FIG.
  • the group image arrangement area determination unit 142 confirms whether or not the group image arrangement area 166 has been arranged for all groups (S107).
  • the process ends.
  • the group image arrangement region determination unit 142 alternately sets the group image object arrangement reference line 86 that goes to the lower right and the group image object arrangement reference line 86 that goes to the lower left. Generate.
  • a group image object arrangement reference line 86 as illustrated in FIG. 5 is generated on the arrangement plane object 80, and the group image arrangement area 166 is the number of groups along the group image object arrangement reference line 86.
  • the group image object placement reference line 86 directed to the lower right and the group image object placement reference line 86 directed to the lower left are alternately generated, so that the group image object placement reference line 86 as a whole is generated.
  • 5 has a meandering curved shape as exemplified in FIG.
  • the group image arrangement area 166 may not be on the group image object arrangement reference line 86. Specifically, for example, as illustrated in FIG. 12, when the number of groups is small, the group image arrangement region determination unit 142 alternately displays the group images on both sides of the group image object arrangement reference line 86 that is a straight line. The arrangement area 166 may be arranged.
  • the display element acquisition unit 144 acquires one or a plurality of photographic images belonging to the group to be arranged (S201). Then, the display element acquisition unit 144 sorts the photographic images acquired in the process exemplified in S201 in the order of the photographing time, and associates the order with each photographic image (S202). Then, the display element acquisition unit 144 acquires the photographic image with the highest order among the photographic images that have not been processed (that is, the photographic image with the latest photographing time) (S203). Then, the display element arrangement area determining unit 146 determines the display element arrangement area size corresponding to the order (S204). The rank and the display element arrangement region size have a relationship as exemplified in FIG.
  • y x 1/5 (x: relative rank (for example, rank obtained by normalizing rank in a group according to a predetermined rule), y: display element arrangement area size). Then, the display element arrangement area determination unit 146 determines the length of one side centered on the arrangement reference point 168 (for example, the center of gravity) in the group image arrangement area 166 as illustrated in FIG. The display element arrangement area 170 which is a quadrangle on the arrangement plane object 80 having the displayed display element arrangement area size y is determined (S205).
  • FIG. 15 is a diagram illustrating an example of the display element arrangement area 170.
  • region determination part 146 determines the display element arrangement
  • the display element arrangement unit 148 determines the position of the drop start reference point 172 in the display element arrangement area 170 based on the random number (S206). Then, the photographic image in which the photographic image to be arranged is mapped to the rectangular object in the area around the drop start point 174 that is separated from the drop start reference point 172 by the given distance. The object 74 is arranged (S207). The fall start point 174 is arranged on the viewpoint 76 side with respect to the arrangement plane object 80.
  • the display element arrangement unit 148 drops the photographic image object 74 toward the arrangement plane object 80 according to given motion data (for example, motion data based on physical simulation) (S208).
  • the motion data is stored in advance in a storage device such as the main memory 20 or the hard disk 38, for example.
  • the processing illustrated in S203 to S208 has been completed for all the photo image objects 74 (S209: Y)
  • the processing for arranging the group image objects 78 is terminated. If the process exemplified in S203 to S207 has not been completed for all the photographic image objects 74 (S209: N), the process exemplified in S203 is executed again.
  • the display element arrangement unit 148 drops each photographic image object 74 on the arrangement plane object 80, whereby the group image object 78 is arranged on the arrangement plane object 80.
  • the photographic image objects 74 constituting the group image object 78 are expected to be piled up in a substantially mountain shape when the display element arrangement unit 148 arranges the photographic image objects 74. Then, each photographic image object 74 is stacked so that the photographing time of the photographic image object 74 arranged inside (near the top) is before the photographing time of the photographic image object 74 arranged outside (near the base). It is expected. In this way, in this embodiment, the user can easily recognize the shooting order of the photographic image objects 74 constituting the group image object 78.
  • the display element arrangement unit 148 approaches the arrangement plane object 80 provided in the library view space 72 according to the order associated with each display element (in this embodiment, the photographic image object 74).
  • each display element in this embodiment, the photographic image object 74
  • each display element is displayed so that many objects that pass through the arrangement reference point 168 on the arrangement plane object 80 and are separated from the line perpendicular to the arrangement plane object 80 appear. Deploy.
  • the viewpoint 76 is moved by the library view viewpoint moving unit 112
  • the viewpoint 76 or the vicinity of the viewpoint 76
  • the viewpoint 76 is entered (that is, the group image object 78 is displayed on the screen of the monitor 26).
  • the library view group image placement unit 136 performs the display element placement process exemplified in the above-described S201 to S209 for the group image object 78 when the region is displayed (or the vicinity of this region). May be executed. In this way, each time the group image object 78 enters the visual field of the viewpoint 76 (or in the vicinity of the visual field of the viewpoint 76), the photographic image objects 74 constituting the group image object 78 are rearranged in the group image arrangement area 166. The Rukoto. Therefore, each time the group image object 78 enters the visual field of the viewpoint 76 (or in the vicinity of the visual field of the viewpoint 76), a different impression can be presented to the user for the group image object 78. Details of the library view viewpoint moving unit 112 will be described later.
  • the display element arrangement unit 148 may arrange each photographic image object 74 on the arrangement plane object 80 by rotating it by a corresponding angle. Specifically, for example, in the process illustrated in S207, the display element arrangement unit 148 rotates the photo image object 74 about an axis perpendicular to the arrangement plane object 80 by an angle determined based on a random number. Thus, it may be arranged in a region centering on the drop start point 174.
  • the display element arrangement unit 148 The position of the drop start reference point 172 may be recalculated.
  • the flow of the display element arrangement process is not limited to the above processing example.
  • the display element arrangement region determination unit 146 increases the distance from the arrangement reference point 168 of the drop start reference point 172 according to the order of each photo image object 74.
  • the drop start reference point 172 of the image object 74 may be determined.
  • the display element arrangement region determination unit 146 sets the drop start reference point 172 so that the distance from the arrangement reference point 168 becomes longer as the order of each of the photographic image objects 74 increases. You may arrange.
  • the trajectory connecting the positions of the respective drop start reference points 172 draws a concentric shape
  • the trajectory connecting the positions of the respective drop start reference points 172 draws a spiral shape. Yes.
  • the display element placement unit 148 may not place each photographic image object 74 on the placement plane object 80 by dropping according to the motion data.
  • the library view representative image arrangement region determination unit 138 is arranged with the position of the group image arrangement reference line (in this embodiment, the group image object arrangement reference line 86) or the group image (in this embodiment, the group image object 78).
  • the position of the representative image arrangement area 88 is determined based on at least one of the existing positions. In the present embodiment, a plurality of representative image arrangement areas 88 are provided on the arrangement plane object 80.
  • the library view representative image arrangement area determination unit 138 sets a grid area 176 having a given size on the arrangement plane object 80. Then, the library view representative image arrangement area determination unit 138 extracts, from these grid areas 176, continuous representative image arrangement candidate areas 178 in two or more grids in which the photographic image object 74 is not arranged. Then, the library view representative image arrangement area determining unit 138 determines at least a part of the representative image arrangement candidate area 178 as the representative image arrangement area 88.
  • the library view representative image arrangement area determination unit 138 does not need to extract the representative image arrangement candidate area 178.
  • the position of the representative image arrangement area 88 may be determined in advance.
  • the library view representative image arrangement unit 140 corresponds to the range on the group image arrangement reference line (in this embodiment, the group image object arrangement reference line 86) corresponding to the representative image arrangement area 88 in the representative image arrangement area 88.
  • An image belonging to one of the groups (in this embodiment, a photographic image) is arranged as a representative image (in this embodiment, a representative image object 82).
  • the library view representative image placement unit 140 selects a group corresponding to the range on the group image object placement reference line 86 determined based on the distance from the representative point (for example, the center of gravity) in the representative image placement area 88. Images belonging to any one of them may be arranged as representative images.
  • the library view representative image arrangement unit 140 for example, as shown in FIG. 18, an arrangement plane object centered on a representative point (representative image arrangement area representative point 180) in the representative image arrangement area 88.
  • One or a plurality of photographic image objects 74 arranged in a circular area (representative image selection area 182) having a predetermined radius r on 80 is selected.
  • the library view representative image placement unit 140 has a group image object placement reference whose distance from the representative image placement area representative point 180 is within a predetermined range (for example, shorter than the predetermined distance).
  • An image belonging to any of the groups corresponding to the range on the line 86 may be arranged as a representative image.
  • an upper limit (for example, 20) may be provided for the number of photo image objects 74 selected by the library view representative image arrangement unit 140. Then, the library view representative image arrangement unit 140 arranges the photographic image mapped to the selected photographic image object 74 in the representative image arrangement area 88.
  • a photographic image mapped to any one of the photographic image objects 74 arranged in the representative image selection area 182 is enlarged and arranged in the representative image arrangement area 88. Therefore, the user can easily recognize what photographic image object 74 is arranged in the vicinity of the representative image arrangement area 88.
  • the library view representative image placement unit 140 may switch the photographic images placed in the representative image placement area 88 at predetermined time intervals. In this way, the user can recognize the photographic image objects 74 arranged in the vicinity of the representative image arrangement area 88 one after another. Further, the library view representative image placement unit 140 may place a photographic image selected based on a random number in the representative image placement area 88. Further, the library view representative image placement unit 140 may place the photographic images belonging to any of a plurality of groups having consecutive ranks in the representative image placement area 88.
  • the photographic images mapped to one photographic image object 74 are different from each other. There is a possibility of being placed in region 88.
  • the library view representative image arrangement unit 140 is an image arranged in another representative image arrangement area 88 whose distance from a representative point in one representative image arrangement area 88 is within a predetermined range. Different photographic images may be arranged as representative images in this representative image arrangement region.
  • the library view cursor image placement unit 128 places a library view cursor image object 84 indicating a closed region on the placement plane object 80.
  • a library view cursor image object 84 indicating a circular closed region whose central portion shines translucently is arranged on the arrangement plane object 80.
  • the library view space display unit 130 displays at least a part of the display area (in this embodiment, for example, the arrangement plane object 80) on the screen of the monitor 26.
  • the library view cursor image moving unit 108 receives an operation signal received by the operation signal receiving unit 102 when the library view screen 70 is displayed on the monitor 26 (for example, an operation signal indicating that the left operation stick 54 has been operated). Accordingly, the library view cursor image object 84 in the library view space 72 is moved in four directions (front and rear, left and right) along the arrangement plane object 80.
  • the library view image positional relationship changing unit 110 has a distance between the position of the library view cursor image object 84 on the arrangement plane object 80 and the position of the target image (in the present embodiment, the group image object 78) within a predetermined range.
  • the library view cursor image object 84 so that the distance from the viewpoint 76 to the target image (in this embodiment, the group image object 78) is shorter than the distance from the viewpoint 76 to the library view cursor image object 84.
  • the relative positional relationship between the target image (in this embodiment, the group image object 78) are changed.
  • the library view image positional relationship changing unit 110 for example, as illustrated in FIGS. 19A and 19B, the representative point of the group image object 78 (group image object representative point 184) on the arrangement plane object 80.
  • the center of the library view cursor image object 84 (library view cursor image object center 188) is arranged in a circular region (influence region 186) with a predetermined radius R centered at the center, a group image object 78 is formed.
  • Each photographic image object 74 is changed in distance from the arrangement plane object 80 by a predetermined distance h (for example, each photographic image object 74 is separated from the arrangement plane object 80).
  • FIG. 19A is an example of a diagram illustrating a state where the library view cursor image object center 188 is not arranged in the influence area 186.
  • FIG. 19B is an example of a diagram illustrating a state in which the library view cursor image object center 188 is arranged in the influence area 186.
  • the group image object 78 selected by the library view cursor image object 84 is identified and displayed.
  • the center portion of the library view cursor image object 84 is hidden by the group image object 78 pointed to by the library view cursor image object 84, but the photo image object 74 pointed to by the library view cursor image object 84 is the placement plane object.
  • the user can recognize the group image object 78 pointed to by the library view cursor image object 84.
  • the library view cursor image object 84 may be larger than the group image object 78 as illustrated in FIGS. 19A and 19B.
  • the library view image positional relationship changing unit 110 may determine the distance h for separating the photographic image object 74 from the arrangement plane object 80 based on the distance H between the viewpoint 76 and the arrangement plane object 80 ( FIG. 20). Specifically, for example, as illustrated in FIG. 20, the library view image positional relationship changing unit 110 moves the photo image object 74 to the placement plane object as the distance H between the viewpoint 76 and the placement plane object 80 increases. The distance h at which the photographic image object 74 is separated from the placement plane object 80 may be determined so that the distance h from the distance 80 is shortened.
  • FIG. 20 is a diagram illustrating an example of the relationship between the distance h that separates the photographic image object 74 from the arrangement plane object 80 and the distance H between the viewpoint 76 and the arrangement plane object 80.
  • the radius R described above corresponds to, for example, the size of the group image object 78 and the distance H between the viewpoint 76 and the placement plane object 80. More specifically, for example, the radius R is proportional to the product of the radius of the area on the placement plane object 80 occupied by the group image object 78 and the distance H between the viewpoint 76 and the placement plane object 80.
  • the operation signal receiving unit 102 When an operation signal indicating that a predetermined button (for example, the right button 58R) is pressed is received, the view switching unit 104 generates a tile view space 92 and is indicated by the library view cursor image object 84.
  • the viewpoint 76 may be set at a position where the photographic image object 74 belonging to the group corresponding to the image object 78 is displayed on the upper side of the monitor 26. Then, the view switching unit 104 may display a tile view screen 90 on the monitor 26 that shows the viewing direction from the viewpoint 76.
  • the library view cursor image moving unit 108 performs the library view cursor image object.
  • the library view cursor image object 84 may be moved closer to the group image object 78 according to the distance between the center 188 and the group image object representative point 184.
  • the operation signal receiving unit 102 receives an operation signal for the controller 42 (S301). Then, the library view cursor image moving unit 108 calculates the operation signal movement amount vector v1 (x1, y1) based on the digital value indicated by the operation signal (S302).
  • FIG. 22 shows an example of the operation signal movement vector v1 (x1, y1). Then, the library view cursor image moving unit 108 acquires the distance between the library view cursor image object center 188 and the group image object representative point 184 (S303). Then, based on the distance acquired in the process exemplified in S303, the attractive force movement vector v2 (x2, y2) is calculated (S304).
  • FIG. 22 shows an example of the attractive force movement vector v2 (x2, y2).
  • the attractive force movement vector v2 (x2, y2) is, for example, the direction from the library view cursor image object center 188 to the group image object representative point 184, and has a large size corresponding to the distance acquired in the process illustrated in S303. It is a vector.
  • the norm of the attractive force movement vector v2 (x2, y2) increases as the distance acquired in the process illustrated in S303 decreases.
  • the magnitude of the attractive force movement vector v2 (x2, y2) may correspond to (for example, inversely proportional to) the radius R (the radius of the influence region 186) described above.
  • the library view cursor image moving unit 108 causes the library view cursor image object 84 to approach the group image object 78, thereby facilitating selection of the group image object 78 using the library view cursor image object 84.
  • the library view viewpoint moving unit 112 receives an operation signal (for example, an operation signal indicating that the right operation stick 56 has been operated) received by the operation signal receiving unit 102 when the library view screen 70 is displayed on the monitor 26. Accordingly, the position of the viewpoint 76 in the library view space 72 is moved in a direction perpendicular to the arrangement plane object 80. As described above, in this embodiment, the library view viewpoint moving unit 112 changes the distance between the viewpoint 76 and the placement plane object 80. That is, the library view viewpoint moving unit 112 changes the size of the area displayed on the screen of the monitor 26. In the present embodiment, the library view viewpoint moving unit 112 also determines the viewpoint 76 in the library view space 72 when the position where the library view cursor image object 84 is displayed in the monitor 26 exceeds a predetermined range. Is moved along the arrangement plane object 80.
  • an operation signal for example, an operation signal indicating that the right operation stick 56 has been operated
  • the library view identification degree changing unit 114 changes the degree of identification of display elements in accordance with the change in the size of the area displayed on the screen of the monitor 26. Specifically, for example, the library view identification degree changing unit 114 responds to a change in the distance between the viewpoint 76 and the placement plane object 80 and displays the object of the display element (for example, each photo constituting the group image object 78). The distance of the image object 74) from the arrangement plane object 80 is changed. More specifically, for example, when the library view viewpoint moving unit 112 moves the position of the viewpoint 76 as described above, the library view identification degree changing unit 114 sets the moved viewpoint 76 and the placement plane object 80. The arrangement of the photographic image objects 74 constituting the group image object 78 so that the photographic image objects 74 constituting the group image object 78 are separated from the arrangement plane object 80 by a distance corresponding to the distance H between The distance from the plane object 80 is changed.
  • the library view identification degree changing unit 114 determines the transparency and brightness of the library view cursor image object 84 (for example, the library view cursor image object 84 based on the distance H between the moved viewpoint 76 and the placement plane object 80).
  • the display mode such as the intensity of light applied to the light source may be changed.
  • the transparency and brightness of the library view cursor image object 84 may be increased as the distance H between the viewpoint 76 and the placement plane object 80 is shorter. More specifically, for example, the transparency and brightness of the library view cursor image object 84 may be proportional to the distance H between the viewpoint 76 and the placement plane object 80.
  • the tile view space generation display unit 116 generates a tile view space 92 illustrated in FIG. 7 and displays the tile view screen 90 on the monitor 26.
  • the tile view space generation display unit 116 includes the tile view target image arrangement unit 150 and the tile view identification display unit 152.
  • the tile view target image placement unit 150 places at least one target image (for example, a photographic image object 74) on the placement plane object 80 in the tile view space 92.
  • the tile view target image arrangement unit 150 includes the tile view image acquisition unit 154, the tile view image classification unit 156, and the tile view image arrangement unit 158.
  • the tile view image acquisition unit 154 acquires a plurality of images (for example, photographic images) stored in the image storage unit 100, similarly to the library view image acquisition unit 132.
  • the tile view image classification unit 156 classifies the plurality of images acquired by the tile view image acquisition unit 154 into one or a plurality of groups associated with ranks. In the present embodiment, specifically, the tile view image classification unit 156 classifies into groups based on attributes associated with each photo image, such as a shooting date.
  • the tile view image arrangement unit 158 displays a target image object (in this embodiment, a photographic image object 74) in which a target image (for example, a photographic image) belonging to the group is pasted on the arrangement plane object 80 for each group. Align and arrange. A character string indicating the name of the group may be arranged on the arrangement plane object 80 in the vicinity of the arranged photographic image objects 74.
  • the tile view identification display unit 152 identifies and displays at least one of a plurality of display elements (in this embodiment, for example, the photographic image object 74) displayed on the monitor 26. As described above, in the present embodiment, the tile view identification display unit 152 includes the tile view cursor image arrangement unit 160 and the tile view space display unit 162.
  • the tile view cursor image arrangement unit 160 identifies a tile view cursor image object 94 indicating at least one of the photographic image objects 74 and a position corresponding to the displayed photographic image object 74 (for example, the photographic image object 74). And the arrangement plane object 80). At this time, for example, the tile view cursor image placement unit 160 arranges the tiles so that the center of gravity of the photographic image object 74 and the center of gravity of the tile view cursor image object 94 are aligned on a straight line perpendicular to the placement plane object 80.
  • a view cursor image object 94 may be arranged. In the present embodiment, the tile view cursor image object 94 is larger in size than the photo image object 74.
  • the tile view space display unit 162 displays an image representing at least a part of an area in which a plurality of display elements (in this embodiment, for example, the photographic image object 74) are arranged on the monitor 26.
  • the tile view cursor image moving unit 118 receives an operation signal received by the operation signal receiving unit 102 when the tile view screen 90 is displayed on the monitor 26 (for example, an operation signal indicating that the left operation stick 54 has been operated). Accordingly, the tile view cursor image object 94 in the tile view space 92 is moved to a position between the adjacent photographic image object 74 and the arrangement plane object 80 in the front, rear, left and right directions. In this way, the photographic image object 74 pointed to by the tile view cursor image object 94 changes.
  • the tile view image positional relationship changing unit 120 changes the distance from the arrangement plane object 80 of the photographic image object 74 pointed to by the tile view cursor image object 94. Specifically, the tile view image positional relationship changing unit 120 changes the distance from the arrangement plane object 80 of the photographic image object 74 pointed to by the tile view cursor image object 94, for example. More specifically, for example, the tile view image positional relationship changing unit 120 specifically separates, for example, the photographic image object 74 indicated by the tile view cursor image object 94 from the arrangement plane object 80. At this time, the tile view image positional relationship changing unit 120 may determine the distance by which the photographic image object 74 is separated from the arrangement plane object 80 based on the distance between the viewpoint 76 and the arrangement plane object 80.
  • the tile view image positional relationship change unit 120 moves the photographic image object 74 away from the placement plane object 80 as the distance between the viewpoint 76 and the placement plane object 80 increases. You may shorten the distance to make.
  • the relationship between the distance between the objects and the distance from the viewpoint to the object may be common or different between the library view space 72 and the tile view space 92.
  • the tile view viewpoint moving unit 122 receives an operation signal received by the operation signal receiving unit 102 when the tile view screen 90 is displayed on the monitor 26 (for example, an operation signal indicating that the right operation stick 56 has been operated, In response to an operation signal indicating that the button 58R has been operated, the position of the viewpoint 76 in the tile view space 92 is moved in a direction perpendicular to the arrangement plane object 80.
  • the tile view viewpoint moving unit 122 changes the distance between the viewpoint 76 and the placement plane object 80 according to the operation signal received by the operation signal receiving unit 102. That is, the library view viewpoint moving unit 112 changes the size of the area displayed on the screen of the monitor 26 according to the operation signal received by the operation signal receiving unit 102.
  • the tile view viewpoint moving unit 122 also displays the viewpoint 76 in the tile view space 92 when the position where the tile view cursor image object 94 is displayed in the monitor 26 exceeds a predetermined range. Is moved along the arrangement plane object 80.
  • the tile view viewpoint moving unit 122 moves the position of the viewpoint 76 in the tile view space 92 closer to the placement plane object 80, the photographic image object 74 pointed to by the tile view cursor image object 94 is tiled.
  • the position of the viewpoint 76 in the tile view space 92 may be moved along the arrangement plane object 80 so as to be displayed at the center of the view screen 90.
  • the tile view identification degree changing unit 124 changes the degree of identification of display elements in accordance with the change in the size of the area displayed on the screen of the monitor 26. Specifically, for example, as described above, when the tile view viewpoint moving unit 122 moves the position of the viewpoint 76, the tile view identification degree changing unit 124 determines that the moved viewpoint 76, the placement plane object 80, The arrangement planes of the photographic image objects 74 constituting the group image object 78 so that the photographic image objects 74 constituting the photographic image object 74 are separated from the arrangement plane object 80 by a distance corresponding to the distance H between The distance from the object 80 is changed.
  • the tile view identification degree changing unit 124 determines the transparency and luminance (for example, the library view cursor image object 84) of the tile view cursor image object 94 based on the distance H between the moved viewpoint 76 and the arrangement plane object 80.
  • the display mode such as the intensity of light applied to the light source may be changed.
  • the transparency and brightness of the tile view cursor image object 94 may be increased as the distance H between the viewpoint 76 and the placement plane object 80 is shorter.
  • the transparency and brightness of the library view cursor image object 84 may be proportional to the distance H between the viewpoint 76 and the placement plane object 80.
  • FIG. 6B when the distance H between the viewpoint 76 and the placement plane object 80 is short (that is, when a small number of photographic image objects 74 are displayed on the tile view screen 90), FIG.
  • the tile view cursor is more than the case where the distance H between the viewpoint 76 and the arrangement plane object 80 is long as illustrated in FIG. 6 (that is, when many photographic image objects 74 are displayed on the tile view screen 90).
  • the separation distance of the photographic image object 74 pointed to by the image object 94 from the arrangement plane object 80 is short.
  • the transparency and luminance of the tile view cursor image object 94 are higher than when the distance H between the viewpoint 76 and the arrangement plane object 80 is long. It is low.
  • the operation signal receiving unit 102 has pressed a predetermined button (for example, the right button 58R). Is received, the tile view identification degree changing unit 124 enlarges and displays the photographic image mapped to the photographic image object 74 pointed to by the tile view cursor image object 94 on the monitor 26. You may make it display.
  • a predetermined button for example, the right button 58R
  • the photographic image object 74 pointed to by the tile view cursor image object 94 can be presented to the user in a display mode suitable for the distance H between the viewpoint 76 and the placement plane object 80.
  • the tile view viewpoint moving unit 122 brings the position of the viewpoint 76 in the tile view space 92 closer to the placement plane object 80
  • the photo pointed by the tile view cursor image object 94 is used. Since the position of the viewpoint 76 in the tile view space 92 is moved along the arrangement plane object 80 so that the image object 74 is displayed at the center of the tile view screen 90, the position of the viewpoint 76 approaches the arrangement plane object 80.
  • the distance h that separates the photo image object 74 from the placement plane object 80 is shortened and the transparency and brightness values of the tile view cursor image object 94 are reduced, the user is directed to the photo that is pointed to The image object 74 can be easily recognized.
  • the present invention is not limited to the above embodiment.
  • the entertainment system 10 converts each photo image object 74 constituting the group image object 78 pointed to by the library view cursor image object 84 in the library view space 72 in accordance with an operation signal received from the user. You may make it copy in space.
  • the entertainment system 10 may sequentially display the photographic image objects 74 arranged in the playlist space as a slide show on the monitor 26 in accordance with an operation signal received from the user.
  • the present invention may be applied to the entertainment system 10 that operates as an image display device that displays a planar shape in a two-dimensional coordinate system on the monitor 26.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 グループに属する画像をユーザにわかりやすく認識させることができる画像表示装置を提供する。  ライブラリビュー画像分類部(134)が、ライブラリビュー画像取得部(132)が取得する複数の画像を、順位が関連付けられた1又は複数のグループに分類する。ライブラリビューグループ画像配置部(136)が、表示領域内に設けられるグループ画像配置基準線に沿って、各グループに対応するグループ画像を、グループの順位に従って配置する。ライブラリビュー代表画像配置部(140)が、表示領域内の代表画像配置領域に、この代表画像配置領域に対応するグループ画像配置基準線上の範囲に対応するグループのうちのいずれかに属する画像を代表画像として配置する。ライブラリビュー空間表示部(130)が、表示領域の少なくとも一部を画面に表示する。

Description

画像表示装置、画像表示方法及び情報記憶媒体
 本発明は、画像表示装置、画像表示方法及び情報記憶媒体に関する。
 近年、デジタルカメラで撮影した画像や、インターネットから取得した画像など、個人が保有する画像の数は膨大になっており、それらを効率よく閲覧するための各種コンピュータソフトウェアが知られている。
 例えば、その撮影日付などの属性により画像をグループ分けして、属するグループを明示しつつ各画像を表示するソフトウェアによると、多数の画像をわかりやすくユーザに閲覧させることができる。具体的には、例えば、同じグループに属する画像を、フォルダを表す画像上にまとめて表示するソフトウェアが存在する。また、同じグループに属する画像を、テーブルを表す画像上の所定の場所に一部を重ねて表示するソフトウェアも存在する。
 また、このようなコンピュータソフトウェアでは、拡大表示の対象とすべき画像の選択処理などのように、複数の画像のうちから1つの画像を選択する処理の対象として、画像を特定するためのカーソル画像が用いられることが多い。カーソル画像は、例えば、特定される画像の上に重ねて表示される矢印の画像や、特定される画像の周囲を囲む枠状の画像として表示されたりする。
 また、フォルダやファイルなどの存在を示すアイコンや、動画像や静止画像などといった表示要素を表示する装置が存在する。パーソナルコンピュータなどにおいては、フォルダやファイルなどの存在を示すアイコンや、動画像、静止画像などといった表示要素のうちの1つを識別するために、カーソル画像が一般的に用いられている。そして、ユーザがカーソル画像をキーボードやマウス等といった操作手段により移動させ、複数の表示要素のうちのいずれか1つを識別した状態で、操作手段により表示などの処理を指示する(例えば、マウスをクリックする)と、その識別されている表示要素に対して表示などの処理が実行される。
 特許文献1には、人物の顔を表す画像を表示する顔画像表示装置に関する技術が開示されている。
欧州特許出願公開第1923835号明細書
 しかし、従来のソフトウェアでは、属するグループを明示しつつグループに属する画像を画面に表示すると、個々の画像が画面上に占める領域が小さく表示されることが多かった。そのため、従来のソフトウェアでは、グループに属する画像をユーザにわかりやすく認識させることが困難であった。
 また、矢印の画像などのカーソル画像が特定される画像の上に重ねて表示されると、特定される画像自体が見えづらくなってしまいユーザにとって不便である。一方で、特定される画像の周囲を囲む枠状のカーソル画像は、一点を指し示さないため、画像が選択されていない際には、カーソル画像が指し示す位置がわかりにくくなってしまう。
 また、表示要素を拡大して画面に少数の表示要素しか表示されないようにしたり、表示要素を縮小して画面に多数の表示要素が表示されるようにすると、ユーザの必要に応じて多くの表示要素を概観したり、あるいは、少数の表示要素を詳細に見たり、などといったことができるようになり、ユーザの利便性が向上する。しかし、従来技術によれば、画面に多数の表示要素が表示されているときと、少数の表示要素が表示されているときとでは、カーソル画像などにより1つの表示要素を識別することを表示する態様が同様のものとなっている。そのため、多数の表示要素を表示している際における、1つの表示要素を識別する(例えば、目立たせる)ことを表示する態様は、少数の表示要素を表示している際における、1つの表示要素を識別することを表示する態様としては、ユーザに対して識別の程度が強すぎる印象(例えば、うるさい印象)を与える可能性がある。この場合は、少数の表示要素を表示している際には、ユーザは識別されている表示要素を認識することが困難となってしまう。
 また、グループに属する各画像などの表示要素を、グループ内において順位に関連付けることができる場合がある。具体的には、例えば、撮影日付によって分類されたグループに属する各表示要素を、撮影時刻順にソートすることによって、順位と関連付けることができる。このような場合に、ユーザが、グループ内における各表示要素の順位を容易に判別できることが望ましい。しかし、従来のソフトウェアでは、グループを明示しつつ各表示要素を表示することは可能であったが、各画像のグループ内における順位がユーザにわかりやすく提示されているとはいえなかった。
 本発明は上記課題に鑑みてなされたものであって、その目的の1つは、グループに属する画像をユーザにわかりやすく認識させることができる画像表示装置、画像表示方法及び情報記憶媒体を提供することにある。
 また、本発明の別の目的は、画像が見えづらくなることを防ぎつつ、指し示す対象がわかりやすいカーソル機能を備えた画像表示装置、画像表示方法及び情報記憶媒体を提供することにある。
 また、本発明のさらに別の目的は、ユーザの必要に応じて表示要素を拡大したり縮小したりして表示する際に、識別されている表示要素をユーザが認識しやすくなる画像表示装置、画像表示方法及び情報記憶媒体を提供することにある。
 また、本発明のさらに別の目的は、まとめて表示される複数の表示要素について、それら複数の表示要素のうちにおける各表示要素の順位をわかりやすくユーザに提示することができる画像表示装置、画像表示方法及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像表示装置は、複数の画像を取得する画像取得手段と、前記複数の画像を、順位が関連付けられた1又は複数のグループに分類する画像分類手段と、表示領域内に設けられるグループ画像配置基準線に沿って、前記各グループに対応するグループ画像を、前記グループの順位に従って配置するグループ画像配置手段と、前記表示領域内の代表画像配置領域に、当該代表画像配置領域に対応する前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する代表画像配置手段と、前記表示領域の少なくとも一部を画面に表示する表示手段と、を含むことを特徴とする。
 また、本発明に係る画像表示方法は、複数の画像を取得する画像取得ステップと、前記複数の画像を、順位が関連付けられた1又は複数のグループに分類する画像分類ステップと、表示領域内に設けられるグループ画像配置基準線に沿って、前記各グループに対応するグループ画像を、前記グループの順位に従って配置するグループ画像配置ステップと、前記表示領域内の代表画像配置領域に、当該代表画像配置領域に対応する前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する代表画像配置ステップと、前記表示領域の少なくとも一部を画面に表示する表示ステップと、を含むことを特徴とする。
 また、本発明に係る情報記憶媒体は、複数の画像を取得する画像取得手段、前記複数の画像を、順位が関連付けられた1又は複数のグループに分類する画像分類手段、表示領域内に設けられるグループ画像配置基準線に沿って、前記各グループに対応するグループ画像を、前記グループの順位に従って配置するグループ画像配置手段、前記表示領域内の代表画像配置領域に、当該代表画像配置領域に対応する前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する代表画像配置手段、前記表示領域の少なくとも一部を画面に表示する表示手段、としてコンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
 本発明によると、複数の画像が分類される1又は複数のグループのうちのいずれかに属する画像が代表画像として表示領域内の代表画像配置領域に配置される。そして、代表画像配置領域と、表示領域内のグループ画像配置基準線上の範囲と、は対応している。そして、表示領域の少なくとも一部がユーザに表示される。そのため、グループに属する画像をユーザにわかりやすく認識させることができる。
 本発明の一態様では、前記グループ画像配置基準線の位置又は前記グループ画像が配置されている位置の少なくとも一方に基づいて、前記代表画像配置領域の位置を決定する代表画像配置領域位置決定手段、をさらに含むことを特徴とする。こうすれば、グループ画像配置基準線の位置又はグループ画像が配置されている位置を考慮した代表画像配置領域の決定が可能となる。
 また、本発明の一態様では、前記代表画像配置手段が、前記代表画像配置領域内の代表点からの距離に基づいて決定される前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置することを特徴とする。こうすれば、代表画像配置領域内の代表点と、グループ画像配置基準線上の範囲と、の位置関係に基づいて、代表画像として配置される画像を決定することができる。
 また、本発明の一態様では、前記代表画像配置手段が、順位が連続する複数の前記グループのうちのいずれかに属する前記画像を代表画像として配置することを特徴とする。こうすれば、代表画像と順位が連続するグループとを対応付けることができる。
 また、本発明の一態様では、前記代表画像配置手段が、乱数に基づいて選択される前記画像を代表画像として配置することを特徴とする。こうすれば、複数の画像のうちからランダムに代表画像が決定される。
 また、本発明の一態様では、前記代表画像が所定時間毎に切り替わることを特徴とする。こうすれば、1つの代表画像配置領域に所定時間毎に切り替わる複数の代表画像を配置することができる。
 また、本発明の一態様では、前記画像分類手段が、前記各画像に関連付けられている属性に基づいて、前記1又は複数のグループに分類することを特徴とする。こうすれば、複数の画像それぞれに関連付けられる属性に基づいて分類される1又は複数のグループのうちのいずれかに属する画像を代表画像として表示領域内の代表画像配置領域に配置することができる。
 また、本発明の一態様では、前記表示領域内に前記代表画像配置領域が複数存在することを特徴とする。こうすれば、各代表画像配置領域に対応するグループ画像配置基準線上の範囲に対応するグループのうちのいずれかに属する画像を代表画像として配置することができる。
 この態様では、前記代表画像配置手段は、前記各代表画像配置領域について、当該代表画像配置領域内の代表点からの距離が所定の範囲内である他の前記代表画像配置領域内に配置される画像とは異なる画像を、当該代表画像配置領域内に代表画像として配置してもよい。こうすれば、複数の代表画像配置領域に共通して対応するグループ画像配置基準線上の範囲に対応するグループのいずれかに属する画像が、これらの代表画像配置領域のうちのいくつかに重複して配置されることを防ぐことができる。
 また、本発明に係る別の画像表示装置は、仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置であって、前記仮想3次元空間内の配置面上に少なくとも1つの対象画像を配置する対象画像配置手段と、前記配置面上に閉領域を示すカーソル画像を配置するカーソル画像配置手段と、ユーザから受け付ける操作信号に応じて、前記カーソル画像を前記配置面に沿って移動させるカーソル画像移動手段と、前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記視点から前記対象画像までの距離が、前記視点から前記カーソル画像までの距離よりも短くなるよう、前記カーソル画像と前記対象画像との相対的な位置関係を変化させる画像位置関係変化手段と、を含むことを特徴とする。
 また、本発明に係る別の画像表示方法は、仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示方法であって、前記仮想3次元空間内の配置面上に少なくとも1つの対象画像を配置する対象画像配置ステップと、前記配置面上に閉領域を示すカーソル画像を配置するカーソル画像配置ステップと、ユーザから受け付ける操作信号に応じて、前記カーソル画像を前記配置面に沿って移動させるカーソル画像移動ステップと、前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記視点から前記対象画像までの距離が、前記視点から前記カーソル画像までの距離よりも短くなるよう、前記カーソル画像と前記対象画像との相対的な位置関係を変化させる画像位置関係変化ステップと、含むことを特徴とする。
 また、本発明に係る別の情報記憶媒体は、仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体であって、前記仮想3次元空間内の配置面上に少なくとも1つの対象画像を配置する対象画像配置手段、前記配置面上に閉領域を示すカーソル画像を配置するカーソル画像配置手段、ユーザから受け付ける操作信号に応じて、前記カーソル画像を前記配置面に沿って移動させるカーソル画像移動手段、前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記視点から前記対象画像までの距離が、前記視点から前記カーソル画像までの距離よりも短くなるよう、前記カーソル画像と前記対象画像との相対的な位置関係を変化させる画像位置関係変化手段、として前記コンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
 本発明によると、カーソル画像の位置と対象画像の位置との間の距離が所定の範囲内である場合に、対象画像がカーソル画像よりも視点側に配置されるので、対象画像が見えづらくなることを防ぐことができる。そして、カーソル画像の位置と対象画像の位置との間の距離が所定の範囲内である場合に、カーソル画像と対象画像との相対的な位置関係が変化するので、指し示す対象である対象画像がユーザにわかりやすく提示される。そのため、画像が見えづらくなることを防ぎつつ、指し示す対象をユーザにわかりやすく提示することができる。
 本発明の一態様では、前記画像位置関係変化手段が、前記対象画像の前記配置面からの距離を変化させることを特徴とする。こうすれば、対象画像と配置面との距離が変化するので、指し示す対象となる対象画像がユーザにわかりやすく提示される。
 また、本発明の一態様では、前記カーソル画像が前記対象画像よりもサイズが大きいことを特徴とする。こうすれば、対象画像がカーソル画像よりも視点側に配置される場合でも、カーソル画像の位置をユーザに認識させることができる。
 また、本発明の一態様では、前記カーソル画像移動手段が、前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記カーソル画像内の代表点と前記対象画像内の代表点との間の距離に応じて前記カーソル画像と前記対象画像とを接近させることを特徴とする。こうすれば、カーソル画像の位置と対象画像の位置との間の距離が所定の範囲内であれば、カーソル画像と対象画像とが接近するので、対象画像を容易に指し示すことが容易となる。
 また、本発明に係るさらに別の画像表示装置は、複数の表示要素が配置された領域のうちの少なくとも一部を表す画像を画面に表示する画像表示手段と、前記画面に表示される前記複数の表示要素のうちの少なくとも1つを識別して表示する識別表示手段と、ユーザから受け付ける操作信号に応じて、前記画面に表示される前記領域のサイズを変化させる領域サイズ変化手段と、前記画面に表示される前記領域のサイズの変化に応じて、前記識別の程度を変化させる識別程度変化手段と、を含むことを特徴とする。
 また、本発明に係るさらに別の画像表示方法は、複数の表示要素が配置された領域のうちの少なくとも一部を表す画像を画面に表示する画像表示ステップと、前記画面に表示された前記複数の表示要素のうちの少なくとも1つを識別して表示する識別表示ステップと、ユーザから受け付ける操作信号に応じて、前記画面に表示される前記領域のサイズを変化させる領域サイズ変化ステップと、前記画面に表示される前記領域のサイズに応じて、前記識別の程度を変化させる識別程度変化ステップと、を含むことを特徴とする。
 また、本発明に係るさらに別の情報記憶媒体は、複数の表示要素が配置された領域のうちの少なくとも一部を表す画像を画面に表示する画像表示手段、前記画面に表示された前記複数の表示要素のうちの少なくとも1つを識別して表示する識別表示手段、ユーザから受け付ける操作信号に応じて、前記画面に表示される前記領域のサイズを変化させる領域サイズ変化手段、前記画面に表示される前記領域のサイズに応じて、前記識別の程度を変化させる識別程度変化手段、としてコンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
 本発明によると、ユーザから受け付ける操作信号に応じて画面に表示される領域のサイズが変化する際に、そのサイズの変化に応じて表示要素の識別の程度が変化するので、ユーザの必要に応じて表示要素を拡大したり縮小したりして表示する際に、識別されている表示要素をユーザが認識しやすくなる。
 本発明の一態様では、前記画像表示手段が、前記複数の表示要素のオブジェクトが配置された仮想3次元空間内の表示要素配置面を、前記仮想3次元空間内に配置された視点から見た様子を表す画像を画面に表示し、前記識別表示手段が、前記画面に表示された前記複数の表示要素のオブジェクトのうちの少なくとも1つを識別して表示し、前記領域サイズ変化手段が、ユーザから受け付ける操作信号に応じて、前記視点と前記表示要素配置面との間の距離を変化させ、前記識別程度変化手段が、前記視点と前記表示要素配置面との間の距離の変化に応じて、前記表示要素のオブジェクトの前記表示要素配置面からの距離を変化させることを特徴とする。こうすれば、ユーザから受け付ける操作信号に応じて視点と表示要素配置面との距離が変化する際に、その距離の変化に応じて表示要素の識別の程度が変化するので、ユーザの必要に応じて表示要素を拡大したり縮小したりして表示する際に、識別されている表示要素をユーザが認識しやすくなる。
 また、本発明の一態様では、前記表示要素のうちの少なくとも1つを指し示すカーソル画像を、識別して表示される前記表示要素に対応する位置に配置するカーソル画像配置部、をさらに含み、前記識別程度変化手段が、前記カーソル画像の表示態様を変化させることを特徴とする。こうすれば、ユーザから受け付ける操作信号に応じて画面に表示される領域のサイズが変化する際に、そのサイズの変化に応じてカーソル画像の表示態様が変化するので、ユーザの必要に応じて表示要素を拡大したり縮小したりして表示する際に、識別されている表示要素をユーザが認識しやすくなる。
 この態様では、前記識別程度変化手段が、前記カーソル画像の透明度を変化させてもよい。こうすれば、ユーザから受け付ける操作信号に応じて画面に表示される領域のサイズが変化する際に、そのサイズの変化に応じてカーソル画像の透明度が変化するので、ユーザの必要に応じて表示要素を拡大したり縮小したりして表示する際に、識別されている表示要素をユーザが認識しやすくなる。
 また、本発明に係るさらに別の画像表示装置は、仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置であって、順位に関連付けられている複数の表示要素を取得する表示要素取得手段と、前記各表示要素に関連付けられている順位に従って、前記仮想3次元空間内に設けられている配置面に接近するとともに、前記配置面上の基準点を通る前記配置面に対して垂直な線から離間するものが多く現れるよう、前記各表示要素を配置する表示要素配置手段と、前記視点から前記各表示要素を見た様子を表す画像を表示する画像表示手段と、を含むことを特徴とする。
 また、本発明に係るさらに別の画像表示方法は、仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示方法であって、順位に関連付けられている複数の表示要素を取得する表示要素取得ステップと、前記各表示要素に関連付けられている順位に従って、前記仮想3次元空間内に設けられている配置面に接近するとともに、前記配置面上の基準点を通る前記配置面に対して垂直な線から離間するものが多く現れるよう、前記各表示要素を配置する表示要素配置ステップと、前記視点から前記各表示要素を見た様子を表す画像を表示する画像表示ステップと、を含むことを特徴とする。
 また、本発明に係るさらに別の情報記憶媒体は、仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体であって、順位に関連付けられている複数の表示要素を取得する表示要素取得手段、前記各表示要素に関連付けられている順位に従って、前記仮想3次元空間内に設けられている配置面に接近するとともに、前記配置面上の基準点を通る前記配置面に対して垂直な線から離間するものが多く現れるよう、前記各表示要素を配置する表示要素配置手段、前記視点から前記各表示要素を見た様子を表す画像を表示する画像表示手段、としてコンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体である。
 本発明によると、表示要素に関連付けられている順位に従って、配置面上の基準点を通る、配置面に対して垂直な線から離間するものが多く現れるよう、各表示要素が配置されるので、ユーザは、表示要素が配置されている位置の、配置面上の基準点を通る、配置面に対して垂直な線からの距離に基づいて、各表示要素の順位を認識することができる。このようにして、まとめて表示される複数の画像について、それら複数の画像のうちにおける各画像の順位をわかりやすくユーザに提示することができる。
 本発明の一態様では、前記各表示要素について、当該表示要素に関連付けられている順位に対応する大きさの前記配置面上の基準点を中心とする前記配置面上の配置領域を決定する配置領域決定手段、をさらに含み、前記表示要素配置手段が、前記各表示要素について、前記配置領域決定手段により当該表示要素について決定される前記配置領域内の位置に基づく位置に当該表示要素を配置することを特徴とする。こうすれば、表示要素が配置される位置の基礎となる配置領域の大きさと各画像の順位とが対応することになるので、まとめて表示される複数の画像について、それら複数の画像のうちにおける各画像の順位をわかりやすくユーザに提示することができる。
 この態様では、前記配置領域決定手段が、前記各表示要素について、当該表示要素に関連付けられている順位に従って大きくなる前記配置領域を決定してもよい。こうすれば、表示要素が配置される位置の基礎となる配置領域の大きさと各画像の順位とが、順位に従って配置領域が大きくなるよう対応することになるので、まとめて表示される複数の画像について、それら複数の画像のうちにおける各画像の順位をわかりやすくユーザに提示することができる。
 また、この態様では、前記表示要素配置手段が、前記各表示要素について、乱数に基づいて前記配置領域内の位置を決定して、当該決定される位置に基づく位置に当該表示要素を配置してもよい。こうすれば、各表示要素が配置される位置の基礎となる位置が配置領域内においてランダムに決定されるので、まとめて表示される複数の画像が配置される位置に散らばりを持たせることができる。
 また、本発明の一態様では、前記表示要素配置手段が、前記各表示要素について、当該表示要素に関連付けられている順位に対応する前記配置面上の基準点からの距離に基づいて決定される前記配置面上の位置に当該表示要素を配置することを特徴とする。こうすれば、表示要素が配置される位置の基礎となる配置面上の位置の基準点からの距離と各画像の順位とが対応することになるので、まとめて表示される複数の画像について、それら複数の画像のうちにおける各画像の順位をわかりやすくユーザに提示することができる。
 この態様では、前記表示要素配置手段が、前記各表示要素について、当該表示要素に関連付けられている順位に従って長くなる前記配置面上の基準点からの距離に基づいて決定される前記配置面上の位置に当該表示要素を配置してもよい。こうすれば、表示要素が配置される位置の基礎となる配置面上の位置の基準点からの距離と各画像の順位とが、順位に従って基準点からの距離が長くなるよう対応することになるので、まとめて表示される複数の画像について、それら複数の画像のうちにおける各画像の順位をわかりやすくユーザに提示することができる。
 また、本発明の一態様では、表示要素配置手段が、前記各表示要素について、当該表示要素に対応する角度だけ回転させて前記配置面上に配置することを特徴とする。こうすれば、各画像が配置される際の回転角度に散らばりをもたせることができる。
本発明の一実施形態に係る画像表示装置として用いられるエンタテインメントシステムのハードウェア構成の一例を示すハードウェア構成図である。 MPUの詳細の一例を示す詳細構成図である。 コントローラの一例を示す斜視図である。 コントローラの一例を示す上側面図である。 本実施形態に係るライブラリビュー画面の一例を示す図である。 本実施形態に係るライブラリビュー空間の全体像の一例を示す斜視図である。 本実施形態に係るタイルビュー画面の一例を示す図である。 本実施形態に係るタイルビュー画面の一例を示す図である。 本実施形態に係るタイルビュー空間の全体像の一例を示す斜視図である。 本発明の一実施形態に係る画像表示装置の機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る画像表示装置の機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る画像表示装置の機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る画像表示装置の機能の一例を示す機能ブロック図である。 本実施形態に係る画像表示装置で行われる処理のフローの一例を示す図である。 グループ画像オブジェクト配置基準線の一例を示す図である。 グループ画像配置領域の一例を示す図である。 グループ画像配置領域の別の一例を示す図である。 本実施形態に係る画像表示装置で行われる処理のフローの一例を示す図である。 順位と表示要素配置領域サイズとの関係の一例を示す図である。 表示要素配置領域の一例を示す図である。 落下開始基準点の決定方法の一例を示す説明図である。 落下開始基準点の決定方法の一例を示す説明図である。 代表画像配置候補領域の決定方法の一例を示す説明図である。 代表画像の決定方法の一例を示す説明図である。 影響領域内に、ライブラリビューカーソル画像オブジェクト中心が配置されていない様子の一例を示す図である。 影響領域内に、ライブラリビューカーソル画像オブジェクト中心が配置されている様子の一例を示す図である。 写真画像オブジェクトを配置面オブジェクトから離間させる距離と、視点と配置面オブジェクトとの間の距離との関係の一例を示す図である。 本実施形態に係る画像表示装置で行われる処理のフローの一例を示す図である。 操作信号移動量ベクトル、引力移動量ベクトル、及び、全移動量ベクトルの一例を示す図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1は、本実施形態に係るエンタテインメントシステム(画像表示装置)10のハードウェア構成を示す図である。図1に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、コントローラ42と、カメラユニット46と、ネットワークインタフェース48と、を含んで構成されるコンピュータシステムである。
 図2は、MPU11の構成を示す図である。図2に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a,14b,14c,14d,14e,14f,14g,14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。
 メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)-ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、各種情報処理を行ったり、サブプロセッサ14a乃至14hに対する制御を行ったりする。
 サブプロセッサ14a乃至14hは、メインプロセッサ12からの指示に従って、各種情報処理を行ったり、エンタテインメントシステム10の各部を、例えばDVD-ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて制御したりする。
 バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a乃至14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。
 メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、メインメモリ20へのアクセスを行う。メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a乃至14hの作業用としても用いられる。
 インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a乃至14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。
 画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a乃至14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。なお、モニタ26には例えば家庭用テレビ受像機が用いられる。
 入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a乃至14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44、ネットワークインタフェース48と、の間のデータ授受を制御する。
 音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク36やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。
 光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他のコンピュータ読み取り可能な情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。
 光ディスク36は例えばDVD-ROM等の一般的な光ディスク(コンピュータ読み取り可能な情報記憶媒体)である。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。
 インタフェース(I/F)40,44は、コントローラ42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。
 コントローラ42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとにコントローラ42の各部の状態をスキャンし、その結果を表す操作状態をメインプロセッサ12やサブプロセッサ14a乃至14hに供給する。メインプロセッサ12やサブプロセッサ14a乃至14hは、ユーザによって行われた操作の内容をその操作状態に基づいて判断する。なお、エンタテインメントシステム10は複数のコントローラ42を接続可能に構成されており、各コントローラ42から入力される操作状態に基づいて、メインプロセッサ12やサブプロセッサ14a乃至14hが各種処理を実行するようになっている。
 カメラユニット46は、例えば公知のデジタルカメラを含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをユーザに向けた状態でモニタ26の上に設置され、ケーブルを介してインタフェース44に接続される。ネットワークインタフェース48は入出力処理部28とネットワークとに接続されており、エンタテインメントシステム10がネットワークを介して他のエンタテインメントシステム10とデータ通信するのを中継するようになっている。
 図3Aは、コントローラ42の一例を示す斜視図である。図3Bは、コントローラ42の一例を示す上側面図である。図3Aに示すように、コントローラ42は、コントローラケーブル62によってエンタテインメントシステム10に接続され、表面42aの左側に方向ボタン群60(左方向ボタン60L、右方向ボタン60R、上方向ボタン60U、及び、下方向ボタン60D)及び左操作スティック54が設けられ、右側にボタン群58(左ボタン58L、右ボタン58R、上ボタン58U、及び、下ボタン58D)及び右操作スティック56が設けられている。また、図3Bに示すように、コントローラ42の奥側側面には、表面42a側左右に第1の左ボタン50L、第1の右ボタン50Rがそれぞれ設けられており、裏面側左右に第2の左ボタン52L、第2の右ボタン52Rがそれぞれ設けられている。そして、コントローラ42の筐体左右をユーザが両手で持つと、左手親指が方向ボタン群60及び左操作スティック54に位置し、右手親指がボタン群58及び右操作スティック56に位置するようになっており、右手人指し指又は中指のいずれか少なくとも一方が、第1の右ボタン50R又は第2の右ボタン52Rに位置し、左手人指し指又は中指のいずれか少なくとも一方が、第1の左ボタン50L又は第2の左ボタン52Lに位置するようになっている。
 方向ボタン群60、ボタン群58、第1の左ボタン50L、第1の右ボタン50R、第2の左ボタン52L、第2の右ボタン52Rは感圧ボタンとして構成されており、圧力センサを備えている。そして、これらのボタンをユーザが押下すると、その押圧力に応じて0~255の値を有する256段階のディジタル値がエンタテインメントシステム10に入力されるようになっている。つまり、エンタテインメントシステム10では、コントローラ42から入力されるディジタル値が0の場合にはそのボタンが押下されておらず、255の場合には最大押圧力でボタンが押下されていること等を該ディジタル値から判断できるようになっている。
 左操作スティック54及び右操作スティック56は、コントローラ42の筐体表面に直立したスティック状の操作部材であり、この直立状態から全方位に所定角度だけ傾倒自在となっている。図3Aに示すように、コントローラ42の筐体長手方向をX軸方向(図3Aにおいて右方向を正方向とする。)とし、このX軸方向に直交する筐体奥行き方向をY軸方向(図3Aにおいて手前から奥に向かう方向を正方向とする。)とすると、左操作スティック54の姿勢(操作状態)は、X軸方向及びY軸方向の傾き(姿勢データ(X,Y))として、それぞれ0~255のディジタル値がエンタテインメントシステム10に入力されるようになっている。具体的には、X=127やX=128付近は、左操作スティック54がX軸方向に傾いていないことを示す。また、X=255は、左操作スティック54がX軸の正方向(図3Aにおいて右方向)に限界まで倒れていることを示す。さらに、X=0は、左操作スティック54がX軸の負方向(図3Aにおいて左方向)に限界まで倒れていることを示す。Y軸方向についても同様である。また、右操作スティック56についても左操作スティック54の場合と同様である。こうして、エンタテインメントシステム10では、左操作スティック54及び右操作スティック56の現在の傾き状態(姿勢)を把握できるようになっている。また、左操作スティック54及び右操作スティック56は、方向ボタン群60やボタン群58等と同様の感圧ボタンとしても構成されており、スティックの軸方向に押下できるようになっている。
 また、コントローラ42は、内蔵振動子(バイブレータ)を備えている。そして、MPU11からの指示によって、このバイブレータは振動する。
 以下、以上のハードウェア構成を有するエンタテインメントシステム10を、画像表示装置として構成する一実施形態について説明する。
 まず、本実施形態の概要について説明する。
 図4は、画像表示装置として動作中のエンタテインメントシステム10のモニタ26に表示される画面の一例であるライブラリビュー画面70の一例を示す図である。図4に示すライブラリビュー画面70は、仮想3次元空間(本実施形態では、例えば、図5に示すライブラリビュー空間72)を可視化したものである。具体的には、例えば、L判の白縁付き写真を示す仮想的な3次元モデルである写真画像オブジェクト74が多数配置されたライブラリビュー空間72を、同空間内の視点76から見た様子を公知の3次元コンピュータグラフィックス技術によりリアルタイムに画像化することで、ライブラリビュー画面70が生成される。
 図5は、ライブラリビュー空間72の全体像の一例を示す斜視図である。図5に示すように、ライブラリビュー空間72には、1又は複数の写真画像オブジェクト74から構成されるグループ画像オブジェクト78が、仮想3次元空間内に設けられている配置面オブジェクト80上に配置されている。このように、写真画像オブジェクト74はグループ毎にまとめられている。各3次元モデルはポリゴンにより構成されており、各写真画像オブジェクト74には、ユーザが保有している、例えばデジタルカメラで撮ったりインターネット経由で取得したりした写真画像がテクスチャとしてマッピングされる。そして、各グループ画像オブジェクト78を構成する1又は複数の写真画像オブジェクト74には、例えば同じ撮影日付である等、共通の属性を有する写真画像がテクスチャとしてマッピングされている。なお、グループ画像オブジェクト78の近傍に、その共通の属性を示す文字列が表示されていてもよい。
 なお、上述の共通の属性は、例えば、「子供が映っている可能性がある写真」、「大人が映っている可能性がある写真」などのような、被写体の種類を示す属性や、「赤っぽい写真」、「青っぽい写真」などのような、写真の色を示す属性などであっても構わない。
 そして、ライブラリビュー画面70には、複数の楕円型の代表画像オブジェクト82が配置されている。この代表画像オブジェクト82には、その近傍のグループ画像オブジェクト78を構成する写真画像オブジェクト74にマッピングされている写真画像のうちのいずれかに対応する画像が、グループ画像オブジェクト78を構成する写真画像オブジェクト74よりも大きく表示されている。
 そして、本実施形態では、代表画像オブジェクト82にマッピングされる写真画像は、所定の時間間隔で切り替わるようになっている。
 なお、代表画像オブジェクト82の外郭が平滑化されていても(すなわち、ぼかされていても)構わない。また、本実施形態では、代表画像オブジェクト82にマッピングされる写真画像は、代表画像オブジェクト82の外郭に沿って、トリミングされている。
 また、ライブラリビュー空間72には、円型の閉領域を示すライブラリビューカーソル画像オブジェクト84が配置されている。ライブラリビューカーソル画像オブジェクト84は、その中央部が半透明に光ってライブラリビュー画面70に表示される。このようにして、ユーザは、ライブラリビューカーソル画像オブジェクト84の中央部を認識することができる。図4及び図5の例では、1つのグループ画像オブジェクト78(選択グループ画像オブジェクト78a)がライブラリビューカーソル画像オブジェクト84により指し示されている。
 図5に例示するライブラリビュー空間72は、エンタテインメントシステム10のメインメモリ20上に仮想的に構築されるものであり、広大な平板状の配置面オブジェクト80上には、グループ画像オブジェクト配置基準線86に沿って、グループ画像オブジェクト78がほぼ等間隔に配置されている。そして、グループ画像オブジェクト78が配置されている領域とは異なる領域に、代表画像配置領域88が複数設けられている。各代表画像配置領域88には、近傍のグループ画像オブジェクト78を構成する写真画像オブジェクト74にマッピングされている写真画像のうちのいずれかがマッピングされた代表画像オブジェクト82が配置される。
 そして、配置面オブジェクト80の上方には視点76が設けられている。本実施形態に係るエンタテインメントシステム10では、リアルタイムに、すなわち所定時間(例えば1/60秒)毎に視点76から視線方向を見た様子を表す画像を生成して、これをモニタ26に表示するようにしている。
 ライブラリビュー画面70がモニタ26に表示されている際に、ユーザが、コントローラ42を操作することで、ライブラリビューカーソル画像オブジェクト84は移動する。
 また、ライブラリビュー画面70がモニタ26に表示されている際に、ユーザが、コントローラ42を操作することで、視点76が配置面オブジェクト80に近づいたり(ズームイン)遠ざかったり(ズームアウト)する。すなわち、ユーザが、モニタ26に表示されている配置面オブジェクト80上の領域(表示領域)のサイズを変更することができる。
 図6A及び図6Bは、画像表示装置として動作中のエンタテインメントシステム10のモニタ26に表示される画面の別の一例であるタイルビュー画面90の一例を示す図である。図6A及び図6Bに示すタイルビュー画面90は、ライブラリビュー画面70と同様に、仮想3次元空間(本実施形態では、例えば、図7に示すタイルビュー空間92)を可視化したものである。具体的には、例えば、L判の白縁付き写真を示す仮想的な3次元モデルである写真画像オブジェクト74が多数配置されたタイルビュー空間92を、同空間内の視点76から見た様子を公知の3次元コンピュータグラフィックス技術によりリアルタイムに画像化することで、タイルビュー画面90が生成される。図7は、タイルビュー空間92の全体像の一例を示す斜視図である。図6A、図6B及び図7に示すように、タイルビュー空間92では、写真画像オブジェクト74が上述のグループ画像オブジェクト78に対応するグループ毎に分けられて、それぞれのグループについて配置面オブジェクト80上に整列して配置されている。各グループを構成する写真画像オブジェクト74には、上述のように、共通の属性を有する写真画像がテクスチャとしてマッピングされている。なお、各グループの近傍には、上述の共通の属性や、グループに属する枚数などを示す文字列が表示されていてもよい。
 そして、写真画像オブジェクト74のうちの1つ(選択写真画像オブジェクト74a)と、配置面オブジェクト80と、の間にタイルビューカーソル画像オブジェクト94が配置されている。本実施形態では、タイルビューカーソル画像オブジェクト94は、例えば、半透明の角が円く形成されている四角形の画像である。そして、本実施形態では、タイルビューカーソル画像オブジェクト94により指し示される選択写真画像オブジェクト74aは、配置面オブジェクト80から離間して配置されている。
 図7に例示するタイルビュー空間92は、エンタテインメントシステム10のメインメモリ20上に仮想的に構築されるものであり、広大な平板状の配置面オブジェクト80上には、グループ毎に間隔を空けて、写真画像オブジェクト74が整列して配置されている。配置面オブジェクト80の上方には視点76が設けられている。本実施形態に係るエンタテインメントシステム10では、リアルタイムに、すなわち所定時間(例えば1/60秒)毎に視点76から視線方向を見た様子を表す画像を生成して、この画像をモニタ26に表示するようにしている。
 タイルビュー画面90がモニタ26に表示されている際に、ユーザが、コントローラ42を操作することで、タイルビューカーソル画像オブジェクト94が移動する。
 また、タイルビュー画面90がモニタ26に表示されている際に、ユーザが、コントローラ42を操作することで、視点76が配置面オブジェクト80に近づいたり(ズームイン)遠ざかったり(ズームアウト)する。すなわち、ユーザが、モニタ26に表示されている配置面オブジェクト80上の領域(表示領域)のサイズを変更することができる。具体的には、例えば、図6Aに示すタイルビュー画面90がモニタ26に表示されている際において、ユーザがズームイン操作を行うと、図6Bに示すタイルビュー画面90がモニタ26に表示されるようになる。
 なお、モニタ26に表示される画面は上述の画面に限定されない。具体的には、例えば、お気に入りの写真画像オブジェクト74が配置されているプレイリスト空間(図示せず)を視点76の位置から見た様子を表す画像を生成して、その画像をモニタ26にプレイリスト画面(図示せず)として表示するようにしてもよい。
 次に、本実施形態に係るエンタテインメントシステム10で実現される機能について説明する。図8A、図8B、図8C及び図8Dは、本実施形態に係るエンタテインメントシステム10で実現される機能の一例を示す機能ブロック図である。
 図8Aに例示するように、この実施形態に係るエンタテインメントシステム10は、機能的には、画像記憶部100、操作信号受付部102、ビュー切替部104、ライブラリビュー空間生成表示部106、ライブラリビューカーソル画像移動部108、ライブラリビュー画像位置関係変化部110、ライブラリビュー視点移動部112、ライブラリビュー識別程度変化部114、タイルビュー空間生成表示部116、タイルビューカーソル画像移動部118、タイルビュー画像位置関係変化部120、タイルビュー視点移動部122、タイルビュー識別程度変化部124、を含むものとして機能する。なお、エンタテインメントシステム10がこれらの要素をすべて備えている必要はない。そして、これらの要素のうち、画像記憶部100は、メインメモリ20やハードディスク38などといった、エンタテインメントシステム10が備える記憶装置を主として実現される。操作信号受付部102、ビュー切替部104、ライブラリビュー空間生成表示部106、ライブラリビューカーソル画像移動部108、ライブラリビュー画像位置関係変化部110、ライブラリビュー視点移動部112、ライブラリビュー識別程度変化部114、タイルビュー空間生成表示部116、タイルビューカーソル画像移動部118、タイルビュー画像位置関係変化部120、タイルビュー視点移動部122、タイルビュー識別程度変化部124、は、MPU11などといった、エンタテインメントシステム10が備える制御装置を主として実現される。
 そして、図8Bに例示するように、ライブラリビュー空間生成表示部106は、ライブラリビュー対象画像配置部126と、ライブラリビューカーソル画像配置部128と、ライブラリビュー空間表示部130と、を含んで構成されている。そして、ライブラリビュー対象画像配置部126は、ライブラリビュー画像取得部132と、ライブラリビュー画像分類部134と、ライブラリビューグループ画像配置部136と、ライブラリビュー代表画像配置領域決定部138と、ライブラリビュー代表画像配置部140と、を含んで構成されている。
 そして、図8Cに例示するように、ライブラリビューグループ画像配置部136は、グループ画像配置領域決定部142、表示要素取得部144と、表示要素配置領域決定部146と、表示要素配置部148と、を含んで構成されている。
 そして、図8Dに例示するように、タイルビュー空間生成表示部116は、タイルビュー対象画像配置部150と、タイルビュー識別表示部152と、を含んで構成されている。そして、タイルビュー対象画像配置部150は、タイルビュー画像取得部154と、タイルビュー画像分類部156と、タイルビュー画像配置部158と、を含んで構成されている。そして、タイルビュー識別表示部152は、タイルビューカーソル画像配置部160と、タイルビュー空間表示部162と、を含んで構成されている。
 これらの要素は、コンピュータであるエンタテインメントシステム10にインストールされたプログラムを、エンタテインメントシステム10が備えるMPU11などの制御装置で実行することにより実現されている。なお、このプログラムは、例えば、CD-ROM、DVD-ROM等の情報伝達媒体を介して、あるいは、インターネット等の通信ネットワークを介してエンタテインメントシステム10に供給される。
 画像記憶部100は、ユーザがデジタルカメラで撮影した静止画像や、ネットワークインタフェース48を介してインターネット上のサイトからダウンロードした静止画像などを記憶する。本実施形態では、画像記憶部100は、例えば、写真画像を記憶する。デジタルカメラで撮影した写真画像は、エンタテインメントシステム10の入出力処理部28に接続された図示しないインタフェースを介して、デジタルカメラから直接、又はデジタルカメラから取り外された可搬型の記憶媒体から読み出される。また、画像記憶部100は、各画像の画像サイズ、撮影日時、コメント、色合い、被写体の種類、などの属性情報も併せて記憶している。なお、画像記憶部100が、写真画像がテクスチャとしてマッピングされている写真画像オブジェクト74を記憶していてもよい。
 操作信号受付部102は、ユーザのコントローラ42に対する操作に対応する操作信号を受け付ける。具体的には、例えば、左操作スティック54、右操作スティック56の傾きを示すディジタル値や、ボタン群58、方向ボタン群60などに対する押圧力を示すディジタル値などをコントローラ42から受け付ける。
 ビュー切替部104は、操作信号受付部102が操作信号(例えば、ボタン群58に含まれる所定のボタンが押下されたことを示す操作信号)を受け付ける際に、モニタ26に表示されているビューを切り替える。具体的には、例えば、モニタ26にライブラリビュー画面70が表示されている際に、操作信号受付部102が、右ボタン58Rが押下されたことを示す操作信号を受け付けた場合は、ビュー切替部104は、タイルビュー空間生成表示部116にタイルビュー空間92を生成させる。また、例えば、モニタ26にタイルビュー画面90が表示されている際に、操作信号受付部102が、下ボタン58Dが押下されたことを示す操作信号を受け付けた場合は、ビュー切替部104は、ライブラリビュー空間生成表示部106にライブラリビュー空間72を生成させる。
 ライブラリビュー空間生成表示部106は、ライブラリビュー空間72を生成する。そして、ライブラリビュー空間生成表示部106は、モニタ26にライブラリビュー画面70を表示する。上述のように、本実施形態では、ライブラリビュー空間生成表示部106は、ライブラリビュー対象画像配置部126と、ライブラリビューカーソル画像配置部128と、ライブラリビュー空間表示部130と、を含んでいる。
 ライブラリビュー対象画像配置部126は、ライブラリビュー空間72内の配置面オブジェクト80上に少なくとも1つの対象画像(例えば、代表画像オブジェクト82やグループ画像オブジェクト78)を配置する。上述のように、本実施形態では、ライブラリビュー対象画像配置部126は、ライブラリビュー画像取得部132と、ライブラリビュー画像分類部134と、ライブラリビューグループ画像配置部136と、ライブラリビュー代表画像配置領域決定部138と、ライブラリビュー代表画像配置部140と、を含んでいる。
 ライブラリビュー画像取得部132は、画像記憶部100に記憶されている複数の画像(例えば、写真画像)を取得する。
 ライブラリビュー画像分類部134は、ライブラリビュー画像取得部132が取得する複数の画像を、順位が関連付けられた1又は複数のグループに分類する。本実施形態では、ライブラリビュー画像分類部134は、具体的には、各写真画像に関連付けられている属性(例えば、撮影日付)に基づいて、複数の写真画像を順位が関連付けられた1又は複数のグループに分類する。なお、ライブラリビュー画像分類部134が、撮影日付とは異なる属性(例えば、色合いや被写体の種類など)に基づいて、写真画像を分類してもよい。
 ライブラリビューグループ画像配置部136は、モニタ26に表示される表示領域(例えば、配置面オブジェクト80)上に設けられるグループ画像配置基準線(本実施形態では、グループ画像オブジェクト配置基準線86)に沿って、各グループに対応するグループ画像(本実施形態では、グループ画像オブジェクト78)を、グループの順位に従って配置する。
 ここで、ライブラリビューグループ画像配置部136によるグループ画像オブジェクト78の配置処理の一例について説明する。グループ画像オブジェクト78の配置処理では、はじめに、グループ画像配置領域決定処理が行われ、その後に、表示要素配置処理が行われる。
 ここでは、まず、グループ画像配置領域決定処理の流れの一例を、図9に例示するフロー図を参照しながら説明する。
 まず、グループ画像配置領域決定部142が、ライブラリビュー画像分類部134により分類されたグループの数を取得する(S101)。そして、グループ画像配置領域決定部142が、各グループについて、そのグループに属する写真画像の数を取得する(S102)。そして、グループ画像配置領域決定部142が、各グループについて、そのグループに属する写真画像の数に応じたグループ画像配置領域166(図11参照)のサイズを算出する(S103)。S102に例示する処理で取得される写真画像の数と、S103に例示する処理で算出されるグループ画像配置領域166のサイズとの関係を示すデータは、例えば、予めメインメモリ20やハードディスク38などの記憶装置に記憶されていてもよい。そして、S103に例示する処理において、グループ画像配置領域決定部142が、このデータを取得するようにしてもよい。
 そして、グループ画像配置領域決定部142が、配置面オブジェクト80上の所与の点をグループ画像オブジェクト配置基準線86の始点164として設定する(S104)。グループ画像配置領域決定部142は、例えば、モニタ26に配置面オブジェクト80上が最も広く表示される際における表示領域となる配置面オブジェクト80の幅に対するグループ画像オブジェクト配置基準線86が占める配置面オブジェクト80の幅の割合が70%となるよう、グループ画像オブジェクト配置基準線86の始点164の位置を設定する。
 そして、グループ画像配置領域決定部142が、その始点164の位置から、例えば、所与の範囲の傾きのベジェ曲線であるグループ画像オブジェクト配置基準線86を配置面オブジェクト80上に生成する(S105)。グループ画像配置領域決定部142は、グループ画像オブジェクト配置基準線86であるベジェ曲線を、例えば、始点164を含む4つの点の位置に基づいて決定する。このようにして生成されたグループ画像オブジェクト配置基準線86の一例を図10に示す。
 そして、グループ画像配置領域決定部142が、グループの順位に従って、所与の間隔dで、グループ画像オブジェクト配置基準線86上に、そのグループに対応するサイズのグループ画像配置領域166を配置する(S106)。グループ画像オブジェクト配置基準線86上に配置されたグループ画像配置領域166の一例を図11に示す。
 そして、グループ画像配置領域決定部142は、すべてのグループについて、グループ画像配置領域166が配置されたか否かを確認する(S107)。すべてのグループについて、グループ画像配置領域166が配置されている場合(S107:Y)は、処理を終了する。
 すべてのグループについて、グループ画像配置領域166が配置されていない場合は(S107:N)、S105に例示する処理で生成されたグループ画像オブジェクト配置基準線86の終点を、新たな始点164として設定する(S108)。そして、S105に例示する処理を再度実行する。なお、本実施形態では、S105に例示する処理において、グループ画像配置領域決定部142が、右下に向かうグループ画像オブジェクト配置基準線86と、左下に向かうグループ画像オブジェクト配置基準線86とを交互に生成する。
 このようにして、図5に例示するようなグループ画像オブジェクト配置基準線86が配置面オブジェクト80上に生成され、このグループ画像オブジェクト配置基準線86に沿って、グループ画像配置領域166がグループの数だけ配置される。そして、本実施形態では、右下に向かうグループ画像オブジェクト配置基準線86と、左下に向かうグループ画像オブジェクト配置基準線86と、が交互に生成されるので、グループ画像オブジェクト配置基準線86は全体として、図5に例示するような、蛇行する曲線形状となる。
 なお、グループ画像配置領域166が、グループ画像オブジェクト配置基準線86上になくても構わない。具体的には、例えば、図12に例示するように、グループの数が少ない際には、グループ画像配置領域決定部142は、直線であるグループ画像オブジェクト配置基準線86の両側に交互にグループ画像配置領域166を配置するようにしても構わない。
 次に、1又は複数の写真画像オブジェクト74から構成されるグループ画像オブジェクト78をグループ画像配置領域166に配置する表示要素配置処理について説明する。表示要素配置処理では、各グループ画像配置領域166にグループ画像オブジェクト78が配置される。そこで、以下では、1つのグループ画像配置領域166にグループ画像オブジェクト78を配置する処理の流れの一例について、図13に例示するフロー図を参照しながら説明する。
 まず、表示要素取得部144が、配置対象となるグループに属する1又は複数の写真画像を取得する(S201)。そして、表示要素取得部144が、S201に例示する処理で取得する写真画像を、その撮影時刻順にソートし、その順位を各写真画像に関連付ける(S202)。そして、表示要素取得部144が、処理が終了していない写真画像のうちの最も大きな順位の写真画像(すなわち、最も撮影時刻が遅い写真画像)を取得する(S203)。そして、表示要素配置領域決定部146が、その順位に対応する表示要素配置領域サイズを決定する(S204)。順位と表示要素配置領域サイズとは、例えば、図14に例示するような関係にある。具体的には、例えば、y=x1/5(x:相対順位(例えば、グループ内における順位を所定の規則に従って正規化した順位)、y:表示要素配置領域サイズ)の関係にある。そして、表示要素配置領域決定部146が、図15に例示するような、グループ画像配置領域166内の配置基準点168(例えば、重心)を中心とする、一辺の長さがS204の処理において決定された表示要素配置領域サイズyとなる配置面オブジェクト80上の四角形である表示要素配置領域170を決定する(S205)。図15は、表示要素配置領域170の一例を示す図である。このように、表示要素配置領域決定部146は、本実施形態では、例えば、順位に従って大きくなる表示要素配置領域170を決定する。
 そして、表示要素配置部148が、この表示要素配置領域170内の落下開始基準点172の位置を乱数に基づいて決定する(S206)。そして、表示要素配置部148が、落下開始基準点172から所与の距離だけ離れた落下開始点174を中心する領域に、配置される対象となる写真画像が四角形のオブジェクトにマッピングされた写真画像オブジェクト74を配置する(S207)。なお、落下開始点174は、配置面オブジェクト80に対して視点76側に配置されている。
 そして、表示要素配置部148が、配置面オブジェクト80に向かって、所与のモーションデータ(例えば、物理シミュレーションに基づくモーションデータ)に従って写真画像オブジェクト74を投下する(S208)。このモーションデータは、例えば、メインメモリ20やハードディスク38などの記憶装置に予め記憶されている。そして、すべての写真画像オブジェクト74についてS203~S208に例示する処理が終了しているか否かを確認する(S209)。すべての写真画像オブジェクト74についてS203~S208に例示する処理が終了している場合は(S209:Y)、グループ画像オブジェクト78を配置する処理を終了する。すべての写真画像オブジェクト74についてS203~S207に例示する処理が終了していない場合は(S209:N)、S203に例示する処理を再度実行する。
 このように、表示要素配置部148が、各写真画像オブジェクト74を配置面オブジェクト80上に投下することによって、グループ画像オブジェクト78が、配置面オブジェクト80上に配置される。
 上述のように、表示要素配置部148が各写真画像オブジェクト74を配置することによって、グループ画像オブジェクト78を構成する写真画像オブジェクト74は、ほぼ山型をなすよう積み上がることが期待される。そして、内側(頂上付近)に配置される写真画像オブジェクト74の撮影時刻が、外側(裾野付近)に配置される写真画像オブジェクト74の撮影時刻よりも前になるよう各写真画像オブジェクト74が積み上がることが期待される。このようにして、本実施形態では、ユーザが、グループ画像オブジェクト78を構成する各写真画像オブジェクト74の撮影順を容易に認識することができる。
 上述のように、表示要素配置部148は、各表示要素(本実施形態では、写真画像オブジェクト74)に関連付けられている順位に従って、ライブラリビュー空間72内に設けられている配置面オブジェクト80に接近するとともに、配置面オブジェクト80上の配置基準点168を通る、配置面オブジェクト80に対して垂直な線から離間するものが多く現れるよう、各表示要素(本実施形態では、写真画像オブジェクト74)を配置する。そして、本実施形態では、ライブラリビュー視点移動部112による視点76の移動に伴い、視点76の視野(又は、視点76の視野の近傍)に入った(すなわち、グループ画像オブジェクト78がモニタ26の画面に表示される領域(又は、この領域の近傍)に入った)際に、ライブラリビューグループ画像配置部136が、そのグループ画像オブジェクト78に対して、上述のS201~S209に例示する表示要素配置処理を実行するようにしてもよい。このようにすると、グループ画像オブジェクト78が視点76の視野(又は、視点76の視野の近傍)に入る毎に、グループ画像オブジェクト78を構成する写真画像オブジェクト74がグループ画像配置領域166に再配置されることとなる。そのため、グループ画像オブジェクト78が視点76の視野(又は、視点76の視野の近傍)に入る毎に、そのグループ画像オブジェクト78について異なった印象をユーザに提示することができる。ライブラリビュー視点移動部112の詳細については後述する。
 なお、上述の処理において、表示要素配置部148が、各写真画像オブジェクト74について、対応する角度だけ回転させて配置面オブジェクト80上に配置するようにしてもよい。具体的には、例えば、S207に例示する処理において、表示要素配置部148が、乱数に基づいて決定される角度だけ写真画像オブジェクト74を配置面オブジェクト80に対して垂直な軸を中心として回転させて、落下開始点174を中心する領域に配置するようにしてもよい。
 なお、上述のS206に例示する処理において算出される落下開始基準点172の位置と、既に配置面オブジェクト80上に配置されている他の写真画像オブジェクト74の位置とが、所定の関係を満たす場合(具体的には、写真画像オブジェクト74の中心点の位置と、落下開始基準点172の位置との距離が所定の範囲よりも短い場合や、S207に例示する処理で配置される写真画像オブジェクト74を配置面オブジェクト80に投影した際に占める領域と、他の写真画像オブジェクト74が占める領域と、の間で重なる部分の面積が所定の範囲を超える場合など)は、表示要素配置部148が、落下開始基準点172の位置を再計算するようにしてもよい。
 また、表示要素配置処理の流れは上述の処理例に限定されない。例えば、表示要素配置領域決定部146が、図16Aや図16Bに例示するように、落下開始基準点172の配置基準点168からの距離が、各写真画像オブジェクト74の順位に従って長くなるよう各写真画像オブジェクト74の落下開始基準点172を決定するようにしても構わない。例えば、表示要素配置領域決定部146が、p1,p2,p3・・・と、各写真画像オブジェクト74の順位が大きくなるに従って配置基準点168からの距離が長くなるよう、落下開始基準点172を配置してもよい。図16Aの例では、各落下開始基準点172の位置をつないだ軌跡が同心円形状を描いており、図16Bの例では、各落下開始基準点172の位置をつないだ軌跡がらせん形状を描いている。なお、表示要素配置部148が、モーションデータに従った投下により、各写真画像オブジェクト74を配置面オブジェクト80上に配置しなくても構わない。
 ライブラリビュー代表画像配置領域決定部138は、グループ画像配置基準線(本実施形態では、グループ画像オブジェクト配置基準線86)の位置又はグループ画像(本実施形態では、グループ画像オブジェクト78)が配置されている位置の少なくとも一方に基づいて、代表画像配置領域88の位置を決定する。本実施形態では、代表画像配置領域88は配置面オブジェクト80上に複数設けられる。
 具体的には、例えば、図17に例示するように、ライブラリビュー代表画像配置領域決定部138が、所与の大きさのグリッド領域176を配置面オブジェクト80上に設定する。そして、ライブラリビュー代表画像配置領域決定部138が、これらのグリッド領域176のうちから、写真画像オブジェクト74が配置されていない2グリッド四方以上の連続する代表画像配置候補領域178を抽出する。そして、ライブラリビュー代表画像配置領域決定部138が、代表画像配置候補領域178のうちの少なくとも一部を代表画像配置領域88として決定する。
 なお、ライブラリビュー代表画像配置領域決定部138が代表画像配置候補領域178を抽出する必要はない。代表画像配置領域88の位置が予め決定されていてもよい。
 ライブラリビュー代表画像配置部140は、代表画像配置領域88に、この代表画像配置領域88に対応するグループ画像配置基準線(本実施形態では、グループ画像オブジェクト配置基準線86)上の範囲に対応するグループのうちのいずれかに属する画像(本実施形態では、写真画像)を代表画像(本実施形態では、代表画像オブジェクト82)として配置する。このとき、ライブラリビュー代表画像配置部140は、代表画像配置領域88内の代表点(例えば、重心)からの距離に基づいて決定されるグループ画像オブジェクト配置基準線86上の範囲に対応するグループのうちのいずれかに属する画像を代表画像として配置してもよい。
 ライブラリビュー代表画像配置部140は、具体的には、例えば、図18に例示するように、代表画像配置領域88内の代表点(代表画像配置領域代表点180)を中心とする、配置面オブジェクト80上の所定の半径rの円領域(代表画像選択領域182)内に配置されている1又は複数の写真画像オブジェクト74を選択する。このように、本実施形態では、ライブラリビュー代表画像配置部140が、代表画像配置領域代表点180からの距離が所定の範囲内にある(例えば、所定の距離よりも短い)グループ画像オブジェクト配置基準線86上の範囲に対応するグループのうちのいずれかに属する画像(例えば、写真画像オブジェクト74にマッピングされた画像)を代表画像として配置してもよい。なお、このとき、ライブラリビュー代表画像配置部140が選択する写真画像オブジェクト74の数に上限(例えば、20個など)が設けられていてもよい。そして、ライブラリビュー代表画像配置部140が、選択された写真画像オブジェクト74にマッピングされた写真画像を、代表画像配置領域88に配置する。
 このように、本実施形態では、代表画像選択領域182内に配置されている写真画像オブジェクト74のうちのいずれかにマッピングされた写真画像が拡大されて代表画像配置領域88に配置される。そのため、ユーザは、代表画像配置領域88の近傍にどのような写真画像オブジェクト74が配置されているかを容易に認識することができる。
 なお、ライブラリビュー代表画像配置部140は、代表画像配置領域88に配置される写真画像を所定の時間間隔で切り替えるようにしてもよい。こうすれば、代表画像配置領域88の近傍に配置されている写真画像オブジェクト74を次々とユーザに認識させることができる。また、ライブラリビュー代表画像配置部140は、乱数に基づいて選択される写真画像を代表画像配置領域88に配置してもよい。また、ライブラリビュー代表画像配置部140は、順位が連続する複数のグループのうちのいずれかに属する写真画像を代表画像配置領域88に配置してもよい。
 また、本実施形態のように、代表画像配置領域88が配置面オブジェクト80上に複数設けられている場合には、1つの写真画像オブジェクト74にマッピングされている写真画像が、互いに異なる代表画像配置領域88に配置される可能性がある。このような場合に、ライブラリビュー代表画像配置部140が、ある1つの代表画像配置領域88内の代表点からの距離が所定の範囲内である他の代表画像配置領域88内に配置される画像とは異なる写真画像を、この代表画像配置領域内に代表画像として配置するようにしてもよい。
 ライブラリビューカーソル画像配置部128は、配置面オブジェクト80上に閉領域を示すライブラリビューカーソル画像オブジェクト84を配置する。本実施形態では、中央部が半透明に光っている円型の閉領域を示すライブラリビューカーソル画像オブジェクト84を配置面オブジェクト80上に配置する。
 ライブラリビュー空間表示部130は、表示領域(本実施形態では、例えば、配置面オブジェクト80)の少なくとも一部をモニタ26の画面に表示する。
 ライブラリビューカーソル画像移動部108は、モニタ26にライブラリビュー画面70が表示されている際に、操作信号受付部102が受け付ける操作信号(例えば、左操作スティック54が操作されたことを示す操作信号)に応じて、ライブラリビュー空間72内のライブラリビューカーソル画像オブジェクト84を配置面オブジェクト80に沿って四方向(前後左右)に移動させる。
 ライブラリビュー画像位置関係変化部110は、配置面オブジェクト80上におけるライブラリビューカーソル画像オブジェクト84の位置と対象画像(本実施形態では、グループ画像オブジェクト78)の位置との間の距離が所定の範囲内である場合に、視点76から対象画像(本実施形態では、グループ画像オブジェクト78)までの距離が、視点76からライブラリビューカーソル画像オブジェクト84までの距離よりも短くなるよう、ライブラリビューカーソル画像オブジェクト84と対象画像(本実施形態では、グループ画像オブジェクト78)との相対的な位置関係を変化させる。
 ライブラリビュー画像位置関係変化部110は、具体的には、例えば、図19A及び図19Bに例示するように、配置面オブジェクト80上の、グループ画像オブジェクト78の代表点(グループ画像オブジェクト代表点184)を中心とする所定の半径Rの円領域(影響領域186)内に、ライブラリビューカーソル画像オブジェクト84の中心(ライブラリビューカーソル画像オブジェクト中心188)が配置された際に、グループ画像オブジェクト78を構成する各写真画像オブジェクト74を、所定の距離hだけ配置面オブジェクト80からの距離を変化させる(例えば、各写真画像オブジェクト74を、配置面オブジェクト80から離間させる)。なお、図19Aは、影響領域186内に、ライブラリビューカーソル画像オブジェクト中心188が配置されていない様子を示す図の一例である。そして、図19Bは、影響領域186内に、ライブラリビューカーソル画像オブジェクト中心188が配置されている様子を示す図の一例である。このようにして、ライブラリビューカーソル画像オブジェクト84によって選択されるグループ画像オブジェクト78が識別して表示される。本実施形態では、ライブラリビューカーソル画像オブジェクト84が指し示すグループ画像オブジェクト78によって、ライブラリビューカーソル画像オブジェクト84の中央部が隠れるが、ライブラリビューカーソル画像オブジェクト84によって指し示される写真画像オブジェクト74が配置面オブジェクト80上から浮き上がることによって、ユーザはライブラリビューカーソル画像オブジェクト84が指し示すグループ画像オブジェクト78を認識することができる。
 なお、図19A及び図19Bに例示するように、ライブラリビューカーソル画像オブジェクト84が、グループ画像オブジェクト78よりも大きなサイズであっても構わない。
 なお、ライブラリビュー画像位置関係変化部110が、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離hを、視点76と配置面オブジェクト80との間の距離Hに基づいて決定してもよい(図20参照)。具体的には、例えば、図20に例示するように、ライブラリビュー画像位置関係変化部110は、視点76と配置面オブジェクト80との間の距離Hが長くなるほど、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離hが短くなるよう、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離hを決定してもよい。図20は、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離hと、視点76と配置面オブジェクト80との間の距離Hとの関係の一例を示す図である。
 上述の半径Rは、例えば、グループ画像オブジェクト78の大きさや、視点76と配置面オブジェクト80との間の距離Hに対応する。より具体的には、例えば、半径Rは、グループ画像オブジェクト78が占める配置面オブジェクト80上の領域の半径と、視点76と配置面オブジェクト80との間の距離Hとの積に比例する。
 上述のように、グループ画像オブジェクト78が配置面オブジェクト80から離間している(すなわち、グループ画像オブジェクト78がライブラリビューカーソル画像オブジェクト84により指し示されている)際に、操作信号受付部102が、所定のボタン(例えば、右ボタン58R)が押下された操作信号を受け付けた場合は、ビュー切替部104が、タイルビュー空間92を生成して、ライブラリビューカーソル画像オブジェクト84により指し示されているグループ画像オブジェクト78に対応するグループに属する写真画像オブジェクト74がモニタ26の上辺に表示される位置に視点76を設定してもよい。そして、ビュー切替部104が、この視点76から視線方向を見た様子を示すタイルビュー画面90をモニタ26に表示するようにしてもよい。
 上述のように、グループ画像オブジェクト78が配置面オブジェクト80から離間している(すなわち、グループ画像オブジェクト78が識別表示されている)際に、ライブラリビューカーソル画像移動部108が、ライブラリビューカーソル画像オブジェクト中心188とグループ画像オブジェクト代表点184との間の距離に応じて、ライブラリビューカーソル画像オブジェクト84をグループ画像オブジェクト78に接近させても構わない。
 ここで、グループ画像オブジェクト78が配置面オブジェクト80から離間している際における、ライブラリビューカーソル画像オブジェクト84の移動処理の流れの一例を図21に例示するフロー図を参照しながら説明する。
 まず、操作信号受付部102が、コントローラ42に対する操作信号を受け付ける(S301)。そして、ライブラリビューカーソル画像移動部108が、この操作信号が示すディジタル値に基づいて操作信号移動量ベクトルv1(x1,y1)を算出する(S302)。図22に、操作信号移動量ベクトルv1(x1,y1)の一例を示す。そして、ライブラリビューカーソル画像移動部108が、ライブラリビューカーソル画像オブジェクト中心188とグループ画像オブジェクト代表点184との間の距離を取得する(S303)。そして、S303に例示する処理で取得する距離に基づいて、引力移動量ベクトルv2(x2,y2)を算出する(S304)。図22に、引力移動量ベクトルv2(x2,y2)の一例を示す。ここで、引力移動量ベクトルv2(x2,y2)は、例えば、ライブラリビューカーソル画像オブジェクト中心188からグループ画像オブジェクト代表点184への向きであり、S303に例示する処理で取得する距離に対応する大きさのベクトルである。ここで、例えば、S303に例示する処理で取得する距離が短くなるほど引力移動量ベクトルv2(x2,y2)のノルムは大きくなる。なお、引力移動量ベクトルv2(x2,y2)の大きさが、上述の半径R(影響領域186の半径)に対応(例えば、反比例)していてもよい。
 そして、ライブラリビューカーソル画像移動部108が、全移動量ベクトルv3(x3,y3)を算出する(S305)。例えば、ライブラリビューカーソル画像移動部108が、全移動量ベクトルv3(x3,y3)を、例えば、v3(x3,y3)=v1(x1,y1)+v2(x2,y2)という数式に従って算出する。図22に、全移動量ベクトルv3(x3,y3)の一例を示す。そして、ライブラリビューカーソル画像移動部108は、全移動量ベクトルv3(x3,y3)だけライブラリビューカーソル画像オブジェクト84を配置面オブジェクト80に沿って移動させる(S306)。
 このように、ライブラリビューカーソル画像移動部108がライブラリビューカーソル画像オブジェクト84をグループ画像オブジェクト78に接近させることで、ライブラリビューカーソル画像オブジェクト84を用いたグループ画像オブジェクト78の選択が容易になる。
 ライブラリビュー視点移動部112は、モニタ26にライブラリビュー画面70が表示されている際に、操作信号受付部102が受け付ける操作信号(例えば、右操作スティック56が操作されたことを示す操作信号)に応じて、ライブラリビュー空間72内の視点76の位置を配置面オブジェクト80に対して垂直な方向に移動させる。このように、本実施形態では、ライブラリビュー視点移動部112は、視点76と配置面オブジェクト80との間の距離を変化させる。すなわち、ライブラリビュー視点移動部112が、モニタ26の画面に表示される領域のサイズを変化させる。また、本実施形態では、ライブラリビュー視点移動部112は、モニタ26内においてライブラリビューカーソル画像オブジェクト84が表示される位置が、所定の範囲を超えるような場合に、ライブラリビュー空間72内の視点76の位置を配置面オブジェクト80に沿って移動させる。
 ライブラリビュー識別程度変化部114は、モニタ26の画面に表示される領域のサイズの変化に応じて、表示要素の識別の程度を変化させる。具体的には、例えば、ライブラリビュー識別程度変化部114は、視点76と配置面オブジェクト80との間の距離の変化に応じて、表示要素のオブジェクト(例えば、グループ画像オブジェクト78を構成する各写真画像オブジェクト74)の配置面オブジェクト80からの距離を変化させる。より具体的には、例えば、上述のように、ライブラリビュー視点移動部112が視点76の位置を移動させた際に、ライブラリビュー識別程度変化部114は、移動後の視点76と配置面オブジェクト80との間の距離Hに対応する距離だけ、グループ画像オブジェクト78を構成する各写真画像オブジェクト74が、配置面オブジェクト80から離間するよう、グループ画像オブジェクト78を構成する各写真画像オブジェクト74の、配置面オブジェクト80からの距離を変化させる。
 なお、ライブラリビュー識別程度変化部114が、移動後の視点76と配置面オブジェクト80との間の距離Hに基づいて、ライブラリビューカーソル画像オブジェクト84の透明度や輝度(例えば、ライブラリビューカーソル画像オブジェクト84に当てられるライトの強さ)などの表示態様を変化させてもよい。具体的には、例えば、視点76と配置面オブジェクト80との間の距離Hが短いほどライブラリビューカーソル画像オブジェクト84の透明度や輝度が高くなるようにしてもよい。より具体的には、例えば、ライブラリビューカーソル画像オブジェクト84の透明度や輝度が、視点76と配置面オブジェクト80との間の距離Hに比例してもよい。
 タイルビュー空間生成表示部116は、図7に例示するタイルビュー空間92を生成し、モニタ26にタイルビュー画面90を表示する。上述のように、本実施形態では、タイルビュー空間生成表示部116は、タイルビュー対象画像配置部150と、タイルビュー識別表示部152と、を含んでいる。
 タイルビュー対象画像配置部150は、タイルビュー空間92内の配置面オブジェクト80上に少なくとも1つの対象画像(例えば、写真画像オブジェクト74)を配置する。上述のように、タイルビュー対象画像配置部150は、タイルビュー画像取得部154と、タイルビュー画像分類部156と、タイルビュー画像配置部158と、を含んでいる。
 タイルビュー画像取得部154は、ライブラリビュー画像取得部132と同様に、画像記憶部100に記憶されている複数の画像(例えば、写真画像)を取得する。
 タイルビュー画像分類部156は、ライブラリビュー画像分類部134と同様に、タイルビュー画像取得部154が取得する複数の画像を、順位が関連付けられた1又は複数のグループに分類する。本実施形態では、タイルビュー画像分類部156は、具体的には、例えば、撮影日付などの、各写真画像に関連付けられている属性に基づいて、グループに分類する。
 タイルビュー画像配置部158は、配置面オブジェクト80上に、グループ毎に、そのグループに属する対象画像(例えば、写真画像)が貼られた対象画像オブジェクト(本実施形態では、写真画像オブジェクト74)を整列して配置する。なお、グループの名称を示す文字列を、整列された写真画像オブジェクト74の近傍の配置面オブジェクト80上に配置するようにしてもよい。
 タイルビュー識別表示部152は、モニタ26に表示される複数の表示要素(本実施形態では、例えば、写真画像オブジェクト74)のうちの少なくとも1つを識別して表示する。上述のように、本実施形態では、タイルビュー識別表示部152は、タイルビューカーソル画像配置部160と、タイルビュー空間表示部162と、を含んでいる。
 タイルビューカーソル画像配置部160は、写真画像オブジェクト74のうちの少なくとも1つを指し示すタイルビューカーソル画像オブジェクト94を、識別して表示される写真画像オブジェクト74に対応する位置(例えば、写真画像オブジェクト74と配置面オブジェクト80との間)に配置する。このとき、タイルビューカーソル画像配置部160は、例えば、写真画像オブジェクト74の重心と、タイルビューカーソル画像オブジェクト94の重心と、が配置面オブジェクト80に対して垂直な直線上に並ぶように、タイルビューカーソル画像オブジェクト94を配置してもよい。本実施形態では、タイルビューカーソル画像オブジェクト94は、写真画像オブジェクト74よりもサイズが大きい。
 タイルビュー空間表示部162は、複数の表示要素(本実施形態では、例えば、写真画像オブジェクト74)が配置された領域のうちの少なくとも一部を表す画像をモニタ26に表示する。
 タイルビューカーソル画像移動部118は、モニタ26にタイルビュー画面90が表示されている際に、操作信号受付部102が受け付ける操作信号(例えば、左操作スティック54が操作されたことを示す操作信号)に応じて、タイルビュー空間92内のタイルビューカーソル画像オブジェクト94を前後左右の隣接する写真画像オブジェクト74と配置面オブジェクト80との間の位置へと移動させる。このようにして、タイルビューカーソル画像オブジェクト94によって指し示される写真画像オブジェクト74が変化する。
 タイルビュー画像位置関係変化部120は、タイルビューカーソル画像オブジェクト94によって指し示される写真画像オブジェクト74の配置面オブジェクト80からの距離を変化させる。タイルビュー画像位置関係変化部120は、具体的には、例えば、タイルビューカーソル画像オブジェクト94によって指し示される写真画像オブジェクト74の配置面オブジェクト80上からの距離を変化させる。より具体的には、例えば、タイルビュー画像位置関係変化部120は、具体的には、例えば、タイルビューカーソル画像オブジェクト94によって指し示される写真画像オブジェクト74を配置面オブジェクト80から離間させる。このとき、タイルビュー画像位置関係変化部120が、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離は、視点76と配置面オブジェクト80との距離に基づいて決定してもよい。具体的には、例えば、図20に例示するように、タイルビュー画像位置関係変化部120は、視点76と配置面オブジェクト80との距離が長くなるほど、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離を短くしてもよい。なお、オブジェクトの離間距離と視点からオブジェクトまでの距離との関係は、ライブラリビュー空間72とタイルビュー空間92とで共通であっても異なっていても構わない。
 タイルビュー視点移動部122は、モニタ26にタイルビュー画面90が表示されている際に、操作信号受付部102が受け付ける操作信号(例えば、右操作スティック56が操作されたことを示す操作信号や右ボタン58Rが操作されたことを示す操作信号)に応じて、タイルビュー空間92内の視点76の位置を配置面オブジェクト80に対して垂直な方向に移動させる。このように、本実施形態では、タイルビュー視点移動部122は、操作信号受付部102が受け付ける操作信号に応じて、視点76と配置面オブジェクト80との間の距離を変化させる。すなわち、ライブラリビュー視点移動部112は、操作信号受付部102が受け付ける操作信号に応じて、モニタ26の画面に表示される領域のサイズを変化させる。また、本実施形態では、タイルビュー視点移動部122は、モニタ26内においてタイルビューカーソル画像オブジェクト94が表示される位置が、所定の範囲を超えるような場合に、タイルビュー空間92内の視点76の位置を配置面オブジェクト80に沿って移動させる。
 なお、タイルビュー視点移動部122が、タイルビュー空間92内の視点76の位置を配置面オブジェクト80に対して近づける際に、タイルビューカーソル画像オブジェクト94によって指し示されている写真画像オブジェクト74がタイルビュー画面90の中央に表示されるようタイルビュー空間92内の視点76の位置を配置面オブジェクト80に沿って移動させてもよい。
 タイルビュー識別程度変化部124は、モニタ26の画面に表示される領域のサイズの変化に応じて、表示要素の識別の程度を変化させる。具体的には、例えば、上述のように、タイルビュー視点移動部122が視点76の位置を移動させた際に、タイルビュー識別程度変化部124は、移動後の視点76と配置面オブジェクト80との間の距離Hに対応する距離だけ、写真画像オブジェクト74を構成する各写真画像オブジェクト74が、配置面オブジェクト80から離間するよう、グループ画像オブジェクト78を構成する各写真画像オブジェクト74の、配置面オブジェクト80からの距離を変化させる。
 なお、タイルビュー識別程度変化部124は、移動後の視点76と配置面オブジェクト80との間の距離Hに基づいて、タイルビューカーソル画像オブジェクト94の透明度や輝度(例えば、ライブラリビューカーソル画像オブジェクト84に当てられるライトの強さ)などの表示態様を変化させてもよい。具体的には、例えば、視点76と配置面オブジェクト80との間の距離Hが短いほどタイルビューカーソル画像オブジェクト94の透明度や輝度が高くなるようにしてもよい。より具体的には、例えば、ライブラリビューカーソル画像オブジェクト84の透明度や輝度が、視点76と配置面オブジェクト80との間の距離Hに比例してもよい。
 図6Bに例示するように視点76と配置面オブジェクト80との間の距離Hが短い場合(すなわち、少数の写真画像オブジェクト74が、タイルビュー画面90に表示されるような場合)は、図6Aに例示するように視点76と配置面オブジェクト80との間の距離Hが長い場合(すなわち、多数の写真画像オブジェクト74が、タイルビュー画面90に表示されるような場合)よりも、タイルビューカーソル画像オブジェクト94により指し示されている写真画像オブジェクト74の配置面オブジェクト80からの離間距離が短くなっている。また、視点76と配置面オブジェクト80との間の距離Hが短い場合は、視点76と配置面オブジェクト80との間の距離Hが長い場合よりも、タイルビューカーソル画像オブジェクト94の透明度や輝度が低くなっている。なお、図6Bに例示するように、写真画像オブジェクト74の配置面オブジェクト80からの離間距離が短い場合に、操作信号受付部102が、所定のボタン(例えば、右ボタン58R)が押下されたことを示す操作信号を受け付ける場合に、タイルビュー識別程度変化部124が、タイルビューカーソル画像オブジェクト94により指し示されている写真画像オブジェクト74にマッピングされている写真画像を拡大表示して、モニタ26に表示するようにしてもよい。
 このようにして、視点76と配置面オブジェクト80との間の距離Hに適した表示態様で、タイルビューカーソル画像オブジェクト94により指し示されている写真画像オブジェクト74をユーザに提示することができる。また、本実施形態では、タイルビュー視点移動部122が、タイルビュー空間92内の視点76の位置を配置面オブジェクト80に対して近づける際に、タイルビューカーソル画像オブジェクト94によって指し示されている写真画像オブジェクト74がタイルビュー画面90の中央に表示されるようタイルビュー空間92内の視点76の位置を配置面オブジェクト80に沿って移動させるので、視点76の位置が配置面オブジェクト80に対して近づいた際に、写真画像オブジェクト74を配置面オブジェクト80から離間させる距離hが短くなり、タイルビューカーソル画像オブジェクト94の透明度や輝度の値が小さくなったとしても、ユーザは、指し示されている写真画像オブジェクト74を容易に認識することができる。
 なお、本発明は上記実施形態に限定されるものではない。
 例えば、エンタテインメントシステム10は、ユーザから受け付ける操作信号に応じて、ライブラリビュー空間72において、ライブラリビューカーソル画像オブジェクト84により指し示されているグループ画像オブジェクト78を構成する各写真画像オブジェクト74を、プレイリスト空間内にコピーするようにしてもよい。また、エンタテインメントシステム10は、ユーザから受け付ける操作信号に応じて、プレイリスト空間に配置されている写真画像オブジェクト74をスライドショーとしてモニタ26に順次表示するようにしてもよい。
 また、例えば、本発明を、二次元座標系における平面形状をモニタ26に表示する画像表示装置として動作するエンタテインメントシステム10に対して適用してもよい。

Claims (32)

  1.  複数の画像を取得する画像取得手段と、
     前記複数の画像を、順位が関連付けられた1又は複数のグループに分類する画像分類手段と、
     表示領域内に設けられるグループ画像配置基準線に沿って、前記各グループに対応するグループ画像を、前記グループの順位に従って配置するグループ画像配置手段と、
     前記表示領域内の代表画像配置領域に、当該代表画像配置領域に対応する前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する代表画像配置手段と、
     前記表示領域の少なくとも一部を画面に表示する表示手段と、
     を含むことを特徴とする画像表示装置。
  2.  前記グループ画像配置基準線の位置又は前記グループ画像が配置されている位置の少なくとも一方に基づいて、前記代表画像配置領域の位置を決定する代表画像配置領域位置決定手段、をさらに含む、
     ことを特徴とする請求項1に記載の画像表示装置。
  3.  前記代表画像配置手段が、前記代表画像配置領域内の代表点からの距離に基づいて決定される前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する、
     ことを特徴とする請求項1に記載の画像表示装置。
  4.  前記代表画像配置手段が、順位が連続する複数の前記グループのうちのいずれかに属する前記画像を代表画像として配置する、
     ことを特徴とする請求項1に記載の画像表示装置。
  5.  前記代表画像配置手段が、乱数に基づいて選択される前記画像を代表画像として配置する、
     ことを特徴とする請求項1に記載の画像表示装置。
  6.  前記代表画像が所定時間毎に切り替わる、
     ことを特徴とする請求項1に記載の画像表示装置。
  7.  前記画像分類手段が、前記各画像に関連付けられている属性に基づいて、前記1又は複数のグループに分類する、
     ことを特徴とする請求項1に記載の画像表示装置。
  8.  前記表示領域内に前記代表画像配置領域が複数存在する、
     ことを特徴とする請求項1に記載の画像表示装置。
  9.  前記代表画像配置手段は、前記各代表画像配置領域について、当該代表画像配置領域内の代表点からの距離が所定の範囲内である他の前記代表画像配置領域内に配置される画像とは異なる画像を、当該代表画像配置領域内に代表画像として配置する、
     ことを特徴とする請求項8に記載の画像表示装置。
  10.  複数の画像を取得する画像取得ステップと、
     前記複数の画像を、順位が関連付けられた1又は複数のグループに分類する画像分類ステップと、
     表示領域内に設けられるグループ画像配置基準線に沿って、前記各グループに対応するグループ画像を、前記グループの順位に従って配置するグループ画像配置ステップと、
     前記表示領域内の代表画像配置領域に、当該代表画像配置領域に対応する前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する代表画像配置ステップと、
     前記表示領域の少なくとも一部を画面に表示する表示ステップと、
     を含むことを特徴とする画像表示方法。
  11.  複数の画像を取得する画像取得手段、
     前記複数の画像を、順位が関連付けられた1又は複数のグループに分類する画像分類手段、
     表示領域内に設けられるグループ画像配置基準線に沿って、前記各グループに対応するグループ画像を、前記グループの順位に従って配置するグループ画像配置手段、
     前記表示領域内の代表画像配置領域に、当該代表画像配置領域に対応する前記グループ画像配置基準線上の範囲に対応する前記グループのうちのいずれかに属する前記画像を代表画像として配置する代表画像配置手段、
     前記表示領域の少なくとも一部を画面に表示する表示手段、
     としてコンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
  12.  仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置であって、
     前記仮想3次元空間内の配置面上に少なくとも1つの対象画像を配置する対象画像配置手段と、
     前記配置面上に閉領域を示すカーソル画像を配置するカーソル画像配置手段と、
     ユーザから受け付ける操作信号に応じて、前記カーソル画像を前記配置面に沿って移動させるカーソル画像移動手段と、
     前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記視点から前記対象画像までの距離が、前記視点から前記カーソル画像までの距離よりも短くなるよう、前記カーソル画像と前記対象画像との相対的な位置関係を変化させる画像位置関係変化手段と、
     を含むことを特徴とする画像表示装置。
  13.  前記画像位置関係変化手段が、前記対象画像の前記配置面からの距離を変化させる、
     ことを特徴とする請求項12に記載の画像表示装置。
  14.  前記カーソル画像が前記対象画像よりもサイズが大きい、
     ことを特徴とする請求項12に記載の画像表示装置。
  15.  前記カーソル画像移動手段が、前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記カーソル画像内の代表点と前記対象画像内の代表点との間の距離に応じて前記カーソル画像と前記対象画像とを接近させる、
     ことを特徴とする請求項12に記載の画像表示装置。
  16.  仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示方法であって、
     前記仮想3次元空間内の配置面上に少なくとも1つの対象画像を配置する対象画像配置ステップと、
     前記配置面上に閉領域を示すカーソル画像を配置するカーソル画像配置ステップと、
     ユーザから受け付ける操作信号に応じて、前記カーソル画像を前記配置面に沿って移動させるカーソル画像移動ステップと、
     前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記視点から前記対象画像までの距離が、前記視点から前記カーソル画像までの距離よりも短くなるよう、前記カーソル画像と前記対象画像との相対的な位置関係を変化させる画像位置関係変化ステップと、
     を含むことを特徴とする画像表示方法。
  17.  仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるプログラムであって、
     前記仮想3次元空間内の配置面上に少なくとも1つの対象画像を配置する対象画像配置手段、
     前記配置面上に閉領域を示すカーソル画像を配置するカーソル画像配置手段、
     ユーザから受け付ける操作信号に応じて、前記カーソル画像を前記配置面に沿って移動させるカーソル画像移動手段、
     前記配置面上における前記カーソル画像の位置と前記対象画像の位置との間の距離が所定の範囲内である場合に、前記視点から前記対象画像までの距離が、前記視点から前記カーソル画像までの距離よりも短くなるよう、前記カーソル画像と前記対象画像との相対的な位置関係を変化させる画像位置関係変化手段、
     として前記コンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
  18.  複数の表示要素が配置された領域のうちの少なくとも一部を表す画像を画面に表示する画像表示手段と、
     前記画面に表示される前記複数の表示要素のうちの少なくとも1つを識別して表示する識別表示手段と、
     ユーザから受け付ける操作信号に応じて、前記画面に表示される前記領域のサイズを変化させる領域サイズ変化手段と、
     前記画面に表示される前記領域のサイズの変化に応じて、前記識別の程度を変化させる識別程度変化手段と、
     を含むことを特徴とする画像表示装置。
  19.  前記画像表示手段が、前記複数の表示要素のオブジェクトが配置された仮想3次元空間内の表示要素配置面を、前記仮想3次元空間内に配置された視点から見た様子を表す画像を画面に表示し、
     前記識別表示手段が、前記画面に表示された前記複数の表示要素のオブジェクトのうちの少なくとも1つを識別して表示し、
     前記領域サイズ変化手段が、ユーザから受け付ける操作信号に応じて、前記視点と前記表示要素配置面との間の距離を変化させ、
     前記識別程度変化手段が、前記視点と前記表示要素配置面との間の距離の変化に応じて、前記表示要素のオブジェクトの前記表示要素配置面からの距離を変化させる、
     ことを特徴とする請求項18に記載の画像表示装置。
  20.  前記表示要素のうちの少なくとも1つを指し示すカーソル画像を、識別して表示される前記表示要素に対応する位置に配置するカーソル画像配置部、をさらに含み、
     前記識別程度変化手段が、前記カーソル画像の表示態様を変化させる、
     ことを特徴とする請求項18に記載の画像表示装置。
  21.  前記識別程度変化手段が、前記カーソル画像の透明度を変化させる、
     ことを特徴とする請求項20に記載の画像表示装置。
  22.  複数の表示要素が配置された領域のうちの少なくとも一部を表す画像を画面に表示する画像表示ステップと、
     前記画面に表示された前記複数の表示要素のうちの少なくとも1つを識別して表示する識別表示ステップと、
     ユーザから受け付ける操作信号に応じて、前記画面に表示される前記領域のサイズを変化させる領域サイズ変化ステップと、
     前記画面に表示される前記領域のサイズに応じて、前記識別の程度を変化させる識別程度変化ステップと、
     を含むことを特徴とする画像表示方法。
  23.  複数の表示要素が配置された領域のうちの少なくとも一部を表す画像を画面に表示する画像表示手段、
     前記画面に表示された前記複数の表示要素のうちの少なくとも1つを識別して表示する識別表示手段、
     ユーザから受け付ける操作信号に応じて、前記画面に表示される前記領域のサイズを変化させる領域サイズ変化手段、
     前記画面に表示される前記領域のサイズに応じて、前記識別の程度を変化させる識別程度変化手段、
     としてコンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
  24.  仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置であって、
     順位に関連付けられている複数の表示要素を取得する表示要素取得手段と、
     前記各表示要素に関連付けられている順位に従って、前記仮想3次元空間内に設けられている配置面に接近するとともに、前記配置面上の基準点を通る前記配置面に対して垂直な線から離間するものが多く現れるよう、前記各表示要素を配置する表示要素配置手段と、
     前記視点から前記各表示要素を見た様子を表す画像を表示する画像表示手段と、
     を含むことを特徴とする画像表示装置。
  25.  前記各表示要素について、当該表示要素に関連付けられている順位に対応する大きさの前記配置面上の基準点を中心とする前記配置面上の配置領域を決定する配置領域決定手段、をさらに含み、
     前記表示要素配置手段が、前記各表示要素について、前記配置領域決定手段により当該表示要素について決定される前記配置領域内の位置に基づく位置に当該表示要素を配置する、
     ことを特徴とする請求項24に記載の画像表示装置。
  26.  前記配置領域決定手段が、前記各表示要素について、当該表示要素に関連付けられている順位に従って大きくなる前記配置領域を決定する、
     ことを特徴とする請求項25に記載の画像表示装置。
  27.  前記表示要素配置手段が、前記各表示要素について、乱数に基づいて前記配置領域内の位置を決定して、当該決定される位置に基づく位置に当該表示要素を配置する、
     ことを特徴とする請求項25に記載の画像表示装置。
  28.  前記表示要素配置手段が、前記各表示要素について、当該表示要素に関連付けられている順位に対応する前記配置面上の基準点からの距離に基づいて決定される前記配置面上の位置に当該表示要素を配置する、
     ことを特徴とする請求項24に記載の画像表示装置。
  29.  前記表示要素配置手段が、前記各表示要素について、当該表示要素に関連付けられている順位に従って長くなる前記配置面上の基準点からの距離に基づいて決定される前記配置面上の位置に当該表示要素を配置する、
     ことを特徴とする請求項28に記載の画像表示装置。
  30.  前記表示要素配置手段が、前記各表示要素について、当該表示要素に対応する角度だけ回転させて前記配置面上に配置する、
     ことを特徴とする請求項24に記載の画像表示装置。
  31.  仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示方法であって、
     順位に関連付けられている複数の表示要素を取得する表示要素取得ステップと、
     前記各表示要素に関連付けられている順位に従って、前記仮想3次元空間内に設けられている配置面に接近するとともに、前記配置面上の基準点を通る前記配置面に対して垂直な線から離間するものが多く現れるよう、前記各表示要素を配置する表示要素配置ステップと、
     前記視点から前記各表示要素を見た様子を表す画像を表示する画像表示ステップと、
     を含むことを特徴とする画像表示方法。
  32.  仮想3次元空間内に配置されている視点から視線方向を見た様子を表す画像を表示する画像表示装置としてコンピュータを機能させるプログラムであって、
     順位に関連付けられている複数の表示要素を取得する表示要素取得手段、
     前記各表示要素に関連付けられている順位に従って、前記仮想3次元空間内に設けられている配置面に接近するとともに、前記配置面上の基準点を通る前記配置面に対して垂直な線から離間するものが多く現れるよう、前記各表示要素を配置する表示要素配置手段、
     前記視点から前記各表示要素を見た様子を表す画像を表示する画像表示手段、
     として前記コンピュータを機能させることを特徴とするプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2009/061941 2008-11-25 2009-06-30 画像表示装置、画像表示方法及び情報記憶媒体 WO2010061661A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/810,118 US8797348B2 (en) 2008-11-25 2009-06-30 Image display apparatus, image display method, and information storage medium
EP09828911.9A EP2352118B1 (en) 2008-11-25 2009-06-30 Image display device, method for displaying image and information storing medium
US14/314,136 US20140320524A1 (en) 2008-11-25 2014-06-25 Image Display Apparatus, Image Display Method, And Information Storage Medium

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2008-299851 2008-11-25
JP2008-299850 2008-11-25
JP2008-299852 2008-11-25
JP2008299853A JP2010128587A (ja) 2008-11-25 2008-11-25 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2008299850A JP4871345B2 (ja) 2008-11-25 2008-11-25 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2008-299853 2008-11-25
JP2008299852A JP5265315B2 (ja) 2008-11-25 2008-11-25 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2008299851A JP4871346B2 (ja) 2008-11-25 2008-11-25 画像表示装置、画像表示方法、プログラム及び情報記憶媒体

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/810,118 A-371-Of-International US8797348B2 (en) 2008-11-25 2009-06-30 Image display apparatus, image display method, and information storage medium
US14/314,136 Continuation US20140320524A1 (en) 2008-11-25 2014-06-25 Image Display Apparatus, Image Display Method, And Information Storage Medium

Publications (1)

Publication Number Publication Date
WO2010061661A1 true WO2010061661A1 (ja) 2010-06-03

Family

ID=42225542

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/061941 WO2010061661A1 (ja) 2008-11-25 2009-06-30 画像表示装置、画像表示方法及び情報記憶媒体

Country Status (3)

Country Link
US (2) US8797348B2 (ja)
EP (1) EP2352118B1 (ja)
WO (1) WO2010061661A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268330A1 (en) * 2005-05-10 2006-11-30 Tetsuhiro Takanezawa Image reproduction apparatus and image reproduction method
KR101747299B1 (ko) * 2010-09-10 2017-06-15 삼성전자주식회사 데이터 객체 디스플레이 방법 및 장치와 컴퓨터로 읽을 수 있는 저장 매체
US9483167B2 (en) 2010-09-29 2016-11-01 Adobe Systems Incorporated User interface for a touch enabled device
US20130127867A1 (en) * 2010-10-11 2013-05-23 Adobe Systems Incorporated Freestyle drawing supported by stencil edge shapes
US9229636B2 (en) 2010-10-22 2016-01-05 Adobe Systems Incorporated Drawing support tool
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US20130067412A1 (en) * 2011-09-09 2013-03-14 Microsoft Corporation Grouping selectable tiles
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US10031641B2 (en) 2011-09-27 2018-07-24 Adobe Systems Incorporated Ordering of objects displayed by a computing device
WO2013099054A1 (ja) 2011-12-28 2013-07-04 パナソニック株式会社 画像表示制御装置、画像表示制御方法およびプログラム
US11076095B1 (en) * 2012-05-25 2021-07-27 Altia Systems Inc. Depth sensor assisted multiple imager video system
JP5713279B2 (ja) * 2012-09-20 2015-05-07 カシオ計算機株式会社 画像分類装置、電子アルバム作成装置、及び画像分類方法、プログラム
CN104199626B (zh) * 2014-05-15 2017-10-03 小米科技有限责任公司 背景显示方法、装置及电子设备
CN104020972B (zh) * 2014-05-15 2017-07-14 小米科技有限责任公司 背景显示方法、装置及电子设备
GB2551667A (en) 2015-03-27 2017-12-27 Google Inc Cluster based photo navigation
KR102437135B1 (ko) * 2015-09-23 2022-08-29 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
US9990350B2 (en) 2015-11-02 2018-06-05 Microsoft Technology Licensing, Llc Videos associated with cells in spreadsheets
US9934215B2 (en) 2015-11-02 2018-04-03 Microsoft Technology Licensing, Llc Generating sound files and transcriptions for use in spreadsheet applications
US11086418B2 (en) * 2016-02-04 2021-08-10 Douzen, Inc. Method and system for providing input to a device
TWI579718B (zh) * 2016-06-15 2017-04-21 陳兆煒 圖形資源管理系統及方法與內儲圖形資源管理程式之電腦程式產品
US10558976B1 (en) 2016-09-23 2020-02-11 Wells Fargo Bank, N.A. Unique identification of customer using an image
CN108597034B (zh) * 2018-04-28 2022-11-01 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
JP7467074B2 (ja) * 2019-11-05 2024-04-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7146136B2 (ja) * 2020-08-05 2022-10-03 シャンハイ リリス テクノロジー コーポレイション ゲームオブジェクトのインタラクティブ制御システム、方法、サーバー及コンピュータ読み取り可能な記憶媒体

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584219A (ja) * 1991-09-25 1993-04-06 Olympus Optical Co Ltd 画像フアイル装置
WO2000033571A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif de delivrance d'information
JP2005031830A (ja) * 2003-07-09 2005-02-03 Fuji Photo Film Co Ltd 画像表示方法及び画像表示用プログラム
JP2005032219A (ja) * 2003-06-20 2005-02-03 Canon Inc 画像表示装置およびその画像表示方法
JP2006172090A (ja) * 2004-12-15 2006-06-29 Fuji Photo Film Co Ltd 代表画像選択装置および方法並びにプログラム
JP2007509403A (ja) * 2003-10-23 2007-04-12 マイクロソフト コーポレーション データの属性に基づくデータ集合の3次元画面のグラフィカル・ユーザ・インタフェース
JP2007193592A (ja) * 2006-01-19 2007-08-02 Konica Minolta Photo Imaging Inc 画像処理装置、画像処理方法及び画像処理プログラム
EP1923835A1 (en) 2005-08-12 2008-05-21 Sony Computer Entertainment Inc. Face image display, face image display method, and face image display program

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5162779A (en) * 1991-07-22 1992-11-10 International Business Machines Corporation Point addressable cursor for stereo raster display
US5555354A (en) * 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
JP4314743B2 (ja) * 1998-11-30 2009-08-19 ソニー株式会社 情報提供装置及び情報提供方法
JP2004040445A (ja) * 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
US7469064B2 (en) * 2003-07-11 2008-12-23 Panasonic Corporation Image display apparatus
JP3915784B2 (ja) 2004-02-05 2007-05-16 セイコーエプソン株式会社 画像配置装置及び方法
US7783115B2 (en) 2004-12-14 2010-08-24 Fujifilm Corporation Apparatus and method for setting degrees of importance, apparatus and method for representative image selection, apparatus and method for printing-recommended image selection, and programs therefor
JP4581703B2 (ja) * 2005-01-26 2010-11-17 セイコーエプソン株式会社 印刷装置
JP4533791B2 (ja) * 2005-04-19 2010-09-01 株式会社日立製作所 情報閲覧装置
US20070055947A1 (en) * 2005-09-02 2007-03-08 Microsoft Corporation Animations and transitions
US7966577B2 (en) * 2005-10-11 2011-06-21 Apple Inc. Multimedia control center
US7853898B2 (en) * 2005-11-17 2010-12-14 International Business Machines Corporation Method and apparatus for managing image display in a digital image display apparatus
KR20080077269A (ko) * 2005-12-14 2008-08-21 야파 코포레이션 화상 표시 장치
JP2007257465A (ja) * 2006-03-24 2007-10-04 Fujifilm Corp 画像表示装置および方法並びにプログラム
GB0612636D0 (en) * 2006-06-26 2006-08-02 Symbian Software Ltd Zooming transitions
JP4885768B2 (ja) * 2007-03-02 2012-02-29 株式会社リコー 表示処理装置、表示処理方法、および表示処理プログラム
WO2010038296A1 (ja) * 2008-10-01 2010-04-08 任天堂株式会社 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
KR101719980B1 (ko) * 2010-06-22 2017-03-27 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
US8205171B2 (en) * 2009-09-01 2012-06-19 Oracle International Corporation System and method for providing graphical user interface displaying multiple views

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584219A (ja) * 1991-09-25 1993-04-06 Olympus Optical Co Ltd 画像フアイル装置
WO2000033571A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif de delivrance d'information
JP2005032219A (ja) * 2003-06-20 2005-02-03 Canon Inc 画像表示装置およびその画像表示方法
JP2005031830A (ja) * 2003-07-09 2005-02-03 Fuji Photo Film Co Ltd 画像表示方法及び画像表示用プログラム
JP2007509403A (ja) * 2003-10-23 2007-04-12 マイクロソフト コーポレーション データの属性に基づくデータ集合の3次元画面のグラフィカル・ユーザ・インタフェース
JP2006172090A (ja) * 2004-12-15 2006-06-29 Fuji Photo Film Co Ltd 代表画像選択装置および方法並びにプログラム
EP1923835A1 (en) 2005-08-12 2008-05-21 Sony Computer Entertainment Inc. Face image display, face image display method, and face image display program
JP2007193592A (ja) * 2006-01-19 2007-08-02 Konica Minolta Photo Imaging Inc 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
EP2352118B1 (en) 2017-08-16
US20110181617A1 (en) 2011-07-28
US20140320524A1 (en) 2014-10-30
EP2352118A1 (en) 2011-08-03
EP2352118A4 (en) 2013-01-02
US8797348B2 (en) 2014-08-05

Similar Documents

Publication Publication Date Title
WO2010061661A1 (ja) 画像表示装置、画像表示方法及び情報記憶媒体
US11227446B2 (en) Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
JP5592011B2 (ja) マルチスケール3次元配向
WO2005069170A1 (ja) 画像ファイル一覧表示装置
US20120102438A1 (en) Display system and method of displaying based on device interactions
JP2013037675A (ja) 近距離動作のトラッキングのシステムおよび方法
JP2007293429A (ja) 画像閲覧装置、コンピュータの制御方法及びプログラム
WO2010038822A1 (ja) 情報処理装置、情報処理方法、情報記憶媒体及びプログラム
JP2002196855A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
CN104081307A (zh) 图像处理装置、图像处理方法和程序
TW201626166A (zh) 以手勢爲基礎之三維影像操控技術
JPWO2015159548A1 (ja) 投影制御装置、投影制御方法及び投影制御プログラム
US9457275B2 (en) Information processing device
JPWO2019069575A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7154789B2 (ja) 表示制御装置、その制御方法、プログラム及び記憶媒体
JP2006039872A (ja) 情報処理方法及び情報処理装置
JP5446700B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5265315B2 (ja) 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP4871345B2 (ja) 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP4871346B2 (ja) 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2010128587A (ja) 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
EP3961362A1 (en) Mobile device and mobile device control method
CN111652986A (zh) 舞台效果呈现方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
REEP Request for entry into the european phase

Ref document number: 2009828911

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009828911

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09828911

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12810118

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE