WO2002069276A1 - Dispositif de commande d'affichage, dispositif terminal d'information equipe de ce dispositif de commande d'affichage, et dispositif de commande de position de point de vue - Google Patents

Dispositif de commande d'affichage, dispositif terminal d'information equipe de ce dispositif de commande d'affichage, et dispositif de commande de position de point de vue Download PDF

Info

Publication number
WO2002069276A1
WO2002069276A1 PCT/JP2001/004784 JP0104784W WO02069276A1 WO 2002069276 A1 WO2002069276 A1 WO 2002069276A1 JP 0104784 W JP0104784 W JP 0104784W WO 02069276 A1 WO02069276 A1 WO 02069276A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information object
viewpoint
distance
viewpoint position
Prior art date
Application number
PCT/JP2001/004784
Other languages
English (en)
French (fr)
Inventor
Toru Kamiwada
Takushi Fujita
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to JP2002568316A priority Critical patent/JP4077321B2/ja
Priority to EP01936878A priority patent/EP1363246A4/en
Publication of WO2002069276A1 publication Critical patent/WO2002069276A1/ja
Priority to US10/639,517 priority patent/US20040141014A1/en
Priority to US11/320,345 priority patent/US7812841B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Definitions

  • the present invention makes it possible to smoothly move a viewpoint in a space where a plurality of information objects having different dimensions and shapes are arranged, and to search for an object by an intuitive operation
  • the purpose of the present invention is to provide a display control device that realizes an appropriate moving direction and moving speed based on target information.
  • the present invention relates to an information terminal device provided with the display control device, and a display control program for causing a computer to perform processing in the display control device.
  • Japanese Patent Application Laid-Open No. 2000-172248 by the inventor of the present invention is known as a three-dimensional display control device that provides a comfortable environment for browsing an electronic document having a hypertext structure on a display. This is to place a group of electronic documents with a hypertext structure in a single virtual space based on the link structure, and to browse electronic documents based on the field of view defined in the virtual space. Generate a display image and display it on a display device. In addition, the visual field is continuously changed according to a user's instruction, and a display image based on the visual field at that time is continuously generated in real time and displayed on the display device. As a result, the user can continuously enlarge and display the document by browsing the document through the hypertext link while continuously changing the field of view in the virtual space.
  • FIG. 1 shows an example of a change in the display screen according to the present invention.
  • the electronic document 602 is linked by a hypertext structure, and from there, the electronic document 613 is further linked.
  • the screen example 62 is displayed by zooming in from the state of the screen example 61, and the screen example 63 is displayed by further zooming in.
  • a method has already been devised in which a three-dimensional product catalog is distributed via the Internet, and the terminal can rotate and move the three-dimensional shape on the screen and display it by user operation. ing.
  • a typical example is a so-called Web 3D, which converts a three-dimensional shape of a product or the like from a server on the Internet in VRML (Virtual Reality Modeling Language) format or a unique format.
  • the three-dimensional shape is displayed on the screen by a program for displaying such a three-dimensional shape at the user terminal.
  • the display object is selected by selecting an item with a mouse or the like from an HTML document displayed by a normal WWW browser. That is, the program is for displaying a single three-dimensional shape.
  • the program is implemented as a browser plug-in, a Java program, or an ActiVex object.
  • the conventional three-dimensional display control device has the following problems.
  • a single three-dimensional shape can be displayed in a browser window or the like, and can be rotated or partially enlarged. Therefore, until the shape was displayed, it was necessary to select the display target by clicking an option with a mouse, selecting a menu, or performing a conditional search on a general browser. . Disclosure of efforts
  • a first object of the present invention is to provide a display that enables a smooth viewpoint movement in a space in which a plurality of information objects having different dimensions and shapes are arranged, and that enables an intuitive operation to search for an object. It is to provide a control device.
  • a second object of the present invention is to provide an information terminal device including the display control device.
  • a third object of the present invention is to provide an information processing apparatus in which a plurality of information objects having different dimensions and shapes are arranged, and a proper moving direction is determined based on geometric information of the information object to be moved. And a viewpoint position control device that realizes a moving speed.
  • the present invention is a display control device that displays a plurality of chained linked information objects including an information object indicating a three-dimensional shape in a three-dimensional virtual space.
  • a visual field determining means for determining a visual field to be displayed so as to trace the surface of the information object;
  • Display image generating means for generating a display image of a plurality of linked information objects based on the visual field, and displaying the display image on a display device, thereby displaying the information object corresponding to the visual field movement. It is configured to display.
  • a display image of a plurality of linked information objects is generated based on the visual field determined based on the shape of the information object to be watched, and displayed on the display device.
  • the information object is an information object or the like expressed in a three-dimensional virtual space on a display device by an electronic document having a hypertext structure provided via the Internet.
  • the present invention manages the relative positional relationship and scale ratio of each information object in the virtual space as link information.
  • Link information management means wherein the visual field determination means switches the information object to be watched to an information object arranged in the movement direction indicated by the visual field movement instruction based on the link information,
  • the visual field is determined on the basis of the shape of the switched information object
  • the display image generating means includes a plurality of linked information objects based on the positional relationship and the scale ratio of the link information.
  • the information object to be displayed can be selected and the display image can be generated.
  • the information object to be watched can be switched to the information object arranged in the movement direction based on the link information, and based on the positional relationship and the scale ratio of the link information, Information to display Ability to select projects.
  • the information object to be watched and other information objects to be displayed can be automatically selected from the positional relationship and the scale ratio of the link information according to the moving direction such as up, down, left, right, zoom in, zoom out, and the like. It becomes possible. Therefore, the information objects can be smoothly displayed while sequentially cascading the linked information objects in accordance with the movement of the visual field.
  • the present invention is based on the premise that the visual field determining means uses a predefined three-dimensional shape according to the three-dimensional shape of the information object.
  • a gazing point movement path calculating means for calculating a gazing point movement path based on the curved surface; and a gazing point movement calculating means for calculating a gazing point movement based on the shape of the information object.
  • the visual field movement calculating means may be configured to calculate the visual field movement based on the calculation result by the gazing point movement path calculating means.
  • the visual field movement is calculated based on the calculation result of the gazing point movement, so that the shape of the information object having different dimensions is adjusted.
  • the visual field can be moved.
  • the movement path of the point of gaze is calculated so as to trace the curved surface.
  • the present invention can be a display control program to be executed by a computer, and a storage medium storing the display control program.
  • the present invention further displays a plurality of chained linked information objects including an information object indicating a three-dimensional shape in a three-dimensional virtual space.
  • An information terminal device comprising the display control device according to any one of claims 1 to 3, further comprising an instruction receiving unit that receives an instruction to move the visual field in the three-dimensional virtual space by a user's operation in the visual field moving direction. It is composed of
  • an information object can be displayed in real time in a three-dimensional virtual space based on a visual field movement instruction by a user's operation in the visual field movement direction.
  • the present invention provides a viewpoint position control device that controls a viewpoint position for a plurality of information objects having a certain shape displayed in a three-dimensional virtual space.
  • Determination means for determining, as a reference information object, an information object displayed closest to the viewpoint position according to the input; and a moving speed of the viewpoint according to the determined distance between the reference object and the viewpoint position.
  • Speed changing means for changing a viewpoint position based on the reference information object so that the viewpoint moves at a moving speed corresponding to a distance to the viewpoint position, and the plurality of information objects are It is configured to be displayed.
  • the information object at the viewpoint is determined because the information object closest to the viewpoint position is determined as the reference object. Also, since the viewpoint position is controlled by the speed changing means so that the viewpoint moves at a moving speed corresponding to the distance to the viewpoint position, when the viewpoint position is close to the viewpoint, the viewpoint moves slowly. On the other hand, when the viewpoint is far away, the plurality of information objects can be displayed as if the viewpoint is moving quickly.
  • the present invention can be a display control program for causing a computer to execute, and a storage medium storing the display control program.
  • FIG. 1 is a diagram showing a change example of a conventional display screen.
  • FIG. 2 is a diagram illustrating a functional configuration of the display control device. .
  • FIG. 3A is a diagram illustrating the viewpoint movement when the planar information object is translated in parallel
  • FIG. 3B is a diagram illustrating the viewpoint movement when the tilt operation is performed on the planar information object
  • FIG. -Fig. 4A is a diagram illustrating the viewpoint movement when a three-dimensional information object is translated
  • Fig. 4B is a diagram illustrating the viewpoint movement when a three-dimensional information object is tilted.
  • FIG. 5 is a view for explaining a visual field movement with respect to a planar target surface.
  • FIG. 6 is a view for explaining a visual field movement with respect to a spherical target surface.
  • FIG. 7 is a diagram illustrating movement of the visual field with respect to the target surface in a free state.
  • FIG. 8 is a flowchart illustrating a process of moving the visual field with respect to a planar target surface.
  • FIG. 9 is a flowchart for explaining the process of moving the visual field to a spherical or free-form target surface.
  • FIG. 10 is a diagram showing an example of a chain link of information objects.
  • FIG. 11 is a diagram illustrating an example of a screen change due to a viewpoint movement.
  • FIG. 12A is a diagram illustrating an example of an information terminal device including a display control device
  • FIGS. 12B and 12C are diagrams illustrating examples of a remote controller that performs a visual field movement operation.
  • FIG. 13 is a diagram illustrating another example of the information terminal device including the display control device.
  • FIG. 14 shows a configuration diagram of the three-dimensional data browsing apparatus.
  • FIG. 15 is a diagram showing a display example of a three-dimensional data browsing screen.
  • FIGS. 16A to 16D are diagrams showing examples of changes in the three-dimensional data browsing screen when the viewpoint is approached to a spherical information object.
  • FIG. 17 is a diagram showing a link structure of each information object.
  • FIG. 18 is a flowchart illustrating a display process in the three-dimensional data browsing device.
  • FIG. 19 is a diagram illustrating an example of the speed of viewpoint movement according to the viewpoint position.
  • FIG. 20 is a flowchart illustrating the reference information object determination processing.
  • FIG. 21 is a diagram illustrating an example of the direction of viewpoint movement when the planar information object is the reference object. ⁇
  • FIG. 22 is a diagram illustrating an example of the direction of viewpoint movement when a spherical information object is a reference information object.
  • FIG. 23 is a diagram showing a state in which another small information object having a different geometric model exists before the information object.
  • -FIG. 24 is a diagram illustrating an example of a reference distance for performing distance processing.
  • FIG. 25 is a flowchart illustrating the viewpoint distance processing.
  • FIG. 26 is a graph showing the correspondence between the distance before processing and the distance after processing.
  • FIG. 27 is a diagram illustrating an example of distance processing when two information objects having different geometric models exist in the viewpoint direction.
  • FIG. 28 is a diagram illustrating an example of distance processing when another information object is viewed from an information object having a different geometric model.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of the display control device.
  • the display control device 100 includes an information object data acquisition unit 101, an information object data storage unit 102, a user instruction reception unit 103, a visual field determination unit 104, and a display. Communication with an image generation unit 105, a display control unit 106, a plurality of visual field movement calculation units 107, a plurality of information object display units 108, and a fixation point route calculation unit 109 It has a control unit 110 and an installer 111.
  • the information object data acquiring unit 101 acquires information object data from the Web information acquired via the network 118 such as the Internet by the communication control unit 110, and stores the information object data into a predetermined information object data storage unit 1. 0 2-Store the acquired information object data.
  • a relative position relation and a scale ratio in the virtual space are stored as link information defining a mutual relation between information objects.
  • the user instruction receiving unit 103 receives data indicating the visual field moving direction specified by the user.
  • the visual field determining unit 104 determines the information object to be processed stored in the information object data storage unit 102. According to the shape, the visual field is determined by using the calculation results of the visual field movement calculation unit 107 and the gazing point movement path calculation unit 109.
  • the display image generating unit 105 based on the visual field data determined by the visual field determining unit 104, converts the display images of all the information objects displayed in the range of the visual field according to the shape of each information object. Generate.
  • the display control unit 106 controls the display device to display the display image generated by the display image generation unit 105. That is, the display control unit 106 generates display image data for displaying the information object based on the visual field data, using the information object display unit 108 corresponding to the shape of each information object.
  • the visual field movement calculation unit 107 calculates the visual field movement amount including the moving distance, the angle change, and the moving direction information according to the shape of the information object. However, if the shape of the information object is a spherical surface or a free-form surface, the gaze point movement path calculation unit 109 calculates the movement path of the gaze point according to the shape of the information object, and then calculates the visual field movement amount. You.
  • visual field movement and information suitable for various types of information objects such as planar information objects and three-dimensional information objects You can display objects.
  • the communication control unit 110 performs connection and disconnection processing with the network 118, and controls data transmission and reception.
  • the installer 111 may execute, for example, a program for executing processing by the above-described processing units that control the display control device 100 from a CD-ROM 119 as a computer-readable storage medium. Install to 100.
  • the installed program is executed by the CPU (Central Processing Unit) of the display control device 100, and the above-described processing units are realized.
  • the medium for storing the program is not limited to CD-ROM 119, but may be any medium that can be read by a computer.
  • the visual field movement calculation unit 107 and the information object display unit 1 can be stored on a storage medium such as the Internet 118 or CD-ROM 119 as necessary. 08 may be acquired and used by the visual field determination unit 104 and the display image warning unit 105.
  • FIG. 3 is a diagram for explaining viewpoint movement with respect to a planar information object.
  • FIG. 4 is a diagram for explaining viewpoint movement for a three-dimensional information object.
  • a target plane 401 on the information object indicates a target plane to which the viewpoint is to be zoomed in.
  • the viewpoint position 402 indicates the viewpoint position of the user's current visual field.
  • the fixation point 403 indicates the position of the fixation point on the information object in the current field of view of the user.
  • the gazing point 400 is the intersection of the center line of the visual field and the target surface.
  • the viewpoint moving path 4111 indicates a moving path of the viewpoint associated with the zoom-in or zoom-in operation.
  • the viewpoint movement path 4 12 indicates the movement path of the viewpoint associated with the left / right movement operation
  • the viewpoint movement path 4 13 indicates the movement path of the viewpoint associated with the up / down movement operation.
  • the viewpoint movement path 4 14 indicates the movement path of the viewpoint accompanying the tilt operation.
  • the viewpoint movement route 4 15 indicates the viewpoint movement route associated with the rotation operation.
  • the broken arrows in the figure show examples of the line of sight when the viewpoint in the visual field moves along each viewpoint moving path. The tip of the dashed arrow is the gazing point at that time.
  • the viewpoint moves as close as possible to the gazing point 4 03 on the target plane 4 0 1 along the movement path 4 1 1. Further, when the zoom operation is performed, the viewpoint moves along the path of the movement path 411 so as to move away from the target plane. In these zoom operations, the viewpoint moving speed changes in proportion to the distance between the viewpoint and the target plane. As a result, the movement becomes as close as possible to the gazing point on the target surface, and the zoom display is realized.
  • the viewpoint moves along the paths indicated by the viewpoint movement paths 41 2 and 4 13, respectively.
  • the gazing point 400 moves on the target plane.
  • the display control device 100 changes the line of sight to the target surface 4 based on the information indicating the visual field movement direction from the user instruction receiving unit 103 of FIG. 0 View point position 4 0 2 and fixation point 4
  • the display control device 100 is configured to change the line of sight based on the information indicating the visual field moving direction from the user instruction receiving unit 103 in FIG. View point position 4 0 2 and fixation point 4 0 3 To move.
  • the viewpoint position 402 and the gazing point 403 are moved while keeping the tilt angle indicating the angle between the viewing direction and the target surface constant.
  • the display control device 100 when the user performs the tilt operation of the visual field, the display control device 100 is configured based on the information indicating the visual field moving direction from the user instruction receiving unit 103 of FIG. The user moves along a viewpoint moving path 414 where the distance between the viewpoint position 402 and the gazing point 403 is constant. In other words, in the tilt operation, the display control device 100 keeps the distance between the viewpoint position 402 and the gazing point 400 constant, and sets the line of sight connecting the viewpoint position 402 and the gazing point 403 to the target. Move the viewpoint position 402 while changing the angle with the plane 401.
  • the viewpoint position 402 moves along the viewpoint moving path 415.
  • the display control device 100 keeps the position of the point of interest 4003, the distance from the point of interest 4003 to the viewpoint point 402, the angle and the tilt angle constant, and the point of interest 4 Move the field of view so that it rotates about the perpendicular to the target plane at 03.
  • a target surface shape does not necessarily need to exactly match the shape of the information object.
  • a spherical target surface may be assigned to an information object that has irregularities but is nearly spherical.
  • FIG. 5 is a view for explaining a visual field movement with respect to a planar target surface.
  • FIG. 6 is a view for explaining a visual field movement with respect to a spherical target surface.
  • FIG. 7 is a diagram for explaining the movement of the visual field with respect to the ten free-form targets.
  • 1 x , 1 y , and 1 z are vectors that define the x, y, and z axes of the local coordinate system of the information object that defines the target plane.
  • v x , v y , and v z be vectors representing the x, y, and z axes of the viewpoint coordinate system, respectively. Is the position of the viewpoint, that is, the origin of the viewpoint coordinate system.
  • T be the gazing point on the target plane. Viewpoint V.
  • the line connecting the gazing point T and the gazing point T is called the line of sight.
  • the field of view is defined such that is the center line of the field of view. That is, the field of view is defined so that the point of interest is at the center of the screen.
  • v x determines the direction of the field of view so as to coincide with the horizontal right direction of the screen
  • v y determines the direction of the visual field so as to coincide with the downward direction of the screen.
  • the moving direction of the gaze point corresponding to the left and right and the viewing movement instruction to the up and down by the user respectively indicated by arrows with lines C u and C v.
  • Direction of C u is a direction based on the shape of the target surface of the intersection of the X z plane and the target surface of the viewpoint coordinate system, the intersection line between C v direction of the yz plane and the target surface of the viewpoint coordinate system The direction is based on the shape of the target surface.
  • the gazing point When moving the field of view up and down or left and right, the gazing point is moved along the target plane so that the tilt angle and the rotation angle of the field of view with respect to the target plane do not change.
  • the viewing determination section 1 0 shown in FIG. 2, 4 may simply be determined so as to move in parallel the field of view C u or C v.
  • the moving path cu or cv of the gazing point T is moved to a curve while changing the direction of the viewpoint coordinate system in addition to the parallel movement of the visual field.
  • C u Oyopi C V is Note in addition viewpoint T, viewpoint coordinate system of the xz plane some have the yz plane and a necessarily coincide with the intersection of the target surface les. Therefore, the gazing point movement route Cu or Cv is obtained for each type of curved surface.
  • FIG. 8 is a flowchart illustrating the process of moving the visual field with respect to the planar target surface.
  • the user instruction receiving unit 103 in FIG. 2 receives the user's input instruction (step S101) and determines whether the user's input instruction is an instruction to move the field of view up, down, left, or right. (Step S102).
  • the user instruction receiving unit 103 determines that the user's input instruction is not an instruction to move the field of view up, down, left, or right, it executes step S103 and performs processing according to the user's input instruction (step S103). 103), the process returns to step S101 and waits for the next user's input instruction.
  • step S104 the moving direction vector t of the gazing point T is obtained.
  • the visual field determining unit 104 activated by the user instruction receiving unit 103 receives the xy plane of the visual point coordinate system at the fixation point T.
  • the vector in the direction of intersection with the target surface is determined and defined as the vector in the moving direction t.
  • the moving direction vector t is the angle between v x chooses a positive direction so as not to obtuse.
  • step S 105 the moving distance d of the fixation point T is obtained.
  • the visual field determination unit 104 gives the visual direction movement vector t to the visual field movement calculation unit 107 to calculate the moving distance d.
  • the visual field movement calculation unit 107 determines the movement direction based on the movement direction given by the visual field determination unit 104. Calculate the moving distance d of the gaze point from the vector t.
  • step S106 the visual field determination unit 104 translates the visual field in the direction of the vector t by the distance d calculated by the visual field movement calculation unit 107.
  • step S107 the display image generation unit 105 generates a drawing based on the parallelly moved view data acquired from the view determination unit 104.
  • the display control unit 106 performs display based on the drawing data generated by the display image generation unit 105.
  • the device displays a drawing according to the new visual field.
  • step S108 it is determined whether or not to end. In the case of termination, the processing ends. On the other hand, if the processing has not been completed, the process returns to step S101 to accept an input instruction from the next user.
  • FIG. 9 is a flowchart illustrating the process of moving the visual field to a spherical or free-form target surface.
  • the user instruction receiving unit 103 in FIG. 2 receives the user's input instruction (step S122), and determines whether the user's input instruction is an instruction to move the field of view up, down, left, or right. (Step S 1 2 2).
  • the user instruction receiving unit 103 determines that the user's input instruction is not an instruction to move the field of view up, down, left, or right, it executes step S103 and performs processing according to the user's input instruction (step S103). 1 2 3), and returns to step S 12 1 to wait for the next user's input instruction.
  • the user instruction receiving unit 103 determines that the user's input instruction is an instruction to move the field of view up, down, left, or right, it activates the field of view determining unit 104 and executes step S124. I do.
  • step S124 a tangent vector t in the moving direction of the gazing point T at the current position of the gazing point T is obtained.
  • the visual field determining unit 104 activated by the user instruction receiving unit 103 transmits the xy plane of the viewpoint coordinate system at the fixation point T to the target plane.
  • the vector in the direction of movement is determined by finding the tangential vector of the intersection.
  • the positive direction of the moving vector t is selected so that the angle between v and x does not become obtuse.
  • step S125 the moving distance d of the fixation point T is obtained.
  • the visual field determination unit 104 gives the visual direction movement vector t to the visual field movement calculation unit 107 to calculate the moving distance d.
  • the field-of-view movement calculation unit 107 converts the data of the curved surface information object displayed on the display device acquired from the information object data storage unit 102 Based on perspective V.
  • the distance of the gazing point is calculated based on the distance between the gazing point and the gazing point T.
  • step S ⁇ b> 126 the visual field determination unit 104 further determines the type of the surface based on the data of the information object of the surface displayed on the display device obtained from the information object data storage unit 102.
  • a point moved by the distance d from the current gazing point ⁇ along the target plane in the positive direction t is obtained as a new gazing point T.
  • step S127 the field-of-view determination unit 104 uses the field-of-view movement calculation unit 107 to set the field of view corresponding to the new point of interest so that the tilt angle and rotation angle in the current field of view are preserved.
  • This method includes, for example, setting the viewpoint V so that the line of sight intersects with the newly obtained gazing point while maintaining the distance from the viewpoint to the gazing point, the tilt angle, and the rotation angle. And the direction of the vector v z .
  • X z plane defined by the base vector V x and V y are to include tangent C u which definitive a new gazing point Ding, defines the direction of the base vector V x and V y.
  • step S1208 the display image generating unit 105 generates a drawing based on the visual field data corresponding to the curved surface shape acquired from the visual field determining unit 104.
  • the display control unit 106 causes the display device to display a drawing according to a new visual field based on the drawing data generated by the display image generating unit 105.
  • step S129 it is determined whether or not to end. In the case of termination, the processing ends. On the other hand, if not terminated, the process returns to step S121 to accept the input instruction of the next user.
  • the apparatus has a gazing point movement path calculation unit 109 along the target plane prepared for each type of shape of each target plane, and the visual field determination unit 104 includes an information object data storage unit.
  • the moving path calculation unit corresponding to the type of the corresponding target surface may be selected.
  • FIG. 10 is a diagram showing an example of a chain link of information objects.
  • FIG. 10 shows that the spherical information object S 201 links to the planar information objects A 202, B 203 and C 204.
  • the information object A 202 indicates that it is linked to the cube information objects X 205 and Y 206.
  • the starting point of the arrow is the information object of the link source, and the ending point of the arrow is the information object of the link destination.
  • the link destination information object of each link is arranged near the surface of the link source information object at a smaller scale than the link source information object.
  • planar information objects A202, B203, and C204 as the link destination information objects have a small scale near the surface of the spherical information object S201 as the link source information object. It is arranged in. Furthermore, the cubic information objects X205 and Y206 as the link destination information objects are arranged on a small scale near the surface of the planar information object A202 as the link source information object.
  • the definition of the link destination information object for such a link source information object can be defined by defining a local coordinate system for each information object and determining a transformation matrix between those coordinate systems.
  • oral coordinates having the center as the origin are defined.
  • a local coordinate system is defined such that the center of the plane is the origin and the plane coincides with the y-plane.
  • the origin of the latter local coordinate system is located near the surface of the sphere with respect to the former local coordinate system, and its z-axis direction is positioned so as to point to the origin of the latter local coordinate system.
  • the scale ratio is set so that the latter is smaller than the former.
  • This definition can be defined by a transformation matrix between the two coordinate systems.
  • FIG. 11 is a diagram illustrating an example of a screen change due to a viewpoint movement.
  • a spherical information object S 201 is put on the screen 21.
  • the information object in the virtual space is visualized with the visual field defined at the position where the target is viewed from the front, brute force, and relatively far away. Since the information object S201 is spherical, the viewpoint moving process shown in FIG. 9 is selected in response to the viewpoint moving operation by the user.
  • the information objects A202, B203 and C204 are clearly displayed.
  • information objects to be displayed on the screen are automatically selected and displayed based on the positional relationship between the field of view and each information object.
  • the invisible information object gradually becomes opaque and appears on the screen.
  • the information objects A202, B203, and C204 are turned rightward so as to wrap around the back side of the spherical information object S201. Go to As shown in the screen 24, the information object C204 wraps behind the spherical information object S201 and is hidden. Further, by continuously moving the field of view to the left, similarly, the information object B203 also wraps behind the spherical information object S201, and as shown in the screen 25, the information object A203. 0 2 is displayed on the front of the information object S 2 0 1. Here, by moving the field of view to the left, the field of view moves along the path such as the viewpoint moving path 412 shown in FIG. 4A so as to move to the side of the information object S201.
  • the information object A202 comes to the front.
  • the zoom-in operation is performed from this state, the information object A 202 is displayed in a large size as shown in a screen 26, and the information objects X 205 and Y linked from the information object A 202 are displayed. 206 appears.
  • the information object of interest switches from the information object S201 to the information object A202.
  • the visual field moving method as shown in FIG. 5 is selected.
  • the viewpoint moves along the viewpoint movement paths 4 12 and 4 13 shown in FIG. 3A, and information is displayed as shown in screens 2.7.
  • Object A 202, X 205 and Y 206 are displayed.
  • the information object X 205 is displayed in a large size as shown in a screen 28.
  • the target information object moves from the information object A 202 to the information object X 205.
  • the visual field movement processing shown in FIG. 8 is switched to the visual field movement processing shown in FIG.
  • An information terminal device provided with a display control device 100 that realizes the above-described processing by a visual field moving operation device in which a user performs a visual field moving operation has, for example, a configuration as shown in FIGS. 12 and 13. can do.
  • FIG. 12A, FIG. 12B, and FIG. 12C are diagrams illustrating examples of an information terminal device including a display control device.
  • the information terminal device 100 is a display device 5 that displays the display data on a screen 502 based on the display data transmitted from the display control unit 106 in FIG. 0, a remote controller 503 for performing processing in the user instruction receiving unit 103 of FIG. 2, and an information terminal for controlling the entire display device 100 by controlling each processing unit shown in FIG.
  • CD-ROM driver 506 And -The screen 502 of the display device 501 changes continuously according to the movement of the visual field when the user operates the remote controller 503.
  • the remote controller 503 that performs the visual field movement operation is configured, for example, as shown in FIGS. 12B and 12C.
  • the remote controller 503 includes a power button 521 for turning on / off the power, an information input button 522 such as a ten-key pad, and a visual field movement button 523 for instructing a visual field movement. Having.
  • the remote controller 503 instructs the power button 5 2 1 for turning on or off the power, the information input button 5 22 such as a numeric keypad, the visual field movement joystick 5 2 4, and the visual field movement. It has a visual field movement button 5 2 3 1.
  • the operation in the up, down, left, and right directions of the view movement button 5 23 shown in FIG. 12B can be realized by the view movement joystick 5 24.
  • zoom-in, zoom-out, tilt, and rotation operations can be performed with the view movement buttons 5 2 3 1.
  • FIG. 13 is a diagram illustrating another example of the information terminal device including the display control device. This is an example applied to a portable information terminal device.
  • the information terminal device 1001 displays the display data controlled by the display control unit 106 in FIG. 2, similarly to the information terminal device 1000 shown in FIG. 12. It has an information input button 522 and a visual field movement button 523 having the same function as the remote controller 53 shown in FIG. 12B or FIG. 12C.
  • the present invention automatically selects a view movement method from among the plurality of view movement processes according to the form and content of the information object of which the current view is the target of interest.
  • Field of view movement processing can be performed based on instructions and the like. Therefore, a planar information object or a three-dimensional information object is simply Even in the case where the objects are mixed in the space of —, the user can browse the information object while moving the field of view smoothly by a common operation without being particularly aware of the difference.
  • the information object data storage unit 102 stores and manages a relative positional relationship and a scale ratio in the virtual space as link information that defines a mutual relationship between information objects, and thereby controls a visual field determining unit.
  • the information object to be watched is automatically selected by 104, and the information object to be displayed in the determined field of view is automatically selected by the display image generation unit 105. An image is generated. Therefore, it is possible to realize a change in the visual field according to the user's visual field movement instruction.
  • the user can search for an object by an intuitive operation without performing an operation of clicking with a mouse or the like.
  • the viewpoint position, line-of-sight direction, viewing angle, and the like are usually stored in a virtual three-dimensional space in which the three-dimensional shape data is arranged as information objects. And project them on a two-dimensional plane based on them.
  • zoom which enlarges or reduces a displayed object on a two-dimensional plane. It provides a unified user interface for the entire image of the data and the fine structure of each part by enlarging or reducing the two-dimensional data to be displayed. This is a display interface that is particularly effective when the data to be displayed has a hierarchical structure.
  • the moving speed can be viewed in two ways.
  • One is the amount of screen change per unit time, which is how long it takes, for example, to move something displayed in the center of the screen to the edge of the screen.
  • the amount of change in the screen is set to be constant regardless of the zoom ratio by zooming.
  • Another moving speed in zooming is a relative speed with respect to the displayed object, and is a moving amount per unit time with respect to the displayed object displayed on the screen.
  • this relative speed increases when viewing the entire image, and decreases when viewing the details.
  • zooming in and out of a two-dimensional plane with a zoom can be regarded as movement toward or away from a two-dimensional plane in a three-dimensional space.
  • the relative speed of the zoom object with respect to the display object becomes the absolute speed in such a three-dimensional space, and can be expressed as changing according to the distance between the two-dimensional plane and the viewpoint position in the three-dimensional space.
  • the moving speed of the viewpoint position is often constant. If the moving speed of the viewpoint position is constant, the viewpoint position is set far from the 3D information object, and when operating globally, the moving speed is felt to be slower than necessary. If you place a viewpoint near and operate a detailed part, it may be too fast and you may not be able to perform detailed operations.
  • the distance between the position where the 3D information object exists and the viewpoint position is measured, and the speed is changed according to the value, so that the user can see and operate the entire image and the details.
  • To move the viewpoint position at an appropriate speed is the same method as expressing the zoom for a two-dimensional plane in three dimensions.
  • Speed control according to this distance is sufficient when there is only one 3D information object to be displayed.
  • there are a plurality of such 3D information objects there are also a plurality of distances between the viewpoint position and the 3D information object that are required for speed control, and the viewpoint movement speed at a certain position is reduced. Cannot be uniquely determined.
  • the information object closest to the viewpoint position The speed of the viewpoint is determined based on the distance to the information object. Assuming that the closest information object is the reference information object, the speed decreases when the viewpoint position approaches the reference information object, and increases when the viewpoint position moves away from the reference information object. If another information object is closer to the viewpoint position than the current reference information object during movement, the information object is set as a new reference information object, and the movement speed of the viewpoint is changed according to the distance from the viewpoint position to the information object. Let it. This distance is calculated by using information that each information object has in addition to the three-dimensional shape data, and the distance is actually obtained from the information and the viewpoint position.
  • the information held by each information object to calculate this distance is hereinafter referred to as the “geometric model” of each information object.
  • the 3D information object has information representing a plane as a geometric model
  • the distance to the plane is obtained.
  • the object is a spherical geometric model
  • the distance from the viewpoint position to the center of the sphere is first obtained.
  • the value obtained by subtracting the radius of the sphere from is the distance.
  • the viewpoint in addition to the method of calculating the distance, it is also possible to define information on the movement method for the operation by the user.
  • the direction to move is determined from the geometric model, and the speed is determined at the same distance as the geometric model.
  • the processing it is possible to realize viewpoint movement according to the shape of each information object.
  • a method of realizing the processing based on the above “geometric model” will be described by taking a 3D data browsing apparatus realized by a 3D data browsing program as an example.
  • FIG. 14 shows a configuration diagram of the three-dimensional data browsing apparatus.
  • a three-dimensional data browsing device 20000 controls a whole of the three-dimensional data browsing device 2000, and a control unit 201 controls data input from an input device 214.
  • a storage unit that stores a management unit 211, a communication unit 211 that controls data communication with the external network 205, and a three-dimensional data browsing program that realizes browsing using three-dimensional data. It has an installer 201 installed from the CD-ROM 201, a reference information object determination processing unit 2021, and a viewpoint distance processing unit 2022.
  • the control unit 201 is a CPU (Central Processing Unit) of the three-dimensional data browsing device 2000, and controls the entire device.
  • CPU Central Processing Unit
  • the input device 214 has, for example, a remote controller 503 shown in FIG. 12B or FIG. 12C, and controls data input according to a user operation.
  • the reference information object determination processing unit 2021 determines a reference information object by comparing the distance from the viewpoint position to a plurality of information objects. Further, the reference information object determination processing unit 2021, based on the geometric model information of the reference information object determined by the information object data management unit 211 in the information object data DB 210, It is possible to determine the direction and speed of viewpoint movement up, down, left and right. .
  • the viewpoint distance processing unit 202 has a local coordinate system indicated by geometric model information for each information object managed by the information object data DB 210 by the information object data management unit 211. Based on, process the distance from the viewpoint position. This allows the reference information object determination processing unit 2021 to compare the distance to the viewpoint position between information objects having different geometric model information, and to appropriately determine the reference information object.
  • FIG. 15 is a diagram showing a display example of a three-dimensional data browsing screen.
  • FIG. 15 shows an example of a three-dimensional data browsing screen displayed on the display device 205 by the three-dimensional data browsing program installed by the installer 201. Display by projecting information objects 2 0 3 1 to 2 0 3 5 arranged in a virtual 3D space onto a 2D plane based on information on the viewpoint position set in the 3D space It is a display example of the three-dimensional data browsing screen 2 0 3 0 displayed on the device 2 0 15. This viewpoint position can be moved in various directions by input from the user.
  • Figure 16A to Figure 16D show how the 3D data browsing screen 203 changes when the viewpoint is approached from the state shown in Figure 15 to the spherical object 2003 4 in the screen. .
  • FIGS. 16A to 16D are diagrams showing examples of changes in the three-dimensional data browsing screen when the viewpoint is brought close to a spherical information object.
  • Fig. 16A which shows the information displayed on the 3D data browsing screen 203 on the entirety of the information object 20031 to 20035
  • the viewpoint is changed to the spherical object object 20434.
  • the spherical information object 203 is expanded and the information 206 is visible, and at the same time, the other information object 203 0 3 3 changes to disappear outside the 3D data browsing screen 2 0 3 0.
  • the information 200 36 is displayed on the three-dimensional data browsing screen 200 30 as shown in FIG. 16C. It is displayed at the center and is enlarged with the spherical information object 200 34 to fill the screen.
  • the information 2.036 is enlarged as shown in Fig. 16D, and the user can see what it looks like.
  • the data of each information object to be displayed in the three-dimensional data browsing device 200 is stored in the information object data DB 210 by the information object data management unit 211 in advance.
  • the information is acquired from the external network 200 connected in accordance with the information and stored in the information object data DB 21016.
  • the information held by each information object has, for example, a link structure as shown in Fig. 17 Show.
  • FIG. 17 is a diagram showing a link structure of each information object.
  • the link structure 2002 6 is managed by the information object data DB 201 16 shown in FIG. 14, and the three-dimensional shape data 2221, which specifies the three-dimensional shape, and the viewpoint position and information. It has geometric model information 222 that indicates geometric information necessary for calculating the distance to the object, and link information 222 that indicates information about the linked information object.
  • the link information 222 is a link destination information object name 221 indicating the name of the information object to be linked, and the local coordinate system of the link source information object and the local information of the link destination information object. And a coordinate transformation matrix 2 2 1 2 into a coordinate system.
  • the local coordinate system may be determined based on, for example, the size of the information object and the geometric model information 222 representing the geometric shape.
  • the geometric model information 2202 records the orientation and end points of the plane if it is a plane, and the center position and radius length of the sphere if it is a sphere. It is referred to when the user moves the viewpoint by operating the input device 210.
  • each information object to be displayed in the three-dimensional data browsing apparatus 2000 has a local coordinate system, and vertices, lines, planes, and the like in the coordinate system.
  • the geometric 3D shape of is defined.
  • each information object can own another information object as a link.
  • this link structure 206 all information objects form a single tree structure.
  • the linked information object is referred to as a child of the link source information object: "I" blue report object, and the linked information object is referred to as the parent information object for the linked information object.
  • All information objects except the information object have a unique parent information object, and the parent information object describes the geometric relationship such as the position and size in the three-dimensional space for each child information object.
  • the child information object's data is also converted to a 3D model in the child information object's own local coordinate system. It also has links to additional child information objects.
  • FIG. 18 is a flowchart illustrating a display process in the three-dimensional data browsing device.
  • the control unit 201 of FIG. 14 performs a process P100 of moving the viewpoint position.
  • This processing P 10000 corresponds to, for example, the processing in the visual field determination unit 104 by the visual field movement calculation unit 107 and the gazing point change path calculation unit 109 shown in FIG. The moving distance according to the shape is calculated.
  • This process P2000 is a process of determining a reference information object based on the moving distance of the viewpoint calculated in process P1000 and drawing it on the display device 205. is there.
  • step S2303 it is determined whether or not the power is moving while the viewpoint is being moved. If the viewpoint movement is ongoing, the process returns to process P1000, and the same process as described above is performed.
  • step S2304 If the viewpoint movement is not ongoing, check the input from the user (step S2304). It is checked whether or not an input has been received from the user (step S23050). If there is no input from the user, the flow returns to step S2304, and the same processing is performed again.
  • step S2306 it is determined whether or not the user input is the end command.
  • the display processing on the three-dimensional data browsing device ends. If the user's input is not an end command, the process returns to process P20000 and performs the same process as above.
  • the spherical information object 200 34 is determined as the reference information object. Also, in this case, by referring to the link structure 2022 of the spherical information object 203204, four pieces of link information 22210 are obtained, and based on the coordinate transformation matrix 2221 The four information objects 2.036 are displayed on the three-dimensional data browsing screen 203 on the spherical information object 20334 (Fig. 16B).
  • the reference information object is assumed to be a spherical information object 2 0
  • four child information objects linked from the spherical information object can be visually recognized.
  • the viewpoint when the viewpoint is moved, the viewpoint is changed in accordance with the distance of the nearest information object in the three-dimensional space.
  • the speed of the viewpoint movement is proportional to the distance from the information object.
  • FIG. 19 is a diagram illustrating an example of the speed of viewpoint movement according to the viewpoint position.
  • V 2 (d 2 / ⁇ 1) 1
  • the speed at a certain reference distance d0 is V0
  • the speed V when the distance from the nearest information object is d is a value represented by the following equation.
  • V (d / d 0) V 0
  • the nearest information object is obtained according to the flowchart shown in FIG.
  • the reference information object determination processing unit 2021 in FIG. 14 calculates the distance from the viewpoint position for all information objects, and determines the minimum value of the distance as the reference information object. Execute
  • FIG. 20 is a flowchart illustrating the reference information object determination processing.
  • d is set to infinity (step S2 3 1 1). It is determined whether or not the information object which has not yet been examined has a certain strength (step S2 3 1 2). When all the information objects have been checked, the reference information object determination processing ends.
  • the information of the information object n is extracted from the information object data DB 210 (step S 23). 13 ). Based on the information of the extracted information object n, a distance dn to the viewpoint position of the information object n is set (step S2314), and whether the distance dn to the viewpoint position of the information object n is smaller than d is smaller than d. It is determined whether or not it is (step S2315). If the distance dn from the information object n to the viewpoint position is equal to or longer than d, the process returns to step S2 312 and performs the same processing as described above.
  • step S 2 3 17 the information object n is set as the reference information object (step S 2 3 17), and the process returns to step S 2 3 1 Is performed.
  • the speed is changed according to the distance obtained by the processing by the reference information object determination processing section 2021.
  • a moving speed suitable for the size of the information object displayed on the screen can be realized.
  • the speed is suitable for the operation of moving the viewpoint so that the sphere comes to the center of the screen, or moving the cuboid to the center of the screen
  • the moving speed of the viewpoint is the same regardless of the distance from the information object, in order to move each of the spherical child information objects to the center of the screen in the screen state of Fig. 16D, The speed is too fast, making it difficult to view the child information object. Also, if all movements are made at the speed of moving between child information objects on the screen in Fig.
  • the information object to be browsed by the three-dimensional data browsing device 2000 may have various shapes in three dimensions.
  • the direction of the viewpoint movement changes according to such various shapes. I'm wearing
  • Figure 21 shows the direction of viewpoint movement when the user performs an operation of moving the viewpoint up and down through the input device 210 when the planar information object is the reference information object. explain.
  • FIG. 21 is a diagram illustrating an example of a direction of viewpoint movement when a planar information object is a reference information object.
  • the user inputs an input device to the planar reference information object.
  • the viewpoint position moves upward or downward by operating 201, the viewpoint position moves parallel to the plane.
  • Figure 22 shows the direction of the viewpoint movement when the user performs an operation of moving the viewpoint up and down through the input device 210 when the spherical information object is the reference information object. explain.
  • FIG. 22 is a diagram illustrating an example of the direction of viewpoint movement when a spherical information object is a reference information object.
  • the user inputs an input device to the spherical reference information object.
  • the viewpoint position When the viewpoint position is moved upward or downward by operating 201, the viewpoint position moves along the spherical surface.
  • the geometric model information 222 of the link structure 20026 shown in FIG. 17 of each information object is used.
  • the geometric model information 2202 records the orientation and end points of the plane if it is a plane, and the center position and radius length of the sphere if it is spherical. Further, the method of moving the viewpoint according to the shape recorded in the geometric model information 222 is also recorded. This information does not necessarily have to match the shape of the 3D information object displayed on the screen, and is used only for moving the viewpoint.
  • the geometric model information 2222 of the reference information object at that time is examined, and the viewpoint is moved according to the movement method defined in the geometric model.
  • geometric model information 2 202 is defined for each information object, comfortable browsing of various shapes can be realized by the same input operation. For example, a flat The same operation is used to move child information objects between child information objects arranged on the surface of an information object having a geometric model, and between child information objects arranged on the surface of a spherical geometric model. You can browse one after another.
  • the change of the moving speed according to the distance from the reference information object and the change of the movement method based on the geometric model information 222 of the reference information object are simply used together, the operation becomes difficult. There is. For example, as shown in Fig.
  • each information object is simply If the reference information object is determined based on the distance from to the viewpoint position, the information object B becomes the reference information object both when the viewpoint is at the viewpoint position 1 and when the viewpoint is at the viewpoint position 2.
  • the viewpoint position is 1, the information object B is displayed large on the screen, so there is no problem that the information object B is the reference information object.
  • the information object A is displayed as a reference information object on the screen when the viewpoint position is 2, the information object A is displayed as a reference information object. While moving, the viewpoint moves along the spherical surface according to the geometric model of the information object B. In this case, there is a problem that the information object to be browsed and the reference information object that controls the movement of the viewpoint do not match, and as a result, the operation becomes difficult.
  • the three-dimensional data browsing apparatus 2000 processes and uses a value obtained as a distance in three dimensions. For the processing of the distance, a three-step reference distance value as shown in Fig. 24 is used.
  • FIG. 24 is a diagram illustrating an example of a reference distance for performing distance processing.
  • the reference information object is indicated by diagonal lines, and the distance from the reference information object to the position of the viewpoint is a range up to the distance dA, a range from the distance dA to the distance dB, and a distance from the distance dB.
  • the distance is divided into three distance ranges with the range up to dC.
  • the viewpoint distance processing unit 2022 in FIG. 14 is started in step S2314 in FIG. , Viewpoint Execute the viewpoint distance processing for determining the distance to the position.
  • three reference distances dA, dB and dC are set in order from the surface of the geometric model in the order of closest distance, and the processing method is changed depending on the distance of the viewpoint.
  • FIG. 25 is a flowchart illustrating the viewpoint distance processing.
  • the value of the distance before machining is d
  • the value of the distance after machining is d.
  • the value of the distance after processing, d is set to dn in step S2314 in FIG.
  • the viewpoint distance processing unit 2022 acquires the distance to the viewpoint position based on the local coordinate system determined by the geometric model information of the information object, and sets the distance to d (step S2321). . It is determined whether the distance d to the viewpoint position is less than the distance dA (step S2322). If the distance d to the viewpoint position is less than the distance dA, the distance dA to the viewpoint position is set to the distance dA (step S2322), and the process ends. In other words, when the value of d is equal to or less than dA, the value of the distance d 'after processing is fixed at dA, and is not changed by the distance. This is a process for guaranteeing the lowest speed, and it is possible to avoid an extremely low speed in a positional relationship with an information object other than the reference information object.
  • step S2323 it is determined whether the distance d to the viewpoint is less than the distance dB (step S2323). If the distance d to the viewpoint position is less than the distance dB, the distance d 'to the viewpoint position is set to the distance d' after processing (step S2324), and the process is terminated. In other words, if the value of d is in the range of dA or more and less than dB, the value of d is used as it is without processing. If it is within this range, the above-described processing of the speed change due to the distance is performed.
  • Step S2325 it is further determined whether or not the distance d to the viewpoint position is less than the distance dC. If the distance d to the viewpoint position is greater than or equal to the distance dC, the distance d 'after processing is set to infinity (Step S2327), and the processing is terminated.
  • step S2324 if the distance d to the viewpoint is less than the distance dC, that is, if the value of d is equal to or more than dB and less than dC, the value of d, is obtained by the following equation (step S2324). d, Doo - d C + 2 d B - d C
  • the processing of this distance is performed in the local coordinate system of each information object, and the distance d, obtained in the local coordinate system of each information object, is converted to the coordinate system of the current reference information object and compared. Then, the information object having the smallest value is set as a new reference information object.
  • inverse conversion may be performed based on the coordinate conversion matrix 2 2 1 2 in the link information 2 0 2 of the link structure 2 0 2 6.
  • FIG. 27 is a diagram illustrating an example of distance processing when two information objects having different geometric models exist in the viewpoint direction.
  • the range of information object A in the local coordinate system of distance d C or less is defined as range A
  • the range of information object B in the local coordinate system of distance d C or less is defined as range B. See Figure 7.
  • the information object B is at the closest position, and becomes the reference information object at this time.
  • the viewpoint is at viewpoint position 2
  • the information object B is closer as a simple distance, but in the local coordinate system of the information object B, the distance is more than d C, so processing it to infinity Distance.
  • the local coordinate system of the information object A it is less than or equal to d C, and the value of the distance after machining is A is smaller.
  • the reference information object becomes the information object A, and the above-mentioned problem is solved.
  • FIG. 28 is a diagram illustrating an example of distance processing when another information object is viewed from an information object having a different geometric model.
  • the processing shown in Fig. 25 above is not performed to keep the distance constant when the distance is too short than the distance dA, the information object B approaches from the viewpoint position 1.
  • the speed also approaches 0, so that the user cannot pass through the information object A and approach the information object B.
  • the viewpoint is at viewpoint position 2, since information object A is always closer, information object A becomes the reference information object and information object B is displayed on the screen large.
  • the movement method follows the geometric model of the information object A, and the movement method follows the plane.
  • the range below the distance dA in the local coordinate system of the information object A as range A, and the range B below the distance dA in the local coordinate system of the information object B are shown above and in Fig. 25. If the processing to keep the distance shorter than the distance d A constant by the processing described above, the value of the distance after processing at the information object B becomes smaller at the viewpoint position 2, and the information object B becomes the reference information object. By setting the processing range not only on the far side but also on the near side, the reference information object can be appropriately selected according to the viewpoint position. According to the above embodiment, in the three-dimensional data browsing apparatus 2000, the distance from the surface of the information object to the viewpoint position can be obtained based on the geometric model information in accordance with the shape of the information object.
  • the information object with the shortest distance to the viewpoint position based on the geometric model information can be determined as the reference information object.
  • the viewpoint can be moved. Also, by changing the speed according to the distance from the reference information object to the viewpoint position, a speed suitable for the viewpoint position can be realized when browsing from the entire image of the reference information object to details. Further, the closest information object among the distance to the viewpoint position based on the local coordinates of the plurality of information objects and the distance determined based on the predetermined distance range can be set as the reference information object. Therefore, even when the viewpoint position is far away or closest, the reference information object can be determined accurately, and the viewpoint can be moved at a smooth speed.
  • the processing in the visual field determining unit 104 shown in FIG. 2 corresponds to the visual field determining unit
  • the processing in the display image generating unit 105 corresponds to the display image generating unit.
  • the processing of the reference information object determination processing unit 2021 shown in FIG. 14 corresponds to the reference determination unit and the speed change unit
  • the processing of the viewpoint distance processing unit 2022 Corresponds to the kana method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

明 細 書 表示制御装置、 その表示制御装置を備えた情報端末装置、 及び、 視点位置制御
技術分野
本発明は、 次元及び形状の異なる複数の情報オブジェクトが配置された空間内 において、 滑らかな視点移動を可能とし、 直感的な操作で対象物を探すことを可 能とし、 その対象物の幾何学的情報に基づいて、 適切な移動方向と移動速度を実 現する表示制御装置を提供するものである。
また、 本発明は、 その表示制御装置を備えた情報端末装置、 及び、 その表示制 御装置での処理をコンピュータに行なわせるための表示制御プログラムに関する
背景技 丁
ハイパーテキスト構造を持つ電子文書をディスプレイ上で閲覧するための快適 な環境を提供する三次元表示制御装置として、 本願発明の発明者による特開 2000 - 172248号が知られている。 これは、 ハイパーテキスト構造を持つ電子文書群を、 そのリンク構造に基づいて、 単一の仮想空間内に配置し、 同仮想空間内に定義し た視野に基づいて、 電子文書を閲覧するための表示画像を生成して、 表示装置に 表示させる。 また、 ユーザの指示に従って、 視野を連続的に変化させ、 そのとき の視野に基づく表示画像をリアルタイムで連続的に生成し、 表示装置に表示させ る。 それによりユーザは、 仮想空間内で視野を連続的に変化させながら、 ハイパ 一テキストのリンクを迪つて文書を閲覧することによって、 文書を連続的に拡大 表示させることができる。
この発明による表示画面の変化例を図 1に示す。 電子文書 6 0 1からハイパー テキスト構造によって電子文書 6 0 2がリンクされ、 そこからさらに電子文書 6 1 3がリンクされている。 画面例 6 1の状態からズームインすることによって画 面例 6 2、 更にズームインすることによって画面例 6 3が表示される。 —方、 インターネットを経由して三次元的な商品カタログを配信し、 端末側で は、 ユーザの操作により、 三次元形状を画面上で回転させたり移動させたりして 表示できる方式が既に考案されている。 その代表的なものとして、 W e b 3 Dと 呼ばれるものがあり、 商品などの三次元形状を、 V RM L (Virtual Reality Mo deling Language)形式或いは独自の形式で、ィンターネット上のサーバからユー ザ端末に配信し、 ユーザ端末では、 そのような三次元形状を表示するためのプロ グラムによって、 画面上に三次元形状を表示させる。 表示対象物の選択は、 通常 の WWWブラゥザで表示される H T M L文書上からマウスなどによって項目を選 択することによって行なう。 すなわち、 該プログラムは、 単一の三次元形状を表 示するためのものである。 また、 該プログラムは、 ブラウザのプラグイン、 J a v aプログラム、 又は、 A c t i V e Xオブジェクトとして実現されている。 しかしながら、 上記従来における三次元表示制御装置においては、 以下に述べ る問題点がある。
従来の三次元表示制御装置では、 ブラウザのウィンドウ内などに、 単一の三次 元形状を表示し、 回転又は部分的に拡大することができるものであった。 そのた め、 その形状を表示するまでは、 一般のブラウザ上で、 マウスで選択肢をクリツ クしたり、 メニューを選択したり、 条件検索を行なうことにより、 表示対象を選 択する必要があった。 努明の開示
本発明の第一の課題は、 次元及び形状の異なる複数の情報ォブジェクトが配置 された空間内において、 滑らかな視点移動を可能とし、'直感的な操作で対象物を 探すことを可能とする表示制御装置を提供することである。
また、 本発明の第二の課題は、 その表示制御装置を備えた情報端末装置を提供 することである。
さらに、 本発明の第三の課題は、 次元及び形状の異なる複数の情報オブジェク トが配置された空間内において、 視点移動の対象となる情報オブジェクトの幾何 学的情報に基づいて、 適切な移動方向と移動速度を実現する視点位置制御装置を 提供することである。 上記第一の課題を解決するため、 本発明は、 三次元形状を示す情報オブジェク トを含む連鎖的にリンクされた複数の情報ォブジェクトを三次元仮想空間内に表 示する表示制御装置であって、 ユーザによって入力された視野移動指示に応じて 、 注視される情報オブジェクトの形状に基づいて、 該形状の表面をなぞるように 表示する視野を決定する視野決定手段と、 上記視野決定手段によって決定された 視野に基づいて、 リンクされた複数の情報オブジェクトの表示画像を生成する表 示画像生成手段とを有し、 上記表示画像を表示装置に表示させることによって、 上記視野移動に応じた情報オブジェクトを表示するように構成される。
このような表示制御装置では、 注視される情報オブジェクトの形状に基づいて 決定された視野に基づいて、 リンクされた複数の情報オブジェクトの表示画像を 生成して、 表示装置に表示される。
従って、 情報オブジェクトの形状毎に異なる視野を決定することができるため 、 ユーザが入力した視野移動に応じて、 情報オブジェクトの表面をなぞるように 三次元仮想空間内に表示することが可能となる。
上記情報ォブジェクトは、 インターネットを介して提供されるハイパーテキス ト構造を持つ電子文書によつて表示装置上に三次元仮想空間内に表現された情報 オブジェクト等である。
移動方向に基づいて、 注視される情報オブジェクトを切り替えることができる という観点力ゝら、 本発明は、 上記仮想空間内での各情報オブジェクトの相対的な 位置関係及びスケール比をリンク情報として管理するリンク情報管理手段を有し 、 上記視野決定手段は、 上記リンク情報に基づいて、 注視される情報オブジェク トを、 上記視野移動指示で示される移動方向に配置される情報オブジェクトに切 り替えながら、 切り替えられた情報オブジェクトの形状に基づいて、 視野を決定 するようにし、 上記表示画像生成手段は、 上記リンク情報の位置関係及ぴスケ一 ル比に基づいて、 リンクされた複数の情報オブジェクトのうち表示すべき情報ォ ブジェクトを選択して、 その表示画像を生成するように構成することができる。 このような表示制御装置では、 リンク情報に基づいて、 注視される情報ォブジ ヱタトを、 移動方向に配置される情報オブジェクトに切り替えることができると 共に、 リンク情報の位置関係及びスケール比に基づいて、 表示すべき情報ォブジ ェクトを選択すること力できる。
従って、 上下左右、 ズームイン、 ズームアウト等の移動方向に応じて、 リンク 情報の位置関係及ぴスケール比から、 注視される情報オブジェクト及び表示すベ き他の情報オブジェクトを自動的に選択することが可能となる。 よって、 視野移 動に応じて、 連鎖的にリンクされた情報オブジェクトを順次迪りながら、 スムー ズに情報オブジェクトを表示することができる。
次元の異なる情報ォブジ-クトの形状に応じた視野移動を行なうことができる という観点から、 本癸明は、 上記視野決定手段は、 情報オブジェクトの三次元形 状に応じて予め定義された三次元曲面に基づいて、 注視点の移動経路を計算する 注視点移動経路計算手段と、 情報ォブジェクトの形状に基づいて、 視野移動を計 算する視野移動計算手段とを有し、 注視される情報オブジェクトが三次元形状の 場合、 上記視野移動計算手段は、 上記注視点移動経路計算手段による計算結果に 基づいて、 視野移動を計算するようにした構成とすることができる。
このような表示制御装置では、 注視される情報オブジェクトが三次元形状の場 合、 注視点移動の計算結果に基づいて、 視野移動が計算されるため、 次元の異な る情報オブジェクトの形状に応じた視野移動を行なうことが可能となる。 また、 曲面をなぞるように注視点の移動経路が計算される。
また、 上記第一の課題を解决するための手段として、 本発明は、 コンピュータ に行なわせるための表示制御プログラム、 及び、 上記表示制御プログラムを記憶 した記憶媒体とすることもできる。
上記第二の課題を解決するために、 さらに、 本発明は、 三次元形状を示す情報 オブジェクトを含む連鎖的にリンクされた複数の情報オブジェクトを三次元仮想 空間内に表示する請求項 1乃至 4記載のレ、ずれか一項記載の表示制御装置を備え た情報端末装置であって、 ユーザによる視野移動方向の操作によって、 上記三次 元仮想空間内における視野移動指示を受け付ける指示受付手段を有するように構 成される。
このような情報端末装置では、 ユーザによる視野移動方向の操作による視野移 動指示に基づいて、 リアルタイムに情報オブジェクトが三次元仮想空間内に表示 されることを可能とする。 上記第三の課題を解決するため、 本発明は、 三次元仮想空間内に表示されるあ る形状を有する複数の情報オブジェクトに対する視点位置を制御する視点位置制 御装置であって、 利用者による入力に従って、 視点位置から最も近い位置に表示 される情報オブジェクトを基準情報オブジェクトとして決定する决定手段と、 決 定された上記基準オブジェクトと視点位置までの距離の大きさに応じて視点の移 動速度を変化させる速度変化手段とを有し、 上記基準情報オブジェクトに基づい て、 視点位置までの距離に応じた移動速度で視点が移動するように視点位置を制 御して、 上記複数の情報オブジェクトを表示させるように構成される。
このような視点位置制御装置では、 視点位置から最も近い位置の情報オブジェ クトを基準オブジェクトとして決定するため、 視点が対象としている情報ォブジ ェタトが決定される。 また、 速度変化手段によって、 視点位置までの距離に応じ た移動速度で視点が移動するように視点位置が制御されるため、 視点位置が近く に接近している場合、 ゆっくりと視点が移動し、 一方、 視点位置が遠くにある場 合、 素早く視点が移動しているように上記複数の情報オブジェクトを表示させる ことができる。
また、 上記第三の課題を解決するための手段として、 本発明は、 コンピュータ に行なわせるための表示制御プログラム、 及び、 上記表示制御プログラムを記憶 した記憶媒体とすることもできる。 図面の簡単な説明
図 1は、 従来の表示画面の変化例を示す図である。
図 2は、 表示制御装置の機能構成を示す図である。 .
図 3 Aは、 平面的な情報オブジェクトに対して平行移動した場合の視点移動を 説明する図であり、 図 3 Bは、 平面的な情報オブジェクトに対してティルト操作 した場合の視点移動を説明する図である。 - 図 4 Aは、 立体的な情報オブジェクトに対して平行移動した場合の視点移動を 説明する図であり、 図 4 Bは、 立体的な情報オブジェクトに対してティルト操作 した場合の視点移動を説明する図である。
図 5は、 平面状のターゲット面に対する視野移動を説明する図である。 図 6は、 球面状のターゲット面に対する視野移動を説明する図である。
図 7は、 自由局面状のターゲット面に対する視野移動を説明する図である。 図 8は、 平面状のターゲット面に対する視野移動の処理を説明するフローチヤ ート図である。
図 9は、 球面或いは自由曲面状のターゲット面に対する視野移動の処理を説明 するフロ一チヤ一ト図である。
図 1 0は、 情報オブジェクトの連鎖的リンク例を示す図である。
図 1 1は、 視点移動による画面変化の例を示す図である。
図 1 2 Aは、 表示制御装置を備えた情報端末装置の例を示す図であり、 図 1 2 B及ぴ図 1 2 Cは、 視野移動操作を行なうリモコンの例を示す図である。
図 1 3は、 表示制御装置を備えた情報端末装置の他の例を示す図である。
図 1 4は、 3次元データ閲覧装置の構成図を示す。
図 1 5は、 3次元データ閲覧画面の表示例を示す図である。
図 1 6 Aから図 1 6 Dは、 球体の情報オブジェクトに視点を接近させた場合の 3次元データ閲覧画面の変化例を示す図である。
図 1 7は、 各情報オブジェクトのリンク構造を示す図である。
図 1 8は、 3次元データ閲覧装置での表示処理について説明するフローチヤ一 ト図である。
図 1 9は、 視点位置に応じた視点移動の速度の例を示す図である。
図 2 0は、基準情報オブジェクト決定処理を説明するフローチャート図である。 図 2 1は、 平面状の情報オブジェクトが基準オブジェクトである場合の視点移 動の方向例を示す図である。■
図 2 2は、 球面状の情報ォブジェクトが基準情報オブジェクトである場合の視 点移動の方向例を示す図である。
図 2 3は、 情報オブジェクトの手前に異なる幾何モデルをもつ別の小さな情報 オブジェクトが存在している状態を示す図である。 - 図 2 4は、 距離加工を行なうための基準となる距離の例を示す図である。
図 2 5は、 視点距離加工処理を説明するフローチャート図である。
図 2 6は、 加工前の距離と加工後の距離の対応を示すグラフ図である。 図 2 7は、 幾何モデルの異なる 2つの情報オブジェクトが視点方向に存在する 合の距離加工の例について説明する図である。
図 2 8は、 幾何モデルの異なる情報オブジェクトから別の情報オブジェクトを 見る場合の距離加工の例について説明する図である。 発明を実施するための最良の形態
以下、 本努明の実施の形態を図面に基づいて説明する。
図 2は、 表示制御装置の機能構成の例を示す図である。
図 2より、 表示制御装置 1 0 0は、 情報オブジェクトデータ取得部 1 0 1と、 情報オブジェクトデータ記憶部 1 0 2と、 ユーザ指示受付部 1 0 3と、 視野決定 部 1 0 4と、 表示画像生成部 1 0 5と、 表示制御部 1 0 6と、 複数の視野移動計 算部 1 0 7と、 複数の情報オブジェクト表示部 1 0 8と、 注視点経路計算部 1 0 9と、 通信制御部 1 1 0と、 インストーラー 1 1 1とを有する。
情報オブジェクトデータ取得部 1 0 1は、 通信制御部 1 1 0によって、 インタ ーネット等のネットワーク 1 1 8を介して取得した W e b情報から情報オブジェ クトデータを取得し、 所定の情報オブジェクトデータ記憶部 1 0 2に、 -取得した 情報オブジェクトデータを格納する。 また、 情報ォブジェクト間の相互関係を定 義するリンク情報として、 該仮想空間内での相対的な位置関係およびスケール比 を格納する。
ユーザ指示受付部 1 0 3は、 ユーザが指示する視野移動方向を示すデータを受 け付ける。
. 視野決定部 1 0 4は、 ユーザ指示受付部 1 0 3によって受け付けた視野移動方 向を示すデータに基づいて、 情報オブジェクトデータ記憶部 1 0 2に格納されて いる処理対象となる情報オブジェクトの形状に応じて、 視野移動計算部 1 0 7及 -び注視点移動経路計算部 1 0 9での計算結果を用いることによって視野を決定す る。
表示画像生成部 1 0 5は、 視野決定部 1 0 4によって決定された視野データに 基づいて、 視野の範囲で表示される全ての情報オブジェクトの表示画像を、 各情 報オブジェクトの形状に応じて生成する。 表示制御部 1 0 6は、 表示画像生成部 1 0 5によって生成された表示画像を表 示させるために表示装置を制御する。 つまり、 表示制御部 1 0 6は、 各情報ォブ ジェクトの形状に応じた情報オブジェクト表示部 1 0 8を用いて、 視野データに 基づいて、 情報ォブジェクトを表示させる表示画像データを生成する。
視野移動計算部 1 0 7は、 移動距離、 角度変化及び移動方向情報を含む視野移 動量を情報オブジェクトの形状に応じて計算する。 ただし、 情報オブジェクトの 形状が球面又は自由曲面等である場合、 注視点移動経路計算部 1 0 9によって、 注視点の移動経路を情報オブジェクトの形状に応じて計算した後、 視野移動量が 計算される。
視野移動計算部 1 0 7及び情報オブジェクト表示部 1 0 8を複数もうけること によって、 平面的な情報ォブジェクトゃ、 立体的な情報オブジェクトなど、 多様 な形態の情報ォブジェクトのそれぞれに適した視野移動及び情報オブジェクトの 表示を行なうことができる。
通信制御部 1 1 0は、 ネッ トワーク 1 1 8への接続及ぴ切断処理、 及ぴ、 デー タの送受信の制御を行なう。
インストーラー 1 1 1は、 例えば、 コンピュータによって読み取り可能な記憶 媒体である C D— R OM 1 1 9から表示制御装置 1 0 0を制御する上記各処理部 による処理を実行するためのプログラムを表示制御装置 1 0 0へインストールす る。 インストールされたプログラムは、 表示制御装置 1 0 0の C P U (中央処理 装置) によって実行され上記各処理部が実現する。 当該プログラムを格納する媒 体として C D— R OM 1 1 9に限定するものではなく、 コンピュータが読み取り 可能な媒体であればよい。
多種多様の情報オブジェクトの形状に対応するために、 必要に応じて、 インタ ーネット 1 1 8又は C D— R OM 1 1 9等の記憶媒体から視野移動計算部 1 0 7 及ぴ情報オブジェクト表示部 1 0 8を取得し、 視野決定部 1 0 4及び表示画像生 戒部 1 0 5にて利用すれば良い。
情報オブジェク卜に対する視点移動について図 3及び図 4で説明する。図 3は、 平面的な情報オブジェクトに対する視点移動を説明する図である。 図 4は、 立体 的な情報オブジェクトに対する視点移動を説明する図である。 図 3及ぴ図 4において、 情報オブジェクト上のターゲット面 4 0 1は、 視点の ズームイン先となるターゲット面を示す。 視点位置 4 0 2は、 ユーザの現在の視 野の視点位置を示す。 注視点 4 0 3は、 ユーザの現在の視野における情報ォブジ ェク ト上で注視される位置を示す。 ここで、 注視点 4 0 3は、 視野の中心線とタ ーゲット面の交点とする。
視点移動経路 4 1 1は、 ズームイン又はズームァゥト操作に伴う視点の移動経 路を示す。 視点移動経路 4 1 2は、 左右への移動操作に伴う視点の移動経路を示 し、 視点移動経路 4 1 3は、 上下への移動操作に伴う視点の移動経路を示す。 視 点移動経路 4 1 4は、 ティルトの操作に伴う視点の移動経路を示す。 視点移動経 路 4 1 5は、 ローテーションの操作に伴う視点の移動経路を示す。 また、 図中の 破線矢印は、各視点移動経路に沿って視野の視点が移動した際の視線の例を示す。 同破線矢印の先端は、 そのときの注視点である。
ズームイン操作を行なったとき、 視点は、 移動経路 4 1 1の経路に沿って、 タ 一ゲット面 4 0 1上の注視点 4 0 3に限りなく近付いていく。 また、 ズームァゥ ト操作を行なうと、 視点は、 移動経路 4 1 1の経路に沿って、 ターゲット面から 遠ざかるように動く。 これらのズーム操作において、 視点移動速度は、 視点とタ 一ゲット面との距離に比例するように変化する。 これにより、 視 、が限りなくタ ーゲット面上の注視点上に近付いていくような動きとなり、 ズーム表示が実現さ れる。
左右及ぴ上下への視野移動操作を行なったとき、 視点はそれぞれ、 視点移動経 路 4 1 2及ぴ 4 1 3で示される経路に沿って移動する。 このとき、 注視点 4 0 3 は、 ターゲット面上を移動する。
図 3 Aより、平面であるターゲット面 4 0 1において、表示制御装置 1 0 0は、 図 2のユーザ指示受付部 1 0 3からの視野移動方向を示す情報に基づいて、 視線 がターゲット面 4 0 1に対して平行移動するように視点位置 4 0 2及び注視点 4
0 3を移動させる。
—方、 図 4 Aより、 立体であるターゲット面 4 0 1において、 表示制御装置 1 0 0は、 図 2のユーザ指示受付部 1 0 3からの視野移動方向を示す情報に基づい て、 視線がターゲット面 4 0 1をなぞるように視点位置 4 0 2及び注視点 4 0 3 を移動させる。 つまり、 視線方向とターゲット面との角度を示すティルト角を一 定にして、 視点位置 4 0 2及び注視点 4 0 3を移動させる。
図 3 B及び図 4 Bより、 ユーザが視野のティルト操作を行なった場合、 表示制 御装置 1 0 0は、 図 2のユーザ指示受付部 1 0 3からの視野移動方向を示す情報 に基づいて、 視点位置 4 0 2と注視点 4 0 3との距離が一定となる視点移動経路 4 1 4に沿って移動する。 つまり、 ティルト操作において、 表示制御装置 1 0 0 は、 視点位置 4 0 2と注視点 4 0 3との距離を一定にし、 視点位置 4 0 2と注視 点 4 0 3とを結ぶ視線方向とターゲット面 4 0 1との角度を変化させながら視点 位置 4 0 2を移動させる。
また、 視野のローテーション操作を行なった場合、 視点位置 4 0 2は、 視点移 動経路 4 1 5に沿って移動する。 つまり、 ローテーション操作において、 表示制 御装置 1 0 0は、 注視点 4 0 3の位置、 注視点 4 0 3から視点位置 4 0 2までの 距離、 及ぴ、 ティルト角を一定とし、 注視点 4 0 3におけるターゲット面に対す る垂線を中心として回転するように視野を移動させる。
上述のように表示対象が平面以外の球面状の情報オブジェクト形状であっても 処理可能とするために、 適.したターゲット面の形状を予め割り当てておく必要が ある。 ターゲット面形状は、 必ずしも情報オブジェクトの形状と正確に一致して いる必要は無い。例えば、凹凸はあるが球形に近い情報オブジェクトに対しては、 球面状のターゲット面を割り当てておいても良い。
以下、 異なるターゲット面毎の処理の違いを図 5、 図 6及ぴ図 7で説明する。 図 5は、平面状のターゲット面に対する視野移動を説明する図である。図 6は、 球面状のターゲット面に対する視野移動を説明する図である。 図 7は、 自由局面 状のターゲッ十面に対する視野移動を説明する図である。
図 5、 図 6及び図 7において、 1 x、 1 y、 1 zは、 それぞれターゲット面を定 義する情報オブジェクトのローカル座標系の x, y , z軸を定義するベクトルと する。
また、 v x、 v y、 v zをそれぞれ視点座標系の x, y , z軸を表すベクトルと し、 V。を視点の位置、 すなわち、 視点座標系の原点とする。 また、 ターゲット 面上の注視点を Tとする。 視点 V。と注視点 Tとを結ぶ直線を視線と呼ぴ、 これ が視野の中心線となるように視野を定義する。 すなわち、 注視点が画面の中心に 来るように視野を定義する。
また、 vxは画面水平右方向、 vyは画面鉛直下方向と一致するように視野の方 向を決める。 また、 ユーザによる左右および上下へ視野移動指示に対応する注視 点の移動方向を、それぞれ矢印付き線 C uおよび C vで示している。 C uの方向は、 視点座標系の X z平面とターゲット面との交線のターゲット面の形状に基づいた 方向とし、 C vの方向は、 視点座標系の y z平面とターゲット面との交線のター ゲット面の形状に基づいた方向とする。
また、 視野の上下または左右への移動においては、 ターゲット面に対する視野 のティルト角およびローテンション角が変化しないように、 注視点をターゲット 面に沿って移動させる。
図 5に示すような平面状のターゲット面 4 2 1の例において、 特開 2 0 0 0— 1 7 2 2 4 8に記載の公知例と同様の方法にて実現される。 よって、 図 2に示す 視野決定部 1 0 ,4は、単に C u或いは C vに視野を平行に移動するように決定すれ ば良い。
図 6に示すような球面状のターゲット面 4 2 2の例、 又は、 図 7に示すような 自由曲面状のターゲット面 4 2 3の例において、図 2に示す視野決定部 1 0 4は、 視野移動計算部 1 0 7の計算結果に基づいて、 図 5の平面と異なり、 視野を左右 または上下に移動させる場合、注視点 Tの移動経路 C u或いは C vを直線ではなく 曲線に移動するように決定する。 そのため、 ティルト角ゃローテンションを変化 させずに注視点 Tが移動する毎に視点 V。と注視点 Tを結ぶ視線方向を変化させ る必要がある。 従って、 視野を平行移動するだけではなく、 視点座標系の方向を 変化させながら、注視点 Tの移動経路 c u或いは c vを曲線に移動するように決定 する。 また、 C uおよぴC Vは、 注視点 T以外において、 視点座標系の x z平面或 いは y z平面とターゲット面との交線と一致するとは限らなレ、。 よって、 曲面の 種類毎に、 注視点移動経路 C u或いは C vを求めるようにする。
次に、 ターゲット面に対する視野移動の処理について、 図 8及ぴ図 9で説明す る。
先ず、 ターゲット面が平面の場合の上下左右への視野移動の処理について説明 する。
図 8は、 平面状のターゲット面に対する視野移動の処理を説明するフローチヤ —ト図である。
図 8より、図 2のユーザ指示受付部 1 0 3は、ユーザの入力指示を受け付け(ス テツプ S 1 0 1 ) 、 該ユーザの入力指示が視野の上下左右への移動指示であるか を判断する (ステップ S 1 0 2 ) 。
ユーザ指示受付部 1 0 3は、 ユーザの入力指示が視野の上下左右への移動指示 でないと判断した場合、 ステップ S 1 0 3を実行し、 ユーザの入力指示に応じた 処理を行ない (ステップ S 1 0 3 ) 、 ステップ S 1 0 1へ戻り次のユーザの入力 指示を待つ。
—方、 ユーザ指示受付部 1 0 3は、 ユーザの入力指示が視野の上下左右への移 動指示であると判断した場合、 視野決定部 1 0 4を起動してステップ S 1 0 4を 実行する。ステップ S 1 0 4において、注視点 Tの移動方向べクトル tを求める。 例えば、 ユーザにより、 視野を右方向に移動する指示がなされた場合、 ユーザ 指示受付部 1 0 3によって起動された視野決定部 1 0 4は、 注視点 Tにおける視 点座標系の X y平面とターゲット面との交線方向べクトルを求めて移動方向べク トル tとする。 ただし、 移動方向ベクトル tは v xとのなす角が鈍角にならない ように正方向を選ぶ。
ステップ S 1 0 5において、 注視点 Tの移動距離 dを求める。 つまり、 視野決 定部 1 0 4は、 視野移動計算部 1 0 7に求めた移動方向べクトル tを与えて移動 距離 dを計算する。 視野移動計算部 1 0 7は、 情報オブジェクトデータ記憶部 1 0 2から取得した表示装置に表示されている平面の情報オブジェクトのデータに 基づいて、 視野決定部 1 0 4から与えられた移動方向べクトル tより注視点丁の 移動距離 dを算出する。
ステップ S 1 0 6において、 視野決定部 1 0 4は、 ベクトル tの方向へ、 視野 移動計算部 1 0 7で計算した距離 dだけ視野を平行移動する。
ステップ S 1 0 7において、 表示画像生成部 1 0 5は、 視野決定部 1 0 4から 取得した平行移動させた視野データに基づいて、 描画を生成する。 表示制御部 1 0 6は、 表示画像生成部 1 0 5によって生成された描画データに基づいて、 表示 装置に新たな視野に応じた描画を表示させる。
ステップ S 1 0 8において、 終了か否かを判断する。 終了の場合、 処理を終了 する。 一方、 終了でない場合、 ステップ S 1 0 1へ戻り、 次のユーザの入力指示 を受け付ける。
次に、 ターゲット面が曲面の場合の上下左右への視野移動の処理について説明 する。 図 6又は図 7に示すようにターゲット面が曲面の場合、 ターゲット面が平 面の場合とは異なる処理が必要となる。
図 9は、 球面或いは自由曲面状のターゲット面に対する視野移動の処理を説明 するフローチヤ一ト図である。
図 9より、図 2のユーザ指示受付部 1 0 3は、ユーザの入力指示を受け付け(ス テツプ S 1 2 1 ) 、 該ユーザの入力指示が視野の上下左右への移動指示であるか を判断する (ステップ S 1 2 2 ) 。
ユーザ指示受付部 1 0 3は、 ユーザの入力指示が視野の上下左右への移動指示 でないと判断した場合、 ステップ S 1 0 3を実行し、 ユーザの入力指示に応じた 処理を行ない (ステップ S 1 2 3 ) 、 ステップ S 1 2 1 へ戻り次のユーザの入力 指示を待つ。
—方、 ユーザ指示受付部 1 0 3は、 ユーザの入力指示が視野の上下左右への移 動指示であると判断した場合、 視野決定部 1 0 4を起動してステップ S 1 2 4を 実行する。 ステップ S 1 2 4において、 現在の注視点 Tの位置における、 注視点 Tの移動方向の接線ベクトル tを求める。
例えば、 視野を右に移動する指示がなされた場合、 ユーザ指示受付部 1 0 3に よって起動された視野決定部 1 0 4は、 注視点 Tにおける視点座標系の X y平面 とターゲット面との交線の接線方向べク トルを求めて移動方向べクトル tとする。 ただし、 移動方向べクトル tは v xとのなす角が鈍角にならないように正方向を 選ぶ。 ·
ステップ S 1 2 5において、 注視点 Tの移動距離 dを求める。 つまり、 視野決 定部 1 0 4は、 視野移動計算部 1 0 7に求めた移動方向べクトル tを与えて移動 距離 dを計算する。 視野移動計算部 1 0 7は、 情報ォブジェクトデータ記憶部 1 0 2から取得した表示装置に表示されている曲面の情報オブジェクトのデータに 基づいて、 視点 V。と注視点 Tとの距離に基づき、 注視点の移動距離を求める。 ステップ S 1 2 6において、 更に、 視野決定部 1 0 4は、 情報オブジェクトデ ータ記憶部 1 0 2から取得した表示装置に表示されている曲面の情報オブジェク トのデータに基づく、 曲面の種類に応じて用意された注視点移動経路計算部 1 0 9を用いて、 現在の注視点 Τからターゲット面に沿って t正方向に距離 dだけ移 動した点を新たな注視点 Tとして求める。
ステップ S 1 2 7において、 視野決定部 1 0 4は、 視野移動計算部 1 0 7を用 いて、 現在の視野におけるティルト角とローテーション角が保存されるように、 新たな注視点に対応する視野を求める。 この方法としては、 例えば、 視点から注 視点までの距離、 ティルト角、 ローテーション角をそれぞれ維持しつつ、 視線が 新たに求めた注視点と交わるように、視点 V。の位置及びべクトル v zの方向を定 める。続いて、 べクトル V x及び V yによって定まる X z平面が新たな注視点丁に おける C uの接線を含むように、 べクトル V x及び V yの方向を定める。
ステップ S 1 2 8において、 表示画像生成部 1 0 5は、 視野決定部 1 0 4から 取得した曲面形状に応じた視野データに基づいて、 描画を生成する。 表示制御部 1 0 6は、 表示画像生成部 1 0 5によって生成された描画データに基づいて、 表 示装置に新たな視野に応じた描画を表示させる。
ステップ S 1 2 9において、 終了か否かを判断する。 終了の場合、 処理を終了 する。 一方、 終了でない場合、 ステップ S 1 2 1へ戻り、 次のユーザの入力指示 を受け付ける。
上記実施例において、 それぞれのターゲット面の形状種類毎に用意されたター ゲット面に沿った注視点移動経路計算部 1 0 9を有し、 視野決定部 1 0 4が、 情 報オブジェクトデータ記憶部 1 0 2から取得した表示装置に表示されている視野 移動の基準となる情報オブジェクトに応じて、 対応するターゲット面の種類に応 じた移動経路計算部が選択するようにすれば良い。
次に、 例えば、 図 1 0に示すような連鎖的にリンクされた異なる形状の情報ォ ブジェクトを上下左右に移動した場合の上記処理によって実現される動作の例を 説明する。
図 1 0は、 情報オブジェクトの連鎖的リンク例を示す図である。 図 1 0より、 球面状の情報オブジェクト S 2 0 1が平面状の情報オブジェク ト A 2 0 2、 B 2 0 3及び C 2 0 4へリンクすることを示す。 また、 情報オブジェ ク ト A 2 0 2は、 立方体の情報ォブジェク ト X 2 0 5及ぴ Y 2 0 6へリンクする ことを示す。 図中、 矢印の始点側がリンク元の情報オブジェク トであり、 矢印の 終点側がリンク先の情報オブジェク トである。
このように連鎖的にリンクされた情報オブジェクトにおいて、 例えば、 各リン クのリンク先情報オブジェクトは、 リンク元情報オブジェクトの表面付近に、 リ ンク元情報オブジェクトに対して小さいスケールで配置される。
つまり、 リンク先情報オブジェクトとしての平面状の情報オブジェクト A 2 0 2、 B 2 0 3及び C 2 0 4は、 リンク元情報オブジェクトとしての球面状の情報 オブジェクト S 2 0 1の表面付近に小さなスケールで配置される。 更に、 リンク 先情報オブジェクトとしての立方体の情報オブジェクト X 2 0 5及び Y 2 0 6は、 リンク元情報オブジェクトとしての平面状の情報オブジェクト A 2 0 2の表面付 近に小さなスケールで配置される。
このようなリンク元情報オブジェクトに対するリンク先情報オブジェクトの定 義は、 それぞれの情報オブジェクトにローカル座標系を定義し、 それらの座標系 間の変換行列を決めることにより、 定義することができる。
例えば、 球面の形状を持つ情報オブジェクト S 2 0 1に関しては、 その中心を 原点とする口一カル座標が定義される。 そこからリンクされた平面の形状を持つ 情報オブジェクト A 2 0 2に関しては、 その平面の中心を原点とし、 その平面と y平面が一致するようなローカル座標系が定義される。 後者のローカル座標系 の原点は、 前者のローカル座標系に対して、 球の表面付近に原点がきて、 その z 軸方向が、 後者のローカル座標系の原点を指すように配置される。 また、 スケー ル比は、 前者に対して後者が小さくなるようにする。 この定義は、 両座標系間の 変換行列により定義できる。
次に、 図 1 0のように連鎖的にリンクされた情報ォブジェクトに対する視点移 動による画面変化について、 図 1 1で説明する。
図 1 1は、 視点移動による画面変化の例を示す図である。
図 1 1において、 先ず、 画面 2 1上に球面状の情報オブジェクト S 2 0 1を注 目対象とし、 それを正面から、 力つ、 比較的遠くから見る位置に視野が定義され ている状態で、 仮想空間内の情報オブジェクトが映像化される。 情報オブジェク ト S 2 0 1は球形であるため、 ユーザによる視点移動操作に対して、 図 9に示さ れる視点移動処理が選択される。
画面 2 1の状態から、 ユーザの視点移動操作により、 視野の前方への移動、 す なわち、 ズームイン操作を行なうと、 画面 2 2に示すように、 画面上に表示され ている情報オブジェクト S 2 0 1が徐々に大きくなると共に、 その情報オブジェ クト S 2 0 1からのリンクが定義された平面状の情報オブジェクト A 2 0 2、 B 2 0 3及ぴ C 2 0 4が徐々に現れる。
更に、 視野を前方に移動させる操作を行なうと、 画面 2 3に示すように、 情報 オブジェクト A 2 0 2、 B 2 0 3及ぴ C 2 0 4がはっきり表示される。 このよう に、 連鎖的にリンクで結ばれた一連の情報オブジェクトのうち、 画面に表示すベ き情報ォブジェクトが、 視野と各情報ォブジェクトとの位置関係に基づいて自動 的に選択されて表示される。 また、 徐々に視野が情報オブジェクトに近付いてい く際には、 見えなかった情報オブジェクトが徐々に不透明になり、 画面上に現れ てくる。
続いて、 視野を左方向に動かす操作を行なうと、 情報ォブジヱクト A 2 0 2、 B 2 0 3及び C 2 0 4が球面状の情報オブジェタト S 2 0 1の裏側に回り込むよ うにして右方向に移動する。 画面 2 4に示すように、 情報オブジェクト C 2 0 4 が球面状の情報オブジェクト S 2 0 1の背後に回り込んで隠れてしまう。 更に、 視野を左方向に動かし続けることによって、 同様に、 情報オブジェクト B 2 0 3 も球面状の情報オブジェクト S 2 0 1の背後に回り込んで、 画面 2 5に示すよう に、 情報オブジェクト A 2 0 2が情報オブジェクト S 2 0 1上の正面に表示され る。 ここでは、 視野を左方向に動かす操作によって、 図 4 Aに示す視点移動経路 4 1 2のような経路に沿って、 情報オブジェクト S 2 0 1の横に回りこむように 視野が移動する。
画面 2 5において、 情報オブジェクト A 2 0 2が正面に見えてくる。 この状態 からズームィン操作を行なうと、 画面 2 6に示すように、 情報オブジェクト A 2 0 2が大きく表示され、 そこからリンクされた情報オブジェクト X 2 0 5及ぴ Y 2 0 6が現れてくる。 また、 注目対象となる情報オブジェクトは、 情報オブジェ タト S 2 0 1から情報オブジェクト A 2 0 2に切り替わる。 これによつて、 図 5 に示すような視野移動方法が選択される。
続いて、 視野を左方向および下方向に移動する操作を行なうと、 視点は、 図 3 Aに示す視点移動経路 4 1 2及ぴ 4 1 3で移動して、 画面 2· 7のように情報ォブ ジェクト A 2 0 2、 X 2 0 5及び Y 2 0 6が表示される。
更に、 ズームィン操作を行なうと、 画面 2 8のように、 情報オブジェタト X 2 0 5が大きく表示される。 また同時に、 注目対象情報オブジェクトは、 情報ォブ ジェタト A 2 0 2から情報オブジェクト X 2 0 5へと移る。 それに伴い、 図 8に 示す視野移動処理から図 9に示す視野移動処理へと切り替わる。
画面 2 8において、 視野を左に動かす操作を行なうと、 視点は、 図 4 Aに示す 視点経路 4 1 2に沿って、 情報オブジェクト X 2 0 5の左側に回り込むように移 動して、 画面 2 9に示されるように情報オブジェクト X 2 0 5が表示される。 ユーザが視野移動操作を行なう視野移動操作装置によって、 上述のような処理 を実現する表示制御装置 1 0 0を備えた情報端末装置は、 例えば、 図 1 2及び図 1 3に示されるように構成することができる。
図 1 2 A、 図 1 2 B及び図 1 2 Cは、 表示制御装置を備えた情報端末装置の例 を示す図である。図 2のユーザ指示受付部 1 0 3にリモコンを適用した例を示す。 図 1 2 Aにおいて、 情報端末装置 1 0 0 0は、 図 2の表示制御部 1 0 6から送 信される表示データに基づいて、 画面 5 0 2に該表示データを表示きせる表示装 置 5 0 1と、図 2のユーザ指示受付部 1 0 3での処理を行なうリモコン 5 0 3と、 図 2に示される各処理部を制御して表示装.置 1 0 0全体を制御する情報端末装置 本体 5 0 5と、 図 2のインス トーラー 1 1 1によって C D— R OM 1 1 9から読 み取った記録データを情報端末装置本体の記憶装置にィンス トールする C D _ R OMドライバー 5 0 6とを有する。 - 表示装置 5 0 1の画面 5 0 2は、 ユーザのリモコン 5 0 3の操作によ^視野移 動によつて連続的に変化する。
視野移動操作を行なうリモコン 5 0 3は、 例えば、 図 1 2 B及び図 1 2 Cのよ うに構成される。 図 1 2 Bより、 リモコン 5 0 3は、 電源のオン又はオフを行なう電源ボタン 5 2 1と、 テンキー等の情報入力ボタン 5 2 2と、 視野移動を指示する視野移動ボ タン 5 2 3とを有する。
図 1 2 Bに示される例において、 視野移動ボタン 5 2 3の左方向を示す Lボタ ン及び右方向を示す Rボタンの押下操作によって、 図 3及ぴ図 4で示される視点 移動経路 4 1 2への処理が、 視野決定部 1 0 4において行なわれる。 また、 視野 移動ポタン 5 2 3の上方向を示す U pボタン及び下方向を示す D o w nボタンの 押下操作によって、 図 3及ぴ図 4で示される視点移動経路 4 1 3への処理が、 視 野決定部 1 0 4において行なわれる。
また、 視野移動ボタン 5 2 3のズームインを示す Z o o m I riボタン及ぴズー ムァゥトを示す Z o o mO u tポタンの押下操作によって、 図 3及ぴ図 4で示さ れる視点移動経路 4 1 1への処理が、 視野決定部 1 0 4において行なわれる。 図 1 2 Cより、 リモコン 5 0 3は、 電源のオン又はオフを行なう電源ボタン 5 2 1と、 テンキー等の情報入力ポタン 5 2 2と、 視野移動ジョイスティック 5 2 4と、 視野移動を指示する視野移動ボタン 5 2 3 1とを有する。
図 1 2 Cに示される例において、 図 1 2 Bに示される視野移動ボタン 5 2 3の 上下左右方向への操作を視野移動ジョイスティック 5 2 4にて実現することがで きる。 また、 視野移動ボタン 5 2 3 1にてズームイン、 ズームアウト、 ティルト 及びローテ一ションの操作が可能となる。
図 1 3は、 表示制御装置を備えた情報端末装置の他の例を示す図である。 携帯 型の情報端末装置に適用した例である。
図 1 3において、 情報端末装置 1 0 0 1は、 図 1 2に示す情報端末装置 1 0 0 0と同様に、 図 2の表示制御部 1 0 6によって制御される表示データを表示する 画面 5 0 2と、 図 1 2 B又は図 1 2 Cに示すリモコン 5 0 3と同等の機能を有す る情報入力ボタン 5 2 2及び視野移動ポタン 5 2 3とを有する。
上記実施例において、 本発明は、 上記複数の視野移動処理のうちから、 現在の 視野が注目対象としている情報オブジェクトの形態や内容に応じて、 視野移動方 法を自動的に選択して、 ユーザ指示などに基づいた視野移動処理を行なうことが できる。 よって、 平面的な情報オブジェクト又は立体的な情報オブジェク トが単 —の空間内に混在するような場合でも、 ユーザはその違いを特に意識することな く、 共通の操作で、 視野を滑らかに移動させながら、 情報オブジェクトを閲覧す ることができる。
情報ォブジェクトデータ記憶部 1 0 2に、 情報オブジェクト間の相互関係を定 義するリンク情報として、 該仮想空間内での相対的な位置関係およびスケール比 を格納し管理することによって、 視野決定部 1 0 4によって、 注視される情報ォ ブジェクトが自動的に選択されると共に、 表示画像生成部 1 0 5によって、 決定 された視野にて表示すべき情報オブジェクトが自動的に選択されて、 その表示画 像が生成される。 従って、 ユーザの視野移動指示に応じた視野の変化を実現する ことが可能となる。
また、 リンク情報に基づいて、 連鎖的にリンクされた情報オブジェクトを順次 迪りながら、 無限にズームイン又はズームァゥトを行なうことができる。
よって、 ユーザは、 マウス等でクリックする操作を行なうことなく、 直感的な 操作で対象物を探すことができる。
3次元形状を表すデータを 2次元の画面に表示するプログラムでは、 通常、 そ の 3次元形状データが情報オブジェクトとして配置される仮想的な 3次元空間に、 視点位置、 視線方向、 視野角などを定め、 それらを元に 2次元の平面に投影して 表示する。 利用者からの入力によって、 この視点位置や視線方向などを変化する ことで、 3次元情報ォブジェクトを様々な位置や方向から見たり操作したりする というユーザインタフェースを実現できる。
また、 データ表示の方法として、 2次元平面の表示物を拡大 ·縮小して表示す るズームという手法がある。 これは、 表示対象となる 2次元データを拡大したり 縮小したりすることによって、 そのデータの全体像と各部の微細構造に対して統 一的なユーザインタフェースを提供するものである。 特に表示対象となるデータ が階層的な構造を持つときに有効となる表示ィンタフェースである。
このズームにおいて、表示物を上下左右に移動させるとき、その移動速度は 2通 りの見方ができる。 一つは単位時間での画面の変化量で、 これは、 例えば画面の 中央に表示されているものが、 画面の端に来るように移動するときにどれくらい の時間がかかるかというものである。ズームを用いたユーザインタフェースでは、 一般に画面の変化量を、 ズームによる拡大縮小の比率に関わらず、 一定となるよ うにしている。
ズームにおけるもう一つの移動速度は、 表示物に対する相対速度であり、 画面 に表示されている表示物に対する単位時間における移動量である。 画面の変化量 が一定の場合、 全体像を見ているときには、 この相対速度は大きくなり、 詳細を 見ているときには、 この相対速度は小さくなる。 ここで、 2次元平面に対するズ ームでの拡大 ·縮小は、 3次元空間にある 2次元平面への近付いたり離れたりす る移動だと捉えることができる。 この場合、 ズームにおける表示物に対する相対 速度は、 そのような 3次元空間における絶対速度となり、 3次元空間中における 2次元平面と視点位置との距離に応じて変化するものとして表すことができる。 —方で、 前述の 3次元情報オブジェクトを表示するためのユーザインタフエ一 スでは、 多くの場合、 視点位置の移動速度が一定とされている。 このように視点 位置の移動速度が一定であると、 3次元情報ォブジェクトの遠くに視点位置を置 き、 大局的に操作する場合に移動速度が必要以上に遅く感じられたり、 3次元情 報オブジェクトの近くに視点を置き、 詳細な部分を操作する場合には、 必要以上 に速すぎて、 細かな操作ができなくなってしまうなどの問題が生じる。
ここで、 3次元情報オブジェクトの存在する位置と視点位置との距離を計測し、 その値に応じて速度を変化させることで、 全体像に対しても、 詳細に対しても、 見たり操作したりするために適切な速度での視点位置の移動を実現できる。 これ は、 2次元平面に対するズームを 3次元的に表現した場合と同じような方法とな る。
この距離に応じた速度の制御は、 表示対象の 3次元情報オブジェタトが 1つし か存在しない場合には十分である。 し力 し、 そのような 3次元情報オブジェクト が複数存在する場合、 速度制御の要件となる視点位置と 3次元情報オブジェクト との距離も複数存在することになり、 ある位置での視点移動の速度を一意に決定 することができない。
上記の問題を解決するには、 複数の情報ォブジェクトから視点位置までのそれ ぞれの距離から、 移動速度を 1つに決定しなければならない。
そこで、 複数ある情報オブジェクトのうち、 視点位置に最も近い情報オブジェ クトを選び出し、 その情報オブジェクトとの距離で視点の移動速度を決定する。 最も近い情報ォブジェクトを基準情報オブジェクトとして、 視点位置がその基準 情報オブジェクトに近付けば速度を減少させ、 遠ざかれば速度を増加させる。 移 動中に他の情報オブジェクトが現在の基準情報ォブジェクトよりも視点位置に近 くなれば、 その情報オブジェクトを新しい基準情報オブジェクトとし、 視点位置 からその情報ォブジェクトまでの距離で視点の移動速度を変化させる。 この距離 の計算方法は、 各情報ォブジェクトが 3次元の形状データに併せ持つ情報とし、 その情報と視点位置とから実際に距離を求める。 この距離を計算するために各情 報オブジェクトが持っている情報を、以後、各情報オブジェクトの「幾何モデル」 と呼ぶ。 例えば、 3次元情報オブジェクトが幾何モデルとして、 平面を表す情報 を持っていれば、 その平面に対する距離を求め、 球面の幾何モデルならば、 まず 視点位置から球の中心までの距離を求め、 その結果から球の半径を減じた値を距 離とする。
ここで、 平面に近付いて移動する場合と、 球面に近付いて移動する場合の比較 を考える。平面に近付いて移動する場合は、その平面に沿って平行に移動すると、 3次元空間における直線的な移動となる。 一方、 球面に近付いたて同じ直線的な 移動をすると、 移動に伴って球面からの距離が変化する。 球面に沿って移動する ためには、 曲線的な移動をしなければならない。 直線的な移動を繰り返して球面 に沿って移動するのは、 利用者にとって非常に困難である。 代わりに、 様々な移 動方法を同時に数多く提供すると、 操作体系が複雑となり、 利用者にとって使い づらくなる。 しかも、 それだけで十分ではない場合もあり、 情報オブジェクトに よっては、さらに別の移動方法が必要とされる可能性もある。利用者にとっては、 限られた操作体系において、 同じ操作でそれぞれの情報オブジェクトの形状に応 じた方法で移動できるのが望ましい。
そこで、 上述の 「幾何モデル」 において、 距離の計算方法の他に、 利用者から の操作に対する移動方法に関する情報も定義できるようにする。 視点位置の移動 するときには、 幾何モデルから移動すべき方向を求め、 同じく幾何モデルから求 められる距離で速度を定めて移動する。 この処理によって、 それぞれの情報ォブ ジェクトの形状などに応じた、 視点移動を実現できる。 以下に、 上記 「幾何モデル」 に基づく処理の実現方法を、 3次元データ閲覧プ ログラムによって実現される 3次元データ閲覧装置を例にして説明する。
図 1 4は、 3次元データ閲覧装置の構成図を示す。
図 1 4において、 3次元データ閲覧装置 2 0 0 0は、 3次元データ閲覧装置 2 0 0 0全体を制御する制御部 2 0 1 1と、 入力装置 2 0 1 4から入力されたデー タを制御する入力処理部 2 1 1 4と、 表示装置 2 0 1 5へデータを表示させる表 示処理部 2 1 1 5と、 情報オブジェクトデータを情報オブジェクトデータ D B 2 0 1 6で管理する情報オブジェクトデータ管理部 2 1 1 6と、 外部ネットワーク 2 0 2 5とのデータ通信を制御する通信部 2 1 1 8と、 3次元データによる閲覧 を実現する 3次元データ閲覧プログラムが記録された記憶媒体である C D— R O M 2 0 1 9からインストールするインストーラー 2 0 1 9と、 基準情報オブジェ クト決定処理部 2 0 2 1と、 視点距離加工処理部 2 0 2 2とを有する。
制御部 2 0 1 1は、 3次元データ閲覧装置 2 0 0 0の C P U (中央処理装置) であって、 装置全体を制御する。
入力装置 2 0 1 4は、 例えば、 図 1 2 B又は図 1 2 Cに示すリモコン 5 0 3を 有し、 利用者の操作に応じたデータ入力を制御する。
基準情報オブジェクト決定処理部 2 0 2 1は、 視点位置から複数の情報ォブジ エタトへの距離をそれぞれ比較することによって、 基準となる情報オブジェクト を決定する。 また、 基準情報オブジェクト決定処理部 2 0 2 1は、 情報オブジェ クトデータ管理部 2 1 1 6によって情報オブジェクトデータ D B 2 0 1 6で管理 される決定された基準情報オブジェクトの幾何モデル情報に基づいて、 上下左右 の視点移動の方向及び速度を決定す.ることができる。 .
視点距離加工処理部 2 0 2 2は、 情報オブジェクトデータ管理部 2 1 1 6によ つて情報ォブジェクトデータ D B 2 0 1 6で管理される情報オブジェクト毎の幾 何モデル情報で示される局所座標系に基づいて、 視点位置からの距離を加工する 。 これによつて、 基準情報オブジェクト決定処理部 2 0 2 1は、 異なる幾何モデ ル情報を有する情報ォブジェクト間の視点位置までの距離を比較でき、 適切に基 準情報オブジェクトを決定することができる。
図 1 5は、 3次元データ閲覧画面の表示例を示す図である。 図 1 5より、 インストーラー 2 0 1 9によってインストールされた 3次元デ一 タ閲覧プログラムによって、 表示装置 2 0 1 5に表示される 3次元データ閲覧画 面の例が示される。 仮想的な 3次元空間に配置された情報オブジェクト 2 0 3 1 から 2 0 3 5を、 その 3次元空間中に設定された視点位置に関する情報に基づい て、 2次元平面に投影することによって、 表示装置 2 0 1 5に表示させた 3次元 データ閲覧画面 2 0 3 0の表示例である。 この視点位置は、 利用者からの入力に よって様々な方向へ移動させることができる。
図 1 5の状態から画面中の球体の情報ォブジェクト 2 0 3 4に視点を近付けて 行く場合における 3次元データ閲覧画面 2 0 3 0の変化の様子を図 1 6 Aから図 1 6 Dに示す。
図 1 6 Aから図 1 6 Dは、 球体の情報ォブジェクトに視点を接近させた場合の 3次元データ閲覧画面の変化例を示す図である。
3次元データ閲覧画面 2 0 3 0に情報ォブジェクト 2 0 3 1から 2 0 3 5まで の全体が表示されている情報を示す図 1 6 Aにおいて、 視点を球体の情報ォブジ ェクト 2 0 3 4に合わせて接近させて行くと、 図 1 6 Bに示すように、 球体の情 報ォブジェクト 2 0 3 4が拡大され情報 2 0 3 6が見えて来ると同時に、 他情報 オブジェクト 2 0 3 1から 2 0 3 3が 3次元データ閲覧画面 2 0 3 0の外へと消 えて行くように変化していく。 更に、 球体の情報ォブジェクト 2 0 3 4の情報 2 0 3 6に視点を合わせて接近すると、 図 1 6 Cに示されるように、 情報 2 0 3 6 が 3次元データ閲覧画面 2 0 3 0の中心に表示され、 球体の情報オブジェクト 2 0 3 4と共に拡大され画面一杯に表示される。 更に、 情報 2 0 3 6を目掛けて接 近すると、 図 1 6 Dに示されるように、 情報 2.0 3 6が拡大され、 どのようなも のかが見えてくる。
この 3次元データ閲覧装置 2 0 0 0において表示対象となる各情報オブジェク トのデータは、 予め情報オブジェクトデータ管理部 2 1 1 6によって情報ォブジ ェクトデータ D B 2 0 1 6に格納されている力 必要 応じて接続されている外 部ネットワーク 2 0 2 5から取得して情報オブジェクトデータ D B 2 0 1 6に格 鈉される。
各情報オブジェクトが持つ情報は、 例えば、 図 1 7に示すようなリンク構造を 示す。
図 1 7は、 各情報オブジェクトのリンク構造を示す図である。
図 1 7より、 リンク構造 2 0 2 6は、 図 1 4の情報オブジェクトデータ D B 2 0 1 6にて管理され、 3次元形状を特定する 3次元形状データ 2 2 0 1と、 視点 位置とか情報オブジェクトまでの距離計算に必要な幾何的な情報を示す幾何モデ ル情報 2 2 0 2と、 リンクされる情報オブジェク 卜に関する情報を示すリンク情 報 2 2 1 0とを有する。 リンク情報 2 2 1 0は、 リンク先となる情報オブジェク ト名を示すリンク先情報オブジェクト名 2 2 1 1と、 リンク元情報オブジェク ト の局所的な座標系からリンク先情報オブジェク卜の局所的な座標系への座標変換 行列 2 2 1 2とを有する。 局所的な座標系は、 例えば、 情報オブジェクトの大き さと、 幾何的な形状を示す幾何モデル情報 2 2 0 2とによって決定すれば良い。 幾何モデル情報 2 2 0 2には、 平面であれば平面の向きや端点など、 球面であ れば、 球の中心の位置や半径の長さなどが記録される。 利用者による入力装置 2 0 1 4を操作することによる視点移動の際に参照される。
図 1 7において、 3次元データ閲覧装置 2 0 0 0において表示対象となる各情 報オブジェクトは、 それぞれに局所的な座標系を有しており、 その座標系におい て、 頂点や線、 面などの幾何的な 3次元形状が定義される。 また、 各情報ォブジ ェクトは、 他の情報オブジェクトをリンクとして所有することができ、 このリン ク構造 2 0 2 6によって、 全ての情報オブジェクトが 1つのツリー構造をなす。 以後、 リンク先の情報オブジェクトを、 リンク元の情報オブジェクトの子: I"青報ォ ブジェクトと呼び、 リンク先情報オブジェク トにとってリンク元の情報オブジェ クトを親情報オブジェクトと呼ぶ。 ツリーの起点となる情報オブジェクトを除く 全ての情報オブジェクトは、 唯一の親情報オブジェクトを持つ。 また、 親情報ォ ブジェクトは、 各子情報オブジェクトについて、 3次元空間中の位置、 大きさな どの幾何的な関係を、 親情報オブジェクトの局所的な座標系から子情報オブジェ クトの局所的な座標系への座標変換行列として持っている。 子情報オブジェクト のデータも、 子情報オブジェクト自身の局所座標系で 3次元のモデルを定義して おり、 さらなる子情報オブジェクトへのリンクも持つ。
図 1 6 Aから図 1 6 Dまでの 3次元データ閲覧装置 2 0 0 0での表示処理につ いて説明する。
図 1 8は、 3次元データ閲覧装置での表示処理について説明するフローチヤ一 ト図である。
図 1 8において、 図 1 4の制御部 2 0 1 1は、 視点位置を移動させる処理 P 1 0 0 0を行なう。 この処理 P 1 0 0 0は、 例えば、 図 2に示す視野移動計算部 1 0 7及び注視点異動経路計算部 1 0 9等による視野决定部 1 0 4での処理に対応 し、 情報オブジェクトの形状に応じた移動距離を算出する。
次に、 制御部 2 0 1 1は、 表示用データを画面に描画する処理 P 2 0 0 0を行 なう。 この処理 P 2 0 0 0が、 処理 P 1 0 0 0によって算出された視点の移動距 離に基づいて、 基準となる情報オブジェクトを決定して、 表示装置 2 0 1 5に描 画する処理である。
続けて、視点移動が継続中である力否かを判断する (ステップ S 2 3 0 3 )。視 点移動が継続中の場合、 処理 P 1 0 0 0へ戻り、 上記同様の処理を行なう。
—方、 視点移動が継続中でない場合、 利用者からの入力を調べる (ステップ S 2 3 0 4 )。利用者からの入力があつたか否かをチェックする (ステップ S 2 3 0 5 0 )。利用者からの入力がなかった場合、ステップ S 2 3 0 4へ戻り、再度同様 の処理を行なう。
一方、 利用者からの入力があった場合、 利用者の入力が終了コマンドか否かを 判断する (ステップ S 2 3 0 6 )。利用者の入力が終了コマンドであった場合、 3 次元データ閲覧装置での表示処理を終了する。 利用者の入力が終了コマンドでな かった場合、 処理 P 2 0 0 0へ戻り、 上記同様の処理を行なう。
上記表示処理によって、 例えば、 図 1 6 Aにおいて、 利用者が視点を球状の情 報ォブジェクト 2 0 3 4に移動させつつ接近すると、 処理 P 2 0 0 0によって球 状の情報オブジェクト 2 0 3 4を基準となる情報オブジェクトとして判断する。 また、 この場合、 球状の情報オブジェクト 2 0 3 4のリンク構造 2 0 2 6を参照 すること-によって、 4つのリンク情報 2 2 1 0を取得し、 その座標変換行列 2 2 1 2に基づいて、 球状の情報オブジェクト 2 0 3 4上に 4つの情報オブジェクト 2 .0 3 6を 3次元データ閲覧画面 2 0 3 0に表示させる (図 1 6 B )。以後、基準 情報オブジェクトを球状の情報オブジェクト 2 0 3 4とすることによって、 図 1 6 C及ぴ図 1 6 Dに示される 3次元データ閲覧画面 2 0 3 0のように、 球状の情 報ォブジェクトからリンクされている 4つの子情報オブジェクトが視認できるよ うになつてくる。
本実施例において視点を移動するときは、 3次元空間中で最も近くにある情報 オブジェクトの距離に応じて変化するようにする。 本実施例では、 視点移動の速 度が、 情報オブジェクトからの距離に比例するようにする。 '
図 1 9は、 視点位置に応じた視点移動の速度の例を示す図である。
図 1 9において、 視点 1の情報オブジェクトからの距離が d 1であるときに、 視点を移動するときの移動速度を V 1とする。 その後、 視点の位置が図 1 9の視 点 2に移動し、 情報オブジェクトの距離が d 2となったとき、 視点の移動速度は v 2となる。 移動速度と情報オブジェクトとの距離は比例するため、 これらの値 の関係は以下の式で表される。
V 2 = ( d 2 / ά 1 ) 1
このように、 ある基準距離 d 0における速度を V 0とすると、 最も近くにある 情報オブジェクトからの距離が dであるときの速度 Vは、 以下の式で表される値 となる。
V = ( d / d 0 ) V 0
最も近くにある情報オブジェクトを求めるには、 図 2 0に示すフローチヤ一、ト に従って行なう。 図 1 4の基準情報オブジェクト決定処理部 2 0 2 1は、 全ての 情報オブジェクトについて視点位置からの距離を求め、 その距離の値が最も小さ いものを基準情報ォブジェクトとして決定する基準情報オブジェクト決定処理を 実行する。
図 2 0は、基準情報ォブジェクト決定処理を説明するフローチャート図である。 図 2 0において、基準情報オブジェクト決定処理は、 dに無限大を設定する(ス テツプ S 2 3 1 1 )。まだ調べていない情報オブジェクトがある力否かを判断する (ステップ S 2 3 1 2 )。全ての情報オブジェクトについて調べた場合、基準情報 オブジェクト決定処理を終了する。
一方、 まだ調べていない情報オブジェクトがある場合、 その情報オブジェクト nの情報を情報オブジェクトデータ D B 2 0 1 6から取り出す (ステップ S 2 3 1 3 )。取り出した情報オブジェクト nの情報に基づいて、情報オブジェクト nの 視点位置までの距離 d nを設定して(ステップ S 2 3 1 4 )、情報オブジェクト n の視点位置までの距離 d nが dより小さい値か否かを判断する (ステップ S 2 3 1 5 )。情報オブジェクト nの視点位置までの距離 d nが d以上である場合、ステ ッブ S 2 3 1 2へ戻り、 上記同様の処理を行なう。
一方、情報オブジェクト nの視点位置までの距離 d n力 S dより小さい値の場合、 情報オブジェクト nを基準情報ォブジェクトとし(ステップ S 2 3 1 7 )、ステツ プ S 2 3 1 2へ戻り、 上記同様の処理を行なう。
上記基準情報オブジェクト決定処理部 2 0 2 1による処理によって求められた 距離に応じて、 速度を変化させるようにする。
この距離に基づいた速度変化によって、 情報ォブジェクトが画面中で表示され る大きさに適した移動速度を実現することができる。 例えば、 図 1 6 Aの画面状 態において、 球体が画面の中心に来るよう視点を移動したり、 直方体が中心に来 るように移動したりするような操作に対して適した速度である場合、 情報ォブジ ェタトからの距離に関わらず視点の移動速度が同じであると、 図 1 6 Dの画面状 態で、 球体の子情報オブジェクトのそれぞれを画面の中心になるように移動する には、速度が速すぎて、子情報ォブジェクトを閲覧するのが困難になってしまう。 また、 図 1 6 Dの画面で子情報オブジェクト間を移動する速度で全ての移動を行 なうと、 図 1 6 Aの画面で情報オブジェクト間の移動に時間がかかりすぎてしま う。 それに対して、 上述の距離に応じて速度が変化すれば、 図 1 6 Aの画面状態 と図 1 6 Dの画面状態では、 最も近い情報ォブジェクトである球体からの距離に 応じて速度が変化し、 それぞれの画面状態に適した速度が実現できる。 この最も 近い情報オブジェクトが、 「基準情報オブジェクト」 である。 そのときに、 視点 移動の方向は、 この形状に視点移動に応じて、 基準情報オブジェクトとは別の情 報オブジェクトの方が視点位置に近くなつたら、 その近い方の情報オブジェクト を新しい基準情報オブジェクトとして使用する。
3次元データ閲覧装置 2 0 0 0における閲覧の対象となる情報オブジェクトは、 3次元中において様々な形状をなすことが考えられる。 3次元データ閲覧装置 2 0 0 0では、 そのような様々な形状に応じて視点移動の方向が変化するようにな つている。
平面状の情報オブジェクトが基準情報オブジェクトであるときに、 利用者が入 力装置 2 0 1 4を介して、 上下への視点移動の操作を行った場合の視点移動の方 向について図 2 1で説明する。
図 2 1は、 平面状の情報ォブジェクトが基準情報オブジェクトである場合の視 点移動の方向例を示す図である。
図 2 1において、 平面状の基準情報ォブジヱクトに対して、 利用者が入力装置
2 0 1 4を操作することによって、 視点位置を上方向又は下方向へ移動させた場 合、 視点位置は平面と平行に移動する。
球面状の情報オブジェクトが基準情報オブジェクトであるときに、 利用者が入 力装置 2 0 1 4を介して、 上下への視点移動の操作を行った場合の視点移動の方 向について図 2 2で説明する。
図 2 2は、 球面状の情報ォブジェクトが基準情報オブジェクトである場合の視 点移動の方向例を示す図である。
図 2 2において、 球面状の基準情報オブジェクトに対して、 利用者が入力装置
2 0 1 4を操作することによって、 視点位置を上方向又は下方向へ移動させた場 合、 視点位置は球面沿うように移動する。
図 2 1及び図 2 2に示すような移動例を実現するには、 各情報オブジェクトが 持つ図 1 7に示すリンク構造 2 0 2 6の幾何モデル情報 2 2 0 2を用いる。 幾何 モデル情報 2 2 0 2には、 平面であれば平面の向きや端点など、 球面であれば、 球の中心の位置や半径の長さなどが記録されている。 さらに、 その幾何モデル情 報 2 2 0 2に記録されている形状に応じた視点の移動方法 ついても記録する。 この情報は、 画面中に表示される 3次元情報オブジェクトの形状と必ずしも一致 している必要はなく、 あくまで視点の移動に用いるものである。 利用者から視点 移動の操作が入力されたら、 その時点での基準情報ォブジ タトの幾何モデル情 報 2 2 0 2を調べて、 その幾何モデル内に定義されている移動方法に従って視点 を移動させる。
各情報オブジェクトにっき適切な幾何モデル情報 2 2 0 2が定義されていれば、 同じ入力操作で様々な形状に対する快適な閲覧を実現できる。 例えば、 平面状の 幾何モデルを持った情報オブジェクトの表面に並んだ子情報オブジェクト間を移 動する場合も、 球面状の幾何モデルの表面に並んだ子情報オブジェクト間を移動 する場合も、 同じ操作で子情報オブジェクトを次々に閲覧することができる。 ここで、 基準情報オブジェクトからの距離に応じた移動速度の変化と、 基準情 報オブジェクトの持つ幾何モデル情報 2 2 0 2による移動方法の変化を単純に併 用すると、 操作しづらくなつてしまう場合がある。 例えば、 図 2 3のように、 平 面状の幾何モデルを持つ大きな情報ォブジェクト Aの手前に、 球面状の幾何モデ ルを持つ小さな情報ォブジェクト Bが存在するとき、 単純にそれぞれの情報ォブ ジェクトから視点位置までの距離に基づいて基準情報オブジェクトを決定すると、 視点が視点位置 1にあるときも、 視点位置 2にあるときも、 情報ォブジェクト B が基準情報オブジェクトとなってしまう。 視点位置 1のときは、 画面には情報ォ ブジェクト Bが大きく表示されるので、 情報オブジェクト Bが基準情報オブジェ クトであって問題はない。 ,
し力 し、 視点位置 2のときに画面に大きく表示されるのは情報オブジェクト A であり、 そのとき情報オブジェクト Bが基準情報オブジェクトとなっていると、 平面状の幾何モデルを画面で閲覧している状態にありながら、 視点の移動は情報 オブジェクト Bの幾何モデルに従って、 球面に沿って行なうことになる。 これで は、 閲覧対象となっている情報オブジェクトと視点の移動を司る基準情報ォプジ ヱクトがー致せず、 結果として操作しづらくなつてしまうという問題がある。 この問題に対して、 3次元データ閲覧装置 2 0 0 0では、 3次元中の距離とし て求められる値を加工して使用している。 距離の加工には、 図 2 4に示すような 3段階の基準となる距離の値を使用するようにする。
図 2 4は、 距離加工を行なうための基準となる距離の例を示す図である。
図 2 4において、 基準情報オブジェクトを斜線で示し、 該基準情報オブジェク トから視点の位置までの距離は 距離 d Aまでの範囲と、 距離 d Aから距離 d B までの範囲と、 距離 d Bから距離 d Cまでの範囲との 3つの距離範囲に区切られ る。
例えば、 図 2 4に示すように 3つの距離範囲が設定された場合、 図 2 0のステ ップ S 2 3 1 4にて、 図 1 4の視点距離加工処理部 2 0 2 2が起動され、 視点位 置までの距離を決定する視点距離加工処理を実行する。 すなわち、 幾何モデルの 表面から、 近い順に dA, dB及び dCの 3つの基準距離を設け、 視点の位置が どの距離にあるかによって、 加工の仕方を変化させる。
図 25は、 視点距離加工処理を説明するフローチャート図である。 図 25中、 加工前の距離の値を d、加工後の距離の値を d, とする。加工後の距離の値を d, は、 図 20のステップ S 2314において、 dnに設定される。
図 25において、 視点距離加工処理部 2022は、 情報ォブジヱクトの幾何モ デル情報によつて決定される局所座標系に基づいて、 視点位置までの距離を取得 して dに設定する (ステップ S 2321)。視点位置までの距離 dが距離 d A未満 であるか否かを判断する (ステップ S 2322)。視点位置までの距離 dが距離 d A未満である場合、 視点位置までの距離 dに距離 d Aを設定して (ステップ S 2 322)、処理を終了する。 つまり、 dの値が d A以下の範囲では、加工後の距離 d' の値を d Aで一定とし、 距離によって変化しないようにする。 これは最低の 速度を保証するための処理であり、 基準情報オブジェクト以外の情報オブジェク トとの位置関係において、 極端に遅い速度になってしまうことを避けることがで ぎる。
一方、 視点位置までの距離 dが距離 d A以上の場合、 視点位置までの距離 dが 距離 dB未満であるか否かを判断する(ステップ S 2323)。視点位置までの距 離 dが距離 dB未満の場合、 加工後の距離 d' に視点位置までの距離 dを設定し て (ステップ S 2324)、処理を終了させる。 つまり、 dの値が dA以上 dB未 満の範囲では、 dの値を加工せずに、 そのまま d, の値とする。 この範囲内であ れば、 上述の距離による速度変化の処理を行なうようにする。
一方、 視点位置までの距離 dが距離 dB以上の場合、 更に、 視点位置までの距 離 dが距離 dC未満であるか否かを判断する (ステップ S 2325)。視点位置ま での距離 dが距離 dC以上である場合、加工後の距離 d'に無限大を設定して(ス テツプ S 2327)、 処理を終了-させる。
—方、 視点位置までの距離 dが距離 dC未満である場合、 つまり、 dの値が d B以上 dC未満の範囲においては、 d, の値は以下の式で求める (ステップ S 2 324)。 d , ト — d C + 2 d B - d C
d - d C
この式は、 d = d Bのときに、 d, の値も d Bとなり、 その値から dが増加する に伴って d, の値も増加していき、 dの値が d Cに近付くにつれて d ' の値が正 の無限大へ漸近していく関数を表している。 つまり、 距離 d Bより遠ざかり、 距 離 d Cの位置へ近付いていくと、 d, の値は実際の距離よりもどんどんと大きく なり、 d Cに至る頃には、 無限に遠い位置を表すようになる。 そして、 dの値が d C以上ならば、 d, の値は正の無限大とする。 この dと d ' の関係をグラフに 表すと図 2 6のように示される。 このグラフからも分かるように、 加工前の距離 dに対して加工後の距離 d ' は連続的な値を取るため、 基準情報オブジェクトが 切り替わることによつて急速に速度が変化することがない。
この距離の加工は、 各情報オブジェクトの局所座標系で行ない、 それぞれの情 報オブジェクトの局所座標系で求められた距離 d, を、 現在の基準情報オブジェ クトの座標系に換算した上で比較して、 最も小さな値となった情報オブジェクト を新しい基準情報オブジェクトとする。 現在の基準情報オブジェクトの座標系に 換算するために、 リンク構造 2 0 2 6のリンク情報 2 2 0 2にある座標変換行列 2 2 1 2に基づいて、 逆換算すれば良い。
このように距離を加工することによって図 2 3のような状況でも適切に基準情 報オブジェクトを選択することができる。
図 2 7は、 幾何モデルの異なる 2つの情報オブジェクトが視点方向に存在する 場合の距離加工の例について説明する図である。
図 2 3において、 情報オブジェクト Aの局所座標系における距離 d C以下の範 囲を範囲 Aとし、 情報オブジェクト Bの局所座標系における距離 d C以下の範囲 を範囲 Bとして、 表したものを図 2 7に示す。 この図 2 7において、 視点が視点 位置 1にあるときは、 情報オブジェクト Bが最も近い位置にあり、 このときの基 準情報オブジェクトとなる。 一方、 視点が視点位置 2にあるときは、 単純な距離 としては情報オブジェクト Bの方が近くにあるが、 情報オブジェクト Bの局所座 標系では d C以上の距離にあるため、 加工すると無限大の距離となる。 情報ォブ ジェクト Aの局所座標系では d C以下であり、 加工後の距離の値は情報オブジェ クト Aの方が小さくなる。 その結果、 基準情報オブジェクトは情報オブジェクト Aとなり、 上述の問題点は解消される。
ここで、 図 2 8のように情報オブジェクト Aに透明な部分があり、 その透明な 部分を通して、 情報オブジェクト Aより遠い位置にある情報オブジェクト Bを見 ることができる状況を考える。
図 2 8は、 幾何モデルの異なる情報オブジェクトから別の情報オブジェクトを 見る場合の距離加工の例について説明する図である。
この状況において、 上述おょぴ図 2 5に示した処理中の、 距離 d Aより近すぎ る場合の距離を一定にする加工を行なわない場合、 視点位置 1から情報オブジェ クト Bに近付いていっても、 情報オブジェクト Aとの距離が 0に近付くことによ り速度も 0に近付くため、 情報オブジェクト Aを通り抜けて情報オブジェクト B に近付くことができない。 また、 視点が視点位置 2にあるときは、 情報ォブジ z クト Aの方が常に近い位置にあるため、 情報オブジェクト Aが基準情報オブジェ クトとなり、 情報オブジェクト Bが画面に大きく表示されているにも関わらず、 移動方法は情報オブジェクト Aの幾何モデルに従うことになり、 平面に沿つた移 動方法となってしまう。 これ'に対して、 情報オブジェクト Aの局所座標系におけ る距離 d A以下の範囲を範囲 A、 情報オブジェクト Bの局所座標系における距離 d A以下の範囲 Bとして、 上述および図 2 5に示した処理で距離 d Aより近くの 距離は一定にする加工をすれば、 視点位置 2においては、 情報オブジェクト Bで の加工後の距離の値が小さくなり、 情報オブジェクト Bが基準情報オブジェクト となる。 このように遠い方だけでなく、 近い方にも加工の範囲を設けておくこと で、 視点位置に応じて、 適切に基準情報オブジェクトを選択することができる。 上記実施例より、 3次元データ閲覧装置 2 0 0 0において、 幾何モデル情報に 基づいて、 情報オブジェクトの形状に応じて該情報オブジェクトの表面から視点 位置までの距離を求めることができる。
複数の情報オブジェクトが存在する場合、 幾何モデル情報に基づく視点位置ま での距離の最も短い情報オブジェクトを基準情報オブジェクトとして決定するこ とができる。
基準情報オブジェクトを決定することによって、 3次元形状データに基づいて 視点移動を行なうことができる。 また、 基準情報オブジェクトから視点位置まで の距離に応じて、 速度を変化させることにより、 基準情報オブジェクトの全体像 から詳細に至るまでを閲覧するときに、 視点位置に適した速度を実現できる。 また、 複数の情報オブジェクトの各局所座標に基づく視点位置までの距離及び 所定の距離範囲に基づいて決定された距離のうち最も近くの情報ォブジヱクトを 基準情報オブジェクトとすることができる。よって、視点位置が遠く離れた場合、 及び、 最も接近した場合においても、 基準情報ォブジェクトの決定を適確に行な うことができるため、 スムーズな速度で視点移動を行なうことができる。
なお、 上記例において、 図 2に示す視野決定部 1 0 4での処理が視野決定手段 に対応し、 表示画像生成部 1 0 5での処理が表示画像生成手段に対応する。 なお、 上記例において、 図 1 4に示す基準情報オブジェクト決定処理部 2 0 2 1の処理が基準決定手段と速度変化手段とに対応し、 視点距離加工処理部 2 0 2 2での処理が距離カ卩工手段に対応する。

Claims

請 求 の 範 囲
1 . 三次元形状を示す情報オブジェクトを含む連鎖的にリンクされた複数の情報 オブジェクトを三次元仮想空間内に表示する表示制御装置であって、
ユーザによって入力された視野移動指示に応じて、 注視される情報オブジェク トの形状に基づいて、 該形状の表面をなぞるように表示する視野を決定する視野 決定手段と、
上記視野決定手段によって決定された視野に基づいて、 リンクされた複数の情 報オブジェクトの表示画像を生成する表示画像生成手段とを有し、
上記表示画像を表示装置に表示させることによって、 上記視野移動に応じた情 報オブジェクトを表示するようにした表示制御装置。
2 . 請求項 1記載の表示制御装置であって、
上記仮想空間内での各情報ォブジェクトの相対的な位置関係及びスケール比を リンク情報として管理するリンク情報管理手段を有し、
上記視野決定手段は、 上記リンク情報に基づいて、 注視される情報オブジェク トを、 上記視野移動指示で示される移動方向に配置される情報オブジェクトに切 り替えながら、 切り替えられた情報オブジェクトの形状に基づいて、 視野を決定 するようにし、
上記表示画像生成手段は、 上記リンク情報の位置関係及ぴスケール比に基づい て、 リンクされた複数の情報オブジェクトのうち表示すべき情報オブジェク トを 選択して、 その表示画像を生成するようにした表示制御装置。
3 . 請求項 1記載の表示制御装置であって、 .
上記視野決定手段は、
情報オブジェクトの三次元形状に基づいて、 注視点の移動経路を計算する注視 点移動経路計算手段と、
情報オブジェクトの形状に基づいて、 視野移動を計算する視野移動計算手段と を有し、
注視される情報オブジェクトが三次元形状の場合、 上記視野移動計算手段は、 上記注視点移動経路計算手段による計算結果に基づいて、 視野移動を計算するよ うにした表示制御装置。
4 . 三次元形状を示す情報オブジェクトを含む連鎖的にリンクされた複数の情報 オブジェクトを三次元仮想空間内に表示する請求項 1記載のいずれか一項記載の 表示制御装置を備えた情報端末装置であって、
ユーザによる視野移動方向の操作によって、 上記三次元仮想空間内における視 野移動指示を受け付ける指示受付手段を有する情報端末装置。
5 . 請求項 4記載の情報端末装置であって、
キー入力によって、 情報入力を可能とする情報入力手段と、
ユーザによる視野移動方向の操作によって、 上、 下、 左、 右、 ズームイン、 又 は、 ズームァゥトの視野移動方向を指定可能とする視野移動手段とを有する情報
6 . 三次元形状を示す情報オブジェクトを含む連鎖的にリンクされた複数の情報 オブジェクトを三次元仮想空間内に表示する表示制御装置での処理をコンビユー タに行なわせるための表示制御プログラムであって、
ユーザによって入力された視野移動指示に応じて、 注視される情報オブジェク トの形状に基づいて、 該形状の表面をなぞるように表示する視野を決定する視野 決定手順と、
上記視野決定手段によって決定された視野に基づいて、 リンクされた複数の情 報オブジェクトの表示画像を生成する表示画像生成手順とを有し、
上記表示画像を表示装置に表示させることによって、 上記視野移動に応じた情 報ォブジェクトを表示するようにした表示制御プログラム。
7 . 三次元形状を示す情報オブジェクトを含む連鎖的にリンクされた複数の情報 才ブジェクトを三次元仮想空間内に表示する表示制御装置での処理をコンビユー タに行なわせるためのプログラムを格納した記憶媒体であって、
ユーザによって入力された視野移動指示に応じて、 注視される情報オブジェク トの形状に基づいて、 該形状の表面をなぞるように表示する視野を決定する視野 決定手順と、
上記視野決定手段によって決定された視野に基づいて、 リンクされた複数の情 報オブジェクトの表示画像を生成する表示画像生成手順とを有し、 上記表示画像を表示装置に表示させることによって、 上記視野移動に応じた情 報ォブジェクトを表示するようにしたプログラムを格納した記憶媒体。
8 . 三次元仮想空間内に表示されるある形状を有する複数の情報ォブジェクトに 対する視点位置を制御する視点位置制御装置であって、
利用者による入力に従って、 視点位置から最も近い位置に表示される情報ォブ ジェクトを基準情報オブジェクトとして決定する基準決定手段と、
決定された上記基準オブジェクトと視点位置までの距離の大きさに応じて視点 の移動速度を変化させる速度変化手段とを有し、
上記基準情報オブジェクトに基づいて、 視点位置までの距離に応じた移動速度 で視点が移動するように視'点位置を制御して、 上記複数の情報オブジェタトを表 示させる視点位置制御装置。
9 . 請求項 8記載の視点位置制御装置であって、
情報オブジェクトの形状を幾何的に示す幾何的情報を含む情報オブジェクトデ —タを管理するデータ管理手段と、
上記速度変化手段は、 上記データ管理手段で管理される上記基準決定手段にて 決定された基準オブジェク卜の幾何的情報に基づいて、 該基準オブジェクトの移 動方向を変化させつつ、 視点の移動速度を変化させるように制御した視点位置制
1 0 . 請求項 9記載の視点位置制御装置であつて、
上記データ管理手段で管理される情報オブジェクトの幾何学的情報に基づいて、 該情報ォブジヱクトから視点位置までの距離の大きさを加工する距離加工手段を 有するようにした視点位置制御装置。
1 1 . 請求項 1 0記載の視点位置制御装置であって、
上記距離加工手段は、 情報オブジェクトの幾何学的情報によって定まる局所座 標系にて算出された視点位置からの距離が第一の所定値以上である場合、 その算 出された該距離を無限大に設定するようにした視点位置制御装置。
1 2 . 請求項 1 1記載の視点位置制御装置であって、
上記距離加工手段は、 情報オブジェクトの幾何学的情報によって定まる局所座 標系にて算出された視点位置からの距離が第二の所定値以上及び上記第一の所定 値未満である場合、 その算出された該距離を大きく、 かつ、 該第一の所定値に近 付くに従って無限大に漸近する値に設定するようにした視点位置制御装置。
1 3 . 請求項 1 2記載の視点位置制御装置であって、
上記距離加工手段は、 情報オブジェクトの幾何学的情報によって定まる局所座 ; 標系にて算出された視点位置からの距離が上記第二の所定値より小さい第三の所 定値以下である場合、 該第三の所定値に設定し一定とするようにした視点位置制
1 4 . 請求項 1 0記載の視点位置制御装置であって、
上記基準決定手段は、 上記距離加工手段によつて加工された視点位置からの距 離に基づいて、 最も近い位置に表示される情報オブジェクトを基準情報オブジェ タトとして決定するようにした視点位置制御装置。
1 5 . 三次元仮想空間内に表示されるある形状を有する複数の情報オブジェクト に対する視点位置を制御する視点位置制御プログラムであって、
利用者による入力に従って、 視点位置から最も近い位置に表示される情報ォブ ジェクトを基準情報オブジェクトとして決定する決定手 j頃と、
決定された上記基準オブジェクトと視点位置までの距離の大きさに応じて視点 の移動速度を変化させる速度変化手順とを有し、
上記基準情報オブジェクトに基づいて、 視点位置までの距離に応じた移動速度 で視点が移動するように視点位置を制御して、 上記複数の情報オブジェタトを表 示させる視点位置制御プロダラム。
1 6 . 三次元仮想空間内に表示されるある形状を有する複数の情報ォブジェクト に対する視点位置を制御する視点位置制御装置での処理をコンピュータに行なわ せるためのプログラムを格納した記憶媒体であって、
利用者による入力に従って、 視点位置から最も近い位置に表示される情報ォブ ジェクトを基準情報オブジェクトとして決定する決定手順と、
- 決定された上記基準オブジェクトと視点位置までの距離の大きさに応じて視点 の移動速度を変化させる速度変化手順とを有し、
上記基準情報オブジェクトに基づいて、 視点位置までの距離に応じた移動速度 で視点が移動するように視点位置を制御して、 上記複数の情報オブジェクトを表 示させるプログラムを格納した記憶媒体。
PCT/JP2001/004784 2001-02-23 2001-06-06 Dispositif de commande d'affichage, dispositif terminal d'information equipe de ce dispositif de commande d'affichage, et dispositif de commande de position de point de vue WO2002069276A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002568316A JP4077321B2 (ja) 2001-02-23 2001-06-06 表示制御装置
EP01936878A EP1363246A4 (en) 2001-02-23 2001-06-06 "DISPLAY CONTROL DEVICE, INFORMATION EQUIPMENT EQUIPPED WITH THE DISPLAY CONTROL DEVICE AND VIEWPOINT POSITION CONTROL DEVICE"
US10/639,517 US20040141014A1 (en) 2001-02-23 2003-08-13 Display controlling apparatus, information terminal unit provided with display controlling apparatus, and viewpoint location controlling apparatus
US11/320,345 US7812841B2 (en) 2001-02-23 2005-12-29 Display controlling apparatus, information terminal unit provided with display controlling apparatus, and viewpoint location controlling apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001-48770 2001-02-23
JP2001048770 2001-02-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/639,517 Continuation US20040141014A1 (en) 2001-02-23 2003-08-13 Display controlling apparatus, information terminal unit provided with display controlling apparatus, and viewpoint location controlling apparatus

Publications (1)

Publication Number Publication Date
WO2002069276A1 true WO2002069276A1 (fr) 2002-09-06

Family

ID=18909980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004784 WO2002069276A1 (fr) 2001-02-23 2001-06-06 Dispositif de commande d'affichage, dispositif terminal d'information equipe de ce dispositif de commande d'affichage, et dispositif de commande de position de point de vue

Country Status (4)

Country Link
US (2) US20040141014A1 (ja)
EP (1) EP1363246A4 (ja)
JP (1) JP4077321B2 (ja)
WO (1) WO2002069276A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119453A1 (ja) * 2008-03-26 2009-10-01 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、情報記録媒体、ならびに、プログラム
WO2009128181A1 (ja) * 2008-04-18 2009-10-22 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示装置の制御方法及び情報記憶媒体
JP2009258523A (ja) * 2008-04-18 2009-11-05 Sony Computer Entertainment Inc 画像表示装置、画像表示装置の制御方法及びプログラム
JP2009259131A (ja) * 2008-04-18 2009-11-05 Sony Computer Entertainment Inc 画像表示装置、画像表示装置の制御方法及びプログラム
JP2010035195A (ja) * 2002-03-28 2010-02-12 Chi Development Management Ltd The 27Th Llc アイテム表示
WO2010119829A1 (ja) * 2009-04-17 2010-10-21 株式会社プロフィールド 情報処理装置、情報処理方法、およびプログラム
JP2011519085A (ja) * 2008-04-14 2011-06-30 グーグル インコーポレイテッド 急降下ナビゲーション
JP2014059887A (ja) * 2008-01-10 2014-04-03 Sony Mobile Communications Ab 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8416266B2 (en) * 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
US7576756B1 (en) * 2002-02-21 2009-08-18 Xerox Corporation System and method for interaction of graphical objects on a computer controlled system
US7194469B1 (en) * 2002-09-24 2007-03-20 Adobe Systems Incorporated Managing links in a collection of documents
US7019742B2 (en) * 2003-11-20 2006-03-28 Microsoft Corporation Dynamic 2D imposters of 3D graphic objects
JP4039676B2 (ja) * 2004-03-31 2008-01-30 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法及びプログラム
EP1904952A2 (en) * 2005-05-23 2008-04-02 Nextcode Corporation Efficient finder patterns and methods for application to 2d machine vision problems
GB0605587D0 (en) 2006-03-20 2006-04-26 British Broadcasting Corp Graphical user interface methods and systems
JP2007304667A (ja) * 2006-05-08 2007-11-22 Sony Computer Entertainment Inc ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP4880693B2 (ja) * 2006-10-02 2012-02-22 パイオニア株式会社 画像表示装置
US7996787B2 (en) * 2007-02-06 2011-08-09 Cptn Holdings Llc Plug-in architecture for window management and desktop compositing effects
EP2238521B1 (de) * 2008-01-31 2012-08-01 Siemens Aktiengesellschaft Verfahren und vorrichtung zur visualisierung einer automatisierungstechnischen anlage mit einem werkstück
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
JP5407294B2 (ja) * 2008-11-20 2014-02-05 ソニー株式会社 無線通信装置および無線通信方法
US9165408B2 (en) * 2008-12-01 2015-10-20 Visual Domains Ltd. Method and system for browsing visual content displayed in a virtual three-dimensional space
TWI493500B (zh) * 2009-06-18 2015-07-21 Mstar Semiconductor Inc 使二維影像呈現出三維效果之影像處理方法及相關影像處理裝置
WO2011020683A1 (de) * 2009-08-19 2011-02-24 Siemens Aktiengesellschaft Kontinuierliche bestimmung einer perspektive
US8291322B2 (en) * 2009-09-30 2012-10-16 United Video Properties, Inc. Systems and methods for navigating a three-dimensional media guidance application
KR101409009B1 (ko) * 2010-03-31 2014-06-18 라쿠텐 인코포레이티드 정보 처리 장치, 정보 처리 방법, 및 기록 매체
US8411092B2 (en) 2010-06-14 2013-04-02 Nintendo Co., Ltd. 2D imposters for simplifying processing of plural animation objects in computer graphics generation
JP5134652B2 (ja) * 2010-07-07 2013-01-30 株式会社ソニー・コンピュータエンタテインメント 画像表示装置および画像表示方法
US9110582B2 (en) * 2010-11-03 2015-08-18 Samsung Electronics Co., Ltd. Mobile terminal and screen change control method based on input signals for the same
US20120174038A1 (en) * 2011-01-05 2012-07-05 Disney Enterprises, Inc. System and method enabling content navigation and selection using an interactive virtual sphere
JP5839220B2 (ja) * 2011-07-28 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20130054319A1 (en) * 2011-08-29 2013-02-28 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application
US8626434B1 (en) 2012-03-01 2014-01-07 Google Inc. Automatic adjustment of a camera view for a three-dimensional navigation system
US20140028674A1 (en) * 2012-07-24 2014-01-30 Ahmed Medo Eldin System and methods for three-dimensional representation, viewing, and sharing of digital content
JP6167703B2 (ja) * 2013-07-08 2017-07-26 株式会社リコー 表示制御装置、プログラム及び記録媒体
US9361665B2 (en) * 2013-11-27 2016-06-07 Google Inc. Methods and systems for viewing a three-dimensional (3D) virtual object
US10891780B2 (en) 2013-11-27 2021-01-12 Google Llc Methods and systems for viewing a three-dimensional (3D) virtual object
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10719939B2 (en) * 2014-10-31 2020-07-21 Fyusion, Inc. Real-time mobile device capture and generation of AR/VR content
US10726560B2 (en) * 2014-10-31 2020-07-28 Fyusion, Inc. Real-time mobile device capture and generation of art-styled AR/VR content
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
EP3174026A1 (en) * 2015-11-24 2017-05-31 Hella KGaA Hueck & Co Remote control for automotive applications
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
GB2566295B (en) * 2017-09-07 2022-06-22 Spherica Systems Ltd System and methods utilizing dataset management user interface
EP3486749B1 (en) 2017-11-20 2022-05-11 Nokia Technologies Oy Provision of virtual reality content
US10754523B2 (en) * 2017-11-27 2020-08-25 International Business Machines Corporation Resizing of images with respect to a single point of convergence or divergence during zooming operations in a user interface
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US20230005101A1 (en) * 2019-12-19 2023-01-05 Sony Group Corporation Information processing apparatus, information processing method, and recording medium
US11688126B2 (en) * 2021-02-09 2023-06-27 Canon Medical Systems Corporation Image rendering apparatus and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991109A (ja) * 1995-09-28 1997-04-04 Oki Electric Ind Co Ltd 仮想3次元空間表示装置
EP0767418A1 (en) * 1995-10-02 1997-04-09 Sony Corporation Image controlling device and image controlling method
JPH10232757A (ja) * 1997-02-19 1998-09-02 Sharp Corp メディア選択装置
JP2000020754A (ja) * 1998-07-07 2000-01-21 Nec Corp モデル表示装置
JP2000322591A (ja) * 1999-05-07 2000-11-24 Sega Enterp Ltd 仮想視点制御装置、コントローラ及びゲーム装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5276785A (en) * 1990-08-02 1994-01-04 Xerox Corporation Moving viewpoint with respect to a target in a three-dimensional workspace
US5359703A (en) * 1990-08-02 1994-10-25 Xerox Corporation Moving an object in a three-dimensional workspace
US5333254A (en) * 1991-10-02 1994-07-26 Xerox Corporation Methods of centering nodes in a hierarchical display
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5678015A (en) * 1995-09-01 1997-10-14 Silicon Graphics, Inc. Four-dimensional graphical user interface
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
GB9606791D0 (en) * 1996-03-29 1996-06-05 British Telecomm Control interface
US5745109A (en) * 1996-04-30 1998-04-28 Sony Corporation Menu display interface with miniature windows corresponding to each page
US5926183A (en) * 1996-11-19 1999-07-20 International Business Machines Corporation Efficient rendering utilizing user defined rooms and windows
US6710788B1 (en) * 1996-12-03 2004-03-23 Texas Instruments Incorporated Graphical user interface
JPH1139132A (ja) 1997-07-15 1999-02-12 Sharp Corp インターフェースシステム
JPH11154244A (ja) 1997-11-21 1999-06-08 Canon Inc 画像処理装置と画像情報の処理方法
JP3383563B2 (ja) * 1997-12-18 2003-03-04 富士通株式会社 物体移動シミュレーション装置
JP3939444B2 (ja) 1998-07-23 2007-07-04 凸版印刷株式会社 映像表示装置
WO2000011540A1 (fr) * 1998-08-24 2000-03-02 Hitachi, Ltd. Systeme, dispositif et procede d'affichage de traitement d'informations multimedia
US6597358B2 (en) * 1998-08-26 2003-07-22 Intel Corporation Method and apparatus for presenting two and three-dimensional computer applications within a 3D meta-visualization
JP3646582B2 (ja) 1998-09-28 2005-05-11 富士通株式会社 電子情報表示方法、電子情報閲覧装置および電子情報閲覧プログラム記憶媒体
FR2788617B1 (fr) * 1999-01-15 2001-03-02 Za Production Procede de selection et d'affichage d'un element de type fichier numerique, image fixe ou images animees, sur un ecran d'affichage
US6573896B1 (en) * 1999-07-08 2003-06-03 Dassault Systemes Three-dimensional arrow
US7193629B2 (en) * 2001-05-18 2007-03-20 Sony Computer Entertainment Inc. Display apparatus
US7190365B2 (en) * 2001-09-06 2007-03-13 Schlumberger Technology Corporation Method for navigating in a multi-scale three-dimensional scene
JP2004213641A (ja) * 2002-12-20 2004-07-29 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、情報処理装置、情報処理システム、半導体デバイス、コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991109A (ja) * 1995-09-28 1997-04-04 Oki Electric Ind Co Ltd 仮想3次元空間表示装置
EP0767418A1 (en) * 1995-10-02 1997-04-09 Sony Corporation Image controlling device and image controlling method
JPH10232757A (ja) * 1997-02-19 1998-09-02 Sharp Corp メディア選択装置
JP2000020754A (ja) * 1998-07-07 2000-01-21 Nec Corp モデル表示装置
JP2000322591A (ja) * 1999-05-07 2000-11-24 Sega Enterp Ltd 仮想視点制御装置、コントローラ及びゲーム装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1363246A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035195A (ja) * 2002-03-28 2010-02-12 Chi Development Management Ltd The 27Th Llc アイテム表示
JP2014059887A (ja) * 2008-01-10 2014-04-03 Sony Mobile Communications Ab 3dグラフィカルユーザインタフェースをナビゲートするためのシステム及び方法
WO2009119453A1 (ja) * 2008-03-26 2009-10-01 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、情報記録媒体、ならびに、プログラム
JP2011519085A (ja) * 2008-04-14 2011-06-30 グーグル インコーポレイテッド 急降下ナビゲーション
WO2009128181A1 (ja) * 2008-04-18 2009-10-22 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示装置の制御方法及び情報記憶媒体
JP2009258523A (ja) * 2008-04-18 2009-11-05 Sony Computer Entertainment Inc 画像表示装置、画像表示装置の制御方法及びプログラム
JP2009259131A (ja) * 2008-04-18 2009-11-05 Sony Computer Entertainment Inc 画像表示装置、画像表示装置の制御方法及びプログラム
US8797360B2 (en) 2008-04-18 2014-08-05 Sony Corporation Image display device, method for controlling image display device, and information storage medium
WO2010119829A1 (ja) * 2009-04-17 2010-10-21 株式会社プロフィールド 情報処理装置、情報処理方法、およびプログラム
JP2010250696A (ja) * 2009-04-17 2010-11-04 Profield Co Ltd 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
EP1363246A4 (en) 2006-11-08
EP1363246A1 (en) 2003-11-19
US20040141014A1 (en) 2004-07-22
US20060103650A1 (en) 2006-05-18
JP4077321B2 (ja) 2008-04-16
US7812841B2 (en) 2010-10-12
JPWO2002069276A1 (ja) 2004-07-02

Similar Documents

Publication Publication Date Title
WO2002069276A1 (fr) Dispositif de commande d'affichage, dispositif terminal d'information equipe de ce dispositif de commande d'affichage, et dispositif de commande de position de point de vue
Mendes et al. A survey on 3d virtual object manipulation: From the desktop to immersive virtual environments
JP5609416B2 (ja) 情報処理装置、情報処理方法およびプログラム
US7451408B2 (en) Selecting moving objects on a system
Grossman et al. Multi-finger gestural interaction with 3d volumetric displays
Rekimoto Transvision: A hand-held augmented reality system for collaborative design
US5689628A (en) Coupling a display object to a viewpoint in a navigable workspace
EP0685790B1 (en) Transporting a display object coupled to a viewpoint within or between navigable workspaces
US6844887B2 (en) Alternate reduced size on-screen pointers for accessing selectable icons in high icon density regions of user interactive display interfaces
Kasahara et al. exTouch: spatially-aware embodied manipulation of actuated objects mediated by augmented reality
US6084589A (en) Information retrieval apparatus
Steinicke et al. Object selection in virtual environments using an improved virtual pointer metaphor
US9395906B2 (en) Graphic user interface device and method of displaying graphic objects
US8723792B2 (en) System for controlling devices and information on network by using hand gestures
US20080252661A1 (en) Interface for Computer Controllers
CN108228026A (zh) 三维场景中对象的快速操纵
CN114138106A (zh) 混合虚拟现实桌面计算环境中的状态之间的转换
Jaswa CAVEvis: Distributed real-time visualization of time-varying scalar and vector fields using the CAVE virtual reality theater
Coninx et al. A hybrid 2D/3D user interface for immersive object modeling
JP2002351309A (ja) 都市vr地図連動情報表示装置
JP3470771B2 (ja) 投影面連動表示装置
Vance et al. VRSpatial: Designing spatial mechanisms using virtual reality
Steinicke et al. VR and laser-based interaction in virtual environments using a dual-purpose interaction metaphor
KR102392675B1 (ko) 3차원 스케치를 위한 인터페이싱 방법 및 장치
JP2018063738A (ja) 図形処理装置および図形処理プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002568316

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 10639517

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2001936878

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001936878

Country of ref document: EP