WO2010122859A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2010122859A1
WO2010122859A1 PCT/JP2010/054541 JP2010054541W WO2010122859A1 WO 2010122859 A1 WO2010122859 A1 WO 2010122859A1 JP 2010054541 W JP2010054541 W JP 2010054541W WO 2010122859 A1 WO2010122859 A1 WO 2010122859A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
virtual object
display unit
data
Prior art date
Application number
PCT/JP2010/054541
Other languages
English (en)
French (fr)
Inventor
松田 晃一
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP10766918.6A priority Critical patent/EP2423789B1/en
Priority to CN201080016939.7A priority patent/CN102395948B/zh
Priority to BRPI1015167A priority patent/BRPI1015167A2/pt
Priority to US13/264,133 priority patent/US8994721B2/en
Priority to RU2011141838/08A priority patent/RU2536363C2/ru
Publication of WO2010122859A1 publication Critical patent/WO2010122859A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and a program. More specifically, the present invention relates to an information processing apparatus, an information processing method, and a program for performing data processing using a mixed reality (MR) in which a real object in the real world and an electronic display are fused.
  • MR mixed reality
  • the user when a user performs data processing using a PC (personal computer), the user performs processing on display data on a display unit (display) of the PC.
  • display display
  • the display size of the paper applied to the document creation is larger than the size of the display unit of the PC (for example, the window size)
  • the entire paper is displayed on the PC screen.
  • the present invention solves such a problem by using data processing using, for example, mixed reality (MR).
  • MR mixed reality
  • Patent Document 1 Japanese Patent Laid-Open No. 2008-304268
  • Patent Document 2 Japanese Patent Laid-Open No. 2008-304269
  • the present invention generates a composite image in which various data are electronically pasted in an area other than a display unit (display) such as a PC, for example, by data processing using mixed reality (MR).
  • An object of the present invention is to provide an information processing apparatus, an information processing method, and a program that can effectively use a space area other than a display unit used as a main work area by enabling observation of the composite image. .
  • the first aspect of the present invention is: Non-display data continuous to display data of the first display unit in data processing using the first display unit, and an application execution unit that stores position information of the non-display data in a memory; A three-dimensional information analysis unit that analyzes a three-dimensional position of a real object including the first display unit included in a camera-captured image; The non-display data stored in the memory, the position information of the non-display data, and the three-dimensional position information of the first display unit analyzed by the three-dimensional information analysis unit are input, and the real object included in the camera photographed image And a virtual object management unit that generates a composite image composed of virtual objects composed of the non-display data and displays the composite image on the second display unit, The virtual object management unit An information processing apparatus that sets a display position of the virtual object on the second display unit to a position in a direction extending from a boundary of display data of the first display unit displayed on the second display unit to the outside of the first display unit. It is in.
  • the virtual object management unit displays coordinate data, which is position information of non-display data stored in the memory, in a display position in the display image of the second display unit. Is converted into a camera coordinate system, and the display position of the virtual object is determined by applying the converted coordinate data.
  • the object management unit determines whether the display position of the virtual object converted into the camera coordinate system intersects with the formation surface of the real object included in the camera photographed image. In the case of crossing, the coordinate data after the conversion is executed so that the coordinate data after the conversion is positioned on the formation surface of the real object, and the coordinate data after the conversion is applied. The display position of the virtual object is determined.
  • the information processing apparatus includes a first device having the application execution unit, a three-dimensional information analysis unit, and a second virtual object management unit.
  • the application execution unit transfers data stored in the first memory in the first device to the second device via a communication unit, and the 3D information analysis is performed in the second device.
  • the virtual object management unit perform processing using received data.
  • the second aspect of the present invention provides An information processing method executed in an information processing apparatus, An application execution step in which the application execution unit stores in the memory non-display data continuous to the display data of the first display unit in the data processing using the first display unit, and the position information of the non-display data; A three-dimensional information analysis step for analyzing a three-dimensional position of a real object including the first display unit included in the camera-captured image; The virtual object management unit inputs the non-display data stored in the memory, the position information of the non-display data, and the three-dimensional position information of the first display unit analyzed by the three-dimensional information analysis unit.
  • the virtual object management step includes: A process of setting the display position of the virtual object on the second display unit to a position in a direction extending from the boundary of display data of the first display unit displayed on the second display unit to the outside of the first display unit is performed.
  • An information processing method having steps.
  • the third aspect of the present invention provides A program for executing information processing in an information processing apparatus;
  • the virtual object management unit inputs non-display data stored in the memory, position information of the non-display data, and three-dimensional position information of the first display unit analyzed by the three-dimensional information analysis unit, and the camera photographing
  • the virtual object management step includes: A process of setting the display position of the virtual object on the second display unit to
  • the program of the present invention is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an image processing apparatus or a computer system that can execute various program codes.
  • a storage medium or a communication medium provided in a computer-readable format to an image processing apparatus or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • non-display data that protrudes from an area outside the display unit is placed at a position continuous with the display data of the display unit.
  • a configuration for displaying as a virtual object is realized. With this configuration, the user can always observe and confirm not only the display data of a limited display area such as a PC, but also the data that has gone out of the display unit, thereby improving data processing efficiency. Can do.
  • FIG. 1 is a diagram illustrating a configuration example of an information processing apparatus according to the present invention.
  • the user 100 operates a PC (personal computer) 120 to perform various data processing.
  • the PC 120 includes an application execution unit 121, a memory 122, and a communication unit 123.
  • the application execution unit 121 the application program selected by the user is executed.
  • the memory 122 includes a RAM, a ROM, etc., and is used as a storage area or work area for application programs. For example, it is also used as a storage area for non-display data and position information of non-display data that are no longer displayed on the display unit (display) of the PC by scroll processing described below.
  • the communication unit 123 performs communication processing with the mixed reality (MR: Mixed Reality) generation device 130.
  • MR Mixed Reality
  • User 100 is wearing glasses 141 having a display for displaying virtual objects.
  • the glasses 141 are provided with a camera 142 that captures the surrounding environment.
  • the glasses 141 and the camera 142 are connected to a mixed reality (MR) generator 130.
  • MR mixed reality
  • a real world image that is a captured image of the camera 142 is displayed, and a virtual object generated by the mixed reality (MR) generation device 130 is displayed together with the real world image.
  • MR mixed reality
  • the user 100 is operating a PC (personal computer) 120
  • the camera 142 is photographing the PC (personal computer) 120 operated by the user 100. Therefore, on the display of the glasses 141, for example, an image including a display of a PC (personal computer) 120 operated by the user 100 and various real objects around it is displayed as a real world image. Further, the virtual object generated by the mixed reality (MR) generation device 130 is displayed superimposed on the real world image.
  • the orientation of the camera 142 is also changed. For example, when the user looks at his / her hand, an image of the hand is displayed on the display of the glasses 141 as a real world image, and a virtual object is displayed on the real world image. It will also be displayed.
  • a display display image 200 as shown in FIG. 2 is displayed on the display of the glasses 141 worn by the user 100.
  • the display display image 150 shown in FIG. 2 is a composite image of a real object and a virtual object.
  • the mixed reality (MR) generation device 130 includes a three-dimensional information analysis unit 131, a virtual object management module 132, a memory 133, and a communication unit 134.
  • the three-dimensional information analysis unit 131 inputs a photographed image of the camera 142 worn by the user and performs a process of analyzing the three-dimensional position of the object included in the photographed image.
  • This three-dimensional position analysis process is performed as a process to which, for example, SLAM (simultaneous localization and mapping) is applied.
  • SLAM is a process of selecting a feature point from various real objects included in a captured image of a camera and detecting the position of the selected feature point and the position and orientation of the camera together.
  • Patent Document 1 Japanese Patent Laid-Open No. 2008-304268
  • Patent Document 2 Japanese Patent Laid-Open No. 2008-304269
  • the three-dimensional information analysis unit 131 calculates the three-dimensional position of the real object included in the photographed image of the camera 142 worn by the user by applying the above SLAM, for example.
  • the three-dimensional information analysis unit 131 is not limited to the above-described SLAM, and may be set to obtain the three-dimensional position of the object included in the camera captured image by other methods.
  • the virtual object management module 132 manages virtual objects displayed on the display of the glasses 141 worn by the user.
  • the virtual object is data stored in the memory 133.
  • the display display image 150 shown in FIG. 2 is displayed on the display of the glasses 141 worn by the user.
  • the PC image 151 included in the display display image 150 is a real image (real object) photographed by the camera 142.
  • a virtual object 161 shown in FIG. 2 is displayed together with this real image (real object).
  • the user 100 shown in FIG. 1 can observe the composite image of the real object and the virtual object shown in FIG. 2 on the display of the glasses 141, for example.
  • a PC image 151 shown in FIG. 2 is a real object photographed by the camera 142.
  • the PC display unit 152 in the PC image 151 is also a real image.
  • the PC display unit 152 displays a part of the document being created by the user.
  • the virtual object 161 included in the display image 150 shown in FIG. 2 is not a real-world object (real object).
  • a virtual object 161 shown in FIG. 2 is a part of paper that is processed by the user shown in the PC display unit 152 in the PC image 151.
  • a virtual object 221 shown in FIG. 2 is non-display data that protrudes from the display area of the PC 120.
  • the application execution unit 121 of the PC 120 stores the non-display data and its position information in the memory 122 within the PC 120.
  • the data stored in the memory 122 is transmitted to the mixed reality (MR) generation device 130 through communication between the communication unit 123 of the PC 120 and the communication unit 134 of the mixed reality (MR) generation device 130.
  • the mixed reality (MR) generation device 130 stores the received data from the PC 120 in the memory 133 in the mixed reality (MR) generation device 130.
  • the virtual object management module 132 of the mixed reality (MR) generation device 130 performs processing for displaying the data stored in the memory 133 as a virtual object on the display of the glasses 141 worn by the user. Specifically, for example, a display position of the virtual object is determined, and a process of displaying the virtual object at the determined display position is performed.
  • MR mixed reality
  • FIG. 2 shows an example in which the virtual object 161 is displayed on the upper part of the PC display unit 152 of the PC image 151 displayed as a real object image.
  • This display position is determined by the virtual object management module 132 by applying the position information stored in the memory 122 together with the non-display data by the application execution unit 121 of the PC 120.
  • This position information is also transmitted from the PC 120 to the mixed reality (MR) generator 130 by communication.
  • MR mixed reality
  • the virtual object 161 shown in FIG. 2 is non-display data that protrudes outside the area of the display unit (display) of the PC 120 when the user 100 operates the PC 120.
  • This non-display data is transmitted to the mixed reality (MR) generating device 130 together with the position information by communication, and stored in the memory 133 of the mixed reality (MR) generating device 130.
  • the virtual object management module 132 of the mixed reality (MR) generation device 130 performs processing for determining the display position of the virtual object using the data stored in the memory 133 as a virtual object, and displays it on the display of the glasses 141 worn by the user. indicate.
  • the PC 120 and the mixed reality (MR) generation apparatus 130 are used as separate apparatuses for data communication between the two apparatuses.
  • the PC 120 and the mixed reality ( The MR) generation device 130 can be configured as one device.
  • the communication unit of each device shown in FIG. 1 can be omitted.
  • the three-dimensional information analysis unit 131 and the virtual object management module 132 of the mixed reality (MR) generation device 130 may be set in the PC 120 to perform processing in one PC.
  • FIG. 1 shows two devices, a PC (personal computer) 120 and a mixed reality (MR) generation device 130, but the information processing device of the present invention is shown in FIG.
  • a mixed reality (MR) generating device 130 may be a single device, or a mixed reality (MR: Mixed Reality) generating device 130 and a PC 120 may be used. Or it can also be comprised by one apparatus which has the function of two apparatuses together.
  • the user 100 executes a document creation application in the application execution unit 121 of the PC 120, and creates the document by displaying the created document on the display unit 201 of the PC 120 as shown in FIG.
  • the display unit 120 of the PC 120 displays a paper 202a of a document to be created, and the user inputs characters or the like on the paper 202a.
  • On the display unit 201 about half of the sheet 202a is displayed and the rest is hidden.
  • the user moves (scrolls) the paper 202a upward, displays the lower half, and continues the input operation. That is, as shown in FIG. 3B, the lower side of the document sheet 202b to be created is displayed, and the user can input characters and the like on the document sheet 202b. However, in the state shown in FIG. 3B, only the lower half of the sheet 202b is displayed on the display unit 201, and the remaining upper area is outside the area of the display unit 201, and the user cannot confirm it.
  • the data that has gone out of the display unit 201 area is temporarily stored in the memory 122 of the PC 120 together with its position information. Thereafter, the non-display data is transmitted to the mixed reality (MR) generator 130 via the communication unit 123 together with the position information.
  • the mixed reality (MR) generation device 130 stores data received from the PC 120, that is, non-display data and position information, in the memory 133 in the mixed reality (MR) generation device 130.
  • the three-dimensional information analysis unit 131 of the mixed reality (MR) generation device 130 inputs a photographed image of the camera 142 attached to the user 100 and applies, for example, the above-described SLAM to the three-dimensional position of an object included in the photographed image. Is calculated.
  • the markers 321a to 321d set at the four corners of the PC display shown in FIG. 3 are selected as feature points, and the three-dimensional positions of these feature points are calculated.
  • FIG. 3 shows an example in which the markers 321a to 321d are set for identifying the feature points.
  • setting such markers is not essential, and the shape of the real object, for example, the image
  • the corner detection process can be performed by a feature point extraction process using an existing Harris corner detector (Harris Corner Detector).
  • the three-dimensional information analysis unit 131 may have a function of detecting a specific object from a captured image. Specifically, for example, if the PC shape and feature information are registered in advance and the PC screen area is determined by applying this registration information, the PC screen area can be accurately and quickly determined from the captured image. Can be determined.
  • the virtual object management module 132 acquires the three-dimensional position information of the real object included in the camera captured image from the three-dimensional information analysis unit 131. For example, position information on four points around the display unit of the PC is acquired. Further, the virtual object management module 132 acquires the non-display data stored in the memory 133, that is, the non-display data that protrudes from the PC screen in the operation of the PC 120, and uses the acquired data as a virtual object to the glasses 141 of the user 100. On the display.
  • the virtual object management module 132 determines the display position of the virtual object.
  • the position information of the non-display data received from the PC 120 and the three-dimensional position information of the real object in the camera photographed image acquired from the three-dimensional information analysis unit 131 are applied and determined. In this example, it is set around the PC display unit.
  • the virtual object management module 132 sets the display position of the virtual object on the display of the glasses 141 of the user 100 in a direction extending from the boundary of the display data of the display unit of the PC displayed on the display of the glasses 141 to the outside of the display unit of the PC. To do. That is, a composite image in which the virtual object 161 is set at a position such as the display data 150 in FIG. 2 is generated and displayed. By such display processing, the user can observe the entire sheet to be processed without feeling uncomfortable.
  • the application execution unit 121 of the PC 120 stores the non-display data in the memory 122 when non-display data that is no longer displayed on the screen due to, for example, a scroll operation occurs.
  • the data content of the non-display data 330 indicated by the dotted frame is stored in the memory 122 of the PC 120.
  • the application execution unit 121 of the PC 120 sets a specific position as the origin with the plane forming the display unit 201 of the PC as the xy plane.
  • the upper left point of the display unit 201 is the origin 350.
  • a plane parallel to the display unit 201 with the horizontal direction as the x-axis and the vertical direction as the y-axis is set.
  • This coordinate system is assumed to be a PC display unit corresponding coordinate system.
  • the application execution unit 121 obtains the position of the non-display data 330 in the PC display unit corresponding coordinate system.
  • the coordinates of the four corners of the non-display data 330 shown in FIG. (X10, y10) (X11, y11) (X12, y12) (X13, y13) These are the four coordinates.
  • the position information of the non-display data is the coordinates of the four corners of the non-display data, but the required position information differs depending on the shape of the non-display data.
  • the application execution unit 121 executes a process of acquiring position information corresponding to the shape of the non-display data necessary for displaying the non-display data as virtual data and storing it in the memory 122.
  • the application execution unit 121 stores the four coordinate data in the memory 122 as the non-display data position information together with the non-display data entity data.
  • the non-display data and the position information stored in the memory 122 on the PC 120 side are transmitted to the mixed reality (MR) generation device 130 via the communication unit, and stored in the memory 133 of the mixed reality (MR) generation device 130. Is done.
  • the virtual object management module 132 of the mixed reality (MR) generation device 130 thus stores the positional information of the non-display data received from the PC 120 and the real object in the camera captured image acquired from the three-dimensional information analysis unit 131.
  • the display position of the virtual object (non-display data) is determined by applying the three-dimensional position information. With this process, the display data 150 described above with reference to FIG. 2 is generated and displayed on the display set in the glasses 141 of the user 100.
  • a processing sequence of the information processing apparatus of the present invention will be described with reference to the flowchart shown in FIG.
  • the processing of steps S101 to S103 in the flowchart shown in FIG. 6 is the processing of the PC 120 shown in FIG.
  • the processing in steps S104 to S107 is the processing of the mixed reality (MR) generation device 130 shown in FIG.
  • MR mixed reality
  • step S101 the application execution unit 121 of the PC 120 detects occurrence of non-display data that protrudes outside the area of the display unit of the PC.
  • step S102 the application execution unit 121 displays the entity data of the non-display data and its position information. Stored in the memory 122.
  • the position information of the non-display data is, for example, coordinate data of the four corners of the non-display data on the PC display unit plane.
  • step S103 the non-display data and the position information stored in the memory are transferred to the mixed reality (MR) generation device 130 via the communication unit.
  • MR mixed reality
  • Step S104 and subsequent steps are performed as a process of the mixed reality (MR) generation device 130.
  • the mixed reality (MR) generation device 130 stores the non-display data transferred from the PC 120 and its position information in the memory 133 on the mixed reality (MR) generation device 130 side.
  • step S105 the virtual object management module 132 of the mixed reality (MR) generation device 130 acquires data stored in the memory 133, that is, non-display data and its position information.
  • MR mixed reality
  • step S106 the virtual object management module 132 performs processing for converting the position information of the non-display data acquired from the memory 133 into a camera coordinate system corresponding to the camera captured image acquired from the three-dimensional information analysis unit 131.
  • the three-dimensional information analysis unit 131 acquires the three-dimensional position information of the markers 321a to 321d at the four corners of the display unit of the PC 120 included in the camera photographed image.
  • Marker 321a (Xa, Ya, Za)
  • Marker 321b (Xb, Yb, Zb)
  • Marker 321c (Xc, Yc, Zc)
  • Marker 321d (Xd, Yd, Zd)
  • the virtual object management display module 132 calculates the plane of the display unit of the PC that is a real object in the camera coordinate system, and the non-display data 330 acquired from the PC 120 on the calculated plane. Perform coordinate transformation to set.
  • the camera-captured image includes the paper position in the PC display unit, and coordinate conversion is performed so as to set the non-display data 330 acquired from the PC 120 in accordance with the paper position in the PC display unit acquired from the camera. If the camera coordinate system is set as shown in FIG. 7 with the PC display unit plane in the camera image taken as the XY plane and the vertical direction of the PC display unit as the Z axis, the Z coordinates of the four markers are all 0. Therefore, the Z coordinate can be set not to be used.
  • Coordinate conversion may be executed so that the coordinates of the four corners of the non-display data previously received from the PC 120 are set on the XY plane formed by the display unit plane of the PC shown in FIG. As shown in FIG. 7, the position coordinates of the four corners of the non-display data 330 in the PC display unit corresponding coordinate system (x, y) are converted as follows in the camera coordinate system (X, Y). (X10, y10) ⁇ (X10, Y10) (X11, y11) ⁇ (X11, Y11) (X12, y12) ⁇ (X12, Y12) (X13, y13) ⁇ (X13, Y13)
  • the virtual object management module 132 sets this coordinate as the display position of the virtual object. In this way, the virtual object management module 132 uses the camera corresponding to the camera-captured image acquired from the three-dimensional information analysis unit 131 for the position information of the non-display data acquired from the memory 133 in step S106 of the flowchart shown in FIG. Performs conversion to the coordinate system.
  • step S107 the virtual object management module 132 executes a process of displaying the non-display data acquired from the memory 133 as a virtual object at the display position of the virtual object calculated in step S106.
  • the display data 400 shown in FIG. 8 is displayed on the display of the glasses 141 worn by the user 100.
  • the display data 400 illustrated in FIG. 8 is a composite image in which the PC 401 as a real object and the virtual object 402 are displayed together.
  • the virtual object management module 132 sets the display position of the virtual object in the extending direction from the boundary of the display data of the PC display unit to the outside of the PC display unit, as shown in FIG. By such display processing, the user can observe the entire sheet to be processed without feeling uncomfortable.
  • the user 100 can always check the non-display data protruding outside the PC display section as a virtual object as well as the data displayed on the PC display section.
  • the application execution unit 121 updates the data stored in the memory 122 each time the area or content of the non-display data is changed, and the update data is transmitted to the mixed reality (MR) generation device 130, and the mixed reality (MR)
  • the MR) generation apparatus 130 executes a process for changing the display mode of the virtual object based on the updated data as a real-time update process.
  • the virtual object is displayed by enlarging the plane corresponding to the PC screen.
  • the plane of the display unit of the PC may be blocked by a wall 521.
  • the virtual object is displayed through the wall, and the user observes data with a sense of incongruity.
  • display data 500 as shown in FIG. 9 is generated and presented to the user. That is, the virtual object 512 is displayed together with the shape of the real object in the real world (for example, the walls 521a and 521b shown in FIG. 9).
  • the present embodiment is an embodiment in which the virtual object 512 can be displayed along a real world object.
  • the virtual object 512 can be displayed along the surface of the wall 521b which is a real object.
  • the configuration described with reference to FIG. 1 is applied as the device configuration.
  • the application execution unit 121 of the PC 120 stores the non-display data in the memory 122 when non-display data that is no longer displayed on the screen is generated due to, for example, a scroll operation.
  • the data content of the non-display data 530 indicated by the dotted frame is stored in the memory 122 of the PC 120.
  • the application execution unit 121 of the PC 120 is parallel to the display unit 201 with the upper left point of the display unit 201 as the origin, the horizontal direction as the x axis, and the vertical direction as the y axis, as in the embodiment described above. Set the plane.
  • This coordinate system is assumed to be a PC display unit corresponding coordinate system.
  • the application execution unit 121 obtains the position of the non-display data 530 in the PC display unit corresponding coordinate system.
  • the non-display data and the position information stored in the memory 122 on the PC 120 side are transmitted to the mixed reality (MR) generation device 130 via the communication unit, and stored in the memory 133 of the mixed reality (MR) generation device 130. Is done.
  • the virtual object management module 132 of the mixed reality (MR) generation device 130 thus stores the positional information of the non-display data received from the PC 120 and the real object in the camera captured image acquired from the three-dimensional information analysis unit 131.
  • the display position of the virtual object (non-display data) is determined by applying the three-dimensional position information.
  • the display data 500 described with reference to FIG. 9 is generated. That is, the display position of the virtual object is determined so that the virtual object is displayed along the surface of the real object.
  • a processing sequence of the information processing apparatus of the present invention will be described with reference to the flowchart shown in FIG.
  • the processing in steps S201 to S203 in the flowchart shown in FIG. 11 is the processing of the PC 120 shown in FIG.
  • the processing in steps S204 to S209 is the processing of the mixed reality (MR) generation device 130 shown in FIG.
  • MR mixed reality
  • step S201 the application execution unit 121 of the PC 120 detects the occurrence of non-display data that protrudes outside the area of the display unit of the PC.
  • step S202 the application execution unit 121 displays the entity data of the non-display data and its position information. Stored in the memory 122. This process is the process described with reference to FIG.
  • the position information of the non-display data is, for example, coordinate data of the four corners of the non-display data on the PC display unit plane.
  • step S203 the non-display data and the position information stored in the memory are transferred to the mixed reality (MR) generation device 130 via the communication unit.
  • MR mixed reality
  • Step S204 and subsequent steps are performed as a process of the mixed reality (MR) generation device 130.
  • the mixed reality (MR) generation device 130 stores the non-display data transferred from the PC 120 and its position information in the memory 133 on the mixed reality (MR) generation device 130 side.
  • step S205 the virtual object management module 132 of the mixed reality (MR) generation device 130 acquires data stored in the memory 133, that is, non-display data and its position information.
  • MR mixed reality
  • step S206 the virtual object management module 132 performs processing for converting the position information of the non-display data acquired from the memory 133 into a camera coordinate system corresponding to the camera captured image acquired from the three-dimensional information analysis unit 131.
  • the three-dimensional information analysis unit 131 acquires the three-dimensional position information of the markers 321a to 321d at the four corners of the display unit of the PC 120 included in the camera photographed image.
  • Marker 321a (Xa, Ya, Za)
  • Marker 321b (Xb, Yb, Zb)
  • Marker 321c (Xc, Yc, Zc)
  • Marker 321d (Xd, Yd, Zd)
  • the virtual object management display module 132 calculates the plane of the display unit of the PC that is a real object in the camera coordinate system, and the non-display data 530 acquired from the PC 120 on the calculated plane. Perform coordinate transformation to set.
  • the camera-captured image includes the paper position in the PC display unit, and coordinate conversion is performed so as to set the non-display data 330 acquired from the PC 120 in accordance with the paper position in the PC display unit acquired from the camera.
  • the coordinate conversion is performed so that the coordinates of the four corners of the non-display data previously received from the PC 120 are set on the XY plane formed by the display unit plane of the PC.
  • the position coordinates of the four corners of the non-display data 330 in the PC display unit corresponding coordinate system (x, y, z) are converted as follows in the camera coordinate system (X, Y, Z).
  • step S207 the virtual object management display module 132 determines whether the plane obtained by the four coordinates of the camera coordinate system indicating the display position of the virtual object obtained by the conversion process in step S206 intersects the plane of the real object. Determine.
  • the real object plane is acquired from the three-dimensional position information of the real object acquired by the three-dimensional information analysis unit 131.
  • step S207 determines whether the display surface of the virtual object does not intersect the surface of the real object. If the display surface of the virtual object does not intersect the surface of the real object, the determination in step S207 is No. In this case, the process proceeds to step S209, and the virtual object is displayed by applying the converted coordinates calculated in step S206. This process is the same as that of the first embodiment described above, and displays a virtual object on a plane obtained by enlarging the plane of the PC display unit.
  • step S207 if it is determined in step S207 that the surface obtained by the four coordinates of the camera coordinate system indicating the display position of the virtual object obtained by the conversion processing in step S206 intersects the surface of the real object, step Proceed to S208.
  • step S208 a process of reconverting the coordinates indicating the display position of the virtual object is performed. That is, the process of converting again the four coordinates indicating the display position of the virtual object calculated in step S206 is performed.
  • This conversion process is performed as a process of converting the four coordinates indicating the display position of the virtual object so as to be set on the surface forming the real object. This process will be described with reference to FIG.
  • step S206 the coordinates of the four corners, which are the calculated display positions of the virtual object, are points 541 to 544 shown in FIG. These coordinates are as follows, as shown in the figure.
  • Point 541 (X10, Y10, Z10)
  • Point 542 (X11, Y11, Z11)
  • Point 543 (X13, Y13, Z13)
  • Point 544 (X12, Y12, Z12)
  • the surface posted by these four points intersects the surface of the wall 521 which is a real object.
  • the formation surface of the wall 521 that is a real object is obtained by analysis of the three-dimensional information analysis unit 131. For example, four corner points of the wall shown in FIG. 12 are detected as feature points, and a surface formed by these four feature points is determined as a formation surface of the wall 521 that is a real object.
  • the plane of the wall 521b is defined by the following four coordinates which are the coordinates of the four corners.
  • (X30, Y30, Z30) (X31, Y31, Z31)
  • (X32, Y32, Z32) (X33, Y33, Z33)
  • the virtual object management module 132 converts the coordinates of the four points 541 to 544 of the virtual object so that the four points 541 to 544 of the virtual object shown in FIG. 12 are developed on the formation surface of the wall 521b. As a result, conversion coordinates as shown in the figure are obtained.
  • the coordinate positions of the point 541 and the point 542 are not changed before and after the conversion.
  • a process of converting the points 542 and 543 at the positions penetrating the wall 521b into positions on the plane of the wall 521b is performed.
  • step S208 after such coordinate conversion processing, the process proceeds to step S209.
  • step S209 the virtual object management module 132 executes a process of displaying the non-display data acquired from the memory 133 as a virtual object at the display position of the virtual object calculated in step S208.
  • Display data 500 shown in FIG. 13 is displayed on the display of the glasses 141 worn by the user 100.
  • Display data 500 shown in FIG. 13 is a composite image in which a PC 511 as a real object and a virtual object 512 are displayed together.
  • the user 100 can always check the data displayed on the display unit of the PC as well as the non-display data protruding outside the display unit of the PC as a virtual object.
  • the application execution unit 121 updates the data stored in the memory 122 each time the area or content of the non-display data is changed, and the update data is transmitted to the mixed reality (MR) generation device 130, and the mixed reality (MR)
  • the MR) generation apparatus 130 executes a process for changing the display mode of the virtual object based on the updated data as a real-time update process.
  • the process to which the present invention is applied can be used not only in the processing data in the PC but also in an apparatus having various display units.
  • the display data as shown in FIG. 14 can be obtained by performing the virtual object display processing described above even when the data displayed on the display unit of the mobile phone 600 is observed outside the display area. 700 can be displayed on the display of the glasses 141 worn by the user 100.
  • a mobile phone image 701 as a real object owned by the user and a virtual object 702 as map data are displayed, and the user checks wide map information outside the display portion of the mobile phone. Is possible.
  • information scrolled outside the screen of a display unit such as a PC is displayed as it is in the real world. It is possible to always check the data. Further, since the virtual object is displayed outside the screen continuously on the screen on which the user operation is performed, it is possible to always check information on a wide area without causing visual discomfort. .
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • non-display data protruding outside the display unit is displayed on the display unit.
  • a configuration is realized in which a virtual object is displayed at a position continuous with display data. With this configuration, the user can always observe and confirm not only display data in a limited display area such as a PC, but also data that has left the display unit, thereby improving data processing efficiency. Can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

表示部に表示されないデータを仮想オブジェクトとして常に観察可能な構成を実現する。表示部を持つPCや携帯電話などの様々な表示装置において、表示部外の領域にはみ出した非表示データを表示部の表示データに連続する位置に仮想オブジェクトとして表示する構成を実現する。この構成により、ユーザはPCなとの限定された表示領域の表示データのみならず、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本発明は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、実世界の実物体と電子的な表示を融合させた複合現実感(MR:Mixed Reality)を利用したデータ処理を行う情報処理装置、および情報処理方法、並びにプログラムに関する。
 例えばユーザがPC(パーソナルコンピュータ)を利用したデータ処理を行う場合、ユーザは、PCの表示部(ディスプレイ)の表示データに対する処理を行う。しかし、例えば文書作成を行う場合、その文書作成に適用している用紙の表示サイズが、PCの表示部のサイズ(例えばウィンドウサイズ)よりも大きくなった場合、用紙全体をPC画面内に表示することかできず、用紙の一部のみを画面に表示して作業を行うことが必要となる。
 すなわち、画面からはみ出した情報はPCの画面内では表示されなくなってしまう。PC画面からはみ出した領域を表示する場合には、スクロール処理を行って表示することは可能であるが、スクロールの結果として今まで表示されていた領域が隠れてしまうという問題が発生する。全体を表示するためには例えば全体を縮小して表示する処理や、画面を2分割して表示するとっいった処理も可能ではあるが、このような処理を行うと、例えば文字サイズが小さくなり作業が行いにくくなるという問題が発生する。
 本発明は、このような問題を、例えば複合現実感(MR:Mixed Reality)を利用したデータ処理を利用して解決するものである。なお、複合現実感について説明した従来技術としては、例えば特許文献1(特開2008-304268号公報)や、特許文献2(特開2008-304269号公報)がある。これらの文献には、カメラによって撮影された画像を利用して実世界の三次元マップを作成する処理について記載している。
特開2008-304268号公報 特開2008-304269号公報
 本発明は、複合現実感(MR:Mixed Reality)を利用したデータ処理により、例えばPCなどの表示部(ディスプレイ)以外の領域に、様々なデータを電子的に貼り付けた合成画像を生成して、この合成画像を観察可能とすることで、主要ワーク領域として利用する表示部以外の空間領域を有効に利用可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
 本発明の第1の側面は、
 第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行部と、
 カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析部と、
 前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理部を有し、
 前記仮想オブジェクト管理部は、
 前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する情報処理装置にある。
 さらに、本発明の情報処理装置の一実施態様において、前記仮想オブジェクト管理部は、前記メモリに格納された非表示データの位置情報である座標データを、前記第2表示部の表示画像における表示位置の指標となるカメラ座標系に変換し、該変換後の座標データを適用して前記仮想オブジェクトの表示位置を決定する。
 さらに、本発明の情報処理装置の一実施態様において、前記オブジェクト管理部は、カメラ座標系に変換した前記仮想オブジェクトの表示位置と、カメラ撮影画像に含まれる実オブジェクトの形成面とが交差するか否かを判定し、交差する場合には、前記変換後の座標データを、前記実オブジェクトの形成面上に位置するように座標再変換処理を実行し、再変換処理後の座標データを適用して前記仮想オブジェクトの表示位置を決定する。
 さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記アプリケーション実行部を有する第1の装置と、前記三次元情報解析部と、前記仮想オブジェクト管理部とを有する第2の装置によって構成され、前記アプリケーション実行部が第1の装置内の第1メモリに格納したデータを通信部を介して前記第2の装置に転送し、前記第2装置において、前記三次元情報解析部と、前記仮想オブジェクト管理部とが受信データを利用した処理を行う。
 さらに、本発明の第2の側面は、
 情報処理装置において実行する情報処理方法であり、
 アプリケーション実行部が、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行ステップと、
 三次元情報解析部が、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
 仮想オブジェクト管理部が、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理ステップを有し、
 前記仮想オブジェクト管理ステップは、
 前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なうステップを有する情報処理方法にある。
 さらに、本発明の第3の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 アプリケーション実行部に、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納させるアプリケーション実行ステップと、
 三次元情報解析部に、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
 仮想オブジェクト管理部に、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力させ、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示させる仮想オブジェクト管理ステップを有し、
 前記仮想オブジェクト管理ステップは、
 前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なわせるステップを有するプログラムにある。
 なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本発明の一実施例の構成によれば、表示部を持つPCや携帯電話などの様々な表示装置において、表示部外の領域にはみ出した非表示データを表示部の表示データに連続する位置に仮想オブジェクトとして表示する構成を実現する。この構成により、ユーザはPCなとの限定された表示領域の表示データのみならず、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
本発明の情報処理装置の一実施例構成について説明する図である。 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。 本発明の情報処理装置の実行する一処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。 本発明の情報処理装置の実行する処理の一例を示す具体的な処理例について説明する図である。
 以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。
 本発明について以下の項目に従って順次説明する。
 1.本発明の情報処理装置の構成例と処理例について(実施例1)
 2.実世界のオブジェクト形状に適合させた仮想オブジェクトの表示処理(実施例2)
 3.その他の表示装置を利用した処理例
  [1.本発明の情報処理装置の構成例と処理例について]
 本発明の情報処理装置の構成例と処理例について図1以下を参照して説明する。図1は、本発明の情報処理装置の一構成例を示す図である。
 ユーザ100は、PC(パーソナルコンピュータ)120を操作して各種のデータ処理を行う。PC120は、図に示すように、アプリケーション実行部121、メモリ122、通信部123を有する。アプリケーション実行部121では、ユーザの選択したアプリケーションプログラムが実行される。例えば文書作成アプリケーションや描画アプリケーションなどである。メモリ122は、RAM,ROM等によって構成され、アプリケーションプログラムの格納領域やワークエリアとして利用される。例えば、以下において説明するスクロール処理などによってPCの表示部(ディスプレイ)に表示されなくなった非表示データおよび非表示データの位置情報などの格納領域としても利用される。通信部123は、複合現実間(MR:Mixed Reality)生成装置130との通信処理を行う。
 ユーザ100は、仮想オブジェクトを表示するディスプレイを有するメガネ141を装着している。メガネ141には周囲の環境を撮影するカメラ142が備えられている。メガネ141とカメラ142は、複合現実間(MR:Mixed Reality)生成装置130に接続されている。ユーザ100はメガネ141に設けられたディスプレイの表示画像を観察しながら作業を行う。
 メガネ141のディスプレイには、カメラ142の撮影画像である実世界画像を表示し、さらに複合現実感(MR)生成装置130の生成した仮想オブジェクトを実世界画像に併せて表示する。
 図1の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、メガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイとその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更され、例えばユーザが自分の手を見た場合、手の画像が実世界画像としてメガネ141のディスプレイに表示され、その実世界画像に仮想オブジェクトが併せて表示されることになる。
 ユーザ100が、PC120の画面に向かって処理を行っている場合、カメラ142はPC120の画面の画像を中心とした画像を撮影する。この結果、例えば図2に示すようなディスプレイ表示画像200が、ユーザ100の装着したメガネ141のディスプレイに表示される。この図2に示すディスプレイ表示画像150は、実オブジェクトと仮想オブジェクトの合成画像である。
 図2についての説明の前に、図1に示す複合現実感(MR)生成装置130の構成について説明する。複合現実感(MR)生成装置130は、図1に示すように、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134を有する。
 三次元情報解析部131は、ユーザの装着したカメラ142の撮影画像を入力し、撮影画像に含まれるオブジェクトの三次元位置を解析する処理を行う。この三次元位置解析処理は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、前述の特許文献1(特開2008-304268号公報)や、特許文献2(特開2008-304269号公報)に記載されている。なお、SLAMの基本的な処理については、論文[Andrew J.Davison,"Real-time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載がある。
 三次元情報解析部131は、例えば上記のSLAMを適用してユーザの装着したカメラ142の撮影画像に含まれる実オブジェクトの三次元位置を算出する。ただし三次元情報解析部131は、上記のSLAMに限らず、その他の方法でカメラ撮影画像に含まれるオブジェクトの三次元位置を求める設定であってもよい。
 仮想オブジェクト管理モジュール132は、ユーザの装着したメガネ141のディスプレイに表示する仮想オブジェクトの管理を行う。仮想オブジェクトは、メモリ133に格納されたデータである。具体的には、例えば、ユーザの装着したメガネ141のディスプレイには、図2に示すディスプレイ表示画像150が表示される。ディスプレイ表示画像150に含まれるPC画像151は、カメラ142によって撮影された実画像(実オブジェクト)である。この実画像(実オブジェクト)に対して図2に示す仮想オブジェクト161が併せて表示される。
 図1に示すユーザ100は、例えば図2に示す実オブジェクトと仮想オブジェクトとの合成画像をメガネ141のディスプレイにおいて観察することができる。図2に示すPC画像151はカメラ142によって撮影された実オブジェクトである。PC画像151内のPC表示部152も実画像である。このPC表示部152には、ユーザが作成中の文書の一部が表示されている。
 一方、図2に示す表示画像150に含まれる仮想オブジェクト161は、現実世界のオブジェクト(実オブジェクト)ではない。図2に示す仮想オブジェクト161は、PC画像151内のPC表示部152内に示されるユーザが処理対象としている用紙の一部である。
 ユーザは、図1に示すPC120の操作を行い、用紙のサイズを設定し、設定したサイズの用紙に対して文字などを入力しているが、用紙サイズが大きくてPC120の表示領域からはみ出してしまい、用紙全体がPCのディスプレイには表示されない。図2に示す仮想オブジェクト221は、PC120の表示領域からはみ出した非表示データである。PC120のアプリケーション実行部121は、非表示データの発生を検出すると、非表示データと、その位置情報をPC120内のメモリ122に格納する。
 メモリ122に格納されたデータは、PC120の通信部123と、複合現実感(MR)生成装置130の通信部134との通信によって、複合現実感(MR)生成装置130に送信される。複合現実感(MR)生成装置130は、PC120からの受信データを複合現実感(MR)生成装置130内のメモリ133に格納する。
 複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとしてユーザの装着したメガネ141のディスプレイに表示する処理を行う。具体的には、例えば仮想オブジェクトの表示位置を決定して、決定した表示位置に仮想オブジェクトを表示する処理を行う。
 図2に示す例では、仮想オブジェクト161を、実オブジェクト画像として表示されるPC画像151のPC表示部152の上部に表示した例を示している。この表示位置は、PC120のアプリケーション実行部121が非表示データとともにメモリ122に格納した位置情報を適用して、仮想オブジェクト管理モジュール132が決定する。この位置情報も通信によってPC120から複合現実間(MR)生成装置130に送信される。
 図2に示す仮想オブジェクト161は、ユーザ100によるPC120の操作によって、PC120の表示部(ディスプレイ)の領域外にはみ出した非表示データである。この非表示データがその位置情報とともに通信によって複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとして、仮想オブジェクトの表示位置を決定する処理を行ない、ユーザの装着したメガネ141のディスプレイに表示する。
 なお、図1に示す装置では、PC120と、複合現実感(MR)生成装置130の2つの装置を別の装置として両装置間のデータ通信を行う構成としているが、PC120と、複合現実感(MR)生成装置130を1つの装置として構成することも可能であり、この場合、図1に示す各装置の通信部は省略できる。例えばPC120に複合現実感(MR)生成装置130の三次元情報解析部131、仮想オブジェクト管理モジュール132を設定して、1つのPC内で処理を行なう構成とすることも可能である。
 すなわち、図1には、PC(パーソナルコンピュータ)120と複合現実間(MR:Mixed Reality)生成装置130の2つの装置を個別に示しているが、本発明の情報処理装置は、図1に示す複合現実間(MR:Mixed Reality)生成装置130単独の装置としてもよいし、複合現実間(MR:Mixed Reality)生成装置130とPC120の2つの装置から構成される装置であってもよい。あるいは2つの装置の機能を合わせ持つ1つの装置によって構成することもできる。
 図1の構成を適用した具体的な処理例について図3以下を参照して説明する。ユーザ100は、PC120のアプリケーション実行部121において文書作成アプリケーションを実行しており、図3(a)に示すようにPC120の表示部201に作成文書を表示して文書を作成している。PC120の表示部120には、作成対象の文書の用紙202aが表示され、ユーザは、この用紙202aに文字などを入力している。表示部201には、用紙202aの半分程度が表示され残りは隠れている。
 文書作成が進むと、ユーザは用紙202aを上方向に移動(スクロール)させ、下半分を表示せて入力作業を継続する。すなわち、図3(b)に示すように、作成対象の文書用紙202bの下側を表示し、ユーザは、この文書用紙202bに文字などを入力することができる。しかし、この図3(b)に示す状態では、表示部201には、用紙202bの下半分のみが表示され残りの上側の領域は表示部201の領域外となり、ユーザは確認することができない。
 本発明の装置では、表示部201領域外に出たデータ、すなわち、非表示データをその位置情報とともに、一旦、PC120のメモリ122に格納する。その後、この非表示データを位置情報とともに通信部123を介して複合現実感(MR)生成装置130に送信する。複合現実感(MR)生成装置130は、PC120からの受信データ、すなわち非表示データと位置情報を複合現実感(MR)生成装置130内のメモリ133に格納する。
 複合現実感(MR)生成装置130の三次元情報解析部131は、ユーザ100に装着したカメラ142の撮影画像を入力し、例えば前述のSLAMを適用して撮影画像に含まれるオブジェクトの三次元位置を算出する。例えば図3に示すPCのディスプレイの4隅に設定されたマーカー321a~dを特徴点として選択し、これらの特徴点の三次元位置を算出する。
 なお、図3に示す例は、特徴点の識別のためにマーカー321a~dを設定した例を示しているが、このようなマーカーを設定することは必須ではなく、実オブジェクトの形状、例えば画像に含まれる実オブジェクトの角部(コーナー)を検出し、検出した角部(コーナー)を特徴点として選択して、その特徴点の三次元位置を判定することも可能である。なお、角部(コーナー)の検出処理は、既存のハリスコーナーディテクター(Harris Corner Detector)を用いた特徴点抽出処理によって実行可能である。
 なお、三次元情報解析部131は、撮影画像から特定のオブジェクトを検出する機能を持つ構成としてもよい。具体的には、例えばPCの形状や特徴情報を予め登録し、この登録情報を適用してPCの画面領域を判別する構成とすれば、撮影画像から、正確にかつ迅速にPCの画面領域を判別することができる。
 仮想オブジェクト管理モジュール132は、三次元情報解析部131からカメラ撮影画像に含まれる実オブジェクトの三次元位置情報を取得する。例えばPCの表示部の周囲の4点の位置情報を取得する。さらに、仮想オブジェクト管理モジュール132は、メモリ133に格納された非表示データ、すなわちPC120の操作においてPC画面からはみ出てしまった非表示データを取得し、取得したデータを仮想オブジェクトとしてユーザ100のメガネ141のディスプレイに表示する。
 仮想オブジェクトの表示位置は、仮想オブジェクト管理モジュール132が決定する。PC120から受信した非表示データの位置情報と、三次元情報解析部131から取得したカメラ撮影画像中の実オブジェクトの三次元位置情報を適用して決定する。本例では、PC表示部の周囲に設定されることになる。
 仮想オブジェクト管理モジュール132は、ユーザ100のメガネ141のディスプレイに対する仮想オブジェクトの表示位置を、メガネ141のディスプレイに表示するPCの表示部の表示データの境界からPCの表示部外に延長した方向に設定する。すなわち、図2の表示データ150のような位置に仮想オブジェクト161を設定した合成画像を生成して表示する。このような表示処理によって、ユーザは、違和感を感ずることなく処理対象としている用紙全体を観察することができる。
 図4を参照して、PC120のアプリケーション実行部121が、メモリ122に格納する非表示データの位置情報について説明する。
 PC120のアプリケーション実行部121は、例えばスクロール操作によって画面に表示されなくなった非表示データが生じた場合、その非表示データをメモリ122に格納する。図4の例では、点線枠で示す非表示データ330のデータ内容がPC120のメモリ122に格納される。
 さらに、PC120のアプリケーション実行部121は、PCの表示部201を形成する平面をxy平面として、特定の位置を原点に設定する。図に示す例では、表示部201の左上部の点を原点350としている。
 水平方向をx軸、縦方向をy軸とした表示部201に平行な平面を設定する。この座標系をPC表示部対応座標系とする。アプリケーション実行部121は、このPC表示部対応座標系における非表示データ330の位置を求める。
 図4に示す非表示データ330の4隅の座標は、図に示すように、
 (x10,y10)
 (x11,y11)
 (x12,y12)
 (x13,y13)
 この4点の座標となる。なお、図4に示す例では、非表示データの位置情報を、非表示データの4隅の座標としているが、非表示データの形状に応じて、必要とする位置情報は異なる。アプリケーション実行部121は、非表示データを仮想データとして表示する場合に必要となる非表示データの形状に応じた位置情報を取得してメモリ122に格納する処理を実行する。
 図4に示すような矩形形の非表示データ330の場合は、その4隅の座標データを非表示データの位置情報として取得する。その後の処理について図5を参照して説明する。図5に示すように、アプリケーション実行部121は、この4つの座標データを非表示データの位置情報として、非表示データの実体データとともに、メモリ122に格納する。
 PC120側のメモリ122に格納された非表示データとその位置情報は、通信部を介して複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。
 複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、このようにしてPC120から受信した非表示データの位置情報と、三次元情報解析部131から取得したカメラ撮影画像中の実オブジェクトの三次元位置情報を適用して、仮想オブジェクト(非表示データ)の表示位置を決定する。この処理によって、先に図2を参照して説明した表示データ150が生成され、ユーザ100のメガネ141に設定されたディスプレイに表示されることになる。
 図6に示すフローチャートを参照して、本発明の情報処理装置の処理シーケンスについて説明する。
 図6に示すフローチャートのステップS101~S103の処理は、図1に示すPC120の処理である。
 ステップS104~S107の処理は、図1に示す複合現実感(MR)生成装置130の処理である。
 まず、PC120のアプリケーション実行部121は、ステップS101において、PCの表示部の領域外にはみ出した非表示データの発生を検出すると、ステップS102において、非表示データの実体データと、その位置情報をPC120のメモリ122に格納する。この処理は、図4、図5を参照して説明した処理である。非表示データの位置情報は、例えば、PC表示部平面における非表示データの4隅の座標データである。
 次に、ステップS103において、メモリに格納された非表示データと位置情報が、通信部を介して複合現実感(MR)生成装置130に転送される。
 ステップS104以降は、複合現実感(MR)生成装置130の処理として行われる。
 まず、ステップS104において、複合現実感(MR)生成装置130はPC120から転送された非表示データとその位置情報を複合現実感(MR)生成装置130側のメモリ133に格納する。
 次に、ステップS105において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データとその位置情報を取得する。
 ステップS106において、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
 この処理について、図7を参照して説明する。三次元情報解析部131はカメラ撮影画像に含まれるPC120の表示部の4隅のマーカー321a~321dの三次元位置情報を取得している。図7に示すように、
 マーカー321a=(Xa,Ya,Za)
 マーカー321b=(Xb,Yb,Zb)
 マーカー321c=(Xc,Yc,Zc)
 マーカー321d=(Xd,Yd,Zd)
 これらの位置情報が取得されている。
 仮想オブジェクト管理表示モジュール132は、この三次元位置情報に基づいて、カメラ座標系における実オブジェクトであるPCの表示部の平面を算出し、その算出した平面上に、PC120から取得した非表示データ330を設定するように、座標変換を実行する。カメラ撮影画像にはPC表示部内の用紙位置も含まれ、カメラから取得されたPC表示部内の用紙位置に併せてPC120から取得した非表示データ330を設定するように座標変換を実行する。なお、カメラ座標系を、図7に示すように、カメラ撮影画像におけるPC表示部平面をXY平面としてPC表示部の垂直方向をZ軸として設定すれば、4つのマーカーのZ座標は全て0となるので、Z座標は使用しない設定とすることができる。
 図7に示すPCの表示部平面によって形成さるXY平面上に、先にPC120から受信した非表示データの4隅の座標が設定されるように座標変換を実行すればよい。図7に示すように、PC表示部対応座標系(x,y)における非表示データ330の4隅の位置座標は、カメラ座標系(X,Y)の座標として以下のように変換される。
 (x10,y10)→(X10,Y10)
 (x11,y11)→(X11,Y11)
 (x12,y12)→(X12,Y12)
 (x13,y13)→(X13,Y13)
 仮想オブジェクト管理モジュール132は、この座標を仮想オブジェクトの表示位置として設定する。このようにして、仮想オブジェクト管理モジュール132は、図6に示すフローチャートのステップS106において、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
 ステップS107では、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データを仮想オブジェクトとして、ステップS106において算出した仮想オブジェクトの表示位置に表示する処理を実行する。
 この処理によって、図8に示す表示データ400が、ユーザ100の装着したメガネ141のディスプレイに表示される。図8に示す表示データ400は、実オブジェクトとしてのPC401と、仮想オブジェクト402が併せて表示される合成画像である。仮想オブジェクト管理モジュール132は、仮想オブジェクトの表示位置を、図8に示すように、PC表示部の表示データの境界からPCの表示部外への延長方向に設定する。このような表示処理によって、ユーザは、違和感を感ずることなく処理対象としている用紙全体を観察することができる。
 この処理により、ユーザ100は、PCの表示部に表示されたデータとともに、PCの表示部外にはみ出した非表示データについても仮想オブジェクトとして常時確認することが可能となる。
 なお、図6に示すフローチャートを参照して説明した処理は、ユーザがPC120を操作し、例えばスクロール処理などによって非表示データの範囲が変更されるたびに行われる。アプリケーション実行部121は、非表示データの領域や内容が変更される毎にメモリ122の記憶データの更新を実行し、更新データが複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクトの表示態様を変更する処理をリアルタイム更新処理として実行する。
  [2.実世界のオブジェクト形状に適合させた仮想オブジェクトの表示処理]
 次に、本発明の第2実施例として、実世界のオブジェクト形状に適合させた仮想オブジェクトの表示処理について説明する。
 上述した実施例では、仮想オブジェクトの表示をPCの画面に対応する平面を拡大して表示する構成としていた。しかし、例えば、図9に示すように、実世界において、PCの表示部の平面が、壁521によってさえぎられている場合がある。このような場合、上述した仮想オブジェクトの表示処理を実行すると、仮想オブジェクトは、壁を突き抜けて表示されることになり、ユーザは違和感のあるデータを観察することになる。
 以下では、図9に示すような表示データ500を生成してユーザに提示する。すなわち、仮想オブジェクト512を実世界の実オブジェクト(例えば図9に示す壁521a,521b)の形状に併せて表示する。
 本実施例は、仮想オブジェクト512は、実世界のオブジェクトに沿って表示することを可能とする実施例である。例えば図9に示すように、仮想オブジェクト512を、実オブジェクトである壁521bの表面に沿ってれ表示することを可能とする。なお、本実施例においても、装置構成は、図1を参照して説明した構成を適用する。
 図10を参照して、本実施例において、PC120のアプリケーション実行部121が、メモリ122に格納する非表示データの位置情報について説明する。PC120のアプリケーション実行部121は、例えばスクロール操作によって画面に表示されなくなった非表示データが生じた場合、その非表示データをメモリ122に格納する。図10の例では、点線枠で示す非表示データ530のデータ内容がPC120のメモリ122に格納される。
 さらに、PC120のアプリケーション実行部121は、先に説明した実施例と同様、表示部201の左上部の点を原点とし、水平方向をx軸、縦方向をy軸とした表示部201に平行な平面を設定する。この座標系をPC表示部対応座標系とする。アプリケーション実行部121は、このPC表示部対応座標系における非表示データ530の位置を求める。
 図10に示す非表示データ530の4隅の座標は、図に示すように、
 (x10,y10)
 (x11,y11)
 (x12,y12)
 (x13,y13)
 この4点の座標となる。
 PC120側のメモリ122に格納された非表示データとその位置情報は、通信部を介して複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。
 複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、このようにしてPC120から受信した非表示データの位置情報と、三次元情報解析部131から取得したカメラ撮影画像中の実オブジェクトの三次元位置情報を適用して、仮想オブジェクト(非表示データ)の表示位置を決定する。
 本実施例では、図9を参照して説明した表示データ500を生成する。すなわち仮想オブジェクトが実オブジェクトの表面に沿って表示されるように仮想オブジェクトの表示位置を決定する。
 図11に示すフローチャートを参照して、本発明の情報処理装置の処理シーケンスについて説明する。
 図11に示すフローチャートのステップS201~S203の処理は、図1に示すPC120の処理である。
 ステップS204~S209の処理は、図1に示す複合現実感(MR)生成装置130の処理である。
 まず、PC120のアプリケーション実行部121は、ステップS201において、PCの表示部の領域外にはみ出した非表示データの発生を検出すると、ステップS202において、非表示データの実体データと、その位置情報をPC120のメモリ122に格納する。この処理は、図10を参照して説明した処理である。非表示データの位置情報は、例えば、PC表示部平面における非表示データの4隅の座標データである。
 次に、ステップS203において、メモリに格納された非表示データと位置情報が、通信部を介して複合現実感(MR)生成装置130に転送される。
 ステップS204以降は、複合現実感(MR)生成装置130の処理として行われる。
 まず、ステップS204において、複合現実感(MR)生成装置130はPC120から転送された非表示データとその位置情報を複合現実感(MR)生成装置130側のメモリ133に格納する。
 次に、ステップS205において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータ、すなわち、非表示データとその位置情報を取得する。
 ステップS206において、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データの位置情報を三次元情報解析部131から取得したカメラ撮影画像に対応するカメラ座標系に変換する処理を行う。
 この処理は、先に第1実施例の処理として説明した図6に示すフローチャートのステップS106の処理と同様の処理である。
 すなわち、三次元情報解析部131がカメラ撮影画像に含まれるPC120の表示部の4隅のマーカー321a~321dの三次元位置情報を取得する。先に図7を参照して説明したように、
 マーカー321a=(Xa,Ya,Za)
 マーカー321b=(Xb,Yb,Zb)
 マーカー321c=(Xc,Yc,Zc)
 マーカー321d=(Xd,Yd,Zd)
 これらの位置情報を取得する。
 仮想オブジェクト管理表示モジュール132は、この三次元位置情報に基づいて、カメラ座標系における実オブジェクトであるPCの表示部の平面を算出し、その算出した平面上に、PC120から取得した非表示データ530を設定するように、座標変換を実行する。カメラ撮影画像にはPC表示部内の用紙位置も含まれ、カメラから取得されたPC表示部内の用紙位置に併せてPC120から取得した非表示データ330を設定するように座標変換を実行する。
 この座標変換では、PCの表示部平面によって形成さるXY平面上に、先にPC120から受信した非表示データの4隅の座標が設定されるように座標変換を実行する。PC表示部対応座標系(x,y,z)における非表示データ330の4隅の位置座標は、カメラ座標系(X,Y,Z)の座標として以下のように変換される。
 (x10,y10,z10)→(X10,Y10,Z10)
 (x11,y11,z11)→(X11,Y11,Z11)
 (x12,y12,z12)→(X12,Y12,Z12)
 (x13,y13,z13)→(X13,Y13,Z13)
 なお、本実施例では、先の実施例と異なり、Z方向についても考慮した処理を行う。
 仮想オブジェクト管理表示モジュール132は、ステップS207において、ステップS206の変換処理によって得た仮想オブジェクトの表示位置を示すカメラ座標系の4つの座標によって得られる面が、実オブジェクトの面と交差していないかを判定する。実オブジェクトの面、三次元情報解析部131の取得する実オブジェクトの三次元位置情報から取得される。
 仮想オブジェクトの表示面が、実オブジェクトの面と交差していない場合は、ステップS207の判定はNoとなる。この場合は、ステップS209に進み、ステップS206において算出した変換座標を適用して、仮想オブジェクトを表示する。この処理は、先に説明した第1実施例と同様の処理となり、PC表示部の平面を拡大した平面上に、仮想オブジェクトを表示する。
 一方、ステップS207において、ステップS206の変換処理によって得た仮想オブジェクトの表示位置を示すカメラ座標系の4つの座標によって得られる面が、実オブジェクトの面と交差していると判定した場合は、ステップS208に進む。
 すなわち、図9に示すような状態の場合である。この様な場合は、ステップS208において、仮想オブジェクトの表示位置を示す座標を再変換する処理を行う。すなわちステップS206において算出した仮想オブジェクトの表示位置を示す4つの座標を再度変換する処理を行う、
 この変換処理は、仮想オブジェクトの表示位置を示す4つの座標を、実オブジェクトを形成する面に設定するように変換する処理として行なわれる。この処理について、図12を参照して説明する。
 ステップS206において、算出した仮想オブジェクトの表示位置である4隅の座標が、図12に示す点541~544である。これらの座標は、図に示すように、以下の座標である。
 点541=(X10,Y10,Z10)
 点542=(X11,Y11,Z11)
 点543=(X13,Y13,Z13)
 点544=(X12,Y12,Z12)
 しかしこの4点によって掲載される面は、実オブジェクトである壁521の面と交差している。なお、実オブジェクトである壁521の形成面は、三次元情報解析部131の解析によって得られる。例えば図12に示す壁の4隅の点を特徴点として検出し、この4つの特徴点によって構成される面を、実オブジェクトである壁521の形成面と判定する。
 図12に示す例では、壁521bの平面は、4隅の座標である以下の4つの座標によって定義される。
 (X30,Y30,Z30)
 (X31,Y31,Z31)
 (X32,Y32,Z32)
 (X33,Y33,Z33)
 仮想オブジェクト管理モジュール132は、図12に示す仮想オブジェクトの4点541~544を上記の壁521bの形成面に展開するように、仮想オブジェクトの4点541~544の座標を変換する。この結果として、図に示すような変換座標が得られる。
 点541(X10,Y10,Z10)→変換後(X10v,Y10v,Z10v)(=点541)
 点542(X11,Y11,Z11)→変換後(X11v,Y11v,Z11v)(=点552)
 点543(X13,Y13,Z13)→変換後(X13v,Y13v,Z13v)(=点553)
 点544(X12,Y12,Z12)→変換後(X12v,Y12v,Z12v)(=点542)
 このように4つの変換座標を算出する。なお、図から理解されるように点541と点542は、変換前後の座標位置に変化はない。
 壁521bを突き抜けた位置にあった点542と点543は、壁521bの平面上の位置に変換する処理が行なわれる。
 ステップS208において、このような座標変換処理の後、ステップS209に進む。ステップS209では、仮想オブジェクト管理モジュール132は、メモリ133から取得した非表示データを仮想オブジェクトとして、ステップS208において算出した仮想オブジェクトの表示位置に表示する処理を実行する。
 この処理によって、例えば図13に示す表示データ500が、ユーザ100の装着したメガネ141のディスプレイに表示される。図13に示す表示データ500は、実オブジェクトとしてのPC511と、仮想オブジェクト512が併せて表示される合成画像である。
 ユーザ100は、PCの表示部に表示されたデータとともに、PCの表示部外にはみ出した非表示データについても仮想オブジェクトとして常時確認することが可能となる。
 なお、図11に示すフローチャートを参照して説明した処理は、ユーザがPC120を操作し、例えばスクロール処理などによって非表示データの範囲が変更されるたびに行われる。アプリケーション実行部121は、非表示データの領域や内容が変更される毎にメモリ122の記憶データの更新を実行し、更新データが複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130は更新されたデータに基づいて仮想オブジェクトの表示態様を変更する処理をリアルタイム更新処理として実行する。
  [3.その他の表示装置を利用した処理例]
 上述した実施例では、ユーザがPCを操作する場合にPCの表示画面に表示されなくなったデータを仮想オブジェクトとして観察することを可能とした構成を説明した。
 しかし、本発明を適用した処理、すなわち、仮想オブジェクト表示処理は、PCにおける処理データばかりではなく、様々な表示部を有する装置において利用できる。例えば図14に示すように携帯電話600の表示部に表示するデータの、表示領域以外の観察を行う場合にも、上述した仮想オブジェクト表示処理を行う個とで、図14に示すような表示データ700をユーザ100の装着したメガネ141のディスプレイに表示することができる。
 表示データ700にはユーザの所有する実オブジェクトとしての携帯電話画像701と、地図データとしての仮想オブジェクト702が表示され、ユーザは、携帯電話の表示部の外の部分の広い地図情報を確認することが可能となる。
 本発明の構成によれば、例えば、PCなどの表示部の画面外にスクロールされた情報がそのまま実世界に表示されるので、情報を表示するのにスクロールバーを操作する必要がなく、広い領域のデータを常時確認することが可能となる。また、画面外への仮想オブジェクトの表示は、ユーザ操作を行っている画面に連続して表示されるため、視覚的な違和感を生じることなく、広い領域の情報を常時確認することが可能となる。
 以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本発明の一実施例の構成によれば、表示部を持つPCや携帯電話などの様々な表示装置において、表示部外の領域にはみ出した非表示データを表示部の表示データに連続する位置に仮想オブジェクトとして表示する構成を実現する。この構成により、ユーザはPCなとの限定された表示領域の表示データのみならず、表示部の外に出てしまったデータを常に観察して確認することが可能となり、データ処理効率を高めることができる。
 100 ユーザ
 120 PC(パーソンナルコンピュータ)
 121 アプリケーション実行部
 122 メモリ
 123 通信部
 130 複合現実感(MR)生成装置
 131 三次元情報解析部
 132 仮想オブジェクト管理モジュール
 133 メモリ
 134 通信部
 141 メガネ
 142 カメラ
 150 ディスプレイ表示画像
 151 PC画像
 152 PC表示部
 161 仮想オブジェクト
 201 表示部
 202 用紙
 321a~321d マーカー
 330 非表示データ
 350 原点
 401 PC
 402 仮想ブジェクト
 500 表示データ
 511 PC
 512 仮想オブジェクト
 521 壁
 530 非表示データ
 600 携帯電話
 700 表示データ
 701 携帯電話画像(実オブジェクト)
 702 仮想オブジェクト

Claims (6)

  1.  第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行部と、
     カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析部と、
     前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理部を有し、
     前記仮想オブジェクト管理部は、
     前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する情報処理装置。
  2.  前記仮想オブジェクト管理部は、
     前記メモリに格納された非表示データの位置情報である座標データを、前記第2表示部の表示画像における表示位置の指標となるカメラ座標系に変換し、該変換後の座標データを適用して前記仮想オブジェクトの表示位置を決定する請求項1に記載の情報処理装置。
  3.  前記オブジェクト管理部は、
     カメラ座標系に変換した前記仮想オブジェクトの表示位置と、カメラ撮影画像に含まれる実オブジェクトの形成面とが交差するか否かを判定し、交差する場合には、前記変換後の座標データを、前記実オブジェクトの形成面上に位置するように座標再変換処理を実行し、再変換処理後の座標データを適用して前記仮想オブジェクトの表示位置を決定する請求項2に記載の情報処理装置。
  4.  前記情報処理装置は、
     前記アプリケーション実行部を有する第1の装置と、
     前記三次元情報解析部と、前記仮想オブジェクト管理部とを有する第2の装置によって構成され、
     前記アプリケーション実行部が第1の装置内の第1メモリに格納したデータを通信部を介して前記第2の装置に転送し、前記第2装置において、前記三次元情報解析部と、前記仮想オブジェクト管理部とが受信データを利用した処理を行う請求項1~3いずれかに記載の情報処理装置。
  5.  情報処理装置において実行する情報処理方法であり、
     アプリケーション実行部が、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納するアプリケーション実行ステップと、
     三次元情報解析部が、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析する三次元情報解析ステップと、
     仮想オブジェクト管理部が、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力し、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示する仮想オブジェクト管理ステップを有し、
     前記仮想オブジェクト管理ステップは、
     前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なうステップを有する情報処理方法。
  6.  情報処理装置において情報処理を実行させるプログラムであり、
     アプリケーション実行部に、第1表示部を利用したデータ処理において前記第1表示部の表示データに連続する非表示データと該非表示データの位置情報をメモリに格納させるアプリケーション実行ステップと、
     三次元情報解析部に、カメラ撮影画像に含まれる前記第1表示部を含む実オブジェクトの三次元位置を解析させる三次元情報解析ステップと、
     仮想オブジェクト管理部に、前記メモリに格納された非表示データと該非表示データの位置情報と、前記三次元情報解析部の解析した前記第1表示部の三次元位置情報を入力させ、前記カメラ撮影画像に含まれる実オブジェクトと、前記非表示データからなる仮想オブジェクトからなる合成画像を生成して第2表示部に表示させる仮想オブジェクト管理ステップを有し、
     前記仮想オブジェクト管理ステップは、
     前記第2表示部における前記仮想オブジェクトの表示位置を、前記第2表示部に表示する前記第1表示部の表示データの境界から第1表示部外に延長した方向の位置に設定する処理を行なわせるステップを有するプログラム。
PCT/JP2010/054541 2009-04-23 2010-03-17 情報処理装置、および情報処理方法、並びにプログラム WO2010122859A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP10766918.6A EP2423789B1 (en) 2009-04-23 2010-03-17 Information processing device, information processing method, and program
CN201080016939.7A CN102395948B (zh) 2009-04-23 2010-03-17 信息处理设备、信息处理方法以及程序
BRPI1015167A BRPI1015167A2 (pt) 2009-04-23 2010-03-17 aparelho e método de processamento de informação, e, programa
US13/264,133 US8994721B2 (en) 2009-04-23 2010-03-17 Information processing apparatus, information processing method, and program for extending or expanding a viewing area of content displayed on a 2D workspace into a 3D virtual display screen
RU2011141838/08A RU2536363C2 (ru) 2009-04-23 2010-03-17 Устройство обработки информации, способ обработки информации и программа

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-105294 2009-04-23
JP2009105294A JP5158006B2 (ja) 2009-04-23 2009-04-23 情報処理装置、および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2010122859A1 true WO2010122859A1 (ja) 2010-10-28

Family

ID=43010982

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/054541 WO2010122859A1 (ja) 2009-04-23 2010-03-17 情報処理装置、および情報処理方法、並びにプログラム

Country Status (9)

Country Link
US (1) US8994721B2 (ja)
EP (1) EP2423789B1 (ja)
JP (1) JP5158006B2 (ja)
KR (1) KR20120008030A (ja)
CN (1) CN102395948B (ja)
BR (1) BRPI1015167A2 (ja)
RU (1) RU2536363C2 (ja)
TW (1) TWI469622B (ja)
WO (1) WO2010122859A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103676172A (zh) * 2013-12-23 2014-03-26 Tcl集团股份有限公司 一种3d电子沙盘显示装置及方法
CN103959344A (zh) * 2011-12-20 2014-07-30 英特尔公司 跨越多个设备的增强现实表示

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2980005A1 (fr) * 2011-09-09 2013-03-15 Movea Procede de controle d'un curseur par des mesures d'attitude d'un pointeur et pointeur mettant en oeuvre ledit procede
US9164972B2 (en) * 2012-06-07 2015-10-20 Microsoft Technology Licensing, Llc Managing objects in panorama display to navigate spreadsheet
WO2014069248A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
KR102182162B1 (ko) * 2014-02-20 2020-11-24 엘지전자 주식회사 Hmd 및 그 제어 방법
JP6348741B2 (ja) * 2014-03-18 2018-06-27 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
US9696549B2 (en) * 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9952656B2 (en) 2015-08-21 2018-04-24 Microsoft Technology Licensing, Llc Portable holographic user interface for an interactive 3D environment
JP6586834B2 (ja) 2015-09-14 2019-10-09 富士通株式会社 作業支援方法、作業支援プログラム、及び作業支援システム
JP2018189999A (ja) * 2015-09-29 2018-11-29 株式会社会津ラボ 関連情報表示装置
US10353564B2 (en) * 2015-12-21 2019-07-16 Sap Se Graphical user interface with virtual extension areas
JP6602743B2 (ja) 2016-12-08 2019-11-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
FR3074331A1 (fr) * 2017-11-28 2019-05-31 Orange Procede d'affichage en realite mixte d'au moins un objet virtuel, terminal et systeme associes
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US11379033B2 (en) * 2019-09-26 2022-07-05 Apple Inc. Augmented devices
CN113711175A (zh) * 2019-09-26 2021-11-26 苹果公司 呈现计算机生成现实环境的可穿戴电子设备
DE112020001415T5 (de) 2019-09-27 2021-12-09 Apple Inc. Umgebung für Fernkommunikation
TWI757824B (zh) 2020-08-10 2022-03-11 宏碁股份有限公司 擴增實境螢幕系統及擴增實境螢幕顯示方法
US11175791B1 (en) * 2020-09-29 2021-11-16 International Business Machines Corporation Augmented reality system for control boundary modification
GB2620175A (en) * 2022-06-30 2024-01-03 Sony Interactive Entertainment Europe Ltd Representing virtual objects outside of a display screen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末
JP2008304269A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008304268A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6407817B1 (en) * 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
JP3287312B2 (ja) * 1998-08-13 2002-06-04 日本電気株式会社 ポインティング装置
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
JP4393169B2 (ja) * 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
JP4125252B2 (ja) * 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4533087B2 (ja) * 2004-10-28 2010-08-25 キヤノン株式会社 画像処理方法、画像処理装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末
JP2008304269A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008304268A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2423789A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103959344A (zh) * 2011-12-20 2014-07-30 英特尔公司 跨越多个设备的增强现实表示
EP2795893A4 (en) * 2011-12-20 2015-08-19 Intel Corp PRESENTATIONS OF AN ADVANCED REALITY BETWEEN SEVERAL EQUIPMENT
CN103959344B (zh) * 2011-12-20 2017-03-01 英特尔公司 跨越多个设备的增强现实表示
US9952820B2 (en) 2011-12-20 2018-04-24 Intel Corporation Augmented reality representations across multiple devices
CN103676172A (zh) * 2013-12-23 2014-03-26 Tcl集团股份有限公司 一种3d电子沙盘显示装置及方法

Also Published As

Publication number Publication date
RU2011141838A (ru) 2013-05-10
US8994721B2 (en) 2015-03-31
TWI469622B (zh) 2015-01-11
JP2010257123A (ja) 2010-11-11
EP2423789B1 (en) 2020-04-29
EP2423789A1 (en) 2012-02-29
KR20120008030A (ko) 2012-01-25
EP2423789A4 (en) 2014-12-03
CN102395948B (zh) 2015-06-24
RU2536363C2 (ru) 2014-12-20
BRPI1015167A2 (pt) 2016-04-19
US20120032955A1 (en) 2012-02-09
JP5158006B2 (ja) 2013-03-06
CN102395948A (zh) 2012-03-28
TW201103312A (en) 2011-01-16

Similar Documents

Publication Publication Date Title
JP5158006B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5263049B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
JP4850984B2 (ja) 動作空間提示装置、動作空間提示方法およびプログラム
JP2011028309A5 (ja)
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
EP2490182A1 (en) authoring of augmented reality
JP2016194799A (ja) 画像解析装置及び画像解析方法
JP5158007B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN108027903B (zh) 信息处理设备、控制方法和程序
CN111033573A (zh) 信息处理装置、系统、图像处理方法、计算机程序及存储介质
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
CN106125937B (zh) 一种信息处理方法和处理器
JP5510529B2 (ja) 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
CN115756360A (zh) 可视化大屏的组件展示方法、装置、电子设备及存储介质
JP2014010684A (ja) 情報処理装置
JP2013168167A (ja) 情報処理装置、および情報処理方法、並びに情報記録媒体
JP2009146140A (ja) 3次元画像表示装置
WO2008029531A1 (fr) Dispositif de synthèse d'images vidéo stéréoscopiques, procédé de production de données de forme et programme correspondant
TW201112047A (en) System for operating interactive user interface and method thereof

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080016939.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10766918

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010766918

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13264133

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2011141838

Country of ref document: RU

Kind code of ref document: A

Ref document number: 20117024242

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 7935/DELNP/2011

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: PI1015167

Country of ref document: BR

ENP Entry into the national phase

Ref document number: PI1015167

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20111017