WO2016092698A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2016092698A1
WO2016092698A1 PCT/JP2014/082982 JP2014082982W WO2016092698A1 WO 2016092698 A1 WO2016092698 A1 WO 2016092698A1 JP 2014082982 W JP2014082982 W JP 2014082982W WO 2016092698 A1 WO2016092698 A1 WO 2016092698A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
resolution
area
observer
image processing
Prior art date
Application number
PCT/JP2014/082982
Other languages
English (en)
French (fr)
Inventor
花本 貴志
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to PCT/JP2014/082982 priority Critical patent/WO2016092698A1/ja
Priority to JP2016563376A priority patent/JP6526051B2/ja
Priority to US14/962,996 priority patent/US9965830B2/en
Publication of WO2016092698A1 publication Critical patent/WO2016092698A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Definitions

  • the present invention relates to an image processing technique for displaying image data on a head-mounted display or the like.
  • HMD head-mounted display
  • eyeglass-type displays are also known.
  • the image data displayed on the HMD is obtained by cutting out the video in the entire circumference direction each time, and the original video is also called an environment map.
  • the environment map can be acquired by, for example, photographing using a fisheye lens or a method of capturing light reflected by a mirror ball with a camera.
  • Patent Document 1 discloses a method of detecting an observer's motion using a sensor built in the HMD, and scrolling and displaying an image displayed according to an operation corresponding to the observer's head movement. ing.
  • an object of the present invention is to display an image data according to an observer's line of sight more naturally according to an observer's movement by predicting a viewing area according to the observer's movement.
  • the present invention is an image processing apparatus for displaying image data in accordance with the viewing direction of an observer, the storage means storing a plurality of environment maps having different resolutions, and the observer's
  • An acquisition means for acquiring information indicating movement as movement information, a holding means for holding a current area displayed to the observer, and a target area in the environment map is determined based on the current area and the movement information.
  • Target area determining means path area determining means for determining an area including a path whose line-of-sight direction changes from the current area to the target area as a path area, and among the plurality of environment maps, the path area and the target
  • a setting means for setting the resolution corresponding to each area, and an environment map of the resolution set by the setting means.
  • Generation means for reading out image data corresponding to each of the path area and the target area, and generating image data for display in the path area and image data for display in the target area; .
  • the present invention can display image data more naturally according to the movement of the observer.
  • FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus.
  • the flowchart of the environment map display process accompanied by a movement.
  • FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus applicable to the first embodiment.
  • the image processing apparatus includes a CPU 101, a main memory 102, a storage device 103, a GPU 104, and a bus 106.
  • the CPU 101 executes arithmetic processing and various programs.
  • the main memory 102 holds programs and data necessary for image processing.
  • the main memory 102 is also used as a work area for image processing by the CPU 101.
  • the storage device 103 is a device that stores an image processing program and a plurality of image data. For example, a hard disk drive (HDD) is used.
  • the GPU 104 is connected to an HMD 105, which is an external display device for displaying image data and GUI, by an I / F unit (not shown).
  • the GUI 104 expands image data to be displayed and transfers it to the HMD 105.
  • the I / F that connects the GPU 104 and the HMD 105 can exchange data using, for example, infrared communication or a wireless LAN.
  • a bus 106 connects the above-described components. In addition to the above, there are various components of the system configuration, but since it is not the main point of the present embodiment, the description thereof is omitted.
  • FIG. 2 is a diagram schematically illustrating the configuration of the HMD 105.
  • the HMD 105 has a display unit 201, and the display unit 201 further includes an acceleration sensor 203, a geomagnetic sensor 204, and a GPS sensor 205.
  • the acceleration sensor 203, the geomagnetic sensor 204, and the GPS sensor 205 are sensors for acquiring movement information indicating the movement of the observer wearing the HMD 105.
  • the acceleration sensor 2013 detects a lateral direction in which the observer's head moves left and right and a vertical acceleration in which the observer moves up and down, and outputs the acceleration information as acceleration information.
  • the geomagnetic sensor 204 calculates the azimuth of the HMD 105 by detecting the direction of geomagnetism, and outputs angle information indicating the direction in which the observer is viewing.
  • a GPS (Global Positioning System) sensor 205 measures the position of the HMD 105 on the earth and acquires position information.
  • fixed part 202 fixes the display part 201 to an observer's head, it has a structure where an observer can put on an ear. That is, in conjunction with the movement of the observer's head, each sensor built in the display unit 201 detects the position and direction.
  • FIG. 2B shows a more detailed configuration of the display unit 201.
  • FIG. 2B schematically shows the internal configuration of the display unit 201 when the HMD 105 shown in FIG.
  • the display unit 201 has a structure in which the entire field of view of the observer can be covered with the liquid crystal display 206 by passing the lens 207.
  • the liquid crystal display 206 displays image data.
  • the liquid crystal display 206 displays image data obtained by cutting out a part of the environment map made up of images in all directions. As a result, the observer can view a realistic video as if it were at the center of the environment map.
  • Image data to be displayed is transferred from the image processing apparatus 400.
  • FIG. 3 is a diagram for explaining the environment map.
  • FIG. 3A shows the coordinate system of the environment map with respect to the viewpoint position.
  • the line-of-sight direction from the viewpoint position 301 of the observer can be expressed using polar coordinates ( ⁇ , ⁇ ).
  • An environment map is obtained by quantizing the polar coordinates ( ⁇ , ⁇ ) and replacing the quantized polar coordinates ( ⁇ , ⁇ ) with image data. It is also called an omnidirectional image or an all-around image.
  • Each pixel constituting the environment map holds a luminance vector, the magnitude of the luminance vector represents the luminance value, and the direction of the luminance vector is always directed to the viewpoint position.
  • the environment map is luminance information of the entire periphery that enters the observer's viewpoint position 301.
  • a data method for holding the environment map there are an equirectangular map method shown in FIG. 3B and a spherical map method shown in FIG.
  • luminance information is held by converting it into two-dimensional rectangular image data with ⁇ as the horizontal axis and ⁇ as the vertical axis.
  • the spherical map method shown in FIG. 3C is a two-dimensional circular image data in which the axis from the center of the circle to the arc is ⁇ in the environment map, and the rotation direction from the center of the circle is ⁇ in the environment map.
  • the luminance information is held by converting to.
  • both the sine cylindrical map method and the spherical map method cause distortion because a spherical environment map is projected onto a plane. Therefore, both methods require projective transformation when generating image data to be displayed on the HMD.
  • FIG. 4 shows a detailed configuration of the image processing apparatus 400 applicable to the first embodiment.
  • each configuration is executed by software.
  • the image processing apparatus 400 cuts display candidate image data from a plurality of resolution environment maps stored in the storage device 103 in accordance with the operation of the HMD 105, and generates display image data.
  • FIG. 5 shows a plurality of environment maps.
  • the environment map in the present embodiment holds three different resolution environment maps, a high resolution environment map 501, a medium resolution environment map 502, and a low resolution environment map 503.
  • the environment map in the present embodiment is an equirectangular map method.
  • the environment map of each resolution is divided into block images 504 and stored in the storage device 103 as different files. Therefore, the image processing apparatus 400 can read out only a block image having a necessary resolution.
  • the detection result acquisition unit 401 acquires motion information such as acceleration information detected by the acceleration sensor 203 and angle information detected by the geomagnetic sensor 204 from the HMD 105.
  • the current area determination unit 409 identifies the area that the observer is currently viewing based on the angle information as the current area 601.
  • FIG. 6A shows a diagram for explaining the current area.
  • the target area determination unit 403 acquires the position of the current area from the current area 409. Furthermore, when the new acceleration information is acquired, the target area determination unit 403 predicts the direction in which the observer will view from the current area 601 as shown in FIG. 6A, and determines the target area 602. .
  • the route region determination unit 404 determines the route region 603 based on the current region 601 and the target region 602.
  • the route region 603 is a region that enters the viewer's field of view before the line of sight moves to the target region 602 that the viewer wants to view.
  • the resolution information acquisition unit 402 acquires the resolution that can be displayed on the display unit 201 of the HMD 105 as resolution information.
  • the necessary resolution setting unit 405 calculates the necessary resolution of the display image data to be transmitted next based on the acceleration information obtained from the detection result obtaining unit 401 and the resolution information obtained from the resolution information obtaining unit 402. Specifically, the resolution information acquisition unit 402 sets the necessary resolution of the image data to be displayed in the route area according to the acceleration in the two directions indicated by the acceleration information. Further, the necessary resolution of the image data to be displayed in the target area is set according to the resolution information.
  • the display image generation unit 407 takes out the environment map of the resolution to be displayed from the environment map stored in the environment map acquisition unit 406, cuts out the area, and performs projective transformation on the cut out environment map, thereby converting the display image data. Generate. Even for display image data displayed in an area of the same size, image data generated by cutting out an environment map with a higher resolution has a larger data amount and takes more time to transfer data.
  • the display image generation unit 407 according to the present embodiment generates display image data from the environment map having the lowest resolution when the viewer starts viewing the video. Thereafter, the display image generation unit 407 generates display image data according to the movement of the HMD 105.
  • display image data to be displayed in the route area and display image data to be displayed in the target area are generated and sequentially output. It is assumed that the display image generation unit 407 has previously set the size (view angle information) of image data to be displayed in the display unit 201 of the connected HMD 105.
  • the transmission unit 407 transfers display image data to be displayed on the display unit 201 to the HMD 105 side.
  • the environment map acquisition unit 406 reads the low resolution environment map 503 from the storage device 103 and develops it in the main memory 102 in step S701.
  • step S702 the current region determination unit 409, based on the angle information ( ⁇ , ⁇ ) acquired by the detection result acquisition unit 401 from the geomagnetic sensor 204 of the HMD 105 and the angle-of-view information of the display unit 201 held in advance.
  • the current region that the observer currently observes is determined.
  • luminance information for each angle is held in advance in the environment map. Therefore, in the present embodiment, the current area 601 is set by associating the angle information ( ⁇ , ⁇ ) with the coordinate system of the environment map and setting the area according to the angle of view.
  • the display image generation unit 407 refers to the low resolution environment map 503, cuts out the current area, and performs projective transformation for displaying the luminance information of the cut out area on the display unit 201 of the HMD 105.
  • the low-resolution display image data generated by the display image generation unit 407 is transferred to the HMD 105 via the transmission unit 408. Since the low resolution environment map has already been developed in the main memory 102, it can be processed at high speed. In addition, since the low resolution environment map has a small data capacity and a high processing load, it is possible to display the image data of the area viewed by the observer at high speed.
  • step S705 the detection result acquisition unit 401 determines whether new acceleration information (a ⁇ , a ⁇ ) has been acquired from the acceleration sensor 203 of the HMD 105. If the acceleration information is not updated, the process proceeds to step S706. If new acceleration information is acquired, the process proceeds to step S711.
  • step S706 if the acceleration information (a ⁇ , a ⁇ ) is not acquired after transmitting the display image data for the current region 601, there is no movement in the head of the observer, and the user continues to watch the same current region 601. Means. Therefore, the necessary resolution calculation unit 405 calculates a resolution that can be displayed in the current area 601 and that needs to newly generate display image data.
  • the necessary resolution information calculation unit 405 acquires resolution information indicating the highest resolution that can be displayed on the display unit 201 of the HMD 105 from the resolution information acquisition 402.
  • the necessary resolution calculation unit 405 determines the highest resolution of the environment map that is equal to or lower than the highest displayable resolution indicated by the resolution information as the necessary resolution.
  • step S707 the display image generation unit 407 refers to the necessary resolution obtained from the necessary resolution calculation unit 706, and determines whether it is necessary to generate display image data with higher resolution than the low resolution environment map. If the required resolution is equal to or lower than the low resolution environment map 503, the resolution cannot be changed, and the process proceeds to step S721. If the required resolution is higher than the resolution of the low resolution environment map 503, the process proceeds to step S708.
  • step S708 the display image generation unit 407 reads only the block image corresponding to the current area 601 from the storage device 103 from the environment map corresponding to the necessary resolution, and develops it in the main memory 102.
  • step S709 the display image generation unit 407 generates display image data by cutting out the current area 601 from the read block image and performing projective conversion on the cut out image data.
  • step S710 the display image generation unit 407 outputs the display image data to the transmission unit 408, and the transmission unit 408 transfers the display image data with high resolution by the HMD 105.
  • the display image generation unit 407 outputs the display image data to the transmission unit 408, and the transmission unit 408 transfers the display image data with high resolution by the HMD 105.
  • step S711 the target area determination unit 403 determines the target area 602 based on the acceleration information (a ⁇ , a ⁇ ).
  • the human line of sight is limited by the movable range in the ⁇ direction and the ⁇ direction, as shown in FIG. Therefore, the target area determination unit 403 predicts the movement of the head of the observer from the head operating range and acceleration information (a ⁇ , a ⁇ ) held in advance as shown in FIG. An area 602 is set.
  • the target area is calculated from the amount of movement of the current area with the acceleration (a ⁇ , a ⁇ ) from the center coordinates ( ⁇ c, ⁇ c) of the current area for a fixed time ⁇ t seconds.
  • the center coordinates ( ⁇ t, ⁇ t) of the target area after ⁇ t seconds are
  • ⁇ t is set to 1 second as an average time for operating the human head. If ( ⁇ t, ⁇ t) exceeds the movable range of the head, the target area is reset within the movable range.
  • the route region calculation unit 404 sets a route region 603 that connects the two regions from the current region 601 and the target region 602.
  • the path area is determined by calculating a block image group that covers the entire area where the vertices of the current area and the target area are connected by straight lines.
  • step S713 the display image generation unit 407 cuts out the image data of the target area 602 and the path area 603 from the low resolution environment map 503 on the main memory 102, and performs projective conversion.
  • step S714 the display image generation unit 602 sequentially outputs the display image data of the route area 603 and the display image data of the target area 602 to the transmission unit 408.
  • the transmission unit 408 controls the display unit 201 to display each low-resolution display image data in accordance with the angle information.
  • step S715 the necessary resolution calculation unit 405 calculates the necessary resolution.
  • the required resolution for the target area 602 is determined by the same method as in step 706. Details of the calculation of the necessary resolution for the route area 603 in step S715 will be described later.
  • step S716 similarly to step S707, the display image generation unit 716 refers to the necessary resolution obtained from the necessary resolution calculation unit 706, and determines whether it is necessary to generate display image data with higher resolution than the low resolution environment map. Determine. If it is determined that there is a change in the display image data, the process proceeds to step S717.
  • the processing of the display image generation unit 407 in steps S717 to S719 is the same as that in steps S708 to S710.
  • step S720 the current area determination unit 409 determines the position of the current area 601 based on the angle information ( ⁇ , ⁇ ) transmitted from the geomagnetic sensor 204 of the HMD 105 at predetermined intervals and the position information transmitted from the GPS sensor 205. Update.
  • step S721 the image processing apparatus 400 determines whether or not viewing on the HMD 105 has ended. When the viewing ends, the processing in the image processing apparatus 400 is completed. If viewing continues, the process returns to step S705 to generate display image data in accordance with the movement of the observer's head.
  • FIG. 8 is a flowchart of the required resolution calculation processing by the required resolution acquisition unit 402 in S715.
  • step S801 it is determined whether the resolution of the display unit 201 of the HMD 105 is greater than or equal to a predetermined threshold value R. If the resolution of the display unit 201 is greater than or equal to the threshold value R, the process proceeds to step S802. When the resolution of the display unit 201 is less than the threshold value R, the process proceeds to step S805.
  • step S802 based on the acceleration information (a ⁇ , a ⁇ ) obtained from the HMD 105, it is determined whether or not the absolute value of the acceleration is less than a predetermined threshold A.
  • a predetermined threshold A When the movement of the head is fast, the observer can estimate that the route region until the observer's line of sight reaches the viewing direction cannot be seen as an image. Therefore, if the absolute value of the acceleration is greater than or equal to the threshold value A, the process proceeds to step S805, and a relatively low resolution is set for the route area. If the absolute value of acceleration is less than the threshold value A in step S802, the process proceeds to step S803.
  • step S803 the magnitudes of a ⁇ and a ⁇ are compared. If the size of a ⁇ is less than the size of a ⁇ , the process proceeds to step S804, and if the size of a ⁇ is greater than or equal to the size of a ⁇ , the process proceeds to step S805.
  • step S804 the same resolution as the resolution corresponding to the target area 602 is set as the resolution for the path area 603. In other words, the resolution for the route area 603 is determined to be the highest resolution among the environment maps having a resolution that can be displayed by the display unit 201.
  • step S805 as the resolution for the path area 603, a resolution that is one step lower than the resolution corresponding to the target area 602 is set.
  • the same resolution as that of the high resolution environment map 501 is determined for the target area 602
  • the same resolution as that of the medium resolution environment map 502 is determined as the necessary resolution for the path area 603. This is because the human head has a wider movable range in the ⁇ direction, so that it is necessary to prefetch a wide area. That is, when the head moves greatly in the ⁇ direction, the data capacity is reduced by lowering the resolution by the amount of the generated display image data.
  • a region to be observed in the future by an observer wearing the HMD 105 is predicted in advance, and display image data is generated. Since the display image data generated based on the prediction is generated in advance of the image to be displayed on the display unit 201 of the HMD 105, the display unit 201 displays a high-resolution video in real time according to the movement of the observer. can do.
  • the display image data generated by the image processing apparatus 400 is displayed on the display unit 201 of the HMD 105 as needed.
  • a method of caching (temporarily held in the main memory 102) and deleting image data prefetched as the target area 603 will be described.
  • symbol is attached
  • FIG. 9 is a diagram for explaining the movement characteristics of the human head.
  • the head 901 faces the viewpoint position 902.
  • the head 901 rotates in the ⁇ direction, and the viewpoint position moves to the viewpoint position 903.
  • the head 901 rotates in the reverse direction and has a high possibility of returning to the original viewpoint position 902.
  • a method for caching image data using this motion characteristic will be described.
  • FIG. 10 is a flowchart showing the entire processing in the second embodiment.
  • the image processing apparatus 400 acquires acceleration information detected by the acceleration sensor 203 from the HMD 105.
  • step S1002 the image processing apparatus 400 executes the processing from step 701 to step S704 in accordance with the angle information, and generates display image data in the current region 601 that the viewer is viewing. Further, by executing the processing from step S711 to step S719 according to the acceleration information, display image data for the target area 602 and display image data for the path area 603 are generated according to the acceleration direction, and the main memory Cache in 102.
  • the image processing apparatus 400 holds the display image data in the main memory 102 until at least the direction indicated by the acceleration information acquired from the HMD 105 is reversed, that is, until the acceleration information in the reverse direction is input.
  • step S1003 the display image data corresponding to each region is sequentially transferred to the HMD 105, and the display unit 210 displays the display image data in the order received in step S1004. At this time, the display image data is held in the main memory 102.
  • step S1005 the HMD 105 acquires new acceleration information and transfers it to the image processing apparatus 400.
  • step S ⁇ b> 1006 display image data is generated based on the acceleration information acquired from the HMD 105.
  • the process of calculating the target area, the path area, and the necessary resolution is performed in the same manner as in the first embodiment.
  • the display image data to be generated is cached in the main memory 102, the display image data is read from the main memory 102 without newly cutting out the environment map and performing projective conversion.
  • display image data to be generated is not stored in the main memory 102, display image data corresponding to the target area and the path area is generated as in the first embodiment.
  • step S ⁇ b> 1008 display image data is displayed on the display unit 201 of the HMD 105.
  • step S1009 the main memory 102 is deleted.
  • the display image data generated by prefetching is cached in consideration of the possibility that the display image data once generated is viewed again in accordance with the movement characteristics of the human head.
  • a high-resolution video can be displayed in real time with less processing load in real time according to the movement of the observer.
  • ⁇ Third Embodiment> a method of controlling display image data according to the motion characteristics of a human head has been disclosed.
  • the third embodiment a process for switching the environment map in accordance with the movement (walking) of the observer will be described.
  • symbol is attached
  • FIG. 11 is a schematic diagram for explaining a method of switching the environment map according to human walking.
  • the observer 1101 first observes the environment map A.
  • the observer 1101 moves forward, it is necessary to change the scene that the observer 1101 observes. Therefore, it is necessary to switch from the environment map A to the environment map B.
  • an observer 1101 walks while gazing at a certain point of gaze 1102.
  • display image data generated based on a low-resolution environment map is displayed first, and then the high-resolution environment map is displayed.
  • the display image data is generated based on the display image data.
  • the observer 1101 since the observer 1101 has already observed the high-resolution environment map A, if the user switches to the low-resolution display image data of the environment map B based on the position information and the angle information as a result of walking, the viewer 1101 feels uncomfortable. I feel it. Therefore, a method for reducing this uncomfortable feeling is necessary.
  • FIG. 12 is a flowchart showing the entire processing in the third embodiment.
  • the display unit 201 of the HMD 105 displays display image data generated based on the high-resolution environment map A at the gazing point 1002.
  • the acceleration sensor 203 detects the walking of the observer 1101 using acceleration information
  • the magnetic sensor 204 uses angle information
  • the GPS sensor 205 uses position information, and transmits the movement information to the image processing apparatus 400 as movement information. .
  • step S1003 the environment map B corresponding to the position after the observer 1101 has moved is selected according to the movement information (direction, distance).
  • step S ⁇ b> 1004 the HMD 105 transmits the resolution of the environment map A at the currently displayed gazing point 1002 to the image processing apparatus 400.
  • step S ⁇ b> 1005 the HMD 105 matches display image data generated based on the environment map A at the currently displayed gazing point 1002 with the movement information of the observer 1101 under the control of the CPU (not shown). Projectively transform and display.
  • step S1006 the image processing apparatus 400 sets the resolution of the environment map B to be read in accordance with the resolution displayed by the HMD 105.
  • step S ⁇ b> 1007 the image processing apparatus 400 reads out a block image of the current area centered on the gazing point 1002 of the environment map B having the resolution set in step S ⁇ b> 106 from the step storage device 103 and develops it in the main memory 102.
  • step S1008 the display image generation unit 407 in the image processing apparatus 400 performs projective conversion on the read image data of the current area to generate display image data.
  • step S1009 the display unit 201 of the HMD 105 displays the display image data generated in step S1008.
  • a high-resolution video can be displayed in real time without the observer feeling uncomfortable due to the change in resolution. Further, even when the environment map corresponding to the viewpoint position changes due to the change of the position of the observer, it is possible to efficiently generate image data with higher resolution.
  • the example in which the acceleration of the head is detected using the acceleration sensor mounted on the HMD 105 and the acceleration information is used to detect the movement of the observer's head (or line of sight) has been described.
  • the method of acquiring the observer's movement is not limited to this.
  • a method of detecting the speed when the head moves instead of acceleration may be used, and information representing a head movement may be information represented by a vector instead of acceleration information (a ⁇ , a ⁇ ). .
  • the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • ASIC application specific integrated circuit

Abstract

 観察者の動きに応じてより自然に画像データを表示する。 観察者の視線方向に応じて画像データを表示するための画像処理装置であって解像度の異なる複数の環境マップを記憶する記憶手段と、前記観察者の動き情報として取得する取得手段と、表示しているカレント領域を保持する保持手段と、前記カレント領域と前記動き情報に基づいてターゲット領域を決定するターゲット領域決定手段と、前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有する。

Description

画像処理装置、画像処理方法およびプログラム
 本発明は、ヘッドマウントディスプレイなどに画像データを表示するための画像処理技術に関する。
 観察者の頭部に固定するヘッドマウントディスプレイ(以降、HMD)を用いて、観察者が画像を視聴する技術が知られている。また近年は、眼鏡型ディスプレイなども知られている。HMDに表示される画像データは、全周囲方向の映像をその都度切り出したものであり、元となるその映像は環境マップとも呼ばれる。環境マップは例えば、魚眼レンズを用いた撮影やミラーボールに反射した光をカメラで撮像する手法により取得できる。
 特許文献1には、HMDに内蔵されたセンサを用いて観察者の動作を検出し、観察者の頭の動きに対応する操作に応じて表示された画像をスクロールし、表示する方法について開示している。
特開2013-254251号公報
 近年、表示画像の高解像度化が進んだ結果、表示に必要な画像データの容量も大きくなり、HMDに表示するための画像データの読み出しやデコードに時間がかかる。そのため特許文献1に開示された方法によれば、観察者が視聴したい方向に頭部を動かしても、視聴したい画像データが円滑に表示されない場合がある。
 そこで本発明は、観察者の動きに応じて視聴する領域を予測することにより、観察者の動きに合わせてより自然に観察者の視線に応じた画像データを表示することを目的とする。
 上記課題を解決するため本発明は、観察者の視線方向に応じて画像データを表示するための画像処理装置であって、解像度の異なる複数の環境マップを記憶する記憶手段と、前記観察者の動きを示す情報を動き情報として取得する取得手段と、前記観察者に表示しているカレント領域を保持する保持手段と、前記カレント領域と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定するターゲット領域決定手段と、前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、前記複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有することを特徴とする。
 本発明は、観察者の動きに応じてより自然に画像データを表示することができる。
画像処理装置の構成を示すブロック図。 ヘッドマウントディスプレイ(HMD)の構成を示す図。 環境マップの構成を示す図。 環境マップ表示処理のフローチャート。 高解像度環境マップ表示処理のフローチャート。 先読み手法の概念図。 高解像度環境マップ先読み処理のフローチャート。 先読み時の解像度選択処理のフローチャート。 キャッシュを用いた環境マップ表示処理のフローチャート。 移動を伴う環境マップ表示処理のフローチャート。 撮像装置の概念図。 環境マップ先読み処理のフローチャート。
 以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
 <第1実施形態>
 (全体構成)
 第1実施形態では、複数の解像度の環境マップを加速度情報に応じて読み出し、ヘッドマウントディスプレイ(HMD)に表示するための画像処理装置を例に説明する。なお、本発明はHMDに限らず、眼鏡型ディスプレイなど同様の装置への適用が可能である。
 図1は、第1実施形態に適用可能な画像処理装置のハード構成を示すブロック図である。画像処理装置は、CPU101、メインメモリ102、記憶装置103、GPU104、バス106を有する。まず、CPU101は、演算処理や各種プログラムを実行する。メインメモリ102は、画像処理に必要なプログラムやデータを保持している。またメインメモリ102は、CPU101による画像処理の作業領域としても使用される。記憶装置103は、画像処理プログラムや複数の画像データを蓄積する装置であり、例えばハードディスクドライブ(HDD)が用いられる。GPU104は、画像データやGUIを表示するための外部の表示装置であるHMD105とI/F部(不図示)により接続されている。GUI104は、表示する画像データを展開し、HMD105に転送する。なおGPU104とHMD105を接続するI/Fは、例えば、赤外線通信や無線LAN等を用いたデータのやりとりを行うことができる。バス106は上述の各構成を接続するバスである。なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本実施形態の主眼ではないので、その説明は省略する。
 図2は、HMD105の構成を模式的に説明する図である。図2(a)に示すようにHMD105は表示部201を有し、さらに表示部201は加速度センサ203、地磁気センサ204、GPSセンサ205が搭載されている。加速度センサ203、地磁気センサ204、GPSセンサ205は、HMD105を装着した観察者の動きを示す動き情報を取得するためのセンサである。加速度センサ2013は、観察者の頭部が左右に動く横方向と、上下に動く縦方向の加速度とを検知し、加速度情報として出力する。地磁気センサ204は、地磁気の向きを検知することによりHMD105の方位を算出し、観察者が視聴している方向を示す角度情報を出力する。GPS(グローバル・ポジショニング・システム)センサ205は、地球上におけるHMD105の位置を測定し、位置情報を取得する。また固定部202は、観察者の頭部に表示部201を固定するため、観察者は耳にかけることができるような構造になっている。つまり観察者の頭部の動きに連動して、表示部201に内蔵された各センサは位置や方向を検出する。
 図2(b)に、表示部201のさらに詳細な構成を示す。図2(b)は、図2(a)に示すHMD105を上方から見たときの表示部201の内部構成を模式的に示している。表示部201は、レンズ207を通すことで、観察者の視野全体を液晶ディスプレイ206により覆うことのできる構造となっている。液晶ディスプレイ206は画像データを表示する。液晶ディスプレイ206には、全方位方向の画像からなる環境マップの一部を切り出した画像データが表示される。これにより観察者は、環境マップの中心位置にいるかのような臨場感のある映像を視聴できる。表示する画像データは、画像処理装置400から転送される。
 図3は、環境マップを説明する図である。図3(a)に、視点位置に対する環境マップの座標系を示す。図3(a)に示すように、観察者の視点位置301からの視線方向は、極座標(θ、φ)を用いて表すことができる。この極座標(θ、φ)を量子化し、量子化された極座標(θ、φ)毎の情報を画像データに置き換えたものが環境マップである。全方位画像や全天周画像とも呼ばれる。環境マップを構成する各画素は輝度ベクトルを保持し、輝度ベクトルの大きさが輝度値を表し、輝度ベクトルの向きは常に視点位置を向いている。すなわち、環境マップは観察者の視点位置301に入射する全周囲の輝度情報である。環境マップを保持するデータ方式としては、図3(b)に示す正距円筒マップ方式と、図3(c)に示す球状マップ方式などがある。図3(b)に示す正距円筒マップ方式は、θを横軸、φを縦軸として2次元の矩形の画像データに変換して輝度情報を保持している。また図3(c)に示す球状マップ方式は、円の中心から円弧に向けた軸を環境マップにおけるφ、円の中心からの回転方向を環境マップにおけるθとして、2次元の円状の画像データに変換して輝度情報を保持している。なお正弦円筒マップ方式および球状マップ方式はいずれも、球状の環境マップを平面に投射するため歪みを生じる。そのため、双方の方式ともHMDにおいて表示する画像データを生成する際には射影変換を行う必要がある。
 (画像処理装置の構成)
 図4は、第1実施形態に適用可能な画像処理装置400の詳細な構成を示す。本実施形態では、各構成をソフトウェアによって実行される形態を例に説明する。
 本実施形態における画像処理装置400は、記憶装置103に記憶された複数の解像度の環境マップから、HMD105の動作に応じて表示候補の画像データを切り出し、表示画像データを生成する。図5に、複数の環境マップを示す。本実施形態における環境マップは、高解像度環境マップ501、中解像度環境マップ502、低解像度環境マップ503の3つの異なる解像度の環境マップが保持されている。なお、本実施形態における環境マップは、正距円筒マップ方式であるとする。各解像度の環境マップは、ブロック画像504に分割され、それぞれ異なるファイルとして記憶装置103に保存されている。そのため画像処理装置400は、必要な解像度のブロック画像のみを読み出すことできる。
 検出結果取得部401は、HMD105から、加速度センサ203により検出された加速度情報や地磁気センサ204により検出された角度情報などの動き情報を取得する。カレント領域決定部409は、角度情報に基づいて観察者が現在視聴している領域をカレント領域601として特定する。図6(a)にカレント領域を説明する図を示す。
 ターゲット領域決定部403は、カレント領域409からカレント領域の位置を取得する。さらにターゲット領域決定部403は、新たな加速度情報を取得すると、図6(a)に示すようにカレント領域601に対して観察者がこれから視聴しようとする方向を予測し、ターゲット領域602を決定する。
 経路領域決定部404は、ターゲット領域602が決定されると、カレント領域601およびターゲット領域602とに基づいて経路領域603を決定する。経路領域603は、観察者が視聴しようとするターゲット領域602に視線が移動するまでの間に、観察者の視野に入りこむ領域である。
 解像度情報取得部402は、HMD105の表示部201に表示可能な解像度を解像度情報として取得する。必要解像度設定部405は、検出結果取得部401から得られる加速度情報と解像度情報取得部402から得られる解像度情報とに基づいて、次に送信すべき表示画像データの必要解像度を算出する。具体的には解像度情報取得部402は、加速度情報が示す2つの方向への加速度に応じて、経路領域に表示すべき画像データの必要解像度を設定する。また、解像度情報に応じてターゲット領域に表示すべき画像データの必要解像度を設定する。
 表示画像生成部407は、環境マップ取得部406に格納された環境マップのうち、表示する解像度の環境マップを取り出して領域を切り出し、切り出した環境マップを射影変換することにより、表示用画像データを生成する。同じサイズの領域に表示される表示用画像データであっても、より解像度の高い環境マップを切り出して生成された画像データの方が、データ量が大きく、データ転送にも時間がかかる。本実施形態における表示画像生成部407は、観察者が映像の視聴を開始すると始めに、最も低解像度の環境マップから表示用画像データを生成する。その後、表示画像生成部407は、HMD105の動きに応じて表示用画像データを生成する。HMD105に動きが検出された場合には、経路領域に表示するための表示用画像データおよびターゲット領域に表示するための表示用画像データを生成し、順に出力する。なお、表示画像生成部407は予め、接続しているHMD105の表示部201において、表示すべき画像データのサイズ(画角情報)を設定されているものとする。
 送信部407は、表示部201に表示するための表示画像データをHMD105側に転送する。
 (画像処理装置における処理のフロー)
 図7を用いて、画像処理装置400における処理のフローを説明する。CPU100が、図7に示すフローチャートのプログラムをROM102から読み込み実行することにより、画像処理装置400として実現される。
 まず観察者がHMD105を装着し、視聴が開始されるとステップS701において環境マップ取得部406は、記憶装置103から低解像度環境マップ503を読み出し、メインメモリ102に展開する。
 ステップS702においてカレント領域決定部409は、検出結果取得部401がHMD105の地磁気センサ204から取得した角度情報(θ、φ)と、予め保持している表示部201の画角情報とに基づいて、観察者が現在観察するカレント領域を決定する。前述の通り、環境マップには予め角度ごとの輝度情報が保持されている。そこで本実施形態では、角度情報(θ、φ)と環境マップの座標系を対応づけ、画角に応じた領域を設定することにより、カレント領域601を設定する。
 ステップS703において表示画像生成部407は、低解像度環境マップ503を参照し、カレント領域を切り出し、切り出した領域の輝度情報をHMD105の表示部201に表示するための射影変換を実行する。表示画像生成部407により生成された低解像度表示用画像データは、送信部408を介して、HMD105に転送される。低解像度環境マップは既にメインメモリ102に展開されているため、高速に処理できる。また、低解像度環境マップはデータ容量が小さく、処理負荷も高くないために、観察者が視聴する領域の画像データを高速に表示可能となる。
 ステップS705において検出結果取得部401は、HMD105の加速度センサ203から新たな加速度情報(aθ、aφ)が取得されたかどうかを判定する。加速度情報が更新されない場合はステップS706に進み、新たな加速度情報が取得された場合はステップS711に進む。なお、検出結果取得部401は、所定時間毎に加速度情報(aθ、aφ)を取得し、(aθ、aφ)=(0,0)である場合はステップS706に進み、(aθ、aφ)≠(0,0)である場合はステップS711に進むようにしてもよい。
 ステップS706では、カレント領域601に対する表示用画像データを送信した後に、加速度情報(aθ、aφ)が取得されない場合、観察者の頭部に動きがなく、同じカレント領域601を視聴し続けていることを意味する。そこで必要解像度算出部405は、カレント領域601に表示可能であり、新たに表示用画像データの生成が必要な解像度を算出する。必要解像度情報算出部405は、解像度情報取得402からHMD105の表示部201に表示可能な最高解像度を示す解像度情報を取得する。必要解像度算出部405は、解像度情報が示す表示可能な最高解像度以下で、環境マップのうち最も高い解像度を必要解像度として決定する。
 ステップS707において表示画像生成部407は、必要解像度算出部706から得られる必要解像度を参照し、低解像度環境マップより高解像度の表示用画像データを生成する必要があるかどうかを判定する。必要解像度が低解像度環境マップ503以下である場合、解像度の変更はできないので、ステップS721に進む。必要解像度が低解像度環境マップ503の解像度より高い場合は、ステップS708に進む。
 ステップS708において表示画像生成部407は、必要解像度に応じた環境マップから、カレント領域601に対応するブロック画像のみを記憶装置103から読み出し、メインメモリ102に展開する。
 ステップS709において表示画像生成部407は、読み出したブロック画像からカレント領域601を切り出し、切り出した画像データを射影変換することにより、表示用画像データを生成する。
 ステップS710において表示画像生成部407は、表示用画像データを送信部408に出力し、送信部408はHMD105により高解像度な表示用画像データを転送する。その結果、観察者がカレント領域601を視聴し続けている場合は、より高解像度な映像を視聴することができる。
 次に、観察者の頭部が動き、HMD105の加速度センサ203から新たな加速度情報(aθ、aφ)を取得(または(aθ、aφ)≠(0,0))した場合の処理について説明する。ステップS711においてターゲット領域決定部403は、加速度情報(aθ、aφ)に基づいて、ターゲット領域602を決定する。人間の視線はその構造上、図6(c)に示すように、θ方向とφ方向の可動範囲によって限定されている。そこでターゲット領域決定部403は、図6(b)に示すように予め保持している頭部の稼働範囲と加速度情報(aθ、aφ)とから、観察者の頭部の動きを予測し、ターゲット領域602を設定する。ターゲット領域は、カレント領域の中心座標(θc、φc)から一定時間Δt秒に加速度(aθ、aφ)で移動した移動量から算出する。Δt秒後のターゲット領域の中心座標(θt、φt)は、
Figure JPOXMLDOC01-appb-M000001
により算出できる。この中心座標から画角に合わせた領域を設定する。Δtは、人間の頭部を稼働する平均時間として1秒を設定しておく。なお、(θt、φt)が頭部の可動範囲を超える場合は、可動範囲内にターゲット領域を再設定する。
 ステップS712において経路領域算出部404は、カレント領域601とターゲット領域602とから、2つの領域をつなぐ経路領域603を設定する。経路領域はカレント領域とターゲット領域の各頂点を直線でつないだ領域を、全て覆うブロック画像群を算出して決定する。
 ステップS713において表示画像生成部407は、メインメモリ102上の低解像度環境マップ503から、ターゲット領域602および経路領域603の画像データを切り出し、それぞれ射影変換をする。
 ステップS714において表示画像生成部602は、経路領域603の表示用画像データおよびターゲット領域602の表示用画像データを順に送信部408出力する。送信部408は角度情報に合わせて表示部201に各低解像度な表示用画像データを表示するよう制御する。
 ステップS715において必要解像度算出部405は、必要解像度を算出する。ターゲット領域602に対する必要解像度は、ステップ706と同様の方法により決定される。ステップS715において経路領域603に対する必要解像度の算出の詳細については、後述する。
 ステップS716において表示画像生成部716は、ステップS707と同様に、必要解像度算出部706から得られる必要解像度を参照し、低解像度環境マップより高解像度の表示用画像データを生成する必要があるかどうかを判定する。表示用画像データの変更があると判定した場合は、ステップS717に進む。
 ステップS717~ステップS719における表示画像生成部407の処理は、ステップS708~ステップS710と同様である。
 ステップS720においてカレント領域決定部409は、HMD105の地磁気センサ204から所定の間隔で送信される角度情報(θ、φ)とGPSセンサ205から送信される位置情報に基づいて、カレント領域601の位置を更新する。
 ステップS721において画像処理装置400は、HMD105における視聴が終了したかどうかを判定し、終了する場合は画像処理装置400における処理を完了する。また、視聴が継続している場合は、ステップS705に戻り、観察者の頭部の動きに応じて、表示用画像データを生成する。
 図8は、S715における必要解像度取得部402による必要解像度の算出処理のフローチャートである。ステップS801において、HMD105の表示部201の解像度が所定の閾値R以上であるかを判定する。表示部201の解像度の方が閾値R以上の場合、ステップS802に進む。表示部201の解像度が閾値R未満である場合、ステップS805に進む。
 ステップS802において、HMD105から得られる加速度情報(aθ、aφ)に基づいて、加速度の絶対値が所定の閾値A未満であるかどうかを判定する。頭部の動きが早い場合、観察者は、観察者の視線が視聴した方向に辿りつくまでの経路領域についてはあまり映像として視覚できないと推測できる。そこで、加速度の絶対値が閾値A以上である場合、ステップS805に進み、経路領域に対しては比較的低い解像度を設定する。ステップS802において加速度の絶対値が閾値A未満である場合は、ステップS803に進む。
 ステップS803において、aθとaφの大きさを比較する。aφの大きさがaφの大きさ未満である場合はステップS804に進み、aθの大きさがaφの大きさ以上である場合はステップS805に進む。ステップS804において、経路領域603に対する解像度としてターゲット領域602に対応する解像度と同じ解像度を設定する。つまり、経路領域603に対する解像度は、表示部201が表示可能な解像度の環境マップのうち最も高い解像度が決定される。ステップS805においては、経路領域603に対する解像度として、ターゲット領域602に対応する解像度より、1段階解像度を低くした解像度が設定される。例えば本実施形態において、ターゲット領域602に対して高解像度環境マップ501と同じ解像度が決定されている場合、経路領域603に対する必要解像度は、中解像度環境マップ502と同じ解像度が決定される。これは、人間の頭部はθ方向の方がより可動範囲が広いため、広範囲の領域を先読みする必要が生じることを考慮している。すなわち頭部がθ方向に大きく動く場合は、生成する表示用画像データの大きさが大きくなる分、解像度を低くすることによりデータ容量を削減している。
 以上説明したように本実施形態によれば、HMD105を装着した観察者が今後観察する領域をあらかじめ予測し、表示用画像データを生成する。予測に基づいて生成された表示用画像データは、HMD105の表示部201に表示する画像の事前に生成されているため、表示部201は観察者の動きに合わせてリアルタイムに高解像度の映像を表示することができる。
 <第2実施形態>
 第1実施形態では、画像処理装置400が生成した表示用画像データを随時HMD105の表示部201に表示する形態について説明した。第2実施形態では、ターゲット領域603として先読みした画像データをキャッシュ(一時的にメインメモリ102に保持)および削除する手法について説明する。なお、第1実施形態と同一の構成については同一の符号を付し、説明を省略する。
 図9は、人間の頭部の動き特性を説明するための図である。はじめに、頭部901が視点位置902を向いているものとする。次に図9(b)に示すように頭部901がθ方向に回転し、視点位置が視点位置903まで移動する。それ以上首が回転できないない位置まで到達すると、図9(c)に示すように、頭部901は逆回転を行い、元の視点位置902に戻ろうとする可能性が高い特性がある。本実施形態では、この動き特性を利用した画像データのキャッシュ手法を説明する。
 図10は、第2実施形態における処理の全体を示すフローチャートである。ステップS1001において画像処理装置400は、HMD105から加速度センサ203が検出した加速度情報を取得する。
 ステップS1002において画像処理装置400は、角度情報に応じてステップ701からステップS704までの処理を実行し、観察者が視聴しているカレント領域601に表示用画像データを生成する。また、加速度情報に応じてステップS711からステップS719までの処理を実行することにより、加速度方向に応じて、ターゲット領域602の表示用画像データと経路領域603の表示用画像データを生成し、メインメモリ102にキャッシュする。画像処理装置400は、少なくともHMD105から取得した加速度情報が示す方向が反転するまで、つまり逆方向の加速度情報が入力されるまで表示用画像データをメインメモリ102に保持させる。ステップS1003において各領域に対応する表示用画像データを順にHMD105に転送し、ステップS1004において受け取った順に表示用画像データを表示部210が表示する。この時、表示用画像データは、メインメモリ102に保持されたままである。
 ステップS1005においてHMD105が新たな加速度情報を取得し、画像処理装置400に転送する。ステップS1006において、HMD105から取得された加速度情報に基づいて、表示用画像データを生成する。ターゲット領域、経路領域や必要解像度を算出する工程は、第1実施形態と同様に実行する。ただし、生成したい表示用画像データがメインメモリ102にキャッシュされている場合は、新たに環境マップの切り出し、射影変換を行うことなく、メインメモリ102から表示用画像データを読み出す。生成したい表示用画像データがメインメモリ102に保存されていない場合は、第1実施形態と同様に、ターゲット領域および経路領域に対応する表示用画像データを生成する。ステップS1008において表示用画像データがHMD105の表示部201に表示される。ステップS1009において、メインメモリ102から削除する。
 以上により、人間の頭部の動き特性に合わせて、一度生成した表示用画像データが再度視聴される可能性を考慮して、先読みして生成した表示用画像データをキャッシュする。これにより、観察者の動きに合わせてよりリアルタイムかつ少ない処理負荷により高解像度の映像をリアルタイムに表示することができる。
 <第3実施形態>
 第2実施形態では、人間の頭部の動き特性に応じて表示用画像データを制御する方法について開示した。第3実施形態では、観察者の移動(歩行)に合わせて環境マップを切り替える処理について説明する。なお、第1実施形態と同一の構成については同一の符号を付し、説明を省略する。
 図11は、人間の歩行に合わせた環境マップの切り替え方法を説明する概要図である。観察者1101がはじめに環境マップAを観察しているものとする。観察者1101が前進した場合、観察者1101が観察する光景を変化させる必要がある。そのため、環境マップAから環境マップBに切り替える必要がある。このとき、観察者1101がある注視点1102を注視しながら、歩行する場合を考える。前述の実施形態において説明した通り、同じ視線方向の映像を視聴していると、最初は低解像度な環境マップに基づいて生成された表示用画像データが表示され、その後に高解像度な環境マップに基づいて生成された表示用画像データに切り替わる。従って観察者1101は既に高解像度の環境マップAを観察しているので、歩行した結果、位置情報と角度情報に基づいて新たに環境マップBの低解像度な表示用画像データに切り替わると、違和感を感じてしまう。そのため、この違和感を軽減する手法が必要である。
 図12は、第3実施形態における処理の全体を示すフローチャートである。ステップS1201において、HMD105の表示部201は注視点1002における高解像度の環境マップAに基づいて生成された表示用画像データを表示している。ステップS1002では、加速度センサ203により加速度情報、磁気センサ204により角度情報、GPSセンサ205による位置情報を用いて観察者1101の歩行を検知し、その移動情報を動き情報として画像処理装置400に送信する。
 ステップS1003では、移動情報(方向、距離)に応じて観察者1101が移動した後の位置に対応する環境マップBを選択する。ステップS1004において、HMD105は現在表示している注視点1002における環境マップAの解像度を画像処理装置400に送信する。ステップS1005においてHMD105は、CPU(不図示)による制御のもと、現在表示している注視点1002における環境マップAに基づいて生成された表示用画像データを、観察者1101の移動情報に合わせて射影変換し表示する。一方ステップS1006において画像処理装置400は、HMD105の表示している解像度に合わせて、読み出す環境マップBの解像度を設定する。ステップS1007において画像処理装置400は、ステップ記憶装置103からS106において設定した解像度の環境マップBの注視点1002を中心とするカレント領域のブロック画像を読み出し、メインメモリ102に展開する。ステップS1008において画像処理装置400における表示画像生成部407は、読み出したカレント領域の画像データを射影変換し表示用画像データを生成する。ステップS1009では、HMD105の表示部201は、ステップS1008において生成された表示用画像データを表示する。
 以上により、観察者が移動する場合においても、観察者が解像度の変化による違和感を感じることなくリアルタイムに高解像度の映像を表示できる。また、観察者の位置が変わったことにより視点位置に対応する環境マップが変わった場合にも、効率的により高解像度な画像データを生成することができる。
 <その他の実施形態>
 前述の実施形態では、観察者の頭部(または視線)の動きを検知するために、HMD105に搭載された加速度センサを用いて頭部の加速度を検出し、加速度情報を用いる例を説明した。しかしながら、観察者の動きを取得する方法はこれに限らない。例えば、加速度ではなく頭部が動いた時の速度を検出する方法でもよいし、頭部の動きを示す情報としては加速度情報(aθ、aφ)ではなくベクトルによって表された情報を用いてもよい。
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。

Claims (9)

  1.  観察者の視線方向に応じて画像データを表示するための画像処理装置であって、
     解像度の異なる複数の環境マップを記憶する記憶手段と、
     前記観察者の動きを示す情報を動き情報として取得する取得手段と、
     前記観察者に表示しているカレント領域を保持する保持手段と、
     前記カレント領域と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定するターゲット領域決定手段と、
     前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、
     前記複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、
     前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有することを特徴とする画像処理装置。
  2.  前記設定手段は、前記動き情報から得られる前記観察者の動きの速度の大きさに基づいて、前記経路領域に対応する解像度を設定することを特徴とする請求項1に記載の画像処理装置。
  3.  前記動き情報には、横方向の加速度を示す情報と縦方向の加速度を示す情報からなる加速度情報を含み、
     前記設定手段は、縦方向の加速度の方が横方向の加速度よりも大きい場合は第1の解像度を、横方向の加速度の方が縦方向の加速度よりも大きい場合は前記第1の解像度より低い第2の解像度と、前記経路領域に対応する解像度として設定することを特徴とする請求項2に記載の画像処理装置。
  4.  前記経路領域決定手段は、縦方向に狭く横方向に広い領域を経路領域として設定することを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  5.  前記設定手段は、前記画像データを表示する表示手段が表示可能な最高解像度を予め記憶し、前記ターゲット領域に対応する解像度として最高解像度を設定することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。
  6.  さらに、前記生成手段が生成した画像データを保持する保持手段を有し、
     前記保持手段は、前記取得手段が示す動き情報が逆方向の動きを示すまで、前記画像データを保持することを特徴とする請求項3の何れか一項に記載の画像処理装置。
  7.  さらに、前記取得手段は、前記動き情報として前記観察者の移動に関する情報を示す移動情報を取得し、
     前記生成手段は、前記移動情報に応じて読み出す環境マップを切り替えることを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。
  8.  コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至7の何れか一項に記載された画像処理装置として機能させることを特徴とするコンピュータプログラム。
  9.  観察者の視線方向に応じて画像データを表示するための画像処理方法であって、
     前記観察者の動きを示す情報を動き情報として取得し、
     前記観察者に表示しているカレント領域を保持し、
     前記カレント領域と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定し、
     前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定し、
     記憶手段に記憶された解像度の異なる複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定し、
     前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成することを特徴とする画像処理方法。
PCT/JP2014/082982 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム WO2016092698A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/082982 WO2016092698A1 (ja) 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム
JP2016563376A JP6526051B2 (ja) 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム
US14/962,996 US9965830B2 (en) 2014-12-12 2015-12-08 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/082982 WO2016092698A1 (ja) 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2016092698A1 true WO2016092698A1 (ja) 2016-06-16

Family

ID=56106942

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082982 WO2016092698A1 (ja) 2014-12-12 2014-12-12 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US9965830B2 (ja)
JP (1) JP6526051B2 (ja)
WO (1) WO2016092698A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018004950A (ja) * 2016-07-01 2018-01-11 フォーブ インコーポレーテッド 映像表示システム、映像表示方法、映像表示プログラム
JP6278546B1 (ja) * 2017-06-02 2018-02-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019531038A (ja) * 2016-11-08 2019-10-24 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
JP2019532375A (ja) * 2016-07-29 2019-11-07 クアルコム,インコーポレイテッド 仮想現実システムにおける動作反映待ち時間およびメモリ帯域幅を低減するためのシステムおよび方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235810B2 (en) 2015-09-22 2019-03-19 3D Product Imaging Inc. Augmented reality e-commerce for in-store retail
JP6714085B2 (ja) 2015-12-29 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法
GB2577024B (en) * 2017-06-09 2022-08-03 Displaylink Uk Ltd Using headset movement for compression
CN108596834B (zh) * 2018-04-27 2023-11-17 腾讯科技(深圳)有限公司 图像的分辨率处理方法、图像处理装置及系统、存储介质
US11409091B2 (en) * 2019-12-31 2022-08-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11607287B2 (en) 2019-12-31 2023-03-21 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11864841B2 (en) 2019-12-31 2024-01-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2000011151A (ja) * 1998-06-24 2000-01-14 Sfd Kk 画像表示及びデータ読み込みのための装置及び方法
JP2001337645A (ja) * 2000-05-26 2001-12-07 Fujitsu Ltd 表示システム及び記憶媒体
JP2003224846A (ja) * 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 画像処理装置、復号化装置、符号化装置、画像処理システム、画像処理方法、及び、符号化方法
JP2004199291A (ja) * 2002-12-17 2004-07-15 Canon Inc スクロール表示方法及び装置
JP2013093705A (ja) * 2011-10-25 2013-05-16 Olympus Corp 頭部装着型表示装置、プログラム及び画像処理システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324799A (ja) * 1992-05-15 1993-12-07 Hitachi Ltd バーチャルリアリティ制御方法および装置
JPH09305156A (ja) * 1996-05-16 1997-11-28 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法及び装置
JPH11175758A (ja) * 1997-12-11 1999-07-02 Mitsubishi Electric Corp 立体表示方法および装置
JP3403143B2 (ja) * 1999-03-26 2003-05-06 キヤノン株式会社 画像処理方法、その装置および記憶媒体
EP1247401B1 (de) * 1999-12-30 2003-07-02 Swisscom Mobile AG Verfahren für die übermittlung von bilddaten
JP3951654B2 (ja) * 2001-09-18 2007-08-01 日本電気株式会社 画像データ取得システムにおけるサーバ及び端末、その画像データ取得方法、及び画像データ取得プログラム
US20030067476A1 (en) * 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
JP2004072694A (ja) * 2002-08-09 2004-03-04 Sony Corp 情報提供システムおよび方法、情報提供装置および方法、記録媒体、並びにプログラム
JP5268271B2 (ja) * 2007-03-23 2013-08-21 株式会社東芝 画像表示装置および画像表示方法
JP5202584B2 (ja) * 2010-06-24 2013-06-05 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、コンテンツ作成支援装置、画像処理方法、コンテンツ作成支援方法、および画像ファイルのデータ構造
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
JP2013254251A (ja) 2012-06-05 2013-12-19 Nec System Technologies Ltd ヘッドマウントディスプレイ装置、制御方法、及びプログラム
JP6015493B2 (ja) * 2013-02-27 2016-10-26 ブラザー工業株式会社 端末装置、及びプログラム
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
EP4113991A1 (en) * 2014-09-03 2023-01-04 Nevermind Capital LLC Methods and apparatus for capturing, streaming and/or playing back content

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2000011151A (ja) * 1998-06-24 2000-01-14 Sfd Kk 画像表示及びデータ読み込みのための装置及び方法
JP2001337645A (ja) * 2000-05-26 2001-12-07 Fujitsu Ltd 表示システム及び記憶媒体
JP2003224846A (ja) * 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd 画像処理装置、復号化装置、符号化装置、画像処理システム、画像処理方法、及び、符号化方法
JP2004199291A (ja) * 2002-12-17 2004-07-15 Canon Inc スクロール表示方法及び装置
JP2013093705A (ja) * 2011-10-25 2013-05-16 Olympus Corp 頭部装着型表示装置、プログラム及び画像処理システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018004950A (ja) * 2016-07-01 2018-01-11 フォーブ インコーポレーテッド 映像表示システム、映像表示方法、映像表示プログラム
JP2019532375A (ja) * 2016-07-29 2019-11-07 クアルコム,インコーポレイテッド 仮想現実システムにおける動作反映待ち時間およびメモリ帯域幅を低減するためのシステムおよび方法
JP2019531038A (ja) * 2016-11-08 2019-10-24 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
JP6278546B1 (ja) * 2017-06-02 2018-02-14 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018206029A (ja) * 2017-06-02 2018-12-27 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
US20160170488A1 (en) 2016-06-16
JP6526051B2 (ja) 2019-06-05
US9965830B2 (en) 2018-05-08
JPWO2016092698A1 (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
WO2016092698A1 (ja) 画像処理装置、画像処理方法およびプログラム
US10586395B2 (en) Remote object detection and local tracking using visual odometry
US11195049B2 (en) Electronic device localization based on imagery
US9858643B2 (en) Image generating device, image generating method, and program
US10591731B2 (en) Ocular video stabilization
CN107111885B (zh) 用于确定便携式设备的位置的方法、设备及可读存储介质
JP5790345B2 (ja) 画像処理装置、画像処理方法、プログラムおよび画像処理システム
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
EP3291531A1 (en) Methods, devices and systems for automatic zoom when playing an augmented reality scene
CN109561282B (zh) 一种用于呈现地面行动辅助信息的方法与设备
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20170013737A (ko) 헤드 마운트 디스플레이 장치 및 그 동작방법
JP2005038321A (ja) ヘッドマウントディスプレイ装置
US11443719B2 (en) Information processing apparatus and information processing method
KR102437276B1 (ko) 바디 움직임 기반의 클라우드 vr 장치 및 방법
JP2008219390A (ja) 画像閲覧装置
KR101877901B1 (ko) Vr영상을 제공하는 방법 및 그 전자 장치
JP2019215782A (ja) データ差し替え装置、端末、およびデータ差し替えプログラム
JP6639205B2 (ja) 送信装置、送信方法、およびプログラム
Aimone et al. An eyetap video-based featureless projective motion estimation assisted by gyroscopic tracking for wearable computer mediated reality
KR20200027247A (ko) 헬멧 및 통합처리기를 포함하는 시스템 및 그 동작 방법
US20240104766A1 (en) Method and Device for Generating Metadata Estimations based on Metadata Subdivisions
WO2021261099A1 (ja) 情報処理装置、表示範囲決定方法、プログラム
KR101258839B1 (ko) 영상 표시 장치 및 방법
WO2020036099A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14908055

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016563376

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14908055

Country of ref document: EP

Kind code of ref document: A1