WO2016125851A1 - 画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム - Google Patents

画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム Download PDF

Info

Publication number
WO2016125851A1
WO2016125851A1 PCT/JP2016/053334 JP2016053334W WO2016125851A1 WO 2016125851 A1 WO2016125851 A1 WO 2016125851A1 JP 2016053334 W JP2016053334 W JP 2016053334W WO 2016125851 A1 WO2016125851 A1 WO 2016125851A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image projection
projection plane
observation target
data
Prior art date
Application number
PCT/JP2016/053334
Other languages
English (en)
French (fr)
Inventor
小黒 久史
Original Assignee
凸版印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 凸版印刷株式会社 filed Critical 凸版印刷株式会社
Publication of WO2016125851A1 publication Critical patent/WO2016125851A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Definitions

  • the present invention relates to an image processing system, an eye-gaze measurement system, an image processing method, an eye-gaze measurement method, and a program that perform image processing for measuring the eye gaze direction of an observer.
  • This application claims priority based on Japanese Patent Application No. 2015-020247 for which it applied to Japan on February 4, 2015, and uses the content here.
  • a line-of-sight measuring device is known as a device for detecting the direction of the observer's line of sight while moving in a display space where various observation objects are displayed on shelves or stands in stores and exhibition halls. Yes.
  • This line-of-sight measurement device is configured by integrating a line-of-sight measurement function for detecting the line of sight of an observer and a visual field video camera for photographing the front of the observer, and is a wearable line of sight attached to the head of the observer It is put into practical use as a measuring device (see, for example, Patent Document 1 and Patent Document 2).
  • line-of-sight measurement data obtained from the line-of-sight measurement function indicates the direction of the line of sight in a viewpoint coordinate system fixed with respect to the observer's head.
  • a field-of-view video camera fixed with respect to the viewpoint coordinate system simultaneously with the line-of-sight measurement, an object in front of the observer's viewpoint is photographed by a field-of-view video camera fixed with respect to the viewpoint coordinate system, and a field-of-view video image captured by the photographing is obtained.
  • the line-of-sight direction indicated by the line-of-sight measurement data uniquely corresponds to the pixel coordinates of the visual field video image.
  • the position of the observation target indicated by the line-of-sight measurement data in the viewpoint coordinate system can be displayed on the visual field video image.
  • the measurer can specify the gaze location where the observer gazes based on the position of the observation target displayed on the visual field video image.
  • a line-of-sight measurement device and analysis software for example, each of eye mark recorder EMR-9 (registered trademark) and eye mark application software EMR-dTarget (registered trademark) of NAC Image Technology Co., Ltd. is sold. ing.
  • the result of counting the gaze points observed by the observer is displayed on the image obtained by imaging the observation target surface in the display space.
  • the front of a display shelf on which an observation target is displayed in a store is used as the observation target surface, and the distribution of the gazing point observed by the observer and the line of sight movement path are plotted on the image.
  • a method of reproducing the three-dimensional shape of the display space with numerical data a method of generating the three-dimensional shape data of the display space from a plurality of multi-viewpoint captured images obtained by imaging the display space from different directions is known. Then, by mapping a multi-viewpoint captured image as a texture on the generated three-dimensional shape data, an image of an arbitrary observation target surface, for example, a front image of a display shelf, viewed from an arbitrary viewpoint, It can be reproduced as a (computer graphics) image (see, for example, Non-Patent Document 1). For example, if a gaze point marker indicating the distribution of the gaze point and the movement path is drawn on the CG image, it can be used as a report material as an analysis result of the observation behavior.
  • the three-dimensional shape data of the display space obtained from the multi-viewpoint captured image often includes distortion and loss.
  • the CG image is a report material as an analysis result of the observation behavior described above in a state where distortion or a defect is included.
  • the display quality is insufficient as an image to be used for the above.
  • an operator who creates a report manually performs image correction processing of three-dimensional shape data and CG images using a predetermined image processing application, so that the display quality of an image placed on the report or the like is improved. Has improved. For this reason, it is possible to improve the display quality of the images posted in the report, but the work of creating the report places a great burden on the worker and is wasteful in the process of creating the report. It takes time.
  • the present invention has been made in view of such a situation, an image processing system, a line-of-sight measurement system, an image processing method, which can output a high-quality report image without distortion or loss with a small workload.
  • a gaze measurement method and program are provided.
  • the image processing system is an image projection plane that approximates observation target surface data (numerical data) constituting three-dimensional shape data (numerical data) of an observation target.
  • An image projection plane creation unit that generates data
  • a rendering processing unit that texture-maps the captured image of the observation target corresponding to the observation target plane data to the image projection plane data and generates a display image.
  • the image projection plane creation unit uses the shape corresponding to the observation target plane data of the three-dimensional shape data to obtain the image projection plane data corresponding to the shape. It is preferable to provide a plurality.
  • the image projection plane creation unit includes a position based on the observation target plane data corresponding to the observation viewpoint of the observer in the three-dimensional shape data, and the observation target plane It is preferable that the relationship with the position based on the image projection plane data provided for the data is indicated by highlighting each unit region of the observation target plane data and the image projection plane data.
  • the image projection plane creation unit determines the relationship between the position based on the observation target plane data and the position based on the image projection plane data as the observation target plane data and It is preferable to highlight the image projection plane data according to the gradation of each unit area.
  • the image projection plane creation unit determines the relationship between the position based on the observation target plane data and the position based on the image projection plane data as the observation target plane data and It is preferable that the display is highlighted by the display color of each unit area of the image projection plane data.
  • the image projection plane creation unit is based on a distance in the three-dimensional space for each corresponding pixel of the observation target plane data and the image projection plane data.
  • the image projection plane data is generated by statistical processing so that a position based on the image projection plane data is arranged at a predetermined position with respect to a position based on the observation target plane data.
  • the line-of-sight measurement system includes the image processing system according to the first aspect described above, and displays a gaze point where an observer looks at the image projection plane data.
  • the image processing method includes an image projection plane creation process in which an image projection plane creation unit generates image projection plane data that approximates observation target plane data of three-dimensional shape data to be observed, and rendering A rendering process of generating a display image by texture-mapping the captured image of the observation target corresponding to the observation target plane data with respect to the image projection plane data by the processing unit.
  • the line-of-sight measurement method includes the image processing method according to the above-described third aspect, and displays a gaze point where an observer looks at the image projection plane data.
  • the program according to the fifth aspect of the present invention is an image projection plane creation unit that generates image projection plane data that approximates the observation target plane data of the three-dimensional shape data of the observation target.
  • the captured image of the observation target corresponding to the observation target plane data is texture-mapped and operated as a rendering unit that generates a display image.
  • the program according to the sixth aspect of the present invention is an image projection plane creation unit that generates image projection plane data that approximates observation target plane data of three-dimensional shape data of an observation target.
  • a rendering unit that texture-maps a captured image of the observation target corresponding to the observation target plane data and generates a display image, and a display unit that displays a gaze point where the observer gazes the image projection plane data. Operate as a control unit.
  • an image processing system a line-of-sight measurement system, an image processing method, and a line-of-sight measurement that can output a high-quality report image without distortion or loss with a small work load.
  • Methods and programs can be provided.
  • FIG. 1 is a block diagram illustrating a configuration example of a line-of-sight measurement system according to the first embodiment.
  • the line-of-sight measurement system includes an image processing apparatus 1, an imaging apparatus 2, a user observation apparatus 3, a line-of-sight measurement apparatus 4, and a display apparatus 5.
  • the image processing apparatus 1 includes a three-dimensional space reconstruction unit 11, an image projection plane creation unit 12, an imaging direction vector conversion unit 13, a rendering condition setting unit 14, a rendering processing unit 15, an image output unit 16, an imaging data storage unit 17,
  • Each of the global coordinate system data storage unit 18 and the projection image data storage unit 19 is provided.
  • the imaging device 2 is a camera using an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the imaging device 2 is used to obtain a still image by imaging a region including an observation target (object) in a display space from a plurality of different viewpoints. This still image is a pre-captured image.
  • the three-dimensional space reconstruction unit 11 captures an area including an observation object from multiple viewpoints from a pre-captured image that is a two-dimensional image obtained by imaging an actual display space from a plurality of different viewpoint directions.
  • the three-dimensional shape data of the display space in the global coordinate system is reconstructed from the pre-captured image obtained by the above.
  • the three-dimensional space reconstruction unit 11 adds the pre-captured image identification information to the pre-captured image obtained by imaging by the imaging device 2, and associates the pre-captured image identification information with the pre-captured image.
  • the 3D space reconstruction unit 11 reconstructs the 3D shape data of the display space, and obtains feature points obtained for each pre-captured image, specifically, a camera captured image, a camera captured direction vector, and a camera captured image.
  • Each of the coordinates, the camera attitude angle, and the projection transformation matrix is written in the pre-captured image table stored in the imaging data storage unit 17 in association with the pre-captured image identification information of the corresponding pre-captured image.
  • the pre-captured image table is stored in the captured data storage unit 17.
  • the three-dimensional space reconstruction unit 11 extracts feature point coordinates (for example, locations where the brightness changes in the same manner) that are the coordinates of the feature points. Then, the three-dimensional space reconstruction unit 11 associates feature points (matching processing) between a plurality of pre-captured images obtained by imaging the display space from multiple viewpoints.
  • the three-dimensional shape of the captured display space is reproduced on a computer from a plurality of two-dimensional images obtained by the imaging device 2 imaging the display space.
  • PhotoScan registered trademark of Agisoft Corporation is used as a function for reproducing the three-dimensional shape of an object in real space on a computer in this way.
  • the three-dimensional space reconstruction unit 11 obtains the three-dimensional coordinates in the global coordinate system of the three-dimensional space of each feature point from the correspondence between the feature points by the principle of stereo measurement. Further, the 3D geometric information of the observation object in the actual display space is acquired using a laser measurement method, and the 3D coordinates indicating the 3D shape of the observation object in the global coordinate system are obtained from the 3D geometry information. May be.
  • the three-dimensional space reconstruction unit 11 forms a polyhedron (an assembly of polygons) by assigning a plane between coordinate points with each coordinate point arranged in the global coordinate system as a vertex, and is reproduced. Forming the outer surface of the three-dimensional image data.
  • the data structure of the three-dimensional shape data may be any data format that can represent a three-dimensional shape, such as point cloud data and volume data, instead of a polygon as an aggregate of polygons.
  • the three-dimensional shape data is indicated by data (for example, coordinate values) indicating a three-dimensional shape object including a display shelf in an actual display space and a display object (observation target) displayed on the display shelf. Coordinate data).
  • the three-dimensional space reconstruction unit 11 writes and stores the three-dimensional shape data of the display space reconstructed in the created global coordinate system in the global coordinate system data storage unit 18.
  • FIG. 2 is a diagram illustrating a configuration example of a table of pre-captured images that are written and stored in the captured data storage unit 17.
  • pre-captured image identification information for each pre-captured image, pre-captured image identification information, captured image address, feature point data, camera imaging coordinates, camera imaging direction vector, camera attitude angle, and image projection conversion matrix are each captured data storage unit 17.
  • the pre-captured image identification information is identification information for identifying the pre-captured image.
  • the captured image address indicates an address where a pre-captured image is stored.
  • the feature point data is data indicating, for example, feature points such as RGB (Red Green Blue) gradation in the pre-captured image and its coordinate points.
  • the camera imaging coordinates indicate the position of coordinates in the global coordinate system of the imaging device 2 when a pre-captured image is acquired.
  • the camera imaging direction vector is a vector indicating the imaging direction of the imaging device 2 when a pre-captured image is acquired.
  • the camera posture angle is a posture angle of the imaging device 2 when a pre-captured image is acquired.
  • the image projection transformation matrix is a matrix used for coordinate transformation in which coordinates in the global coordinate system are projected onto a pre-captured image and plotted.
  • the image projection plane creation unit 12 performs rendering on a plane having a three-dimensional shape corresponding to the observation viewpoint (described later) of the observer input by the operator, and performs image projection plane data (smoothness with less unevenness). Create the correct side).
  • 3A and 3B are conceptual diagrams illustrating image projection plane data generation processing by the image projection plane creation unit 12 in the first embodiment. 3A and 3B show that the image projection plane data and the three-dimensional shape data are displayed so that the relationship between the position based on the observation target plane data constituting the three-dimensional shape data and the position based on the image projection plane data becomes clear. The observation target surface data is viewed from above. FIG.
  • FIG. 3A is a diagram for explaining an initial setting in which an operator sets image projection plane data in a three-dimensional space.
  • FIG. 3B shows that the plane based on the image projection plane data is arranged at the most appropriate position for the observation plane data with respect to the position of the plane based on the observation target plane data of the three-dimensional shape data corresponding to the observation viewpoint of the observer. It is a figure explaining the arrangement
  • the position based on the observation target surface data is a surface represented by three-dimensional shape data indicating an object viewed from the observation viewpoint that is the viewpoint observed by the observer.
  • the position based on the image projection plane data is a virtual plane approximated by reducing the unevenness (unevenness component) included in the observation target plane data, and the texture of the three-dimensional shape data viewed from the viewpoint observed by the observer
  • a surface on which image data of a pre-captured image is mapped and rendered is shown. This prevents the occurrence of image distortion or pixel loss in the display image observed by the observer, as compared with the case where the image data of the pre-captured image is mapped to the observation target surface data of the three-dimensional shape data.
  • the quality of the display image can be improved.
  • the surface represented by the observation target surface data may be simply referred to as “observation target surface”.
  • the surface represented by the image projection plane data may be simply referred to as “image projection plane”.
  • the shape represented by the three-dimensional shape data may be simply referred to as “three-dimensional shape”.
  • the operator designates the position and angle of the observation viewpoint 602 for observing the observation target surface 600A in the three-dimensional shape 600 to be observed in the three-dimensional space.
  • the image projection plane creation unit 12 forms the image projection plane 601 in accordance with the observation visual field 603 spreading from the observation viewpoint 602.
  • the operator can arrange the 3D shape body 600 in FIG. 3A at the position of the 3D shape body 600 ′ so that the operator can observe the observation target surface 600A.
  • the image projection surface 601 is moved to a position where the observation target surface 600A of the three-dimensional shape body 600 is substantially on the same plane as the image projection surface 601.
  • the observation target surface 600A ′ of the three-dimensional shape body 600 ′ is arranged on substantially the same plane with respect to the image projection surface 601.
  • the observation target surface is a surface that the observer observes in the three-dimensional shape 600, and refers to, for example, a surface on which products such as PET bottles are arranged on an actual display shelf.
  • “arranged on the same plane” means that the observation target surface 600A ′ is arranged in parallel to the image projection surface 601 and the image projection surface 601 is in contact with the observation target surface 600A ′. It has shown the state arrange
  • the three-dimensional shape 600 is fixed with respect to the global coordinate system.
  • the processing can be performed by any method. On display, there is no difference between the two cases described above. In the present embodiment, a case will be described in which the three-dimensional shape 600 is fixed with respect to the global coordinate system, and the mutual positional relationship is set by moving or rotating the observation viewpoint 602 and the image projection plane 601.
  • the three-dimensional observation target surface 600A ′ included in the observation visual field 603 extending from the observation viewpoint 602 toward the image projection plane 601 is rendered, and the rendered CG image of the observation target surface is used as a report image.
  • the observation target surface 600A ′ on the surface of the three-dimensional shape 600 is regarded as a substantially flat surface with respect to the range of the observation visual field 603.
  • the image projection plane 601 that is a single plane is set in correspondence with the observation target surface with unevenness.
  • a gaze point marker that indicates a gaze point on a display shelf that can be regarded as a flat surface
  • a pre-captured image obtained by imaging the object as close as possible to the surface to be observed in the actual display space is reported. This is used for texture mapping when creating an image.
  • the image projection plane 601 can correspond to angle data based on an inclined display surface, that is, an observation target surface having an inclination with respect to the depth direction of the three-dimensional sky coordinates viewed from the observation viewpoint, and can approximate this observation target surface.
  • a function of adjusting the angle may be provided.
  • the three-dimensional shape body 600 can be adjusted to an arbitrary angle and position with six degrees of freedom relative to the image projection plane 601.
  • the three-dimensional shape of the display surface has a predetermined angle in the depth direction of the three-dimensional coordinates when viewed from the observation viewpoint, the three-dimensional shape is changed with respect to the image projection surface corresponding to the display surface.
  • a combined angle may be provided.
  • the adjustment of the positions of the observation viewpoint 602, the observation visual field 603, and the image projection plane 601 has been described as being performed manually by the operator, but the present invention is not limited to this embodiment.
  • the positions of the observation viewpoint 602, the observation visual field 603, and the image projection plane 601 can be automatically adjusted using the image projection plane creation unit 12 and the rendering condition setting unit 14.
  • the rendering condition setting unit 14 adjusts the angle and position of the observation viewpoint 602 so that the observation target plane faces the observation viewpoint 602 and the observation target range is within the observation visual field 603, so that the three-dimensional shape body 600 ′ is It adjusts so that it may become the position shown to FIG. 3B with respect to the observation viewpoint 602.
  • the image projection plane creation unit 12 adjusts the distance between the image projection plane 601 and the observation viewpoint 602 so as to match the observation target plane in the adjusted three-dimensional shape 600 ′.
  • the imaging direction vector conversion unit 13 writes and stores the sampled camera imaging direction vector and the camera attitude angle in the camera coordinate system (imaged at the observation viewpoint 602) in the imaging data storage unit 17. Further, the imaging direction vector conversion unit 13 converts the camera imaging direction vector detected in the three-dimensional space in the obtained camera coordinate system from the camera coordinate system to the global coordinate system using the camera attitude angle. Then, the imaging direction vector conversion unit 13 writes and stores the camera imaging direction vector in the pre-captured image table stored in the imaging data storage unit 17 in association with the captured image identification information of the captured image.
  • the rendering condition setting unit 14 sets a flag indicating the viewpoint coordinates indicating the observer's viewpoint, the display mode of the three-dimensional shape data, the rotation angle of the observer's viewpoint, and the presence / absence of the gazing point marker set by the operator through the input operation.
  • the viewpoint coordinates are coordinates indicating the observation viewpoint of the observer who watches the observation target surface in the three-dimensional shape data.
  • the display mode is information indicating display mode settings such as a mode in which 3D shape data is displayed as it is, a mode in which polygon data is displayed, or a mode in which feature points are displayed.
  • the rotation angle indicates an angle obtained by rotating the observer's viewpoint.
  • the observation target surface 600A of the three-dimensional shape 600 is This is associated with the angle formed by the observation target surface 600A ′ of the three-dimensional shape body 600 ′ of FIG. 3B.
  • the flag indicating the presence / absence of the gazing point marker adds the gazing point marker that the observer gazes to the image projection plane 601 rendered using the image data of the pre-captured image corresponding to the observation target plane 600A ′. It is data indicating whether or not.
  • FIG. 4 is a diagram illustrating a configuration example of a rendering condition table written and stored in the projection image data storage unit 19.
  • the rendering condition table rendering conditions including each of the observation viewpoint coordinates, the display mode, the rotation angle, and the gazing point marker presence / absence flag are written and stored in correspondence with the report image information.
  • the report image information is identification information for identifying image data attached to the report.
  • the report image is created by rendering the observation target surface using the image data of the pre-captured image according to the rendering condition indicated by the corresponding report image information.
  • the display mode is information indicating display mode settings such as a mode in which 3D shape data used as a report image is displayed as it is, a mode in which it is displayed in a polygon shape, or a mode in which it is displayed as a point cloud of feature points.
  • the rotation angle indicates an angle obtained by rotating the observation viewpoint for generating the report image. For example, in the three-dimensional space in which the three-dimensional shape body 600 is arranged, the angle formed by the observation target surface 600A of the three-dimensional shape body 600 in FIG. 3A and the observation target surface 600A ′ of the three-dimensional shape body 600 ′ in FIG.
  • the flag indicating the presence or absence of the gazing point marker is for the image projection surface 601 rendered using the image data of the pre-captured image corresponding to the observation target surface 600A ′ of the three-dimensional shape 600 ′ used as the report image. This is data indicating whether or not to add a gazing point marker to be watched by the observer.
  • the rendering processing unit 15 stores, for example, a pre-captured image having a camera posture angle and camera imaging coordinates close to the rotation angle and coordinates of the observation viewpoint as a report candidate image, and is stored in the imaging data storage unit 17. From the pre-captured image table. Then, the rendering processing unit 15 performs rendering processing for projecting the extracted pre-captured image on the image projection plane using the camera imaging coordinates, the camera attitude angle, and the projection conversion matrix, and generates image data. Here, the rendering processing unit 15 reads the projection transformation matrix from the pre-captured image table stored in the captured data storage unit 17 in correspondence with the pre-captured image.
  • the image output unit 16 generates a display image based on the observation target plane data constituting the three-dimensional shape data, which is a two-dimensional image projected on the two-dimensional plane image projection plane generated by the rendering processing unit 15 performing the rendering process. Then, it is written and stored in the projection image data storage unit 19. Further, the image output unit 16 is a two-dimensional image obtained by projecting the three-dimensional shape data and the observation target surface on which the pre-captured image is rendered (texture mapping described later) onto a display screen that is a two-dimensional plane of the display device 5. indicate.
  • the image output unit 16 gazes the observer on the surface of the three-dimensional shape data obtained by the line-of-sight measurement device 4 described later.
  • the gaze point is used as a gaze point marker and projected onto the two-dimensional image on the display screen together with the three-dimensional shape data and the image projection plane using the same projection transformation matrix.
  • the imaging data storage unit 17 stores imaging data of a pre-captured image and the pre-captured image table shown in FIG.
  • the global coordinate system data storage unit 18 stores and stores three-dimensional shape data in the global coordinate system.
  • a rendering condition table shown in FIG. 4 and a display image based on observation target plane data constituting three-dimensional shape data are written and stored.
  • the user observation device 3 is fixed by being mounted on the observer's head.
  • the user observation device 3 is fixedly attached to a helmet or the like worn by an observer in an experiment in which a gaze point is detected, and includes a user imaging unit 31 and a user gaze measurement unit 32.
  • the user imaging unit 31 is, for example, a video camera using an image sensor such as a CCD (charge coupled device) or a CMOS (complementary metal oxide semiconductor), and the direction in which the face of the observer moving in the display space is facing ( A moving image (video) in front of the observer's head, that is, image data (field image) of the observer's visual field in the display space is captured.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • this user imaging unit 31 is an apparatus (means) that can obtain an image of the observer's field of view, it is not a video camera but a still camera that captures image data of the field of view corresponding to the stop point determined from the line-of-sight measurement data. May be used.
  • the user gaze measurement unit 32 includes, for example, a fixed eye camera fixed to the helmet, and acquires an eyeball image indicating the gaze direction of the observer in the camera coordinate system of the visual field image of the user imaging unit 31. Find the gaze direction. That is, the user gaze measurement unit 32 detects a gaze direction vector indicating the gaze direction of the observer from the gaze measurement data.
  • This eyeball image includes, for example, information on the center of the pupil in the eyeball image of the observer.
  • the line-of-sight measurement device 4 obtains a gaze point as a gaze point that the observer gazes at the three-dimensional shape data, and outputs the coordinates of the gaze point in the three-dimensional coordinate system.
  • the display device 5 displays on the display screen a display image based on the observation target surface data constituting the three-dimensional shape data generated by the operator.
  • FIG. 5A to 5C are conceptual diagrams illustrating mapping of image data of a pre-captured image on an image projection plane.
  • FIG. 5A shows a correspondence relationship between each of the pre-captured images obtained by imaging with the imaging device 503 and the imaging device 505 and the image projection plane region 501 of the image projection plane 500.
  • FIG. 5B shows a correspondence relationship between the pre-captured image 507 obtained by imaging by the imaging device 503 and the image projection plane area 501 provided for the image projection plane 500.
  • FIG. 5C shows a correspondence relationship between the pre-captured image 509 obtained by imaging by the imaging device 505 and the image projection plane area 501 provided for the image projection plane 500.
  • a pre-captured image captured as opposed to the image projection plane 500 corresponding to the observation target surface is selected as much as possible. It is desirable to use.
  • the pre-captured image 507 includes an image projection plane area 501 ⁇ / b> A that is a part of the image projection plane area 501.
  • the pre-captured image 509 includes an image projection plane area 501B that is another part of the image projection plane area 501.
  • the image data of the pre-captured image 509 corresponding to the image projection plane area 501A and the image data of the image projection plane area 501B are overlapped and used for mapping the image projection plane 500. It is possible to obtain an image of the surface of the observation target surface without any defects.
  • the rendering processing unit 15 stores a pre-captured image having a camera imaging direction vector close to the observation vector direction of the observation visual field 502 from the observer viewpoint (observation viewpoint) 602 in the imaging data storage unit 17. Search from the pre-captured image table.
  • the rendering processing unit 15 reads the pre-captured image 507 and the pre-captured image 509 of each of the imaging device 503 and the imaging device 505 from the pre-captured image table stored in the imaging data storage unit 17. At this time, the rendering processing unit 15 also stores the camera coordinate position, the camera attitude angle, and the projection transformation matrix corresponding to each of the pre-captured image 507 and the pre-captured image 509, and the pre-captured image stored in the imaging data storage unit 17. Read from the table.
  • the rendering processing unit 15 obtains vertex coordinates of the image projection plane area 501A (rectangle) of the image projection plane area 501 at the coordinates of the observation visual field 502 using the camera coordinate position, the camera attitude angle, and the projection conversion matrix. Similarly, the rendering processing unit 15 obtains the vertex coordinates of the image projection plane area 501B (rectangle) of the image projection plane area 501 at the coordinates of the observation visual field 502 using the camera coordinate position, the camera attitude angle, and the projection conversion matrix.
  • the rendering processing unit 15 extracts the area A image data of the area corresponding to the image projection plane area 501A from the data of the pre-captured image 507 based on the vertex coordinates of the image projection plane area 501A obtained as described above.
  • Area B image data of an area corresponding to the image projection plane area 501B is extracted from the data of the pre-captured image 509 based on the vertex coordinates of the plane area 501B.
  • the rendering processing unit 15 performs rendering processing by texture-mapping each of the extracted region A image data and region B image data with respect to the image projection plane region 501.
  • the rendering processing unit 15 texture-maps each of the area A image data and the area B image data to the image projection plane area 501 using different layers. Therefore, the operator can arbitrarily set whether to create an actual report image in any layer according to the image quality of the overlapping portion of the area A image data and the area B image data.
  • FIG. 6 is created by mapping a pre-captured image directly on a polygon having a concavo-convex component of the observation target surface data in the three-dimensional shape data (concave / convex data, hereinafter simply referred to as “concave / convex”).
  • An example of a report image is shown.
  • a circular mark 1002 in the figure indicates a gazing point marker that indicates a gaze point that the observer gazes at.
  • FIG. 6 when a pre-captured image is mapped directly onto a polygon having irregularities, the pixel data of a shadow portion in the irregularities when viewed from the observation viewpoint is not reflected in the report image.
  • FIG. 7 shows an example of a report image created by mapping a pre-captured image on an image projection plane formed corresponding to the observation target plane in the three-dimensional shape data.
  • a circular mark 1002 in the figure indicates a gazing point marker indicating a gaze point where the observer gazes, as in FIG.
  • FIG. 7 by mapping the pre-captured image on the image projection plane using the processing described in FIGS. 5A to 5C, pixel data missing in the region 1000 in FIG. The problem of observing image distortion in the area 1001 is eliminated, and the quality of the report image can be improved. For this reason, the image of FIG. 7 has sufficient quality as a report image and can be used effectively.
  • Adjustment method A Comparison display of texture-mapped image projection surface and observation target surface A method for displaying the distance between the image projection plane and the observation target plane in terms of shade (gradation) of the display image.
  • the distance between the image projection plane and the observation target plane is displayed in the color of the display image. Displaying the image projection plane and the observation target plane with different display colors.
  • the above-described four types of adjustment methods will be sequentially described.
  • the adjustment method A is mainly used for adjusting the distance between the image projection surface and the observation target surface
  • each of the adjustment method B, the adjustment method C, and the adjustment method D is mainly used for adjustment to make the image projection surface and the observation target surface parallel.
  • a Reference image obtained by texture mapping the pre-captured image on the observation target surface of the three-dimensional shape data, and for reporting the texture image of the pre-captured image on the image projection plane corresponding to the observation target surface Compare with images superimposed.
  • each of the reference image and the report image is superimposed and displayed as a translucent image.
  • This semi-transparent superimposed display of the reference image and the report image is set in the display mode under the rendering conditions.
  • the reference image in which the pre-captured image is mapped to the observation target surface of the three-dimensional shape data is associated with the same coordinate system as the gaze point regardless of the image projection surface provided corresponding to the observation target surface. Yes.
  • the report image in which the pre-captured image is mapped on the image projection plane changes in display size depending on the distance between the image projection plane and the observation viewpoint. If not, the position of the gaze marker indicating the gaze location will shift.
  • FIG. 8 is an image for explaining the adjustment of the distance between the image projection plane and the observation target plane of the three-dimensional shape data.
  • a reference image obtained by texture mapping the pre-captured image on the polygon on the observation target surface of the three-dimensional shape data and a report image obtained by texture mapping the pre-captured image on the image projection surface are superimposed and displayed. ing.
  • the image projection plane does not coincide with the observation target plane, a positional shift of each image between the reference image and the report image occurs.
  • the reference image and the report image are double images. Has been observed.
  • FIG. 9 is an image for explaining the adjustment of the distance between the image projection plane and the observation target plane of the three-dimensional shape data.
  • a reference image obtained by texture mapping the pre-captured image on the polygon of the observation target surface of the three-dimensional shape data and a report image obtained by texture mapping the pre-captured image on the image projection plane The image is superimposed.
  • the image projection plane is coincident with the observation target plane, there is no positional deviation between the images in the reference image and the report image.
  • the reference image and the report image are doubled. Not observed as an image.
  • the operator translates or rotates the observation viewpoint and the three-dimensional shape data so as to reduce the double image in the superimposed image of the reference image and the report image in FIG.
  • the position of the observation target surface with respect to the image projection surface is adjusted.
  • the image projection plane creation unit 12 and the rendering condition setting unit 14 change the relative position of the projection image plane with respect to the observation target plane in accordance with the numerical values (distance, angle) adjusted by the operator,
  • the rendering processing unit 15 performs texture mapping of the pre-captured image on the adjusted observation target surface.
  • the operator adjusts the position of the observation target surface by the adjustment method A described above, thereby matching the surfaces of the observation target surface and the image projection surface, and generates a report image.
  • the distance difference between the observation target surface of the three-dimensional shape data and the image projection surface corresponding to the observation target surface is displayed as a gradation image (displaying a grayscale image).
  • the image projection plane creation unit 12 obtains the distance between the observation target plane and the image projection plane for each display pixel, and calculates the median gradation degree between the observation target plane and the image projection plane in the gradation degree range. Is given to a point equal to the distance at the center of the observation target surface, or a point where the observation target surface and the image projection surface coincide (distance is 0). Further, the higher the degree of gradation (lighter color) is given as the observation target surface moves to the back side with respect to the image projection surface. On the other hand, as the observation target surface moves closer to the image projection surface, a lower gradation (dark color) is given.
  • the operator translates or rotates the observation viewpoint and the three-dimensional shape data so that the gray level of the image on the entire surface of the gray level image is balanced in the vicinity of the central gray level of the gray level range. As a result, the position and angle of the observation target surface with respect to the image projection surface are adjusted.
  • FIG. 10 is a diagram illustrating an example of a grayscale image showing a difference in distance between an observation target surface and an image projection surface corresponding to the observation target surface.
  • the image on the right side of the display shelf tends to be displayed in dark color, while the image on the left side tends to be displayed in light color.
  • the right side of the observation target surface is inclined to the near side with respect to the image projection plane, and the left side of the observation target surface is inclined to the back side with respect to the image projection plane.
  • the grayscale balance of the grayscale image is not balanced, and the grayscale of the image on the entire surface of the grayscale image is uniform.
  • FIG. 11 is a diagram illustrating an example of a grayscale image showing a distance difference between an observation target surface and an image projection surface corresponding to the observation target surface.
  • FIG. 11 it can be seen that the right and left images on the display shelf are balanced with the left and right images. Similarly, it can be seen that there is a good balance between the upper and lower images on the display shelf. This indicates that the observation target plane and the image projection plane are substantially parallel, and the observation target plane is not inclined with respect to the image projection plane.
  • the grayscale image indicating the difference in distance from the observation target surface corresponding to the image projection plane the grayscale balance between the left and right and top and bottom of the grayscale image is balanced, and the grayscale of the image on the entire surface of the grayscale image is uniform, and the observation target It can be intuitively determined that the plane and the image projection plane are substantially parallel.
  • the operator sets the observation viewpoint and the three-dimensional shape data so that the distance between the image projection plane and the observation target plane in FIG.
  • the position of the observation target plane with respect to the image projection plane is adjusted by parallel translation or rotation.
  • the image projection plane creation unit 12 changes the relative position of the projection image plane with respect to the observation target plane in accordance with the numerical values (distance and angle) adjusted by the operator, and the rendering processing unit 15 performs the adjustment. Texture mapping of the pre-captured image is performed on the subsequent observation target surface.
  • the operator adjusts the position of the observation target surface by the adjustment method B described above, thereby matching the surfaces of the observation target surface and the image projection surface and generating a report image.
  • the distance difference between the observation target surface of the three-dimensional shape data and the image projection surface corresponding to the observation target surface is displayed as a color image.
  • the image projection plane creation unit 12 obtains a distance from the pixel on the image projection plane corresponding to the pixel on the observation target plane, and determines a predetermined first color (for example, yellow) as the observation target plane and the image projection plane. Are assigned to the points (distance is 0).
  • a predetermined second color for example, red
  • a predetermined third color for example, blue
  • the observation target plane and the image projection plane are increased as the distribution of the yellow region increases in the entire color image. And are in agreement. Therefore, the operator can translate or rotate the observation viewpoint and the three-dimensional shape data so that the yellow region of the image on the entire surface of the grayscale image coincides with the main observation target, thereby allowing the image projection plane to The position of the observation target surface with respect to is adjusted.
  • the observation target surface of the three-dimensional shape data and the image projection surface corresponding to this observation target surface are displayed in different colors (display of a color image).
  • the image projection plane creation unit 12 displays the pixels on the observation target plane in a predetermined first color (for example, blue). Further, the pixels on the image projection surface are displayed in a predetermined second color (for example, red).
  • a predetermined first color for example, blue
  • a predetermined second color for example, red
  • the observation target with respect to the image projection plane so that the red area and the blue area are appropriately distributed in the left, right, top and bottom in the observation target plane and the projection image plane and color image corresponding to the observation target plane.
  • Adjust the angle of the face That is, the operator translates or rotates the observation viewpoint and the three-dimensional shape data with respect to each other so that the distribution of the blue region and the red region on the entire surface of the color image is balanced.
  • the position of the three-dimensional shape data is adjusted so that the observation target plane is parallel to the projection plane.
  • FIG. 12 is a flowchart illustrating an operation example of processing for generating a report image in the visual line measurement system according to the first embodiment.
  • the following processing will be described on the assumption that the line-of-sight measurement device specifies a gaze point on the observation target surface of the three-dimensional shape data.
  • the imaging device 2 writes the image data of the pre-captured image obtained by imaging into the imaging data storage unit 17 together with each parameter (each parameter of the pre-captured image table in the imaging data storage unit 17) at the time of imaging. To remember.
  • the three-dimensional space reconstruction unit 11 generates three-dimensional shape data from the pre-captured image and each parameter of the pre-captured image table corresponding to the pre-captured image, and the generated three-dimensional shape data is globally coordinated.
  • the data is stored in the system data storage unit 18.
  • the adjustment method A corresponding to the distance adjustment
  • the adjustment method B adjusting the angle using the point where the distance between the observation target surface and the image projection surface is equal to the distance at the center of the observation target surface as an intermediate color
  • Step S11 The image projection plane creation unit 12 reads the three-dimensional shape data used for creating the report image and the coordinate point (three-dimensional space) of the gaze point based on the rendering condition input by the operator.
  • the rendering conditions include the observation viewpoint coordinates, the display mode, the rotation angle, and the presence / absence of a gazing point marker shown in FIG.
  • the display mode is a condition that indicates a display method of three-dimensional shape data and which adjustment method is used. In this description, for example, the operator displays the observation target surface of the three-dimensional shape data as a polygon, and the distance between the observation target surface and the image projection surface is a gray value with the distance at the center of the image projection surface being an intermediate value. Display mode to display.
  • Step S12 The image projection plane creation unit 12 outputs the read three-dimensional shape data to the image output unit 16. Then, the image output unit 16 displays the three-dimensional shape data on the display screen of the display device 5.
  • Step S13 The operator selects an observation viewpoint, a rotation angle indicating the viewpoint direction of the observation viewpoint, and a display mode with respect to the three-dimensional shape data displayed on the display screen of the display device 5 by an input unit (keyboard or mouse) (not shown).
  • the rendering condition setting unit 14 adds report image information to the observation viewpoint coordinates that are coordinates in the three-dimensional space of the set observation viewpoint. Then, the rendering condition setting unit 14 writes and stores the observation viewpoint coordinates and the rotation angle together with the report image information in the rendering condition table (FIG. 4) of the imaging data storage unit 17.
  • the image projection plane creation unit 12 captures a pre-captured image having camera imaging coordinates and camera attitude angles close to each of the observation viewpoint coordinates and the rotation angle in the rendering condition table of the imaging data storage unit 17. Is read from the pre-captured image table stored in the table. Further, the image projection plane creation unit 12 displays the observation target plane of the three-dimensional shape data corresponding to each of the observation viewpoint coordinates and the observation direction angle on the display screen of the display device 5 via the image output unit 16. Further, the image projection plane creation unit 12 generates an image projection plane corresponding to the observation target plane, and displays the generated image projection plane on the display screen of the display device 5 via the image output unit 16 (FIG. 3A). At this time, the image projection plane creation unit 12 is provided so that the image projection plane faces the observation viewpoint.
  • Step S14 Next, the image projection plane creation unit 12 displays a grayscale image of the image projection plane and the observation target plane based on the rendering condition input by the operator. That is, the image projection plane creation unit 12 determines the distance between the observation target plane and the image projection plane on the display screen of the display device 5 via the image output unit 16 based on the rendering condition input by the operator. Each pixel on the image projection plane is displayed in shades with the distance in the area as an intermediate value.
  • Step S15 The operator observes the grayscale image displayed on the display screen, and rotates the observation viewpoint and the three-dimensional shape data so as to balance the grayscale distribution over the entire gradation displayed in the grayscale. That is, the observation viewpoint coordinates and the rotation angle are adjusted so that the observation target plane is parallel to the image projection plane.
  • the rendering condition setting unit 14 writes and stores the observation viewpoint coordinates and the rotation angle in the rendering condition table of the imaging data storage unit 17.
  • the operator resets the display mode to a mode corresponding to the adjustment method A in order to adjust the distance of the observation target surface with respect to the image projection plane. That is, the display mode is such that the observation target surface of the three-dimensional shape data is displayed as a polygon, and each of the observation target surface and the image projection surface is displayed semi-transparently.
  • Step S16 The rendering processing unit 15 superimposes and displays the respective images of the observation target surface and the image projection surface subjected to texture mapping. At this time, the rendering processing unit 15 texture-maps the image data of the extracted pre-captured image on the polygon on the observation target surface in the three-dimensional shape data. The rendering processing unit 15 texture-maps the image data of the pre-captured image on the image projection plane. Then, based on the rendering condition, the rendering processing unit 15 superimposes each of the texture-mapped observation target surface and the image projection surface as a translucent image (or an image adjusted to a predetermined transparency), and outputs an image. Via the unit 16, a two-dimensional image is projected and displayed on the two-dimensional plane of the display screen of the display device 5.
  • Step S17 When the images of the observation target plane and the image projection plane are displayed in a superimposed manner on the display screen of the display device 5, the operator uses this superimposed display to adjust the distance between the image projection plane and the observation target plane. Do. At this time, since the image projection plane and the observation target plane are parallel to each other, the operator performs control to adjust the distance in the observation line-of-sight direction of the image projection plane with respect to the observation target plane. For example, when the image on which the images of the observation target plane and the image projection plane in FIG. 8 are superimposed and displayed is observed as a double image, the operator sets the distance of the image projection plane with respect to the observation target plane by the input unit.
  • the image projection plane is adjusted by moving the image projection plane in the observation line-of-sight direction with respect to the observation target plane. At this time, the operator moves the image projection plane toward or away from the observation target plane by a predetermined distance unit so that the double display disappears and the image overlaps.
  • Step S18 When the operator finishes adjusting the distance between the observation target plane and the image projection plane, the rendering processing unit 15 hides the three-dimensional shape data and displays only the image projection plane, that is, the image projection plane. Only the report image in which the pre-captured image is texture-mapped (rendered) is displayed.
  • Step S19 the image output unit 16 adds and displays a gaze point marker indicating the gaze point obtained by the line-of-sight measurement device 4 on the report image based on the rendering condition. That is, the image output unit 16 determines the gaze location coordinates corresponding to the coordinates on the observation target surface of the 3D shape data from the gaze location coordinates which are coordinates in the 3D space of the gaze location obtained by the gaze measurement device 4. Extract. Then, the image output unit 16 arranges the gazing point marker with respect to the gaze point coordinates extracted with respect to the observation target surface in the three-dimensional space, and displays the gazing point marker on the two-dimensional plane of the display screen of the display device 5. Project to the projection plane.
  • Step S20 On the display screen of the display device 5, the operator uses the gazing point marker and an image in the report image (for example, a target image such as an image of a plastic bottle that is the appearance of the product in the report image shown in FIG. 9). Check to confirm the positional relationship. Then, when there is no problem in the positional relationship with the gazing point marker of the image, that is, when the gazing point marker overlaps the target image, the operator performs control to end the process from the input unit. On the other hand, when there is a problem in the positional relationship with the gazing point marker of the image, that is, when the gazing point marker does not overlap the target image, the operator performs control to perform reprocessing from the input unit.
  • an image in the report image for example, a target image such as an image of a plastic bottle that is the appearance of the product in the report image shown in FIG. 9.
  • the image projection plane creation unit 12 advances the process to step S21 when the control for terminating the process is performed, and advances the process to step S13 when the control for performing the reprocessing is performed.
  • the process proceeds to step S13 because when the position of the gazing point marker is deviated from the position of the target image, the observation target plane is often not arranged in parallel to the image projection plane. It is reasonable to start over from the stage of adjusting the angle formed by the image projection plane and the observation target plane.
  • Step S21 When the processing is completed, the image output unit 16 writes and stores it in the projection image data storage unit 19 together with the report image information.
  • an image projection plane that is substantially parallel to the observation target plane of the three-dimensional shape data is provided, and a pre-captured image is texture-mapped to the image projection plane to generate a report image.
  • a pre-captured image is texture-mapped to the image projection plane to generate a report image.
  • FIG. 13 is a conceptual diagram illustrating image projection plane generation processing by the image projection plane creation unit 12 in the second embodiment.
  • the image projection surface and the observation target surface of the three-dimensional shape data are viewed from above so that the positional relationship between the observation target surface of the three-dimensional shape data and the image projection surface becomes clear. .
  • FIG. 13 there is a step 650 on the observation target surface having a three-dimensional shape within the observation field 603 of the observation viewpoint 602, and image projection in which the distance between the concave bottom surface 660 and the convex top surface 670 of the step 650 is the same. It shows the case where there is a degree that cannot be expressed on the surface.
  • two image projection planes 601_1 and 601_2 are provided on the observation target plane of the three-dimensional shape data 700. That is, on the observation target surface of the three-dimensional shape data 700, the image projection surface 601_1 is provided for the concave bottom surface 660 of the step 650 on the observation target surface, and the image projection surface 601_2 is provided for the convex top surface 670.
  • the image projection surface creation unit 12 arranges the image projection surface 601_1 in correspondence with the concave bottom surface 660 of the observation target surface. Further, the image projection plane creation unit 12 arranges the image projection plane 601_2 in parallel with the image projection plane 601_2 in correspondence with the convex top surface 670 of the observation target plane. As described in the first embodiment, the image projection plane creation unit 12 performs the control using the adjustment method B so that the convex top surface 670 of the observation target plane is parallel to the image projection plane 601_2. Then, the rendering processing unit 15 texture maps the pre-captured image corresponding to the observation viewpoint 602 on each of the image projection plane 601_1 and the image projection plane 601_2. Similarly, the rendering processing unit 15 texture-maps the pre-captured image corresponding to the observation viewpoint 602 for the concave bottom surface 660 and the convex top surface 670 of the observation target surface.
  • the operator observes the superimposed image of the observation target surface and the image projection surface, which is displayed on the display screen of the display device 5 by the image output unit 16, and displays the three-dimensional shape data on the image projection surface. Move vertically.
  • the operator performs an adjustment to match the image of the concave bottom surface 660 of the observation target surface with the image of the image projection surface 601_1 so as not to be a double image.
  • the operator moves the image projection surface 601_2 in the observation line-of-sight direction so that the image of the convex top surface 670 of the observation target surface matches the image of the image projection surface 601_2 so as not to be a double image. I do.
  • an image projection plane that is substantially parallel to the observation target plane of the three-dimensional shape data is provided for each of the stepped observation planes. Since the pre-captured image is texture-mapped to generate a report image, the generated report image reduces factors that degrade image quality, such as pixel loss or image distortion, compared to the conventional method. be able to. Thereby, according to this embodiment, even when the observation target surface has a stepped surface, the quality of the report image can be easily improved as compared with the conventional case.
  • the line-of-sight measurement system according to the third embodiment of the present invention will be described below.
  • the configuration of the line-of-sight measurement system according to the third embodiment is the same as that of the first embodiment of FIG.
  • the operation of the visual line measurement system according to the third embodiment different from the first embodiment will be described.
  • the distance between the image projection plane and the observation viewpoint and the angle adjustment of the three-dimensional shape data are adjusted independently of the operator's operation, each of the image projection plane creation unit 12 and the rendering condition setting unit 14 itself. It has a configuration to do.
  • each of the image projection plane creation unit 12 and the rendering condition setting unit 14 is three-dimensional so as to minimize the sum of squares of the distances between the observation target plane and the image projection plane of the three-dimensional shape data.
  • a configuration for adjusting the positions of the shape data and the image projection plane will be described.
  • FIG. 14 is a diagram for explaining the setting of the image area used when positioning the three-dimensional shape data and the image projection plane in the report image.
  • FIG. 14 shows a rendering result of the three-dimensional shape data in a state where the positional relationship between the three-dimensional shape data and the observation viewpoint is set so as to be suitable for the report image by an input operation from the operator's input unit. Yes.
  • the alignment between the three-dimensional shape data and the image projection plane is not performed. Since the three-dimensional shape data includes areas that are not alignment targets, such as the floor surface A02, the ceiling A03, and the wall A04, the areas that are not alignment targets are excluded.
  • the region of interest A01 in FIG. 14 is selected and set as a region to be aligned.
  • FIG. 15 is a conceptual diagram illustrating the adjustment of the position of the image projection plane and the observation target plane of the three-dimensional shape data performed by the image projection plane creation unit 12.
  • the image projection plane creating unit 12 is an approximate plane B03 of the attention area B02 selected from the observation target planes included in the observation visual field B07 of the observation viewpoint B04 with respect to the observation target planes included in the adjustment range of the three-dimensional shape data B01. Is obtained from the coordinate points in the three-dimensional space of the pixels constituting the surface of the region of interest B02 by the method of least squares.
  • the image projection plane creation unit 12 generates and arranges the image projection plane B10 in correspondence with the region of interest B02 of the three-dimensional shape data B01.
  • the angle between the approximate plane B03 and the image projection plane B10 is ⁇ .
  • the intersection B08 is the center of rotation for rotating the three-dimensional shape data B01 (described later).
  • the method of calculating the approximate plane B03 used by the image projection plane creation unit 12 is not limited to the least square method with pixels in the region of interest B02.
  • an object on the near side an image of the target object in the three-dimensional shape data B01
  • an object on the near side an image of the target object in the three-dimensional shape data B01
  • the consistency with the surface B10 can be enhanced.
  • FIG. 16 is a conceptual diagram for explaining the adjustment of the positions of the image projection plane and the observation target plane of the three-dimensional shape data performed by each of the image projection plane creation unit 12 and the rendering condition setting unit 14.
  • the rendering condition setting unit 14 rotates, for example, the three-dimensional shape data B01 backward by an angle ⁇ about the intersection B08 of the observation line of sight B06 and the approximate plane B03 (in the direction opposite to the direction of the arrow in FIG. 15, that is, in the clockwise direction).
  • the position and angle of the observation viewpoint are set so as to be rotated, and the angle ⁇ formed by the approximate plane B03 and the image projection plane B10 is set to “0”.
  • the image projection plane B10 and the focused region B02 after rotation are substantially parallel because the angle ⁇ between the approximate plane B03 and the image projection plane B10 is “0”. Become. At this time, the difference between the distance C05 between the observation viewpoint B04 and the image projection plane B10 and the distance C06 between the observation viewpoint B04 and the rotation center B08 is a distance C07.
  • an explanatory diagram of a two-dimensional plane is used. However, in actuality, the observation viewpoint is set so that the three-dimensional shape data B01 is reversely rotated by the angle ⁇ in the three-dimensional space. And the image projection plane B10 is set.
  • FIG. 17 is a conceptual diagram illustrating the adjustment of the position of the image projection plane and the observation target plane of the three-dimensional shape data performed by the image projection plane creation unit 12.
  • the image projection plane creation unit 12 sets the image projection plane so that the distance C05 (FIG. 16) between the observation viewpoint B04 and the image projection plane B10 is equal to the distance C06 (FIG. 16) between the observation viewpoint B04 and the rotation center B08.
  • B10 is moved in the vertical direction by a distance C07, and the distance between the image projection plane B10 and the observation viewpoint B04 is adjusted.
  • the distance between the observation viewpoint B04 and the image projection plane B10 is equal to the distance between the observation viewpoint B04 and the approximate plane B03. That is, the distance between the observation viewpoint B04 and the image projection plane B10 is equal to the distance between the observation viewpoint B04 and the region of interest B02.
  • fine adjustment may be performed using the adjustment method A described in the first embodiment.
  • FIG. 18 is a flowchart illustrating an operation example of the adjustment processing of the positions of the observation target plane and the image projection plane in the visual line measurement system according to the third embodiment.
  • Step S31 As shown in FIG. 14, the image projection plane creating unit 12 sets the observation viewpoint B initial viewpoint input from the input unit by the operator as the observation target plane included in the observation field B07 of the observation viewpoint B04. Is displayed on the display screen of the display device 5 via the image output unit 16.
  • Step S32 The operator excludes a region that is not a target for alignment between the observation target plane and the image projection plane, and therefore, as a target region for registration in the report image displayed on the display screen of the display device 5.
  • the region of interest region A01 is set by the input unit.
  • the image projection plane creation unit 12 generates a region of interest A01 as shown in FIG. 14 on the observation target plane in the three-dimensional shape data based on the operator's setting.
  • Step S33 The image projection plane creation unit 12 selects a region of interest B02 selected from the observation target plane included in the observation visual field B07 of the observation viewpoint B04 with respect to the observation target plane included in the adjustment range of the three-dimensional shape data B01 (in FIG. 14).
  • An approximate plane B03 of the region of interest A01) is obtained from the coordinate points in the three-dimensional space of the pixels constituting the surface of the region of interest B02 by the method of least squares.
  • Step S34 The rendering condition setting unit 14 sets the position and angle of the observation viewpoint so as to reversely rotate (rotate counterclockwise) the three-dimensional shape data B01 by an angle ⁇ with the intersection B08 of the observation line of sight B06 and the approximate plane B03 as the rotation center.
  • the angle ⁇ between the approximate plane B03 and the image projection plane B10 is adjusted to “0”.
  • Step S35 The image projection plane creation unit 12 moves the image projection plane B10 in the observation line-of-sight direction so that the distance C05 between the observation viewpoint B04 and the image projection plane B10 is equal to the distance C06 between the observation viewpoint B04 and the rotation center B08. The distance between the image projection plane B10 and the observation viewpoint B04 is adjusted.
  • the three-dimensional shape data is substantially parallel to the observation target surface.
  • the image projection plane can be easily provided, and the report image is generated by texture mapping the pre-captured image on the image projection plane. Factors that degrade the quality of the image can be reduced as compared with the prior art.
  • the process which makes an observation object surface and an image projection surface parallel, and the process which makes the distance from an observation viewpoint the same are not manual operations of an operator, but the image projection surface creation part 12. Therefore, the quality of the report image can be easily improved as compared with the conventional case.
  • the line-of-sight measurement device 4 performs visual field image matching processing in the display space in the global coordinate system, extracts feature point coordinates that are the coordinates of feature points, and calculates camera imaging coordinates and camera imaging direction vectors.
  • the line-of-sight measurement device 4 generates a transformation matrix for converting the line-of-sight direction vector from the camera coordinate system to the global coordinate system from the camera imaging coordinates and the camera imaging direction vector.
  • the imaging direction vector conversion unit 13 performs coordinate conversion of the line-of-sight direction vector corresponding to the extracted frame image from the camera coordinate system to the global coordinate system using the generated conversion matrix, and writes and stores it in the internal storage unit.
  • the line-of-sight measurement device 4 reads the display space shape data composed of the three-dimensional shape data in the global coordinate system from the internal storage unit. Then, the line-of-sight measurement device 4 obtains coordinates at which the read three-dimensional shape data and the line-of-sight direction vector from the camera imaging coordinates in the global coordinate system obtained by the imaging direction vector conversion unit 13 intersect. Then, the line-of-sight measurement device 4 sets a coordinate at which the three-dimensional shape data and the line-of-sight direction vector from the camera imaging coordinates intersect as a gaze point candidate for the observer.
  • the line-of-sight measurement device 4 measures the time during which the observer's line-of-sight direction vector stays in each of the gaze-portion candidates, and determines the gaze-point candidate where the time line-of-sight direction vector exceeds a predetermined threshold.
  • the coordinates in the global coordinate system of the gaze location are written and stored in the internal storage unit and supplied to the image processing apparatus 1.
  • the program for realizing the function of the image processing apparatus of FIG. 1 in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed.
  • a report image creation process may be performed.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a WWW system having a homepage providing environment (or display environment).
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
  • RAM volatile memory
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

 本発明の画像処理システムは、観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成部と、前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング処理部とを備える。

Description

画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム
 本発明は、観察者の視線方向を計測する画像処理を行う画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラムに関する。
 本願は、2015年2月4日に日本に出願された特願2015-020247号に基づき優先権を主張し、その内容をここに援用する。
 店舗や展示場などにおいて、様々な観察対象が棚や台に陳列されている陳列空間の中を、移動しながら観察する際における観察者の視線方向を検出する装置として視線計測装置が知られている。この視線計測装置は、観察者の視線方向を検出する視線計測機能と、観察者の前方を撮影する視野ビデオカメラとが一体化されて構成され、観察者の頭部に装着される装着型視線計測装置として実用化されている(例えば、特許文献1、特許文献2参照)。例えば、装着型視線計測装置の場合、視線計測機能から得られる視線計測データは、観察者の頭部に対して固定された視点座標系での視線の方向を示している。
 この場合、視線計測と同時に、視点座標系に対して固定された視野ビデオカメラによって、観察者の視点前方の物体を撮影し、撮影によって捉えた視野ビデオ画像を得る。このとき、視線計測データが示す視線方向と、視野ビデオ画像の画素座標は一義的に対応する。
 この装着型視線計測装置を用いて、視点座標系においての視線計測データが指し示す観察対象の位置を視野ビデオ画像上に表示させることが可能となる。これにより、計測者は、視野ビデオ画像上に表示された観察対象の位置により、観察者が注視する注視箇所を特定することができる。
 このような視線計測装置及び解析用ソフトウェアとしては、例えば、株式会社ナックイメージテクノロジー社のアイマークレコーダEMR-9(登録商標)、アイマークアプリケーション・ソフトウェアEMR-dTarget(登録商標)のそれぞれが販売されている。
 また、店舗や展示場などの陳列空間での観察対象に対する視線計測を行う事例においては、観察者が注視する注視箇所の集計結果を当該陳列空間における観察対象面を撮像して得られた画像上に示す場合が多い。例えば、店舗において観察対象が陳列してある陳列棚の正面を観察対象面として用い、その画像に、観察者が注視した注視点の分布や視線移動経路などをプロットして用いている。このため、視線計測機能と、陳列空間内での観察者の頭部の位置や方向を計測する3次元センサとを組み合わせることにより、視線計測データが指し示す観察者が注視する注視箇所を特定する方法も考案されている。
 陳列空間の3次元形状を数値データで再現する方法として、陳列空間を異なる方向から撮像した複数の多視点撮像画像から陳列空間の3次元形状データを生成する方法が知られている。そして、生成された3次元形状データの上に、多視点撮像画像をテクスチャとしてマッピングすることで、任意の視点から見た、任意の観察対象面の画像、例えば、陳列棚の正面画像を、CG(コンピュータグラフィックス)画像として再現することができる(例えば、非特許文献1参照)。例えば、そのCG画像上に、注視点の分布や移動経路を示す注視点マーカーを描画すれば、観察行動の分析結果として報告用資料に用いることができる。
日本国特開平06-189906号公報 日本国特開2012-146199号公報
冨山他,多視点映像生成技術の研究とアプリケーション,情報処理学会研究報告CVIM,[コンピュータビジョンとイメージメディア],2008(27),207-214,2008-03-10
 しかしながら、非特許文献1に開示された方法において、多視点撮像画像から求められる陳列空間の3次元形状データは歪みや欠損を含む場合が多い。このため、観察者が注視する観察対象を十分な精度で特定することができたとしても、CG画像は、歪みや欠損を含んだままの状態では、上述した観察行動の分析結果として報告用資料等に用いる画像として不十分な表示品質である場合が多い。
 したがって、報告書を作成する作業者は、3次元形状データやCG画像の画像修正の処理を、所定の画像処理のアプリケーションを用いて手作業で行うことで、報告書などに載せる画像の表示品質を改善している。このため、報告書に掲載される画像の表示品質を改善する事は可能であるが、報告書を作成する作業には作業者に対して多大な負荷を与え、報告書の作成工程に無駄な時間を要する。
 本発明は、このような状況に鑑みてなされたもので、少ない作業負荷で、歪みや欠損の無い高品質な報告用画像を出力することができる画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラムを提供する。
 上述した課題を解決するために、本発明の第一態様に係る画像処理システムは、観察対象の3次元形状データ(数値データ)を構成する観察対象面データ(数値データ)に近似する画像投影面データを生成する画像投影面作成部と、前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング処理部とを備える。
 本発明の第一態様に係る画像処理システムにおいては、前記画像投影面作成部が、前記3次元形状データの前記観察対象面データに応じた形状により、当該形状に対応する前記画像投影面データを複数設けることが好ましい。
 本発明の第一態様に係る画像処理システムにおいては、前記画像投影面作成部が、前記3次元形状データにおける観察者の観察視点に対応した前記観察対象面データに基づく位置と、当該観察対象面データに対して設けられた前記画像投影面データに基づく位置との関係を、前記観察対象面データと前記画像投影面データの各々の単位領域の強調表示により示すことが好ましい。
 本発明の第一態様に係る画像処理システムにおいては、前記画像投影面作成部が、前記観察対象面データに基づく位置と前記画像投影面データに基づく位置との関係を、前記観察対象面データ及び前記画像投影面データの各々の前記単位領域の階調度によって強調表示することが好ましい。
 本発明の第一態様に係る画像処理システムにおいては、前記画像投影面作成部が、前記観察対象面データに基づく位置と前記画像投影面データに基づく位置との関係を、前記観察対象面データ及び前記画像投影面データの各々の前記単位領域の表示色によって強調表示することが好ましい。
 本発明の第一態様に係る画像処理システムにおいては、前記画像投影面作成部が、前記観察対象面データと前記画像投影面データとの対応する画素毎の前記3次元空間における距離を元にした統計処理により、前記観察対象面データに基づく位置に対して前記画像投影面データに基づく位置が所定の位置に配置するように、前記画像投影面データを生成することが好ましい。
 本発明の第二態様に係る視線計測システムは、上述の第一態様に係る画像処理システムを備えており、前記画像投影面データに対し、観察者が注視する注視箇所を表示する。
 本発明の第三態様に係る画像処理方法は、画像投影面作成部によって、観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成過程と、レンダリング処理部によって、前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング処理過程とを含む。
 本発明の第四態様に係る視線計測方法は、上述の第三態様に係る画像処理方法を含んでおり、前記画像投影面データに対し、観察者が注視する注視箇所を表示する。
 本発明の第五態様に係るプログラムは、コンピュータを、観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成部、前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング部として動作させる。
 本発明の第六態様に係るプログラムは、コンピュータを、観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成部、前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング部、前記画像投影面データに対し、観察者が注視する注視箇所を表示する表示部を制御する制御部として動作させる。
 以上説明したように、本発明の態様によれば、少ない作業負荷で、歪みや欠損の無い高品質な報告用画像を出力することができる画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラムを提供することができる。
本発明の第1実施形態に係る視線計測システムの構成例を示すブロック図である。 撮像データ記憶部17に書き込まれて記憶されている事前撮像画像のテーブルの構成例を示す図である。 第1実施形態における画像投影面作成部12による画像投影面データの生成処理を説明する概念図である。 第1実施形態における画像投影面作成部12による画像投影面データの生成処理を説明する概念図である。 投影画像データ記憶部19に書き込まれて記憶されているレンダリング条件テーブルの構成例を示す図である。 画像投影面データに対する事前撮像画像の画像データのマッピングを説明する概念図である。 画像投影面データに対する事前撮像画像の画像データのマッピングを説明する概念図である。 画像投影面データに対する事前撮像画像の画像データのマッピングを説明する概念図である。 3次元形状データにおける観察対象面データの凹凸を有するポリゴンの上に直接に事前撮像画像をマッピングして作成した報告用画像の一例を示す図である。 3次元形状データにおける観察対象面データに対応して形成した画像投影面データに事前撮像画像をマッピングして作成した報告用画像の一例を示す図である。 画像投影面データに基づく位置と、3次元形状データの観察対象面データに基づく位置との距離の調整を説明する画像である。 画像投影面データに基づく位置と、3次元形状データの観察対象面データに基づく位置との距離の調整を説明する画像である。 3次元形状データの観察対象面データに基づく位置と、この観察対象面データに対応する画像投影面データに基づく位置との距離差を示す濃淡画像の一例を示す図である。 3次元形状データの観察対象面データに基づく位置と、この観察対象面データに対応する画像投影面データに基づく位置との距離差を示す濃淡画像の一例を示す図である。 本発明の第1実施形態に係る視線計測システムにおける報告用画像の生成の処理の動作例を示すフローチャートである。 本発明の第2実施形態における画像投影面作成部12による画像投影面の生成処理を説明する概念図である。 報告用画像において3次元形状データに基づく位置と画像投影面データに基づく位置との位置合わせを行う際に用いる画像領域の設定を説明する図である。 画像投影面作成部12の行う画像投影面データに基づく位置と3次元形状データの観察対象面データに基づく位置との調整を説明する概念図である。 画像投影面作成部12の行う画像投影面データに基づく位置と3次元形状データの観察対象面データに基づく位置との調整を説明する概念図である。 画像投影面作成部12の行う画像投影面データに基づく位置と3次元形状データの観察対象面データに基づく位置との調整を説明する概念図である。 本発明の第3実施形態に係る視線計測システムにおける観察対象面データに基づく位置及び画像投影面データに基づく位置との調整処理の動作例を示すフローチャートである。
<第1実施形態>
 以下、本発明の第1実施形態について、図面を参照して説明する。
 図1は、第1実施形態に係る視線計測システムの構成例を示すブロック図である。図1において、視線計測システムは、画像処理装置1、撮像装置2、利用者観測装置3、視線計測装置4及び表示装置5の各々を備えている。画像処理装置1は、3次元空間再構成部11、画像投影面作成部12、撮像方向ベクトル変換部13、レンダリング条件設定部14、レンダリング処理部15、画像出力部16、撮像データ記憶部17、グローバル座標系データ記憶部18、投影画像データ記憶部19の各々を備えている。
 撮像装置2は、CCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを用いたカメラなどである。撮像装置2は、陳列空間における観察対象(物体)を含む領域を複数の異なる視点から撮像することによって静止画像を得るために用いられる。この静止画像は、事前撮像画像である。
 3次元空間再構成部11は、複数の異なる視点方向から実際の陳列空間を撮像して得られた2次元画像である事前撮像画像から、すなわち、観察対象を含む領域を多視点から撮像することによって得られた事前撮像画像から、グローバル座標系における陳列空間の3次元形状データを再構成する。また、3次元空間再構成部11は、撮像装置2の撮像によって得られた事前撮像画像に対して事前撮像画像識別情報を付加し、この事前撮像画像識別情報と事前撮像画像とを対応付けて撮像データ記憶部17に記憶されている事前撮像画像テーブルに書き込んで、書き込まれた事前撮像画像テーブルを撮像データ記憶部17に記憶させる。また、3次元空間再構成部11は、陳列空間の3次元形状データを再構成する際、事前撮像画像毎に得られる特徴点、具体的には、カメラ撮像画像、カメラ撮像方向ベクトル、カメラ撮像座標、カメラ姿勢角、投影変換行列、の各々を、対応する事前撮像画像の事前撮像画像識別情報に対応付けて、撮像データ記憶部17に記憶されている事前撮像画像テーブルに書き込んで、書き込まれた事前撮像画像テーブルを撮像データ記憶部17に記憶させる。
 ここで、3次元空間再構成部11は、特徴点の座標である特徴点座標(例えば、明度が同じように変化している箇所)を抽出する。そして、3次元空間再構成部11は、陳列空間を多視点から撮像することによって得られた複数の事前撮像画像の間における特徴点の対応付け(マッチング処理)を行う。本実施形態においては、撮像装置2が陳列空間を撮像することによって得られた複数の2次元画像から、撮像された陳列空間の3次元形状をコンピュータ上で再現する。このように実空間の対象物の3次元形状をコンピュータ上で再現させる機能として、例えば、Agisoft社のPhotoScan(登録商標)などを利用する。このマッチング処理おいては、画像の類似性、抽出した特徴点間の位置関係を利用する。3次元空間再構成部11は、特徴点の対応関係からステレオ計測の原理により、各特徴点の3次元空間のグローバル座標系における3次元座標を求める。また、レーザ計測の手法を用いて実際の陳列空間における観察対象の3次元幾何学情報を取得し、この3次元幾何学情報からグローバル座標系における観察対象の3次元形状を示す3次元座標を求めてもよい。
 そして、3次元空間再構成部11は、グローバル座標系内に配置された各座標点を頂点として、座標点の間に面を割り当てることで多面体(ポリゴンの集合体)を形成して、再生される3次元画像データの外表面を形成する。ここで、3次元形状データのデータ構造は、ポリゴンの集合体としての多角形でなく、点群データ及びボリュームデータなど3次元形状を表現できるデータ形式であればいずれでも良い。ここで、3次元形状データとは、実際の陳列空間における陳列棚及びこの陳列棚に陳列された陳列物(観察対象)を含む3次元形状の物体を示すデータ(例えば、座標値などで示される座標データ)を示している。3次元空間再構成部11は、作成したグローバル座標系に再構成した陳列空間の3次元形状データを、グローバル座標系データ記憶部18に書き込んで記憶させる。
 図2は、撮像データ記憶部17に書き込まれて記憶されている事前撮像画像のテーブルの構成例を示す図である。図2には、事前撮像画像毎に、事前撮像画像識別情報、撮像画像アドレス、特徴点データ、カメラ撮像座標、カメラ撮像方向ベクトル、カメラ姿勢角、画像投影変換行列の各々が撮像データ記憶部17に書き込まれて記憶されている。ここで、事前撮像画像識別情報は、事前撮像画像を識別する識別情報である。撮像画像アドレスは、事前撮像画像が記憶されているアドレスを示している。特徴点データは、例えば、事前撮像画像におけるRGB(Red Green Blue)の階調度及びその座標点などの特徴点を示すデータである。カメラ撮像座標は、事前撮像画像を取得した際の撮像装置2のグローバル座標系における座標の位置を示している。カメラ撮像方向ベクトルは、事前撮像画像を取得した際における撮像装置2の撮像方向を示すベクトルである。カメラ姿勢角は、事前撮像画像を取得した際における撮像装置2の姿勢角である。画像投影変換行列は、グローバル座標系における座標を、事前撮像画像上に投影してプロットする座標変換に用いる行列である。
 図1に戻り、画像投影面作成部12は、操作者が入力する観察者の観察視点(後述)に対応する3次元形状の面に対してレンダリングを行い、画像投影面データ(凹凸の少ない平滑な面)を作成する。
 図3A及び図3Bは、第1実施形態における画像投影面作成部12による画像投影面データの生成処理を説明する概念図である。図3A及び図3Bは、3次元形状データを構成する観察対象面データに基づく位置と、画像投影面データに基づく位置との関係が明確となるように、画像投影面データと3次元形状データの観察対象面データとを上部から俯瞰した図としている。図3Aは、操作者が3次元空間における画像投影面データを設定する初期設定を説明する図である。図3Bは、観察者の観察視点に対応した3次元形状データの観察対象面データに基づく面の位置に対し、この観察面データに対して最も適切な位置に画像投影面データに基づく面を配置させる配置処理を説明する図である。観察対象面データに基づく位置とは、観察者が観察する視点である観察視点から見た物体を示す3次元形状データで表される表面である。画像投影面データに基づく位置とは、観察対象面データに含まれる凹凸(凹凸成分)を低減して近似した仮想的な面であり、観察者が観察する視点から見た3次元形状データのテクスチャデータとして、事前撮像画像の画像データをマッピングしてレンダリングを行う面を示している。これにより、3次元形状データの観察対象面データに対して事前撮像画像の画像データをマッピングする場合に比較して、観察者が観察する表示画像における画像歪みや画素の欠損などの発生を防止し、表示画像の品質を向上させることができる。
 以下の説明では、観察対象面データで表される面を、単に、「観察対象面」とする場合がある。また、画像投影面データで表される面を、単に、「画像投影面」と称する場合がある。また、3次元形状データで表される形状体を、単に、「3次元形状体」と称する場合がある。
 図3Aに示すように、操作者は、3次元空間において、観察対象の3次元形状体600における観察対象面600Aを観察する観察視点602の位置及び角度を指定する。これにより、画像投影面作成部12は、観察視点602から広がっている観察視野603に合わせて画像投影面601を形成する。
 次に、図3Bに示すように、操作者が、観察対象面600Aの観察に適するように、図3Aにおける3次元形状体600が3次元形状体600’の位置に配置されるように、3次元形状体600もしくは観察視点602及び観察視野603のいずれかを移動させる。さらに、3次元形状体600の観察対象面600Aが画像投影面601とほぼ同一の平面上となる位置に画像投影面601を移動させる。これにより、図3Bに示すように、3次元形状体600’の観察対象面600A’が画像投影面601に対してほぼ同一の平面上に配置される。ここで、観察対象面とは、3次元形状体600において観察者が観察する面であり、例えば、実際の陳列棚においてペットボトルなどの商品が配列している面を指す。ここで、「同一の平面上に配置される」とは、観察対象面600A’が画像投影面601に対して平行に配置され、かつ画像投影面601が観察対象面600A’に対して接するように配置されている状態を示している。
 なお、観察視点602および画像投影面601に対する3次元形状体600の位置および角度は、相対的な位置および相対的な角度である。このため、観察視点602をグローバル座標系に対して固定して3次元形状体600および画像投影面601を移動あるいは回転する場合、逆に3次元形状体600をグローバル座標系に対して固定して観察視点602および画像投影面601を移動あるいは回転する場合、のいずれの方法でも処理を行うことは可能である。表示上、上述した2つの場合の両者には違いはない。本実施形態では3次元形状体600をグローバル座標系に対して固定し、観察視点602および画像投影面601を移動あるいは回転させることによって相互の位置関係を設定する場合を説明する。
 ここで、観察視点602から画像投影面601に向けて広がる観察視野603に含まれる3次元形状の観察対象面600A’をレンダリングし、レンダリングされた観察対象面のCG画像を報告用画像として用いる。この図3Bにおいて、3次元形状体600の表面における観察対象面600A’は、観察視野603の範囲についてほぼ平面と見なされる。このため、本実施形態においては、凹凸のある観察対象面に対応させて、単一の平面である画像投影面601を設定する。
 一般に、平面と見なせる陳列棚などの上に注視箇所を示す注視点マーカーを表示する場合、実際の陳列空間における観察対象となる面になるべく正対して撮像して得られた事前撮像画像を、報告用画像を作成する際のテクスチャマッピングに用いる。
 このため、本実施形態では、画像投影面601は観察視点602と常時正対した状態で観察視点602と画像投影面601との距離のみを調整する。ただし、本発明は、この実施形態に限定しない。例えば、傾斜した陳列面、すなわち観察視点から観た3次元空座標の奥行き方向に対して傾きを有する観察対象面に基づく角度データに対応させ、この観察対象面を近似できるように画像投影面601の角度を調整する機能を備えても良い。図3A及び図3Bで示したように、3次元形状体600は、画像投影面601に対応させて相対的に6自由度で任意の角度と位置に調整が可能である。上述したように、陳列面の3次元形状が観察視点から観て3次元座標の奥行き方向に所定の角度を有している場合、この陳列面に対応する画像投影面に対して3次元形状に合わせた角度を持たせても良い。
 なお、上述した実施形態においては、観察視点602、観察視野603および画像投影面601の位置の調整は操作者の手作業で行う場合を説明したが、本発明は、この実施形態に限定されない。後述するように、画像投影面作成部12やレンダリング条件設定部14を用いて、観察視点602、観察視野603および画像投影面601の位置を自動で調整することも可能である。
 例えば、レンダリング条件設定部14では、観察対象面が観察視点602に正対し、観察対象範囲が観察視野603に収まるように、観察視点602の角度と位置を調整し、3次元形状体600’が観察視点602に対して図3Bに示す位置となるように調整する。
 そして、画像投影面作成部12では、画像投影面601と観察視点602との距離を調整し、調整後の3次元形状体600’における観察対象面と一致するように調整する。
 図1に戻り、撮像方向ベクトル変換部13は、サンプリングされた(観察視点602において撮像された)カメラ座標系におけるカメラ撮像方向ベクトル及びカメラ姿勢角を撮像データ記憶部17に書き込んで記憶させる。
 また、撮像方向ベクトル変換部13は、求めたカメラ座標系における3次元空間において検出されたカメラ撮像方向ベクトルを、カメラ姿勢角を用いてカメラ座標系からグローバル座標系に座標変換する。そして、撮像方向ベクトル変換部13は、カメラ撮像方向ベクトルを、撮像した撮像画像の撮像画像識別情報に対応させて、撮像データ記憶部17に記憶されている事前撮像画像テーブルに書き込んで記憶させる。
 レンダリング条件設定部14は、操作者が入力操作により設定した、観察者の視点を示す視点座標、3次元形状データの表示モード、観察者の視点の回転角度、注視点マーカーの有無を示すフラグを含むレンダリング条件の設定を行う。視点座標とは、3次元形状データにおける観察対象面を注視する観察者の観察視点を示す座標である。表示モードとは、3次元形状データをそのまま表示するモード、ポリゴン形状で表示するモード、あるいは特徴点の点群で表示するモードなどの表示モードの設定を示す情報である。回転角度とは、観察者の視点を回転させた角度を示している。例えば、3次元形状体600が配置された3次元空間において、図3Aの3次元形状体600が観察者の視点の回転前の状態とすれば、当該3次元形状体600の観察対象面600Aと、図3Bの3次元形状体600’の観察対象面600A’とのなす角度に対応付けられる。注視点マーカーの有無を示すフラグは、観察対象面600A’に対応する、事前撮像画像の画像データを用いてレンダリングされた画像投影面601に対し、観察者が注視する注視点マーカーを付加するか否かを示すデータである。
 図4は、投影画像データ記憶部19に書き込まれて記憶されているレンダリング条件テーブルの構成例を示す図である。レンダリング条件テーブルにおいては、報告書画像情報に対応して、観察視点座標、表示モード、回転角度及び注視点マーカー有無フラグの各々を含むレンダリング条件が書き込まれて記憶されている。報告書画像情報は、報告書に添付する画像データを識別するための識別情報である。ここで、報告書画像は、対応する報告書画像情報が示すレンダリング条件によって、観察対象面が事前撮像画像の画像データを用いてレンダリングされることにより作成される。
 表示モードとは、報告書画像として用いる3次元形状データを、そのまま表示するモード、ポリゴン形状で表示するモード、あるいは特徴点の点群で表示するモードなどの表示モードの設定を示す情報である。回転角度とは、報告書画像を生成する観察視点を回転させた角度を示している。例えば、3次元形状体600が配置された3次元空間において、図3Aの3次元形状体600の観察対象面600Aと、図3Bの3次元形状体600’の観察対象面600A’とのなす角度に対応する。注視点マーカーの有無を示すフラグは、報告書画像として用いる3次元形状体600’の観察対象面600A’に対応する、事前撮像画像の画像データを用いてレンダリングされた画像投影面601に対し、観察者が注視する注視点マーカーを付加するか否かを示すデータである。
 図1に戻り、レンダリング処理部15は、例えば、観察視点の回転角度及び座標に近いカメラ姿勢角及びカメラ撮像座標を有する事前撮像画像を報告書用候補画像として、撮像データ記憶部17に記憶されている事前撮像画像テーブルから抽出する。そして、レンダリング処理部15は、抽出した事前撮像画像を、そのカメラ撮像座標とカメラ姿勢角および投影変換行列を用いて、画像投影面に投影するレンダリング処理を行い画像データを生成する。ここで、レンダリング処理部15は、上記投影変換行列は、撮像データ記憶部17に記憶されている事前撮像画像テーブルから、事前撮像画像に対応して読み出す。
 画像出力部16は、レンダリング処理部15がレンダリング処理を行って生成した、2次元平面の画像投影面に投影した2次元画像である3次元形状データを構成する観察対象面データに基づく表示画像を、投影画像データ記憶部19に書き込んで記憶させる。
 また、画像出力部16は、3次元形状データと事前撮像画像がレンダリング(後述のテクスチャマッピング)された観察対象面とを、表示装置5の2次元平面である表示画面に投影した2次元画像として表示する。
 また、画像出力部16は、レンダリング条件における注視点マーカーの有無を示すフラグが注視点マーカー有りである場合、後述する視線計測装置4が求めた3次元形状データの表面上における観察者が注視する注視箇所を注視点マーカーとして、同様の投影変換行列を用いて、3次元形状データ及び画像投影面とともに上記表示画面上の2次元画像に投影する。
 撮像データ記憶部17は、事前撮像画像の撮像データと、図2に示した事前撮像画像テーブルとが書き込まれて記憶されている。
 グローバル座標系データ記憶部18は、グローバル座標系における3次元形状データが書き込まれて記憶されている。
 投影画像データ記憶部19は、図4に示すレンダリング条件テーブルと、3次元形状データを構成する観察対象面データに基づく表示画像とが書き込まれて記憶されている。
 利用者観測装置3は、観察者の頭部に装着されることで固定されている。例えば、利用者観測装置3は、観察者が注視箇所の検出を行う実験において被るヘルメットなどに固定されて取り付けられており、利用者撮像部31及び利用者視線計測部32の各々を備えている。
 利用者撮像部31は、例えば、CCD(charge coupled device)またはCMOS(complementary metal oxide semiconductor)のイメージセンサなどを用いたビデオカメラであり、陳列空間を移動する観察者の顔の向いている方向(観察者の頭部前方)の動画(映像)、すなわち陳列空間における観察者の視野の画像データ(視野画像)を撮像する。この利用者撮像部31としては、観察者の視野の映像が得られる装置(手段)であれば、ビデオカメラではなく視線計測データから求めた停留点に対応する視野の画像データを撮像するスチルカメラを用いても良い。
 利用者視線計測部32は、例えば、前記ヘルメットに固定される固定アイカメラを有し、利用者撮像部31の視野画像のカメラ座標系における、観察者の視線方向を示す眼球画像を取得して視線方向を求める。すなわち、利用者視線計測部32は、視線計測データから観察者の視線方向を示す視線方向ベクトルを検出する。この眼球画像は、例えば、観察者の眼球画像内の瞳孔の中心の情報を含んでいる。
 視線計測装置4は、3次元形状データにおける観察者が注視する注視点として注視箇所を求めて、3次元座標系における注視箇所の座標を出力する。
 表示装置5は、操作者によって生成された3次元形状データを構成する観察対象面データに基づく表示画像を、表示画面に対して画像表示する。
 図5A~図5Cは、画像投影面に対する事前撮像画像の画像データのマッピングを説明する概念図である。図5Aは、撮像装置503と撮像装置505との2台で撮像して得られた事前撮像画像の各々と、画像投影面500の画像投影面領域501との対応関係を示している。
 図5Bは、撮像装置503が撮像して得られた事前撮像画像507と、画像投影面500に対して設けられた画像投影面領域501との対応関係を示している。
 図5Cは、撮像装置505が撮像して得られた事前撮像画像509と、画像投影面500に対して設けられた画像投影面領域501との対応関係を示している。
 ここで、歪みや欠損が従来に比較して目立たない報告書画像を作成するためには、なるべく観察対象面に対応する画像投影面500に対して正対して撮像された事前撮像画像を選択して用いることが望ましい。
 図5Aに示されているように、3次元形状データの画像投影面500に対して設けられた画像投影面領域501の一部の領域が撮像装置503の撮像視野504に含まれ、画像投影面領域501の他の一部の領域が撮像装置505の撮像視野506に含まれている。また、画像投影面領域501は、観察者の観察視点602からの観察視野502に含まれる画像投影面500における画像投影面領域501に対応して設けられている。このため、図5Bに示されているように、事前撮像画像507には、画像投影面領域501の一部分である画像投影面領域501Aが含まれている。同様に、図5Cに示されているように、事前撮像画像509には、画像投影面領域501の他の一部分である画像投影面領域501Bが含まれている。
 したがって、画像投影面領域501Aに対応する事前撮像画像509の画像データと、画像投影面領域501Bの画像データとを重ね合わせて、画像投影面500のマッピングに用いることにより、この画像投影面500上に欠損の無い観察対象面の表面の画像を得ることができる。
 ここで、レンダリング処理部15は、観察者視点(観察視点)602からの観察視野502の観察ベクトル方向と近い、カメラ撮像方向ベクトルを有する事前撮像画像を、撮像データ記憶部17に記憶されている事前撮像画像テーブルから検索する。
 そして、レンダリング処理部15は、撮像装置503及び撮像装置505の各々の事前撮像画像507、事前撮像画像509それぞれを、撮像データ記憶部17に記憶されている事前撮像画像テーブルから読み出す。このとき、レンダリング処理部15は、事前撮像画像507及び事前撮像画像509の各々に対応するカメラ座標位置、カメラ姿勢角、投影変換行列それぞれも、撮像データ記憶部17に記憶されている事前撮像画像テーブルから読み出す。
 次に、レンダリング処理部15は、カメラ座標位置、カメラ姿勢角、投影変換行列を用いて、観察視野502の座標における画像投影面領域501の画像投影面領域501A(四角形)の頂点座標を求める。同様に、レンダリング処理部15は、カメラ座標位置、カメラ姿勢角、投影変換行列を用いて、観察視野502の座標における画像投影面領域501の画像投影面領域501B(四角形)の頂点座標を求める。
 レンダリング処理部15は、上述して求めた画像投影面領域501Aの頂点座標により、事前撮像画像507のデータから画像投影面領域501Aに対応する領域の領域A画像データを抽出し、また、画像投影面領域501Bの頂点座標により、事前撮像画像509のデータから画像投影面領域501Bに対応する領域の領域B画像データを抽出する。そして、レンダリング処理部15は、抽出した領域A画像データ及び領域B画像データの各々を画像投影面領域501に対してテクスチャマッピングしてレンダリング処理を行う。このとき、レンダリング処理部15は、領域A画像データ及び領域B画像データの各々を異なるレイヤーにより、画像投影面領域501に対してテクスチャマッピングする。このため、領域A画像データ及び領域B画像データの重なる部分の画質に応じて、いずれかのレイヤーで実際の報告用画像を作成するかは操作者が任意に設定することができる。
 図6は、3次元形状データにおける観察対象面データの凹凸成分(凹凸データ、以下、単に、「凹凸」と称する場合がある)を有するポリゴンの上に直接に事前撮像画像をマッピングして作成した報告用画像の一例を示している。図中における円状のマーク1002は、観察者が注視する注視箇所を示す注視点マーカーを示している。
 図6から判るように、凹凸を有するポリゴンの上に直接に事前撮像画像をマッピングした場合、観察視点から見た際に凹凸における影となる部分の画素データが報告書画像に反映されないため、領域1000にある白抜きの部分として観察される画素データの欠損や、領域1001における画像の歪みなどが散見され、報告用画像の品質が低い状態である。このため、図6の画像を報告用画像として用いるには、品質的に問題があり、実際には使用することができない。
 図7は、3次元形状データにおける観察対象面に対応して形成した画像投影面に事前撮像画像をマッピングして作成した報告用画像の一例を示している。図中における円状のマーク1002は、図6と同様に、観察者が注視する注視箇所を示す注視点マーカーを示している。
 図7から判るように、本実施形態においては、図5A~図5Cで説明した処理を用いて画像投影面に事前撮像画像をマッピングすることにより、図6における領域1000における画素データの欠損や、領域1001における画像の歪みなどが観察される問題が無くなり、報告用画像の品質を向上させることができる。このため、図7の画像が報告用画像として十分な品質を有しており、有効に使用することができる。
 以下、画像投影面作成部12が行う画像投影面と、3次元形状データの観察対象面との距離の調整について説明する。この画像投影面の位置の調整は、以下の4通りがある。
 調整方法A.テクスチャマッピングした画像投影面と観察対象面との比較表示
 調整方法B.画像投影面と観察対象面との距離を表示画像の濃淡(階調度)で表示
 調整方法C.画像投影面と観察対象面との距離を表示画像の色で表示
 調整方法D.画像投影面と観察対象面との表示色を異ならせて表示
 上記4種類の調整方法を順次説明する。調整方法Aは主として画像投影面と観察対象面との距離調整に用い、調整方法B、調整方法C及び調整方法Dの各々は主として画像投影面と観察対象面とを平行とする調整に用いる。
 ・調整方法Aの説明
 3次元形状データの観察対象面に対して事前撮像画像をテクスチャマッピングした参照画像と、この観察対象面に対応する画像投影面に対して事前撮像画像をテクスチャマッピングした報告用画像とを重畳表示して比較する。ここで、参照画像と報告用画像との各々は、半透明の画像として重畳表示とする。この参照画像と報告用画像との半透明とした重畳表示は、レンダリング条件における表示モードで設定する。
 3次元形状データの観察対象面に事前撮像画像がマッピングされた参照画像は、観察対象面に対応して設けられた画像投影面とは無関係に、注視箇所と同一の座標系で対応付けられている。一方、画像投影面に事前撮像画像がマッピングされた報告用画像は、画像投影面と観察視点との距離により、表示上の大きさが変化するため、画像投影面が観察対象面に対して一致していない場合、注視箇所を示す注視マーカーの位置ずれが発生する。
 図8は、画像投影面と、3次元形状データの観察対象面との距離の調整を説明する画像である。図8においては、3次元形状データの観察対象面のポリゴンに対して事前撮像画像をテクスチャマッピングした参照画像と、画像投影面に対して事前撮像画像をテクスチャマッピングした報告用画像とを重畳表示している。画像投影面が観察対象面に対して一致していない場合、参照画像と報告用画像とにおける各画像の位置ずれが発生する。
 この図8においては、画像投影面と観察対象面との位置が大きくずれている、すなわち画像投影面と観察対象面との距離が離れているため、参照画像と報告用画像とが2重像として観察されている。
 図9は、画像投影面と、3次元形状データの観察対象面との距離の調整を説明する画像である。図9においては、図8と同様に、3次元形状データの観察対象面のポリゴンに対して事前撮像画像をテクスチャマッピングした参照画像と、画像投影面に対して事前撮像画像をテクスチャマッピングした報告用画像とを重畳表示している。画像投影面が観察対象面に対して一致している場合、参照画像と報告用画像とにおける各画像の位置ずれが発生しない。
 この図9においては、画像投影面と観察対象面との位置が一致している、すなわち画像投影面と観察対象面との距離がほぼ0に近いため、参照画像と報告用画像とが2重像として観察されない。
 調整方法Aにおいては、図8の参照画像と報告用画像との重畳した画像における2重像が少なくなるように、操作者が観察視点と3次元形状データを互いに平行移動あるいは回転させることにより、画像投影面に対する観察対象面の位置を調整する。この位置の調整毎に、画像投影面作成部12及びレンダリング条件設定部14が投影画像面の観察対象面に対する相対位置を、操作者の調整した数値(距離、角度)に対応して変化させ、レンダリング処理部15が調整後の観察対象面に対して事前撮像画像のテクスチャマッピングを行う。操作者は、上述した調整方法Aにより、観察対象面の位置の調整処理を行うことにより、観察対象面と画像投影面との面を一致させ、報告用画像を生成する。
 ・調整方法Bの説明
 3次元形状データの観察対象面と、この観察対象面に対応する画像投影面との距離差を階調画像として画像表示する(濃淡画像の表示)。ここで、画像投影面作成部12は、表示画素毎に、観察対象面と画像投影面との距離を求め、階調度の範囲において中央値の階調度を観察対象面と画像投影面との距離が観察対象面中央での距離に等しい点、または観察対象面と画像投影面とが一致した点(距離が0)に付与する。また、観察対象面が画像投影面に対して奥側に移動するほど高い階調度(淡色)を付与する。一方、観察対象面が画像投影面に対して手前側に移動するほど低い階調度(濃色)を付与する。
 上述した表示により、観察対象面と、この画像投影面に対応する観察対象面との距離差を示す濃淡画像において、濃淡画像の左右上下における濃淡のバランスが取れていれば、濃淡画像の全面における画像の濃淡分布が一様となる。
 したがって、操作者は、濃淡画像の全面における画像の濃淡が階調度の範囲の中央の階調度の近傍でバランスが取れるように、操作者が観察視点と3次元形状データを相互に平行移動あるいは回転させることにより、画像投影面に対する観察対象面の位置と角度を調整する。
 図10は、観察対象面と、この観察対象面に対応する画像投影面との距離差を示す濃淡画像の一例を示す図である。図10においては、陳列棚における向かって右側の画像が濃色で表示され、一方、向かって左側の画像が淡色で表示される傾向がある。これは、観察対象面の右側が画像投影面に対して手前側に、観察対象面の左側が画像投影面に対して奥側に傾いていることを示している。これにより、画像投影面に対応する観察対象面との距離差を示す濃淡画像において、濃淡画像の左右上下における濃淡のバランスが取れておらず、濃淡画像の全面における画像の濃淡が均一となっておらず、観察対象面と画像投影面とが平行となっていないことを直感的に判定することができる。
 図11は、観察対象面と、この観察対象面に対応する画像投影面との距離差を示す濃淡画像の一例を示す図である。図11においては、陳列棚における向かって右側の画像と、向かって左側の画像との濃淡のバランスが取れていることが判る。また、同様に、陳列棚における向かって上側の画像と、向かって下側の画像との濃淡のバランスも取れていることが判る。これは、観察対象面と画像投影面とがほぼ平行となり、画像投影面に対して観察対象面が傾いていないことを示している。これにより、画像投影面に対応する観察対象面との距離差を示す濃淡画像において、濃淡画像の左右上下における濃淡のバランスが取れており、濃淡画像の全面における画像の濃淡が均一となり、観察対象面と画像投影面とがほぼ平行であることを直感的に判定することができる。
 調整方法Bにおいては、図10の画像投影面と観察対象面との距離が全面にわたって均一となり、濃淡画像の全面における濃淡の差が少なくなるように、操作者が観察視点と3次元形状データを互いに平行移動あるいは回転させることにより、画像投影面に対する観察対象面の位置を調整する。この位置の調整毎に、画像投影面作成部12が投影画像面の観察対象面に対する相対位置を、操作者の調整した数値(距離、角度)に対応して変化させ、レンダリング処理部15が調整後の観察対象面に対して事前撮像画像のテクスチャマッピングを行う。操作者は、上述した調整方法Bにより、観察対象面の位置の調整処理を行うことにより、観察対象面と画像投影面との面を一致させ、報告用画像を生成する。
 ・調整方法Cの説明
 3次元形状データの観察対象面と、この観察対象面に対応する画像投影面との距離差をカラー画像として画像表示する。ここで、画像投影面作成部12は、観察対象面の画素に対応する画像投影面の画素との距離を求め、所定の第1の色(例えば、黄色)を観察対象面と画像投影面とが一致した点(距離が0)に付与する。また、観察対象面が画像投影面に対して奥側となる領域に対して、上記第1の色と異なる所定の第2の色(例えば、赤色)を付与する。一方、観察対象面の特徴点が画像投影面に対して手前側となる領域に対して、上記第1の色及び第2の色と異なる所定の第3の色(例えば、青色)を付与する。
 上述した表示により、観察対象面と、この観察対象面に対応する画像投影面との距離差を示すカラー画像において、カラー画像の全面において黄色の領域の分布が多いほど観察対象面と画像投影面とが一致していることとなる。
 したがって、操作者は、濃淡画像の全面における画像の黄色の領域が主要な観察対象と一致するように、操作者が観察視点と3次元形状データを互いに平行移動あるいは回転させることにより、画像投影面に対する観察対象面の位置を調整する。
 ・調整方法Dの説明
 3次元形状データの観察対象面と、この観察対象面に対応する画像投影面とを異なる色で表示する(カラー画像の表示)。ここで、画像投影面作成部12は、観察対象面の画素を所定の第1の色(例えば、青色)により表示する。また、画像投影面の画素を所定の第2の色(例えば、赤色)で表示する。これにより、観察対象面が画像投影面に対して手前側にあれば、観察対象面が手前にあるため青色が表示される。一方、観察対象面が画像投影面に対して奥側にあれば、画像投影面が手前にあるため赤色が表示される。
 上述した表示により、観察対象面と、この観察対象面に対応する投影画像面とカラー画像において、赤色の領域と青色の領域とが左右上下において適切に分布するように、画像投影面に対する観察対象面の角度を調整する。
 すなわち、操作者は、カラー画像の全面における青色の領域及び赤色の領域の各々の分布のバランスが取れるように、操作者が観察視点と3次元形状データを互いに平行移動あるいは回転させることにより、画像投影面に対して観察対象面が平行となるように、3次元形状データの位置を調整する。
 次に、本実施形態に係る視線計測システムにおける報告用画像の生成の処理を説明する。図12は、第1実施形態に係る視線計測システムにおける報告用画像を生成する処理の動作例を示すフローチャートである。以下の処理は、視線計測装置が3次元形状データの観察対象面における注視箇所の特定が行われていることを前提として説明する。また、撮像装置2は、撮像して得られた事前撮像画像の画像データを、撮像した際の各パラメータ(撮像データ記憶部17における事前撮像画像テーブルの各パラメータ)とともに撮像データ記憶部17に書き込んで記憶させる。また、3次元空間再構成部11は、事前撮像画像と、この事前撮像画像に対応する事前撮像画像テーブルの各パラメータとから、3次元形状データを生成し、生成した3次元形状データをグローバル座標系データ記憶部18に書き込んで記憶させている。以下の説明の位置合わせにおいては、調整方法A(距離調整に対応)及び調整方法B(観察対象面と画像投影面との距離が観察対象面中央での距離に等しい点を中間色として角度調整に対応)の各々を用いている。
 ステップS11:
 画像投影面作成部12は、操作者が入力するレンダリング条件に基づき、報告用画像の作成に用いる3次元形状データ及び注視箇所の座標点(3次元空間)を読み込む。
 ここで、レンダリング条件とは、図4に示す観察視点座標、表示モード、回転角度、注視点マーカーの有無などである。表示モードは、3次元形状データの表示方法と、いずれの調整方法を用いるかを示す条件である。本説明において、例えば、操作者は、3次元形状データの観察対象面をポリゴンで表示し、かつ観察対象面と画像投影面との距離を画像投影面中央部での距離を中間値として濃淡で表示する表示モードとする。
 ステップS12:
 画像投影面作成部12は、読み込んだ3次元形状データを画像出力部16に対して出力する。
 そして、画像出力部16は、上記3次元形状データを表示装置5の表示画面に対して表示する。
 ステップS13:
 操作者は、表示装置5の表示画面に表示されている3次元形状データに対して、不図示の入力部(キーボード或いはマウス)により観察視点、観察視点の視点方向を示す回転角度及び表示モードを設定する。
 レンダリング条件設定部14は、設定された観察視点の3次元空間における座標である観察視点座標に対し、報告書画像情報を付加する。そして、レンダリング条件設定部14は、報告書画像情報とともに観察視点座標と回転角度を、撮像データ記憶部17のレンダリング条件テーブル(図4)に対して書き込んで記憶させる。
 そして、画像投影面作成部12は、上記撮像データ記憶部17のレンダリング条件テーブルにおける観察視点座標及び回転角度の各々に近いカメラ撮像座標、カメラ姿勢角を有する事前撮像画像を、撮像データ記憶部17に記憶されている事前撮像画像テーブルから読み出す。
 また、画像投影面作成部12は、観察視点座標及び観察方向角度の各々に対応する、3次元形状データの観察対象面を、画像出力部16を介して表示装置5の表示画面に表示させる。
 また、画像投影面作成部12は、観察対象面に対応させ画像投影面を生成し、生成した画像投影面を画像出力部16を介して表示装置5の表示画面に表示させる(図3A)。このとき、画像投影面作成部12は、画像投影面を観察視点に対して正対するように設ける。
 ステップS14:
 次に、画像投影面作成部12は、操作者の入力したレンダリング条件に基づき、画像投影面及び観察対象面の濃淡画像を表示する。すなわち、画像投影面作成部12は、操作者の入力したレンダリング条件に基づき、画像出力部16を介して、表示装置5の表示画面において観察対象面と画像投影面との距離を画像投影面中央部での距離を中間値として画像投影面の各画素を濃淡で表示する。
 ステップS15:
 操作者は、表示画面に表示された濃淡画像を観察し、濃淡で表示された階調全面における濃淡分布のバランスが取れるように、観察視点と3次元形状データを互いに回転させる。すなわち、画像投影面に対して観察対象面が平行となるように、観察視点座標と回転角度を調整する。ここで、操作者は、濃淡分布のバランスが取れた場合、調整終了の入力を入力部から行う。
 これにより、レンダリング条件設定部14は、観察視点座標と回転角度を、撮像データ記憶部17のレンダリング条件テーブルに書き込んで記憶させる。
 そして、操作者は、画像投影面に対する観察対象面の角度調整が終了したため、画像投影面に対する観察対象面の距離調整を行うため、表示モードを調整方法Aに対応したモードに再設定する。すなわち、3次元形状データの観察対象面をポリゴンで表示させ、かつ観察対象面及び画像投影面の各々を半透明表示する表示モードとする。
 ステップS16:
 レンダリング処理部15は、テクスチャマッピングされた観察対象面及び画像投影面の各々の画像を重畳表示させる。
 このとき、レンダリング処理部15は、3次元形状データにおける観察対象面のポリゴンに対して、抽出された事前撮像画像の画像データをテクスチャマッピングする。また、レンダリング処理部15は、画像投影面に対して事前撮像画像の画像データをテクスチャマッピングする。
 そして、レンダリング処理部15は、レンダリング条件に基づき、テクスチャマッピングされた観察対象面及び画像投影面との各々の画像を、半透明画像(あるいは所定の透明度に調節した画像)として重畳させ、画像出力部16を介して、表示装置5の表示画面の2次元平面に対して2次元画像として投影させて表示する。
 ステップS17:
 表示装置5の表示画面において、観察対象面及び画像投影面の各々の画像が重畳表示されると、操作者は、この重畳表示を用いて、画像投影面と観察対象面との距離の調整を行う。このとき、画像投影面と観察対象面とは平行となっているため、操作者は、観察対象面に対する画像投影面の観察視線方向の距離を調整する制御を行う。
 例えば、操作者は、図8の観察対象面及び画像投影面の各々の画像が重畳表示された画像が2重画像として観察された場合、入力部により、観察対象面に対する画像投影面の距離を、画像投影面を観察対象面に対して観察視線方向に移動させて調整する。このとき、操作者は、観察対象面に対して、画像投影面を手前方向あるいは奥方向に、所定の距離単位で移動させて、2重表示がなくなり画像が重なる距離となるように調整する。
 ステップS18:
 操作者が観察対象面及び画像投影面間の距離の調整を終了する処理を行うと、レンダリング処理部15は、3次元形状データを非表示として、画像投影面のみ、すなわち画像投影面に対して事前撮像画像がテクスチャマッピング(レンダリング)された報告用画像のみを表示する。
 ステップS19:
 次に、画像出力部16は、レンダリング条件に基づき、報告書画像に対して、視線計測装置4が求めた注視箇所を示す注視点マーカーを付加して表示する。
 すなわち、画像出力部16は、視線計測装置4が求めた注視箇所の3次元空間における座標である注視箇所座標のなかから、3次元形状データの観察対象面上の座標に対応する注視箇所座標を抽出する。そして、画像出力部16は、3次元空間における観察対象面に対して抽出した注視箇所座標に対して注視点マーカーを配置し、表示装置5の表示画面の2次元平面において、注視点マーカーを画像投影面に対して投影する。
 ステップS20:
 操作者は、表示装置5の表示画面において、注視点マーカーと報告用画像における画像(例えば、図9に示された報告用画像における商品の外観であるペットボトルの画像などの対象画像)との位置関係を確認するチェックを行う。
 そして、操作者は、画像の注視点マーカーと位置関係に問題がない場合、すなわち注視点マーカーが対象画像と重なっている場合、入力部から処理を終了させる制御を行う。
一方、操作者は、画像の注視点マーカーと位置関係に問題がある場合、すなわち注視点マーカーが対象画像と重なっていない場合、入力部から再処理をさせる制御を行う。
 このとき、画像投影面作成部12は、処理を終了させる制御が行われた場合、処理をステップS21へ進め、一方、再処理をさせる制御が行われた場合、処理をステップS13へ進める。ここで、処理をステップS13に進めるのは、対象画像の位置に対して注視点マーカーの位置がずれている場合、画像投影面に対して観察対象面が平行に配置されていない場合が多いため、画像投影面と観察対象面との成す角度を調整する段階からやり直すことが合理的である。
 ステップS21:
 画像出力部16は、処理が終了された場合、報告書画像情報とともに投影画像データ記憶部19に対して書き込んで記憶させる。
 上述したように、本実施形態においては、3次元形状データの観察対象面に対してほぼ平行となる画像投影面を設け、この画像投影面に対して事前撮像画像をテクスチャマッピングして報告用画像を生成するため、作成された報告用画像が画素の欠損あるいは画像の歪みなどの画像の品質を低下させる要因を従来に比較して低減することができる。
 これにより、本実施形態によれば、従来に比較して容易に報告用画像の品質を向上させることができる。
<第2実施形態>
 以下、本発明の第2実施形態に係る視線計測システムについて説明する。第2実施形態に係る視線計測システムの構成は、図1の第1実施形態と同様である。以下、第1実施形態と異なる第2実施形態係る視線計測システムの動作について説明する。
 図13は、第2実施形態における画像投影面作成部12による画像投影面の生成処理を説明する概念図である。
 図13においては、3次元形状データの観察対象面と、画像投影面との位置関係が明確となるように、画像投影面と3次元形状データの観察対象面とを上部から俯瞰した図としている。
 図13においては、観察視点602の観察視野603の範囲内における3次元形状の観察対象面に段差650があり、この段差650の凹底部面660と凸頂部面670との距離が同一の画像投影面では表現できない程度ある場合を示している。この場合、例えば、2個の画像投影面601_1及び画像投影面601_2を、3次元形状データ700の観察対象面に対して設ける。すなわち、3次元形状データ700の観察対象面において、観察対象面における段差650の凹底部面660に対して画像投影面601_1を設け、凸頂部面670に対して画像投影面601_2を設けている。
 画像投影面作成部12は、観察対象面の凹底部面660に対応させて画像投影面601_1を配置する。また、画像投影面作成部12は、観察対象面の凸頂部面670に対応させ、画像投影面601_2と平行に画像投影面601_2を配置する。
 画像投影面作成部12は、第1実施施形態で説明したように、画像投影面601_2に対して観察対象面の凸頂部面670が平行となるように、調整方法Bで制御する。
 そして、レンダリング処理部15は、画像投影面601_1及び画像投影面601_2の各々に対して、観察視点602に対応する事前撮像画像をテクスチャマッピングする。
 また、レンダリング処理部15は、観察対象面の凹底部面660及び凸頂部面670に対しても同様に、観察視点602に対応する事前撮像画像をテクスチャマッピングする。
 そして、操作者は、画像出力部16が表示装置5の表示画面に表示する、観察対象面と画像投影面との重畳された画像を観察して、3次元形状データを画像投影面に対して垂直に移動させる。また、操作者は、観察対象面の凹底部面660の画像と画像投影面601_1の画像とが2重像とならないように一致させる調整を行う。
 次に、操作者は、画像投影面601_2を観察視線方向に移動させて、観察対象面の凸頂部面670の画像と、画像投影面601_2の画像とが2重像とならないように一致させる調整を行う。
 上述したように、本実施形態においては、観察対象面が段差の面の各々に対して、3次元形状データの観察対象面に対してほぼ平行となる画像投影面をそれぞれ設け、この画像投影面に対して事前撮像画像をテクスチャマッピングして報告用画像を生成するため、作成された報告用画像が画素の欠損あるいは画像の歪みなどの画像の品質を低下させる要因を従来に比較して低減することができる。
 これにより、本実施形態によれば、観察対象面が段差の面を有している場合でも、従来に比較して容易に報告用画像の品質を向上させることができる。
<第3実施形態>
 以下、本発明の第3実施形態に係る視線計測システムについて説明する。第3実施形態に係る視線計測システムの構成は、図1の第1実施形態と同様である。以下、第1実施形態と異なる第3実施形態に係る視線計測システムの動作について説明する。本実施形態においては、画像投影面と観察視点との距離、および、3次元形状データの角度調整を、操作者の操作によらず、画像投影面作成部12及びレンダリング条件設定部14の各々自身が行う構成となっている。
 以下の説明においては、3次元形状データの観察対象面と画像投影面との各々の距離の二乗和を最小化するように、画像投影面作成部12及びレンダリング条件設定部14の各々が3次元形状データ及び画像投影面の各々の位置を調整する構成について説明する。
 図14は、報告用画像において3次元形状データと画像投影面との位置合わせを行う際に用いる画像領域の設定を説明する図である。
 図14には、操作者の入力部からの入力操作により、報告用画像に適するように3次元形状データと観察視点との位置関係を設定した状態における3次元形状データのレンダリング結果が示されている。この図14に示す段階においては、3次元形状データと画像投影面との位置合わせは行われていない状態である。
 3次元形状データには、床面A02、天井A03及び壁A04などの位置合わせの対象とはならない領域が含まれているため、この位置合わせの対象とはならない領域を除外するため、操作者の入力操作により、位置合わせの対象となる領域として、図14の着目領域A01を選択して設定する。
 図15は、画像投影面作成部12が行う、画像投影面と3次元形状データの観察対象面との位置の調整を説明する概念図である。
 画像投影面作成部12は、3次元形状データB01の調整範囲に含まれる観察対象面に対して、観察視点B04の観察視野B07に含まれる観察対象面から選択された着目領域B02の近似平面B03を、着目領域B02の面を構成する画素の3次元空間における座標点から最小二乗法により求める。
 また、画像投影面作成部12は、3次元形状データB01の着目領域B02に対応させ、画像投影面B10を生成して配置する。ここで、近似平面B03と画像投影面B10とのなす角をθとする。交点B08は、3次元形状データB01を回転させる回転の中心である(後述)。
 また、画像投影面作成部12が用いる近似平面B03の算出方法は、着目領域B02における画素との最小二乗法に限るものではない。
 例えば、着目領域B02において、観察視点B04から近い座標点の画素の重みを大きくすることにより、陳列棚前面の商品等の手前側のオブジェクト(3次元形状データB01における対象物体の画像)と画像投影面B10との整合性を高めることができる。
 図16は、画像投影面作成部12及びレンダリング条件設定部14の各々が行う、画像投影面と3次元形状データの観察対象面との位置の調整を説明する概念図である。
 レンダリング条件設定部14は、観察視線B06と近似平面B03の交点B08を回転中心として、例えば、3次元形状データB01を角度θだけ逆回転(図15の矢印の向きと反対方向、すなわち時計方向へ回転)させるように観察視点の位置および角度を設定し、近似平面B03と画像投影面B10とのなす角度θを「0」とする。
 これにより、図16に示すように、画像投影面B10と回転後の着目領域B02とは、近似平面B03と画像投影面B10とのなす角度θが「0」となっているために概ね平行となる。この時点において、観察視点B04及び画像投影面B10間の距離C05と、観察視点B04及び回転中心B08間の距離C06との差が、距離C07である。
 なお、本実施形態においては、一例として、2次元平面の説明図を用いて図示しているが実際は3次元空間で、3次元形状データB01を角度θだけ、上述した逆回転させるように観察視点の位置および角度を設定し、画像投影面B10が設定される。
 図17は、画像投影面作成部12が行う、画像投影面と3次元形状データの観察対象面との位置の調整を説明する概念図である。
 画像投影面作成部12は、観察視点B04及び画像投影面B10間の距離C05(図16)と、観察視点B04及び回転中心B08間の距離C06(図16)とが等しくなるよう、画像投影面B10を垂直方向に距離C07だけ移動させ、画像投影面B10と観察視点B04との距離を調整する。
 これにより、図17に示すように、観察視点B04及び画像投影面B10間の距離と、観察視点B04及び近似平面B03間の距離とが等しくなる。すなわち、観察視点B04及び画像投影面B10間の距離と、観察視点B04及び着目領域B02間の距離とが等しくなる。
 この後、第1実施形態で説明した調整方法Aを用いて、微調整を行うようにしても良い。
 以下、図14、図15、図16、図17及び図18を用いて、第3実施形態に係る視線計測システムにおける観察対象面及び画像投影面の位置の調整処理を説明する。図18は、第3実施形態に係る視線計測システムにおける観察対象面及び画像投影面の位置の調整処理の動作例を示すフローチャートである。
 ステップS31:
 画像投影面作成部12は、図14に示すように、操作者が入力部から入力した観察視点B初期視点の設定として、観察視点B04の観察視野B07に含まれる観察対象面とする報告用画像を、画像出力部16を介して表示装置5の表示画面に表示する。
 ステップS32:
 操作者は、観察対象面と画像投影面との位置合わせの対象とはならない領域を除外するため、表示装置5の表示画面に表示されている報告用画像において、位置合わせの対象となる領域として、入力部によって着目領域A01の領域を設定する。
 これにより、画像投影面作成部12は、操作者の設定に基づいて、3次元形状データにおける観察対象面において、図14に示すように、着目領域A01を生成する。
 ステップS33:
 画像投影面作成部12は、3次元形状データB01の調整範囲に含まれる観察対象面に対して、観察視点B04の観察視野B07に含まれる観察対象面から選択された着目領域B02(図14における着目領域A01)の近似平面B03を、着目領域B02の面を構成する画素の3次元空間における座標点から最小二乗法により求める。
 ステップS34:
 レンダリング条件設定部14は、観察視線B06と近似平面B03の交点B08を回転中心として、3次元形状データB01を角度θだけ逆回転(反時計方向に回転)させるように観察視点の位置および角度を調整し、近似平面B03と画像投影面B10とのなす角度θを「0」とする。
 ステップS35:
 画像投影面作成部12は、観察視点B04及び画像投影面B10間の距離C05と、観察視点B04及び回転中心B08間の距離C06とが等しくなるよう、画像投影面B10を観察視線方向に距離C07だけ移動させ、画像投影面B10と観察視点B04との距離を調整する。
 上述したように、本実施形態においては、観察対象面と画像投影面とがほぼ平行かつ観察視点との距離が同一に調整されるため、3次元形状データの観察対象面に対してほぼ平行となる画像投影面を容易に設けることができ、この画像投影面に対して事前撮像画像をテクスチャマッピングして報告用画像を生成するため、作成された報告用画像が画素の欠損あるいは画像の歪みなどの画像の品質を低下させる要因を従来に比較して低減することができる。
 これにより、本実施形態によれば、観察対象面と画像投影面とを平行とする処理、及び観察視点からの距離を同一とする処理が操作者の手作業でなく、画像投影面作成部12における計算処理で行われるため、従来に比較して容易に報告用画像の品質を向上させることができる。
<視線計測装置>
 視線計測装置4は、グローバル座標系における陳列空間において、視野画像のマッチング処理を行い、特徴点の座標である特徴点座標の抽出、カメラ撮像座標、カメラ撮像方向ベクトルの算出を行う。
 視線計測装置4は、カメラ撮像座標及びカメラ撮像方向ベクトルから、視線方向ベクトルをカメラ座標系からグローバル座標系に変換する変換行列を生成する。また、撮像方向ベクトル変換部13は、生成した変換行列により、抽出したフレーム画像に対応する視線方向ベクトルを、カメラ座標系からグローバル座標系に座標変換し、内部の記憶部に書き込んで記憶する。
 次に、視線計測装置4は、グローバル座標系における3次元形状データで構成される陳列空間の形状データを上記内部の記憶部から読み出す。そして、視線計測装置4は、読み出した3次元形状データと、撮像方向ベクトル変換部13の求めたグローバル座標系におけるカメラ撮像座標からの視線方向ベクトルとが交差する座標を求める。そして、視線計測装置4は、3次元形状データとカメラ撮像座標からの視線方向ベクトルとが交差する座標を、観察者が注視する注視箇所の候補とする。このとき、視線計測装置4は、注視箇所候補の各々に観察者の視線方向ベクトルが留まっている時間を計測し、所定の閾値を超える時間視線方向ベクトルが留まっている注視箇所候補を、観察者が注視する注視箇所とし、この注視箇所のグローバル座標系における座標を、内部の記憶部に書き込んで記憶させるとともに、画像処理装置1に対して供給する。
 なお、本発明における図1の画像処理装置の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより報告用画像の作成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 1…画像処理装置
 2…撮像装置
 3…利用者観測装置
 4…視線計測装置
 5…表示装置
 11…3次元空間再構成部
 12…画像投影面作成部
 13…撮像方向ベクトル変換部
 14…レンダリング条件設定部
 15…レンダリング処理部
 16…画像出力部
 17…撮像データ記憶部
 18…グローバル座標系データ記憶部
 19…投影画像データ記憶部
 31…利用者撮像部
 32…利用者視線計測部

Claims (11)

  1.  観察対象の3次元形状データを構成する観察対象面データに近似する画像投影面データを生成する画像投影面作成部と、
     前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング処理部と
     を備える画像処理システム。
  2.  前記画像投影面作成部が、
     前記3次元形状データの前記観察対象面データに応じた形状により、当該形状に対応する前記画像投影面データを複数設ける
     請求項1に記載の画像処理システム。
  3.  前記画像投影面作成部が、
     前記3次元形状データにおける観察者の観察視点に対応した前記観察対象面データに基づく位置と、当該観察対象面データに対して設けられた前記画像投影面データに基づく位置との関係を、前記観察対象面データと前記画像投影面データの各々の単位領域の強調表示により示す
     請求項1又は請求項2に記載の画像処理システム。
  4.  前記画像投影面作成部が、
     前記観察対象面データに基づく位置と前記画像投影面データに基づく位置との関係を、前記観察対象面データ及び前記画像投影面データの各々の前記単位領域の階調度によって強調表示する
     請求項3に記載の画像処理システム。
  5.  前記画像投影面作成部が、
     前記観察対象面データに基づく位置と前記画像投影面データに基づく位置との関係を、前記観察対象面データ及び前記画像投影面データの各々の前記単位領域の表示色によって強調表示する
     請求項3に記載の画像処理システム。
  6.  前記画像投影面作成部が、
     前記観察対象面データと前記画像投影面データとの対応する画素毎の前記3次元空間における距離を元にした統計処理により、前記観察対象面データに基づく位置に対して前記画像投影面データに基づく位置が所定の位置に配置するように、前記画像投影面データを生成する
     請求項1から請求項5のいずれか一項に記載の画像処理システム。
  7.  請求項1から請求項6のいずれか一項に記載の画像処理システムを備えており、
     前記画像投影面データに対し、観察者が注視する注視箇所を表示する
     視線計測システム。
  8.  画像投影面作成部によって、観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成過程と、
     レンダリング処理部によって、前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング処理過程と
     を含む画像処理方法。
  9.  請求項8に記載の画像処理方法を含んでおり、
     前記画像投影面データに対し、観察者が注視する注視箇所を表示する
     視線計測方法。
  10.  コンピュータを、
     観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成部、
     前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング部
     として動作させるためのプログラム。
  11.  コンピュータを、
     観察対象の3次元形状データの観察対象面データに近似する画像投影面データを生成する画像投影面作成部、
     前記画像投影面データに対し、前記観察対象面データに対応する前記観察対象の撮像画像をテクスチャマッピングし、表示画像を生成するレンダリング部、
     前記画像投影面データに対し、観察者が注視する注視箇所を表示する表示部を制御する制御部
     として動作させるためのプログラム。
PCT/JP2016/053334 2015-02-04 2016-02-04 画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム WO2016125851A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-020247 2015-02-04
JP2015020247A JP6586730B2 (ja) 2015-02-04 2015-02-04 画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2016125851A1 true WO2016125851A1 (ja) 2016-08-11

Family

ID=56564190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053334 WO2016125851A1 (ja) 2015-02-04 2016-02-04 画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6586730B2 (ja)
WO (1) WO2016125851A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7266422B2 (ja) * 2019-02-25 2023-04-28 株式会社パスコ 注視行動調査システム、及び制御プログラム
JP7127212B2 (ja) * 2019-04-25 2022-08-29 富士フイルム株式会社 画像の向き設定装置、方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152133A (ja) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体
JP2012146199A (ja) * 2011-01-13 2012-08-02 Nippon Steel Corp 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152133A (ja) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体
JP2012146199A (ja) * 2011-01-13 2012-08-02 Nippon Steel Corp 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP6586730B2 (ja) 2019-10-09
JP2016143321A (ja) 2016-08-08

Similar Documents

Publication Publication Date Title
KR101761751B1 (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
US10659750B2 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US7965304B2 (en) Image processing method and image processing apparatus
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
DE202017105894U1 (de) Headset-Entfernung in virtueller, erweiterter und gemischter Realität unter Verwendung einer Blick-Datenbank
JP2008532149A (ja) Arオブジェクトとの光学的な重なり合いを判定する方法および装置
CN105589293A (zh) 全息投影方法及全息投影系统
US20210042948A1 (en) Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method
US10665034B2 (en) Imaging system, display apparatus and method of producing mixed-reality images
US12026903B2 (en) Processing of depth maps for images
WO2016002656A1 (ja) 視線計測システム、視線計測方法、及びプログラム
JP2021056679A (ja) 画像処理装置、方法及びプログラム
WO2016125851A1 (ja) 画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム
JP2019102828A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014106642A (ja) 光学式シースルー型hmdを用いたarシステム
US11043019B2 (en) Method of displaying a wide-format augmented reality object
US20200211275A1 (en) Information processing device, information processing method, and recording medium
CN110060349B (zh) 一种扩展增强现实头戴式显示设备视场角的方法
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP2004030408A (ja) 三次元画像表示装置及び表示方法
WO2017191703A1 (ja) 画像処理装置
Lai et al. Exploring manipulation behavior on video see-through head-mounted display with view interpolation
JP2003256804A (ja) 視野映像生成装置、視野映像生成方法、視野映像生成プログラムおよびそのプログラムを記録した記録媒体
JP7465133B2 (ja) 情報処理装置、情報処理方法
WO2021166751A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16746682

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16746682

Country of ref document: EP

Kind code of ref document: A1