WO2010143600A1 - 3次元情報提示装置 - Google Patents

3次元情報提示装置 Download PDF

Info

Publication number
WO2010143600A1
WO2010143600A1 PCT/JP2010/059599 JP2010059599W WO2010143600A1 WO 2010143600 A1 WO2010143600 A1 WO 2010143600A1 JP 2010059599 W JP2010059599 W JP 2010059599W WO 2010143600 A1 WO2010143600 A1 WO 2010143600A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
dimensional information
light projecting
projecting means
information presentation
Prior art date
Application number
PCT/JP2010/059599
Other languages
English (en)
French (fr)
Inventor
佐藤 淳
文彦 坂上
雅彦 稲垣
Original Assignee
国立大学法人名古屋工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人名古屋工業大学 filed Critical 国立大学法人名古屋工業大学
Priority to EP10786131.2A priority Critical patent/EP2450736B1/en
Priority to JP2011518524A priority patent/JP5669212B2/ja
Priority to US13/376,004 priority patent/US8807810B2/en
Publication of WO2010143600A1 publication Critical patent/WO2010143600A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/40Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images giving the observer of a single two-dimensional [2D] image a perception of depth
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/20Stereoscopic photography by simultaneous viewing using two or more projectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen

Definitions

  • the present invention relates to a three-dimensional information presentation device that presents three-dimensional information, for example, by coloring a road surface according to the height of unevenness or coloring an obstacle when the vehicle is traveling. It is possible to provide driver assistance.
  • Non-Patent Documents 1 and 2 many techniques for three-dimensional measurement using a projector and a camera have been proposed (for example, see Non-Patent Documents 1 and 2). These perform some coding on the projector light, receive the projected light with the camera, use the coding to take correspondence between the points on the projector image and the points on the camera image, and The three-dimensional distance is measured by the principle of surveying.
  • a technique for presenting the measured three-dimensional information information is displayed on the user using a display or the like (see Patent Documents 1 and 2), and information is displayed on the windshield surface using a head-up display (HUD). There is one that presents (see Patent Document 3).
  • Non-Patent Documents 1 and 2 a conventional three-dimensional measurement technique using a projector has a final purpose of restoring three-dimensional information. How to present this to the user is different. It has been considered a problem.
  • the information presentation technology as represented by Patent Documents 1 and 2, since the obtained three-dimensional information is presented using an information presentation device such as a display monitor, the user can visually recognize the information. The display monitor had to be watched and the line of sight had to be moved from the actual 3D scene. When presenting information when driving a vehicle, etc., this leads to side-view driving, which is not preferable for safety.
  • Patent Document 3 in the case of a technique for displaying distance information by displaying a virtual object at the position of a real object on the windshield using a head-up display, it is clear from being displayed on the windshield. Display is difficult, and since the focal length of the driver is greatly different between the real object and the display object on the windshield, there is a problem in terms of safety due to defocusing. In addition, to accurately present information according to the position of the real object, it is necessary to accurately measure the driver's viewpoint position. There are also problems such as misalignment. In addition, there is a method of presenting information using a head mounted display (HMD), but there are the same problems as HUD, and there are also problems that it is difficult to wear the HMD on the head during driving. These are all problems that occur because information is presented indirectly using a display device such as a display, HUD, or HMD.
  • HMD head mounted display
  • the present invention has been made in view of the above points, and it is an object of the present invention to directly present three-dimensional information on a target three-dimensional object surface rather than using a display device such as a display or a HUD.
  • a special coded light pattern is projected from two or more projectors installed at different positions and irradiated onto the object surface. Coding can be done using color or luminance. Light from two projectors placed at different positions is mixed on the object surface to become one color and brightness. However, if coding is devised, the color and brightness generated on the object surface will be It can be changed according to the distance. This is because the positions at which the lights of the two projectors change according to the distance of the object, based on the same principle as triangulation using two cameras.
  • the present invention has been made based on the above examination and has the following characteristics.
  • the present invention includes a plurality of light projecting units that irradiate light to the same spatial region, and a pattern of light irradiated from the plurality of light projecting units is spatially encoded to form a three-dimensional irradiation surface. It is characterized by visualizing information.
  • a light pattern is spatially encoded means, for example, a pattern as shown in FIGS. 2 and 9 (a pattern in which the wavelength and intensity of light are spatially changed) described later. ) To be set.
  • FIG. 1 shows the structure of the three-dimensional information presentation apparatus in 1st Embodiment of this invention. It is a figure which shows the projection pattern of the two projectors in FIG. It is a figure for demonstrating the setting of the reference plane at the time of applying the three-dimensional information presentation apparatus shown in FIG. 1 to a vehicle. It is a figure for demonstrating distance measurement using the distance from a reference plane. It is a figure for demonstrating the color change at the time of projecting a color gradation. It is a figure for demonstrating the emphasis presentation of the road surface shape using a vehicle-mounted projector. It is a figure for demonstrating the calculation of planar projection conversion.
  • FIG. 1 It is a figure which shows the structure of the three-dimensional information presentation apparatus in 2nd Embodiment of this invention. It is a figure which shows the projection pattern of the three projectors in FIG. It is a figure which shows the projection pattern of the three projectors in FIG. It is a figure which shows notionally the brightness
  • FIG. 1 shows a configuration of a three-dimensional information presentation apparatus according to the first embodiment of the present invention.
  • this three-dimensional information presentation apparatus light is irradiated from two projectors P1 and P2 onto the target object surface as shown in FIG.
  • the light emitted from the two projectors P1 and P2 is added on the object plane to become one color and luminance. Since light is simply added on the object plane, the color and brightness of the point A on the object plane in FIG. 1 are the same as the color and brightness of the point a 1 on the image plane of the first projector P1.
  • P2 color and brightness of a 2 points of the image on the surface is that the addition of the.
  • the color and luminance of the point B on the object plane are the addition of the light color and luminance at the points b 1 and b 2
  • the color and luminance of the point C are the light color and luminance at the points c 1 and c 2 . Addition of luminance.
  • the pattern of light emitted from the two projectors P1 and P2 is made to be a gradation pattern in which the change in shading is reversed between the two projectors as shown in FIG. 2, that is, spatially coded.
  • the direction in which the shade is changed is the direction in which the two projectors P1 and P2 are arranged, more specifically, the linear direction connecting the projection centers of the two projectors P1 and P2, and the change in the shade is linear. It shall be changed. Then, the luminance of the point A becomes black by adding the black of the point a 1 and the black of the point a 2 .
  • the brightness of point B is gray by adding the gray of point b 1 and the gray of point b 2
  • the brightness of point C is white by adding the white of point c 1 and the white of point c 2 . Since the brightness of the two projectors P1 and P2 changes linearly, all the points at the same distance as the point A are the same black, all the points at the same distance as the point B are the same gray, and the same distance as the point C All points in are the same white color. Therefore, the three-dimensional distance of each point on the object plane is visualized by the brightness generated on the object plane.
  • the three-dimensional distance visualized at this time can be a distance in a direction perpendicular to any reference plane provided in the three-dimensional space.
  • the vehicle traveling direction can be visualized as shown in FIG. 3A in order to visualize the distance to the vehicle or obstacle existing in front of the road.
  • the plane perpendicular to is the reference plane ⁇ .
  • the difference in height in the direction perpendicular to the road surface can be visualized by using the road surface as a reference plane ridge as shown in FIG. it can.
  • Equations 1 and 2 are equal except for the indefiniteness of a constant multiple.
  • the calculation of the planar projective transformation matrix Hcp1, Hcp2 can be performed by linear calculation as follows. Consider the case of seeking Hcp1. For this purpose, consider a vector h in which nine elements of a 3 ⁇ 3 matrix Hcp1 are vertically arranged (see Equation 3).
  • Hij is an element of i-th row and j-th column of Hcp1.
  • the following linear equation is obtained by developing and rearranging the projective transformation formula of Formula 1 (see Formula 4).
  • 0 is a zero vector
  • M is an 8 ⁇ 9 matrix shown below (see Equation 5).
  • the contents of the matrix M are all known because they are the coordinate values of the points in the projector image and the camera image. Accordingly, by solving the linear equation of Equation 4, the vector h is obtained, and the projective transformation matrix Hcp1 is obtained. Note that the solution h of Expression 4 is obtained as an eigenvector corresponding to the minimum eigenvalue of the matrix M T M. The calculation of Hcp2 can be performed in the same way.
  • projective transformation can be obtained from at least four corresponding points. When there are five or more corresponding points, projective transformation can be performed more stably by using all these N points. Can be requested.
  • the matrix M is a 2N ⁇ 9 matrix, but h may be obtained as an eigenvector corresponding to the minimum eigenvalue of M T M as before.
  • the gradation pattern of the two projectors P1 and P2 is created so that the luminance value obtained by adding the light emitted from the two projectors P1 and P2 is constant on the reference plane ⁇ .
  • two gradation images I1 and I2 (corresponding to FIGS. 2 (a) and 2 (b), respectively) in which the direction of luminance change is opposite as shown in FIG. 2 are created.
  • the gradation image I1 is subjected to projective transformation using the plane projection transformation Hcp1 so that the gradation images I1 and I2 can be obtained by the camera C1, and the gradation image I2 is subjected to projection transformation using the plane projection transformation Hcp2.
  • the first projector P1 is set so that the gradation image I1 ′ is projected from the first projector P1
  • the second projector P2 The second projector P2 is set so that the gradation image I2 ′ is projected.
  • the superimposed luminance changes according to the distance from the reference plane ⁇ , and the observed luminance value is Change.
  • the distance from the reference plane can be visualized and displayed. Since the reference plane can be set freely in the three-dimensional space, for example, if the reference plane is taken perpendicular to the vehicle traveling direction as shown in FIG. 3A, the luminance change according to the distance ahead of the vehicle If a reference plane is taken on the road surface as shown in FIG. 3B, a luminance change according to the unevenness of the road surface can be added.
  • plane projection transformations Hcp1 and Hcp2 are obtained by the same method as described above, and are projected from the projectors P1 and P2 using them. Set the color gradation image.
  • information acquisition and information presentation can be performed simultaneously by presenting three-dimensional information directly on the object surface using light mixing. It is possible to solve the problem of the calibration of the coordinate system in the existing system in which the presentation system is divided, the problem of the deviation between the real object and the display object that occurs when an indirect information presentation means such as a display is used. In other words, instead of performing 3D measurement and 3D information presentation separately as in Non-Patent Documents 1 and 2, these two are completely integrated, and visualization of 3D information restores 3D information. Can be done without intervention.
  • the presentation of the three-dimensional information is not performed using a display device (display screen) such as a display or a HUD, but is presented as a difference in color or brightness directly on the target three-dimensional object surface.
  • a display device display screen
  • HUD display screen
  • the distance from the reference plane ⁇ is emphasized and presented, but in the second embodiment, the specific three-dimensional region is emphasized and presented. In other words, in this embodiment, three-dimensional information that is not proportional to the distance is presented.
  • the light patterns ⁇ , ⁇ , and ⁇ emitted from the three projectors P1, P2, and P3 are gradation patterns in which the change in shading is nonlinear.
  • the luminance of the specific area D in the target object surface is high, and the luminance of the other areas is lower than the luminance of the specific area D. Therefore, the specific three-dimensional region is emphasized and presented by the luminance generated on the object plane.
  • region E of FIG. 11 has shown the area
  • [ ⁇ 1 ,..., ⁇ N ] T
  • [ ⁇ 1 ,..., ⁇ N ] T
  • the contribution W takes a value from 0 to 1, where 0 represents that the pixel does not contribute to the coloring of the point j at all, and 1 represents a large contribution.
  • the degree of contribution is determined in accordance with the size of the overlap between the light beam emitted from the pixel and the discrete point j.
  • the M ⁇ 3N matrix on the left side represents the contribution (weight) of each pixel.
  • This Formula 7 can be expressed as Formula 8 below.
  • W is an M ⁇ 3N matrix of Equation 7
  • Y is a vector that represents the projection pattern of each projector
  • I is a vector that represents the observed colors at M discrete points.
  • the contents of the matrix W are all known because they can be obtained in advance from the size of the overlap between the light rays emitted from each pixel and each point in the target space.
  • the vector I is set according to the target coloring. Therefore, by solving the linear equation of Equation 8, the vector Y, that is, the projection pattern of each projector can be obtained.
  • the projection pattern of each projector obtained in this way may include a negative luminance value, but negative light cannot be projected from the projector.
  • the projection pattern obtained in this way is projected from the projectors P1, P2, and P3, the superimposed luminance changes depending on the position on the target object surface, and the observed luminance value changes.
  • the projection results obtained in this way are shown in FIG. As described above, the luminance value observed in the specific three-dimensional area is increased, whereby the specific three-dimensional area can be emphasized.
  • this three-dimensional information presentation device when this three-dimensional information presentation device is applied to a vehicle to form an in-vehicle projector, an object 10 (a vehicle, an obstacle, etc.) existing in a specific area in front of a road can be highlighted as shown in FIG. .
  • an object 10 a vehicle, an obstacle, etc.
  • this three-dimensional information presentation device can be applied to a product inspection device. That is, as illustrated in FIG. 16, the product 11 is irradiated with light from a plurality of projectors P1, P2, and P3, so that the three-dimensional portion other than the regular shape portion of the product 11 (the rectangular parallelepiped shape portion in the example of FIG. 16). Try to highlight areas. As a result, the defect shape portion 12 of the product (columnar shape portion in the example of FIG. 16) is emphasized, and it is possible to easily determine the presence or absence of the product defect.
  • the color of the added light is white (colorless) on the reference plane by making one color complementary to the other color, Other than the reference plane, the color of the added light may be colored.
  • the coded pattern light projected from the projector does not need to be a stationary pattern light, and can be a dynamic pattern light that changes with time.
  • temporally and spatially encoded dynamic pattern light it is possible to color and change brightness according to the motion of a moving three-dimensional object, and to perform a specific motion It is possible to emphasize and present only the object to be performed.
  • the presented three-dimensional information may be acquired by a three-dimensional information acquisition unit and used for controlling various devices.
  • the projection results from the projectors P1 and P2 are photographed by the camera 30, and the photographed image is input to the control device 31 serving as a three-dimensional information acquisition unit.
  • Various determination processes may be performed based on the obtained image, and a control signal may be output to the various devices to be controlled 32 based on the determination result.
  • control target device 32 is a vehicle collision danger alarm device
  • the control device 31 determines whether a vehicle or an obstacle exists in front of the road, and the vehicle or obstacle exists in front of the road. If it is determined, an alarm sound generation signal may be output to the vehicle collision danger alarm device.
  • control target device 32 is a product defect alarm
  • the control device 31 determines whether or not the product has a defect shape, and if it determines that the product has a defect shape, What is necessary is just to make it output a notification sound generation signal to a defect alarm.
  • the coded pattern light projected from the projector does not need to be visible light, and can be invisible light.
  • infrared light is projected as invisible light from the projectors P ⁇ b> 1 and P ⁇ b> 2
  • an infrared camera is used as the camera 30, and an infrared image (invisible image) captured by the camera 30 is input to the control device 31. Also good.
  • the light projecting means may be configured using a plurality of light emitting means (LEDs or the like) instead of the projector as shown in FIG.
  • LEDs light emitting means
  • the light projecting means when the light projecting means is installed in the left and right headlight devices provided at the front of the vehicle, or the headlight is composed of a plurality of light emitting means (LEDs, etc.) Some of them may be used as a light projecting means for an in-vehicle projector.
  • the number of light projecting means is not limited to two and may be three or more according to the applied technology. By increasing the number of light projecting means, more complicated nonlinear three-dimensional information can be emphasized and presented.
  • the present invention comprises a plurality of light projecting means for irradiating light to the same spatial region, and a pattern of light emitted from the plurality of light projecting means is spatially encoded to obtain three-dimensional information of the irradiated surface.
  • the first feature is that it is made visible.
  • the light pattern is spatially encoded means, for example, that the light pattern is a pattern as shown in FIG. 2 or 9 (a pattern in which the wavelength or intensity of light is spatially changed). Say that it is set.
  • the light pattern emitted from the plurality of light projecting units is a space in which a distance in a direction perpendicular to a reference plane set in a three-dimensional space is presented.
  • the second feature is that the data is coded in an automatic manner.
  • the light emitted from the plurality of light projecting units is visible light, and the pattern of visible light is irradiated from the plurality of light projecting units to the reference plane.
  • a third feature is that the distance in the vertical direction is visualized.
  • the present invention is characterized in that, in the third feature described above, the light pattern irradiated from the plurality of light projecting means is a gradation pattern.
  • the present invention is characterized in that, in the fourth feature, the gradation pattern is a pattern in which light is changed in an arrangement direction of the plurality of light projecting means.
  • the gradation pattern is set such that a luminance value obtained by adding the light emitted from the plurality of light projecting units is constant on the reference plane. It is characterized by.
  • the seventh feature of the present invention is that, in any one of the third to sixth features, a pattern of light emitted from the plurality of light projecting means is coded by a change in shading.
  • the eighth feature of the present invention is that, in any one of the third to sixth features, a pattern of light emitted from the plurality of light projecting means is encoded by a change in color.
  • the reference color is a complementary color of the color of the light pattern projected from one of the plurality of light projecting units, and the reference color is the reference color.
  • the ninth feature is that the color of the added light is white on the plane, and the color of the added light is colored except on the reference plane.
  • the plurality of light projecting units are installed in a vehicle, and light is emitted from the plurality of light projecting units to a space area in front of the vehicle.
  • the tenth feature is that the distance to an object existing in front of the vehicle is visualized.
  • the plurality of light projecting units are installed in a vehicle, and light is emitted from the plurality of light projecting units to a space area in front of the vehicle.
  • the eleventh feature is that the difference in height in the vertical direction with respect to the road surface ahead of the vehicle is visualized.
  • the twelfth feature is that the plurality of light projecting means are installed in a headlight device of a vehicle.
  • the thirteenth feature is that the plurality of light projecting means are configured as a part of a plurality of light emitting means constituting a headlight of a vehicle.
  • the light emitted from the plurality of light projecting units is invisible light, and a pattern of invisible light is irradiated from the plurality of light projecting units to the reference plane.
  • a fourteenth feature is that the distance in the vertical direction is presented.
  • a fifteenth feature is provided with three-dimensional information acquisition means for acquiring three-dimensional information presented by invisible light emitted from the plurality of light projecting means.
  • the plurality of light projecting units are installed in a vehicle, and invisible light is irradiated from the plurality of light projecting units to a space area in front of the vehicle, so that the front of the vehicle
  • a sixteenth feature is to present a difference in height in a direction perpendicular to a distance to an existing object or a road surface in front of the vehicle.
  • the pattern of light emitted from the plurality of light projecting units is spatially encoded so that a specific three-dimensional region is highlighted.
  • the plurality of light projecting units are installed in a vehicle, and the front region of the vehicle is identified by irradiating invisible light to a space area in front of the vehicle from the plurality of light projecting units.
  • An eighteenth feature is that an object existing in a region is highlighted.
  • the present invention is the nineteenth feature according to the seventeenth feature, wherein the plurality of light projecting means irradiate the product with light to highlight and show a defective shape portion of the product.
  • the apparatus includes a plurality of light projecting units that irradiate light to the same spatial region, and a spatial pattern is formed in the light irradiated by the plurality of light projecting units.
  • a light pattern corresponding to three-dimensional information is generated on the object by overlapping the light emitted from the plurality of light projecting units on the existing object.
  • P1, P2 projector (light projection means)

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Non-Portable Lighting Devices Or Systems Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】3次元情報の提示をディスプレイやHUDなどの表示装置を用いて行うのではなく、対象となる3次元物体面上に直接行う。 【解決手段】対象物体面に対して2台のプロジェクタP1、P2から空間的にコード化された光のパターンを照射する。2台のプロジェクタP1、P2から照射された光は物体面上において足し合わされて一つの色や輝度となる。物体面上においては、光は単純に加算されるので、物体面上には、距離や高さに応じた色や明るさのパターンが生じ、物体上の色や明るさにより物体までの距離情報や物体の3次元形状を強調して人間に知覚させることが可能となる。

Description

3次元情報提示装置
 本発明は、3次元情報を提示する3次元情報提示装置に関し、例えば、車両走行時において、道路面に対して凹凸の高さに応じた色付けを行ったり、障害物に対して着色することにより、ドライバー支援を行うことを可能とする。
 従来、プロジェクタとカメラを用いて3次元計測する技術が多数提案されている(例えば、非特許文献1、2参照)。これらは、プロジェクタ光に対して何らかのコード化を行い、投光された光をカメラで受光し、コード化を用いてプロジェクタ画像上の点とカメラ画像上の点との間で対応を取り、三角測量の原理で3次元距離を計測するものである。また、計測された3次元情報を提示する技術としては、ディスプレイなどを用いてユーザに情報表示するもの(特許文献1、2参照)、ヘッドアップディスプレイ(HUD)を用いてフロントガラス面などに情報提示を行うものがある(特許文献3参照)。
特開2008-275380号公報 特開2007-235529号公報 特開2005-75190号公報
S.G.Narasimhan, S.J.Koppal, S. Yamazaki, Temporal Dithering of Illumination for Fast Active Vision, , Proc. ECCV2008, pp.830-844, 2008. T. Koninckx, I. Geys, T. Jaeggli, L.V. Gool, A graph cut based adaptive structures light approach for real-time range acquisition, Proc. 3DPVT, 2004.
 非特許文献1、2に代表されるように、従来のプロジェクタを用いた3次元計測技術は、3次元情報を復元することを最終目的としており、これを如何にユーザに提示するかは別の問題として考えられてきた。一方、情報提示技術においては、特許文献1、2に代表されるように、得られた3次元情報をディスプレイモニタなどの情報提示装置を用いて提示することから、ユーザーは情報を視認するためにディスプレイモニタを注視しなければならず、実際の3次元シーンから視線を移動させなければならなかった。車両運転時などに情報提示する場合には、これは脇見運転につながることから、安全上好ましくない。また、特許文献3のように、ヘッドアップディスプレイを用いてフロントガラスの実物体の位置に仮想物体を表示して距離情報を提示する技術の場合には、フロントガラス上に表示されることから鮮明な表示が難しく、また、ドライバーの焦点距離が実物体とフロントガラス上の表示物体とでは大きく異なることから焦点ずれが生じ安全上問題がある。また、実物体の位置に合わせて正確に情報提示するためには、ドライバーの視点位置を正確に計測する必要があるが、実際には正確な計測ができないため、実物体と表示物体との間で位置ずれが生じるなどの問題もある。また、ヘッドマウントディスプレイ(HMD)を用いて情報提示する方法もあるが、HUDと同じ問題が生じる上に、運転時などにおいてはHMDを頭部に装着することは難しいなどの問題もある。これらは、すべて、ディスプレイやHUD、HMDなどの表示装置を用いて間接的に情報提示を行っているために生じる問題である。
 本発明は上記点に鑑みて、3次元情報の提示をディスプレイやHUDなどの表示装置を用いて行うのではなく、対象となる3次元物体面上に直接行うことを目的とする。
 上記目的を達成するため、本発明者らは、以下の検討を行った。異なる位置に設置された2台以上の複数のプロジェクタから特殊なコード化された光のパターンを投光し物体面に照射する。コード化は色を用いて行うことも輝度を用いて行うことも可能である。異なる位置に置かれた2台のプロジェクタからの光は、物体面上において混合されて一つの色や明るさとなるが、コード化を工夫すると、物体面上に生じる色や明るさは、プロジェクタからの距離に応じて変化させることができる。これは、2台のカメラによる三角測量と同じ原理により、2台のプロジェクタの光同士の交わる位置が、物体の距離に応じて変化するためである。この結果、物体面上には、距離や高さに応じた色や明るさのパターンが生じ、物体上の色や明るさにより物体までの距離情報や物体の3次元形状を強調して人間に知覚させることが可能となる。距離に応じた色や明るさの変化のさせ方は、コード化のパターンによって調節することができる。
 本発明は、上記の検討をもとになされたもので、以下のような特徴を有する。
 すなわち、本発明は、同一の空間領域に対して光を照射する複数の投光手段を備え、前記複数の投光手段から照射する光のパターンが空間的にコード化されて照射面の3次元情報を可視化するようになっていることを特徴とする。
 なお、本発明における「光のパターンが空間的にコード化される」とは、例えば光のパターンが後述する図2や図9のようなパターン(光の波長や強度が空間的に変化したパターン)に設定されることを言う。
本発明の第1実施形態における3次元情報提示装置の構成を示す図である。 図1中の2台のプロジェクタの投影パターンを示す図である。 図1に示す3次元情報提示装置を車両に適用した場合の基準平面の設定を説明するための図である。 基準平面からの距離を用いた距離計測を説明するための図である。 カラーグラデーションを投影した場合の色変化を説明するための図である。 車載プロジェクタを用いた路面形状の強調提示を説明するための図である。 平面投影変換の計算を説明するための図である。 本発明の第2実施形態における3次元情報提示装置の構成を示す図である。 図8中の3台のプロジェクタの投影パターンを示す図である。 図8中の3台のプロジェクタの投影パターンを示す図である。 図8に示す3次元情報提示装置によって照射された対象物体面の輝度を概念的に示す図である。 図8に示す3次元情報提示装置における投影パターンの計算方法を説明するための図である。 図8に示す3次元情報提示装置における輝度の表現方法を説明するための図である。 図8に示す3次元情報提示装置によって得られる投影結果の一例を示す図である。 車載プロジェクタを用いた障害物の強調提示を説明するための図である。 製品検査装置に適用した場合における製品の欠陥形状部分の強調提示を説明するための図である。 提示された3次元情報を利用して制御対象機器を制御する実施形態におけるシステム構成を示すブロック図である。
 (第1実施形態)
 図1に、本発明の第1実施形態に係る3次元情報提示装置の構成を示す。この3次元情報提示装置では、図1に示すように対象物体面に対して2台のプロジェクタP1、P2から光を照射する。2台のプロジェクタP1、P2から照射された光は物体面上において足し合わされて一つの色や輝度となる。物体面上においては、光は単純に加算されるので、図1の物体面上の点Aの色や輝度は、第1プロジェクタP1の画像面上の点aの色や輝度と第2プロジェクタP2の画像面上の点aの色や輝度が加算されたものとなる。同様に、物体面上の点Bの色や輝度は点bと点bにおける光の色や輝度の加算となり、点Cの色や輝度は点cと点cにおける光の色や輝度の加算となる。
 このとき2台のプロジェクタP1、P2から照射する光のパターンを、図2に示すように、2台それぞれで濃淡の変化が逆であるようなグラデーションのパターンとする、つまり空間的にコード化する。濃淡を変化させる方向は、2台のプロジェクタP1、P2の並び方向、より具体的には2台のプロジェクタP1、P2の投影中心を結ぶ直線方向とし、また、濃淡の変化はリニア(線形)に変化させるものとする。すると、点Aの輝度は点aの黒と点aの黒が加算されて黒色となる。また、点Bの輝度は点bの灰色と点bの灰色が加算されて灰色となり、点Cの輝度は点cの白と点cの白が加算されて白となる。2台のプロジェクタP1、P2の輝度はリニアに変化しているので、点Aと同じ距離にある点は全て同じ黒色となり、点Bと同じ距離にある点は全て同じ灰色、点Cと同じ距離にある点は全て同じ白色となる。したがって、物体面上に生成される輝度によって、物体面上の各点の3次元距離が可視化される。
 このとき可視化する3次元距離は、3次元空間中に設けた任意の基準平面Πに対して垂直な方向の距離とすることができる。例えば、この3次元情報提示装置を車両に適用して車載プロジェクタとした場合、道路前方に存在する車両や障害物までの距離を可視化するには、図3(a)に示すように車両進行方向に垂直な面を基準平面Πとする。また、道路面の凹凸を可視化したい場合には、図3(b)に示すように道路面を基準平面Πとすることにより、道路面に対して垂直方向の高さの違いを可視化することができる。
 なお、図2に示すように、白から黒に変化するようなグレースケールのグラデーション画像を投影した場合、図4に示すように、基準平面Πからの距離が変化すると、重ね合わさる画素値が変化し、観測される輝度値が変化する。これにより、観測輝度により基準平面Πからの距離を強調提示することができる。また、白から黒に変化するようなグレースケールのグラデーション画像ではなく、図5に示すように、赤から緑に変化(図2の白→灰色→黒に対し赤→黄→緑と変化)するカラーグラデーション画像を投影した場合、プロジェクタと物体の距離が遠い場合は観測輝度が緑に、近い場合は観測輝度が赤に変化することになる。したがって、図3(b)のように道路面の凹凸を可視化する場合、路面上を基準平面として校正を行い、図6に示すように、車載プロジェクタP1、P2から路面に対してパターンを投影すると、路面上の凸部aについては赤色が、凹部bについては緑色が観測されることになる。また、路面cについてはこの中間色である黄色が観測される。これにより、路面形状が色情報を用いて提示可能となり、ドライバに対する路面形状の強調提示が実現できる。
 次に、上記したような基準平面に応じた3次元距離の可視化の方法を詳しく説明する。まず、第1プロジェクタP1および第2プロジェクタP2から投影される画像の校正方法を説明する。プロジェクタP1、P2から投影される画像を校正する際にはカメラC1が用いられる。
 いま、図7に示すように、空間中に基準平面Π、カメラC1、プロジェクタP1、P2が配置されている場合を考える。このとき、プロジェクタP1の画像平面πp1とカメラC1の画像平面πcの間には平面Πを介した平面射影変換Hcp1が存在する。同様に、πcとπp2の間にも平面射影変換Hcp2が存在する。このような平面射影変換は4組の対応点組により計算することが可能である。
 そこで、プロジェクタP1から4つの点x1i=[x1i,y1i,1](i=1,…,4)を、またプロジェクタP2 から4つの点x2i=[x2i,y2i,1](i=1,…,4)をそれぞれ基準平面Πに投光する。ここで、点の座標は斉次座標を用いて表しており、Tは転置を表している。次に、これらの点をカメラC1によって撮影した像x'1i=[x'1i,y'1i,1],x'2i[x'2i,y'2i,1](i=1,…,4)を基に、数式1、2の関係を満たす3×3の平面射影変換行列Hcp1, Hcp2 を求める。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 ここで数式1、2中の記号~は定数倍の不定性を除いて等しいことを表す。この平面射影変換行列Hcp1, Hcp2 の計算は、以下のようにして線形計算により行うことができる。今、Hcp1 を求める場合を考える。このために、3×3行列Hcp1の9つの要素を縦に並べたベクトルhを考える(数式3参照)。
Figure JPOXMLDOC01-appb-M000003
 hijはHcp1のi行j列の要素である。数式1の射影変換式を展開して整理しなおすことで、以下の線形方程式が得られる(数式4参照)。
Figure JPOXMLDOC01-appb-M000004
 ここで、0 は零ベクトルであり、Mは以下に示す8×9行列である(数式5参照)。
Figure JPOXMLDOC01-appb-M000005
 行列Mの中身は、プロジェクタ画像とカメラ画像における点の座標値であるため全て既知である。従って数式4の線形方程式を解くことで、ベクトルhが求まり、射影変換行列Hcp1 が求まる。なお、数式4の解hは行列MMの最小固有値に対応する固有ベクトルとして求まる。Hcp2 の計算も同様にして行うことができる。
 以上のようにして最低4点の対応点から射影変換を求めることができるが、5点以上のN点の対応点がある場合には、これらのN点全てを用いることでより安定に射影変換を求めることができる。この場合には、行列Mが2N×9行列となるが、先と同様にMMの最小固有値に対応する固有ベクトルとしてhを求めればよい。
 このようにして求めた平面射影変換Hcp1、Hcp2を用いることにより、各プロジェクタから基準平面Πに対して任意の像を投影することが可能になる。
 ここで、2台のプロジェクタP1、P2から発光した光を加算した輝度値が基準平面Π上において一定になるように2台のプロジェクタP1、P2のグラデーションパターンを作成する。このために、まず図2に示すような輝度変化の方向が逆であるような2つのグラデーション画像I1とI2(それぞれ図2(a)と(b)に対応)を作成する。カメラC1でグラデーション画像I1とI2のそれぞれが得られるように、グラデーション画像I1を平面射影変換Hcp1で射影変換し、グラデーション画像I2を平面射影変換Hcp2を用いて射影変換する。このようにして得られた2つのグラデーション画像をそれぞれI1'、I2'とすると、第1プロジェクタP1からグラデーション画像I1'が投影されるように第1プロジェクタP1の設定を行い、第2プロジェクタP2からグラデーション画像I2'が投影されるように第2プロジェクタP2の設定を行う。
 第1プロジェクタP1からグラデーション画像I1'が投影され、第2プロジェクタP2からグラデーション画像I2'が投影されると、基準平面Πからの距離に応じて重ね合わさる輝度が変化し、観測される輝度値が変化する。これにより、基準平面Πからの距離を可視化して表示することができる。基準平面Πは3次元空間中において自由に設定することができるので、例えば、図3(a)に示すように基準平面を車両進行方向に垂直に取れば、車両前方の距離に応じた輝度変化を付けることができ、図3(b)に示すように基準平面を道路面上に取れば、道路面の凹凸に応じた輝度変化を付けることができる。
 なお、図5に示すように赤から緑に変化するカラーグラデーション画像を投影する場合も、上記と同様の方法により平面射影変換Hcp1、Hcp2を求め、それを用いてプロジェクタP1、P2から投影されるカラーグラデーション画像の設定を行う。
 以上述べた本実施形態によれば、光の混合を用いて物体面上において直接3次元情報を提示することで、情報獲得と情報提示を同時に行うことを可能にしているので、計測系と情報提示系が分かれた既存システムにおける座標系の校正の問題や、ディスプレイなどの間接的な情報提示手段を用いた場合に生じる実物体と表示物体のずれの問題などを解消することができる。つまり、非特許文献1、2のように3次元計測と3次元情報の提示とを別々に行うのではなく、これら2つを完全に一体化し、3次元情報の可視化が3次元情報の復元を介さずに行うことができる。また、3次元情報の提示は、ディスプレイやHUDなどの表示装置(表示画面)を用いて行うのではなく、対象となる3次元物体面上に直接色や明るさの違いとして提示されるため、従来技術のようにユーザがディスプレイ画面を注視する必要がなく、またHUDにおいて生じるような表示の位置ずれや観測者の焦点ずれなども一切生じることはない。
 (第2実施形態)
 上記第1実施形態では、基準平面Πからの距離を強調提示するが、本第2実施形態では、特定3次元領域を強調提示する。換言すれば、本実施形態では、距離に比例しない3次元情報を提示する。
 本実施形態では、3台のプロジェクタを用いて特定3次元領域を強調提示する例について説明するが、2台のプロジェクタを用いて特定3次元領域を強調提示することも可能である。
 本実施形態の3次元情報提示装置では、図8に示すように対象物体面に対して3台のプロジェクタP1、P2、P3から光を照射する。このとき図9、図10に示すように、3台のプロジェクタP1、P2、P3から照射する光のパターンα、β、γを、それぞれ濃淡の変化が非線形であるようなグラデーションのパターンとする。
 すると、図11に概念的に示すように、対象物体面のうち特定領域Dの輝度は高くなり、それ以外の領域の輝度は特定領域Dの輝度よりも低くなる。したがって、物体面上に生成される輝度によって、特定3次元領域が強調提示される。なお、図11の領域Eは、3台のプロジェクタP1、P2、P3から照射する光が重なり合う領域を示している。
 次に、上記したような特定3次元領域の強調提示の方法を詳しく説明する。まず、特定領域強調提示の投影パターンの計算方法を説明する。いま、図12に示すように、空間中にプロジェクタP1、P2、P3が配置されている場合を考える。このとき、対象物体面の任意の点jにおいて観測される色Ij は、以下の線形方程式で表される(数式6参照)。
Figure JPOXMLDOC01-appb-M000006
 ここで、α=[α1,…,αN]、β=[β1,…,βN]、γ=[γ1,…,γN]は、各プロジェクタの投影パターンを表すベクトルであり、それぞれのベクトルはプロジェクタのN個の画素の明るさαii, γi (i=1,…,N)よりなる。W α=[W α1,…,W αN]、W β=[W β1,…,W βN]、W γ=[W γ1,…,W γN]は、対象空間中の点jを着色する場合における投影パターンの各画素の寄与度W αi,W βi,  γi (i=1,…,N)よりなるベクトルである。寄与度Wは0から1までの値を取り、0はその画素が点jの着色に全く寄与しないことを表し、1は大きく寄与することを表す。寄与度は、その画素から出た光線と離散点jとの重なりの大きさに応じて決定する。
 したがって、対象物体面上の離散化されたM個の各点における観測色I1 ~IM は、次の線形方程式で表される(数式7参照)。
Figure JPOXMLDOC01-appb-M000007
 ここで、左辺のM×3N行列は各画素の寄与度(重み)を表す。
 この数式7は、以下の数式8のように表すことができる。
Figure JPOXMLDOC01-appb-M000008
 ここで、Wは数式7のM×3N行列であり、Yは各プロジェクタの投影パターンを表すベクトルであり、IはM個の離散点における観測色を表すベクトルである。
 行列Wの中身は、各画素から出る光線と対象空間中の各点との重なりの大きさより事前に求めておくことができるため全て既知である。ベクトルIは、目的とする着色に応じて設定される。したがって、数式8の線形方程式を解くことで、ベクトルY、すなわち各プロジェクタの投影パターンが求まる。
 このようにして求められた各プロジェクタの投影パターンにはマイナスの輝度値が含まれうるが、プロジェクタからマイナスの光を投影することはできない。
 このようなマイナスの輝度値の問題を解決するため、本実施形態では以下に示す方法で光の輝度を表現する。例えば目的とする着色画像が図13(a)に示す画像であるとすると、輝度Iを0~1の数値で表すこととし、強調したい領域の輝度Iを1(I=1)、その他の領域の輝度Iを0.5(I=0.5)とする。
 すなわち、図13(b)に示すように輝度(プロジェクタ光量)I=0.5を疑似的なゼロレベルとすることで、マイナスの輝度値(負の光)を疑似的に表現することが可能になる。
 このようにして求められた投影パターンがプロジェクタP1、P2、P3から投影されると、対象物体面上の位置によって重ね合わさる輝度が変化し、観測される輝度値が変化する。このようにして得られた投影結果を図14に示す。このように特定3次元領域で観測される輝度値が高くなることで、特定3次元領域を強調提示することができる。
 例えば、この3次元情報提示装置を車両に適用して車載プロジェクタとした場合、図15に示すように道路前方の特定領域に存在する物体10(車両や障害物等)を強調提示することができる。
 例えば、この3次元情報提示装置を製品検査装置に適用することができる。すなわち、図16に例示するように、製品11に対して複数のプロジェクタP1、P2、P3から光を照射して、製品11の正規形状部分(図16の例では直方体形状部分)以外の3次元領域を強調提示するようにする。これにより、製品の欠陥形状部分12(図16の例では円柱形状部分)が強調提示されるので、製品の欠陥の有無を容易に判別することが可能になる。
 (他の実施形態)
 なお、本発明は、上記した実施形態に限ることなく、以下のように変形することも可能である。
 (1)プロジェクタから投影するグラデーションパターンとして色の変化を用いる場合において、一方の色をもう一方の色の補色とすることにより、基準平面においては加算された光の色が白色(無色)となり、基準平面以外では加算された光の色が有色となるようにしてもよい。
 (2)プロジェクタから投光するコード化されたパターン光は、静止したパターン光である必要はなく、時間的に変化する動的パターン光とすることもできる。時間的および空間的にコード化された動的パターン光を用いることで、運動する3次元物体に対して、その運動に応じた色付けや明るさの変化付けを行うことができ、ある特定の運動をする物体のみを強調して提示することができる。
 (3)提示された3次元情報を人間に知覚させるのみならず、提示された3次元情報を3次元情報取得手段に取得させて各種機器の制御に利用するようにしてもよい。例えば、図17に示すように、プロジェクタP1、P2からの投影結果をカメラ30で撮影し、撮影された画像を、3次元情報取得手段をなす制御装置31に入力し、制御装置31が、撮影された画像に基づいて各種判別処理を行い、この判別結果に基づいて各種制御対象機器32に制御信号を出力するようにしてもよい。
 例えば、制御対象機器32が車両衝突危険警報器である場合には、制御装置31は、道路前方に車両や障害物が存在するか否かの判別を行い、道路前方に車両や障害物が存在すると判断した場合には、車両衝突危険警報器に警報音発生信号を出力するようにすればよい。
 例えば、制御対象機器32が製品欠陥報知器である場合には、制御装置31は、製品に欠陥形状があるか否かの判別を行い、製品に欠陥形状があると判断した場合には、製品欠陥報知器に報知音発生信号を出力するようにすればよい。
 また、プロジェクタから投光するコード化されたパターン光(波長や強度が空間的に変化したパターン光)は、可視光である必要はなく、不可視光とすることもできる。例えば、図17において、プロジェクタP1、P2から不可視光として赤外線を投光し、カメラ30として赤外線カメラを用い、カメラ30で撮影された赤外線画像(不可視画像)を制御装置31に入力するようにしてもよい。
 (4)投光手段として、図1に示したようなプロジェクタではなく、複数の発光手段(LED等)を用いて構成したものでもよい。また、車載プロジェクタとした場合、投光手段を車両の前部に設けられた左右のヘッドライト装置内にそれぞれ設置したり、あるいはヘッドライトを複数の発光手段(LED等)で構成した場合には、そのうちの一部を車載プロジェクタ用の投光手段として用いるようにしてもよい。
 (5)投光手段は、2つに限らず適用技術に応じて3つ以上設けるようにしてもよい。投光手段の個数を増やすことによって、より複雑な非線形3次元情報を強調提示することができる。
 以下、上記した実施形態から把握できる発明について述べる。本発明は、同一の空間領域に対して光を照射する複数の投光手段を備え、前記複数の投光手段から照射する光のパターンが空間的にコード化されて照射面の3次元情報を可視化するようになっていることを第1の特徴とする。
 なお、本発明における「光のパターンが空間的にコード化される」とは、例えば光のパターンが図2や図9のようなパターン(光の波長や強度が空間的に変化したパターン)に設定されることを言う。
 本発明は、上記第1の特徴において、前記複数の投光手段から照射する光のパターンは、3次元空間中に設定された基準平面に対して垂直な方向の距離が提示されるように空間的にコード化されていることを第2の特徴とする。
 本発明は、上記第2の特徴において、前記複数の投光手段から照射する光は可視光であり、前記複数の投光手段から可視光のパターンが照射されることにより前記基準平面に対して垂直な方向の距離が可視化されることを第3の特徴とする。
 本発明は、上記第3の特徴において、前記複数の投光手段から照射する光のパターンはグラデーションパターンとなっていることを第4の特徴とする。 本発明は、上記第4の特徴において、前記グラデーションパターンは、前記複数の投光手段の並び方向に光が変化しているパターンであることを第5の特徴とする。
 本発明は、上記第5の特徴において、前記基準平面上において前記複数の投光手段から照射された光を加算した輝度値が一定になるように前記グラデーションパターンが設定されていることを第6の特徴とする。
 本発明は、上記第3ないし第6のいずれか1つの特徴において、前記複数の投光手段から照射する光のパターンは濃淡の変化によりコード化されていることを第7の特徴とする。
 本発明は、上記第3ないし第6のいずれか1つの特徴において、前記複数の投光手段から照射する光のパターンは色の変化によりコード化されていることを第8の特徴とする。
 本発明は、上記第8の特徴において、前記複数の投光手段のうち1つから投光する光のパターンの色を他の1つから投光する光のパターンの色の補色とし、前記基準平面においては加算された光の色が白色となり、前記基準平面以外においては加算された光の色が有色となることを第9の特徴とする。
 本発明は、上記第3ないし第9のいずれか1つの特徴において、前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して光を照射して車両の前方に存在する物体までの距離を可視化することを第10の特徴とする。
 本発明は、上記第3ないし第9のいずれか1つの特徴において、前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して光を照射して車両の前方の道路面に対して垂直方向の高さの違いを可視化することを第11の特徴とする。
 本発明は、上記第10または第11の特徴において、前記複数の投光手段は車両のヘッドライト装置内に設置されていることを第12の特徴とする。
 本発明は、上記第10または第11の特徴において、前記複数の投光手段は車両のヘッドライトを構成する複数の発光手段の一部として構成されていることを第13の特徴とする。
 本発明は、上記第2の特徴において、前記複数の投光手段から照射する光は不可視光であり、前記複数の投光手段から不可視光のパターンが照射されることにより前記基準平面に対して垂直な方向の距離が提示されることを第14の特徴とする。
 本発明は、上記第14の特徴において、前記複数の投光手段から照射された不可視光によって提示された3次元情報を取得する3次元情報取得手段を備えることを第15の特徴とする。
 本発明は、上記第15の特徴において、前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して不可視光を照射して、車両の前方に存在する物体までの距離、または車両の前方の道路面に対して垂直方向の高さの違いを提示することを第16の特徴とする。
 本発明は、上記第1の特徴において、前記複数の投光手段から照射する光のパターンは、特定3次元領域が強調提示されるように空間的にコード化されていることを第17の特徴とする。
 本発明は、上記第17の特徴において、前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して不可視光を照射して車両の前方の特定領域に存在する物体を強調提示することを第18の特徴とする。
 本発明は、上記第17の特徴において、前記複数の投光手段は製品に対して光を照射して前記製品の欠陥形状部分を強調提示することを第19の特徴とする。
 さらに、上記した実施形態から次のような3次元情報提示装置を把握できる。すなわち本装置は、同一の空間領域に対して光を照射する複数の投光手段を備え、前記複数の投光手段が照射する光には空間的なパターンが形成されており、前記空間領域に存在する物体上で前記複数の投光手段から照射された光同士が重なり合うことによって、3次元情報に応じた光のパターンを前記物体上に生じさせるものである。
 P1、P2 プロジェクタ(投光手段)

Claims (19)

  1.  同一の空間領域に対して光を照射する複数の投光手段を備え、前記複数の投光手段から照射する光のパターンが空間的にコード化されて被照射面の3次元情報を提示するようになっていることを特徴とする3次元情報提示装置。
  2.  前記複数の投光手段から照射する光のパターンは、3次元空間中に設定された基準平面に対して垂直な方向の距離が提示されるように空間的にコード化されていることを特徴とする請求項1に記載の3次元情報提示装置。
  3.  前記複数の投光手段から照射する光は可視光であり、前記複数の投光手段から可視光のパターンが照射されることにより前記基準平面に対して垂直な方向の距離が可視化されることを特徴とする請求項2に記載の3次元情報提示装置。
  4.  前記複数の投光手段から照射する光のパターンはグラデーションパターンとなっていることを特徴とする請求項3に記載の3次元情報提示装置。
  5.  前記グラデーションパターンは、前記複数の投光手段の並び方向に光が変化しているパターンであることを特徴とする請求項4に記載の3次元情報提示装置。
  6.  前記基準平面上において前記複数の投光手段から照射された光を加算した輝度値が一定になるように前記グラデーションパターンが設定されていることを特徴とする請求項5に記載の3次元情報提示装置。
  7.  前記複数の投光手段から照射する光のパターンは濃淡の変化によりコード化されていることを特徴とする請求項3ないし6のいずれか1つに記載の3次元情報提示装置。
  8.  前記複数の投光手段から照射する光のパターンは色の変化によりコード化されていることを特徴とする請求項3ないし6のいずれか1つに記載の3次元情報提示装置。
  9.  前記複数の投光手段のうち1つから投光する光のパターンの色を他の1つから投光する光のパターンの色の補色とし、前記基準平面においては加算された光の色が白色となり、前記基準平面以外においては加算された光の色が有色となることを特徴とする請求項8に記載の3次元情報提示装置。
  10.  前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して光を照射して車両の前方に存在する物体までの距離を可視化することを特徴とする請求項3ないし9のいずれか1つに記載の3次元情報提示装置。
  11.  前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して光を照射して車両の前方の道路面に対して垂直方向の高さの違いを可視化することを特徴とする請求項3ないし9のいずれか1つに記載の3次元情報提示装置。
  12.  前記複数の投光手段は車両のヘッドライト装置内に設置されていることを特徴とする請求項10または11に記載の3次元情報提示装置。
  13.  前記複数の投光手段は車両のヘッドライトを構成する複数の発光手段の一部として構成されていることを特徴とする請求項10または11に記載の3次元情報提示装置。
  14.  前記複数の投光手段から照射する光は不可視光であり、前記複数の投光手段から不可視光のパターンが照射されることにより前記基準平面に対して垂直な方向の距離が提示されることを特徴とする請求項2に記載の3次元情報提示装置。
  15.  前記複数の投光手段から照射された不可視光によって提示された3次元情報を取得する3次元情報取得手段を備えることを特徴とする請求項14に記載の3次元情報提示装置。
  16.  前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して不可視光を照射して、車両の前方に存在する物体までの距離、または車両の前方の道路面に対して垂直方向の高さの違いを提示することを特徴とする請求項15に記載の3次元情報提示装置。
  17.  前記複数の投光手段から照射する光のパターンは、特定3次元領域が強調提示されるように空間的にコード化されていることを特徴とする請求項1に記載の3次元情報提示装置。
  18.  前記複数の投光手段は車両に設置され、前記複数の投光手段から車両の前方の空間領域に対して不可視光を照射して車両の前方の特定領域に存在する物体を強調提示することを特徴とする請求項17に記載の3次元情報提示装置。
  19.  前記複数の投光手段は製品に対して光を照射して前記製品の欠陥形状部分を強調提示することを特徴とする請求項17に記載の3次元情報提示装置。
PCT/JP2010/059599 2009-06-08 2010-06-07 3次元情報提示装置 WO2010143600A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10786131.2A EP2450736B1 (en) 2009-06-08 2010-06-07 Three-dimensional information displaying device
JP2011518524A JP5669212B2 (ja) 2009-06-08 2010-06-07 3次元情報提示装置
US13/376,004 US8807810B2 (en) 2009-06-08 2010-06-07 Three-dimensional information presentation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-137269 2009-06-08
JP2009137269 2009-06-08

Publications (1)

Publication Number Publication Date
WO2010143600A1 true WO2010143600A1 (ja) 2010-12-16

Family

ID=43308855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/059599 WO2010143600A1 (ja) 2009-06-08 2010-06-07 3次元情報提示装置

Country Status (4)

Country Link
US (1) US8807810B2 (ja)
EP (1) EP2450736B1 (ja)
JP (1) JP5669212B2 (ja)
WO (1) WO2010143600A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101344884B1 (ko) 2012-05-08 2013-12-26 주식회사 만도 카메라와 hud 장치간의 간섭 보호 시스템
CN115079431A (zh) * 2021-03-12 2022-09-20 欧姆龙株式会社 导光板、显示装置、输入装置、以及具有显示装置的设备

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
EP2869023B1 (en) * 2013-10-30 2018-06-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method and corresponding computer program
JP6754425B2 (ja) 2015-05-30 2020-09-09 レイア、インコーポレイテッドLeia Inc. 車両監視システム
JP6352892B2 (ja) * 2015-12-08 2018-07-04 トヨタ自動車株式会社 車両用ヘッドランプ構造及び車両用ヘッドランプの制御方法
WO2018002679A1 (en) * 2016-06-30 2018-01-04 Magicom Kft. Method for identifying and locating a movable object
FR3055431B1 (fr) * 2016-09-01 2019-08-02 Valeo Vision Dispositif de projection d'une image pixelisee
FR3061594B1 (fr) * 2017-01-03 2021-06-04 Valeo Vision Systeme d'aide a la conduite, vehicule automobile et procede d'aide a la conduite
CN107423720A (zh) * 2017-08-07 2017-12-01 广州明医医疗科技有限公司 目标跟踪系统和立体显示设备
JP2019078786A (ja) * 2017-10-20 2019-05-23 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び画像投射システムの制御方法
US10885819B1 (en) * 2019-08-02 2021-01-05 Harman International Industries, Incorporated In-vehicle augmented reality system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07137574A (ja) * 1993-11-15 1995-05-30 Toyota Motor Corp 車両用前照灯装置
JP2005075190A (ja) 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
JP2007182151A (ja) * 2006-01-06 2007-07-19 Nissan Motor Co Ltd 車両用前照灯装置及び車両用前照灯制御方法
JP2007235529A (ja) 2006-03-01 2007-09-13 Nissan Motor Co Ltd 車両周囲監視システム及び画像表示方法
JP2008275380A (ja) 2007-04-26 2008-11-13 Toyota Motor Corp 車両周辺監視装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4724480A (en) * 1985-05-02 1988-02-09 Robotic Vision Systems, Inc. Method for optical alignment of one object with respect to another
US4914460A (en) * 1987-05-29 1990-04-03 Harbor Branch Oceanographic Institution Inc. Apparatus and methods of determining distance and orientation
JP3810976B2 (ja) 2000-02-15 2006-08-16 株式会社小糸製作所 自動車用赤外光照射ランプ
JP3988393B2 (ja) * 2001-01-26 2007-10-10 スタンレー電気株式会社 赤外線投光器
JP3823047B2 (ja) 2001-12-03 2006-09-20 株式会社藤森技術研究所 空間座標値測定方法及びその測定装置並びに欠陥検査装置
US7916278B2 (en) * 2004-04-06 2011-03-29 Bae Systems Information And Electronic Systems Integration Inc. Polyspectral rangefinder for close-in target ranging and identification of incoming threats
JP3960325B2 (ja) * 2004-08-11 2007-08-15 セイコーエプソン株式会社 ディスプレイ装置およびディスプレイ装置における画像情報生成方法
US7306341B2 (en) * 2005-02-28 2007-12-11 Hewlett-Packard Development Company, L.P. Multi-projector geometric calibration
IL167932A (en) * 2005-04-10 2012-03-29 Israel Aerospace Ind Ltd Optical screen, systems and methods for creatures and its operation
DE102008015499C5 (de) * 2008-03-25 2013-01-10 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07137574A (ja) * 1993-11-15 1995-05-30 Toyota Motor Corp 車両用前照灯装置
JP2005075190A (ja) 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
JP2007182151A (ja) * 2006-01-06 2007-07-19 Nissan Motor Co Ltd 車両用前照灯装置及び車両用前照灯制御方法
JP2007235529A (ja) 2006-03-01 2007-09-13 Nissan Motor Co Ltd 車両周囲監視システム及び画像表示方法
JP2008275380A (ja) 2007-04-26 2008-11-13 Toyota Motor Corp 車両周辺監視装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JUN SATO: "Multiple View Geometry for Projector Camera Systems and Its Applications", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN IPSJ, vol. 49, no. SIG6, March 2008 (2008-03-01), pages 56 - 67 *
S.G. NARASIMHAN; S.J. KOPPAL; S. YAMAZAKI: "Temporal Dithering of Illumination for Fast Active Vision", PROC. ECCV2008, 2008, pages 830 - 844
See also references of EP2450736A4
T. KONINCKX; I. GEYS; T. JAEGGLI; L.V. GOOL: "A graph cut based adaptive structures light approach for real-time range acquisition", PROC. 3DPVT, 2004
TOMONORI HARUTA ET AL.: "Jikukan Code-ka Pattern Toei ni yoru 3 Jigen Keijo Keisoku", IPSJ SIG COMPUTERS AND THE HUMANITIES SYMPOSIUM RONBUNSHU, vol. 2001, - 14 December 2001 (2001-12-14), pages 149 - 155, XP008148434 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101344884B1 (ko) 2012-05-08 2013-12-26 주식회사 만도 카메라와 hud 장치간의 간섭 보호 시스템
CN115079431A (zh) * 2021-03-12 2022-09-20 欧姆龙株式会社 导光板、显示装置、输入装置、以及具有显示装置的设备

Also Published As

Publication number Publication date
EP2450736B1 (en) 2020-10-07
EP2450736A1 (en) 2012-05-09
JPWO2010143600A1 (ja) 2012-11-22
JP5669212B2 (ja) 2015-02-12
US20120075878A1 (en) 2012-03-29
EP2450736A4 (en) 2013-04-24
US8807810B2 (en) 2014-08-19

Similar Documents

Publication Publication Date Title
JP5669212B2 (ja) 3次元情報提示装置
US10852818B2 (en) Information provision device and information provision method
US11951834B2 (en) Information provision device, information provision method, and recording medium storing information provision program for a vehicle display
US10293745B2 (en) Projection of a pre-definable light pattern
CN107878301B (zh) 用于通过机动车辆的投影系统投射图像的方法和投影系统
JP7065383B2 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
US10491870B2 (en) Image display apparatus and image display method
DE102011121627B4 (de) Verfahren zum dynamischen Ausrichten einer Graphik auf eine Fahrszene eines Fahrzeugs unter Nutzung einer im Wesentlichen durchsichtigen Windschutzscheiben-Headup-Anzeige
US9164281B2 (en) Volumetric heads-up display with dynamic focal plane
US20180339591A1 (en) Information display apparatus
JP6936791B2 (ja) 画像を投影面に投影するための自動車用投影方法
WO2018012031A1 (en) Display apparatus, movable body apparatus, producing method of the display apparatus, and display method
WO2011070783A1 (ja) 情報表示装置及び情報表示方法
KR20190012630A (ko) 이미지 처리 방법 및 이미지 처리 장치
DE112018000274T5 (de) Anzeigevorrichtung
WO2019009243A1 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
JP6669053B2 (ja) ヘッドアップディスプレイシステム
US20150332654A1 (en) Display device for displaying a virtual image within the visual field of a driver and image generation device for said display device
JP2013174667A (ja) 車両用表示装置
DE112018001394T5 (de) Lauf-Unterstützungsvorrichtung, Lauf-Unterstützungsverfahren und Programm
JP6668564B1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
JP2021056357A (ja) レーザー光源制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP7266257B2 (ja) 表示システム、及び表示システムの制御方法
WO2023120603A1 (ja) 撮像装置および画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10786131

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13376004

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011518524

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010786131

Country of ref document: EP