WO2020144798A1 - 情報表示制御装置及び方法、並びにプログラム及び記録媒体 - Google Patents

情報表示制御装置及び方法、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
WO2020144798A1
WO2020144798A1 PCT/JP2019/000465 JP2019000465W WO2020144798A1 WO 2020144798 A1 WO2020144798 A1 WO 2020144798A1 JP 2019000465 W JP2019000465 W JP 2019000465W WO 2020144798 A1 WO2020144798 A1 WO 2020144798A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual object
virtual
image
information
display control
Prior art date
Application number
PCT/JP2019/000465
Other languages
English (en)
French (fr)
Inventor
義広 都丸
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2020564290A priority Critical patent/JP6827609B2/ja
Priority to PCT/JP2019/000465 priority patent/WO2020144798A1/ja
Priority to CN201980087799.3A priority patent/CN113302661A/zh
Priority to DE112019006103.8T priority patent/DE112019006103B4/de
Publication of WO2020144798A1 publication Critical patent/WO2020144798A1/ja
Priority to US17/306,213 priority patent/US11580689B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Definitions

  • the display area coordinate system has the origin at the upper left corner Qlt of the display area DL, the direction from the upper left corner Qlt to the upper right corner Qrt is the Xd axis, and the direction from the upper left corner Qlt to the lower left corner Qlb is the Yd axis.
  • the direction orthogonal to the Xd axis and the Yd axis is the Zd axis.
  • the three-dimensional coordinates of these four corners Qlt, Qrt, Qlb, Qrb in the display area coordinate system are represented by Dlt, Drt, Dlb, Drb, respectively.
  • Each of the three-dimensional coordinates Dlt, Drt, Dlb, Drb is composed of an Xd coordinate, a Yd coordinate, and a Zd coordinate.
  • the display area information FD includes information indicating the size of the display area DL in addition to the information indicating the position of the display area DL described above.
  • the size of the display area DL the number of pixels Wd in the horizontal direction (horizontal direction) and the number of pixels Hd in the vertical direction (vertical direction) of the display area DL are stored.
  • the virtual area information FV includes information (position information) indicating the position of the virtual area VL.
  • the virtual area VL is a virtual area used for forming an image of a virtual object.
  • the virtual region VL is also assumed to be a rectangular region. In that case, as the virtual area information FV, three-dimensional coordinates in the user viewpoint coordinate system that represent the positions of the four corners of the virtual area VL may be stored.
  • FIG. 7 shows a virtual region VL in addition to the user's viewpoint Ue and the display region DL shown in FIG. Further, in FIG. 7, the four corners of the virtual region VL, that is, the upper left corner, the upper right corner, the lower left corner, and the lower right corner are indicated by symbols Plt, Prt, Plb, Prb.
  • the three-dimensional coordinates of the user viewpoint coordinate system at these four corners are represented by Vvlt, Vvrt, Vvlb, and Vvrb, respectively.
  • Each of the three-dimensional coordinates Vvlt, Vvrt, Vvlb, Vvrb is composed of an Xv coordinate, a Yv coordinate, and a Zv coordinate.
  • the designated area information FA is information indicating the size of the designated area AL. As shown in FIG. 4, when the range of the width FW along the left edge HEa of the virtual area VL is the designated area AL, the width FW is the size of the designated area, and the information indicating this width FW is the information storage unit 41. Is stored as designated area information FA.
  • the designated area AL is an area used for forming an image of the virtual object, and the image formed in the designated area AL is projected and displayed on the display area DL.
  • the position of the object is a typical position of the object, for example, the position of the center or the center of gravity of the object.
  • the virtual object selection unit 43 is assumed to select a virtual object according to the object type Ot detected by the external situation analysis unit 42. For example, a virtual object that is associated with the object type Ot may be selected.
  • the object type and the virtual object may be associated in advance, and the virtual object associated with the detected object type may be selected. In the following, a case where a non-transparent sphere is selected will be described.
  • the size determination unit 44 includes the designated area information FA stored in the information storage unit 41, the information indicating the virtual object BJ selected by the virtual object selection unit 43, and the position of the object output from the external situation analysis unit 42.
  • the size JS of the virtual object is determined based on the information indicating Vo. Since it is assumed here that the virtual object is a sphere, the radius r of the sphere is determined as the size JS of the virtual object.
  • the size determination unit 44 outputs the information indicating the determined size JS together with the information indicating the selected virtual object BJ.
  • “Perspectively project the virtual object on the virtual area VL with reference to the user viewpoint Ue” means projecting each point of the virtual object on the virtual area VL by a straight line passing through the user viewpoint Ue.
  • the image transformation unit 47 transforms the image Gc output from the three-dimensional rendering unit 45 using the conversion table CT to generate a transformed image Gd.
  • the user viewpoint coordinates Vp (Xvp, Yvp, Zvp) of each pixel of the image Gc are input to the conversion table CT, and the display area coordinates Dq (Xdq, Ydq) corresponding to the input coordinates are input from the conversion table CT. Is read out.
  • the image transforming unit 47 calculates the corresponding positions by performing interpolation using grid points around the positions of the pixels.
  • the display control unit 48 supplies the portion within the display area DL of the deformed image Gd generated as described above to the display device 6 as the display image Ge and displays it.
  • the above-described processing that is, the determination of the type of the object and the detection of the position of the object by the external situation analysis unit 42, the size determination of the virtual object by the size determination unit 44, the rendering by the three-dimensional rendering unit 45, the image by the image transformation unit 47 And the process of drive control of the display unit 6 by the display control unit 48 are repeatedly executed. By repeating the execution, the contents of the display image can be made to follow the changes in the object position.
  • the size JS of the virtual object BJ is determined based on the designated area information FA.
  • the designated area information FA is information indicating the width of the designated area AL.
  • the image of the virtual object is formed in the designated area AL having the width FW along the edge of the virtual area.
  • the image of the virtual object is formed in the designated area AL having the width FW along the left and right edges HEa or HEb of the virtual area.
  • the image of the virtual object is formed in the designated area AL having the width FW along the left edge HEa of the virtual area.
  • the above-mentioned “range of viewing angles when the virtual region VL is viewed from the user viewpoint Ue” is referred to as a virtual region range.
  • the width FW of the designated area is determined so that the image of the virtual object does not fall within the range of the reference viewing angle.
  • the reference viewing angle means an angle range in which the user gazes in the virtual region range.
  • the reference viewing angle includes a reference horizontal viewing angle and a reference vertical viewing angle.
  • the reference horizontal viewing angle is a reference viewing angle in the horizontal direction.
  • the reference vertical viewing angle is a reference viewing angle in the vertical direction.
  • the reference horizontal viewing angle when indicating the position of an object located on the left and right of the virtual area range (outside in the horizontal direction), the reference horizontal viewing angle is used as the reference viewing angle.
  • the reference horizontal viewing angle includes a left reference horizontal viewing angle ⁇ a and a right reference horizontal viewing angle ⁇ b.
  • Each of the left reference horizontal viewing angle ⁇ a and the right reference horizontal viewing angle ⁇ b is set to about 15 to 60 degrees.
  • the reference horizontal viewing angle ⁇ a in the left direction and the reference horizontal viewing angle ⁇ b in the right direction may be equal to or different from each other.
  • a pair of straight lines L ⁇ a and L ⁇ b that form angles ⁇ a and ⁇ b with respect to the Zv axis in the XvZv plane of the user viewpoint coordinate system are drawn, and these straight lines L ⁇ a and Boundary surfaces S ⁇ a and S ⁇ b are formed by the locus when L ⁇ b is moved in the Yv-axis direction.
  • the straight lines L ⁇ a and L ⁇ b and the boundary surfaces S ⁇ a and S ⁇ b extend infinitely, only a part of the straight lines L ⁇ a and L ⁇ b and the boundary surfaces S ⁇ a and S ⁇ b are shown in FIG. 9A. It can be said that the boundary surfaces S ⁇ a and S ⁇ b are surfaces that define the range of the reference horizontal viewing angle.
  • the virtual area VL is determined so that the specified area AL of the width FW can be secured outside the range of the reference horizontal viewing angles ⁇ a and ⁇ b.
  • Generation of an image of a virtual object in the three-dimensional drawing unit 45 can be realized by performing rendering using three-dimensional graphics.
  • an image of the virtual object BJ is formed by perspectively projecting the virtual object BJ onto the virtual region VL with the user viewpoint Ue as a reference.
  • a projection matrix also called a projection matrix
  • the spherical virtual object BJ is positioned such that its center position coincides with the object position Vo, and its radius r is determined so that its spherical surface is in contact with the boundary surfaces S ⁇ a and S ⁇ b.
  • the most protruding portion (the portion close to the center of the virtual region VL) outside the intersection lines V ⁇ a and V ⁇ b is the intersection line V ⁇ a, It is formed so as to be in contact with V ⁇ b.
  • processing When rendering a virtual object in three-dimensional drawing, you may add processing to express the sphere-likeness. Such processing includes lighting processing for giving a glossy feeling, blending processing for giving a feeling of a semitransparent glass ball, and the like.
  • the conversion table CT is a table showing the positional relationship between the positions of the plurality of grid points in the virtual area VL and the corresponding points on the display area surface DS that correspond to the grid points.
  • the corresponding point is a point where a straight line passing through each grid point on the virtual area VL and the user viewpoint Ue intersects the display area surface DS.
  • the conversion table CT is created using the display area information FD and the virtual area information FV.
  • the display area information FD as shown in FIG. 6, coordinates Vdlt, Vdrt, Vdlb, and Vdrb in the user viewpoint coordinate system that represent the positions of the upper left corner, upper right corner, lower left corner, and lower right corner of the display area DL.
  • the information storage unit 41 stores the information indicating the horizontal direction pixel number Wd and the information indicating the vertical direction pixel number Hd of the display area DL.
  • the virtual area information FV information indicating the distance Vf of the virtual area VL from the user viewpoint Ue, information indicating the width Vw of the virtual area VL, and information indicating the height Vh of the virtual area VL are stored as information. It is assumed that it is stored in the unit 41.
  • the coordinates Vvlt in the user viewpoint coordinate system of the upper left corner Plt, the upper right corner Prt, the lower left corner Plb, and the lower right corner Prb of the virtual region VL, Vvrt, Vvlb, and Vvrb can be calculated.
  • a conversion matrix Mvd for converting the coordinates (Xv, Yv, Zv) of the user viewpoint coordinate system into the coordinates (Xd, Vd, Zd) of the display area coordinate system is calculated.
  • Equation (2) S is an expansion matrix having only 3 ⁇ 3 diagonal elements, R is a 3x3 rotation matrix, T is a three-dimensional vertical vector.
  • a first simultaneous equation by substituting the first element of Vdlt (Xvdlt) and the first element of Dlt (Xdlt) into Xv and Xd
  • a second simultaneous equation by substituting the second element of Vdlt (Yvdlt) and the second element of Dlt (Ydlt) into Yv and Yd
  • a third simultaneous equation By substituting the first element (Xvdrt) of Vdrt and the first element (Xdrt) of Drt into Xv and Xd, a fourth simultaneous equation
  • a fifth simultaneous equation by substituting the second element of Vdrt (Yvdrt) and the second element of Drt (Ydrt) into Yv and Yd
  • the display area coordinates (Xd, Yd) of the point to be calculated are calculated.
  • a point Qp on the display area DL corresponding to the point Pp on the virtual area VL is a point where a straight line connecting the viewpoint Ue and the point Pp intersects the display area surface DS.
  • the display area coordinates (Xd, Yd) of the corresponding points on the display area surface DS are displayed.
  • the user viewpoint coordinates (Xv, Yv, Zv) representing the positions of the plurality of grid points in the virtual area VL and the display area coordinates (Xd, Yd) of the corresponding points on the display area surface DS are calculated. And are stored in association with each other.
  • the conversion table shown in FIG. 12 is created. That is, the user viewpoint coordinates (Xv, Yv, Zv) representing the positions of the plurality of grid points in the virtual area VL for all of the plurality of grid points, and the display area associated with the user viewpoint coordinates.
  • the conversion table CT is created by combining the display area coordinates (Xd, Yd) of the corresponding points on the surface DS.
  • the created conversion table CT is stored in the conversion table creation unit 46.
  • the saved conversion table CT is used by the image transformation unit 47.
  • the number of grid points is large.
  • the amount of calculation for creating the conversion table CT increases.
  • the conversion table CT is created by finding corresponding points on the display area surface DS for the entire virtual area.
  • the conversion table CT may be created by finding the corresponding points in the display area surface DS only for the grid points inside.
  • the conversion table CT stored in the conversion table creation unit 46 is used to generate the modified image Gd.
  • the transformed image Gd is generated by projecting the image of the virtual region VL on the display region surface DS.
  • the pixels of the image of the virtual area VL are sequentially selected, and the coordinates of the corresponding points on the display area surface DS are selected for the selected pixel (target pixel). Ask for.
  • the display area coordinates of the corresponding point can be read by referring to the conversion table CT.
  • the display area coordinates of the corresponding points of the pixels that are located at the surrounding grid points are read out and interpolation is performed to find the point corresponding to the pixel of interest.
  • the display area coordinates can be obtained.
  • interpolation is performed based on the display area coordinates of the corresponding points and the positional relationship between the pixel of interest and the above three grid points for the three grid points located in the vicinity of the pixel of interest.
  • three lattice points located in the vicinity for example, as shown in FIGS. 13A and 13B, three lattice points forming the smallest triangle including the target pixel Ppsub inside are selected.
  • FIG. 13A shows three selected lattice points Ppa, Ppb, Ppc
  • FIG. 13B shows points Qpa, Qpb, Qpc corresponding to these lattice points Ppa, Ppb, Ppc. It is shown.
  • 13(a) and 13(b) show how to interpolate the pixels in the virtual region VL other than the image Gc of the virtual object, but regarding the portion other than the image Gc of the virtual object. May omit the projection onto the display area surface DS.
  • the above three grid points Ppa, Ppb, Ppc can be determined by comparing the Xv coordinates and Yv coordinates of all grid points on the conversion table CT with the Xv coordinates and Yv coordinates of the pixel of interest Ppsub.
  • the display control unit 48 displays the display area (in the range of 0 to Wd in the Xd-axis direction and in the Yd-axis direction) indicated by a thick frame LF in FIG. 13B in the deformed image Gd generated as described above.
  • An image Ge composed of pixel data of 0 to Hd) is displayed on the display 6.
  • the display 6 is a windshield display, a virtual image is generated.
  • the contents of the display image can be changed according to the change of the object position.
  • a sphere is selected as the virtual object BJ, the virtual object BJ is arranged such that the center of the sphere is located at the object position Vo, and the radius r of the sphere is determined as the size of the virtual object BJ.
  • the vertex of the cone is used as a reference point, the virtual object is arranged so that the vertex of the cone is located at the object position Vo, and the size of the virtual object is set.
  • the height of the cone should be determined. In this case, for example, the height of the cone may be determined so that the bottom surface of the cone is in contact with the surface defining the range of the reference horizontal viewing angle, for example, the boundary surfaces S ⁇ a and S ⁇ b in FIG. 9A.
  • the width FW is determined based on the reference horizontal viewing angle, and it corresponds to an object located outside the virtual area range in the horizontal direction within the designated area AL of the width FW along the left and right edges of the virtual area. It is supposed to form an image of a virtual object to be executed. Instead, the width FW is determined based on the reference vertical viewing angle, and a virtual region corresponding to an object located outside the virtual region range in the vertical direction is located within the designated region AL of the width FW along the upper and lower edges of the virtual region. An image of the object may be formed.
  • the object located outside the horizontal area of the virtual area range and the outside of the virtual area range in the vertical direction are provided. Images of virtual objects may be formed for both of the objects located at.
  • the width of the designated area along the left and right edges of the virtual area and the width of the designated area along the upper and lower edges of the virtual area may be the same or different. Further, the width of the designated area along the left edge of the virtual area and the width of the designated area along the right edge of the virtual area may be the same or different. Similarly, the width of the designated area along the upper edge of the virtual area and the width of the designated area along the lower edge of the virtual area may be the same or different.
  • the size determination unit 44 determines the size of the virtual object based on the width FW of the designated area, but instead, the size of the virtual object may be determined based on the reference viewing angle. ..
  • the width FW of the designated area is determined based on the reference viewing angle, but the width FW of the designated area may be determined based on an index other than the reference viewing angle.
  • the virtual object is selected according to the object type Ot detected by the external situation analysis unit 42.
  • the virtual object may be selected according to information about the object other than the object type.
  • the virtual object may be selected according to the size of the object or the position of the object.
  • the virtual object may be selected according to the preference of the user. In that case, a virtual object may be selected when the driving support system is activated and the same virtual object may be used continuously.
  • Only one virtual object may be stored in the information storage unit 41.
  • the virtual object selection unit 43 is unnecessary, the external situation analysis unit 42 does not need to determine the type of object for selecting the virtual object, and the size determination unit 44 stores the information storage unit 41 in the information storage unit 41.
  • the size of the stored single virtual object is determined, and the three-dimensional drawing unit 45 draws the single virtual object stored in the information storage unit 41.
  • the display area information FD includes information indicating the positions of the four corners of the display area DL.
  • the display area information FD may include information necessary for calculating the positions of the four corners of the display area DL, instead of the information indicating the positions of the four corners of the display area DL.
  • it includes information indicating the center position of the display area DL, information indicating the horizontal size (for example, the number of pixels), information indicating the vertical size (for example, the number of pixels), and information indicating the tilt angle with respect to the line of sight. Is also good.
  • the position (distance Vf from the user viewpoint Ue) and size of the virtual area VL can be set arbitrarily. That is, of the virtual area information FV stored in the information storage unit 41, at least one of the information indicating the position and the size of the virtual area VL is rewritable, or a plurality of information is stored as each of these. However, it is desirable to be selectable.
  • the display 6 is a windshield display.
  • the windshield itself may directly emit light to be used as the display unit 6.
  • the display 6 may be an LCD, for example.
  • the display surface of the LCD (where a real image is formed) constitutes the display area DL.
  • the display 6 may display not only the image of the virtual object but also the captured image of the scenery around the vehicle.
  • the information display control device 4 displays the image of the virtual object for indicating the position of the object located outside the surrounding spatial range corresponding to the displayed captured image.
  • only the image of the virtual object may be displayed, or a combined image by alpha blending may be displayed.
  • the display 6 may be used for other purposes, for example, a display used in a car navigation system.
  • the display 6 may display an image other than the captured image of the scenery around the vehicle. For example, a road map provided by the car navigation system, character information regarding the route, and the like may be displayed.
  • only the image of the virtual object may be displayed or a composite image by alpha blending may be displayed in the portion where the image of the virtual object and the other image overlap.
  • FIG. 14 shows a driving support device 1b including an information display control device 4b according to the second embodiment of the present invention.
  • the illustrated driving assistance device 1b includes an external situation detection unit 2, an internal situation detection unit 3, and a display 6 in addition to the information display control device 4b.
  • the external condition detector 2 and the display 6 are the same as those described in the first embodiment.
  • the information display control device 4 according to the first embodiment uses standard ones as the position Ue of the user's viewpoint and the direction Ud of the line of sight of the user.
  • the information display control device 4b according to the second embodiment detects the position Ue of the user's viewpoint and the direction Ud of the line of sight of the user, and uses the detected position and direction for processing.
  • the internal condition detection unit 3 detects the position Ue of the viewpoint and the direction Ud of the line of sight of the user inside the vehicle, for example, the driver.
  • the internal condition detection unit 3 has an imaging unit 31 and a detection signal processing unit 32, as shown in FIG. 15, for example.
  • the image pickup unit 31 picks up an image of the inside of the vehicle, particularly a user, for example, a driver, and outputs an image signal.
  • the imaging unit 31 has one or more cameras.
  • a camera equipped with an infrared sensor or a light emitting element for illumination may be used so that the camera can take a picture even when the inside of the vehicle is dark.
  • the detection signal processing unit 32 generates and outputs the detection information Sb based on the image signal from the imaging unit 31.
  • the information display control device 4b is the same as the information display control device 4 of the first embodiment, but as shown in FIG. 16, an internal situation analysis unit 51 and a display area information generation unit 52 are added, The difference is that an information storage unit 41b is provided instead of the information storage unit 41.
  • the internal situation analysis unit 51 analyzes the image of the face of the user based on the detection information Sb from the internal situation detection unit 3, detects the position Ue of the viewpoint and the direction Ud of the line of sight, and detects the position of the detected viewpoint. Information indicating Ue and information indicating the direction Ud of the line of sight are output.
  • any technique such as triangulation using multiple cameras (stereo vision) or TOF (Time Of Flight) using a monocular camera may be used.
  • the internal situation analysis unit 51 writes information indicating the detected viewpoint position Ue and information indicating the line-of-sight direction Ud in the information storage unit 41b. If the information indicating the viewpoint position Ue and the information indicating the line-of-sight direction Ud have been stored by then, the information is overwritten. As described above, the information indicating the position Ue of the viewpoint and the information indicating the direction Ud of the line of sight, which are stored in the information storage unit 41, are updated according to the detection result by the internal situation detection unit 3.
  • the display area information generation unit 52 based on the viewpoint position Ue and the line-of-sight direction Ud detected by the internal situation analysis unit 51, among the display area information FD, the coordinates Vdlt, Vdrt, Vdlb in the user viewpoint coordinate system, Calculate Vdrb. Then, the display area information FD including the calculated coordinates is written in the information storage unit 41b. If the display area information FD has been written by then, it is overwritten. Note that only the coordinates Vdlt, Vdrt, Vdlb, and Vdrb in the user viewpoint coordinate system may be rewritten.
  • the conversion table creation unit 46 creates the conversion table CT based on the virtual area information FV and the display area information FD stored in the information storage unit 41b.
  • the conversion table creation unit 46 stores the created conversion table CT in the conversion table creation unit 46. If the conversion table CT has been saved by then, it is overwritten.
  • the display area information FD stored in the information storage unit 41b and the conversion table CT stored in the conversion table creation unit 46 are updated according to the detection result by the internal situation detection unit 3. It That is, it is updated every time at least one of the information indicating the viewpoint position Ue and the information indicating the line-of-sight direction Ud changes.
  • the image transformation unit 47 transforms the image using the overwritten conversion table CT. By detecting the position Ue of the viewpoint and the direction Ud of the line of sight, it is possible to always perform optimal image display even if the position of the viewpoint or the direction of the line of sight of the user changes.
  • the image formed in the virtual area VL is not displayed in the display area DL. This is because the image formed in the virtual area VL is projected on the part of the display area surface DS other than the display area DL. However, at this time, since the user's line of sight is outside the display area DL, even if the image of the virtual area VL is not displayed in the display area DL, there is no inconvenience for the user.
  • the virtual image by the size determination unit 44 is displayed.
  • the size of the object may not be determined, the virtual object is drawn by the three-dimensional drawing unit 45, the display image is formed by the image transformation unit 47, and the display 6 is not driven by the display control unit 48.
  • the movement of the change pattern is performed intermittently or continuously. That is, both the portion having the minimum transmittance and the portion having the maximum transmittance move from left to right. Since the sine wave is continuous, the above changes are repeated.
  • the external storage medium 102 plays a part of the role of the information storage units 41, 41b, and 41c, and the rest plays a role of the memory 103. Furthermore, the memory 103 has a function of storing the conversion table CT by the conversion table creation units 46 and 46b.
  • step ST12 the processor 101 selects one virtual object BJ from a plurality of virtual objects stored in the external storage medium 102, and stores information indicating the selected virtual object BJ in the memory 103.
  • This process corresponds to the process performed by the virtual object selection unit 43 in FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

オブジェクトの位置(Vo)を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御方法であって、オブジェクトの位置(Vo)に基づき仮想オブジェクトのサイズ(JS)を決定し、サイズが決定された仮想オブジェクトをオブジェクトの位置に配置し、該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで仮想オブジェクトの画像を生成し、仮想領域内の複数の格子点と、表示領域を含む平面内の、上記の複数の格子点に対応する点との関係を示す変換テーブルを用いて、仮想オブジェクトの画像を変形して、仮想オブジェクトの表示画像を生成し、表示画像を表示領域に表示させる。表示領域外に位置するオブジェクトの位置を、ユーザが直感的に知覚することができる。

Description

情報表示制御装置及び方法、並びにプログラム及び記録媒体
 本発明は、情報表示制御装置及び方法、並びにプログラム及び記録媒体に関する。
 従来の情報表示装置として、表示領域の外に対するポインティング操作が行われた場合に、表示領域内にカーソルを表示するものが知られている。この装置では、表示領域からポインティング位置までの距離に応じてカーソルの大きさ、色、形状、模様等を変更している(例えば、特許文献1)。
特開2016-53767号公報(段落0028~0033)
 従来の装置には、位置の変化を知覚することが可能であるが、位置自体を直感的に知覚することができないという問題があった。
 本発明は、上記の問題点を解決するためになされたもので、表示領域外の位置を、ユーザが直感的に知覚することができるようにすることを目的とする。
 本発明の情報表示制御装置は、
 オブジェクトの位置を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御装置であって、
 前記オブジェクトの位置に基づき前記仮想オブジェクトのサイズを決定するサイズ決定部と、
 サイズが決定された前記仮想オブジェクトを前記オブジェクトの位置に配置し、当該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで前記仮想オブジェクトの画像を生成する3次元描画部と、
 前記仮想領域内の複数の格子点と、前記表示領域を含む平面内の、前記複数の格子点に対応する点との関係を示す変換テーブルを作成する変換テーブル作成部と、
 前記変換テーブルを用いて、前記仮想オブジェクトの画像を変形して、前記仮想オブジェクトの表示画像を生成する画像変形部と、
 前記表示画像を前記表示領域に表示させる表示制御部と
 を有することを特徴とする。
 本発明によれば、表示領域外のオブジェクトの位置を、ユーザが直感的に知覚することができる。
本発明の実施の形態1の情報表示制御装置を備えた運転支援装置を示す機能ブロック図である。 運転支援装置が搭載された車両を示す概略図である。 図1の外部状況検出部の構成例を示す機能ブロック図である。 ユーザの視点と表示器の表示領域と仮想領域との位置関係を示す図である。 図1の情報表示制御装置を示す機能ブロック図である。 ユーザの視点座標系と表示領域座標系との位置関係を示す図である。 ユーザの視点座標系と表示領域座標系と仮想領域との関係を示す図である。 基準水平視野角と仮想オブジェクトのサイズとの関係を示す図である。 (a)は、基準水平視野角と仮想オブジェクトのサイズとの関係を示す図、(b)は、仮想領域において仮想オブジェクトの画像が形成される範囲を示す図である。 仮想領域上の点と表示領域面上の点との対応関係を示す図である。 (a)は、仮想領域上の複数の格子点を示す図、(b)は、表示領域面上の、上記格子点に対応する点を示す図である。 変換テーブルの一例を示す図である。 (a)及び(b)は、仮想領域内の格子点に位置しない画素についての内挿の方法を示す図である。 本発明の実施の形態2の情報表示制御装置を備えた運転支援装置を示す機能ブロック図である。 図14の内部状況検出部の構成例を示す機能ブロック図である。 図14の情報表示制御装置を示す機能ブロック図である。 本発明の実施の形態3の情報表示制御装置を示す機能ブロック図である。 オブジェクトの位置と基準位置とアニメーション方向との関係を示す図である。 (a)及び(b)は、変化パターンの透過率の変化を示す図である。 (a)~(d)は、透過率の空間的分布の時間経過に伴う変化を示す図である。 (a)は、変化パターンの変化方向がアニメーション方向に一致するように向きが定められた仮想オブジェクトを示す図、(b)は、(a)の仮想オブジェクトを仮想領域に投影することで形成される仮想オブジェクトの画像を示す図である。 実施の形態1、2又は3の情報表示制御装置の諸機能を実現する1つのプロセッサを含むコンピュータを示す機能ブロック図である。 実施の形態1の情報表示制御装置における処理をプロセッサに実行させる場合の処理の手順を示すフローチャートである。 実施の形態2の情報表示制御装置における処理をプロセッサに実行させる場合の処理の手順を示すフローチャートである。 実施の形態3の情報表示制御装置における処理をプロセッサに実行させる場合の処理の手順を示すフローチャートである。
 本発明に係る情報表示制御装置は、種々の目的で利用可能であるが、以下では、運転支援装置の一部として用いられるものを例として説明する。
実施の形態1.
 図1は本発明の実施の形態1の情報表示制御装置4を備えた運転支援装置1を示す。
 図示の運転支援装置1は、例えば図2に示されるように、車両10に搭載されるものであり、情報表示制御装置4のほか、外部状況検出部2と、表示器6とを有する。
 外部状況検出部2は、車両の外の状況を検知して、車両の周囲に位置するオブジェクトについての検知情報Saを出力する。
 ここでいうオブジェクトは、車両の運転に当たり注意すべき対象(注意対象)であり、他の車両、歩行者、固定された構造物を含む。他の車両には、自動四輪車(乗用車、トラック、バス等)、自動二輪車、自転車が含まれる。
 外部状況検出部2は、例えば、図3に示されるように、撮像部21と、検知部22と、通信器23と、検知信号処理部24とを有する。
 撮像部21は、車両の周囲を撮像することで、周囲の風景を表す画像(周囲画像)を生成して、画像信号を出力する。撮像部21は、1又は2以上のカメラを備える。
 検知部22は、ミリ波センサ、レーザセンサ、赤外線センサ、ソナーのうちの一つ以上を含み、周囲に位置するオブジェクトまでの距離、オブジェクトの存在する方向等を示す検知信号を出力する。
 通信器23は、車両10の外部から提供される、他の車両に関する情報を受信する。他の車両に関する情報は、当該他の車両の位置並びに移動の方向及び速度を示す情報を含んでいても良い。車両10の外部からの提供は、他の車両からの直接の通信による提供であっても良く、基地局を介しての通信による提供であっても良い。
 検知信号処理部24は、撮像部21からの画像信号、検知部22からの検知信号、及び通信器23で受信した情報に基づいて、検知情報Saを生成して、出力する。
 検知信号処理部24から検知情報Saには、オブジェクトの位置を示す情報が含まれていても良い。
 情報表示制御装置4は、外部状況検出部2からの検知情報Saに基づいて、表示器6における表示を制御する。
 表示器6は例えばフロントガラスをハーフミラーとして利用したウィンドシールドディスプレイで構成されている。
 ウィンドシールドディスプレイは、ユーザ、例えば運転者の視点からある一定の距離に虚像を作る透過型ディスプレイであり、特殊なコンバイナを用いる場合にはヘッドアップディスプレイとも呼ばれる。
 例えば、情報表示制御装置4は、車両の周囲に位置するオブジェクトの位置を示す仮想オブジェクトの画像を表示器6の表示領域に表示させる。
 表示器6の表示領域に表示される仮想オブジェクトの画像の形成のため仮想領域が用いられる。
 図4は、ユーザの視点Ueと、表示器6の表示領域DLと、仮想領域VLとを示す。情報表示制御装置4は、仮想オブジェクトBJの画像を仮想領域VL内に形成し、形成された仮想オブジェクトBJの画像を、表示領域DLに投影することで表示画像を形成する。
 例えば、図4に示すように、仮想領域VLの左の縁HEa及び右の縁HEbの少なくとも一方(図では左の縁HEa)に沿う幅FWの範囲を指定領域ALとし、指定領域AL内に、1又は2以上の仮想オブジェクトBJの画像を形成する。図示の例では、左の縁HEaに沿う幅FWの指定領域AL内にのみ1つの仮想オブジェクトBJの画像Gcが形成されている。
 ユーザの視点Ue、表示領域DL、仮想領域VL、仮想オブジェクトBJ等の位置関係を表すためユーザ視点座標系及び表示領域座標系を用いる。
 ユーザ視点座標系の座標を(Xv,Yv,Zv)で表し、表示領域座標系での座標を(Xd,Yd,Zd)で表す。
 ユーザ視点座標系は、ユーザの視点の位置Ueを原点とし、ユーザの視線の方向UdをZv軸方向とし、水平方向をXv軸方向とし、Zv軸及びXv軸に垂直な方向をYv軸方向とする。
 本実施の形態では、ユーザの視点の位置Ue及び視線の方向Udとしては、標準的な位置及び方向を用いるものとする。
 ここでは、表示領域DLは矩形である場合を想定しており、表示領域座標系は、左上隅を原点とし、左上隅から右上隅に向かう方向をXd軸方向、左上隅から左下隅に向かう方向をYd軸方向、Xd軸及びYd軸に垂直な方向をZd軸方向とする。
 情報表示制御装置4は、図5に示すように、情報記憶部41と、外部状況解析部42と、仮想オブジェクト選択部43と、サイズ決定部44と、3次元描画部45と、変換テーブル作成部46と、画像変形部47と、表示制御部48とを有する。
 情報記憶部41は、仮想オブジェクト情報FJと、表示領域情報FDと、仮想領域情報FVと、指定領域情報FÅとを記憶している。情報記憶部41はまた、車両を基準とする、ユーザの視点の位置Ueを示す情報及びユーザの視線の方向Udを示す情報を記憶している。「車両を基準とする」とは「車両座標系における」という意味である。車両座標系は、例えば、車両内の任意の基準点を原点とし、任意の方向を1つの座標軸とするよう定義される。
 仮想オブジェクト情報FJは、複数の仮想オブジェクトの各々の属性を表す情報である。各仮想オブジェクトは、立体的な図形のモデル(3次元モデル)であり、3次元グラフィックスで表現可能なもの、例えばポリゴンモデルが用いられる。仮想オブジェクトの属性には、形状を表す情報、色を表す情報、及び透過率を表す情報が含まれる。
 情報記憶部41に記憶されている複数の仮想オブジェクトの形状には、球体及び錐体が含まれる。錐体には、円錐及び多角錐が含まれる。仮想オブジェクトは、これら以外の形状のものであっても良い。但し、アモーダル補完で欠損部分を想起し得るような形状であるのが望ましい。
 表示領域情報FDは、表示領域DLの位置を表す情報(位置情報)を含む。例えば表示器6がウィンドシールドディスプレイである場合、表示領域DLは虚像が形成される仮想の面である。
 表示領域DLの位置を表す情報は、例えば、表示領域DLの4隅の位置を表す情報である。
 表示領域DLの位置を表す情報としては、ユーザ視点座標系での3次元座標が情報記憶部41に記憶されている。
 図6には、表示領域DLの4隅、即ち、左上隅、右上隅、左下隅、右下隅が符号Qlt、Qrt、Qlb、Qrbで示されている。
 これらの4隅Qlt、Qrt、Qlb、Qrbのユーザ視点座標系の3次元座標は、それぞれVdlt、Vdrt、Vdlb、Vdrbで表される。3次元座標Vdlt、Vdrt、Vdlb、Vdrbの各々はXv座標、Yv座標、Zv座標から成る。
 表示領域座標系は、上記のように、表示領域DLの左上隅Qltを原点とし、左上隅Qltから右上隅Qrtに向かう方向をXd軸、左上隅Qltから左下隅Qlbに向かう方向をYd軸とし、Xd軸及びYd軸に直交する方向をZd軸としている。
 これらの4隅Qlt、Qrt、Qlb、Qrbの、表示領域座標系の3次元座標は、それぞれDlt、Drt、Dlb、Drbで表される。3次元座標Dlt、Drt、Dlb、Drbの各々はXd座標、Yd座標、Zd座標から成る。
 表示領域情報FDは、上記した表示領域DLの位置を表す情報に加えて、表示領域DLのサイズを表す情報を含む。表示領域DLのサイズとして、表示領域DLの横方向(水平方向)の画素数Wd及び縦方向(垂直方向)の画素数Hdが記憶されている。
 表示領域座標系では、画素の数によって長さを表しており、左上隅Qlt、右上隅Qrt、左下隅Qlb、右下隅Qrbの3次元座標はそれぞれ以下の通りとなる。
 Dlt:(Xdlt,Ydlt,Zdlt):(0,0,0)
 Drt:(Xdrt,Ydrt,Zdrt):(Wd,0,0)
 Dlb:(Xdlb,Ydlb,Zdlb):(0,Hd,0)
 Drb:(Xdrb,Ydrb,Zdrb):(Wd,Hd,0)
 仮想領域情報FVは、仮想領域VLの位置を表す情報(位置情報)を含む。仮想領域VLは、仮想オブジェクトの画像の形成に用いられる仮想の領域である。
 以下では、仮想領域VLも矩形の領域であるものとする。その場合、仮想領域情報FVとして、仮想領域VLの4隅の位置を表す、ユーザ視点座標系での3次元座標が記憶されていても良い。
 図7には、図6に示されるユーザの視点Ue及び表示領域DLに加えて、仮想領域VLが示されている。図7にはさらに、仮想領域VLの4隅、即ち、左上隅、右上隅、左下隅、右下隅が符号Plt、Prt、Plb、Prbで示されている。
 これらの4隅のユーザ視点座標系の3次元座標は、それぞれVvlt、Vvrt、Vvlb、Vvrbで表される。3次元座標Vvlt、Vvrt、Vvlb、Vvrbの各々はXv座標、Yv座標、Zv座標から成る。
 仮想領域VLは、その面がZv軸に垂直であり、その中心がZv軸上にあるものとする。また、仮想領域VLの横方向の辺及び縦方向の辺はそれぞれユーザ視点座標系のXv軸及びYv軸と平行であるものとする。さらに、仮想領域VLは、その幅がVwであり、その高さがVhであり、ユーザ視点Ueから仮想領域VLの中心までの距離がVfであるものとする。
 すると、仮想領域VLの左上隅Plt、右上隅Prt、左下隅Plb、右下隅Prbの座標は以下の通りとなる。
 Vvlt:(Xvlt,Yvlt,Zvlt):(-Vw/2,Vh/2,Vf)
 Vvrt:(Xvrt,Yvrt,Zvrt):(Vw/2,Vh/2,Vf)
 Vvlb:(Xvlb,Yvlb,Zvlb):(-Vw/2,-Vh/2,Vf)
 Vvrb:(Xvrb,Yvrb,Zvrb):(Vw/2,-Vh/2,Vf)
 以上のように、仮想領域VLの4隅の位置を表すユーザ視点座標系での座標は、ユーザ視点Ueからの距離Vfと、仮想領域の幅Vw及び高さVhから算出可能である。本実施の形態では、仮想領域VLの4隅の位置の算出に必要な情報として、上記の距離Vf、幅Vw及び高さVhを表す情報が情報記憶部41に記憶されている。
 指定領域情報FAは、指定領域ALのサイズを示す情報である。図4に示すように、仮想領域VL左の縁HEaに沿う幅FWの範囲が指定領域ALとされる場合、幅FWが指定領域のサイズであり、この幅FWを示す情報が情報記憶部41に指定領域情報FAとして記憶されている。
 指定領域ALは、仮想オブジェクトの画像の形成に利用される領域であり、指定領域AL内に形成された画像は、表示領域DLに投影されて、表示される。
 外部状況解析部42は、外部状況検出部2から出力される検知情報Saに基づき、車両の周囲に位置するオブジェクトの位置Voを表す情報を取得する。このようなオブジェクトの位置Voを表す情報は、例えばユーザ視点座標系における座標(Xvo,Yvo,Zvo)で表される。
 オブジェクトの位置は、オブジェクトの代表的な位置、例えばオブジェクトの中心又は重心の位置である。
 以下では、車両の周囲に位置するオブジェクトが1つだけ検出されたものとして説明するが、複数のオブジェクトが検出された場合に、各オブジェクトについて同様の処理を行なえば良い。
 外部状況解析部42はまた、外部状況検出部2から出力される検知情報Saに基づき、車両の周囲に位置するオブジェクトの種類Otを判定し、判定の結果として特定されたオブジェクトの種類Otを示す情報を出力する。
 オブジェクトの種類を示す情報は、例えば、オブジェクトが車両、人、構造物等のいずれであるか、車両についてはさらに、自動四輪車、自動二輪車、自転車のいずれであるか、自動四輪車についてはさらに、乗用車、トラック、バス等のいずれであるかを示す情報であっても良い。
 オブジェクトの種類は、画像中のオブジェクトに対する画像認識によって特定することができる。カメラによる撮像で得られた画像に限らず、レーザセンサ、ミリ波センサなどで得られるデータを用いて認識を行なっても良い。
 オブジェクトの種類の判定は、公知の物体認識技術で実現することができる。例えば、Hog(Histogram of Oriented Gradients)特徴量を使った技術、Deep Neural Networkを使った技術を用い得る。
 仮想オブジェクト選択部43は、情報記憶部41に記憶されている複数の仮想オブジェクトから1つを選択し、選択した仮想オブジェクトBJを表す情報を出力する。
 ここでは、仮想オブジェクト選択部43は、外部状況解析部42で検出されたオブジェクトの種類Otに関する応じて仮想オブジェクトの選択を行うものとする。例えば、オブジェクトの種類Otを連想させる仮想オブジェクトが選択されるようにしても良い。予めオブジェクトの種類と仮想オブジェクトとを対応付けておき、検出されたオブジェクトの種類に対応付けられている仮想オブジェクトが選択されるようにしても良い。
 以下では、球体であって、不透過なものが選択される場合について説明する。
 サイズ決定部44は、情報記憶部41に記憶されている指定領域情報FAと、仮想オブジェクト選択部43で選択された仮想オブジェクトBJを示す情報と、外部状況解析部42から出力されたオブジェクトの位置Voを示す情報とを元に、仮想オブジェクトのサイズJSを決める。
 ここでは仮想オブジェクトが球体である場合を想定しているので、仮想オブジェクトのサイズJSとして、球体の半径rを決定する。
 サイズ決定部44は、決定したサイズJSを示す情報を、選択されている仮想オブジェクトBJを示す情報とともに出力する。
 3次元描画部45は、情報記憶部41に記憶されている仮想領域情報FVと、外部状況解析部42から出力されたオブジェクトの位置Voを表す情報と、仮想オブジェクト選択部43で選択された仮想オブジェクトBJを表す情報と、サイズ決定部44で決定されたサイズJSを表す情報とを元に、仮想オブジェクトの画像Gcを生成する。3次元描画部45は、仮想オブジェクトBJをオブジェクトの位置Voに配置し、そのように配置された仮想オブジェクトBJを、ユーザ視点Ueを基準として、仮想領域VLに透視投影することで仮想オブジェクトの画像Gcを生成する。
 「仮想オブジェクトBJをオブジェクトの位置Voに配置する」とは、仮想オブジェクトBJの基準点がオブジェクトの位置に一致するように仮想オブジェクトBJの位置を決めることを言う。仮想オブジェクトBJが球体である場合、その基準点は球体の中心である。
 「仮想オブジェクトを、ユーザ視点Ueを基準として、仮想領域VLに透視投影する」とは、ユーザ視点Ueを通る直線により、仮想オブジェクトの各点を仮想領域VLに投影することを意味する。
 変換テーブル作成部46は、表示領域情報FDと仮想領域情報FVとを元に、変換テーブルCTを作成する。変換テーブルCTは、仮想領域VL内に配置された複数の点と、表示領域DLを含む平面(表示領域面)DS内の対応する点との対応関係を示す。以下では上記の複数の点を格子点と呼ぶ。複数の格子点は、例えば、仮想領域VLを区切る複数の縦線と複数の横線との交差位置に配置される。
 画像変形部47は3次元描画部45から出力される画像Gcを、変換テーブルCTを用いて変形して、変形画像Gdを生成する。
 この変形は、画像Gcの各画素のユーザ視点座標Vp(Xvp,Yvp,Zvp)を変換テーブルCTに入力し、変換テーブルCTから、入力された座標に対応する表示領域座標Dq(Xdq,Ydq)を読み出すことで行われる。
 画像Gcの画素のうち、格子点に位置しない画素については、画像変形部47は、当該画素の位置の周囲の格子点を用いて内挿を行うことで、対応する位置を算出する。
 表示制御部48は、上記のようにして生成された変形画像Gdのうちの、表示領域DL内の部分を表示画像Geとして表示器6に供給し、表示させる。
 上記した処理、即ち、外部状況解析部42によるオブジェクトの種類の判定及びオブジェクトの位置の検出、サイズ決定部44による仮想オブジェクトのサイズの決定、3次元描画部45による描画、画像変形部47による画像の変形、及び表示制御部48による表示器6の駆動制御の処理は、繰り返し実行される。
 繰り返し実行することで、オブジェクト位置の変化に表示画像の内容を追従させることができる。
 上記の説明で、各機能ブロックで生成された情報がそのまま他の機能ブロックに供給されるものとしているが、一旦図示しないメモリに保存した上で、他の機能ブロックに供給するようにしても良い。以下で説明する他の実施の形態でも同様である。
 以下、サイズ決定部44における仮想オブジェクトBJのサイズJSの決定について詳しく説明する。
 本実施の形態では、仮想オブジェクトBJのサイズJSは、指定領域情報FAに基づいて決定される。
 指定領域情報FAは、指定領域ALの幅を示す情報である。上記のように、仮想オブジェクトの画像は、仮想領域の縁に沿う幅FWの指定領域AL内に形成される。
 例えば、図4に示す例では、仮想領域の左右の縁HEa又はHEbに沿う幅FWの指定領域AL内に仮想オブジェクトの画像が形成される。図示の例では、仮想オブジェクトの画像が、仮想領域の左の縁HEaに沿う幅FWの指定領域AL内に形成される。これは、オブジェクトがユーザ視点Ueから仮想領域VLを見たときの視野角の範囲(ユーザ視点Ueと仮想領域の縁とを結ぶ直線群により画定される範囲)の左側に位置している場合を想定しているためである。以下では、上記した「ユーザ視点Ueから仮想領域VLを見たときの視野角の範囲」を仮想領域範囲と言う。
 指定領域の幅FWは、仮想オブジェクトの画像が、基準視野角の範囲には入らないように定められる。
 基準視野角は、仮想領域範囲のうち、ユーザが注視する角度範囲を意味する。基準視野角には、基準水平視野角と基準垂直視野角とがある。基準水平視野角は、水平方向の基準視野角である。基準垂直視野角は、垂直方向の基準視野角である。
 例えば、仮想領域範囲の左右(水平方向の外部)に位置するオブジェクトの位置を示す場合には、基準視野角として基準水平視野角が用いられる。基準水平視野角は、左方向の基準水平視野角θaと右方向の基準水平視野角θbとを含む。
 左方向の基準水平視野角θa及び右方向の基準水平視野角θbの各々は15~60度程度に定められる。左方向の基準水平視野角θaと右方向の基準水平視野角θbとは互いに等しくても良く、異なっていても良い。
 図8及び図9(a)に示すように、ユーザ視点座標系のXvZv平面内にあって、Zv軸に対して角θa、θbを成す一対の直線Lθa、Lθbを引き、これらの直線Lθa、LθbをYv軸方向に移動させたときの軌跡により境界面Sθa、Sθbを形成する。直線Lθa、Lθb及び境界面Sθa、Sθbは無限に延びるものであるが、図9(a)には、直線Lθa、Lθb、境界面Sθa、Sθbの一部のみが示されている。境界面Sθa及びSθbは、基準水平視野角の範囲を画定する面であると言える。
 境界面Sθa、Sθbと仮想領域VLとの交線が図9(a)及び(b)に符号Vθa、Vθbで示されている。仮想領域VLの左右の縁HEa、HEbから交線Vθa、Vθbまでの寸法が指定領域の幅FWである。
 所望の幅FWが予め決められる場合、仮想領域VLは、基準水平視野角θa、θbの範囲外に幅FWの指定領域ALが確保できるように定められる。
 次に、3次元描画部45における仮想オブジェクトの画像の生成について詳しく説明する。
 3次元描画部45における仮想オブジェクトの画像の生成は、3次元グラフィックスを用いてレンダリングを行うことで実現することができる。
 具体的には、外部状況解析部42で取得したオブジェクトの位置Voに中心を有する半径rの3次元の球体モデルを作成する。この球体モデルが仮想オブジェクトBJとなる。
 そして、仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで仮想オブジェクトの画像を形成する。これには、仮想領域VLの4隅の座標を元にプロジェクション行列(射影行列とも言う)を作成し、3次元グラフィックスでレンダリングすればよい。
 このような処理は、OpenGL、DirectXなどの3次元グラフィックス用ライブラリを使用することで実現することができる。
 上記のように、球状の仮想オブジェクトBJは、その中心の位置がオブジェクトの位置Voに一致するように位置決めされ、かつその球面が境界面Sθa、Sθbに接するように、その半径rが定められる。その結果、仮想オブジェクトの画像Gcは、図9(b)に示すように、交線Vθa、Vθbの外側に、かつその最も突出した部分(仮想領域VLの中央に近い部分)が交線Vθa、Vθbに接するように形成される。
 3次元描画で仮想オブジェクトをレンダリングするに当たり、球体らしさを表現するための処理を加えても良い。そのような処理には、光沢感を出すためのライティング処理、半透明のガラス球の感じを持たせるためのブレンド処理等が含まれる。
 次に、変換テーブル作成部46における変換テーブルCTの作成について詳しく説明する。変換テーブルCTは、仮想領域VL内の複数の格子点の各々の位置と、当該格子点に対応する、表示領域面DS上の対応する点との位置関係を示すテーブルである。対応する点とは、仮想領域VL上の各格子点とユーザ視点Ueとを通る直線と、表示領域面DSとが交わる点である。
 変換テーブルCTは、表示領域情報FDと仮想領域情報FVとを用いて作成される。
 ここでは、表示領域情報FDとして図6に示すように、表示領域DLの左上隅、右上隅、左下隅、右下隅の位置を表す、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbと、表示領域DLの水平方向画素数Wdを表す情報と垂直方向画素数Hdを表す情報とが、情報記憶部41に格納されている場合を想定している。
 また、仮想領域情報FVとして、仮想領域VLのユーザ視点Ueからの距離Vfを表す情報と、仮想領域VLの幅Vwを表す情報と、仮想領域VLの高さVhを表す情報とが、情報記憶部41に記憶されている場合を想定している。
 記憶されている情報で示される距離Vf、幅Vw及び高さVhを用いて、仮想領域VLの左上隅Plt、右上隅Prt、左下隅Plb、右下隅Prbのユーザ視点座標系での座標Vvlt、Vvrt、Vvlb、Vvrbを算出することができる。
 変換テーブルCTの作成に当たっては、まず、ユーザ視点座標系の座標(Xv,Yv,Zv)を表示領域座標系の座標(Xd,Vd,Zd)に変換するための変換行列Mvdを算出する。
 ユーザ視点座標系の座標(Xv,Yv,Zv)から、表示領域座標系の座標(Xd,Vd,Zd)への変換は以下の数式で表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)で、tは転置を表す。
 Mvdは、下記の式(2)で与えられる。
Figure JPOXMLDOC01-appb-M000002
 式(2)で、
 Sは、3×3の対角成分のみを持つ拡大行列、
 Rは3x3の回転行列、
 Tは3次元の縦ベクトルである。
 算出すべきR及びTは合わせて12要素から成るので、12個の連立方程式があれば解ける。そこで、Xv、Yv、Zv及びXd、Yd、Zdに、
Vdlt(Xvdlt,Yvdlt,Zvdlt)とDlt(Xdlt,Ydlt,Zdlt)、
Vdrt(Xvdrt,Yvdrt,Zvdrt)とDrt(Xdrt,Ydrt,Zdrt)、
Vdlb(Xvdlb,Yvdlb,Zvdlb)とDlb(Xdlb,Ydlb,Zdlb)、
Vdrb(Xvdrb,Yvdrb,Zvdrb)とDrb(Xdrb,Ydrb,Zdrb)
の組み合わせを代入することで、12個の連立方程式を生成する。
 具体的には、
 Xv及びXdに、Vdltの第1要素(Xvdlt)とDltの第1要素(Xdlt)を代入することで第1の連立方程式、
 Yv及びYdに、Vdltの第2要素(Yvdlt)とDltの第2要素(Ydlt)を代入することで第2の連立方程式、
 Zv及びZdに、Vdltの第3要素(Zvdlt)とDltの第3要素(Zdlt)を代入することで第3の連立方程式、
 Xv及びXdに、Vdrtの第1要素(Xvdrt)とDrtの第1要素(Xdrt)を代入することで第4の連立方程式、
 Yv及びYdに、Vdrtの第2要素(Yvdrt)とDrtの第2要素(Ydrt)を代入することで第5の連立方程式、
 Zv及びZdに、Vdrtの第3要素(Zvdrt)とDrtの第3要素(Zdrt)を代入することで第6の連立方程式、
 Xv及びXdに、Vdlbの第1要素(Xvdlb)とDlbの第1要素(Xdlb)を代入することで第7の連立方程式、
 Yv及びYdに、Vdlbの第2要素(Yvdlb)とDlbの第2要素(Ydlb)を代入することで第8の連立方程式、
 Zv及びZdに、Vdlbの第3要素(Zvdlb)とDlbの第3要素(Zdlb)を代入することで第9の連立方程式
 Xv及びXdに、Vdrbの第1要素(Xvdrb)とDrbの第1要素(Xdrb)を代入することで第10の連立方程式、
 Yv及びYdに、Vdrbの第2要素(Yvdrb)とDrbの第2要素(Ydrb)を代入することで第11の連立方程式、
 Zv及びZdに、Vdrbの第3要素(Zvdrb)とDrbの第3要素(Zdrb)を代入することで第12の連立方程式
 を生成する。
 そして、生成した連立方程式を解くことで、上記の変換行列Mvdを得ることができる。
 次に、このようにして求めた変換行列Mvdを用いて、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)から、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)を算出する。
 仮想領域VL上の点Ppに対応する表示領域DL上の点Qpは、視点Ueと点Ppとを結ぶ直線が、表示領域面DSと交差する点である。
 図10には、仮想領域VL上の2つの格子点Pp00、Pp01について、表示領域面DS上の対応する点Qp00、Qp01が示されている。
 図11(a)には、仮想領域VL内に規則的に配置された複数の格子点(それぞれ黒く塗りつぶした丸で示す)が示され、図11(b)には、図11(a)に示される複数の格子点について、表示領域面DS上の対応点(それぞれ黒く塗りつぶした丸で示す)が示されている。
 この算出は、
Figure JPOXMLDOC01-appb-M000003
 で求められるXd,Ydであって、
Figure JPOXMLDOC01-appb-M000004
 となるようにtが定められたときのXd,Ydを求めることで行われる。
 式(3)で、tは媒介変数である。
 Xd,Ydがこのようにして求められるのは、仮想領域内のユーザ視点座標(Xv,Yv,Zv)で表される点Pと、ユーザ視点Ueとを結ぶ直線上の点のユーザ視点座標は、
 t(Xv,Yv,Zv)
 で表されること、及びそのような点の表示領域座標は、
 Mvd×t×(Xv,Yv,Zv)=t×Mvd×(Xv,Yv,Zv)
 で与えられること、及び表示領域面DS内に位置する点のZd座標は0であることによる。
 このようにして、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)から、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)が算出されたら、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)と、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)とを対応付けて記憶する。
 この処理を複数の格子点のすべてについて繰り返すことで、図12に示される変換テーブルが作成される。即ち、複数の格子点のすべてについての、仮想領域VL内の複数の格子点の各々の位置を表すユーザ視点座標(Xv,Yv,Zv)と、該ユーザ視点座標に対応付けられた、表示領域面DS上の対応する点の表示領域座標(Xd,Yd)との組み合わせにより、変換テーブルCTが作成される。
 なお、全ての格子点についてZv=Vfであるので、Zvを含まず、(Xv,Yv)と(Xd,Yd)との関係を示す変換テーブルCTを作成しても良い。
 作成された変換テーブルCTは、変換テーブル作成部46内に保存される。保存された変換テーブルCTは、画像変形部47により利用される。
 表示される画像の質を高くするためには、格子点の数が多い方が好ましい。一方、格子点の数が多いほど変換テーブルCTの作成のための計算の量が多くなる。格子点の数を決めるに当たってはこれらを勘案する必要がある。
 なお、図11(a)及び(b)には、仮想領域の全域について、表示領域面DS上の対応する点を求めて、変換テーブルCTを作成することが示されているが、指定領域AL内の格子点に限り、表示領域面DS内の対応する点を求めて、変換テーブルCTを作成しても良い。
 次に、画像変形部47が、仮想領域VLの画像から、表示領域DLの変形画像Gdを生成する処理について詳しく説明する。
 変形画像Gdの生成には、変換テーブル作成部46に保存されている変換テーブルCTが用いられる。
 変形画像Gdの生成は、仮想領域VLの画像を表示領域面DS上に投影することで行われる。
 仮想領域VLの画像を表示領域面DS上に投影するには、仮想領域VLの画像の画素を順に選択して、選択した画素(注目画素)について、表示領域面DS上の対応する点の座標を求める。
 注目画素が、格子点に位置する画素であれば、変換テーブルCTを参照することで、対応する点の表示領域座標を読み出すことができる。
 注目画素が、格子点に位置しない画素であれば、その周囲の格子点に位置する画素についての、対応する点の表示領域座標を読み出して内挿を行うことで、注目画素に対応する点の表示領域座標を求めることができる。
 例えば、注目画素の近隣に位置する3つの格子点についての、対応点の表示領域座標と、注目画素と上記の3つの格子点との位置関係とに基づいて、内挿を行う。近隣に位置する3つの格子点としては、例えば、図13(a)及び(b)に示すように、注目画素Ppsubを内部に含む最小の三角形を構成する3つの格子点が選択される。図13(a)には、選択された3つの格子点Ppa、Ppb、Ppcが示され、図13(b)には、これらの格子点Ppa、Ppb、Ppcに対応する点Qpa、Qpb、Qpcが示されている。
 なお、図13(a)及び(b)には、仮想領域VLのうち、仮想オブジェクトの画像Gc以外の部分における画素について内挿の仕方を示しているが、仮想オブジェクトの画像Gc以外の部分については、表示領域面DSへの投影を省略しても良い。
 上記の3つの格子点Ppa、Ppb、Ppcは、変換テーブルCT上の全格子点のXv座標及びYv座標と、注目画素PpsubのXv座標及びYv座標とを比較することで決定できる。
 この3つの格子点Ppa、Ppb、Ppcのユーザ視点座標系での座標をVpa、Vpb、Vpcとした場合、これらの格子点Ppa、Ppb、Ppcの座標と、格子点Ppaに対する注目画素Ppsubの相対位置との関係を示す以下の等式を満たす実数s及びtを算出する。ここで上付き矢印はベクトルを示す。
Figure JPOXMLDOC01-appb-M000005
 このようなs及びtは一意に決定できる。このs及びtを、下記の式(6)に代入することで、座標Vpsubの変換後の座標Dpsub、即ち、仮想領域VL内の座標Vpsubの注目画素に対応する表示領域面DS上の点の座標Dpsubを算出できる。
Figure JPOXMLDOC01-appb-M000006
 このようにして求められた変換後の座標Dpsubで表される位置に、元の位置の画素と同じ属性(色、透過率等)を与える。
 表示制御部48は、上記のようにして生成された変形画像Gdのうちの、図13(b)に太枠LFで示す表示領域(Xd軸方向の0~Wdの範囲で且つYd軸方向の0~Hdの範囲)の画素データから成る画像Geを表示器6に表示させる。表示器6がウィンドシールドディスプレイである場合、虚像を生成させる。
 上記した、オブジェクトの位置の取得及び種類の判定から表示制御までの処理を、繰り返し実行することで、オブジェクト位置の変化に追従して表示画像の内容を変更することができる。
 以上のように処理を行うことで、表示器6の表示領域DLに仮想オブジェクトの一部の画像が表示されると、ユーザはアモーダル補完により仮想オブジェクトのうちの表示されていない部分を想起し、仮想オブジェクトの中心(球の中心)の位置を直感的に知覚することができる。これにより、オブジェクトの位置を把握することができる。
 上記の説明では、仮想オブジェクトBJとして球体が選択され、オブジェクトの位置Voに球体の中心が位置するように仮想オブジェクトBJが配置され、仮想オブジェクトBJのサイズとして、球体の半径rが決定される。
 仮想オブジェクトBJとして、錐体が選択される場合には、錐体の頂点を基準点とし、オブジェクトの位置Voに、錐体の頂点が位置するように仮想オブジェクトを配置し、仮想オブジェクトのサイズとして、錐体の高さを決定すれば良い。この場合、例えば、錐体の底面が、基準水平視野角の範囲を画定する面、例えば図9(a)の境界面Sθa、Sθbに接するように錐体の高さを決定すれば良い。
 上記の例では、基準水平視野角に基づいて幅FWを決定し、仮想領域の左右の縁に沿う、幅FWの指定領域AL内に、仮想領域範囲の水平方向における外部に位置するオブジェクトに対応する仮想オブジェクトの画像を形成することとしている。代わりに、基準垂直視野角に基づいて幅FWを決定し、仮想領域の上下の縁に沿う、幅FWの指定領域AL内に、仮想領域範囲の垂直方向における外部に位置するオブジェクトに対応する仮想オブジェクトの画像を形成することとしても良い。
 さらに、仮想領域の左右の縁に沿う指定領域と仮想領域の上下の縁に沿う指定領域とをともに設けて、仮想領域範囲の水平方向における外部に位置するオブジェクト及び仮想領域範囲の垂直方向における外部に位置するオブジェクトの双方について、仮想オブジェクトの画像を形成することとしても良い。
 仮想領域の左右の縁に沿う指定領域の幅と、仮想領域の上下の縁に沿う指定領域の幅とは同じであっても良く異なっていても良い。また、仮想領域の左の縁に沿う指定領域の幅と、仮想領域の右の縁に沿う指定領域の幅とは同じであっても良く異なっていても良い。同様に、仮想領域の上の縁に沿う指定領域の幅と、仮想領域の下の縁に沿う指定領域の幅とは同じであっても良く異なっていても良い。
 上記の例では、サイズ決定部44が、指定領域の幅FWに基づいて仮想オブジェクトのサイズを決定しているが、代わりに、基準視野角に基づいて、仮想オブジェクトのサイズを決定しても良い。
 上記の例では、指定領域の幅FWを基準視野角に基づいて決定しているが、指定領域の幅FWを基準視野角以外の指標に基づいて決定しても良い。
 上記の例では、外部状況解析部42で検出されたオブジェクトの種類Otに応じて仮想オブジェクトの選択をしている。代わりに、オブジェクトの種類以外のオブジェクトに関する情報に応じて仮想オブジェクトの選択をすることとしても良い。例えば、オブジェクトの大きさ又はオブジェクトの位置に応じて仮想オブジェクトの選択をしても良い。
 また、例えば、ユーザの好みに応じて仮想オブジェクトの選択ができるようにしても良い。その場合、運転支援システムの起動時に仮想オブジェクトを選択し、同じ仮想オブジェクトを使い続けることとしても良い。
 情報記憶部41に記憶されている仮想オブジェクトが1つだけであっても良い。この場合、仮想オブジェクト選択部43は不要であり、外部状況解析部42は、仮想オブジェクトの選択のためのオブジェクトの種類等の判定を行なう必要がなく、サイズ決定部44は、情報記憶部41に記憶されている単一の仮想オブジェクトについて、サイズの決定を行い、3次元描画部45は、情報記憶部41に記憶されている単一の仮想オブジェクトの描画を行うことになる。
 上記の例では、表示領域情報FDが、表示領域DLの4隅の位置を表す情報を含む。表示領域情報FDは、表示領域DLの4隅の位置を表す情報の代わりに、表示領域DLの4隅の位置の算出に必要な情報を含んでいても良い。例えば、表示領域DLの中心位置を示す情報、水平方向のサイズ(例えば画素数)を示す情報、垂直方向のサイズ(例えば画素数)を示す情報、及び視線に対する傾き角を示す情報を含んでいても良い。
 上記の例では、仮想領域情報FVが、ユーザ視点Ueまでの距離Vfを表す情報と、幅Vw及び高さVhを表す情報とを含む。代わりに、仮想領域情報FVが仮想領域VLの4隅の位置を表す情報を含んでいても良い。要するには、仮想領域情報FVが、仮想領域VLの4隅の位置を表す情報又は4隅の位置の算出に必要な情報を含んでいれば良い。
 上記の例では仮想領域VLの中心が視線上にあるが、視線と仮想領域VLが垂直で、かつその横方向の辺及び縦方向の辺がユーザ視点Xv軸及びYv軸と平行であれば、任意に配置可能ある。
 仮想領域VLの位置(ユーザ視点Ueからの距離Vf)とサイズとは任意に設定可能としておくのが望ましい。即ち、情報記憶部41に記憶されている、仮想領域情報FVのうち、仮想領域VLの位置を表す情報及びサイズを表す情報の少なくとも一方を書き換え可能とし、或いはこれらの各々として複数の情報を記憶しておき、選択可能としておくのが望ましい。
 上記の例では、表示器6はウィンドシールドディスプレイで構成されている。代わりに、ウィンドシールド自体を直接発光させて表示器6として用いる構成であっても良い。また、表示器6は例えばLCDであっても良い。LCDを用いる場合、LCDの表示面(実像が形成される)が、表示領域DLを構成する。
 表示器6は、仮想オブジェクトの画像のみならず、車両の周囲の風景の撮像画像をも表示するものであっても良い。その場合、情報表示制御装置4は、表示される撮像画像に対応する周囲の空間的範囲の外に位置するオブジェクトの位置を示すための仮想オブジェクトの画像を表示する。
 この場合、仮想オブジェクトの画像と撮像画像とが重なる部分では、仮想オブジェクトの画像のみを表示しても良く、アルファブレンドによる合成画像を表示しても良い。
 表示器6としては、他の用途、例えば、カーナビゲーションシステムで用いられる表示器を兼用しても良い。
 表示器6は、車両の周囲の風景の撮像画像以外の画像を表示するものであっても良い。例えば、カーナビゲーションシステムで提供される道路地図、経路に関する文字情報等を表示しても良い。
 これらの場合にも、仮想オブジェクトの画像と他の画像とが重なる部分では、仮想オブジェクトの画像のみを表示しても良く、アルファブレンドによる合成画像を表示しても良い。
 上記の例では、情報表示制御装置が運転支援装置の一部を成すものであり、オブジェクトが他の車両等であるが、情報表示制御装置が、データの編集等を行う者である場合には、オブジェクトは、カーソルであっても良い。
 この場合には、表示領域の外に位置するカーソルをオブジェクトとし、該オブジェクトの位置を示すための仮想オブジェクトの画像を表示することになる。
実施の形態2.
 図14は、本発明の実施の形態2の情報表示制御装置4bを備えた運転支援装置1bを示す。図示の運転支援装置1bは、情報表示制御装置4bのほか、外部状況検出部2と、内部状況検出部3と、表示器6とを有する。
 外部状況検出部2及び表示器6は、実施の形態1で説明したのと同様のものである。
 実施の形態1の情報表示制御装置4は、ユーザの視点の位置Ue及び視線の方向Udとして、標準的なものを用いている。これに対し、実施の形態2の情報表示制御装置4bは、ユーザの視点の位置Ue及び視線の方向Udを検出し、検出された位置及び方向を処理に用いる。
 内部状況検出部3は、車両の内部のユーザ、例えば運転者の視点の位置Ue及び視線の方向Udを検出する。
 内部状況検出部3は、例えば、図15に示すように、撮像部31と検知信号処理部32とを有する。
 撮像部31は、車両の内部、特にユーザ、例えば運転者を撮像して画像信号を出力する。撮像部31は1又は2以上のカメラを有する。
 カメラとして、車両の内部が暗くても撮影が可能なように、赤外線センサを備えたもの、或いは照明用の発光素子を備えたものを用いても良い。
 検知信号処理部32は、撮像部31からの画像信号に基づいて、検知情報Sbを生成して、出力する。
 情報表示制御装置4bは、実施の形態1の情報表示制御装置4と同様のものであるが、図16に示すように、内部状況解析部51及び表示領域情報生成部52が付加されており、情報記憶部41の代わりに情報記憶部41bを備えている点で異なる。
 内部状況解析部51は、内部状況検出部3からの検知情報Sbに基づいて、ユーザの顔の画像の解析を行い、視点の位置Ue、及び視線の方向Udを検出し、検出した視点の位置Ueを示す情報、及び視線の方向Udを示す情報を出力する。
 視点の位置Ueの検出には、複数のカメラを用いた三角測量(ステレオ視)、単眼カメラによるTOF(Time Of Flight)等の技術のいずれを用いても良い。
 内部状況解析部51は、検出した視点の位置Ueを示す情報及び視線の方向Udを示す情報を情報記憶部41bに書き込む。それまでに視点の位置Ueを示す情報及び視線の方向Udを示す情報が記憶されている場合には、上書きを行う。
 このように、情報記憶部41に記憶されている視点の位置Ueを示す情報及び視線の方向Udを示す情報は、内部状況検出部3による検出結果に応じて更新される。
 表示領域情報生成部52は、内部状況解析部51で検出された視点の位置Ue及び視線の方向Udに基づいて、表示領域情報FDのうち、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbを算出する。そして算出した座標を含む表示領域情報FDを情報記憶部41bに書き込む。それまでに表示領域情報FDが書き込まれていれば、上書きを行う。なお、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbについてのみ書き換えを行なっても良い。
 変換テーブル作成部46は、情報記憶部41bに記憶されている仮想領域情報FVと表示領域情報FDとに基づいて、変換テーブルCTを作成する。変換テーブル作成部46は、作成した変換テーブルCTを変換テーブル作成部46内に保存する。それまでに変換テーブルCTが保存されている場合には、上書きをする。
 このような処理を行う結果、情報記憶部41bに記憶されている表示領域情報FD及び変換テーブル作成部46に保存されている変換テーブルCTは、内部状況検出部3による検出結果に応じて更新される。即ち、視点の位置Ueを示す情報及び視線の方向Udを表す情報の少なくとも一方が変わる度に更新される。
 画像変形部47は、上書きされた変換テーブルCTを用いて画像の変形を行う。
 視点の位置Ue及び視線の方向Udを検出することで、ユーザの視点の位置又は視線の方向が変わっても常に最適な画像表示を行うことができる。
 視線の方向Udが、表示領域DLに向かう方向から大きくずれた場合には、仮想領域VLに形成された画像が、表示領域DLには表示されなくなる。これは、仮想領域VLに形成された画像が、表示領域面DSのうちの、表示領域DL以外の部分に投影されるためである。しかしながら、このとき、ユーザの視線は、表示領域DLから外れているので、表示領域DLに仮想領域VLの画像が表示されなくても、ユーザにとっては不都合はない。
 視線が表示領域DLから外れており、仮想領域VLに形成された画像が表示領域DLには全く表示されない場合には、情報表示制御装置4bの機能の一部、例えば、サイズ決定部44による仮想オブジェクトのサイズの決定、3次元描画部45による仮想オブジェクトの描画、画像変形部47による表示画像の形成、及び表示制御部48による表示器6の駆動を行わないようにしても良い。
実施の形態3.
 図17は、本発明の実施の形態3の情報表示制御装置4cを示す。
 実施の形態3の情報表示制御装置4cは、仮想オブジェクトに、変化パターンを貼り付け、該変化パターンを動かすことで、パターンの方向及び動き(アニメーション)の方向から、オブジェクトの位置をより知覚しやすくしたものである。
 図17に示される情報表示制御装置4cは、図5の情報表示制御装置4と概して同じであるが、パターン選択部53と、アニメーション方向決定部54とが付加されており、情報記憶部41及び3次元描画部45の代わりに情報記憶部41c及び3次元描画部45cを備える点で異なる。
 情報記憶部41cは、図5の情報記憶部41と同様の情報に加えて、複数の変化パターンを記憶している。変化パターンの各々は、3次元グラフィックスで使用可能なものである。複数の変化パターンには、濃度変化パターン、色変化パターン、及び透過率変化パターンが含まれる。
 これらの変化パターンは方向性を持つ変化パターンである。方向性を持つ変化パターンとは、例えば1つの方向にのみ濃度、色、透過率等が変化し、上記1つの方向に直交する方向には、同じ変化がないパターンである。上記の1つの方向を、以下では、変化方向と言う。
 変化パターンの変化は例えば正弦波状の変化であっても良く、矩形波状の変化であっても良く、さらにガウス分布曲線に沿う変化であっても良い。
 パターン選択部53は、情報記憶部41cに記憶されている複数の変化パターンから1つの変化パターンPtを選択する。
 アニメーション方向決定部54は、オブジェクトの位置Voに応じてアニメーション方向Pdを決める。
 3次元描画部45cは、パターン選択部53により選択された変化パターンPtを、仮想オブジェクト選択部43により選択された仮想オブジェクトに貼り付ける。
 3次元描画部45cはまた、時間経過とともに、変化パターンPtを変化方向に動かすことでアニメーション効果を与える。
 3次元描画部45cはさらに、変化パターンPtの変化方向がアニメーション方向Pdに一致するように仮想オブジェクトBJの向きを定め、かつ仮想オブジェクトBJをオブジェクトの位置Voに配置する。
 3次元描画部45cは、以上のように変化パターンPtが貼り付けられ、向き及び位置が定められた仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで、仮想オブジェクトの画像Gcを仮想領域VL上に形成する。
 以下、パターン選択部53における変化パターンPtの選択、アニメーション方向決定部54におけるアニメーション方向Pdの決定、及び3次元描画部45cにおける描画について、図18~図21(b)を参照して詳しく説明する。
 パターン選択部53における変化パターンの選択は、例えば検出されたオブジェクトに関する情報に基づいて行われる。ここで言うオブジェクトに関する情報は、オブジェクトの種類、オブジェクトの位置(例えば後述する基準位置Vrからの距離)、オブジェクトの動きの速度、又はオブジェクトの動きの加速度であっても良い。これらの場合、検出結果と、検出結果に応じて選択すべき変化パターンとを予め対応付けて記憶しておき、検出結果に応じて対応する変化パターンを選択するようにしても良い。各検出結果に対応する変化パターンとしては、当該検出結果を連想させるものであるのが望ましい。
 以下では、仮想オブジェクトBJとして球体が選択されており、変化パターンPtとして正弦波状に変化する透過率変化パターンが選択された場合について説明する。
 アニメーション方向決定部54におけるアニメーション方向Pdの決定は、オブジェクト位置Voと基準位置Vrとに基づいて行われる。
 アニメーション方向Pdはユーザ視点座標系での3次元ベクトルで表される。
 このベクトルは、図18に示されるように基準位置Vrからオブジェクト位置Voに向かうものであり、VoとVrとの差(Vo-Vr)で与えられる。
 基準位置Vrは、任意の点に設定し得る。オブジェクトの位置を直感的に知覚させる効果を大きくする上では、ユーザにとって正面方向に設けるのが好ましい。例えば、ユーザの視線上の点、例えば、視点の位置Ueに設定しても良い。
 図18では、基準位置Vrが、ユーザの視線上、即ちZv軸上であって、視点の位置Ue以外の点に設定されるものとしている。
 仮想オブジェクトBJとして球体が選択され、変化パターンPtとして正弦波状に変化する透過率変化パターンが選択されている場合、3次元描画部45cは、球体の各部の透過率(α値)を、透過率変化パターンに従って変化させる。具体的には、球体の中心を原点とするモデル座標系を定義し、その中心を通る直線をZm軸とし、Zm軸に沿って各部の透過率が変わるように設定する。球体として、ポリゴンモデルを用いる場合には、各頂点の透過率を、その位置に応じて変化させる。
 図19(a)及び(b)は正弦波状変化の一例を示す。図19(a)で、黒色のドット等でより濃くしてある箇所ほど、透過率が低いことを意味する。Zm軸方向の各位置の透過率は、図19(b)に示される正弦波の、同じ位置(Zm軸方向の位置)の値を有する。図19(a)及び(b)の例では、透過率の変化の周期が仮想オブジェクトを構成する球体の直径に等しいが、透過率の変化の周期は仮想オブジェクトを構成する球体の直径に等しくなくても良い。
 3次元描画部45cは、上記のZm軸方向の透過率変化パターン(透過率の空間的分布)の位置を時間経過とともに変化させる。例えば、Zm軸の方向に移動させる。
 この場合、例えば、ある時点では、図20(a)及び(b)に示すように、球体の左半部の中央付近(Zm=-Zm1の位置)に透過率が最小の部分があるが、それからある時間が経過した時点では、図20(c)及び(d)に示すように、球体の中心により近い位置(Zm=-Zm2の位置)に透過率が最小の部分が移動している。
 変化パターンの移動は断続的又は連続的に行われる。即ち、透過率が最小の部分も、透過率が最大の部分も左から右に移動する。正弦波は連続的であるので、上記の変化は繰り返される。
 断続的に行う場合、例えば、一定の時間の経過毎に行うこととしても良く、3次元描画処理が一定回数行われる毎に、移動を行わせることとしても良い。
 変化パターンの移動の速度は一定であっても良く、種々の要因に応じて変えることとしても良い。例えば、オブジェクトと基準位置との距離、オブジェクトの移動速度、移動加速度等に応じた値としても良い。
 3次元描画部45cは、以上のようにして時間経過とともに移動する変化パターンが貼り付けられた3次元モデルを、Zm軸がアニメーション方向Pdと平行になるように回転させる。アニメーション方向Pdは、3次元の方向ベクトルで表されるため、回転はロドリゲスの回転公式を用いることで実現することができる。
 3次元描画部45cは、上記のように回転した3次元モデルを平行移動して、その基準点(球体の中心)をオブジェクトの位置Voに一致させる。
 なお、回転と平行移動とはどちらを先に行っても良い。
 以上のような処理をする結果、仮想オブジェクトBJは、アニメーション方向Pdに延びたZm軸に沿って透過率が変化し、かつ透過率の空間的分布(変化パターン)が時間とともにZm軸方向に移動するものとなる。図21(a)は、ある時点における仮想オブジェクトを示す。
 3次元描画部45cは、以上のようにして、変化パターンが貼り付けられ、位置及び向きが定められた仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで、仮想領域VL上に仮想オブジェクトの画像Gcを生成する。
 図21(b)は、図21(a)の仮想オブジェクトを投影することで形成される仮想オブジェクトの画像を示す。図20(a)~(d)を参照して説明したように、仮想オブジェクトの変化パターンは、時間の経過とともに、Zm軸方向に移動する。仮想オブジェクトと同様に、画像Gc中の変化パターンも、時間の経過とともに、Zm軸方向に移動する。
 以上のように処理を行うことで、表示器の表示領域に仮想オブジェクトの一部の画像が表示されると、ユーザはアモーダル補完により仮想オブジェクトのうちの表示されていない部分を想起し、仮想オブジェクトの中心(球の中心)の位置を直感的に知覚することができる。さらに、仮想オブジェクトに、オブジェクトの位置を示す方向性を持つ変化パターンを貼り付け、かつ変化パターンを移動させることで、ユーザにとってオブジェクトの位置Voの直感的知覚がより容易となる。
 上記の例では、透過率がZm軸に沿って正弦波状に変化するパターンを用いているが、他の波形、或いは他の曲線に従って変化するパターンであっても良い。例えば、矩形波状に変化するパターンであっても良く、ガウス分布曲線に従って変化するパターンであっても良い。
 上記の例では、外部状況解析部42で検出されたオブジェクトに関する情報に基づいて変化パターンの選択をしている。代わりに、オブジェクトに関する情報に関係なく、変化パターンの選択を行うこととしても良い。例えば、ユーザの好みに応じて変化パターンの選択ができるようにしても良い。その場合、運転支援システムの起動時に変化パターンを選択し、同じ変化パターンを使い続けることとしても良い。
 情報記憶部41に記憶されている変化パターンが1つだけであっても良い。この場合、パターン選択部53は不要であり、外部状況解析部42は、変化パターンの選択のためのオブジェクトに関する情報の取得を行なう必要がなく、3次元描画部45cは情報記憶部41に記憶されている単一の変化パターンを用いて仮想オブジェクトの描画を行うことになる。
 上記の実施の形態1~3では、検知信号処理部24が外部状況検出部2の一部であるとして説明したが、情報表示制御装置4、4b、又は4cの一部として構成しても良い。
 また、上記の実施の形態2では、検知信号処理部32が内部状況検出部3の一部であるとして説明したが、情報表示制御装置4bの一部として構成しても良い。
 上記の情報表示制御装置4、4b、及び4cは、1又は2以上の処理回路により構成される。
 各処理回路は、専用のハードウェアで構成されていても良く、プロセッサとプログラムメモリとで構成されていても良い。
 専用のハードウェアで構成されている場合、各処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらを組み合わせであっても良い。
 プロセッサとプログラムメモリとで構成される場合、各処理回路は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現されていても良い。ソフトウェア又はファームウェアはプログラムとして記述され、プログラムメモリに格納される。プロセッサは、プログラムメモリに記憶されたプログラムを読み出して実行することにより、各処理回路の機能を実現する。
 ここで、プロセッサとは、例えば、CPU(Central Processing Unit)、演算装置、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)と呼ばれるものであっても良い。
 プログラムメモリは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク等の磁気ディスクであってもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
 情報表示制御装置4、4b、及び4cの諸機能は、その一部を専用のハードウェアで実現し、他の一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、情報表示制御装置4、4b、及び4cは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上記の各機能を実現することができる。
 図22は、情報表示制御装置4、4b、及び4cの諸機能を実現する1つのプロセッサを含むコンピュータを示す。
 図示のコンピュータは、プロセッサ101、外部記憶媒体102、メモリ103とネットワークインタフェース104及び表示器インタフェース105を備えている。
 外部記憶媒体102は、プロセッサ101が実行するプログラムを記憶している。外部記憶媒体102に記憶されているプログラムは、プロセッサ101により読み出されてメモリ103に読み込まれ、プロセッサ101により実行される。
 情報記憶部41、41b、41cの役割の一部は、外部記憶媒体102によって担われ、残りはメモリ103によって担われる。
 さらに、変換テーブル作成部46、46bによる、変換テーブルCTを保存する機能は、メモリ103によって担われる。
 以下、実施の形態1の情報表示制御装置4における処理を、図22に示されるプロセッサ101で実現する場合の処理の手順を、図23を参照して説明する。
 この場合、ネットワークインタフェース104には、外部状況検出部2が接続され、表示器インタフェース105には、表示器6が接続される。
 外部記憶媒体102には、表示領域情報FD、仮想領域情報FV、視点の位置Ueを示す情報及び視線の方向Udを示す情報が予め記憶されているものとする。
 ステップST11で、プロセッサ101は、外部状況検出部2から、ネットワークインタフェース104を経由して検知情報Saを取得する。プロセッサ101は、取得した検知情報Saに基づいて、車両の周囲に位置するオブジェクトを検出し、検出したオブジェクトの種類Otの判定を行なう。プロセッサ101は、判定結果を、メモリ103に保存する。この処理は、図5の外部状況解析部42で行われる処理に相当する。
 ステップST12で、プロセッサ101は、外部記憶媒体102に記憶されている複数の仮想オブジェクトから1つの仮想オブジェクトBJを選択し、選択した仮想オブジェクトBJを示す情報をメモリ103に保存する。この処理は、図5の仮想オブジェクト選択部43で行われる処理に相当する。
 ステップST13で、プロセッサ101は、外部記憶媒体102に記憶されている表示領域情報FDと仮想領域情報FVとから変換テーブルCTを作成し、作成した変換テーブルCTをメモリ103に保存する。この処理は、図5の変換テーブル作成部46で行われる処理に相当する。
 ステップST14で、プロセッサ101は、ステップST11で検出したオブジェクトの位置Voを示す情報を取得して、メモリ103に保存する。この処理は、図5の外部状況解析部42で行われる処理に相当する。
 ステップST15で、プロセッサ101は、外部記憶媒体102に記憶されている指定領域情報FAと、メモリ103に保存されている、仮想オブジェクトBJを示す情報及びオブジェクトの位置Voを示す情報とを元に、仮想オブジェクトのサイズJSを決定し、決定したサイズJSをメモリ103に保存する。この処理は、図5のサイズ決定部44で行われる処理に相当する。
 ステップST16で、プロセッサ101は、外部記憶媒体102に記憶されている仮想領域情報FVと、メモリ103に保存されている、仮想オブジェクトBJを示す情報、仮想オブジェクトのサイズJSを示す情報、及びオブジェクトの位置Voを示す情報とを元に、仮想オブジェクトの画像Gcを生成し、生成した画像Gcをメモリ103に保存する。この処理は、図5の3次元描画部45で行われる処理に相当する。
 ステップST17で、プロセッサ101は、メモリ103上の画像Gcを、変換テーブルCTを用いて変形し、変形画像Gdをメモリ103に保存する。この処理は、図5の画像変形部47で行われる処理に相当する。
 ステップST18で、プロセッサ101は、メモリ103上の変形画像Gdを取得し、変形画像Gdのうち、表示領域DL内の部分を表示画像Geとして表示器インタフェース105を介して表示器6に送信し、表示させる。この処理は、図5の表示制御部48で行われる処理に相当する。
 ステップST14~ST18の処理は繰り返し実行される。
 次に、実施の形態2の情報表示制御装置4bにおける処理を、図22に示されるプロセッサ101で実現する場合の処理の手順を、図24を参照して説明する。
 この場合、ネットワークインタフェース104には、外部状況検出部2のみならず、内部状況検出部3が接続される。
 図24において、図23と同じ符号は同様の処理を示す。
 図24は、図23と概して同じであるが、ステップST20、ST21及びST22が付加されており、ステップST13、ST15、ST16がステップST13b、ST15b、ST16bに置き換えられている。
 ステップST20で、プロセッサ101は、外部記憶媒体102に記憶されている、表示領域情報FD、仮想領域情報FV、視点の位置Ueを示す情報及び視線の方向Udをメモリ103に複写する。
 ステップST21で、プロセッサ101は、内部状況検出部3から、ネットワークインタフェース104を経由して検知情報Sbを取得して、取得した検知情報Sbに基づいて、ユーザの視点の位置Ue及び視線の方向Udを検出し、検出で得た情報をメモリ103に保存する。それまでに視点の位置Ueを示す情報及び視線の方向Udを示す情報が保存されている場合には、上書きを行う。この処理は、図16の内部状況解析部51で行われる処理に相当する。
 ステップST22で、プロセッサ101は、メモリ103に保存されているユーザの視点の位置Ue及び視線の方向Udに基づいて、表示領域情報FDのうち、ユーザ視点座標系での座標Vdlt、Vdrt、Vdlb、Vdrbを算出する。そして算出した座標を含む表示領域情報FDをメモリ103に書き込む。それまでに表示領域情報FDが書き込まれていれば、上書きを行う。この処理は、図16の表示領域情報生成部52で行われる処理に相当する。
 ステップST13bで、プロセッサ101は、メモリ103に保存されている表示領域情報FD及び仮想領域情報FVを用いて変換テーブルCTを作成する。プロセッサ101は、作成した変換テーブルCTをメモリ103に書き込む。それまでに変換テーブルCTが書き込まれていれば、上書きを行う。この処理は、図16の変換テーブル作成部46で行われる処理に相当する。
 ステップST15bで、プロセッサ101は、メモリ103に保存されている、指定領域情報FA、仮想オブジェクトBJを示す情報及びオブジェクトの位置Voを示す情報を元に、仮想オブジェクトのサイズJSを決定し、決定したサイズJSをメモリ103に保存する。この処理は、図16のサイズ決定部44で行われる処理に相当する。
 ステップST16bで、プロセッサ101は、メモリ103に保存されている、仮想領域情報FV、仮想オブジェクトBJを示す情報、仮想オブジェクトのサイズJSを示す情報、及びオブジェクトの位置Voを示す情報を元に、仮想オブジェクトの画像Gcを生成し、生成した画像Gcをメモリ103に保存する。この処理は、図16の3次元描画部45で行われる処理に相当する。
 次に、実施の形態3の情報表示制御装置4cにおける処理を、図22に示されるプロセッサ101で実現する場合の処理の手順を、図25を参照して説明する。
 図25において、図23と同じ符号は同様の処理を示す。
 図25は、図23と概して同じであるが、ステップST23及びST24が付加されており、ステップST16がステップST16cに置き換えられている。
 ステップST23で、プロセッサ101は、外部記憶媒体102に保存されている複数の変化パターンから1つの変化パターンPtを選択し、選択した変化パターンPtをメモリ103に保存する。この処理は図17のパターン選択部53で行われる処理に相当する。
 ステップST24で、プロセッサ101は、メモリ103上のオブジェクトの位置Voを元にアニメーション方向Pdを決定し、決定したアニメーション方向Pdをメモリ103に保存する。この処理は、図17のアニメーション方向決定部54で行われる処理に相当する。
 ステップST16cで、プロセッサ101は、メモリ103上の変化パターンPtを、メモリ103上の仮想オブジェクトに貼り付け、時間経過に伴って、変化パターンPtをアニメーション方向Pdに移動させ、変化パターンPtの変化方向がアニメーション方向Pdに一致するように仮想オブジェクトBJの向きを定め、かつ仮想オブジェクトBJをオブジェクトの位置Voに配置する。プロセッサ101はさらに、以上のように変化パターンPtが貼り付けられ、向き及び位置が定められた仮想オブジェクトBJを、ユーザ視点Ueを基準として仮想領域VLに透視投影することで、仮想オブジェクトの画像Gcを仮想領域VL上に形成する。この処理は、図17の3次元描画部45cで行われる処理に相当する。
 以上、本発明に係る情報表示制御装置について説明したが、情報表示制御装置で実施される情報表示制御方法も本発明の一部を成す。また、これらの装置又は方法における処理をコンピュータに実行させるためのプログラム、及びそのようなプログラムを記録したコンピュータで読取可能な記録媒体も本発明の一部を成す。
 1,1b 運転支援装置、 2 外部状況検出部、 3 内部状況検出部、 4,4b 情報表示制御装置、 6 表示器、 21 撮像部、 22 検知部、 23 通信器、 24 検知信号処理部、 31 撮像部、 32 検知信号処理部、 41,41b,41c 情報記憶部、 42 外部状況解析部、 43 仮想オブジェクト選択部、 44 サイズ決定部、 45,45c 3次元描画部、 46 変換テーブル作成部、 47 画像変形部、 48 表示制御部、 51 内部状況解析部、 52 表示領域情報生成部、 53 パターン選択部、 54 アニメーション方向決定部。

Claims (16)

  1.  オブジェクトの位置を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御装置であって、
     前記オブジェクトの位置に基づき前記仮想オブジェクトのサイズを決定するサイズ決定部と、
     サイズが決定された前記仮想オブジェクトを前記オブジェクトの位置に配置し、当該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで前記仮想オブジェクトの画像を生成する3次元描画部と、
     前記仮想領域内の複数の格子点と、前記表示領域を含む平面内の、前記複数の格子点に対応する点との関係を示す変換テーブルを作成する変換テーブル作成部と、
     前記変換テーブルを用いて、前記仮想オブジェクトの画像を変形して、前記仮想オブジェクトの表示画像を生成する画像変形部と、
     前記表示画像を前記表示領域に表示させる表示制御部と
     を有することを特徴とする情報表示制御装置。
  2.  前記仮想オブジェクトは、アモーダル補完によって一部から全体を想起可能な3次元図形であること特徴とする請求項1に記載の情報表示制御装置。
  3.  前記仮想オブジェクトは、球体及び錐体のいずれかであることを特徴とする請求項2に記載の情報表示制御装置。
  4.  前記サイズ決定部は、前記仮想領域のうち前記仮想オブジェクトの画像の形成のために設定された指定領域のサイズにも基づいて、前記仮想オブジェクトのサイズを決定する
     ことを特徴とする請求項1から3のいずれか1項に記載の情報表示制御装置。
  5.  前記サイズ決定部は、基準視野角にも基づいて、前記仮想オブジェクトのサイズを決定することを特徴とする請求項1から3のいずれか1項に記載の情報表示制御装置。
  6.  前記基準視野角は、水平基準視野角又は垂直基準視野角である
     ことを特徴とする請求項5に記載の情報表示制御装置。
  7.  複数の仮想オブジェクトを記憶する情報記憶部と、
     前記情報記憶部に記憶されている前記複数の仮想オブジェクトから1つの仮想オブジェクトを選択する仮想オブジェクト選択部とをさらに有し、
     前記サイズ決定部は、前記仮想オブジェクト選択部により選択された仮想オブジェクトのサイズを決定し、
     前記3次元描画部は、前記仮想オブジェクト選択部により選択された仮想オブジェクトの画像を生成する
     ことを特徴とする請求項1から6のいずれか1項に記載の情報表示制御装置。
  8.  前記仮想オブジェクト選択部は、前記オブジェクトに関する情報を元に仮想オブジェクトを選択する
     ことを特徴とする請求項7に記載の情報表示制御装置。
  9.  前記オブジェクトに関する情報は、前記オブジェクトの種類、前記オブジェクトの大きさ、又は前記オブジェクトの位置であることを特徴とする請求項8に記載の情報表示制御装置。
  10.  前記複数の格子点の各々に対応する点は、当該格子点と前記ユーザの視点とを通る直線と、前記表示領域を含む平面との交点である
     ことを特徴とする請求項1から9のいずれか1項に記載の情報表示制御装置。
  11.  前記オブジェクトの位置からアニメーション方向を決定するアニメーション方向決定部をさらに備え、
     前記3次元描画部は、
     変化方向を有する変化パターンを前記仮想オブジェクトに貼り付け、時間経過とともに、前記変化パターンを前記変化方向に動かし、前記変化パターンの前記変化方向が前記アニメーション方向に一致するように前記仮想オブジェクトの向きを決め、このように向きが決められた前記仮想オブジェクトを前記仮想領域に投影することで、前記仮想オブジェクトの画像を生成する
     ことを特徴とする請求項1から10のいずれか1項に記載の情報表示制御装置。
  12.  前記変化パターンは、濃度変化パターン、色変化パターン又は透過率変化パターンである
     ことを特徴とする請求項11に記載の情報表示制御装置。
  13.  前記アニメーション方向は、前記オブジェクトの位置と任意の基準位置とを結ぶベクトルで表される方向である
     ことを特徴とする請求項11又は12に記載の情報表示制御装置。
  14.  オブジェクトの位置を示すための仮想オブジェクトの画像を表示領域に表示させる情報表示制御方法であって、
     前記オブジェクトの位置に基づき前記仮想オブジェクトのサイズを決定し、
     サイズが決定された前記仮想オブジェクトを前記オブジェクトの位置に配置し、当該仮想オブジェクトを、ユーザの視点を基準として仮想領域に透視投影することで前記仮想オブジェクトの画像を生成し、
     前記仮想領域内の複数の格子点と、前記表示領域を含む平面内の、前記複数の格子点に対応する点との関係を示す変換テーブルを用いて、前記仮想オブジェクトの画像を変形して、前記仮想オブジェクトの表示画像を生成し、
     前記表示画像を前記表示領域に表示させる
     ことを特徴とする情報表示制御方法。
  15.  請求項14に記載の情報表示制御方法における処理をコンピュータに実行させるプログラム。
  16.  請求項15に記載のプログラムを記録したコンピュータで読取り可能な記録媒体。
PCT/JP2019/000465 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体 WO2020144798A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020564290A JP6827609B2 (ja) 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体
PCT/JP2019/000465 WO2020144798A1 (ja) 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体
CN201980087799.3A CN113302661A (zh) 2019-01-10 2019-01-10 信息显示控制装置及方法、以及程序及记录介质
DE112019006103.8T DE112019006103B4 (de) 2019-01-10 2019-01-10 Informationsanzeigesteuervorrichtung, Verfahren, Programm und Aufzeichnungsmedium
US17/306,213 US11580689B2 (en) 2019-01-10 2021-05-03 Information display control device, method, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/000465 WO2020144798A1 (ja) 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/306,213 Continuation US11580689B2 (en) 2019-01-10 2021-05-03 Information display control device, method, and non-transitory computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2020144798A1 true WO2020144798A1 (ja) 2020-07-16

Family

ID=71521551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000465 WO2020144798A1 (ja) 2019-01-10 2019-01-10 情報表示制御装置及び方法、並びにプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US11580689B2 (ja)
JP (1) JP6827609B2 (ja)
CN (1) CN113302661A (ja)
DE (1) DE112019006103B4 (ja)
WO (1) WO2020144798A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6692981B1 (ja) * 2019-09-13 2020-05-13 マレリ株式会社 表示装置及び表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087619A (ja) * 2013-10-31 2015-05-07 日本精機株式会社 車両情報投影システム及び投影装置
JP2016506572A (ja) * 2012-12-21 2016-03-03 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー インフォテイメントシステム
WO2017168953A1 (ja) * 2016-04-01 2017-10-05 株式会社デンソー 車両用装置、車両用プログラム、フィルタ設計プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5585813A (en) 1992-10-05 1996-12-17 Rockwell International Corporation All aspect head aiming display
JP3488874B2 (ja) 2001-10-31 2004-01-19 シャープ株式会社 編集装置、編集方法、編集プログラム、編集プログラムを記録したコンピュータ読取可能な記録媒体
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
DE102008034594B4 (de) * 2008-07-25 2021-06-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
EP2372512A1 (en) * 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Vehicle user interface unit for a vehicle electronic device
WO2013111280A1 (ja) * 2012-01-25 2013-08-01 パイオニア株式会社 表示装置及び表示方法
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US10272780B2 (en) 2013-09-13 2019-04-30 Maxell, Ltd. Information display system and information display device
DE102013021150A1 (de) * 2013-12-13 2015-06-18 Man Truck & Bus Ag Verfahren zur Anzeige von optischen Informationen in Fahrzeugen
JP6643659B2 (ja) * 2014-04-09 2020-02-12 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
US10449900B2 (en) * 2014-06-20 2019-10-22 Clarion, Co., Ltd. Video synthesis system, video synthesis device, and video synthesis method
JP6245117B2 (ja) 2014-09-02 2017-12-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9625719B2 (en) * 2014-09-04 2017-04-18 Yazaki Corporation Projection display device
EP3308539A1 (en) * 2015-06-12 2018-04-18 Microsoft Technology Licensing, LLC Display for stereoscopic augmented reality
JP6741029B2 (ja) * 2016-02-08 2020-08-19 株式会社リコー 情報表示装置
JP6493361B2 (ja) 2016-04-01 2019-04-03 株式会社デンソー 車両用装置、車両用プログラム、フィルタ設計プログラム
WO2018193708A1 (ja) 2017-04-19 2018-10-25 マクセル株式会社 ヘッドアップディスプレイ装置およびその表示制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016506572A (ja) * 2012-12-21 2016-03-03 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー インフォテイメントシステム
JP2015087619A (ja) * 2013-10-31 2015-05-07 日本精機株式会社 車両情報投影システム及び投影装置
WO2017168953A1 (ja) * 2016-04-01 2017-10-05 株式会社デンソー 車両用装置、車両用プログラム、フィルタ設計プログラム

Also Published As

Publication number Publication date
CN113302661A (zh) 2021-08-24
US11580689B2 (en) 2023-02-14
US20210256760A1 (en) 2021-08-19
JP6827609B2 (ja) 2021-02-10
DE112019006103T5 (de) 2021-10-07
DE112019006103B4 (de) 2022-10-20
JPWO2020144798A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
US9840199B2 (en) Vehicle image processing apparatus and vehicle image processing method
JP6149676B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP5369465B2 (ja) 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
CN107878301B (zh) 用于通过机动车辆的投影系统投射图像的方法和投影系统
CN104204847B (zh) 用于可视化车辆的周围环境的方法和装置
JP5208203B2 (ja) 死角表示装置
JP3286306B2 (ja) 画像生成装置、画像生成方法
JP7156937B2 (ja) 画像処理装置及び画像処理方法
JP6079131B2 (ja) 画像処理装置、方法、及びプログラム
KR100657943B1 (ko) 2차원 건물 데이터의 실시간 3차원 변환 방법 및 장치,그리고 이를 이용한 2차원 건물 데이터의 실시간 3차원시각화 방법 및 장치
JP2002135765A (ja) カメラキャリブレーション指示装置及びカメラキャリブレーション装置
WO2017188247A1 (ja) 表示制御装置
JP5197848B2 (ja) 分岐点ビュー画像を生成する方法及びコンピュータにより実現されたシステム
WO2021197190A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
JP2002334322A (ja) 透視投影画像生成システム、透視投影画像生成方法、透視投影画像生成プログラムおよび透視投影画像生成プログラムを記憶した記憶媒体
CN114077306A (zh) 实现内容可视化的装置和方法
WO2020144798A1 (ja) 情報表示制御装置及び方法、並びにプログラム及び記録媒体
WO2018180285A1 (ja) 3次元データ生成装置、3次元データ生成方法、3次元データ生成プログラム及び3次元データ生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014213636A (ja) 車両用表示装置
US20210323471A1 (en) Method and arrangement for generating a representation of surroundings of a vehicle, and vehicle having such an arrangement
JP6625157B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
JP2020162089A (ja) 画像生成装置および画像生成方法
JP2023006860A (ja) ビュー表示装置およびビュー表示方法
JP2017195532A (ja) 表示方法及び運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19908522

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020564290

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19908522

Country of ref document: EP

Kind code of ref document: A1