JP2008242596A - Three-dimensional display apparatus - Google Patents

Three-dimensional display apparatus Download PDF

Info

Publication number
JP2008242596A
JP2008242596A JP2007079197A JP2007079197A JP2008242596A JP 2008242596 A JP2008242596 A JP 2008242596A JP 2007079197 A JP2007079197 A JP 2007079197A JP 2007079197 A JP2007079197 A JP 2007079197A JP 2008242596 A JP2008242596 A JP 2008242596A
Authority
JP
Japan
Prior art keywords
image
view
area ratio
viewpoint
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007079197A
Other languages
Japanese (ja)
Other versions
JP4829157B2 (en
Inventor
Jingo Adachi
仁吾 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2007079197A priority Critical patent/JP4829157B2/en
Publication of JP2008242596A publication Critical patent/JP2008242596A/en
Application granted granted Critical
Publication of JP4829157B2 publication Critical patent/JP4829157B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To highlight three-dimensional images of objects by means of appropriate image changes depending on a viewer's viewpoint. <P>SOLUTION: An object area S1 in and out of view in an unobstructed condition and an object area S2 visible in an obstructed condition are calculated, and a ratio of the visible object area is calculated as S2/S1. Image changes are highlighted more as the area ratio S2/S1 is smaller and less as the area ratio S2/S1 is larger. An entire view area S0 on a two-dimensional screen viewed from the viewer's viewpoint is calculated, and a ratio of the object area in and out of view in an unobstructed condition is calculated as S1/S0. The image is highlighted more as the area ratio S1/S0 is smaller and less as the area ratio S1/S0 is larger. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、対象物の視界を妨げる障害物の画像より目立つ大きさ変化、形状変化、動き、点滅などの画像変化を用いて表示する3次元表示装置に関する。
特に本発明は、コンピュータグラフィックによる3次元仮想空間で物体を表示する場合に、とりわけ、閲覧者の興味のあるもの、検索の対象となるもの、関心を注ぎたい対象物などの対象物群へ、他の物体から視覚的に区別しやすくかつ、心理的に興味を注がせる表現方法に関する。
The present invention relates to an image change such as a size change, a shape change, a movement, and a blinking of an object image that is more conspicuous than an image of an obstacle that obstructs the field of view of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics. The present invention relates to a three-dimensional display device that displays using a screen.
In particular, when displaying an object in a three-dimensional virtual space based on computer graphics, the present invention provides, among other things, an object group such as an object of interest of a viewer, an object of search, an object of interest, etc. The present invention relates to an expression method that is easily visually distinguishable from other objects and that is psychologically interesting.

実際の3次元空間をコンピュータグラフィック(CG)で3次元仮想空間として再現するシステムは、閲覧者に、実際の3次元の空間にいるような感覚を与えることができ、地図中の対象物検索などに使われる。3次元で建物や山などの物体をCGで表現し、視点を人の高さと同じようにすることで、実際の空間に自分がいたときに目撃する光景を再現することができる。特に検索システムやナビゲーションシステムにおいて、周りの物体は、興味の対象物であり、視覚的な障害物にもなるため、閲覧者の検索したい建物を閲覧者に視覚的に知らせるためには、障害物を透明、半透明にしたり、対象物に印をつけたり、対象物や障害物の色を変えたり、対象物の方向を向いた矢印を付けたりなどの表現方法、手法が用いられる。   A system that reproduces an actual three-dimensional space as a three-dimensional virtual space by computer graphics (CG) can give the viewer a sense of being in an actual three-dimensional space, and search for an object in a map. Used for. By representing objects such as buildings and mountains in 3D with CG and making the viewpoint the same as the height of a person, it is possible to reproduce the sight witnessed when you are in real space. Especially in search systems and navigation systems, the surrounding objects are objects of interest and can also be visual obstacles. To visually inform the viewer of the building that the viewer wants to search, the obstacle Expression methods and techniques are used, such as making the object transparent or translucent, marking the object, changing the color of the object or obstacle, or attaching an arrow pointing in the direction of the object.

さらに下記の特許文献1、2では、人間は静止しているものより動くものに注意がいくという心理を利用し、対象物のみをアニメーションとして、左右に揺らしたり、形状を変形したり、また元の形状に戻したりなどの動的処理をすることで、視覚的効果により閲覧者がその対象物に関心がいくように誘導することができる。
特開2003−317116(要約書、図2、図4) 特開2003−344062(要約書、図4、図5)
Furthermore, in Patent Documents 1 and 2 below, using the psychology that humans pay attention to moving objects rather than being stationary, only the target object is animated, shaken left and right, deformed, By performing dynamic processing such as returning to the shape of the viewer, it is possible to guide the viewer to be interested in the target object due to the visual effect.
JP2003-317116 (Abstract, FIG. 2, FIG. 4) JP 2003-340662 (abstract, FIGS. 4 and 5)

前述の、対象物にのみ矢印などのマークを付けたり、障害物を透明に表示する方法は、対象物が1つの場合、有効であるが、対象物が複数あり、かつそれが視線に沿って奥行きに複数並んでいる場合、それらを区別するのに、矢印が重なったり、透明にできなかったりするなどの問題がある。地図を見ている場合、視点を真上からに移動させることで、対象群が明らかに見えるように思えるが、例えば、対象物がフロアであり、一つのビルの複数の特定のフロア群を表現したい場合などは、真上から見たのでは、重なってしまい区別がつかない。空間に任意に配置された複数の物体群を一目で見られる視点は、必ずしも存在しない。   The above-described method of marking only an object with an arrow or the like, or displaying an obstacle transparently is effective when there is only one object, but there are a plurality of objects and they are along the line of sight. When there are multiple lines in the depth, there are problems such as overlapping arrows or being unable to make them transparent to distinguish them. When looking at a map, it seems that the target group can be clearly seen by moving the viewpoint from directly above, but for example, the target object is a floor and expresses a plurality of specific floor groups of one building If you want to do it, you can't distinguish from the top view. There is not necessarily a viewpoint at which a plurality of object groups arbitrarily arranged in space can be seen at a glance.

これらに対する解決策としては、対象物の形状を変形させることが考えられる。その方法として、特許文献1では、人が動的なものに関心を寄せるという心理を併用し、関心のある建物などを揺らすアニメーション等の表現方法が提案されているが、閲覧者の視点によって物体の見え方が大きく変わるにもかかわらず、以下のように、視点によるアニメーション表現の依存性には言及されていない。   As a solution to these problems, it is conceivable to change the shape of the object. As a method for this, Patent Document 1 proposes an expression method such as animation that shakes a building or the like in which the person is interested in a dynamic thing, and shakes a building of interest. In spite of the great change in the appearance of, the dependency of the animation expression on the viewpoint is not mentioned as follows.

物体が3次元空間に存在する以上、閲覧者のいる位置(視点)によって、物体は様々な見えかたをする。
・普通に見えるもの、
・実際のサイズが小さくて小さく見えるもの、
・実際のサイズが大きくても遠くて小さく見えるもの、
・実際のサイズが小さくても近くで大きく見えるもの、
・実際のサイズが大きくても形状が横長なので横から見ると小さく見えるもの、
・他の物体により視覚的に遮断されて見えないもの、
・閲覧者のすぐ近くにあっても閲覧者が違う方向を見ているので視界の境界に入らず見えないものなどである。したがって、その状況に応じて、適切な視覚的表示方法を、対象物に適用しなければいけない。
As long as the object exists in the three-dimensional space, the object looks different depending on the position (viewpoint) where the viewer is.
・ Things that look normal,
・ The actual size is small and looks small,
・ Even if the actual size is large, it looks far and small,
・ Even if the actual size is small, it will appear large in the vicinity,
-Even if the actual size is large, the shape is horizontally long, so it looks small when viewed from the side,
・ Things that are visually blocked by other objects,
-Even if it is in the immediate vicinity of the viewer, the viewer is looking in a different direction, so it cannot enter the boundary of view and cannot be seen. Therefore, an appropriate visual display method must be applied to the object according to the situation.

そのために、特許文献1の表現方法を適用すると、視点が動いた場合、視覚的な問題として、対象物の動的運動は、視点の見る角度、方向によっては、見る視線に平行に揺れるような場合は、視点からはわかりにくくなる場合がある。また、
・たまたま対象物の建物の左右の少し手前に隣接する建物があれば、建物が左右に揺れても、動きが隠れてしまうなどの問題がある。
・さらに、対象物が複数ある場合、対象物を揺らしても、一つの対象物が視点から近くにあり、他の対象物ははるか遠くにあるとき、遠い方の物体の動的変化が小さすぎてわかりにくい。
・もしくは、近い方の対象物が、視界以上に大げさに揺れ、閲覧者に目障りと感じられる。
・また、心理的な問題としても、閲覧者が自分を無視して、対象物が無機的に一方的に動いていると悟ってしまうと、動く対象物への関心を失ってしまう。
Therefore, when the expression method of Patent Document 1 is applied, when the viewpoint moves, as a visual problem, the dynamic motion of the object may sway parallel to the viewing line of sight depending on the viewing angle and direction of the viewpoint. In some cases, it may be difficult to understand from the viewpoint. Also,
・ If there is a building adjacent to the right and left of the building of the target object, there is a problem that even if the building swings to the left or right, the movement is hidden.
・ Furthermore, when there are multiple objects, even if the object is shaken, when one object is near from the viewpoint and the other objects are far away, the dynamic change of the far object is too small It is difficult to understand.
・ Also, the nearer object shakes more loudly than the field of view, and the viewer feels annoying.
-Also, as a psychological problem, if the viewer ignores himself and realizes that the object is moving unilaterally inorganically, he loses interest in the moving object.

本発明は上記従来例の問題点に鑑み、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、対象物の視界を妨げる障害物の画像より目立つ大きさ変化、形状変化、動き、点滅などの画像変化を用いて表示する場合に、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる3次元表示装置を提供することを目的とする。   In view of the above-described problems of the conventional example, the present invention provides a three-dimensional virtual space or a three-dimensional conceptual space based on computer graphics in which an object image is noticeably larger in size and shape than an obstacle image that obstructs the field of view of the object. A three-dimensional display device capable of conspicuously displaying a three-dimensional image of an object using an appropriate image change according to a viewer's viewpoint when displaying using image changes such as movement and blinking The purpose is to provide.

本発明は上記目的を達成するために、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、前記対象物の視界を妨げる障害物の画像より目立つ画像変化を用いて表示する3次元表示装置において、
前記3次元仮想空間又は3次元概念空間における閲覧者の視点から前記対象物までの距離を算出する手段と、
前記算出された距離に基づいて、閲覧者の視点から遠い対象物ほどより目立つ画像変化で表示し、閲覧者の視点から近い対象物ほど目立たない画像変化で表示する手段とを、
有することを特徴とする。
この構成により、閲覧者の視点から対象物までの距離を算出して、閲覧者の視点から遠い対象物ほどより目立つ画像変化で表示し、閲覧者の視点から近い対象物ほど目立たない画像変化で表示するので、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる。
In order to achieve the above object, the present invention displays an image of an object in a three-dimensional virtual space or a three-dimensional conceptual space by computer graphics using an image change that is more conspicuous than an image of an obstacle that obstructs the visual field of the object. In the three-dimensional display device
Means for calculating a distance from a viewer's viewpoint in the three-dimensional virtual space or a three-dimensional concept space to the object;
Based on the calculated distance, means for displaying an image change that is more conspicuous as the object is farther from the viewer's viewpoint, and displaying the image change that is less conspicuous as the object is closer to the viewer's viewpoint;
It is characterized by having.
With this configuration, the distance from the viewer's viewpoint to the object is calculated, the object farther from the viewer's viewpoint is displayed with a more noticeable image change, and the object closer to the viewer's viewpoint is displayed with less noticeable image change. Since it displays, the three-dimensional image of a target object can be made conspicuous and displayed using the suitable image change according to a viewer's viewpoint.

また、本発明は上記目的を達成するために、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、前記対象物の視界を妨げる障害物の画像より目立つ画像変化を用いて表示する3次元表示装置において、
障害物がない場合の視界内外の対象物の面積S1と、障害物がある場合の対象物の可視部分の面積S2とを算出して、対象物の可視部分の面積率=S2/S1を算出する面積率算出手段と、
前記面積率=S2/S1が小さいほど目立つ画像変化で表示して前記面積率=S2/S1が大きいほど目立たない画像変化で表示する手段とを、
有することを特徴とする。
この構成により、障害物がある場合の対象物の可視部分の面積率=S2/S1が小さいほど目立つ画像で表示して、面積率=S2/S1が大きいほど目立たない画像変化で表示するので、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる。
In order to achieve the above object, the present invention uses an image change that makes an image of an object more conspicuous than an image of an obstacle that obstructs the field of view of the object in a three-dimensional virtual space or a three-dimensional conceptual space by computer graphics. In a three-dimensional display device that displays
The area S1 of the object inside and outside the field of view when there is no obstacle and the area S2 of the visible part of the object when there is an obstacle are calculated, and the area ratio of the visible part of the object = S2 / S1 is calculated. Means for calculating the area ratio;
Means for displaying with a noticeable image change as the area ratio = S2 / S1 is smaller, and displaying with a less noticeable image change as the area ratio = S2 / S1 is larger.
It is characterized by having.
With this configuration, the area ratio of the visible portion of the object when there is an obstacle = S2 / S1 is displayed with a conspicuous image, and the area ratio = S2 / S1 is displayed with a non-conspicuous image change. A three-dimensional image of an object can be made conspicuous and displayed using an appropriate image change according to the viewer's viewpoint.

また、本発明は、閲覧者の視点から見た2次元スクリーンにおける視界全体の面積S0を算出して、障害物がない場合の視界内外の対象物の面積率=S1/S0を算出し、前記面積率=S1/S0が小さいほど目立つ画像で表示して前記面積率=S1/S0が大きいほど目立たない画像で表示することを特徴とする。
また、前記障害物がある場合の対象物の可視部分の面積S2を大きくして前記面積率=S2/S1を大きくする画像変化で、前記可視部分を目立たせることを特徴とする。
また、前記面積率算出手段は、前記視点から近い対象物から先に順次、前記面積率=S2/S1を算出してその対象物の可視部分の面積S2を大きくして、面積S2を変化させた対象物の前記面積率=S2/S1の変化を考慮して、その後方の対象物の前記面積率=S2/S1を算出することを特徴とする。
また、前記3次元仮想空間又は3次元概念空間における前記対象物の体積を算出し、前記算出した体積が小さい対象物ほど目立つ画像変化で表示し、前記算出した体積が大きいほど目立たない画像変化で表示することを特徴とする。
また、前記対象物を目立たせた画像で表示してもその前に表示される障害物により目立たない場合に、前記対象物が目立つように前記障害物を形状変化させることを特徴とする。
また、前記3次元仮想空間は上空から下方の建物を見たものであって、前記対象物は前記建物内のフロアであり、前記障害物は前記フロアより上のフロアであることを特徴とする。
Further, the present invention calculates the area S0 of the entire field of view on the two-dimensional screen viewed from the viewer's viewpoint, calculates the area ratio of objects inside and outside the field of view when there is no obstacle = S1 / S0, The smaller the area ratio = S1 / S0, the more conspicuous the image is displayed, and the larger the area ratio = S1 / S0, the less conspicuous the image is displayed.
Further, the visible portion is made conspicuous by an image change that increases the area ratio = S2 / S1 by increasing the area S2 of the visible portion of the object in the presence of the obstacle.
Further, the area ratio calculating means calculates the area ratio = S2 / S1 sequentially from the object close to the viewpoint, and increases the area S2 of the visible portion of the object, thereby changing the area S2. In consideration of the change of the area ratio = S2 / S1 of the target object, the area ratio = S2 / S1 of the target object behind the target object is calculated.
Further, the volume of the object in the three-dimensional virtual space or the three-dimensional conceptual space is calculated, and the object with a smaller calculated volume is displayed with a noticeable image change, and the image change with less noticeable as the calculated volume is larger. It is characterized by displaying.
In addition, when the object is displayed as a conspicuous image but is not conspicuous due to an obstacle displayed before the object, the shape of the obstacle is changed so that the object is conspicuous.
The three-dimensional virtual space is a view of a building below from above, wherein the object is a floor in the building, and the obstacle is a floor above the floor. .

本発明によれば、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる。このため、閲覧者の視点をより意識した、視覚的に閲覧者の視点からさらに見やすく、心理的に擬人化された対象物により、人に会うような日常の経験に沿った検索を行え、関心をそそる空間情報案内を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the three-dimensional image of a target object can be made to stand out and displayed using the suitable image change according to a viewer's viewpoint. For this reason, it is possible to search according to daily experiences such as meeting people with objects that are more easily visible from the viewer's viewpoint, more psychologically anthropomorphic, with more awareness of the viewer's viewpoint. It is possible to provide a spatial information guide.

以下、図面を参照して本発明の実施の形態について説明する。ここで、本発明では、上記の「課題」で説明した視覚的、心理的な問題を解決し、適切な対象物や障害物への動的変化のパターンを決定するべく、いかに、3次元の物体が最終的に閲覧者の視界の2次元のスクリーン上に見えるかを考慮する。そのために、まず考えられる方法として、対象物群と視点との距離を考える。さらに、対象物群の体積、それを構成している面の面積を考える。さらに、もっと正確な方法としては、対象物や障害物などのすべての3次元物体を閲覧者の目に見える視界の2次元スクリーン上に視点から射影された面積を考える。その面積から後述する2つのパラメータを定義し、それにより適切な擬人化された画像もしくは形状変化を対象物や障害物に与える。ここでいう擬人化された変化とは、閲覧者が対象物群を検索するという行為を、閲覧者という主人公が対象物という別の人間に約束をして出会うような場面での人間の行為とし、それを模倣させるものである。これにより、閲覧者は普段日常で行う行為を検索の中で行えることで、より空間的配置を理解しやすいシステムを提供できる。   Embodiments of the present invention will be described below with reference to the drawings. Here, in the present invention, in order to solve the visual and psychological problems described in the above “problem” and determine a pattern of dynamic change to an appropriate object or obstacle, Consider whether the object will eventually appear on a two-dimensional screen in the viewer's field of view. Therefore, as a possible method, first consider the distance between the object group and the viewpoint. Further, consider the volume of the object group and the area of the surface that constitutes it. Furthermore, as a more accurate method, an area in which all three-dimensional objects such as an object and an obstacle are projected from a viewpoint on a two-dimensional screen of a view visible to the viewer is considered. Two parameters, which will be described later, are defined from the area, thereby giving an appropriate anthropomorphic image or shape change to the object or obstacle. An anthropomorphic change here refers to the act of a person searching for a group of objects as the action of a person in a situation where the main character, the viewer, meets another person who is the object. It is something that imitates it. Thereby, a viewer can provide a system in which the spatial arrangement can be easily understood by performing a daily action in the search.

前述の投影により2つのパラメータを使う方法において、
・一つ目のパラメータは、対象物が障害物や視界の境界のために、どれほど隠れてしまうかを示す、「遮断」、「陰面」に関する指標である。他の建物による障害物や、視界から外されていたりすると、対象物が閲覧者から見られていないと判断し、見える位置まで体を背伸びしたり、傾けたり、視覚的障害物を傾けたりする。
・もう一つのパラメータは、3次元物体が視界の2次元のスクリーン上でどのくらいの大きさでスクリーン全体を占めているかを示す指標である。これは、前述のように、対象物がいくら背伸びをしたり頭を傾けたりして閲覧者に見られるように形状変化をしても、対象物が閲覧者の目から遠い位置にあり自分が小さくしか見えないか、もしくはもともと対象物のサイズが小さいので、小さくしか見えないなどの見過ごされそうかどうかを示す指標である。その場合は対象物は、画像変化させたり、ジャンプや、踊り、などの激しい動きをして、手を振って「おーい、こっち!」と人間的な演出の画像変化(顔テクスチャ)で主張させる。
In the method using two parameters by the above projection,
The first parameter is an index related to “blocking” and “hidden surface” indicating how much the object is hidden due to an obstacle or a boundary of view. If the obstacle is due to another building or is out of sight, the object is judged not to be seen by the viewer, and the body is stretched to the position where it can be seen, tilted, or the visual obstacle tilted. .
Another parameter is an index indicating how large the 3D object occupies the entire screen on the 2D screen in view. This is because, as described above, even if the object changes shape so that it can be seen by the viewer by stretching back or tilting the head, the object is still far from the viewer's eyes. It is an index that indicates whether the object can be overlooked, such as it can only be seen small, or the object is originally small in size, so that it can only be seen small. In such a case, the object will change its image, make a fierce movement such as jumping or dancing, and wave its hand to say "Oh, this!" With a human-directed image change (face texture) .

(実施の形態)
はじめに、一般的な対象物や障害物に、いかに形状の画像変化を与えられるかについて図1で述べる。形状の画像変化とは、対象物や障害物が必要に応じて、左右にゆれたり、形状が伸びたり、拡大したりして画像が変化することを言う。図1(a)に、マップデータから得られた建物の3次元データにもとづくポリゴン形状を示す。形状変化を必要とされる際は、なめらかな建物の形状の歪みを再現するため、通常の形状(3次元データ)をさらに分割する。例えば単純な直方体の建物の場合、図1(b)に示すように垂直方向に10分割したセグメント1に書き換える。これは、すべての建物をはじめから分割するとコンピュータの使用メモリを増やしてしまうため、対象となる建物に対してのみ随時分割処理を施せばよい。
(Embodiment)
First, how to change the shape of an image on a general object or obstacle will be described with reference to FIG. The shape image change means that the image changes as the object or obstacle is swayed from side to side, the shape is stretched, or enlarged as necessary. FIG. 1A shows a polygon shape based on three-dimensional building data obtained from map data. When a change in shape is required, the normal shape (three-dimensional data) is further divided in order to reproduce a smooth distortion of the shape of the building. For example, in the case of a simple rectangular parallelepiped building, as shown in FIG. This is because if all the buildings are divided from the beginning, the memory used by the computer is increased. Therefore, it is only necessary to perform division processing on the target buildings as needed.

さらにこれに、形状の変化を与えた例を、図1(c)、(d)、(e)に示す。図1(c)は、単純に建物が高さ方向に拡大した「背伸び」をした場合(図のベクトル2)、図1(d)は「背伸び」をして、かつ、建物の上部ほど大きく横に拡大した場合、図1(e)は「背伸び」をして、かつ、建物の上部が横に曲がった場合を示す。これらの歪みをプログラムで実現するためには、2次以上の多次元関数、反比例関数、対数関数などによる座標変換を行うなどの手法で実現される。また、図1(e)示すように建物の上部を地点3にまで曲げたい場合は、建物の中心底面から、地点3までの角度を、分割したセグメント1の数の分だけ分割し、各分割されたセグメント1を表すベクトル2の和で地点3まで到達できるようにすることで、建物が地点3まで曲がっているように見える効果を作り出せる。仮にこれらを動的に表示するには、一定の時間周期で通常の形状である図1(b)に戻ったり、また変形した状態に変わったりすることで動的に演出できる。画像のみを変えたい場合は、視点方向を向いている顔などのテクスチャを変化させることで実現できる。   Further, examples in which the shape is changed are shown in FIGS. 1C, 1D, and 1E. Fig. 1 (c) shows a case where the building is simply stretched in the height direction (back stretch) (vector 2 in the figure), and Fig. 1 (d) is "back stretch" and the upper part of the building is larger. When enlarged horizontally, FIG. 1 (e) shows a case where the body is stretched and the upper part of the building is bent sideways. In order to realize these distortions by a program, it is realized by a technique such as performing coordinate transformation using a second or higher order multidimensional function, an inverse proportional function, a logarithmic function, or the like. In addition, as shown in FIG. 1 (e), when it is desired to bend the upper part of the building to point 3, the angle from the center bottom of the building to point 3 is divided by the number of segment 1 divided. By making it possible to reach point 3 with the sum of vector 2 representing segment 1, the effect of making the building appear to be bent to point 3 can be created. In order to dynamically display these, it is possible to produce dynamically by returning to FIG. 1B, which is a normal shape, at a constant time period, or changing to a deformed state. To change only the image, it can be realized by changing the texture such as the face facing the viewpoint.

本発明でいう「画像変化」とは、時間軸において常に動的に画像や形状が変化するものと、画像や形状が変わり、そのまま変わったまま静止するものを含む。さらに、点滅、色変化などを含み、また、複数種類の画像変化を組み合わせたものを含む。また、ここでいう対象物は、建物の固体一つと限定せず、ある建物の一つのフロアだけであったり、複数の建物からなる連であったり、後述の概念空間における概念を示す物体であったり、概念を示す面であったりする場合も含む。対象物が建物の特定のフロアである場合は、そのフロアだけ、形状が変化したり、画像が変化したりする。   The “image change” referred to in the present invention includes a case where the image or shape always changes dynamically on the time axis, and a case where the image or shape changes and remains unchanged as it is. Further, it includes blinking, color change, etc., and also includes a combination of multiple types of image changes. The object here is not limited to a single building, but is only one floor of a building, a series of buildings, or an object that represents a concept in the concept space described later. Or a surface showing a concept. When the object is a specific floor of a building, the shape or the image changes only on that floor.

これら対象物や障害物の形状変化などは、閲覧者の変化する視点の位置に対応できるよう、視点から変形させる物体までの視線ベクトルを考え、形状変化が常に、視線ベクトルを法線とする平面、および曲面上で動くことが望ましい。これにより視点から、物体の変化が見やすくなる。視点が変われば、当然、形状変化する方向も変わる。   The shape change of these objects and obstacles is a plane that always takes the line-of-sight vector as a normal line, considering the line-of-sight vector from the viewpoint to the object to be deformed so that it can correspond to the position of the viewpoint that the viewer changes. It is desirable to move on a curved surface. This makes it easy to see changes in the object from the viewpoint. If the viewpoint changes, the direction of shape change naturally changes.

前述のような画像や形状変化のどういうものを、どのような速さ、どの時間周期で動かせばいいかに関して、本発明の提案する方法について述べる。このため、本発明の3次元表示装置には図5に示すように、あらかじめ目立ちやすい、目立ちにくいなどの指標を与えた「物体の画像や形状変化」のデータのライブラリ(単にライブラリとも言う)106を用意しておく。   The method proposed by the present invention will be described as to what kind of image and shape change as described above should be moved at what speed and in what time period. For this reason, as shown in FIG. 5, the three-dimensional display device of the present invention has a data library of “object image and shape change” 106 that is given an index that is easily noticeable or not easily noticed (also simply referred to as a library) 106. Prepare.

まず簡単な方法としては、対象物群と視点との距離を考える。あるいは、対象物群や障害物群の体積、それを構成している面の面積を考える。閲覧者の視界にとって見やすい表現方法を演出するには、前述の距離が小さければ、物体が目の前にあるので、あまり閲覧者の目障りにならないよう目立ちにくい画像や形状変化を、前述の距離が大きければ、遠くて見過ごされるので目立ちやすい画像や形状変化を対象物に与える。同様に前述の体積や面が大きければ、目立ちにくい画像や形状変化を、前述の体積や面が小さければ、目立ちやすい画像や形状変化を対象物に与える。しかし、これらの方法は正確ではない。もし遠くにある物体でも大きさが大きければ、画面内に大きく存在し得る。また、体積の大きい物体でも、細長い特殊な形状の場合は、横から見ると小さくしか見えないため、目立ちやすい画像形状変化を与えなければ閲覧者に見過ごされてしまう。   First, as a simple method, consider the distance between the object group and the viewpoint. Alternatively, consider the volume of the object group and the obstacle group, and the area of the surface constituting the volume. In order to produce an easy-to-view expression method for the viewer's field of view, if the distance is small, the object is in front of the user's eyes. If it is large, it will be overlooked far away, so it will give noticeable images and shape changes to the object. Similarly, if the volume or the surface is large, the image or shape change which is not easily noticeable is given to the object, and if the volume or surface is small, the image or shape change which is easily noticeable is given to the object. However, these methods are not accurate. If a distant object is large in size, it can be large in the screen. Further, even if the object has a large volume, if it is a long and narrow special shape, it can only be seen small from the side, so that it is overlooked by the viewer unless an image shape change that is conspicuous is given.

そこで、さらに本発明の提案する最も正確な表現方法としては、視界の2次元スクリーン上の物体の射影面積を考える。閲覧者は3次元の物体を見るが、最終的な視界は図3に示すような2次元のスクリーンでしかない。本発明では、すべての対象物や障害物を、この2次元のスクリーンに視点から射影された面積として考慮する。   Therefore, as the most accurate expression method proposed by the present invention, the projected area of the object on the two-dimensional screen of the field of view is considered. The viewer sees a three-dimensional object, but the final field of view is only a two-dimensional screen as shown in FIG. In the present invention, all objects and obstacles are considered as the area projected from the viewpoint onto this two-dimensional screen.

視界の2次元スクリーン上における各面積の定義を図2に示す。まず、図2(a)において太枠4で示す領域内を「視界全体の面積S0」と定義する。次に、図2(b1)、(b2)において太枠5で示す領域内を、視界の2次元スクリーン境界内外の対象物が占める面積で、他の物体による陰面を考慮せず、かつ、視界の枠4による陰面を考慮しない面積を「障害物がない場合の視界内外の対象物面積S1」として定義する。面積S1は図2(b1)に見られるように、手前の障害物による遮断を考慮しない。また、面積S1は図2(b2)に見られるように、対象物が視界の横の枠4からはみ出ていても遮断されない。当然、対象物が目の前にあれば、その面積S1は「視界全体の面積S0」よりも大きくなり得る。   The definition of each area on the two-dimensional screen of view is shown in FIG. First, the area indicated by the thick frame 4 in FIG. 2A is defined as “area S0 of the entire field of view”. Next, in the area indicated by the thick frame 5 in FIGS. 2B1 and 2B2, the area occupied by the object inside and outside the two-dimensional screen boundary of the field of view, without considering the hidden surface due to other objects, and the field of view The area that does not consider the hidden surface of the frame 4 is defined as “object area S1 inside and outside the field of view when there is no obstacle”. As shown in FIG. 2B1, the area S1 does not consider blocking by an obstacle in front. Further, as shown in FIG. 2 (b2), the area S1 is not blocked even if the object protrudes from the lateral frame 4 of the field of view. Naturally, if the object is in front of the eyes, the area S1 can be larger than the “area S0 of the entire field of view”.

次に、図2(c1)、(c2)において太枠6で示す領域内を、視界の2次元スクリーン内の対象物が占める面積で、他の物体による陰面を考慮し、かつ、視界の枠4による陰面を考慮し、これらの陰面を除いた残りの面積を「可視部分の対象物面積S2」として定義する。面積S2は実際の目に見える部分の面積のことである。これらの面積S0、S1、S2を定義した上で、本発明では、2つの重要なパラメータを以下の数式で定義する。まず、「可視部分面積率」を数式1として以下に定義する。
「可視部分面積率」
=「可視部分の対象物面積S2」/「障害物がない場合の視界内外の対象物面積S1」
Next, the area occupied by the object in the two-dimensional screen of the field of view within the area indicated by the thick frame 6 in FIGS. 2 (c1) and 2 (c2), taking into account the hidden surface due to other objects, and the frame of the field of view The remaining area excluding these hidden surfaces is defined as “visible object area S2”. The area S2 is an actual visible area. After defining these areas S0, S1, and S2, in the present invention, two important parameters are defined by the following mathematical expressions. First, the “visible partial area ratio” is defined as Equation 1 below.
"Visible partial area ratio"
= "Object area S2 in the visible part" / "object area S1 inside and outside the field of view when there is no obstacle"

これは、図2(c1)、(c2)において太枠6で示す領域の面積S2を、それぞれ図2(b1)、(b2)において太枠5で示す領域の面積S1で割った値である。「可視部分面積率=S2/S1」とは、建物などの対象物が、自分の体のどのくらいの割合が閲覧者の視点から実際に可視であるかを示す指標である。前に障害物があったり、閲覧者が空の方角を見ているために視界から対象物の下半分が遮断されていたりなどのあらゆる理由による陰面を考える。そして陰面が全くない場合のうちの、あった場合による残りの可視の部分に対する割合である。後述のように、「可視部分面積率=S2/S1」は時間に依存する場合がある。   This is a value obtained by dividing the area S2 of the region indicated by the thick frame 6 in FIGS. 2 (c1) and (c2) by the area S1 of the region indicated by the thick frame 5 in FIGS. 2 (b1) and (b2), respectively. . “Visible partial area ratio = S2 / S1” is an index indicating how much of an object such as a building is actually visible from the viewer's viewpoint. Consider the hidden side for any reason, such as an obstacle in front, or the viewer's view of the sky, so the lower half of the object is blocked from view. And it is the ratio with respect to the remaining visible part by the case where there is no hidden surface at all. As described later, “visible partial area ratio = S2 / S1” may depend on time.

「可視部分面積率=S2/S1」は、対象物をより擬人化させるための指標である。人は、目の前に障害物が存在し、視覚が遮られると、それを避けるため頭を横に動かしたり背伸びをしたりする。それを模倣すべく、対象物群や障害物のおのおのが、自分の体のどのくらいの割合が閲覧者から見られているかを「可視部分面積率=S2/S1」で求め、「可視部分面積率=S2/S1」がある閾値まで大きくなるよう、その形状を大きくしたり、傾けたりすることで、完全にオクルージョンにより視界から遮断される状態を防ぐように働く。   “Visible partial area ratio = S2 / S1” is an index for making an object more anthropomorphic. When there is an obstacle in front of you and your vision is interrupted, you move your head sideways or stretch your back to avoid it. In order to imitate it, the percentage of the body of the object group or obstacle is viewed from the viewer by “visible partial area ratio = S2 / S1”, and “visible partial area ratio” = S2 / S1 "is increased or tilted so as to increase to a certain threshold value, thereby preventing a state in which it is completely blocked from view by occlusion.

ここで、2つの関連する従来例とは違う注意すべき点について述べる。注意すべきは、こういった他の障害物により視覚が遮断されている部分の割合を計算し、それを指標に障害物を半透明にして表示する等の方法は特許文献2などで提案されているが、本発明の「可視部分面積率=S2/S1」とは図2(b2)の視界の枠4の外にある物体の面積も考慮するという点で、従来のものと異なる。これは、本発明が、後述の図6(c)に示す対象物11にあるような、視界のスクリーン枠からほとんど外され見られない状態にある対象物に対しても、対象物が背伸びをして視界に入り込み、自らの存在をアピールするような効果を適用する必要があるためである。特許文献2にあるような従来の定義では、視界から外れたものを半透明に表示しても意味がないので視界による遮断は考慮しない。   Here, points to be noted that are different from the two related conventional examples will be described. It should be noted that a method such as calculating the ratio of the part where the vision is blocked by other obstacles and displaying the obstacles as a semi-transparent display using the ratio is proposed in Patent Document 2 and the like. However, “visible partial area ratio = S2 / S1” of the present invention is different from the conventional one in that the area of an object outside the field of view frame 4 in FIG. This is because the object is stretched even when the object is in a state in which it is hardly seen from the screen frame of the field of view as in the object 11 shown in FIG. This is because it is necessary to apply an effect that enters the field of view and appeals to its existence. In the conventional definition as described in Patent Document 2, it is meaningless to display a translucent object out of the field of view.

もう一つの注目すべきことは、従来例と違う本発明の陰面判定の特徴である。ある一つの視点に近い対象物が、可視されようとして形状を傾けるなどの変化を起こすため、当然、新たに後ろの視界を遮断してしまい、その影響が後ろの他の対象物にも及ぶ。それはあたかも、人が集合写真をとられる際、目の前の人が、顔をカメラに映られようとして頭を動かしたために、今度はその後列の自分が遮断され、自分の頭を動かさなければいけない状況となるという具合である。これと同じことを起こすため、本発明では、形状変化適用後、対象物ごとに陰面判定を更新しなければいけない(後述の図4に示すステップS19に相当)。この具体例は、図10(d2)に示す建物13と図10(e2)に示す建物14で後述する。本発明のこの点も、従来の例では、別の対象物に対して新しく更新した陰面判定を適用しない点で異なる。   Another thing to note is the feature of the hidden surface determination of the present invention that is different from the conventional example. An object close to a certain viewpoint causes a change such as tilting the shape so as to be visible, so naturally, the rear view is newly blocked, and the influence extends to other objects behind. It is as if the person in front of you moved the head trying to see the face on the camera when a person took a group photo, so this time you must be cut off and move your head. It ’s a bad situation. In order to cause the same thing, in the present invention, the hidden surface determination must be updated for each object after applying the shape change (corresponding to step S19 shown in FIG. 4 described later). This specific example will be described later with reference to a building 13 shown in FIG. 10 (d2) and a building 14 shown in FIG. 10 (e2). This point of the present invention is also different in the conventional example in that a newly updated hidden surface determination is not applied to another object.

もうひとつの定義されるパラメータとして、「視界内外面積率」を数式2として以下に定義する。
「視界内外面積率」
=「障害物がない場合の視界内外の対象物面積S1」/「視界全体の面積S0」
As another defined parameter, “field area inside / outside view” is defined as Equation 2 below.
"Visibility area inside and outside the field of view"
= "Object area S1 inside and outside the field of view when there are no obstacles" / "Area of the entire field of view S0"

これは、図2(b1)、(b2)に示す対象物面積S1を図2(a)に示す面積S0で割った値である。「視界内外面積率=S1/S0」は、仮に周りの障害物が存在しなく、視界が無限に広がっていた場合でも、視点からどれだけの大きさで対象物が見られたであろうかを示す指標である。すなわち、視界画面の枠(S0)の割合に対し、対象物の画像(S1)が占有する割合である。対象物が、そのサイズにかかわらず目前にあるので視界内で大きく見える場合、もしくは、対象物のサイズが単純に大きいので大きく見える場合、「視界内外面積率=S1/S0」は大きい。場合によっては視界以上に大きい物体を目の前にした場合は100%を超える。   This is a value obtained by dividing the object area S1 shown in FIGS. 2B1 and 2B2 by the area S0 shown in FIG. “Visibility inside / outside area ratio = S1 / S0” indicates how large the object would have been seen from the viewpoint even if there were no obstacles around and the field of view was infinite. It is an indicator to show. That is, the ratio of the object image (S1) to the ratio of the frame (S0) of the view screen. When the object looks large regardless of its size, it looks large in the field of view, or when it looks large because the size of the object is simply large, “field area inside and outside the field of view = S1 / S0” is large. In some cases, it exceeds 100% when an object larger than the field of view is placed in front of you.

逆に対象物が、そのサイズがどうであれ、はるか遠くにあるため小さく見える場合、もしくは、対象物が単純にサイズが小さくて小さく見える場合、「視界内外面積率=S1/S0」は小さい。これが「視界内外面積率=S1/S0」の意味する指標である。このようなパラメータを定義しなくても、単純に視点からの距離を指標として使えると思えるが、画面全体の面積に比べどのくらいの大きさで見えるかは、対象物のサイズ、形状、見る角度にも依存する。サイズが大きくても遠いため小さく見える、サイズが小さいので小さく見える、あるいは、形状が平べったい建物なので横から見ると小さく見える、などの可能性がある。そのため、対象物を2次元スクリーン上に射影した上で面積S1を計算し、このような「視界内外面積率=S1/S0」というパラメータを定義しなければならない。   On the other hand, if the object appears to be small because it is far away, no matter what its size, or if the object simply appears small and small in size, “inside / outside area ratio = S1 / S0” is small. This is an index that means “area ratio inside and outside the field of view = S1 / S0”. Even if you do not define such parameters, you can simply use the distance from the viewpoint as an index, but the size of the object, the shape, and the viewing angle will determine how large it will be compared to the total area of the screen. Also depends. There is a possibility that even if the size is large, it looks small because it is far away, it seems small because it is small, or it looks small when viewed from the side because it is a flat building. For this reason, the area S1 is calculated after projecting the object on the two-dimensional screen, and such a parameter of “area ratio inside and outside the field of view = S1 / S0” must be defined.

この「視界内外面積率=S1/S0」と前述の「可視部分面積率=S2/S1」を使ってどのように、画像や形状変形を対象物や障害物に適用するかを説明する。例えば障害物で陰になっている対象物を、閲覧者に見られようと、「対象物や障害物を傾ける」、「背伸びをさせる」などの形状変化をさせて、「可視部分面積率=S2/S1」を上げて100%全体が見られても、「視界内外面積率=S1/S0」が低い場合、つまり、その対象物が、視界2次元スクリーン上のごく小さな部分にしか占めていない場合は、閲覧者に見過ごされてしまう。そのためにあらかじめ画像や形状変化のライブラリ106(図5)で、目立ち度の高い変化、ジャンプしたり、手を振ったり、激しく動いたり、画像を激しく変化させたりなどの変化を適用しなければならないという判断ができる。これは、人が町で出会う際、近距離で突然出会った場合、控えめな動きで「こんにちは」と相手にメッセージを送るのに対し、遠くで小さく目撃され遠くから手を振って「おおい!こっちだ。こんにちは!」と比較的激しい動きで合図してやってくるという行動パターンを模倣するものである。   A description will be given of how to apply an image or shape deformation to an object or an obstacle using this “field-of-view area ratio = S1 / S0” and the above-mentioned “visible partial area ratio = S2 / S1”. For example, in order for a viewer to see an object that is shaded by an obstacle, change the shape such as “tilt the object or obstacle” or “extend the back” and “visible partial area ratio = Even if 100% of the entire image is seen when S2 / S1 is increased, if the “inside / outside area ratio = S1 / S0” is low, that is, the object occupies only a very small part on the two-dimensional field of view. If not, it will be overlooked by the viewer. Therefore, in the image and shape change library 106 (FIG. 5), it is necessary to apply changes such as highly conspicuous changes, jumps, shaking hands, moving violently, and changing images violently. It can be judged. This is, when a person encounters in the town, if you suddenly met at close range, while sending a message to the other party as "Hello" in the conservative movement, witnessed smaller in the distance, "Oi waving from a distance! Koch it. Hello! "and is intended to mimic the behavior patterns that come doing it signaled a relatively violent movement.

また、逆に「視界内外面積率=S1/S0」が大きい場合は、視界画面の大きな割合を占有しているため、閲覧者に目障りにならないよう、激しい画像および形状変化を避けるという判断ができる。「可視部分面積率=S2/S1」を上げようとして、建物を傾けようとするにしても、「ゆっくりと揺らす」などの、目立ち度の低い画像や形状変化をライブラリ106から選択して適用する。   On the other hand, when “view area inside / outside area = S1 / S0” is large, it occupies a large proportion of the view screen, so that it can be judged to avoid severe image and shape changes so as not to obstruct the viewer. . Even if an attempt is made to increase the “visible partial area ratio = S2 / S1” or the building is inclined, a low-conspicuous image or shape change such as “slowly shake” is selected from the library 106 and applied. .

形状変化に関して、前述に述べたような時間に依存する動的変化の場合について述べる。正確に言えば、ある対象物の動的変化が他の対象物の陰面に大きく作用するとき、その動的運動を最適化しなければいけない。すなわち、対象物が一定の周期などで動いている場合である。この場合は、前述のパラメータ「可視部分面積率=S2/S1」を、ダイナミックに時間tに依存する値とし、関連するすべての物体群の動的変化周期の最小公倍数を周期T(時間)とする。時間T内でサンプリングをN回行い、そこで得られた、対象となる対象物の「可視部分面積率=S2/S1」の和をNで割り、平均をだして、値を考慮する。これにより、2つの重なった対象物が交互に顔をだしてその顔を見られるようにすることが可能である。「視界内外面積率=S1/S0」は、陰面に依存しないため、このような処理はしない。以上2つのパラメータについて述べた。   Regarding the shape change, the case of the time-dependent dynamic change as described above will be described. To be precise, when a dynamic change of one object greatly affects the hidden surface of another object, the dynamic motion must be optimized. That is, this is a case where the object is moving at a constant cycle or the like. In this case, the above-mentioned parameter “visible partial area ratio = S2 / S1” is dynamically set to a value that depends on time t, and the least common multiple of dynamic change periods of all related object groups is set as a period T (time). To do. Sampling is performed N times within the time T, and the sum of the “visible partial area ratio = S2 / S1” of the target object obtained there is divided by N, an average is calculated, and the value is considered. As a result, it is possible to allow two overlapping objects to alternately face each other and see the face. “Visibility inside / outside area ratio = S1 / S0” does not depend on the hidden surface, so such processing is not performed. The two parameters have been described above.

これら2つの「可視部分面積率=S2/S1」と「視界内外面積率=S1/S0」をかければ、単純に、視界の枠全体の面積S0に対する、対象物の可視部分の面積S2の比=S2/S0が求まる。例えば、これを使えば、すべての対象物群に対し、この可視部分の面積が均一に大きくなるように対象物の形状を拡大するなどの表現方法も考えられる。つまり、遠くのものも、近いものとほぼ同じくらいの大きさで拡大する方法である。しかしその場合は、小さいものを無理やり拡大してしまい、閲覧者に、現実感が失われてしまうので、閲覧者の関心が薄れてしまう。そこで、本発明は、遠くの小さく見えるもの、サイズが小さくて小さく見えるものは、単純に拡大で大きく表示するのではなく、対象物を擬人化し、大きさはある程度だけ拡大し、その対象物が小さくしか見えていないので目立とうとする人間的な激しい動きや画像を物体に適用させることで、日常の慣れた経験に沿った体験をさせることで、閲覧者に空間的配置を理解しやすい演出を行うことに本質がある。   By applying these two “visible part area ratio = S2 / S1” and “field-of-view area ratio = S1 / S0”, simply the ratio of the area S2 of the visible part of the object to the area S0 of the entire field frame of view. = S2 / S0 is obtained. For example, if this is used, an expression method such as enlarging the shape of the object so that the area of the visible portion is uniformly increased can be considered for all object groups. In other words, it is a method of enlarging a distant object approximately the same size as a close object. However, in that case, the small one is forcibly enlarged, and the viewer loses the sense of reality, so the viewer's interest is diminished. Therefore, the present invention does not simply display a large and small object that looks small in the distance, but small and small, instead of simply enlarging the object, anthropomorphizing the object and enlarging the object to some extent. It is easy to understand the spatial arrangement by allowing viewers to understand the spatial arrangement by applying an intense human movement and images that are conspicuous because they are visible only to a small size, and by applying the experience to the everyday experience. There is an essence in doing.

これら前述の2次元スクリーン上の射影された面積を具体的に算出する方法のレイ・トレーシング(Ray Tracing)法を使った例を図3を使い説明する。図3では、視点Pから
注視点16にめがけて視線15があり、対象物14がある。視界は、視界の境界7の間にある空間であり、視線15を法線とし、視界の境界7を覆う面を陰面判定面17と呼ぶ。この陰面判定面17を視界の2次元のスクリーンと考える。陰面17は、例えば縦横m×n個の小さな領域(セル)に分割され、視点からそれぞれのセルの中心までのベクトルを考え、交差判定、つまり、途中で物体によりベクトルが遮断されて陰面になっていないか、レイ・トレーシングで判別判定を行う。ここでは、陰面となっているセル18は黒く塗られる。対象物14の射影面積は、この黒く塗られたセルの数によって判定される。本発明では、面積の比(S2/S1、S1/S0)のみを考えているため、単一セルあたりの面積を考慮しなくても、セルの数で面積S0、S1、S2を表せる。
An example of using the Ray Tracing method for concretely calculating the projected area on the above-described two-dimensional screen will be described with reference to FIG. In FIG. 3, there is a line of sight 15 from the viewpoint P to the gazing point 16, and there is an object 14. The field of view is a space between the boundaries 7 of the field of view, and the surface that covers the boundary 7 of the field of view is referred to as a hidden surface determination surface 17 with the line of sight 15 as the normal line. This hidden surface determination surface 17 is considered as a two-dimensional screen of view. The hidden surface 17 is divided into, for example, m × n small areas (cells), for example, and a vector from the viewpoint to the center of each cell is considered, intersection determination, that is, the vector is cut off by an object in the middle to become a hidden surface. Whether or not it is determined is determined by ray tracing. Here, the hidden cell 18 is painted black. The projected area of the object 14 is determined by the number of cells painted black. In the present invention, since only the area ratio (S2 / S1, S1 / S0) is considered, the areas S0, S1, and S2 can be expressed by the number of cells without considering the area per single cell.

図8(a)〜(e)は視点Pから違った距離に配置される複数の陰面判定面17a〜17eを示す。陰面判定面17a〜17eにおいて、視線15を法線としながら判定面17a〜17eとセルは、それぞれの辺の大きさが視点Pからの距離に関して比例関係を保っているので、違うサイズの陰面判定面17a〜17e同士で判定されても、セルの数だけで陰面の面積を比較することができる。セルは数が多く、つまり解像度が高いほど望ましいが、計算量が増えるため、また、対象物表示の表現方法のためのロバストな判定のため、あまり細かい解像度で陰面を判定する必要はない。図3では、陰面判定面17は、デカルト座標のような平面であるが、角座標による2つの角度による球面でもかまわない。また、コンピュータグラフィック言語でレンダリングを行う際、計算の手間を省くため指定物体の可視部分の面積S2の算出、陰面判定も同時にさせることも可能である。   8A to 8E show a plurality of hidden surface determination surfaces 17a to 17e arranged at different distances from the viewpoint P. FIG. In the hidden surface determination surfaces 17a to 17e, the size of each side of the determination surfaces 17a to 17e and the cell is kept proportional to the distance from the viewpoint P while the line of sight 15 is normal. Even if it determines with surfaces 17a-17e, the area of a hidden surface can be compared only with the number of cells. Although the number of cells is large, that is, the higher the resolution, the better. However, since the calculation amount increases, and the robust determination for the expression method of the object display, it is not necessary to determine the hidden surface with a very fine resolution. In FIG. 3, the hidden surface determination surface 17 is a flat surface such as Cartesian coordinates, but may be a spherical surface having two angles based on angular coordinates. Further, when rendering is performed in a computer graphic language, the calculation of the area S2 of the visible portion of the designated object and the hidden surface determination can be performed at the same time in order to save the calculation time.

図4のフロー図と図5のブロック図を使い、本発明においていかに対象物から2つのパラメータ(S2/S1、S1/S0)を算出し、対象物や障害物に適切な形状変化などの画像変化を与えていくかの全体のアルゴリズムの流れを説明する。まず、閲覧者に知らせたい対象物を決定する(図4のステップS1)。例えばユーザがレストランを検索した場合、対象となる飲食店の建物群が、ここで言う対象物群となる。これらを、仮想空間にいる閲覧者に効果的にその場所を知らせる。次に、前述の図3で示した視点Pと注視点16を設定する。視点Pが閲覧者の目の位置となる。さらに注視点16が見ている方向の点を示す。これは図5に示す入力部101で行われる。   Using the flowchart of FIG. 4 and the block diagram of FIG. 5, how to calculate two parameters (S2 / S1, S1 / S0) from an object in the present invention, and an image such as a shape change suitable for the object or obstacle The overall algorithm flow of how to change is explained. First, an object to be notified to the viewer is determined (step S1 in FIG. 4). For example, when a user searches for a restaurant, a building group of restaurants is a target object group. These are effectively notified to the viewer in the virtual space. Next, the viewpoint P and the gazing point 16 shown in FIG. 3 are set. The viewpoint P is the position of the viewer's eyes. Furthermore, the point of the direction which the gaze point 16 is looking at is shown. This is performed by the input unit 101 shown in FIG.

次に、図3で示した物体の陰面17を調べる。これは図5に示す評価部(パラメータ評価部102、画像形状変化評価部103)が行う。視界領域(境界7内)を調べ、視界にはいる対象物群(対象物14)のみを調べる(図4に示すステップS2)。これにより、視点Pの後方にある物体の交差判定計算の手間を省く。もちろん、必要に応じ、閲覧者の視界に全く入らない対象物も考慮することもできる。図5に示す3次元データ105から座標を調べ、図5に示す投影面積計算部104で計算を開始する。簡単のために選択されたk個の対象物群は、視点Pに距離が近い順に配列される(図4に示すステップS3)。そして近い順に陰面判定を行っていく。これにより、視点Pから近い面の陰面判定で陰面であると判断された部分は、当然、その陰面より後ろにある陰面の対応する部分も陰面であることは自明なので、判定スキャンする手間が省ける。   Next, the hidden surface 17 of the object shown in FIG. 3 is examined. This is performed by the evaluation units (parameter evaluation unit 102 and image shape change evaluation unit 103) shown in FIG. The field of view (inside the boundary 7) is examined, and only the object group (object 14) in the field of view is examined (step S2 shown in FIG. 4). Thereby, the trouble of the intersection determination calculation of the object behind the viewpoint P is saved. Of course, if necessary, an object that does not enter the viewer's field of view can be considered. The coordinates are checked from the three-dimensional data 105 shown in FIG. 5, and the calculation is started by the projected area calculation unit 104 shown in FIG. The k object groups selected for simplicity are arranged in order of distance from the viewpoint P (step S3 shown in FIG. 4). Then, the hidden surface determination is performed in order of proximity. Thus, since it is obvious that the portion determined to be a hidden surface by the hidden surface determination of the surface close to the viewpoint P is naturally also the corresponding portion of the hidden surface behind the hidden surface is a hidden surface, it is possible to save time and effort for determination scanning. .

まず、対象群i(iは0≦i≦k−1の整数)のうちの一つ目(i=0)について調べる(図4のステップS4、S5)。対象物iに関する前述の3つの面積S0、S1、S2を算出するために、対象物iに関する陰面判定面iを設定する。陰面判定面iは、図3で前述した視点Pから注視点16までのベクトルを法線とした面として表現できるが、今は、視点Pから対象物iの間にある空間の障害物のみを考えるため、陰面判定面iを、視点Pから対象物iへ結ぶ線の対象物iを越えた直後の位置に置くことで、陰面判定面iの後ろ、つまり対象物iの後ろの障害物は考えないようにする。陰面判定面iを縦横m×nのセルに分割する。視点Pから、対象物iに関する陰面判定面iの各セルの中心までのベクトルを考え、交差判定を行う。   First, the first group (i = 0) in the target group i (i is an integer satisfying 0 ≦ i ≦ k−1) is examined (steps S4 and S5 in FIG. 4). In order to calculate the aforementioned three areas S0, S1, and S2 related to the object i, a hidden surface determination surface i related to the object i is set. The hidden surface determination surface i can be expressed as a surface normal to the vector from the viewpoint P to the gazing point 16 described above with reference to FIG. 3, but now only the obstacles in the space between the viewpoint P and the object i are displayed. In order to consider, by placing the hidden surface determination surface i at a position immediately after the object i of the line connecting from the viewpoint P to the object i, the obstacle behind the hidden surface determination surface i, that is, behind the object i is Don't think. The hidden surface determination surface i is divided into vertical and horizontal m × n cells. Considering a vector from the viewpoint P to the center of each cell of the hidden surface determination surface i regarding the object i, the intersection determination is performed.

図2(c1)、(c2)の「可視部分の対象物面積S2」を求めるため、障害物と交差しないで、対象物iと交差するセルの数を算出する(図4のステップS6)。図2(a)の「視界全体の面積S0」は、視界全体、すなわちm×nの数となる(図4のステップS7)。図2(b1)、(b2)の「障害物がない場合の視界内外の対象物面積S1」は、図2(b2)に示すように視界の外も考える必要があるので、陰面判定面iをセルの形状を保ったまま、視点Pから注視点16までを法線とする面のまま、さらに大きい任意の大きさM×N個(M>m、N>n)に延長し、視界の外を含む対象物iと交差し得るすべてのセルの数とする(図4のステップS8)。   In order to obtain the “visible object area S2” in FIGS. 2C1 and 2C2, the number of cells that intersect the object i without intersecting the obstacle is calculated (step S6 in FIG. 4). “Area S0 of the entire field of view” in FIG. 2A is the entire field of view, that is, the number of m × n (step S7 in FIG. 4). 2 (b1) and 2 (b2), the “object area S1 inside and outside the field of view when there is no obstacle” needs to be considered outside the field of view as shown in FIG. 2 (b2). While maintaining the shape of the cell, the surface is extended from the viewpoint P to the gazing point 16 as a normal, and further extended to an arbitrarily large size M × N (M> m, N> n). It is set as the number of all the cells which can cross | intersect the target object i containing the outside (step S8 of FIG. 4).

したがって、「障害物がない場合の視界内外の対象物面積S1」は、「視界全体の面積S0」より大きくなってしまう場合もある。視界より大きいM×Nのセルからなる陰面判定面17は、大きいほど、正確に視界以外にはみ出ている物体の大きさを考慮できるが、m×nの2倍以上の大きさあたりで十分である。仮に、視点Pの見ている方向と逆の後ろに対象物があったとして、それも考慮したい場合は、後ろにも陰面判定面17を設置したり、曲面の判定面を設置することも可能である。   Therefore, the “object area S1 inside and outside the field of view when there is no obstacle” may be larger than the “area S0 of the entire field of view”. The larger the hidden surface determination surface 17 made up of M × N cells larger than the field of view, the more accurately the size of the object protruding outside the field of view can be taken into account. However, a size larger than twice the size of m × n is sufficient. is there. If there is an object behind the viewing direction of the viewpoint P, and you want to consider it, you can install a hidden surface judgment surface 17 or a curved judgment surface behind it. It is.

セルの数は、面積の値そのものではないが、ここでは、2つの重要なパラメータである「視界内外面積率=S1/S0」、「可視部分面積率=S2/S1」、すなわち面積の比を計算するだけなので、単一セルの面積の大きさを知らなくても問題ない。また、後述の図8(a)〜(e)に示すような陰面判定面17a〜17eが視点Pからの距離が変わっても、視点Pから注視点16へのベクトルを法線とし、セルの辺が視点Pから陰面判定面17a〜17eまでの距離に比例している限り、各対象物iに関するこれらの面積比率(S1/S0、S2/S1)は、違う陰面判定面17同士で比較できる値である。   The number of cells is not the area value itself, but here, the two important parameters, “inside / outside area ratio = S1 / S0” and “visible partial area ratio = S2 / S1”, that is, the area ratio Since only the calculation is performed, there is no problem even if the size of the area of the single cell is not known. Further, even if the hidden surface determination surfaces 17a to 17e as shown in FIGS. 8A to 8E described later change the distance from the viewpoint P, the vector from the viewpoint P to the gazing point 16 is used as a normal line, and As long as the side is proportional to the distance from the viewpoint P to the hidden surface determination surfaces 17a to 17e, these area ratios (S1 / S0, S2 / S1) for each object i can be compared between different hidden surface determination surfaces 17. Value.

図5のパラメータ評価部102で、これらの2つのパラメータ(S1/S0、S2/S1)を使って閾値と比較し、図5の画像形状変化評価部103で、対象物iに適切な画像や形状変化の適用を考え、図5のライブラリ106から選択する。図4では、ステップS9、S12において対象物iの「可視部分面積率=S2/S1」がある閾値より小さいか大きいか判定する。「可視部分面積率」が閾値より小さいときは、障害物pや、視界の枠に大きく遮られ、対象物iの体全体に比べ可視部分が小さいと判断し、対象物iが見られるよう、「形状が伸びる」、「傾く」などの変化を適用する(ステップS10、S11、S12)。   The parameter evaluation unit 102 in FIG. 5 compares these two parameters (S1 / S0, S2 / S1) with a threshold value, and the image shape change evaluation unit 103 in FIG. Considering application of shape change, selection is made from the library 106 of FIG. In FIG. 4, in steps S9 and S12, it is determined whether “visible partial area ratio = S2 / S1” of the object i is smaller or larger than a certain threshold value. When the “visible part area ratio” is smaller than the threshold, the obstacle p and the frame of view are largely blocked, and it is determined that the visible part is smaller than the whole body of the object i so that the object i can be seen. Changes such as “the shape is extended” and “tilt” are applied (steps S10, S11, S12).

ステップS9において、ある閾値よりもあまりにも小さいとき(「可視部分面積率」<<閾値)、対象物iだけでなく、障害物pにも形状変化を与えるようにする(ステップS11)。この場合、対象物iから視点Pまでのベクトルで交差判定を行い、交差する、すなわち、対象物iの障害となっているq個の障害物群を特定する。その中で、交差点が一番多い障害物を障害物p(0≦p≦q−1)とする。障害物pを、対象物iの「可視部分面積率」を上げ、かつ、対象物iや障害物pよりも視点Pに近い位置にある他の対象物j(0≦j<i)と交差しない方向に動かす。   In step S9, when it is too smaller than a certain threshold value (“visible partial area ratio” << threshold value), not only the object i but also the obstacle p is changed (step S11). In this case, intersection determination is performed using vectors from the object i to the viewpoint P, and q obstacle groups that intersect, that is, an obstacle to the object i are specified. Among them, an obstacle having the largest number of intersections is defined as an obstacle p (0 ≦ p ≦ q−1). The obstacle p increases the “visible partial area ratio” of the object i and intersects the object i or another object j (0 ≦ j <i) located closer to the viewpoint P than the object i or the obstacle p. Move it in a direction that does not.

ステップS12において、もともと対象物iの「可視部分面積率」は低いが、それほど低くない場合(「可視部分面積率」<閾値)は、対象物iの陰面判定面i上において、上、右、左、下、などのどちらの方向に動けば一番「可視部分の対象物面積S2」が上がるかを陰面判定面iの結果から調べ(ステップS13)、その座標にめがけて動くよう指令する(ステップS14)。一方、「可視部分面積率」が閾値より高いときは、対象物全体が十分見られている意味であり、特別な形状変化は適用させず、後述の「視界内外面積率=S1/S0」の値で形状などの画像変化を決定する(ステップS18)。   In step S12, when the “visible partial area ratio” of the object i is originally low but not so low (“visible partial area ratio” <threshold), on the hidden surface determination surface i of the target object i, From the result of the hidden surface determination surface i, it is determined whether the “visible object area S2” increases most in the direction of left, down, or the like (step S13), and a command is given to move toward that coordinate (step S13). Step S14). On the other hand, when the “visible partial area ratio” is higher than the threshold value, it means that the entire object is sufficiently seen, and a special shape change is not applied, and “visual field inside / outside area ratio = S1 / S0” described later. An image change such as a shape is determined by the value (step S18).

ここでいう閾値は、段階的に複数存在したり、また、画像および形状変化を施す対象物の総数kに依存する関数として定義することもできる。例えば、複数の閾値を設定することで、段階的に分別が可能である。また、閾値をkの関数と設定することで、kの数が多い場合、つまり、画面に出したい対象物の顔テクスチャの数が多い場合には、混雑した状態なので、それぞれの「可視部分面積率」の許容最小値である閾値が下がるような関数とし、対象物群の形状変化が頻繁におきて他の対象物を圧迫しないように調整できる。   A plurality of threshold values here may exist in a stepwise manner, or may be defined as a function depending on the total number k of objects to be subjected to image and shape change. For example, by setting a plurality of threshold values, the separation can be performed in stages. In addition, by setting the threshold value as a function of k, when the number of k is large, that is, when the number of face textures of the target object to be displayed on the screen is large, the state is congested. The threshold value, which is an allowable minimum value of the “rate”, can be adjusted so that the shape of the object group frequently changes so as not to compress other objects.

次に「視界内外面積率」が閾値に比べ小さいか大きいか判定する(ステップS15)。「視界内外面積率」が低い場合は、対象物iが視点Pから遠くにあるのか、対象物iのサイズが小さいかの理由で、障害物や視界の枠4による遮断の有無にかかわらず、画面の小さな部分しか占めておらず、前述のように対象物iの形状を左右に傾けたところで、閲覧者に見過ごされてしまう状態である。本発明では、拡大はわずかに行い、目立ち度の高い動的変形、速く揺れたり、ジャンプしたり、踊ったり、激しい画像テクスチャの変化などをライブラリ106から選択して、適用する(ステップS17)。もちろん、小さく見えるものを単純に拡大して大きく表示することはできるが、極端に大きくすると非現実性を帯びてしまうため、あえて、目立ちやすい動きや画像表示を促進させることで人間が遠くから必死に合図を送るような行動を模倣させることに本発明の特徴がある。   Next, it is determined whether the “field-in-outside / outside-area ratio” is smaller or larger than the threshold (step S15). When the “field-in-outside / out-area ratio” is low, whether the object i is far from the viewpoint P or the size of the object i is small, regardless of whether the object is blocked by an obstacle or the frame 4 of the field of view, It occupies only a small part of the screen, and when the shape of the object i is tilted left and right as described above, it is overlooked by the viewer. In the present invention, the enlargement is slightly performed, and dynamic deformation with high conspicuousness, fast shaking, jumping, dancing, intense image texture change, and the like are selected from the library 106 and applied (step S17). Of course, it is possible to simply enlarge and display what appears to be small, but if you make it extremely large it will become unrealistic, so dare to desperately promote human movement from a distance by promoting conspicuous movement and image display It is a feature of the present invention to imitate the action of sending a signal to the person.

逆に「視界内外面積率」が高い場合は、障害物に隠れているいないにかかわらず、画面の多くを占めて存在しているため、形状および画像変形を施すには、目立ち度の低い、ゆっくりとした動きや、手をふるなど対象物の一部分だけが動くようなアニメーションを適用する(ステップS16)。これにより閲覧者に目障りにならないようにする。ここでいう閾値も前述のとおり、複数存在、対象物群の総数kに依存する関数であることが考えられる。   On the other hand, when the "area ratio inside and outside the field of view" is high, it occupies most of the screen regardless of whether it is hidden by an obstacle. An animation is applied so that only a part of the object moves, such as a slow movement or a hand shake (step S16). As a result, the viewer is not disturbed. As described above, the threshold here may be a function depending on the presence of a plurality of objects and the total number k of object groups.

次いで、対象物iの画像や形状変化に関して、前述の見積もりから、適切な目立ち度、形状傾きの有無、どの方向へどれだけ動くべきか、どのような適切な目立ち度のある画像貼り付けるのかを、図5に示す画像形状変化評価部103で考慮し、画像および形状変化データのライブラリ106から表現効果が選択され、対象物iに適用される。また、対象物iの全体の形状の視点Pから見える位置に、かつ、視点Pに向かった面にテクスチャを貼り付けることで、対象物iが視覚的により閲覧者を意識しているという効果を生むことができる(ステップS18)。   Next, regarding the image and shape change of the object i, based on the above-mentioned estimation, the appropriate degree of conspicuousness, the presence / absence of the shape inclination, the direction of how much to move, and what kind of appropriate conspicuous image is pasted In consideration of the image shape change evaluation unit 103 shown in FIG. 5, the expression effect is selected from the image and shape change data library 106 and applied to the object i. Moreover, the effect that the object i is visually conscious of the viewer can be obtained by pasting the texture on the surface facing the viewpoint P at a position where the entire shape of the object i can be seen from the viewpoint P. Can be produced (step S18).

仮に、ライブラリ106から選ばれた形状変化を適用する場合を考える。対象物iが傾くことが決まると、陰面判定が変化するので、後ろの陰面判定面のために更新しなければいけない。このことは、従来の陰面判定とは違うことを意味する。図4において、対象物iの適切な画像および形状変化付与の判断アルゴリズムが終了したあとは、次の、対象物i+1に対し同様の調査(ステップS5)を行う。これは、すべてのk個の対象物が終わるまで、繰り返される(ステップS20)。選択されたk個の対象群の調査をすべて終えると(ステップS20でYes)、本発明の「視点による対象物の表示方法」のアルゴリズムが終了する。これで、図5に示す画像表示部107で、画像および形状変化データのライブラリ106から選ばれたデータを3次元物体データ105に適用し、閲覧者にとって対象物群が見やすい視界を描画する。仮に、閲覧者が、空間の中で移動し始めて、視点Pが変わったり、顔の向きを変えたために、注視点16が変わった場合は、コンピュータの計算のメモリが許す限り、ある一定周期で入力部101で視点Pと注視点16を再入力し、図4に示すフローチャートから新たに始めなければいけない。   Consider a case where a shape change selected from the library 106 is applied. When the object i is determined to tilt, the hidden surface determination changes and must be updated for the back hidden surface determination surface. This means that it is different from the conventional hidden surface determination. In FIG. 4, after the algorithm for determining an appropriate image and shape change for the object i is completed, the same investigation (step S5) is performed on the object i + 1. This is repeated until all k objects are finished (step S20). When all the surveys of the selected k target groups have been completed (Yes in step S20), the algorithm of the “object display method using viewpoint” according to the present invention ends. The image display unit 107 shown in FIG. 5 applies data selected from the image and shape change data library 106 to the three-dimensional object data 105 and draws a field of view in which the object group is easy for the viewer to see. If the viewer starts to move in the space and the point of view P changes or the direction of the face changes, the gaze point 16 changes. The viewpoint P and the gazing point 16 must be input again using the input unit 101, and a new process must be started from the flowchart shown in FIG.

以上、図4、図5を使い、アルゴリズムの概念を述べた。次に、具体例としていくつかの対象物、障害物を考え、どのように対処するかについて述べる。例として述べる対象物と障害物の分布を図6(a)、(b)、(c)に鳥瞰図として示す。また、図6(a)、(b)、(c)それぞれに対して、対象物と障害物が実際にどのように視界の2次元スクリーン上から見えるかを示した図を図7(a)、(b)、(c1)に示す。図6(a)、図7(a)が形状変化を適用しない普通の場合、図6(b)、図7(b)が従来例とする、視点Pに依存しない形状変化を適用した場合、図6(c)、図7(c1)が本発明の提案する視点に依存する形状変化を適用した場合である。また、図7(c2)は、図7(c1)をさらに変形して、対象物13が見えるようにその前の障害物9を移動した例を示す。図6のベクトル7は、視界の境界を示す。ベクトル7の外側の空間は、視界外であり閲覧者からは見えない。また、図8に、それぞれの対象物に関しての陰面判定の様子を鳥瞰図として示す。さらに、図9、図10に、図8のそれぞれの場合に対応して、陰面判定面のどのセルが陰面となっているかを視界の2次元スクリーン上の画面として示す。   The concept of the algorithm has been described above with reference to FIGS. Next, some objects and obstacles are considered as specific examples, and how to deal with them will be described. The distribution of the objects and obstacles described as an example is shown as a bird's-eye view in FIGS. 6 (a), (b), and (c). Further, for each of FIGS. 6 (a), (b), and (c), FIG. 7 (a) shows how the object and the obstacle are actually seen from the two-dimensional screen of the view. , (B), (c1). 6 (a) and 7 (a) are normal cases where shape change is not applied, and FIG. 6 (b) and FIG. 7 (b) are conventional examples where shape change independent of viewpoint P is applied. FIG. 6C and FIG. 7C1 are cases where a shape change depending on the viewpoint proposed by the present invention is applied. FIG. 7C2 shows an example in which the preceding obstacle 9 is moved so that the object 13 can be seen by further modifying FIG. 7C1. A vector 7 in FIG. 6 indicates the boundary of the field of view. The space outside the vector 7 is out of sight and is not visible to the viewer. FIG. 8 shows a bird's eye view of the hidden surface determination for each object. Further, in FIGS. 9 and 10, corresponding to each case of FIG. 8, which cell on the hidden surface determination surface is the hidden surface is shown as a screen on the two-dimensional screen of the field of view.

図6、図7から順を追って説明する。ここでは、建物10、建物11、建物12、建物13、建物14を閲覧者の関心のある対象物とする。建物8、建物9を障害物とする。そのため、図7(a)に示すように、
・対象物である建物10は、下部分が建物8に隠れて見えない。
・対象物である建物11は、障害物はないが、閲覧者の視線が上を向いているため、下半分が視界の枠で見えない。
・対象物である建物12は、すべてが見える。
・対象物である建物13は、建物9に隠れ、全く見えない。
・対象物である建物14は、すべてが見える。
This will be described in order from FIG. 6 and FIG. Here, the building 10, the building 11, the building 12, the building 13, and the building 14 are the objects of interest of the viewer. Building 8 and building 9 are obstacles. Therefore, as shown in FIG.
The building 10 that is the object is hidden behind the building 8 and cannot be seen.
The building 11 that is the object has no obstacles, but the viewer's line of sight is facing upward, so the lower half cannot be seen in the view frame.
-All of the building 12 that is the object can be seen.
The building 13 as the object is hidden behind the building 9 and cannot be seen at all.
-The building 14 that is the object is all visible.

この状態で、従来の例として、視点Pの位置を考慮せず、単純に機械的に対象物の形状を拡大したり、対象物の建物を揺らしたりした場合の例を従来例として、図6(b)、図7(b)に示す。図7(b)の従来例では、
・対象物である建物10は、目立たせるつもりで張り付けた顔テクスチャ10aが下半分の見えない部分(建物8の部分)に張り付けられているので見えない。また、形状の上半分が拡大して目立ってはいるが、そもそも画面から大きく見える建物なので、拡大しても意味がない。ましてや、視界画面の枠を超えてはみ出ている。
・対象物である建物13は、目立つよう体を傾けたり元に戻ったり周期運動をして閲覧者の関心をひこうとしているが、傾く向きが視点からさらに奥の方向なので、障害物9に相変わらず隠れている。
・対象物である建物12は、顔テクスチャが閲覧者の視点の方を向いていない。
・対象物である建物11は、若干拡大しているが、拡大し足りない。上方向に背伸びをすべきである。また顔テクスチャの貼り付け位置も見えにくい位置にある。
・対象物である建物14は、普通に見えている。
以上のべたように、閲覧者の視点Pがどこにあり、個々の対象物が、自分がどのように閲覧者から見えるのかを知らない限り、適切に動的および画像変化を与えることができない。
In this state, as a conventional example, an example in which the shape of the object is simply mechanically enlarged or the building of the object is shaken without considering the position of the viewpoint P is shown in FIG. (B), as shown in FIG. In the conventional example of FIG.
The building 10 that is the object is not visible because the face texture 10a that is pasted so as to stand out is pasted to the invisible part of the lower half (the part of the building 8). In addition, the upper half of the shape is enlarged and conspicuous, but since it is a building that looks big from the first place, there is no point in expanding it. Moreover, it is beyond the field of view.
・ The building 13 that is the object is tilting the body to stand out, returning to the original, and making periodic movements to attract the viewer's interest, but the tilting direction is further away from the viewpoint, so the obstacle 9 Hidden as usual.
-The building 12 that is the object has a face texture that does not face the viewer's viewpoint.
・ The building 11 that is the object is slightly enlarged, but is not sufficient. Should be stretched upward. Also, the face texture pasting position is in a position where it is difficult to see.
The building 14 that is the object is normally visible.
As described above, unless the viewer's viewpoint P is located and how each individual object is visible to the viewer, dynamic and image changes cannot be appropriately given.

そこで、本発明の提案する前述のアルゴリズムにより形状変化を施した場合を、図6(c)、図7(c1)(c2)に示す。明らかに閲覧者に見られやすく、あたかも、対象物である建物群が生きていて、閲覧者であるカメラを意識して集合写真を撮ったような状態となっている。図7(c1)の画像を得られるまでの過程を図8、図9、図10を使って述べる。図4のアルゴリズムにおいて、視界7に入る対象物は、建物10、建物11、建物12、建物13、建物14の5個、k=5である。これらを視点Pから近い順に調べていく。   Accordingly, FIGS. 6 (c), 7 (c1), and (c2) show cases where the shape is changed by the above-described algorithm proposed by the present invention. Obviously it is easy for viewers to see, as if the buildings that were the objects were alive, and they were in the state of taking a group photo with the camera in mind as the viewer. The process until the image of FIG. 7 (c1) is obtained will be described with reference to FIGS. In the algorithm of FIG. 4, the objects that enter the field of view 7 are five of building 10, building 11, building 12, building 13, and building 14, and k = 5. These are examined in order from the viewpoint P.

まずは、視点Pに最も近い建物11を(対象物i=0)として調べる。図8(a)に示すように、建物11を通る視点Pから注視点に垂直な陰面判定面17aを建物11の後ろに設置する。陰面判定面17aは、縦横m×n個のセルに分割され、それぞれのセルの中心から、視点Pまでのベクトルを考え、物体交差を調べる。陰面判定面17aの後ろにある障害物や障害物となり得る対象物は考えないので、この場合は、対象物自身(建物)11と、障害物8のみを考える。図9(a1)に陰面判定の結果を示す。陰面のセルは黒く示す。対象物11は、他の障害物により遮断されていない。しかし、閲覧者の視線が上を向いているため、対象物11の上部分しか見えていない。これは、対象物11の「可視部分面積率」が小さいことを意味する。そこから、上、下、右、左等の方向へ伸びた場合の障害物や視界の枠による陰面を考え、「可視部分面積率」がもっとも上がる方向へと移動する。この場合は上方向である。画面全体の内の対象物11が占めている面積「視界内外面積率」は、とりわけ小さいわけでもないので、あまり目立つ動きをする必要はないと判断される。顔テクスチャとして対象物11の可視部分の中央あたりに貼り付ける動画を再生する。その結果を図9(a2)に示す。建物11が背伸びをして、閲覧者に存在を示そうとしているように見える。   First, the building 11 closest to the viewpoint P is examined as (object i = 0). As shown in FIG. 8A, a hidden surface determination surface 17 a perpendicular to the gazing point from the viewpoint P passing through the building 11 is installed behind the building 11. The hidden surface determination surface 17a is divided into m × n cells in the vertical and horizontal directions, and considers a vector from the center of each cell to the viewpoint P, and examines the object intersection. In this case, only the object 11 (building) 11 and the obstacle 8 are considered because no obstacles or objects that can become obstacles behind the hidden surface determination surface 17a are considered. FIG. 9A1 shows the result of the hidden surface determination. The hidden cell is shown in black. The object 11 is not blocked by other obstacles. However, since the viewer's line of sight is facing upward, only the upper part of the object 11 is visible. This means that the “visible partial area ratio” of the object 11 is small. From there, it moves in the direction in which the “visible partial area ratio” rises the most, considering the hidden surface due to the obstacle and the frame of view when extending in the upward, downward, right, left, etc. directions. In this case, it is upward. The area “area inside and outside the field of view” occupied by the object 11 in the entire screen is not particularly small, and therefore it is determined that it is not necessary to make a noticeable movement. A moving image to be pasted around the center of the visible portion of the object 11 as a face texture is reproduced. The result is shown in FIG. 9 (a2). It looks like the building 11 is stretched and trying to show its presence to the viewer.

次に建物10(対象物i=1)に関して考える。対象物10に陰面判定面17bを設置した様子を図8(b)に示す。そのときの陰面判定の結果を図9(b1)に示す。陰面については、障害物8だけでなく、対象物11が前述のように、背伸びをしたことによる新たな大きな陰面が存在する。建物10は、障害物8により下半分が隠れているだけなので、「可視部分面積率」は比較的大きく、かつ、画面の中で比較的大きな面積を占めていて「視界内外面積率」も大きいので、これ以上比率を上げない程度に穏やかに揺れたり、少し拡大し、視点と建物とのベクトルに垂直な面で建物を軽く揺らすことが考えられる。その様子を図9(b2)に示す。   Next, consider the building 10 (object i = 1). A state where the hidden surface determination surface 17b is installed on the object 10 is shown in FIG. The result of the hidden surface determination at that time is shown in FIG. As for the hidden surface, not only the obstacle 8 but also a new large hidden surface due to the object 11 being stretched back as described above exists. Since the lower half of the building 10 is only hidden by the obstacle 8, the “visible partial area ratio” is relatively large, and also occupies a relatively large area in the screen, and the “inside / outside area ratio” is also large. Therefore, it is conceivable to shake gently to such an extent that the ratio is not increased any more, or to slightly enlarge, and lightly shake the building in a plane perpendicular to the vector of the viewpoint and the building. This is shown in FIG. 9 (b2).

次に建物12(対象物i=2)に関して考える。建物12に設置された陰面判定面17cの様子を図8(c)に示す。判定の結果を図9(c1)に示す。建物12は可視部分面積率が100%であり、画面内のかなり大きな部分を占めている、「視界内外面積率」も高いため、目立ち度の低い、控えめな動的変形を適用し、視点を向いた顔テクスチャを貼り付けるだけで、閲覧者の関心十分ひくと判断される。その様子を図9(c2)に示す。   Next, consider the building 12 (object i = 2). The state of the hidden surface determination surface 17c installed in the building 12 is shown in FIG. The result of the determination is shown in FIG. 9 (c1). The building 12 has a visible area ratio of 100%, occupies a fairly large part of the screen, and the “inside / outside area ratio” is also high. It is judged that the viewer's interest is sufficiently attracted only by pasting the face texture facing. This is shown in FIG. 9 (c2).

次に建物13(対象物i=3)に関して考える。建物13に設置された陰面判定面17dの様子を図8(d)に示す。判定の結果を図10(d1)に示す。建物13は、障害物9により完全に視界を遮断されている、「可視部分面積率」=0%である。このようなあまりにも「可視部分面積率」が低い場合、障害物による交差判定により、遮断の多くが、視界の枠によるものでなく、障害物により発生していると判断されるとき、その障害物を動かす作業を行うことができる。図7(c2)に示すように、視覚交差の多い障害物9の形状を変化させ、建物13の「可視部分面積率」を上げている。   Next, consider the building 13 (object i = 3). The state of the hidden surface determination surface 17d installed in the building 13 is shown in FIG. The result of the determination is shown in FIG. The building 13 is completely blocked from view by the obstacle 9, and “visible partial area ratio” = 0%. If such a “visible partial area ratio” is too low, when it is determined by the obstacle crossing that most of the blockage is not caused by the field of view but by the obstacle, the obstacle You can move things. As shown in FIG. 7 (c 2), the shape of the obstacle 9 with many visual intersections is changed to increase the “visible partial area ratio” of the building 13.

さらに、対象物である建物13も、陰面判定面17d上での周り上、下、右、左のどの方向に変形すれば「可視部分面積率」が高くなるかを探す。この例では、右に傾いた場合が一番効果があるとし、右に傾いて頭をふるアニメーションを再生する。建物13は、画面の中である程度の面積を占めているので、「視界内外面積率」がそれほど低くないので、ゆっくりとした動きで傾き、閲覧者にアピールさせる。顔テクスチャは、可視部分となった新たな部分の中心に貼り付ける。その様子を図10(d2)に示す。   Further, the building 13 that is the target object is searched for in which of the upper, lower, right, and left directions on the hidden surface determination surface 17d to increase the “visible partial area ratio”. In this example, it is assumed that the effect is most effective when tilted to the right, and an animation of tilting to the right and shaking the head is reproduced. Since the building 13 occupies a certain area on the screen, the “area ratio inside and outside the field of view” is not so low, so it tilts slowly and appeals to the viewer. The face texture is pasted at the center of the new part that has become the visible part. This is shown in FIG. 10 (d2).

最後に、建物14(対象物i=4)に関して考える。建物14に設置された陰面判定面17eの様子を図8(e)に示す。判定の結果を図10(e1)に示す。建物14は、本来そのほとんどが可視の状態にあったが、その前の建物13が右に傾いてきたため、視界が遮断され、ほぼ「可視部分面積率」=0%となってしまっている。建物14に関する陰面判定面17e上の陰面となっていないセルの部分を、上、下、右、左を探す。建物14が上に伸びれば、「可視部分面積率」が上がるため、背伸びの動的変化を適用させる。背伸びをすれば、「可視部分面積率」が増える。しかし、建物14が遠くにあり、建物14が比較的小さいため、「可視部分面積率」は少ししか上がらない、つまり、背伸びをしても小さくしか見えない。そのため、踊ったり、ジャンプしたりなどの目立ち度の高い動的変形を適用させている。建物14は、他の建物に比べ激しい動きをしている。顔テクスチャも呼びかけるような顔になっている。これら一連の計算と判定を行った最終的結果が、図7(c1)、図10(e2)となる。   Finally, consider the building 14 (object i = 4). The state of the hidden surface determination surface 17e installed in the building 14 is shown in FIG. The result of determination is shown in FIG. Most of the building 14 was originally visible, but the building 13 in front of it was tilted to the right, so the field of view was cut off, and the “visible partial area ratio” was almost 0%. The cell portion that is not the hidden surface on the hidden surface determination surface 17e related to the building 14 is searched for up, down, right, and left. If the building 14 extends upward, the “visible partial area ratio” increases, so that the dynamic change of the back extension is applied. If you stretch your back, the “visible partial area ratio” increases. However, since the building 14 is far away and the building 14 is relatively small, the “visible partial area ratio” is only slightly increased, that is, even if it is stretched back, it can only be seen small. Therefore, dynamic deformation with a high degree of conspicuousness such as dancing and jumping is applied. The building 14 moves more violently than other buildings. The face texture is also called out. The final results of these series of calculations and determinations are shown in FIGS. 7 (c1) and 10 (e2).

前述の例では、視点Pが地面に平行の向きの、つまりビルを横から見た場合を考えたが、本発明では、視点Pは3次元空間の任意の方向をむける。図11に、上空から下方の建物をみた場合を示す。対象物群23は、建物に限らず、この場合は、店などがあるフロアやフロアの一部の部屋となる。従来の方法では、ビルを半透明にできるが、対象物群23のフロアが複数あり、真上に重なっていると、半透明にしても認識が困難となる。本発明の提案する表現方法を適用する前を図11(a)に、適用した後を図11(b)に示す。それぞれ、対象物群23が移動して、「可視部分面積率」を上げている。さらに、対象物のフロア23の上の階にある、障害物であるフロアやビル24も、分割して移動して、対象物23が見えやすくなるようにしている。さらに、「視界内外面積率」が小さい対象物25は、目立ちやすい動きをしている。   In the above-described example, the case where the viewpoint P is in a direction parallel to the ground, that is, when the building is viewed from the side is considered, but in the present invention, the viewpoint P is directed in an arbitrary direction in the three-dimensional space. FIG. 11 shows a case where a lower building is viewed from above. The object group 23 is not limited to a building. In this case, the object group 23 is a floor on which a store or the like is located, or a part of the floor. In the conventional method, the building can be made translucent, but if there are a plurality of floors of the object group 23 and they are directly above, it is difficult to recognize even if it is translucent. FIG. 11A shows the state before applying the expression method proposed by the present invention, and FIG. In each case, the object group 23 moves to increase the “visible partial area ratio”. Further, the floor or building 24 that is an obstacle on the floor above the floor 23 of the object is also divided and moved so that the object 23 can be easily seen. Furthermore, the object 25 having a small “field area ratio inside and outside the field of view” moves easily.

本発明の提案する空間内における物体の表示方法は、実在する物理的な物体に限定されるものではない。それを応用例として図12、図13に示す。図12、図13は、概念空間とよばれる日常の物理空間と同じ座標からなる空間を示す。そこでは、概念を表現した物体を概念物体と呼ぶことにする。概念物体が、空間のある座標に位置しており、関連する概念物体同士は線で結ばれている。概念物体の距離や位置にも、その概念の性質を示すための意味あるパラメータが関連してある。ここでの概念物体は、ファイルを含むフォルダであったり、ある概念を象徴した物理的形状に具体化したものであったりする。概念物体は、図12のような3次元の立体のみならず、平面であったりもする。本発明では、この概念空間の性質そのものについての提案ではない。本発明の主張するところは、前述の物理空間と同様に、概念空間でも、検索などで、ある一つ以上の概念物体群を強調させたい場合や、閲覧者に知らせたい場合、概念物体の位置や形状を著しく大きく変えることなく、概念物体を視覚的にわかりやすく擬人的に知らせる表現方法である。   The method for displaying an object in a space proposed by the present invention is not limited to an actual physical object. This is shown in FIG. 12 and FIG. 13 as an application example. 12 and 13 show a space composed of the same coordinates as an everyday physical space called a concept space. Here, an object expressing a concept is called a concept object. Conceptual objects are located at certain coordinates in the space, and related conceptual objects are connected by lines. A meaningful parameter for indicating the nature of the concept is also related to the distance and position of the concept object. The concept object here may be a folder containing a file, or may be embodied in a physical shape symbolizing a certain concept. The conceptual object may be a plane as well as a three-dimensional solid as shown in FIG. The present invention is not a proposal for the nature of the concept space itself. The present invention claims that, in the same manner as in the physical space described above, in the conceptual space, when searching for one or more conceptual object groups by search or the like, or when informing the viewer, the position of the conceptual object. It is an expression method that informs a conceptual object visually and in an anthropomorphic manner without significantly changing the shape.

図12では、図6と同様に概念物体19、20、21が空間に配置されているが、各概念物体19、20、21にその性質を説明するラベルが張ってある。ラベルとして例えば、概念物体19は「昼食」、概念物体20は「公園」、概念物体21は「ビーチ」を現す。これらの座標には、意味があり、勝手に移動させたりしてはいけないなどの制約がある。それらは、関連性度によって、線22などで結ばれていたりする。   In FIG. 12, conceptual objects 19, 20, and 21 are arranged in a space as in FIG. 6, but each conceptual object 19, 20, 21 is labeled with a label explaining its nature. As a label, for example, the conceptual object 19 represents “lunch”, the conceptual object 20 represents “park”, and the conceptual object 21 represents “beach”. These coordinates are meaningful and have restrictions such as not allowing them to move without permission. They are connected by a line 22 or the like depending on the degree of relevance.

この空間の配置を視点から見た図を図13に示す。図13(a)は、概念物体になにも形状変化を適用していない場合の視界を示す。図13(b)は、検索などで、ラベルが「昼食」の概念物体19と、「公園」の概念物体20のみを強調表示させたい場合を示す。「昼食」の概念物体19は、視覚障害物がなく、物体すべてが見えるので、前述の数式1「可視部分面積率」は100パーセントである一方、小さいもしくは遠いので、小さくしか見えず、数式2の「視界内外面積率」は小さい。そのため、図13(b)では、若干拡大され、ライブラリから目立つ形状変化が適用され、閲覧者の目をひくようにしている。一方、「公園」の概念物体20は、前面の概念物体21が障害物となっているため、殆どが見えないので「可視部分面積率」が低く、このため、概念物体21を横にたおし、概念物体20自身の体を傾ける等の表現を施している。ただし、「視界内外面積率」は大きいので、目立ち度の高いあまり激しい動きはしない。これにより、閲覧者は、概念空間において、任意の視点から、概念物体の位置を大きくかえることなく、特定の1つ以上の概念がどこにあるか、一目でわかる。   FIG. 13 shows the arrangement of this space viewed from the viewpoint. FIG. 13A shows the field of view when no shape change is applied to the conceptual object. FIG. 13B shows a case where it is desired to highlight only the conceptual object 19 whose label is “lunch” and the conceptual object 20 whose “park” is used in search or the like. Since the concept object 19 of “lunch” has no visual obstacles and all objects can be seen, the above-described Equation 1 “Visible Partial Area Ratio” is 100%, while it is small or far, so it looks only small. The “inside / outside area ratio” is small. For this reason, in FIG. 13B, the shape is slightly enlarged and a noticeable shape change is applied from the library so as to attract the viewer's eyes. On the other hand, the conceptual object 20 of “park” has a low “visible partial area ratio” because the conceptual object 21 on the front surface is an obstacle, so that the “visible partial area ratio” is low. Expressions such as tilting the body of the conceptual object 20 itself are given. However, since the “inside / outside area ratio” is large, it does not move very vigorously. Thereby, the viewer can know at a glance where there is one or more specific concepts without changing the position of the conceptual object from an arbitrary viewpoint in the conceptual space.

本発明は、右目左目視差を持つ、いわゆる立体テレビの画像表示機器においても、使用が可能である。その場合、視点は、2つある。右目の視点と、そこからわずかにずれた位置にある左目の視点が存在する。この場合は、ある対象物に対しての前述の図2に示した「障害物がない場合の視界内外の対象物面積S1」や「可視部分の対象物面積S2」のそれぞれ右目の視点、左目の視点での値の平均をとるか、どちらか片方の値をとるかを行い、「可視部分面積率=S2/S1」と「視界内外面積率=S1/S0」を計算することができる。   The present invention can also be used in a so-called stereoscopic television image display device having right-eye left-eye parallax. In that case, there are two viewpoints. There is a right-eye viewpoint and a left-eye viewpoint that is slightly offset from the right-eye viewpoint. In this case, the right eye viewpoint and left eye of the “object area S1 inside and outside the field of view when there is no obstacle” and “object area S2 of the visible portion” shown in FIG. It is possible to calculate “visible partial area ratio = S2 / S1” and “visible / internal / external area ratio = S1 / S0” by taking the average of the values at the viewpoints or taking either one of the values.

本発明は、コンピュータグラフィックスによる3次元仮想空間や、概念空間における建物や概念物体などが複数空間的に配置されている中で、視覚的目的の対象物検索に効果を発揮する。3次元空間で配置されている対象物群の見え方は閲覧者の視点が変わると、対象物の大きさや、他の物体による陰面、視点から対象物までの距離などにより、大きく変わる。本発明の提案する表示方法により、視点が変わっても、見えにくい対象物は、閲覧者に見えるように、自分の体を傾けたり、お互い協調したりするなどの人間的な行動要素を与えることで、視覚的に見やすく、かつ心理的にも日常の経験でなれた閲覧者に話しかけるような表現方法を実現でき、閲覧者は、興味を保ちながら空間的配置の理解ができる。   INDUSTRIAL APPLICABILITY The present invention is effective for visual target object search in a plurality of spatially arranged three-dimensional virtual spaces by computer graphics, buildings and conceptual objects in a conceptual space, and the like. When the viewer's viewpoint changes, the appearance of the object group arranged in the three-dimensional space changes greatly depending on the size of the object, the hidden surface of another object, the distance from the viewpoint to the object, and the like. By the display method proposed by the present invention, even if the viewpoint changes, objects that are difficult to see are given human behavioral elements such as tilting their bodies and cooperating with each other so that they can be seen by the viewer Thus, it is possible to realize an expression method such as talking to a viewer who is visually easy to see and psychologically experienced in daily life, and the viewer can understand the spatial arrangement while keeping his interest.

本発明は、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、対象物の視界を妨げる障害物の画像より目立つ大きさ変化、形状変化、動き、点滅などの画像変化を用いて表示する場合に、閲覧者の視点に応じた適切な画像変化を用いて対象物の画像を表示することができるという効果を有し、カーナビゲーション装置、携帯端末などに利用することができる。   The present invention relates to an image change such as a size change, a shape change, a movement, and a blinking of an object image that is more conspicuous than an image of an obstacle that obstructs the field of view of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics When displaying using an image, the image of the object can be displayed using an appropriate image change according to the viewer's viewpoint, and can be used for a car navigation device, a portable terminal, or the like. it can.

対象物の画像変化の一例として形状変化を示す説明図である。(a)2次元仮想空間における物体の元のポリゴンを示す図(b)2次元仮想空間における物体のポリゴンが分割された状態を示す図(c)図1(b)のポリゴンが上方向に拡大された状態を示す図(d)図1(b)のポリゴンが上方向に拡大され、かつ上部が横方向に拡大された状態を示す図(e)図1(b)のポリゴンがある空間の点に向かって伸びて傾けられた状態を示す図It is explanatory drawing which shows a shape change as an example of the image change of a target object. (A) The figure which shows the original polygon of the object in 2D virtual space (b) The figure which shows the state where the polygon of the object in 2D virtual space was divided (c) The polygon of FIG.1 (b) expanded upwards FIG. 1 (d) showing the state where the polygon has been enlarged. FIG. 1 (b) showing the state in which the polygon in FIG. 1 (b) is enlarged upward and the upper part is enlarged in the horizontal direction. Diagram showing the state of being tilted while extending toward a point 本発明の面積率算出を示す説明図である。(a)視界2次元スクリーン上における「視界全体の面積」を示す図(b1)視界2次元スクリーン上における「障害物がない場合の視界内外の対象物面積」を示す図(b2)視界2次元スクリーン上における「障害物がない場合の視界内外の対象物面積」を示す図(c1)視界2次元スクリーン上における「可視部分の対象物面積」を示す図(c2)視界2次元スクリーン上における「可視部分の対象物面積」を示す図It is explanatory drawing which shows area ratio calculation of this invention. (A) View showing “area of entire view” on view 2D screen (b1) View showing “object area inside and outside view when there is no obstacle” on view 2D screen (b2) View 2D Figure showing "object area inside and outside the field of view when there is no obstacle" on the screen (c1) Figure showing "object area of the visible part" on the two-dimensional field of view (c2) "on the two-dimensional field of view" Figure showing `` object area of visible part '' 物体と陰面判定面と陰面判定面への物体による射影による面積を示す説明図である。It is explanatory drawing which shows the area by the projection by the object to an object, a hidden surface determination surface, and a hidden surface determination surface. 物体に適切な画像変化を適用するための本発明のアルゴリズムを示すフロー図である。FIG. 6 is a flow diagram illustrating an algorithm of the present invention for applying appropriate image changes to an object. 物体に適切な画像変化を適用するための本発明の3次元表示装置を示すブロック図である。It is a block diagram which shows the three-dimensional display apparatus of this invention for applying a suitable image change to an object. 従来の方法と本発明を比較するための説明図である。(a)画像変化を与えていない普通の物体群の例を示した鳥瞰図(b)従来の方法による画像変化を与えた場合の物体群の例を示した鳥瞰図(c)本発明による画像変化を与えた場合の物体群の例を示した鳥瞰図It is explanatory drawing for comparing the conventional method and this invention. (A) Bird's-eye view showing an example of a normal object group not giving an image change (b) Bird's-eye view showing an example of an object group when an image change is given by a conventional method (c) An image change according to the present invention Bird's eye view showing examples of objects when given 従来の方法と本発明を比較するための説明図である。(a)図6(a)の画像変化を与えていない例を視点からみた場合の視界を示した図(b)図6(b)の従来の画像変化を与えた例を視点からみた場合の視界を示した図(c1)図6(c)の本発明の画像変化を与えた例を視点からみた場合の視界を示した図(c2)図7(c1)を変形した視界を示した図It is explanatory drawing for comparing the conventional method and this invention. (A) FIG. 6 (b) shows the field of view when the example in which the image change is not given in FIG. 6 (a) is seen from the viewpoint. (B) The case in which the conventional image change in FIG. 6 (b) is given from the viewpoint. Figure (c1) showing the field of view (c1) Figure (c2) showing the field of view when the image change example of the present invention in FIG. 6 (c) is viewed from the viewpoint (c2) Figure showing the field of view modified from FIG. 7 (c1) 各対象物の陰面判定面を示す説明図である。(a)対象物11に関する陰面判定面を設置した場合の鳥瞰図(b)対象物10に関する陰面判定面を設置した場合の鳥瞰図(c)対象物12に関する陰面判定面を設置した場合の鳥瞰図(d)対象物13に関する陰面判定面を設置した場合の鳥瞰図(e)対象物14に関する陰面判定面を設置した場合の鳥瞰図It is explanatory drawing which shows the hidden surface determination surface of each target object. (A) Bird's-eye view when the hidden surface determination surface related to the object 11 is installed (b) Bird's-eye view when the hidden surface determination surface related to the object 10 is installed (c) Bird's-eye view when the hidden surface determination surface related to the object 12 is installed (d ) Bird's-eye view when the hidden surface determination surface related to the object 13 is installed (e) Bird's-eye view when the hidden surface determination surface related to the object 14 is installed 本発明の陰面判定を示す説明図である。(a1)対象物11に関する陰面判定を視点から見た場合の図(a2)対象物11に画像形状変化を適用した対象物11に関する陰面判定を視点から見た場合の図(b1)対象物10に関する陰面判定を視点から見た場合の図(b2)対象物10に画像変化を適用した対象物10に関する陰面判定を視点から見た場合の図(c1)対象物12に関する陰面判定を視点から見た場合の図(c2)対象物12に画像変化を適用した対象物12に関する陰面判定を視点から見た場合の図It is explanatory drawing which shows the hidden surface determination of this invention. (A1) Diagram when the hidden surface determination relating to the object 11 is viewed from the viewpoint (a2) Diagram when the hidden surface determination regarding the object 11 in which the image shape change is applied to the object 11 is viewed from the viewpoint (b1) The object 10 Figure (b2) when the hidden surface determination for the object 10 is viewed from the viewpoint (b2) Figure when the hidden surface determination for the object 10 in which the image change is applied to the object 10 is viewed from the viewpoint (c1) The hidden surface determination regarding the object 12 is viewed from the viewpoint (C2) in the case where the image is viewed from the viewpoint of the hidden surface determination relating to the object 12 in which the image change is applied to the object 12 本発明の陰面判定を示す説明図である。(d1)対象物13に関する陰面判定を視点から見た場合の図(d2)対象物13に画像変化を適用した対象物13に関する陰面判定を視点から見た場合の図(e1)対象物14に関する陰面判定を視点から見た場合の図(e2)対象物14に画像変化を適用した対象物14に関する陰面判定を視点から見た場合の図It is explanatory drawing which shows the hidden surface determination of this invention. (D1) A view when the hidden surface determination related to the object 13 is viewed from the viewpoint (d2) A view when the hidden surface determination regarding the object 13 to which the image change is applied to the object 13 is viewed from the viewpoint (e1) related to the object 14 Figure (e2) when hidden surface determination is viewed from the viewpoint (e2) Figure when the hidden surface determination regarding the object 14 in which the image change is applied to the object 14 is viewed from the viewpoint 上空から下方の建物を見た3次元仮想空間を示す説明図である。(a)元の図(b)本発明を適用した図It is explanatory drawing which shows the three-dimensional virtual space which looked at the lower building from the sky. (A) Original drawing (b) Drawing to which the present invention is applied 概念空間内の概念物体を示した鳥瞰図である。It is the bird's-eye view which showed the conceptual object in conceptual space. 図12の平面図である。(a)図12の画像変化を与えていない例を視点からみた視界を示した図(b)図12の画像変化を対象物体に与えたときの例を視点からみた視界を示した図FIG. 13 is a plan view of FIG. 12. (A) A view showing a view from the viewpoint of an example in which the image change of FIG. 12 is not given. (B) A view showing a view from the viewpoint of an example when the image change of FIG. 12 is given to a target object.

符号の説明Explanation of symbols

1 分割されたポリゴンのセグメント
2 分割されたポリゴンのセグメントのベクトル
3 対象物を形状変化によりもっていきたい地点
4 「視界全体の面積」を示す枠
5 「障害物がない場合の視界内外の対象物面積」を示す枠
6 「可視部分の対象物面積」を示す枠
7 視界の境界
8 障害物
9 障害物
10 対象物
11 対象物
12 対象物
13 対象物
14 対象物
15 視線
16 注視点
17 陰面判定面
18 陰面セル
19 昼食という名のフォルダ
20 公園という名のフォルダ
21 ビーチという名のフォルダ
22 フォルダ同士の関係を示す線
101 入力部
102 パラメータ評価部
103 画像形状変化評価部
104 投影面積計算部
105 3次元物体データ
106 ライブラリ
107 画像表示部
1 Segment of polygon segment 2 Vector of segment segment of polygon 3 Point 4 where the object is to be moved due to shape change Frame 5 indicating “area of the entire field of view” “Object inside and outside the field of view when there are no obstacles” Frame 6 indicating “Area” Frame indicating “Object area of visible portion” 7 Boundary of view 8 Obstacle 9 Obstacle 10 Object 11 Object 12 Object 13 Object 14 Object 15 Line of sight 16 Point of gaze 17 Hidden surface determination Surface 18 Hidden surface cell 19 Folder named lunch 20 Folder named park 21 Folder named beach 22 Line 101 indicating the relationship between folders Input section 102 Parameter evaluation section 103 Image shape change evaluation section 104 Projected area calculation section 105 3 Dimensional object data 106 Library 107 Image display unit

Claims (8)

コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、前記対象物の視界を妨げる障害物の画像より目立つ画像変化を用いて表示する3次元表示装置において、
前記3次元仮想空間又は3次元概念空間における閲覧者の視点から前記対象物までの距離を算出する手段と、
前記算出された距離に基づいて、閲覧者の視点から遠い対象物ほどより目立つ画像変化で表示し、閲覧者の視点から近い対象物ほど目立たない画像変化で表示する手段とを、
有することを特徴とする3次元表示装置。
In a three-dimensional display device that displays an image of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics using an image change that stands out from an image of an obstacle that obstructs the field of view of the object,
Means for calculating a distance from a viewer's viewpoint in the three-dimensional virtual space or a three-dimensional concept space to the object;
Based on the calculated distance, means for displaying an image change that is more conspicuous as the object is farther from the viewer's viewpoint, and displaying the image change that is less conspicuous as the object is closer to the viewer's viewpoint;
A three-dimensional display device comprising:
コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、前記対象物の視界を妨げる障害物の画像より目立つ画像変化を用いて表示する3次元表示装置において、
障害物がない場合の視界内外の対象物の面積S1と、障害物がある場合の対象物の可視部分の面積S2とを算出して、対象物の可視部分の面積率=S2/S1を算出する面積率算出手段と、
前記面積率=S2/S1が小さいほど目立つ画像変化で表示して前記面積率=S2/S1が大きいほど目立たない画像変化で表示する手段とを、
有することを特徴とする3次元表示装置。
In a three-dimensional display device that displays an image of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics using an image change that stands out from an image of an obstacle that obstructs the field of view of the object,
The area S1 of the object inside and outside the field of view when there is no obstacle and the area S2 of the visible part of the object when there is an obstacle are calculated, and the area ratio of the visible part of the object = S2 / S1 is calculated. Means for calculating the area ratio;
Means for displaying with a noticeable image change as the area ratio = S2 / S1 is smaller, and displaying with a less noticeable image change as the area ratio = S2 / S1 is larger.
A three-dimensional display device comprising:
閲覧者の視点から見た2次元スクリーンにおける視界全体の面積S0を算出して、障害物がない場合の視界内外の対象物の面積率=S1/S0を算出し、前記面積率=S1/S0が小さいほど目立つ画像で表示して前記面積率=S1/S0が大きいほど目立たない画像で表示することを特徴とする請求項2に記載の3次元表示装置。   The area S0 of the entire field of view on the two-dimensional screen viewed from the viewer's viewpoint is calculated, and the area ratio of the object inside and outside the field of view when there is no obstacle = S1 / S0 is calculated, and the area ratio = S1 / S0. The three-dimensional display device according to claim 2, wherein a smaller image is displayed with a conspicuous image, and a larger image with less area conspicuous as the area ratio = S1 / S0 is larger. 前記障害物がある場合の対象物の可視部分の面積S2を大きくして前記面積率=S2/S1を大きくする画像変化で、前記可視部分を目立たせることを特徴とする請求項2又は3に記載の3次元表示装置。   The visible portion is made conspicuous by an image change that increases the area ratio = S2 / S1 by increasing the area S2 of the visible portion of the object in the presence of the obstacle. The three-dimensional display device described. 前記面積率算出手段は、前記視点から近い対象物から先に順次、前記面積率=S2/S1を算出してその対象物の可視部分の面積S2を大きくして、面積S2を変化させた対象物の前記面積率=S2/S1の変化を考慮して、その後方の対象物の前記面積率=S2/S1を算出することを特徴とする請求項4に記載の3次元表示装置。   The area ratio calculating means calculates the area ratio = S2 / S1 sequentially from the object close to the viewpoint, and increases the area S2 of the visible portion of the object, thereby changing the area S2. 5. The three-dimensional display device according to claim 4, wherein the area ratio = S2 / S1 of the object behind the object is calculated in consideration of the change of the area ratio = S2 / S1 of the object. 前記3次元仮想空間又は3次元概念空間における前記対象物の体積を算出し、前記算出した体積が小さい対象物ほど目立つ画像変化で表示し、前記算出した体積が大きいほど目立たない画像変化で表示することを特徴とする請求項1から5のいずれか1つに記載の3次元表示装置。   The volume of the object in the three-dimensional virtual space or the three-dimensional conceptual space is calculated, and the object with a smaller calculated volume is displayed with a more noticeable image change, and the larger the calculated volume is displayed with a less noticeable image change. The three-dimensional display device according to any one of claims 1 to 5, wherein 前記対象物を目立たせた画像で表示してもその前に表示される障害物により目立たない場合に、前記対象物が目立つように前記障害物を形状変化させることを特徴とする請求項1から6のいずれか1つに記載の3次元表示装置。   The shape of the obstacle is changed so that the object is conspicuous when the object is displayed as a conspicuous image but is not conspicuous due to an obstacle displayed before the object. The three-dimensional display device according to any one of 6. 前記3次元仮想空間は上空から下方の建物を見たものであって、前記対象物は前記建物内のフロアであり、前記障害物は前記フロアより上のフロアであることを特徴とする請求項1から7のいずれか1つに記載の3次元表示装置。   The three-dimensional virtual space is a view of a building below from above, wherein the object is a floor in the building, and the obstacle is a floor above the floor. The three-dimensional display device according to any one of 1 to 7.
JP2007079197A 2007-03-26 2007-03-26 3D display device Active JP4829157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007079197A JP4829157B2 (en) 2007-03-26 2007-03-26 3D display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007079197A JP4829157B2 (en) 2007-03-26 2007-03-26 3D display device

Publications (2)

Publication Number Publication Date
JP2008242596A true JP2008242596A (en) 2008-10-09
JP4829157B2 JP4829157B2 (en) 2011-12-07

Family

ID=39913905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007079197A Active JP4829157B2 (en) 2007-03-26 2007-03-26 3D display device

Country Status (1)

Country Link
JP (1) JP4829157B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024981A1 (en) * 2022-07-28 2024-02-01 Softbank Corp. Information processing method, non-transitory computer-readable storage medium, and information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072669A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2006146338A (en) * 2004-11-16 2006-06-08 Sony Computer Entertainment Inc Entertainment device, device and method for displaying object, program, and method for displaying character
JP2006221534A (en) * 2005-02-14 2006-08-24 Toyota Auto Body Co Ltd Digital mock-up system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072669A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2006146338A (en) * 2004-11-16 2006-06-08 Sony Computer Entertainment Inc Entertainment device, device and method for displaying object, program, and method for displaying character
JP2006221534A (en) * 2005-02-14 2006-08-24 Toyota Auto Body Co Ltd Digital mock-up system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024981A1 (en) * 2022-07-28 2024-02-01 Softbank Corp. Information processing method, non-transitory computer-readable storage medium, and information processing device

Also Published As

Publication number Publication date
JP4829157B2 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
EP2732436B1 (en) Simulating three-dimensional features
EP2936441B1 (en) Method for representing virtual information in a real environment
Pfautz Depth perception in computer graphics
US20110084983A1 (en) Systems and Methods for Interaction With a Virtual Environment
US20120200600A1 (en) Head and arm detection for virtual immersion systems and methods
CN107209565B (en) Method and system for displaying fixed-size augmented reality objects
KR20170007102A (en) Device and method for generating and displaying three-dimentional map
CN110888567A (en) Location-based virtual element modality in three-dimensional content
US20220005283A1 (en) R-snap for production of augmented realities
JP7421505B2 (en) Augmented reality viewer with automated surface selection and content orientation placement
JP6693223B2 (en) Information processing apparatus, information processing method, and program
JP7155291B2 (en) environment movement
US20170104982A1 (en) Presentation of a virtual reality scene from a series of images
CN112396705A (en) Mitigation of small field of view display using transitional visual content
KR20190048360A (en) Method and apparatus for processing image
Trapp et al. Strategies for visualising 3D points-of-interest on mobile devices
WO2017037952A1 (en) Program, recording medium, content provision device, and control method
JP4829157B2 (en) 3D display device
KR101428577B1 (en) Method of providing a 3d earth globes based on natural user interface using motion-recognition infrared camera
KR20180122248A (en) Apparatus for providing interactive content and method for the same
US20230396750A1 (en) Dynamic resolution of depth conflicts in telepresence
WO2017169272A1 (en) Information processing device, information processing method, and program
Engel et al. An immersive visualization system for virtual 3d city models
JP2017097854A (en) Program, recording medium, content providing device, and control method
US20150365657A1 (en) Text and graphics interactive display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4829157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250