JP2008242596A - Three-dimensional display apparatus - Google Patents
Three-dimensional display apparatus Download PDFInfo
- Publication number
- JP2008242596A JP2008242596A JP2007079197A JP2007079197A JP2008242596A JP 2008242596 A JP2008242596 A JP 2008242596A JP 2007079197 A JP2007079197 A JP 2007079197A JP 2007079197 A JP2007079197 A JP 2007079197A JP 2008242596 A JP2008242596 A JP 2008242596A
- Authority
- JP
- Japan
- Prior art keywords
- image
- view
- area ratio
- viewpoint
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、対象物の視界を妨げる障害物の画像より目立つ大きさ変化、形状変化、動き、点滅などの画像変化を用いて表示する3次元表示装置に関する。
特に本発明は、コンピュータグラフィックによる3次元仮想空間で物体を表示する場合に、とりわけ、閲覧者の興味のあるもの、検索の対象となるもの、関心を注ぎたい対象物などの対象物群へ、他の物体から視覚的に区別しやすくかつ、心理的に興味を注がせる表現方法に関する。
The present invention relates to an image change such as a size change, a shape change, a movement, and a blinking of an object image that is more conspicuous than an image of an obstacle that obstructs the field of view of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics. The present invention relates to a three-dimensional display device that displays using a screen.
In particular, when displaying an object in a three-dimensional virtual space based on computer graphics, the present invention provides, among other things, an object group such as an object of interest of a viewer, an object of search, an object of interest, etc. The present invention relates to an expression method that is easily visually distinguishable from other objects and that is psychologically interesting.
実際の3次元空間をコンピュータグラフィック(CG)で3次元仮想空間として再現するシステムは、閲覧者に、実際の3次元の空間にいるような感覚を与えることができ、地図中の対象物検索などに使われる。3次元で建物や山などの物体をCGで表現し、視点を人の高さと同じようにすることで、実際の空間に自分がいたときに目撃する光景を再現することができる。特に検索システムやナビゲーションシステムにおいて、周りの物体は、興味の対象物であり、視覚的な障害物にもなるため、閲覧者の検索したい建物を閲覧者に視覚的に知らせるためには、障害物を透明、半透明にしたり、対象物に印をつけたり、対象物や障害物の色を変えたり、対象物の方向を向いた矢印を付けたりなどの表現方法、手法が用いられる。 A system that reproduces an actual three-dimensional space as a three-dimensional virtual space by computer graphics (CG) can give the viewer a sense of being in an actual three-dimensional space, and search for an object in a map. Used for. By representing objects such as buildings and mountains in 3D with CG and making the viewpoint the same as the height of a person, it is possible to reproduce the sight witnessed when you are in real space. Especially in search systems and navigation systems, the surrounding objects are objects of interest and can also be visual obstacles. To visually inform the viewer of the building that the viewer wants to search, the obstacle Expression methods and techniques are used, such as making the object transparent or translucent, marking the object, changing the color of the object or obstacle, or attaching an arrow pointing in the direction of the object.
さらに下記の特許文献1、2では、人間は静止しているものより動くものに注意がいくという心理を利用し、対象物のみをアニメーションとして、左右に揺らしたり、形状を変形したり、また元の形状に戻したりなどの動的処理をすることで、視覚的効果により閲覧者がその対象物に関心がいくように誘導することができる。
前述の、対象物にのみ矢印などのマークを付けたり、障害物を透明に表示する方法は、対象物が1つの場合、有効であるが、対象物が複数あり、かつそれが視線に沿って奥行きに複数並んでいる場合、それらを区別するのに、矢印が重なったり、透明にできなかったりするなどの問題がある。地図を見ている場合、視点を真上からに移動させることで、対象群が明らかに見えるように思えるが、例えば、対象物がフロアであり、一つのビルの複数の特定のフロア群を表現したい場合などは、真上から見たのでは、重なってしまい区別がつかない。空間に任意に配置された複数の物体群を一目で見られる視点は、必ずしも存在しない。 The above-described method of marking only an object with an arrow or the like, or displaying an obstacle transparently is effective when there is only one object, but there are a plurality of objects and they are along the line of sight. When there are multiple lines in the depth, there are problems such as overlapping arrows or being unable to make them transparent to distinguish them. When looking at a map, it seems that the target group can be clearly seen by moving the viewpoint from directly above, but for example, the target object is a floor and expresses a plurality of specific floor groups of one building If you want to do it, you can't distinguish from the top view. There is not necessarily a viewpoint at which a plurality of object groups arbitrarily arranged in space can be seen at a glance.
これらに対する解決策としては、対象物の形状を変形させることが考えられる。その方法として、特許文献1では、人が動的なものに関心を寄せるという心理を併用し、関心のある建物などを揺らすアニメーション等の表現方法が提案されているが、閲覧者の視点によって物体の見え方が大きく変わるにもかかわらず、以下のように、視点によるアニメーション表現の依存性には言及されていない。
As a solution to these problems, it is conceivable to change the shape of the object. As a method for this,
物体が3次元空間に存在する以上、閲覧者のいる位置(視点)によって、物体は様々な見えかたをする。
・普通に見えるもの、
・実際のサイズが小さくて小さく見えるもの、
・実際のサイズが大きくても遠くて小さく見えるもの、
・実際のサイズが小さくても近くで大きく見えるもの、
・実際のサイズが大きくても形状が横長なので横から見ると小さく見えるもの、
・他の物体により視覚的に遮断されて見えないもの、
・閲覧者のすぐ近くにあっても閲覧者が違う方向を見ているので視界の境界に入らず見えないものなどである。したがって、その状況に応じて、適切な視覚的表示方法を、対象物に適用しなければいけない。
As long as the object exists in the three-dimensional space, the object looks different depending on the position (viewpoint) where the viewer is.
・ Things that look normal,
・ The actual size is small and looks small,
・ Even if the actual size is large, it looks far and small,
・ Even if the actual size is small, it will appear large in the vicinity,
-Even if the actual size is large, the shape is horizontally long, so it looks small when viewed from the side,
・ Things that are visually blocked by other objects,
-Even if it is in the immediate vicinity of the viewer, the viewer is looking in a different direction, so it cannot enter the boundary of view and cannot be seen. Therefore, an appropriate visual display method must be applied to the object according to the situation.
そのために、特許文献1の表現方法を適用すると、視点が動いた場合、視覚的な問題として、対象物の動的運動は、視点の見る角度、方向によっては、見る視線に平行に揺れるような場合は、視点からはわかりにくくなる場合がある。また、
・たまたま対象物の建物の左右の少し手前に隣接する建物があれば、建物が左右に揺れても、動きが隠れてしまうなどの問題がある。
・さらに、対象物が複数ある場合、対象物を揺らしても、一つの対象物が視点から近くにあり、他の対象物ははるか遠くにあるとき、遠い方の物体の動的変化が小さすぎてわかりにくい。
・もしくは、近い方の対象物が、視界以上に大げさに揺れ、閲覧者に目障りと感じられる。
・また、心理的な問題としても、閲覧者が自分を無視して、対象物が無機的に一方的に動いていると悟ってしまうと、動く対象物への関心を失ってしまう。
Therefore, when the expression method of
・ If there is a building adjacent to the right and left of the building of the target object, there is a problem that even if the building swings to the left or right, the movement is hidden.
・ Furthermore, when there are multiple objects, even if the object is shaken, when one object is near from the viewpoint and the other objects are far away, the dynamic change of the far object is too small It is difficult to understand.
・ Also, the nearer object shakes more loudly than the field of view, and the viewer feels annoying.
-Also, as a psychological problem, if the viewer ignores himself and realizes that the object is moving unilaterally inorganically, he loses interest in the moving object.
本発明は上記従来例の問題点に鑑み、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、対象物の視界を妨げる障害物の画像より目立つ大きさ変化、形状変化、動き、点滅などの画像変化を用いて表示する場合に、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる3次元表示装置を提供することを目的とする。 In view of the above-described problems of the conventional example, the present invention provides a three-dimensional virtual space or a three-dimensional conceptual space based on computer graphics in which an object image is noticeably larger in size and shape than an obstacle image that obstructs the field of view of the object. A three-dimensional display device capable of conspicuously displaying a three-dimensional image of an object using an appropriate image change according to a viewer's viewpoint when displaying using image changes such as movement and blinking The purpose is to provide.
本発明は上記目的を達成するために、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、前記対象物の視界を妨げる障害物の画像より目立つ画像変化を用いて表示する3次元表示装置において、
前記3次元仮想空間又は3次元概念空間における閲覧者の視点から前記対象物までの距離を算出する手段と、
前記算出された距離に基づいて、閲覧者の視点から遠い対象物ほどより目立つ画像変化で表示し、閲覧者の視点から近い対象物ほど目立たない画像変化で表示する手段とを、
有することを特徴とする。
この構成により、閲覧者の視点から対象物までの距離を算出して、閲覧者の視点から遠い対象物ほどより目立つ画像変化で表示し、閲覧者の視点から近い対象物ほど目立たない画像変化で表示するので、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる。
In order to achieve the above object, the present invention displays an image of an object in a three-dimensional virtual space or a three-dimensional conceptual space by computer graphics using an image change that is more conspicuous than an image of an obstacle that obstructs the visual field of the object. In the three-dimensional display device
Means for calculating a distance from a viewer's viewpoint in the three-dimensional virtual space or a three-dimensional concept space to the object;
Based on the calculated distance, means for displaying an image change that is more conspicuous as the object is farther from the viewer's viewpoint, and displaying the image change that is less conspicuous as the object is closer to the viewer's viewpoint;
It is characterized by having.
With this configuration, the distance from the viewer's viewpoint to the object is calculated, the object farther from the viewer's viewpoint is displayed with a more noticeable image change, and the object closer to the viewer's viewpoint is displayed with less noticeable image change. Since it displays, the three-dimensional image of a target object can be made conspicuous and displayed using the suitable image change according to a viewer's viewpoint.
また、本発明は上記目的を達成するために、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、前記対象物の視界を妨げる障害物の画像より目立つ画像変化を用いて表示する3次元表示装置において、
障害物がない場合の視界内外の対象物の面積S1と、障害物がある場合の対象物の可視部分の面積S2とを算出して、対象物の可視部分の面積率=S2/S1を算出する面積率算出手段と、
前記面積率=S2/S1が小さいほど目立つ画像変化で表示して前記面積率=S2/S1が大きいほど目立たない画像変化で表示する手段とを、
有することを特徴とする。
この構成により、障害物がある場合の対象物の可視部分の面積率=S2/S1が小さいほど目立つ画像で表示して、面積率=S2/S1が大きいほど目立たない画像変化で表示するので、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる。
In order to achieve the above object, the present invention uses an image change that makes an image of an object more conspicuous than an image of an obstacle that obstructs the field of view of the object in a three-dimensional virtual space or a three-dimensional conceptual space by computer graphics. In a three-dimensional display device that displays
The area S1 of the object inside and outside the field of view when there is no obstacle and the area S2 of the visible part of the object when there is an obstacle are calculated, and the area ratio of the visible part of the object = S2 / S1 is calculated. Means for calculating the area ratio;
Means for displaying with a noticeable image change as the area ratio = S2 / S1 is smaller, and displaying with a less noticeable image change as the area ratio = S2 / S1 is larger.
It is characterized by having.
With this configuration, the area ratio of the visible portion of the object when there is an obstacle = S2 / S1 is displayed with a conspicuous image, and the area ratio = S2 / S1 is displayed with a non-conspicuous image change. A three-dimensional image of an object can be made conspicuous and displayed using an appropriate image change according to the viewer's viewpoint.
また、本発明は、閲覧者の視点から見た2次元スクリーンにおける視界全体の面積S0を算出して、障害物がない場合の視界内外の対象物の面積率=S1/S0を算出し、前記面積率=S1/S0が小さいほど目立つ画像で表示して前記面積率=S1/S0が大きいほど目立たない画像で表示することを特徴とする。
また、前記障害物がある場合の対象物の可視部分の面積S2を大きくして前記面積率=S2/S1を大きくする画像変化で、前記可視部分を目立たせることを特徴とする。
また、前記面積率算出手段は、前記視点から近い対象物から先に順次、前記面積率=S2/S1を算出してその対象物の可視部分の面積S2を大きくして、面積S2を変化させた対象物の前記面積率=S2/S1の変化を考慮して、その後方の対象物の前記面積率=S2/S1を算出することを特徴とする。
また、前記3次元仮想空間又は3次元概念空間における前記対象物の体積を算出し、前記算出した体積が小さい対象物ほど目立つ画像変化で表示し、前記算出した体積が大きいほど目立たない画像変化で表示することを特徴とする。
また、前記対象物を目立たせた画像で表示してもその前に表示される障害物により目立たない場合に、前記対象物が目立つように前記障害物を形状変化させることを特徴とする。
また、前記3次元仮想空間は上空から下方の建物を見たものであって、前記対象物は前記建物内のフロアであり、前記障害物は前記フロアより上のフロアであることを特徴とする。
Further, the present invention calculates the area S0 of the entire field of view on the two-dimensional screen viewed from the viewer's viewpoint, calculates the area ratio of objects inside and outside the field of view when there is no obstacle = S1 / S0, The smaller the area ratio = S1 / S0, the more conspicuous the image is displayed, and the larger the area ratio = S1 / S0, the less conspicuous the image is displayed.
Further, the visible portion is made conspicuous by an image change that increases the area ratio = S2 / S1 by increasing the area S2 of the visible portion of the object in the presence of the obstacle.
Further, the area ratio calculating means calculates the area ratio = S2 / S1 sequentially from the object close to the viewpoint, and increases the area S2 of the visible portion of the object, thereby changing the area S2. In consideration of the change of the area ratio = S2 / S1 of the target object, the area ratio = S2 / S1 of the target object behind the target object is calculated.
Further, the volume of the object in the three-dimensional virtual space or the three-dimensional conceptual space is calculated, and the object with a smaller calculated volume is displayed with a noticeable image change, and the image change with less noticeable as the calculated volume is larger. It is characterized by displaying.
In addition, when the object is displayed as a conspicuous image but is not conspicuous due to an obstacle displayed before the object, the shape of the obstacle is changed so that the object is conspicuous.
The three-dimensional virtual space is a view of a building below from above, wherein the object is a floor in the building, and the obstacle is a floor above the floor. .
本発明によれば、閲覧者の視点に応じた適切な画像変化を用いて対象物の3次元画像を目立たせて表示することができる。このため、閲覧者の視点をより意識した、視覚的に閲覧者の視点からさらに見やすく、心理的に擬人化された対象物により、人に会うような日常の経験に沿った検索を行え、関心をそそる空間情報案内を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the three-dimensional image of a target object can be made to stand out and displayed using the suitable image change according to a viewer's viewpoint. For this reason, it is possible to search according to daily experiences such as meeting people with objects that are more easily visible from the viewer's viewpoint, more psychologically anthropomorphic, with more awareness of the viewer's viewpoint. It is possible to provide a spatial information guide.
以下、図面を参照して本発明の実施の形態について説明する。ここで、本発明では、上記の「課題」で説明した視覚的、心理的な問題を解決し、適切な対象物や障害物への動的変化のパターンを決定するべく、いかに、3次元の物体が最終的に閲覧者の視界の2次元のスクリーン上に見えるかを考慮する。そのために、まず考えられる方法として、対象物群と視点との距離を考える。さらに、対象物群の体積、それを構成している面の面積を考える。さらに、もっと正確な方法としては、対象物や障害物などのすべての3次元物体を閲覧者の目に見える視界の2次元スクリーン上に視点から射影された面積を考える。その面積から後述する2つのパラメータを定義し、それにより適切な擬人化された画像もしくは形状変化を対象物や障害物に与える。ここでいう擬人化された変化とは、閲覧者が対象物群を検索するという行為を、閲覧者という主人公が対象物という別の人間に約束をして出会うような場面での人間の行為とし、それを模倣させるものである。これにより、閲覧者は普段日常で行う行為を検索の中で行えることで、より空間的配置を理解しやすいシステムを提供できる。 Embodiments of the present invention will be described below with reference to the drawings. Here, in the present invention, in order to solve the visual and psychological problems described in the above “problem” and determine a pattern of dynamic change to an appropriate object or obstacle, Consider whether the object will eventually appear on a two-dimensional screen in the viewer's field of view. Therefore, as a possible method, first consider the distance between the object group and the viewpoint. Further, consider the volume of the object group and the area of the surface that constitutes it. Furthermore, as a more accurate method, an area in which all three-dimensional objects such as an object and an obstacle are projected from a viewpoint on a two-dimensional screen of a view visible to the viewer is considered. Two parameters, which will be described later, are defined from the area, thereby giving an appropriate anthropomorphic image or shape change to the object or obstacle. An anthropomorphic change here refers to the act of a person searching for a group of objects as the action of a person in a situation where the main character, the viewer, meets another person who is the object. It is something that imitates it. Thereby, a viewer can provide a system in which the spatial arrangement can be easily understood by performing a daily action in the search.
前述の投影により2つのパラメータを使う方法において、
・一つ目のパラメータは、対象物が障害物や視界の境界のために、どれほど隠れてしまうかを示す、「遮断」、「陰面」に関する指標である。他の建物による障害物や、視界から外されていたりすると、対象物が閲覧者から見られていないと判断し、見える位置まで体を背伸びしたり、傾けたり、視覚的障害物を傾けたりする。
・もう一つのパラメータは、3次元物体が視界の2次元のスクリーン上でどのくらいの大きさでスクリーン全体を占めているかを示す指標である。これは、前述のように、対象物がいくら背伸びをしたり頭を傾けたりして閲覧者に見られるように形状変化をしても、対象物が閲覧者の目から遠い位置にあり自分が小さくしか見えないか、もしくはもともと対象物のサイズが小さいので、小さくしか見えないなどの見過ごされそうかどうかを示す指標である。その場合は対象物は、画像変化させたり、ジャンプや、踊り、などの激しい動きをして、手を振って「おーい、こっち!」と人間的な演出の画像変化(顔テクスチャ)で主張させる。
In the method using two parameters by the above projection,
The first parameter is an index related to “blocking” and “hidden surface” indicating how much the object is hidden due to an obstacle or a boundary of view. If the obstacle is due to another building or is out of sight, the object is judged not to be seen by the viewer, and the body is stretched to the position where it can be seen, tilted, or the visual obstacle tilted. .
Another parameter is an index indicating how large the 3D object occupies the entire screen on the 2D screen in view. This is because, as described above, even if the object changes shape so that it can be seen by the viewer by stretching back or tilting the head, the object is still far from the viewer's eyes. It is an index that indicates whether the object can be overlooked, such as it can only be seen small, or the object is originally small in size, so that it can only be seen small. In such a case, the object will change its image, make a fierce movement such as jumping or dancing, and wave its hand to say "Oh, this!" With a human-directed image change (face texture) .
(実施の形態)
はじめに、一般的な対象物や障害物に、いかに形状の画像変化を与えられるかについて図1で述べる。形状の画像変化とは、対象物や障害物が必要に応じて、左右にゆれたり、形状が伸びたり、拡大したりして画像が変化することを言う。図1(a)に、マップデータから得られた建物の3次元データにもとづくポリゴン形状を示す。形状変化を必要とされる際は、なめらかな建物の形状の歪みを再現するため、通常の形状(3次元データ)をさらに分割する。例えば単純な直方体の建物の場合、図1(b)に示すように垂直方向に10分割したセグメント1に書き換える。これは、すべての建物をはじめから分割するとコンピュータの使用メモリを増やしてしまうため、対象となる建物に対してのみ随時分割処理を施せばよい。
(Embodiment)
First, how to change the shape of an image on a general object or obstacle will be described with reference to FIG. The shape image change means that the image changes as the object or obstacle is swayed from side to side, the shape is stretched, or enlarged as necessary. FIG. 1A shows a polygon shape based on three-dimensional building data obtained from map data. When a change in shape is required, the normal shape (three-dimensional data) is further divided in order to reproduce a smooth distortion of the shape of the building. For example, in the case of a simple rectangular parallelepiped building, as shown in FIG. This is because if all the buildings are divided from the beginning, the memory used by the computer is increased. Therefore, it is only necessary to perform division processing on the target buildings as needed.
さらにこれに、形状の変化を与えた例を、図1(c)、(d)、(e)に示す。図1(c)は、単純に建物が高さ方向に拡大した「背伸び」をした場合(図のベクトル2)、図1(d)は「背伸び」をして、かつ、建物の上部ほど大きく横に拡大した場合、図1(e)は「背伸び」をして、かつ、建物の上部が横に曲がった場合を示す。これらの歪みをプログラムで実現するためには、2次以上の多次元関数、反比例関数、対数関数などによる座標変換を行うなどの手法で実現される。また、図1(e)示すように建物の上部を地点3にまで曲げたい場合は、建物の中心底面から、地点3までの角度を、分割したセグメント1の数の分だけ分割し、各分割されたセグメント1を表すベクトル2の和で地点3まで到達できるようにすることで、建物が地点3まで曲がっているように見える効果を作り出せる。仮にこれらを動的に表示するには、一定の時間周期で通常の形状である図1(b)に戻ったり、また変形した状態に変わったりすることで動的に演出できる。画像のみを変えたい場合は、視点方向を向いている顔などのテクスチャを変化させることで実現できる。
Further, examples in which the shape is changed are shown in FIGS. 1C, 1D, and 1E. Fig. 1 (c) shows a case where the building is simply stretched in the height direction (back stretch) (
本発明でいう「画像変化」とは、時間軸において常に動的に画像や形状が変化するものと、画像や形状が変わり、そのまま変わったまま静止するものを含む。さらに、点滅、色変化などを含み、また、複数種類の画像変化を組み合わせたものを含む。また、ここでいう対象物は、建物の固体一つと限定せず、ある建物の一つのフロアだけであったり、複数の建物からなる連であったり、後述の概念空間における概念を示す物体であったり、概念を示す面であったりする場合も含む。対象物が建物の特定のフロアである場合は、そのフロアだけ、形状が変化したり、画像が変化したりする。 The “image change” referred to in the present invention includes a case where the image or shape always changes dynamically on the time axis, and a case where the image or shape changes and remains unchanged as it is. Further, it includes blinking, color change, etc., and also includes a combination of multiple types of image changes. The object here is not limited to a single building, but is only one floor of a building, a series of buildings, or an object that represents a concept in the concept space described later. Or a surface showing a concept. When the object is a specific floor of a building, the shape or the image changes only on that floor.
これら対象物や障害物の形状変化などは、閲覧者の変化する視点の位置に対応できるよう、視点から変形させる物体までの視線ベクトルを考え、形状変化が常に、視線ベクトルを法線とする平面、および曲面上で動くことが望ましい。これにより視点から、物体の変化が見やすくなる。視点が変われば、当然、形状変化する方向も変わる。 The shape change of these objects and obstacles is a plane that always takes the line-of-sight vector as a normal line, considering the line-of-sight vector from the viewpoint to the object to be deformed so that it can correspond to the position of the viewpoint that the viewer changes. It is desirable to move on a curved surface. This makes it easy to see changes in the object from the viewpoint. If the viewpoint changes, the direction of shape change naturally changes.
前述のような画像や形状変化のどういうものを、どのような速さ、どの時間周期で動かせばいいかに関して、本発明の提案する方法について述べる。このため、本発明の3次元表示装置には図5に示すように、あらかじめ目立ちやすい、目立ちにくいなどの指標を与えた「物体の画像や形状変化」のデータのライブラリ(単にライブラリとも言う)106を用意しておく。 The method proposed by the present invention will be described as to what kind of image and shape change as described above should be moved at what speed and in what time period. For this reason, as shown in FIG. 5, the three-dimensional display device of the present invention has a data library of “object image and shape change” 106 that is given an index that is easily noticeable or not easily noticed (also simply referred to as a library) 106. Prepare.
まず簡単な方法としては、対象物群と視点との距離を考える。あるいは、対象物群や障害物群の体積、それを構成している面の面積を考える。閲覧者の視界にとって見やすい表現方法を演出するには、前述の距離が小さければ、物体が目の前にあるので、あまり閲覧者の目障りにならないよう目立ちにくい画像や形状変化を、前述の距離が大きければ、遠くて見過ごされるので目立ちやすい画像や形状変化を対象物に与える。同様に前述の体積や面が大きければ、目立ちにくい画像や形状変化を、前述の体積や面が小さければ、目立ちやすい画像や形状変化を対象物に与える。しかし、これらの方法は正確ではない。もし遠くにある物体でも大きさが大きければ、画面内に大きく存在し得る。また、体積の大きい物体でも、細長い特殊な形状の場合は、横から見ると小さくしか見えないため、目立ちやすい画像形状変化を与えなければ閲覧者に見過ごされてしまう。 First, as a simple method, consider the distance between the object group and the viewpoint. Alternatively, consider the volume of the object group and the obstacle group, and the area of the surface constituting the volume. In order to produce an easy-to-view expression method for the viewer's field of view, if the distance is small, the object is in front of the user's eyes. If it is large, it will be overlooked far away, so it will give noticeable images and shape changes to the object. Similarly, if the volume or the surface is large, the image or shape change which is not easily noticeable is given to the object, and if the volume or surface is small, the image or shape change which is easily noticeable is given to the object. However, these methods are not accurate. If a distant object is large in size, it can be large in the screen. Further, even if the object has a large volume, if it is a long and narrow special shape, it can only be seen small from the side, so that it is overlooked by the viewer unless an image shape change that is conspicuous is given.
そこで、さらに本発明の提案する最も正確な表現方法としては、視界の2次元スクリーン上の物体の射影面積を考える。閲覧者は3次元の物体を見るが、最終的な視界は図3に示すような2次元のスクリーンでしかない。本発明では、すべての対象物や障害物を、この2次元のスクリーンに視点から射影された面積として考慮する。 Therefore, as the most accurate expression method proposed by the present invention, the projected area of the object on the two-dimensional screen of the field of view is considered. The viewer sees a three-dimensional object, but the final field of view is only a two-dimensional screen as shown in FIG. In the present invention, all objects and obstacles are considered as the area projected from the viewpoint onto this two-dimensional screen.
視界の2次元スクリーン上における各面積の定義を図2に示す。まず、図2(a)において太枠4で示す領域内を「視界全体の面積S0」と定義する。次に、図2(b1)、(b2)において太枠5で示す領域内を、視界の2次元スクリーン境界内外の対象物が占める面積で、他の物体による陰面を考慮せず、かつ、視界の枠4による陰面を考慮しない面積を「障害物がない場合の視界内外の対象物面積S1」として定義する。面積S1は図2(b1)に見られるように、手前の障害物による遮断を考慮しない。また、面積S1は図2(b2)に見られるように、対象物が視界の横の枠4からはみ出ていても遮断されない。当然、対象物が目の前にあれば、その面積S1は「視界全体の面積S0」よりも大きくなり得る。
The definition of each area on the two-dimensional screen of view is shown in FIG. First, the area indicated by the
次に、図2(c1)、(c2)において太枠6で示す領域内を、視界の2次元スクリーン内の対象物が占める面積で、他の物体による陰面を考慮し、かつ、視界の枠4による陰面を考慮し、これらの陰面を除いた残りの面積を「可視部分の対象物面積S2」として定義する。面積S2は実際の目に見える部分の面積のことである。これらの面積S0、S1、S2を定義した上で、本発明では、2つの重要なパラメータを以下の数式で定義する。まず、「可視部分面積率」を数式1として以下に定義する。
「可視部分面積率」
=「可視部分の対象物面積S2」/「障害物がない場合の視界内外の対象物面積S1」
Next, the area occupied by the object in the two-dimensional screen of the field of view within the area indicated by the thick frame 6 in FIGS. 2 (c1) and 2 (c2), taking into account the hidden surface due to other objects, and the frame of the field of view The remaining area excluding these hidden surfaces is defined as “visible object area S2”. The area S2 is an actual visible area. After defining these areas S0, S1, and S2, in the present invention, two important parameters are defined by the following mathematical expressions. First, the “visible partial area ratio” is defined as
"Visible partial area ratio"
= "Object area S2 in the visible part" / "object area S1 inside and outside the field of view when there is no obstacle"
これは、図2(c1)、(c2)において太枠6で示す領域の面積S2を、それぞれ図2(b1)、(b2)において太枠5で示す領域の面積S1で割った値である。「可視部分面積率=S2/S1」とは、建物などの対象物が、自分の体のどのくらいの割合が閲覧者の視点から実際に可視であるかを示す指標である。前に障害物があったり、閲覧者が空の方角を見ているために視界から対象物の下半分が遮断されていたりなどのあらゆる理由による陰面を考える。そして陰面が全くない場合のうちの、あった場合による残りの可視の部分に対する割合である。後述のように、「可視部分面積率=S2/S1」は時間に依存する場合がある。
This is a value obtained by dividing the area S2 of the region indicated by the thick frame 6 in FIGS. 2 (c1) and (c2) by the area S1 of the region indicated by the
「可視部分面積率=S2/S1」は、対象物をより擬人化させるための指標である。人は、目の前に障害物が存在し、視覚が遮られると、それを避けるため頭を横に動かしたり背伸びをしたりする。それを模倣すべく、対象物群や障害物のおのおのが、自分の体のどのくらいの割合が閲覧者から見られているかを「可視部分面積率=S2/S1」で求め、「可視部分面積率=S2/S1」がある閾値まで大きくなるよう、その形状を大きくしたり、傾けたりすることで、完全にオクルージョンにより視界から遮断される状態を防ぐように働く。 “Visible partial area ratio = S2 / S1” is an index for making an object more anthropomorphic. When there is an obstacle in front of you and your vision is interrupted, you move your head sideways or stretch your back to avoid it. In order to imitate it, the percentage of the body of the object group or obstacle is viewed from the viewer by “visible partial area ratio = S2 / S1”, and “visible partial area ratio” = S2 / S1 "is increased or tilted so as to increase to a certain threshold value, thereby preventing a state in which it is completely blocked from view by occlusion.
ここで、2つの関連する従来例とは違う注意すべき点について述べる。注意すべきは、こういった他の障害物により視覚が遮断されている部分の割合を計算し、それを指標に障害物を半透明にして表示する等の方法は特許文献2などで提案されているが、本発明の「可視部分面積率=S2/S1」とは図2(b2)の視界の枠4の外にある物体の面積も考慮するという点で、従来のものと異なる。これは、本発明が、後述の図6(c)に示す対象物11にあるような、視界のスクリーン枠からほとんど外され見られない状態にある対象物に対しても、対象物が背伸びをして視界に入り込み、自らの存在をアピールするような効果を適用する必要があるためである。特許文献2にあるような従来の定義では、視界から外れたものを半透明に表示しても意味がないので視界による遮断は考慮しない。
Here, points to be noted that are different from the two related conventional examples will be described. It should be noted that a method such as calculating the ratio of the part where the vision is blocked by other obstacles and displaying the obstacles as a semi-transparent display using the ratio is proposed in
もう一つの注目すべきことは、従来例と違う本発明の陰面判定の特徴である。ある一つの視点に近い対象物が、可視されようとして形状を傾けるなどの変化を起こすため、当然、新たに後ろの視界を遮断してしまい、その影響が後ろの他の対象物にも及ぶ。それはあたかも、人が集合写真をとられる際、目の前の人が、顔をカメラに映られようとして頭を動かしたために、今度はその後列の自分が遮断され、自分の頭を動かさなければいけない状況となるという具合である。これと同じことを起こすため、本発明では、形状変化適用後、対象物ごとに陰面判定を更新しなければいけない(後述の図4に示すステップS19に相当)。この具体例は、図10(d2)に示す建物13と図10(e2)に示す建物14で後述する。本発明のこの点も、従来の例では、別の対象物に対して新しく更新した陰面判定を適用しない点で異なる。
Another thing to note is the feature of the hidden surface determination of the present invention that is different from the conventional example. An object close to a certain viewpoint causes a change such as tilting the shape so as to be visible, so naturally, the rear view is newly blocked, and the influence extends to other objects behind. It is as if the person in front of you moved the head trying to see the face on the camera when a person took a group photo, so this time you must be cut off and move your head. It ’s a bad situation. In order to cause the same thing, in the present invention, the hidden surface determination must be updated for each object after applying the shape change (corresponding to step S19 shown in FIG. 4 described later). This specific example will be described later with reference to a
もうひとつの定義されるパラメータとして、「視界内外面積率」を数式2として以下に定義する。
「視界内外面積率」
=「障害物がない場合の視界内外の対象物面積S1」/「視界全体の面積S0」
As another defined parameter, “field area inside / outside view” is defined as
"Visibility area inside and outside the field of view"
= "Object area S1 inside and outside the field of view when there are no obstacles" / "Area of the entire field of view S0"
これは、図2(b1)、(b2)に示す対象物面積S1を図2(a)に示す面積S0で割った値である。「視界内外面積率=S1/S0」は、仮に周りの障害物が存在しなく、視界が無限に広がっていた場合でも、視点からどれだけの大きさで対象物が見られたであろうかを示す指標である。すなわち、視界画面の枠(S0)の割合に対し、対象物の画像(S1)が占有する割合である。対象物が、そのサイズにかかわらず目前にあるので視界内で大きく見える場合、もしくは、対象物のサイズが単純に大きいので大きく見える場合、「視界内外面積率=S1/S0」は大きい。場合によっては視界以上に大きい物体を目の前にした場合は100%を超える。 This is a value obtained by dividing the object area S1 shown in FIGS. 2B1 and 2B2 by the area S0 shown in FIG. “Visibility inside / outside area ratio = S1 / S0” indicates how large the object would have been seen from the viewpoint even if there were no obstacles around and the field of view was infinite. It is an indicator to show. That is, the ratio of the object image (S1) to the ratio of the frame (S0) of the view screen. When the object looks large regardless of its size, it looks large in the field of view, or when it looks large because the size of the object is simply large, “field area inside and outside the field of view = S1 / S0” is large. In some cases, it exceeds 100% when an object larger than the field of view is placed in front of you.
逆に対象物が、そのサイズがどうであれ、はるか遠くにあるため小さく見える場合、もしくは、対象物が単純にサイズが小さくて小さく見える場合、「視界内外面積率=S1/S0」は小さい。これが「視界内外面積率=S1/S0」の意味する指標である。このようなパラメータを定義しなくても、単純に視点からの距離を指標として使えると思えるが、画面全体の面積に比べどのくらいの大きさで見えるかは、対象物のサイズ、形状、見る角度にも依存する。サイズが大きくても遠いため小さく見える、サイズが小さいので小さく見える、あるいは、形状が平べったい建物なので横から見ると小さく見える、などの可能性がある。そのため、対象物を2次元スクリーン上に射影した上で面積S1を計算し、このような「視界内外面積率=S1/S0」というパラメータを定義しなければならない。 On the other hand, if the object appears to be small because it is far away, no matter what its size, or if the object simply appears small and small in size, “inside / outside area ratio = S1 / S0” is small. This is an index that means “area ratio inside and outside the field of view = S1 / S0”. Even if you do not define such parameters, you can simply use the distance from the viewpoint as an index, but the size of the object, the shape, and the viewing angle will determine how large it will be compared to the total area of the screen. Also depends. There is a possibility that even if the size is large, it looks small because it is far away, it seems small because it is small, or it looks small when viewed from the side because it is a flat building. For this reason, the area S1 is calculated after projecting the object on the two-dimensional screen, and such a parameter of “area ratio inside and outside the field of view = S1 / S0” must be defined.
この「視界内外面積率=S1/S0」と前述の「可視部分面積率=S2/S1」を使ってどのように、画像や形状変形を対象物や障害物に適用するかを説明する。例えば障害物で陰になっている対象物を、閲覧者に見られようと、「対象物や障害物を傾ける」、「背伸びをさせる」などの形状変化をさせて、「可視部分面積率=S2/S1」を上げて100%全体が見られても、「視界内外面積率=S1/S0」が低い場合、つまり、その対象物が、視界2次元スクリーン上のごく小さな部分にしか占めていない場合は、閲覧者に見過ごされてしまう。そのためにあらかじめ画像や形状変化のライブラリ106(図5)で、目立ち度の高い変化、ジャンプしたり、手を振ったり、激しく動いたり、画像を激しく変化させたりなどの変化を適用しなければならないという判断ができる。これは、人が町で出会う際、近距離で突然出会った場合、控えめな動きで「こんにちは」と相手にメッセージを送るのに対し、遠くで小さく目撃され遠くから手を振って「おおい!こっちだ。こんにちは!」と比較的激しい動きで合図してやってくるという行動パターンを模倣するものである。 A description will be given of how to apply an image or shape deformation to an object or an obstacle using this “field-of-view area ratio = S1 / S0” and the above-mentioned “visible partial area ratio = S2 / S1”. For example, in order for a viewer to see an object that is shaded by an obstacle, change the shape such as “tilt the object or obstacle” or “extend the back” and “visible partial area ratio = Even if 100% of the entire image is seen when S2 / S1 is increased, if the “inside / outside area ratio = S1 / S0” is low, that is, the object occupies only a very small part on the two-dimensional field of view. If not, it will be overlooked by the viewer. Therefore, in the image and shape change library 106 (FIG. 5), it is necessary to apply changes such as highly conspicuous changes, jumps, shaking hands, moving violently, and changing images violently. It can be judged. This is, when a person encounters in the town, if you suddenly met at close range, while sending a message to the other party as "Hello" in the conservative movement, witnessed smaller in the distance, "Oi waving from a distance! Koch it. Hello! "and is intended to mimic the behavior patterns that come doing it signaled a relatively violent movement.
また、逆に「視界内外面積率=S1/S0」が大きい場合は、視界画面の大きな割合を占有しているため、閲覧者に目障りにならないよう、激しい画像および形状変化を避けるという判断ができる。「可視部分面積率=S2/S1」を上げようとして、建物を傾けようとするにしても、「ゆっくりと揺らす」などの、目立ち度の低い画像や形状変化をライブラリ106から選択して適用する。
On the other hand, when “view area inside / outside area = S1 / S0” is large, it occupies a large proportion of the view screen, so that it can be judged to avoid severe image and shape changes so as not to obstruct the viewer. . Even if an attempt is made to increase the “visible partial area ratio = S2 / S1” or the building is inclined, a low-conspicuous image or shape change such as “slowly shake” is selected from the
形状変化に関して、前述に述べたような時間に依存する動的変化の場合について述べる。正確に言えば、ある対象物の動的変化が他の対象物の陰面に大きく作用するとき、その動的運動を最適化しなければいけない。すなわち、対象物が一定の周期などで動いている場合である。この場合は、前述のパラメータ「可視部分面積率=S2/S1」を、ダイナミックに時間tに依存する値とし、関連するすべての物体群の動的変化周期の最小公倍数を周期T(時間)とする。時間T内でサンプリングをN回行い、そこで得られた、対象となる対象物の「可視部分面積率=S2/S1」の和をNで割り、平均をだして、値を考慮する。これにより、2つの重なった対象物が交互に顔をだしてその顔を見られるようにすることが可能である。「視界内外面積率=S1/S0」は、陰面に依存しないため、このような処理はしない。以上2つのパラメータについて述べた。 Regarding the shape change, the case of the time-dependent dynamic change as described above will be described. To be precise, when a dynamic change of one object greatly affects the hidden surface of another object, the dynamic motion must be optimized. That is, this is a case where the object is moving at a constant cycle or the like. In this case, the above-mentioned parameter “visible partial area ratio = S2 / S1” is dynamically set to a value that depends on time t, and the least common multiple of dynamic change periods of all related object groups is set as a period T (time). To do. Sampling is performed N times within the time T, and the sum of the “visible partial area ratio = S2 / S1” of the target object obtained there is divided by N, an average is calculated, and the value is considered. As a result, it is possible to allow two overlapping objects to alternately face each other and see the face. “Visibility inside / outside area ratio = S1 / S0” does not depend on the hidden surface, so such processing is not performed. The two parameters have been described above.
これら2つの「可視部分面積率=S2/S1」と「視界内外面積率=S1/S0」をかければ、単純に、視界の枠全体の面積S0に対する、対象物の可視部分の面積S2の比=S2/S0が求まる。例えば、これを使えば、すべての対象物群に対し、この可視部分の面積が均一に大きくなるように対象物の形状を拡大するなどの表現方法も考えられる。つまり、遠くのものも、近いものとほぼ同じくらいの大きさで拡大する方法である。しかしその場合は、小さいものを無理やり拡大してしまい、閲覧者に、現実感が失われてしまうので、閲覧者の関心が薄れてしまう。そこで、本発明は、遠くの小さく見えるもの、サイズが小さくて小さく見えるものは、単純に拡大で大きく表示するのではなく、対象物を擬人化し、大きさはある程度だけ拡大し、その対象物が小さくしか見えていないので目立とうとする人間的な激しい動きや画像を物体に適用させることで、日常の慣れた経験に沿った体験をさせることで、閲覧者に空間的配置を理解しやすい演出を行うことに本質がある。 By applying these two “visible part area ratio = S2 / S1” and “field-of-view area ratio = S1 / S0”, simply the ratio of the area S2 of the visible part of the object to the area S0 of the entire field frame of view. = S2 / S0 is obtained. For example, if this is used, an expression method such as enlarging the shape of the object so that the area of the visible portion is uniformly increased can be considered for all object groups. In other words, it is a method of enlarging a distant object approximately the same size as a close object. However, in that case, the small one is forcibly enlarged, and the viewer loses the sense of reality, so the viewer's interest is diminished. Therefore, the present invention does not simply display a large and small object that looks small in the distance, but small and small, instead of simply enlarging the object, anthropomorphizing the object and enlarging the object to some extent. It is easy to understand the spatial arrangement by allowing viewers to understand the spatial arrangement by applying an intense human movement and images that are conspicuous because they are visible only to a small size, and by applying the experience to the everyday experience. There is an essence in doing.
これら前述の2次元スクリーン上の射影された面積を具体的に算出する方法のレイ・トレーシング(Ray Tracing)法を使った例を図3を使い説明する。図3では、視点Pから
注視点16にめがけて視線15があり、対象物14がある。視界は、視界の境界7の間にある空間であり、視線15を法線とし、視界の境界7を覆う面を陰面判定面17と呼ぶ。この陰面判定面17を視界の2次元のスクリーンと考える。陰面17は、例えば縦横m×n個の小さな領域(セル)に分割され、視点からそれぞれのセルの中心までのベクトルを考え、交差判定、つまり、途中で物体によりベクトルが遮断されて陰面になっていないか、レイ・トレーシングで判別判定を行う。ここでは、陰面となっているセル18は黒く塗られる。対象物14の射影面積は、この黒く塗られたセルの数によって判定される。本発明では、面積の比(S2/S1、S1/S0)のみを考えているため、単一セルあたりの面積を考慮しなくても、セルの数で面積S0、S1、S2を表せる。
An example of using the Ray Tracing method for concretely calculating the projected area on the above-described two-dimensional screen will be described with reference to FIG. In FIG. 3, there is a line of
図8(a)〜(e)は視点Pから違った距離に配置される複数の陰面判定面17a〜17eを示す。陰面判定面17a〜17eにおいて、視線15を法線としながら判定面17a〜17eとセルは、それぞれの辺の大きさが視点Pからの距離に関して比例関係を保っているので、違うサイズの陰面判定面17a〜17e同士で判定されても、セルの数だけで陰面の面積を比較することができる。セルは数が多く、つまり解像度が高いほど望ましいが、計算量が増えるため、また、対象物表示の表現方法のためのロバストな判定のため、あまり細かい解像度で陰面を判定する必要はない。図3では、陰面判定面17は、デカルト座標のような平面であるが、角座標による2つの角度による球面でもかまわない。また、コンピュータグラフィック言語でレンダリングを行う際、計算の手間を省くため指定物体の可視部分の面積S2の算出、陰面判定も同時にさせることも可能である。
8A to 8E show a plurality of hidden surface determination surfaces 17a to 17e arranged at different distances from the viewpoint P. FIG. In the hidden surface determination surfaces 17a to 17e, the size of each side of the determination surfaces 17a to 17e and the cell is kept proportional to the distance from the viewpoint P while the line of
図4のフロー図と図5のブロック図を使い、本発明においていかに対象物から2つのパラメータ(S2/S1、S1/S0)を算出し、対象物や障害物に適切な形状変化などの画像変化を与えていくかの全体のアルゴリズムの流れを説明する。まず、閲覧者に知らせたい対象物を決定する(図4のステップS1)。例えばユーザがレストランを検索した場合、対象となる飲食店の建物群が、ここで言う対象物群となる。これらを、仮想空間にいる閲覧者に効果的にその場所を知らせる。次に、前述の図3で示した視点Pと注視点16を設定する。視点Pが閲覧者の目の位置となる。さらに注視点16が見ている方向の点を示す。これは図5に示す入力部101で行われる。
Using the flowchart of FIG. 4 and the block diagram of FIG. 5, how to calculate two parameters (S2 / S1, S1 / S0) from an object in the present invention, and an image such as a shape change suitable for the object or obstacle The overall algorithm flow of how to change is explained. First, an object to be notified to the viewer is determined (step S1 in FIG. 4). For example, when a user searches for a restaurant, a building group of restaurants is a target object group. These are effectively notified to the viewer in the virtual space. Next, the viewpoint P and the
次に、図3で示した物体の陰面17を調べる。これは図5に示す評価部(パラメータ評価部102、画像形状変化評価部103)が行う。視界領域(境界7内)を調べ、視界にはいる対象物群(対象物14)のみを調べる(図4に示すステップS2)。これにより、視点Pの後方にある物体の交差判定計算の手間を省く。もちろん、必要に応じ、閲覧者の視界に全く入らない対象物も考慮することもできる。図5に示す3次元データ105から座標を調べ、図5に示す投影面積計算部104で計算を開始する。簡単のために選択されたk個の対象物群は、視点Pに距離が近い順に配列される(図4に示すステップS3)。そして近い順に陰面判定を行っていく。これにより、視点Pから近い面の陰面判定で陰面であると判断された部分は、当然、その陰面より後ろにある陰面の対応する部分も陰面であることは自明なので、判定スキャンする手間が省ける。
Next, the hidden
まず、対象群i(iは0≦i≦k−1の整数)のうちの一つ目(i=0)について調べる(図4のステップS4、S5)。対象物iに関する前述の3つの面積S0、S1、S2を算出するために、対象物iに関する陰面判定面iを設定する。陰面判定面iは、図3で前述した視点Pから注視点16までのベクトルを法線とした面として表現できるが、今は、視点Pから対象物iの間にある空間の障害物のみを考えるため、陰面判定面iを、視点Pから対象物iへ結ぶ線の対象物iを越えた直後の位置に置くことで、陰面判定面iの後ろ、つまり対象物iの後ろの障害物は考えないようにする。陰面判定面iを縦横m×nのセルに分割する。視点Pから、対象物iに関する陰面判定面iの各セルの中心までのベクトルを考え、交差判定を行う。
First, the first group (i = 0) in the target group i (i is an integer satisfying 0 ≦ i ≦ k−1) is examined (steps S4 and S5 in FIG. 4). In order to calculate the aforementioned three areas S0, S1, and S2 related to the object i, a hidden surface determination surface i related to the object i is set. The hidden surface determination surface i can be expressed as a surface normal to the vector from the viewpoint P to the
図2(c1)、(c2)の「可視部分の対象物面積S2」を求めるため、障害物と交差しないで、対象物iと交差するセルの数を算出する(図4のステップS6)。図2(a)の「視界全体の面積S0」は、視界全体、すなわちm×nの数となる(図4のステップS7)。図2(b1)、(b2)の「障害物がない場合の視界内外の対象物面積S1」は、図2(b2)に示すように視界の外も考える必要があるので、陰面判定面iをセルの形状を保ったまま、視点Pから注視点16までを法線とする面のまま、さらに大きい任意の大きさM×N個(M>m、N>n)に延長し、視界の外を含む対象物iと交差し得るすべてのセルの数とする(図4のステップS8)。
In order to obtain the “visible object area S2” in FIGS. 2C1 and 2C2, the number of cells that intersect the object i without intersecting the obstacle is calculated (step S6 in FIG. 4). “Area S0 of the entire field of view” in FIG. 2A is the entire field of view, that is, the number of m × n (step S7 in FIG. 4). 2 (b1) and 2 (b2), the “object area S1 inside and outside the field of view when there is no obstacle” needs to be considered outside the field of view as shown in FIG. 2 (b2). While maintaining the shape of the cell, the surface is extended from the viewpoint P to the
したがって、「障害物がない場合の視界内外の対象物面積S1」は、「視界全体の面積S0」より大きくなってしまう場合もある。視界より大きいM×Nのセルからなる陰面判定面17は、大きいほど、正確に視界以外にはみ出ている物体の大きさを考慮できるが、m×nの2倍以上の大きさあたりで十分である。仮に、視点Pの見ている方向と逆の後ろに対象物があったとして、それも考慮したい場合は、後ろにも陰面判定面17を設置したり、曲面の判定面を設置することも可能である。
Therefore, the “object area S1 inside and outside the field of view when there is no obstacle” may be larger than the “area S0 of the entire field of view”. The larger the hidden
セルの数は、面積の値そのものではないが、ここでは、2つの重要なパラメータである「視界内外面積率=S1/S0」、「可視部分面積率=S2/S1」、すなわち面積の比を計算するだけなので、単一セルの面積の大きさを知らなくても問題ない。また、後述の図8(a)〜(e)に示すような陰面判定面17a〜17eが視点Pからの距離が変わっても、視点Pから注視点16へのベクトルを法線とし、セルの辺が視点Pから陰面判定面17a〜17eまでの距離に比例している限り、各対象物iに関するこれらの面積比率(S1/S0、S2/S1)は、違う陰面判定面17同士で比較できる値である。
The number of cells is not the area value itself, but here, the two important parameters, “inside / outside area ratio = S1 / S0” and “visible partial area ratio = S2 / S1”, that is, the area ratio Since only the calculation is performed, there is no problem even if the size of the area of the single cell is not known. Further, even if the hidden surface determination surfaces 17a to 17e as shown in FIGS. 8A to 8E described later change the distance from the viewpoint P, the vector from the viewpoint P to the
図5のパラメータ評価部102で、これらの2つのパラメータ(S1/S0、S2/S1)を使って閾値と比較し、図5の画像形状変化評価部103で、対象物iに適切な画像や形状変化の適用を考え、図5のライブラリ106から選択する。図4では、ステップS9、S12において対象物iの「可視部分面積率=S2/S1」がある閾値より小さいか大きいか判定する。「可視部分面積率」が閾値より小さいときは、障害物pや、視界の枠に大きく遮られ、対象物iの体全体に比べ可視部分が小さいと判断し、対象物iが見られるよう、「形状が伸びる」、「傾く」などの変化を適用する(ステップS10、S11、S12)。
The parameter evaluation unit 102 in FIG. 5 compares these two parameters (S1 / S0, S2 / S1) with a threshold value, and the image shape
ステップS9において、ある閾値よりもあまりにも小さいとき(「可視部分面積率」<<閾値)、対象物iだけでなく、障害物pにも形状変化を与えるようにする(ステップS11)。この場合、対象物iから視点Pまでのベクトルで交差判定を行い、交差する、すなわち、対象物iの障害となっているq個の障害物群を特定する。その中で、交差点が一番多い障害物を障害物p(0≦p≦q−1)とする。障害物pを、対象物iの「可視部分面積率」を上げ、かつ、対象物iや障害物pよりも視点Pに近い位置にある他の対象物j(0≦j<i)と交差しない方向に動かす。 In step S9, when it is too smaller than a certain threshold value (“visible partial area ratio” << threshold value), not only the object i but also the obstacle p is changed (step S11). In this case, intersection determination is performed using vectors from the object i to the viewpoint P, and q obstacle groups that intersect, that is, an obstacle to the object i are specified. Among them, an obstacle having the largest number of intersections is defined as an obstacle p (0 ≦ p ≦ q−1). The obstacle p increases the “visible partial area ratio” of the object i and intersects the object i or another object j (0 ≦ j <i) located closer to the viewpoint P than the object i or the obstacle p. Move it in a direction that does not.
ステップS12において、もともと対象物iの「可視部分面積率」は低いが、それほど低くない場合(「可視部分面積率」<閾値)は、対象物iの陰面判定面i上において、上、右、左、下、などのどちらの方向に動けば一番「可視部分の対象物面積S2」が上がるかを陰面判定面iの結果から調べ(ステップS13)、その座標にめがけて動くよう指令する(ステップS14)。一方、「可視部分面積率」が閾値より高いときは、対象物全体が十分見られている意味であり、特別な形状変化は適用させず、後述の「視界内外面積率=S1/S0」の値で形状などの画像変化を決定する(ステップS18)。 In step S12, when the “visible partial area ratio” of the object i is originally low but not so low (“visible partial area ratio” <threshold), on the hidden surface determination surface i of the target object i, From the result of the hidden surface determination surface i, it is determined whether the “visible object area S2” increases most in the direction of left, down, or the like (step S13), and a command is given to move toward that coordinate (step S13). Step S14). On the other hand, when the “visible partial area ratio” is higher than the threshold value, it means that the entire object is sufficiently seen, and a special shape change is not applied, and “visual field inside / outside area ratio = S1 / S0” described later. An image change such as a shape is determined by the value (step S18).
ここでいう閾値は、段階的に複数存在したり、また、画像および形状変化を施す対象物の総数kに依存する関数として定義することもできる。例えば、複数の閾値を設定することで、段階的に分別が可能である。また、閾値をkの関数と設定することで、kの数が多い場合、つまり、画面に出したい対象物の顔テクスチャの数が多い場合には、混雑した状態なので、それぞれの「可視部分面積率」の許容最小値である閾値が下がるような関数とし、対象物群の形状変化が頻繁におきて他の対象物を圧迫しないように調整できる。 A plurality of threshold values here may exist in a stepwise manner, or may be defined as a function depending on the total number k of objects to be subjected to image and shape change. For example, by setting a plurality of threshold values, the separation can be performed in stages. In addition, by setting the threshold value as a function of k, when the number of k is large, that is, when the number of face textures of the target object to be displayed on the screen is large, the state is congested. The threshold value, which is an allowable minimum value of the “rate”, can be adjusted so that the shape of the object group frequently changes so as not to compress other objects.
次に「視界内外面積率」が閾値に比べ小さいか大きいか判定する(ステップS15)。「視界内外面積率」が低い場合は、対象物iが視点Pから遠くにあるのか、対象物iのサイズが小さいかの理由で、障害物や視界の枠4による遮断の有無にかかわらず、画面の小さな部分しか占めておらず、前述のように対象物iの形状を左右に傾けたところで、閲覧者に見過ごされてしまう状態である。本発明では、拡大はわずかに行い、目立ち度の高い動的変形、速く揺れたり、ジャンプしたり、踊ったり、激しい画像テクスチャの変化などをライブラリ106から選択して、適用する(ステップS17)。もちろん、小さく見えるものを単純に拡大して大きく表示することはできるが、極端に大きくすると非現実性を帯びてしまうため、あえて、目立ちやすい動きや画像表示を促進させることで人間が遠くから必死に合図を送るような行動を模倣させることに本発明の特徴がある。
Next, it is determined whether the “field-in-outside / outside-area ratio” is smaller or larger than the threshold (step S15). When the “field-in-outside / out-area ratio” is low, whether the object i is far from the viewpoint P or the size of the object i is small, regardless of whether the object is blocked by an obstacle or the
逆に「視界内外面積率」が高い場合は、障害物に隠れているいないにかかわらず、画面の多くを占めて存在しているため、形状および画像変形を施すには、目立ち度の低い、ゆっくりとした動きや、手をふるなど対象物の一部分だけが動くようなアニメーションを適用する(ステップS16)。これにより閲覧者に目障りにならないようにする。ここでいう閾値も前述のとおり、複数存在、対象物群の総数kに依存する関数であることが考えられる。 On the other hand, when the "area ratio inside and outside the field of view" is high, it occupies most of the screen regardless of whether it is hidden by an obstacle. An animation is applied so that only a part of the object moves, such as a slow movement or a hand shake (step S16). As a result, the viewer is not disturbed. As described above, the threshold here may be a function depending on the presence of a plurality of objects and the total number k of object groups.
次いで、対象物iの画像や形状変化に関して、前述の見積もりから、適切な目立ち度、形状傾きの有無、どの方向へどれだけ動くべきか、どのような適切な目立ち度のある画像貼り付けるのかを、図5に示す画像形状変化評価部103で考慮し、画像および形状変化データのライブラリ106から表現効果が選択され、対象物iに適用される。また、対象物iの全体の形状の視点Pから見える位置に、かつ、視点Pに向かった面にテクスチャを貼り付けることで、対象物iが視覚的により閲覧者を意識しているという効果を生むことができる(ステップS18)。
Next, regarding the image and shape change of the object i, based on the above-mentioned estimation, the appropriate degree of conspicuousness, the presence / absence of the shape inclination, the direction of how much to move, and what kind of appropriate conspicuous image is pasted In consideration of the image shape
仮に、ライブラリ106から選ばれた形状変化を適用する場合を考える。対象物iが傾くことが決まると、陰面判定が変化するので、後ろの陰面判定面のために更新しなければいけない。このことは、従来の陰面判定とは違うことを意味する。図4において、対象物iの適切な画像および形状変化付与の判断アルゴリズムが終了したあとは、次の、対象物i+1に対し同様の調査(ステップS5)を行う。これは、すべてのk個の対象物が終わるまで、繰り返される(ステップS20)。選択されたk個の対象群の調査をすべて終えると(ステップS20でYes)、本発明の「視点による対象物の表示方法」のアルゴリズムが終了する。これで、図5に示す画像表示部107で、画像および形状変化データのライブラリ106から選ばれたデータを3次元物体データ105に適用し、閲覧者にとって対象物群が見やすい視界を描画する。仮に、閲覧者が、空間の中で移動し始めて、視点Pが変わったり、顔の向きを変えたために、注視点16が変わった場合は、コンピュータの計算のメモリが許す限り、ある一定周期で入力部101で視点Pと注視点16を再入力し、図4に示すフローチャートから新たに始めなければいけない。
Consider a case where a shape change selected from the
以上、図4、図5を使い、アルゴリズムの概念を述べた。次に、具体例としていくつかの対象物、障害物を考え、どのように対処するかについて述べる。例として述べる対象物と障害物の分布を図6(a)、(b)、(c)に鳥瞰図として示す。また、図6(a)、(b)、(c)それぞれに対して、対象物と障害物が実際にどのように視界の2次元スクリーン上から見えるかを示した図を図7(a)、(b)、(c1)に示す。図6(a)、図7(a)が形状変化を適用しない普通の場合、図6(b)、図7(b)が従来例とする、視点Pに依存しない形状変化を適用した場合、図6(c)、図7(c1)が本発明の提案する視点に依存する形状変化を適用した場合である。また、図7(c2)は、図7(c1)をさらに変形して、対象物13が見えるようにその前の障害物9を移動した例を示す。図6のベクトル7は、視界の境界を示す。ベクトル7の外側の空間は、視界外であり閲覧者からは見えない。また、図8に、それぞれの対象物に関しての陰面判定の様子を鳥瞰図として示す。さらに、図9、図10に、図8のそれぞれの場合に対応して、陰面判定面のどのセルが陰面となっているかを視界の2次元スクリーン上の画面として示す。
The concept of the algorithm has been described above with reference to FIGS. Next, some objects and obstacles are considered as specific examples, and how to deal with them will be described. The distribution of the objects and obstacles described as an example is shown as a bird's-eye view in FIGS. 6 (a), (b), and (c). Further, for each of FIGS. 6 (a), (b), and (c), FIG. 7 (a) shows how the object and the obstacle are actually seen from the two-dimensional screen of the view. , (B), (c1). 6 (a) and 7 (a) are normal cases where shape change is not applied, and FIG. 6 (b) and FIG. 7 (b) are conventional examples where shape change independent of viewpoint P is applied. FIG. 6C and FIG. 7C1 are cases where a shape change depending on the viewpoint proposed by the present invention is applied. FIG. 7C2 shows an example in which the
図6、図7から順を追って説明する。ここでは、建物10、建物11、建物12、建物13、建物14を閲覧者の関心のある対象物とする。建物8、建物9を障害物とする。そのため、図7(a)に示すように、
・対象物である建物10は、下部分が建物8に隠れて見えない。
・対象物である建物11は、障害物はないが、閲覧者の視線が上を向いているため、下半分が視界の枠で見えない。
・対象物である建物12は、すべてが見える。
・対象物である建物13は、建物9に隠れ、全く見えない。
・対象物である建物14は、すべてが見える。
This will be described in order from FIG. 6 and FIG. Here, the
The
The
-All of the
The
-The
この状態で、従来の例として、視点Pの位置を考慮せず、単純に機械的に対象物の形状を拡大したり、対象物の建物を揺らしたりした場合の例を従来例として、図6(b)、図7(b)に示す。図7(b)の従来例では、
・対象物である建物10は、目立たせるつもりで張り付けた顔テクスチャ10aが下半分の見えない部分(建物8の部分)に張り付けられているので見えない。また、形状の上半分が拡大して目立ってはいるが、そもそも画面から大きく見える建物なので、拡大しても意味がない。ましてや、視界画面の枠を超えてはみ出ている。
・対象物である建物13は、目立つよう体を傾けたり元に戻ったり周期運動をして閲覧者の関心をひこうとしているが、傾く向きが視点からさらに奥の方向なので、障害物9に相変わらず隠れている。
・対象物である建物12は、顔テクスチャが閲覧者の視点の方を向いていない。
・対象物である建物11は、若干拡大しているが、拡大し足りない。上方向に背伸びをすべきである。また顔テクスチャの貼り付け位置も見えにくい位置にある。
・対象物である建物14は、普通に見えている。
以上のべたように、閲覧者の視点Pがどこにあり、個々の対象物が、自分がどのように閲覧者から見えるのかを知らない限り、適切に動的および画像変化を与えることができない。
In this state, as a conventional example, an example in which the shape of the object is simply mechanically enlarged or the building of the object is shaken without considering the position of the viewpoint P is shown in FIG. (B), as shown in FIG. In the conventional example of FIG.
The
・ The
-The
・ The
The
As described above, unless the viewer's viewpoint P is located and how each individual object is visible to the viewer, dynamic and image changes cannot be appropriately given.
そこで、本発明の提案する前述のアルゴリズムにより形状変化を施した場合を、図6(c)、図7(c1)(c2)に示す。明らかに閲覧者に見られやすく、あたかも、対象物である建物群が生きていて、閲覧者であるカメラを意識して集合写真を撮ったような状態となっている。図7(c1)の画像を得られるまでの過程を図8、図9、図10を使って述べる。図4のアルゴリズムにおいて、視界7に入る対象物は、建物10、建物11、建物12、建物13、建物14の5個、k=5である。これらを視点Pから近い順に調べていく。
Accordingly, FIGS. 6 (c), 7 (c1), and (c2) show cases where the shape is changed by the above-described algorithm proposed by the present invention. Obviously it is easy for viewers to see, as if the buildings that were the objects were alive, and they were in the state of taking a group photo with the camera in mind as the viewer. The process until the image of FIG. 7 (c1) is obtained will be described with reference to FIGS. In the algorithm of FIG. 4, the objects that enter the field of
まずは、視点Pに最も近い建物11を(対象物i=0)として調べる。図8(a)に示すように、建物11を通る視点Pから注視点に垂直な陰面判定面17aを建物11の後ろに設置する。陰面判定面17aは、縦横m×n個のセルに分割され、それぞれのセルの中心から、視点Pまでのベクトルを考え、物体交差を調べる。陰面判定面17aの後ろにある障害物や障害物となり得る対象物は考えないので、この場合は、対象物自身(建物)11と、障害物8のみを考える。図9(a1)に陰面判定の結果を示す。陰面のセルは黒く示す。対象物11は、他の障害物により遮断されていない。しかし、閲覧者の視線が上を向いているため、対象物11の上部分しか見えていない。これは、対象物11の「可視部分面積率」が小さいことを意味する。そこから、上、下、右、左等の方向へ伸びた場合の障害物や視界の枠による陰面を考え、「可視部分面積率」がもっとも上がる方向へと移動する。この場合は上方向である。画面全体の内の対象物11が占めている面積「視界内外面積率」は、とりわけ小さいわけでもないので、あまり目立つ動きをする必要はないと判断される。顔テクスチャとして対象物11の可視部分の中央あたりに貼り付ける動画を再生する。その結果を図9(a2)に示す。建物11が背伸びをして、閲覧者に存在を示そうとしているように見える。
First, the
次に建物10(対象物i=1)に関して考える。対象物10に陰面判定面17bを設置した様子を図8(b)に示す。そのときの陰面判定の結果を図9(b1)に示す。陰面については、障害物8だけでなく、対象物11が前述のように、背伸びをしたことによる新たな大きな陰面が存在する。建物10は、障害物8により下半分が隠れているだけなので、「可視部分面積率」は比較的大きく、かつ、画面の中で比較的大きな面積を占めていて「視界内外面積率」も大きいので、これ以上比率を上げない程度に穏やかに揺れたり、少し拡大し、視点と建物とのベクトルに垂直な面で建物を軽く揺らすことが考えられる。その様子を図9(b2)に示す。
Next, consider the building 10 (object i = 1). A state where the hidden
次に建物12(対象物i=2)に関して考える。建物12に設置された陰面判定面17cの様子を図8(c)に示す。判定の結果を図9(c1)に示す。建物12は可視部分面積率が100%であり、画面内のかなり大きな部分を占めている、「視界内外面積率」も高いため、目立ち度の低い、控えめな動的変形を適用し、視点を向いた顔テクスチャを貼り付けるだけで、閲覧者の関心十分ひくと判断される。その様子を図9(c2)に示す。
Next, consider the building 12 (object i = 2). The state of the hidden
次に建物13(対象物i=3)に関して考える。建物13に設置された陰面判定面17dの様子を図8(d)に示す。判定の結果を図10(d1)に示す。建物13は、障害物9により完全に視界を遮断されている、「可視部分面積率」=0%である。このようなあまりにも「可視部分面積率」が低い場合、障害物による交差判定により、遮断の多くが、視界の枠によるものでなく、障害物により発生していると判断されるとき、その障害物を動かす作業を行うことができる。図7(c2)に示すように、視覚交差の多い障害物9の形状を変化させ、建物13の「可視部分面積率」を上げている。
Next, consider the building 13 (object i = 3). The state of the hidden
さらに、対象物である建物13も、陰面判定面17d上での周り上、下、右、左のどの方向に変形すれば「可視部分面積率」が高くなるかを探す。この例では、右に傾いた場合が一番効果があるとし、右に傾いて頭をふるアニメーションを再生する。建物13は、画面の中である程度の面積を占めているので、「視界内外面積率」がそれほど低くないので、ゆっくりとした動きで傾き、閲覧者にアピールさせる。顔テクスチャは、可視部分となった新たな部分の中心に貼り付ける。その様子を図10(d2)に示す。
Further, the
最後に、建物14(対象物i=4)に関して考える。建物14に設置された陰面判定面17eの様子を図8(e)に示す。判定の結果を図10(e1)に示す。建物14は、本来そのほとんどが可視の状態にあったが、その前の建物13が右に傾いてきたため、視界が遮断され、ほぼ「可視部分面積率」=0%となってしまっている。建物14に関する陰面判定面17e上の陰面となっていないセルの部分を、上、下、右、左を探す。建物14が上に伸びれば、「可視部分面積率」が上がるため、背伸びの動的変化を適用させる。背伸びをすれば、「可視部分面積率」が増える。しかし、建物14が遠くにあり、建物14が比較的小さいため、「可視部分面積率」は少ししか上がらない、つまり、背伸びをしても小さくしか見えない。そのため、踊ったり、ジャンプしたりなどの目立ち度の高い動的変形を適用させている。建物14は、他の建物に比べ激しい動きをしている。顔テクスチャも呼びかけるような顔になっている。これら一連の計算と判定を行った最終的結果が、図7(c1)、図10(e2)となる。
Finally, consider the building 14 (object i = 4). The state of the hidden surface determination surface 17e installed in the
前述の例では、視点Pが地面に平行の向きの、つまりビルを横から見た場合を考えたが、本発明では、視点Pは3次元空間の任意の方向をむける。図11に、上空から下方の建物をみた場合を示す。対象物群23は、建物に限らず、この場合は、店などがあるフロアやフロアの一部の部屋となる。従来の方法では、ビルを半透明にできるが、対象物群23のフロアが複数あり、真上に重なっていると、半透明にしても認識が困難となる。本発明の提案する表現方法を適用する前を図11(a)に、適用した後を図11(b)に示す。それぞれ、対象物群23が移動して、「可視部分面積率」を上げている。さらに、対象物のフロア23の上の階にある、障害物であるフロアやビル24も、分割して移動して、対象物23が見えやすくなるようにしている。さらに、「視界内外面積率」が小さい対象物25は、目立ちやすい動きをしている。
In the above-described example, the case where the viewpoint P is in a direction parallel to the ground, that is, when the building is viewed from the side is considered, but in the present invention, the viewpoint P is directed in an arbitrary direction in the three-dimensional space. FIG. 11 shows a case where a lower building is viewed from above. The
本発明の提案する空間内における物体の表示方法は、実在する物理的な物体に限定されるものではない。それを応用例として図12、図13に示す。図12、図13は、概念空間とよばれる日常の物理空間と同じ座標からなる空間を示す。そこでは、概念を表現した物体を概念物体と呼ぶことにする。概念物体が、空間のある座標に位置しており、関連する概念物体同士は線で結ばれている。概念物体の距離や位置にも、その概念の性質を示すための意味あるパラメータが関連してある。ここでの概念物体は、ファイルを含むフォルダであったり、ある概念を象徴した物理的形状に具体化したものであったりする。概念物体は、図12のような3次元の立体のみならず、平面であったりもする。本発明では、この概念空間の性質そのものについての提案ではない。本発明の主張するところは、前述の物理空間と同様に、概念空間でも、検索などで、ある一つ以上の概念物体群を強調させたい場合や、閲覧者に知らせたい場合、概念物体の位置や形状を著しく大きく変えることなく、概念物体を視覚的にわかりやすく擬人的に知らせる表現方法である。 The method for displaying an object in a space proposed by the present invention is not limited to an actual physical object. This is shown in FIG. 12 and FIG. 13 as an application example. 12 and 13 show a space composed of the same coordinates as an everyday physical space called a concept space. Here, an object expressing a concept is called a concept object. Conceptual objects are located at certain coordinates in the space, and related conceptual objects are connected by lines. A meaningful parameter for indicating the nature of the concept is also related to the distance and position of the concept object. The concept object here may be a folder containing a file, or may be embodied in a physical shape symbolizing a certain concept. The conceptual object may be a plane as well as a three-dimensional solid as shown in FIG. The present invention is not a proposal for the nature of the concept space itself. The present invention claims that, in the same manner as in the physical space described above, in the conceptual space, when searching for one or more conceptual object groups by search or the like, or when informing the viewer, the position of the conceptual object. It is an expression method that informs a conceptual object visually and in an anthropomorphic manner without significantly changing the shape.
図12では、図6と同様に概念物体19、20、21が空間に配置されているが、各概念物体19、20、21にその性質を説明するラベルが張ってある。ラベルとして例えば、概念物体19は「昼食」、概念物体20は「公園」、概念物体21は「ビーチ」を現す。これらの座標には、意味があり、勝手に移動させたりしてはいけないなどの制約がある。それらは、関連性度によって、線22などで結ばれていたりする。
In FIG. 12,
この空間の配置を視点から見た図を図13に示す。図13(a)は、概念物体になにも形状変化を適用していない場合の視界を示す。図13(b)は、検索などで、ラベルが「昼食」の概念物体19と、「公園」の概念物体20のみを強調表示させたい場合を示す。「昼食」の概念物体19は、視覚障害物がなく、物体すべてが見えるので、前述の数式1「可視部分面積率」は100パーセントである一方、小さいもしくは遠いので、小さくしか見えず、数式2の「視界内外面積率」は小さい。そのため、図13(b)では、若干拡大され、ライブラリから目立つ形状変化が適用され、閲覧者の目をひくようにしている。一方、「公園」の概念物体20は、前面の概念物体21が障害物となっているため、殆どが見えないので「可視部分面積率」が低く、このため、概念物体21を横にたおし、概念物体20自身の体を傾ける等の表現を施している。ただし、「視界内外面積率」は大きいので、目立ち度の高いあまり激しい動きはしない。これにより、閲覧者は、概念空間において、任意の視点から、概念物体の位置を大きくかえることなく、特定の1つ以上の概念がどこにあるか、一目でわかる。
FIG. 13 shows the arrangement of this space viewed from the viewpoint. FIG. 13A shows the field of view when no shape change is applied to the conceptual object. FIG. 13B shows a case where it is desired to highlight only the
本発明は、右目左目視差を持つ、いわゆる立体テレビの画像表示機器においても、使用が可能である。その場合、視点は、2つある。右目の視点と、そこからわずかにずれた位置にある左目の視点が存在する。この場合は、ある対象物に対しての前述の図2に示した「障害物がない場合の視界内外の対象物面積S1」や「可視部分の対象物面積S2」のそれぞれ右目の視点、左目の視点での値の平均をとるか、どちらか片方の値をとるかを行い、「可視部分面積率=S2/S1」と「視界内外面積率=S1/S0」を計算することができる。 The present invention can also be used in a so-called stereoscopic television image display device having right-eye left-eye parallax. In that case, there are two viewpoints. There is a right-eye viewpoint and a left-eye viewpoint that is slightly offset from the right-eye viewpoint. In this case, the right eye viewpoint and left eye of the “object area S1 inside and outside the field of view when there is no obstacle” and “object area S2 of the visible portion” shown in FIG. It is possible to calculate “visible partial area ratio = S2 / S1” and “visible / internal / external area ratio = S1 / S0” by taking the average of the values at the viewpoints or taking either one of the values.
本発明は、コンピュータグラフィックスによる3次元仮想空間や、概念空間における建物や概念物体などが複数空間的に配置されている中で、視覚的目的の対象物検索に効果を発揮する。3次元空間で配置されている対象物群の見え方は閲覧者の視点が変わると、対象物の大きさや、他の物体による陰面、視点から対象物までの距離などにより、大きく変わる。本発明の提案する表示方法により、視点が変わっても、見えにくい対象物は、閲覧者に見えるように、自分の体を傾けたり、お互い協調したりするなどの人間的な行動要素を与えることで、視覚的に見やすく、かつ心理的にも日常の経験でなれた閲覧者に話しかけるような表現方法を実現でき、閲覧者は、興味を保ちながら空間的配置の理解ができる。 INDUSTRIAL APPLICABILITY The present invention is effective for visual target object search in a plurality of spatially arranged three-dimensional virtual spaces by computer graphics, buildings and conceptual objects in a conceptual space, and the like. When the viewer's viewpoint changes, the appearance of the object group arranged in the three-dimensional space changes greatly depending on the size of the object, the hidden surface of another object, the distance from the viewpoint to the object, and the like. By the display method proposed by the present invention, even if the viewpoint changes, objects that are difficult to see are given human behavioral elements such as tilting their bodies and cooperating with each other so that they can be seen by the viewer Thus, it is possible to realize an expression method such as talking to a viewer who is visually easy to see and psychologically experienced in daily life, and the viewer can understand the spatial arrangement while keeping his interest.
本発明は、コンピュータグラフィックスによる3次元仮想空間又は3次元概念空間において対象物の画像を、対象物の視界を妨げる障害物の画像より目立つ大きさ変化、形状変化、動き、点滅などの画像変化を用いて表示する場合に、閲覧者の視点に応じた適切な画像変化を用いて対象物の画像を表示することができるという効果を有し、カーナビゲーション装置、携帯端末などに利用することができる。 The present invention relates to an image change such as a size change, a shape change, a movement, and a blinking of an object image that is more conspicuous than an image of an obstacle that obstructs the field of view of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics When displaying using an image, the image of the object can be displayed using an appropriate image change according to the viewer's viewpoint, and can be used for a car navigation device, a portable terminal, or the like. it can.
1 分割されたポリゴンのセグメント
2 分割されたポリゴンのセグメントのベクトル
3 対象物を形状変化によりもっていきたい地点
4 「視界全体の面積」を示す枠
5 「障害物がない場合の視界内外の対象物面積」を示す枠
6 「可視部分の対象物面積」を示す枠
7 視界の境界
8 障害物
9 障害物
10 対象物
11 対象物
12 対象物
13 対象物
14 対象物
15 視線
16 注視点
17 陰面判定面
18 陰面セル
19 昼食という名のフォルダ
20 公園という名のフォルダ
21 ビーチという名のフォルダ
22 フォルダ同士の関係を示す線
101 入力部
102 パラメータ評価部
103 画像形状変化評価部
104 投影面積計算部
105 3次元物体データ
106 ライブラリ
107 画像表示部
1 Segment of
Claims (8)
前記3次元仮想空間又は3次元概念空間における閲覧者の視点から前記対象物までの距離を算出する手段と、
前記算出された距離に基づいて、閲覧者の視点から遠い対象物ほどより目立つ画像変化で表示し、閲覧者の視点から近い対象物ほど目立たない画像変化で表示する手段とを、
有することを特徴とする3次元表示装置。 In a three-dimensional display device that displays an image of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics using an image change that stands out from an image of an obstacle that obstructs the field of view of the object,
Means for calculating a distance from a viewer's viewpoint in the three-dimensional virtual space or a three-dimensional concept space to the object;
Based on the calculated distance, means for displaying an image change that is more conspicuous as the object is farther from the viewer's viewpoint, and displaying the image change that is less conspicuous as the object is closer to the viewer's viewpoint;
A three-dimensional display device comprising:
障害物がない場合の視界内外の対象物の面積S1と、障害物がある場合の対象物の可視部分の面積S2とを算出して、対象物の可視部分の面積率=S2/S1を算出する面積率算出手段と、
前記面積率=S2/S1が小さいほど目立つ画像変化で表示して前記面積率=S2/S1が大きいほど目立たない画像変化で表示する手段とを、
有することを特徴とする3次元表示装置。 In a three-dimensional display device that displays an image of an object in a three-dimensional virtual space or a three-dimensional concept space by computer graphics using an image change that stands out from an image of an obstacle that obstructs the field of view of the object,
The area S1 of the object inside and outside the field of view when there is no obstacle and the area S2 of the visible part of the object when there is an obstacle are calculated, and the area ratio of the visible part of the object = S2 / S1 is calculated. Means for calculating the area ratio;
Means for displaying with a noticeable image change as the area ratio = S2 / S1 is smaller, and displaying with a less noticeable image change as the area ratio = S2 / S1 is larger.
A three-dimensional display device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007079197A JP4829157B2 (en) | 2007-03-26 | 2007-03-26 | 3D display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007079197A JP4829157B2 (en) | 2007-03-26 | 2007-03-26 | 3D display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008242596A true JP2008242596A (en) | 2008-10-09 |
JP4829157B2 JP4829157B2 (en) | 2011-12-07 |
Family
ID=39913905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007079197A Active JP4829157B2 (en) | 2007-03-26 | 2007-03-26 | 3D display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4829157B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024024981A1 (en) * | 2022-07-28 | 2024-02-01 | Softbank Corp. | Information processing method, non-transitory computer-readable storage medium, and information processing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072669A (en) * | 2004-09-01 | 2006-03-16 | Sony Computer Entertainment Inc | Image processor, game device, and image processing method |
JP2006146338A (en) * | 2004-11-16 | 2006-06-08 | Sony Computer Entertainment Inc | Entertainment device, device and method for displaying object, program, and method for displaying character |
JP2006221534A (en) * | 2005-02-14 | 2006-08-24 | Toyota Auto Body Co Ltd | Digital mock-up system |
-
2007
- 2007-03-26 JP JP2007079197A patent/JP4829157B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072669A (en) * | 2004-09-01 | 2006-03-16 | Sony Computer Entertainment Inc | Image processor, game device, and image processing method |
JP2006146338A (en) * | 2004-11-16 | 2006-06-08 | Sony Computer Entertainment Inc | Entertainment device, device and method for displaying object, program, and method for displaying character |
JP2006221534A (en) * | 2005-02-14 | 2006-08-24 | Toyota Auto Body Co Ltd | Digital mock-up system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024024981A1 (en) * | 2022-07-28 | 2024-02-01 | Softbank Corp. | Information processing method, non-transitory computer-readable storage medium, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP4829157B2 (en) | 2011-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2732436B1 (en) | Simulating three-dimensional features | |
EP2936441B1 (en) | Method for representing virtual information in a real environment | |
Pfautz | Depth perception in computer graphics | |
US20110084983A1 (en) | Systems and Methods for Interaction With a Virtual Environment | |
US20120200600A1 (en) | Head and arm detection for virtual immersion systems and methods | |
CN107209565B (en) | Method and system for displaying fixed-size augmented reality objects | |
KR20170007102A (en) | Device and method for generating and displaying three-dimentional map | |
CN110888567A (en) | Location-based virtual element modality in three-dimensional content | |
US20220005283A1 (en) | R-snap for production of augmented realities | |
JP7421505B2 (en) | Augmented reality viewer with automated surface selection and content orientation placement | |
JP6693223B2 (en) | Information processing apparatus, information processing method, and program | |
JP7155291B2 (en) | environment movement | |
US20170104982A1 (en) | Presentation of a virtual reality scene from a series of images | |
CN112396705A (en) | Mitigation of small field of view display using transitional visual content | |
KR20190048360A (en) | Method and apparatus for processing image | |
Trapp et al. | Strategies for visualising 3D points-of-interest on mobile devices | |
WO2017037952A1 (en) | Program, recording medium, content provision device, and control method | |
JP4829157B2 (en) | 3D display device | |
KR101428577B1 (en) | Method of providing a 3d earth globes based on natural user interface using motion-recognition infrared camera | |
KR20180122248A (en) | Apparatus for providing interactive content and method for the same | |
US20230396750A1 (en) | Dynamic resolution of depth conflicts in telepresence | |
WO2017169272A1 (en) | Information processing device, information processing method, and program | |
Engel et al. | An immersive visualization system for virtual 3d city models | |
JP2017097854A (en) | Program, recording medium, content providing device, and control method | |
US20150365657A1 (en) | Text and graphics interactive display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110819 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110915 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4829157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |