JP3408263B2 - Information presentation apparatus and information presentation method - Google Patents

Information presentation apparatus and information presentation method

Info

Publication number
JP3408263B2
JP3408263B2 JP07442992A JP7442992A JP3408263B2 JP 3408263 B2 JP3408263 B2 JP 3408263B2 JP 07442992 A JP07442992 A JP 07442992A JP 7442992 A JP7442992 A JP 7442992A JP 3408263 B2 JP3408263 B2 JP 3408263B2
Authority
JP
Japan
Prior art keywords
user
information
virtual
attribute
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07442992A
Other languages
Japanese (ja)
Other versions
JPH05282279A (en
Inventor
美和子 土井
健一 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP07442992A priority Critical patent/JP3408263B2/en
Priority to US08/039,830 priority patent/US5999185A/en
Publication of JPH05282279A publication Critical patent/JPH05282279A/en
Application granted granted Critical
Publication of JP3408263B2 publication Critical patent/JP3408263B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はマルチメディアシステム
若しくはバーチャルリアリティ(仮想現実感)システム
での情報提示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for presenting information in a multimedia system or a virtual reality system.

【0002】[0002]

【従来の技術】従来のコンピュータグラフィックス(Co
mputer Graphics )技術において、物体の形状と物体の
材質は切り放されて定義されることが多い。例えば、壺
の3次元形状データがあったとすると、その表面をどう
見せるかで物体の質感が異なる。
2. Description of the Related Art Conventional computer graphics (Co
In the (mputer Graphics) technology, the shape of the object and the material of the object are often defined by being cut off. For example, if there is three-dimensional shape data of a vase, the texture of the object differs depending on how the surface is viewed.

【0003】一番簡単な質感提示の方法は、物体の色や
物体表面の光の反射量を変えることである。鏡面反射す
るようにすれば、金属風の材質の壺となる。一方、均一
に拡散するようにすれば、プラスチック風の壺に見せる
ことができる。しかし、これでは均一の表面しかできな
い。
The simplest method of presenting a texture is to change the color of an object or the amount of light reflected from the object surface. If it is mirror-reflected, it will be a vase made of metal-like material. On the other hand, if it is made to diffuse uniformly, it can look like a plastic vase. However, this gives only a uniform surface.

【0004】次の方法は、「テクスチヤ・マッピング」
と呼ばれるもので、物体の表面に「模様」を貼り付ける
ものである。木目を貼り付ければ「木」の壺になり、マ
ーブル模様では「大理石」の壺になる。また、「絵」を
貼ることもあり、コーラの側面ラベルを投影すればコー
ラの壺になる。この方法では、つるつるの表面につるつ
るの絵を貼り付けているだけなので、凸凹の質感を提示
することは困難である。
The next method is "texture mapping".
It is called "Pattern" on the surface of an object. If you stick the wood grain, it becomes a "wooden" jar, and in the marble pattern it becomes a "marble" jar. Also, sometimes a "picture" is attached, and if the side label of the cola is projected, it becomes a cola vase. In this method, it is difficult to present the texture of unevenness because only a slippery picture is pasted on the smooth surface.

【0005】そこで考えられるのが、「バンプ・マッピ
ング」というもので、これは物体の表面に「法線ベクト
ルのズレ」を貼り付けるものである。表面がでこぼこな
どの加工されているように見えるので、「岩肌」や「真
鍮細工」や「水紋」などに表面を見せることができる。
この場合でも、もとの形状データを複雑にする必要はな
い。
What can be considered there is "bump mapping", in which "a deviation of the normal vector" is pasted on the surface of the object. The surface appears to be uneven, so you can show it on "rock faces", "brass work", or "water marks".
Even in this case, it is not necessary to complicate the original shape data.

【0006】又、バーチャルリアリティ(Virtual Real
ity )と呼ばれる技術は、立体映像やコンピュータグラ
フィックス(Computer Graphics )などの映像や立体音
響、人工触覚などの電子的技術により、あたかも現実の
ように感じられる様な環境状況を作り出すことが可能で
ある。
In addition, virtual reality
The technology called "ity" is capable of creating environmental conditions that make people feel as if they were real by using stereoscopic images, images such as computer graphics, and stereoscopic sound, and electronic technologies such as artificial tactile sensation. is there.

【0007】バーチャルリアリティを利用して宇宙冒険
旅行などを体験できるようにしたアミューズメントが遊
園地で催されている。これは、実際には、体験すること
が現状ではできないことがバーチャルリアリティの利用
により、可能になったものである。あるいは航空訓練シ
ミュレータなどに用いることにより、実地に近い訓練を
することが可能になった。
Amusement parks are being held at amusement parks that allow users to experience space adventure travel and the like using virtual reality. This is made possible by the use of virtual reality, which is actually impossible to experience at present. Alternatively, by using it in an aviation training simulator, etc., it became possible to carry out training close to the actual situation.

【0008】これらバーチャルリアリティで用いられる
情報提示装置では、あらかじめ、ユーザの属性すなわち
身長や腕力などを適当に想定して、視点や反発力、音の
大きさなどをユーザの属性に合わせて決定している。こ
のため、想定されているユーザの属性と極端に異なる属
性を有するユーザが使用する場合、バーチャルリアリテ
ィの体験に必要なパラメータが合わないため、仮想の体
験ができない事態となる。
In the information presenting apparatus used in these virtual reality systems, the viewpoint, repulsive force, loudness, etc. of the user are determined in advance according to the user's attributes by appropriately assuming the user's attributes such as height and arm strength. ing. For this reason, when a user having an attribute extremely different from the attribute of the assumed user is used, the virtual experience cannot be performed because the parameters necessary for the experience of virtual reality do not match.

【0009】例えば、ユーザの属性が成人男子だと想定
して位置設定としての視点を定めておいた時、現実では
成人男子よりはるかに背の低い子供達がユーザつまり属
性所有者であった場合、ユーザ属性の1つである腕の長
さが短いために、あらかじめユーザ属性を想定して材料
を設定しておくためバーチャルリアリティの中で設定さ
れている物体に手が届かなかったり、腕力がないため
に、バーチャルリアリティシステムがかけた荷重は実際
のユーザの腕力以上の力となって、反発力が返ってくる
ために、想定した力が強すぎて、はね飛ばされたりす
る。
For example, when the viewpoint for position setting is set assuming that the user's attribute is an adult boy, and in reality, children much shorter than the adult boy are the user, that is, the owner of the attribute. , Since the length of the arm, which is one of the user attributes, is short, the material set in advance assuming the user attributes cannot reach the object set in the virtual reality, or the strength of the arm cannot be reached. Since there is no such force, the load applied by the virtual reality system becomes stronger than the physical strength of the actual user, and the repulsive force is returned, so the assumed force is too strong and is splashed.

【0010】また、立体視や立体音響を用いたバーチャ
ルリアリティの場合にも、特定のユーザ(開発者自身の
ことが多いが)を想定して、両眼の間隔や両耳の間隔な
どを設定しているが、実際には、これらにはユーザとし
ての属性として個人差があるため、一般平均属性のユー
ザに対応させてあらかじめパラメータが設定されている
ため、完全に立体的に見えなかったり、聞えなかったり
する場合がよく生じる。
Also, in the case of virtual reality using stereoscopic vision or stereophonic sound, the distance between both eyes and the distance between both ears are set assuming a specific user (often the developer himself). However, in reality, these have individual differences as attributes as users, so parameters are set in advance corresponding to users of general average attributes, so they do not look completely three-dimensional, or It often happens that you can't hear.

【0011】あるいは、バーチャルリアリティを利用し
て製品のプロトタイプを使用評価する場合、子供が使う
商品であれば、子供の立場になって評価せねばならな
い。つまり成人が仮に子供のサイズ、腕力の持ち主にな
って、体験できれば、子供の立場で評価ができる。ま
た、キッチンの使用評価であれば、同じ成人女子でも、
ユーザ層が若い年齢層と高年齢者層を対応としては、好
みはもちろんのこと環境の適応として、つまりユーザー
の属性すなわち、平均身長が異なるので、それぞれの好
みや、それぞれの環境に適応性のある身長になったと仮
想した時の体験をし、使い勝手つまり使いやすさをを評
価する必要がある。
Alternatively, when a product prototype is used and evaluated by utilizing virtual reality, if the product is used by a child, it must be evaluated from the child's standpoint. In other words, if an adult becomes the owner of a child's size and strength and can experience it, they can be evaluated from the child's standpoint. Also, if it is a kitchen usage evaluation, even the same adult girl,
When the user group corresponds to the younger age group and the elderly group, it is not only the preference but also the adaptation of the environment, that is, the attribute of the user, that is, the average height is different, so it is possible to adapt to each taste and each environment. It is necessary to experience the hypothesis of having become a certain height and evaluate the usability, that is, the ease of use.

【0012】しかし、現状のバーチャルリアリティで
は、特定の属性を所有するタイプのユーザを想定してい
るため、ユーザ属性の特性を変えて、別のユーザ属性の
所有者に仮になりきってある環境世界の中で体験するこ
とができないでいた。
However, in the current virtual reality, since it is assumed that the type of user owns a specific attribute, the characteristics of the user attribute are changed, and the environment world temporarily assumed to be the owner of another user attribute. I couldn't experience it.

【0013】[0013]

【発明が解決しようとする課題】上記のテクスチャマッ
ピングなどの技術では、提示が可能な質感データは視覚
情報だけであった。
In the above techniques such as texture mapping, the visual data is the only texture data that can be presented.

【0014】現実の世界では、木の壺は、表面の模様が
木目であるだけでなく、叩けば、木の鈍い音がし、触れ
ばざらざらした感触がある。上記のテクスチャマッピン
グなどの技術では、提示が可能な質感データは視覚情報
だけであるため、音感や触感などの質感を一体に扱うこ
とができなかった。
In the real world, a wooden vase has not only a grain pattern on its surface but also a dull sound of the tree when tapped and a rough feel when touched. With the techniques such as the texture mapping described above, the texture data that can be presented is only visual information, and therefore it is not possible to handle textures such as timbres and tactile sensations integrally.

【0015】又、従来のバーチャルリアリティ(仮想現
実感)では、あらかじめユーザ属性がある範囲内に定め
られているため、ある範囲外の属性を所有するユーザの
個人差が無視され無質が浮きぼりにされたままでいたし
また、他の属性の異なるユーザになりきってある環境の
世界観を味わい体験することもできなかった。
Further, in the conventional virtual reality, since the user attribute is set within a certain range in advance, the individual difference of the users who own the attribute outside the certain range is ignored, and the inferiority is revealed. I was left as it was, and I couldn't experience the world view of the environment where I became a user with different attributes.

【0016】本発明は以上のような問題を解決するた
め、複数のユーザの属性すなわち身長や視力、聴力など
の属性値を記憶させ、最適にパラメータ選択することに
より、仮想の世界環境で想定するユーザの属性に応じ
て、バーチャルリアリティに必要なパラメータを算出
し、このパラメータに基づき、コンピュータ・グラフィ
ック(CG)や立体映像などのバーチャルリアリティ
(仮想現実感の描写)提示を行なうことのできる情報提
示装置を提供することを目的とする。
In order to solve the above problems, the present invention stores a plurality of user attributes, that is, attribute values such as height, visual acuity, and hearing ability, and optimally selects parameters to assume in a virtual world environment. Parameters required for virtual reality are calculated according to the user's attributes, and based on these parameters, information presentation that can present virtual reality (depiction of virtual reality) such as computer graphics (CG) and stereoscopic images The purpose is to provide a device.

【0017】[0017]

【0018】[0018]

【課題を解決するための手段】 上記目的を達成するた
め、仮想情報を実ユーザーに提示する情報提示装置にお
いて、予め分類された仮想ユーザーのタイプ毎にその身
体的な特徴パラメータである属性を記憶するユーザー属
性記憶手段と、仮想ユーザーのタイプを指定するための
指定手段と、実ユーザーの身体的な特徴パラメータを入
力するための入力手段と、視覚、聴覚、触覚情報のうち
少なくとも1つを情報として実ユーザーに提示する提示
手段と、前記指定手段によって指定された仮想ユーザー
のタイプに対応する前記ユーザー属性記憶手段に記憶さ
れている属性と前記入力手段によって入力された実ユー
ザーの身体的な特徴パラメータを基に、提示手段による
実ユーザーへ提示すべき情報の提示を制御する提示制御
手段とを有することを特徴とする。
In order to achieve the above object, an information presenting apparatus for presenting virtual information to a real user is provided.
The type of virtual user that is pre-classified.
User attributes that store attributes that are physical characteristic parameters
Sex memory and for specifying the type of virtual user
Enter the specification method and the physical characteristic parameters of the real user.
Input means for force and visual, auditory and tactile information
Presentation that presents at least one to the actual user as information
Means and the virtual user designated by the designation means
Stored in the user attribute storage means corresponding to the type of
Attributes and the actual user input by the input means
Based on the physical characteristic parameters of the user
Presentation control that controls the presentation of information that should be presented to real users
And means.

【0019】[0019]

【作用】上述のごとく構成すれば、ユーザは、材質の名
称を指示するだけで、物体の性質に関する情報を視覚材
質以外の音感や触感などの質感情報を簡単に得ることが
できる。しかも、元の形状データを複雑にして処理を増
加させる必要がなく、さらに質感だけを容易に変更する
こともできる。
With the above-described structure, the user can easily obtain the information about the property of the object such as the texture and tactile information other than the visual material simply by designating the name of the material. Moreover, it is not necessary to complicate the original shape data and increase the number of processes, and it is possible to easily change only the texture.

【0020】更に、本発明では、複数の典型的な属性と
しての身長や視力、聴力など仮想空間の世界感を体験さ
せるためのパラメータを算出するのに必要なユーザ希望
属性をあらかじめ記憶させておき、それによって体験し
たいユーザの特性・属性を適宜に選別し、更に、別途入
力された実際に使用されるユーザの属性値により、バー
チャルリアリティ情報表示システムに必要なパラメータ
を算出する。このパラメータに基づき、コンピュータグ
ラフィック(CG)や立体映像などの画像提示を行うの
で、ユーザは、自分とは身長や視力、聴力などが異なっ
た仮の姿でユーザがあたかもリアルにその仮想環境世界
で体験しているかの様に味わえるようなる。
Further, according to the present invention, user-desired attributes necessary for calculating parameters for experiencing a sense of world in a virtual space such as height, visual acuity, and hearing as a plurality of typical attributes are stored in advance. Then, the characteristics and attributes of the user who want to experience are appropriately selected, and the parameters necessary for the virtual reality information display system are calculated based on the separately input user attribute values actually used. Images such as computer graphics (CG) and stereoscopic images are presented based on this parameter, so that the user is as if he / she is in a virtual appearance in a virtual environment in which his / her height, eyesight, and hearing are different. You will be able to taste it as if you are experiencing it.

【0021】また、本発明により、子供用の玩具の成人
開発者があたかも子供になり切って、その使用感を体験
したり、あるいは、システムキッチンの開発者である成
人男子が、使用者である成人女子の身長サイズ,好み等
の属性に適応させ、成人女子になり切り、システムキッ
チンの使用感を体験できるようになる。
Further, according to the present invention, an adult developer of a toy for children can become a child and experience the feeling of use, or an adult boy who is a developer of a system kitchen is a user. By adapting to the attributes of adult girls such as height size and taste, they can become adult girls and experience the system kitchen experience.

【0022】[0022]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。
Embodiments of the present invention will be described below with reference to the drawings.

【0023】図1は、本発明の第一実施例の概略構成図
である。物体の形状を2次元あるいは3次元的に定義し
て記憶する形状データ記憶部1と、視覚以外に、聴覚,
触覚,臭覚,味覚情報などの質感データを視覚情報と対
応させて記憶する質感データ記憶部2と、形状データに
材質の名称を指示するだけの簡単な操作で質感データを
割り当てる指示を行ったり、視覚情報や音感情報の入力
を行ったりするための例えば、マウスやスキャナ,マイ
クロフォンなどからなる入力部3と、形状データと質感
データを対応して記憶する記憶部7と、形状データや視
覚情報、あるいは入力指示のためのメニューなどを表示
したりするグラフィックディスプレイ5と、音感情報を
呈示するためのスピーカ6と、これらの間のデータのや
りとりを管理する管理部4とから構成されている。
FIG. 1 is a schematic configuration diagram of the first embodiment of the present invention. A shape data storage unit 1 that defines and stores the shape of an object two-dimensionally or three-dimensionally,
A texture data storage unit 2 that stores texture data such as tactile, olfactory, and taste information in association with visual information, and an instruction to assign texture data by a simple operation that simply indicates a material name in shape data, For example, an input unit 3 such as a mouse, a scanner, and a microphone for inputting visual information and pitch information, a storage unit 7 that stores shape data and texture data in association with each other, shape data and visual information, Alternatively, it is composed of a graphic display 5 for displaying a menu or the like for inputting instructions, a speaker 6 for presenting pitch information, and a management unit 4 for managing data exchange between these.

【0024】図1の構成の他に、触覚情報提示部が付加
された構成や、スピーカ6がない構成,味覚情報提示部
や臭覚情報提示部を具備した構成、あるいは五感情報す
べての提示部を具備した構成なども本発明の実施例とし
て可能である。
In addition to the configuration of FIG. 1, a configuration in which a tactile information presentation unit is added, a configuration without a speaker 6, a configuration including a taste information presentation unit and an odor information presentation unit, or a presentation unit for all five sense information is provided. The configuration provided is also possible as an embodiment of the present invention.

【0025】図2は、質感データ記憶部2の記憶方式の
一例である。入力部3で指示するときに用いる材質名ご
とにテクスチャ,音質,触質などの質感データが記憶さ
れている。
FIG. 2 shows an example of a storage system of the texture data storage unit 2. Texture data such as texture, sound quality, and texture is stored for each material name used when the input unit 3 gives an instruction.

【0026】音質は、衝突したり叩いたりしたときの音
はCollision 、手でこすったときの音はFinger−Scratc
h 、爪でこすったときの音はNail−Scratch の各項に記
憶されている。衝突したときもこすったときも、音に変
化のない場合には、図2の材質「ベルベット」の例のよ
うに、音質の属性値として直接記憶することもできる。
また、材質「陶器」のように壊れるものでは、壊れると
きの音がDestructionの項に記載されている。属性値
は、図2の例ではテクスチャや音質、触質を記憶してい
るデータファイル名となっている。テクスチャは、予
め、スキャナなどの入力部3より、取り込み、単位正方
形の大きさに正規化されている。また、音も、実際の鉄
や陶器をこすったり、叩いたりしたときに発声する音を
マイクロフォンなどの入力部3より取り込み、ADコン
バータにより、デイジタル化されて、蓄積されている。
触感はつるつるした感触、ざらざらした感触、すべすべ
した感触など、代表的な感触を記憶してある。記憶方式
は、触覚提示装置の提示方式に依存する。データファイ
ル名を記述する方法以外に、データファイルへのポイン
タなどを記憶する形式も可能である。
The sound quality is Collision when colliding or hitting, and Finger-Scratc when rubbed by hand.
The sound of h and rubbing with a nail is stored in each item of Nail-Scratch. When there is no change in sound upon collision or rubbing, it can be directly stored as an attribute value of sound quality, as in the example of the material "velvet" in FIG.
Also, in the case of materials that break like materials such as "pottery," the sound when they break is described in the Destruction section. In the example of FIG. 2, the attribute value is a data file name that stores texture, sound quality, and texture. The texture is previously captured by the input unit 3 such as a scanner and normalized to the size of a unit square. In addition, as for the sound, the sound produced when the actual iron or pottery is rubbed or hit is taken from the input unit 3 such as a microphone, digitized by the AD converter, and accumulated.
As for the tactile sensations, typical feels such as a smooth feel, a rough feel, and a smooth feel are stored. The storage system depends on the presentation system of the tactile presentation device. Besides the method of describing the data file name, a format for storing a pointer to the data file or the like is also possible.

【0027】触質は、どの方向に触っても変わりがない
場合には、図2の材質「鉄」「陶器」の例のように、触
質の属性値として直接記憶している。一方、図2の材質
「ベルベット」の例のように触る方向によって、感触の
異なるものは、xの正方向に触ったときの感触は、+
x、xの負方向の感触は−x、yの正方向の感触は+
y、yの負方向の感触は−yの項に、方向ごとに分けて
触質を記憶している。
If the tactile material does not change in any direction, the tactile material is directly stored as an attribute value of the tactile material as in the example of the material "iron" and "pottery" in FIG. On the other hand, as for the example of the material “velvet” in FIG. 2, which has a different touch depending on the touch direction, the touch when touched in the positive x direction is +
x, the negative feel of x is -x, the positive feel of y is +
Regarding the feeling of y and y in the negative direction, the texture is memorized in the −y section for each direction.

【0028】図2の記憶形式の他に、触質がない形式、
触質の代わりに味や臭気の属性がある場合など、種々の
形式が可能である。
In addition to the storage format shown in FIG. 2, there is no tactile format,
Various forms are possible, such as when there are attributes of taste and odor instead of texture.

【0029】次に本実施例に沿って形状データに質感デ
ータを割り当て、音質などをユーザに呈示する動作につ
いて説明する。
Next, the operation of assigning the texture data to the shape data and presenting the sound quality to the user will be described according to the present embodiment.

【0030】図3は、本実施例の画面例である。図3a
は、形状データ記憶部1より読み出した形状(壺)を表
示している。この壺に材質を割り付けたいとき、入力部
3により壺全体を対象として選択しておく。選択する
と、図3aに示されているように、材質を割り付けると
きの基準となる方向が矢印で示される。また、対象の指
定は、必ずしも物体全体に限定されず、物体の一部の面
だけでもよい。次に入力部3より、図3aの上法のメニ
ューバーより「材質」メニューを選択すると、図3bに
示すように、質感データ記憶部2に記憶されている材質
がテクスチャ見本とともに表示される。ユーザは、これ
らの材質より適宜選択し割付実行の指示を与えると、あ
らかじめ、選択してあった対象に選択された材質が割り
付けられる。
FIG. 3 is an example of a screen of this embodiment. Figure 3a
Indicates the shape (jar) read from the shape data storage unit 1. When it is desired to assign materials to this vase, the entire vase is selected by the input unit 3. When selected, as shown in FIG. 3a, the reference direction for assigning the material is indicated by an arrow. Further, the designation of the target is not necessarily limited to the entire object, and may be only a part of the surface of the object. Next, when the "material" menu is selected from the menu bar of the upper method of FIG. 3a from the input unit 3, the materials stored in the texture data storage unit 2 are displayed together with the texture sample as shown in FIG. 3b. When the user appropriately selects from these materials and gives an instruction to execute allocation, the selected material is allocated to the previously selected target.

【0031】例えば、図3bにて、「鉄」を選択し割付
実行の指示を与えると、図2に記憶されているiron−te
x が壺に割り当てられ、図3cのように鉄の壺らしい外
観となる。壺の基準方向にテクスチャの座標をそのまま
割り付けたくないときには、入力部3より、割り付けた
い方向に材質の方向を回転した後、割り付ける。例えば
180時回転した後では、テクスチャの文字は、上下逆
さに割り付けられるこことなる。テクスチャの座標系で
単位正方形を壺の表面の座標系の四辺形に写像する事に
より、割り付けが行われる。
For example, when "iron" is selected in FIG. 3b and an instruction to execute allocation is given, the iron-te stored in FIG.
x is assigned to the vase, giving it the appearance of an iron vase, as shown in Figure 3c. When it is not desired to directly assign the texture coordinates to the reference direction of the vase, the material is rotated in the desired direction from the input unit 3 and then the texture is assigned. For example, after the 180-degree rotation, the characters of the texture are arranged upside down. The allocation is done by mapping the unit squares in the coordinate system of the texture to the quadrilateral of the coordinate system of the surface of the vase.

【0032】割り当てられた結果、壺の形状データに鉄
の材質がリンクされた、例えば図4bに示すような形式
で記憶部8に格納される(質感データがリンクされる前
は、図4aに示すように、質感データの属性値がnil に
なっている)。磁気センサなどで、3次元座標値を入力
デバイスからなる入力部3により、図3cに表示されて
いる壺を叩く仕草(例えば、手のひらを広げた状態で振
る)をすると、記憶部8に格納された図4の形式のデー
タのリンクをたどって、図2の音質のCollision の項の
属性値iron−sound 1が読み出され、スピーカ6より、
iron−sound 1の音(鉄を叩いたときの音)が流れる。
入力部3により、爪でひっかく仕草(例えば人差し指だ
けのばした状態から、何回か人差し指を曲げたり伸ばし
たりする)をすると、Nail−Scratch の項の音質iron−
sound 2(鉄をひっかいたときの高音のキーキー音)が
発生する。
As a result of the allocation, the material of iron is linked to the shape data of the vase, and the data is stored in the storage unit 8 in a format as shown in FIG. 4b. As shown, the texture data attribute value is nil). The magnetic sensor or the like stores the three-dimensional coordinate values in the storage unit 8 when the input unit 3 including the input device makes the gesture of hitting the pot displayed in FIG. 3c (eg, shaking with the palm open). The attribute value iron-sound 1 of the Collision term of the sound quality of FIG. 2 is read by following the data link of the format of FIG.
iron-sound 1 sound (sound when iron is hit) is played.
When you use the input unit 3 to claw with your nails (for example, bending or extending the index finger several times from the state where the index finger is extended), the sound quality of the Nail-Scratch section iron-
sound 2 (high-pitched key sound when scratching iron) is generated.

【0033】もし、触覚の呈示を行えるデバイスが図1
の構成に付加されたならば、この時、図2の触質の属性
値が読み出され、slippery(つるつるした感触)を提示
できる。
If a device capable of presenting a tactile sensation is shown in FIG.
2 is read out at this time, the slippery (smooth feel) can be presented.

【0034】また、球に陶器の材質を割り当てた陶器の
球を、鉄の壺にぶつけると、鉄の壺からは、Collision
の項のiron−sound 1が発生する。ぶつかり方が強く、
ある値を越えると、陶器の球からは、Destruction の項
のchina −sound 4が発生し、陶器の球が鉄の壺にぶつ
かって割れるときの状況を疑似的に体験できる。
Further, when a pottery ball in which a pottery material is assigned to the ball is struck against an iron pot, the iron pot will cause Collision
The iron-sound 1 of is generated. The collision is strong,
When it exceeds a certain value, China-sound 4 of the Destruction term is generated from the pottery sphere, and you can simulate the situation when the pottery sphere hits an iron vase and cracks.

【0035】更に図5,図6,図7は第1実施例の流れ
図を示している。
Further, FIGS. 5, 6 and 7 show flow charts of the first embodiment.

【0036】図8は、本発明の第2実施例の概略構成図
である。同図に示す情報提示装置は、使用者が体験した
い対象の3次元モデルを記憶するモデル記憶部15と、
使用者が体験できる仮想ユーザの属性をタイプ別に、例
えば図9のように記憶する属性記憶部11と、使用者が
属性記憶部11から特定のタイプを指定したり、使用者
自身の身長を入力したりするための、キーボードあるい
はマウスなどからなる入力部22と、使用者の視点の位
置を3次元で計測できる磁気センサからなる位置入力部
16と、入力部12より指定されたタイプの属性記憶部
11の属性と、同じく入力部12より入力された使用者
の属性からの、変換率を算出し、この変換率を使用し
て、位置入力部16より入力された使用者の視点の位置
を仮想ユーザの位置に変換する変換部13と、変換部1
3により変換された仮想ユーザの視点位置に基づいて、
モデル記憶部15の3次元モデルを変換制御する管理部
14と、その結果を出力する、例えば両眼立体視ディス
プレイやあるいはヘッドマウンティドディスプレイなど
からなる出力部17とから構成されている。
FIG. 8 is a schematic configuration diagram of the second embodiment of the present invention. The information presentation device shown in FIG. 1 includes a model storage unit 15 that stores a three-dimensional model of a target that the user wants to experience,
An attribute storage unit 11 that stores virtual user attributes that the user can experience by type, for example, as shown in FIG. 9, and a user can specify a specific type from the attribute storage unit 11 or input the height of the user himself / herself. An input unit 22 including a keyboard or a mouse, a position input unit 16 including a magnetic sensor capable of measuring the position of the user's viewpoint in three dimensions, and an attribute memory of a type specified by the input unit 12. The conversion rate is calculated from the attribute of the section 11 and the attribute of the user similarly input from the input section 12, and the conversion rate is used to determine the position of the viewpoint of the user input from the position input section 16. Conversion unit 13 for converting to the position of the virtual user, and conversion unit 1
Based on the viewpoint position of the virtual user converted by 3,
The model storage unit 15 includes a management unit 14 that controls conversion of a three-dimensional model, and an output unit 17 that outputs the result and that includes, for example, a binocular stereoscopic display or a head-mounted display.

【0037】本発明を使用した場合の外観を示した図
が、図9である。使用者は180cmの身長の成人男子で
あるとする。この成人男子が使用者である小学生になり
きって小学生用の環境設備を設計をする場合を考える。
例えば高さ200cmの位置に授業に使うパネルを設置し
て、この位置が適切かどうかを判断するとしよう。使用
者は180cmの身長があるので、顔をあげることなくパ
ネルの上方から下、20cmのあたりを見ることができ
る。しかし、低学年の小学生は、図9の属性値からわか
るように身長120cmで、顔をあげない状態では、パネ
ルの下方を見ることができるだけである。成人男子の使
用者がしゃがんだりして、身長120cm相当になること
は可能であるが、さらに低学年の小学生が座った場合に
なりきっての視点位置などを体験することは、なかなか
できない。また、しゃがんだりして身長を低くできて
も、体勢が異なるので、正しい判断ができにくい。本発
明では、身長180cmの使用者が、身長120cmの小学
生になった場合に体験するであろう視点位置に出力画像
を変換し、提示する。従って、小学生が座った状態を体
験したい場合には、使用者が座ればよく、同じ体勢で、
正しく判断できる。
FIG. 9 is a view showing the external appearance of the case where the present invention is used. The user is an adult male with a height of 180 cm. Consider a case where this adult boy becomes an elementary school student who is a user and designs environmental equipment for elementary school students.
For example, let's install a panel for class at a height of 200 cm and judge whether this position is appropriate. Since the user has a height of 180 cm, he / she can see about 20 cm from the top to the bottom of the panel without raising his face. However, elementary school children of lower grades can only see the lower part of the panel when their height is 120 cm and their faces are not raised, as can be seen from the attribute values in FIG. Although it is possible for an adult male user to crouch and reach a height of 120 cm, it is difficult for the elementary school students of lower grades to experience the viewpoint position when sitting down. In addition, even if the person is crouched or the height can be reduced, the postures are different, and it is difficult to make a correct decision. According to the present invention, a user having a height of 180 cm converts the output image to a viewpoint position that a user who will be an elementary school student having a height of 120 cm will experience and presents it. Therefore, if the elementary school student wants to experience a sitting state, the user only needs to sit down, and in the same posture,
I can judge correctly.

【0038】変換の流れは、図11に示すようになって
いる。まず、使用者の身長などの属性を入力部12より
入力する(ステップa)。今の場合は身長180cmが入
力されたとする。次に属性記憶部11の中から、体験し
たいタイプを入力部12より指定する(ステップb)。
今の場合は、タイプ小学生(低学年)が指定されたとす
る。管理部14は、属性記憶部11より、指定されたタ
イプに対応する属性値を読み出す。この場合は身長12
0cmを読み出し、変換部13にユーザの身長と180cm
と一緒に送る。変換部13は、変換率rを算出する(ス
テップc)。この場合は、変換率rは120/180=
0.67である。変換部13は、この変換率rを保持し
ている。次に使用者より、変換終了が指示されない限り
(ステップd)、3次元位置入力部16から3次元位置
を読み込み(ステップe)、変換率rを使って、この場
合高さにあたるy座標値を変換する(ステップf)。管
理部14は、モデル記憶部15に記憶された3次元モデ
ルを読み込み、変換された位置に視点があるとして、2
次元上に投影した画像に変換し(ステップg)、更に出
力部17に表示する。この時点で表示される画像は、ユ
ーザが身長120cmになったと同じ状況で見える図10
の仮想ユーザからの視点の画像となっている。この状態
から、頭を動かしたりすると、実際に動いた距離dに変
換率rを掛け合わせた距離r・dが仮想移動距離とし
て、視点変換などを行うことになる。
The flow of conversion is as shown in FIG. First, attributes such as the height of the user are input from the input unit 12 (step a). In this case, it is assumed that the height of 180 cm is entered. Next, the type to be experienced is designated from the input unit 12 from the attribute storage unit 11 (step b).
In this case, it is assumed that the type elementary school (lower grade) is designated. The management unit 14 reads the attribute value corresponding to the specified type from the attribute storage unit 11. Height 12 in this case
0cm is read and the height of the user and 180cm
Send with. The conversion unit 13 calculates the conversion rate r (step c). In this case, the conversion rate r is 120/180 =
It is 0.67. The conversion unit 13 holds this conversion rate r. Next, unless the user gives an instruction to end the conversion (step d), the three-dimensional position is read from the three-dimensional position input unit 16 (step e), and the conversion rate r is used to calculate the y coordinate value corresponding to the height in this case. Convert (step f). The management unit 14 reads the three-dimensional model stored in the model storage unit 15, and supposes that the viewpoint is located at the converted position.
The image is converted into an image projected on a dimension (step g) and further displayed on the output unit 17. The image displayed at this point can be seen in the same situation as when the user became 120 cm tall.
It is an image from the viewpoint of the virtual user. If the head is moved from this state, the viewpoint conversion or the like is performed with the distance r · d obtained by multiplying the actually moved distance d by the conversion rate r as the virtual movement distance.

【0039】つまり、身長120cmになったとして、す
べての視点変更が行われる。この状態で、身長120cm
の小学生がパネルに掛かれた文字を楽々と見ることが可
能であるかどうかのチェックを、実際のものを作ったり
せずに行える利点がある。
That is, assuming that the height is 120 cm, all viewpoints are changed. Height 120 cm in this state
There is an advantage that elementary school students can check whether they can easily see the characters hung on the panel without making actual ones.

【0040】第2実施例では、使用者は、単に仮想的に
体験したいタイプを指定するだけで、ユーザ自身が身長
の異なる仮想ユーザとして見るのとまったく同じ状況で
仮想ユーザになりきった視点で見ることが可能である。
In the second embodiment, the user simply specifies the type he or she wants to experience virtually, and from the perspective of becoming a virtual user in the exact same situation as if the user himself / herself sees it as a virtual user of different height. It is possible to see.

【0041】さらに、ユーザ自身が仮想ユーザになりき
って作業したときに、腕が届くか届かないかの使用環境
をチェックすることが必要になってくる場合もある。こ
のために、例えば、両手の位置を検出できるよう赤外セ
ンサ,超音波センサ等の間接的測定により測定したり、
あるいは磁気センサの様な直接的計測値を手につけて行
う。図9の属性値のかわりに図12に示すように手の長
さを属性値として付加したものを属性記憶部11に用い
る。
Further, when the user himself / herself becomes a virtual user and works, it may be necessary to check the use environment whether the arm reaches or does not reach. For this purpose, for example, by indirect measurement with an infrared sensor, an ultrasonic sensor, or the like so that the positions of both hands can be detected,
Alternatively, a direct measurement value such as a magnetic sensor is attached to the hand. Instead of the attribute value of FIG. 9, the length of the hand added as an attribute value as shown in FIG. 12 is used for the attribute storage unit 11.

【0042】使用者は、属性として身長の他に腕の長さ
も入力する(図11ステップa)。変換部13は、身長
の変換率rの他に腕の長さの変換率sも算出する(ステ
ップc´)。腕の長さが65cmとすると、図11より読
み込んだ腕の長さ50cmに対して、変換率s=50/6
5=0.77となる。
The user inputs the arm length as well as the height as an attribute (step a in FIG. 11). The conversion unit 13 calculates the conversion ratio s of the arm length in addition to the conversion ratio r of the height (step c ′). Assuming that the arm length is 65 cm, the conversion rate s = 50/6 for the arm length 50 cm read from FIG.
5 = 0.77.

【0043】例えば、黒板に向かって、文字を書く作業
を想定すると、使用者は180cmの身長があり、腕の長
さも65cmあるので、楽々と字が書ける。しかし、仮想
ユーザとなった場合には、使用者は直接的計測用磁気セ
ンサをつけた手を精一杯伸しても、変換率rとdにより
縮小されるため、使用者は180+65−30=215
cmのところまで、実際には、手が届いても、仮想使用者
となりきった使用者は120+50−30×0.67=
約150cmまでしか届かない。従って、図13に示すよ
うに、手は黒板の下方にやっと届くのみである。
For example, supposing the operation of writing characters toward the blackboard, the user has a height of 180 cm and the length of the arms is 65 cm, so that the characters can be written easily. However, when the user becomes a virtual user, even if the user extends his hand with the magnetic sensor for direct measurement to the fullest extent, the conversion rate is reduced by the conversion rates r and d. Therefore, the user is 180 + 65-30 = 215
Even if the hand reaches to cm, the number of users who have become virtual users is 120 + 50-30 × 0.67 =
It only reaches up to about 150 cm. Therefore, as shown in FIG. 13, the hand can only reach below the blackboard.

【0044】このように、机と椅子の作業環境、キッチ
ンの作業環境、車の運転環境なども、必要な部分に直接
計測用磁気センサをつけて、同様にチェックが可能であ
る。
In this way, the working environment of the desk and chair, the working environment of the kitchen, the driving environment of the car, etc. can be similarly checked by directly attaching the magnetic sensor for measurement to a necessary portion.

【0045】図12の属性値以外に指の太さや、足の大
きさなどの種々の属性値を格納することも可能である。
したがって指の太さにより、玩具の隙間などに指が太い
と突っかかって安全だが、仮想使用者が小さな子供の場
合指が細いが故にはまり込んでしまって危険なことがあ
る。このような箇所はチェックが可能である。また、足
の大きさによりペダルが小さすぎて、十分踏み込めない
等のチェックも可能である。
In addition to the attribute values shown in FIG. 12, various attribute values such as the thickness of a finger and the size of a foot can be stored.
Therefore, depending on the thickness of the finger, it is safe to hit the gap in the toy or the like if the finger is thick. However, if the virtual user is a small child, the finger may get stuck because the finger is thin, which may be dangerous. Such places can be checked. It is also possible to check that the pedal is too small due to the size of the foot and cannot be fully depressed.

【0046】さらに、握力や背筋力などの筋力を属性値
として記憶しておき、図8の構成にさらにトルクモータ
などの力覚手段提示部18を具備した図14のような構
成の別の実施例もある。成人女子が車のハンドルを廻す
場合を想定する。使用者(成人男子)の腕力は、成人女
子の腕力に合わせて減衰されているので、力いっぱい廻
しても最大で成人女子の腕力でハンドルを廻した場合の
力しか発揮されない(手の位置は、データグローブなど
の位置入力部16により入力)。つまり、図15に示す
ように、仮想ユーザ(成人女子)では、わずか30度程
度しかハンドルが回転しない様子が、出力部17に表示
される。また、トルクモータにより力がフィードバック
されるので、ハンドルが重い感触がわかる。
Further, muscle strength such as grip strength and back muscle strength is stored as an attribute value, and the structure shown in FIG. 8 is further provided with a force sense means presentation unit 18 such as a torque motor. There are also examples. Suppose an adult girl turns the steering wheel of a car. Since the strength of the user (adult boy) is attenuated in accordance with the strength of the adult girl, even if he / she is fully turned, only the strength when the handle is turned by the strength of the adult girl is exerted (the hand position is Inputted by the position input unit 16 such as a data glove). That is, as shown in FIG. 15, in the virtual user (adult girl), a state in which the handle rotates only about 30 degrees is displayed on the output unit 17. Further, since the force is fed back by the torque motor, it is possible to feel that the handle is heavy.

【0047】さらに、実際運転している状況をシミュレ
ートするには、図15の背景に路面を映写し、力がない
ために、右折・左折時に手間取る様子を体験できる。
Further, in order to simulate the actual driving situation, the road surface is projected on the background of FIG. 15, and since there is no power, it is possible to experience a time-consuming work when making a right turn or a left turn.

【0048】以上の実施例では、視点や、身体のスケー
ル、力の変換を例としてあけたが、これ以外にも視力
(視力のよい人がよくない人になったように画像をぼや
けさせる)、音感(音感のよくない人がよくなったよう
に聞こえる)や、聴覚(耳のよい人が耳の悪いように聞
こえるようにする)、温感(寒がりの人が暑がりやの人
の感覚を体験)、触覚、味覚、臭覚などに関しても、属
性記憶部に属性として記憶し、これらの感覚を提示でき
るデバイスなどを具備することにより、属性の異なるユ
ーザに成りきって別人ユーザとしての目,耳,行動等、
自己の環境とは別のバーチャルリアリティ世界感を体験
することができる。
In the above embodiments, the viewpoint, the scale of the body, and the conversion of power are opened as examples. However, in addition to this, visual acuity (the image is blurred like a person with good eyesight becomes a person with bad eyesight). Sense of sound (those who have a poor sense of audibility feel better), hearing (those who have a good hearing feel like they have a poor sense of ears), warmth (the sensation of a person who is cold and hot). ), Touch, taste, smell, etc. are stored in the attribute storage unit as attributes, and by providing a device capable of presenting these sensations, etc. Ears, actions, etc.
You can experience a virtual reality world feeling different from your own environment.

【0049】[0049]

【発明の効果】以上説明したように本発明によれば、形
状データに材質を割り付けるだけの簡単な操作で、ユー
ザは、視覚情報以外の聴覚や触覚の情報を体験できるの
で、より自然に物体の編集操作などが行え、その効果は
大きい。
As described above, according to the present invention, the user can experience auditory and tactile information other than visual information by a simple operation of assigning a material to shape data. You can perform editing operations, etc., and the effect is great.

【0050】また、形状データと質感データが分離され
ているので、形状の変更や質感の変更を容易に行うこと
が可能となる。
Moreover, since the shape data and the texture data are separated, it is possible to easily change the shape and the texture.

【0051】また、第2の本発明によれば、開発者が開
発した製品を使うユーザと、身体的特徴が異なる場合に
も、仮想的にユーザと同じ大きさになって、使用感を体
験したり、不具合者の方々に使用可能な装置,設備は特
に危険な箇所などをチェックできるので、その効果は大
きい。
Further, according to the second aspect of the present invention, even if the user who uses the product developed by the developer has different physical characteristics, the size is virtually the same as the user and the user can experience the feeling of use. The equipment and facilities that can be used by people with problems can check particularly dangerous places, so the effect is great.

【0052】複数のユーザの身長や視力、聴力などのバ
ーチャルリアリティにおいて、仮想空間を体験するため
のパラメータを算出するのに必要な特性を予め記憶して
おく。これより、体験したいユーザの特性を適宜かつ最
適に選択できる。別途入力される実際に使用されるユー
ザの属性値と、選択された属性値に基づき、バーチャル
リアリティに必要なパラメータを算出する。このパラメ
ータに基づきコンピュータグラフィック(CG)や立体
映像などの提示を行うものであり、ユーザは、自分自身
とは身長や視力、聴力などが異なる仮想ユーザが自分自
身のごとくなりきって体験しているのと同様の状況条件
での仮想空間世界を体験できる。
In virtual reality such as heights, visual acuity, and hearing ability of a plurality of users, characteristics required for calculating parameters for experiencing the virtual space are stored in advance. From this, the characteristics of the user who wants to experience can be selected appropriately and optimally. The parameters required for the virtual reality are calculated based on the attribute values of the actually used user, which are separately input, and the selected attribute values. Computer graphics (CG) and stereoscopic images are presented based on this parameter, and the user experiences as a virtual user whose height, visual acuity, and hearing are different from himself. You can experience the virtual world under the same conditions as in.

【0053】本発明により、子供用の玩具の成人男子の
開発者が子供になって、その使用感を体験したり、ある
いは、システムキッチンの開発者である成人男子が、使
用者である成人女子の身長サイズになり、かつシステム
キッチンの使用感を体験することができるという効果が
得られる。。
According to the present invention, an adult male developer of a toy for children becomes a child to experience the feeling of use, or an adult male who is a developer of the system kitchen is an adult female who is a user. It has the effect of becoming the size of a person and experiencing the usability of the system kitchen. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】第1実施例中の質感データ記憶部の記憶形式の
一例を示す図である。
FIG. 2 is a diagram showing an example of a storage format of a texture data storage unit in the first embodiment.

【図3】第1本実施例中の画面例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a screen in the first embodiment.

【図4】第1本実施例の記憶部の格納例を示す説明図で
ある。
FIG. 4 is an explanatory diagram showing a storage example of a storage unit of the first embodiment.

【図5】第1実施例の動作を示すフローチャートの第1
の分図である。
FIG. 5 is a first flowchart showing the operation of the first embodiment.
FIG.

【図6】第1実施例の動作を示すフローチャートの第2
の分図である。
FIG. 6 is a second flowchart showing the operation of the first embodiment.
FIG.

【図7】第1実施例の動作を示すフローチャートの第3
の分図である。
FIG. 7 is a third flowchart showing the operation of the first embodiment.
FIG.

【図8】本発明の第2実施例の構成を示すブロック図で
ある。
FIG. 8 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.

【図9】第2実施例中の属性記憶例を示す説明図であ
る。
FIG. 9 is an explanatory diagram showing an example of attribute storage in the second embodiment.

【図10】第2実施例の装置を実際に使用した様子を示
す外観図である。
FIG. 10 is an external view showing how the apparatus of the second embodiment is actually used.

【図11】第2実施例の動作を示すフローチャートであ
る。
FIG. 11 is a flowchart showing the operation of the second embodiment.

【図12】属性の記憶例を示す説明図である。FIG. 12 is an explanatory diagram showing an example of storage of attributes.

【図13】第2実施例の変形例装置を使用した様子を示
す外観図である。
FIG. 13 is an external view showing a state in which the modified device of the second embodiment is used.

【図14】第2実施例の変形例の構成を示すブロック図
である。
FIG. 14 is a block diagram showing a configuration of a modification of the second embodiment.

【図15】画面例を示す図である。FIG. 15 is a diagram showing an example of a screen.

【符号の説明】[Explanation of symbols]

1 形状データ記憶部 2 質感データ記憶部 3 入力部 4 管理部 5 ディスプレイ 6 スピーカ 7 記憶部 11 属性記憶部 12 入力部 13 変換部 14 管理部 15 モデル記憶部 16 位置入力部 17 出力部 18 力覚提示部 1 Shape data storage 2 Texture data storage 3 input section 4 management department 5 display 6 speakers 7 memory 11 Attribute storage 12 Input section 13 Converter 14 Management Department 15 Model storage 16 Position input section 17 Output section 18 Force Display

フロントページの続き (56)参考文献 特開 平4−91205(JP,A) 特開 平2−27420(JP,A) 特開 平2−273861(JP,A) 米国特許5671283(US,A) 国際公開96/027155(WO,A1) 廣瀬通孝,人工現実感とマン・マシ ン・インタフェース,電気学会誌,日 本,1991年10月20日,第111巻第10号, 831−834 (58)調査した分野(Int.Cl.7,DB名) G06F 19/00 110 G06T 17/40 JICSTファイル(JOIS)Continuation of the front page (56) Reference JP-A-4-91205 (JP, A) JP-A-2-27420 (JP, A) JP-A-2-273861 (JP, A) US Pat. No. 5671283 (US, A) International Publication 96/027155 (WO, A1) Michitaka Hirose, Artificial Reality and Man-Machine Interface, The Institute of Electrical Engineers of Japan, Japan, October 20, 1991, Vol. 111, No. 10, 831-834 (58) ) Fields surveyed (Int.Cl. 7 , DB name) G06F 19/00 110 G06T 17/40 JISST file (JOIS)

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 仮想情報を実ユーザーに提示する情報提示
装置において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性を記憶するユーザー属性記憶
手段と、 仮想ユーザーのタイプを指定するための指定手段と、 実ユーザーの身体的な特徴パラメータを入力するための
入力手段と、 視覚、聴覚、触覚情報のうち少なくとも1つを情報とし
て実ユーザーに提示する提示手段と、 前記指定手段によって指定された仮想ユーザーのタイプ
に対応する前記ユーザー属性記憶手段に記憶されている
属性と前記入力手段によって入力された実ユーザーの身
体的な特徴パラメータを基に、提示手段による実ユーザ
ーへ提示すべき情報の提示を制御する提示制御手段と、 を有することを特徴とする情報提示装置。
1. An information presenting device for presenting virtual information to a real user, a user attribute storage means for storing an attribute, which is a physical characteristic parameter, for each type of virtual user classified in advance, and a type of virtual user. Specifying means for specifying the physical characteristic parameter of the real user, input means for inputting physical characteristic parameters of the real user, presenting means for presenting at least one of visual, auditory, and tactile information to the real user as information, Based on the attributes stored in the user attribute storage unit corresponding to the type of the virtual user designated by the designation unit and the physical characteristic parameters of the real user input by the input unit, An information presentation device comprising: a presentation control unit that controls presentation of information to be presented.
【請求項2】 仮想情報を実ユーザーに提示する情報提示
装置において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性を記憶するユーザー属性記憶
手段と、 仮想ユーザーのタイプを指定するための指定手段と、 実ユーザーの視点位置を入力するための位置入力手段
と、 前記位置入力手段によって入力された視点位置を、前記
指定手段によって指定された仮想ユーザーのタイプに対
応する前記ユーザー属性記憶手段に記憶されている属性
から得られる視点位置に変換し、変換された視点位置に
基づいて実ユーザーに提示すべき情報を提示する視点変
換手段と、 を有することを特徴とする情報提示装置。
2. An information presenting device for presenting virtual information to a real user, a user attribute storage means for storing an attribute that is a physical characteristic parameter for each type of a virtual user classified in advance, and a type of the virtual user. Specifying means for specifying, the position input means for inputting the viewpoint position of the real user, and the viewpoint position input by the position input means corresponding to the type of the virtual user specified by the specifying means Viewpoint conversion means for converting to a viewpoint position obtained from the attributes stored in the user attribute storage means, and for presenting information to be presented to the actual user based on the converted viewpoint position, Information presentation device.
【請求項3】 仮想情報を実ユーザーに提示する情報提示
装置において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性を記憶するユーザー属性記憶
手段と、 仮想ユーザーのタイプを指定するための指定手段と、 実ユーザーの視点位置を計測するための位置入力手段
と、 前記指定手段によって指定された仮想ユーザーのタイプ
に対応する前記ユーザー属性記憶手段に記憶されている
属性および前記位置入力手段によって計測された視点位
置を基に、実ユーザーに提示すべき情報を指定された仮
想ユーザーの属性に対応する身体サイズに変換するため
のスケーリング変換手段と、 を有することを特徴とする情報提示装置。
3. An information presenting device for presenting virtual information to a real user, a user attribute storage means for storing an attribute which is a physical characteristic parameter for each type of virtual user classified in advance, and a type of virtual user. Specifying means for specifying, a position input means for measuring the viewpoint position of the real user, an attribute stored in the user attribute storage means corresponding to the type of the virtual user specified by the specifying means, and Scaling conversion means for converting information to be presented to the real user into a body size corresponding to the attribute of the specified virtual user based on the viewpoint position measured by the position input means, Information presentation device.
【請求項4】 仮想情報を実ユーザーに提示する情報提示
装置において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性を記憶するユーザー属性記憶
手段と、 仮想ユーザーのタイプを指定するための指定手段と、 実ユーザーの視点位置を計測するための位置入力手段
と、 ユーザーの力覚情報を提示するための力覚提示手段と、 前記指定手段によって指定された仮想ユーザーのタイプ
に対応する前記ユーザー属性記憶手段に記憶されている
属性および前記位置入力手段によって計測された視点位
置を基に、実ユーザーに提示すべき情報を指定された仮
想ユーザーの属性に対応する力覚に変換するための変換
手段と、 を有することを特徴とする情報提示装置。
4. An information presenting device for presenting virtual information to a real user, a user attribute storage means for storing an attribute which is a physical characteristic parameter for each type of virtual user classified in advance, and a type of virtual user. Specifying means for specifying, a position input means for measuring the viewpoint position of the real user, a force sense presenting means for presenting force information of the user, and a virtual user of the virtual user designated by the specifying means. Based on the attribute stored in the user attribute storage means corresponding to the type and the viewpoint position measured by the position input means, the force sense corresponding to the attribute of the virtual user for which the information to be presented to the real user is specified. An information presenting apparatus, comprising: a conversion unit for converting into.
【請求項5】 仮想情報を実ユーザーに提示する情報提示
方法において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性をユーザー属性記憶手段に記
憶し、 仮想ユーザーのタイプを指定手段により指定し、 実ユーザーの身体的な特徴パラメータを入力手段により
入力し、 前記指定手段によって指定された仮想ユーザーのタイプ
に対応する前記ユーザー属性記憶手段に記憶されている
属性と前記入力手段によって入力された実ユーザーの身
体的な特徴パラメータを基に、実ユーザーへ提示すべき
視覚、聴覚、触覚情報のうち少なくとも1つを情報の提
示を提示制御手段により制御することを特徴とする情報
提示方法。
5. An information presentation method for presenting virtual information to a real user, wherein an attribute which is a physical characteristic parameter of each type of virtual user classified in advance is stored in a user attribute storage means, and the type of virtual user is stored. Is specified by the specifying means, the physical characteristic parameter of the real user is input by the input means, and the attribute stored in the user attribute storage means corresponding to the type of the virtual user specified by the specifying means and the input The presentation control means controls the presentation of at least one of visual, auditory, and tactile information to be presented to the real user based on the physical feature parameter of the real user inputted by the means. Information presentation method.
【請求項6】 仮想情報を実ユーザーに提示する情報提示
方法において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性をユーザー属性記憶手段に記
憶し、 仮想ユーザーのタイプを指定手段により指定し、 実ユーザーの視点位置を位置入力手段により入力し、 前記位置入力手段によって入力された視点位置を、前記
指定手段によって指定された仮想ユーザーのタイプに対
応する前記ユーザー属性記憶手段に記憶されている属性
から得られる視点位置に視点変換手段により変換し、変
換された視点位置に基づいて実ユーザーに提示すべき情
報を提示することを特徴とする情報提示方法。
6. An information presentation method for presenting virtual information to a real user, wherein an attribute which is a physical characteristic parameter of each type of virtual user classified in advance is stored in a user attribute storage means, and the type of virtual user is stored. Is specified by the specification means, the viewpoint position of the real user is input by the position input means, and the viewpoint position input by the position input means is stored in the user attribute memory corresponding to the type of the virtual user specified by the specification means. An information presenting method characterized in that the viewpoint converting means converts the viewpoint position obtained from the attribute stored in the means, and presents information to be presented to a real user based on the converted viewpoint position.
【請求項7】 仮想情報を実ユーザーに提示する情報提示
方法において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性をユーザー属性記憶手段によ
り記憶し、 仮想ユーザーのタイプを指定手段により指定し、 実ユーザーの視点位置を位置入力手段により計測し、 前記指定手段によって指定された仮想ユーザーのタイプ
に対応する前記ユーザー属性記憶手段に記憶されている
属性および前記位置入力手段によって計測された視点位
置を基に、実ユーザーに提示すべき情報を指定された仮
想ユーザーの属性に対応する身体サイズに、スケーリン
グ変換手段により変換することを特徴とする情報提示方
法。
7. An information presentation method for presenting virtual information to a real user, wherein an attribute which is a physical characteristic parameter of each type of virtual user classified in advance is stored by a user attribute storage means, and the type of virtual user is stored. Is designated by the designation means, the viewpoint position of the real user is measured by the position input means, and the attribute stored in the user attribute storage means corresponding to the type of the virtual user designated by the designation means and the position input means A method for presenting information, characterized in that the scaling conversion means converts the information to be presented to the real user into the body size corresponding to the attribute of the designated virtual user based on the viewpoint position measured by.
【請求項8】 仮想情報を実ユーザーに提示する情報提示
方法において、 予め分類された仮想ユーザーのタイプ毎にその身体的な
特徴パラメータである属性をユーザー属性記憶手段に記
憶し、 仮想ユーザーのタイプを指定手段により指定し、 実ユーザーの視点位置を位置入力手段により計測し、 前記指定手段によって指定された仮想ユーザーのタイプ
に対応する前記ユーザー属性記憶手段に記憶されている
属性および前記位置入力手段によって計測された視点位
置を基に、実ユーザーに提示すべき情報を指定された
仮想ユーザーの属性に 対応する力覚に変換手段により
変換することを特徴とする情報提示方法。
8. An information presentation method for presenting virtual information to a real user, wherein an attribute which is a physical characteristic parameter of each type of virtual user classified in advance is stored in a user attribute storage means, and the type of virtual user is stored. Is designated by the designation means, the viewpoint position of the real user is measured by the position input means, and the attribute stored in the user attribute storage means corresponding to the type of the virtual user designated by the designation means and the position input means The information to be presented to the actual user was specified based on the viewpoint position measured by
A method for presenting information, characterized by converting the sense of force corresponding to an attribute of a virtual user by a converting means.
JP07442992A 1992-03-30 1992-03-30 Information presentation apparatus and information presentation method Expired - Fee Related JP3408263B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07442992A JP3408263B2 (en) 1992-03-30 1992-03-30 Information presentation apparatus and information presentation method
US08/039,830 US5999185A (en) 1992-03-30 1993-03-30 Virtual reality control using image, model and control data to manipulate interactions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07442992A JP3408263B2 (en) 1992-03-30 1992-03-30 Information presentation apparatus and information presentation method

Publications (2)

Publication Number Publication Date
JPH05282279A JPH05282279A (en) 1993-10-29
JP3408263B2 true JP3408263B2 (en) 2003-05-19

Family

ID=13546963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07442992A Expired - Fee Related JP3408263B2 (en) 1992-03-30 1992-03-30 Information presentation apparatus and information presentation method

Country Status (1)

Country Link
JP (1) JP3408263B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741343A (en) * 2016-01-28 2016-07-06 联想(北京)有限公司 Information processing method and electronic equipment

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100368508B1 (en) * 1994-09-07 2005-10-25 코닌클리케 필립스 일렉트로닉스 엔.브이. Information processing system interacts with virtual workspaces with user-programmable tactile feedback
US7053906B2 (en) 2000-03-08 2006-05-30 Sony Computer Entertainment Inc. Texture mapping method, recording medium, program, and program executing apparatus
US6724385B2 (en) 2000-03-08 2004-04-20 Sony Computer Entertainment Inc. Method of replaying game, recording medium, program, and entertainment system
US7269843B2 (en) 2000-04-26 2007-09-11 Minolta Co., Ltd. Broadcasting system and media player
JP4992163B2 (en) * 2001-04-03 2012-08-08 凸版印刷株式会社 Pattern design simulation system and server used for pattern design simulation system
JP4345534B2 (en) * 2004-03-17 2009-10-14 ソニー株式会社 Input device with tactile function, information input method, and electronic device
JP4760344B2 (en) * 2005-12-01 2011-08-31 パナソニック電工株式会社 Virtual space experience system
JP4634975B2 (en) * 2006-07-21 2011-02-16 日本電信電話株式会社 Visual-tactile fusion presentation device
KR101154306B1 (en) * 2010-11-22 2012-06-13 기아자동차주식회사 Method for haptic feeling distinction of rotary swMethod for haptic feeling distinction of rotary switch itch
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
JP2017182495A (en) * 2016-03-30 2017-10-05 ソニー株式会社 Information processing device, information processing method and program
WO2017216992A1 (en) * 2016-06-17 2017-12-21 Necソリューションイノベータ株式会社 Virtual reality image display system and virtual reality image display method
JP6246310B1 (en) * 2016-12-22 2017-12-13 株式会社コロプラ Method, program, and apparatus for providing virtual space
JP2019082904A (en) * 2017-10-31 2019-05-30 ソニー株式会社 Information processor, information processing method and program
JP7200576B2 (en) * 2018-09-27 2023-01-10 富士通株式会社 Texture Presentation Method, Texture Presentation Program, Information Processing Apparatus, and Texture Presentation System

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
廣瀬通孝,人工現実感とマン・マシン・インタフェース,電気学会誌,日本,1991年10月20日,第111巻第10号,831−834

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741343A (en) * 2016-01-28 2016-07-06 联想(北京)有限公司 Information processing method and electronic equipment

Also Published As

Publication number Publication date
JPH05282279A (en) 1993-10-29

Similar Documents

Publication Publication Date Title
JP3408263B2 (en) Information presentation apparatus and information presentation method
JP6840702B2 (en) Friction Modulation for 3D Relief in Tactile Devices
US5999185A (en) Virtual reality control using image, model and control data to manipulate interactions
Schkolne et al. Surface drawing: creating organic 3D shapes with the hand and tangible tools
Lécuyer et al. HOMERE: a multimodal system for visually impaired people to explore virtual environments
US8111239B2 (en) Man machine interfaces and applications
US20080062169A1 (en) Method Of Enabling To Model Virtual Objects
KR20100063795A (en) Virtual reality environment creating device, and controller device
Deligiannidis et al. The vr scooter: Wind and tactile feedback improve user performance
Nishino et al. An IEC-based haptic rendering optimizer
Kreifeldt et al. The importance of “feel” in product design feel, the neglected aesthetic “Do Not Touch”
Leal et al. 3d sketching using interactive fabric for tangible and bimanual input
CN206863691U (en) A kind of intelligent interaction demo system based on augmented reality and virtual reality
Lin et al. Haptic interaction for creative processes with simulated media
Sener et al. Towards' virtual clay'modelling-challenges and recommendations: a brief summary of the literature
JP2000047565A (en) Touch simulation device for object
Nemec et al. Haptic and spatial audio based navigation of visually impaired users in virtual environment using low cost devices
JP2003271891A (en) System for virtually experiencing commodity
König et al. Haptic exploration of virtual buildings using non-realistic haptic rendering
Van Der Kroon Virtutello: Balancing Physical and Digital Interaction in a Mixed Reality Sculpting Tool
Kamuro et al. Haptic editor
Paley Designing special-purpose input devices
WO2020261454A1 (en) Graphic game program
Wesson et al. Evaluating 3d sculpting through natural user interfaces across multiple devices
JPH04192066A (en) Commodity artificial experience show-room system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees