JP3392080B2 - User interface method, user interface device, space drawing device, workstation device, and program storage medium - Google Patents
User interface method, user interface device, space drawing device, workstation device, and program storage mediumInfo
- Publication number
- JP3392080B2 JP3392080B2 JP24929599A JP24929599A JP3392080B2 JP 3392080 B2 JP3392080 B2 JP 3392080B2 JP 24929599 A JP24929599 A JP 24929599A JP 24929599 A JP24929599 A JP 24929599A JP 3392080 B2 JP3392080 B2 JP 3392080B2
- Authority
- JP
- Japan
- Prior art keywords
- user interface
- command
- user
- arrangement
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、仮想空間における
物体配置のためのユーザインタフェース方法および装
置、更には、ワークステーション装置などに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interface method and apparatus for arranging objects in a virtual space, and further to a workstation apparatus and the like.
【0002】[0002]
【従来の技術】仮想空間や複合現実空間(以下、本明細
書では両空間を「仮想空間」と総称する)において、仮
想物体を配置する場合には、配置先を指定しなければな
らない。2. Description of the Related Art When arranging a virtual object in a virtual space or a mixed reality space (hereinafter, both spaces are collectively referred to as "virtual space" in the present specification), an arrangement destination must be designated.
【0003】従来のコンピュータ装置では、マウスなど
のポインティングデバイスを用いて対象物体と配置先と
を指定していた。In a conventional computer system, a pointing device such as a mouse is used to specify a target object and an arrangement destination.
【0004】[0004]
【発明が解決しようとする問題点】しかしながら、マウ
スなどのポインティングデバイスは、二次元空間での操
作を行うこととなるために、重なり合った複数の物体の
中から1つの対象物体を指定する、特に配置先を三次元
的に指定するときの操作性には悪いものがあった。However, since a pointing device such as a mouse operates in a two-dimensional space, one target object is designated from a plurality of overlapping objects, The operability when designating the placement destination three-dimensionally was poor.
【0005】三次元空間において精度よく座標値を入力
する方法や装置は種々提案されている、しかしながら、
仮想空間を体験中には、その空間中に没入する(特に、
頭部装着型のディスプレイを装着している場合)ことが
あるために、そのような装置(HMD)を用いるために、HMD
を外して改めて現実世界に立ち返ることは、操作性を滅
却させる。Various methods and devices for accurately inputting coordinate values in a three-dimensional space have been proposed, however,
Immerse yourself in a virtual space (especially,
In order to use such a device (HMD), the HMD
If you take off and return to the real world again, the operability will be destroyed.
【0006】従来技術の1つに、エージェント(仮想空
間に現れるhumanoid)に対して、空間に配置する対象の
物体を指定するという技術(例えば、”Gandalf: An Em
bodied Humanoid Capable of Real-Time Multimodal Di
alogue with People)も提案されているが、配置先をど
のように指定するかについては指摘されていない。[0006] One of the conventional techniques is a technique of designating an object to be placed in a space for an agent (humanoid appearing in a virtual space) (for example, "Gandalf: An Em
bodied Humanoid Capable of Real-Time Multimodal Di
alogue with People) has been proposed, but how to specify the placement destination is not pointed out.
【0007】本発明の目的は、曖昧な指定であっても、
仮想空間に物体を配置することを可能にするユーザイン
タフェース方法および装置を提案する。The object of the present invention is to make ambiguous designations
We propose a user interface method and apparatus that allow objects to be placed in a virtual space.
【0008】[0008]
【課題を解決するための手段】上記課題を達成するため
の、三次元空間描画システムに対するユーザコマンドに
より、三次元仮想空間に物体を配置するためのユーザイ
ンタフェース方法は、三次元空間描画システムに対する
ユーザコマンドにより、三次元仮想空間に物体を配置す
るためのユーザインタフェース方法であって、ユーザ入
力により前記仮想空間中に物体を配置するコマンドであ
って、配置対象の物体を指定する対象物体情報と、任意
物体に対する相対的な配置方向を表す配置方向情報とを
含むコマンドを入力する入力工程と、入力したコマンド
の対象物体情報に基づいて、前記対象物体の前記仮想空
間における配置前位置を認識する認識工程と、ユーザの
視点位置および視線方向を検出し、検出された視点位置
および視線方向を取得する検出工程と、前記取得された
視点位置および視線方向と、認識された前記配置前位置
と、前記配置方向情報とに基づいて、前記対象物体の配
置先を表す配置先位置情報を生成する生成工程とを具備
することを特徴とする。To achieve the above object, a user interface method for arranging an object in a three-dimensional virtual space by a user command for the three-dimensional space drawing system is a user for the three-dimensional space drawing system. A user interface method for arranging an object in a three-dimensional virtual space by a command, which is a command for arranging an object in the virtual space by user input, and target object information designating an object to be arranged, An input step of inputting a command including arrangement direction information indicating an arrangement direction relative to an arbitrary object, and recognition for recognizing a pre-arrangement position of the target object in the virtual space based on the target object information of the input command. Process and user
Detected viewpoint position and line-of-sight direction, detected viewpoint position
And a detection step of obtaining the viewing direction, wherein the obtained <br/> viewpoint position and viewing direction, and recognized the predeployment position, on the basis of said orientation information, the placement destination of the target object And a generation step of generating the arrangement location information.
【0009】配置先位置が、ユーザの視点位置および視
線方向と、配置前の物体位置と、配置方向とに基づいて
決定される。これにより、曖昧な配置指示が許される。The placement destination position is determined based on the user's viewpoint position and line-of-sight direction, the object position before placement, and the placement direction. This allows ambiguous placement instructions.
【0010】[0010]
【0011】ユーザインタフェース自体が仮想物体配置
の描画を行ってもよい。そこで、請求項2によれば、前
記対象物体の仮想画像を、前記生成工程おいて生成され
た配置先情報に従って前記対象物体が前記仮想空間に配
置されているように、描画する描画工程をさらに具備す
る。The user interface itself may draw the virtual object arrangement. Therefore, according to claim 2 , there is further provided a drawing step of drawing the virtual image of the target object so that the target object is arranged in the virtual space in accordance with the arrangement destination information generated in the generating step. To have.
【0012】視界を通して仮想空間に没入する場合は、
コマンド入力のために、視界を通した現実世界とのイン
タフェースが必要になるときは、その没入を中断しなけ
ればならない。そこで、本発明の好適な一態様である請
求項3に拠れば、前記入力工程は、前記コマンドを表す
音声を入力する工程と、入力された音声を認識する工程
とを具備することにより、その中断を防ぐ。When immersing in the virtual space through the field of view,
When it is necessary to interface with the real world through the field of view for command input, the immersion must be interrupted. Therefore, according to claim 3 which is a preferable aspect of the present invention, the input step includes a step of inputting a voice representing the command, and a step of recognizing the input voice. Prevent interruptions.
【0013】本発明の好適な一態様である請求項4に拠
れば、前記入力工程は、ポインティングデバイス(例え
ばキーボードの矢印キーなど)を用いて入力する。According to claim 4 which is a preferable aspect of the present invention, the input step is performed by using a pointing device (for example, an arrow key of a keyboard).
【0014】ユーザが仮想空間に向かう場合、特に、エ
ージェントに対してコマンドを与える場合には、ユーザ
は、方向を、自己中心に考える。そこで、本発明の好適
な一態様である請求項5に拠れば、前記任意物体はユー
ザであり、前記コマンドに含まれる前記配置方向情報
は、このユーザに対する現実空間での左方向または右方
向または手前方向または奥行き方向のいずれかを示す情
報を含む。同じく、請求項6によれば、前記コマンドに
含まれる前記配置方向情報は、このユーザに対する現実
空間での上方向または下方向のいずれかを示す情報を含
む。When the user goes to the virtual space, especially when giving a command to the agent, the user thinks the direction as self-centered. Therefore, according to claim 5 which is a preferred aspect of the present invention, the arbitrary object is a user, and the arrangement direction information included in the command is leftward or rightward in the real space for the user, or It includes information indicating either the front direction or the depth direction. Similarly, according to claim 6 , the arrangement direction information included in the command includes information indicating either an upward direction or a downward direction in the physical space for this user.
【0015】方向はあくまでも仮想空間を中心に定義し
てもよい。そこで、請求項7によれば、前記任意物体は
仮想空間中の任意物体であり、前記コマンドに含まれる
前記配置方向情報は、前記任意物体に対する左方向また
は右方向または手前方向または奥行き方向のいずれかを
示す情報を含む。同じく、請求項8によれば、前記任意
物体は仮想空間中の任意物体であり、前記コマンドに含
まれる前記配置方向情報は、前記任意物体に対する上方
向または下方向のいずれかを示す情報を含むことを特徴
とする。The direction may be defined with the virtual space as the center. Therefore, according to claim 7 , the arbitrary object is an arbitrary object in a virtual space, and the arrangement direction information included in the command is any one of a left direction, a right direction, a front direction, and a depth direction with respect to the arbitrary object. Including information indicating Similarly, according to claim 8 , the arbitrary object is an arbitrary object in a virtual space, and the arrangement direction information included in the command includes information indicating either an upward direction or a downward direction with respect to the arbitrary object. It is characterized by
【0016】移動量をシステムが与えるようにすると、
その仮想空間の性質(重力関係や干渉関係)と矛盾が発
生する場合がある。そこで、本発明の好適な一態様であ
る請求項9に拠れば、前記生成工程は、前記配置先位置
情報の妥当性を、前記仮想画像の空間規則に従ってチェ
ックし、妥当でない場合に、前記配置先位置情報が表す
配置先情報を補正する。When the system gives the movement amount,
There may be a contradiction with the property of the virtual space (gravity relation or interference relation). Therefore, according to claim 9 which is a preferable aspect of the present invention, the generation step checks the validity of the placement destination position information according to the spatial rule of the virtual image, and if it is not valid, the placement is performed. The placement destination information represented by the destination position information is corrected.
【0017】インタラクティブな配置の指示はエージェ
ントに対して行うことが好ましい。そこで、請求項10
によれば、前記コマンドを仮想空間に存在するエージェ
ントに送られたことを検出する工程と、前記エージェン
トが前記対象物体を前記配置先位置に配置するように、
前記エージェントの仮想画像を描画する工程を具備す
る。The interactive placement instruction is preferably given to the agent. Therefore, claim 10
According to the method, the step of detecting that the command is sent to the agent existing in the virtual space, and the agent placing the target object in the placement destination position,
Draw a virtual image of the agent.
【0018】また、更に、上記課題は、ユーザインタフ
ェース装置または空間描画装置によっても達成される。Furthermore, the above object can be achieved by a user interface device or a space drawing device.
【0019】[0019]
【発明の実施の形態】以下本発明を、エージェントを用
いた仮想空間体験システムに適用した実施形態を説明す
る。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment in which the present invention is applied to a virtual space experience system using an agent will be described below.
【0020】第1図にその仮想空間体験システムのブロ
ック図を示す。図中、101は、実写画像群を撮像した
り、或いは既に作成されているCG画像を外部から入力す
る画像入力部である。尚、画像入力部101の代わり
に、予め撮影した多数枚の画像を格納したデータベース
を用いてもよい。102は記憶部103に記憶されてい
る処理手順に従って処理を行うCPUである。103は記
憶部であり、該実写画像群の画像データや多視点画像か
ら生成された光線空間データ、CPUの処理手順を示した
プログラム等を記憶し、また、その一部をワークメモリ
として使用する。104は観察者の視点位置・視線方向
を検出するための視点・視線検出部である。視点・視線
検出部には、キーボードやマウスなどの入力デバイスを
用いるか、またはHMD(ヘッドマウントディスプレイ)
などセンサの付いているデバイスなどを用いることがで
きる。105は、観察者の視点位置・視線方向にしたが
って生成された画像を表示するための画像出力部であ
る。画像出力部には、CRTや液晶などの一般的な2次元
ディスプレイを用いても、レンティキュラやHMDなどの
3次元ディスプレイを用いてもよい。なお、プログラム
は、FD(フロッピーディスク)・CD-ROM・磁気テープ等
の記憶媒体に記録しておき、記憶媒体読み取り部106
から読みだして記憶部103に記憶させてもよい。FIG. 1 shows a block diagram of the virtual space experience system. In the figure, reference numeral 101 denotes an image input unit for capturing a real image group or inputting a CG image that has already been created from the outside. Instead of the image input unit 101, a database that stores a large number of pre-captured images may be used. A CPU 102 performs processing according to the processing procedure stored in the storage unit 103. A storage unit 103 stores image data of the real image group, ray space data generated from multi-viewpoint images, a program showing a processing procedure of the CPU, and the like, and uses a part of the data as a work memory. . Reference numeral 104 denotes a viewpoint / line-of-sight detection unit for detecting the viewpoint position / line-of-sight direction of the observer. An input device such as a keyboard or mouse is used for the viewpoint / gaze detection unit, or HMD (head mounted display)
A device with a sensor or the like can be used. Reference numeral 105 denotes an image output unit for displaying an image generated according to the viewpoint position / line-of-sight direction of the observer. As the image output unit, a general two-dimensional display such as a CRT or a liquid crystal may be used, or a three-dimensional display such as a lenticular or HMD may be used. The program is recorded in a storage medium such as an FD (floppy disk), CD-ROM, magnetic tape, etc., and the storage medium reading unit 106
Alternatively, it may be read from the storage unit 103 and stored in the storage unit 103.
【0021】107はコマンド入力部であり、本実施形
態ではマイクロフォンを用いている。マイクで取得され
たコマンドの音声はディジタル形式に変換されて、音声
認識部に送られる。この音声認識部は周知の音声認識処
理をコマンドの音声データに対して行う。後述するよう
に、本実施形態では、空間配置のためのコマンドは所定
の形式を有しているために、自然言語認識を必要としな
い。Reference numeral 107 denotes a command input section, which uses a microphone in this embodiment. The voice of the command acquired by the microphone is converted into a digital format and sent to the voice recognition unit. The voice recognition unit performs well-known voice recognition processing on voice data of a command. As will be described later, in this embodiment, since the command for spatial arrangement has a predetermined format, natural language recognition is not required.
【0022】第2図は、第1図の実施形態システムにお
けるソフト機能をブロック図として示したものである。
コマンド変換部300は、マイクが拾った音声信号を、
コマンドに変換してエージェントプロセス200に送
る。エージェントプロセス200は、この仮想空間に対
して設けられている所定のルールを考慮して、受け取っ
たコマンドに存在する曖昧性を除去し、仮想空間/複合
現実空間システム400に渡す。尚、入力コマンドは音
声入力に限られず、同図に示すように、キーボードから
入力されてもよい。FIG. 2 is a block diagram showing software functions in the embodiment system shown in FIG.
The command conversion unit 300 converts the voice signal picked up by the microphone into
It is converted into a command and sent to the agent process 200. The agent process 200 removes the ambiguity existing in the received command in consideration of a predetermined rule provided for this virtual space, and passes it to the virtual space / mixed reality space system 400. The input command is not limited to voice input, and may be input from a keyboard as shown in FIG.
【0023】第3図は、本実施形態の仮想空間の一例で
ある。この実施形態では、仮想空間は1つの部屋であ
り、内部に、机202と、その側に椅子201が置か
れ、机の上には配置対象の矩形の箱203がおかれてい
るものとする。エージェントはこの箱203を仮想空間
中に移動するもとする。FIG. 3 shows an example of the virtual space of this embodiment. In this embodiment, it is assumed that the virtual space is one room, in which a desk 202 and a chair 201 are placed inside, and a rectangular box 203 to be placed is placed on the desk. . The agent is supposed to move this box 203 into the virtual space.
【0024】第4図は、この実施形態において用意され
ているコマンドの形態を示す。仮想空間コマンドは4つ
の部分に分かれ、最初のオペランドは「命令」オペラン
ドであり、配置のための動作を示す。この例では、FIG. 4 shows the form of commands prepared in this embodiment. The virtual space command is divided into four parts, and the first operand is the "instruction" operand, which indicates the operation for placement. In this example,
【0025】MOVE, SHIFT, SWAP, ROTATE[Move, Shift, Swap, Rotate
【0026】というコマンドが用意されている。2番目
のオペランドは配置対象の物体Aを特定する。この実施
形態では、物体Aとして仮想空間中の物体の名称、例え
ば、「イス」、「ツクエ」、「ハコ」、が挿入される。
3番目と4番目のオペランドは、これらの2つにより移
動先の位置を示す。例えば、
MOVE A B right (left, front, back, up, down)
は、物体Aを物体Bの右(或いは、左、前、後、上、
下)に移動するコマンドである。また、
SHIFT A (A) right (left, front, back, up, down)
は、物体Aを物体Aの右(或いは、左、前、後、上、
下)に移動(即ち、シフト)するコマンドである。The command is provided. The second operand specifies the object A to be placed. In this embodiment, the name of an object in the virtual space, for example, “chair”, “tsukue”, “box” is inserted as the object A.
The third and fourth operands indicate the position of the movement destination by these two. For example, MOVE AB right (left, front, back, up, down) puts object A to the right of object B (or left, front, back, top,
Command to move to the bottom). SHIFT A (A) right (left, front, back, up, down) means that the object A is to the right of the object A (or left, front, back, top,
It is a command to move (that is, shift) downward.
【0027】SWAP、A、B、
は物体Aと物体B相互の位置を交換する。
ROTATE、A、(A)、right (left, front, back)
は、物体Aを、物体Aの周りに右方向に(左、前、後方
向に)回転させるものである。SWAP, A, B, exchange the positions of object A and object B with each other. ROTATE, A, (A), and right (left, front, back) are for rotating the object A around the object A to the right (to the left, to the front, to the back).
【0028】MOVE、A、away
は、物体Aを、特定の位置に移動する。移動先は固定の
位置であるので、コマンド中に指定する必要はない。上
記のコマンドは全てタイプIに分類されている。タイプI
とは、オペランド2の物体を移動する基準は仮想空間内
の位置(オペランド3で指定される)であるということ
である。尚、上記コマンドは、その配置方向の基準はユ
ーザということである。即ち、物体Aの右(或いは、
左、前、後、上、下)というのは、ユーザ側から見た方
向をいう。従って、ユーザ側から見て物体Aの右(或い
は、左、前、後、上、下)は、システム内ではユーザに
向かって物体Aの左(或いは、右、後、前、上、下)で
ある。MOVE, A and away move the object A to a specific position. The destination is a fixed position, so there is no need to specify it in the command. All the above commands are classified as type I. Type I
That is, the criterion for moving the object of operand 2 is the position in virtual space (specified by operand 3). In addition, the above-mentioned command means that the reference of the arrangement direction is the user. That is, to the right of object A (or
Left, front, rear, up, down) refers to the direction viewed from the user side. Therefore, the right side (or left, front, rear, top, bottom) of the object A as seen from the user side is the left side (or right, rear, front, top, bottom) of the object A toward the user in the system. Is.
【0029】コマンドを第4図のような形式にすること
で、自然言語形式でのコマンド入力ではないものの、入
力された音声データから、コマンドを音声認識すること
が容易となる。By using the format of the command as shown in FIG. 4, although the command is not entered in the natural language format, it becomes easy to recognize the command from the input voice data.
【0030】第5図は、第3図の仮想空間内の各々の仮
想物体についての定義テーブルを示す。このテーブル
は、音声入力されたコマンド中のオペランド1とオペラ
ンド2中の物体が仮想空間中のどの物体に相当するのか
を探索するときに使われる。即ち、音声認識されたオペ
ランド内の物体名が、例えば“ツクエ”であれば、その
物体はオブジェクト1として仮想空間内で同定される。FIG. 5 shows a definition table for each virtual object in the virtual space of FIG. This table is used when searching which object in the virtual space the object in operand 1 and operand 2 in the voice input command corresponds to. That is, if the object name in the operand recognized by voice recognition is, for example, “Tsukue”, the object is identified as the object 1 in the virtual space.
【0031】本実施形態の特徴は、音声入力されたコマ
ンドが第4図のように曖昧な形式であっても、エージェ
ントプロセス200がその曖昧性を除去して、空間プロ
セス部400に渡す点にある。エージェントプロセス2
00と空間システム部400とを分けたのは、空間シス
テム部400を、既存のアプリケーション・プログラム
をそのまま使えるようにするためである。即ち、コマン
ドを簡略化すると、その曖昧さを除去するプロセスが必
須となるが、そのプロセスを空間処理アプリケーション
・プログラムから独立させることにより、既存のアプリ
ケーション・プログラムの使用可能性、即ち、互換性を
維持するという長所が生まれるからである。The feature of this embodiment is that even if the voice input command is in an ambiguous form as shown in FIG. 4, the agent process 200 removes the ambiguity and passes it to the spatial process section 400. is there. Agent process 2
00 and the space system unit 400 are separated so that the space system unit 400 can use existing application programs as they are. That is, if the command is simplified, a process for removing the ambiguity is essential, but by making the process independent of the spatial processing application program, the usability of the existing application program, that is, the compatibility is improved. This is because the advantage of maintaining is born.
【0032】本実施形態で、曖昧性がどのように除去さ
れるかを第6図などを参照して説明する。In this embodiment, how the ambiguity is removed will be described with reference to FIG.
【0033】第6図は、第3図の仮想空間内に配置され
ているツクエ202を示す。このツクエの左右方向の幅
はWの大きさを有するとする。この上に置かれている物
体203を、例えば右に移動するという命令が入力され
たとする。本実施形態では、コマンドに、移動量や移動
方向についての曖昧さを許容する。このために移動量に
ついてデフォルト値(デフォルトのアルゴリズム)を有
する。即ち、ある物体B(ツクエ202)上に載置され
ている物体A(ハコ203)を移動する場合には、その
移動量は、
物体Bの幅Wの1/2
に設定されている。勿論、1/2の値は任意の1/kで
もよい。FIG. 6 shows the Tsukue 202 placed in the virtual space of FIG. The width of the Tsukue in the left-right direction is W. It is assumed that a command to move the object 203 placed on this is moved to the right, for example. In the present embodiment, the command allows ambiguity about the movement amount and the movement direction. For this reason, it has a default value (default algorithm) for the movement amount. That is, when the object A (box 203) placed on a certain object B (tsukue 202) is moved, the amount of movement is set to 1/2 of the width W of the object B. Of course, the value of 1/2 may be any 1 / k.
【0034】本実施形態の特徴は、仮想空間の特性に従
って上記移動量を補正するものである。The feature of this embodiment is that the above-mentioned movement amount is corrected according to the characteristics of the virtual space.
【0035】今、第6図のように、ハコ203がツクエ
202の縁から距離x(x<W/2)のところにあるとす
る。この状態でハコ203をW/2だけ移動させると、ハ
コ203はツクエ202の縁からはずれてしまう。換言
すれば、移動されたハコ203は空中に浮いているよう
に見えてしまう。物体が空中に浮くことが問題であるか
否かは、空間システム400が定義するこの仮想空間の
性質による。もし、この仮想空間が空中に物体が浮かぶ
のを禁止するのであれば、移動量を、W/2からxに変更
(補正)する。Now, as shown in FIG. 6, it is assumed that the box 203 is located at a distance x (x <W / 2) from the edge of the Tsukue 202. If the box 203 is moved by W / 2 in this state, the box 203 will be displaced from the edge of the Tsukue 202. In other words, the moved box 203 appears to be floating in the air. Whether or not it is a problem for an object to float in the air depends on the nature of this virtual space defined by the space system 400. If this virtual space prohibits an object from floating in the air, the movement amount is changed (corrected) from W / 2 to x.
【0036】尚、変形例として、エージェントプロセス
200が、システム400が定義する仮想空間の性質に
関するデータを知らされているのであれば、その性質に
関するルールに従って、例えば、第7図のように移動経
路を修正し、その軌跡に関するコマンドを再構成して、
空間システム400に渡すように修正してもよい。As a modified example, if the agent process 200 is informed of data relating to the property of the virtual space defined by the system 400, then according to the rule concerning the property, for example, as shown in FIG. And reconfigure the command for that trajectory,
It may be modified to pass to the spatial system 400.
【0037】空間の性質として、仮想物体が仮想の壁に
めり込むのを許さないものであれば、例えば、第8図の
ように、壁までの距離yに移動距離を変更する。As a property of the space, if the virtual object does not allow the virtual object to sink into the virtual wall, the moving distance is changed to the distance y to the wall, for example, as shown in FIG.
【0038】第9図の制御手順は、エージェントプロセ
ス部の制御手順を示す。The control procedure of FIG. 9 shows the control procedure of the agent process section.
【0039】まず、ステップS102で音声信号を入力
し、ステップS104で音声認識を行う。ステップS1
06では、認識された音声をコードにして、オペランド
に分解する。ステップS108では、コマンド中に対象
物体オペランド(オペランド2,3)を特定する。ステ
ップS110では、特定された対象物体の識別子をシス
テム400に送り、その空間データ(位置情報)をもら
う。ステップS112では、ユーザの視線方向を取得す
る。ステップS114では、ユーザの視線方向と空間の
方向とを対比する。これは、ユーザが仮想空間の正面と
向き合っていれば、仮想空間での左右方向と前号方向と
が、ユーザのそれらと反対になるからである。ステップ
S116では、移動対象の物体の座標値に移動量を加算
する。ステップS118では、当該仮想空間の性質デー
タを読み込む。この性質データは前もって制定され、ル
ール化されて記憶部103に記憶されている。これらの
性質とは、重力関係と干渉関係に関する性質である。重
力関係は、物体が空中に浮くのを許すか否かである。干
渉関係は物体が他の物体中に入り込むのを許すかであ
る。矛盾があれば、ステップS122で補正する。ステ
ップS124では対象物体を移動する。First, a voice signal is input in step S102, and voice recognition is performed in step S104. Step S1
At 06, the recognized voice is coded and decomposed into operands. In step S108, the target object operand (operands 2 and 3) is specified in the command. In step S110, the identifier of the specified target object is sent to the system 400, and its spatial data (positional information) is received. In step S112, the line-of-sight direction of the user is acquired. In step S114, the visual line direction of the user and the spatial direction are compared. This is because if the user faces the front of the virtual space, the left-right direction and the previous direction in the virtual space are opposite to those of the user. In step S116, the movement amount is added to the coordinate value of the object to be moved. In step S118, the property data of the virtual space is read. This property data has been established in advance, made into a rule, and stored in the storage unit 103. These properties are properties related to the gravity relationship and the interference relationship. The gravity relationship is whether or not an object is allowed to float in the air. The interference relation is whether to allow an object to enter another object. If there is a contradiction, it is corrected in step S122. In step S124, the target object is moved.
【0040】尚、上記実施形態では、前後関係、左右間
系は、ユーザを基準にして決定したが、仮想空間を基準
にして決定してもよい。この場合には、ユーザが仮想空
間の正面と向き合って物体Aを右に移動するとは、ユー
ザから見て物体Aが左に移動される。In the above embodiment, the front-rear relationship and the left-right system are determined based on the user, but may be determined based on the virtual space. In this case, when the user faces the front of the virtual space and moves the object A to the right, the object A is moved to the left when viewed from the user.
【0041】また、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用しても良い。また、本発明はシステムあるいは装置に
プログラムを供給することによって実施される場合にも
適用されることは言うまでもない。この場合、本発明に
係るプログラムを格納した記憶媒体が、本発明を構成す
ることになる。そして、該記憶媒体からそのプログラム
をシステムあるいは装置に読み出すことによって、その
システムあるいは装置が、予め定められた方法で動作す
る。Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention is also applied to the case of being implemented by supplying a program to a system or an apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program from the storage medium to the system or device, the system or device operates in a predetermined method.
【0042】[0042]
【発明の効果】以上詳述したように、本発明によれば、
曖昧な指定であっても、仮想空間に物体を配置すること
を可能にするユーザインタフェース方法および装置を提
供できた。As described in detail above, according to the present invention,
A user interface method and apparatus capable of arranging an object in a virtual space even with ambiguous designation could be provided.
【図1】 実施形態の仮想空間システムのハード構成を
説明するブロック図。FIG. 1 is a block diagram illustrating a hardware configuration of a virtual space system according to an embodiment.
【図2】 実施形態の仮想空間システムのソフト構成を
説明するブロック図。FIG. 2 is a block diagram illustrating a software configuration of the virtual space system according to the embodiment.
【図3】 対象とする仮想空間の構成を説明する図。FIG. 3 is a diagram illustrating a configuration of a target virtual space.
【図4】 実施形態のユーザインタフェース装置に設定
された各種コマンドの形式を説明する図。FIG. 4 is a diagram illustrating formats of various commands set in the user interface device according to the embodiment.
【図5】 実施形態で、コマンドと仮想空間内の物体と
をリンクする手法を説明する図。FIG. 5 is a diagram illustrating a method of linking a command and an object in a virtual space in the embodiment.
【図6】 仮想空間の一例で重力関係で矛盾が発生する
様子を説明する図。FIG. 6 is a diagram illustrating a state in which a contradiction occurs due to gravity in an example of a virtual space.
【図7】 重力関係で矛盾が発生した場合に回避を説明
する図。FIG. 7 is a diagram illustrating avoidance when a contradiction occurs due to gravity.
【図8】 干渉関係で矛盾が発生する様子を説明する
図。FIG. 8 is a diagram illustrating a situation in which a contradiction occurs due to an interference relationship.
【図9】 実施形態の処理手順を示すフローチャート。FIG. 9 is a flowchart showing a processing procedure of the embodiment.
フロントページの続き (56)参考文献 特開 平7−85303(JP,A) 特開 平8−101758(JP,A) 特開 平9−97355(JP,A) 特開 平7−271546(JP,A) 特開 平11−18025(JP,A) 特開 平11−195131(JP,A) 望月研二 外1名,”自然言語による 3次元画像へのアクセス”,電子情報通 信学会技術研究報告 PRU92−35〜44 パターン認識・理解,社団法人電子情 報通信学会,1992年10月15日,第92巻, 第255号,p.69−75 (58)調査した分野(Int.Cl.7,DB名) G06T 17/40 G06F 3/00 G06F 3/033 CSDB(日本国特許庁)Continuation of the front page (56) Reference JP-A-7-85303 (JP, A) JP-A-8-101758 (JP, A) JP-A-9-97355 (JP, A) JP-A-7-271546 (JP , A) JP-A-11-18025 (JP, A) JP-A-11-195131 (JP, A) Kenji Mochizuki, 1 person, "Access to 3D image by natural language", IEICE technical research Report PRU92-35 to 44 Pattern recognition and understanding, The Institute of Electronics, Information and Communication Engineers, October 15, 1992, Volume 92, No. 255, p. 69-75 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 17/40 G06F 3/00 G06F 3/033 CSDB (Japan Patent Office)
Claims (23)
コマンドにより、三次元仮想空間に物体を配置するため
のユーザインタフェース方法であって、 ユーザ入力により前記仮想空間中に物体を配置するコマ
ンドであって、配置対象の物体を指定する対象物体情報
と、任意物体に対する相対的な配置方向を表す配置方向
情報とを含むコマンドを入力する入力工程と、 入力したコマンドの対象物体情報に基づいて、前記対象
物体の前記仮想空間における配置前位置を認識する認識
工程と、ユーザの視点位置および視線方向を検出し、検出された
視点位置および視線方向を取得する検出工程と、 前記取得された視点位置および視線方向と、認識された
前記配置前位置と、前記配置方向情報とに基づいて、前
記対象物体の配置先を表す配置先位置情報を生成する生
成工程とを具備することを特徴とするユーザインタフェ
ース方法。1. A user interface method for arranging an object in a three-dimensional virtual space by a user command to a three-dimensional space drawing system, which is a command for arranging an object in the virtual space by user input, An input step of inputting a command including target object information designating an object to be arranged and arrangement direction information indicating a relative arrangement direction with respect to an arbitrary object, and the target object based on the target object information of the input command The recognition step of recognizing the pre-placement position in the virtual space and the user's viewpoint position and line-of-sight direction are detected
A detection step of acquiring a viewpoint position and a line-of-sight direction, an arrangement indicating an arrangement destination of the target object based on the acquired viewpoint position and the line-of-sight direction, the recognized pre-arrangement position, and the arrangement direction information. And a generating step of generating the previous position information.
程おいて生成された配置先情報に従って前記対象物体が
前記仮想空間に配置されているように、描画する描画工
程をさらに具備することを特徴とする請求項1に記載の
ユーザインタフェース方法。2. The method further comprises a drawing step of drawing a virtual image of the target object so that the target object is arranged in the virtual space according to the arrangement destination information generated in the generating step. The user interface method according to claim 1 , wherein the method is a user interface method.
とする請求項1又は2に記載のユーザインタフェース方
法。Wherein said input step includes a user interface method according to claim 1 or 2, characterized the steps of: inputting a voice representing the command, that includes the step of recognizing the input speech.
スを用いて入力することを特徴とする請求項1又は2に
記載のユーザインタフェース方法。Wherein said input step includes a user interface method according to claim 1 or 2, characterized in that input using the pointing device.
ンドに含まれる前記配置方向情報は、このユーザに対す
る現実空間での左方向または右方向または手前方向また
は奥行き方向のいずれかを示す情報を含むことを特徴と
する請求項1乃至4のいずれかに記載のザインタフェー
ス方法。5. The arbitrary object is a user, and the arrangement direction information included in the command includes information indicating one of a left direction, a right direction, a front direction, and a depth direction in the physical space for the user. The interface method according to any one of claims 1 to 4 , characterized in that:
ンドに含まれる前記配置方向情報は、このユーザに対す
る現実空間での上方向または下方向のいずれかを示す情
報を含むことを特徴とする請求項1乃至4のいずれかに
記載のユーザインタフェース方法。6. The arbitrary object is a user, and the arrangement direction information included in the command includes information indicating either an upward direction or a downward direction in the physical space for the user. 5. The user interface method according to any one of Items 1 to 4 .
あり、前記コマンドに含まれる前記配置方向情報は、前
記任意物体に対する左方向または右方向または手前方向
または奥行き方向のいずれかを示す情報を含むことを特
徴とする請求項1乃至6のいずれかに記載のユーザイン
タフェース方法。7. The arbitrary object is an arbitrary object in a virtual space, and the arrangement direction information included in the command indicates any one of left direction, right direction, front direction, and depth direction with respect to the arbitrary object. the user interface method according to any one of claims 1 to 6, characterized in that it comprises a.
あり、前記コマンドに含まれる前記配置方向情報は、前
記任意物体に対する上方向または下方向のいずれかを示
す情報を含むことを特徴とする請求項1乃至6のいずれ
かに記載のユーザインタフェース方法。8. The arbitrary object is an arbitrary object in a virtual space, and the arrangement direction information included in the command includes information indicating either an upward direction or a downward direction with respect to the arbitrary object. The user interface method according to any one of claims 1 to 6 .
則に従ってチェックし、 妥当でない場合に、前記配置先位置情報が表す配置先情
報を補正することを特徴とする請求項1乃至8のいずれ
かに記載のユーザインタフェース方法。9. The generating step checks the validity of the placement destination position information according to the spatial rule of the virtual image, and corrects the placement destination information represented by the placement destination position information if it is not valid. The user interface method according to any one of claims 1 to 8 , which is characterized.
ージェントに送られたことを検出する工程と、 前記エージェントが前記対象物体を前記配置先位置に配
置するように、前記エージェントの仮想画像を描画する
工程を具備することを特徴とする請求項1乃至9のいず
れかに記載のユーザインタフェース方法。10. A step of detecting that the command is sent to an agent existing in a virtual space, and a virtual image of the agent is drawn so that the agent arranges the target object at the arrangement position. the user interface method according to any one of claims 1 to 9, characterized by including the step.
ザコマンドにより、三次元仮想空間に物体を配置するた
めのユーザインタフェース装置であって、 ユーザ入力により前記仮想空間中に物体を配置するコマ
ンドであって、配置対象の物体を指定する対象物体情報
と、任意物体に対する相対的な配置方向を表す配置方向
情報とを含むコマンドを入力する入力手段と、 入力したコマンドの対象物体情報に基づいて、前記対象
物体の前記仮想空間における配置前位置を認識する認識
手段と、 前記ユーザの視点位置および視線方向と、認識された前
記配置前位置と、前記配置方向情報とに基づいて、前記
対象物体の配置先を表す配置先位置情報を生成する生成
手段と、 前記ユーザの視点位置および視線方向を検出し、検出さ
れた視点位置および視線方向を前記生成手段に渡す検出
手段と を具備することを特徴とするユーザインタフェー
ス装置。11. A user interface device for arranging an object in a three-dimensional virtual space by a user command for a three-dimensional space drawing system, which is a command for arranging an object in the virtual space by user input, Input means for inputting a command including target object information designating an object to be arranged and arrangement direction information indicating an arrangement direction relative to an arbitrary object, and the target object based on the target object information of the input command A recognition unit that recognizes a pre-arrangement position in the virtual space, a position of the target object based on the user's viewpoint position and line-of-sight direction, the recognized pre-arrangement position, and the arrangement direction information. a generating means for generating a placement location information indicating detects the viewpoint position and the sight line direction of the user, detection of
Detection for passing the generated viewpoint position and line-of-sight direction to the generation means
User interface apparatus characterized by and means.
手段おいて生成された配置先情報に従って前記対象物体
が前記仮想空間に配置されているように、描画する描画
手段をさらに具備することを特徴とする請求項11に記
載のユーザインタフェース装置。12. The image forming apparatus further comprises drawing means for drawing a virtual image of the target object so that the target object is arranged in the virtual space according to the arrangement destination information generated by the generating means. The user interface device according to claim 11 , characterized in that
とする請求項11又は12に記載のユーザインタフェー
ス装置。13. The user interface device according to claim 11 , wherein the input unit includes a unit for inputting a voice representing the command and a unit for recognizing the input voice.
イスを用いて入力することを特徴とする請求項11乃至
13のいずれかに記載のユーザインタフェース装置。14. The input means, to claim 11, characterized in that inputting using the pointing device
13. The user interface device according to any one of 13 .
マンドに含まれる前記配置方向情報は、このユーザに対
する現実空間での左方向または右方向または手前方向ま
たは奥行き方向のいずれかを示す情報を含むことを特徴
とする請求項11乃至14のいずれかに記載のユーザイ
ンタフェース装置。15. The arbitrary object is a user, and the arrangement direction information included in the command includes information indicating one of a left direction, a right direction, a front direction, and a depth direction in the physical space for the user. The user interface device according to any one of claims 11 to 14 , characterized in that:
マンドに含まれる前記配置方向情報は、このユーザに対
する現実空間での上方向または下方向のいずれかを示す
情報を含むことを特徴とする請求項11乃至14のいず
れかに記載のユーザインタフェース装置。16. The arbitrary object is a user, and the arrangement direction information included in the command includes information indicating either an upward direction or a downward direction in the physical space for the user. Item 15. The user interface device according to any one of items 11 to 14 .
であり、前記コマンドに含まれる前記配置方向情報は、
前記任意物体に対する左方向または右方向または手前方
向または奥行き方向のいずれかを示す情報を含むことを
特徴とする請求項11乃至16のいずれかに記載のユー
ザインタフェース装置。17. The arbitrary object is an arbitrary object in a virtual space, and the arrangement direction information included in the command is
The user interface device according to any one of claims 11 to 16 , further comprising information indicating one of a left direction, a right direction, a front direction, and a depth direction with respect to the arbitrary object.
であり、前記コマンドに含まれる前記配置方向情報は、
前記任意物体に対する上方向または下方向のいずれかを
示す情報を含むことを特徴とする請求項11乃至16の
いずれかに記載のユーザインタフェース装置。18. The arbitrary object is an arbitrary object in a virtual space, and the arrangement direction information included in the command is
17. The user interface device according to claim 11 , wherein the user interface device includes information indicating either an upward direction or a downward direction with respect to the arbitrary object.
則に従ってチェックし、 妥当でない場合に、前記配置先位置情報が表す配置先情
報を補正することを特徴とする請求項11乃至18のい
ずれかに記載のユーザインタフェース装置。19. The generating means checks the validity of the placement destination position information according to the space rule of the virtual image, and corrects the placement destination information represented by the placement destination position information if it is not valid. The user interface device according to any one of claims 11 to 18 , characterized by the above-mentioned.
ージェントに送られたことを検出する手段と、 前記エージェントが前記対象物体を前記配置先位置に配
置するように、前記エージェントの仮想画像を描画する
手段を具備することを特徴とする請求項11乃至19の
いずれかに記載のユーザインタフェース装置。20. A means for detecting that the command is sent to an agent existing in a virtual space, and a virtual image of the agent is drawn so that the agent arranges the target object at the arrangement position. 20. The user interface device according to claim 11 , further comprising means.
ユーザインタフェース方法を実現するコンピュータプロ
グラムを記憶するプログラム記憶媒体。21. A program storage medium storing a computer program for realizing the user interface method according to any one of claims 1 to 10.
のユーザインタフェース装置を組み込まれた空間描画装
置。22. A space drawing device incorporating the user interface device according to claim 11 .
のユーザインタフェース装置を組み込まれたワークステ
ーション装置。23. A workstation device incorporating the user interface device according to claim 11 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24929599A JP3392080B2 (en) | 1999-09-02 | 1999-09-02 | User interface method, user interface device, space drawing device, workstation device, and program storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24929599A JP3392080B2 (en) | 1999-09-02 | 1999-09-02 | User interface method, user interface device, space drawing device, workstation device, and program storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001076182A JP2001076182A (en) | 2001-03-23 |
JP3392080B2 true JP3392080B2 (en) | 2003-03-31 |
Family
ID=17190860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24929599A Expired - Fee Related JP3392080B2 (en) | 1999-09-02 | 1999-09-02 | User interface method, user interface device, space drawing device, workstation device, and program storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3392080B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3344499B2 (en) * | 1993-06-30 | 2002-11-11 | 株式会社東芝 | Object operation support device |
JPH07271546A (en) * | 1994-03-31 | 1995-10-20 | Olympus Optical Co Ltd | Image display control method |
JPH08101758A (en) * | 1994-09-30 | 1996-04-16 | Toshiba Corp | Data operation device for virtual space |
JP3245336B2 (en) * | 1995-09-29 | 2002-01-15 | 富士通株式会社 | Modeling method and modeling system |
JP4251673B2 (en) * | 1997-06-24 | 2009-04-08 | 富士通株式会社 | Image presentation device |
JPH11195131A (en) * | 1997-12-26 | 1999-07-21 | Canon Inc | Virtual reality method and device therefor and storage medium |
-
1999
- 1999-09-02 JP JP24929599A patent/JP3392080B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
望月研二 外1名,"自然言語による3次元画像へのアクセス",電子情報通信学会技術研究報告 PRU92−35〜44 パターン認識・理解,社団法人電子情報通信学会,1992年10月15日,第92巻,第255号,p.69−75 |
Also Published As
Publication number | Publication date |
---|---|
JP2001076182A (en) | 2001-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10235412B2 (en) | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes | |
US8751969B2 (en) | Information processor, processing method and program for displaying a virtual image | |
US9495802B2 (en) | Position identification method and system | |
JP7079231B2 (en) | Information processing equipment, information processing system, control method, program | |
Kato et al. | Marker tracking and hmd calibration for a video-based augmented reality conferencing system | |
US11978243B2 (en) | System and method using augmented reality for efficient collection of training data for machine learning | |
US7755608B2 (en) | Systems and methods of interfacing with a machine | |
CN110070556B (en) | Structural modeling using depth sensors | |
US9495013B2 (en) | Multi-modal gestural interface | |
US6629065B1 (en) | Methods and apparata for rapid computer-aided design of objects in virtual reality and other environments | |
EP2560145A2 (en) | Methods and systems for enabling the creation of augmented reality content | |
US20150040074A1 (en) | Methods and systems for enabling creation of augmented reality content | |
CN104081307A (en) | Image processing apparatus, image processing method, and program | |
EP1039364A2 (en) | User interface method, information processing apparatus, and program storage medium | |
US6057827A (en) | Automatic pointer positioning for 3D computer modeling | |
JPH08329281A (en) | Image display method | |
EP3088991B1 (en) | Wearable device and method for enabling user interaction | |
JP3392080B2 (en) | User interface method, user interface device, space drawing device, workstation device, and program storage medium | |
US20230326147A1 (en) | Helper data for anchors in augmented reality | |
JP2005321966A (en) | Interface method, device and program | |
Asiminidis | Augmented and Virtual Reality: Extensive Review | |
KR102350226B1 (en) | Apparatus and method for arranging augmented reality content | |
JP2010134793A (en) | Display adjusting apparatus, display adjusting method, and computer program | |
CN115861509A (en) | Virtual vehicle exhibition implementation method, computer device and storage medium | |
JPH10340157A (en) | Coordinate designating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030106 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090124 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090124 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100124 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110124 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120124 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130124 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140124 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |