JP2000200131A - Three-dimensional image generation system and three- dimensional image generation method - Google Patents

Three-dimensional image generation system and three- dimensional image generation method

Info

Publication number
JP2000200131A
JP2000200131A JP68499A JP68499A JP2000200131A JP 2000200131 A JP2000200131 A JP 2000200131A JP 68499 A JP68499 A JP 68499A JP 68499 A JP68499 A JP 68499A JP 2000200131 A JP2000200131 A JP 2000200131A
Authority
JP
Japan
Prior art keywords
image
dimensional
focus
image generation
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP68499A
Other languages
Japanese (ja)
Inventor
Hiroyuki Kimura
裕行 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP68499A priority Critical patent/JP2000200131A/en
Publication of JP2000200131A publication Critical patent/JP2000200131A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily recognize the perspective of a three-dimensionally displayed object and to easily refer to the contents of the object. SOLUTION: This system is provided with a three-dimensional rendering accelerator 6 for generating image data so as to three-dimensionally display the plural objects, a display device 7 for displaying images based on the generated image data, a three-dimensional pointing device 5 for indicating the three- dimensional space position of the displayed image and a focus range change button 50 for changing and setting a focus range in a depth direction based on the indicated space position. In this case, the three-dimensional rendering accelerator 6 generates the image data so as to display the object in the focus range in a focus state and to display the object outside the focus range in a non-focus state.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元画像生成シ
ステム及び三次元画像生成方法に関し、更に詳しくは、
三次元画像中に存在する、ウインドウなどの対象物の深
さ方向の距離が容易に識別されるように、合焦状態また
は非合焦状態の対象物の画像を生成する三次元画像生成
システム及び三次元画像生成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image generation system and a three-dimensional image generation method.
A three-dimensional image generation system that generates an image of an object in a focused state or an unfocused state, so that a distance in a depth direction of an object such as a window, which is present in the three-dimensional image, is easily identified. The present invention relates to a three-dimensional image generation method.

【0002】[0002]

【従来の技術】従来、例えば、ワークステーションや、
パーソナルコンピュータ(以下、パソコンと呼ぶ)上の
画面表示は、2次元のウインドウが重なり合って表示さ
れていた。
2. Description of the Related Art Conventionally, for example, a workstation,
On a screen display on a personal computer (hereinafter, referred to as a personal computer), two-dimensional windows are displayed in an overlapping manner.

【0003】図8は、この従来のパソコンの画面の例で
あり、画面101内に、数多くのウインドウ(102,
103,104,105)が重なり合って表示されてい
る。この内、ウインドウ102は、現在操作者が使用し
ているウインドウであり、これを区別できるように、ウ
インドウ102は濃いめの色、その他のウインドウ10
3,104,105は薄めの色で表示されている。この
状態で、操作者がウインドウ103を使いたくなった場
合には、不図示のマウスを使ってカーソル106をウイ
ンドウ103上に動かし、ここでマウスのボタンを押す
と、図9に示すように、ウインドウ103が最前面に表
示されると共に、ウインドウ103の色が濃く、ウイン
ドウ102の色が薄く表示されるようになっていた。
FIG. 8 shows an example of a screen of this conventional personal computer. A large number of windows (102,
103, 104, and 105) are displayed overlapping each other. The window 102 is a window currently used by the operator, and the window 102 has a darker color and other windows 10 so that the window 102 can be distinguished.
3, 104 and 105 are displayed in lighter colors. In this state, if the operator wants to use the window 103, he moves the cursor 106 over the window 103 using a mouse (not shown), and presses a mouse button here, as shown in FIG. The window 103 is displayed on the foreground, the color of the window 103 is dark, and the color of the window 102 is light.

【0004】ところで、最近のコンピュータ技術の発展
に伴い、パソコン上でも容易に三次元の表示が可能にな
ってきた。この技術を活用して、ウインドウや、マウス
カーソルも三次元上に配置して使用できるようになっ
た。
By the way, with the recent development of computer technology, three-dimensional display can be easily performed on a personal computer. Utilizing this technology, windows and mouse cursors can now be arranged and used in three dimensions.

【0005】図10は三次元表示の画面の例であり、図
8と同じウインドウを示す画面の為、図8と同じ番号を
付している。図11は、この画面の三次元の配置状態を
分かりやすく表示する為に斜め方向から見た図である。
操作者は、現在、ウインドウ102を使用している為、
ウインドウ102は濃い色で表示され、その他のウイン
ドウ103,104,105は薄めの色で表示されてい
る。次に操作者が使用するウインドウを103に切替え
ようとした場合、不図示の三次元の座標指示が可能な三
次元マウス等のポインティングディバイスを使用して、
図10上で画面101内のカーソル106をウインドウ
103上に移動させる。移動させた位置のカーソルを1
06’で示している。この状態では、操作者はカーソル
106’がウインドウ103を指示しているように見え
る。にもかかわらず、図11を見れば解るように、カー
ソル106’は奥行方向でウインドウ103から離れて
いる為、三次元マウスのボタンを押してもウインドウ1
03を選択することはできなかった。これは、三次元的
にウインドウが配置されているにもかかわらず、操作者
が画面101内のウインドウの奥行方向の状況を把握し
づらい表示になっている為に発生する問題点であった。
FIG. 10 shows an example of a three-dimensional display screen. Since the screen shows the same window as FIG. 8, the same numbers as in FIG. 8 are assigned. FIG. 11 is a diagram viewed from an oblique direction in order to easily display the three-dimensional arrangement state of the screen.
Since the operator is currently using the window 102,
The window 102 is displayed in a dark color, and the other windows 103, 104, and 105 are displayed in a lighter color. Next, when the operator attempts to switch the window to be used to 103, a pointing device such as a three-dimensional mouse capable of indicating three-dimensional coordinates (not shown) is used.
In FIG. 10, the cursor 106 on the screen 101 is moved to the window 103. Move the cursor at the moved position to 1.
06 '. In this state, the operator looks as if the cursor 106 ′ is pointing at the window 103. Nevertheless, as can be seen from FIG. 11, since the cursor 106 'is far away from the window 103 in the depth direction, even if the button of the three-dimensional mouse is pressed, the window 1
03 could not be selected. This is a problem that occurs because the display on the screen 101 in the depth direction is difficult for the operator to understand even though the windows are arranged three-dimensionally.

【0006】これに対して、特開平6−266330で
は、三次元上に配置されたウインドウの表示を、透視図
法の規則に従って表示する方法を提案している。この方
法では、距離的に遠くにあるウインドウは小さく表示さ
れるので、ウインドウの前後関係は理解し易くなるメリ
ットがあった。
On the other hand, Japanese Patent Application Laid-Open No. 6-266330 proposes a method of displaying windows arranged three-dimensionally in accordance with the rules of the perspective projection method. In this method, windows far away from each other are displayed in a small size, so that there is an advantage that the context of the windows can be easily understood.

【0007】また、特開平6−215092では、注視
箇所からの奥行情報に基づいてぼかした画像を生成する
方法を提案している。この方法では、距離的に遠くにあ
るウインドウはぼけて表示されるので、ウインドウの前
後関係は理解し易くなるメリットがあった。
Japanese Patent Application Laid-Open No. 6-215092 proposes a method for generating a blurred image based on depth information from a gaze point. In this method, windows far away from each other are displayed in a blurred manner, so that there is an advantage that the context of the windows can be easily understood.

【0008】[0008]

【発明が解決しようとする課題】ところが、実際の使用
状況を考えると、遠くに配置されているウインドウで
も、操作者は、時々、その表示内容を参照したい場合が
ある。この時、特開平6−266330の方法では、遠
くにあるウインドウは小さく表示されているので、中の
文字が小さくなって読みづらかったり、場合によっては
文字がつぶれて読めなかったりする問題があった。
However, considering the actual use situation, the operator sometimes wants to refer to the display contents even in a window which is located far away. At this time, in the method disclosed in Japanese Patent Application Laid-Open No. H6-266330, since the window far away is displayed in a small size, there is a problem that the characters in the middle become small and difficult to read, and in some cases, the characters are crushed and cannot be read. .

【0009】また、特開平6−215092の方法で
は、遠くにあるウインドウはぼけて表示されているの
で、中の文字がぼけていて読めないという問題があっ
た。
In the method disclosed in Japanese Patent Application Laid-Open No. Hei 6-215092, there is a problem that the distant window is displayed blurred, so that the characters inside are blurred and cannot be read.

【0010】本発明は上記問題点を鑑みてなされたもの
であり、本出願の目的は、三次元のウインドウ等の対象
物を表示する画面で、画面の奥行方向の距離感を表現す
ることにより、操作者がウインドウの前後の距離関係を
理解し易くすると共に、遠くにあるウインドウでも容易
にその表示内容を参照できるようにすることにある。
The present invention has been made in view of the above problems, and an object of the present application is to express a sense of distance in the depth direction of a screen on a screen for displaying an object such as a three-dimensional window. Another object of the present invention is to make it easy for an operator to understand the distance relationship between the front and rear windows and to easily refer to the display contents even in a distant window.

【0011】[0011]

【課題を解決するための手段】上記目的を達成する為、
本発明における三次元画像生成システムは、複数の対象
物が三次元に表示されるように画像データを生成する画
像生成手段と、前記画像生成手段により生成された画像
データに基づいて画像を表示する表示手段と、前記表示
手段に表示された画像の三次元の空間位置を指示するた
めの指示手段と、前記指示手段により指示された空間位
置に基づく深さ方向の合焦範囲の変更及び設定をするた
めの合焦範囲変更手段とを有し、前記画像生成手段は、
前記合焦範囲変更手段により設定された合焦範囲に存在
する対象物が合焦状態で表示され、上記合焦範囲外に存
在する対象物が非合焦状態で表示されるように、画像デ
ータを生成する。
In order to achieve the above object,
A three-dimensional image generation system according to the present invention includes an image generation unit that generates image data so that a plurality of objects are displayed three-dimensionally, and displays an image based on the image data generated by the image generation unit. Display means; instruction means for instructing a three-dimensional spatial position of an image displayed on the display means; and changing and setting of a focus range in the depth direction based on the spatial position instructed by the instruction means. Focusing range changing means for performing, the image generating means,
Image data is displayed so that an object existing in the focusing range set by the focusing range changing unit is displayed in a focused state, and an object existing outside the focusing range is displayed in an out-of-focus state. Generate

【0012】また、本発明における三次元画像生成方法
は、外部から指示された、三次元画像中の空間位置を取
得する位置取得工程と、前記三次元画像の深さ方向の合
焦範囲を設定する合焦範囲設定工程と、前記位置取得工
程で取得した空間位置と、前記合焦範囲設定工程で設定
された合焦範囲とに基づいて、合焦範囲に存在する対象
物が合焦状態で表示され、上記合焦範囲外に存在する対
象物が非合焦状態で表示されるように、三次元画像の画
像データを生成する画像生成工程と、前記画像生成工程
で生成された画像データに基づく三次元画像を表示する
表示工程とを有する。
Further, the three-dimensional image generating method according to the present invention includes a position obtaining step of obtaining a spatial position in the three-dimensional image specified from the outside, and setting a focus range in the depth direction of the three-dimensional image. Focusing range setting step, the spatial position acquired in the position acquiring step, and the focusing range set in the focusing range setting step, based on the object existing in the focusing range in a focused state. An image generating step of generating image data of a three-dimensional image to be displayed and displayed in an out-of-focus state so that an object existing outside the in-focus range may be displayed on the image data generated in the image generating step. And displaying a three-dimensional image based on the three-dimensional image.

【0013】上記構成によれば、合焦範囲を変更可能に
するにより、必要に応じて合焦範囲を狭く変更して、奥
行方向に離れた位置にあるウインドウ等の対象物をぼか
して表示することにより遠近感を判り易くしたり、必要
に応じて合焦範囲を広く変更して、奥行方向に離れた位
置にあるウインドウ等の対象物まで合焦した状態で表示
することにより、ウインドウ等の対象物の内容を容易に
参照できるようになる。
According to the above arrangement, the focus range can be changed, so that the focus range is narrowed as necessary, and an object such as a window located at a position distant in the depth direction is displayed in a blurred manner. In this way, the perspective can be easily understood, and the focusing range can be changed as needed to display the object such as a window located at a position distant in the depth direction in a focused state. The contents of the object can be easily referred to.

【0014】本発明の好適な一態様によれば、前記画像
生成手段および前記画像生成工程においては、指示され
た上記空間位置から、上記合焦範囲外に存在する対象物
までの深さ方向の距離の増加に対応して、非合焦の度合
いを大きくするように、前記対象物の画像データを生成
する。また、好ましくは、上記合焦範囲外に存在する対
象物までの深さ方向の一定距離毎の増加に対応して、非
合焦の度合いを段階的に大きくするように、前記対象物
の画像データを生成する。
According to a preferred aspect of the present invention, in the image generating means and the image generating step, a depth direction from the designated spatial position to an object existing outside the focusing range is defined. The image data of the object is generated such that the degree of out-of-focus is increased in accordance with the increase in the distance. Also, preferably, in response to an increase at every fixed distance in the depth direction up to the object existing outside the focusing range, the image of the object is increased stepwise so as to increase the degree of defocus. Generate data.

【0015】更に好ましくは、前記合焦範囲変更手段お
よび合焦範囲設定工程においては、指示された上記空間
位置を中心とした合焦範囲の変更及び設定を行う。
[0015] More preferably, in the focusing range changing means and the focusing range setting step, the focusing range is changed and set around the designated spatial position.

【0016】また、好ましくは、前記対象物は、ウィン
ドウ画像である。
Preferably, the object is a window image.

【0017】また、好ましくは、前記画像生成手段およ
び前記画像生成工程においては、指示された三次元の空
間位置を示すカーソルの画像データを生成する。
Preferably, in the image generating means and the image generating step, image data of a cursor indicating a designated three-dimensional spatial position is generated.

【0018】[0018]

【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0019】図1は、本発明の実施の形態におけるシス
テム構成を示すブロック図である。
FIG. 1 is a block diagram showing a system configuration according to an embodiment of the present invention.

【0020】1はCPUのような演算及び制御装置であ
り、各種演算や本システム全体の制御を行っている。こ
こで言うCPUとは、プロセッサーのチップを意味する
のではなく、コンピュータの本体部分を意味している。
2は、ハードディスク等の記憶装置であり、CPU1で
行う演算や制御用のソフト及び各種のデータを保持す
る。3は、キーボードのような文字入力装置であり、こ
こから入力された情報が、CPU1に送られる。
An arithmetic and control unit 1 such as a CPU performs various arithmetic operations and controls the entire system. Here, the CPU does not mean a chip of a processor, but means a main body of a computer.
Reference numeral 2 denotes a storage device such as a hard disk which holds software for calculation and control performed by the CPU 1 and various data. Reference numeral 3 denotes a character input device such as a keyboard, from which information input is sent to the CPU 1.

【0021】4は、プリンタ等の出力装置であり、CP
U1で演算した結果を紙等の記録媒体に出力する場合に
使用する。5は、三次元ポインティング装置であり、こ
の三次元ポインティング装置5で指示された三次元の座
標位置がCPU1に取込まれ、後述する表示装置7上
に、三次元表示のカーソルが表示される。また、三次元
ポインティング装置5の中には、後述の合焦範囲変更ボ
タン50が取付けられている。50は、三次元ポインテ
ィング装置5の中に取付けられた、合焦範囲変更ボタン
である。この合焦範囲変更ボタン50で変更した合焦範
囲の情報はCPU1に送られ、後述の三次元レンダリン
グアクセラレータ6によって合焦範囲が変化した三次元
画像が生成されることになる。
Reference numeral 4 denotes an output device such as a printer.
It is used when the result calculated in U1 is output to a recording medium such as paper. Reference numeral 5 denotes a three-dimensional pointing device. The three-dimensional coordinate position designated by the three-dimensional pointing device 5 is taken into the CPU 1, and a three-dimensional display cursor is displayed on a display device 7, which will be described later. The three-dimensional pointing device 5 is provided with a focus range change button 50 described later. Reference numeral 50 denotes a focus range change button attached to the three-dimensional pointing device 5. The information on the focus range changed by the focus range change button 50 is sent to the CPU 1, and a three-dimensional image whose focus range has been changed by the three-dimensional rendering accelerator 6 described later is generated.

【0022】6は、三次元レンダリングアクセラレータ
であり、CPU1から、三次元のモデリング情報と合焦
範囲変更ボタン50で変更した合焦範囲情報とを受取っ
て、三次元の画像を生成する。また、上記三次元ポイン
ティング装置5で指示された三次元の座標位置に表示さ
れる、三次元のカーソル画像の生成も行う。なお、CP
U1の演算能力が非常に高い場合には、この三次元レン
ダリングアクセラレータ6を使用せず、三次元の画像生
成と三次元のカーソル画像生成を全てCPU1で行うこ
とも可能である。
Reference numeral 6 denotes a three-dimensional rendering accelerator, which receives three-dimensional modeling information and focus range information changed by the focus range change button 50 from the CPU 1, and generates a three-dimensional image. Further, it also generates a three-dimensional cursor image displayed at the three-dimensional coordinate position designated by the three-dimensional pointing device 5. Note that CP
When the computational capability of U1 is very high, the CPU 1 can also perform all three-dimensional image generation and three-dimensional cursor image generation without using the three-dimensional rendering accelerator 6.

【0023】7は、モニター等の表示装置であり、三次
元レンダリングアクセラレータ6で生成した三次元画像
および三次元のカーソル画像を受取って、表示する。8
は、三次元サウンド生成装置であり、三次元レンダリン
グアクセラレータ6で生成する三次元の画像の表示効果
を向上させるような、三次元サウンドを発生し、後述す
るスピーカー9aおよび9bにこの音を送る。
A display device 7 such as a monitor receives and displays the three-dimensional image and the three-dimensional cursor image generated by the three-dimensional rendering accelerator 6. 8
Is a three-dimensional sound generation device that generates a three-dimensional sound that enhances the display effect of a three-dimensional image generated by the three-dimensional rendering accelerator 6, and sends this sound to speakers 9a and 9b described later.

【0024】9aおよび9bは2つ以上のスピーカーで
あり、三次元サウンド生成装置8から送られてくる三次
元サウンドを再生する。このスピーカー9aおよび9b
は、一般的には、表示装置7の両側に置かれたり、数が
多い場合は、操作者を取囲むような位置に配置される。
また、操作者の頭に装着するヘッドフォンのような物で
あってもかまわない。
Reference numerals 9a and 9b denote two or more speakers for reproducing the three-dimensional sound sent from the three-dimensional sound generator 8. These speakers 9a and 9b
Are generally placed on both sides of the display device 7 or, when the number is large, arranged so as to surround the operator.
Further, it may be a headphone worn on the operator's head.

【0025】このシステムは、一般的なパソコンと同様
のソフトウエアを動作させることができるので、その個
々の動作の説明は省略し、本発明の特徴となる部分のみ
を以下に説明する。
Since this system can operate the same software as a general personal computer, the description of each operation is omitted, and only the characteristic portions of the present invention will be described below.

【0026】図2は、三次元ポインティング装置5の構
成の1例を示した図である。図2を参照して三次元ポイ
ンティング装置5の機能を説明する。同図において、図
1と同様の構成については同一符号を付してその説明を
省略する。
FIG. 2 is a diagram showing an example of the configuration of the three-dimensional pointing device 5. The function of the three-dimensional pointing device 5 will be described with reference to FIG. In the figure, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.

【0027】51,52,53は、表示装置7の画面脇
に取付けられた、3個の超音波センサーである。この3
つの超音波センサー51,52,53は、同一直線上に
ならないように配置されていて、後述する三次元マウス
54からの超音波を受信するようになっている。54は
三次元マウスであり、図1の三次元ポインティング装置
5に対応する。この三次元マウス54には超音波発振器
が取付けられていて、超音波センサー51,52,53
に向って超音波を発振している。55は、三次元マウス
54の上に取付けられたボタンで、操作者がこのボタン
55を押すと、クリックされたという情報が、CPU1
に送られるようになっている。56は、超音波の受信強
度とその受信強度に対応する距離のデータであり、これ
は予め測定された上で記憶装置2の中に記憶されてい
る。三次元マウス54に取付けられた合焦範囲変更ボタ
ン50は2つで1セットとなっており、片方のボタンを
押すと合焦範囲を拡げる情報がCPU1に送られ、他方
のボタンを押すと合焦範囲を狭める情報がCPU1に送
られるようになっている。
Reference numerals 51, 52, and 53 denote three ultrasonic sensors mounted on the side of the screen of the display device 7. This 3
The two ultrasonic sensors 51, 52, 53 are arranged so as not to be on the same straight line, and receive an ultrasonic wave from a three-dimensional mouse 54 described later. A three-dimensional mouse 54 corresponds to the three-dimensional pointing device 5 in FIG. An ultrasonic oscillator is attached to the three-dimensional mouse 54, and ultrasonic sensors 51, 52, 53
Ultrasound is oscillating toward. Reference numeral 55 denotes a button mounted on the three-dimensional mouse 54. When the operator presses the button 55, information indicating that the button has been clicked is transmitted to the CPU 1.
To be sent to Reference numeral 56 denotes data of the reception intensity of the ultrasonic wave and the distance corresponding to the reception intensity, which are measured in advance and stored in the storage device 2. The focus range change button 50 attached to the three-dimensional mouse 54 is one set of two buttons. When one button is pressed, information for expanding the focus range is sent to the CPU 1, and when the other button is pressed, the focus range change button 50 is pressed. Information for narrowing the focus range is sent to the CPU 1.

【0028】次に、三次元ポインティング装置5が、三
次元の位置を検出する手順を説明する。
Next, a procedure in which the three-dimensional pointing device 5 detects a three-dimensional position will be described.

【0029】操作者が、三次元マウス54を持って表示
装置7の前で動かすと、三次元マウス54から発生する
超音波は、超音波センサー51,52,53によって、
三次元マウス54の位置に応じた強度で検知される。超
音波センサー51,52,53は、この検知した超音波
の強度情報を、CPU1に送る。CPU1は、記憶装置
2に記憶されている、超音波の受信強度とその時の距離
の対応データ56を使って、受取った超音波の強度から
三次元マウス54までの距離を求める。一般的に超音波
の強度は、距離の2乗に反比例して弱くなる為、ある特
定の距離L0の時の超音波の強度P0を測定して対応デ
ータ56として持っていれば、超音波の強度がPの時の
距離Lは、 L=SQRT(P0/P)×L0 (1) で求めることができる。なお、式(1)においてSQR
T()は平方根を意味する。また対応データ56を、事
前に数多くの距離に対する超音波の強度を測定した対応
表の形式で作成していれば、この対応表から距離を求め
ることも可能である。
When the operator holds the three-dimensional mouse 54 and moves it in front of the display device 7, the ultrasonic waves generated by the three-dimensional mouse 54 are transmitted by the ultrasonic sensors 51, 52, 53.
Detection is performed at an intensity corresponding to the position of the three-dimensional mouse 54. The ultrasonic sensors 51, 52 and 53 send the detected ultrasonic intensity information to the CPU 1. The CPU 1 obtains the distance to the three-dimensional mouse 54 from the intensity of the received ultrasonic wave using the corresponding data 56 of the reception intensity of the ultrasonic wave and the distance at that time stored in the storage device 2. In general, the intensity of an ultrasonic wave decreases in inverse proportion to the square of the distance, so if the intensity P0 of the ultrasonic wave at a specific distance L0 is measured and held as the corresponding data 56, the ultrasonic wave The distance L when the intensity is P can be obtained by L = SQRT (P0 / P) × L0 (1). Note that in equation (1), SQR
T () means square root. If the correspondence data 56 is created in advance in the form of a correspondence table in which the intensities of the ultrasonic waves are measured for a large number of distances, the distance can be obtained from this correspondence table.

【0030】このようにして、超音波センサー51,5
2,53から三次元マウス54までのそれぞれの距離L
51,L52,L53が求まると、超音波センサー5
1,52,53の相対位置は既に判っているので、これ
から三次元上の座標値を求めることができる。例えば、
超音波センサー51の位置を座標原点とし、超音波セン
サー51から超音波センサー52への方向をX軸、超音
波センサー51から超音波センサー53への方向をY
軸、超音波センサー51から表示装置7に垂直な方向を
Z軸として、超音波センサー51と超音波センサー52
の距離をx、超音波センサー51と超音波センサー53
の距離をyとする。この時求める三次元空間位置は、超
音波センサー51がある座標値(0,0,0)を中心と
して半径がL51の球面上で、かつ、超音波センサー5
2がある座標値(x,0,0)を中心として半径がL5
2の球面上で、かつ、超音波センサー53がある座標値
(0,y,0)を中心として半径がL53の球面上にあ
ることになる。このような座標値は、計算上表示装置7
の画面に対して対称な位置に2つ存在するが、表示装置
7の手前側に存在する座標値が求める座標値である。
Thus, the ultrasonic sensors 51, 5
Each distance L from 2,53 to the three-dimensional mouse 54
When 51, L52 and L53 are obtained, the ultrasonic sensor 5
Since the relative positions of 1, 52 and 53 are already known, three-dimensional coordinate values can be obtained from this. For example,
The position of the ultrasonic sensor 51 is set as the coordinate origin, the direction from the ultrasonic sensor 51 to the ultrasonic sensor 52 is the X axis, and the direction from the ultrasonic sensor 51 to the ultrasonic sensor 53 is Y.
Axis, a direction perpendicular to the display device 7 from the ultrasonic sensor 51 is defined as a Z axis, and the ultrasonic sensor 51 and the ultrasonic sensor
Is the distance of x, the ultrasonic sensor 51 and the ultrasonic sensor 53
Is defined as y. The three-dimensional spatial position obtained at this time is determined on the spherical surface having a radius of L51 around the coordinate value (0, 0, 0) at a certain coordinate value of the ultrasonic sensor 51 and the ultrasonic sensor 5
2 has a radius of L5 around a certain coordinate value (x, 0, 0).
That is, the ultrasonic sensor 53 is located on the spherical surface of L53 centered on a certain coordinate value (0, y, 0). Such coordinate values are calculated by the display device 7.
Are present at symmetrical positions with respect to the screen, but the coordinate values existing on the near side of the display device 7 are the coordinate values to be obtained.

【0031】次に図7(a)及び(b)を参照して、光
学機器において合焦範囲が変化する理論に関して説明す
る。
Next, with reference to FIGS. 7A and 7B, the theory that the focusing range changes in the optical apparatus will be described.

【0032】図7(a)は、レンズの光軸の断面図であ
る。
FIG. 7A is a sectional view of the optical axis of the lens.

【0033】201はレンズである。ここでは、説明を
簡潔にするために1枚の凸レンズとして描かれている
が、実際は複数枚のレンズの組み合せで構成されたもの
である。このレンズ201の焦点距離をfとする。
Reference numeral 201 denotes a lens. Here, for the sake of simplicity, it is depicted as a single convex lens, but it is actually composed of a combination of a plurality of lenses. The focal length of this lens 201 is f.

【0034】202は、絞りであり、複数のレンズで構
成されるレンズ201の中に組込まれている。図7
(a)では、絞り口径は半径がFとなっている。
Reference numeral 202 denotes an aperture, which is incorporated in a lens 201 composed of a plurality of lenses. FIG.
In (a), the aperture diameter is F.

【0035】この状態で、レンズ201から距離Lの位
置に被写体Aを想定する。この時、被写体Aから絞り口
径Fの大きさでレンズ201の光軸に平行に出た光は、
レンズ201で屈折して、焦点距離fの位置で光軸を横
切る光線となる。また、被写体Aの同じ位置からレンズ
201の中心に向った光線は、レンズ201で全く屈折
せず直進する光線となる。この2つの光線が交わった位
置に、被写体Aの完全にピントの合った像aが結像され
る。
In this state, a subject A is assumed at a position at a distance L from the lens 201. At this time, light emitted from the subject A in parallel with the optical axis of the lens 201 with the aperture diameter F is
The light is refracted by the lens 201 and crosses the optical axis at the position of the focal length f. Further, a light ray directed from the same position of the subject A to the center of the lens 201 is a light ray that is not refracted at all by the lens 201 and goes straight. A perfectly focused image a of the subject A is formed at the position where these two rays intersect.

【0036】ところが実際には、この2つの光線の交点
ではなくても、交点付近で2つの光線がお互いに十分に
近づいている場合には、ぼけの量が非常に小さいため、
人間の目にはピントが合っているように見える。このよ
うにピントが合っているように見えるための、2つの光
線の差の限界値をδとすると、図7(a)で、像aの前
後の像a’から像a”の範囲でピントが合っているよう
に見えることになる。像a’に対応するピントが合った
位置の被写体をA’、像a”に対応するピントが合った
位置の被写体をA”とすると、レンズ201から距離L
にある被写体Aに対しては、被写体Aの前面では、被写
体A’の位置までの距離dfの範囲でピントが合い、被
写体Aの背面では、被写体A”の位置までの距離dbの
範囲でピントが合うことになる。この被写体A’の位置
から被写体A”の位置までが、絞り口径Fの場合の合焦
範囲となる。
However, in practice, even if it is not the intersection of the two rays, if the two rays are sufficiently close to each other near the intersection, the amount of blur is very small.
The human eye appears to be in focus. Assuming that the limit value of the difference between the two light beams to make it appear that the image is in focus is δ, in FIG. 7A, the focus is set in the range from the image a ′ before and after the image a to the image a ″. If the subject at the position corresponding to the image a ′ and the subject at the position corresponding to the image a ″ are A ″ and the object at the position corresponding to the image a ″ is A ″, the lens 201 Distance L
Is focused on the front of the subject A within the range of the distance df to the position of the subject A ′, and on the back of the subject A, within the range of the distance db to the position of the subject A ″. The range from the position of the subject A ′ to the position of the subject A ″ is the focusing range in the case of the aperture F.

【0037】さて、ここで図7(b)のように、絞り口
径を半径でF’まで小さくした場合を考える。この時、
被写体Aから絞り口径F’の大きさでレンズ201の光
軸に平行に出た光は、レンズ201で屈折して、焦点距
離fの位置で光軸を横切る光線となる。また、被写体A
の同じ位置からレンズ201の中心に向った光線は、レ
ンズ201で全く屈折せず直進する光線となる。この2
つの光線が交わった位置に、被写体Aの完全にピントの
合った像aが結像される。
Now, consider the case where the aperture diameter is reduced to F 'in radius as shown in FIG. 7B. At this time,
Light emitted from the subject A in parallel with the optical axis of the lens 201 with the size of the aperture diameter F ′ is refracted by the lens 201 and becomes a light beam that crosses the optical axis at the position of the focal length f. Also, subject A
From the same position toward the center of the lens 201 is a light ray that is not refracted at all by the lens 201 and goes straight. This 2
A perfectly focused image a of the subject A is formed at the position where the two rays intersect.

【0038】この時、この2つの光線のなす角度は、図
7(a)の場合と比べて狭くなっている。この為、ぼけ
量の許容限界値δを同じとすると、ピントが合った像
a’から像a”までの距離が、図7(a)の場合より広
くなり、この結果、像a’に対応する被写体A’と被写
体Aの距離d’fも図7(a)のdfより長くなり、像
a”に対応する被写体A”と被写体Aの距離d’bも図
7(a)のdbより長くなる。
At this time, the angle between these two light rays is smaller than that in the case of FIG. Therefore, assuming that the allowable limit value δ of the blur amount is the same, the distance from the focused image a ′ to the image a ″ becomes wider than in the case of FIG. The distance d'f between the subject A 'and the subject A is also longer than df in FIG. 7A, and the distance d'b between the subject A "and the subject A corresponding to the image a" is also larger than db in FIG. 7A. become longer.

【0039】以上説明したように、絞り口径を絞り込む
ことにより、被写体前後のピントの合う領域(被写界深
度)を広めることができるのである。
As described above, by narrowing the aperture, the area in focus (depth of field) before and after the subject can be widened.

【0040】本実施の形態においては、上述の光学機器
の被写界深度の概念を、コンピュータにおける三次元画
像の生成に応用する。
In the present embodiment, the concept of the depth of field of the optical apparatus described above is applied to the generation of a three-dimensional image by a computer.

【0041】従って、合焦範囲変更ボタン50による操
作により、光学機器の絞り口径が変化するような効果が
得られるように設定しておけば、図1の三次元レンダリ
ングアクセラレータ6は、その時点での合焦範囲設置値
(=絞り口径)を基に、ピントの合っている範囲を決定
し、三次元画像を生成できることになる。なお、合焦範
囲設置値、およびぼけ量は予めCPU1に設定されてお
り、CPU1は、上述したように超音波センサ51,5
2,53により検知した超音波の情報から求めた三次元
マウス54による表示画面上の三次元の指示位置に基づ
いて、画像生成で用いられる合焦範囲及び合焦範囲外の
領域のぼけ量を設定する。
Accordingly, if an effect such that the aperture of the optical device is changed is obtained by operating the focus range change button 50, the three-dimensional rendering accelerator 6 of FIG. The in-focus range is determined based on the in-focus range setting value (= aperture diameter), and a three-dimensional image can be generated. Note that the focus range setting value and the blur amount are set in the CPU 1 in advance, and the CPU 1 uses the ultrasonic sensors 51 and 5 as described above.
Based on the three-dimensional pointing position on the display screen of the three-dimensional mouse 54 obtained from the information of the ultrasonic waves detected by the ultrasonic sensors 2 and 53, the in-focus range used in the image generation and the blur amount in the area outside the in-focus range are calculated. Set.

【0042】なお、理論的なぼけ量は、被写体Aの位置
から離れるに従って少しずつ多くなるが、三次元レンダ
リングアクセラレータ6の演算付加を軽減する為に、上
記で説明したように、ぼけ量の許容限界値δまでの範囲
は人間の目にはピントが合って見える為、この範囲では
完全合焦状態として三次元画像の生成を行えば良く、更
に、ぼけ量の許容限界値δを越えた範囲でも、ある深度
方向の距離単位でぼけのレベルが上がっていくように
し、それぞれの距離単位内にあるウインドウに固定のぼ
け量を持たせて、三次元画像の生成を行うことも可能で
ある。
The theoretical blur amount gradually increases as the distance from the position of the subject A increases. However, in order to reduce the additional calculation of the three-dimensional rendering accelerator 6, as described above, the allowable blur amount is limited. Since the range up to the limit value δ looks in focus to human eyes, it is sufficient to generate a three-dimensional image in a perfect focus state in this range, and furthermore, a range exceeding the allowable limit value δ of the blur amount However, it is also possible to generate a three-dimensional image by increasing the level of blur in a distance unit in a certain depth direction and by giving a window having a fixed amount of blur in each distance unit.

【0043】更に三次元レンダリングアクセラレータ6
の演算負荷を軽減する為に、被写体Aに対して、前側の
合焦範囲dfと後側の合焦範囲dbとでは、理論上では
dbの方が大きいが、簡易的に同じであると設定して演
算を行うことも可能である。更には、被写体Aまでの距
離Lに応じて、前側の合焦範囲dfと後側の合焦範囲d
bが変化するのであるが、距離Lに関わらず、一定の合
焦範囲を設定して演算を行うことも可能である。
Further, three-dimensional rendering accelerator 6
In order to reduce the calculation load of the above, it is theoretically set that db is larger in the front focus range df and the rear focus range db for the subject A, but is simply the same. It is also possible to perform the calculation. Further, according to the distance L to the subject A, the front focusing range df and the rear focusing range d
Although b changes, it is also possible to perform a calculation by setting a constant focusing range regardless of the distance L.

【0044】次に、三次元画像の生成方法の概念を、図
3を用いて説明する。図3は、図11と同じ三次元空間
であるが、説明を簡潔にする為に、ウインドウ102、
ウインドウ103、および、三次元カーソル106のみ
が存在しているとする。ここでは、ウインドウ102に
はワープロソフトが、ウインドウ103には表計算ソフ
トが起動されている図になっている。
Next, the concept of a method for generating a three-dimensional image will be described with reference to FIG. FIG. 3 is the same three-dimensional space as FIG. 11, but for simplicity, windows 102,
It is assumed that only the window 103 and the three-dimensional cursor 106 exist. Here, word processing software is activated in the window 102, and spreadsheet software is activated in the window 103.

【0045】操作者は、視点1000の位置から、ウイ
ンドウ102を注視しながらワープロによる作業を行っ
ている。また、三次元カーソル106もウインドウ10
2の近傍に存在する。ウインドウ103は、ウインドウ
102の右後方に位置している。更に、合焦範囲変更ボ
タン50により、三次元カーソル106の前側df、後
側dbの範囲が合焦範囲に設定されているとする。この
時、この合焦範囲から外れた物体はピントがぼけて見え
るのだが、図3に示す三次元配置では、ウインドウ10
2は三次元カーソル106の近傍にある為に合焦範囲内
に存在し、ウインドウ103は現在の合焦範囲変更ボタ
ン50の設定値では合焦範囲外に存在する。
The operator is working with a word processor while watching the window 102 from the position of the viewpoint 1000. Also, the three-dimensional cursor 106 is moved to the window 10.
2 exists in the vicinity. The window 103 is located on the right rear of the window 102. It is also assumed that the focus range change button 50 has set the range of the front side df and the rear side db of the three-dimensional cursor 106 to the focus range. At this time, an object out of the focus range appears to be out of focus, but in the three-dimensional arrangement shown in FIG.
2 is in the focusing range because it is near the three-dimensional cursor 106, and the window 103 exists outside the focusing range according to the current setting value of the focusing range change button 50.

【0046】ここで、操作者の視点1000とウインド
ウ102,103の間に表示装置7の画面に相当するス
クリーン1001を設定し、そのスクリーン1001を
表示装置7の画素配列に相当する格子で分割したとする
と、1つ1つの格子を通して見る画像が、表示装置7の
各画素に表示される画像となる。
Here, a screen 1001 corresponding to the screen of the display device 7 is set between the operator's viewpoint 1000 and the windows 102 and 103, and the screen 1001 is divided by a grid corresponding to the pixel arrangement of the display device 7. Then, an image viewed through each grid is an image displayed on each pixel of the display device 7.

【0047】例えば、格子1002を通して見る画像
は、ウインドウ102の1002’の領域の画像とな
る。この時、ウインドウ102にはピントが合っている
ため、1002’の領域の画像がそのまま格子1002
に表示される。これに対し、例えば格子1003を通し
て見る画像は、ウインドウ103の1003’の領域の
画像となる。ところが、ウインドウ103は合焦範囲外
の画像である為、格子1003’の範囲よりはぼけ量に
応じたもっと広い領域の1003”の範囲の画像が格子
点1003に表示されることになる。より正確な言い方
をすれば、1003”の範囲の各画素に対して、中心が
大きくて周辺になる程小さくなる係数を掛けた値の色と
なる。
For example, an image viewed through the grid 1002 is an image of the area 1002 ′ of the window 102. At this time, since the window 102 is in focus, the image in the area 1002 ′ is
Will be displayed. On the other hand, for example, an image viewed through the grid 1003 is an image of an area 1003 ′ of the window 103. However, since the window 103 is an image outside the focusing range, an image in a range 1003 ″ of a wider area corresponding to the blur amount than the range of the grid 1003 ′ is displayed at the grid point 1003. To be precise, each pixel in the range of 1003 ″ is a color having a value obtained by multiplying a coefficient that is larger at the center and smaller at the periphery.

【0048】次に、図4のフローチャートを使用して、
この三次元画像生成の処理手順を説明する。
Next, using the flowchart of FIG.
The processing procedure of the three-dimensional image generation will be described.

【0049】三次元画像生成の処理が開始されると、ス
テップS31で、合焦範囲変更ボタン50により合焦範
囲が変更されたか否かを判断する。変更されている場合
には、ステップS32で新たな合焦範囲を取得する。同
時に、合焦範囲外の領域のぼけ量を取得し、ステップS
33へ進む。また、変更されていない場合には、前回の
画像生成処理に用いた合焦範囲及びぼけ量をそのまま用
いるため、直接ステップS33へ進む。
When the process of generating a three-dimensional image is started, it is determined in step S31 whether or not the focus range has been changed by the focus range change button 50. If it has been changed, a new focus range is acquired in step S32. At the same time, the amount of blur in an area outside the focusing range is acquired, and step S
Go to 33. If no change has been made, the process directly proceeds to step S33 in order to use the in-focus range and the blur amount used in the previous image generation processing as they are.

【0050】ステップS33では、カーソルの位置の移
動が指示されたか否かを判断し、指示された場合にはス
テップS34で新規のカーソルの位置を取得すると共
に、合焦範囲およびぼけ量を新規のカーソル位置に合わ
せてシフトし、ステップS41へ進む。カーソルの位置
が移動されていない場合には、前回の画像生成処理に用
いた合焦範囲及びぼけ量をそのまま使用するため、直接
ステップS41へ進む。
In step S33, it is determined whether or not movement of the cursor position has been instructed. If so, a new cursor position is obtained in step S34, and the in-focus range and the blur amount are set in the new position. The shift is performed according to the cursor position, and the process proceeds to step S41. If the cursor position has not been moved, the process directly proceeds to step S41 in order to use the in-focus range and the blur amount used in the previous image generation processing as they are.

【0051】ステップS41で、図1の表示装置7のま
だ処理していない画素(図3のスクリーン1001の1
つの格子に相当)を選択する。この画素選択の終了後、
ステップS42に進む。
In step S41, a pixel that has not been processed yet (1 of the screen 1001 in FIG. 3) of the display device 7 in FIG.
(Corresponding to two grids). After this pixel selection,
Proceed to step S42.

【0052】ステップS42では、図3の視点1000
からステップS41で選択した画素位置を通して見た場
合に見えるウインドウやカーソルを判別する。もちろん
この場合、その画素に対応するウインドウやカーソルが
無い場合には、背景が見えてしまう場合もある。この判
別が終了すると、ステップS43に進む。
In step S42, the viewpoint 1000 in FIG.
From step S41, the window and the cursor visible when viewed through the pixel position selected in step S41 are determined. Of course, in this case, if there is no window or cursor corresponding to the pixel, the background may be visible. Upon completion of this determination, the flow advances to step S43.

【0053】ステップS43では、判別した領域の内容
が背景かどうかを判定する。判別した領域の内容が背景
の場合には、ステップS44に進む。ステップS44で
は、ステップS41で選択された画素に予め定められた
背景色を設定して、ステップS48に進む。ステップS
43で判別した領域の内容が背景でない場合には、ステ
ップS45に進む。
In step S43, it is determined whether the content of the determined area is the background. If the content of the determined area is the background, the process proceeds to step S44. In step S44, a predetermined background color is set for the pixel selected in step S41, and the process proceeds to step S48. Step S
If the content of the area determined in step 43 is not the background, the process proceeds to step S45.

【0054】ステップS45では、この領域が、現在の
合焦範囲に入っているかどうかの判定が行われる。この
領域が、現在のカーソルの位置及び合焦範囲変更ボタン
50の設定により、合焦範囲内にある場合はステップS
46に進み、この領域が合焦範囲内ではない場合には、
ステップS47に進む。
In step S45, it is determined whether or not this area is within the current focusing range. If this area is within the focus range according to the current cursor position and the setting of the focus range change button 50, step S
Go to 46 and if this area is not within the focus range,
Proceed to step S47.

【0055】ステップS46は、ステップS45で領域
が合焦範囲内であった場合に行われるステップで、この
領域の画素値をステップS41で選択した画素の値とし
て設定する。この後、ステップS48に進む。
Step S46 is a step performed when the area is within the focusing range in step S45. The pixel value of this area is set as the value of the pixel selected in step S41. Thereafter, the process proceeds to step S48.

【0056】ステップS47は、ステップS45で領域
が合焦範囲外であった場合に行われ、ぼけ量に応じた広
い領域の各画素に対して、中心が大きく、周辺になる程
小さくなる重み係数を掛けた演算値をステップS41で
選択した画素の値として設定する。この後、ステップS
48に進む。
Step S47 is performed when the area is out of the focusing range in step S45. For each pixel in a wide area corresponding to the amount of blur, a weight coefficient that is larger at the center and smaller at the periphery is used. Is set as the value of the pixel selected in step S41. After this, step S
Go to 48.

【0057】ステップS48は、ステップS45,S4
6,S47のいずれかで1つの領域の色を設定した後に
行われ、すべての画素に対する処理が完了したかどうか
を判定する。すべての画素に対する処理が完了した場合
は、ステップS49に進み、全ての画素に対する処理が
完了していない場合は、ステップS41に戻って次の未
処理の画素に対する処理を行う。
Step S48 includes steps S45 and S4
This is performed after setting the color of one area in any one of S6 and S47, and it is determined whether or not the processing for all the pixels is completed. If the processing for all the pixels has been completed, the process proceeds to step S49. If the processing for all the pixels has not been completed, the process returns to step S41 to perform the processing on the next unprocessed pixel.

【0058】ステップS49は、全ての画素に対する処
理が完了した場合に行われ、生成した三次元画像を図1
の表示装置7に送って、三次元画面を表示し、処理を終
了する。
Step S49 is performed when the processing for all the pixels has been completed.
To the display device 7 to display a three-dimensional screen, and terminate the process.

【0059】図5は、このような処理手順を通して生成
された三次元画像の画面例である。図5では、ピントが
合っている画像は実線で示し、合っていない画像は便宜
上、点線で示している。ウインドウ102やカーソル1
06にはピントが合っているが、ウインドウ103には
ピントが合っていないことがすぐ分るので、操作者はウ
インドウ103がウインドウ102より画面奥方向にあ
り、カーソル106を画面奥方向に移動しなければウイ
ンドウ103を選択できないことが容易に判断できる。
FIG. 5 is a screen example of a three-dimensional image generated through such a processing procedure. In FIG. 5, an in-focus image is indicated by a solid line, and an out-of-focus image is indicated by a dotted line for convenience. Window 102 and cursor 1
06 is in focus, but it is easy to see that the window 103 is out of focus. Therefore, the operator moves the cursor 106 in the depth direction of the screen with the window 103 positioned in the depth direction of the window 102. Otherwise, it can be easily determined that the window 103 cannot be selected.

【0060】今度は、この状態で、合焦範囲変更ボタン
50を使って合焦範囲を広げる変更を行い、図3におい
て3次元カーソル106の前側がd’f、後側がd’b
の範囲まで合焦となるように変更し、これによって、ウ
インドウ103がd’bの範囲内に入り、合焦範囲内に
なったものとする。
This time, in this state, a change is made to widen the focus range using the focus range change button 50. In FIG. 3, the front side of the three-dimensional cursor 106 is d'f, and the rear side is d'b.
It is assumed that the focus is changed so that the window 103 is within the range of d'b and the focus is within the range of focus.

【0061】この状態では、図3の格子1003を通し
て見る画像は、図4のフローのステップS45において
ウインドウ103が合焦領域内と判定されて、ステップ
S46で格子1003’の画素値そのものが、格子10
03の画素値として設定される演算によって生成される
ことになる。
In this state, in the image viewed through the grid 1003 in FIG. 3, the window 103 is determined to be within the focus area in step S45 of the flow in FIG. 4, and the pixel value itself of the grid 1003 ′ is changed to the grid in step S46. 10
It is generated by an operation set as the pixel value of 03.

【0062】図6は、このように合焦範囲変更ボタン5
0を使って合焦範囲を広げた状態で生成された三次元画
像の画面例であり、ウインドウ102やカーソル106
だけでなくウインドウ103にもピントが合っているの
で、操作者はウインドウ103の内容を容易に参照する
ことができる。
FIG. 6 shows the focus range change button 5
FIG. 9 is a screen example of a three-dimensional image generated in a state where the focus range is widened using 0, and includes a window 102 and a cursor 106.
In addition, since the window 103 is also focused, the operator can easily refer to the contents of the window 103.

【0063】なお、本実施の形態では、マウス54の上
に合焦範囲変更ボタン50を設け、これを押すことで合
焦範囲を変更したが、本発明はこれに限るものではな
く、合焦範囲の変更指示を行うことのできる構成であれ
ば良い。例えば、図1の表示装置7に合焦範囲変更のウ
インドウを表示し、これをマウス54で選択する方法で
あってもかまわない。
In this embodiment, the focus range change button 50 is provided on the mouse 54, and the focus range is changed by pressing the button. However, the present invention is not limited to this. Any configuration that can issue a range change instruction may be used. For example, a method of displaying a window for changing the focus range on the display device 7 of FIG. 1 and selecting the window with the mouse 54 may be used.

【0064】[0064]

【他の実施形態】本発明の目的は、前述した実施形態の
機能を実現するソフトウェアのプログラムコードを記録
した記憶媒体を、システムあるいは装置に供給し、その
システムあるいは装置のコンピュータ(またはCPUや
MPU)が記憶媒体に格納されたプログラムコードを読
出し実行することによっても、達成されることは言うま
でもない。
Another embodiment of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to provide a computer (or CPU or MPU) of the system or apparatus. Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium.

【0065】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0066】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0067】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0068】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided on a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0069】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードを格納することになるが、簡単に説
明すると、図12のメモリマップ例に示す各モジュール
を記憶媒体に格納することになる。すなわち、少なくと
も空間位置取得モジュール、合焦範囲設定モジュール、
画像生成モジュール、および画像表示モジュールの各モ
ジュールのプログラムコードを記憶媒体に格納すればよ
い。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts. Each module shown will be stored in a storage medium. That is, at least a spatial position acquisition module, a focusing range setting module,
What is necessary is just to store the program code of each module of the image generation module and the image display module in the storage medium.

【0070】[0070]

【発明の効果】以上説明したように、本発明によれば、
合焦範囲を変更する構成を設けることにより、必要に応
じて合焦範囲を狭く変更して、奥行方向に離れた位置に
あるウインドウ等の対象物をぼかして表示することによ
り遠近感を判り易くしたり、必要に応じて合焦範囲を広
く変更して、奥行方向に離れた位置にあるウインドウ等
の対象物まで合焦した状態で表示することにより、ウイ
ンドウの内容を容易に参照できるようになる。
As described above, according to the present invention,
By providing a configuration for changing the focus range, the focus range is changed to be narrower as necessary, and a target such as a window at a position distant in the depth direction is displayed in a blurred manner so that the perspective can be easily understood. Or by changing the focusing range widely as needed, and displaying the object in focus, such as a window at a position distant in the depth direction, so that the contents of the window can be easily referred to. Become.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態におけるシステム構成を示
すブロック図である。
FIG. 1 is a block diagram showing a system configuration according to an embodiment of the present invention.

【図2】三次元ポインティング装置の構成例を示す図で
ある。
FIG. 2 is a diagram illustrating a configuration example of a three-dimensional pointing device.

【図3】本発明の実施の形態における三次元画像の生成
方法の概念を説明する図である。
FIG. 3 is a diagram illustrating the concept of a method for generating a three-dimensional image according to the embodiment of the present invention.

【図4】本発明の実施の形態における三次元画像生成の
処理手順を示すフローチャートである。
FIG. 4 is a flowchart illustrating a processing procedure for generating a three-dimensional image according to the embodiment of the present invention.

【図5】本発明の実施の形態における生成された三次元
画像の画面例を示す図である。
FIG. 5 is a diagram illustrating a screen example of a generated three-dimensional image according to the embodiment of the present invention.

【図6】本発明の実施の形態における生成された三次元
画像の画面例を示す図である。
FIG. 6 is a diagram illustrating a screen example of a generated three-dimensional image according to the embodiment of the present invention.

【図7】本発明の実施の形態における合焦範囲の変化を
説明する図である。
FIG. 7 is a diagram illustrating a change in a focusing range according to the embodiment of the present invention.

【図8】従来のパソコンの画面の例を示す図である。FIG. 8 is a diagram showing an example of a screen of a conventional personal computer.

【図9】従来のパソコンの画面の例を示す図である。FIG. 9 is a diagram showing an example of a screen of a conventional personal computer.

【図10】従来の三次元表示の画面の例を示す図であ
る。
FIG. 10 is a diagram showing an example of a conventional three-dimensional display screen.

【図11】従来の三次元表示の画面の例を示す図であ
る。
FIG. 11 is a diagram showing an example of a conventional three-dimensional display screen.

【図12】本発明の三次元画像生成に用いられるプログ
ラムコードのメモリマップ図である。
FIG. 12 is a memory map diagram of a program code used for generating a three-dimensional image according to the present invention.

【符号の説明】[Explanation of symbols]

1 CPU 2 記憶装置 3 文字入力装置 4 出力装置 5 三次元ポインティング装置 6 三次元レンダリングアクセラレータ 7 表示装置 8 三次元サウンド生成装置 9a,9b スピーカー 50 合焦範囲変更ボタン 51,52,53 超音波センサー 54 マウス 55 ボタン 56 超音波の受信強度とその受信強度に対応する距離
のデータ 1001 スクリーン 1002,1003 格子
DESCRIPTION OF SYMBOLS 1 CPU 2 Storage device 3 Character input device 4 Output device 5 3D pointing device 6 3D rendering accelerator 7 Display device 8 3D sound generation device 9a, 9b Speaker 50 Focusing range change button 51, 52, 53 Ultrasonic sensor 54 Mouse 55 Button 56 Ultrasonic reception intensity and distance data corresponding to the reception intensity 1001 Screen 1002, 1003 Grid

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 複数の対象物が三次元に表示されるよう
に画像データを生成する画像生成手段と、 前記画像生成手段により生成された画像データに基づい
て画像を表示する表示手段と、 前記表示手段に表示された画像の三次元の空間位置を指
示するための指示手段と、 前記指示手段により指示された空間位置に基づく深さ方
向の合焦範囲の変更及び設定をするための合焦範囲変更
手段とを有し、 前記画像生成手段は、前記合焦範囲変更手段により設定
された合焦範囲に存在する対象物が合焦状態で表示さ
れ、上記合焦範囲外に存在する対象物が非合焦状態で表
示されるように、画像データを生成することを特徴とす
る三次元画像生成システム。
An image generating unit configured to generate image data so that a plurality of objects are displayed in three dimensions; a display unit configured to display an image based on the image data generated by the image generating unit; Instruction means for instructing a three-dimensional spatial position of an image displayed on the display means; and focus for changing and setting a focus range in the depth direction based on the spatial position instructed by the instruction means. A range changing unit, wherein the image generating unit displays an object existing in the focusing range set by the focusing range changing unit in a focused state, and displays the object existing outside the focusing range. A three-dimensional image generation system, which generates image data so that is displayed in an out-of-focus state.
【請求項2】 前記画像生成手段は、前記指示手段によ
り指示された空間位置から、上記合焦範囲外に存在する
対象物までの深さ方向の距離の増加に対応して、非合焦
の度合いを大きくするように、前記対象物の画像データ
を生成することを特徴とする請求項1に記載の三次元画
像生成システム。
2. An image forming apparatus according to claim 1, wherein said image generating unit performs an out-of-focus operation in response to an increase in a depth direction distance from a spatial position indicated by said indicating unit to an object existing outside said focusing range. The three-dimensional image generation system according to claim 1, wherein image data of the object is generated so as to increase the degree.
【請求項3】 前記画像生成手段は、前記指示手段によ
り指示された空間位置から、上記合焦範囲外に存在する
対象物までの深さ方向の一定距離毎の増加に対応して、
非合焦の度合いを段階的に大きくするように、前記対象
物の画像データを生成することを特徴とする請求項2に
記載の三次元画像生成システム。
3. The image generation unit according to an increase in a constant distance in the depth direction from a spatial position designated by the designation unit to an object existing outside the focusing range,
The three-dimensional image generation system according to claim 2, wherein the image data of the object is generated such that the degree of out-of-focus is gradually increased.
【請求項4】 前記合焦範囲変更手段は、前記指示手段
により指示された空間位置を中心とした合焦範囲の変更
及び設定を行うことを特徴とする請求項1乃至3のいず
れかに記載の三次元画像生成システム。
4. The focus range changing unit according to claim 1, wherein the focus range changing unit changes and sets a focus range around a spatial position designated by the designating unit. 3D image generation system.
【請求項5】 前記対象物は、ウィンドウ画像であるこ
とを特徴とする請求項1乃至4のいずれかに記載の三次
元画像生成システム。
5. The three-dimensional image generation system according to claim 1, wherein the object is a window image.
【請求項6】 前記画像生成手段は、前記指示手段によ
り指示された三次元の空間位置を示すカーソルの画像デ
ータを生成することを特徴とする請求項1乃至5のいず
れかに記載の三次元画像生成システム。
6. The three-dimensional image processing apparatus according to claim 1, wherein said image generating means generates image data of a cursor indicating a three-dimensional spatial position designated by said designating means. Image generation system.
【請求項7】 外部から指示された、三次元画像中の空
間位置を取得する位置取得工程と、 前記三次元画像の深さ方向の合焦範囲を設定する合焦範
囲設定工程と、 前記位置取得工程で取得した空間位置と、前記合焦範囲
設定工程で設定された合焦範囲とに基づいて、合焦範囲
に存在する対象物が合焦状態で表示され、上記合焦範囲
外に存在する対象物が非合焦状態で表示されるように、
三次元画像の画像データを生成する画像生成工程と、 前記画像生成工程で生成された画像データに基づく三次
元画像を表示する表示工程とを有することを特徴とする
三次元画像生成方法。
7. A position acquisition step of acquiring a spatial position in a three-dimensional image instructed from outside, a focus range setting step of setting a focus range in a depth direction of the three-dimensional image, and the position Based on the spatial position acquired in the acquiring step and the focusing range set in the focusing range setting step, an object existing in the focusing range is displayed in a focused state, and is present outside the focusing range. Object to be displayed out of focus,
A three-dimensional image generation method, comprising: an image generation step of generating image data of a three-dimensional image; and a display step of displaying a three-dimensional image based on the image data generated in the image generation step.
【請求項8】 前記画像生成工程では、前記位置取得工
程で取得した空間位置から、上記合焦範囲外に存在する
対象物までの深さ方向の距離の増加に対応して、非合焦
の度合いを大きくするように、前記対象物の画像データ
を生成することを特徴とする請求項7に記載の三次元画
像生成方法。
8. In the image generation step, an out-of-focus state is set in response to an increase in a depth direction distance from the spatial position acquired in the position acquisition step to an object existing outside the focusing range. The three-dimensional image generation method according to claim 7, wherein image data of the object is generated so as to increase the degree.
【請求項9】 前記画像生成工程では、前記位置取得工
程で取得した空間位置から、上記合焦範囲外に存在する
対象物までの深さ方向の一定距離毎の増加に対応して、
非合焦の度合いを段階的に大きくするように、前記対象
物の画像データを生成することを特徴とする請求項8に
記載の三次元画像生成方法。
9. In the image generating step, in response to an increase at every fixed distance in a depth direction from the spatial position acquired in the position acquiring step to an object existing outside the focusing range,
9. The three-dimensional image generation method according to claim 8, wherein the image data of the object is generated such that the degree of out-of-focus is gradually increased.
【請求項10】 前記合焦範囲設定工程では、前記位置
取得工程で取得した空間位置を中心とする合焦範囲の設
定を行うことを特徴とする請求項7乃至9のいずれかに
記載の三次元画像生成方法。
10. The tertiary image according to claim 7, wherein in the focusing range setting step, a focusing range centering on the spatial position acquired in the position acquiring step is set. Original image generation method.
【請求項11】 前記対象物は、ウィンドウ画像である
ことを特徴とする請求項7乃至10のいずれかに記載の
三次元画像生成方法。
11. The method according to claim 7, wherein the object is a window image.
【請求項12】 前記画像生成工程では、前記位置取得
工程で取得した三次元の空間位置を示すカーソルの画像
データを生成することを特徴とする請求項7乃至11の
いずれかに記載の三次元画像生成方法。
12. The three-dimensional image according to claim 7, wherein in the image generation step, image data of a cursor indicating a three-dimensional spatial position acquired in the position acquisition step is generated. Image generation method.
【請求項13】 請求項7乃至12のいずれかに記載の
三次元画像生成方法を実現するためのプログラムコード
を保持する記憶媒体。
13. A storage medium storing a program code for realizing the three-dimensional image generation method according to claim 7. Description:
JP68499A 1999-01-05 1999-01-05 Three-dimensional image generation system and three- dimensional image generation method Withdrawn JP2000200131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP68499A JP2000200131A (en) 1999-01-05 1999-01-05 Three-dimensional image generation system and three- dimensional image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP68499A JP2000200131A (en) 1999-01-05 1999-01-05 Three-dimensional image generation system and three- dimensional image generation method

Publications (1)

Publication Number Publication Date
JP2000200131A true JP2000200131A (en) 2000-07-18

Family

ID=11480599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP68499A Withdrawn JP2000200131A (en) 1999-01-05 1999-01-05 Three-dimensional image generation system and three- dimensional image generation method

Country Status (1)

Country Link
JP (1) JP2000200131A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182333A (en) * 2003-06-13 2010-08-19 Microsoft Corp Multi-layer graphical user interface
US8773472B2 (en) 2006-05-02 2014-07-08 Sony Corporation Information display device
CN108550182A (en) * 2018-03-15 2018-09-18 维沃移动通信有限公司 A kind of three-dimensional modeling method and terminal
JP7472127B2 (en) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド Image size triggered clarification to maintain image clarity

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182333A (en) * 2003-06-13 2010-08-19 Microsoft Corp Multi-layer graphical user interface
US8773472B2 (en) 2006-05-02 2014-07-08 Sony Corporation Information display device
US9047389B2 (en) 2006-05-02 2015-06-02 Sony Corporation Information display device
CN108550182A (en) * 2018-03-15 2018-09-18 维沃移动通信有限公司 A kind of three-dimensional modeling method and terminal
JP7472127B2 (en) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド Image size triggered clarification to maintain image clarity

Similar Documents

Publication Publication Date Title
US10579142B2 (en) Gaze detection method and apparatus
US6111597A (en) Stereo image forming apparatus
CN108139518B (en) Virtual/augmented reality system with reverse angle diffraction grating
US6400364B1 (en) Image processing system
JP7029399B2 (en) Beam angle sensor in virtual / augmented reality systems
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP5160741B2 (en) 3D graphic processing apparatus and stereoscopic image display apparatus using the same
US6414681B1 (en) Method and apparatus for stereo image display
CN106327584B (en) Image processing method and device for virtual reality equipment
US11270499B2 (en) Multi line trace gaze to object mapping for determining gaze focus targets
JPH0676073A (en) Method and apparats for generating solid three- dimensional picture
JPH10239634A (en) Stereoscopic video display device
CN114026603B (en) Rendering computer-generated real text
JP4270347B2 (en) Distance calculator
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
JP2000200131A (en) Three-dimensional image generation system and three- dimensional image generation method
KR100489572B1 (en) Image processing method
US11037323B2 (en) Image processing apparatus, image processing method and storage medium
KR20210150881A (en) Electronic apparatus and operaintg method thereof
US11574454B2 (en) Augmented reality system supporting customized multi-channel interaction
JPH10334274A (en) Method and system for virtual realize and storage medium
CN113661433A (en) Head-mounted display device and operation method thereof
US20220130107A1 (en) Multi line trace gaze to object mapping for determining gaze focus targets
JPH06259573A (en) Three-dimensional graphics data generator

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307