JP2003288608A - 3dcg image generation method - Google Patents

3dcg image generation method

Info

Publication number
JP2003288608A
JP2003288608A JP2002089992A JP2002089992A JP2003288608A JP 2003288608 A JP2003288608 A JP 2003288608A JP 2002089992 A JP2002089992 A JP 2002089992A JP 2002089992 A JP2002089992 A JP 2002089992A JP 2003288608 A JP2003288608 A JP 2003288608A
Authority
JP
Japan
Prior art keywords
image
data
image generation
generation method
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002089992A
Other languages
Japanese (ja)
Inventor
Yutaka Takahashi
裕 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002089992A priority Critical patent/JP2003288608A/en
Publication of JP2003288608A publication Critical patent/JP2003288608A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a 3DCG image generation method which can generate an image having a depth of field from line-of-sight analyzing data and Z- information data. <P>SOLUTION: A detector 10 detects movement of eyes and the movement is detected as a line of sight at a line-of-sight detecting part 11. Time series of the line-of-sight data detected by the line-of-sight detecting part 11 are accumulated in a data accumulation part 12. At a time series data analyzing part 13, an orbit change analyzing part 14, a speed change analyzing part 15, a frequency of gaze analyzing part 16, and a gaze analyzing part 17 in which a rotational spectrum method is applied analyze the time series data respectively, and results of the analyses are sent to a analyzing result display part 18 to be displayed. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は3DCG画像生成方
法に関し、特に、視線解析のデータとZ情報付きデータ
(奥行き情報)を使用した3DCG画像生成方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a 3DCG image generating method, and more particularly to a 3DCG image generating method using line-of-sight analysis data and Z information-added data (depth information).

【0002】[0002]

【従来の技術】画面上のどこを見ているかをメガネ等に
付加されたデバイスによりセンスする視線解析装置が知
られている。人間は物体の輪郭をなぞるように視線を動
かしたり、角のある部分を幾度となく、なぞるように視
線を動かしたりすることなどが視線解析装置により解析
されている。
2. Description of the Related Art There is known a line-of-sight analysis apparatus that senses where the user is looking on a screen by a device attached to glasses or the like. It has been analyzed by a line-of-sight analysis device that a human moves his or her line of sight so as to trace the contour of an object, or moves his or her line of sight so as to trace a cornered portion repeatedly.

【0003】視線解析の手段としてはドライバがどこを
見ているのかを調べる装置等のようにメガネ等に付けら
れたライトから光線を目に投射し反射してくる光の場所
等を解析してどこを見ているのかを解析する装置が知ら
れている。従来は画像生成するだけでよりリアリティの
あるぼかし処理等を加えた被写深度のある画像は生成し
ていなかった。
As a means for line-of-sight analysis, light rays are projected from the light attached to the eyeglasses such as a device for checking where the driver is looking to analyze the location of the reflected light. There are known devices that analyze where you are looking. Conventionally, an image with a depth of field to which a more realistic blurring process is added is not generated by simply generating an image.

【0004】また、どこを見ても焦点のあったありがち
な画像はリアリティに欠けたものとなっていた。さらに
人間の見ている部分とは関係なく被写深度のある画像を
生成しても人間側での目の調節とは無縁の画像を見せる
ことになり生理的に負荷を与える因子となりかねない。
Further, an image that tends to be in focus regardless of where it is seen lacks in reality. Further, even if an image with a depth of field is generated irrespective of the part viewed by a human, an image unrelated to the adjustment of eyes on the human side is shown, which may be a physiologically burdening factor.

【0005】さらに、最初のころのVR(Virtual Real
ity )画像は全ての物体の画像にピントは合っている画
像であり、製作者が意識的に見せたいものに焦点を合わ
せた画像をVR画像として使用することがあったが、ユ
ーザが希望した物体にピントをリアルタイムに調整する
機構は存在しなかった。
In addition, VR (Virtual Real) at the beginning
The (ity) image is an image that is in focus with the images of all objects, and the image that the maker intentionally focused on was sometimes used as the VR image, but the user wanted it. There was no mechanism to adjust the focus on the object in real time.

【0006】[0006]

【発明が解決しようとする課題】従来の画像生成は、ぼ
かし処理等をせず被写深度の低い画像しかなく、焦点が
目的となるオブジェクト以外にもあってしまいリアリテ
ィに欠けた画像になってしまうという問題があった。ま
た、人間の見ている部分とは関係なく被写深度のある画
像を生成しても人間側での目の調節とは無縁の画像を見
えることになり生理的に負荷を与える因子となりかねな
いという問題があった。本発明は係る問題に鑑みてなさ
れたものであり、視線解析データとZ情報データから被
写深度のある画像を生成する3DCG画像生成方法を提
供することを目的とする。
In the conventional image generation, there is only an image with a low depth of field without performing blurring processing, etc., and the focus is not on the object of interest, resulting in an image lacking in reality. There was a problem of being lost. Also, even if an image with a depth of field is generated regardless of the part viewed by a human, an image that is unrelated to the adjustment of eyes on the human side can be seen, which may be a physiologically burdensome factor. There was a problem. The present invention has been made in view of the above problem, and an object of the present invention is to provide a 3DCG image generation method for generating an image with a depth of field from line-of-sight analysis data and Z information data.

【0007】[0007]

【課題を解決するための手段】請求項1記載の3DCG
画像生成方法は、よりリアリティのあるぼかし処理等を
加えた被写深度のある画像を生成する画像生成方法にお
いて、視線解析データとZ情報データ(奥行き情報)を
用いて被写深度のある視覚情報から画像を生成する画像
生成手段を有することを特徴とする。
3. A 3DCG according to claim 1
The image generation method is an image generation method for generating an image with a depth of field to which blurring processing with a higher degree of reality is added, and visual information with a depth of field is obtained using line-of-sight analysis data and Z information data (depth information). It is characterized by having an image generating means for generating an image from the.

【0008】請求項2記載の発明は、視線の部分(見て
いる部分を中心とした円形部分)以外を円形の端に行く
ほどかかるようにぼかし処理を行い高速に処理させるこ
とを特徴とする。
The invention according to claim 2 is characterized in that the blurring processing is performed at a high speed so that a portion other than the line-of-sight portion (a circular portion centering on the portion being viewed) is applied to the end of the circle. .

【0009】請求項3記載の発明は、Z情報データと視
線解析データに加えて目の焦点距離データをセンスして
ぼかし処理を行い、よりリアルな視覚環境を実現するた
め、水晶体の厚みを測定して距離を検知する検知手段を
有することを特徴とする。
According to the third aspect of the present invention, the thickness of the crystalline lens is measured in order to realize a more realistic visual environment by sensing and blurring the focal length data of the eye in addition to the Z information data and the line-of-sight analysis data. It is characterized by having a detection means for detecting the distance.

【0010】請求項4記載の発明は、あらかじめ3種類
(近景、中景、遠景)のデータを有し、3種類のデータ
を使用することにより高速レスポンス手段を有すること
を特徴とする。
The invention according to claim 4 is characterized in that it has three types of data (near view, middle view, and distant view) in advance and has a high-speed response means by using the three types of data.

【0011】請求項5記載の発明は、Z情報データと視
線解析データに加え、目の焦点距離データをセンスして
ぼかし処理を行いリアリティのある視覚環境を実現する
ことにより、リアルタイムに被写深度を加味した画像を
生成する画像生成手段を有することを特徴とする。
According to a fifth aspect of the present invention, in addition to the Z information data and the line-of-sight analysis data, the focal length data of the eyes is sensed and a blurring process is performed to realize a realistic visual environment, thereby achieving real-time depth of field. It is characterized by having an image generation means for generating an image with consideration of.

【0012】請求項6記載の発明は、リアルワールドと
同様の反応を返すことにより人体へのショックを和ら
げ、人体への影響を軽減させることを特徴とする。
The invention according to claim 6 is characterized in that the same reaction as in the real world is returned to alleviate the shock to the human body and reduce the influence on the human body.

【0013】請求項7記載の発明は、頭部の位置情報を
センスし、さらに頭部が移動しても同様に被写深度のあ
る画像を表示できるようにすることを特徴とする。
According to a seventh aspect of the invention, the position information of the head is sensed, and even if the head moves, an image having a depth of field can be displayed in the same manner.

【0014】請求項8記載の暗い画像を生成する際にリ
アリティのある画像にするために明るい部分の彩度は、
そのまま暗い部分の彩度を落とすように処理を加えるこ
とを特徴とする。
In order to obtain a realistic image when generating a dark image according to claim 8, the saturation of the bright portion is
The feature is that the processing is added so as to reduce the saturation of the dark portion as it is.

【0015】請求項9記載の発明は、暗い部分が多い中
に光度の高い明かりがあったようなものを見る場合、角
膜の細胞の組織により知覚できるスターフレアを、カメ
ラで撮影した画像やCG画像にもシミュレートして付加
することを特徴とする。
According to a ninth aspect of the present invention, when a person who sees a light having a high luminous intensity in a large number of dark areas sees a star flare that can be perceived by the corneal cell tissue, an image captured by a camera or CG. The feature is that the image is also simulated and added.

【0016】請求項10記載の発明は、暗い部分の彩度
を落とし、スターフレア処理を行うことを特徴とする。
The invention according to claim 10 is characterized in that the saturation of a dark portion is reduced and star flare processing is performed.

【0017】[0017]

【発明の実施の形態】本発明の実施形態について説明す
る。図1は本発明の視線解析装置の実施形態を示した図
である。図1に示す視線解析装置は、検出器10と視線
検出部11、データ蓄積部12、時系列データ解析部1
3、軌道変化解析部14、速度変化解析部15、注視発
生頻度解析部16、回転スペクトル法適用注視解析部1
7、解析結果表示部18から構成されている。検出器1
0は眼球の動きを検出し、その動きを視線検出部11で
視線として検出する。視線検出部11で検出された視線
に関する時系列データをデータ蓄積部12に蓄積する。
時系列データ解析部13では、時系列データを軌道変化
解析部14、速度変化解析部15、注視発生頻度解析部
16、回転スペクトル法適用注視解析部17でそれぞれ
解析され、解析結果表示部18に解析されたデータを送
り解析結果を表示する。図2はレンダリングによって示
された図である。図3と4は視線解析データとZ情報デ
ータに目の焦点距離データを加えることにより目的とな
るオブジェクトだけをリアリティな画像したときの図で
ある。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described. FIG. 1 is a diagram showing an embodiment of a line-of-sight analysis apparatus of the present invention. The visual line analysis device shown in FIG. 1 includes a detector 10, a visual line detection unit 11, a data storage unit 12, and a time series data analysis unit 1.
3, trajectory change analysis unit 14, speed change analysis unit 15, gaze occurrence frequency analysis unit 16, rotation spectrum method application gaze analysis unit 1
7 and an analysis result display section 18. Detector 1
0 detects the movement of the eyeball, and the visual line detection unit 11 detects the movement as the visual line. The time series data regarding the line of sight detected by the line-of-sight detection unit 11 is stored in the data storage unit 12.
In the time-series data analysis unit 13, the time-series data is analyzed by the trajectory change analysis unit 14, the speed change analysis unit 15, the gaze occurrence frequency analysis unit 16, and the rotation spectrum method application gaze analysis unit 17, respectively, and displayed on the analysis result display unit 18. Send the analyzed data and display the analysis result. FIG. 2 is a diagram shown by rendering. FIGS. 3 and 4 are diagrams when a realistic image of only a target object is obtained by adding eye focal length data to the line-of-sight analysis data and Z information data.

【0018】HMD(ヘッドマウントディスプレイ)に
町並みを表示させるような場合、ディスプレイには3D
CGの風景を生成し、表示させる場合等に使用される。
頭を動かさないで見える範囲の画像を示す。すでに記録
されている実写画像を使用してもよい。Z情報データを
同時に記録できるカメラを開発されているのでそれらを
使用する。すでに記録されている実写画像を使用しても
よい。Z情報データを同時に記録できるカメラを開発さ
れているのでそれらを使用する。
When displaying a townscape on an HMD (head mounted display), a 3D display is used.
It is used when generating and displaying a CG landscape.
The image of the range which can be seen without moving the head is shown. You may use the real image already recorded. Cameras that can record Z information data at the same time have been developed, so they will be used. You may use the real image already recorded. Cameras that can record Z information data at the same time have been developed, so they will be used.

【0019】3DCGに表示するオブジェクト(ビル、
山、電柱等)の位置関係はすでにシステム側が把握して
いるので視線解析の情報によりどこを見ているのかが解
読することができるので、見ているオブジェクトの位置
情報により見ているオブジェクトに焦点を合わせた画像
を生成することができる。つまり焦点から離れている度
合いによるぼかし処理等を行うことが可能となる。目の
焦点距離の検知はカメラの自動焦点にあるようにかけた
メガネの2点から赤外線で目の水晶体の厚みを計るもの
でいくらでも考えられる。
Objects displayed on 3DCG (building,
Since the system side already knows the positional relationship of mountains, power poles, etc., it is possible to decipher where you are looking from the information of the line-of-sight analysis, so you can focus on the object you are looking at based on the position information of the object you are looking at. A combined image can be generated. That is, it is possible to perform blurring processing or the like depending on the degree of being away from the focus. The detection of the focal length of the eye is possible by measuring the thickness of the crystalline lens of the eye with infrared rays from two points of the glasses which are put on the camera so as to be in the automatic focus.

【0020】表示器の明るさには限度があり実世界の明
るさには対応しきれていない、しかし明るいものを見た
際の画像にはフレア処理を加えることにより実世界での
視覚環境に近い画像を表示させることによりある程度補
正することができる。
The brightness of the display is limited and does not correspond to the brightness of the real world, but by adding flare processing to the image when a bright object is seen, the visual environment in the real world is improved. It can be corrected to some extent by displaying a close image.

【0021】暗い画像を生成する際に暗い部分のみの彩
度を落とすことにより、よりリアリティのある画像を生
成することができる。具体的には全体のトーン(ここで
は明度)を目的の明るさにした後、その画像をもとにモ
ノトーンの画像を作り、それを処理用のマスクとして彩
度処理を行う(黒に近い部分ほどモノクロに近づくよう
にする)。
When the dark image is generated, the saturation of only the dark portion is reduced, so that an image with higher reality can be generated. Specifically, after setting the overall tone (here, brightness) to the desired brightness, a monotone image is created based on that image, and saturation processing is performed using that image as a processing mask (portions near black). Try to get closer to monochrome).

【0022】暗い画像の中に光度の高い部分があった場
合は、全体のトーン(ここでは明度)を目的の明るさに
した後、その画像をもとにモノトーンの画像を作り、そ
れを処理用のマスクとしてスターフレア処理を行う。
(高光度の白に近い部分にスターフレア処理がかかるよ
うにする。)
If there is a high-luminance part in the dark image, after making the entire tone (here, brightness) the target brightness, a monotone image is created based on that image and processed. Flare processing is performed as a mask for.
(The star flare process should be applied to the part close to white with high brightness.)

【0023】図5は、Z情報とグレイスケールを用いる
ことによりオブジェクトの距離を示した画像である。Z
情報データの具体例としてカメラ(目)からの距離に応
じたグレイスケールをオブジェクトにマッピングした画
像等になる(距離が0なら白、遠距離を黒とする)、画
像を生成する際に見ているオブジェクトのグレイスケー
ルを基準に離れている度合いに比例してぼかし処理を行
うことにより被写深度のある画像を生成することができ
る。
FIG. 5 is an image showing the distance of an object by using Z information and gray scale. Z
As a specific example of the information data, an image in which a gray scale corresponding to the distance from the camera (eyes) is mapped to an object (when the distance is 0 is white, and the long distance is black) is viewed when the image is generated. An image with a depth of field can be generated by performing a blurring process in proportion to the degree of distance of an existing object based on the gray scale.

【0024】[0024]

【発明の効果】請求項1記載の3DCG画像生成方法
は、視線解析データとZ情報データを用いて被写深度の
ある画像を生成することができる。
According to the 3DCG image generation method of the first aspect, it is possible to generate an image having a depth of field by using the line-of-sight analysis data and the Z information data.

【0025】請求項2記載の発明は請求項1記載の3D
CG画像生成方法において、視線の部分(見ている部分
を中心とした円形部分)以外にぼかし処理を行うこと
で、画像生成を高速に処理することができる。
The invention according to claim 2 is the 3D according to claim 1.
In the CG image generation method, the image generation can be performed at high speed by performing the blurring process on a portion other than the line-of-sight portion (the circular portion centering on the viewed portion).

【0026】請求項3記載の発明は請求項1記載の3D
CG画像生成方法において、視線解析データとZ情報デ
ータに加え、目の焦点距離データによってぼかし処理を
行い、よりリアルな視覚環境を実現することができる。
The invention according to claim 3 is the 3D according to claim 1.
In the CG image generation method, it is possible to realize a more realistic visual environment by performing blurring processing using the eye focal length data in addition to the line-of-sight analysis data and Z information data.

【0027】請求項4記載の発明は請求項1記載の3D
CG画像生成方法において、3種類の(近景、中景、遠
景)のデータを有することから高速レスポンスを実現す
ることができる。
The invention according to claim 4 is the 3D according to claim 1.
Since the CG image generation method has three types of data (near view, middle view, and distant view), high-speed response can be realized.

【0028】請求項5記載の発明は請求項3記載の3D
CG画像生成方法において、視線解析データとZ情報デ
ータとさらに目の焦点距離データからリアリティのある
視覚環境を実現し、リアルタイムに被写深度を加味した
画像を生成することができる。
The invention according to claim 5 is the 3D according to claim 3.
In the CG image generation method, a realistic visual environment can be realized from the line-of-sight analysis data, the Z information data, and the focal length data of the eyes, and an image in which the depth of field is taken into consideration can be generated in real time.

【0029】請求項6記載の発明は、リアルワールドと
同様の反応を返すことにより人体へのショックを和らげ
ることができる。
The invention according to claim 6 can reduce the shock to the human body by returning the same reaction as in the real world.

【0030】請求項7記載の発明は、頭の位置情報をセ
ンスし、頭を動かしても同様の被写深度のある画像を表
示することができる。
According to the seventh aspect of the present invention, the position information of the head is sensed, and even if the head is moved, an image having the same depth of field can be displayed.

【0031】請求項8記載の発明は、画像の暗い部分の
彩度だけを落とすことによってリアリティのある画像を
生成することができる。
According to the eighth aspect of the present invention, it is possible to generate a realistic image by reducing the saturation of the dark portion of the image.

【0032】請求項9記載の発明は、カメラで撮影した
画像やCG画像にもスターフレア処理を施すことでリア
リティのある画像を生成することができる。
According to the ninth aspect of the present invention, a realistic image can be generated by performing star flare processing on an image captured by a camera or a CG image.

【0033】請求項10記載の発明は、暗い部分の彩度
を落とし、スターフレア処理を施すことでリアリティの
ある画像を生成することができる。
According to the tenth aspect of the present invention, it is possible to generate a realistic image by reducing the saturation of the dark portion and performing the star flare processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の視線解析装置の実施形態を示した図で
ある。
FIG. 1 is a diagram showing an embodiment of a visual line analysis device of the present invention.

【図2】レンダリングによって示された図である。FIG. 2 is a diagram shown by rendering.

【図3】車に焦点を合わせた画像を示した図である。FIG. 3 is a diagram showing an image focused on a car.

【図4】三輪車に焦点を合わせた画像を示した図であ
る。
FIG. 4 is a diagram showing an image focused on a tricycle.

【図5】Z情報データを加え、カメラからの距離に応じ
たグレイスケールをオブジェクトにマッピングした画像
を示した図である。
FIG. 5 is a diagram showing an image in which Z information data is added and a gray scale corresponding to a distance from a camera is mapped to an object.

【符号の説明】[Explanation of symbols]

10 検出器 11 視線検出部 12 データ蓄積部 13 時系列データ解析部 14 軌道変化解析部 15 速度変化解析部 16 注視発生頻度解析部 17 回転スペクトル法適用注視解析部 18 解析結果表示部 10 detector 11 Line-of-sight detection unit 12 Data storage section 13 Time series data analysis section 14 Orbit change analysis section 15 Speed change analysis section 16 Gaze frequency analysis unit 17 Rotational spectrum method applied gaze analysis section 18 Analysis result display

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 よりリアリティのあるぼかし処理等を加
えた被写深度のある画像を生成する画像生成方法におい
て、 視線解析データと、 Z情報データ(奥行き情報)を用いて被写深度のある視
覚情報から画像を生成する画像生成手段を有することを
特徴とする3DCG画像生成方法。
1. An image generation method for generating an image with a depth of field, which is subjected to a more realistic blurring process and the like, wherein a visual image with a depth of field is obtained using line-of-sight analysis data and Z information data (depth information). A 3DCG image generation method comprising an image generation means for generating an image from information.
【請求項2】 前記画像生成手段は、視線の部分(見て
いる部分を中心とした円形部分)以外を円形の端に行く
ほどかかるようにぼかし処理を行い高速に処理させる請
求項1記載の3DCG画像生成方法。
2. The image generating means performs a blurring process so that a portion other than a line-of-sight portion (a circular portion centering on a portion being viewed) is closer to a circular end, thereby performing high-speed processing. 3DCG image generation method.
【請求項3】 前記画像生成手段は、Z情報データと視
線解析データに加えて目の焦点距離データをセンスして
ぼかし処理を行い、よりリアルな視覚環境を実現するた
め、水晶体の厚みを測定して距離を検知する検知手段を
有することを特徴とする請求項1記載の3DCG画像生
成方法。
3. The image generating means senses the focal length data of the eye in addition to the Z information data and the line-of-sight analysis data to perform blurring processing, and measures the thickness of the crystalline lens in order to realize a more realistic visual environment. The 3DCG image generation method according to claim 1, further comprising a detection unit that detects the distance.
【請求項4】 前記画像生成手段は、あらかじめ3種類
(近景、中景、遠景)のデータを有し、3種類のデータ
を使用することにより高速レスポンス手段を有すること
を特徴とする請求項1記載の3DCG画像生成方法。
4. The image generation means has three types of data (near view, middle view, and distant view) in advance, and has a high-speed response means by using the three types of data. The described 3DCG image generation method.
【請求項5】 前記Z情報データと前記視線解析データ
に加え、目の焦点距離データをセンスしてぼかし処理を
行いリアリティのある視覚環境を実現することにより、
リアルタイムに被写深度を加味した画像を生成する画像
生成手段を有することを特徴とする請求項3記載の3D
CG画像生成方法。
5. In addition to the Z information data and the line-of-sight analysis data, the focal length data of the eye is sensed to perform blurring processing to realize a realistic visual environment,
4. The 3D according to claim 3, further comprising image generation means for generating an image in consideration of a depth of field in real time.
CG image generation method.
【請求項6】 リアルワールドと同様の反応を返すこと
により人体へのショックを和らげ、人体への影響を軽減
させることを特徴とする3DCG画像生成方法。
6. A 3DCG image generation method, characterized in that by returning a reaction similar to that in a real world, a shock to a human body is softened and an influence on the human body is reduced.
【請求項7】 頭部の位置情報をセンスし、さらに頭部
が移動しても同様に被写深度のある画像を表示できるよ
うにすることを特徴とする3DCG画像生成方法。
7. A 3DCG image generation method, which is capable of displaying an image having a depth of field even when the head moves, by sensing position information of the head.
【請求項8】 暗い画像を生成する際にリアリティのあ
る画像にするために明るい部分の彩度は、そのまま暗い
部分の彩度を落とすように処理を加えることを特徴とす
る3DCG画像生成方法。
8. A 3DCG image generating method, wherein in order to obtain a realistic image when a dark image is generated, the saturation of the bright portion is processed so as to reduce the saturation of the dark portion as it is.
【請求項9】 暗い部分が多い中に光度の高い明かりが
あったようなものを見る場合、角膜の細胞の組織により
知覚できるスターフレアを、カメラで撮影した画像やC
G画像にもシミュレートして付加することを特徴とする
3DCG画像生成方法。
9. A star flare that can be perceived by corneal cell tissue when seeing a light with high light intensity in a lot of dark areas is captured by a camera or C
A 3DCG image generation method characterized in that it is simulated and added to a G image.
【請求項10】 暗い部分の彩度を落とし、スターフレ
ア処理を行うことを特徴とする請求項8または9記載の
3DCG画像生成方法。
10. The 3DCG image generating method according to claim 8, wherein the saturation of the dark portion is reduced and the star flare processing is performed.
JP2002089992A 2002-03-27 2002-03-27 3dcg image generation method Pending JP2003288608A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002089992A JP2003288608A (en) 2002-03-27 2002-03-27 3dcg image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002089992A JP2003288608A (en) 2002-03-27 2002-03-27 3dcg image generation method

Publications (1)

Publication Number Publication Date
JP2003288608A true JP2003288608A (en) 2003-10-10

Family

ID=29235404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002089992A Pending JP2003288608A (en) 2002-03-27 2002-03-27 3dcg image generation method

Country Status (1)

Country Link
JP (1) JP2003288608A (en)

Similar Documents

Publication Publication Date Title
KR102417177B1 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
EP3447735B1 (en) Information processing device, information processing method, and program
US10293252B2 (en) Image processing device, system and method based on position detection
US7705876B2 (en) Stereoscopic image display
JP6770536B2 (en) Techniques for displaying text more efficiently in virtual image generation systems
TW202013149A (en) Augmented reality image display method, device and equipment
CN111060023A (en) High-precision 3D information acquisition equipment and method
CN107452031B (en) Virtual ray tracking method and light field dynamic refocusing display system
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
CN109453517B (en) Virtual character control method and device, storage medium and mobile terminal
US11557020B2 (en) Eye tracking method and apparatus
US20140267418A1 (en) Method for simulating natural perception in virtual and augmented reality scenes
EP3413165A1 (en) Wearable system gesture control method and wearable system
JP2019032599A (en) Information processing device and position information acquisition method
JPWO2020071029A1 (en) Information processing equipment, information processing method, and recording medium
WO2021242338A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions
US20220253269A1 (en) Object sharing method and apparatus
JP2021018729A (en) Personal identification apparatus, head-mounted display, content distribution server, and personal identification method
CA2634980A1 (en) Eye movement data replacement in motion capture
JP2003288608A (en) 3dcg image generation method
KR20150073754A (en) Motion training apparatus and method for thereof
Kim et al. AR timewarping: A temporal synchronization framework for real-Time sensor fusion in head-mounted displays
CN117934783B (en) Augmented reality projection method, device, AR glasses and storage medium
JP5493418B2 (en) Visual assistance support evaluation apparatus and program
WO2024166116A1 (en) Retina image references for gaze tracking