JP2008257127A - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP2008257127A
JP2008257127A JP2007101915A JP2007101915A JP2008257127A JP 2008257127 A JP2008257127 A JP 2008257127A JP 2007101915 A JP2007101915 A JP 2007101915A JP 2007101915 A JP2007101915 A JP 2007101915A JP 2008257127 A JP2008257127 A JP 2008257127A
Authority
JP
Japan
Prior art keywords
importance
image
display
data storage
drawn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007101915A
Other languages
Japanese (ja)
Other versions
JP5194530B2 (en
Inventor
Takanori Ito
貴則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2007101915A priority Critical patent/JP5194530B2/en
Publication of JP2008257127A publication Critical patent/JP2008257127A/en
Application granted granted Critical
Publication of JP5194530B2 publication Critical patent/JP5194530B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device with which a viewer's gazing point can be turned to an intended position. <P>SOLUTION: The image display device includes; a display means of displaying an image; a plurality of shaders varying in definition of shading treatment; an image data memory means in which the image data of the object displayed on the display means is memorized; a scenario data memory means in which the level of importance complying with the relative positional relation between a visual point and an imaginary space is defined for every object; a means for determining the relative positional relation between the viewer's view point and the object to be drawn on the imaginary space; a means for determining the level of importance relating to the respective objects to be drawn by referring to the scenario data memory means; and a means for creating the display screen data to be displayed on the display means by practicing the shading treatment by the shader of the high definition to the image data of the prescribed value in the determined level of importance, and practicing the shading treatment by the shaders of the low definition level to the image data of not prescribed value in the determined level of importance. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、視聴者の注視点を意図した位置に向けることができる画像表示装置及び画像表示方法に関する。   The present invention relates to an image display apparatus and an image display method that can direct a viewer's point of gaze to an intended position.

従来から実時間型の立体画像表示方法において、操作者が表示画面上の何処を注視しているかに関わらず画面上に表示される画像全域を同一の画像生成アルゴリズムによって生成されていたため、計算負荷が高くなるという問題を解決するために、操作者の視点を求め、視点周辺以外の領域に表示するべき画像の精細度を低くして計算負荷を軽減する画像表示方法が知られている(例えば、特許文献1参照)。
特許第3478606号公報
Conventionally, in the real-time stereoscopic image display method, the entire image displayed on the screen is generated by the same image generation algorithm regardless of where the operator is gazing at the display screen. In order to solve the problem of high image quality, an image display method is known in which the operator's viewpoint is obtained, and the calculation load is reduced by reducing the definition of the image to be displayed in a region other than the periphery of the viewpoint (for example, , See Patent Document 1).
Japanese Patent No. 3478606

ところで、近年は、技術進歩に伴ってリアルタイムに生成された画像は特に高精細化してきており、よりリアルな表現を求めて、モデルのデータ量、シェーダ(陰影処理プログラム)の計算負荷ともに増大してきている。
一方、大画面高精細になったため、視聴者の注視点がスクリーン上に散在してしまい、映像制作者の意図した位置を注視させることが困難になってきているという問題がある。また、ハードウェアの処理能力が充分でないため、リアルタイム性の確保が困難となっている。特に、立体映像を生成するためには、1フレーム当たり少なくとも2枚の画像を生成する必要があるため、2次元画像に比べてさらなる計算負荷の低減が求められる。また、立体画像の高精細化をするためには、シェーダによって陰影処理を施す必要があるが、陰影処理は、画像中に含まれるオブジェクト(画像中の物体)を構成するポリゴン毎に施す必要があるため、画像中に含まれるポリゴンの数に応じて、計算負荷が増大してしまうという問題がある。したがって、表示装置の能力を超えた数のポリゴンをリアルタイムで表示することが困難になるため、表示するべき画像の内容に応じて表示装置の能力を向上させていかなければならず、表示装置のコストが高くなってしまうという問題もある。
By the way, in recent years, images generated in real time have become particularly high-definition as technology advances, and both the amount of model data and the calculation load of shaders (shading processing programs) have been increasing in search of more realistic expressions. ing.
On the other hand, since the large screen has become high-definition, there is a problem that the viewer's gazing point is scattered on the screen, making it difficult to gaze at the position intended by the video producer. Also, since the hardware processing capability is not sufficient, it is difficult to ensure real-time performance. In particular, in order to generate a stereoscopic video, it is necessary to generate at least two images per frame, and therefore a further reduction in calculation load is required compared to a two-dimensional image. In addition, in order to increase the definition of a stereoscopic image, it is necessary to perform a shading process using a shader. However, it is necessary to perform the shading process for each polygon constituting an object (an object in the image) included in the image. Therefore, there is a problem that the calculation load increases according to the number of polygons included in the image. Therefore, since it is difficult to display in real time the number of polygons exceeding the capacity of the display device, the capability of the display device must be improved according to the content of the image to be displayed. There is also a problem that the cost becomes high.

本発明は、このような事情に鑑みてなされたもので、視聴者の注視点を意図した位置に向けることができるとともに、計算負荷を低減することができる画像表示装置及び画像表示方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an image display device and an image display method that can direct a viewer's gaze point to an intended position and can reduce calculation load. For the purpose.

本発明は、陰影処理を施した画像を表示する画像表示装置であって、画像を表示する表示手段と、描画対象のオブジェクトに対して施す陰影処理の精細度が異なる複数のシェーダと、前記表示手段に表示するべきオブジェクトの画像データが記憶された画像データ記憶手段と、視点と描画対象のオブジェクトとの仮想空間上の相対位置関係に応じた重要度が各オブジェクト毎に定義されたシナリオデータ記憶手段と、視聴者の視点と描画対象のオブジェクトとの仮想空間上の相対位置関係を求める視点位置算出手段と、前記シナリオデータ記憶手段を参照して、前記描画対象のオブジェクトのそれぞれについて重要度を求める重要度算出手段と、前記求めた重要度が所定値であるオブジェクトに対して、精細度の高いシェーダによって陰影処理を施し、前記求めた重要度が所定値でないオブジェクトに対して、精細度の低いシェーダによって陰影処理を施すことにより前記表示手段に表示するべき表示画面データを生成する画像生成手段とを備えたことを特徴とする。   The present invention is an image display device that displays an image subjected to shading processing, the display means for displaying an image, a plurality of shaders with different degrees of definition of shading processing performed on an object to be drawn, and the display Image data storage means for storing image data of objects to be displayed on the means, and scenario data storage in which the importance corresponding to the relative positional relationship between the viewpoint and the object to be drawn in the virtual space is defined for each object Means for calculating a relative positional relationship in the virtual space between the viewer's viewpoint and the object to be drawn, and the scenario data storage means. The importance calculation means to be calculated and an object whose calculated importance is a predetermined value are shaded by a high-definition shader. Image generation means for generating display screen data to be displayed on the display means by performing shading processing with a shader having low definition on an object for which the obtained importance is not a predetermined value. It is characterized by.

本発明は、前記重要度が所定値であるオブジェクトに対してイベントを発生させるイベント発生手段と、前記イベント発生手段によって前記イベントを発生させた画像データ以外のオブジェクトの重要度が高くなるように前記シナリオデータ記憶部に記憶されている重要度を変更する重要度変更手段とをさらに備えたことを特徴とする。   The present invention provides an event generating means for generating an event for an object having a predetermined importance value, and the object other than the image data for which the event is generated by the event generating means has a higher importance level. An importance level changing means for changing the importance level stored in the scenario data storage unit is further provided.

本発明は、陰影処理を施した画像を表示するために、画像を表示する表示手段と、描画対象のオブジェクトに対して施す陰影処理の精細度が異なる複数のシェーダと、前記表示手段に表示するべきオブジェクトの画像データが記憶された画像データ記憶手段と、視点と描画対象のオブジェクトとの仮想空間上の相対位置関係に応じた重要度が各オブジェクト毎に定義されたシナリオデータ記憶手段とを備えた画像表示装置における画像表示方法であって、視聴者の視点と描画対象のオブジェクトとの仮想空間上の相対位置関係を求める視点位置算出ステップと、前記シナリオデータ記憶手段を参照して、前記描画対象のオブジェクトのそれぞれについて重要度を求める重要度算出ステップと、前記求めた重要度が所定値であるオブジェクトに対して、精細度の高いシェーダによって陰影処理を施し、前記求めた重要度が所定値でないオブジェクトに対して、精細度の低いシェーダによって陰影処理を施すことにより前記表示手段に表示するべき表示画面データを生成する画像生成ステップとを有することを特徴とする。   According to the present invention, in order to display an image subjected to shadow processing, display means for displaying an image, a plurality of shaders with different precision of shadow processing performed on an object to be rendered, and display on the display means Image data storage means in which image data of the object to be stored is stored, and scenario data storage means in which the importance corresponding to the relative positional relationship between the viewpoint and the object to be drawn in the virtual space is defined for each object An image display method in the image display device, the viewpoint position calculating step for obtaining a relative positional relationship in the virtual space between the viewer's viewpoint and the object to be drawn, and the drawing by referring to the scenario data storage means Importance level calculating step for calculating the importance level for each target object, and objects for which the calculated importance level is a predetermined value Display screen data to be displayed on the display means by performing a shadow process with a shader having a high definition, and applying a shadow process with a shader with a low definition to an object whose importance is not a predetermined value. And an image generation step for generating.

本発明によれば、求めた重要度が所定値であるオブジェクトに対して、精細度の高いシェーダによって陰影処理を施し、求めた重要度が所定値でないオブジェクトに対して、精細度の低いシェーダによって陰影処理を施して表示するべき表示画面データを生成するようにしたため、視聴者に注視させたいオブジェクトのみにピントが合っているように表示を行うことができるため、視聴者の注視点を意図したオブジェクトに向けることが可能になるという効果が得られる。   According to the present invention, an object having a predetermined importance level is subjected to a shading process by a shader having a high definition, and an object having a determined importance level not having a predetermined value is subjected to a shader having a low definition level. Display screen data that should be displayed with shading processing can be displayed so that only the object that the viewer wants to watch is focused on, so the viewer's point of interest is intended. The effect is that the object can be directed.

以下、本発明の一実施形態による画像表示装置を図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、画像表示装置の処理動作を統括して制御することにより画像の描画を行う描画部である。符号2は、画像を表示する表示部であり、液晶のディスプレイやプロジェクタ等で構成する。符号3は、表示部2に表示する画像データを一時的に記憶するフレームバッファである。符号4は、表示部2に表示する立体画像のオブジェクトデータが予め記憶された画像データ記憶部である。符号5は、人間の標準的な動体視力のデータが予め記憶された視力データ記憶部である。符号6は、画像データ記憶部4に記憶されている画像データに対して陰影処理を施す複数種類のシェーダ(陰影処理プログラム)が予め記憶されたシェーダ記憶部である。符号7は、画像データ記憶部4に記憶されているオブジェクトデータを使用したVR(Virtual Reality)による映像表示のシナリオデータが記憶されたシナリオデータ記憶部である。   Hereinafter, an image display device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a drawing unit that draws an image by comprehensively controlling the processing operation of the image display apparatus. Reference numeral 2 denotes a display unit for displaying an image, which is composed of a liquid crystal display, a projector, or the like. Reference numeral 3 denotes a frame buffer that temporarily stores image data to be displayed on the display unit 2. Reference numeral 4 denotes an image data storage unit in which object data of a stereoscopic image to be displayed on the display unit 2 is stored in advance. Reference numeral 5 denotes a visual acuity data storage unit in which standard human visual acuity data is stored in advance. Reference numeral 6 denotes a shader storage unit in which a plurality of types of shaders (shading process programs) for performing a shadow process on the image data stored in the image data storage unit 4 are stored in advance. Reference numeral 7 denotes a scenario data storage unit in which scenario data for video display by VR (Virtual Reality) using object data stored in the image data storage unit 4 is stored.

次に、図2を参照して、図1に示す画像表示装置の動作を説明する。まず、シナリオデータの生成について説明する。映像制作者は、VRによって表示する描画シーンを領域毎にステージに分割する(ステップS1)。これは、遠方にあるオブジェクトがピントを合わせる対象とならないようにするための処理である。このステージ分割が行われると、図4に示すように対象のオブジェクト(画像中に含まれる物体)に対して名前を付与する。図4に示す例では、ステージ1に存在する2つのオブジェクトに対して名前「A」、名前「B」が付与された例を示している。   Next, the operation of the image display apparatus shown in FIG. 1 will be described with reference to FIG. First, scenario data generation will be described. The video producer divides the drawing scene displayed by VR into stages for each area (step S1). This is a process for preventing a distant object from being a target to be focused. When this stage division is performed, a name is given to a target object (an object included in the image) as shown in FIG. In the example illustrated in FIG. 4, the names “A” and “B” are given to the two objects existing in the stage 1.

次に、映像制作者は、名前を付与したオブジェクトの重要度をステージ毎に設定する(ステップS2)。オブジェクトの重要度は、シナリオの導入になるものは重要度を大きい値とし、シナリオに関係ないが話題があるものは重要度が中程度の値とし、話題がないものは重要度を小さい値となるように設定する。図5に、各オブジェクトに対して重要度を設定した例を示す。図5に示す例では、重要度の高いオブジェクトに「5」が設定され、重要度が中程度のオブジェクトに「3」が設定され、重要度の低いオブジェクトに「0」が設定された例を示している。この重要度は、オブジェクトの名前に関係付けて、ステージ毎にシナリオデータ記憶部7に記憶される。   Next, the video producer sets the importance of the object to which the name is assigned for each stage (step S2). As for the importance of objects, the importance is set to a large value if the scenario is introduced, the importance is medium if there is a topic but not related to the scenario, and the importance is set to a low value if there is no topic. Set as follows. FIG. 5 shows an example in which importance is set for each object. In the example shown in FIG. 5, “5” is set for an object with high importance, “3” is set for an object with medium importance, and “0” is set for an object with low importance. Show. This importance is stored in the scenario data storage unit 7 for each stage in relation to the name of the object.

次に、映像制作者は、ステージ間のオブジェクトをシナリオと関連付けを行う(ステップS3)。例えばオブジェクトAに対して説明音声の発声や説明文の表示が実行されたときにはオブジェクトCの重要度に3を加算し、オブジェクトA自身は0とする。また、オブジェクトBに対して説明が実行されたときにはオブジェクトDの重要度に3を加算し、オブジェクトCの重要度から2を減算した値に変更し、オブジェクトB自身は0とするなどの関連付けを行う。このステップS1〜S3の処理を行うことによって、得られたデータをシナリオデータとしてシナリオデータ記憶部7に記憶する。   Next, the video producer associates an object between stages with a scenario (step S3). For example, when the explanation voice is uttered or the explanation text is displayed on the object A, 3 is added to the importance of the object C, and the object A itself is set to zero. Further, when the explanation is executed for the object B, an association is made such that 3 is added to the importance of the object D, 2 is subtracted from the importance of the object C, and the object B itself is set to 0. Do. By performing the processes of steps S1 to S3, the obtained data is stored in the scenario data storage unit 7 as scenario data.

次に、描画開始指示を受けると、描画部1は、シナリオデータ記憶部7に記憶されているシナリオデータを参照して、画像データ記憶部4から表示するべきオブジェクトを読み出し、この読み出したオブジェクトに対して重み付けを行う(ステップS4)。この重み付けは、図7に示すように、画面上の配置と視点(カメラ)からの距離によって重要度に対して重み付けを行なわれ、画面の中心に近いほど高い値となり、視点に近いほど高い値になるように重み付けが行われる。そして、現時点で表示するべきオブジェクトの重要度を求める。図8においては、共に重要度が「5」であるオブジェクトAとオブジェクトBについて、重み付けを行った結果、オブジェクトAの重要度が「5」、オブジェクトBの重要度が「30」になる例を示している。したがって、図8に示す例では、オブジェクトBがピントを合わせる対象のオブジェクトとなる。   Next, upon receiving a drawing start instruction, the drawing unit 1 refers to the scenario data stored in the scenario data storage unit 7 and reads an object to be displayed from the image data storage unit 4. Weighting is performed on the area (step S4). As shown in FIG. 7, the weighting is performed on the importance according to the arrangement on the screen and the distance from the viewpoint (camera), and the higher the value is the closer to the center of the screen, the higher the value is the closer to the viewpoint. Weighting is performed so that Then, the importance of the object to be displayed at the present time is obtained. In FIG. 8, an example in which the importance of object A is “5” and the importance of object B is “30” as a result of weighting object A and object B both having importance “5”. Show. Therefore, in the example shown in FIG. 8, the object B is an object to be focused.

次に、描画部1は、求めた重み付き重要度がしきい値を超えたオブジェクトに対してピントを合わせる設定を行ない(図9参照)、予め決められた被写界深度処理を実行する(ステップS5)。すなわち、求めた重み付き重要度がしきい値を超えたオブジェクトのみにピントが合わせられ、他のオブジェクトはぼけた状態の画像を生成する。ピントが合っているオブジェクトとぼけているオブジェクトの表示画像データの生成は、シェーダ記憶部6に記憶されているシェーダのうち、高精細度のシェーダをピントが合っているオブジェクトに対して用い、低精細度のシェーダをぼけているオブジェクトに対して用いるようにして、被写界深度処理を実行する。そして、描画部1は、ここで生成した画像をフレームバッファ3に書き込みを行う。これにより、表示部2には、重み付き重要度がしきい値を超えたオブジェクトのみにピントが合わせられ、他のオブジェクトはぼけた状態の画像が表示されることになる。   Next, the drawing unit 1 performs a setting for focusing on an object whose calculated weighted importance exceeds a threshold (see FIG. 9), and executes a predetermined depth of field process (see FIG. 9). Step S5). In other words, only the objects whose calculated weighted importance exceeds the threshold value are focused, and other objects generate images in a blurred state. The display image data of the object that is in focus and the object that is blurred is generated by using a high-definition shader among the shaders stored in the shader storage unit 6 for the object in focus. The depth-of-field process is executed so that the shader of the degree is used for the blurred object. Then, the drawing unit 1 writes the image generated here in the frame buffer 3. As a result, the display unit 2 displays an image in which only the object whose weighted importance exceeds the threshold is focused and the other objects are blurred.

次に、描画部1は、ピントが合っているオブジェクト(ここでは、オブジェクトB)に対して、ナレーションの発声や文字情報の表示等のイベントを発生させる(ステップS6)。これにより、視聴者に対してオブジェクトBに関する解説が行われることになる。   Next, the drawing unit 1 generates an event such as narration utterance or display of character information for the focused object (here, object B) (step S6). As a result, explanation regarding the object B is given to the viewer.

次に、描画部1は、解説が終了すると、予め関連付けされているオブジェクトの重要度の値を変更する(ステップS7)。例えば、オブジェクトBの解説が終了すると、オブジェクトBの関連情報(図11に示す「D+3、E+3、B×0」)に基づいて、ステージ2において表示するべきオブジェクトD、Eの重要度がそれぞれ「6」、「3」に変更される(図12参照)。   Next, when the explanation ends, the drawing unit 1 changes the importance value of the object associated in advance (step S7). For example, when the explanation of the object B is finished, the importance levels of the objects D and E to be displayed in the stage 2 are “based on the related information of the object B (“ D + 3, E + 3, B × 0 ”shown in FIG. 11)”. 6 ”and“ 3 ”(see FIG. 12).

このように、オブジェクトBの解説が終了することによって、オブジェクトD、Eの重要度が変更されるため、空間的な移動の自由と選択的なシナリオを実現しながら、ピント対象の自動選択を実現することができるため、映像制作者の意図を加味した映像制作と映像表示を行うことができる。   As described above, since the importance of the objects D and E is changed by completing the explanation of the object B, automatic selection of a focus target is realized while realizing freedom of spatial movement and a selective scenario. Therefore, it is possible to perform video production and video display in consideration of the video creator's intention.

次に、オブジェクトが移動している場合や視点が移動している場合のようにオブジェクトと視点との間に相対速度が発生している場合について説明する。ここで、人間の動体視力について説明する。動体視力は、視点に対して相対的に移動している物体を見るときの視力であり、静止視力よりも劣る。人間の動体視力には、KVA(Kinetic Visual Acuity)動体視力とDVA(Dynamic Visual Acuity)動体視力の2種類がある。KVA動体視力とは、視点に対して、前後方向に動く時の視力であり、毛様体筋による水晶体の厚みの変化に関連する。一方、DVA動体視力とは、視点に対して、水平方向に動くときの視力であり、外眼筋による眼球移動に関連する。それぞれの動体視力と移動速度の関連(特開2000−237133号広報より引用)を図13に示す。図13に示すように、KVA動体視力とDVA動体視力のいずれも動体の速度が速くなるにしたがて視力は低下する。2次元映像では、前後方向の焦点移動は不要なため、水晶体の厚みの変化は起こらないが、立体映像においては、前後方向の焦点移動が必要なため、視聴者の視力にKVA動体視力も関連する。そのため、立体画像中に含まれる動体の陰影処理において、動体視力に応じて最適なシェーダを選択して陰影処理計算を行うことにより、計算時間を大幅に短縮することができる。図1に示す視力データ記憶部5には、図13に示す2つの動体視力のそれぞれについて、速度(または角速度)と視力の関係が定義されたデータが記憶されている。したがって、速度または角速度が決まると、視力データ記憶部5を参照してこれらの速度または角速度に対応する2つの動体視力のいずれかを得ることが可能となる。   Next, a case where a relative speed occurs between the object and the viewpoint as in the case where the object is moving or the viewpoint is moving will be described. Here, human visual acuity will be described. The dynamic visual acuity is a visual acuity when viewing an object moving relative to the viewpoint, and is inferior to a static visual acuity. There are two types of human visual acuity: KVA (Kinetic Visual Acuity) dynamic visual acuity and DVA (Dynamic Visual Acuity) dynamic visual acuity. The KVA moving body visual acuity is visual acuity when moving in the front-rear direction with respect to the viewpoint, and is related to a change in the thickness of the lens by the ciliary muscle. On the other hand, DVA moving body visual acuity is visual acuity when moving in the horizontal direction with respect to the viewpoint, and is related to eye movement by the extraocular muscles. FIG. 13 shows the relationship between each moving object visual acuity and the moving speed (cited from Japanese Laid-Open Patent Publication No. 2000-237133). As shown in FIG. 13, both the KVA moving body visual acuity and the DVA moving body visual acuity decrease as the moving body speed increases. In two-dimensional images, the lens thickness does not change because there is no need to move the focal point in the front-rear direction. However, in the three-dimensional image, the focal point movement in the front-rear direction is necessary. To do. Therefore, in the shadow processing of a moving object included in a stereoscopic image, the calculation time can be greatly shortened by selecting an optimum shader according to the moving object visual acuity and performing the shadow processing calculation. The visual acuity data storage unit 5 shown in FIG. 1 stores data in which the relationship between speed (or angular velocity) and visual acuity is defined for each of the two moving object visual acuities shown in FIG. Therefore, when the speed or angular velocity is determined, it is possible to obtain either of the two moving object visual acuities corresponding to these speeds or angular velocities with reference to the visual acuity data storage unit 5.

次に、図3を参照して、図1に示す画像表示装置の動作を説明する。まず、描画部1は、画像データ記憶部4に記憶されている画像を参照するときの仮想区間内の視点位置情報を求める。視点位置情報は、視聴者の両目の位置と描画面の幅・高さを求め、それらを基に、仮想空間内での左右の視点位置を求める(ステップS11)。次に、描画部1は、生成するべき画像の画角から、KVA動体視力とDVA動体視力のそれぞれに掛ける描画パラメータを求める(ステップS12)。描画パラメータは、以下のようにして求める。生成する画像の画角が小さい場合は、KVA動体視力の影響が小さくなるようにするために描画パラメータを小さい値とし、DVA動体視力の影響が大きくなるように描画パラメータを大きい値とする。一方、生成する画像の画角が大きい場合は、KVA動体視力の影響が大きくなるように描画パラメータを大きい値とし、DVA動体視力の影響が小さくなるように描画パラメータを小さい値とする。   Next, the operation of the image display apparatus shown in FIG. 1 will be described with reference to FIG. First, the drawing unit 1 obtains viewpoint position information in a virtual section when referring to an image stored in the image data storage unit 4. The viewpoint position information obtains the positions of the viewer's eyes and the width / height of the drawing surface, and obtains the left and right viewpoint positions in the virtual space based on them (step S11). Next, the drawing unit 1 obtains drawing parameters to be applied to each of the KVA moving object visual acuity and the DVA moving object visual acuity from the angle of view of the image to be generated (step S12). The drawing parameters are obtained as follows. When the angle of view of the generated image is small, the drawing parameter is set to a small value so that the influence of the KVA moving body visual acuity is small, and the drawing parameter is set to a large value so that the influence of the DVA moving body visual acuity is large. On the other hand, when the angle of view of the generated image is large, the drawing parameter is set to a large value so that the influence of the KVA moving body visual acuity becomes large, and the drawing parameter is set to a small value so that the influence of the DVA moving body visual acuity becomes small.

次に、描画するべき対象ポリゴンの移動量、移動方向およびフレームレートから、視点に対して前後方向の速度と水平方向の角速度を求め、それぞれステップS12において求めたパラメータとの積を算出する。そして、描画部1は、視力データ記憶部5を参照して、求めた2つの積の値(描画パラメータが乗算された前後方向の速度と水平方向の角速度の値)に対応するKVA動体視力とDVA動体視力をそれぞれ求める(ステップS13)。動体が視点から十分遠くにある場合、その動体が前後方向に動いても、人間の目ではその距離の違いを認識することはできない。人間の副尺視力(接する2本の線における位相差の検知限)は10秒程度であり、輻輳角が20秒あれば誰にでも見分けることができる。輻輳角が20秒のときの、視点から動体までの距離は約650mである。そのため、視点から対象ポリゴンまでの距離が650m以上の場合は、KVA視力を考慮しない。   Next, from the amount of movement of the target polygon to be drawn, the moving direction, and the frame rate, the front-rear speed and the horizontal angular speed are obtained with respect to the viewpoint, and the product of the parameters obtained in step S12 is calculated. The drawing unit 1 refers to the visual acuity data storage unit 5 and the KVA moving body visual acuity corresponding to the obtained two product values (the longitudinal velocity multiplied by the drawing parameter and the horizontal angular velocity). The DVA moving body visual acuity is obtained (step S13). When the moving object is sufficiently far from the viewpoint, even if the moving object moves in the front-rear direction, the human eye cannot recognize the difference in distance. The human visual acuity (detection limit of phase difference between two lines in contact with each other) is about 10 seconds, and anyone can distinguish if the convergence angle is 20 seconds. When the convergence angle is 20 seconds, the distance from the viewpoint to the moving object is about 650 m. Therefore, when the distance from the viewpoint to the target polygon is 650 m or more, KVA visual acuity is not considered.

次に、描画部1は、対象ポリゴンの表面テクスチャから、知覚のしやすさを示すパラメータを求める(ステップS14)。移動体の知覚のしやすさは、物体表面の柄・模様にも依存するため、対象ポリゴンの表面テクスチャが、知覚しにくい場合は、より計算負荷を低減することができる。続いて、描画部1は、ステップS13において求めたKVA動体視力とDVA動体視力それぞれの値と、ステップS14において求めた知覚のしやすさパラメータの積を求め、その値に応じたシェーダを選択する(ステップS15)。シェーダ記憶部6には、KVA動体視力とDVA動体視力それぞれの値と、知覚のしやすさのパラメータとの積の値と、用いるべきシェーダが関係付けされている。描画部1はこの関係を参照して、最適なシェーダを選択する。   Next, the drawing unit 1 obtains a parameter indicating the ease of perception from the surface texture of the target polygon (step S14). Since the ease of perception of a moving object depends on the pattern / pattern on the surface of the object, the calculation load can be further reduced if the surface texture of the target polygon is difficult to perceive. Subsequently, the drawing unit 1 obtains the product of each value of the KVA moving body vision and the DVA moving body vision obtained in step S13 and the perceptibility parameter obtained in step S14, and selects a shader corresponding to the value. (Step S15). The shader storage unit 6 is associated with a shader to be used and a product value of each value of the KVA moving body visual acuity and the DVA moving body visual acuity and a parameter of ease of perception. The drawing unit 1 refers to this relationship and selects an optimum shader.

次に、描画部1は、選択したシェーダにより描画対象のポリゴンに対して、陰影処理のための演算を実行して(ステップS16)、得られた結果を描画データとしてフレームバッファ3に書き込む(ステップS17)。描画部1は、ステップS12からS17の処理を、フレームバッファ3に書き込むべき全てのポリゴンに対して実行することに1フレームの描画データがフレームバッファ3に書き込まれることになる。これにより、フレームバッファ3には、ポリゴンの移動速度毎に異なった陰影処理が施された描画データが書き込まれることになる。すなわち、移動速度(視点との相対速度)が速い場合は、低精細の陰影処理が施され、移動速度が遅い場合は、高精細の陰影処理が施された描画データとなる。表示部2は、フレームバッファ3に書き込まれた描画データを順次読み出すことにより画像表示が行われる。   Next, the drawing unit 1 performs an operation for shading processing on the polygon to be drawn by the selected shader (step S16), and writes the obtained result as drawing data in the frame buffer 3 (step S16). S17). When the drawing unit 1 executes the processing of steps S12 to S17 for all the polygons to be written to the frame buffer 3, one frame of drawing data is written to the frame buffer 3. As a result, drawing data subjected to different shading processing for each polygon moving speed is written in the frame buffer 3. That is, when the moving speed (relative speed with respect to the viewpoint) is high, low-definition shading processing is performed, and when the moving speed is slow, the drawing data is subjected to high-definition shading processing. The display unit 2 performs image display by sequentially reading the drawing data written in the frame buffer 3.

このように、KVA動体視力を考慮して描画データの生成を行うことにより、従来の手法よりも、画像の質の低下を認識されることなく、計算量を削減させることができる。また、ポリゴン毎にシェーダを選択するようにしたため、計算負荷の軽いシェーダを適用した際に、従来の手法のように、オブジェクト内で一様に画質が低下することなく描画データを生成することが可能となる。   Thus, by generating drawing data in consideration of the KVA moving body visual acuity, it is possible to reduce the calculation amount without recognizing a decrease in image quality as compared with the conventional method. In addition, since a shader is selected for each polygon, when a shader with a light calculation load is applied, drawing data can be generated without degradation in image quality uniformly in the object as in the conventional method. It becomes possible.

なお、前述した手法では、ポリゴン毎に、適用するシェーダを選択する例を説明したが、ポリゴン毎ではなく、表面テクスチャのピクセル単位で、適用するシェーダを選択するようにしてもよい。このようにすることにより、一般的に、ポリゴンよりもテクスチャのピクセルは小さいので、より厳密に移動速度の計算を行うことができるため、さらに計算量を低減することができる。また、ポリゴンでは考慮できなかった、ポリゴンの回転・テクスチャアニメーションが視力に与える影響も考慮することができる。   In the above-described method, an example in which a shader to be applied is selected for each polygon has been described. However, a shader to be applied may be selected not for each polygon but for each surface texture pixel. By doing in this way, since the texture pixel is generally smaller than the polygon, the movement speed can be calculated more strictly, so that the calculation amount can be further reduced. In addition, the influence of polygon rotation / texture animation on visual acuity, which could not be considered for polygons, can also be considered.

また、図1においては、複数のシェーダプログラムをシェーダ記憶部6に記憶しておく例を示したが、複数のシェーダのプログラムに代えて、シェーディングを実行する複数の専用ハードウェアを備えておき、これらの専用ハードウェアを選択して陰影処理を実行するようにしてもよい。   In FIG. 1, an example in which a plurality of shader programs are stored in the shader storage unit 6 is shown. However, instead of a plurality of shader programs, a plurality of dedicated hardware that executes shading is provided, The shadow processing may be executed by selecting these dedicated hardware.

以上説明したように、求めた重要度が所定値であるオブジェクトに対して、精細度の高いシェーダによって陰影処理を施し、求めた重要度が所定値でないオブジェクトに対して、精細度の低いシェーダによって陰影処理を施して表示するべき表示画面データを生成するようにしたため、視聴者に注視させたいオブジェクトのみにピントが合っているように表示を行うことができるため、視聴者の注視点を意図したオブジェクトに向けることが可能になる   As described above, shading processing is performed on an object having a predetermined importance level with a high-definition shader, and an object having a determined importance level is not a predetermined value with a low-definition shader. Display screen data that should be displayed with shading processing can be displayed so that only the object that the viewer wants to watch is focused on, so the viewer's point of interest is intended. Can be directed to an object

また、画像の複雑さに比例して計算量が増加する陰影処理において、描画対象のポリゴンまたはピクセル毎に移動速度(視点との相対速度)を求めて、移動速度に応じたシェーダを選択するようにしたため、描画を行うハードウェアの性能を向上させることなく、複雑な画像(描画するべきポリゴンの数が多い画像)の描画を行うことが可能となる。これにより、視聴者に画像の質の低下を認識されずに、計算量を削減させることが可能となる。   Also, in the shading process where the amount of calculation increases in proportion to the complexity of the image, the moving speed (relative speed with respect to the viewpoint) is obtained for each polygon or pixel to be drawn, and a shader corresponding to the moving speed is selected. Therefore, it is possible to draw a complicated image (an image having a large number of polygons to be drawn) without improving the performance of hardware for drawing. As a result, the amount of calculation can be reduced without the viewer perceiving a decrease in image quality.

なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像表示処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   The program for realizing the function of the processing unit in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute image display processing. You may go. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 図1に示す描画部1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the drawing part 1 shown in FIG. 図1に示す描画部1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the drawing part 1 shown in FIG. シーンを領域毎にステージに分割した一例を示す図である。It is a figure which shows an example which divided | segmented the scene into the stage for every area | region. 図1に示すシナリオデータ記憶部7に記憶されるデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data memorize | stored in the scenario data storage part 7 shown in FIG. 図1に示すシナリオデータ記憶部7に記憶されるデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data memorize | stored in the scenario data storage part 7 shown in FIG. オブジェクトの重み付けを行う動作を示す説明図である。It is explanatory drawing which shows the operation | movement which weights an object. オブジェクトの重み付けを行う動作を示す説明図である。It is explanatory drawing which shows the operation | movement which weights an object. ピント処理動作を示す説明図である。It is explanatory drawing which shows a focus process operation. イベント発生の一例を示す説明図である。It is explanatory drawing which shows an example of event generation | occurrence | production. 図1に示すシナリオデータ記憶部7に記憶されるデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data memorize | stored in the scenario data storage part 7 shown in FIG. 図1に示すシナリオデータ記憶部7に記憶されるデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data memorize | stored in the scenario data storage part 7 shown in FIG. 図1に示す視力データ記憶部5に記憶されるデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data memorize | stored in the visual acuity data storage part 5 shown in FIG.

符号の説明Explanation of symbols

1・・・描画部、2・・・表示部、3・・・フレームバッファ、4・・・画像データ記憶部、5・・・視力データ記憶部、6・・・シェーダ記憶部、7・・・シナリオデータ記憶部   DESCRIPTION OF SYMBOLS 1 ... Drawing part, 2 ... Display part, 3 ... Frame buffer, 4 ... Image data storage part, 5 ... Vision data storage part, 6 ... Shader storage part, 7 ...・ Scenario data storage

Claims (3)

陰影処理を施した画像を表示する画像表示装置であって、
画像を表示する表示手段と、
描画対象のオブジェクトに対して施す陰影処理の精細度が異なる複数のシェーダと、
前記表示手段に表示するべきオブジェクトの画像データが記憶された画像データ記憶手段と、
視点と描画対象のオブジェクトとの仮想空間上の相対位置関係に応じた重要度が各オブジェクト毎に定義されたシナリオデータ記憶手段と、
視聴者の視点と描画対象のオブジェクトとの仮想空間上の相対位置関係を求める視点位置算出手段と、
前記シナリオデータ記憶手段を参照して、前記描画対象のオブジェクトのそれぞれについて重要度を求める重要度算出手段と、
前記求めた重要度が所定値であるオブジェクトに対して、精細度の高いシェーダによって陰影処理を施し、前記求めた重要度が所定値でないオブジェクトに対して、精細度の低いシェーダによって陰影処理を施すことにより前記表示手段に表示するべき表示画面データを生成する画像生成手段と
を備えたことを特徴とする画像表示装置。
An image display device that displays an image subjected to shading processing,
Display means for displaying an image;
A plurality of shaders with different degrees of definition of shading applied to an object to be drawn;
Image data storage means storing image data of an object to be displayed on the display means;
Scenario data storage means in which the importance according to the relative positional relationship between the viewpoint and the drawing target object in the virtual space is defined for each object;
Viewpoint position calculation means for obtaining a relative positional relationship in the virtual space between the viewer's viewpoint and the object to be drawn;
With reference to the scenario data storage means, importance calculating means for calculating importance for each of the drawing target objects;
The object whose degree of importance is a predetermined value is subjected to shadow processing by a shader with high definition, and the object whose degree of importance is not predetermined is subjected to shadow processing using a shader with low definition. An image generation device comprising: image generation means for generating display screen data to be displayed on the display means.
前記重要度が所定値であるオブジェクトに対してイベントを発生させるイベント発生手段と、
前記イベント発生手段によって前記イベントを発生させた画像データ以外のオブジェクトの重要度が高くなるように前記シナリオデータ記憶部に記憶されている重要度を変更する重要度変更手段と
をさらに備えたことを特徴とする請求項1に記載の画像表示装置。
Event generating means for generating an event for an object whose importance is a predetermined value;
Further comprising importance level changing means for changing the importance level stored in the scenario data storage unit so that the importance level of the object other than the image data that has generated the event by the event generation means increases. The image display device according to claim 1, wherein
陰影処理を施した画像を表示するために、画像を表示する表示手段と、描画対象のオブジェクトに対して施す陰影処理の精細度が異なる複数のシェーダと、前記表示手段に表示するべきオブジェクトの画像データが記憶された画像データ記憶手段と、視点と描画対象のオブジェクトとの仮想空間上の相対位置関係に応じた重要度が各オブジェクト毎に定義されたシナリオデータ記憶手段とを備えた画像表示装置における画像表示方法であって、
視聴者の視点と描画対象のオブジェクトとの仮想空間上の相対位置関係を求める視点位置算出ステップと、
前記シナリオデータ記憶手段を参照して、前記描画対象のオブジェクトのそれぞれについて重要度を求める重要度算出ステップと、
前記求めた重要度が所定値であるオブジェクトに対して、精細度の高いシェーダによって陰影処理を施し、前記求めた重要度が所定値でないオブジェクトに対して、精細度の低いシェーダによって陰影処理を施すことにより前記表示手段に表示するべき表示画面データを生成する画像生成ステップと
を有することを特徴とする画像表示方法。
In order to display an image subjected to shading processing, display means for displaying an image, a plurality of shaders having different definition of shading processing performed on an object to be drawn, and an image of an object to be displayed on the display means Image display device comprising: image data storage means for storing data; and scenario data storage means in which importance corresponding to the relative positional relationship between the viewpoint and the object to be drawn in the virtual space is defined for each object An image display method in
A viewpoint position calculating step for obtaining a relative positional relationship in the virtual space between the viewer's viewpoint and the object to be drawn;
Referring to the scenario data storage means, an importance calculating step for determining the importance for each of the objects to be drawn;
The object whose degree of importance is a predetermined value is subjected to shadow processing by a shader with high definition, and the object whose degree of importance is not predetermined is subjected to shadow processing using a shader with low definition. And an image generation step of generating display screen data to be displayed on the display means.
JP2007101915A 2007-04-09 2007-04-09 Image display device and image display method Expired - Fee Related JP5194530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007101915A JP5194530B2 (en) 2007-04-09 2007-04-09 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007101915A JP5194530B2 (en) 2007-04-09 2007-04-09 Image display device and image display method

Publications (2)

Publication Number Publication Date
JP2008257127A true JP2008257127A (en) 2008-10-23
JP5194530B2 JP5194530B2 (en) 2013-05-08

Family

ID=39980732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007101915A Expired - Fee Related JP5194530B2 (en) 2007-04-09 2007-04-09 Image display device and image display method

Country Status (1)

Country Link
JP (1) JP5194530B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013031096A1 (en) * 2011-08-29 2013-03-07 パナソニック株式会社 Image processing device, image processing method, program, integrated circuit
JP2016212468A (en) * 2015-04-28 2016-12-15 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and display device
US10140755B2 (en) 2015-07-28 2018-11-27 Samsung Electronics Co., Ltd. Three-dimensional (3D) rendering method and apparatus
JP2019529992A (en) * 2016-09-23 2019-10-17 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
EP3881279A4 (en) * 2018-11-16 2022-08-17 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11514673B2 (en) 2019-07-26 2022-11-29 Magic Leap, Inc. Systems and methods for augmented reality
US11567324B2 (en) 2017-07-26 2023-01-31 Magic Leap, Inc. Exit pupil expander
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11598651B2 (en) 2018-07-24 2023-03-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11609645B2 (en) 2018-08-03 2023-03-21 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
US11630507B2 (en) 2018-08-02 2023-04-18 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment
US11756335B2 (en) 2015-02-26 2023-09-12 Magic Leap, Inc. Apparatus for a near-eye display
US11762222B2 (en) 2017-12-20 2023-09-19 Magic Leap, Inc. Insert for augmented reality viewing device
US11762623B2 (en) 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US11776509B2 (en) 2018-03-15 2023-10-03 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11790554B2 (en) 2016-12-29 2023-10-17 Magic Leap, Inc. Systems and methods for augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11874468B2 (en) 2016-12-30 2024-01-16 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US11953653B2 (en) 2017-12-10 2024-04-09 Magic Leap, Inc. Anti-reflective coatings on optical waveguides

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04302381A (en) * 1991-03-29 1992-10-26 Koudo Eizou Gijutsu Kenkyusho:Kk High-speed image generating device
JPH0540951U (en) * 1991-11-06 1993-06-01 日本電気ソフトウエア株式会社 Graphic terminal with focus function and image processing device with focus function
JPH11161814A (en) * 1997-11-25 1999-06-18 Namco Ltd Image generation device, simulation device and information storage medium
JP2002251625A (en) * 2001-02-22 2002-09-06 Sega Corp Device and method for processing image, recording medium for recording program for processing image operating on computer
JP3478606B2 (en) * 1994-10-12 2003-12-15 キヤノン株式会社 Stereoscopic image display method and apparatus
JP2004334661A (en) * 2003-05-09 2004-11-25 Namco Ltd Image generating system, program, and information storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04302381A (en) * 1991-03-29 1992-10-26 Koudo Eizou Gijutsu Kenkyusho:Kk High-speed image generating device
JPH0540951U (en) * 1991-11-06 1993-06-01 日本電気ソフトウエア株式会社 Graphic terminal with focus function and image processing device with focus function
JP3478606B2 (en) * 1994-10-12 2003-12-15 キヤノン株式会社 Stereoscopic image display method and apparatus
JPH11161814A (en) * 1997-11-25 1999-06-18 Namco Ltd Image generation device, simulation device and information storage medium
JP2002251625A (en) * 2001-02-22 2002-09-06 Sega Corp Device and method for processing image, recording medium for recording program for processing image operating on computer
JP2004334661A (en) * 2003-05-09 2004-11-25 Namco Ltd Image generating system, program, and information storage medium

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013031096A1 (en) * 2011-08-29 2013-03-07 パナソニック株式会社 Image processing device, image processing method, program, integrated circuit
JPWO2013031096A1 (en) * 2011-08-29 2015-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, image processing method, program, integrated circuit
US9025872B2 (en) 2011-08-29 2015-05-05 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, program, and integrated circuit
US11756335B2 (en) 2015-02-26 2023-09-12 Magic Leap, Inc. Apparatus for a near-eye display
JP2016212468A (en) * 2015-04-28 2016-12-15 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and display device
US10140755B2 (en) 2015-07-28 2018-11-27 Samsung Electronics Co., Ltd. Three-dimensional (3D) rendering method and apparatus
US10692471B2 (en) 2016-09-23 2020-06-23 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2019529992A (en) * 2016-09-23 2019-10-17 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
US11790554B2 (en) 2016-12-29 2023-10-17 Magic Leap, Inc. Systems and methods for augmented reality
US11874468B2 (en) 2016-12-30 2024-01-16 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11927759B2 (en) 2017-07-26 2024-03-12 Magic Leap, Inc. Exit pupil expander
US11567324B2 (en) 2017-07-26 2023-01-31 Magic Leap, Inc. Exit pupil expander
US11953653B2 (en) 2017-12-10 2024-04-09 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US11762222B2 (en) 2017-12-20 2023-09-19 Magic Leap, Inc. Insert for augmented reality viewing device
US11908434B2 (en) 2018-03-15 2024-02-20 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11776509B2 (en) 2018-03-15 2023-10-03 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
US11598651B2 (en) 2018-07-24 2023-03-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11630507B2 (en) 2018-08-02 2023-04-18 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11609645B2 (en) 2018-08-03 2023-03-21 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11960661B2 (en) 2018-08-03 2024-04-16 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11521296B2 (en) 2018-11-16 2022-12-06 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
EP3881279A4 (en) * 2018-11-16 2022-08-17 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
US11762623B2 (en) 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US11514673B2 (en) 2019-07-26 2022-11-29 Magic Leap, Inc. Systems and methods for augmented reality
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment

Also Published As

Publication number Publication date
JP5194530B2 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
JP5194530B2 (en) Image display device and image display method
US20180192022A1 (en) Method and System for Real-time Rendering Displaying Virtual Reality (VR) On Mobile Using Head-Up Display Devices
US20200183166A1 (en) Graphics rendering method and apparatus of virtual reality
EP3035681B1 (en) Image processing method and apparatus
US9014414B2 (en) Information processing apparatus and information processing method for processing image information at an arbitrary viewpoint in a physical space or virtual space
CN108282648B (en) VR rendering method and device, wearable device and readable storage medium
EP2230988B1 (en) Method of simulating blur in digitally processed images
US9460555B2 (en) System and method for three-dimensional visualization of geographical data
JP4766877B2 (en) Method for generating an image using a computer, computer-readable memory, and image generation system
JP5175065B2 (en) 3D graphics rendering method and apparatus for efficiently providing motion blur effect
JP2005295004A (en) Stereoscopic image processing method and apparatus thereof
US11308682B2 (en) Dynamic stereoscopic rendering method and processor
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
KR20180099703A (en) Configuration for rendering virtual reality with adaptive focal plane
US20180374258A1 (en) Image generating method, device and computer executable non-volatile storage medium
US10650507B2 (en) Image display method and apparatus in VR device, and VR device
JP6844210B2 (en) Visual saliency map generator, visual saliency map generation method and program
JP5003252B2 (en) Image display device and image display method
US11868520B2 (en) Rendering content
CN116325720A (en) Dynamic resolution of depth conflicts in telepresence
US11270475B2 (en) Variable rendering system and method
US11423516B2 (en) Gaze enhanced natural motion blur
JPWO2019159239A1 (en) Image processing device, display image generation method, and font data structure
US20220232201A1 (en) Image generation system and method
EP3996075A1 (en) Image rendering system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees