JP2019211886A - Image generation device, image generation method, and image generation program - Google Patents

Image generation device, image generation method, and image generation program Download PDF

Info

Publication number
JP2019211886A
JP2019211886A JP2018105823A JP2018105823A JP2019211886A JP 2019211886 A JP2019211886 A JP 2019211886A JP 2018105823 A JP2018105823 A JP 2018105823A JP 2018105823 A JP2018105823 A JP 2018105823A JP 2019211886 A JP2019211886 A JP 2019211886A
Authority
JP
Japan
Prior art keywords
virtual space
glare
image
virtual
glare source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018105823A
Other languages
Japanese (ja)
Other versions
JP7131090B2 (en
Inventor
慶 西嶋
Kei Nishijima
慶 西嶋
哲司 山田
Tetsuji Yamada
哲司 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwasaki Denki KK
Original Assignee
Iwasaki Denki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwasaki Denki KK filed Critical Iwasaki Denki KK
Priority to JP2018105823A priority Critical patent/JP7131090B2/en
Publication of JP2019211886A publication Critical patent/JP2019211886A/en
Application granted granted Critical
Publication of JP7131090B2 publication Critical patent/JP7131090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Image Generation (AREA)

Abstract

To upgrade reproducibility of a glare feeling in a virtual space.SOLUTION: A virtual space image generation device 10, which has a three-dimensional rendering unit 26 that generates a virtual space image 5 synthesizing a visual image 5A viewing a virtual space 4 inclusive of the light emission surface Ev of a lighting equipment Iv being a glare source from a virtual viewpoint location Pv in the virtual space 4 with a glare effect object image 5G expressing glare by intensity in accordance with a size of a light emission surface Ev, is configured to comprise a glare source scaling unit 32 that enlarges or contracts the light emission surface Ev in accordance with luminosity Iat the virtual viewpoint location Pv.SELECTED DRAWING: Figure 1

Description

本発明は、画像生成装置、画像生成方法、及び画像生成プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and an image generation program.

従来、照明器具を仮想空間に配置し、当該仮想空間での照明器具による照明効果をシミュレーションし、擬似的に表示する技術が知られている(例えば、特許文献1、特許文献2、及び特許文献3参照)。   2. Description of the Related Art Conventionally, techniques for arranging lighting fixtures in a virtual space, simulating lighting effects of the lighting fixtures in the virtual space, and displaying them in a pseudo manner are known (for example, Patent Literature 1, Patent Literature 2, and Patent Literature). 3).

一方、現実空間をシミュレーションによってリアルに再現した仮想空間の画像を表示し、ユーザの目の前に、現実空間が実在しているかような感覚(実在感)を与える、いわゆる仮想現実(VR:Virtual Reality)技術も知られている(例えば、特許文献4参照)。近年では、仮想現実技術は、アミューズメントやエンターテインメントの分野だけではなく、建築設計や照明設計の分野などの幅広い分野で活用されるようになっている。
この種の仮想現実技術では、強い光を発する光源等のグレア源が仮想空間に存在する場合、当該グレア源が眩しく見える、いわゆるグレア効果(グロー効果とも呼ばれる)をリアルに再現したグレアエフェクトオブジェクトを当該光源に重ねて表示している。こうすることで、ユーザの仮想現実感が高められている(例えば、特許文献5、及び特許文献6参照)。
On the other hand, a virtual space image in which the real space is realistically reproduced by simulation is displayed, and a so-called virtual reality (VR: Virtual) is given in front of the user to give a sense (reality) as if the real space existed. Reality) technology is also known (see, for example, Patent Document 4). In recent years, virtual reality technology has been used not only in the fields of amusement and entertainment but also in a wide range of fields such as architectural design and lighting design.
In this type of virtual reality technology, when a glare source such as a light source that emits strong light is present in the virtual space, a glare effect object that realistically reproduces the so-called glare effect (also called the glow effect) that the glare source looks dazzling Overlaid on the light source. By doing so, the virtual reality of the user is enhanced (see, for example, Patent Document 5 and Patent Document 6).

国際公開第2017/171005号International Publication No. 2017/171005 特開2014−71692号公報JP 2014-71692 A 特開2010−97423号公報JP 2010-97423 A 特開2017−138907号公報JP 2017-138907 A 特開2006−4363号公報JP 2006-4363 A 特開2002−42156号公報JP 2002-42156 A

ところで、発光に指向性を有する照明器具等の指向性光源が配置された現実空間においては、ユーザと指向性光源の位置関係によって、指向性光源がユーザに与えるグレア感は異なる。しかしながら、従来の仮想現実技術では、かかるグレア感の再現性に乏しく現実感が損なわれていた。   By the way, in a real space where a directional light source such as a luminaire having directivity for light emission is arranged, the glare feeling given to the user by the directional light source varies depending on the positional relationship between the user and the directional light source. However, in the conventional virtual reality technology, the reproducibility of such a glare feeling is poor and the reality is impaired.

本発明は、仮想空間でのグレア感の再現性を高めることができる画像生成装置、画像生成方法、及び画像生成プログラムを提供することを目的とする。   An object of the present invention is to provide an image generation device, an image generation method, and an image generation program that can improve the reproducibility of a glare feeling in a virtual space.

本発明は、グレア源を含む仮想空間を当該仮想空間内の視点位置からみた視認画像に、前記グレア源の大きさに応じた強さで眩しさを表現するエフェクトオブジェクト画像を合成した仮想空間画像を生成する仮想空間画像生成部を有した画像生成装置であって、前記グレア源の発光面を、前記視点位置での前記グレア源の光度に応じて拡大又は縮小するグレア源スケーリング部を備えることを特徴とする。   The present invention provides a virtual space image obtained by combining a visual image obtained by viewing a virtual space including a glare source from a viewpoint position in the virtual space and an effect object image that expresses glare with strength according to the size of the glare source. An image generation apparatus having a virtual space image generation unit for generating a glare source scaling unit that enlarges or reduces the light emitting surface of the glare source according to the light intensity of the glare source at the viewpoint position. It is characterized by.

本発明は、上記画像生成装置において、前記グレア源スケーリング部は、前記グレア源の発光面の拡大又は縮小によって、前記視点位置での前記グレア源の光度に応じて前記グレア源の発光面の面積を対数関数的に変化させることを特徴とする。   In the image generation apparatus according to the aspect of the invention, the glare source scaling unit may be configured such that the area of the light emitting surface of the glare source according to the light intensity of the glare source at the viewpoint position by enlarging or reducing the light emitting surface of the glare source. Is changed logarithmically.

本発明は、上記画像生成装置において、前記グレア源の基準軸方向における発光面の輝度値が、前記仮想空間に対する前記発光面の大きさに応じて設定されていることを特徴とする。   The present invention is characterized in that, in the image generating apparatus, the luminance value of the light emitting surface in the reference axis direction of the glare source is set according to the size of the light emitting surface with respect to the virtual space.

本発明は、グレア源を含む仮想空間を当該仮想空間内の視点位置からみた視認画像に、前記グレア源の大きさに応じた強さで眩しさを表現するエフェクトオブジェクト画像を合成した仮想空間画像を生成する画像生成方法において、前記グレア源の発光面を、前記視点位置での前記グレア源の光度に応じて拡大又は縮小することを特徴とする。   The present invention provides a virtual space image obtained by combining a visual image obtained by viewing a virtual space including a glare source from a viewpoint position in the virtual space and an effect object image that expresses glare with strength according to the size of the glare source. In the image generation method for generating the image, the light emitting surface of the glare source is enlarged or reduced in accordance with the light intensity of the glare source at the viewpoint position.

本発明は、コンピュータを、グレア源を含む仮想空間を当該仮想空間内の視点位置からみた視認画像に、前記グレア源の大きさに応じた強さで眩しさを表現するエフェクトオブジェクト画像を合成した仮想空間画像を生成する仮想空間画像生成部として機能させる画像生成プログラムであって、前記グレア源の発光面を、前記視点位置での前記グレア源の光度に応じて拡大又は縮小するグレア源スケーリング部として前記コンピュータを機能させることを特徴とする。   The present invention synthesizes an effect object image that expresses glare with a strength according to the size of the glare source to a visual image obtained by viewing the virtual space including the glare source from the viewpoint position in the virtual space. An image generation program that functions as a virtual space image generation unit that generates a virtual space image, wherein the glare source scaling unit expands or reduces the light emitting surface of the glare source according to the light intensity of the glare source at the viewpoint position. The computer is operated as follows.

本発明によれば、仮想空間でのグレア感の再現性を高めることができる。   According to the present invention, the reproducibility of the glare feeling in the virtual space can be enhanced.

本発明の実施形態に係る仮想空間提供システムの概略構成を示す図である。It is a figure which shows schematic structure of the virtual space provision system which concerns on embodiment of this invention. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 仮想空間画像の一例を示す図である。It is a figure which shows an example of a virtual space image. 仮想空間における照明器具と観測者との位置関係を示した模式図である。It is the schematic diagram which showed the positional relationship of the lighting fixture and observer in virtual space. 仮想空間画像生成装置による仮想空間画像の生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of the virtual space image by a virtual space image generation apparatus. 仮想空間画像におけるグレア感の変化の一例を示す図である。It is a figure which shows an example of the change of the glare feeling in a virtual space image.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る仮想空間提供システム1の概略構成を示す図である。図2は仮想空間4の一例を示す図であり、図3は仮想空間画像5の一例を示す図である。
仮想空間提供システム1は、仮想空間4(図2)において、仮想的な観測者6vが視認する仮想空間画像5(図3)を生成して表示することで、現実空間のユーザ6が視覚を通じて仮想空間4を実感できるようにするシステムである。また、この仮想空間提供システム1では、現実空間のユーザ6の視線方向の変化、及び移動に追従して、仮想空間4における観測者6vの視線方向(以下、「仮想視線方向」と言う)Dv、及び視点の位置(以下、「仮想視点位置」と言う)Pvを変化させて仮想空間画像5を生成する。かかる仮想空間画像5がユーザ6の動きに追従して表示されることで、ユーザ6は、あたかも仮想空間4の中に居るかのような体験ができるようになっている。
かかる仮想空間提供システム1は、ゲームや映画などのアミューズメントやエンターテインメントでの用途に加え、スタジアム等の建築物の設計や、当該建築物における照明設計を確認する用途等の幅広い用途に利用できる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a schematic configuration of a virtual space providing system 1 according to the present embodiment. FIG. 2 is a diagram illustrating an example of the virtual space 4, and FIG. 3 is a diagram illustrating an example of the virtual space image 5.
The virtual space providing system 1 generates and displays a virtual space image 5 (FIG. 3) visually recognized by the virtual observer 6 v in the virtual space 4 (FIG. 2), so that the user 6 in the real space can visually recognize it. This is a system that allows the user to feel the virtual space 4. Further, in this virtual space providing system 1, the line-of-sight direction of the observer 6v in the virtual space 4 (hereinafter referred to as “virtual line-of-sight direction”) Dv follows the change and movement of the line-of-sight direction of the user 6 in the real space. The virtual space image 5 is generated by changing the viewpoint position (hereinafter referred to as “virtual viewpoint position”) Pv. By displaying the virtual space image 5 following the movement of the user 6, the user 6 can experience as if in the virtual space 4.
Such a virtual space providing system 1 can be used for a wide range of uses such as a design of a building such as a stadium and a lighting design in the building in addition to a use in an amusement or entertainment such as a game or a movie.

本実施形態の仮想空間提供システム1は、図1に示すように、ヘッドマウントディスプレイ8と、仮想空間画像生成装置10と、を備え、これらが有線通信または無線通信により互いにデータを送受する。
ヘッドマウントディスプレイ8は、仮想空間画像5を表示する表示装置の一態様であり、ユーザ6の頭部に装着して使用される、いわゆるウェアラブルデバイスである。ヘッドマウントディスプレイ8は、ユーザ6の眼前に配置されるディスプレイ12を備え、このディスプレイ12に仮想空間画像5が表示される。
As shown in FIG. 1, the virtual space providing system 1 according to the present embodiment includes a head mounted display 8 and a virtual space image generation device 10, which transmit / receive data to / from each other by wired communication or wireless communication.
The head mounted display 8 is an aspect of a display device that displays the virtual space image 5 and is a so-called wearable device that is used by being worn on the head of the user 6. The head mounted display 8 includes a display 12 disposed in front of the user 6, and the virtual space image 5 is displayed on the display 12.

またヘッドマウントディスプレイ8は、現実空間におけるユーザ6の視線方向の変化を検出するための姿勢センサ14と、当該ユーザ6の移動を検出するための位置センサ15と、を備える。
姿勢センサ14は、ユーザ6の視線方向の変化として、ヘッドマウントディスプレイ8の向きや傾きなどの姿勢の変化を検出し、位置センサ15は、ユーザ6の移動としてヘッドマウントディスプレイ8の位置の変化を検出する。ヘッドマウントディスプレイ8の姿勢の変化、及び位置の変化は、それぞれ姿勢情報16、及び位置情報17として仮想空間画像生成装置10に逐次に送信される。
姿勢センサ14には、例えばジャイロセンサや、加速度センサ、角加速度センサ等を用いることができ、また位置センサ15にはGPSセンサ等を用いることができる。
The head mounted display 8 includes an attitude sensor 14 for detecting a change in the line-of-sight direction of the user 6 in the real space, and a position sensor 15 for detecting the movement of the user 6.
The posture sensor 14 detects a change in posture such as the direction and inclination of the head mounted display 8 as a change in the visual line direction of the user 6, and the position sensor 15 detects a change in the position of the head mounted display 8 as a movement of the user 6. To detect. The posture change and the position change of the head mounted display 8 are sequentially transmitted to the virtual space image generation device 10 as posture information 16 and position information 17, respectively.
For example, a gyro sensor, an acceleration sensor, an angular acceleration sensor, or the like can be used as the posture sensor 14, and a GPS sensor or the like can be used as the position sensor 15.

仮想空間画像生成装置10は、仮想空間4における仮想空間画像5を生成し、ヘッドマウントディスプレイ8に送信する装置であり、受信部20と、視点位置算出部22と、視線方向算出部24と、仮想空間情報記憶部25と、3次元レンダリング部26と、送信部30と、グレア源スケーリング部32と、を備える。   The virtual space image generation device 10 is a device that generates a virtual space image 5 in the virtual space 4 and transmits the virtual space image 5 to the head mounted display 8, and includes a reception unit 20, a viewpoint position calculation unit 22, a gaze direction calculation unit 24, A virtual space information storage unit 25, a three-dimensional rendering unit 26, a transmission unit 30, and a glare source scaling unit 32 are provided.

仮想空間画像生成装置10は、CPUやMPUなどのプロセッサと、ROMやRAMなどのメモリデバイスと、HDDやSSDなどのストレージ装置と、周辺機器などを接続するためのインターフェース回路と、外部と通信する通信装置と、を備えたコンピュータを備え、プロセッサがメモリデバイス又はストレージ装置に記憶されているプログラムを実行することで、図1に示す各部の機能が実現される。   The virtual space image generation device 10 communicates with a processor such as a CPU and MPU, a memory device such as a ROM and a RAM, a storage device such as an HDD and an SSD, an interface circuit for connecting peripheral devices, and the like. 1 is implemented by executing a program stored in a memory device or a storage device. The computer includes a communication device.

なお、仮想空間画像生成装置10の各部を実現するコンピュータは、インターネットを介してヘッドマウントディスプレイ8と通信するサーバーコンピュータであってもよい。この場合において、サーバーコンピュータが仮想空間画像生成装置10の機能を提供する方式には、いわゆるクラウドコンピューティング技術を用いることができる。   The computer that implements each unit of the virtual space image generation device 10 may be a server computer that communicates with the head mounted display 8 via the Internet. In this case, a so-called cloud computing technique can be used as a method in which the server computer provides the function of the virtual space image generation device 10.

図1において、受信部20は、ヘッドマウントディスプレイ8から位置情報17、及び姿勢情報16を通信によって受信し、位置情報17を視点位置算出部22に出力し、姿勢情報16を視線方向算出部24に出力する。   In FIG. 1, the reception unit 20 receives position information 17 and posture information 16 from the head mounted display 8 by communication, outputs the position information 17 to the viewpoint position calculation unit 22, and outputs the posture information 16 to the line-of-sight direction calculation unit 24. Output to.

視点位置算出部22は、仮想空間4における観測者6vの仮想視点位置Pvを、位置情報17に基づいて求め、3次元レンダリング部26に出力する。具体的には、視点位置算出部22は、仮想空間画像5の生成当初、仮想視点位置Pvに初期値を設定する。その後、視点位置算出部22は、現実空間でのユーザ6の移動を位置情報17に基づいて特定し、当該移動に応じて仮想空間4における観測者6vの仮想視点位置Pvを変更する。   The viewpoint position calculation unit 22 obtains the virtual viewpoint position Pv of the observer 6v in the virtual space 4 based on the position information 17 and outputs it to the three-dimensional rendering unit 26. Specifically, the viewpoint position calculation unit 22 sets an initial value for the virtual viewpoint position Pv at the beginning of generation of the virtual space image 5. Thereafter, the viewpoint position calculation unit 22 identifies the movement of the user 6 in the real space based on the position information 17 and changes the virtual viewpoint position Pv of the observer 6v in the virtual space 4 according to the movement.

視線方向算出部24は、仮想空間4における観測者6vの仮想視線方向Dvを、姿勢情報16に基づいて求め、3次元レンダリング部26に出力する。具体的には、視線方向算出部24は、仮想空間画像5の生成当初、仮想視線方向Dvに初期値を設定する。その後、視線方向算出部24は、姿勢情報16によってヘッドマウントディスプレイ8の姿勢の変化が検出されるごとに、当該姿勢の変化に応じて仮想空間4における観測者6vの仮想視線方向Dvを変更する。   The line-of-sight direction calculation unit 24 calculates the virtual line-of-sight direction Dv of the observer 6 v in the virtual space 4 based on the posture information 16 and outputs it to the three-dimensional rendering unit 26. Specifically, the line-of-sight direction calculation unit 24 sets an initial value for the virtual line-of-sight direction Dv at the beginning of generation of the virtual space image 5. Thereafter, the gaze direction calculation unit 24 changes the virtual gaze direction Dv of the observer 6v in the virtual space 4 in accordance with the change in the posture whenever the change in the posture of the head mounted display 8 is detected by the posture information 16. .

仮想空間情報記憶部25は、仮想空間4のレンダリングによる描画に要する各種のデータを記憶するものであり、建築3Dモデル33、照明器具データ34、及び照明設計データ35を記憶する。   The virtual space information storage unit 25 stores various data required for rendering by rendering of the virtual space 4, and stores the architectural 3D model 33, the lighting fixture data 34, and the lighting design data 35.

建築3Dモデル33は、仮想空間4において建物の3次元形状、及び構造を再現するためのデータである。
照明器具データ34は、仮想空間4に配置され、当該仮想空間4を照明する照明器具Iv(図4)のデータであり、配光情報34Aと、形状情報34Bとを含む。配光情報34Aは、照明器具Ivの配光特性(指向性)を示す情報、すなわち照明器具Ivから仮想空間4の各方向への光度分布を示す情報である。形状情報34Bと、照明器具Ivの発光面Ev(図4)の正面視における形状及び寸法を示す情報であり、これら形状、及び寸法に基づいて発光面Evの面積S(図5)が算出される。
照明設計データ35は、仮想空間4における照明器具Ivの配置位置、及び取付角度(すなわち、仮想空間4において、照明器具Ivの基準軸方向Ds(図4)が指向する方向)を示すデータである。
The architectural 3D model 33 is data for reproducing the three-dimensional shape and structure of a building in the virtual space 4.
The luminaire data 34 is data of a luminaire Iv (FIG. 4) that is arranged in the virtual space 4 and illuminates the virtual space 4, and includes light distribution information 34A and shape information 34B. The light distribution information 34A is information indicating the light distribution characteristic (directivity) of the lighting fixture Iv, that is, information indicating the luminous intensity distribution from the lighting fixture Iv to each direction of the virtual space 4. This is information indicating the shape information 34B and the shape and dimensions of the light emitting surface Ev (FIG. 4) of the lighting fixture Iv in front view, and the area S (FIG. 5) of the light emitting surface Ev is calculated based on these shapes and dimensions. The
The lighting design data 35 is data indicating the arrangement position and the mounting angle of the lighting fixture Iv in the virtual space 4 (that is, the direction in which the reference axis direction Ds (FIG. 4) of the lighting fixture Iv is oriented in the virtual space 4). .

仮想空間提供システム1を照明設計に利用する際、ユーザ6は、照明器具データ34、及び照明設計データ35を変更することで、仮想空間4における光環境を任意に変更し、当該光環境を仮想空間画像5によって擬似的に確認できる。   When the virtual space providing system 1 is used for lighting design, the user 6 arbitrarily changes the light environment in the virtual space 4 by changing the lighting fixture data 34 and the lighting design data 35, and the light environment is virtualized. This can be confirmed in a pseudo manner by the spatial image 5.

3次元レンダリング部26は、仮想空間情報記憶部28に格納されている各データと、仮想視点位置Pv、及び仮想視線方向Dvとに基づいて、仮想空間4において観測者6vが仮想視点位置Pvから仮想視線方向Dvを見たときの視認画像5A(図3)を3次元のレンダリングによって生成する。3次元レンダリング部26は、この視認画像5Aに後述のグレアエフェクトオブジェクト画像5Gを合成して仮想空間画像5を生成し、当該仮想空間画像5を送信部30に出力する。なお、視認画像5Aを生成するためのレンダリング手法には、周知又は公知の任意の手法を用いることができる。   Based on each data stored in the virtual space information storage unit 28, the virtual viewpoint position Pv, and the virtual line-of-sight direction Dv, the three-dimensional rendering unit 26 allows the observer 6 v to move from the virtual viewpoint position Pv in the virtual space 4. A visual image 5A (FIG. 3) when the virtual visual line direction Dv is viewed is generated by three-dimensional rendering. The three-dimensional rendering unit 26 generates a virtual space image 5 by synthesizing a glare effect object image 5G, which will be described later, with the visual image 5A, and outputs the virtual space image 5 to the transmission unit 30. As a rendering technique for generating the visual image 5A, any known or publicly known technique can be used.

送信部30は、当該仮想空間画像5をヘッドマウントディスプレイ8に送信する。   The transmission unit 30 transmits the virtual space image 5 to the head mounted display 8.

3次元レンダリング部26は、仮想空間4におけるグレア源に対してグレアエフェクトを付与した仮想空間画像を生成するために、グレアエフェクト付与部37を備える。グレア源は、眩しさを感じさせる程の強い光を発する任意の物体であり、本実施形態では、仮想空間4に配置された照明器具Ivがグレア源となっている。   The three-dimensional rendering unit 26 includes a glare effect applying unit 37 in order to generate a virtual space image in which a glare effect is applied to the glare source in the virtual space 4. The glare source is an arbitrary object that emits light that is strong enough to make it feel dazzling. In this embodiment, the luminaire Iv disposed in the virtual space 4 is the glare source.

グレアエフェクト付与部37は、グレア源の眩しさを当該グレア源の強さに応じて擬似的に表現したグレアエフェクトオブジェクト画像5Gを生成し、前掲図3に示すように、当該グレアエフェクトオブジェクト画像5Gを視認画像5Aにおけるグレア源(本実施形態では照明器具Ivの発光面Ev)の上に重ねて合成する。
グレアエフェクトオブジェクト画像5Gは、グレア源の周辺での明るい光(グロー)や、グレア源の周りに円状に見える光の暈(ハロー)を擬似的に表現する画像オブジェクトである。かかるグレアエフェクトオブジェクト画像5Gの合成によって、グレアエフェクトが付与された仮想空間画像5が得られる。
The glare effect applying unit 37 generates a glare effect object image 5G that simulates glare of the glare source in accordance with the strength of the glare source, and as shown in FIG. 3, the glare effect object image 5G is generated. Are superimposed on the glare source (the light emitting surface Ev of the luminaire Iv in this embodiment) in the visual image 5A.
The glare effect object image 5G is an image object that artificially represents bright light (glow) around the glare source and light halos (halo) that appear in a circle around the glare source. By synthesizing the glare effect object image 5G, the virtual space image 5 to which the glare effect is applied is obtained.

グレアエフェクト付与部37は、グレアエフェクトオブジェクト画像5Gを生成する際、上述したグレア源の強さ(発光面Evの輝度、及び面積S(すなわち発光面の光度))に加え、グレア源から仮想視点位置Pvまでの距離L(図4)に応じて、グレアエフェクトオブジェクト画像5Gにおけるエフェクトの強さ(ハローやグローの輝度、光量、大きさ)を変更する。これにより、グレア源の強さ、及び観測者6vからグレア源までの距離L応じた強さで、グレアエフェクト付与部37によってグレアエフェクトが仮想空間画像5に与えられる。   When the glare effect adding unit 37 generates the glare effect object image 5G, in addition to the above-described strength of the glare source (the luminance of the light emitting surface Ev and the area S (that is, the luminous intensity of the light emitting surface)), In accordance with the distance L (FIG. 4) to the position Pv, the strength of the effect (the brightness of halo or glow, the amount of light, and the size) in the glare effect object image 5G is changed. Thus, the glare effect is applied to the virtual space image 5 by the glare effect applying unit 37 with the strength of the glare source and the strength according to the distance L from the observer 6v to the glare source.

なお、グレアエフェクトオブジェクト画像5Gの生成手法、及び、グレア源の眩しさを擬似的に表現する手法については、グレア源の強さ(少なくともグレア源の発光面Evの大きさ(面積S))に応じた強さで眩しさが表現される手法であれば、任意の手法を用いることができる。   In addition, about the production | generation method of the glare effect object image 5G, and the method of expressing a glare of a glare source in a pseudo manner, the strength of the glare source (at least the size (area S) of the light emitting surface Ev of the glare source) is used. Any technique can be used as long as the dazzle is expressed with the corresponding strength.

図4は、仮想空間4における照明器具Ivと観測者6vとの位置関係を示した模式図である。
同図に示すように、仮想空間4において、観測者6vが照明器具Ivを見た場合、照明器具Ivが配光特性(すなわち放射光の指向性)を有するため、観測者6vによって観測される光度Iθは、観測者6vと照明器具Ivとの位置関係によって変化する。
具体的には、照明器具Ivの基準軸方向Dsと仮想視線方向Dvとが成す角度を角度θとした場合、観測者6vの仮想視点位置Pvで観測される発光面Evの光度Iθは、照明器具Ivの配光情報34Aにおける角度θの方向の光度となる。また、照明器具Ivの発光面Evは、観測者6vから見ると、角度θに応じて変形して視認される。この変形してみえる発光面Evの面積Sa(すなわち、発光面Evのみかけの面積Sa)は、発光面Evの面積Sにcosθを乗じて求められる。
FIG. 4 is a schematic diagram showing the positional relationship between the lighting fixture Iv and the observer 6v in the virtual space 4. As shown in FIG.
As shown in the figure, in the virtual space 4, when the observer 6v views the lighting fixture Iv, the lighting fixture Iv has a light distribution characteristic (that is, the directivity of the emitted light), and thus is observed by the observer 6v. The luminous intensity I θ varies depending on the positional relationship between the observer 6v and the lighting fixture Iv.
Specifically, when the angle formed by the reference axis direction Ds of the lighting fixture Iv and the virtual visual line direction Dv is an angle θ, the luminous intensity I θ of the light emitting surface Ev observed at the virtual viewpoint position Pv of the observer 6v is It is the luminous intensity in the direction of the angle θ in the light distribution information 34A of the lighting fixture Iv. Further, when viewed from the observer 6v, the light emitting surface Ev of the lighting fixture Iv is deformed and visually recognized according to the angle θ. The area Sa of the light emitting surface Ev that appears to be deformed (that is, the apparent area Sa of the light emitting surface Ev) is obtained by multiplying the area S of the light emitting surface Ev by cos θ.

グレアエフェクト付与部37がグレアエフェクトオブジェクト画像5Gを生成する際には、グレア源の発光面Evの寸法形状には、観測者6vが観測する、見かけの発光面Evを用いる。この結果、観測者6vとグレア源との位置関係に応じて、グレアエフェクトオブジェクト画像5Gのグレアエフェクトの強さが調整される。   When the glare effect applying unit 37 generates the glare effect object image 5G, the apparent light emitting surface Ev observed by the observer 6v is used as the size and shape of the light emitting surface Ev of the glare source. As a result, the strength of the glare effect of the glare effect object image 5G is adjusted according to the positional relationship between the observer 6v and the glare source.

しかしながら、かかるグレアエフェクトの強さ調整だけでは、観測者6vが照明器具Ivを見ながら仮想空間4の中を移動したときのグレア感を再現するには不十分である。
具体的には、現実空間では照明器具の正面位置に比べてグレア感が体感できる程に低くなるような仮想視点位置Pvで観測者6vが照明器具Ivを視認した場合、グレアエフェクトが現実空間ほどには弱くなっておらず、現実に反して強いグレア感が与えられたままとなっている。このため、観測者6vが照明器具Ivの発光面Evを見ながら移動し(仮想視点位置Pvを変えても)ても、移動に伴うグレア感の変化が現実に則しておらず、リアルに再現されていないものとなっている。
However, the intensity adjustment of the glare effect alone is insufficient to reproduce the glare feeling when the observer 6v moves in the virtual space 4 while looking at the lighting fixture Iv.
Specifically, when the observer 6v visually recognizes the lighting device Iv at the virtual viewpoint position Pv in which the glare feeling is lower than the front position of the lighting device in the real space, the glare effect is as high as the real space. It has not been weakened and remains a strong glare contrary to reality. For this reason, even if the observer 6v moves while viewing the light emitting surface Ev of the luminaire Iv (even if the virtual viewpoint position Pv is changed), the change in glare caused by the movement is not in accordance with the reality, and is realistic. It has not been reproduced.

そこで、本実施形態では、前掲図1に示すように、仮想空間画像生成装置10に、グレア源スケーリング部32を設けることで、仮想視点位置Pvに応じたグレア感の再現性を高めた仮想空間画像5が得られるようにしている。
グレア源スケーリング部32は、3次元レンダリング部26に出力される発光面Evの寸法を、その面積S、Saが次式(1)に基づいて求められる面積Sbとなるようにスケーリング(拡大又は縮小)して当該3次元レンダリング部26に出力する。
なお、この(1)式において、仮想視点位置Pvが発光面Evの正面でない場合、すなわち角度θ=0°ではない場合、発光面Evの寸法形状、及び面積Sには、観測者6vから見たみかけの寸法形状、及び、みかけの面積Saが用いられる。
Therefore, in the present embodiment, as shown in FIG. 1, the virtual space image generation apparatus 10 is provided with a glare source scaling unit 32 to increase the reproducibility of the glare feeling according to the virtual viewpoint position Pv. An image 5 is obtained.
The glare source scaling unit 32 scales (enlarges or reduces) the size of the light emitting surface Ev output to the three-dimensional rendering unit 26 so that the areas S and Sa are the area Sb obtained based on the following equation (1). And output to the three-dimensional rendering unit 26.
In the equation (1), when the virtual viewpoint position Pv is not in front of the light emitting surface Ev, that is, when the angle θ is not 0 °, the dimension shape and the area S of the light emitting surface Ev are as viewed from the observer 6v. An apparent dimension shape and an apparent area Sa are used.

スケーリング後の発光面Evの面積Sb
=[log10(Iθ×α)]/S ・・・(1)
ただし、αは光度Iθに乗じる所定の係数
Area Sb of light emitting surface Ev after scaling
= [Log 10 (I θ × α)] / S (1)
Where α is a predetermined coefficient that multiplies the luminous intensity I θ

上記(1)に示されるように、スケーリング後の面積Sbは、仮想視点位置Pvでの光度Iθに応じて対数関数的に変化する。一方、グレアエフェクト付与部37は、グレア源の強さ(輝度、及び面積S(すなわち光度))に応じた強さのグレアエフェクトオブジェクト画像5Gを生成している。したがって、発光面Evがスケーリングされることで、このグレアエフェクトオブジェクト画像5Gのグレアエフェクトの強さも対数関数的にダイナミックに変化する。この結果、現実空間ではグレア感が十分に低減される仮想視点位置Pvにおいて、現実空間と同様に、グレアエフェクトが十分に弱められ、現実に即したグレア感が再現される。 As shown in (1) above, the scaled area Sb changes logarithmically according to the light intensity I θ at the virtual viewpoint position Pv. On the other hand, the glare effect applying unit 37 generates a glare effect object image 5G having a strength corresponding to the strength of the glare source (luminance and area S (that is, light intensity)). Therefore, the intensity of the glare effect of the glare effect object image 5G also dynamically changes logarithmically by scaling the light emitting surface Ev. As a result, at the virtual viewpoint position Pv where the glare feeling is sufficiently reduced in the real space, the glare effect is sufficiently weakened in the same manner as in the real space, and the glare feeling that matches the reality is reproduced.

図5は、仮想空間画像生成装置10による仮想空間画像5の生成処理を示すフローチャートである。
仮想空間画像生成装置10は、仮想空間画像5の生成開始の指示を、例えばヘッドマウントディスプレイ8等から受け付けると(ステップS1:Yes)、仮想空間画像5を生成するために次の処理を開始する。
すなわち、仮想空間画像生成装置10は、ヘッドマウントディスプレイ8の位置情報17、及び姿勢情報16に基づいて、仮想視点位置Pv、及び仮想視線方向Dvのそれぞれを算出する(ステップS2)。なお、このステップS2において、仮想空間画像5の生成開始時には、仮想視点位置Pv、及び仮想視線方向Dvに所定の初期値が設定される。
FIG. 5 is a flowchart showing a generation process of the virtual space image 5 by the virtual space image generation device 10.
When the virtual space image generation device 10 receives an instruction to start generation of the virtual space image 5 from, for example, the head mounted display 8 (step S1: Yes), the virtual space image generation device 10 starts the next process to generate the virtual space image 5. .
That is, the virtual space image generation device 10 calculates the virtual viewpoint position Pv and the virtual visual line direction Dv based on the position information 17 and the posture information 16 of the head mounted display 8 (step S2). In this step S2, when the generation of the virtual space image 5 is started, predetermined initial values are set for the virtual viewpoint position Pv and the virtual visual line direction Dv.

次いで仮想空間画像生成装置10は、照明器具Ivの配光情報34Aと、照明設計データ35と仮想視線方向Dvとに基づいて、仮想空間4に設置された状態での照明器具Ivの基準軸方向Dsと仮想視線方向Dvとが成す角度θを求め、当該角度θにおける光度Iθを仮想視点位置Pvで観測される光度Iθとして配光情報34Aから求める(ステップS3)。次に、仮想空間画像生成装置10は、照明器具データ34の形状情報34Bとして、3次元レンダリング部26に出力する発光面Ev、Evaの寸法を、その面積S、Saが上記(1)によって求められる面積Sbになるようにスケーリング(拡大又は縮小)する(ステップS4)。このスケーリングによって、発光面Ev、Evaの寸法(面積S、Sa)が、仮想視点位置Pvでの光度Iθに応じて対数関数的に増減されることとなる。 Next, the virtual space image generation device 10 determines the reference axis direction of the lighting fixture Iv in the state of being installed in the virtual space 4 based on the light distribution information 34A of the lighting fixture Iv, the lighting design data 35, and the virtual line-of-sight direction Dv. The angle θ formed by Ds and the virtual line-of-sight direction Dv is obtained, and the light intensity I θ at the angle θ is obtained from the light distribution information 34A as the light intensity I θ observed at the virtual viewpoint position Pv (step S3). Next, the virtual space image generation device 10 obtains the dimensions S and Sa of the light emitting surfaces Ev and Eva to be output to the three-dimensional rendering unit 26 as the shape information 34B of the luminaire data 34 according to the above (1). Scaling (enlargement or reduction) is performed so that the area Sb is obtained (step S4). By this scaling, the dimensions (areas S and Sa) of the light emitting surfaces Ev and Eva are increased or decreased logarithmically according to the light intensity I θ at the virtual viewpoint position Pv.

そして、3次元レンダリング部26が仮想空間情報記憶部25のデータに基づいて3Dレンダリング処理を行い、視認画像5Aを生成する(ステップS5)。この3Dレンダリングにおいては、グレア源である照明器具Ivに、スケーリング後の発光面Ev、Evaが用いられる。またステップS5では、グレアエフェクト付与部37がスケーリング後の発光面Ev、Evaに応じた強さのグレアエフェクトオブジェクト画像5Gを生成し、当該グレアエフェクトオブジェクト画像5Gを視認画像5Aに合成することで、仮想空間画像5を生成する。
かかる仮想空間画像5がヘッドマウントディスプレイ8に送信され、ディスプレイ12に表示される。
Then, the three-dimensional rendering unit 26 performs 3D rendering processing based on the data in the virtual space information storage unit 25, and generates a visual image 5A (step S5). In this 3D rendering, the light emitting surfaces Ev and Eva after scaling are used for the luminaire Iv that is the glare source. In step S5, the glare effect applying unit 37 generates a glare effect object image 5G having a strength corresponding to the light emitting surface Ev and Eva after scaling, and synthesizes the glare effect object image 5G with the visual image 5A. A virtual space image 5 is generated.
The virtual space image 5 is transmitted to the head mounted display 8 and displayed on the display 12.

仮想空間画像生成装置10は、仮想空間画像5の生成終了の指示を、例えばヘッドマウントディスプレイ8等から受け付けるまで(ステップS6:Yes)、ステップS2からステップS5の処理を繰り返し実行する。これにより、ユーザ6の動きに合わせて動的に変化する仮想空間画像5が順次に生成されてディスプレイ12に表示される。   The virtual space image generation device 10 repeatedly executes the processing from step S2 to step S5 until an instruction to end generation of the virtual space image 5 is received from, for example, the head mounted display 8 or the like (step S6: Yes). Thereby, virtual space images 5 that dynamically change according to the movement of the user 6 are sequentially generated and displayed on the display 12.

図6は、仮想空間画像5におけるグレア感の変化の一例を示す図である。
同図に示すように、仮想視点位置Pvにおける光度Iθの変化に応じて、発光面Ev、Evaの寸法をスケーリング(拡大又は縮小)しない場合、仮想視点位置Pvが発光面Evの正面(θ=0°)に位置するときと、斜め方向(θ>0°)に位置するときとで、グレアエフェクトの強さの変化が小さく、ユーザ6に与えるグレア感の変化も乏しいものとなっている。
これに対して、発光面Ev、Evaの寸法をスケーリングした場合には、仮想視点位置Pvが発光面Evの正面(θ=0°)に位置するときに比べ、斜め方向(θ>0°)に位置するときには、グレアエフェクトの強さが大きく減少し、仮想視点位置Pvごとのグレア感の変化が現実に即してリアルに再現されていることが分かる。
FIG. 6 is a diagram illustrating an example of a change in glare feeling in the virtual space image 5.
As shown in the figure, in response to changes in light intensity I theta in the virtual viewpoint position Pv, the light emitting surface Ev, if no scaling the dimensions of Eva (enlarged or reduced), the front of the virtual viewpoint position Pv is the light emitting surface Ev (theta = 0 °) and when it is located in an oblique direction (θ> 0 °), the change in the strength of the glare effect is small and the change in the glare feeling given to the user 6 is also poor. .
On the other hand, when the dimensions of the light emitting surfaces Ev and Eva are scaled, the diagonal direction (θ> 0 °) is compared to when the virtual viewpoint position Pv is located in front of the light emitting surface Ev (θ = 0 °). It can be seen that the strength of the glare effect is greatly reduced when it is located at, and the change in the glare feeling at each virtual viewpoint position Pv is realistically reproduced in accordance with the reality.

本実施形態によれば、次のような効果を奏する。   According to the present embodiment, the following effects can be obtained.

本実施形態の仮想空間画像生成装置10では、仮想空間4においてグレア源となる照明器具Ivの発光面Evを、仮想視点位置Pvでの光度Iθに応じて拡大又は縮小する構成とした。
これにより、グレアエフェクトオブジェクト画像5Gによるグレアエフェクト(眩しさの表現)の強さも発光面Evの大きさに応じたものとなり、仮想視点位置Pvでのグレア感の再現性が、従前に比べて高められる。
また、グレア感を再現するに際し、発光面Evをスケーリング(拡大又は縮小)して、発光面Evの大きさ(面積S)を変えるので、発光面Evの形状は現実に則したものに維持され、現実感が損なわれることがない。
In the virtual space image generating apparatus 10 of the present embodiment, the light emitting surface Ev of the luminaire Iv as a glare source in the virtual space 4, and configured to expand or shrink depending on the luminous intensity I theta at virtual viewpoint position Pv.
Thereby, the intensity of the glare effect (expression of glare) by the glare effect object image 5G also corresponds to the size of the light emitting surface Ev, and the reproducibility of the glare feeling at the virtual viewpoint position Pv is higher than before. It is done.
Further, when reproducing the glare feeling, the light emitting surface Ev is scaled (enlarged or reduced) to change the size (area S) of the light emitting surface Ev, so that the shape of the light emitting surface Ev is maintained in accordance with reality. , The sense of reality is not impaired.

本実施形態の仮想空間画像生成装置10では、グレア源である照明器具Ivの発光面Evのスケーリングによって、仮想視点位置Pvでの光度Iθに応じて発光面Evの面積Sを対数関数的に変化させている。
これにより、仮想視点位置Pvごとのグレア感の変化を現実に即してリアルに再現することができる。
In the virtual space image generating apparatus 10 of the present embodiment, the scaling of the light emitting surface Ev of the luminaire Iv is glare source, the area S of the light emitting surface Ev logarithmically in accordance with the intensity I theta at virtual viewpoint position Pv It is changing.
Thereby, the change of the glare feeling for every virtual viewpoint position Pv can be realistically reproduced according to reality.

上述した実施形態は、あくまでも本発明の一態様を例示したものであって、本発明の趣旨を逸脱しない範囲において任意に変形及び応用が可能である。   The above-described embodiments are merely illustrative of one aspect of the present invention, and can be arbitrarily modified and applied without departing from the spirit of the present invention.

上述した実施形態において、基準軸方向Dsにおける発光面Evの輝度値、すなわち正面から発光面Evをみたときの輝度値には、照明器具Ivの仕様に基づく値が設定される。しかしながら、仮想空間4において発光面Evが占める大きさに応じて輝度値を調整した値に設定してもよい。
具体的には、仮想空間4において発光面Evが占める大きさが小さくなるほど輝度値を低める。これにより、同じ輝度値の照明器具Ivを仮想空間4内の同じ位置に配置した場合でも、それぞれの発光面Evが仮想空間4の中で占める大きさを反映した輝度値に調整されることで、それぞれの発光面Evに対するグレアエフェクトの強さも変わり、より現実に即したグレア感が再現される。
In the embodiment described above, a value based on the specification of the lighting fixture Iv is set as the luminance value of the light emitting surface Ev in the reference axis direction Ds, that is, the luminance value when the light emitting surface Ev is viewed from the front. However, the luminance value may be set to a value adjusted according to the size occupied by the light emitting surface Ev in the virtual space 4.
Specifically, the luminance value decreases as the size occupied by the light emitting surface Ev in the virtual space 4 decreases. Thereby, even when the luminaires Iv having the same luminance value are arranged at the same position in the virtual space 4, the respective light emitting surfaces Ev are adjusted to the luminance values reflecting the size occupied in the virtual space 4. The intensity of the glare effect for each light emitting surface Ev also changes, and a more realistic glare feeling is reproduced.

上述した実施形態において、ヘッドマウントディスプレイ8に仮想空間画像5を表示する構成としたが、これに限らず、任意の表示装置に仮想空間画像5を表示することができる。
また、ユーザ6の頭の動きに合わせて仮想視点位置Pv、及び仮想視線方向Dvのそれぞれを変更したが、これに限らず、任意の操作デバイスを用いて、仮想視点位置Pv、及び仮想視線方向Dvのそれぞれの変更をユーザ6が指示してもよい。
In the above-described embodiment, the virtual space image 5 is displayed on the head mounted display 8, but the present invention is not limited to this, and the virtual space image 5 can be displayed on an arbitrary display device.
In addition, the virtual viewpoint position Pv and the virtual line-of-sight direction Dv are changed according to the movement of the head of the user 6, but not limited to this, the virtual viewpoint position Pv and the virtual line-of-sight direction are not limited to this. The user 6 may instruct each change of Dv.

1 仮想空間提供システム
4 仮想空間
5 仮想空間画像
5A 視認画像
5G グレアエフェクトオブジェクト画像(エフェクトオブジェクト画像)
8 ヘッドマウントディスプレイ
10 仮想空間画像生成装置(画像生成装置)
22 視点位置算出部
24 視線方向算出部
25 仮想空間情報記憶部
26 3次元レンダリング部(仮想空間画像生成部)
28 仮想空間情報記憶部
32 グレア源スケーリング部
34 照明器具データ
34A 配光情報
34B 形状情報
35 照明設計データ
37 グレアエフェクト付与部
Ds 基準軸方向
Dv 仮想視線方向
Ev 発光面
Iv 照明器具
θ 光度
Pv 仮想視点位置
S 面積
Sb スケーリング後の面積
DESCRIPTION OF SYMBOLS 1 Virtual space provision system 4 Virtual space 5 Virtual space image 5A Visual image 5G Glare effect object image (effect object image)
8 Head mounted display 10 Virtual space image generation device (image generation device)
22 viewpoint position calculation unit 24 gaze direction calculation unit 25 virtual space information storage unit 26 three-dimensional rendering unit (virtual space image generation unit)
28 Virtual Space Information Storage Unit 32 Glare Source Scaling Unit 34 Lighting Device Data 34A Light Distribution Information 34B Shape Information 35 Lighting Design Data 37 Glare Effect Appending Unit Ds Reference Axis Direction Dv Virtual Gaze Direction Ev Light Emitting Surface Iv Lighting Device I θ Light Intensity Pv Virtual Viewpoint position S area Sb Area after scaling

Claims (5)

グレア源を含む仮想空間を当該仮想空間内の視点位置からみた視認画像に、前記グレア源の大きさに応じた強さで眩しさを表現するエフェクトオブジェクト画像を合成した仮想空間画像を生成する仮想空間画像生成部を有した画像生成装置であって、
前記グレア源の発光面を、前記視点位置での前記グレア源の光度に応じて拡大又は縮小するグレア源スケーリング部
を備えることを特徴とする画像生成装置。
A virtual that generates a virtual space image in which a visual image obtained by viewing a virtual space including a glare source from a viewpoint position in the virtual space is combined with an effect object image that expresses glare with intensity according to the size of the glare source An image generation apparatus having a spatial image generation unit,
An image generation apparatus comprising: a glare source scaling unit that enlarges or reduces a light emitting surface of the glare source according to a light intensity of the glare source at the viewpoint position.
前記グレア源スケーリング部は、
前記グレア源の発光面の拡大又は縮小によって、前記視点位置での前記グレア源の光度に応じて前記グレア源の発光面の面積を対数関数的に変化させる
ことを特徴とする請求項1に記載の画像生成装置。
The glare source scaling unit includes:
The area of the light emitting surface of the glare source is changed logarithmically according to the light intensity of the glare source at the viewpoint position by expanding or reducing the light emitting surface of the glare source. Image generation device.
前記グレア源の基準軸方向における発光面の輝度値が、前記仮想空間に対する前記発光面の大きさに応じて設定されている
ことを特徴とする請求項1または2に記載の画像生成装置。
The image generation apparatus according to claim 1, wherein a luminance value of the light emitting surface in a reference axis direction of the glare source is set according to a size of the light emitting surface with respect to the virtual space.
グレア源を含む仮想空間を当該仮想空間内の視点位置からみた視認画像に、前記グレア源の大きさに応じた強さで眩しさを表現するエフェクトオブジェクト画像を合成した仮想空間画像を生成する画像生成方法において、
前記グレア源の発光面を、前記視点位置での前記グレア源の光度に応じて拡大又は縮小する
ことを特徴とする画像生成方法。
An image that generates a virtual space image in which a visual image obtained by viewing a virtual space including a glare source from a viewpoint position in the virtual space is combined with an effect object image that expresses glare with intensity according to the size of the glare source In the generation method,
An image generation method characterized by enlarging or reducing the light emitting surface of the glare source according to the light intensity of the glare source at the viewpoint position.
コンピュータを、
グレア源を含む仮想空間を当該仮想空間内の視点位置からみた視認画像に、前記グレア源の大きさに応じた強さで眩しさを表現するエフェクトオブジェクト画像を合成した仮想空間画像を生成する仮想空間画像生成部として機能させる画像生成プログラムであって、
前記グレア源の発光面を、前記視点位置での前記グレア源の光度に応じて拡大又は縮小するグレア源スケーリング部
として前記コンピュータを機能させることを特徴とする画像生成プログラム。
Computer
A virtual that generates a virtual space image in which a visual image obtained by viewing a virtual space including a glare source from a viewpoint position in the virtual space is combined with an effect object image that expresses glare with intensity according to the size of the glare source An image generation program that functions as a spatial image generation unit,
An image generation program that causes the computer to function as a glare source scaling unit that enlarges or reduces the light emitting surface of the glare source according to the light intensity of the glare source at the viewpoint position.
JP2018105823A 2018-06-01 2018-06-01 Image generation device, image generation method, and image generation program Active JP7131090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018105823A JP7131090B2 (en) 2018-06-01 2018-06-01 Image generation device, image generation method, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105823A JP7131090B2 (en) 2018-06-01 2018-06-01 Image generation device, image generation method, and image generation program

Publications (2)

Publication Number Publication Date
JP2019211886A true JP2019211886A (en) 2019-12-12
JP7131090B2 JP7131090B2 (en) 2022-09-06

Family

ID=68845892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105823A Active JP7131090B2 (en) 2018-06-01 2018-06-01 Image generation device, image generation method, and image generation program

Country Status (1)

Country Link
JP (1) JP7131090B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163566A (en) * 2017-03-27 2018-10-18 東芝ライテック株式会社 Generation device and information processing system
WO2021230205A1 (en) * 2020-05-13 2021-11-18 パナソニックIpマネジメント株式会社 Glare evaluation device and glare evaluation system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325605A (en) * 2000-05-17 2001-11-22 Namco Ltd Game system and information storage medium
JP2006323514A (en) * 2005-05-17 2006-11-30 Namco Bandai Games Inc Image forming system, program and information storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325605A (en) * 2000-05-17 2001-11-22 Namco Ltd Game system and information storage medium
JP2006323514A (en) * 2005-05-17 2006-11-30 Namco Bandai Games Inc Image forming system, program and information storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163566A (en) * 2017-03-27 2018-10-18 東芝ライテック株式会社 Generation device and information processing system
WO2021230205A1 (en) * 2020-05-13 2021-11-18 パナソニックIpマネジメント株式会社 Glare evaluation device and glare evaluation system

Also Published As

Publication number Publication date
JP7131090B2 (en) 2022-09-06

Similar Documents

Publication Publication Date Title
AU2017204739B2 (en) Massive simultaneous remote digital presence world
US10475243B2 (en) Transition between virtual reality and real world
US10755486B2 (en) Occlusion using pre-generated 3D models for augmented reality
CN110850977B (en) Stereoscopic image interaction method based on 6DOF head-mounted display
JP7403249B2 (en) Systems and methods for foveal simulation
JP2023514796A (en) Occlusion of virtual objects in augmented reality by physical objects
JP2021531493A (en) Dynamic panel masking
JP2019211886A (en) Image generation device, image generation method, and image generation program
US20220245913A1 (en) Virtual paper
TWI755636B (en) Method and program for playing virtual reality image
JP4816928B2 (en) Image generation program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP4868586B2 (en) Image generation system, program, and information storage medium
TWI694355B (en) Tracking system, tracking method for real-time rendering an image and non-transitory computer-readable medium
US10754498B2 (en) Hybrid image rendering system
JP7314479B2 (en) Image generation device, image generation method, and image generation program
US8659590B1 (en) System, method, and computer program product for modifying signals of a three-dimensional graphics application program based on a tracking algorithm
US11238662B2 (en) Optimal luminance mapping for augmented reality devices
JP6503098B1 (en) Image processing apparatus, image processing program and image processing method
JP4028113B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4479003B2 (en) Image processing
WO2021125190A1 (en) Information processing device, information processing system, and information processing method
JP2009140370A (en) Program, information storage medium, and image generation system
JP2009246600A (en) Production control program of sound generated from sound source in virtual space
WO2023154560A1 (en) Turning a two-dimensional image into a skybox
KR20220109223A (en) System and method for constructing media facade using projection mapping technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350