JP7081162B2 - Image processing device, image processing system, and image processing method - Google Patents

Image processing device, image processing system, and image processing method Download PDF

Info

Publication number
JP7081162B2
JP7081162B2 JP2018004415A JP2018004415A JP7081162B2 JP 7081162 B2 JP7081162 B2 JP 7081162B2 JP 2018004415 A JP2018004415 A JP 2018004415A JP 2018004415 A JP2018004415 A JP 2018004415A JP 7081162 B2 JP7081162 B2 JP 7081162B2
Authority
JP
Japan
Prior art keywords
image
image processing
environmental information
sight
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018004415A
Other languages
Japanese (ja)
Other versions
JP2019125108A (en
Inventor
祐介 武士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2018004415A priority Critical patent/JP7081162B2/en
Publication of JP2019125108A publication Critical patent/JP2019125108A/en
Application granted granted Critical
Publication of JP7081162B2 publication Critical patent/JP7081162B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置、画像処理システム、及び画像処理方法に関する。 The present invention relates to an image processing apparatus, an image processing system, and an image processing method.

博物館等では遺跡などを復元した仮想空間の画像(以下、仮想空間画像)を表示する表示システムがある。このような表示システムでは、遺跡に対する興味を深めてもらうことを目的の一つとしている。
一方、特許文献1には、ユーザの体調やその日の気象等の各種データをゲーム上の仮想空間画像に反映させることでゲーム内容を変化させて楽しむ方法が開示されている。
In museums and the like, there is a display system that displays images of virtual space (hereinafter referred to as virtual space images) that have been restored from archaeological sites. One of the purposes of such a display system is to deepen the interest in the ruins.
On the other hand, Patent Document 1 discloses a method of changing and enjoying the game content by reflecting various data such as the physical condition of the user and the weather of the day on the virtual space image on the game.

特開2000-24324号公報Japanese Unexamined Patent Publication No. 2000-24324

しかしながら、遺跡などを復元した仮想空間画像は、予め設計された内容に基づいて作成されたものであり、決められた光景を表示するにすぎないため、閲覧者によっては物足りない場合がある。時間の経過とともに遺跡の表情が変化したり、予想外な光景が表示されたりすることがなく、現実感(リアリティ)に欠けるためである。このため、現実感がある仮想空間画像、あたかもそこに遺跡が存在し続けていたかのような仮想空間画像を生成することが求められる。 However, the virtual space image obtained by restoring the archaeological site or the like is created based on the contents designed in advance, and only displays a predetermined scene, so that it may be unsatisfactory depending on the viewer. This is because the expression of the ruins does not change with the passage of time and unexpected scenes are not displayed, and the reality is lacking. For this reason, it is required to generate a virtual space image with a sense of reality, as if the ruins continued to exist there.

本発明は、このような状況に鑑みてなされたもので、現実感のある仮想空間画像を生成することができる画像処理装置、画像処理システム、及び画像処理方法を提供することである。 The present invention has been made in view of such a situation, and is to provide an image processing apparatus, an image processing system, and an image processing method capable of generating a realistic virtual space image.

上述した課題を解決するために、本発明の一態様は、環境に関する環境情報として、環境センサにより測定された測定値を取得する取得部と、前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体を生成する生成部と、前記生成部により生成された画像を出力する出力部とを備えることを特徴とする画像処理装置である。
また、本発明の一態様は、前記生成部は、前記測定値に所定の振幅を有する正弦波を加算することにより前記環境情報を加工することを特徴とする画像処理装置である。
In order to solve the above-mentioned problems, one aspect of the present invention is an acquisition unit that acquires a measured value measured by an environment sensor as environmental information regarding the environment, and the measured value is changed over time by adding fluctuations to the measured value. It is provided with a generation unit that processes the measured value by changing the measurement value to generate a virtual object according to the situation shown in the processed environment information, and an output unit that outputs an image generated by the generation unit. This is an image processing device characterized by the above.
Further, one aspect of the present invention is an image processing apparatus characterized in that the generation unit processes the environmental information by adding a sine wave having a predetermined amplitude to the measured value.

また、本発明の一態様は、前記取得部は、所定の場所における前記環境情報を検知するセンサ群、及び前記環境情報を記憶した装置のうち少なくともいずれかより前記環境情報を取得することを特徴とする画像処理装置である。 Further, one aspect of the present invention is characterized in that the acquisition unit acquires the environmental information from at least one of a sensor group that detects the environmental information at a predetermined place and a device that stores the environmental information. It is an image processing device.

また、本発明の一態様は、前記生成部は、前記環境情報に基づいて、前記環境情報に示される状況に応じて変化する環境画像を生成することを特徴とする画像処理装置である。 Further, one aspect of the present invention is an image processing apparatus characterized in that the generation unit generates an environmental image that changes according to the situation shown in the environmental information based on the environmental information.

また、本発明の一態様は、前記取得部は、人物の視線に関する視線情報を取得し、前記生成部は、前記視線情報に示される視線の方向に応じた前記仮想物体の画像を生成することを特徴とする画像処理装置である。 Further, in one aspect of the present invention, the acquisition unit acquires line-of-sight information regarding the line of sight of a person, and the generation unit generates an image of the virtual object according to the direction of the line of sight shown in the line-of-sight information. It is an image processing apparatus characterized by.

また、本発明の一態様は、上記に記載の画像処理装置と、通信ネットワークを介して前記画像処理装置により出力された画像を表示する表示装置とを備えることを特徴とする画像処理システムである。 Further, one aspect of the present invention is an image processing system including the image processing device described above and a display device for displaying an image output by the image processing device via a communication network. ..

また、本発明の一態様は、取得部が環境に関する環境情報として、環境センサにより測定された測定値を取得する工程と、生成部が前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体を生成する工程と、出力部が前記生成部により生成された画像を出力する工程とを有することを特徴とする画像処理方法である。 Further, one aspect of the present invention is a step in which the acquisition unit acquires the measured value measured by the environment sensor as environmental information regarding the environment, and the generation unit adds fluctuations to the measured value to obtain the measured value over time. It has a step of processing the measured value by changing it to generate a virtual object according to the situation shown in the processed environmental information, and a step of outputting an image generated by the generating unit by the output unit. It is an image processing method characterized by.

本発明によれば、現実感のある仮想空間画像を生成することができる。 According to the present invention, it is possible to generate a realistic virtual space image.

実施形態の画像処理システム1の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the image processing system 1 of an embodiment. 実施形態の画像処理装置5が取得する環境情報の一例を示す図である。It is a figure which shows an example of the environmental information acquired by the image processing apparatus 5 of an embodiment. 実施形態の画像処理装置5が取得する環境情報の他の例を示す図である。It is a figure which shows the other example of the environmental information acquired by the image processing apparatus 5 of an embodiment. 実施形態の画像処理装置5が生成する仮想空間画像の一例を示す図である。It is a figure which shows an example of the virtual space image generated by the image processing apparatus 5 of an embodiment. 実施形態の画像処理装置5の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the image processing apparatus 5 of embodiment.

以下、実施形態の画像処理装置、画像処理システム、及び画像処理方法を、図面を参照して説明する。 Hereinafter, the image processing apparatus, the image processing system, and the image processing method of the embodiment will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理システム1の概略構成の一例を示す図である。図1に示すように、画像処理システム1は、表示装置2、通信ネットワーク3、環境センサ群4及び画像処理装置5を備える。 FIG. 1 is a diagram showing an example of a schematic configuration of an image processing system 1 according to an embodiment of the present invention. As shown in FIG. 1, the image processing system 1 includes a display device 2, a communication network 3, an environment sensor group 4, and an image processing device 5.

表示装置2は、通信ネットワーク3を介して画像処理装置5が生成した仮想空間画像を取得して表示する。
表示装置2は、例えば、遺跡を再現させた仮想空間画像を表示する。例えば、表示装置2は、液晶ディスプレイなどの表示画面を備え、表示画面に仮想空間画像を表示する表示装置である。また、仮想空間画像は、静止画でもよいし動画でもよい。
The display device 2 acquires and displays a virtual space image generated by the image processing device 5 via the communication network 3.
The display device 2 displays, for example, a virtual space image that reproduces an archaeological site. For example, the display device 2 is a display device provided with a display screen such as a liquid crystal display and displaying a virtual space image on the display screen. Further, the virtual space image may be a still image or a moving image.

通信ネットワーク3は、無線通信の伝送路であってもよく、有線通信であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。 The communication network 3 may be a transmission line for wireless communication, may be wired communication, or may be a combination of a wireless communication transmission line and a wired communication transmission line.

環境センサ群4は、環境センサ40(環境センサ40-1~40-N、Nは任意の自然数)を備える。
環境センサ40は、環境に関する情報(環境情報)を検知する。環境情報には、例えば、風向き、風力、温度、湿度、気圧、又は光などの情報が含まれてよい。例えば、環境センサ40は、風向きを検出するセンサ、風力計、温度計、湿度計、気圧計、上空や周囲の風景(例えば、全天周映像)を撮像する撮像装置などである。環境センサ40は、仮想空間に反映させたい環境情報を取得することができる所定の場所に設置され、その場所における環境情報を検知する。
環境センサ群4は、通信ネットワーク3を介して、画像処理装置5に検知した環境に関する情報を送信する。
The environment sensor group 4 includes an environment sensor 40 (environment sensors 40-1 to 40-N, where N is an arbitrary natural number).
The environment sensor 40 detects information about the environment (environmental information). Environmental information may include, for example, information such as wind direction, wind power, temperature, humidity, barometric pressure, or light. For example, the environment sensor 40 is a sensor for detecting the wind direction, an anemometer, a thermometer, a hygrometer, a barometer, an image pickup device for capturing an image of the sky or surrounding scenery (for example, an all-sky image). The environment sensor 40 is installed at a predetermined place where the environmental information to be reflected in the virtual space can be acquired, and detects the environmental information at that place.
The environment sensor group 4 transmits the detected information about the environment to the image processing device 5 via the communication network 3.

画像処理装置5は、通信部51と、処理部52と、生成部53とを備える。ここで、通信部51は、「取得部」の一例である。また、通信部51は、「出力部」の一例でもある。
通信部51は、通信ネットワーク3を介して、表示装置2および環境センサ群4と無線又は有線通信する。
通信部51は、通信ネットワーク3を介して環境センサ群4により検知された環境情報を取得する。通信部51は、通信ネットワーク3を介して各種サーバにアクセスし、風向きや天候などの環境情報を取得してもよい。通信部51は、取得した環境情報を処理部52に出力する。
The image processing device 5 includes a communication unit 51, a processing unit 52, and a generation unit 53. Here, the communication unit 51 is an example of the “acquisition unit”. The communication unit 51 is also an example of an “output unit”.
The communication unit 51 wirelessly or wiredly communicates with the display device 2 and the environment sensor group 4 via the communication network 3.
The communication unit 51 acquires the environmental information detected by the environment sensor group 4 via the communication network 3. The communication unit 51 may access various servers via the communication network 3 and acquire environmental information such as wind direction and weather. The communication unit 51 outputs the acquired environmental information to the processing unit 52.

処理部52は、通信部51を介して環境センサ群4からの環境情報を取得する。処理部52は、環境センサ群4から取得した環境情報の処理を行う。ここで、環境情報の処理とは、環境情報に基づく仮想空間画像が生成しやすいように環境情報を加工することである。
図2は、実施形態の画像処理装置5が取得する環境情報の一例を示す図である。環境情報は、一時間ごとの、気温、降水量、風向、風速、日照時間、湿度、および気圧それぞれの値である。
例えば、処理部52が、時刻9時に図2に示す環境情報を取得した場合、当該時刻における環境情報の風速5.9[m/s]に対し、所定の範囲内での移動平均を算出する。これはノイズの除去を目的としている。また環境情報の取得間隔が長い場合や、環境センサ群4の付近を人や物が移動したことによりノイズが入った場合にも、処理部52により、データの補完処理をおこなう。処理部52は、取得した情報に所定のゆらぎを加える処理を行っても良い。風速に所定のゆらぎが加えられることで同じパターンを繰り返す現実感のない仮想空間画像が生成されることを抑制できる。処理部52は、例えば、風速5.9[m/s]に、所定の振幅を有する正弦波を加算することで風速5.9[m/s]を中心に風速が変化するように環境情報を加工する。
The processing unit 52 acquires environmental information from the environment sensor group 4 via the communication unit 51. The processing unit 52 processes the environmental information acquired from the environment sensor group 4. Here, the processing of the environmental information is to process the environmental information so that a virtual space image based on the environmental information can be easily generated.
FIG. 2 is a diagram showing an example of environmental information acquired by the image processing apparatus 5 of the embodiment. Environmental information is hourly values for temperature, precipitation, wind direction, wind speed, sunshine duration, humidity, and barometric pressure.
For example, when the processing unit 52 acquires the environmental information shown in FIG. 2 at 9 o'clock, it calculates a moving average within a predetermined range for a wind speed of 5.9 [m / s] of the environmental information at that time. .. This is intended to remove noise. Further, even when the acquisition interval of the environmental information is long or when noise is generated due to the movement of a person or an object in the vicinity of the environment sensor group 4, the processing unit 52 performs the data complement processing. The processing unit 52 may perform a process of adding a predetermined fluctuation to the acquired information. By adding a predetermined fluctuation to the wind speed, it is possible to suppress the generation of an unrealistic virtual space image in which the same pattern is repeated. For example, the processing unit 52 adds environmental information to the wind speed of 5.9 [m / s] so that the wind speed changes around the wind speed of 5.9 [m / s] by adding a sine wave having a predetermined amplitude. To process.

生成部53は、処理部52により加工された環境情報に基づいて、当該環境情報に示される状況に応じた仮想空間画像を生成する。生成部53は、生成した仮想空間画像を、通信部51および通信ネットワーク3を介して表示装置2に送信する。以下、生成部53が仮想空間画像を生成する方法について、図3、図4を用いて説明する。 The generation unit 53 generates a virtual space image according to the situation shown in the environment information based on the environment information processed by the processing unit 52. The generation unit 53 transmits the generated virtual space image to the display device 2 via the communication unit 51 and the communication network 3. Hereinafter, a method in which the generation unit 53 generates a virtual space image will be described with reference to FIGS. 3 and 4.

図3は、実施形態の画像処理装置5が取得する環境情報の他の例を示す図である。図3(a)~(c)の例では、環境情報は、撮像装置により撮像された所定の場所における所定の時刻の上空の光景画像M(光景画像M-1~M-3)である。図3(a)~(c)は、環境情報の一例として、夏の青空が撮像された光景画像M-1、秋の夜が撮像された光景画像M-2、および雨天が撮像された光景画像M-3をそれぞれ示す。
図4は、実施形態の画像処理装置5が生成する仮想空間画像の一例を示す図である。図4(a)は、風速がない又は静穏である場合の仮想空間画像G-1の例を示す。図4(b)は、風速がある場合における仮想空間画像G-2の一例を示す。図4(c)は、風速がある場合における仮想空間画像G-3の他の例を示す。
FIG. 3 is a diagram showing another example of environmental information acquired by the image processing apparatus 5 of the embodiment. In the example of FIGS. 3 (a) to 3 (c), the environmental information is a scene image M (scene images M-1 to M-3) in the sky at a predetermined place at a predetermined place captured by the image pickup apparatus. 3 (a) to 3 (c) show, as an example of environmental information, a scene image M-1 in which a blue sky in summer is captured, a scene image M-2 in which a night in autumn is captured, and a scene in which rainy weather is captured. Images M-3 are shown respectively.
FIG. 4 is a diagram showing an example of a virtual space image generated by the image processing device 5 of the embodiment. FIG. 4A shows an example of the virtual space image G-1 when there is no wind speed or the wind speed is quiet. FIG. 4B shows an example of the virtual space image G-2 when there is a wind speed. FIG. 4C shows another example of the virtual space image G-3 in the presence of wind speed.

図4(a)~(c)の例に示すように、仮想空間画像G(仮想空間画像G-1~G-3)は、例えば、メインの仮想物体である物体画像A、環境を表現する仮想物体である環境画像B(環境画像B-1、B-2)、および背景を表現する仮想物体である背景画像Cのそれぞれの仮想物体で構成される。
図4(a)~(c)の例で、物体画像Aは、遺跡を再現させた構造物の画像である。図4(a)、(b)の例で、環境画像Bは、風速や風向きに応じて揺れる木々の画像である。
As shown in the examples of FIGS. 4A to 4C, the virtual space images G (virtual space images G-1 to G-3) represent, for example, an object image A, which is a main virtual object, and an environment. It is composed of each virtual object of the environment image B (environment image B-1, B-2) which is a virtual object and the background image C which is a virtual object expressing the background.
In the example of FIGS. 4A to 4C, the object image A is an image of a structure that reproduces an archaeological site. In the example of FIGS. 4A and 4B, the environmental image B is an image of trees swaying according to the wind speed and the wind direction.

図4(a)の例では、生成部53は、風速に対応する環境情報が「風速がない又は静穏である」旨が示されていた場合、揺れていないか又はごく僅かに揺れている木々を示す環境画像B-1を生成する。
図4(b)の例では、生成部53は、風速に対応する環境情報が「風速がある」旨が示されていた場合、揺れている木々を示す環境画像B-1を生成する。
In the example of FIG. 4A, the generation unit 53 does not shake or shakes only slightly when the environmental information corresponding to the wind speed indicates that "there is no wind speed or is quiet". An environment image B-1 showing the above is generated.
In the example of FIG. 4B, the generation unit 53 generates an environmental image B-1 showing swaying trees when the environmental information corresponding to the wind speed indicates that “there is a wind speed”.

図4(c)に示すように、生成部53は、環境を示すアイコン画像Dを、仮想物体を示す画像に合成してもよい。例えば、アイコン画像Dは、風速を示す扇風機の画像である。生成部53は、例えば、風速に応じた回転速度で扇風機の羽根が回転する様を示すアイコン画像Dを、仮想物体を示す画像に合成する。
なお、アイコン画像Dは、環境情報に応じた画像であれば、扇風機の画像に限られることはなく、気温を示す陽炎や氷の画像、湿度を示す水滴の画像、天候を示す太陽や雪の画像、又はそれらの組み合わせであってもよい。
As shown in FIG. 4C, the generation unit 53 may synthesize the icon image D showing the environment with the image showing the virtual object. For example, the icon image D is an image of a fan showing the wind speed. For example, the generation unit 53 synthesizes an icon image D showing that the blades of the electric fan rotate at a rotation speed corresponding to the wind speed with an image showing a virtual object.
The icon image D is not limited to the image of the electric fan as long as it is an image according to the environmental information, and is not limited to the image of the electric fan, the image of the heat haze or ice indicating the temperature, the image of the water droplet indicating the humidity, or the image of the sun or snow indicating the weather. It may be an image or a combination thereof.

また、生成部53は、環境情報として図3の光景画像Mが示された場合、背景画像Cを光景画像Mに示される上空の画像とする。生成部53は、例えば、背景画像Cの領域を示す形状に光景画像Mをトリミングすることにより背景画像Cを生成する。 Further, when the scene image M of FIG. 3 is shown as environmental information, the generation unit 53 sets the background image C as an image of the sky shown in the scene image M. The generation unit 53 generates the background image C by trimming the scene image M into a shape indicating the region of the background image C, for example.

図5は、実施形態の画像処理装置5の動作例を示すフローチャートである。
まず、画像処理装置5は、通信部51により環境情報を取得する(ステップS1)。
次に、画像処理装置5は、環境情報を加工するか否かを判定し(ステップS2)、加工する場合、処理部52により環境情報を加工させる(ステップS3)。処理部52は、例えば、一時間ごとの風速を示す情報にゆらぎを加え、一時間ずっと同じ調子で風速を表現するのではなく適度に風速が変化する環境情報を作り出す。
FIG. 5 is a flowchart showing an operation example of the image processing device 5 of the embodiment.
First, the image processing device 5 acquires environmental information by the communication unit 51 (step S1).
Next, the image processing apparatus 5 determines whether or not to process the environmental information (step S2), and when processing, causes the processing unit 52 to process the environmental information (step S3). For example, the processing unit 52 adds fluctuations to the information indicating the wind speed every hour, and creates environmental information in which the wind speed changes moderately instead of expressing the wind speed in the same tone for one hour.

次に、画像処理装置5は、生成部53により仮想空間画像を生成させる。生成部53は、まず、背景画像Cを生成する(ステップS4)。生成部は、例えば、光景画像Mを仮想空間画像Gの形状にトリミングすることで背景画像Cを生成する。
次に、生成部53は、物体画像Aを生成する(ステップS5)。生成部53は、例えば、物体画像Aが環境情報により変化しない物体(例えば、仏像など)である場合には、予め記憶させた物体画像Aの画像を参照する。生成部53は、物体画像Aが環境情報により変化する物体(例えば、風に揺れるしだれ桜など)である場合には、環境情報を考慮して物体画像Aを生成する。
次に、生成部53は、環境情報に基づいて環境画像Bを生成する(ステップS6)。
そして、生成部は、生成した物体画像A、環境画像B、背景画像Cを合成することで仮想空間画像Gを生成する。
Next, the image processing device 5 causes the generation unit 53 to generate a virtual space image. First, the generation unit 53 generates the background image C (step S4). The generation unit generates the background image C by trimming the scene image M into the shape of the virtual space image G, for example.
Next, the generation unit 53 generates the object image A (step S5). For example, when the object image A is an object that does not change due to environmental information (for example, a Buddha image), the generation unit 53 refers to the image of the object image A stored in advance. When the object image A is an object that changes depending on the environmental information (for example, weeping cherry blossoms swaying in the wind), the generation unit 53 generates the object image A in consideration of the environmental information.
Next, the generation unit 53 generates the environment image B based on the environment information (step S6).
Then, the generation unit generates the virtual space image G by synthesizing the generated object image A, environment image B, and background image C.

以上説明したように、実施形態の画像処理装置5は、環境に関する環境情報を取得する通信部51と、環境情報に基づいて環境情報に示される状況に応じた仮想物体を生成する生成部53と、生成部53により生成された仮想物体を含む仮想空間画像Gを出力する通信部51とを備える。
これにより、実施形態の画像処理装置5は、現実感のある仮想空間画像を生成することができる。通信部51により取得された環境情報を用いて、生成部53が環境に応じて変化する仮想空間画像Gを生成することができるためである。閲覧者がいる環境と同じように変化する仮想空間が表示装置2に表示されることにより現実感のある仮想空間画像を生成することができる。
As described above, the image processing device 5 of the embodiment includes a communication unit 51 that acquires environmental information related to the environment, and a generation unit 53 that generates a virtual object according to the situation shown in the environmental information based on the environmental information. A communication unit 51 that outputs a virtual space image G including a virtual object generated by the generation unit 53 is provided.
As a result, the image processing device 5 of the embodiment can generate a realistic virtual space image. This is because the generation unit 53 can generate the virtual space image G that changes according to the environment by using the environment information acquired by the communication unit 51. A realistic virtual space image can be generated by displaying the changing virtual space on the display device 2 in the same manner as the environment in which the viewer is present.

例えば、(今はない)江戸城を復元させた画像をただ単に表示するだけでは、あまり興味を示さない閲覧者であっても、現在の東京の風速や空模様といった環境情報に応じた画像に変換して表示させることで、現在の東京の風速や空模様において江戸城がどのようにみえるのかを、より身近に現実感をもって鑑賞させることができる。
また、夜間におけるお堂の内部など、人の立ち入りが制限された空間であっても、お堂内の画像に対して夜間に応じた照明やお堂内の蝋燭に火が点いた様子を表す環境情報におうじて仮想空間画像を表現することができるため、蝋燭の明かりに照らされた仏像の姿など普段見ることができない光景を閲覧者に鑑賞させることができる。
For example, simply displaying the restored image of Edo Castle (which does not exist now) will convert it to an image according to the environmental information such as the current wind speed and sky pattern of Tokyo, even if the viewer is not very interested. By displaying it, you can see how Edo Castle looks like in the current wind speed and sky pattern of Tokyo, more closely and realistically.
In addition, even in a space where people are restricted from entering, such as inside the hall at night, the images inside the hall show the lighting according to the night and the candles in the hall lit. Since the virtual space image can be expressed by the environmental information, the viewer can appreciate the sight that cannot be seen normally, such as the appearance of the Buddha statue illuminated by the candlelight.

このように、現実の環境情報に基づいて仮想空間画像が生成されることにより、閲覧者は、予め設計され作られた画像では得られない現実感を体験させることができる。例えば、遺跡の中は常に暗いと思っていた閲覧者が、夏には葉がたくさん生い茂っていた木により日差しが遮られている様子、冬には葉が落ちてしまうため遺跡の内部に日光が入っている様子を見せることで、遺跡の中がこんなに明るくなるのだということを現実に即して実感させることができる。 By generating the virtual space image based on the actual environment information in this way, the viewer can experience a sense of reality that cannot be obtained with the pre-designed and created image. For example, a viewer who always thought that the inside of the ruins was dark, seemed to be blocked by a tree with many leaves in the summer, and the leaves fell in the winter, so the sunlight was inside the ruins. By showing the inside, you can realize that the inside of the ruins will be so bright.

また、実施形態の画像処理装置5では、通信部51は、所定の場所における環境情報を検知する環境センサ群4、所定の場所における環境情報を記憶した装置のうち少なくともいずれかから前記環境情報を取得する。これにより、実施形態の画像処理装置5は、少なくとも環境センサ群4により検知された環境情報、又は各種サーバに記憶された環境情報を取得することができる。このため、上述した効果を奏する他、各種の環境情報を取得することができる。
また、実施形態の画像処理装置5では、生成部53は、環境情報に基づいて、背景画像Cを生成する。これにより、実施形態の画像処理装置5は、仮想空間画像Gに含まれる背景画像Cについて環境に応じて変化させることができる。このため、上述した効果を奏する他、背景を変化させることにより、環境に応じた変化を表現することができる。
Further, in the image processing device 5 of the embodiment, the communication unit 51 obtains the environmental information from at least one of the environment sensor group 4 that detects the environmental information at the predetermined place and the device that stores the environmental information at the predetermined place. get. As a result, the image processing device 5 of the embodiment can acquire at least the environmental information detected by the environment sensor group 4 or the environmental information stored in various servers. Therefore, in addition to the above-mentioned effects, various environmental information can be acquired.
Further, in the image processing apparatus 5 of the embodiment, the generation unit 53 generates the background image C based on the environmental information. As a result, the image processing device 5 of the embodiment can change the background image C included in the virtual space image G according to the environment. Therefore, in addition to achieving the above-mentioned effects, it is possible to express changes according to the environment by changing the background.

また、実施形態の画像処理装置5では、通信部51は、撮像装置により撮像された所定の地域における光景を示す光景画像Mを取得し、生成部53は、光景画像Mの全部又は一部を背景画像Cとする仮想空間画像Gを生成する。これにより、実施形態の画像処理装置5は、背景画像Cを実際に撮像された背景とすることができる。このため、上述した効果を奏する他、より現実に即した環境の変化を表現することができる。
また、実施形態の画像処理装置5では、生成部53は、環境情報に基づいて環境画像Bを生成する。これにより、実施形態の画像処理装置5は、環境画像Bについて環境に応じて変化させることができる。環境画像Bを風に揺れる木々など環境を表現することに適した画像とすることで、より閲覧者に仮想物体の置かれた環境が理解されやすい仮想空間画像Gを生成することができ、より没入感のある画像を生成することができる。
Further, in the image processing device 5 of the embodiment, the communication unit 51 acquires a scene image M showing a scene in a predetermined area imaged by the image pickup device, and the generation unit 53 obtains all or a part of the scene image M. A virtual space image G as a background image C is generated. As a result, the image processing device 5 of the embodiment can use the background image C as the actually captured background. Therefore, in addition to achieving the above-mentioned effects, it is possible to express changes in the environment that are more realistic.
Further, in the image processing apparatus 5 of the embodiment, the generation unit 53 generates the environment image B based on the environment information. As a result, the image processing device 5 of the embodiment can change the environment image B according to the environment. By making the environment image B an image suitable for expressing the environment such as trees swaying in the wind, it is possible to generate a virtual space image G that makes it easier for the viewer to understand the environment in which the virtual object is placed. It is possible to generate an immersive image.

また、実施形態の画像処理装置5では、環境情報を処理する処理部52をさらに備え、通信部51は、風速を測定する環境センサ40により検知された所定の場所における風速を示す風速情報を、所定の時間毎に取得し、処理部52は、風速情報にゆらぎを加えた情報を生成し、生成部53は、処理部52によりゆらぎが加えられた環境情報に基づいて、環境画像Bを生成する。これにより、実施形態の画像処理装置5は、より現実感のある仮想空間画像Gを生成することができる。処理部52が風速情報にゆらぎを加えることにより、一定のパターンが繰り返されることなく、適度に変化する仮想空間画像Gを生成することができるためである。
また、実施形態の画像処理装置5では、生成部53は、環境情報に基づいてアイコン画像Dを仮想空間画像Gに合成する。これにより、実施形態の画像処理装置5は、より閲覧者に仮想物体の置かれた環境が理解されやすい仮想空間画像Gを生成することができる。
Further, the image processing device 5 of the embodiment further includes a processing unit 52 that processes environmental information, and the communication unit 51 provides wind speed information indicating the wind speed at a predetermined location detected by the environment sensor 40 that measures the wind speed. Acquired at predetermined time intervals, the processing unit 52 generates information in which fluctuations are added to the wind speed information, and the generation unit 53 generates an environment image B based on the environment information in which fluctuations are added by the processing unit 52. do. As a result, the image processing device 5 of the embodiment can generate a more realistic virtual space image G. This is because the processing unit 52 can generate a virtual space image G that changes appropriately without repeating a constant pattern by adding fluctuations to the wind speed information.
Further, in the image processing apparatus 5 of the embodiment, the generation unit 53 synthesizes the icon image D into the virtual space image G based on the environmental information. As a result, the image processing device 5 of the embodiment can generate a virtual space image G in which the environment in which the virtual object is placed can be more easily understood by the viewer.

また、実施形態の画像処理システム1は、画像処理装置5と、画像処理装置5により出力された仮想空間画像Gを表示する表示装置2とを備える。これにより、実施形態の画像処理システム1は、現実感のある仮想空間画像を生成して表示させることができる。 Further, the image processing system 1 of the embodiment includes an image processing device 5 and a display device 2 for displaying the virtual space image G output by the image processing device 5. As a result, the image processing system 1 of the embodiment can generate and display a realistic virtual space image.

上述の実施形態では、通信部51により風速等が取得される例について説明したが、これに限定されることはなく、例えば、通信部51は音に関する情報を取得してもよい。この場合、画像処理システム1は、更に音出力装置(例えば、スピーカ)を備える。また、環境センサ40として、例えば、収音マイクが用いられる。
通信部51は、収音マイクにより収音された環境音(例えば、風の音や犬の遠吠えなど)を、通信ネットワーク3を介して取得する。処理部52は、必要に応じて環境音をフィルタ処理するなどしてノイズを除去する処理を行う。通信部51は、通信ネットワーク3を介して環境音を音出力装置に送信する。音出力装置は、通信ネットワーク3を介して通信部51から受信した環境音を出力する。ここで、音出力装置は、例えば、表示装置2の近くに設置される。音出力装置が表示装置2の近くに設置されることにより、閲覧者は、仮想空間画像Gを鑑賞しながら環境音を聴くことができる。
In the above-described embodiment, an example in which the wind speed or the like is acquired by the communication unit 51 has been described, but the present invention is not limited to this, and for example, the communication unit 51 may acquire information regarding sound. In this case, the image processing system 1 further includes a sound output device (for example, a speaker). Further, as the environment sensor 40, for example, a sound collecting microphone is used.
The communication unit 51 acquires the environmental sound (for example, the sound of the wind, the howling of a dog, etc.) collected by the sound collecting microphone via the communication network 3. The processing unit 52 performs processing for removing noise by filtering environmental sounds as necessary. The communication unit 51 transmits the environmental sound to the sound output device via the communication network 3. The sound output device outputs the environmental sound received from the communication unit 51 via the communication network 3. Here, the sound output device is installed near, for example, the display device 2. By installing the sound output device near the display device 2, the viewer can listen to the environmental sound while viewing the virtual space image G.

また、上述の実施形態では、生成部53が、風速情報や光景画像Mに基づいて仮想空間画像を生成する例を説明したが、これに限定されることはなく、例えば、生成部53、環境情報に基づいて、仮想空間画像Gにおける光源(ライティング)を決定するようにしてもよい。
生成部53は、例えば、図3に示す光景画像Mに基づいて、仮想空間画像Gにおける光源の位置、および光源の光量を決定する。そして、生成部53は、決定した光源に基づいて、陰影のある仮想空間画像Gを生成する。光景画像Mに基づいて光源の位置および光量を決定することができる。これにより、例えば現実に近い状況を仮想空間画像Gで表現することができる。また、朝に見る仮想空間画像Gと、夜に見る仮想空間画像Gとでそれぞれの異なる表情を表現することで、閲覧者の興味をひき飽きさせないようにすることが可能となる。
あるいは、生成部53は、図2に示す時刻と日照時間とに基づいて、仮想空間画像Gにおける光源の位置、および光源の光量を決定するようにしてもよい。
Further, in the above-described embodiment, an example in which the generation unit 53 generates a virtual space image based on the wind speed information and the scene image M has been described, but the present invention is not limited to this, and for example, the generation unit 53, the environment. The light source (lighting) in the virtual space image G may be determined based on the information.
The generation unit 53 determines, for example, the position of the light source in the virtual space image G and the amount of light of the light source based on the scene image M shown in FIG. Then, the generation unit 53 generates a virtual space image G with a shadow based on the determined light source. The position and amount of light can be determined based on the scene image M. Thereby, for example, a situation close to reality can be expressed by the virtual space image G. Further, by expressing different facial expressions between the virtual space image G viewed in the morning and the virtual space image G viewed at night, it is possible to prevent the viewer from getting bored.
Alternatively, the generation unit 53 may determine the position of the light source in the virtual space image G and the amount of light of the light source based on the time shown in FIG. 2 and the sunshine duration.

また、生成部53は、例えば、通信部51を介して取得した天候を示す情報に基づいて、仮想空間画像Gにおける雨や、雪を表現してもよい。生成部53は、例えば、降雨量や降雪量、及び風向きを示す情報に基づいて、仮想空間画像Gにおける雨や、雪の画像を生成する。 Further, the generation unit 53 may represent rain or snow in the virtual space image G, for example, based on the information indicating the weather acquired via the communication unit 51. The generation unit 53 generates, for example, an image of rain or snow in the virtual space image G based on information indicating the amount of rainfall, the amount of snowfall, and the wind direction.

また、上述の実施形態では、生成部53が、通信部51を介して取得した現在の環境情報に基づいて仮想空間画像Gを生成する例について説明したが、これに限定されることはなく、例えば、生成部53は、過去に取得された環境情報に基づいて仮想空間画像Gを生成してもよい。生成部53により、例えば、春夏秋冬それぞれの代表的な環境情報に基づいて仮想空間画像Gが生成されることで、閲覧者は物体画像Aにおける四季折々の表情を鑑賞することができる。また、過去に取得された環境情報を蓄積し分析することで、直近の未来であれば、現実感を失うこと無く環境に反映させることができる。例えば、数分後に夕立が降った場合の仮想空間画像Gを生成することもできる。
また、生成部53は、物体画像Aに物体画像Aとは縁のない場所の環境情報を反映させた仮想空間画像Gを生成してもよい。例えば、閲覧者に(今はない)江戸城がパリにあったらどう見えるのか等といった未知の体験をさせることができる。
Further, in the above-described embodiment, an example in which the generation unit 53 generates the virtual space image G based on the current environment information acquired via the communication unit 51 has been described, but the present invention is not limited to this. For example, the generation unit 53 may generate the virtual space image G based on the environment information acquired in the past. For example, the generation unit 53 generates the virtual space image G based on the representative environmental information of each of spring, summer, autumn, and winter, so that the viewer can appreciate the facial expressions of the object image A in each season. In addition, by accumulating and analyzing environmental information acquired in the past, it is possible to reflect it in the environment without losing the sense of reality in the near future. For example, it is possible to generate a virtual space image G when the convectional rain falls after a few minutes.
Further, the generation unit 53 may generate a virtual space image G in which the object image A reflects the environmental information of a place having no connection with the object image A. For example, viewers can be given an unknown experience, such as what an (now non-existent) Edo Castle would look like in Paris.

また、上述の実施形態では、仮想空間画像Gに博物館等における展示物を再現させた画像を表示させる場合を例に説明したが、これに限定されることはなく、例えば、仮想空間画像Gとして、観光センタ等における観光名所の様子を示す画像を表示させてもよい。環境に応じて変化する観光名所の様子が表示されることで、観光名所に興味を持つ閲覧者が増える可能性がある。また、仮想空間画像Gとして、駅やショッピングモール等における電子広告(デジタルサイネージ)を示す画像を表示させてもよい。環境に応じて変化する電子広告を目にすることで購買意欲を持つ閲覧者が増える可能性がある。 Further, in the above-described embodiment, the case where an image in which an exhibit in a museum or the like is reproduced is displayed on the virtual space image G has been described as an example, but the present invention is not limited to this, and the virtual space image G is used, for example. , An image showing the state of a tourist attraction in a tourist center or the like may be displayed. By displaying the state of tourist attractions that change according to the environment, there is a possibility that the number of viewers who are interested in tourist attractions will increase. Further, as the virtual space image G, an image showing an electronic advertisement (digital signage) at a station, a shopping mall, or the like may be displayed. By seeing electronic advertisements that change according to the environment, there is a possibility that the number of viewers who are willing to buy will increase.

(実施形態の変形例1)
次に、実施形態の変形例1について説明する。本変形例では、環境情報に加え、人物の視線を仮想空間画像Gに反映させる。ここでの人物の視線とは、例えば、仮想空間画像Gに表示される場所にいる現地の見学者の視線である。仮想空間画像Gに、現地の見学者の視線を反映させることにより、現地の見学者の視線を通じて、現地の見学者が体験した内容を閲覧者に追体験させることが可能となる。
(Modification 1 of the embodiment)
Next, a modification 1 of the embodiment will be described. In this modification, in addition to the environmental information, the line of sight of the person is reflected in the virtual space image G. The line of sight of the person here is, for example, the line of sight of a local visitor at a place displayed on the virtual space image G. By reflecting the line of sight of the local visitor in the virtual space image G, it is possible to relive the contents experienced by the local visitor through the line of sight of the local visitor.

本変形例の画像処理システム1の環境センサ群4は、視線センサ41(不図示)を備える。
視線センサ41は、仮想空間画像Gに表示された場所にいる現地の見学者に関する視線情報を取得する。視線情報は、見学者の在不在、見学者が存在する場合にはその位置、身体の向き、および視線を示す情報である。視線センサ41は、例えば、現地に見学者がいるか否かを検知するカメラや赤外線センサである。また、視線センサ41は、例えば、見学者がいる場合にその位置や身体の向き、視線等を検知する3Dセンサである。
環境センサ40Aは、視線情報を検知する。環境センサ40Aは、検知した情報を、通信ネットワーク3を介して、画像処理装置5に送信する。
The environment sensor group 4 of the image processing system 1 of this modification includes a line-of-sight sensor 41 (not shown).
The line-of-sight sensor 41 acquires line-of-sight information about a local visitor at a location displayed on the virtual space image G. The line-of-sight information is information indicating the presence or absence of a visitor, the position of the visitor if present, the orientation of the body, and the line of sight. The line-of-sight sensor 41 is, for example, a camera or an infrared sensor that detects whether or not there is a visitor in the field. Further, the line-of-sight sensor 41 is, for example, a 3D sensor that detects the position, the direction of the body, the line of sight, and the like when there is a visitor.
The environment sensor 40A detects line-of-sight information. The environment sensor 40A transmits the detected information to the image processing device 5 via the communication network 3.

画像処理装置5の通信部51は、環境センサ40Aにより検知された視線情報を、通信ネットワーク3を介して取得する。通信部51は、取得した視線情報を処理部52に出力する。
処理部52は、通信部51から視線情報を取得し、取得した視線情報に対し、必要に応じてフィルタ処理するなどしてノイズを除去等することにより視線情報を加工する。
生成部53は、処理部52により加工された視線情報に基づいて、仮想空間画像Gを生成する。具体的に、生成部53は、仮想空間画像Gに表示させる仮想物体の視点位置を視線情報に示された位置とし、仮想物体の視線方向を視線情報に示された視線の方向とする。これにより、生成部53は、仮想空間画像Gに表示されている場所に実際にいる見学者が見ている光景と同様のカメラアングルによる仮想空間画像Gを生成する。
The communication unit 51 of the image processing device 5 acquires the line-of-sight information detected by the environment sensor 40A via the communication network 3. The communication unit 51 outputs the acquired line-of-sight information to the processing unit 52.
The processing unit 52 acquires line-of-sight information from the communication unit 51, and processes the line-of-sight information by removing noise or the like by filtering the acquired line-of-sight information as necessary.
The generation unit 53 generates a virtual space image G based on the line-of-sight information processed by the processing unit 52. Specifically, the generation unit 53 sets the viewpoint position of the virtual object to be displayed on the virtual space image G as the position indicated by the line-of-sight information, and sets the line-of-sight direction of the virtual object as the direction of the line-of-sight indicated by the line-of-sight information. As a result, the generation unit 53 generates the virtual space image G with the same camera angle as the scene actually seen by the visitor at the place displayed on the virtual space image G.

なお、仮想空間画像Gに表示されている場所にいる見学者が複数である場合には、各々の見学者に関する視線情報が環境センサ40Aにより検知され、通信部51等を介して生成部53に取得される。生成部53は、複数の見学者の各々についての視線情報を取得した場合、当該複数の人物の中から予め定めた条件に合致する見学者を自動的に選択して、当該選択した見学者の位置や視線を反映させた仮想空間画像Gを生成するようにしてよい。
生成部53は、自動的に見学者を選択する場合、例えば、予め定めた所定の範囲にいる見学者であって、尚且つ、予め定めた所定の範囲に視線を向けている見学者を自動で選択し、選択した見学者の位置や視線を反映させた仮想空間画像Gを生成する。
また、生成部53は、選択した見学者のいる位置が予め定めた所定の範囲から外れたり、選択した見学者の視線が予め定めた所定の範囲から外れたりした場合には、他の見学者の中から条件に合致する見学者を選択し直してもよいし、あるいは予め設定されていた基準の位置、および視線に基づいて仮想空間画像Gを生成するようにしてもよい。
When there are a plurality of visitors in the place displayed on the virtual space image G, the line-of-sight information about each visitor is detected by the environment sensor 40A and is transmitted to the generation unit 53 via the communication unit 51 or the like. To be acquired. When the generation unit 53 acquires the line-of-sight information for each of the plurality of visitors, the generation unit 53 automatically selects a visitor who meets the predetermined conditions from the plurality of persons, and the selected visitor The virtual space image G that reflects the position and the line of sight may be generated.
When the generation unit 53 automatically selects a visitor, for example, a visitor who is in a predetermined range and who is looking at a predetermined range is automatically selected. Select with and generate a virtual space image G that reflects the position and line of sight of the selected visitor.
In addition, when the position where the selected visitor is located deviates from a predetermined range, or the line of sight of the selected visitor deviates from a predetermined range, the generation unit 53 may be used by another visitor. A visitor who meets the conditions may be reselected from the list, or the virtual space image G may be generated based on a preset reference position and line of sight.

なお、複数の見学者の各々についての視線情報を取得した場合、生成部53は、画像処理装置5の入力部(不図示)から、画像処理装置5の管理者等の操作により入力された情報に基づいて、(つまり、手動により)当該複数の人物の中から位置や視線を反映させる見学者を選択するようにしてよい。 When the line-of-sight information for each of the plurality of visitors is acquired, the generation unit 53 is the information input from the input unit (not shown) of the image processing device 5 by the operation of the administrator of the image processing device 5. Based on (that is, manually), a visitor who reflects the position and the line of sight may be selected from the plurality of persons.

以上説明したように、実施形態の変形例1の画像処理装置5では、通信部51(「取得部」の一例)は、人物の視線に関する視線情報を取得し、生成部53は、視線情報に示される視線の方向に応じた仮想物体を含む仮想空間画像Gを生成する。これにより、実施形態の変形例1の画像処理装置5では、現地の見学者等の視線を用いて、現地の見学者が見たであろう光景を閲覧者に閲覧させることが可能となる。 As described above, in the image processing device 5 of the modification 1 of the embodiment, the communication unit 51 (an example of the “acquisition unit”) acquires the line-of-sight information regarding the line-of-sight of the person, and the generation unit 53 uses the line-of-sight information. A virtual space image G including a virtual object corresponding to the direction of the indicated line of sight is generated. As a result, in the image processing device 5 of the first modification of the embodiment, it is possible to make the viewer view the scene that the local visitor would have seen by using the line of sight of the local visitor or the like.

なお、上述した変形例1では、現地を訪れる見学者がいる場合に、その見学者の視線を仮想空間画像Gに反映させる場合を例示して説明したが、これに限定されない。現地を訪れる見学者がいない場合であっても、人の視線を仮想空間画像Gに反映させるようにしてもよい。画像処理装置5は、例えば、予め用意された見学者(協力者)に現地を訪問させ、その動線や位置毎の視線を取得するようにしてもよい。例えば、協力者に、ヘッドマウントカメラ(装着型カメラ)を身に着けて現地を見学してもらい、その協力者の視線情報を取得する。そして、現地を訪れる見学者がいない場合、画像処理装置5は、取得済みの協力者の視線情報を仮想空間画像Gに反映させるようにしてもよい。 In the above-mentioned modification 1, when there is a visitor who visits the site, the case where the line of sight of the visitor is reflected in the virtual space image G has been described as an example, but the present invention is not limited to this. Even if there are no visitors to visit the site, the line of sight of a person may be reflected in the virtual space image G. The image processing device 5 may, for example, have a visitor (cooperator) prepared in advance visit the site and acquire the flow line or the line of sight for each position. For example, a collaborator is asked to wear a head-mounted camera (wearable camera) to tour the site and acquire the line-of-sight information of the collaborator. Then, when there is no visitor to visit the site, the image processing device 5 may reflect the acquired line-of-sight information of the collaborator in the virtual space image G.

また、上述した変形例1では、実在する見学者の視線を仮想空間画像Gに反映させる場合を例示して説明したが、これに限定されない。仮想空間画像Gに視線を反映させる人物は、実在しない人物であってもよく、例えば、仮想空間画像Gに表示される場所で活躍した歴史上の人物や仮想空間画像Gに表示される場所が舞台の小説の主人公等であってよい。
この場合、例えば、画像処理システム1は、視線情報生成部(不図示)を備える。視線情報生成部は、歴史上の人物の日記や自伝、小説の内容等の記録に基づいて、歴史上の人物や小説の主人公の位置や視線を抽出し、抽出した内容から視線情報を生成する。視線情報生成部は、生成した視線情報を、通信部51に送信する。
Further, in the above-mentioned modification 1, the case where the line of sight of an existing visitor is reflected in the virtual space image G has been illustrated and described, but the present invention is not limited to this. The person who reflects the line of sight in the virtual space image G may be a non-existent person, for example, a historical person who was active in the place displayed in the virtual space image G or a place displayed in the virtual space image G. It may be the main character of a novel on the stage.
In this case, for example, the image processing system 1 includes a line-of-sight information generation unit (not shown). The line-of-sight information generation unit extracts the position and line of sight of a historical person or the hero of a novel based on the records of historical figures, autobiographies, novel contents, etc., and generates line-of-sight information from the extracted contents. .. The line-of-sight information generation unit transmits the generated line-of-sight information to the communication unit 51.

以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。例えば、通信ネットワーク3を介さず、有線で各装置を接続することが挙げられる。 Although some embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention. For example, it is possible to connect each device by wire without going through the communication network 3.

1…画像処理システム、2…表示装置、3…通信ネットワーク、4…環境センサ群、5…画像処理装置、51…通信部、52…処理部、53…生成部。 1 ... Image processing system, 2 ... Display device, 3 ... Communication network, 4 ... Environment sensor group, 5 ... Image processing device, 51 ... Communication unit, 52 ... Processing unit, 53 ... Generation unit.

Claims (7)

環境に関する環境情報として、環境センサにより測定された測定値を取得する取得部と、
前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体の画像を生成する生成部と、
前記生成部により生成された画像を出力する出力部と
を備えることを特徴とする画像処理装置。
As environmental information about the environment, the acquisition unit that acquires the measured value measured by the environment sensor ,
A generator that processes the measured value by adding fluctuations to the measured value and changes the measured value over time, and generates an image of a virtual object according to the situation shown in the processed environmental information.
An image processing apparatus including an output unit that outputs an image generated by the generation unit.
前記生成部は、前記測定値に所定の振幅を有する正弦波を加算することにより前記環境情報を加工する、 The generator processes the environmental information by adding a sine wave having a predetermined amplitude to the measured value.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1.
前記取得部は、所定の場所における前記環境情報を検知するセンサ群、及び所定の場所における前記環境情報を記憶した装置のうち少なくともいずれかより前記環境情報を取得する
ことを特徴とする請求項1又は請求項2に記載の画像処理装置。
The acquisition unit is characterized in that it acquires the environmental information from at least one of a group of sensors that detect the environmental information at a predetermined place and a device that stores the environmental information at a predetermined place. Or the image processing apparatus according to claim 2 .
前記生成部は、前記環境情報に基づいて、前記環境情報に示される状況に応じて変化する環境画像を生成する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像処理装置。
The image according to any one of claims 1 to 3 , wherein the generation unit generates an environmental image that changes according to the situation shown in the environmental information based on the environmental information. Processing equipment.
前記取得部は、人物の視線に関する視線情報を取得し、
前記生成部は、前記視線情報に示される視線の方向に応じた前記仮想物体の画像を生成する
ことを特徴とする請求項1から請求項のいずれか一項に記載の画像処理装置。
The acquisition unit acquires line-of-sight information regarding the line of sight of a person, and obtains the line-of-sight information.
The image processing apparatus according to any one of claims 1 to 4 , wherein the generation unit generates an image of the virtual object according to the direction of the line of sight shown in the line-of-sight information.
請求項1から請求項のいずれか一項に記載の画像処理装置と、
前記画像処理装置により出力された画像を表示する画像表示装置
を備えることを特徴とする画像処理システム。
The image processing apparatus according to any one of claims 1 to 5 .
An image processing system including an image display device that displays an image output by the image processing device.
取得部が環境に関する環境情報として、環境センサにより測定された測定値を取得する工程と、
生成部が前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体を生成する工程と、
出力部が前記生成部により生成された画像を出力する工程と
を有することを特徴とする画像処理方法。
The process of acquiring the measured value measured by the environment sensor as environmental information about the environment by the acquisition unit,
A process in which the generation unit processes the measured value by adding fluctuations to the measured value and changes the measured value over time to generate a virtual object according to the situation shown in the processed environmental information.
An image processing method characterized in that the output unit includes a step of outputting an image generated by the generation unit.
JP2018004415A 2018-01-15 2018-01-15 Image processing device, image processing system, and image processing method Active JP7081162B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018004415A JP7081162B2 (en) 2018-01-15 2018-01-15 Image processing device, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018004415A JP7081162B2 (en) 2018-01-15 2018-01-15 Image processing device, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2019125108A JP2019125108A (en) 2019-07-25
JP7081162B2 true JP7081162B2 (en) 2022-06-07

Family

ID=67399352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018004415A Active JP7081162B2 (en) 2018-01-15 2018-01-15 Image processing device, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP7081162B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6857776B1 (en) 2020-12-25 2021-04-14 株式会社コロプラ Programs, information processing methods, information processing devices, and systems
WO2024181061A1 (en) * 2023-03-01 2024-09-06 富士フイルム株式会社 Image processing device, method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003264740A (en) 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2007226580A (en) 2006-02-24 2007-09-06 Advanced Telecommunication Research Institute International Image output device and image output method
JP2012095914A (en) 2010-11-04 2012-05-24 Ns Solutions Corp Golf player support system, user terminal device, method of supporting golf player, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003264740A (en) 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2007226580A (en) 2006-02-24 2007-09-06 Advanced Telecommunication Research Institute International Image output device and image output method
JP2012095914A (en) 2010-11-04 2012-05-24 Ns Solutions Corp Golf player support system, user terminal device, method of supporting golf player, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安川 雅紀,多種データの柔軟な重ね合わせ機能を有するAIRSデータ可視化システム,DEWS2006論文集 [online] ,日本,電子情報通信学会データ工学研究専門委員会

Also Published As

Publication number Publication date
JP2019125108A (en) 2019-07-25

Similar Documents

Publication Publication Date Title
US6496780B1 (en) Systems and methods for conveying weather reports
CN101512632B (en) Display apparatus and display method
US11272600B2 (en) Information processing apparatus and information processing method
CN103399403B (en) Display device, display packing
US20180053333A1 (en) Digital Image Animation
CN105551087B (en) Scenic spot holographic real-time virtual reality system based on cloud and its seizure system and method
CN105809739B (en) Scenic spot holographic real-time virtual reality system based on cloud
JP7081162B2 (en) Image processing device, image processing system, and image processing method
US11150056B2 (en) System and method for dynamic camouflaging
KR20210151039A (en) Virtual reality system having transparent display through which internal space is looked
JP2013149029A (en) Information processor, information processing method
CN106557512B (en) Image sharing method, device and system
US12044543B2 (en) Dynamic StreetView with view images enhancement
KR101873681B1 (en) System and method for virtual viewing based aerial photography information
KR101110275B1 (en) Image processing device and image processing methods using screen cover
Walker et al. Monitoring the night sky with the Cerro Tololo All-Sky camera for the TMT and LSST projects
JP2024515552A (en) Digital map animation with real-world traffic lights
JP2007174142A (en) Video distribution system
JP2006345362A (en) Video display system for artificial window, and artificial window unit
KR20240016727A (en) Experience sharing system and method
JP2018206396A (en) Street viewer system
Warnecke The visualisation of the ceaseless atmosphere
FR2999004A1 (en) SYSTEM AND METHOD FOR SIMULATION OF WORK IMPACT IN BECOMING
KR101110276B1 (en) Image processing device and image processing methods using multiple screens
KR102189439B1 (en) Smart frame system and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R150 Certificate of patent or registration of utility model

Ref document number: 7081162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150