JP7081162B2 - Image processing device, image processing system, and image processing method - Google Patents
Image processing device, image processing system, and image processing method Download PDFInfo
- Publication number
- JP7081162B2 JP7081162B2 JP2018004415A JP2018004415A JP7081162B2 JP 7081162 B2 JP7081162 B2 JP 7081162B2 JP 2018004415 A JP2018004415 A JP 2018004415A JP 2018004415 A JP2018004415 A JP 2018004415A JP 7081162 B2 JP7081162 B2 JP 7081162B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- environmental information
- sight
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、画像処理装置、画像処理システム、及び画像処理方法に関する。 The present invention relates to an image processing apparatus, an image processing system, and an image processing method.
博物館等では遺跡などを復元した仮想空間の画像(以下、仮想空間画像)を表示する表示システムがある。このような表示システムでは、遺跡に対する興味を深めてもらうことを目的の一つとしている。
一方、特許文献1には、ユーザの体調やその日の気象等の各種データをゲーム上の仮想空間画像に反映させることでゲーム内容を変化させて楽しむ方法が開示されている。
In museums and the like, there is a display system that displays images of virtual space (hereinafter referred to as virtual space images) that have been restored from archaeological sites. One of the purposes of such a display system is to deepen the interest in the ruins.
On the other hand,
しかしながら、遺跡などを復元した仮想空間画像は、予め設計された内容に基づいて作成されたものであり、決められた光景を表示するにすぎないため、閲覧者によっては物足りない場合がある。時間の経過とともに遺跡の表情が変化したり、予想外な光景が表示されたりすることがなく、現実感(リアリティ)に欠けるためである。このため、現実感がある仮想空間画像、あたかもそこに遺跡が存在し続けていたかのような仮想空間画像を生成することが求められる。 However, the virtual space image obtained by restoring the archaeological site or the like is created based on the contents designed in advance, and only displays a predetermined scene, so that it may be unsatisfactory depending on the viewer. This is because the expression of the ruins does not change with the passage of time and unexpected scenes are not displayed, and the reality is lacking. For this reason, it is required to generate a virtual space image with a sense of reality, as if the ruins continued to exist there.
本発明は、このような状況に鑑みてなされたもので、現実感のある仮想空間画像を生成することができる画像処理装置、画像処理システム、及び画像処理方法を提供することである。 The present invention has been made in view of such a situation, and is to provide an image processing apparatus, an image processing system, and an image processing method capable of generating a realistic virtual space image.
上述した課題を解決するために、本発明の一態様は、環境に関する環境情報として、環境センサにより測定された測定値を取得する取得部と、前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体を生成する生成部と、前記生成部により生成された画像を出力する出力部とを備えることを特徴とする画像処理装置である。
また、本発明の一態様は、前記生成部は、前記測定値に所定の振幅を有する正弦波を加算することにより前記環境情報を加工することを特徴とする画像処理装置である。
In order to solve the above-mentioned problems, one aspect of the present invention is an acquisition unit that acquires a measured value measured by an environment sensor as environmental information regarding the environment, and the measured value is changed over time by adding fluctuations to the measured value. It is provided with a generation unit that processes the measured value by changing the measurement value to generate a virtual object according to the situation shown in the processed environment information, and an output unit that outputs an image generated by the generation unit. This is an image processing device characterized by the above.
Further, one aspect of the present invention is an image processing apparatus characterized in that the generation unit processes the environmental information by adding a sine wave having a predetermined amplitude to the measured value.
また、本発明の一態様は、前記取得部は、所定の場所における前記環境情報を検知するセンサ群、及び前記環境情報を記憶した装置のうち少なくともいずれかより前記環境情報を取得することを特徴とする画像処理装置である。 Further, one aspect of the present invention is characterized in that the acquisition unit acquires the environmental information from at least one of a sensor group that detects the environmental information at a predetermined place and a device that stores the environmental information. It is an image processing device.
また、本発明の一態様は、前記生成部は、前記環境情報に基づいて、前記環境情報に示される状況に応じて変化する環境画像を生成することを特徴とする画像処理装置である。 Further, one aspect of the present invention is an image processing apparatus characterized in that the generation unit generates an environmental image that changes according to the situation shown in the environmental information based on the environmental information.
また、本発明の一態様は、前記取得部は、人物の視線に関する視線情報を取得し、前記生成部は、前記視線情報に示される視線の方向に応じた前記仮想物体の画像を生成することを特徴とする画像処理装置である。 Further, in one aspect of the present invention, the acquisition unit acquires line-of-sight information regarding the line of sight of a person, and the generation unit generates an image of the virtual object according to the direction of the line of sight shown in the line-of-sight information. It is an image processing apparatus characterized by.
また、本発明の一態様は、上記に記載の画像処理装置と、通信ネットワークを介して前記画像処理装置により出力された画像を表示する表示装置とを備えることを特徴とする画像処理システムである。 Further, one aspect of the present invention is an image processing system including the image processing device described above and a display device for displaying an image output by the image processing device via a communication network. ..
また、本発明の一態様は、取得部が環境に関する環境情報として、環境センサにより測定された測定値を取得する工程と、生成部が前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体を生成する工程と、出力部が前記生成部により生成された画像を出力する工程とを有することを特徴とする画像処理方法である。 Further, one aspect of the present invention is a step in which the acquisition unit acquires the measured value measured by the environment sensor as environmental information regarding the environment, and the generation unit adds fluctuations to the measured value to obtain the measured value over time. It has a step of processing the measured value by changing it to generate a virtual object according to the situation shown in the processed environmental information, and a step of outputting an image generated by the generating unit by the output unit. It is an image processing method characterized by.
本発明によれば、現実感のある仮想空間画像を生成することができる。 According to the present invention, it is possible to generate a realistic virtual space image.
以下、実施形態の画像処理装置、画像処理システム、及び画像処理方法を、図面を参照して説明する。 Hereinafter, the image processing apparatus, the image processing system, and the image processing method of the embodiment will be described with reference to the drawings.
図1は、本発明の一実施形態に係る画像処理システム1の概略構成の一例を示す図である。図1に示すように、画像処理システム1は、表示装置2、通信ネットワーク3、環境センサ群4及び画像処理装置5を備える。
FIG. 1 is a diagram showing an example of a schematic configuration of an
表示装置2は、通信ネットワーク3を介して画像処理装置5が生成した仮想空間画像を取得して表示する。
表示装置2は、例えば、遺跡を再現させた仮想空間画像を表示する。例えば、表示装置2は、液晶ディスプレイなどの表示画面を備え、表示画面に仮想空間画像を表示する表示装置である。また、仮想空間画像は、静止画でもよいし動画でもよい。
The
The
通信ネットワーク3は、無線通信の伝送路であってもよく、有線通信であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。
The
環境センサ群4は、環境センサ40(環境センサ40-1~40-N、Nは任意の自然数)を備える。
環境センサ40は、環境に関する情報(環境情報)を検知する。環境情報には、例えば、風向き、風力、温度、湿度、気圧、又は光などの情報が含まれてよい。例えば、環境センサ40は、風向きを検出するセンサ、風力計、温度計、湿度計、気圧計、上空や周囲の風景(例えば、全天周映像)を撮像する撮像装置などである。環境センサ40は、仮想空間に反映させたい環境情報を取得することができる所定の場所に設置され、その場所における環境情報を検知する。
環境センサ群4は、通信ネットワーク3を介して、画像処理装置5に検知した環境に関する情報を送信する。
The
The
The
画像処理装置5は、通信部51と、処理部52と、生成部53とを備える。ここで、通信部51は、「取得部」の一例である。また、通信部51は、「出力部」の一例でもある。
通信部51は、通信ネットワーク3を介して、表示装置2および環境センサ群4と無線又は有線通信する。
通信部51は、通信ネットワーク3を介して環境センサ群4により検知された環境情報を取得する。通信部51は、通信ネットワーク3を介して各種サーバにアクセスし、風向きや天候などの環境情報を取得してもよい。通信部51は、取得した環境情報を処理部52に出力する。
The
The
The
処理部52は、通信部51を介して環境センサ群4からの環境情報を取得する。処理部52は、環境センサ群4から取得した環境情報の処理を行う。ここで、環境情報の処理とは、環境情報に基づく仮想空間画像が生成しやすいように環境情報を加工することである。
図2は、実施形態の画像処理装置5が取得する環境情報の一例を示す図である。環境情報は、一時間ごとの、気温、降水量、風向、風速、日照時間、湿度、および気圧それぞれの値である。
例えば、処理部52が、時刻9時に図2に示す環境情報を取得した場合、当該時刻における環境情報の風速5.9[m/s]に対し、所定の範囲内での移動平均を算出する。これはノイズの除去を目的としている。また環境情報の取得間隔が長い場合や、環境センサ群4の付近を人や物が移動したことによりノイズが入った場合にも、処理部52により、データの補完処理をおこなう。処理部52は、取得した情報に所定のゆらぎを加える処理を行っても良い。風速に所定のゆらぎが加えられることで同じパターンを繰り返す現実感のない仮想空間画像が生成されることを抑制できる。処理部52は、例えば、風速5.9[m/s]に、所定の振幅を有する正弦波を加算することで風速5.9[m/s]を中心に風速が変化するように環境情報を加工する。
The
FIG. 2 is a diagram showing an example of environmental information acquired by the
For example, when the
生成部53は、処理部52により加工された環境情報に基づいて、当該環境情報に示される状況に応じた仮想空間画像を生成する。生成部53は、生成した仮想空間画像を、通信部51および通信ネットワーク3を介して表示装置2に送信する。以下、生成部53が仮想空間画像を生成する方法について、図3、図4を用いて説明する。
The
図3は、実施形態の画像処理装置5が取得する環境情報の他の例を示す図である。図3(a)~(c)の例では、環境情報は、撮像装置により撮像された所定の場所における所定の時刻の上空の光景画像M(光景画像M-1~M-3)である。図3(a)~(c)は、環境情報の一例として、夏の青空が撮像された光景画像M-1、秋の夜が撮像された光景画像M-2、および雨天が撮像された光景画像M-3をそれぞれ示す。
図4は、実施形態の画像処理装置5が生成する仮想空間画像の一例を示す図である。図4(a)は、風速がない又は静穏である場合の仮想空間画像G-1の例を示す。図4(b)は、風速がある場合における仮想空間画像G-2の一例を示す。図4(c)は、風速がある場合における仮想空間画像G-3の他の例を示す。
FIG. 3 is a diagram showing another example of environmental information acquired by the
FIG. 4 is a diagram showing an example of a virtual space image generated by the
図4(a)~(c)の例に示すように、仮想空間画像G(仮想空間画像G-1~G-3)は、例えば、メインの仮想物体である物体画像A、環境を表現する仮想物体である環境画像B(環境画像B-1、B-2)、および背景を表現する仮想物体である背景画像Cのそれぞれの仮想物体で構成される。
図4(a)~(c)の例で、物体画像Aは、遺跡を再現させた構造物の画像である。図4(a)、(b)の例で、環境画像Bは、風速や風向きに応じて揺れる木々の画像である。
As shown in the examples of FIGS. 4A to 4C, the virtual space images G (virtual space images G-1 to G-3) represent, for example, an object image A, which is a main virtual object, and an environment. It is composed of each virtual object of the environment image B (environment image B-1, B-2) which is a virtual object and the background image C which is a virtual object expressing the background.
In the example of FIGS. 4A to 4C, the object image A is an image of a structure that reproduces an archaeological site. In the example of FIGS. 4A and 4B, the environmental image B is an image of trees swaying according to the wind speed and the wind direction.
図4(a)の例では、生成部53は、風速に対応する環境情報が「風速がない又は静穏である」旨が示されていた場合、揺れていないか又はごく僅かに揺れている木々を示す環境画像B-1を生成する。
図4(b)の例では、生成部53は、風速に対応する環境情報が「風速がある」旨が示されていた場合、揺れている木々を示す環境画像B-1を生成する。
In the example of FIG. 4A, the
In the example of FIG. 4B, the
図4(c)に示すように、生成部53は、環境を示すアイコン画像Dを、仮想物体を示す画像に合成してもよい。例えば、アイコン画像Dは、風速を示す扇風機の画像である。生成部53は、例えば、風速に応じた回転速度で扇風機の羽根が回転する様を示すアイコン画像Dを、仮想物体を示す画像に合成する。
なお、アイコン画像Dは、環境情報に応じた画像であれば、扇風機の画像に限られることはなく、気温を示す陽炎や氷の画像、湿度を示す水滴の画像、天候を示す太陽や雪の画像、又はそれらの組み合わせであってもよい。
As shown in FIG. 4C, the
The icon image D is not limited to the image of the electric fan as long as it is an image according to the environmental information, and is not limited to the image of the electric fan, the image of the heat haze or ice indicating the temperature, the image of the water droplet indicating the humidity, or the image of the sun or snow indicating the weather. It may be an image or a combination thereof.
また、生成部53は、環境情報として図3の光景画像Mが示された場合、背景画像Cを光景画像Mに示される上空の画像とする。生成部53は、例えば、背景画像Cの領域を示す形状に光景画像Mをトリミングすることにより背景画像Cを生成する。
Further, when the scene image M of FIG. 3 is shown as environmental information, the
図5は、実施形態の画像処理装置5の動作例を示すフローチャートである。
まず、画像処理装置5は、通信部51により環境情報を取得する(ステップS1)。
次に、画像処理装置5は、環境情報を加工するか否かを判定し(ステップS2)、加工する場合、処理部52により環境情報を加工させる(ステップS3)。処理部52は、例えば、一時間ごとの風速を示す情報にゆらぎを加え、一時間ずっと同じ調子で風速を表現するのではなく適度に風速が変化する環境情報を作り出す。
FIG. 5 is a flowchart showing an operation example of the
First, the
Next, the
次に、画像処理装置5は、生成部53により仮想空間画像を生成させる。生成部53は、まず、背景画像Cを生成する(ステップS4)。生成部は、例えば、光景画像Mを仮想空間画像Gの形状にトリミングすることで背景画像Cを生成する。
次に、生成部53は、物体画像Aを生成する(ステップS5)。生成部53は、例えば、物体画像Aが環境情報により変化しない物体(例えば、仏像など)である場合には、予め記憶させた物体画像Aの画像を参照する。生成部53は、物体画像Aが環境情報により変化する物体(例えば、風に揺れるしだれ桜など)である場合には、環境情報を考慮して物体画像Aを生成する。
次に、生成部53は、環境情報に基づいて環境画像Bを生成する(ステップS6)。
そして、生成部は、生成した物体画像A、環境画像B、背景画像Cを合成することで仮想空間画像Gを生成する。
Next, the
Next, the
Next, the
Then, the generation unit generates the virtual space image G by synthesizing the generated object image A, environment image B, and background image C.
以上説明したように、実施形態の画像処理装置5は、環境に関する環境情報を取得する通信部51と、環境情報に基づいて環境情報に示される状況に応じた仮想物体を生成する生成部53と、生成部53により生成された仮想物体を含む仮想空間画像Gを出力する通信部51とを備える。
これにより、実施形態の画像処理装置5は、現実感のある仮想空間画像を生成することができる。通信部51により取得された環境情報を用いて、生成部53が環境に応じて変化する仮想空間画像Gを生成することができるためである。閲覧者がいる環境と同じように変化する仮想空間が表示装置2に表示されることにより現実感のある仮想空間画像を生成することができる。
As described above, the
As a result, the
例えば、(今はない)江戸城を復元させた画像をただ単に表示するだけでは、あまり興味を示さない閲覧者であっても、現在の東京の風速や空模様といった環境情報に応じた画像に変換して表示させることで、現在の東京の風速や空模様において江戸城がどのようにみえるのかを、より身近に現実感をもって鑑賞させることができる。
また、夜間におけるお堂の内部など、人の立ち入りが制限された空間であっても、お堂内の画像に対して夜間に応じた照明やお堂内の蝋燭に火が点いた様子を表す環境情報におうじて仮想空間画像を表現することができるため、蝋燭の明かりに照らされた仏像の姿など普段見ることができない光景を閲覧者に鑑賞させることができる。
For example, simply displaying the restored image of Edo Castle (which does not exist now) will convert it to an image according to the environmental information such as the current wind speed and sky pattern of Tokyo, even if the viewer is not very interested. By displaying it, you can see how Edo Castle looks like in the current wind speed and sky pattern of Tokyo, more closely and realistically.
In addition, even in a space where people are restricted from entering, such as inside the hall at night, the images inside the hall show the lighting according to the night and the candles in the hall lit. Since the virtual space image can be expressed by the environmental information, the viewer can appreciate the sight that cannot be seen normally, such as the appearance of the Buddha statue illuminated by the candlelight.
このように、現実の環境情報に基づいて仮想空間画像が生成されることにより、閲覧者は、予め設計され作られた画像では得られない現実感を体験させることができる。例えば、遺跡の中は常に暗いと思っていた閲覧者が、夏には葉がたくさん生い茂っていた木により日差しが遮られている様子、冬には葉が落ちてしまうため遺跡の内部に日光が入っている様子を見せることで、遺跡の中がこんなに明るくなるのだということを現実に即して実感させることができる。 By generating the virtual space image based on the actual environment information in this way, the viewer can experience a sense of reality that cannot be obtained with the pre-designed and created image. For example, a viewer who always thought that the inside of the ruins was dark, seemed to be blocked by a tree with many leaves in the summer, and the leaves fell in the winter, so the sunlight was inside the ruins. By showing the inside, you can realize that the inside of the ruins will be so bright.
また、実施形態の画像処理装置5では、通信部51は、所定の場所における環境情報を検知する環境センサ群4、所定の場所における環境情報を記憶した装置のうち少なくともいずれかから前記環境情報を取得する。これにより、実施形態の画像処理装置5は、少なくとも環境センサ群4により検知された環境情報、又は各種サーバに記憶された環境情報を取得することができる。このため、上述した効果を奏する他、各種の環境情報を取得することができる。
また、実施形態の画像処理装置5では、生成部53は、環境情報に基づいて、背景画像Cを生成する。これにより、実施形態の画像処理装置5は、仮想空間画像Gに含まれる背景画像Cについて環境に応じて変化させることができる。このため、上述した効果を奏する他、背景を変化させることにより、環境に応じた変化を表現することができる。
Further, in the
Further, in the
また、実施形態の画像処理装置5では、通信部51は、撮像装置により撮像された所定の地域における光景を示す光景画像Mを取得し、生成部53は、光景画像Mの全部又は一部を背景画像Cとする仮想空間画像Gを生成する。これにより、実施形態の画像処理装置5は、背景画像Cを実際に撮像された背景とすることができる。このため、上述した効果を奏する他、より現実に即した環境の変化を表現することができる。
また、実施形態の画像処理装置5では、生成部53は、環境情報に基づいて環境画像Bを生成する。これにより、実施形態の画像処理装置5は、環境画像Bについて環境に応じて変化させることができる。環境画像Bを風に揺れる木々など環境を表現することに適した画像とすることで、より閲覧者に仮想物体の置かれた環境が理解されやすい仮想空間画像Gを生成することができ、より没入感のある画像を生成することができる。
Further, in the
Further, in the
また、実施形態の画像処理装置5では、環境情報を処理する処理部52をさらに備え、通信部51は、風速を測定する環境センサ40により検知された所定の場所における風速を示す風速情報を、所定の時間毎に取得し、処理部52は、風速情報にゆらぎを加えた情報を生成し、生成部53は、処理部52によりゆらぎが加えられた環境情報に基づいて、環境画像Bを生成する。これにより、実施形態の画像処理装置5は、より現実感のある仮想空間画像Gを生成することができる。処理部52が風速情報にゆらぎを加えることにより、一定のパターンが繰り返されることなく、適度に変化する仮想空間画像Gを生成することができるためである。
また、実施形態の画像処理装置5では、生成部53は、環境情報に基づいてアイコン画像Dを仮想空間画像Gに合成する。これにより、実施形態の画像処理装置5は、より閲覧者に仮想物体の置かれた環境が理解されやすい仮想空間画像Gを生成することができる。
Further, the
Further, in the
また、実施形態の画像処理システム1は、画像処理装置5と、画像処理装置5により出力された仮想空間画像Gを表示する表示装置2とを備える。これにより、実施形態の画像処理システム1は、現実感のある仮想空間画像を生成して表示させることができる。
Further, the
上述の実施形態では、通信部51により風速等が取得される例について説明したが、これに限定されることはなく、例えば、通信部51は音に関する情報を取得してもよい。この場合、画像処理システム1は、更に音出力装置(例えば、スピーカ)を備える。また、環境センサ40として、例えば、収音マイクが用いられる。
通信部51は、収音マイクにより収音された環境音(例えば、風の音や犬の遠吠えなど)を、通信ネットワーク3を介して取得する。処理部52は、必要に応じて環境音をフィルタ処理するなどしてノイズを除去する処理を行う。通信部51は、通信ネットワーク3を介して環境音を音出力装置に送信する。音出力装置は、通信ネットワーク3を介して通信部51から受信した環境音を出力する。ここで、音出力装置は、例えば、表示装置2の近くに設置される。音出力装置が表示装置2の近くに設置されることにより、閲覧者は、仮想空間画像Gを鑑賞しながら環境音を聴くことができる。
In the above-described embodiment, an example in which the wind speed or the like is acquired by the
The
また、上述の実施形態では、生成部53が、風速情報や光景画像Mに基づいて仮想空間画像を生成する例を説明したが、これに限定されることはなく、例えば、生成部53、環境情報に基づいて、仮想空間画像Gにおける光源(ライティング)を決定するようにしてもよい。
生成部53は、例えば、図3に示す光景画像Mに基づいて、仮想空間画像Gにおける光源の位置、および光源の光量を決定する。そして、生成部53は、決定した光源に基づいて、陰影のある仮想空間画像Gを生成する。光景画像Mに基づいて光源の位置および光量を決定することができる。これにより、例えば現実に近い状況を仮想空間画像Gで表現することができる。また、朝に見る仮想空間画像Gと、夜に見る仮想空間画像Gとでそれぞれの異なる表情を表現することで、閲覧者の興味をひき飽きさせないようにすることが可能となる。
あるいは、生成部53は、図2に示す時刻と日照時間とに基づいて、仮想空間画像Gにおける光源の位置、および光源の光量を決定するようにしてもよい。
Further, in the above-described embodiment, an example in which the
The
Alternatively, the
また、生成部53は、例えば、通信部51を介して取得した天候を示す情報に基づいて、仮想空間画像Gにおける雨や、雪を表現してもよい。生成部53は、例えば、降雨量や降雪量、及び風向きを示す情報に基づいて、仮想空間画像Gにおける雨や、雪の画像を生成する。
Further, the
また、上述の実施形態では、生成部53が、通信部51を介して取得した現在の環境情報に基づいて仮想空間画像Gを生成する例について説明したが、これに限定されることはなく、例えば、生成部53は、過去に取得された環境情報に基づいて仮想空間画像Gを生成してもよい。生成部53により、例えば、春夏秋冬それぞれの代表的な環境情報に基づいて仮想空間画像Gが生成されることで、閲覧者は物体画像Aにおける四季折々の表情を鑑賞することができる。また、過去に取得された環境情報を蓄積し分析することで、直近の未来であれば、現実感を失うこと無く環境に反映させることができる。例えば、数分後に夕立が降った場合の仮想空間画像Gを生成することもできる。
また、生成部53は、物体画像Aに物体画像Aとは縁のない場所の環境情報を反映させた仮想空間画像Gを生成してもよい。例えば、閲覧者に(今はない)江戸城がパリにあったらどう見えるのか等といった未知の体験をさせることができる。
Further, in the above-described embodiment, an example in which the
Further, the
また、上述の実施形態では、仮想空間画像Gに博物館等における展示物を再現させた画像を表示させる場合を例に説明したが、これに限定されることはなく、例えば、仮想空間画像Gとして、観光センタ等における観光名所の様子を示す画像を表示させてもよい。環境に応じて変化する観光名所の様子が表示されることで、観光名所に興味を持つ閲覧者が増える可能性がある。また、仮想空間画像Gとして、駅やショッピングモール等における電子広告(デジタルサイネージ)を示す画像を表示させてもよい。環境に応じて変化する電子広告を目にすることで購買意欲を持つ閲覧者が増える可能性がある。 Further, in the above-described embodiment, the case where an image in which an exhibit in a museum or the like is reproduced is displayed on the virtual space image G has been described as an example, but the present invention is not limited to this, and the virtual space image G is used, for example. , An image showing the state of a tourist attraction in a tourist center or the like may be displayed. By displaying the state of tourist attractions that change according to the environment, there is a possibility that the number of viewers who are interested in tourist attractions will increase. Further, as the virtual space image G, an image showing an electronic advertisement (digital signage) at a station, a shopping mall, or the like may be displayed. By seeing electronic advertisements that change according to the environment, there is a possibility that the number of viewers who are willing to buy will increase.
(実施形態の変形例1)
次に、実施形態の変形例1について説明する。本変形例では、環境情報に加え、人物の視線を仮想空間画像Gに反映させる。ここでの人物の視線とは、例えば、仮想空間画像Gに表示される場所にいる現地の見学者の視線である。仮想空間画像Gに、現地の見学者の視線を反映させることにより、現地の見学者の視線を通じて、現地の見学者が体験した内容を閲覧者に追体験させることが可能となる。
(
Next, a
本変形例の画像処理システム1の環境センサ群4は、視線センサ41(不図示)を備える。
視線センサ41は、仮想空間画像Gに表示された場所にいる現地の見学者に関する視線情報を取得する。視線情報は、見学者の在不在、見学者が存在する場合にはその位置、身体の向き、および視線を示す情報である。視線センサ41は、例えば、現地に見学者がいるか否かを検知するカメラや赤外線センサである。また、視線センサ41は、例えば、見学者がいる場合にその位置や身体の向き、視線等を検知する3Dセンサである。
環境センサ40Aは、視線情報を検知する。環境センサ40Aは、検知した情報を、通信ネットワーク3を介して、画像処理装置5に送信する。
The
The line-of-sight sensor 41 acquires line-of-sight information about a local visitor at a location displayed on the virtual space image G. The line-of-sight information is information indicating the presence or absence of a visitor, the position of the visitor if present, the orientation of the body, and the line of sight. The line-of-sight sensor 41 is, for example, a camera or an infrared sensor that detects whether or not there is a visitor in the field. Further, the line-of-sight sensor 41 is, for example, a 3D sensor that detects the position, the direction of the body, the line of sight, and the like when there is a visitor.
The environment sensor 40A detects line-of-sight information. The environment sensor 40A transmits the detected information to the
画像処理装置5の通信部51は、環境センサ40Aにより検知された視線情報を、通信ネットワーク3を介して取得する。通信部51は、取得した視線情報を処理部52に出力する。
処理部52は、通信部51から視線情報を取得し、取得した視線情報に対し、必要に応じてフィルタ処理するなどしてノイズを除去等することにより視線情報を加工する。
生成部53は、処理部52により加工された視線情報に基づいて、仮想空間画像Gを生成する。具体的に、生成部53は、仮想空間画像Gに表示させる仮想物体の視点位置を視線情報に示された位置とし、仮想物体の視線方向を視線情報に示された視線の方向とする。これにより、生成部53は、仮想空間画像Gに表示されている場所に実際にいる見学者が見ている光景と同様のカメラアングルによる仮想空間画像Gを生成する。
The
The
The
なお、仮想空間画像Gに表示されている場所にいる見学者が複数である場合には、各々の見学者に関する視線情報が環境センサ40Aにより検知され、通信部51等を介して生成部53に取得される。生成部53は、複数の見学者の各々についての視線情報を取得した場合、当該複数の人物の中から予め定めた条件に合致する見学者を自動的に選択して、当該選択した見学者の位置や視線を反映させた仮想空間画像Gを生成するようにしてよい。
生成部53は、自動的に見学者を選択する場合、例えば、予め定めた所定の範囲にいる見学者であって、尚且つ、予め定めた所定の範囲に視線を向けている見学者を自動で選択し、選択した見学者の位置や視線を反映させた仮想空間画像Gを生成する。
また、生成部53は、選択した見学者のいる位置が予め定めた所定の範囲から外れたり、選択した見学者の視線が予め定めた所定の範囲から外れたりした場合には、他の見学者の中から条件に合致する見学者を選択し直してもよいし、あるいは予め設定されていた基準の位置、および視線に基づいて仮想空間画像Gを生成するようにしてもよい。
When there are a plurality of visitors in the place displayed on the virtual space image G, the line-of-sight information about each visitor is detected by the environment sensor 40A and is transmitted to the
When the
In addition, when the position where the selected visitor is located deviates from a predetermined range, or the line of sight of the selected visitor deviates from a predetermined range, the
なお、複数の見学者の各々についての視線情報を取得した場合、生成部53は、画像処理装置5の入力部(不図示)から、画像処理装置5の管理者等の操作により入力された情報に基づいて、(つまり、手動により)当該複数の人物の中から位置や視線を反映させる見学者を選択するようにしてよい。
When the line-of-sight information for each of the plurality of visitors is acquired, the
以上説明したように、実施形態の変形例1の画像処理装置5では、通信部51(「取得部」の一例)は、人物の視線に関する視線情報を取得し、生成部53は、視線情報に示される視線の方向に応じた仮想物体を含む仮想空間画像Gを生成する。これにより、実施形態の変形例1の画像処理装置5では、現地の見学者等の視線を用いて、現地の見学者が見たであろう光景を閲覧者に閲覧させることが可能となる。
As described above, in the
なお、上述した変形例1では、現地を訪れる見学者がいる場合に、その見学者の視線を仮想空間画像Gに反映させる場合を例示して説明したが、これに限定されない。現地を訪れる見学者がいない場合であっても、人の視線を仮想空間画像Gに反映させるようにしてもよい。画像処理装置5は、例えば、予め用意された見学者(協力者)に現地を訪問させ、その動線や位置毎の視線を取得するようにしてもよい。例えば、協力者に、ヘッドマウントカメラ(装着型カメラ)を身に着けて現地を見学してもらい、その協力者の視線情報を取得する。そして、現地を訪れる見学者がいない場合、画像処理装置5は、取得済みの協力者の視線情報を仮想空間画像Gに反映させるようにしてもよい。
In the above-mentioned
また、上述した変形例1では、実在する見学者の視線を仮想空間画像Gに反映させる場合を例示して説明したが、これに限定されない。仮想空間画像Gに視線を反映させる人物は、実在しない人物であってもよく、例えば、仮想空間画像Gに表示される場所で活躍した歴史上の人物や仮想空間画像Gに表示される場所が舞台の小説の主人公等であってよい。
この場合、例えば、画像処理システム1は、視線情報生成部(不図示)を備える。視線情報生成部は、歴史上の人物の日記や自伝、小説の内容等の記録に基づいて、歴史上の人物や小説の主人公の位置や視線を抽出し、抽出した内容から視線情報を生成する。視線情報生成部は、生成した視線情報を、通信部51に送信する。
Further, in the above-mentioned
In this case, for example, the
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。例えば、通信ネットワーク3を介さず、有線で各装置を接続することが挙げられる。
Although some embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention. For example, it is possible to connect each device by wire without going through the
1…画像処理システム、2…表示装置、3…通信ネットワーク、4…環境センサ群、5…画像処理装置、51…通信部、52…処理部、53…生成部。 1 ... Image processing system, 2 ... Display device, 3 ... Communication network, 4 ... Environment sensor group, 5 ... Image processing device, 51 ... Communication unit, 52 ... Processing unit, 53 ... Generation unit.
Claims (7)
前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体の画像を生成する生成部と、
前記生成部により生成された画像を出力する出力部と
を備えることを特徴とする画像処理装置。 As environmental information about the environment, the acquisition unit that acquires the measured value measured by the environment sensor ,
A generator that processes the measured value by adding fluctuations to the measured value and changes the measured value over time, and generates an image of a virtual object according to the situation shown in the processed environmental information.
An image processing apparatus including an output unit that outputs an image generated by the generation unit.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1.
ことを特徴とする請求項1又は請求項2に記載の画像処理装置。 The acquisition unit is characterized in that it acquires the environmental information from at least one of a group of sensors that detect the environmental information at a predetermined place and a device that stores the environmental information at a predetermined place. Or the image processing apparatus according to claim 2 .
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像処理装置。 The image according to any one of claims 1 to 3 , wherein the generation unit generates an environmental image that changes according to the situation shown in the environmental information based on the environmental information. Processing equipment.
前記生成部は、前記視線情報に示される視線の方向に応じた前記仮想物体の画像を生成する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の画像処理装置。 The acquisition unit acquires line-of-sight information regarding the line of sight of a person, and obtains the line-of-sight information.
The image processing apparatus according to any one of claims 1 to 4 , wherein the generation unit generates an image of the virtual object according to the direction of the line of sight shown in the line-of-sight information.
前記画像処理装置により出力された画像を表示する画像表示装置
を備えることを特徴とする画像処理システム。 The image processing apparatus according to any one of claims 1 to 5 .
An image processing system including an image display device that displays an image output by the image processing device.
生成部が前記測定値にゆらぎを加えて前記測定値を経時的に変化させることにより前記測定値を加工し、前記加工した環境情報に示される状況に応じた仮想物体を生成する工程と、
出力部が前記生成部により生成された画像を出力する工程と
を有することを特徴とする画像処理方法。 The process of acquiring the measured value measured by the environment sensor as environmental information about the environment by the acquisition unit,
A process in which the generation unit processes the measured value by adding fluctuations to the measured value and changes the measured value over time to generate a virtual object according to the situation shown in the processed environmental information.
An image processing method characterized in that the output unit includes a step of outputting an image generated by the generation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004415A JP7081162B2 (en) | 2018-01-15 | 2018-01-15 | Image processing device, image processing system, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004415A JP7081162B2 (en) | 2018-01-15 | 2018-01-15 | Image processing device, image processing system, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019125108A JP2019125108A (en) | 2019-07-25 |
JP7081162B2 true JP7081162B2 (en) | 2022-06-07 |
Family
ID=67399352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018004415A Active JP7081162B2 (en) | 2018-01-15 | 2018-01-15 | Image processing device, image processing system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7081162B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6857776B1 (en) | 2020-12-25 | 2021-04-14 | 株式会社コロプラ | Programs, information processing methods, information processing devices, and systems |
WO2024181061A1 (en) * | 2023-03-01 | 2024-09-06 | 富士フイルム株式会社 | Image processing device, method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003264740A (en) | 2002-03-08 | 2003-09-19 | Cad Center:Kk | Observation scope |
JP2007226580A (en) | 2006-02-24 | 2007-09-06 | Advanced Telecommunication Research Institute International | Image output device and image output method |
JP2012095914A (en) | 2010-11-04 | 2012-05-24 | Ns Solutions Corp | Golf player support system, user terminal device, method of supporting golf player, and program |
-
2018
- 2018-01-15 JP JP2018004415A patent/JP7081162B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003264740A (en) | 2002-03-08 | 2003-09-19 | Cad Center:Kk | Observation scope |
JP2007226580A (en) | 2006-02-24 | 2007-09-06 | Advanced Telecommunication Research Institute International | Image output device and image output method |
JP2012095914A (en) | 2010-11-04 | 2012-05-24 | Ns Solutions Corp | Golf player support system, user terminal device, method of supporting golf player, and program |
Non-Patent Citations (1)
Title |
---|
安川 雅紀,多種データの柔軟な重ね合わせ機能を有するAIRSデータ可視化システム,DEWS2006論文集 [online] ,日本,電子情報通信学会データ工学研究専門委員会 |
Also Published As
Publication number | Publication date |
---|---|
JP2019125108A (en) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6496780B1 (en) | Systems and methods for conveying weather reports | |
CN101512632B (en) | Display apparatus and display method | |
US11272600B2 (en) | Information processing apparatus and information processing method | |
CN103399403B (en) | Display device, display packing | |
US20180053333A1 (en) | Digital Image Animation | |
CN105551087B (en) | Scenic spot holographic real-time virtual reality system based on cloud and its seizure system and method | |
CN105809739B (en) | Scenic spot holographic real-time virtual reality system based on cloud | |
JP7081162B2 (en) | Image processing device, image processing system, and image processing method | |
US11150056B2 (en) | System and method for dynamic camouflaging | |
KR20210151039A (en) | Virtual reality system having transparent display through which internal space is looked | |
JP2013149029A (en) | Information processor, information processing method | |
CN106557512B (en) | Image sharing method, device and system | |
US12044543B2 (en) | Dynamic StreetView with view images enhancement | |
KR101873681B1 (en) | System and method for virtual viewing based aerial photography information | |
KR101110275B1 (en) | Image processing device and image processing methods using screen cover | |
Walker et al. | Monitoring the night sky with the Cerro Tololo All-Sky camera for the TMT and LSST projects | |
JP2024515552A (en) | Digital map animation with real-world traffic lights | |
JP2007174142A (en) | Video distribution system | |
JP2006345362A (en) | Video display system for artificial window, and artificial window unit | |
KR20240016727A (en) | Experience sharing system and method | |
JP2018206396A (en) | Street viewer system | |
Warnecke | The visualisation of the ceaseless atmosphere | |
FR2999004A1 (en) | SYSTEM AND METHOD FOR SIMULATION OF WORK IMPACT IN BECOMING | |
KR101110276B1 (en) | Image processing device and image processing methods using multiple screens | |
KR102189439B1 (en) | Smart frame system and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7081162 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |